JP4032882B2 - Haptic display device - Google Patents

Haptic display device Download PDF

Info

Publication number
JP4032882B2
JP4032882B2 JP2002250702A JP2002250702A JP4032882B2 JP 4032882 B2 JP4032882 B2 JP 4032882B2 JP 2002250702 A JP2002250702 A JP 2002250702A JP 2002250702 A JP2002250702 A JP 2002250702A JP 4032882 B2 JP4032882 B2 JP 4032882B2
Authority
JP
Japan
Prior art keywords
unit
contact
tactile
hand
mounting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002250702A
Other languages
Japanese (ja)
Other versions
JP2004094307A (en
Inventor
亮 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2002250702A priority Critical patent/JP4032882B2/en
Publication of JP2004094307A publication Critical patent/JP2004094307A/en
Application granted granted Critical
Publication of JP4032882B2 publication Critical patent/JP4032882B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、仮想現実空間の物体に対応した触力覚を呈示することによって仮想現実空間内の物体をあたかも実在するかのように知覚させる触力覚呈示装置に関するものである。
【0002】
【従来の技術】
従来から、その場に実在しない仮想現実空間を視覚及び聴覚を通じてあたかもその場に実在するかのように知覚させる技術が知られている。近年は、コンピュータの能力の向上に伴い、構築可能な仮想現実空間が広大になり、また、仮想現実空間内の物体の現実感を増すために、仮想現実空間の情報を、視覚、聴覚だけでなく手や指先に与える触力覚(物体を押したときや気流に当たったときなどに皮膚に感じられる触覚及び圧力の感触)によっても呈示することも可能になっている。
【0003】
手や指先に触力覚を呈示する技術としては、大別して人体に装着される装置を用いる技術と人体に装着される装置を用いない技術とが提案されている。人体に装着される装置を用いない技術としては、例えば特開2000−148382公報に記載された発明や、PHAMToM(SensableTechnologies社)、HapticMaster(日商エレクトロニクス社)のようなものがある。これらは、室内などに固定される装置であって、人が操作する操作部を有し、操作部を操作する際の反力を仮想現実空間の状況によって変化させることによって現実感を与えるものである。しかし、装置が室内等に固定されることにより、操作部の可動範囲によって使用者の動作範囲が制限されるから、複数人の利用者が1つの室内に構築された仮想現実空間を自由に動くような表現には適さない。
【0004】
これに対し、人体に装着される装置を用いるものは該して動作範囲が広く、複数人の利用者が1つの室内に構築された仮想現実空間を自由に動くようなこともできる。人体に装着される装置を用いる触力覚呈示装置として、アクチュエータやリンクによって駆動される骨格構造を人の指や手に付設し、骨格構造からの反力によって触力覚を呈示するものが知られている。しかし、アクチュエータやリンクを使用すると、装置の重量が重くなって利用者が動きにくさによる違和感を感じたり、機構が複雑化して部品点数が多くなりコストが高くなるなどの問題がある。
【0005】
そこで、特開平5−232859号公報に記載された発明や、特開平11−167419号公報に記載された発明のように、可撓性の容器を指の関節部の手のひら側に配置し、この容器に流体を注入して膨張させることによって指を伸ばす方向の力を加え、触力覚を呈示するものも提案されている。しかし、流体を用いると、流体の流出及び流入にある程度の時間がかかるため、応答が遅くなるという問題があった。
【0006】
また、特開平6−324622号公報に記載された発明や、CyberGrasp(VirtualTechnologies社)のように、人の指の関節間に指輪状の部材を固定し、各部材にそれぞれワイヤーの一端を固定してワイヤーを巻き取ることにより指の各関節に力を加えることによって触力覚を感じさせる技術も提案されていた。この技術によれば、前述した流体を用いるものに比べて応答の速い触力覚呈示装置を得ることができる。
【0007】
【発明が解決しようとする課題】
さらに、特開2001−166676公報には、指にそれぞれ装着される各被覆部材に回動可能な状態でそれぞれ取り付けられた各触力覚呈示部材を駆動手段によってそれぞれ駆動し、触力覚呈示部材によって手の指を押圧することによって触力覚を呈示する構成が記載されている。上記構成においては、それぞれの指に装着された各触力覚呈示部の位置をそれぞれ得るために、腕に装着されるサポータと被覆部材との間に張られたワイヤーの長さを検出している。
【0008】
しかし、触力覚の呈示や位置の検出にワイヤーを用いると、ワイヤーを誘導する構成やワイヤを巻き取る構成やワイヤーの長さを検出する構成などが必要であり、構造が複雑になっていた。
【0009】
本発明は上記事由に鑑みてなされたものであり、その目的は、簡素な構成で触力覚を呈示することができる触力覚呈示装置を提供することにある。
【0010】
【課題を解決するための手段】
請求項1の発明は、画像表示手段によって物体の存在する3次元空間として表示された仮想現実空間における触力覚を呈示する触力覚呈示装置であって、人の手に装着される装着部と、前記装着部の3次元の位置を検出する位置検出手段と、実空間における3次元の位置と仮想現実空間における3次元の位置とを対応させ前記仮想現実空間において前記位置検出手段によって検出された位置に対応する位置が所定の物体に接触する領域にある接触状態であるか否かを判定する判定手段と、前記装着部が装着された手に接触する位置と前記装着部が装着された手から離れる位置との間で移動可能な触力覚呈示部と、前記触力覚呈示部を駆動する駆動手段と、前記判定手段によって接触状態でないと判定されたときには前記触力覚呈示部が前記装着部が装着された手に接触せず前記判定手段によって接触状態であると判定されたときには前記触力覚呈示部が前記装着部が装着された手に接触するように前記駆動手段を制御する制御手段とを備え、前記装着部と前記触力覚呈示部と前記駆動手段とが一体に設けられていて、前記触力覚呈示部は、柱状の接触部と、一端部において前記接触部を支持し他端部が前記装着部に軸支され前記装着部が装着された手のひらに前記接触部が接触する位置と前記装着部が装着された手のひらから前記接触部が離れる位置との間で回転可能な連結部とからなることを特徴とする。ここで「手」とは手首から先だけではなく、一般に腕と呼ばれる部分も含む。
【0011】
請求項2の発明は、請求項1の発明において、前記制御手段は、前記判定手段によって接触状態であると判定されたときに、前記仮想現実空間において前記位置検出手段によって検出された位置に対応する位置が受けるべき力の大きさに応じて前記駆動手段の力を制御することを特徴とする。
【0015】
請求項の発明は、請求項1又は請求項2の発明において、複数の前記触力覚呈示部と、各触力覚呈示部にそれぞれ対応した複数の駆動手段とを備え、前記制御手段は、前記位置検出手段によって検出された位置に対応する前記仮想現実空間における位置が前記仮想現実空間において凹凸のある所定の物体に接触する領域であるときに、前記所定の物体の凸部に対応する位置の前記触力覚呈示部が前記装着部が装着された手に接触するように各駆動手段を個別に制御することを特徴とする。
【0018】
請求項の発明は、請求項1又は請求項2の発明において、前記接触部は前記連結部に沿った向きと前記連結部に交差する向きとの間で向きを変えることができることを特徴とする。
【0021】
請求項の発明は、請求項1乃至請求項のいずれか1項の発明において、前記触力覚呈示部において少なくとも前記装着部が装着された手に接触する部位を振動させるバイブレータを備え、前記制御部は前記判定手段によって接触状態であると判定されたときに前記所定の物体の触感に応じて前記バイブレータを動作させることを特徴とする。
【0022】
請求項の発明は、請求項1乃至請求項3又は請求項5のいずれか1項の発明において、前記触力覚呈示部は透明な部材からなることを特徴とする。
【0024】
請求項の発明は、請求項1乃至請求項のいずれか1項の発明において、手の甲を覆う形で前記装着部に保持され前記仮想現実空間の画像を表示する画像表示部を備えることを特徴とする。
【0025】
【発明の実施の形態】
以下、本発明の実施の形態及び本発明に関連した参考例を図面に基づいて説明する。
【0026】
参考例1)
参考例における触力覚呈示装置は、人の手に装着され仮想現実空間における触力覚を呈示する装着体1を備える。装着体1は、図1に示すように、指のない手袋状であって人の手に装着される装着部11を備える。装着部11の手のひら側には、装着部11の3次元の位置を検出する位置検出手段12が取り付けられている。位置検出手段12としては、例えば装着部11の向きを検出するジャイロセンサと装着部11の平行移動を検出する加速度センサとを組み合わせて用いる。
【0027】
また、装着部11の手のひら側の手首付近には、板状の触力覚呈示部13の一端部が軸支され、触力覚呈示部13の他端部は装着部11を装着した手の指の手のひら側に対向している。触力覚呈示部13は、装着部11に固定された駆動手段14(図2参照)によって駆動され、装着部1が装着された手のひらに接触する位置と装着部11が装着された手のひらから離れる位置との間で矢印A1で示す方向に回転可能となっている。具体的には、例えば図2に示すように駆動手段14としてモータを用い、装着部11を装着した手の指が並ぶ方向に回転軸14aを向けて装着部11に固定する。触力覚呈示部13は、長方形板状の本体部13lと、本体部13lの短手方向の一端部から長手方向に沿って延びた取り付け部13mとからなり、装着部11を装着した手のひらと本体部13lとが対向する形で取り付け部13mにおいて駆動手段14の回転軸14aと結合されている。駆動手段14の回転軸14aが図2の右側から見て左回りに回転すると、触力覚呈示部13は装着部11を装着した手のひらから本体部13lが離れる方向に回転し、駆動手段14の回転軸14aが図2の右側から見て右回りに回転すると、触力覚呈示部13は装着部11を装着した手のひらに本体部13lが近付く方向に回転する。
【0028】
また、触力覚呈示装置は、図3に示すように仮想現実空間を3次元空間として表示するスクリーンやヘッドマウントディスプレイのような画像表示手段2と、仮想現実空間を制御するコンピュータ3とを備える。コンピュータ3は、仮想現実空間についての情報が格納される仮想現実空間情報格納部31と、仮想現実空間情報格納部31に格納された情報に応じた画像を画像表示手段2に表示させる画像表示手段制御部32と、プログラムに沿って仮想現実空間についての情報を随時書きかえるとともに駆動手段14を制御する中央制御部33と、装着体1と通信するための通信部34とを備える。また、装着体1にはコンピュータ3と通信するための通信部15が設けられている。ここで、画像表示手段制御部32と画像表示手段2と間の通信及び装着体1の通信部15とコンピュータ3の通信部34との間の通信は、電波や赤外線等を用いた無線通信であっても伝送線を介した有線通信であってもよい。
【0029】
次に、コンピュータ3の動作の一例を図4を用いて説明する。予め、利用者が体験する環境に応じた仮想現実空間の情報が仮想現実空間情報格納部31に格納される。まず、仮想現実空間の情報に変更すべき点があれば中央制御部33が仮想現実空間情報格納部31に格納された仮想現実空間の情報を書きかえる(S1)。次に、画像表示手段制御部32は仮想現実空間情報格納部31に格納された情報に応じた画像を生成し、画像表示手段2に表示させる(S2)。次に、中央制御部33は、位置検出手段12によって検出された装着部11の位置の情報を取得する(S3)。次に、実空間における3次元の位置と仮想現実空間における3次元の位置とを対応させ位置検出手段12によって検出された実空間の位置に仮想現実空間において対応する位置が所定の物体に接触する領域にある接触状態であるか否かを判定する(S4)。つまり、コンピュータ3は判定手段として機能する。(S4)において接触状態でないと判定されれば、装着部11が装着された手から離れた位置において触力覚呈示部13が保持されるように駆動手段14を制御し、(S3)に戻る。(S4)において接触状態であると判定されれば、位置検出手段12によって検出された位置が仮想現実空間における所定の物体の存在する領域に対応する実空間の領域に侵入した侵入量を算出する(S5)。次に、コンピュータ3の通信部34および装着体1の通信部15を介して、装着部11が装着された手のひらに触力覚呈示部13が接触するように駆動手段14を動作させる(S6)。このとき、ステップS5で得られた侵入量に応じた力で触力覚呈示部13が駆動されるように、例えば駆動手段14に流す電流を制御することによって、駆動手段14のトルクを制御する。つまり、コンピュータ3は判定手段として機能するとともに制御手段として機能する。この後(S1)に戻り、例えば、ステップS5において得られた侵入量が予め定められた基準値よりも大きければ単に物体に接触したのではなく物体が押されて動いたと判定し、接触した物体の移動などの仮想現実空間の変化に合わせて仮想現実空間情報格納部31における仮想現実空間の情報を書きかえる。ここで、装着部11を装着した手が触力覚呈示部13を押す力を検出してコンピュータ3の中央制御部33に出力する力センサを触力覚呈示部13に設け、力センサの出力が予め定められた基準値よりも大きい場合に仮想現実空間における物体が押されて動いたと判定するようにしてもよい。
【0030】
上記構成によれば、装着部11と、位置検出手段12と、触力覚呈示部13とが一体に設けられているから、人体に装着された装置を用いない触力覚呈示装置に比べて可動範囲を広くとることができ、かつ位置検出や触力覚の呈示にワイヤーを用いる場合に比べて簡素な構成とすることができる。
【0031】
参考例2)
参考例における触力覚呈示部13は、図5に示すように板状であって装着部11が装着された手のひらに対向する形で支持されている。駆動手段としてのモータ(図示せず)の回転運動を直線運動に変換するリンクの組み合わせを用いることによって、触力覚呈示部13は装着部11に対する向きが変化しないように駆動される。具体的には例えば、装着部11の手のひら側から突設された棒状の誘導部17aと、装着部11の手のひら側であって誘導部よりも手首側に設けられた矩形箱状の基台部17bとを備える。触力覚呈示部13は、矩形板状であって本体部13aと、本体部13aの一端部において本体部13aの表裏の一面に立設され本体部13aの厚み方向に沿って並んだ歯が設けられたラック部13bとからなる。触力覚呈示部13は、本体部13aの一端が基台部17bに当接するとともに誘導部17aが厚み方向に貫通することにより、装着部11が装着された手のひらに本体部13aが対向しラック部13bが装着部11から離れる方向に延びる向きで支持されている。基台部17bにはラック部13bの歯と噛合する歯が全周に設けられた歯車状のピニオン部17cが設けられている。また、基台部17bにはピニオン部17bを矢印A2で示す方向に回転させる駆動モータ(図示せず)が収納されている。ピニオン部17cが回転すると、ピニオン部17cの回転方向に応じてラック部13bが矢印A3で示す方向に移動する。すなわち、駆動モータとピニオン部17bとが駆動手段として機能する。
【0032】
また、触力覚呈示部13は本体部13aに誘導部17aが貫通していることと本体部13aの一端が基台部17bに当接していることとにより装着部11に対する回転が規制されているから、触力覚呈示部13の装着部11に対する向きは変化しない。つまり誘導部17aと基台部17bとが支持部として機能する。
【0033】
コンピュータ3の中央制御部33は、仮想現実空間において位置検出手段12によって検出された位置に対応する位置が所定の物体に接触する領域にあるときに、駆動モータを作動させることにより触力覚呈示部13を装着部11が装着された手のひらに接触させる。このとき、コンピュータ3の中央制御部33は、位置検出手段12によって検出された位置が仮想現実空間における所定の物体の存在する領域に対応する実空間の領域に侵入した侵入量に応じて、例えば駆動モータに流す電流を制御することにより、触力覚呈示部13を駆動する力を制御する。その他の構成は参考例1と同様である。
【0034】
上記構成によれば、触力覚呈示部13が装着部11に対する向きを保ったまま駆動されるから、手のひらに沿った壁などに触れる際の触力覚を呈示することができる。
【0035】
参考例3)
参考例においては、図6に示すように触力覚呈示部13は矩形板状であって、一端部において触力覚呈示部13の一側面の中間部に連結され他端部において装着部11に軸支された支持部17を備える。支持部17は、装着部11が装着された手のひらに触力覚呈示部13が接触する位置と装着部11が装着された手のひらから触力覚呈示部13が離れる位置との間で矢印A4で示す方向に回転可能となっている。また、装着部11には支持部17を駆動する駆動手段14が取り付けられている。駆動手段14としては、例えば参考例1において示したようなモータを用いる。さらに、支持部17と触力覚呈示部13との間には、支持部17に対する触力覚呈示部13の向きを矢印A5で示す方向に変化させる連結部駆動手段が設けられている。連結部駆動手段としては、例えば支持部17に取り付けられ回転軸が触力覚呈示部13に固定されたモータを用いる。
【0036】
コンピュータ3の中央制御部33は、駆動手段14を動作させる際に、装着部11に対する触力覚呈示部13の向きが変化しないように、連結部駆動手段を駆動手段14と同時に動作させる。その他の構成は、参考例1と同様である。
【0037】
上記構成によれば、触力覚呈示部13が装着部11に対する向きを保ったまま駆動されるから、物体の表面にまっすぐ手を伸ばして触れる際の触力覚を参考例1に比べて自然な形で呈示することができる。
【0038】
なお、装着部11を装着した手のひらに対する触力覚呈示部13の向きをコンピュータ3の中央制御部33の制御によって変更可能な構成としてもよい。この構成によれば、凹凸のある壁や斜面のある壁に接触する際の触力覚を呈示することができる。
【0039】
(実施形態
本実施形態における触力覚呈示部13は、図7に示すように、円柱状の接触部13cと、一端が接触部13cの一端に連結され他端が装着部11に軸支された連結部13dとからなる。連結部13dは、装着部11が装着された手に接触部13cが接触する位置と装着部11が装着された手から接触部13cが離れる位置との間で駆動手段14に駆動されて矢印A7で示す方向に回転可能となっている。駆動手段14としては、例えば参考例1に示したようなモータを用いる。その他の構成は参考例1と同様である。
【0040】
上記構成によれば、円柱状のドアノブのような物体に接触する際の触力覚を呈示することができる。
【0041】
また、接触部13cを連結部13dに対して接触部13cの周方向に回転可能とするとともに、例えばポテンショメータを用いて接触部13cの連結部13dに対する回転の向きと回転角度とを検出し、得られた接触部13cの連結部13dに対する回転の向きと回転角度とをコンピュータ3の中央制御部33に入力する構成を採用してもよい。この構成によれば、例えば接触部13cをドアノブに見たてて、コンピュータ3の中央制御部33は、接触部13cの連結部13dに対する回転角度であって予め定められた向きへの回転角度が予め定められた値よりも大きくなったときに、使用者がドアノブをひねる操作をしたと判定するといったことができる。
【0042】
(実施形態
本実施形態においては、図8に示すように、触力覚呈示部13は指の並ぶ方向に並べて複数(例えば3本)設けられ、それぞれ一方向に長い板状に形成されている。各触力覚呈示部13はそれぞれ一端部において装着部11の手のひら側に軸支され、それぞれ一本の指に接触する位置と手のひらから離れる位置との間で矢印A6で示す方向に回転可能である。また、各触力覚呈示部13はそれぞれ1つの駆動手段14によって個別に駆動される。駆動手段14としては、例えば参考例1において示したモータよりも小型のモータを、参考例1において示したモータと同様にして用いる。
【0043】
また、コンピュータ3の中央制御部33は、位置検出手段12によって検出された位置に仮想現実空間において対応する位置が凹凸のある所定の物体に接触する位置であった場合に、物体の凸部に対応する位置の触力覚呈示部13が接触するように、各駆動手段14を個別に制御する。ここで、仮想現実空間において所定物体の存在する領域に対応する実空間における領域への侵入量を各触力覚呈示部13の位置毎に算出し、それぞれの侵入量に応じて各駆動手段14が触力覚呈示装置を駆動する力を個別に制御してもよい。その他の構成は、参考例1と同様である。
【0044】
上記構成によれば、凹凸のある物体に接触する際の触力覚が呈示できる。
【0045】
参考例4
参考例における触力覚呈示部13は、図9に示すように、装着部11に装着された手の指が並ぶ方向における装着部11の両端部においてそれぞれ一端部が軸支された2本の柱状の回転部13eを備える。一方の回転部13eには回転部の周方向に沿った2方向に回転可能な駆動ローラ(図示せず)と駆動ローラを駆動するローラ駆動手段(図示せず)とが設けられ、他方の回転部13eには駆動ローラと同じ方向に回転可能な従動ローラ(図示せず)が設けられている。駆動ローラと従動ローラとの間には無端ベルト13fが張設されていて、各回転部13eは、装着部11が装着された手の指に無端ベルト13fが接触する位置と装着部11が装着された手の指から無端ベルト13fが離れる位置との間でそれぞれ矢印A8で示す方向に回転可能となっている。駆動ローラの回転に伴って、無端ベルト13fにおいて装着部11が装着された手の指に接触する部位が装着部11が装着された手の指が並ぶ方向に移動するように、無端ベルト13fは搬送される。
【0046】
参考例におけるコンピュータ3の中央制御部33は、位置検出手段12によって検出された位置に仮想現実空間において対応する位置が所定の物体に接触する領域にあるとき、位置検出手段12によって検出された位置に対応する仮想現実空間における位置が所定の物体に対して装着部11を装着した指の並ぶ方向に対応する方向に移動すると、位置検出手段12によって検出された位置が所定の物体の位置に対応する実空間における位置に対する移動に対して向きについては逆向きであって速度については同じ速度で無端ベルト13fが搬送されるようにローラ駆動手段を制御する。ローラ駆動手段として直流モータを用いた場合、直流モータに流す電流の向きを制御することにより直流モータの回転の向きを制御するとともに、直流モータにかける電圧の大きさを制御することにより直流モータの回転速度を制御する。例えば、装着部11が装着された手のひらが仮想現実空間における所定の物体の表面に対応する位置を図9における右から左に移動した場合、矢印A9で示すように無端ベルト13fにおいて装着部11が装着された手の指に接触する部位が左から右に移動する向きに搬送されるようにローラ駆動手段を制御する。つまり、無端ベルト13fが摩擦感呈示部として機能し、ローラ駆動手段が摩擦部駆動手段として機能する。
【0047】
上記構成によれば、装着部11を装着した手の指が並ぶ方向について、物体をこする際の摩擦感や移動する物体に接触する際の摩擦感を呈示することができる。
【0048】
参考例5
参考例における触力覚呈示部13は、図10に示すように、装着部11が装着された手の指に対向する位置において一部が露出し触力覚呈示部13の他の部位に対して中心の位置を変化させずに矢印A11で示すように回転可能な球状部13gと、板状であって一端部において装着部11に軸支され装着部11が装着された手の指に球状部13gが接触する位置と装着部11が装着された手から球状部13gが離れる位置との間で駆動手段14に駆動されて矢印A10で示すように回転可能な本体部13kとを備える。触力覚呈示部13には、互いに異なる方向に球状部13gを回転させる2つの球状部駆動手段(図示せず)が設けられている。球状部駆動手段としては、例えば直流モータと、直流モータの回転軸に取り付けられ球状部13gの表面との間に摩擦力を生じるローラとを用いる。
【0049】
参考例におけるコンピュータ3の中央制御部33は、位置検出手段12によって検出された位置に仮想現実空間において対応する位置が所定の物体に接触する領域にあるとき、位置検出手段12によって検出された位置に対応する仮想現実空間における位置が所定の物体に対して所定の物体の表面に沿った方向に移動すると、位置検出手段12によって検出された位置が所定の物体の位置に対応する実空間における位置に対する移動に対して速さについては同じ速さであって向きについては逆向きに球状部13gにおいて装着部11が装着された手の指に接触する部位が移動するように各球状部駆動手段をそれぞれ制御する。例えば、球状部駆動手段として上記のように直流モータとローラとを用いた場合、各直流モータに流す電流の向きをそれぞれ制御して各直流モータの回転の向きを制御するとともに各直流モータにかける電圧の大きさをそれぞれ制御して各直流モータの回転速度をそれぞれ制御することで、任意の方向に球状部13gを回転させることができる。その他の構成は、参考例1と同様である。
【0050】
上記構成によれば、各球状部駆動手段の動作をそれぞれ制御することによって球状部13gを任意の向きに回転させることができるから、装着部11を装着した手のひらに沿った任意の向きについて、物体をこする際の摩擦感や移動する物体に接触する際の摩擦感を呈示する事ができる。
【0051】
(実施形態
本実施形態は、触力覚呈示部13が接触部13cと連結部13dとからなる点は実施形態と同様であるが、接触部13cが連結部13dに対して向きを変えることができる点が異なっている。
【0052】
詳しく説明すると、接触部13cの側面には長さ方向の中間部から一端にかけて長さ方向に延びた収納溝13nが設けられている。接触部13cは、長さ方向の中間部の収納溝13nの内側において連結部13dの装着部11から離れた側の端部に軸支されていて、図11(a)に示すように連結部13dに沿った向きと図11(b)に示すように装着部11が装着された手のひらに沿って連結部13dに直交する向きとの間で矢印A12および矢印A13で示す方向に回転可能となっている。その他の構成は、参考例1と同様である。
【0053】
上記構成によれば、連結部13dに沿った方向に延びた柱状の物体に接触した際の触力覚だけでなく、連結部13dに交差する方向であって手のひらに沿った方向に延びた柱状の物体に接触した際の触力覚をも呈示することができる。
【0054】
(実施形態
本実施形態は、図12に示すように、指のない手袋状であって人の手に装着される装着部11と、装着部11の手のひら側であって手首付近において装着部に固定された触力覚呈示部13とを備えた装着体1を有する。触力覚呈示部は、装着部11を装着した手の指が並ぶ方向に交差する方向であって装着部11を装着した手の平に沿った方向に開口を有し装着部11に固定された筒状の収納部13hと、収納部13hの内側に収納され装着部11を装着した手に掴むことができない位置と収納部13hから突出し装着部11を装着した手に掴むことができる位置との間で収納部13hの内壁に誘導されて矢印14で示す方向に移動可能な円柱状の接触部13iとを備える。接触部13iは、図示しない駆動手段によって駆動される。駆動手段としては、例えば接触部において収納部に収納される側の端面から長さ方向に延びたねじ穴と、その内側に螺合したねじ軸と、収納部13hに固定されねじ軸を回転させる駆動モータとからなる送りねじ機構を用いる。
【0055】
また、図3に示された参考例1と同様の画像表示部2とコンピュータ3とを備える。ただし、以下に述べる点においては参考例1におけるコンピュータ3と本実施形態におけるコンピュータ3とは異なる。コンピュータ3の中央制御部33は、仮想現実空間において位置検出手段によって検出された位置に対応する位置が所定の物体に接触しない領域にあるときには触力覚呈示部13の接触部13iが装着部11を装着した手に掴むことができる位置に位置し、仮想現実空間において位置検出手段によって検出された位置に対応する位置が所定の物体に接触する領域にあるときには触力覚呈示部13の接触部13iが装着部11を装着した手に掴むことができない位置に位置するように駆動手段を動作させる。
【0056】
上記構成によれば、仮想現実空間において位置検出手段によって検出された位置に対応する位置が所定の物体に接触する領域にあるときに、使用者は装着部11を装着した手を握る動作を行うことによって円柱状の物体を握る際の触力覚を得ることができる。
【0057】
なお、触力覚呈示部13の接触部13iが装着部11を装着した手に掴むことができる位置にあるときには接触部13iにおいて収納部13hから露出する部位を収納部13hに対して接触部13iの周方向に回転可能とするとともに、接触部13iにおいて収納部13hから露出する部位の収納部13hに対する回転の向きと回転角度とを例えばポテンショメータを用いて検出し、得られた回転の向きと回転角度とをコンピュータ3の中央制御部33に入力する構成を採用してもよい。この構成によれば、例えば接触部13iをドアノブに見たてて、コンピュータ3の中央制御部33は、接触部13iにおいて収納部13hから露出する部位の収納部13hに対する回転角度であって予め定められた向きへの回転角度が予め定められた値よりも大きくなったときに、使用者がドアノブをひねる操作をしたと判定するといったことができる。
【0058】
ここで、実施形態1乃至4および参考例1乃至参考例5において、触力覚呈示部13において装着部11が装着された手に接触する部位を振動させるバイブレータを設け、コンピュータ3の中央制御部33は、位置検出手段12によって検出された位置に仮想現実空間において対応する位置が仮想現実空間の所定の物体に接触する位置にあるときに、接触する所定の物体の表面の状態に応じてバイブレータを動作させる構成を採用してもよい。この構成によれば、例えば表面がざらざらした物体などの触感をバイブレータを動作させることによって呈示することができる。
【0059】
(実施形態
本実施形態は、気流に接触した際の触力覚を呈示するものであって、図13に示すように、指のない手袋状であって人の手に装着される装着部11と、装着部11を装着した手の指の手のひら側に一部が対向する形で装着部11に固定される触力覚呈示部13と、装着部11の位置を検出する位置検出手段12(図1参照)と、気流を発生させる図示しない送風手段とを備えた装着体1を有する。送風手段としては、例えば回転速度がコンピュータ3の中央制御部33によって制御される直流モータであるファン駆動モータとファン駆動モータによって駆動されるファンとを用い、これらを触力覚呈示部13の内部において装着部11を装着した手の手首に近い位置に配置する。触力覚呈示部13において装着部11を装着した手の指の手のひら側に対向する部位には、送風手段によって発生した気流が流出する通風孔13jが設けられている。
【0060】
また、図3に示された参考例1と同様の画像表示部2とコンピュータ3とを備える。ただし、以下に述べる点においては参考例1におけるコンピュータ3と本実施形態におけるコンピュータ3とは異なる。仮想現実空間情報格納部31に格納された情報は仮想現実空間における気流の情報を含み、コンピュータ3の中央制御部33は、前記仮想現実空間において前記位置検出手段によって検出された位置に対応する位置が気流に接触する接触状態であるか否かを判定し、接触状態と判定したときに、例えばファン駆動モータにかける電圧を制御することにより、装着部11の位置に対応する仮想現実空間における位置の気流の強さに応じた強さの気流を送風手段に発生させる。
【0061】
上記構成によれば、気流に接触した際の触力覚を呈示することができる。
【0062】
なお、送風手段によって発生した気流の流路に電熱器を配置しコンピュータ3の中央制御部33は仮想現実空間における温度に応じて電熱器に流す電流を制御する構成や、送風手段と通気項13jとの間に通常の流路とは別に保冷材が配置された流路を設けてコンピュータ3の中央制御部33の制御によって2つの流路を切換可能な構成を採用してもよい。この構成によれば、仮想現実空間における温度の変化を呈示することができる。
【0063】
ここで、以上の実施形態1乃至5および参考例1乃至5において、図14に示すように液晶ディスプレイのような画像表示部16を装着部11の手の甲側に設け、位置検出手段12によって検出された位置と向きとに対応する仮想現実空間の画像を生成して画像表示部16に表示させる画像生成部をコンピュータ3に設ける構成を採用してもよい。この構成によれば、画像表示手段としてスクリーンを用いる場合に、例えば画像表示部16とスクリーンとが重なる部分における仮想現実空間の画像を画像表示部16に表示させることによって装着体1を目立たなくすることができ、装着体1が視界に入ることによる現実感の減退を抑えることができる。さらに、画像表示部16を画像表示手段2として用い、コンピュータ3をも装着体1と一体化することによって、人の手に装着される装着体1のみによって、視覚と触力覚とを融合した複合現実感を利用者に呈示することができる。また、参考例1乃至参考例3と本実施形態とにおいては、画像表示部16を触力覚呈示部13において手のひらに面する面に設けてもよい。この構成によれば、画像表示部16とスクリーンとが重なる部分における仮想現実空間の画像を画像表示部16に表示させることによって触力覚呈示部13を目立たなくすることができ、触力覚呈示部13が視界に入ることによる現実感の減退を抑えることができる。
【0064】
また、実施形態1および実施形態2,実施形態4,実施形態5と参考例1乃至参考例5とにおいては、触力覚呈示部13において手に接触する部位を透明な部材から形成してもよい。この構成によれば、触力覚呈示部13を目立たなくすることができるから、触力覚呈示部13が視界に入ることによる現実感の減退を抑えることができる。
【0065】
【発明の効果】
請求項1の発明は、人の手に装着される装着部と、前記装着部の3次元の位置を検出する位置検出手段と、実空間における3次元の位置と仮想現実空間における3次元の位置とを対応させ前記仮想現実空間において前記位置検出手段によって検出された位置に対応する位置が所定の物体に接触する領域にある接触状態であるか否かを判定する判定手段と、前記装着部が装着された手に接触する位置と前記装着部が装着された手から離れる位置との間で移動可能な触力覚呈示部と、前記触力覚呈示部を駆動する駆動手段と、前記判定手段によって接触状態でないと判定されたときには前記触力覚呈示部が前記装着部が装着された手に接触せず前記判定手段によって接触状態であると判定されたときには前記触力覚呈示部が前記装着部が装着された手に接触するように前記駆動手段を制御する制御手段とを備え、前記装着部と前記触力覚呈示部と前記駆動手段とが一体に設けられているから、人体に装着されない装置によって触力覚を呈示する場合に比べて利用者の移動可能な領域を広くとることができ、画像表示手段として1つのスクリーンを用いて呈示される視覚と本発明による触力覚とを融合した複合現実感を複数の利用者に対して同時に提供することができる。また、装着部が装着された手に接触する位置と装着部が装着された手から離れる位置との間で移動可能な触力覚呈示部によって触力覚を呈示するから、ワイヤーを用いて触力覚を呈示する場合に比べて簡素な構成で触力覚を呈示することができる。また、前記触力覚呈示部は、柱状の接触部と、一端部において前記接触部を支持し他端部が前記装着部に軸支され前記装着部が装着された手のひらに前記接触部が接触する位置と前記装着部が装着された手のひらから前記接触部が離れる位置との間で回転可能な連結部とからなるので、例えばドアノブのような柱状の物体に接触した場合の触力覚を呈示することができる。
【0066】
請求項2の発明は、請求項1の発明において、前記制御手段は、前記判定手段によって接触状態であると判定されたときに、前記仮想現実空間において前記位置検出手段によって検出された位置に対応する位置が受けるべき力の大きさに応じて前記駆動手段の力を制御するので、前記駆動手段が常に一定の力で駆動される場合に比べ、より現実感を増すことができる。
【0070】
請求項の発明は、請求項1又は請求項2の発明において、複数の前記触力覚呈示部と、各触力覚呈示部にそれぞれ対応した複数の駆動手段とを備え、前記制御手段は、前記位置検出手段によって検出された位置に対応する前記仮想現実空間における位置が前記仮想現実空間において凹凸のある所定の物体に接触する領域であるときに、前記所定の物体の凸部に対応する位置の前記触力覚呈示部が前記装着部が装着された手に接触するように各駆動手段を個別に制御するので、仮想現実空間における物体の凹凸に応じた触力覚を呈示することができる。
【0073】
請求項の発明は、請求項1又は請求項2の発明において、接触部は連結部に沿った向きと連結部に交差する向きとの間で向きを変えることができるので、接触部の連結部に対する向きを変更することにより、装着部を装着した手のひらに対する向きの異なるドアノブのような柱状の物体に対応する触力覚をそれぞれ呈示することができる。
【0076】
請求項の発明は、請求項1乃至請求項のいずれか1項の発明において、前記触力覚呈示部において少なくとも前記装着部が装着された手に接触する部位を振動させるバイブレータを備え、前記制御部は前記判定手段によって接触状態であると判定されたときに前記所定の物体の触感に応じて前記バイブレータを動作させるので、物体の触感を呈示することができる。
【0077】
請求項の発明は、請求項1乃至請求項3又は請求項5のいずれか1項の発明において、前記触力覚呈示部が透明な部材からなるので、触力覚呈示部が目立つことによる現実感の減退を抑えることができる。
【0079】
請求項の発明は、請求項1乃至請求項のいずれか1項の発明において、手の甲を覆う形で装着部に保持され仮想現実空間の画像を表示する画像表示部を備えるので、例えば仮想現実空間の表示にスクリーンを用いた場合にはスクリーンの映像と重なる映像を画像表示部に表示することにより装着部や触力覚呈示部を目立たなくすることができ、装着部や触力覚呈示部が目立つことによる現実感の減退を抑えることができる。
【図面の簡単な説明】
【図1】 本発明に関連した参考例1を示す説明図である。
【図2】 同上を手のひら側から見た状態を示す説明図である。
【図3】 同上の構成を示すブロック図である。
【図4】 同上の動作を示すフローチャート図である。
【図5】 本発明に関連した参考例2を示す説明図である。
【図6】 本発明に関連した参考例3を示す説明図である。
【図7】 本発明の実施形態を示す説明図である。
【図8】 本発明の実施形態を示す説明図である。
【図9】 本発明に関連した参考例4を示す説明図である。
【図10】 本発明に関連した参考例5を示す説明図である。
【図11】 本発明の実施形態を示す説明図であり、(a)は接触部が連結部に沿った位置にある状態を示し、(b)は接触部が連結部に交差する位置にある状態を示す。
【図12】 本発明の実施形態を示す説明図である。
【図13】 本発明の実施形態を示す説明図である。
【図14】 本発明における装着部に画像表示部を設けた状態を示す説明図である。
【符号の説明】
2 画像表示手段
11 装着部
12 位置検出手段
13 触力覚呈示部
13c 接触部
13d 連結
14 駆動手段
16 画像表示
33 中央制御部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a haptic sensation presentation apparatus that presents a haptic sensation corresponding to an object in a virtual reality space so as to perceive the object in the virtual reality space as if it existed.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known a technique for perceiving a virtual reality space that does not exist on the spot as if it exists on the spot through vision and hearing. In recent years, as the capabilities of computers have improved, the virtual reality space that can be constructed has become vast, and in order to increase the reality of objects in the virtual reality space, information in the virtual reality space can only be viewed and heard. In addition, it is also possible to present by a tactile sensation applied to a hand or a fingertip (a tactile sensation and a pressure sensation felt on the skin when an object is pressed or an air current is applied).
[0003]
As a technique for presenting a tactile sensation to a hand or a fingertip, a technique using a device worn on the human body and a technique not using a device worn on the human body have been proposed. Examples of a technique that does not use a device attached to the human body include the invention described in Japanese Patent Laid-Open No. 2000-148382, PHAToM (Sensable Technologies), and HapticMaster (Nissho Electronics). These are devices that are fixed indoors, etc., and have an operation unit operated by a person, and give a sense of reality by changing the reaction force when operating the operation unit according to the situation of the virtual reality space. is there. However, since the operation range of the user is limited by the movable range of the operation unit when the device is fixed in a room or the like, a plurality of users can freely move in a virtual reality space constructed in one room. It is not suitable for such expressions.
[0004]
On the other hand, a device using a device attached to a human body has a wide operation range, and a plurality of users can freely move in a virtual reality space constructed in one room. As a tactile sensation presentation device using a device attached to the human body, a skeleton structure driven by an actuator or a link is attached to a human finger or hand, and a tactile sensation is presented by a reaction force from the skeleton structure. It has been. However, when an actuator or a link is used, there is a problem that the weight of the apparatus becomes heavy and the user feels uncomfortable due to difficulty in movement, or the mechanism becomes complicated and the number of parts increases and the cost increases.
[0005]
Therefore, as in the invention described in Japanese Patent Laid-Open No. 5-232628 and the invention described in Japanese Patent Laid-Open No. 11-167419, a flexible container is arranged on the palm side of the finger joint, There has also been proposed a technique in which a force in the direction of extending a finger is applied by injecting a fluid into a container and inflating to present a tactile sensation. However, when a fluid is used, it takes a certain amount of time to flow out and inflow of the fluid, resulting in a problem that the response becomes slow.
[0006]
Further, like the invention described in Japanese Patent Laid-Open No. 6-324622 and CyberGrasp (Virtual Technologies), a ring-shaped member is fixed between joints of human fingers, and one end of the wire is fixed to each member. A technique has also been proposed in which a tactile sensation is felt by applying force to each joint of a finger by winding a wire. According to this technique, it is possible to obtain a tactile sensation presentation device that is faster in response than those using the fluid described above.
[0007]
[Problems to be solved by the invention]
Further, Japanese Patent Laid-Open No. 2001-166676 discloses that each tactile force sense presentation member attached to each covering member attached to a finger in a rotatable state is driven by a driving means, respectively. Describes a configuration that presents a tactile sensation by pressing a finger of the hand. In the above configuration, in order to obtain the position of each tactile sensation presentation unit attached to each finger, the length of the wire stretched between the supporter attached to the arm and the covering member is detected. Yes.
[0008]
However, when wires are used for the presentation of tactile sensation and position detection, a structure for guiding the wire, a structure for winding the wire, a structure for detecting the length of the wire, and the like are necessary, and the structure is complicated. .
[0009]
The present invention has been made in view of the above-described reasons, and an object thereof is to provide a haptic sense presentation device that can present a haptic sense with a simple configuration.
[0010]
[Means for Solving the Problems]
  The invention of claim 1 is a tactile sensation presentation device for presenting a tactile sensation in a virtual reality space displayed as a three-dimensional space in which an object is present by an image display means, and is a mounting unit worn on a human hand And a position detecting means for detecting a three-dimensional position of the mounting portion, and a three-dimensional position in the real space and a three-dimensional position in the virtual reality space are made to correspond to each other and detected by the position detecting means in the virtual reality space. Determining means for determining whether or not the position corresponding to the position in contact with a predetermined object is in a contact state, the position in contact with the hand on which the mounting portion is mounted, and the mounting portion being mounted The tactile sensation presentation unit that is movable between a position away from the hand, a drive unit that drives the tactile sensation presentation unit, and the tactile sensation presentation unit when the determination unit determines that it is not in a contact state. Said dress Control that controls the driving means so that the tactile force sense presenting part comes into contact with the hand wearing the wearing part when it is judged by the judging means that it is not in contact with the hand wearing the wearing part. And the mounting portion, the tactile force sense presenting portion, and the driving means are integrally provided.The tactile force sense presenting portion has a columnar contact portion, and supports the contact portion at one end, the other end is pivotally supported by the attachment portion, and the contact portion contacts the palm on which the attachment portion is attached. And a connecting portion that is rotatable between the position where the contact portion is separated from the palm where the mounting portion is mounted.It is characterized by that. Here, the “hand” includes not only the tip of the wrist but also a portion generally called an arm.
[0011]
According to a second aspect of the present invention, in the first aspect of the invention, the control means corresponds to a position detected by the position detection means in the virtual reality space when the determination means determines that the contact state is established. The force of the driving means is controlled according to the magnitude of the force that the position to receive.
[0015]
  Claim3The invention of claim 1Or claim 2In the invention, a plurality of the tactile force sense presenting units, and a plurality of driving units respectively corresponding to the tactile force sense presenting units, wherein the control unit corresponds to the position detected by the position detecting unit. When the position in the virtual reality space is a region in contact with a predetermined object having irregularities in the virtual reality space, the mounting portion is mounted with the tactile sensation presentation unit at a position corresponding to the convex portion of the predetermined object. Each driving means is individually controlled so as to come into contact with the hand.
[0018]
  Claim4The invention of claim1 or claim 2In the invention, the contact portion can change a direction between an orientation along the connecting portion and a direction intersecting the connecting portion.
[0021]
  Claim5The invention of claim 1 to claim 14In the invention of any one of the above, the tactile sensation presentation unit includes a vibrator that vibrates at least a part that contacts the hand on which the wearing unit is worn, and the control unit determines that the touching state is in the contact state. When this is done, the vibrator is operated according to the tactile sensation of the predetermined object.
[0022]
  Claim6The invention of claim 1 to claim 13 or claim 5In any one of the inventions, the haptic sensation presentation unit is made of a transparent member.
[0024]
  Claim7The invention of claim 1 to claim 16The invention according to any one of the above, further comprising an image display unit that is held by the mounting unit so as to cover the back of the hand and displays an image of the virtual reality space.
[0025]
DETAILED DESCRIPTION OF THE INVENTION
  Hereinafter, embodiments of the present invention will be described.Reference examples related to the present inventionIs described based on the drawings.
[0026]
    (Reference example1)
  BookReference exampleThe tactile force sense presenting device includes a mounting body 1 that is worn on a human hand and presents a tactile force sense in a virtual reality space. As shown in FIG. 1, the mounting body 1 is provided with a mounting portion 11 that is in a glove shape without fingers and is mounted on a human hand. Position detecting means 12 for detecting the three-dimensional position of the mounting portion 11 is attached to the palm side of the mounting portion 11. As the position detection means 12, for example, a gyro sensor that detects the orientation of the mounting portion 11 and an acceleration sensor that detects the parallel movement of the mounting portion 11 are used in combination.
[0027]
In addition, one end portion of the plate-like tactile force presentation unit 13 is pivotally supported near the wrist on the palm side of the mounting unit 11, and the other end of the tactile force sense presentation unit 13 is supported by the hand wearing the mounting unit 11. It faces the palm side of the finger. The tactile sensation presentation unit 13 is driven by driving means 14 (see FIG. 2) fixed to the mounting unit 11, and moves away from the palm where the mounting unit 11 is mounted and the position where the mounting unit 11 is mounted. It can be rotated between the positions in the direction indicated by the arrow A1. Specifically, for example, as shown in FIG. 2, a motor is used as the driving unit 14, and the rotation shaft 14 a is directed to the direction in which the fingers of the hand wearing the mounting unit 11 are arranged and fixed to the mounting unit 11. The tactile sensation presentation unit 13 includes a rectangular plate-shaped main body part 13l and a mounting part 13m extending along the longitudinal direction from one short end of the main body part 13l. The mounting portion 13m is coupled to the rotating shaft 14a of the driving means 14 so as to face the main body portion 131. When the rotation shaft 14a of the driving unit 14 rotates counterclockwise as viewed from the right side in FIG. 2, the tactile force presentation unit 13 rotates in a direction in which the main body unit 13l separates from the palm on which the mounting unit 11 is mounted. When the rotary shaft 14a rotates clockwise as viewed from the right side of FIG. 2, the tactile sensation providing unit 13 rotates in a direction in which the main body unit 13l approaches the palm on which the mounting unit 11 is mounted.
[0028]
The tactile sensation presentation apparatus includes an image display unit 2 such as a screen or a head-mounted display that displays the virtual reality space as a three-dimensional space, and a computer 3 that controls the virtual reality space, as shown in FIG. . The computer 3 includes a virtual reality space information storage unit 31 that stores information about the virtual reality space, and an image display unit that displays an image corresponding to the information stored in the virtual reality space information storage unit 31 on the image display unit 2. A control unit 32, a central control unit 33 that rewrites information about the virtual reality space according to the program as needed and controls the driving means 14, and a communication unit 34 for communicating with the mounting body 1 are provided. The mounting body 1 is provided with a communication unit 15 for communicating with the computer 3. Here, the communication between the image display means control unit 32 and the image display means 2 and the communication between the communication unit 15 of the mounting body 1 and the communication unit 34 of the computer 3 are wireless communication using radio waves, infrared rays or the like. Even if it exists, it may be wired communication via a transmission line.
[0029]
Next, an example of the operation of the computer 3 will be described with reference to FIG. Information on the virtual reality space corresponding to the environment experienced by the user is stored in the virtual reality space information storage unit 31 in advance. First, if there is a point to be changed in the virtual reality space information, the central control unit 33 rewrites the virtual reality space information stored in the virtual reality space information storage unit 31 (S1). Next, the image display means control section 32 generates an image corresponding to the information stored in the virtual reality space information storage section 31, and displays it on the image display means 2 (S2). Next, the central control unit 33 acquires information on the position of the mounting unit 11 detected by the position detection unit 12 (S3). Next, the three-dimensional position in the real space and the three-dimensional position in the virtual reality space are made to correspond to each other and the position corresponding to the position in the virtual space that is detected by the position detecting unit 12 contacts a predetermined object. It is determined whether or not the contact state is in the area (S4). That is, the computer 3 functions as a determination unit. If it is determined in (S4) that it is not in the contact state, the driving means 14 is controlled so that the tactile force sense presentation unit 13 is held at a position away from the hand on which the mounting unit 11 is mounted, and the process returns to (S3). . If it is determined in (S4) that it is in the contact state, the intrusion amount that the position detected by the position detecting means 12 has entered the real space area corresponding to the area where the predetermined object exists in the virtual reality space is calculated. (S5). Next, the driving means 14 is operated via the communication unit 34 of the computer 3 and the communication unit 15 of the mounting body 1 so that the tactile sensation providing unit 13 contacts the palm on which the mounting unit 11 is mounted (S6). . At this time, the torque of the driving means 14 is controlled, for example, by controlling the current flowing through the driving means 14 so that the tactile sensation providing unit 13 is driven with the force corresponding to the intrusion amount obtained in step S5. . That is, the computer 3 functions as a determination unit and a control unit. Thereafter, returning to (S1), for example, if the intrusion amount obtained in step S5 is larger than a predetermined reference value, it is determined that the object has not been touched but moved, and the object touched. The information of the virtual reality space in the virtual reality space information storage unit 31 is rewritten in accordance with the change of the virtual reality space such as the movement of. Here, a force sensor that detects the force with which the hand wearing the attachment unit 11 presses the tactile force presentation unit 13 and outputs it to the central control unit 33 of the computer 3 is provided in the tactile force presentation unit 13, and the output of the force sensor is provided. It may be determined that the object in the virtual reality space has been pushed and moved when is larger than a predetermined reference value.
[0030]
According to the above configuration, the mounting unit 11, the position detection unit 12, and the haptic sense presentation unit 13 are integrally provided, so that compared to a haptic sense presentation device that does not use a device attached to the human body. The movable range can be widened, and the configuration can be simplified compared to the case where a wire is used for position detection and tactile force presentation.
[0031]
    (Reference example2)
  BookReference exampleThe tactile force sense presenting portion 13 is plate-shaped as shown in FIG. 5 and is supported in a shape facing the palm on which the mounting portion 11 is mounted. By using a combination of links that convert a rotational motion of a motor (not shown) as a driving means into a linear motion, the tactile force sense presenting portion 13 is driven so that the orientation relative to the mounting portion 11 does not change. Specifically, for example, a rod-shaped guide portion 17a that protrudes from the palm side of the mounting portion 11, and a rectangular box-shaped base portion that is provided on the palm side of the mounting portion 11 and on the wrist side of the guide portion. 17b. The tactile sensation presentation unit 13 has a rectangular plate shape, and teeth arranged on the front and back surfaces of the main body 13a at one end of the main body 13a and arranged along the thickness direction of the main body 13a. The rack portion 13b is provided. The tactile sensation providing unit 13 is configured such that one end of the main body part 13a abuts on the base part 17b and the guide part 17a penetrates in the thickness direction so that the main body part 13a faces the palm on which the mounting part 11 is mounted. The part 13 b is supported in a direction extending in a direction away from the mounting part 11. The base portion 17b is provided with a gear-like pinion portion 17c in which teeth meshing with the teeth of the rack portion 13b are provided on the entire circumference. The base portion 17b houses a drive motor (not shown) that rotates the pinion portion 17b in the direction indicated by the arrow A2. When the pinion portion 17c rotates, the rack portion 13b moves in the direction indicated by the arrow A3 according to the rotation direction of the pinion portion 17c. That is, the drive motor and the pinion portion 17b function as drive means.
[0032]
Further, the rotation of the tactile force presentation unit 13 with respect to the mounting unit 11 is restricted by the guiding part 17a penetrating the main body part 13a and the one end of the main body part 13a being in contact with the base part 17b. Therefore, the orientation of the haptic sense presentation unit 13 with respect to the mounting unit 11 does not change. That is, the guide part 17a and the base part 17b function as a support part.
[0033]
  The central control unit 33 of the computer 3 presents a tactile force sense by operating the drive motor when the position corresponding to the position detected by the position detecting means 12 in the virtual reality space is in a region in contact with a predetermined object. The part 13 is brought into contact with the palm on which the mounting part 11 is mounted. At this time, the central control unit 33 of the computer 3 determines whether the position detected by the position detection unit 12 has entered the real space area corresponding to the area where the predetermined object exists in the virtual reality space, for example, By controlling the current flowing through the drive motor, the force for driving the tactile force sense presentation unit 13 is controlled. Other configurations areReference exampleSame as 1.
[0034]
According to the above configuration, the tactile force sense presentation unit 13 is driven while maintaining the orientation with respect to the mounting unit 11, so that it is possible to present a tactile force sense when touching a wall along the palm.
[0035]
    (Reference example3)
  BookReference example6, the tactile sensation providing unit 13 is in the shape of a rectangular plate, and is connected to an intermediate portion on one side surface of the tactile sensation providing unit 13 at one end and pivoted to the mounting unit 11 at the other end. A supported support portion 17 is provided. The support unit 17 is indicated by an arrow A4 between a position where the tactile sensation providing unit 13 contacts the palm on which the mounting unit 11 is mounted and a position where the tactile sense presenting unit 13 is separated from the palm on which the mounting unit 11 is mounted. It can rotate in the direction shown. In addition, driving means 14 for driving the support portion 17 is attached to the mounting portion 11. As the drive means 14, for example,Reference example1 is used. Furthermore, between the support portion 17 and the tactile force sense presenting portion 13, there is provided a connecting portion driving means for changing the direction of the tactile force sense presenting portion 13 with respect to the support portion 17 in the direction indicated by the arrow A5. As the connecting portion driving means, for example, a motor attached to the support portion 17 and having a rotation shaft fixed to the haptic sense presentation portion 13 is used.
[0036]
  The central control unit 33 of the computer 3 operates the connecting unit driving unit simultaneously with the driving unit 14 so that the orientation of the tactile force sense presenting unit 13 with respect to the mounting unit 11 does not change when the driving unit 14 is operated. Other configurations are:Reference exampleSame as 1.
[0037]
  According to the above configuration, since the tactile sensation providing unit 13 is driven while maintaining the orientation with respect to the mounting unit 11, the tactile sensation when touching the surface of the object with a straight hand is touched.Reference exampleIt can be presented in a natural form compared to 1.
[0038]
Note that the orientation of the tactile force sense presentation unit 13 with respect to the palm on which the mounting unit 11 is mounted may be changed by the control of the central control unit 33 of the computer 3. According to this configuration, it is possible to present a tactile sensation when contacting an uneven wall or an inclined wall.
[0039]
    (Embodiment1)
  As shown in FIG. 7, the tactile force presentation unit 13 in the present embodiment includes a columnar contact portion 13 c and a connection portion in which one end is connected to one end of the contact portion 13 c and the other end is pivotally supported by the mounting portion 11. 13d. The connecting portion 13d is driven by the driving means 14 between the position where the contact portion 13c comes into contact with the hand where the mounting portion 11 is mounted and the position where the contact portion 13c moves away from the hand where the mounting portion 11 is mounted. It can be rotated in the direction indicated by. As the drive means 14, for example,Reference exampleA motor as shown in FIG. Other configurations areReference exampleSame as 1.
[0040]
According to the said structure, the tactile force sense at the time of contacting an object like a cylindrical doorknob can be shown.
[0041]
Further, the contact portion 13c can be rotated in the circumferential direction of the contact portion 13c with respect to the connection portion 13d, and the rotation direction and the rotation angle of the contact portion 13c with respect to the connection portion 13d are detected by using, for example, a potentiometer. A configuration may be adopted in which the rotation direction and the rotation angle of the contact portion 13c to the connecting portion 13d are input to the central control portion 33 of the computer 3. According to this configuration, for example, when the contact portion 13c is viewed as a door knob, the central control unit 33 of the computer 3 has a rotation angle with respect to the connection portion 13d of the contact portion 13c and a rotation angle in a predetermined direction. When it becomes larger than a predetermined value, it can be determined that the user has performed an operation of twisting the door knob.
[0042]
    (Embodiment2)
  In the present embodiment, as shown in FIG. 8, a plurality of (eg, three) tactile force sense presentation units 13 are provided in the direction in which fingers are arranged, and each is formed in a plate shape that is long in one direction. Each tactile sensation presentation unit 13 is pivotally supported at one end on the palm side of the mounting unit 11, and can be rotated in the direction indicated by the arrow A6 between a position in contact with one finger and a position away from the palm. is there. Further, each tactile sensation presentation unit 13 is individually driven by one driving means 14. As the drive means 14, for example,Reference exampleA motor smaller than the motor shown in 1Reference example1 is used in the same manner as the motor shown in FIG.
[0043]
  In addition, the central control unit 33 of the computer 3 applies the convex portion of the object when the position corresponding to the position detected by the position detecting unit 12 in the virtual reality space is a position in contact with a predetermined object having irregularities. Each driving means 14 is individually controlled so that the tactile force sense presentation unit 13 at the corresponding position comes into contact. Here, the amount of intrusion into the area in the real space corresponding to the area where the predetermined object exists in the virtual reality space is calculated for each position of each tactile sensation presentation unit 13, and each driving means 14 according to each intrusion amount. May individually control the force for driving the haptic sense presentation device. Other configurations are:Reference exampleSame as 1.
[0044]
According to the said structure, the tactile force sense at the time of contacting an uneven | corrugated object can be shown.
[0045]
    (Reference example 4)
  BookReference exampleAs shown in FIG. 9, the tactile sensation presentation unit 13 has two columnar shapes with one end pivotally supported at both ends of the mounting unit 11 in the direction in which fingers of the hand mounted on the mounting unit 11 are arranged. A rotating part 13e is provided. One rotating portion 13e is provided with a driving roller (not shown) that can rotate in two directions along the circumferential direction of the rotating portion and a roller driving means (not shown) that drives the driving roller. The section 13e is provided with a driven roller (not shown) that can rotate in the same direction as the driving roller. An endless belt 13f is stretched between the driving roller and the driven roller, and each rotating portion 13e is attached to the position where the endless belt 13f is in contact with the finger of the hand to which the mounting portion 11 is attached. It can be rotated in the direction indicated by arrow A8 between the endless belt 13f and the position where the endless belt 13f is separated from the finger of the hand. As the drive roller rotates, the endless belt 13f moves so that the portion of the endless belt 13f that contacts the finger of the hand on which the mounting portion 11 is mounted moves in the direction in which the finger of the hand on which the mounting portion 11 is mounted. Be transported.
[0046]
  BookReference exampleThe central control unit 33 of the computer 3 corresponds to the position detected by the position detecting means 12 when the position corresponding to the position detected by the position detecting means 12 is in a region in contact with a predetermined object. When the position in the virtual reality space moves in a direction corresponding to the direction in which the fingers wearing the mounting unit 11 are lined up with respect to a predetermined object, the position detected by the position detection unit 12 corresponds to the position of the predetermined object. The roller driving means is controlled so that the endless belt 13f is conveyed in the opposite direction with respect to the movement with respect to the position in space and at the same speed. When a DC motor is used as the roller driving means, the direction of rotation of the DC motor is controlled by controlling the direction of the current flowing to the DC motor, and the magnitude of the voltage applied to the DC motor is controlled by controlling the direction of the DC motor. Control the rotation speed. For example, when the palm on which the mounting portion 11 is mounted moves from the right to the left in FIG. 9 at a position corresponding to the surface of a predetermined object in the virtual reality space, the mounting portion 11 is located on the endless belt 13f as indicated by an arrow A9. The roller driving means is controlled so that the part in contact with the finger of the attached hand is conveyed in a direction to move from left to right. That is, the endless belt 13f functions as a friction feeling presenting unit, and the roller driving unit functions as a frictional unit driving unit.
[0047]
According to the above configuration, it is possible to present a feeling of friction when rubbing an object or a feeling of friction when contacting a moving object in the direction in which the fingers of the hand wearing the attachment unit 11 are lined up.
[0048]
    (Reference Example 5)
  BookReference exampleAs shown in FIG. 10, the tactile force sense presenting portion 13 is partially exposed at the position facing the finger of the hand on which the mounting portion 11 is worn, and is centered with respect to other parts of the tactile force sense presenting portion 13. The spherical portion 13g that can be rotated as indicated by an arrow A11 without changing the position, and the spherical portion 13g that is plate-shaped and is pivotally supported by the mounting portion 11 at one end and attached to the finger of the hand. And a main body portion 13k that can be rotated as indicated by an arrow A10 by being driven by the driving means 14 between the position where the contact portion 11 and the position where the spherical portion 13g is separated from the hand where the mounting portion 11 is mounted. The tactile sensation presentation unit 13 is provided with two spherical portion driving means (not shown) that rotate the spherical portion 13g in different directions. As the spherical portion driving means, for example, a direct current motor and a roller that is attached to the rotating shaft of the direct current motor and generates a frictional force between the surface of the spherical portion 13g are used.
[0049]
  BookReference exampleThe central control unit 33 of the computer 3 corresponds to the position detected by the position detecting means 12 when the position corresponding to the position detected by the position detecting means 12 is in a region in contact with a predetermined object. When the position in the virtual reality space is moved in the direction along the surface of the predetermined object with respect to the predetermined object, the position detected by the position detection means 12 moves relative to the position in the real space corresponding to the position of the predetermined object. On the other hand, each spherical portion driving means is controlled so that the portion of the spherical portion 13g that contacts the finger of the hand on which the mounting portion 11 is mounted moves in the opposite direction with respect to the speed. To do. For example, when the DC motor and the roller are used as the spherical portion driving means as described above, the direction of the current flowing through each DC motor is controlled to control the direction of rotation of each DC motor and applied to each DC motor. By controlling the magnitude of the voltage and controlling the rotational speed of each DC motor, the spherical portion 13g can be rotated in any direction. Other configurations are:Reference exampleSame as 1.
[0050]
According to the above configuration, since the spherical portion 13g can be rotated in any direction by controlling the operation of each spherical portion driving means, the object can be moved in any direction along the palm on which the mounting portion 11 is mounted. It is possible to present a feeling of friction when rubbing or a feeling of friction when contacting a moving object.
[0051]
    (Embodiment3)
  The present embodiment is different from the embodiment in that the tactile sensation providing unit 13 includes a contact unit 13c and a connecting unit 13d.1However, the contact portion 13c can change the direction with respect to the connecting portion 13d.
[0052]
  More specifically, the side surface of the contact portion 13c is provided with a storage groove 13n extending in the length direction from an intermediate portion in the length direction to one end. The contact portion 13c is pivotally supported at the end of the connecting portion 13d on the side away from the mounting portion 11 inside the storage groove 13n at the intermediate portion in the length direction, and as shown in FIG. Between the direction along 13d and the direction perpendicular to the connecting part 13d along the palm on which the mounting part 11 is mounted as shown in FIG. 11B, it can be rotated in the directions indicated by the arrows A12 and A13. ing. Other configurations are:Reference exampleSame as 1.
[0053]
According to the above configuration, not only the tactile force sense when contacting the columnar object extending in the direction along the connecting portion 13d but also the columnar shape extending in the direction along the palm in the direction intersecting the connecting portion 13d. It is also possible to present a tactile sensation when touching the object.
[0054]
    (Embodiment4)
  In the present embodiment, as shown in FIG. 12, a finger-like glove-like mounting part 11 that is worn on a human hand, and a palm side of the mounting part 11 that is fixed to the mounting part near the wrist. It has the mounting body 1 provided with the tactile force sense presentation part 13. The tactile sensation presentation unit is a tube that has an opening in a direction that intersects the direction in which the fingers of the hand wearing the mounting unit 11 are lined up and is along the palm of the hand wearing the mounting unit 11 and is fixed to the mounting unit 11. 13h between a position where it cannot be gripped by the hand that is stored inside the storage portion 13h and that is mounted with the mounting portion 11, and a position that protrudes from the storage portion 13h and can be gripped by the hand mounted with the mounting portion 11 And a cylindrical contact portion 13i that is guided by the inner wall of the storage portion 13h and is movable in the direction indicated by the arrow 14. The contact portion 13i is driven by driving means (not shown). As the driving means, for example, a screw hole extending in the length direction from an end surface of the contact portion that is housed in the housing portion, a screw shaft that is screwed inside the screw hole, and a screw shaft that is fixed to the housing portion 13h and rotates the screw shaft. A feed screw mechanism composed of a drive motor is used.
[0055]
  Also shown in FIG.Reference example1 includes an image display unit 2 and a computer 3 similar to those in FIG. However, the following pointsReference example1 is different from the computer 3 in this embodiment. When the position corresponding to the position detected by the position detecting means in the virtual reality space is in a region where the central control unit 33 of the computer 3 does not come into contact with a predetermined object, the contact unit 13i of the tactile force presentation unit 13 is attached to the mounting unit 11. When the position corresponding to the position detected by the position detecting means in the virtual reality space is in a region in contact with a predetermined object, the contact portion of the tactile force sense presenting unit 13 The driving means is operated so that 13i is located at a position where it cannot be grasped by the hand wearing the mounting portion 11.
[0056]
According to the above configuration, when the position corresponding to the position detected by the position detecting unit in the virtual reality space is in a region in contact with the predetermined object, the user performs an operation of grasping the hand wearing the mounting unit 11. Thus, it is possible to obtain a tactile sensation when gripping a cylindrical object.
[0057]
When the contact part 13i of the tactile force sense presenting part 13 is in a position where it can be grasped by the hand wearing the attachment part 11, the part of the contact part 13i exposed from the storage part 13h is in contact with the storage part 13h. The rotation direction and the rotation angle of the portion exposed from the storage portion 13h in the contact portion 13i with respect to the storage portion 13h are detected using, for example, a potentiometer, and the rotation direction and rotation thus obtained are detected. A configuration may be adopted in which the angle is input to the central control unit 33 of the computer 3. According to this configuration, for example, when the contact portion 13i is viewed as a door knob, the central control unit 33 of the computer 3 is a rotation angle with respect to the storage portion 13h of the portion exposed from the storage portion 13h in the contact portion 13i and is predetermined. When the rotation angle in the specified direction becomes larger than a predetermined value, it can be determined that the user has performed an operation of twisting the door knob.
[0058]
  Here, Embodiment 1To 4 and Reference Examples 1 to 5In the tactile sensation presentation unit 13, a vibrator that vibrates a part that contacts the hand on which the mounting unit 11 is mounted is provided, and the central control unit 33 of the computer 3 has a virtual reality space at the position detected by the position detection unit 12. A configuration may be adopted in which the vibrator is operated according to the state of the surface of the predetermined object in contact when the corresponding position is in a position in contact with the predetermined object in the virtual reality space. According to this configuration, for example, a tactile sensation such as an object having a rough surface can be presented by operating the vibrator.
[0059]
    (Embodiment5)
  This embodiment presents a tactile sensation when touching an air current, and as shown in FIG. 13, a glove-like glove without a finger and worn on a human hand, A tactile sensation presentation unit 13 that is fixed to the mounting unit 11 such that a part of the finger 11 is opposed to the palm side of the finger wearing the unit 11, and a position detection unit 12 that detects the position of the mounting unit 11 (see FIG. 1). ) And an air blower (not shown) for generating an airflow. As the air blowing means, for example, a fan drive motor which is a direct current motor whose rotation speed is controlled by the central control unit 33 of the computer 3 and a fan driven by the fan drive motor are used. In FIG. 5, the mounting part 11 is disposed at a position close to the wrist of the hand. A ventilation hole 13j through which airflow generated by the blowing means flows out is provided at a portion of the tactile force sense presenting portion 13 that faces the palm side of the finger of the hand wearing the mounting portion 11.
[0060]
  Also shown in FIG.Reference example1 includes an image display unit 2 and a computer 3 similar to those in FIG. However, the following pointsReference example1 is different from the computer 3 in this embodiment. The information stored in the virtual reality space information storage unit 31 includes information on airflow in the virtual reality space, and the central control unit 33 of the computer 3 corresponds to the position detected by the position detection unit in the virtual reality space. The position in the virtual reality space corresponding to the position of the mounting unit 11 is determined by controlling, for example, the voltage applied to the fan drive motor when it is determined whether the contact state is in contact with the airflow. An air flow having a strength corresponding to the strength of the air flow is generated in the blowing means.
[0061]
According to the said structure, the tactile force sense at the time of contacting airflow can be shown.
[0062]
In addition, an electric heater is arranged in the flow path of the air flow generated by the air blowing means, and the central control unit 33 of the computer 3 controls the current flowing through the electric heater according to the temperature in the virtual reality space, or the air blowing means and the ventilation term 13j. In addition to the normal flow path, a flow path in which a cold insulating material is arranged may be provided between the two and the two flow paths may be switched by the control of the central control unit 33 of the computer 3. According to this configuration, a change in temperature in the virtual reality space can be presented.
[0063]
  Here, the first embodiment described above.To 5 and Reference Examples 1 to 514, an image display unit 16 such as a liquid crystal display is provided on the back side of the hand of the mounting unit 11 to generate an image of the virtual reality space corresponding to the position and orientation detected by the position detection unit 12. The computer 3 may be provided with an image generation unit to be displayed on the image display unit 16. According to this configuration, when the screen is used as the image display unit, the wearable body 1 is made inconspicuous by causing the image display unit 16 to display an image of the virtual reality space in a portion where the image display unit 16 and the screen overlap, for example. Therefore, it is possible to suppress a decrease in reality due to the wearing body 1 entering the field of view. Furthermore, the image display unit 16 is used as the image display means 2 and the computer 3 is also integrated with the mounting body 1 so that the visual sense and the tactile sensation are fused only by the mounting body 1 mounted on a human hand. Mixed reality can be presented to the user. Also,Reference example1 toReference example3 and the present embodiment, the image display unit 16 may be provided on the surface of the haptic sense presenting unit 13 facing the palm. According to this configuration, the haptic sensation presentation unit 13 can be made inconspicuous by causing the image display unit 16 to display an image of the virtual reality space in a portion where the image display unit 16 and the screen overlap with each other. It is possible to suppress a decrease in the sense of reality due to the part 13 entering the field of view.
[0064]
  Embodiment 1And Embodiment 2, Embodiment 4, Embodiment 5, Reference Example 1 to Reference Example 5,In the tactile sensation presentation unit 13, the part that contacts the hand may be formed from a transparent member. According to this configuration, since the haptic sense presentation unit 13 can be made inconspicuous, it is possible to suppress a decrease in realism due to the haptic sense presentation unit 13 entering the field of view.
[0065]
【The invention's effect】
  The invention according to claim 1 is a mounting part to be worn on a human hand, a position detecting means for detecting a three-dimensional position of the mounting part, a three-dimensional position in real space, and a three-dimensional position in virtual reality space. A determination unit that determines whether or not the position corresponding to the position detected by the position detection unit in the virtual reality space is in a contact state in a region in contact with a predetermined object; A tactile force sense presenting portion movable between a position in contact with the worn hand and a position away from the hand in which the wearing portion is worn; drive means for driving the tactile force sense presenting portion; and the determination means When it is determined by the determination means that the tactile sensation presenting unit does not contact the hand on which the wearing unit is mounted, the tactile sensation presenting unit Part is mounted Control means for controlling the driving means so as to come into contact with the hand, and since the mounting portion, the tactile force sense presenting portion, and the driving means are provided integrally, a tactile force is applied by a device that is not attached to the human body. Compared to the case where the sense of sensation is presented, the user can move a wide area, and the mixed reality that combines the sense of vision presented by using one screen as the image display means and the sense of touch according to the present invention. Can be provided to a plurality of users simultaneously. In addition, since the tactile sensation is presented by the tactile sensation presentation unit that is movable between the position where the wearing part is in contact with the hand and the position where the wearing part is separated from the hand, the tactile force is presented using a wire The tactile force sense can be presented with a simple configuration as compared with the case where the force sense is presented.Further, the tactile force sense presenting portion has a columnar contact portion and supports the contact portion at one end portion, the other end portion is pivotally supported by the attachment portion, and the contact portion contacts the palm on which the attachment portion is attached. A tactile force sense when touching a columnar object such as a door knob, for example. can do.
[0066]
According to a second aspect of the present invention, in the first aspect of the invention, the control means corresponds to a position detected by the position detection means in the virtual reality space when the determination means determines that the contact state is established. Since the force of the driving means is controlled in accordance with the magnitude of the force to be received by the position to be operated, the sense of reality can be further increased compared to the case where the driving means is always driven with a constant force.
[0070]
  Claim3The invention of claim 1Or claim 2In the invention, a plurality of the tactile force sense presenting units, and a plurality of driving units respectively corresponding to the tactile force sense presenting units, wherein the control unit corresponds to the position detected by the position detecting unit. When the position in the virtual reality space is a region in contact with a predetermined object having irregularities in the virtual reality space, the mounting portion is mounted with the tactile sensation presentation unit at a position corresponding to the convex portion of the predetermined object. Since each driving means is individually controlled so as to come into contact with the hand that has been touched, it is possible to present a tactile force sense corresponding to the unevenness of the object in the virtual reality space.
[0073]
  Claim4The invention of claim1 or claim 2In the invention, since the contact portion can change the direction between the direction along the connecting portion and the direction intersecting the connecting portion, the mounting portion is attached by changing the direction of the contact portion with respect to the connecting portion. Tactile sensations corresponding to columnar objects such as door knobs with different orientations with respect to the palm can be presented.
[0076]
  Claim5The invention of claim 1 to claim 14In the invention of any one of the above, the tactile sensation presentation unit includes a vibrator that vibrates at least a part that contacts the hand on which the wearing unit is worn, and the control unit determines that the touching state is in the contact state. When this is done, the vibrator is operated in accordance with the tactile sensation of the predetermined object, so that the tactile sensation of the object can be presented.
[0077]
  Claim6The invention of claim 1 to claim 13 or claim 5In any one of the inventions, since the tactile sensation providing unit is made of a transparent member, it is possible to suppress a decrease in the sense of reality due to the conspicuous haptic sense presenting unit.
[0079]
  Claim7The invention of claim 1 to claim 16In the invention according to any one of the above, since the image display unit that displays the image of the virtual reality space that is held by the mounting unit so as to cover the back of the hand is provided, for example, when the screen is used for display of the virtual reality space, By displaying the image that overlaps the image on the image display unit, it is possible to make the wearing part and the tactile sensation presentation part inconspicuous, and it is possible to suppress the deterioration of the real feeling due to the conspicuous mounting part and the tactile sense presentation unit. .
[Brief description of the drawings]
FIG. 1 shows the present invention.Reference examples related toFIG.
FIG. 2 is an explanatory view showing the same as seen from the palm side.
FIG. 3 is a block diagram showing the configuration of the above.
FIG. 4 is a flowchart showing the operation described above.
FIG. 5 shows the present invention.Reference examples related toFIG.
FIG. 6Reference examples related toFIG.
FIG. 7 is an embodiment of the present invention.1It is explanatory drawing which shows.
FIG. 8 is an embodiment of the present invention.2It is explanatory drawing which shows.
FIG. 9Reference example 4 related toIt is explanatory drawing which shows.
FIG. 10 shows the present invention.Reference example 5 related toIt is explanatory drawing which shows.
FIG. 11 shows an embodiment of the present invention.3(A) shows the state in which a contact part exists in the position along a connection part, (b) shows the state in which the contact part exists in the position which cross | intersects a connection part.
FIG. 12 shows an embodiment of the present invention.4It is explanatory drawing which shows.
FIG. 13 shows an embodiment of the present invention.5It is explanatory drawing which shows.
FIG. 14 is an explanatory diagram showing a state in which an image display unit is provided in the mounting unit according to the present invention.
[Explanation of symbols]
  2 Image display means
  11 Mounting part
  12 Position detection means
  13 Tactile sensation presentation unit
  13c Contact part
  13d connectionPart
  14 Drive means
  16 Image displayPart
  33 Central control unit

Claims (7)

画像表示手段によって物体の存在する3次元空間として表示された仮想現実空間における触力覚を呈示する触力覚呈示装置であって、
人の手に装着される装着部と、前記装着部の3次元の位置を検出する位置検出手段と、実空間における3次元の位置と仮想現実空間における3次元の位置とを対応させ前記仮想現実空間において前記位置検出手段によって検出された位置に対応する位置が所定の物体に接触する領域にある接触状態であるか否かを判定する判定手段と、前記装着部が装着された手に接触する位置と前記装着部が装着された手から離れる位置との間で移動可能な触力覚呈示部と、前記触力覚呈示部を駆動する駆動手段と、前記判定手段によって接触状態でないと判定されたときには前記触力覚呈示部が前記装着部が装着された手に接触せず前記判定手段によって接触状態であると判定されたときには前記触力覚呈示部が前記装着部が装着された手に接触するように前記駆動手段を制御する制御手段とを備え、前記装着部と前記触力覚呈示部と前記駆動手段とが一体に設けられていて、
前記触力覚呈示部は、柱状の接触部と、一端部において前記接触部を支持し他端部が前記装着部に軸支され前記装着部が装着された手のひらに前記接触部が接触する位置と前記装着部が装着された手のひらから前記接触部が離れる位置との間で回転可能な連結部とからなることを特徴とする触力覚呈示装置。
A tactile force sense presentation device for presenting a tactile force sense in a virtual reality space displayed as a three-dimensional space in which an object exists by an image display means,
A virtual reality that associates a three-dimensional position in a virtual space with a three-dimensional position in a virtual space, a position detector that detects a three-dimensional position of the mounting unit, and a three-dimensional position in the virtual space. A determination unit that determines whether or not the position corresponding to the position detected by the position detection unit in the space is in a contact state in a region in contact with a predetermined object; and a contact with the hand on which the mounting unit is mounted A tactile force sensation presentation unit movable between a position and a position away from the hand on which the attachment unit is attached, a drive unit that drives the tactile force sense presentation unit, and a determination unit that determines that it is not in contact. The tactile sensation presentation unit is not in contact with the hand on which the attachment unit is attached and the determination means determines that the tactile force presentation unit is in contact with the hand on which the attachment unit is attached. To touch Wherein a control means for controlling the driving means, and said mounting portion and said haptic presentation unit and the drive means are provided integrally,
The tactile sensation presentation unit has a columnar contact part, and a position where the contact part contacts the palm of the hand where the other part is supported by the attachment part and the attachment part is attached. A tactile force sense presenting device comprising: a connecting portion rotatable between a position where the contact portion is separated from a palm on which the mounting portion is mounted ;
前記制御手段は、前記判定手段によって接触状態であると判定されたときに、前記仮想現実空間において前記位置検出手段によって検出された位置に対応する位置が受けるべき力の大きさに応じて前記駆動手段の力を制御することを特徴とする請求項1記載の触力覚呈示装置。  The control means performs the driving according to the magnitude of the force to be received by the position corresponding to the position detected by the position detection means in the virtual reality space when the determination means determines that the contact state is established. The tactile force sense presentation device according to claim 1, wherein the force of the means is controlled. 複数の前記触力覚呈示部と、各触力覚呈示部にそれぞれ対応した複数の駆動手段とを備え、前記制御手段は、前記位置検出手段によって検出された位置に対応する前記仮想現実空間における位置が前記仮想現実空間において凹凸のある所定の物体に接触する領域であるときに、前記所定の物体の凸部に対応する位置の前記触力覚呈示部が前記装着部が装着された手に接触するように各駆動手段を個別に制御することを特徴とする請求項1又は請求項2記載の触力覚呈示装置。 A plurality of tactile force sense presenting units, and a plurality of driving means respectively corresponding to the respective tactile force sense presenting units, wherein the control unit is arranged in the virtual reality space corresponding to the position detected by the position detecting unit. When the position is a region in contact with a predetermined object having irregularities in the virtual reality space, the tactile sensation presentation unit at a position corresponding to the convex part of the predetermined object is placed on the hand on which the mounting unit is mounted. 3. The tactile force sense presentation device according to claim 1 , wherein each driving means is individually controlled so as to come into contact . 前記接触部は前記連結部に沿った向きと前記連結部に交差する向きとの間で向きを変えることができることを特徴とする請求項1又は請求項2記載の触力覚呈示装置。The haptic sensation presentation device according to claim 1, wherein the contact portion can change a direction between an orientation along the connecting portion and a direction intersecting the connecting portion . 前記触力覚呈示部において少なくとも前記装着部が装着された手に接触する部位を振動させるバイブレータを備え、前記制御部は前記判定手段によって接触状態であると判定されたときに前記所定の物体の触感に応じて前記バイブレータを動作させることを特徴とする請求項1乃至請求項4のいずれか1項に記載の触力覚呈示装置。 The tactile sensation presentation unit includes a vibrator that vibrates at least a portion that contacts the hand on which the mounting unit is mounted, and the control unit determines whether the predetermined object is in a contact state when the determination unit determines that the contact state is present. The haptic sense presentation device according to any one of claims 1 to 4, wherein the vibrator is operated in accordance with a tactile sensation . 前記触力覚呈示部は透明な部材からなることを特徴とする請求項1乃至請求項3又は請求項5のいずれか1項に記載の触力覚呈示装置。Haptic presentation device according to any one of claims 1 to 3 or claim 5 wherein the haptic presentation unit is characterized by a transparent member. 手の甲を覆う形で前記装着部に保持され前記仮想現実空間の画像を表示する画像表示部を備えることを特徴とする請求項1乃至請求項6のいずれか1項に記載の触力覚呈示装置 The tactile sensation presentation device according to any one of claims 1 to 6, further comprising an image display unit that is held by the mounting unit so as to cover a back of the hand and displays an image of the virtual reality space. .
JP2002250702A 2002-08-29 2002-08-29 Haptic display device Expired - Fee Related JP4032882B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002250702A JP4032882B2 (en) 2002-08-29 2002-08-29 Haptic display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002250702A JP4032882B2 (en) 2002-08-29 2002-08-29 Haptic display device

Publications (2)

Publication Number Publication Date
JP2004094307A JP2004094307A (en) 2004-03-25
JP4032882B2 true JP4032882B2 (en) 2008-01-16

Family

ID=32057461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002250702A Expired - Fee Related JP4032882B2 (en) 2002-08-29 2002-08-29 Haptic display device

Country Status (1)

Country Link
JP (1) JP4032882B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4347112B2 (en) * 2004-03-31 2009-10-21 アルパイン株式会社 Virtual interface controller
EP1768011B1 (en) * 2004-07-15 2012-07-11 Nippon Telegraph And Telephone Corporation Inner force sense presentation device, inner force sense presentation method, and inner force sense presentation program
JP4537932B2 (en) * 2005-10-12 2010-09-08 日本電信電話株式会社 Information processing device
US9874935B2 (en) * 2009-03-12 2018-01-23 Immersion Corporation Systems and methods for a texture engine
EP2548099A1 (en) * 2010-03-16 2013-01-23 Immersion Corporation Systems and methods for haptic information preview
WO2014049794A1 (en) * 2012-09-27 2014-04-03 パイオニア株式会社 Electronic device
JP6074097B2 (en) * 2016-06-08 2017-02-01 パイオニア株式会社 Electronics
WO2023127750A1 (en) * 2021-12-27 2023-07-06 株式会社村田製作所 Force sense presentation device

Also Published As

Publication number Publication date
JP2004094307A (en) 2004-03-25

Similar Documents

Publication Publication Date Title
CN110874053B (en) Wearable electronic device with tactile rotatable input
JP7366961B2 (en) Method and device for driving illusionary tactile force sense
US20210141457A1 (en) Haptic information presentation system
US6862006B2 (en) Image processing apparatus and image processing method, and image processing program and recording medium of the same
TWI277892B (en) Input device and electronic machine using the input
US5184319A (en) Force feedback and textures simulating interface device
JP2004213350A (en) Inner force sense presenting device and image correcting method
JP4032882B2 (en) Haptic display device
JP2004029999A (en) Tactile force display hand and its manufacturing method
RU179301U1 (en) VIRTUAL REALITY GLOVE
JP4085691B2 (en) Image processing device
JP2003337653A (en) Tactile sense and force sense presenting device, and tactile sense and force sense presenting system
JPH06102980A (en) Tactual sense presentation device
RU2670649C9 (en) Method of manufacturing virtual reality gloves (options)
JP2004318400A (en) Image processing device and image processing method
JP2000181618A (en) Tactile interface device with four-shaft force feedback
JP6428629B2 (en) Tactile sensation presentation device, information terminal, haptic presentation method, and program
KR101521560B1 (en) Interface devices for hand haptic
JPH10143317A (en) Data input device and method for virtual reality system
RU2673406C1 (en) Method of manufacturing virtual reality glove
JPH08257947A (en) Three-dimensional display device for inner force sense and touch sense
JP2004318399A (en) Image processor, and method for presenting tactile sense and kinesthetic sense
JPH11203020A (en) Touch sense display device
JP2001117715A (en) Touch sense/force sense presentation device and information input/output device
JP2000222120A (en) Self-traveling mouse

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071015

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees