JP2004054694A - Sense presentation device and its method - Google Patents

Sense presentation device and its method Download PDF

Info

Publication number
JP2004054694A
JP2004054694A JP2002212710A JP2002212710A JP2004054694A JP 2004054694 A JP2004054694 A JP 2004054694A JP 2002212710 A JP2002212710 A JP 2002212710A JP 2002212710 A JP2002212710 A JP 2002212710A JP 2004054694 A JP2004054694 A JP 2004054694A
Authority
JP
Japan
Prior art keywords
presentation
unit
sensation
presenting
video display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002212710A
Other languages
Japanese (ja)
Inventor
Kenichi Yasuda
安田 賢一
Yukio Tsutsui
筒井 幸雄
Sumiaki Nagano
永野 純明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2002212710A priority Critical patent/JP2004054694A/en
Publication of JP2004054694A publication Critical patent/JP2004054694A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a simple device capable of presenting a feeling of presence by arranging actuators and a display so that the presentation of vision and hearing and the presentation of force/touch are integrally presented. <P>SOLUTION: A sense presentation device having a video display 12 for presenting a picture of an object and capable of presenting senses for virtually operating the object displayed on the video display 12 to an operator comprises a presentation part 11 to be driven on an approximate plane by two or more actuators (3, 5, 7, 9) and a touch presentation part 20 arranged on the presentation part 11 and capable of presenting multi-dimensional touch to the operator and the video display 12 for displaying the object is arranged on the lower face of the presentation part 11. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する分野】
この発明はバーチャルリアリティの分野でのヒューマンインターフェース装置に関し、特に仮想的に感覚を呈示したり、仮想物体を操作する感覚呈示装置および感覚呈示方法に関する。
【0002】
【従来の技術】
近年、バーチャルリアリティ技術を利用した様々なヒューマンインターフェース装置が開発されてきている。これらは従来人間が機械に合わせなければならなかったのに対して、機械を人間にとってより自然な形で扱えるようにしたものである。これらの装置によって人間の五感に対する現実感を仮想的に作り出すことにより、機械とインタラクティブに情報のやりとりを可能とするため、より複雑で高度な操作が簡単に行えるようになる。また子供や高齢者、身体障害者にとってもコンピュータの操作などが簡単になるため、キーボードやマウスに変わる操作装置として期待されている。このようなヒューマンインターフェース装置はCADや造形などの入力装置として、あるいは遠隔作業ロボットの操作装置として、また医療・福祉機器としても利用が考えられている。
視覚呈示装置としては、没入型ディスプレイと開放型ディスプレイがあり、没入型ディスプレイとしては頭部搭載型ディスプレイ(HMD)が数多く開発されている。また開放型ディスプレイとしては通常のCRTモニタや立体モニタ等がある。力覚や触覚呈示装置としては、アクチュエータとワイヤにより指先に力覚を呈示する特開平6−324622に開示されている「力覚呈示装置」(図7)がある。また、WO98/08159に開示されている2次元の力覚提示装置(図9)はY方向の駆動系にX方向の駆動系が接続されているものであり、X方向の駆動系にマウス状の把持部が接続されている。力覚を提示する場合は回転型モータの駆動力によって反力を把持部に提示するようになっている。
【0003】
【発明が解決しようとする課題】
このようなヒューマンインターフェース装置では視覚や聴覚、力覚や触覚など人間の感覚に対してより現実感を持ちながら操作できることが重要である。この時視覚と力覚または視覚と触覚など異種の感覚が矛盾なく融合されて呈示されなければならない。しかしながら図7や図9の装置では視覚なら視覚のみの装置、力覚なら力覚のみの装置で分割されており、視覚と力覚あるいは視覚と触覚、力覚と触覚など異種感覚が統合された感覚呈示装置はなかった。特開平9−114360(図8)に開示されている装置ではマニピュレータ先端に小型ディスプレイをとりつけることにより、実際にディスプレイに映し出された物体を操作しているかのような感覚を得るようになっているが、物体の重量を感じるのみであり、またディスプレイ自体を持つことになるため現実感に欠けるといった問題があった。
また、視覚や力覚が別々の装置でもソフトウェア的に異種感覚を統合できる場合がある。視覚呈示装置として没入型ディスプレイ(HMD)を用いる場合は、表示されている操作点を表すポインタの位置と実際の手の位置を位置センサで合わせることにより臨場感を実現しているが、HMDを頭に装着するため煩わしく、システムが複雑になるといった問題があった。
【0004】
一方、図9のような開放型ディスプレイ(モニタ)を用いる場合ではシステムは簡潔であるが、視覚と力触覚の装置が物理的に別々に置かれるため、表示されているポインタと実際の手の位置の対応がとれず、上述したように視覚と力覚や触覚のより現実感を持った融合を図ることが不可能であった。本発明は上記問題点を鑑み、視覚や聴覚の呈示と力覚・触覚呈示を統合して呈示するようにアクチュエータとディスプレイを配置することにより、簡潔でしかも臨場間の高い装置を提供するものである。
【0005】
【課題を解決するための手段】
本発明の請求項1記載の感覚呈示装置は、物体の映像を呈示する映像ディスプレイを有し、前記映像ディスプレイに表示された前記物体を仮想的に操作する感覚を操作者に呈示する感覚呈示装置において、2つ以上のアクチュエータで略平面上を駆動される呈示部と、前記呈示部に設置され多次元の触覚を前記操作者に呈示する触覚呈示部を有し、前記呈示部の下面に前記物体を表示する前記映像ディスプレイを配置することを特徴とするものである。
【0006】
本発明の請求項2記載の感覚呈示装置は、前記操作者が前記物体を操作する時に、操作に応じた反力を前記呈示部で呈示することを特徴とするものである。
【0007】
本発明の請求項3記載の感覚呈示装置は、前記呈示部と前記アクチュエータとはワイヤまたはベルトで接続されることを特徴とするものである。
【0008】
本発明の請求項4記載の感覚呈示装置は、前記操作者に聴覚を呈示する聴覚呈示手段を設けたことを特徴とするものである。
【0009】
請求項1から4記載の感覚呈示装置によれば、視覚や聴覚と力覚、触覚が融合され、より高度な現実感をもってディスプレイに映し出された仮想物体を操作することができる。また請求項3記載の感覚呈示装置によれば、装置を薄型コンパクトでしかも最大反力を大きくでき、スムーズな動作を実現できる。
【0010】
本発明の請求項5記載の感覚呈示装置は、前記呈示部に反力を発生させる反力発生手段は、前記アクチュエータに推力指令を発生するアンプと信号の入出力を行うI/O部とを有する制御部と、前記仮想物体の変形および運動に関して、シミュレーションおよび描画を行う物体処理部を備え、前記制御部と物体処理部の間でデータ通信を行う通信部とを備えることを特徴とするものである。この請求項5によって請求項1から4記載の感覚呈示装置を効果的な臨場感を呈示しながら動作させることができる。
【0011】
本発明の請求項6記載の感覚呈示方法は、物体の映像を呈示する映像ディスプレイと、前記映像ディスプレイに表示された前記物体を仮想的に操作する感覚を操作者に呈示する呈示部を有する感覚呈示方法において、カメラで撮影した実映像の画像データで対象となる物体に対して画像処理を行い、前記画像処理に基づいて仮想モデルデータを作成し、前記映像ディスプレイには実画像を表示し、前記仮想モデルデータに基づいて反力を呈示することを特徴とするものである。
【0012】
本発明の請求項7記載の感覚呈示方法は、前記仮想モデルデータは、操作対象とする1つまたは複数の物体の形状、材質および固さ等の物理特性であることを特徴とするものである。
【0013】
請求項6と7によれば、写真等の実画像でも仮想的に触ることができるようになる。
【0014】
本発明の請求項8の感覚呈示方法は、予め前記仮想モデルデータの前記物理特性に応じて効果音データを対応づけておき、前記呈示部の位置と前記物体の位置から接触を判定し、接触を検知した際に前記効果音を再生または生成し、聴覚呈示手段で呈示することを特徴とするものであり、これによれば臨場感をより高めることが可能となる。
【0015】
本発明の請求項9記載の感覚呈示方法は、前記仮想モデルデータは、ネットワークを通してダウンロードされることを特徴とするものである。これによれば、インターネットのホームページ上などネットワークで接続された装置での画像も仮想的に触ることが可能となる。
【0016】
【発明の実施の形態】
この発明の実施の形態の感覚呈示装置について第1の実施例を図1と図2で説明する。図1は本発明の感覚呈示装置の上部から見た概略図である。この感覚呈示装置ではX軸方向はリニアモータ固定子2、4と可動子3、5によって、Y軸方向はリニアモータ固定子6、8と可動子7、9によって呈示部11を2次元平面上で駆動する。ただし実際にはリニアモータはカバー1によって隠蔽されており、外からは見えない。Y軸方向の動作はリニアガイド10に沿って動作するが、後述するようにY軸方向はワイヤ駆動になっている。X軸、Y軸それぞれにつきリニアモータが2つ装備しているのは、より大きな推力を得るためである。さらにリニアモータとワイヤを利用することによってY軸の固定子6、8と可動子7、9をX軸のリニアモータの上に配置しなくてよいため、X軸のモータ容量を小さくでき、しかも呈示部11のX軸方向の慣性を小さくできる。またこれによって装置自体を薄型コンパクトにすることができる。さらにリニアモータはギアを使用しないダイレクトドライブであるため、上述したように大きな推力とコンパクト性と同時にスムーズな動作が得られる。
【0017】
また、液晶ディスプレイ12がリニアガイド10の下部の平面上に配置されている。このような配置にすることにより、視覚と力覚あるいは触覚が自然な形で融合される。つまり目で見ている仮想物体の操作ポイントと実際の自分の手先の位置が一致しており、画面に映し出された仮想物体をそのまま触ったりなぞったりするような感覚を得ることが可能となる。このように視覚と体性感覚(自分の手の位置の感覚)を一致させることによって操作性や臨場感が著しく向上する。また、図示していないが、1つのリニアモータにつき1つのリニアエンコーダが取り付けられており、このエンコーダの情報を用いてリニアモータを制御する。このリニアモータとエンコーダによって、液晶ディスプレイ12に映し出す仮想物体を押したり、変形させて操作すること、また押したときの抵抗や仮想物体の柔らかさ・固さ等の質感を得ることが可能となる。ここでは、アクチュエータを単軸のリニアモータとして説明したが、当然これに制限されるものでなく、例えば1つの可動子で2軸方向の動作が可能な所謂サーフェスモータのようなリニアモータでもよい。
【0018】
呈示部11はオペレータが指先をのせて力覚や触覚を感じる部分であり、2軸のリニアモータによって呈示される力覚だけでなく、上下方向の反力の呈示を行ったり、テクスチャなど細かな触覚を呈示するものである。この呈示部11には、触覚呈示部20が設置されており、触覚を呈示することができる。この部分はアプリケーションによって様々な形態が考えられる。例えば触覚を呈示するものとして、特開平7−77944に開示されているような振動接触子を配列させ圧電アクチュエータ等によって駆動するもの、特開平12−112329に開示されているような液体を分割された小胞に注入したものなどを用いてもよい。また、アクチュエータを用いてアクティブに指先に触覚を呈示するのではなく、バネなどの機構によってパッシブに触覚を呈示してもよい。このように力覚呈示機構の上に触覚呈示機構を加えることによって、液晶ディスプレイに映し出された仮想物体を押したり変形させるだけでなく、指先に触感を再現することによって力覚と触覚が融合され、感覚の呈示表現方法がより豊かになり、臨場感が向上する。
【0019】
図2は本発明の感覚呈示装置のX軸方向に見た断面図である。ここで、13は呈示部11を支える支持部であり、リニアガイド10上を動く。支持部13はプーリ15で支持されているワイヤ14によって駆動される。16はX軸方向のリニアモータ2、3と4、5に直結されているガイドであり、リニアモータ6、7と8、9によってガイド16上で走行部17が動かされ、ワイヤを通じて呈示部11が駆動される。液晶ディスプレイ12は支持部13と走行部17の間に配置される。18、19はX軸方向のリニアモータのガイドであり、図示していないが、このガイド18、19の横にモータの位置を計測し、モータを制御するために用いられるエンコーダが配置されている。このようにワイヤ駆動することにより、液晶ディスプレイ12上にモータが配置されないため、液晶ディスプレイ12の隠蔽が最低限に抑えられる。またX軸動作の際の負荷が少ないため、軽く操作ができる。さらに液晶ディスプレイ12の上下にモータがないためモータからの電磁気による影響もない。
【0020】
図3はこの実施例のシステムブロック図で、図1、2で説明した感覚呈示装置で実際に感覚を呈示するための反力発生手段の構成を示した図であり、処理は次のようになる。コンピュータ200において、通信部202を通して感覚呈示装置の呈示部11の位置情報を物体処理部201に取り込む。その位置情報はそのまま操作ポインタの位置に変換し、この操作ポインタとあらかじめ映像ディスプレイ上に描画されている仮想物体が干渉しているかどうかの接触判定を行う。また、仮想物体にはあらかじめ質量やバネ特性、粘性摩擦特性、あるいは仮想物体表面の粗さなど物体の物理特性が決まっているものとする。次に仮想物体と操作ポインタが接触した場合、上記仮想物体の物理特性と操作ポインタの位置や速度に応じて仮想物体がどのように変形・運動するかのシミュレーション計算を行う。また、その結果を物体処理部201でコンピュータグラフィックスとして描画演算し、ビデオカード203を通じて液晶ディスプレイ12に表示する。
【0021】
ここで、操作ポインタは取り込んだ呈示部11の位置に常に一致するようにしておく。このようにすることで映し出されている仮想物体に触れているポイントと実際の指先の位置が常に一致するため、視覚と体性感覚が一致し、実際に仮想物体を直接操作しているかのような高い臨場感覚を得ることができる。また、映像ディスプレイ上に指を置くため、操作ポイントを表す操作ポインタをディスプレイに表示する必要はない。
制御部100とは通信部202によって通信する。通信は例えばUSB等の高速シリアル通信を行う。現実感を出すためにリアルタイム性が要求されるため、コンピュータ200と制御部100との通信は高速な方が望ましい。この高速な通信部を通じてコンピュータ200は制御部100に変形・運動シミュレーション計算結果による運動情報を伝送し、制御部100からは前述したように感覚呈示部の位置情報を取り込む。
【0022】
制御部100では装置本体のエンコーダなどからI/O102を通じてエンコーダ位置情報がCPU101に取り込まれる。CPU101ではコンピュータ200から運動情報を元にリニアモータ3、5、7、9の制御演算を行い、アンプ103、104に推力指令を出力する。また、呈示部11の触覚用アクチュエータ30も制御部100で上記同様に処理され、アンプ105に推力指令を出力する。
また、呈示装置にスピーカ31等を装着して、物体処理部201から指令され、サウンドカード204にて聴覚信号を生成して音を出すことにより、臨場感を向上させることができる。
【0023】
ここでは制御部100とコンピュータ200が別々のCPUで動作する例を示したが、この構成に限定されるものでなく、例えば1つのCPUで上記すべての処理を行うという構成でも良い。
【0024】
上記処理内容のソフトウェア機能ブロック図を図4に示す。物体処理部201のモデルデータ呼び出し部では仮想物体の形状や物理特性などをストレージ等から内部メモリへ読み込む処理を行う。接触判定部では呈示部の現在位置とモデルデータの中の形状データとの比較から干渉したかどうかの判定、あるいは仮想物体内部へのめり込み量の計算を行う。また変形・運動シミュレーション部は、仮想物体に設定された物理特性と干渉度合いに応じて、物体の変形量や運動量の計算を行い、同時にその時に発生する反力を計算する。例えば仮想物体の表面の硬さをバネ・ダンパモデルで考えた場合、反力は以下のようになる。
F=KΔX+DdΔX/dt
ここで、Fは反力、Kはバネ定数、Dは粘性係数、ΔXは接触判定部で計算された仮想物体表面から物体内部へのめり込み量である。ここで計算された反力データをCPU101の呈示部駆動計算部に送る。呈示部駆動計算部では、物体処理部(CPUを含む)201からの反力データに基づいて呈示部を駆動するためのリニアモータ用アンプへの推力指令を生成し、アンプに出力する。このようにすることで、モデルデータに基づいた力覚呈示が実現できる。
【0025】
また、教示データ再生部ではあらかじめ記憶されている動作パターンをメモリから呼び出し、その動作パターンを呈示部駆動計算部へ送る。呈示部駆動計算部では教示データを再生する時には、例えば動作パターンが位置指令であれば位置偏差と速度偏差にゲインを乗じた推力指令を計算する。
物体処理部201の聴覚データ生成部では変形・運動シミュレーション部で計算された変形量・運動量と設定された材質に応じて効果音を選択または生成してスピーカに出力し、グラフィックデータ生成部では同様に描画演算を行ってディスプレイに出力する。
【0026】
第2の実施例を図5で説明する。図5に示しているようなペン状のものを呈示部として用いることにより、仮想物体をペンやブラシなどで操作する感覚を実現することが可能である。ペン状把持部20がジョイント21によって呈示部11‘に固定されている。また呈示部11’はバネ22によって呈示部支持台13‘に固定されており、ペン状把持部20を下に押すことによって呈示部11’が上下する。また押した時の圧力を圧力センサ23によって計測する。これは習字や硬筆の教育装置として利用できる。習字の場合を次の例で示す。
【0027】
まず、選択可能な筆の太さ毎に圧力センサ21で検出される押圧と映像ディスプレイ12に描画する線の太さの関係をあらかじめ決定しておく。そして先生がペン状把持部20を把持して手本の運筆を行い、筆の押圧に応じた線の太さで映像ディスプレイ12に文字を描画する。またその際の筆の軌跡と線の太さを図3のコンピュータ200の図示していない記憶手段に記憶しておく。生徒が練習を行う際も上記と同様に運筆を行うが、その際に記憶しておいた先生の文字を映像ディスプレイ12に映し出しておき、先生の文字をなぞるように運筆することにより練習を行う。この時先生が生徒の手を持って運筆するように、図1で示したリニアモータによって上記で記憶しておいた先生の軌跡を再生することにより生徒の運筆のアシストを行うことも可能である。ここで述べた再生手段は既に述べたようにCPU101の教示データ再生部で教示データを読み込み、呈示部駆動計算部によってその軌跡が再現される。
【0028】
このとき、図1記載の液晶ディスプレイ12の真上をなぞるため、あたかも紙の上で習字や硬筆練習を行っているかのような臨場感があり、効果的な学習が可能となる。 ここでは触覚を呈示するものとしてパッシブなバネの例で説明したが、これをアクチュエータを用いてアクティブに制御することにより、先生の筆圧を細かく体感することも可能となる。
このような学習方法は先生が生徒一人一人に十分な指導ができない場合やその場に先生がいない時に生徒が独習する場合などで効果を発揮する。
【0029】
第3の実施例を図6で説明する。まず、ディジタルカメラで撮影した画像やスキャナでパソコンに取り込んだディジタル静止画像データを用意する。そこで、画像処理部301によって2値化やエッジ検出などの画像処理を行う。その画像処理結果はモデル生成部302によって、対象となる物体の輪郭形状データを生成する。これが仮想物体の形状モデルとなる。また、物理特性設定手段によって、輪郭形状の全体、あるいはある範囲の物理特性を設定する。ここで言う物理特性とは、仮想物体表面のバネ特性、粘性摩擦特性、あるいは仮想物体表面の粗さ等である。このように形状モデルやそれに対応した物理特性を仮想物体のモデルデータとして記憶手段に格納しておく。そして、このモデルデータに基づいて図4で説明したような方法で力覚呈示を行う。
ディジタル画像として人物の顔写真を例に説明する。上述のように人物の写真を2値化後、エッジ検出、ノイズ除去を行った後、不連続点のデータ補間を行い、顔の輪郭形状データを生成する。同時に顔表面の柔らかさなどの物理特性を設定して、仮想物体のモデルデータとする。そして図1のような感覚呈示装置のディスプレイに人物の顔写真の実画像を表示し、さらに図4の方法でモデルデータに基づいた力覚呈示を行う。こうすることによって、あたかも、その人物の顔を指先で触っているかのような感覚を呈示することが可能となる。しかも、ディスプレイ上に反力を呈示するための呈示部があるため、視点と指先位置が一致し、極めてに高い臨場感を味わうことが可能となる。また、呈示部上に凹凸を呈示する触覚呈示機構を設けることによって、顔の凹凸なども感じることが可能となる。
【0030】
また、インターネット環境でホームページ上の画像に対しても同様のことが可能となる。ホームページ上の画像に図6の方法であらかじめ作成したモデルデータにリンクしておき、ユーザーがそのモデルデータをダウンロードできるようにしておく。そこでダウンロードしたモデルデータに対して上記と同様に力覚呈示を行う。これは例えば、インターネットショッピング等で商品の画像を見るだけでなく、それを仮想的に触ることができることを意味する。また、モデルデータの材質情報に対して1つの効果音データを対応づけ、接触を検知した際にその効果音を再生し、スピーカで呈示するようにすることによって、より臨場感が向上する。商品を触って確かめることによって、客にとってはより安心して購入でき、またショップにとっては購買意欲を客に沸き立たせることが可能となる。
【0031】
【発明の効果】
本発明の請求項1から5によれば、視覚や聴覚と力覚、触覚が融合され、より高度な現実感をもってディスプレイに映し出された仮想物体を操作することができる。特に力覚と触覚を同時に生成することにより、仮想物体のいろいろな表現方法が可能となり、臨場感が向上する。またディスプレイを呈示部下部に配置し、描画している操作ポインタの位置を呈示部と一致させることにより、視覚と体性感覚を一致させることができるので、臨場感が向上する。さらにリニアモータとワイヤ機構により液晶ディスプレイを配置しても薄型コンパクトで簡潔な装置が実現できる。
本発明の請求項6から7によれば、写真等の実画像でも仮想的に触ることができるようになる。また、請求項8によれば、触った時の効果音によってより臨場感が向上する。さらに請求項9によれば、インターネットのホームページ上の画像も仮想的に触ることが可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施例の概略図
【図2】本発明の第1の実施例の機構断面図
【図3】本発明の第1の実施例のシステムブロック図
【図4】本発明の第1の実施例の機能ブロック図
【図5】本発明の第2の実施例の呈示部を示す図
【図6】本発明の第3の実施例のモデル生成過程を示す図
【図7】従来の力覚呈示装置の一例を示す図
【図8】従来の力覚と視覚を呈示する装置の一例を示す図
【図9】従来の力覚と視覚を呈示する装置の一例を示す図
【符号の説明】
2、4:X軸方向のモータ固定子
3、5:X軸方向のモータ可動子
6、8:Y軸方向のモータ固定子
7、9:Y軸方向のモータ可動子
11:呈示部
12:ディスプレイ
14:ワイヤ
20:触覚呈示部
31:聴覚呈示手段
103、104:アンプ
100:制御部
102:I/O部
201:物体処理部
202:通信部
[0001]
[Field of the Invention]
The present invention relates to a human interface device in the field of virtual reality, and more particularly to a sensation presentation device and a sensation presentation method for virtually presenting a sensation and operating a virtual object.
[0002]
[Prior art]
In recent years, various human interface devices using virtual reality technology have been developed. These allow machines to be handled in a more natural way for humans, whereas humans had to adjust to machines in the past. These devices virtually create a sense of reality with respect to the five senses of human beings, so that information can be exchanged interactively with machines, so that more complex and sophisticated operations can be easily performed. It is also expected to be an operating device that replaces a keyboard and a mouse because it makes it easier for children, the elderly and the physically handicapped to operate a computer. Such a human interface device is considered to be used as an input device for CAD or modeling, as an operation device of a remote work robot, or as a medical / welfare device.
As the visual presenting device, there are an immersive display and an open display, and as the immersive display, many head mounted displays (HMDs) have been developed. In addition, as the open type display, there are a normal CRT monitor, a stereoscopic monitor, and the like. As a force sense and tactile sense presentation device, there is a “force sense presentation device” (FIG. 7) disclosed in Japanese Patent Application Laid-Open No. Hei 6-324622, which presents a force sense to a fingertip using an actuator and a wire. The two-dimensional force sense presentation device (FIG. 9) disclosed in WO98 / 08159 has a drive system in the X direction connected to a drive system in the Y direction, and a mouse-like drive system in the X direction. Are connected. When presenting a force sensation, a reaction force is presented to the grip portion by the driving force of the rotary motor.
[0003]
[Problems to be solved by the invention]
In such a human interface device, it is important that the human interface device can be operated with a more realistic sense of human sensation such as sight, hearing, force, and touch. At this time, different types of sensations such as sight and force sense or sight and tactile sense must be fused and presented without contradiction. However, in the devices shown in FIGS. 7 and 9, if the visual sense is a visual only device, and if the haptic force is a haptic only device, the sensation is divided into a sight and a haptic sense or a sight and a haptic sense, or a haptic and a haptic sense. There was no sensation presentation device. In the apparatus disclosed in Japanese Patent Application Laid-Open No. Hei 9-114360 (FIG. 8), by attaching a small display to the tip of the manipulator, it is possible to obtain a feeling as if the user were actually operating an object projected on the display. However, there is a problem that the user only feels the weight of the object and lacks a sense of reality because he has the display itself.
In some cases, disparate sensations can be integrated by software even with devices having different sights and haptics. When an immersive display (HMD) is used as a visual presenting device, a sense of reality is realized by matching the position of a pointer representing a displayed operating point with the position of an actual hand using a position sensor. There is a problem that the system is complicated because it is worn on the head and the system becomes complicated.
[0004]
On the other hand, when an open display (monitor) as shown in FIG. 9 is used, the system is simple. However, since the visual and haptic devices are physically separated from each other, the displayed pointer and the real hand are used. Positions could not be matched, and as described above, it was impossible to achieve a more realistic fusion of vision, force, and touch. In view of the above problems, the present invention provides a simple and highly realistic device by arranging an actuator and a display so as to present visual and auditory presentation and force / tactile presentation in an integrated manner. is there.
[0005]
[Means for Solving the Problems]
The sensation presentation device according to claim 1, further comprising a video display for presenting an image of the object, and a sensation presentation device for presenting to the operator a sensation of virtually operating the object displayed on the video display. A presentation unit driven on a substantially flat surface by two or more actuators, and a tactile presentation unit installed on the presentation unit to present a multidimensional tactile sense to the operator, and a lower surface of the presentation unit The image display for displaying an object is arranged.
[0006]
A sensation presentation device according to a second aspect of the present invention is characterized in that when the operator operates the object, a reaction force corresponding to the operation is presented by the presentation unit.
[0007]
A sensation presentation device according to a third aspect of the present invention is characterized in that the presentation unit and the actuator are connected by a wire or a belt.
[0008]
A sensation presentation device according to a fourth aspect of the present invention is characterized in that a hearing presentation means for presenting a hearing to the operator is provided.
[0009]
According to the sensation presentation device according to any one of claims 1 to 4, visual and auditory senses, force senses, and tactile senses are integrated, and a virtual object projected on a display can be operated with a higher sense of reality. Further, according to the sensation presentation device of the third aspect, the device can be made thin and compact, and the maximum reaction force can be increased, so that a smooth operation can be realized.
[0010]
According to a fifth aspect of the present invention, in the sensation presentation apparatus, the reaction force generation unit that generates a reaction force in the presentation unit includes an amplifier that generates a thrust command to the actuator and an I / O unit that inputs and outputs a signal. And a communication unit that performs data communication between the control unit and the object processing unit, the object processing unit performing simulation and drawing with respect to the deformation and movement of the virtual object. It is. According to the fifth aspect, the sensation presentation device according to the first to fourth aspects can be operated while presenting an effective presence.
[0011]
The sensation presentation method according to claim 6 of the present invention is a sensation having a video display for presenting an image of an object and a presentation unit for presenting to the operator a sensation of virtually operating the object displayed on the video display. In the presentation method, image processing is performed on a target object using image data of a real video taken by a camera, virtual model data is created based on the image processing, and a real image is displayed on the video display. A reaction force is presented based on the virtual model data.
[0012]
The sensation presentation method according to claim 7 of the present invention is characterized in that the virtual model data is physical properties such as shape, material, and hardness of one or more objects to be operated. .
[0013]
According to claims 6 and 7, even a real image such as a photograph can be virtually touched.
[0014]
The sensation presentation method according to claim 8 of the present invention is such that sound effect data is associated in advance in accordance with the physical characteristics of the virtual model data, contact is determined from the position of the presentation unit and the position of the object, and contact is determined. When the sound is detected, the sound effect is reproduced or generated, and is presented by the auditory presentation means, whereby the sense of presence can be further enhanced.
[0015]
The sensation presentation method according to claim 9 of the present invention is characterized in that the virtual model data is downloaded through a network. According to this, it is possible to virtually touch an image on a device connected via a network, such as on a homepage of the Internet.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
First Embodiment A sensation presentation apparatus according to a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a schematic view of the sensory presentation device of the present invention as viewed from above. In this sensation presentation device, the presentation unit 11 is arranged on a two-dimensional plane by the linear motor stators 2 and 4 and the movers 3 and 5 in the X-axis direction and by the linear motor stators 6 and 8 and the movers 7 and 9 in the Y-axis direction. Drive with However, the linear motor is actually concealed by the cover 1 and cannot be seen from the outside. The operation in the Y-axis direction is performed along the linear guide 10, but is wire-driven in the Y-axis direction as described later. The reason why two linear motors are provided for each of the X axis and the Y axis is to obtain a larger thrust. Furthermore, by using a linear motor and wires, the Y-axis stators 6, 8 and the movers 7, 9 do not need to be arranged on the X-axis linear motor, so that the X-axis motor capacity can be reduced, and The inertia of the presentation section 11 in the X-axis direction can be reduced. This also makes the device itself thin and compact. Furthermore, since the linear motor is a direct drive that does not use gears, a smooth operation can be obtained at the same time as a large thrust and compactness as described above.
[0017]
Further, the liquid crystal display 12 is disposed on a plane below the linear guide 10. With such an arrangement, vision and force sense or tactile sense are naturally fused. In other words, the operation point of the virtual object seen by the eye matches the position of the actual hand of the user, and it is possible to obtain a feeling of touching or tracing the virtual object projected on the screen as it is. By matching the sense of sight and the somatic sense (sense of the position of one's hand) in this way, the operability and the sense of reality are significantly improved. Although not shown, one linear encoder is attached to one linear motor, and the linear motor is controlled using information of the encoder. With the linear motor and the encoder, it is possible to operate the virtual object projected on the liquid crystal display 12 by pressing or deforming the virtual object, and to obtain a texture such as resistance when pressed and softness / hardness of the virtual object. . Here, the actuator is described as a single-axis linear motor, but is not limited to this, and may be, for example, a linear motor such as a so-called surface motor that can operate in two axial directions with one mover.
[0018]
The presentation unit 11 is a part where the operator feels a force sense or a tactile sense by putting a fingertip. The presenting unit 11 presents not only a force sense presented by a biaxial linear motor, but also a vertical reaction force, and a fine texture or the like. It presents a tactile sensation. The presenting unit 11 is provided with a tactile presenting unit 20, and can present a tactile sensation. This part can take various forms depending on the application. For example, as a tactile sensation, a vibrating contact as described in Japanese Patent Application Laid-Open No. H7-77944 is driven by a piezoelectric actuator or the like, or a liquid as disclosed in Japanese Patent Application Laid-Open No. H12-112329 is divided. Alternatively, those injected into vesicles may be used. Further, instead of actively providing a tactile sensation to a fingertip using an actuator, a tactile sensation may be provided passively by a mechanism such as a spring. In this way, adding the tactile presentation mechanism on top of the haptic presentation mechanism not only pushes and deforms the virtual object projected on the liquid crystal display, but also combines the haptic and tactile sense by reproducing the tactile sensation at the fingertip. In addition, the method of presenting and expressing senses becomes richer, and the sense of presence is improved.
[0019]
FIG. 2 is a cross-sectional view of the sensation presentation device of the present invention as viewed in the X-axis direction. Here, reference numeral 13 denotes a support portion that supports the presentation portion 11 and moves on the linear guide 10. The support 13 is driven by a wire 14 supported by a pulley 15. Reference numeral 16 denotes a guide directly connected to the linear motors 2, 3 and 4, 5 in the X-axis direction. The running unit 17 is moved on the guide 16 by the linear motors 6, 7, 8, and 9, and the presentation unit 11 is moved through a wire. Is driven. The liquid crystal display 12 is disposed between the support unit 13 and the traveling unit 17. Reference numerals 18 and 19 denote guides for a linear motor in the X-axis direction. Although not shown, an encoder used to measure the position of the motor and control the motor is arranged beside the guides 18 and 19. . By performing the wire driving in this manner, the motor is not disposed on the liquid crystal display 12, so that the concealment of the liquid crystal display 12 is minimized. Further, since the load at the time of the X-axis operation is small, the operation can be performed lightly. Further, since there are no motors above and below the liquid crystal display 12, there is no influence from the electromagnetic force from the motor.
[0020]
FIG. 3 is a system block diagram of this embodiment. FIG. 3 is a diagram showing a configuration of a reaction force generating means for actually presenting a sensation in the sensation presentation device described with reference to FIGS. Become. In the computer 200, the position information of the presentation unit 11 of the sensation presentation device is taken into the object processing unit 201 through the communication unit 202. The position information is directly converted into the position of the operation pointer, and a contact determination is made as to whether or not the operation pointer and the virtual object drawn in advance on the video display are interfering. Further, it is assumed that physical properties of the virtual object, such as mass, spring characteristics, viscous friction characteristics, and surface roughness of the virtual object, are determined in advance. Next, when the virtual object comes into contact with the operation pointer, a simulation calculation is performed on how the virtual object deforms and moves according to the physical characteristics of the virtual object and the position and speed of the operation pointer. Further, the result is subjected to drawing calculation as computer graphics by the object processing unit 201 and displayed on the liquid crystal display 12 through the video card 203.
[0021]
Here, the operation pointer always coincides with the position of the presented presentation unit 11. In this way, the point touching the projected virtual object always coincides with the position of the actual fingertip, so that the visual and somatic sensations match, and it is as if the virtual object is actually directly operated. A very high sense of reality can be obtained. Further, since the finger is placed on the video display, it is not necessary to display the operation pointer representing the operation point on the display.
The communication unit 202 communicates with the control unit 100. The communication is, for example, high-speed serial communication such as USB. Since real-time properties are required to give a sense of reality, it is desirable that communication between the computer 200 and the control unit 100 be performed at high speed. Through this high-speed communication unit, the computer 200 transmits the motion information based on the calculation result of the deformation / motion simulation to the control unit 100, and fetches the position information of the sense presenting unit from the control unit 100 as described above.
[0022]
In the control unit 100, encoder position information is taken into the CPU 101 via an I / O 102 from an encoder of the apparatus main body. The CPU 101 controls the linear motors 3, 5, 7, and 9 based on the motion information from the computer 200, and outputs a thrust command to the amplifiers 103 and 104. The tactile actuator 30 of the presentation unit 11 is also processed by the control unit 100 in the same manner as described above, and outputs a thrust command to the amplifier 105.
Further, by attaching the speaker 31 or the like to the presentation device and generating an auditory signal in response to a command from the object processing unit 201 and generating a sound using the sound card 204, it is possible to improve the sense of presence.
[0023]
Here, an example in which the control unit 100 and the computer 200 operate with separate CPUs has been described. However, the present invention is not limited to this configuration. For example, a configuration in which one CPU performs all of the above processing may be used.
[0024]
FIG. 4 shows a software functional block diagram of the above processing contents. The model data calling unit of the object processing unit 201 performs a process of reading the shape and physical characteristics of the virtual object from the storage or the like into the internal memory. The contact determination unit determines whether interference has occurred based on a comparison between the current position of the presentation unit and the shape data in the model data, or calculates the amount of sinking into the virtual object. The deformation / motion simulation unit calculates the amount of deformation and the amount of motion of the object according to the physical characteristics and the degree of interference set for the virtual object, and simultaneously calculates the reaction force generated at that time. For example, when the hardness of the surface of the virtual object is considered by a spring / damper model, the reaction force is as follows.
F = KΔX + DdΔX / dt
Here, F is the reaction force, K is the spring constant, D is the viscosity coefficient, and ΔX is the amount of intrusion from the virtual object surface into the object calculated by the contact determination unit. The reaction force data calculated here is sent to the presentation unit drive calculation unit of the CPU 101. The presenting unit drive calculating unit generates a thrust command to a linear motor amplifier for driving the presenting unit based on the reaction force data from the object processing unit (including the CPU) 201 and outputs the thrust instruction to the amplifier. In this way, force sense presentation based on model data can be realized.
[0025]
Further, the teaching data reproducing unit calls an operation pattern stored in advance from the memory, and sends the operation pattern to the presentation unit drive calculation unit. When reproducing the teaching data, for example, if the operation pattern is a position command, the presenting unit drive calculation unit calculates a thrust command obtained by multiplying the position deviation and the speed deviation by a gain.
The auditory data generation unit of the object processing unit 201 selects or generates a sound effect according to the amount of deformation and movement calculated by the deformation and movement simulation unit and the set material, and outputs the sound effect to the speaker. And perform a drawing operation and output it to the display.
[0026]
A second embodiment will be described with reference to FIG. By using a pen-shaped object as shown in FIG. 5 as the presentation unit, it is possible to realize a feeling of operating a virtual object with a pen, a brush, or the like. The pen-shaped grip portion 20 is fixed to the presentation portion 11 'by a joint 21. The presenting unit 11 ′ is fixed to the presenting unit support base 13 ′ by a spring 22, and the presenting unit 11 ′ moves up and down when the pen-shaped gripping unit 20 is pressed down. The pressure at the time of pressing is measured by the pressure sensor 23. This can be used as an educational device for calligraphy and hard writing. The following example illustrates the case of calligraphy.
[0027]
First, the relationship between the pressure detected by the pressure sensor 21 and the thickness of the line drawn on the video display 12 is determined in advance for each selectable brush thickness. Then, the teacher grips the pen-shaped gripping portion 20 to perform a model brush stroke, and draws a character on the video display 12 with a line thickness corresponding to the pressure of the brush. The locus of the brush and the thickness of the line at that time are stored in a storage unit (not shown) of the computer 200 in FIG. When the students practice, the brush stroke is performed in the same manner as described above, but the teacher's characters stored at that time are projected on the video display 12, and the stroke is performed by tracing the teacher's characters. . At this time, it is also possible to assist the student's writing by playing back the trajectory of the teacher stored above using the linear motor shown in FIG. 1 as if the teacher wrote with the student's hand. . As described above, the reproducing means reads the teaching data by the teaching data reproducing unit of the CPU 101, and reproduces the locus of the teaching data by the presenting unit drive calculating unit.
[0028]
At this time, since the user traces right above the liquid crystal display 12 shown in FIG. 1, there is a sense of presence as if he were practicing calligraphy or hard brush on paper, and effective learning is possible. Here, a passive spring has been described as an example that presents a tactile sensation, but by actively controlling this using an actuator, it is possible to sense the pen pressure of the teacher finely.
Such a learning method is effective when the teacher cannot provide sufficient guidance to each student or when the student learns by himself when there is no teacher at the place.
[0029]
A third embodiment will be described with reference to FIG. First, an image photographed by a digital camera or digital still image data taken into a personal computer by a scanner is prepared. Thus, the image processing unit 301 performs image processing such as binarization and edge detection. The image processing result is used by the model generation unit 302 to generate contour shape data of the target object. This is the shape model of the virtual object. The physical characteristic setting means sets the physical characteristics of the entire contour shape or a certain range. The physical characteristics referred to here include a spring characteristic, a viscous friction characteristic of the virtual object surface, a roughness of the virtual object surface, and the like. As described above, the shape model and the physical characteristics corresponding to the shape model are stored in the storage unit as model data of the virtual object. Then, force sense presentation is performed based on the model data by the method described with reference to FIG.
A photograph of a human face will be described as an example of a digital image. As described above, after binarizing a photograph of a person, performing edge detection and noise removal, data interpolation of discontinuous points is performed, and face contour shape data is generated. At the same time, physical characteristics such as the softness of the face surface are set and used as model data of the virtual object. Then, the real image of the photograph of the face of the person is displayed on the display of the sensation presentation device as shown in FIG. 1, and the presentation of force sense based on the model data is performed by the method of FIG. This makes it possible to present a feeling as if the person's face is being touched with a fingertip. In addition, since there is a presenting portion for presenting a reaction force on the display, the viewpoint and the fingertip position match, and it is possible to enjoy an extremely high sense of presence. In addition, by providing a tactile sensation presentation mechanism that presents irregularities on the presenting unit, it is possible to feel irregularities on the face.
[0030]
Further, the same can be performed for an image on a homepage in an Internet environment. The image on the homepage is linked to the model data created in advance by the method of FIG. 6 so that the user can download the model data. Therefore, force sense presentation is performed on the downloaded model data in the same manner as described above. This means that, for example, it is possible not only to see the image of a product in Internet shopping or the like, but also to virtually touch it. Further, by associating one piece of sound effect data with the material information of the model data and reproducing the sound effect when a contact is detected, and presenting the sound effect through a speaker, the sense of presence is further improved. By checking the product by touching it, it is possible for the customer to purchase with more confidence, and for the shop, it is possible to excite the customer with the willingness to purchase.
[0031]
【The invention's effect】
According to the first to fifth aspects of the present invention, visual and auditory senses, force senses, and tactile senses are combined, and a virtual object projected on a display can be operated with a higher sense of reality. In particular, by simultaneously generating a force sensation and a tactile sensation, various expression methods of the virtual object become possible, and the sense of presence is improved. Further, by disposing the display at the lower part of the presentation unit and matching the position of the drawn operation pointer with the presentation unit, it is possible to match the sense of sight and the somatic sensation, thereby improving the sense of reality. Furthermore, even if a liquid crystal display is arranged by a linear motor and a wire mechanism, a thin, compact and simple device can be realized.
According to the sixth and seventh aspects of the present invention, even a real image such as a photograph can be virtually touched. According to the eighth aspect, the sense of presence is further improved by the sound effect when touched. Further, according to the ninth aspect, it is possible to virtually touch an image on a homepage on the Internet.
[Brief description of the drawings]
1 is a schematic view of a first embodiment of the present invention; FIG. 2 is a cross-sectional view of a mechanism of the first embodiment of the present invention; FIG. 3 is a system block diagram of the first embodiment of the present invention; FIG. 5 is a functional block diagram of the first embodiment of the present invention. FIG. 5 is a diagram showing a presentation section of the second embodiment of the present invention. FIG. 6 is a diagram showing a model generation process of the third embodiment of the present invention. 7 is a diagram illustrating an example of a conventional force sense presentation device. FIG. 8 is a diagram illustrating an example of a conventional force sense and vision presenting device. FIG. 9 is an example of a conventional force sense and vision presenting device. [Explanation of symbols]
2, 4: X-axis direction motor stator 3, 5: X-axis direction motor mover 6, 8: Y-axis direction motor stator 7, 9: Y-axis direction motor mover 11: presenting unit 12: Display 14: Wire 20: Tactile presentation unit 31: Auditory presentation unit 103, 104: Amplifier 100: Control unit 102: I / O unit 201: Object processing unit 202: Communication unit

Claims (9)

物体の映像を呈示する映像ディスプレイを有し、前記映像ディスプレイに表示された前記物体を仮想的に操作する感覚を操作者に呈示する感覚呈示装置において、
2つ以上のアクチュエータで略平面上を駆動される呈示部と、
前記呈示部に設置され多次元の触覚を前記操作者に呈示する触覚呈示部を有し、前記呈示部の下面に前記物体を表示する前記映像ディスプレイを配置することを特徴とする感覚呈示装置。
A sensation presentation device having a video display for presenting an image of an object, and presenting to the operator a feeling of virtually operating the object displayed on the video display,
A presentation unit driven on a substantially plane by two or more actuators;
A sensation presentation device, comprising: a tactile presentation section provided on the presentation section for presenting a multidimensional tactile sensation to the operator, wherein the video display for displaying the object is arranged on a lower surface of the presentation section.
前記操作者が前記物体を操作する時に、操作に応じた反力を前記呈示部で呈示することを特徴とする請求項1記載の感覚呈示装置。2. The sensation presentation device according to claim 1, wherein when the operator operates the object, a reaction force corresponding to the operation is presented by the presentation unit. 前記呈示部と前記アクチュエータとはワイヤまたはベルトで接続されることを特徴とする請求項1乃至2記載の感覚呈示装置。3. The sensation presentation device according to claim 1, wherein the presentation unit and the actuator are connected by a wire or a belt. 前記操作者に聴覚を呈示する聴覚呈示手段を設けたことを特徴とする請求項1乃至3記載の感覚呈示装置。4. The sensation presentation device according to claim 1, further comprising a hearing presentation means for presenting a hearing to the operator. 前記呈示部に反力を発生させる反力発生手段は、前記アクチュエータに推力指令を発生するアンプと信号の入出力を行うI/O部とを有する制御部と、
前記仮想物体の変形および運動に関して、シミュレーションおよび描画を行う物体処理部を備え、
前記制御部と前記物体処理部の間でデータ通信を行う通信部とを備えることを特徴とする請求項1乃至4記載の感覚呈示装置。
A control unit including an amplifier for generating a thrust command to the actuator and an I / O unit for inputting and outputting a signal;
For the deformation and movement of the virtual object, comprising an object processing unit that performs simulation and drawing,
The sensory presentation device according to claim 1, further comprising a communication unit configured to perform data communication between the control unit and the object processing unit.
物体の映像を呈示する映像ディスプレイと、前記映像ディスプレイに表示された前記物体を仮想的に操作する感覚を操作者に呈示する呈示部を有する感覚呈示方法において、
カメラで撮影した実映像の画像データで対象となる物体に対して画像処理を行い、
前記画像処理に基づいて仮想モデルデータを作成し、
前記映像ディスプレイには実画像を表示し、
前記仮想モデルデータに基づいて反力を呈示する感覚呈示方法。
A video display for presenting an image of an object, and a sensation presentation method having a presentation unit for presenting to the operator a sensation of virtually operating the object displayed on the video display,
Perform image processing on the target object with the image data of the actual video taken by the camera,
Create virtual model data based on the image processing,
The video display displays a real image,
A sensation presentation method for presenting a reaction force based on the virtual model data.
前記仮想モデルデータは、操作対象とする1つまたは複数の物体の形状、材質および固さ等の物理特性であることを特徴とする請求項6記載の感覚呈示方法。7. The sensation presentation method according to claim 6, wherein the virtual model data is physical properties such as a shape, a material, and a hardness of one or a plurality of objects to be operated. 予め前記仮想モデルデータの前記物理特性に応じて効果音データを対応づけておき、
前記呈示部の位置と前記物体の位置から接触を判定し、
接触を検知した際に前記効果音を再生または生成し、
聴覚呈示手段で呈示することを特徴とする請求項6乃至7記載の感覚呈示方法。
In advance, sound effect data is associated in accordance with the physical characteristics of the virtual model data,
Determine contact from the position of the presentation unit and the position of the object,
Play or generate the sound effect when contact is detected,
8. The sensation presentation method according to claim 6, wherein the presentation is performed by an auditory presentation unit.
前記仮想モデルデータは、ネットワークを通してダウンロードされることを特徴とする請求項6乃至8記載の感覚呈示方法。9. The sensation presentation method according to claim 6, wherein the virtual model data is downloaded through a network.
JP2002212710A 2002-07-22 2002-07-22 Sense presentation device and its method Pending JP2004054694A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002212710A JP2004054694A (en) 2002-07-22 2002-07-22 Sense presentation device and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002212710A JP2004054694A (en) 2002-07-22 2002-07-22 Sense presentation device and its method

Publications (1)

Publication Number Publication Date
JP2004054694A true JP2004054694A (en) 2004-02-19

Family

ID=31935560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002212710A Pending JP2004054694A (en) 2002-07-22 2002-07-22 Sense presentation device and its method

Country Status (1)

Country Link
JP (1) JP2004054694A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008305109A (en) * 2007-06-06 2008-12-18 Tokyo Institute Of Technology Information processor, program and computer readable recording medium
WO2010090417A2 (en) * 2009-02-03 2010-08-12 Lee Jeong Yeol Tactile display having wire-supported pins
WO2010101445A2 (en) * 2009-03-06 2010-09-10 Lee Jeong Yeol Tactile display composed of pins that are supported by fixing bars having repetitive protrusion-depression pattern

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008305109A (en) * 2007-06-06 2008-12-18 Tokyo Institute Of Technology Information processor, program and computer readable recording medium
WO2010090417A2 (en) * 2009-02-03 2010-08-12 Lee Jeong Yeol Tactile display having wire-supported pins
WO2010090417A3 (en) * 2009-02-03 2010-11-25 Lee Jeong Yeol Tactile display having wire-supported pins
WO2010101445A2 (en) * 2009-03-06 2010-09-10 Lee Jeong Yeol Tactile display composed of pins that are supported by fixing bars having repetitive protrusion-depression pattern
WO2010101445A3 (en) * 2009-03-06 2010-11-25 Lee Jeong Yeol Tactile display composed of pins that are supported by fixing bars having repetitive protrusion-depression pattern

Similar Documents

Publication Publication Date Title
Iwata et al. Project FEELEX: adding haptic surface to graphics
Abtahi et al. Visuo-haptic illusions for improving the perceived performance of shape displays
Benko et al. Normaltouch and texturetouch: High-fidelity 3d haptic shape rendering on handheld virtual reality controllers
El Saddik et al. Haptics technologies: Bringing touch to multimedia
US10509468B2 (en) Providing fingertip tactile feedback from virtual objects
US8350843B2 (en) Virtual hand: a new 3-D haptic interface and system for virtual environments
JP3543695B2 (en) Driving force generator
US20110148607A1 (en) System,device and method for providing haptic technology
JP2017139024A (en) Driving method
Sinclair et al. TouchMover: actuated 3D touchscreen with haptic feedback
KR100906576B1 (en) Apparatus and method for interfacing hand haptic
O’malley et al. Haptic interfaces
El Saddik et al. Haptics: general principles
Zhu et al. TapeTouch: A handheld shape-changing device for haptic display of soft objects
Ariza et al. Inducing body-transfer illusions in VR by providing brief phases of visual-tactile stimulation
Evreinova et al. From kinesthetic sense to new interaction concepts: Feasibility and constraints
JP2004054694A (en) Sense presentation device and its method
Bayousuf et al. Haptics-based systems characteristics, classification, and applications
Young et al. Ungrounded vari-dimensional tactile fingertip feedback for virtual object interaction
Pausch et al. Giving CANDY to children: user-tailored gesture input driving an articulator-based speech synthesizer
Zhou et al. Multisensory musical entertainment systems
Jyothi et al. Haptic technology-a sense of touch
JP2000047563A (en) Holding action simulation device for object
Ding et al. Motionless Movement: Towards Vibrotactile Kinesthetic Displays
JP2003263271A (en) Information-sensing device, information transmission system, recording medium storing program for controlling the information-sensing device