JP2017021633A - 触覚提示装置および触覚提示方法 - Google Patents

触覚提示装置および触覚提示方法 Download PDF

Info

Publication number
JP2017021633A
JP2017021633A JP2015139608A JP2015139608A JP2017021633A JP 2017021633 A JP2017021633 A JP 2017021633A JP 2015139608 A JP2015139608 A JP 2015139608A JP 2015139608 A JP2015139608 A JP 2015139608A JP 2017021633 A JP2017021633 A JP 2017021633A
Authority
JP
Japan
Prior art keywords
tactile
generator
tactile sensation
living body
haptic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015139608A
Other languages
English (en)
Inventor
健太 保坂
Kenta Hosaka
健太 保坂
有理 福村
Yuri Fukumura
有理 福村
俊介 ▲高▼村
俊介 ▲高▼村
Shunsuke Takamura
一真 竹内
Kazuma Takeuchi
一真 竹内
真也 荻布
Shinya Oginuno
真也 荻布
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2015139608A priority Critical patent/JP2017021633A/ja
Publication of JP2017021633A publication Critical patent/JP2017021633A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】実行すべき生体部位の動かし方を生体に認識させるために、生体に触覚を提示できる触覚提示装置および触覚提示方法を提供する。
【解決手段】触覚提示装置DAは、生体に触覚を与える触覚生成体1と、生体における所定の部位の動かし方を表した触覚提示データを記憶する記憶部22と、触覚提示データに基づいて触覚生成体1を制御する触覚生成体制御部214とを備える。
【選択図】図2

Description

本発明は、実行すべき生体部位の動かし方を生体に認識させるために、前記生体に触覚を提示する触覚提示装置および触覚提示方法に関する。
近年、ユーザに触覚を提示する技術が種々に提案されており、例えば、特許文献1や特許文献2に開示されている。
特許文献1には、触覚刺激を発生してユーザに伝達する触覚刺激発生手段が開示されている。より具体的には、前記特許文献1では、振動を発生させる振動発生手段が前記触覚刺激発生手段として挙げられている。
また、前記特許文献2には、表示画面の前面に保持されたタッチパネルを操作箇所に応じて振動させ、このタッチパネルの振動により目的の方向をユーザに伝達する情報伝達装置が開示されている。より具体的には、前記情報伝達装置は、カーナビゲーション装置であり、前記タッチパネルの振動により例えば北方向等の方位や目的地の方向がユーザに通知される。
特開2008−345号公報 特開2005−10119号公報
ところで、一般的に、適正な効果や結果を得るためには、適切な動作の仕方が必要になる。例えば、フェイシャルや頭皮ケアでは、適切な効果を得るために、正確な動かし方で手指を動かしながらマッサージが実行されなければならないが、知識や経験の不足した者は、顔や頭皮に手指を当てる正確な位置や手指を動かす正確な方向や施術の順番等を明確に把握できていないために、適切なマッサージの実行が難しい。また例えば、乳ガンのセルフチェック(自己触診)では、適切な診断結果を得るために、正確な動かし方で手指を動かしながら自己触診が実行されなければならないが、知識や経験の不足した者は、正確な触診位置や手指を動かす方向等を明確に把握できていないために、適切な乳ガンのセルフチェックの実行が難しい。また例えば、病気の診断における触診では、正確な診断結果を得るために、正確な動かし方で手指を動かしながら触診が実行されなければならないが、知識や経験の不足した医師は、正確な触診位置や手指を動かす方向等を明確に把握できていないために、適切な触診の実行が難しい。特に、触診中に手指の方向を変える必要がある場合には、さらに、適切な触診の実行が難しくなる。また例えば、ジェスチャー入力装置を使用する場合、その知識や経験の不足したユーザは、ジェスチャー入力の方法が分からず、ジェスチャー入力装置を使用することが難しい。
前記特許文献1に開示された触覚刺激発生手段は、画面上のカーソルが非表示のオブジェクトに重なる場合に、ユーザに振動で刺激を与える振動発生手段であり、適切な動かし方を提示できない。また、前記特許文献2に開示されたカーナビゲーション装置は、タッチパネルが操作された部位と目的方向とが一致した場合に、タッチパネルを振動させることにより間接的に方位や目的の方向をユーザに伝達するだけであり、前記適切な動かし方を提示するものではない。
本発明は、上述の事情に鑑みて為された発明であり、その目的は、実行すべき生体部位の動かし方を生体に認識させるために、前記生体に触覚を提示できる触覚提示装置および触覚提示方法を提供することである。
本発明者は、種々検討した結果、上記目的は、以下の本発明により達成されることを見出した。すなわち、本発明の一態様にかかる触覚提示装置は、制御信号に応じて駆動され生体に触覚を与える触覚生成体と、前記生体における所定の部位の動かし方を表す触覚提示データを記憶する記憶部と、前記記憶部に記憶された前記触覚提示データに基づいて前記制御信号を生成し、前記触覚生成体を制御する触覚生成体制御部とを備えることを特徴とする。
このような触覚提示装置は、生体における所定の部位(生体部位)の動かし方を表した触覚提示データに基づいて触覚生成体を制御するので、前記生体が実行すべき生体部位の動かし方を前記生体に認識させるために、前記生体に触覚を提示できる。
また、他の一態様では、上述の触覚提示装置において、前記記憶部は、前記所定の部位の動かし方を表すデータとして、前記所定の部位における時間的に連続した一連の動きの途中で前記所定の部位を動かす方向が変わるデータを記憶することを特徴とする。
直線的な動かし方は、実行し易いが、途中で動かす方向が変わる非直線的な動かし方は、方向を変える位置を適切に把握する必要があるため、実行し難い。上記触覚提示装置は、このような非直線的な動かし方を触覚で提示できるから、このような非直線的な動かし方を前記生体に認識させる場合に、効果的である。
また、他の一態様では、これら上述の触覚提示装置において、前記触覚生成体は、2次元状に配列された複数の電極を備えており、前記制御信号に基づいて所定の電圧が印加された前記電極によって前記生体に触覚を与える。
2次元配列された電極により電気的な刺激として生体に触覚を与えることで、簡素な構成であるにも拘らず、生体に対して確実に触覚を与えることができる。
また、他の一態様では、上述の触覚提示装置において、前記触覚生成体制御部は、前記触覚提示データに基づいて、前記触覚提示データで表された前記動かし方における動かす方向と交差する方向に1または複数の他の電極を挟んで離れた1対の電極に前記所定の電圧を印加するように前記制御信号を生成し、前記触覚生成体を制御することを特徴とする。好ましくは、上述の触覚提示装置において、前記1対の電極は、前記動かす方向に沿って配列された複数である。
このような触覚提示装置は、離間した一対の電極に所定の電圧を印加することで、2本線でユーザに触覚を提示することが可能である。このため、この2本線の触覚によって、前記生体は、溝を想起でき、溝をなぞる感覚で生体部位の動かし方を認識できる。
また、他の一態様では、上述の触覚提示装置において、前記触覚生成体制御部は、前記触覚提示データで表された前記動かし方における動かす方向と交差する方向に沿って配列された複数の電極に、前記所定の電圧以下において、互いに隣接する電極間で異なりかつ中央に位置する電極に最も低い電圧を印加するように前記制御信号を生成し、前記触覚提示データに基づいて前記触覚生成体を制御することを特徴とする。好ましくは、上述の触覚提示装置において、前記1対の電極は、前記動かす方向に沿って配列された複数である。
このような触覚提示装置は、動かす方向と交差する方向に沿って配列された複数の電極に、前記所定の電圧以下において、互いに隣接する電極間で異なりかつ中央に位置する電極に最も低い電圧を印加するので、前記生体により効果的に溝を想起させることができる。
また、他の一態様では、これら上述の触覚提示装置において、前記触覚生成体制御部は、前記触覚提示データで表された前記動かし方における動かす方向に沿って配列された複数の電極に順次に前記所定の電圧が印加されるように前記制御信号を生成し、前記触覚提示データに基づいて前記触覚生成体を制御することを特徴とする。
このような触覚提示装置は、動かす方向に沿って配列された複数の電極に順次に前記所定の電圧を印加するので、生体部位の動かし方における動かす方向だけでなくその向き(例えば動かす方向が左右方向である場合に右向きまたは左向き、動かす方向が上下方向である場合に上向きまたは下向き等)も前記生体に認識させることができる。
また、他の一態様では、これら上述の触覚提示装置において、前記生体に装着するための装着部材をさらに備えることを特徴とする。
このような触覚提示装置は、装着部材を備えるので、実際に生体上で生体部位の動かし方を前記生体に認識させることができる。
また、他の一態様では、これら上述の触覚提示装置において、前記触覚生成体は、前記触覚生成体制御部からの制御信号に基づき、前記触覚生成体が装着された生体の部位に対して、その部位の移動をガイドするように触覚を与える。
このような触覚提示装置は、触覚接触体が装着された部位に確実に触覚を伝え、移動をガイドすることができる。
また、他の一態様では、上述の触覚提示装置において、前記触覚生成体は、前記触覚生成体制御部からの制御信号に基づき、前記触覚生成体を介して前記触覚生成体が装着された生体に接触する他の生体の部位に対して、その部位の移動をガイドするように触覚を与える。
このような触覚提示装置は、触覚接触体が装着された生体上の、別の生体の部位によって触れる位置を、当該別の生体の部位に正確に伝え、その移動をガイドすることができる。
また、他の一態様では、これら上述の触覚提示装置において、前記生体における所定の部位におけるジェスチャーを検知するジェスチャー検知処理部と、前記ジェスチャー検知処理部で検知したジェスチャーに基づいて所定の処理を実行する検知結果利用部とをさらに備えることを特徴とする。
このような触覚提示装置は、ジェスチャー入力装置で操作入力方法が分からない場合にその操作入力方法を前記生体に触覚で提示できる。
そして、本発明の他の一態様にかかる触覚提示方法は、生体における所定の部位の動かし方を表す触覚提示データを記憶部に記憶し、前記生体に触覚を与える触覚生成体を、前記記憶部に記憶された前記触覚提示データに基づいて制御することを特徴とする。
このような触覚提示方法は、生体部位の動かし方を表した触覚提示データに基づいて触覚生成体を制御するので、前記生体が実行すべき生体部位の動かし方を前記生体に認識させるために、前記生体に触覚を提示できる。
また、他の一態様では、上述の触覚提示方法において、前記記憶部に記憶された触覚提示データに基づいて前記触覚生成体を制御し、前記触覚生成体が装着された生体の部位に対して、その部位の移動をガイドするように触覚を与える。
また、他の一態様では、上述の触覚提示方法において、前記記憶部に記憶された触覚提示データに基づいて前記触覚生成体を制御し、前記触覚生成体を介して前記触覚生成体が装着された生体に接触する他の生体の部位に対して、その部位の移動をガイドするように触覚を与える。
本発明にかかる触覚提示装置および触覚提示方法は、実行すべき生体部位の動かし方を前記生体に認識させるために、前記生体に触覚を提示できる。
第1実施形態における、第1態様の触覚生成体を備えた触覚提示装置の基本構成を模式的に示す図である。 第1および第2実施形態における触覚提示装置の電気的な構成を示す図である。 第1実施形態における、第2態様の触覚生成体を備えた触覚提示装置の外観を示す図である。 第1実施形態の触覚提示装置における第1触覚提示モードを説明するための図である。 第1実施形態の触覚提示装置における第2触覚提示モードを説明するための図である。 第1実施形態の触覚提示装置における第3触覚提示モードを説明するための図である。 第1実施形態における触覚提示装置のメイン動作を示すフローチャートである。 図7に示すメイン動作におけるキャリブレーション処理の動作を示すフローチャートである。 第1実施形態における触覚提示装置を用いた乳がんのセルフチェックの様子を示す図である。 第1実施形態における触覚提示装置を用いた触診の様子を示す図である。 第2実施形態における触覚提示装置の概略構成を示す図である。 第2実施形態における触覚提示装置のメイン動作を示すフローチャートである。 図12に示すメイン動作におけるキャリブレーション処理の動作を示すフローチャートである。 第2実施形態における触覚提示装置によって提示されるジェスチャーの例を説明するための図である。
以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。
(第1実施形態)
まず、第1実施形態における触覚提示装置DAの構成について説明する。図1は、第1実施形態における、第1態様の触覚生成体を備えた触覚提示装置の基本構成を模式的に示す図である。図2は、第1実施形態および後述の第2実施形態における触覚提示装置の電気的な構成を示す図であり、破線部は、第2実施形態の装置が有する構成要素である。図3は、第1実施形態における、第2態様の触覚生成体を備えた触覚提示装置の外観を示す図である。図4は、第1実施形態の触覚提示装置における第1触覚提示モードを説明するための図である。図5は、第1実施形態の触覚提示装置における第2触覚提示モードを説明するための図である。図6は、第1実施形態の触覚提示装置における第3触覚提示モードを説明するための図である。図4ないし図6において、図(A)は、直線的な動かし方を提示する場合を示し、図(B)は、手指FGにおける時間的に連続した一連の動きの途中で手指FGを動かす方向が変わる動かし方を提示する場合を示す。
第1実施形態における触覚提示装置DA(DAa、DAb)は、実行すべき生体(人や動物等のオペレータやユーザ等)における所定の部位(生体部位)の動かし方を前記生体に認識させるために、前記生体に触覚を提示する装置であり、例えば、図1および図2に示すように、触覚生成体1(1a、1b)と、本体部2Aとを備える。
触覚生成体1は、本体部2Aにおける後述の制御処理部21Aに配線15を介して接続され、制御処理部21Aの制御に従って生体に触覚を与える装置である。このような触覚生成体1は、後述するようにシート状の形状を有しており、装着される生体の部位に応じて適宜な形状を持ち、種々の態様で構成される。触覚生成体1として、例えば、図1および図2に示す平面視にて略矩形な形状を持つ第1態様の触覚生成体1aと、図3に示す平面視にて人の顔を模した形状(いわゆるお面)を持つ第2態様の触覚生成体1bとがある。第1態様の触覚生成体1aは、後述するように生体に密着するなどして生体に装着され得るものであり、例えば胸部や腹部や背部等の比較的広面積な部位、および、例えば指(手指や足指)や腕部や脚部等の略円柱状の部位等に好適に装着される。第1態様の触覚生成体1aが前記広面積な部位に装着される場合、第1態様の触覚生成体1aは、例えば、前記広面積な部位に載置されることで装着される。第1態様の触覚生成体1aが前記略円柱状の部位に装着される場合、第1態様の触覚生成体1aは、例えば、前記略円柱状の部位に載置されたり、あるいは、前記略円柱状の部位に巻かれたりすることで装着される。第2態様の触覚生成体1bは、顔面上に載置されることで、顔面に装着される。これら第1および第2態様の触覚生成体1a、1bに応じて、触覚提示装置DAとして、第1態様の触覚生成体1aを備える第1態様の触覚提示装置DAaと第2態様の触覚生成体1bを備える第2態様の触覚提示装置DAbとがある。これら第1および第2態様の触覚生成体1a、1bならびに第1および第2態様の触覚提示装置DAa、DAbは、第1および第2触覚生成体1a、1bの各形状が上述のように互いに異なるだけで、他の構成は同様なので、以下、代表して、第1態様の触覚生成体1aを用いて触覚生成体1について説明し、この第1態様の触覚生成体1aを備える第1態様の触覚提示装置DAaを用いて第1実施形態における触覚提示装置DAについて説明する。
なお、生体における所定の部位(生体部位)は、触覚生成体1が装着される生体部位と、触覚生成体1によって触覚が提示される生体部位とがあるため、以下、触覚生成体1が装着される前記生体部位は、「装着生体部位」と適宜に呼称され、触覚生成体1によって触覚が提示される前記生体部位は、「触覚提示生体部位」と適宜に呼称される。
触覚生成体1は、図2に示すように、複数の電極11と、複数の位置センサ12と、装着部材13と、支持部材14と、複数の配線15とを備える。
複数の電極11は、支持部材14上に2次元状に配列され、個々個別に所定の電圧を印加可能に複数の配線15を介して本体部2Aの制御処理部21Aに接続される。より具体的には、複数の電極11は、それぞれ、例えば金(Au)や白金(Pt)等の金属材料(合金材料を含む)で略円形状に形成され、これら複数の電極11は、支持部材14上に、線形独立な2方向(図2に示す例では互いに直交する2方向)に2次元マトリクス状に配列される。複数の電極11は、それぞれ、本体部2Aの制御処理部21Aによって所定の電圧が印加されることで前記生体(触覚提示生体部位)に触覚を与える。生体は、所定の電圧が電極によって局部的に部位に与えられると前記部位で触覚を感じることが知られている。複数の電極11のうちのいずれの1または複数の電極11に前記所定の電圧を印加するか否かの制御は、後述するように、制御処理部21Aの触覚生成体制御部214によって実行される。なお、複数の電極11の個数は、任意であり、複数の電極11は、例えば触覚生成体1の大きさ(面積)に応じて適宜な個数で設けられる。ユーザの手指で操作を行う場合は、ユーザの手指に対してその動かし方を十分伝えられるように、電極の大きさをユーザの手指の大きさよりも小さくし、十分な解像度が得られるような密度で配置することが好ましい。
複数の位置センサ12は、触覚提示生体部位が当該触覚生成体1に当接した場合にその位置(当接位置)を検出するための装置である。複数の位置センサ12は、それぞれ、本体部2Aの制御処理部21Aに接続され、その出力を制御処理部21Aへ出力する。より具体的には、本実施形態では、複数の位置センサ12は、それぞれ、例えば触覚提示生体部位による圧力を検出する圧電素子等の圧力センサや触覚提示生体部位による熱を検出する焦電素子等の感熱センサ等であり、複数の位置センサ12は、前記複数の電極11に対応した個数で前記複数の電極11に対応して支持部材14上に設けられる。より詳しくは、複数の位置センサ12は、それぞれ、電極11が外部に臨むように、対応する電極11に厚さ方向に積層されて支持部材14上に設けられる。なお、複数の電極11および複数の位置センサ12は、それぞれ、半円形状に形成され、互いに対応する1対の電極11および位置センサ12で円形状を形成するように、互いに並置されて支持部材14上に設けられても良い。
支持部材14は、複数の電極11および複数の位置センサ12を支持するための部材であり、例えば、載置されて装着されることで装着生体部位における表面形状に応じて変形可能であって絶縁性を持つ例えばポリイミド等の樹脂材料でフィルム状(層状、膜状)のシート状に形成される。第1態様の触覚生成体1aの場合では、支持部材14は、上述した当該第1態様の触覚生成体1aにおける平面視にて略矩形な形状と同形状を持ち、第2態様の触覚生成体1aの場合では、支持部材14は、上述した当該第2態様の触覚生成体1bにおける平面視にて人の顔を模した形状と同形状を持つ。支持部材14には、互いに積層された電極11および位置センサ12の複数対が配設された場合に、表面が面一となるように、例えば、互いに積層された電極11および位置センサ12の厚さに応じた深さを持ち、電極11および位置センサ12の複数対それぞれを嵌め込む略円形状の複数の凹部が形成されて良く、また例えば、電極11および位置センサ12の複数対それぞれの間の隙間を埋める樹脂層が形成されて良い。
装着部材13は、当該触覚生成体1を生体(装着生体部位)に装着するための部材である。装着部材13は、例えば、支持部材14の背面(電極11が外部に臨む面(表面)に厚さ方向で対向する面)全面上に設けられたフィルム状(層状、膜状)のシート状の部材である。したがって、装着部材13は、支持部材14と同形状である。装着部材13は、生体(装着生体部位)に気密に密着するように、装着されることで装着生体部位における表面形状に応じて変形可能であって絶縁性を持つ例えばポリイミドやシリコーン樹脂等の樹脂材料で形成される。支持部材14および装着部材13がいずれも可撓性を有しているため、ユーザが触覚生成体1aを手指で押圧するのに応じて変形し、生体のマッサージ等を行うことができる。ここで、電極11のサイズや形状、配線15の材質や太さ等を適切に設定することで、ユーザの手指による押圧では損傷しないように構成することができる。なお、装着部材13は、触覚生成体1を、装着生体部位に固定するために、支持部材14の側辺(側面)から延びる1または複数の長尺な紐状部材(テープ状部材)をさらに備えても良い。また、装着部材13は、粘着性を有する材料で構成されていてもよいし、粘着性を有する層を有していてもよい。
配線15は、本体部2Aの制御処理部21Aと複数の電極11それぞれおよび複数の位置センサ12それぞれとを電気的に接続するための導体線である。
本体部2Aは、触覚生成体1に接続され、触覚生成体1を動作させるための装置であり、例えば、図2に示すように、制御処理部21Aと、記憶部22と、入力部23と、出力部24と、インターフェース部(IF部)25と、これら制御処理部21A、記憶部22、入力部23、出力部24およびIF部25を収容する例えば箱形の筐体(ハウジング)HGを備える。
入力部23は、制御処理部21Aに接続され、例えば、所定の操作を触覚提示装置DAに入力する機器であり、例えば、所定の機能を割り付けられた1または複数の入力スイッチ等である。より具体的には、本実施形態では、入力部23は、例えば、電源をオンオフするための電源スイッチ、後述の第1ないし第3触覚提示モードのうちのいずれかの触覚提示モードを選択して設定するためのモード選択スイッチ、触覚生成体1の装着終了を入力するための装着終了入力スイッチ、後述のキャリブレーションを行うためのキャリブレーション用ポイントの接触終了を入力するための接触終了入力スイッチ、および、触覚の提示の終了を入力するための終了スイッチ等である。なお、入力部23は、例えばキーボードやマウス等であっても良い。
出力部24は、制御処理部21Aに接続され、制御処理部21Aの制御に従って、当該触覚提示装置DAの動作状態を表示する機器であり、例えば1または複数のLED(発光ダイオード)である。出力部24としてのLEDは、その発光色(例えば赤、緑、青等)や点灯状態(例えば連続点灯、点滅点灯等)を変えることで、当該触覚提示装置DAの動作状態を表示する。前記動作状態には、例えば、電源がオンであるオン状態、電源がオフであるオフ状態、触覚提示モードが第1触覚提示モードである第1触覚提示モード状態、触覚提示モードが第2触覚提示モードである第2触覚提示モード状態、触覚提示モードが第3触覚提示モードである第3触覚提示モード状態、および、動作中である動作中状態が含まれる。例えば、オン状態は、LEDの連続点灯によって表示され、オフ状態は、LEDの消灯によって表示され、第1触覚提示モードは、LEDの赤色によって表示され、第2触覚提示モードは、LEDの緑色によって表示され、第3触覚提示モードは、LEDの青色によって表示され、そして、動作中は、点滅点灯によって表示される。したがって、例えば、触覚提示装置DAがオン状態で第2触覚提示モード状態である場合には、出力部24としてのLEDは、緑色で連続点灯し、また例えば、触覚提示装置DAが第3触覚提示モード状態で動作中である場合には、出力部24としてのLEDは、青色で点滅点灯することになる。なお、出力部24は、オン状態およびオフ状態を点灯および消灯で表す第1LED、第1ないし第3触覚提示モード状態を赤色、緑色および青色で表す第2LED、ならびに、動作中および非動作中を点灯および消灯で表す第3LEDの3個のLEDを備えて構成されても良い。また、出力部24は、触覚生成体1の装着を指示するための装着指示用のLEDを備え、その点灯によって触覚生成体1の装着が促され指示される。そして、出力部24は、キャリブレーション用ポイントの接触を指示するための接触指示用のLEDを備え、その点灯によってキャリブレーション用ポイントの接触が促され指示される。さらに、出力部24は、キャリブレーションの終了を報知するための終了報知用のLEDを備え、その点灯によってキャリブレーションの終了が報知される。
なお、出力部24は、入力部23から入力された操作内容、現在の触覚提示モード、動作中か非動作中か、例えばメッセージ等による触覚生成体1の装着指示、例えばメッセージ等によるキャリブレーション用ポインタの接触指示、および、例えばメッセージ等によるキャリブレーションの終了等を表示するために、例えばLCD(液晶ディスプレイ)および有機ELディスプレイ等の表示装置等であってもよい。この場合に、入力部23および出力部24としての表示装置からタッチパネルが構成されてもよい。このタッチパネルを構成する場合において、入力部23は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力装置である。このタッチパネルでは、表示装置の表示面上に位置入力装置が設けられ、表示装置に入力可能な1または複数の入力内容の候補が表示され、ユーザが、入力したい入力内容を表示した表示位置を触れると、位置入力装置によってその位置が検出され、検出された位置に表示された表示内容がユーザの操作入力内容として触覚提示装置DAに入力される。このようなタッチパネルでは、ユーザは、入力操作を直感的に理解し易いので、ユーザにとって取り扱い易い触覚提示装置DAが提供される。
IF部25は、制御処理部21Aに接続され、制御処理部21Aの制御に従って、外部機器との間でデータの入出力を行う回路であり、例えば、シリアル通信方式であるRS−232Cのインターフェース回路、Bluetooth(登録商標)規格を用いたインターフェース回路、IrDA(Infrared Data Asscoiation)規格等の赤外線通信を行うインターフェース回路、および、USB(Universal Serial Bus)規格を用いたインターフェース回路等である。また、IF部25は、有線または無線によって通信する通信カード等であり、例えばイーサネット環境等の通信ネットワークを介して例えば後述の触覚提示データを提供するサーバ装置等の外部装置との間で通信しても良い(イーサネットは登録商標)。
記憶部22は、制御処理部21Aに接続され、制御処理部21Aの制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、触覚提示装置DAの各部を当該各部の機能に応じてそれぞれ制御するための制御プログラムや、触覚提示データに基づいて触覚生成体1を制御するための触覚付与制御プログラム等の制御処理プログラムが含まれる。前記各種の所定のデータには、触覚を提示するために電極11に印加される所定の電圧の電圧値や、生体における所定の部位(触覚提示生体部位)の動かし方を表した触覚提示データ等の各種プログラムの実行に必要なデータや各種プログラムの実行によって得られたデータ等の各種のデータが含まれる。この触覚提示データを記憶するために、記憶部22は、機能的に、触覚提示データ記憶部221を備える。
触覚提示データ記憶部221は、前記触覚提示データを予め記憶するものである。前記触覚提示データは、例えば、動かし方の軌跡に沿った複数の各点における装着生体部位上での各座標位置についての情報、および、その座標に紐づく触覚提示出力強度についての情報を備えて構成される。
このような記憶部22は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、記憶部22は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部21AのワーキングメモリとなるRAM(Random Access Memory)等を含む。
制御処理部21Aは、触覚提示装置DAの各部を当該各部の機能に応じてそれぞれ制御し、生体における所定の部位(触覚提示生体部位)の動かし方を触覚で提示するための回路である。制御処理部21Aは、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。制御処理部21Aには、制御処理プログラムが実行されることによって、制御部211、キャリブレーション処理部212、位置処理部213および触覚生成体制御部214が機能的に構成される。
制御部211は、触覚提示装置DAの各部を当該各部の機能に応じてそれぞれ制御し、当該触覚提示装置DAの全体制御を司るものである。
キャリブレーション処理部212は、キャリブレーション用ポイントCPの位置に基づいて、装着生体部位に実際に配置された触覚生成体1の座標系に合うように、触覚提示データを校正するものである。キャリブレーション用ポイントは、触覚生成体1が装着生体部位に装着された場合に、装着生体部位と触覚生成体1と触覚提示データとを相互に位置合わせするための目印(マーク)である。
位置処理部213は、触覚生成体1にける複数の位置センサ12の検出結果に基づいて前記複数の電極11のうちのどの電極11に、すなわち、触覚生成体1の支持部材14上におけるどの位置に、触覚提示生体部位が位置するかを求めるものである。例えば、複数の位置センサ12が圧力センサ(または感熱センサ)である場合では、触覚提示生体部位が電極11に当接するとその圧力(またはその熱)が電極11を介して位置センサ12で検出され、触覚提示生体部位が当接した電極11に対応する位置センサ12が検出信号を出力するので、位置処理部213は、複数の位置センサ12のうちから、前記検出信号を出力した位置センサ12の座標(例えば行番号と列番号との組)を求めることで、触覚提示生体部位の位置を求めることができる。
触覚生成体制御部214は、触覚提示データ記憶部221に記憶された触覚提示データに基づいて触覚生成体1を制御するものである。より具体的には、触覚生成体制御部214は、位置処理部213で求めた触覚提示生体部位の位置に応じて、複数の電極11のうちの、キャリブレーション用ポイントCPの位置で校正された触覚提示データに基づく1また複数の電極11に所定の電圧を印加するように、触覚生成体1を制御する。さらに具体的には、触覚提示データに基づいて触覚生成体1を駆動するための制御信号を生成し、この制御信号により図示しない駆動用ドライバーICなどを通じて各電極に電圧を印加して、触覚生成体1を制御する。
この触覚生成体制御部214は、本実施形態では、触覚の提示の仕方で互いに異なる第1ないし第3触覚提示モードを持ち、これら第1ないし第3触覚提示モードのうちの、入力部23によって選択された触覚提示モードで動作する。例えば、入力部23における前記モード選択スイッチは、押しボタン式のスイッチであり、1回押されるごとに、第1触覚提示モード、第2触覚提示モードおよび第3触覚提示モードに順次に切り換えられて選択され、第3触覚提示モードが選択されている場合に、さらに1回押されると、第1触覚提示モードの選択に戻る。すなわち、前記モード選択スイッチは、第1ないし第3触覚提示モードをサイクリックに順次に切り換えて選択する。
第1触覚提示モードでは、触覚生成体制御部214は、例えば、図4に示すように、前記触覚提示データで表された動かし方における動かす方向と交差する方向に1または複数の他の電極11を挟んで離れた1対の電極11に前記所定の電圧を印加するように、前記触覚提示データに基づいて触覚生成体1を制御する。ここで、図4にはユーザの生体部位(例えば、手指)が触れる領域付近を拡大して示されており、この領域に含まれる電極に対して、左上から右下にかけて順に、11−11、11−12、・・・11−45の符号が付けられている。例えば、図4(A)に示すように、生体部位(図4(A)に示す例では手指FGであり、この手指FGは触覚提示生体部位の一例である)を直線的に動かす動かし方AM1を提示する場合には、触覚生成体制御部214は、前記直線的な動かし方AM1を表す触覚提示データAMI1に基づいて1対の電極11−11、11−15、1対の電極11−21、11−25、1対の電極11−31、11−35および1対の電極11−41、11−45に電圧値V1の電圧を同時に印加する。これによって手指FGは、2本の直線PL−1、PL−2で触覚を感じる。また例えば、図4(B)に示すように、生体部位(図4(B)に示す例では手指FG)における時間的に連続した一連の動きの途中で前記部位を動かす方向が変わるように、前記生体部位を非直線的に動かす動かし方AM2を提示する場合には、触覚生成体制御部214は、前記非直線的な動かし方AM2を表す触覚提示データAMI2に基づいて1対の電極11−11、11−13、1対の電極11−21、11−23、1対の電極11−32、11−34および1対の電極11−43、11−45に電圧値V1の電圧を同時に印加する。このように触覚生成体制御部214は、前記動かし方AM1、AM2に沿って配列される複数対の電極11に所定の電圧を同時に印加する。これによって手指FGは、2本の曲線PL−3、PL−4で触覚を感じる。
第2触覚提示モードでは、触覚生成体制御部214は、例えば、図5に示すように、前記触覚提示データで表された動かし方における動かす方向と交差する方向に沿って配列された複数の電極11に、前記所定の電圧以下において、互いに隣接する電極11間で異なりかつ中央に位置する電極11に最も低い電圧を印加するように、前記触覚提示データに基づいて触覚生成体1を制御する。例えば、図5(A)に示すように、生体部位(図5(A)に示す例では手指FG)を直線的に動かす動かし方AM3を提示する場合には、電圧値V1>電圧値V2>電圧値V3とする場合、触覚生成体制御部214は、前記直線的な動かし方AM3を表す触覚提示データAMI3に基づいて一連の電極11−11〜11−15のうちの電極11−11、11−15に電圧値V1の電圧を、そのうちの、電極11−11、11−15の各内側に位置する電極11−12、11−14に電圧値V2の電圧を、そのうちの、電極11−12、11−14の内側に位置する電極11−13に電圧値V3の電圧を、一連の電極11−21〜11−25のうちの電極11−21、11−25に電圧値V1の電圧を、そのうちの、電極11−21、11−25の各内側に位置する電極11−22、11−24に電圧値V2の電圧を、そのうちの、電極11−22、11−24の内側に位置する電極11−23に電圧値V3の電圧を、一連の電極11−31〜11−35のうちの電極11−31、11−35に電圧値V1の電圧を、そのうちの、電極11−31、11−35の各内側に位置する電極11−32、11−34に電圧値V2の電圧を、そのうちの、電極11−32、11−34の内側に位置する電極11−33に電圧値V3の電圧を、そして、一連の電極11−41〜11−45のうちの電極11−41、11−45に電圧値V1の電圧を、そのうちの、電極11−41、11−45の各内側に位置する電極11−42、11−44に電圧値V2の電圧を、そのうちの、電極11−42、11−44の各内側に位置する電極11−43に電圧値V3の電圧を、同時に印加する。また例えば、図5(B)に示すように、生体部位(図5(B)に示す例では手指FG)における時間的に連続した一連の動きの途中で前記部位を動かす方向が変わるように、前記生体部位を非直線的に動かす動かし方AM4を提示する場合には、触覚生成体制御部214は、前記非直線的な動かし方AM4を表す触覚提示データAMI4に基づいて一連の電極11−11〜11−13のうちの電極11−11、11−13に電圧値V1の電圧を、そのうちの、電極11−11、11−13の内側に位置する電極11−12に電圧値V3の電圧を、一連の電極11−21〜11−23のうちの電極11−21、11−23に電圧値V1の電圧を、そのうちの、電極11−21、11−23の内側に位置する電極11−22に電圧値V3の電圧を、一連の電極11−32〜11−34のうちの電極11−32、11−34に電圧値V1の電圧を、そのうちの、電極11−31、11−34の内側に位置する電極11−33に電圧値V3の電圧を、そして、一連の電極11−43〜11−45のうちの電極11−43、11−45に電圧値V1の電圧を、そのうちの、電極11−43、11−45の内側に位置する電極11−44に電圧値V3の電圧を、同時に印加する。このように触覚生成体制御部214は、前記動かし方AM3、AM4に沿って配列される複数対の電極11に所定の電圧を同時に印加する。
第3触覚提示モードでは、触覚生成体制御部214は、例えば、図6に示すように、前記触覚提示データで表された前記動かし方における動かす方向に沿って配列された複数の電極11に順次に前記所定の電圧を印加するように、前記触覚提示データに基づいて触覚生成体1を制御する。この第3触覚提示モードでは、順次に電圧を印加する各順番(各タイミング)Tn(図6(A)に示す例ではTn=T11、T12、T13、T14で時間的にT11、T12、T13、T14の順番であり、図6(B)に示す例ではTn=T21、T22、T23、T24で時間的にT21、T22、T23、T24の順番である)で、第1触覚提示モードのように、前記触覚提示データで表された動かし方における動かす方向と交差する方向に1または複数の他の電極11を挟んで離れた1対の電極11に前記所定の電圧が印加されて良く、また、順次に電圧を印加する各順番(各タイミング)Tnで、第2触覚提示モードのように、前記触覚提示データで表された動かし方における動かす方向と交差する方向に沿って配列された複数の電極11に、前記所定の電圧以下において、互いに隣接する電極11間で異なりかつ中央に位置する電極11に最も低い電圧が印加されて良い。図6には、第1触覚提示モードのように電圧が電極11に印加される場合が示されている。例えば、図6(A)に示すように、生体部位(図6(A)に示す例では手指FG)を直線的に動かす動かし方AM5を提示する場合には、触覚生成体制御部214は、前記直線的な動かし方AM5を表す触覚提示データAMI5に基づいて、先ず始めに(1番目T1に)、1対の電極11−11、11−15に電圧値V1の電圧を印加し、次の2番目T2に、1対の電極11−21、11−25に電圧値V1の電圧を印加し、次の3番目T3に、1対の電極11−31、11−35に電圧値V1の電圧を印加し、そして、次の4番目T4に、1対の電極11−41、11−45に電圧値V1の電圧を印加する。また例えば、図6(B)に示すように、生体部位(図6(B)に示す例では手指FG)における時間的に連続した一連の動きの途中で前記部位を動かす方向が変わるように、前記生体部位を非直線的に動かす動かし方AM6を提示する場合には、触覚生成体制御部214は、前記非直線的な動かし方AM6を表す触覚提示データAMI6に基づいて、先ず始めに(1番目T1に)、1対の電極11−11、11−13に電圧値V1の電圧を印加し、次の2番目T2に、1対の電極11−21、11−23に電圧値V1の電圧を印加し、次の3番目T3に、1対の電極11−32、11−34に電圧値V1の電圧を印加し、そして、次の4番目T4に、1対の電極11−43、11−45に電圧値V1の電圧を印加する。
次に、第1実施形態における触覚提示装置DAの動作について説明する。図7は、第1実施形態における触覚提示装置のメイン動作を示すフローチャートである。図8は、図7に示すメイン動作におけるキャリブレーション処理の動作を示すフローチャートである。図9は、第1実施形態における触覚提示装置を用いた乳がんのセルフチェックの様子を示す図である。図9(A)は、触覚生成体1の装着前の胸部を示し、図9(B)は、触覚生成体1の装着後の胸部を示し、図9(C)は、触覚生成体1で提示された触覚に応じて触診している様子を示す。図10は、第1実施形態における触覚提示装置を用いた触診の様子を示す図である。図10(A)は、触覚生成体1の装着後の腹部を示し、図10(B)は、触覚生成体1で提示された触覚に応じて触診している様子を示す。
図7において、入力部23の前記電源スイッチがオンされると、その制御処理プログラムの実行によって、制御処理部21Aには、制御部211、キャリブレーション処理部212、位置処理部213および触覚生成体制御部214が機能的に構成され、必要な各部の初期化が実行され、その稼働を始める(S11)。
次に、制御処理部21Aは、キャリブレーション処理部212によって、キャリブレーション処理を実行する(S12)。この処理S12で実行されるキャリブレーション処理について図8を用いて説明する。
図8において、このキャリブレーション処理S12では、まず、キャリブレーション処理部212は、出力部24によって触覚生成体1の装着を指示し(S21)、入力部23で装着終了を受け付けたか否かを判定する(S22)。この判定の結果、装着終了を受け付けた場合(Yes)には、キャリブレーション処理部212は、次の処理S23を実行し、一方、前記判定の結果、装着終了を受け付けていない場合(No)には、キャリブレーション処理部212は、処理を処理S22に戻す。すなわち、キャリブレーション処理部212は、入力部23で装着終了を受け付けるまで、次の処理S23の実行を待機する。
これら処理S21および処理S22では、オペレータ(ユーザ)は、例えばキャリブレーション用ポイントCPをマーキングすべき(描くべき)位置を記載したマニュアル等を参照することで装着生体部位の所定位置に例えば●や×等のキャリブレーション用ポイントCPをマーキングし(描き)、この出力部24による装着の指示に促されて触覚生成体1を装着生体部位に配置し、そして、入力部23で装着終了を入力する。例えば、図9に示すように、乳がんのセルフチャックを行う場合には、オペレータ(ユーザ)は、図9(A)に示す胸部の乳房(装着生体部位の一例)に4個の第1ないし第4キャリブレーション用ポイントCP1〜CP4を乳房にマーキングし、触覚生成体1aを乳房上に載置し、そして、入力部23で装着終了を入力する。また例えば、図10に示すように、腹部の触診を行う場合には、オペレータ(ユーザ)は、図10(A)に示す腹部(装着生体部位の一例)に4個の第1ないし第4キャリブレーション用ポイントCP1〜CP4を腹部にマーキングし、触覚生成体1aを腹部上に載置し、そして、入力部23で装着終了を入力する。
図8に戻って、処理S23では、キャリブレーション処理部212は、出力部24によって各キャリブレーション用ポイントCPnに接触するように指示し、触覚生成体1を介して第1ないし第4キャリブレーション用ポイントCP1〜CP4を順次に接触することで、第1ないし第4キャリブレーション用ポイントCP1〜CP4の各位置に応じた各位置センサ12から出力される各信号から、位置処理部213によって、第1ないし第4キャリブレーション用ポイントCP1〜CP4の各位置を求め(S23)、次に、入力部23でキャリブレーション用ポイントCPnの接触終了を受け付けたか否かを判定する(S24)。この判定の結果、キャリブレーション用ポイントCPnの接触終了を受け付けた場合(Yes)には、キャリブレーション処理部212は、次の処理S25を実行し、一方、前記判定の結果、キャリブレーション用ポイントCPnの接触終了を受け付けていない場合(No)には、キャリブレーション処理部212は、処理を処理S23に戻す。すなわち、キャリブレーション処理部212は、入力部23でキャリブレーション用ポイントCPnの接触終了を受け付けるまで、次の処理S25の実行を待機する。
これら処理S23および処理S24では、オペレータ(ユーザ)は、この出力部24によるキャリブレーション用ポイントCPnの接触の指示に促されて触覚生成体1を介して第1ないし第4キャリブレーション用ポイントCP1〜CP4を順次に接触し、そして、入力部23でキャリブレーション用ポイントCPnの接触終了を入力する。ここで、触覚生成体1を介して第1ないし第4キャリブレーション用ポイントCP1〜CP4を順次に接触することで、第1ないし第4キャリブレーション用ポイントCP1〜CP4の各位置に応じた各位置センサ12から信号が出力され、位置処理部213は、これら各位置センサ12の各信号から第1ないし第4キャリブレーション用ポイントCP1〜CP4の各位置を求める。例えば、図9に示すように、乳がんのセルフチャックを行う場合には、オペレータ(ユーザ)は、図9(B)に示す4個の第1ないし第4キャリブレーション用ポイントCP1〜CP4を、触覚生成体1aを介して触り、そして、入力部23でキャリブレーション用ポイントの接触終了を入力する。また例えば、図10に示すように、腹部の触診を行う場合には、オペレータ(ユーザ)は、図10(B)に示す4個の第1ないし第4キャリブレーション用ポイントCP1〜CP4を、触覚生成体1aを介して触り、そして、入力部23でキャリブレーション用ポイントの接触終了を入力する。
図8に戻って、処理S25では、キャリブレーション処理部212は、4個の第1ないし第4キャリブレーション用ポイントCP1〜CP4の各位置を各頂点とした矩形によって囲まれた領域内を、動かし方を提示するための提示領域(例えば図9(B)や図10(B)に破線で示す領域)ARに設定し、これら各頂点(4個の第1ないし第4キャリブレーション用ポイントCP1〜CP4の各位置)のいずれか、例えば平面視にて左下の頂点(第3キャリブレーション用ポイントCP3の位置)を座標原点としたxy直交座標系を設定し、4個の第1ないし第4キャリブレーション用ポイントCP1〜CP4の各位置に基づいて校正用計算式を作成する。前記校正用計算式は、接触提示データをxy直交座標系に合うように、触覚提示データを校正するものであり、例えば、次の式1によって表される。
(XA,YA)=m(X,Y)・・・(1)
但し、(XA,YA)は、触覚提示データとしての座標であり、mは、触覚生成体1a上に予め定められた基準矩形と4点のキャリブレーションポイントをタッチすることで算出される実矩形との相対比であり、(X,Y)はCP3を原点とする座標上での接触座標である。なお、算出式は、基準矩形に対するズレが平行移動・回転等である場合は、これらを打ち消すようなベクトル演算を行う校正用計算式であってもよい。
そして、キャリブレーション処理部212は、出力部24でキャリブレーションの終了を報知し(S26)、このキャリブレーション処理S12を終了する。
図7に戻って、上述のキャリブレーション処理S12の次に、制御処理部21Aは、入力部23によって選択された触覚提示モードに設定する処理を行い(S13)、次に、位置センサ12および位置処理部213によって触覚提示生体部位の位置を検出する(S14)。
次に、制御処理部21Aは、触覚生成体制御部214によって、触覚提示データ記憶部221に記憶されている触覚提示データの中から、触覚提示生体部位の位置に対応する触覚提示データを読み出す(S15)。
次に、制御処理部21Aは、触覚生成体制御部214によって、この読み出した触覚提示データに基づいて触覚生成体1の電極11に所定の電圧を印加することで触覚生成体1を駆動し、触覚生成体1aを介して装着生体部位(本例では乳房)に接触する別の生体の部位(本例では指等)を触覚提示生体部位として、この触覚提示生体部にその移動をガイドするように触覚を与える(S16)。
例えば、第1触覚提示モードが選択されている場合には、触覚生成体制御部214は、例えば、図4に示すように、前記触覚提示データで表された動かし方における動かす方向と交差する方向(交差方向)に1または複数の他の電極11を挟んで離れた1対の電極11に前記所定の電圧を印加するように、前記触覚提示データに基づいて触覚生成体1を制御する。より具体的には、触覚生成体制御部214は、触覚提示データで表された位置が前記1対の電極11間における交差方向での略中央位置となるように、複数の電極11の中から1対の電極11を選択し、これら選択した1対の電極11に所定の電圧を印加する。この第1触覚提示モードでは、触覚提示装置DAは、離間した一対の電極11に所定の電圧を印加することで、2本線でオペレータ(ユーザ)に触覚を提示することが可能である。このため、触覚提示生体部位に与えられた2本線の触覚によって、オペレータ(ユーザ)は、溝を想起でき、溝をなぞる感覚で触覚提示生体部位の動かし方を認識できる。
また例えば、第2触覚提示モードが選択されている場合には、触覚生成体制御部214は、例えば、図5に示すように、前記触覚提示データで表された動かし方における動かす方向と交差する方向(交差方向)に沿って配列された複数の電極11に、前記所定の電圧以下において、互いに隣接する電極11間で異なりかつ中央に位置する電極11に最も低い電圧を印加するように、前記触覚提示データに基づいて触覚生成体1を制御する。より具体的には、触覚生成体制御部214は、触覚提示データで表された位置が前記最も低い電圧を印加する電極11となるように、複数の電極11の中から交差方向に沿って1群の電極11を選択し、これら選択した1群の電極11に所定の電圧を印加する。この第2触覚提示モードでは、触覚提示装置DAは、動かす方向と交差する方向に沿って配列された複数の電極11に、前記所定の電圧以下において、互いに隣接する電極11間で異なりかつ中央に位置する電極11に最も低い電圧を印加するので、オペレータ(ユーザ)に、より効果的に溝を想起させることができる。
また例えば、第3触覚提示モードが選択されている場合には、触覚生成体制御部214は、例えば、図6に示すように、前記触覚提示データで表された前記動かし方における動かす方向に沿って配列された複数の電極11に順次に前記所定の電圧を印加するように、前記触覚提示データに基づいて触覚生成体1を制御する。この第3触覚提示モードでは、触覚提示装置DAは、動かす方向に沿って配列された複数の電極11に順次に前記所定の電圧を印加するので、触覚提示生体部位の動かし方における動かす方向だけでなくその向き(例えば動かす方向が左右方向である場合に右向きまたは左向き、動かす方向が上下方向である場合に上向きまたは下向き等)もオペレータ(ユーザ)に認識させることができる。
この処理S16で提示された触覚に従って触覚提示生体部位を動かすことで、適正な効果や結果を得るための適切な動作が実行できる。例えば、乳がんのセルフチャックを行う場合には、図9(C)に示すように、オペレータ(ユーザ)がこの処理S15で提示された触覚に従って手指を動かすことで、適切な乳がんのセルフチャックができる。また例えば、腹部の触診を行う場合には、図10(B)に示すように、オペレータ(ユーザ)がこの処理S15で提示された触覚に従って手指を動かすことで、適切な腹部の触診ができる。
図7に戻って、次に、制御処理部21Aは、入力部23で触覚の提示の終了を受け付けたか否かを判定する(S17)。この判定の結果、触覚提示の終了を受け付けていない場合(No)には、制御処理部21Aは、処理を処理S13に戻し、一方、前記判定の結果、触覚提示の終了を受け付けている場合(Yes)には、制御処理部21Aは、処理を終了する。
以上説明したように、第1実施形態における触覚提示装置DA(DAa、DAb)およびこれに実装された触覚提示方法は、生体における所定の部位(生体部位)の動かし方を表した触覚提示データに基づいて触覚生成体1(1a、1b)を制御するので、オペレータ(ユーザ)が実行すべき触覚提示生体部位の動かし方を前記オペレータ(ユーザ)に認識させるために、前記触覚提示生体部位に触覚を提示できる。
また、直線的な動かし方は、実行し易いが、途中で動かす方向が変わる非直線的な動かし方は、方向を変える位置を適切に把握する必要があるため、実行し難い。上記触覚提示装置DAおよび触覚提示方法は、例えば図4(B)、図5(B)および図6(B)に示すように、このような非直線的な動かし方を触覚で提示できるから、このような非直線的な動かし方を前記オペレータ(ユーザ)に認識させる場合に、効果的である。
また、本実施形態における触覚提示装置DAおよび触覚提示方法は、装着部材13を備えるので、実際に生体上で触覚提示生体部位の動かし方をオペレータ(ユーザ)に認識させることができる。
(第2実施形態)
第1実施形態では、触覚生成体1が装着生体部位に配置され、触覚生成体1に当接(接触)した触覚提示生体部位に触覚を与えることで、触覚提示生体部位にその動かし方が提示された。一方、第2実施形態では、触覚生成体1が触覚提示生体部位に配置され(装着生体部位と触覚提示生体部位とが同体、装着生体部位=触覚提示生体部位)、例えばジェスチャーによって所定の事項(例えばコマンド(指示)等)を入力するジェスチャー入力装置等の操作方法(ジェスチャーによる入力方法)が、触覚生成体1が装着された触覚提示生体部位に触覚を与えることで、提示される。
まず、第2実施形態における触覚提示装置DBの構成について説明する。図11は、第2実施形態における触覚提示装置の概略構成を示す図である。このような第2実施形態における触覚提示装置DBは、図2および図11に示すように、触覚生成体1aと、本体部2Bとを備え、さらに、カメラ3(図2では破線で示す)を備える。本体部2Bは、制御処理部21Bと、記憶部22と、入力部23と、出力部24と、IF部25と、これら制御処理部21B、記憶部22、入力部23、出力部24およびIF部25を収容する例えば箱形の筐体(ハウジング)HGを備える。制御処理部21Bは、機能的に、制御部211と、キャリブレーション処理部212と、位置処理部213と、触覚生成体制御部214とを備え、さらに、機能的に、図2に破線で示すジェスチャー検知処理部215と、検知結果利用部216とを備える。
第2実施形態における触覚生成体1aは、手指(例えば中指等)に装着されるため、この手指の装着に適したサイズ(大きさ、面積)を持つ矩形形状である点を除き、第1実施形態における触覚生成体1aと同様であるので、その説明を省略する。なお、位置センサ12は、省略されても良い。
第2実施形態における本体部2Bの記憶部22、入力部23、出力部24およびIF部25は、それぞれ、第1実施形態における本体部2Aの記憶部22、入力部23、出力部24およびIF部25と同様であるので、その説明を省略する。
なお、触覚提示データ記憶部221に予め記憶される触覚提示データは、本実施形態では、例えば動かし方の軌跡に沿った複数の各点における三次元空間上での各座標位置に関する情報、および、その座標に紐づく各電極11への触覚提示出力強度に関する情報を備えて構成される。
第2実施形態における制御処理部21Bの制御部211、キャリブレーション処理部212、位置処理部213および触覚生成体制御部214は、それぞれ、第1実施形態における制御処理部21Aの制御部211、キャリブレーション処理部212、位置処理部213および触覚生成体制御部214と同様であるので、その説明を省略する。なお、位置処理部213は、省略されても良い。
カメラ3は、本体部2Bにおける制御処理部21Bに接続され、制御処理部21Bの制御に従って所定の被写体の画像(画像データ)を取得する装置である。より具体的には、第2実施形態における触覚提示装置DBでは、カメラ3は、所定のジェスチャーを行う生体における所定の部位(以下、「ジェスチャー生体部位」と適宜に呼称する)を前記被写体として撮像し、その画像を取得する。カメラ3は、例えば、被写体の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記被写体の光学像を電気的な信号に変換するイメージセンサ、および、イメージセンサの出力を画像処理することで前記被写体の画像を表すデータである画像データを生成する画像処理部等を備えるデジタルカメラである。
ジェスチャー検知処理部215は、カメラ3で取得した画像に基づいてジェスチャー生体部位の位置および予め設定された所定のジェスチャーを判定するものである。本実施形態では、ジェスチャーを画像から容易に認識するために、図11に示すように、ジェスチャー生体部位には、所定のマーカー4が付けられる。前記所定のマーカー4は、例えば、所定の色(例えば橙色や紫色等の比較的目立つ色等)を持つ円筒状の部材であり、例えば、手指の人差し指(ジェスチャー生体部位の一例)FG1に装着される。より具体的には、ジェスチャー検知処理部215は、カメラ3で取得した画像からマーカー4を検出し、この検出したマーカー4の位置からジェスチャー生体部位の位置を判定し、前記検出したマーカー4の動く向きから予め設定された所定のジェスチャーを判定する。前記所定のジェスチャーは、例えば、人差し指FG1を上下方向(垂直方向)に沿って動かす第1ジェスチャー、人差し指FG1を左右方向(水平方向)に沿って動かす第2ジェスチャー、および、人差し指FG1を前後方向(カメラ3に接離する接離方向)に沿って動かす第3ジェスチャー等である。ジェスチャー検知処理部215は、カメラ3で取得した画像から左右方向に沿って動くマーカー4を検知した場合に、前記第1ジェスチャーと判定する。ジェスチャー検知処理部215は、カメラ3で取得した画像から上下方向に沿って動くマーカー4を検知した場合に、前記第2ジェスチャーと判定する。ジェスチャー検知処理部215は、カメラ3で取得した画像から中心位置が略同じ位置であって大きさ(面積)が変わるマーカー4を検知することで前後方向に沿って動くマーカー4を検知した場合に、前記第3ジェスチャーと判定する。ジェスチャー検知処理部215は、その判定結果(検知結果、ジェスチャー生体部位の位置およびジェスチャー)を検知結果利用部216へ通知する。
検知結果利用部216は、前記ジェスチャー検知処理部215の検知結果に基づいて所定の処理を実行するものである。より具体的には、検知結果利用部216は、ジェスチャー検知処理部215で検出したジェスチャー生体部位の位置に応じた出力部24の表示画面上の位置にポインタPPを表示し、ジェスチャー検知処理部215で判定したジェスチャーに応じた例えばオブジェクトOBの選択、オブジェクトOBの削除、シート(ページ)めくりおよびシートの削除等の所定の情報処理を実行する。
次に、第2実施形態における触覚提示装置DBの動作について説明する。図12は、第2実施形態における触覚提示装置のメイン動作を示すフローチャートである。図13は、図12に示すメイン動作におけるキャリブレーション処理の動作を示すフローチャートである。図14は、第2実施形態における触覚提示装置によって提示されるジェスチャーの例を説明するための図である。図14(A)は、オブジェクトOB2がポストイットである場合を示し、図14(B)は、オブジェクトOB1がシートである場合を示す。
図12において、入力部23の前記電源スイッチがオンされると、その制御処理プログラムの実行によって、制御処理部21Bには、制御部211、キャリブレーション処理部212、位置処理部213、触覚生成体制御部214、ジェスチャー検知処理部215および検知結果利用部216が機能的に構成され、必要な各部の初期化が実行され、その稼働を始める(S31)。
次に、制御処理部21Bは、ジェスチャー検知処理部215によって、カメラ3で取得された画像からマーカー4を検出する(S32)。
次に、制御処理部21Bは、キャリブレーション処理部212によって、キャリブレーション処理を実行する(S33)。この処理S33で実行されるキャリブレーション処理について図13を用いて説明する。
図13において、このキャリブレーション処理S33では、まず、キャリブレーション処理部212は、キャリブレーション用ポイントCPを出力部24の表示画面に表示する(S51)。
次に、キャリブレーション処理部212は、出力部24によって、カメラ3から所定の距離だけ離れた正面位置からマーカー4を用いて後述するポインタを各キャリブレーション用ポイントCPnに接触するように指示する(S52)。
次に、キャリブレーション処理部212は、ジェスチャー検知処理部215によって、カメラ3で取得された画像からマーカー4を検出し、この検出したマーカー4の位置から人差し指FG1の位置を判定し、検知結果利用部216によって、ジェスチャー検知処理部215で検出した人差し指FG1の位置に応じた出力部24の表示画面上の位置にポインタPPを表示する(S53)。なお、マーカー4は、人差し指FG1に装着されているものとする。
次に、キャリブレーション処理部212は、入力部23でキャリブレーション用ポイントCPnの接触終了を受け付けたか否かを判定する(S54)。この判定の結果、キャリブレーション用ポイントCPnの接触終了を受け付けた場合(Yes)には、キャリブレーション処理部212は、次の処理S55を実行し、一方、前記判定の結果、キャリブレーション用ポイントCPの接触終了を受け付けていない場合(No)には、キャリブレーション処理部212は、処理を処理S54に戻す。すなわち、キャリブレーション処理部212は、入力部23でキャリブレーション用ポイントCPnの接触終了を受け付けるまで、次の処理S55の実行を待機する。キャリブレーション処理部212は、カメラ3からの距離が異なる複数の地点で、同様の接触を実行させることでキャリブレーションの精度を高めるようにしてもよい。
これら処理S52ないし処理S54では、オペレータ(ユーザ)は、この出力部24によるキャリブレーション用ポイントCPnの接触の指示に促されてマーカー4を装着した人差し指FG1で第1ないし第4キャリブレーション用ポイントCP1〜CP4(不図示)を順次に接触し、そして、入力部23でキャリブレーション用ポイントCPnの接触終了を入力する。ここで、マーカー4を装着した人差し指FG1で第1ないし第4キャリブレーション用ポイントCP1〜CP4を順次に接触することで、第1ないし第4キャリブレーション用ポイントCP1〜CP4の各位置に応じた画像上での各位置がジェスチャー検知処理部215によって検出される。
処理S57では、キャリブレーション処理部212は、複数の地点における4個の第1ないし第4キャリブレーション用ポイントCP1〜CP4の各位置に基づいて校正用計算式を作成する。前記校正用計算式は、カメラ3によって認識されたマーカー4の三次元座標と、マーカー4の実際の位置に対応する三次元座標とが合致するように校正するものであり、例えば、次の式2によって表される。
(XA’,YA’,ZA’)=Φ(X,Y,Z) ・・・(2)
ここで、Φは、例えば、ZA’=Zとし、下記の式3、式4でXA’、YA’を導く変換式である。
XA’=(a1・X+b1・Y+c1)/(a0・X+b0・Y+c0) ・・・(3)
YA’=(a2・X+b2・Y+c2)/(a0・X+b0・Y+c0) ・・・(4)
但し、(XA’,YA’,ZA’)はキャリブレーション後の三次元座標であり、(X,Y,Z)はキャリブレーション実行前にカメラが認識したマーカー4の位置に対応する三次元座標データである。上記式3、式4は、(X,Y)座標が、Z=a0・X+b0・Y+c0で表され傾いた平面上にある座標であり、(XA’、YA’)座標が、傾いた平面上にある(X,Y)座標を投射面に変換したときの座標であるものとして、座標変換を行うための式である。式3、式4には、9つの未知の係数(a0,b0,c0,a1,b1,c1,a2,b2,c2)があり、式3、式4に、投射画面上の4つの頂点の座標を式2、式3に代入して得られる8つの連立方程式を解くことにより、これらの未知数を決めて、傾いた平面上の各画像が投射面上のどの画像に変換されるかを算出することができる。記憶部はキャリブレーションが行われた後の座標データに対して、動かし方の軌跡に沿った複数の各点における三次元空間上の各座標位置に関する情報、および、その座標に紐づく各電極11への触覚提示出力強度に関する情報を記憶する。なお、式2〜式4は一例であり、これより精度の高い変換式を用いてもよいし、実使用上許される範囲で精度の低い変換式を用いてもよい。
そして、キャリブレーション処理部212は、出力部24でキャリブレーションの終了を報知し(S56)、このキャリブレーション処理S33を終了する。
図12に戻って、上述のキャリブレーション処理S33の次に、制御処理部21Bは、入力部23によって選択されている触覚提示モードに設定する処理を行う(S34)。そして、制御処理部21Bは、ジェスチャー検知処理部215によって、カメラ3で取得した画像からマーカー4を検出し、この検出したマーカー4の位置およびマーカー4の動く向きを検出する(S35)。
次に、制御処理部21Bは、触覚生成体制御部214によって、触覚提示データ記憶部221に記憶されている触覚提示データの中から、マーカー4の位置およびマーカー4の動く向きに対応する触覚提示データを読み出す(S36)。
次に、制御処理部21Bは、触覚生成体制御部214によって、この読み出した触覚提示データに基づいて触覚生成体1aの電極11に所定の電圧を印加することで触覚生成体1を駆動し、触覚生成体1aが装着された生体の部位である指に対して、その指の移動をガイドするように触覚を与える(S37)。
例えば、ポインタPPが付箋のオブジェクトOB2における選択ボタン(不図示)に合わせられている場合には、図14(A)の右側上段に示すように、選択コマンドを入力するためのジェスチャーである第1ジェスチャーの動かし方を触覚で提示すべく、触覚生成体制御部214は、触覚生成体1aが巻かれた中指FG2にその周囲方向に沿って触覚を与えるように、第1ないし第3触覚提示モードのいずれかで触覚生成体1を制御する。また例えば、ポインタPPが付箋のオブジェクトOB2における削除ボタン(不図示)に合わせられている場合には、図14(A)の右側下段に示すように、削除コマンドを入力するためのジェスチャーである第3ジェスチャーの動かし方を触覚で提示すべく、触覚生成体制御部214は、触覚生成体1aが巻かれた中指FG2の腹にその前後方向(中指FG2の延びる方向)に沿って触覚を与えるように、第1ないし第3触覚提示モードのいずれかで触覚生成体1を制御する。
また例えば、ポインタPPがシートのオブジェクトOB1におけるシートめくりボタン(不図示)に合わせられている場合には、図14(B)の右側上段に示すように、シートめくりコマンドを入力するためのジェスチャーである第2ジェスチャーの動かし方を触覚で提示すべく、触覚生成体制御部214は、触覚生成体1aが巻かれた中指FG2の腹にその左右方向に沿って触覚を与えるように、第1ないし第3触覚提示モードのいずれかで触覚生成体1を制御する。また例えば、ポインタPPがシートのオブジェクトOB1における削除ボタン(不図示)に合わせられている場合には、図14(B)の右側下段に示すように、削除コマンドを入力するためのジェスチャーである第3ジェスチャーの動かし方を触覚で提示すべく、触覚生成体制御部214は、触覚生成体1aが巻かれた中指FG2の腹にその前後方向(中指FG2の延びる方向)に沿って触覚を与えるように、第1ないし第3触覚提示モードのいずれかで触覚生成体1を制御する。
図12に戻って、次に、制御処理部21Bは、ジェスチャー検知処理部215によって、カメラ3で取得された画像からマーカー4を検出し、この検出したマーカー4の位置から人差し指FG1の位置を判定し、検知結果利用部216によって、ジェスチャー検知処理部215で検出した人差し指FG1の位置に応じた出力部24の表示画面上の位置にポインタPPを表示する(S38)。
次に、制御処理部21Bは、検知結果利用部216によって、出力部24の表示画面上でのオブジェクトOBとポインタPPとの重なりに基づいて、オブジェクトOBに対する操作の有無を確認し(S39)、オブジェクトOBとポインタPPとが互いに重なっている場合には、制御処理部21Bは、検知結果利用部216によって、ジェスチャー検知処理部215で判定したジェスチャーに応じた所定の情報処理を実行し、オブジェクトを操作する(S40)。
次に、制御処理部21Bは、ジェスチャー検知処理部215によって、カメラ3で取得された画像からマーカー4が不検出か否かを判定する(S41)。この判定の結果、マーカー4が不検出である場合(Yes)には、制御処理部21Bは、処理S42を実行し、一方、前記判定の結果、マーカー4が不検出ではない場合、すなわち、マーカー4が検出された場合(No)には、制御処理部21Bは、処理を処理S32へ戻す。
処理S42では、制御処理部21Bは、入力部23で触覚の提示の終了を受け付けたか否かを判定する。この判定の結果、触覚提示の終了を受け付けていない場合(No)には、制御処理部21Bは、処理を処理S34に戻し、一方、前記判定の結果、触覚提示の終了を受け付けている場合(Yes)には、制御処理部21Bは、処理を終了する。
以上説明したように、本実施形態における触覚提示装置DBおよびこれに実装された触覚提示方法は、生体における所定の部位(生体部位)の動かし方を表した触覚提示データに基づいて触覚生成体1(1a、1b)を制御するので、オペレータ(ユーザ)が実行すべき触覚提示生体部位の動かし方を前記オペレータ(ユーザ)に認識させるために、前記触覚提示生体部位に触覚を提示できる。そして、上記触覚提示装置DBおよび触覚提示方法は、ジェスチャー入力装置で操作入力方法が分からない場合にその操作入力方法を前記オペレータ(ユーザ)に触覚で提示できる。
本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。
DA、DAa、DAb、DB 触覚提示装置
1、1a、1b 触覚生成体
2A、2B 本体部
21A、21B 制御処理部
22 記憶部
23 入力部
24 出力部
25 IF部
211 制御部
212 キャリブレーション処理部
213 位置処理部
214 触覚生成体制御部
215 ジェスチャー検知処理部
216 検知結果利用部
221 触覚提示データ記憶部

Claims (13)

  1. 制御信号に応じて駆動され生体に触覚を与える触覚生成体と、
    前記生体における所定の部位の動かし方を表す触覚提示データを記憶する記憶部と、
    前記記憶部に記憶された前記触覚提示データに基づいて前記制御信号を生成し、前記触覚生成体を制御する触覚生成体制御部と、を備えること
    を特徴とする触覚提示装置。
  2. 前記記憶部は、前記所定の部位の動かし方を表すデータとして、前記所定の部位における時間的に連続した一連の動きの途中で前記所定の部位を動かす方向が変わるデータを記憶すること
    を特徴とする請求項1に記載の触覚提示装置。
  3. 前記触覚生成体は、2次元状に配列された複数の電極を備えており、前記制御信号に基づいて所定の電圧が印加された前記電極によって前記生体に触覚を与えること
    を特徴とする請求項1または請求項2に記載の触覚提示装置。
  4. 前記触覚生成体制御部は、前記触覚提示データに基づいて、前記触覚提示データで表された前記動かし方における動かす方向と交差する方向に1または複数の他の電極を挟んで離れた1対の電極に前記所定の電圧を印加するように前記制御信号を生成し、前記触覚生成体を制御すること
    を特徴とする請求項3に記載の触覚提示装置。
  5. 前記触覚生成体制御部は、前記触覚提示データで表された前記動かし方における動かす方向と交差する方向に沿って配列された複数の電極に、前記所定の電圧以下において、互いに隣接する電極間で異なりかつ中央に位置する電極に最も低い電圧を印加するように前記制御信号を生成し、前記触覚提示データに基づいて前記触覚生成体を制御すること
    を特徴とする請求項3に記載の触覚提示装置。
  6. 前記触覚生成体制御部は、前記触覚提示データで表された前記動かし方における動かす方向に沿って配列された複数の電極に順次に前記所定の電圧が印加されるように前記制御信号を生成し、前記触覚提示データに基づいて前記触覚生成体を制御すること
    を特徴とする請求項3ないし請求項5のいずれか1項に記載の触覚提示装置。
  7. 前記触覚生成体を前記生体に装着するための装着部材をさらに備えること
    を特徴とする請求項1ないし請求項6のいずれか1項に記載の触覚提示装置。
  8. 前記触覚生成体は、前記触覚生成体制御部からの制御信号に基づき、前記触覚生成体が装着された生体の部位に対して、その部位の移動をガイドするように触覚を与えること
    を特徴とする請求項7に記載の触覚提示装置。
  9. 前記触覚生成体は、前記触覚生成体制御部からの制御信号に基づき、前記触覚生成体を介して前記触覚生成体が装着された生体に接触する他の生体の部位に対して、その部位の移動をガイドするように触覚を与えること
    を特徴とする請求項7に記載の触覚提示装置。
  10. 前記生体における所定の部位におけるジェスチャーを検知するジェスチャー検知処理部と、
    前記ジェスチャー検知処理部で検知したジェスチャーに基づいて所定の処理を実行する検知結果利用部と、をさらに備えること
    を特徴とする請求項1ないし請求項9のいずれか1項に記載の触覚提示装置。
  11. 生体における所定の部位の動かし方を表す触覚提示データを記憶部に記憶し、
    前記生体に触覚を与える触覚生成体を、前記記憶部に記憶された前記触覚提示データに基づいて制御すること
    を特徴とする触覚提示方法。
  12. 前記記憶部に記憶された触覚提示データに基づいて前記触覚生成体を制御し、前記触覚生成体が装着された生体の部位に対して、その部位の移動をガイドするように触覚を与えること
    を特徴とする請求項11に記載の触覚提示方法。
  13. 前記記憶部に記憶された触覚提示データに基づいて前記触覚生成体を制御し、前記触覚生成体を介して前記触覚生成体が装着された生体に接触する他の生体の部位に対して、その部位の移動をガイドするように触覚を与えること
    を特徴とする請求項11に記載の触覚提示方法。
JP2015139608A 2015-07-13 2015-07-13 触覚提示装置および触覚提示方法 Pending JP2017021633A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015139608A JP2017021633A (ja) 2015-07-13 2015-07-13 触覚提示装置および触覚提示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015139608A JP2017021633A (ja) 2015-07-13 2015-07-13 触覚提示装置および触覚提示方法

Publications (1)

Publication Number Publication Date
JP2017021633A true JP2017021633A (ja) 2017-01-26

Family

ID=57890126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015139608A Pending JP2017021633A (ja) 2015-07-13 2015-07-13 触覚提示装置および触覚提示方法

Country Status (1)

Country Link
JP (1) JP2017021633A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018211767A1 (ja) * 2017-05-16 2019-06-27 株式会社ファセテラピー 触質情報処理装置および触質情報処理方法
JP2022055565A (ja) * 2020-09-29 2022-04-08 株式会社タツノ 給油所システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018211767A1 (ja) * 2017-05-16 2019-06-27 株式会社ファセテラピー 触質情報処理装置および触質情報処理方法
JP2022055565A (ja) * 2020-09-29 2022-04-08 株式会社タツノ 給油所システム

Similar Documents

Publication Publication Date Title
KR102536546B1 (ko) 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스
US9355574B2 (en) 3D virtual training system and method
EP3287871B1 (en) Wearable device and method for providing feedback of wearable device
US10653882B2 (en) Electrical stimulus device
JP6341294B2 (ja) 触感提供システム、及び、触感提供装置
Sadihov et al. Prototype of a VR upper-limb rehabilitation system enhanced with motion-based tactile feedback
Hummel et al. A lightweight electrotactile feedback device for grasp improvement in immersive virtual environments
JPWO2015121971A1 (ja) 触感提供装置、及び、システム
KR20170036308A (ko) 소프트웨어 교육용 로봇 및 소프트웨어 교육 로봇 시스템
JP5549979B2 (ja) 空間透明型触覚提示装置および道具操作支援システム
JP6027908B2 (ja) 表示装置及びタッチパネル
US20190357771A1 (en) Systems and methods for delivering, eliciting, and modifying tactile sensations using electromagnetic radiation
Groeger et al. Tactlets: Adding tactile feedback to 3D objects using custom printed controls
KR20170076534A (ko) 가상 현실 인터페이스 장치 및 제어 방법
KR20160002493U (ko) 착용형 헬스케어 장치
JP2017021633A (ja) 触覚提示装置および触覚提示方法
Jin et al. VT-ware: A wearable tactile device for upper extremity motion guidance
RU2670649C1 (ru) Способ изготовления перчатки виртуальной реальности (варианты)
JP2014081716A (ja) フォースフィードバック装置およびユーザインターフェースシステム
JP2014106743A (ja) 電気触覚提示装置、電気触覚提示装置の制御方法及びプログラム、並びに電気触覚ディスプレイを有する携帯機器
Jingu et al. Double-Sided Tactile Interactions for Grasping in Virtual Reality
JP6218221B2 (ja) 毛状で柔軟なユーザインタフェース
TWI601076B (zh) 生物體刺激裝置與生物體刺激方法
JP7481783B1 (ja) 位置検出装置及び情報処理システム
JP4962466B2 (ja) 入力装置および入力方法