JP4109806B2 - Direction presenting apparatus and method using tactile sense - Google Patents

Direction presenting apparatus and method using tactile sense Download PDF

Info

Publication number
JP4109806B2
JP4109806B2 JP24553799A JP24553799A JP4109806B2 JP 4109806 B2 JP4109806 B2 JP 4109806B2 JP 24553799 A JP24553799 A JP 24553799A JP 24553799 A JP24553799 A JP 24553799A JP 4109806 B2 JP4109806 B2 JP 4109806B2
Authority
JP
Japan
Prior art keywords
stimulus
user
presentation
tactile
presenting means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24553799A
Other languages
Japanese (ja)
Other versions
JP2001075705A (en
Inventor
哲朗 知野
恵美 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP24553799A priority Critical patent/JP4109806B2/en
Publication of JP2001075705A publication Critical patent/JP2001075705A/en
Application granted granted Critical
Publication of JP4109806B2 publication Critical patent/JP4109806B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Rehabilitation Tools (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、触覚を用いたヒューマンインタフェース装置及びヒューマンインタフェース方式に関する。
【0002】
【従来の技術】
近年、計算機技術、ネットワーク技術、及び通信技術などの発展によって、さまざまな場所で、これらの技術を利用した位置情報サービスが利用可能となり、例えば衛星通信による位置検出技術を用いたカーナビゲーションシステムや、船舶や航空機などのナビゲーションシステムや、ユーザが携帯可能な小型ナビゲーションシステムなども普及しつつある。
【0003】
こういったシステムでは、利用者に対して、正しい進行方向や道順を示したり、あるいは危険物の接近方向を提示したり、緊急時に注意を向けるべき方向を示したり、あるいは目標物の方向を示したりするなど、実空間内の方向や位置を的確に表示する技術が必要である。
【0004】
その上、上述のような方向の提示技術が必要とされるのが、乗物等移動する環境である場合が多いため、方向や位置を迅速に正確に伝えることが可能な技術が望まれている。
【0005】
さらに、他の人間が存在する野外や建物内など公共の場で利用される場合も多く、静かに方向や位置を提示することが可能な技術が望まれている。
【0006】
従来、利用者に対して方向を提示するためには、例えば、CRT(キャラクタディスプレイ)やLCD(液晶ディスプレイ)などといった、視覚情報出力装置の画面上に、例えば、矢印などの方向や位置を表す記号を提示したり、あるいは方向や位置を表す言葉を提示したりする方法がとられている。
【0007】
また、従来、利用者に対して方向を提示するためには、例えば「右です」といったような方向や位置を表現する音声出力を用いる方法がとられている。
【0008】
さらに、近年の計算機の処理技術の向上と小型化などを受けて、計算機を体に装着して利用するウエアラブルコンピューティングという形態の機器も出現し始めている。
【0009】
そのような、ウエアラブルコンピュータにおいては、例えば利用者が頭部に装着するなどして、利用者の目の前に画像情報を提示するHMD(ヘッドマウントディスプレイ)を用いて画像情報を提示する方法などもとられており、そのような頭部装着型の画像ディスプレイ上に、例えば矢印など方向や位置を表す記号を表示したり、あるいは方向や位置を表す文字情報を提示したり、立体画像情報を用いて方向や位置を示す方法などがとられ得る。
【0010】
あるいは、3次元音場技術を利用して、位置や方向を空間に音像定位させることによって、方向や位置を示す方法も研究されている。
【0011】
【発明が解決しようとする課題】
ところが、上述の従来方式には以下に示す様な問題点があった。
【0012】
第1に、画面上に方向や位置を表す記号や言葉を表示することによって、利用者に方向や位置を提示する従来の方法では、表示部を用意する必要があるという問題点があった。
【0013】
第2に、画面上に方向や位置を表す記号や言葉を表示することによって、利用者に方向や位置を提示する従来の方法では、表示部を用意する必要があるため、装置のサイズが大きくなったりするという問題点があった。
【0014】
第3に、画面上に方向や位置を表す記号や言葉を表示することによって、利用者に方向や位置を提示する従来の方法では、表示部を利用者から見ることの出来る位置に配置する必要があるため、装置の構成部品の物理的配置に制限がかかり、装置の構成部品間の配線に制限がかかるという問題点があった。
【0015】
第4に、画面上に方向や位置を表す記号や言葉を表示することによって、利用者に方向や位置を提示する従来の方法では、表示部を利用者から見ることの出来る位置に配置する必要があるため、装置の構成部品の物理的配置に制限がかかり、装置の構成部品を自由に配置したりすることが出来ないという問題点があった。
【0016】
第5に、画面上に方向や位置を表す記号や言葉を表示することによって、利用者に方向や位置を提示する従来の方法では、視覚的な情報を用いて方向や位置を示しているので、利用者が表示部である画面を見る必要があり、利用者の視線を拘束してしまうという問題点があった。
【0017】
第6に、表示部である画面のサイズが限定されるため、表現可能な方向が制限されて、狭い範囲の方向しか提示できないという問題点があった。
【0018】
第7に、画面上の記号などの位置と、実世界中で提示したい方向との対応関係が恣意的なものになるため、実際に提示したい方向を、利用者が理解することが難しいという問題点があった。
【0019】
第8に、実際に提示したい実世界の方向との位置関係に任意性があり、一般的にはその方向は一致していないため、方向を精度良く提示することが出来ないという問題点があった。
【0020】
第9に、実際に提示したい実世界の方向との位置関係に任意性があり、一般的にはその方向は一致していないため、利用者が提示された方向を精度良く読みとって理解することが難しいという問題点があった。
【0021】
第10に、表示部を用意する必要があるため、ウエアラブルコンピュータには適さないという問題点があった。
【0022】
第11に、表示を目で見る必要があるため、全盲者や弱視者などといった視覚障害者には使えないという問題点があった。
【0023】
第12に、表示部に示される情報が2次元的な表示であるため、3次元的な方向を提示することが難しいという問題点があった。
【0024】
第13に、表示部に示される情報が2次元的な表示であるため、利用者が3次元的な方向を読みとることが難しいという問題点があった。
【0025】
第14に、ウエアラブルコンピュータにおいて、例えば利用者が頭部に装着するなどして、利用者の目の前に画像情報を提示するHMD(ヘッドマウントディスプレイ)を用いて画像情報を提示する従来の方法では、HMD上に表示する記号などの位置が、利用者の目から見て提示を意図する方向に合わせることが難しく、方向提示の精度が悪いという問題点があった。
【0026】
第15に、HMDが利用者の視界を妨げ、例えば周囲の状況がわかり難くなるなどといった問題点があった。
【0027】
第16に、HMDで一度に利用者が頭部を動かさずに提示可能な方向は、最大でも利用者の視界の範囲に限定されるため、提示可能は方向の範囲が狭いという問題点があった。
【0028】
第17に、例えば方向を表す言葉を使って音声言語によって方向を示す従来の方法では、複雑な方向や微妙な方向を、言葉で表現することが難しいために、細かい方向を示すことが出来ないという問題点があった。
【0029】
第18に、音声言語は発話にある程度の時間がかかり、かつ発話内容のほとんどが発話され終えてからでないと内容が理解出来ないため、方向の提示に時間がかかるという問題点があった。
【0030】
第19に、音声言語は、早い速度で変化する方向などを表現することがほとんど不可能であるという問題点があった。
【0031】
第20に、複数の音声言語を同時に理解することは非常に困難であるため、複数の方向を同時に提示することが不可能であるという問題点があった。
【0032】
第21に、音声を含む音信号は利用者の周辺の空間にも伝搬するものであるために、音声を使った提示方法は、利用者以外にとってうるさく、社会的エチケットにも反するという問題点があった。
【0033】
第22に、利用環境に騒音がある場合、音声による方法提示は利用者に聞こえ難かったり、あるいは全く聞こえないなどとということが起こるという問題点があった。
【0034】
第23に、音声を使う方法では、聴覚障害者が利用できないという問題点があった。
【0035】
第24に、音像定位によって方向を示す従来の方法では、人間の聴覚特性のために、精度良く識別可能な方向が、例えば水平な平面内の前方方向などに限定されるため、提示可能な方向が狭いという問題点があった。
【0036】
第25に、音像定位によって方向を示す従来の方法では、利用者毎にことなる頭部伝達関数とよばれる音響的なパラメータなどが影響を与えることなどにより、提示した方向を、利用者が認識することは非常に難しいという問題点があった。
【0037】
第26に、同様の理由により、精度良く方向を提示することが難しいという問題点があった。
【0038】
第27に、複数の音信号を同時に聞きとったり、それぞれの音像定位を認識することは非常に難しいため、複数の方向を同時に提示することが難しいという問題点があった。
【0039】
第28に、音信号の内容や音像定位を理解するのにはある程度以上の時間が必要であるため、早い速度で変化する方向を提示することや、読みとることが困難であるという問題点があった。
【0040】
第29に、音像定位を使う方法も、聴覚障害者が利用できないという問題点があった。
【0041】
(発明の目的)
本発明はこのような事情を考慮してなされたもので、次のことを目的としている。
【0042】
第1に、提示される位置及び方向を、利用者が容易に理解できることを目的とする。
【0043】
第2に、利用者に提示される情報から、実空間中の方向や位置との対応づけ理解が容易なことを目的とする。
【0044】
第3に、提示される位置及び方向を、利用者が迅速に読みとることが出来ることを目的とする。
【0045】
第4に、時間的に早い速度で変化する位置や方向を、利用者が容易に読みとることが出来ることを目的とする。
【0046】
第5に、上下方向や前方後方などを含む3次元的な方向や位置を高精度に提示可能で、かつ提示された情報を利用者が容易に読みとることが出来ることを目的とする。
【0047】
第6に、複数の位置や方向を同時に利用者に提示でき、かつ利用者がそれを容易に読みとることが出来ることを目的とする。
【0048】
第7に、表現可能でかつ利用者が識別可能な方向及び位置の範囲が広いことを目的とする。
【0049】
第8に、周囲に対して騒音となる音を発生しないことを目的とする。
【0050】
第9に、周囲環境に騒音などがある状況でも、支障なく利用できることを目的とする。
【0051】
第10に、利用者の目を拘束せず、アイフリーに利用可能なことを目的とする。
【0052】
第11に、利用者の耳を拘束せず、イヤフリーに利用可能なことを目的とする。
【0053】
第12に、利用者の手を拘束せず、ハンズフリーに利用可能なことを目的とする。
【0054】
第13に、利用者が視覚的な情報を確認するための視覚情報の表示装置が不要なことを目的とする。
【0055】
第14に、利用者が聴覚的な情報を確認するための聴覚情報の表示装置が不要なことを目的とする。
【0056】
第15に、利用者が身体に装着して利用する、ウエアラブルコンピュータシステムに適したことを目的とする。
【0057】
【課題を解決するための手段】
本発明は、利用者に所定の方向を提示する方向提示装置において、前記利用者の体表面の少なくとも一箇所に触覚刺激を与える刺激提示手段と、前記利用者に提示すべき方向である提示方向を指示する方向指示手段と、前記刺激提示手段と接触している体表面の中で、前記方向指示手段が指示した提示方向と空間的位置が対応している刺激対応箇所へ、前記刺激提示手段によって触覚刺激を与え、これにより前記提示方向を前記利用者に知らせる制御手段と、前記刺激提示手段の位置、または、姿勢よりなる前記刺激提示手段の空間内での配置情報を検出する位置検出手段と、を有し、前記刺激提示手段は、前記利用者の体表面を覆う円管状または中空の半球状の部材の内側に角度が異なるように全周にわたって複数配置され、前記制御手段は、前記位置検出手段が検出した配置情報に基づいて、前記刺激対応箇所を決定し、前記方向指示手段が指示した提示方向と、前記決定した刺激対応箇所の法線方向がほぼ一致するように、前記複数の刺激提示手段の中から一つの刺激提示手段によって前記刺激対応箇所へ触覚刺激を与える、ことを特徴とする触覚を利用した方向提示装置である。
【0059】
なお、ここで「ほぼ一致」とは、提示できる方向と法線方向が最も近い位置とか、予め定められた範囲内で最も近い位置も含まれる。
【0066】
発明について説明する。
【0067】
例えば、利用者の正面から見て右方向を利用者に提示したい時に、利用者が身体に装着した刺激提示手段によって、刺激提示手段と利用者の接触面の内で、利用者の身体の右側面に対応する身体表面あるいは右側面に近い身体表面に対して、触覚刺激を与えることによって、所望の方向を利用者に提示する。
【0068】
また、本発明について説明する。
【0069】
例えば、利用者の正面から見て左30度の水平面内の方向を利用者に提示したい場合に、利用者がブレスレットのように身体の一部を覆うように刺激提示手段を装着しているとする。
【0070】
この状態で、刺激提示手段と利用者の接触面の内で、対応する身体表面の法線方向が利用者の正面から見て左30度の水平面内の方向にほぼ一致あるいは近い身体表面に対して、法線方向と同じ方向に触覚刺激を示すことによって、所望の方向を利用者に提示する。
【0072】
例えば、利用者の正面から見て左方向を利用者に提示したい時に、円筒状の杖状に構成した刺激提示手段を、利用者が手で握って(包み込んで)把持しているとする。
【0073】
この状態で、利用者に身体の正面方向からみて、左90度の方向を提示する際に、利用者が把持している部分の刺激提示手段の表面の内で、利用者の正面からみて左90度の方向に、その法線方向にほぼ一致あるいは近い部分に対応する(対峙する)利用者の身体表面に対して、その法線方向とは反対方向に触覚刺激を示すことによって、所望の方向を利用者に提示する。
【0074】
さらに、本発明について説明する。
【0075】
例えば、磁気センサや加速度センサなどによって、刺激提示手段の空間中の位置、あるいは姿勢などを検知し、その情報を利用して利用者に触覚刺激の提示する位置を決定する。
【0076】
これにより、利用者が移動したり、利用者が姿勢を変えたり、利用者が身体の一部を動かしたり、利用者が刺激提示手段を動かしたり、あるいは利用者が刺激提示手段の装着状態を変えたりした場合にも、利用者に対して正しく所望の方向を提示する。
【0077】
請求項2の発明について説明する。
【0078】
例えば、2人の利用者がそれぞれ一台づつ本装置を所持し、待ち合わせをしようとする時、それぞれの利用者が所持しているそれぞれの本装置の提示する方向によって、それぞれ相手をいる方向を知ることで、効率的に落ち合うことが可能となる。
【0079】
【発明の実施の形態】
以下、図面を参照して本発明の一実施例に係る触覚を利用した方向提示装置につき説明する。
【0080】
図1は、本発明の一実施例の本装置の構成例を表しており、本装置が、少なくとも一つ以上の触覚提示部101a〜n、方向入力部102、位置検出部103、制御部104から構成される。
【0081】
1.触覚提示部
図1において、触覚提示部101a〜nは、制御部104の指示に従って、利用者の身体の体表面に対して、触覚刺激を提示する触覚提示デバイスである。ここで、この触覚刺激を与える身体の体表面の位置を「刺激対応箇所」という。
【0082】
a.実現例
触覚提示部101a〜nには、例えば、藤原著、「人工現実感の展開」(コロナ社、1994年刊)の3.1節(触覚ディスプレイなどにも示されている触覚デバイスなどを用いて実現する。
【0083】
その実現例を説明する。
【0084】
(1)実現例1
利用者が把持するハンドルやスティック部などに、モータなどによって駆動されるアームやワイアなどによって機械的な力を加えることによって、利用者に触覚刺激を与える様にしている。
【0085】
(2)実現例2
利用者の指先など皮膚表面に接触する位置に小さなゴム製などの風船を配置する。
【0086】
そして、機械的なポンプを用いたり、あるいは、ヒータやペルチエ素子などの発熱/吸熱素子などによって風船内部の空気圧を変化させる。また、水素吸蔵合金(MH)に熱を加えたり冷やしたりすることによって水素を放出させたり吸蔵させたすることによって、風船の中の空気圧を変化させる。これにより、風船表面の硬さや形状を変化させ、利用者に触覚刺激を与える。
【0087】
(3)実現例3
形状記憶合金を用いたアクチュエータを用いて利用者に触覚刺激を与える。
【0088】
(4)実現例4
利用者の指先など皮膚表面に接触する位置に、ヒータやペルチエ素子などの発熱/吸熱素子などを配置し、熱を加えたり冷やしたりすることによって、利用者に触覚刺激を与える。
【0089】
(5)実現例5
利用者の指先など皮膚表面に向けて、空気などの流体を当てることによって、利用者に触覚刺激を与える。
【0090】
(6)実現例6
電気的な刺激を利用者の皮膚表面に対して与えることによって、利用者に触覚刺激を与える。
【0091】
b.配置例
図2(a)〜(d)は、触覚提示部101a〜nの配置の例を示している。
【0092】
(1)配置例1
図2(a)は、円周内側配置を表している。
【0093】
すなわち、薄い円管状の形状をした本装置の内側に、少なくとも一つ以上の触覚提示部を内向きに配置するものである。
【0094】
この形状を用いて構成した本装置は、次のように利用できる。
【0095】
第1の例は、ハチマキの様に頭部に装着する。
【0096】
第2の例は、首輪の様に勁部装着する。
【0097】
第3の例は、ベルトの様に服部に装着する。
【0098】
第4の例は、指輪のように手指に装着する。
【0099】
第5の例は、腕時計のように手首に装着する。
【0100】
第6の例は、腕章のように上椀部に装着する。
【0101】
第7の例は、アンクレットの様に足首に装着する。
【0102】
図6は、腕輪状の本装置を腕に付けた状態の断面図を示しており、白矢印が法線方向を示し、実線の矢印が提示方向を示し、ジグザグ状の矢印が触覚刺激方向を示している。
【0103】
そして、図6に示すように、この配置例の場合には、後から説明する提示方向と、刺激対応箇所の体表面の法線方向が一致するように、触覚提示部によって刺激対応箇所へ触覚刺激を与える。このように法線方向と一致させることによって、利用者が確実に触覚を刺激を認識できる。
【0104】
(2)配置例2
図2(b)は、球面内側配置を表している。
【0105】
すなわち、中空の半球裏面の形状をした本装置の内側に、少なくとも一つ以上の触覚提示部を内向きに配置する。
【0106】
この形状を用いて構成した本装置は、例えばヘルメットや帽子のように頭部に装着したり、あるいは指サックの様に手指に装着したりして利用することが可能である。
【0107】
そして、図6に示すように、この配置例の場合には、後から説明する提示方向と、刺激対応箇所の体表面の法線方向が一致するように、触覚提示部によって刺激対応箇所へ触覚刺激を与える。このように法線方向と一致させることによって、利用者が確実に触覚を刺激を認識できる。
【0108】
(3)配置例3
図2(c)は、円筒外側配置を表している。
【0109】
すなわち、円筒形状をした本装置の側面の外側に、少なくとも一つ以上の触覚提示部を外向きに配置するものである。
【0110】
この形状を用いて構成した本装置は、杖、自動車や自転車のハンドル、舟のオールや舵、または、ジョイスティックなどに組み込んで利用することが可能である。
【0111】
図7は、杖状の本装置を、手で掴んだ状態の断面図を示しており、白矢印が法線方向を示し、実線の矢印が提示方向を示し、ジグザグ状の矢印が触覚刺激方向を示している。
【0112】
そして、図7に示すように、この配置例の場合には、後から説明する提示方向と、刺激対応箇所の体表面の法線方向とは反対の方向が一致するように、触覚提示部によって刺激対応箇所へ触覚刺激を与える。このように法線方向とは反対の方向とを一致させることによって、利用者が確実に触覚を刺激を認識できる。
【0113】
(4)配置例4
図2(d)は、球面外側配置を表している。
【0114】
すなわち、球面などボール形状をした本装置の外側に、少なくとも一つ以上の触覚提示部を外向きに配置するものである。
【0115】
この形状を用いて構成した本装置は、杖、ハンドル、舟のオールや舵、ジョイスティック、コントロールバーなどに組み込んで利用することが可能である。
【0116】
そして、図7に示すように、この配置例の場合には、後から説明する提示方向と、刺激対応箇所の体表面の法線方向とは反対の方向が一致するように、触覚提示部によって刺激対応箇所へ触覚刺激を与える。このように法線方向とは反対の方向とを一致させることによって、利用者が確実に触覚を刺激を認識できる。
【0117】
(5)その他の配置例
なお,上記では簡単のため、球や円など幾何学的な単純な形状を例として示したが、図2は触覚提示部101a〜nの配置の例を示しているものであって、触覚提示部101a〜nの配置はここに例を示したものに限定されるものではなく、もっと複雑な形状であっても良い。
【0118】
2.方向入力部
図1において、方向入力部102は、本装置に対して利用者に提示すべき方向に関する情報である「提示方向情報」、あるいは、利用者に提示すべき位置に関する情報である「提示位置情報」を含む制御命令を受付け、その内容を制御部104に知らせる。
【0119】
以後、提示方向情報及び提示位置情報を、利用者の重心位置を原点とし、利用者の正面方向をX軸正方向、利用者の右方向をY軸正方向、利用者の上方をZ軸正方向とする座標系におけるベクトルとして表現することとする。
【0120】
3.位置検出部
図1において、位置検出部103は、制御部104の指示に従って、例えば、磁気センサーや、方位センサや、ジャイロや、光センサや、電波受信機や、GPSや、あるいは機械的なエンコーダなどによって、本装置の空間的位置及び姿勢を検出し、本装置の位置を表す情報である「装置位置情報」と、装置の正面方向を表す「装置姿勢情報」とを、上述の提示方向情報及び提示位置情報と同一の座標系によるベクトルとして表現して出力する。
【0121】
4.制御部
図1において、制御部104は、提示方向情報、提示位置情報、装置位置情報、及び、装置姿勢情報の少なくとも一つに基づいて、以下に示す処理手順Aに従って動作する。
【0122】
これによって、触覚提示部101a〜nの動作を制御して利用者に適宜触覚刺激を提示し、所望の方向及び位置に関する情報を利用者に提示する。
【0123】
なお、図3は処理手順Aの流れを示すフローチャートである。
【0124】
<処理手順A>
・ステップA1
方向入力部102から、利用者に提示すべき方向ベクトルVdを含む提示方向情報Dを含む制御命令が入力されたら、ステップA4へ進む。
【0125】
・ステップA2
方向入力部102から、利用者に提示すべき位置を示すベクトルVlを含む提示位置情報Lを含む制御命令が入力されたら、ステップA8へ進む。
【0126】
・ステップA3
ステップA1へ進む。
【0127】
・ステップA4
位置検出部103に、本装置の姿勢検知を指示する。
【0128】
・ステップA5
位置検出部103から、本装置の姿勢を示すベクトルVpを含む装置姿勢情報Pが、制御部104に送られる。
【0129】
・ステップA6
制御部104で、提示方向情報D、及び装置姿勢情報Pを参照し、
ベクトルVx=ベクトルVd−ベクトルVp
を計算する。
【0130】
・ステップA7
ステップA11へ進む。
【0131】
・ステップA8
位置検出部103に、本装置の姿勢検知と位置検知を指示する。
【0132】
・ステップA9
位置検出部103から、本装置の姿勢を示すベクトルVpを含む装置姿勢情報Pと、本装置の位置を示すベクトルVqを含む装置位置情報Qが、制御部104に送られる。
【0133】
・ステップA10
制御部104で、提示位置情報L、装置姿勢情報P、及び装置位置情報Qを参照し、
ベクトルVx=ベクトルVl−ベクトルVp−ベクトルVq
を計算する。
【0134】
・ステップA11
触覚提示部101a〜nの中から、本装置の正面に対してベクトルVx方向の触覚刺激を利用者に与える触覚提示部101x(a<=x<=n)を探す。
【0135】
・ステップA12
触覚提示部101xによって利用者に触覚刺激を与える。
【0136】
・ステップA13
ステップA1に進む。
【0137】
以上が本装置の構成とその機能である。
【0138】
5.処理の内容
次に、上述した処理について、図を参照して更に詳しく説明する。
【0139】
ここでは、ブレスレット状の形状をした本装置を、利用者が右手首に装着して利用するものとする。
【0140】
また、本装置の内側には、接触する利用者の身体に、振動による触覚刺激を触覚提示デバイスを並出あるものとする。
【0141】
さらに、本装置は、外部のアプリケーションから制御され、利用者の体の重心位置などからのベクトル表現した位置や方向を、ユーザに対して提示させるために利用されるものとする。
【0142】
図4は、本装置の動作状況を説明するための概要図である。
【0143】
a.定義の内容
次の内容が図4において定義されている。
【0144】
(1)Ux、Uy、及びUzはユーザの重心を原点とし、ユーザの正面をX軸正方向、右方向をY軸正方向、上方向をZ軸正方向とした際の、X軸、及びY軸、及びZ軸を表している。今後、この座標系を、ユーザ座標系と呼ぶこととし、位置及び方向の今後の基準として利用することとする。
【0145】
(2)Mは本装置であり、Uは本装置を利用するユーザであり、Ha及びHbは、利用者に提示すべき方向を示しており、Ocは利用者に位置を提示すべき対象物である。
【0146】
(3)ベクトルPは本装置の位置をユーザ座標系で示したものでああり、ベクトルQは本装置の方向基準である正面位置の向いている方向をユーザ座標系で示したものである。
【0147】
(4)ベクトルDa、及びDbは、それぞれ提示方向Ha及びHbをユーザ座標系で示したものである。
【0148】
(5)ベクトルLc、対象物Ocの位置をユーザ座標系で示したものである。
【0149】
(6)右上の図は本装置と本装置を装着している利用者の腕の拡大図である。ここで、101xa,101xb,及び101xcは、それぞれ、提示方向Ha、及び提示方向Hb、及び対象物Ocを利用者に提示する際に、それぞれ動作する触覚提示デバイスを表している。
【0150】
b.時系列で示す処理の内容
(t0) まず、本装置外部のアプリケーションなどにより、方向Haをユーザに提示することが決定されたとする。
【0151】
(t1) その結果、方向Haを表すベクトルDaを含む提示方向情報を含む、制御指令が、提示方向入力部102から本装置に対して入力される。
【0152】
(t2) 処理手順AのステップA1によって、ステップA4へ進み、制御部104の指示により、本装置の位置検出処理がなされ、ステップA5で、この時点での本装置の姿勢ベクトルPt2を含む装置姿勢情報が制御部104にもたらされる。
【0153】
(t3) ステップA6によって、Va=Da−Pt2が算出される。
【0154】
(t4) ステップA11で、本装置の正面方向から見て、Va方向に対応する位置にある触覚提示部101xaが選択され、ステップA12で利用者に対して触覚提示部101xaから触覚刺激が提示される。
【0155】
以上の処理によって、本装置の姿勢(向き)に関わらず、利用者に対して所望の方向Haが触覚によって提示されることになる。
【0156】
続いて、利用者に対して、方向Haとは別の方向である方向Hbを提示することが、本装置外部のアプリケーションで決定されたとする。
【0157】
(t5) その結果、方向Hbを表すベクトルDbを含む提示方向情報を含む、制御指令が、提示方向入力部102から本装置に対して入力される。
【0158】
(t6) 上述の(t2)〜(t3)と同様の処理によって、Vb=Db−Pt6が算出される。
【0159】
(t7) ステップA11で、本装置の正面方向から見て、Vb方向に対応する位置にある触覚提示部101xbが選択され、ステップA12で利用者に対して触覚提示部101xbから触覚刺激が提示される。
【0160】
以上の処理によって、利用者に対して所望の方向Hbが触覚によって提示されることになる。
【0161】
なお、ここで方向を示すベクトルは相対的なものであるため、たとえば利用者が向きを変えたり、あるいは本装置の装着部である右手首を動かすことによって、本装置の空間中での位置や姿勢が変わったりしても、上記と同様の処理によって、正しく所望の方向を提示することが出来る。
【0162】
続いて、本装置外部のアプリケーションによって、対象物Ocの位置を利用者に提示することが決定されたとする。
【0163】
(t8) その結果、対象物Ocの位置を表すベクトルLcを含む提示位置情報を含む、制御指令が、提示方向入力部102から本装置に対して入力される。
【0164】
(t9) 処理手順AのステップA1〜A2によって、ステップA8へ進み、制御部104の指示により、本装置の位置検出処理及び姿勢検出処理がなされ、ステップA9で、この時点での本装置の姿勢ベクトルPt9を含む装置姿勢情報と、この時点で本装置の位置ベクトルQt9を含む装置位置情報とが、制御部104にもたらされる。
【0165】
(t10) ステップA10によって、Vc=Lc−Pt9−Qt9が算出される。
【0166】
(t11) 上述の(t7)と同様の処理によって、ステップA11で、本装置の正面方向から見て、Lc方向に対応する位置にある触覚提示部101xcが選択され、ステップA12で利用者に対して触覚提示部101xcから触覚刺激が提示される。
【0167】
以上の処理によって、所望の位置が触覚によって利用者に提示されることになる。
【0168】
なお、上述は、ユーザの向きや、本装置の位置、姿勢などを考慮した処理となっているので、例えば利用者が姿勢や向きを変えたりした場合でも正しく位置を提示することが出来る。
【0169】
また、提示対象物の位置や、あるいは提示対象方向を順次更新しながら提示することにより、移動する物体や、方向を、利用者が移動したり姿勢を変えつつある状態でも正しく提示することが出来る。
【0170】
さらに、位置や方向は同時に複数提示することも可能である。
【0171】
6.実施例の効果
かくしてこのように構成された本装置によれば、次の効果がある。
【0172】
第1に、提示される位置及び方向を、利用者が容易に理解できる。
【0173】
第2に、提示される情報から、実空間中の方向や位置を、利用者が容易に対応づけ出来る。
【0174】
第3に、提示される位置及び方向を、利用者が迅速に読みとることが出来る。
【0175】
第4に、時間的に早い速度で変化する位置や方向を、利用者が容易に読みとることが出来る。
【0176】
第5に、上下方向や前方後方などを含む3次元的な方向や位置を、利用者が容易に見とることが出来る。
【0177】
第6に、複数の位置や方向を同時に、利用者が読みとることが可能となる。
【0178】
第7に、表現可能でかつ利用者が識別可能な方向及び位置の範囲を広くすることが可能となる。
【0179】
第8に、周囲に対して騒音となる音を発生せずに、方向を提示することが可能となる。
【0180】
第9に、周囲環境に騒音などがある状況でも、支障なく方向を提示することが出来る。
【0181】
第10に、利用者が視覚的な情報を確認するための視覚情報の表示装置が不要で、利用者の目を拘束せず、アイフリーに方向や位置を提示することが出来る。
【0182】
第11に、利用者が聴覚的な情報を確認するための聴覚情報の表示装置が不要で、利用者の耳を拘束せず、イヤフリーに方向や位置を提示することが出来る。
【0183】
第12に、利用者の手を拘束せず、ハンズフリーに方向や位置を提示することが出来る。
【0184】
第13に、利用者が身体に装着して利用する、ウエアラブルコンピュータシステムに適した方向及び位置方法を提供することが出来る。
【0185】
尚、本装置及び本方法の効果も、上述した例に限定されるものではない。
【0186】
7.変更例
(1)変更例1
上述の実施例では、利用者の身体に接触して与える物理的な刺激によって利用者に対して触覚を与えていたが、風や、あるいは電気刺激や、あるいは温度刺激などといった、他の方法を用いて、利用者の身体に接触せず遠隔で刺激を与えても良い。
【0187】
(2)変更例2
本装置を一体の機器として実現せず、身体に装着する部分と、制御部とに分けて構成し、その両者を例えば無線通信などによって繋いで動作するようにしても良い。
【0188】
(3)変更例3
上述の実施例では、提示したい方向に対応する身体表面を刺激するようにしていたが、提示したい方向に近い身体表面をを刺激するようにしても良い。
【0189】
(4)変更例4
利用者が身体を動かし、提示したい方向と触覚提示装置の出力部の方向とが一致した時に刺激を与える様にしても良い。
【0190】
(5)変更例5
音信号、3次元音場、画像、記号、3次元CG、音声、言語などと適宜組み合わせて、方向や位置を提示するようにしても良い。
【0191】
(6)変更例6
本装置は、触覚を用いるため、体中の何処でも利用が可能であり、多様な実現形態が考えられる。
【0192】
例えば、帽子や、ヘルメットや、ヘヤバンドや、襟の形に構成して、例えば頭部や頚部などに、触覚を提示するようにしても良い。
【0193】
(7)変更例7
ブレスレットや腕時計の形に構成して、例えば腕などに、触覚を提示するようにしても良い。
【0194】
(8)変更例8
指輪の形に構成して、指などに、触覚を提示するようにしても良い。
【0195】
(9)変更例9
アンクレットや靴の形に構成して、例えば足などに、触覚を提示するようにしても良い。
【0196】
(10)変更例10
杖などのように例えば手で握れる形に構成して、例えば手の平などに、触覚を提示するようにしても良い。
【0197】
8.応用例
本発明は、多様な応用が可能である。
【0198】
(1)応用例1
周辺を監視するセンサーやレーダ装置などと連動させ、操縦士に、ヘルメット型に構成した本装置を用いて、障害物や目標物などの方向や位置を提示するようにすることもできる。
【0199】
(2)応用例2
杖の形に構成して、老人や身障者などに対して、障害物や、あるいは目的地などの方向や位置を提示する福祉機器に応用することも出来る。
【0200】
(3)応用例3
利用者が携帯するナビゲーション装置として、登山ガイドや道案内などに利用することも出来る。
【0201】
(4)応用例4
本発明に掛かる装置は、例えばゴムなどの軟らかい素材を用いて実現することによって、利用者の身体により密着する様に構成したり、あるいは利用者の身体の形状変化に追従する様に構成することも可能である。
【0202】
(5)応用例5
本発明は、例えば帽子やヘルメットや腕時計や靴などといった既存の道具に組み込んで利用することも可能である。
【0203】
(6)応用例6
GPS(衛星利用による位置情報システム)やPHS(Personal Handy Phone System)などの技術と通信技術を利用することなどによって、例えば相手の位置情報の取得して、例えば子供や老人など他の人物のいる位置や方向を提示する装置などとして利用することも可能である。
【0204】
(7)応用例7
上述の実施例では、利用者の体表面に触覚提示することで方向や位置を提示しているが、本装置を例えば口腔内に置くなどしたりする形態で、利用することも可能である。
【0205】
(8)応用例8
2人の利用者がそれぞれ一台づつ本装置を所持し、待ち合わせを使用とする時、それぞれの利用者が所持しているそれぞれの本装置の提示する方向によって、それぞれ相手をいる方向を知ることで、効率的に落ち合うことが可能となる。
【0206】
9.記録媒体の実現例
上述の実施例では、装置として本発明を実現する場合の例を示したが、上述の具体例の中で示した処理手順、フローチャートをプログラムとして記述し、実装し、汎用の計算機システムで実行することによっても同様の機能と効果を得ることが可能である。
【0207】
図5の汎用計算機の内部構成の例に示したように、CPU部501、メモリ部502、大容量記憶装置部503、通信インタフェース部504からなる汎用計算機に次のものを設ける。
【0208】
すなわち、入力インタフェース部505a〜505n、入力デバイス部506a〜506n、出力インタフェース部507a〜507m、出力デバイス部508a〜508mを設ける。
【0209】
そして、通信インタフェース部504を通じて外部アプリケーションから提示位置情報、あるいは提示方向情報を含む制御命令を受信するようにする。
【0210】
また、入力インタフェース部505及び入力デバイス部506を通じて提示位置情報、あるいは提示方向情報を含む制御命令を受け取る用にもできる。
【0211】
また、メモリ部502や代用両記憶部503に格納しCPU部501で動作させるたアプリケーションプログラムから提示位置情報やあるいは提示方向情報を受け取る。
【0212】
そして、CPU部501によるソフトウェア制御により、出力デバイス部508a〜508mとして、用意した触覚提示デバイスを等を用いて、上述のごとき動作を実現することが出来る。
【0213】
すなわち、上述の実施例に記載した手法は、コンピュータに実行させることの出来るプログラムとして、磁気ディスク(フロッピーディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記録媒体を用いてコンピュータにプログラムを読み込み、CPU部501で実行させれば、本発明のマルチモーダルインタフェース装置を実現することが出来ることになる。
【0214】
【発明の効果】
以上説明したように、本発明によれば、利用者が容易に理解でき、実空間中の位置と対応付け容易で、利用者が迅速に方向や位置を読みとることが出来、早い速度で変化する位置や方向も提示可能で、3次元的な方向や位置も提示可能で、複数の位置や方向を同時に提示可能で、提示可能な範囲が広く、提示精度が高く、騒音を発生せず、騒音などがある状況でも支障なく使え、利用者の目や耳や手を拘束せず、ウエアラブルコンピュータシステムにも適応可能で、身障者などにも利用可能(バリアフリー)で、方向及び位置の表示が可能となる等、実用上多大な効果が奏せられる。
【図面の簡単な説明】
【図1】触覚インタフェース装置の構成例である。
【図2】触覚提示部101a〜nの配置の例である。
【図3】処理手順Aの流れを示すフローチャートである。
【図4】本装置の動作状況を説明する概要図である。
【図5】汎用計算機の内部構成の例である。
【図6】本装置の配置例の断面図である。
【図7】本装置の他の配置例の断面図である。
【符合の説明】
101a〜n 触覚提示部
102 方向入力部
103 位置検出部
104 制御部
201a〜d 触覚提示デバイス
203a〜d 位置検出デバイス
U ユーザ
Ux ユーザ座標x軸ベクトル
Uy ユーザ座標y軸ベクトル
Uz ユーザ座標z軸ベクトル
M 本装置
Ha,b 提示対象方向
Oc 提示対象物
P 装置位置ベクトル
Q 装置姿勢ベクトル
Da,b 提示対象方向ベクトル
Lc 提示対象物ベクトル
101xa〜xc 触覚提示デバイス
501 CPU部
502 メモリ部
503 大容量記憶部
504 通信インタフェース部
505a〜n 入力インタフェース部
506a〜n 入力デバイス部
507a〜m 出力インタフェース部
508a〜m 出力デバイス部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a human interface device and a human interface method using tactile sensation.
[0002]
[Prior art]
In recent years, with the development of computer technology, network technology, communication technology, etc., location information services using these technologies can be used in various places, such as car navigation systems using location detection technology by satellite communication, Navigation systems such as ships and airplanes, and small navigation systems that can be carried by users are becoming widespread.
[0003]
In these systems, the user is shown the correct direction of travel and directions, the direction of approaching dangerous goods, the direction in which attention should be given in an emergency, or the direction of the target. Technology that accurately displays the direction and position in real space is necessary.
[0004]
In addition, since the direction presentation technique as described above is often required for an environment such as a vehicle to move, a technique that can quickly and accurately convey the direction and position is desired. .
[0005]
Furthermore, it is often used in public places such as outdoors and buildings where other humans exist, and a technology that can quietly present the direction and position is desired.
[0006]
Conventionally, in order to present a direction to a user, for example, the direction or position of an arrow or the like is displayed on a screen of a visual information output device such as a CRT (character display) or an LCD (liquid crystal display). A method of presenting a symbol or presenting a word indicating a direction or a position is used.
[0007]
Conventionally, in order to present the direction to the user, for example, a method of using an audio output that expresses a direction and a position such as “I am right” is used.
[0008]
Furthermore, in response to improvements in computer processing technology and miniaturization in recent years, devices in the form of wearable computing that use computers mounted on their bodies are beginning to appear.
[0009]
In such wearable computers, for example, a method of presenting image information using an HMD (head mounted display) that presents image information in front of the user's eyes, for example, when the user wears it on the head On such a head-mounted image display, for example, a symbol indicating a direction or a position such as an arrow is displayed, or character information indicating a direction or a position is presented, or stereoscopic image information is displayed. The method of indicating the direction and position can be used.
[0010]
Alternatively, a method for indicating a direction and a position by using a three-dimensional sound field technology to localize a position and a direction in a sound image has been studied.
[0011]
[Problems to be solved by the invention]
However, the above-described conventional method has the following problems.
[0012]
First, the conventional method of presenting the direction and position to the user by displaying symbols and words representing the direction and position on the screen has a problem in that a display unit needs to be prepared.
[0013]
Secondly, in the conventional method of presenting the direction and position to the user by displaying symbols and words representing the direction and position on the screen, it is necessary to prepare a display unit. There was a problem of becoming.
[0014]
Thirdly, in the conventional method of presenting the direction and position to the user by displaying symbols and words indicating the direction and position on the screen, it is necessary to arrange the display unit at a position that can be seen by the user. Therefore, there is a problem that the physical arrangement of the component parts of the apparatus is restricted and the wiring between the component parts of the apparatus is restricted.
[0015]
Fourthly, in the conventional method of presenting the direction and position to the user by displaying symbols and words representing the direction and position on the screen, it is necessary to arrange the display unit at a position that can be seen by the user. Therefore, there is a problem that the physical arrangement of the component parts of the apparatus is limited, and the component parts of the apparatus cannot be arranged freely.
[0016]
Fifth, the conventional method of presenting the direction and position to the user by displaying the symbols and words representing the direction and position on the screen shows the direction and position using visual information. There is a problem in that the user needs to look at the screen as the display unit and restrains the user's line of sight.
[0017]
Sixth, since the size of the screen serving as the display unit is limited, the direction that can be expressed is limited, and only a narrow range of directions can be presented.
[0018]
Seventh, the correspondence between the position of symbols on the screen and the direction that you want to present in the real world is arbitrary, so it is difficult for the user to understand the actual direction you want to present There was a point.
[0019]
Eighth, there is a problem in that it is impossible to present the direction with high accuracy because the positional relationship with the direction of the real world to be actually presented is arbitrary and generally the directions do not match. It was.
[0020]
Ninth, the positional relationship with the actual world direction that you want to present is arbitrary, and generally the directions do not match, so the user must read and understand the presented direction with high accuracy. There was a problem that was difficult.
[0021]
Tenth, since it is necessary to prepare a display unit, there is a problem that it is not suitable for a wearable computer.
[0022]
Eleventh, there is a problem in that it is not possible to use it for visually handicapped persons such as blind persons and low vision persons because it is necessary to see the display with eyes.
[0023]
12thly, since the information shown on a display part is a two-dimensional display, there existed a problem that it was difficult to show a three-dimensional direction.
[0024]
13thly, since the information shown on a display part is a two-dimensional display, there existed a problem that it was difficult for a user to read a three-dimensional direction.
[0025]
14thly, in a wearable computer, the conventional method of presenting image information using HMD (head mounted display) which presents image information in front of a user's eyes, for example, when a user wears on a head However, there is a problem that the position of symbols and the like displayed on the HMD is difficult to match the direction intended for presentation from the user's eyes, and the accuracy of direction presentation is poor.
[0026]
Fifteenth, there has been a problem that the HMD hinders the user's view and makes it difficult to understand the surrounding situation.
[0027]
Sixteenth, the direction that can be presented by a user without moving his / her head at one time in HMD is limited to the range of the user's field of view at the maximum, so there is a problem that the range of directions is narrow. It was.
[0028]
Seventeenth, for example, in the conventional method of indicating a direction by a spoken language using a word indicating a direction, it is difficult to express a complicated direction or a subtle direction with a word, so it is not possible to indicate a detailed direction. There was a problem.
[0029]
Eighteenth, the spoken language has a problem that it takes a certain amount of time to speak, and it takes time to present directions because it cannot be understood until most of the utterance content has been uttered.
[0030]
Nineteenth, the spoken language has a problem that it is almost impossible to express the direction of changing at a high speed.
[0031]
20th, since it is very difficult to simultaneously understand a plurality of spoken languages, there is a problem that it is impossible to present a plurality of directions at the same time.
[0032]
Twenty-first, since a sound signal including sound propagates to the space around the user, the presentation method using sound is noisy for users other than the user and is not suitable for social etiquette. there were.
[0033]
Twenty-second, when there is noise in the usage environment, there is a problem that it may be difficult for the user to hear the method presentation by voice, or it may not be heard at all.
[0034]
Twenty-third, there is a problem that the hearing-impaired person cannot use the method using voice.
[0035]
Twenty-fourth, in the conventional method of indicating the direction by sound image localization, the direction that can be accurately identified is limited to, for example, the forward direction in a horizontal plane because of human auditory characteristics. There was a problem that was narrow.
[0036]
25th, in the conventional method of indicating the direction by sound image localization, the user recognizes the presented direction due to the influence of an acoustic parameter called a head-related transfer function that differs for each user. There was a problem that it was very difficult to do.
[0037]
26th, for the same reason, there is a problem that it is difficult to present the direction with high accuracy.
[0038]
27th, since it is very difficult to listen to a plurality of sound signals at the same time and to recognize each sound image localization, it is difficult to present a plurality of directions at the same time.
[0039]
Twenty-eighth, since it takes a certain amount of time to understand the contents of a sound signal and sound image localization, there is a problem that it is difficult to present a direction that changes at a high speed or to read. It was.
[0040]
29th, the method using sound image localization has a problem that it cannot be used by the hearing impaired.
[0041]
(Object of invention)
The present invention has been made in view of such circumstances, and has the following objects.
[0042]
First, it is intended that the user can easily understand the presented position and direction.
[0043]
Secondly, the object is to facilitate the understanding of the correspondence with the direction and position in the real space from the information presented to the user.
[0044]
A third object is to allow a user to quickly read the presented position and direction.
[0045]
A fourth object is to enable a user to easily read a position and direction that change at a fast speed in time.
[0046]
A fifth object is to be able to present a three-dimensional direction and position including the vertical direction and the front-rear direction with high accuracy and to allow the user to easily read the presented information.
[0047]
The sixth object is that a plurality of positions and directions can be simultaneously presented to the user, and the user can easily read them.
[0048]
The seventh object is to provide a wide range of directions and positions that can be expressed and can be identified by the user.
[0049]
Eighth, the object is not to generate sound that becomes noise to the surroundings.
[0050]
Ninth, it aims at being able to use without trouble even in the situation where the surrounding environment is noisy.
[0051]
A tenth object is to make eye-free use without restraining the user's eyes.
[0052]
The eleventh object of the present invention is to use the earphones without restraining the user's ears.
[0053]
12thly, it aims at being able to use hands-free, without restraining a user's hand.
[0054]
A thirteenth object is to eliminate the need for a visual information display device for a user to confirm visual information.
[0055]
14thly, it aims at not having the display apparatus of the auditory information for a user confirming auditory information.
[0056]
A fifteenth object of the present invention is to be suitable for a wearable computer system that a user wears on the body.
[0057]
[Means for Solving the Problems]
  The present inventionIn a direction presentation device that presents a predetermined direction to a user, a stimulus presentation unit that applies tactile stimulation to at least one location on the user's body surface, and a direction that indicates a presentation direction that is a direction to be presented to the user A tactile stimulus is applied by the stimulus presenting means to a stimulus corresponding portion in which the presenting direction designated by the direction instructing means corresponds to a spatial position in the body surface in contact with the instruction means and the stimulus presenting means. Control means for informing the user of the presentation direction thereby,Position detecting means for detecting arrangement information in the space of the stimulus presenting means comprising the position of the stimulus presenting means or the posture;And the stimulus presentation means covers the body surface of the userTubular or hollow hemisphericalA plurality of arrangements are made over the entire circumference so that the angles are different inside the member, and the control means includes:Based on the arrangement information detected by the position detection means, determine the stimulus corresponding place,The presentation direction instructed by the direction instructing means;Were determinedDirection presentation using tactile sensation characterized in that a tactile stimulus is given to the stimulus corresponding portion by one stimulus presentation means from among the plurality of stimulus presentation means so that the normal directions of the stimulus corresponding portions substantially coincide with each other apparatusIt is.
[0059]
Here, “substantially coincidence” includes a position where the direction that can be presented is the closest to the normal direction, or a position that is closest within a predetermined range.
[0066]
  BookThe invention will be described.
[0067]
For example, when the user wants to present the right direction when viewed from the front of the user, the stimulus presenting means worn by the user on the body causes the right side of the user's body within the contact surface between the stimulus presenting means and the user. A desired direction is presented to the user by giving a tactile stimulus to the body surface corresponding to the surface or the body surface close to the right side surface.
[0068]
  Also bookThe invention will be described.
[0069]
For example, when the user wants to present to the user a direction within a horizontal plane of 30 degrees to the left when viewed from the front of the user, the user wears the stimulus presentation means so as to cover a part of the body like a bracelet. To do.
[0070]
In this state, the normal direction of the corresponding body surface in the contact surface between the stimulus presentation means and the user is substantially the same as or close to the direction in the horizontal plane of 30 degrees left as viewed from the front of the user. Thus, the desired direction is presented to the user by showing the tactile stimulus in the same direction as the normal direction.
[0072]
For example, when the user wants to present the left direction when viewed from the front of the user, the user is holding (wrapping) and holding the stimulus presentation means configured in the shape of a cylindrical cane.
[0073]
In this state, when presenting a direction of 90 degrees left as viewed from the front of the body, the left of the surface of the stimulus presenting means held by the user as viewed from the front of the user. By displaying a tactile stimulus in a direction opposite to the normal direction to the user's body surface corresponding to (opposite to) a portion substantially coincident with or close to the normal direction in the direction of 90 degrees, Present directions to the user.
[0074]
  In addition, bookThe invention will be described.
[0075]
For example, the position or orientation of the stimulus presentation unit in the space is detected by a magnetic sensor, an acceleration sensor, or the like, and the position where the tactile stimulus is presented to the user is determined using the information.
[0076]
As a result, the user moves, the user changes the posture, the user moves a part of the body, the user moves the stimulus presentation means, or the user changes the wearing state of the stimulus presentation means. Even when it is changed, the desired direction is correctly presented to the user.
[0077]
  Claim 2The invention will be described.
[0078]
For example, when two users own this device one by one and try to wait, the direction that each user possesses depends on the direction that each device possesses. Knowing it makes it possible to meet efficiently.
[0079]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a direction presentation device using a tactile sensation according to an embodiment of the present invention will be described with reference to the drawings.
[0080]
FIG. 1 shows an example of the configuration of the apparatus according to an embodiment of the present invention. The apparatus includes at least one or more tactile sense presentation units 101a to 101n, a direction input unit 102, a position detection unit 103, and a control unit 104. Consists of
[0081]
1. Tactile presentation unit
In FIG. 1, tactile sense presenting units 101 a to 101 n are tactile presenting devices that present tactile stimuli to the body surface of the user's body in accordance with instructions from the control unit 104. Here, the position of the body surface to which the tactile stimulus is applied is referred to as a “stimulus-corresponding portion”.
[0082]
a. Implementation example
For the tactile sense presenting sections 101a to 101n, for example, realized by using a tactile device or the like shown in Section 3.1 of “Development of Artificial Reality” (Corona, 1994) written by Fujiwara. To do.
[0083]
An implementation example will be described.
[0084]
(1) Implementation example 1
A tactile stimulus is given to the user by applying a mechanical force to the handle or stick portion gripped by the user by an arm or wire driven by a motor or the like.
[0085]
(2) Implementation example 2
A small rubber balloon is placed in contact with the skin surface, such as the user's fingertip.
[0086]
Then, the air pressure inside the balloon is changed by using a mechanical pump, or by a heat generation / heat absorption element such as a heater or a Peltier element. In addition, the air pressure in the balloon is changed by releasing or occluding hydrogen by applying heat to or cooling the hydrogen occluding alloy (MH). Thereby, the hardness and shape of the balloon surface are changed, and a tactile stimulus is given to the user.
[0087]
(3) Implementation example 3
A tactile stimulus is given to a user using an actuator using a shape memory alloy.
[0088]
(4) Implementation example 4
Heating / heat-absorbing elements such as heaters and Peltier elements are arranged at positions that come into contact with the skin surface such as the user's fingertips, and heat is applied or cooled to give tactile stimulation to the user.
[0089]
(5) Implementation example 5
A tactile stimulus is given to the user by applying a fluid such as air toward the skin surface such as the fingertip of the user.
[0090]
(6) Implementation example 6
A tactile stimulus is applied to the user by applying an electrical stimulus to the skin surface of the user.
[0091]
b. Arrangement example
2A to 2D show examples of arrangement of the tactile sense presentation units 101a to 101n.
[0092]
(1) Arrangement example 1
FIG. 2 (a) shows an inner circumferential arrangement.
[0093]
That is, at least one or more tactile sensation presentation units are arranged inwardly inside the apparatus having a thin circular tubular shape.
[0094]
The present apparatus configured using this shape can be used as follows.
[0095]
The first example is worn on the head like a bee.
[0096]
In the second example, the buttock is worn like a collar.
[0097]
In the third example, the garment is worn like a belt.
[0098]
In the fourth example, the finger is worn like a ring.
[0099]
The fifth example is worn on the wrist like a wristwatch.
[0100]
The sixth example is worn on the upper hip like an armband.
[0101]
The seventh example is attached to the ankle like an anklet.
[0102]
FIG. 6 shows a cross-sectional view of the bracelet-shaped device attached to the arm, with the white arrow indicating the normal direction, the solid arrow indicating the presentation direction, and the zigzag arrow indicating the tactile stimulation direction. Show.
[0103]
Then, as shown in FIG. 6, in the case of this arrangement example, the tactile sense providing unit touches the stimulus corresponding location so that the presentation direction described later matches the normal direction of the body surface of the stimulus corresponding location. Give a stimulus. Thus, by making it match with the normal direction, the user can surely recognize the tactile sense of the stimulus.
[0104]
(2) Arrangement example 2
FIG. 2B shows the spherical inner arrangement.
[0105]
That is, at least one or more tactile sensation presentation units are arranged inwardly in the inside of the apparatus having a hollow hemispherical back surface shape.
[0106]
The present apparatus configured using this shape can be used by being worn on the head, for example, like a helmet or a hat, or can be worn on a finger like a finger sack.
[0107]
Then, as shown in FIG. 6, in the case of this arrangement example, the tactile sense providing unit touches the stimulus corresponding location so that the presentation direction described later matches the normal direction of the body surface of the stimulus corresponding location. Give a stimulus. Thus, by making it match with the normal direction, the user can surely recognize the tactile sense of the stimulus.
[0108]
(3) Arrangement example 3
FIG. 2 (c) shows the cylindrical outer arrangement.
[0109]
That is, at least one or more tactile sensation presentation units are arranged outwardly on the outside of the side surface of the cylindrical device.
[0110]
The present apparatus configured using this shape can be used by being incorporated in a cane, a car or bicycle handle, a boat oar or rudder, or a joystick.
[0111]
FIG. 7 shows a cross-sectional view of the cane-like device grasped by a hand, with white arrows indicating the normal direction, solid arrows indicating the presentation direction, and zigzag arrows indicating the tactile stimulation direction. Is shown.
[0112]
Then, as shown in FIG. 7, in the case of this arrangement example, the tactile sense presentation unit makes the presentation direction described later coincide with the direction opposite to the normal direction of the body surface of the stimulation corresponding portion. A tactile stimulus is given to the stimulus corresponding part. In this way, by matching the direction opposite to the normal direction, the user can surely recognize the tactile sense of the stimulus.
[0113]
(4) Arrangement example 4
FIG. 2 (d) shows a spherical outer surface arrangement.
[0114]
That is, at least one or more tactile sensation presenting portions are arranged outwardly on the outside of the device having a ball shape such as a spherical surface.
[0115]
This device constructed using this shape can be used by incorporating it into a cane, handle, boat oar, rudder, joystick, control bar or the like.
[0116]
Then, as shown in FIG. 7, in the case of this arrangement example, the tactile sense presentation unit makes the presentation direction described later coincide with the direction opposite to the normal direction of the body surface of the stimulation corresponding portion. A tactile stimulus is given to the stimulus corresponding part. In this way, by matching the direction opposite to the normal direction, the user can surely recognize the tactile sense of the stimulus.
[0117]
(5) Other arrangement examples
In the above, for the sake of simplicity, a simple geometric shape such as a sphere or a circle is shown as an example, but FIG. 2 shows an example of the arrangement of the tactile sense providing units 101a to 101n. The arrangement of the portions 101a to 101n is not limited to the example shown here, and may be a more complicated shape.
[0118]
2. Direction input part
In FIG. 1, the direction input unit 102 is “presentation direction information” that is information about a direction to be presented to the user with respect to the apparatus, or “presentation position information” that is information about a position to be presented to the user. Is received, and the control unit 104 is notified of the contents.
[0119]
Thereafter, the presentation direction information and presentation position information are based on the position of the user's center of gravity, the front direction of the user is the X axis positive direction, the user's right direction is the Y axis positive direction, and the user's upper direction is the Z axis positive direction. It will be expressed as a vector in the coordinate system of the direction.
[0120]
3. Position detector
In FIG. 1, the position detection unit 103 is in accordance with an instruction from the control unit 104, for example, by a magnetic sensor, a direction sensor, a gyro, an optical sensor, a radio wave receiver, a GPS, or a mechanical encoder. The device position information, which is information representing the position of the device by detecting the spatial position and orientation of the device, and the device orientation information, which represents the front direction of the device, are used as the presentation direction information and the presentation position described above. It is expressed as a vector in the same coordinate system as the information and output.
[0121]
4). Control unit
In FIG. 1, the control unit 104 operates according to processing procedure A shown below based on at least one of presentation direction information, presentation position information, device position information, and device posture information.
[0122]
Thus, the operation of the tactile sense providing units 101a to 101n is controlled to appropriately present tactile stimuli to the user, and information related to a desired direction and position is presented to the user.
[0123]
FIG. 3 is a flowchart showing the flow of processing procedure A.
[0124]
<Processing procedure A>
・ Step A1
When the control command including the presentation direction information D including the direction vector Vd to be presented to the user is input from the direction input unit 102, the process proceeds to step A4.
[0125]
・ Step A2
When the control command including the presentation position information L including the vector V1 indicating the position to be presented to the user is input from the direction input unit 102, the process proceeds to step A8.
[0126]
・ Step A3
Proceed to step A1.
[0127]
・ Step A4
The position detection unit 103 is instructed to detect the posture of the apparatus.
[0128]
・ Step A5
From the position detection unit 103, device posture information P including a vector Vp indicating the posture of the present device is sent to the control unit 104.
[0129]
・ Step A6
The control unit 104 refers to the presentation direction information D and the device posture information P,
Vector Vx = vector Vd−vector Vp
Calculate
[0130]
・ Step A7
Proceed to step A11.
[0131]
・ Step A8
The position detection unit 103 is instructed to detect the posture and position of the apparatus.
[0132]
・ Step A9
From the position detection unit 103, device posture information P including a vector Vp indicating the posture of the device and device position information Q including a vector Vq indicating the position of the device are sent to the control unit 104.
[0133]
・ Step A10
The control unit 104 refers to the presentation position information L, the device posture information P, and the device position information Q,
Vector Vx = vector Vl−vector Vp−vector Vq
Calculate
[0134]
-Step A11
The tactile sense providing units 101a to 101n are searched for a tactile sense presenting unit 101x (a <= x <= n) that gives a tactile stimulus in the vector Vx direction to the front of the apparatus.
[0135]
-Step A12
A tactile stimulus is given to the user by the tactile sense providing unit 101x.
[0136]
Step A13
Proceed to step A1.
[0137]
The above is the configuration of this apparatus and its function.
[0138]
5. Processing details
Next, the processing described above will be described in more detail with reference to the drawings.
[0139]
Here, it is assumed that the user wears this bracelet-shaped device on the right wrist.
[0140]
In addition, it is assumed that a tactile sense presentation device is juxtaposed to the body of the user in contact with the tactile stimulus by vibration on the inside of the apparatus.
[0141]
Furthermore, this apparatus is controlled from an external application and is used to present the position and direction expressed in vectors from the center of gravity of the user's body to the user.
[0142]
FIG. 4 is a schematic diagram for explaining the operation status of the apparatus.
[0143]
a. Definition contents
The following content is defined in FIG.
[0144]
(1) Ux, Uy, and Uz are the X axis when the user's center of gravity is the origin, the front of the user is the X axis positive direction, the right direction is the Y axis positive direction, and the upward direction is the Z axis positive direction. Y axis and Z axis are shown. In the future, this coordinate system will be referred to as the user coordinate system and will be used as a future reference for position and direction.
[0145]
(2) M is the apparatus, U is a user who uses the apparatus, Ha and Hb indicate directions to be presented to the user, and Oc is an object whose position is to be presented to the user. It is.
[0146]
(3) The vector P indicates the position of the apparatus in the user coordinate system, and the vector Q indicates the direction in which the front position, which is the direction reference of the apparatus, faces in the user coordinate system.
[0147]
(4) Vectors Da and Db indicate the presentation directions Ha and Hb in the user coordinate system, respectively.
[0148]
(5) The positions of the vector Lc and the object Oc are shown in the user coordinate system.
[0149]
(6) The upper right figure is an enlarged view of the device and the arm of the user wearing the device. Here, 101xa, 101xb, and 101xc represent tactile sense presentation devices that respectively operate when the presentation direction Ha, the presentation direction Hb, and the object Oc are presented to the user.
[0150]
b. Contents of processing shown in time series
(t0) First, it is assumed that the direction Ha is presented to the user by an application or the like outside the apparatus.
[0151]
(t1) As a result, a control command including presentation direction information including the vector Da representing the direction Ha is input from the presentation direction input unit 102 to the apparatus.
[0152]
(t2) The process proceeds to step A4 in step A1 of the processing procedure A, and the position detection process of the apparatus is performed according to an instruction from the control unit 104. In step A5, the apparatus attitude including the attitude vector Pt2 of the apparatus at this time Information is provided to the controller 104.
[0153]
(t3) In step A6, Va = Da-Pt2 is calculated.
[0154]
(t4) In step A11, the haptic presentation unit 101xa located at the position corresponding to the Va direction is selected as viewed from the front of the apparatus, and in step A12, haptic stimulation is presented to the user from the haptic presentation unit 101xa. The
[0155]
Through the above processing, a desired direction Ha is presented to the user by tactile sensation regardless of the posture (orientation) of the apparatus.
[0156]
Subsequently, it is assumed that an application outside the apparatus determines to present the direction Hb, which is a direction different from the direction Ha, to the user.
[0157]
(t5) As a result, a control command including presentation direction information including the vector Db representing the direction Hb is input from the presentation direction input unit 102 to the present apparatus.
[0158]
(t6) Vb = Db−Pt6 is calculated by the same processing as (t2) to (t3) described above.
[0159]
(t7) In step A11, the tactile sense providing unit 101xb at the position corresponding to the Vb direction as viewed from the front direction of the apparatus is selected, and in step A12, a tactile stimulus is presented to the user from the tactile presenting unit 101xb. The
[0160]
With the above processing, a desired direction Hb is presented to the user by touch.
[0161]
Here, since the direction vector is relative, the position in the space of the device can be changed by the user changing the direction or moving the right wrist as the mounting portion of the device. Even if the posture changes, the desired direction can be correctly presented by the same processing as described above.
[0162]
Subsequently, it is assumed that the application outside the apparatus determines to present the position of the object Oc to the user.
[0163]
(t8) As a result, a control command including presentation position information including the vector Lc representing the position of the object Oc is input from the presentation direction input unit 102 to the apparatus.
[0164]
(t9) The process proceeds to step A8 by steps A1 to A2 of the processing procedure A, and the position detection process and the attitude detection process of the apparatus are performed according to the instruction of the control unit 104. In step A9, the attitude of the apparatus at this time The apparatus attitude information including the vector Pt9 and the apparatus position information including the position vector Qt9 of this apparatus at this time are provided to the control unit 104.
[0165]
(t10) In step A10, Vc = Lc−Pt9−Qt9 is calculated.
[0166]
(t11) By the same processing as the above (t7), in step A11, the tactile sense providing unit 101xc located at the position corresponding to the Lc direction as viewed from the front direction of the apparatus is selected. The tactile stimulus is presented from the tactile sense presenting unit 101xc.
[0167]
Through the above processing, a desired position is presented to the user by touch.
[0168]
Note that the above processing is processing that takes into account the orientation of the user and the position and orientation of the apparatus, so that the position can be correctly presented even when the user changes the orientation and orientation, for example.
[0169]
Moreover, by presenting the position and direction of the presentation target object while sequentially updating them, the moving object and direction can be presented correctly even when the user is moving or changing the posture. .
[0170]
Furthermore, a plurality of positions and directions can be presented simultaneously.
[0171]
6). Effects of the embodiment
Thus, according to the present apparatus configured as described above, the following effects are obtained.
[0172]
First, the user can easily understand the presented position and direction.
[0173]
Second, the user can easily associate the direction and position in the real space from the presented information.
[0174]
Third, the user can quickly read the presented position and direction.
[0175]
Fourth, the user can easily read the position and direction that change at a fast speed in time.
[0176]
Fifth, the user can easily find the three-dimensional direction and position including the vertical direction and the front-rear direction.
[0177]
Sixth, a user can read a plurality of positions and directions simultaneously.
[0178]
Seventh, it is possible to widen the range of directions and positions that can be expressed and can be identified by the user.
[0179]
Eighth, it is possible to present a direction without generating a sound that is noisy to the surroundings.
[0180]
Ninth, it is possible to present directions without any trouble even in a situation where there is noise in the surrounding environment.
[0181]
Tenth, a visual information display device for a user to confirm visual information is unnecessary, and the direction and position can be presented in an eye-free manner without restraining the user's eyes.
[0182]
Eleventh, an audio information display device for the user to confirm auditory information is not required, and the direction and position can be presented in an ear-free manner without restraining the user's ear.
[0183]
12thly, a direction and a position can be shown hands-free, without restraining a user's hand.
[0184]
13thly, the direction and position method suitable for a wearable computer system which a user wears | wears with a body and can be used can be provided.
[0185]
In addition, the effect of this apparatus and this method is not limited to the example mentioned above.
[0186]
7. Example of change
(1) Modification 1
In the above-described embodiment, a tactile sensation is given to the user by a physical stimulus given in contact with the user's body, but other methods such as wind, electrical stimulation, or temperature stimulation are used. It may be used to stimulate the user remotely without touching the user's body.
[0187]
(2) Modification example 2
The apparatus may not be realized as an integrated device, but may be configured by being divided into a part to be worn on the body and a control unit, and both of them may be operated by wireless communication, for example.
[0188]
(3) Modification 3
In the above-described embodiment, the body surface corresponding to the direction desired to be presented is stimulated, but the body surface close to the direction desired to be presented may be stimulated.
[0189]
(4) Modification 4
The user may move the body and give a stimulus when the direction in which the user wants to present matches the direction of the output unit of the tactile sense presentation device.
[0190]
(5) Modification 5
The direction and position may be presented in appropriate combination with a sound signal, a three-dimensional sound field, an image, a symbol, three-dimensional CG, voice, language, and the like.
[0191]
(6) Modification 6
Since this device uses tactile sensation, it can be used anywhere in the body, and various implementation forms are possible.
[0192]
For example, it may be configured in the shape of a hat, a helmet, a hair band, or a collar so that a tactile sensation is presented on the head or neck, for example.
[0193]
(7) Modification example 7
It may be configured in the shape of a bracelet or a wristwatch, and for example, a tactile sensation may be presented on an arm or the like.
[0194]
(8) Modification 8
It may be configured in the shape of a ring so that a tactile sensation is presented to a finger or the like.
[0195]
(9) Modification Example 9
It may be configured in the form of an anklet or shoes, and for example, a tactile sensation may be presented on a foot or the like.
[0196]
(10) Modification 10
For example, it may be configured so as to be grasped by a hand such as a wand, and a tactile sensation may be presented on the palm of the hand.
[0197]
8). Application examples
The present invention can be applied in various ways.
[0198]
(1) Application example 1
The direction and position of an obstacle, a target, etc. can be presented to the pilot using this device configured in a helmet shape in conjunction with a sensor or radar device for monitoring the surroundings.
[0199]
(2) Application example 2
It can also be applied to welfare equipment that presents the direction and position of obstacles, destinations, etc. for the elderly and the handicapped by configuring it in the shape of a cane.
[0200]
(3) Application example 3
As a navigation device carried by the user, it can also be used for mountain climbing guides and road guidance.
[0201]
(4) Application example 4
The apparatus according to the present invention is configured so as to be more closely attached to the user's body, for example, by using a soft material such as rubber, or configured to follow a change in the shape of the user's body. Is also possible.
[0202]
(5) Application example 5
The present invention can be used by being incorporated into existing tools such as a hat, a helmet, a wristwatch, and shoes.
[0203]
(6) Application example 6
By using technology such as GPS (Position Information System using Satellite) and PHS (Personal Handy Phone System) and communication technology, for example, the location information of the other party is obtained, and there are other persons such as children and elderly people. It can also be used as a device for presenting the position and direction.
[0204]
(7) Application example 7
In the above embodiment, the direction and position are presented by tactile presentation on the surface of the user's body, but the present apparatus can be used in a form such as being placed in the oral cavity, for example.
[0205]
(8) Application example 8
When two users own this device one by one and use waiting, the user knows the direction of each other according to the direction presented by each device possessed by each user. This makes it possible to meet efficiently.
[0206]
9. Realization example of recording medium
In the above-described embodiment, an example in which the present invention is realized as an apparatus has been described. However, the processing procedure and flowchart shown in the above-described specific example are described as a program, mounted, and executed by a general-purpose computer system. It is possible to obtain similar functions and effects.
[0207]
As shown in the example of the internal configuration of the general-purpose computer in FIG. 5, the following is provided in the general-purpose computer including the CPU unit 501, the memory unit 502, the mass storage unit 503, and the communication interface unit 504.
[0208]
That is, input interface units 505a to 505n, input device units 506a to 506n, output interface units 507a to 507m, and output device units 508a to 508m are provided.
[0209]
Then, a control command including presentation position information or presentation direction information is received from an external application through the communication interface unit 504.
[0210]
Further, it can also be used for receiving a control command including presentation position information or presentation direction information through the input interface unit 505 and the input device unit 506.
[0211]
In addition, presentation position information or presentation direction information is received from an application program stored in the memory unit 502 or the substitute storage unit 503 and operated by the CPU unit 501.
[0212]
Then, by the software control by the CPU unit 501, the operation as described above can be realized by using the prepared tactile presentation device as the output device units 508a to 508m.
[0213]
That is, the method described in the above embodiment uses a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, etc. as a program that can be executed by a computer. If the program is read into the computer and executed by the CPU 501, the multimodal interface device of the present invention can be realized.
[0214]
【The invention's effect】
As described above, according to the present invention, the user can easily understand, easily associate with the position in the real space, the user can quickly read the direction and position, and change at a high speed. Position and direction can also be presented, 3D directions and positions can be presented, multiple positions and directions can be presented simultaneously, the range that can be presented is wide, presentation accuracy is high, noise is not generated, noise It can be used without any problem even in situations where it can be used, can be applied to wearable computer systems without restraining the user's eyes, ears and hands, and can also be used by people with disabilities (barrier-free). For example, a great effect can be achieved.
[Brief description of the drawings]
FIG. 1 is a configuration example of a haptic interface device.
FIG. 2 is an example of arrangement of tactile sense presentation units 101a to 101n.
FIG. 3 is a flowchart showing a flow of a processing procedure A.
FIG. 4 is a schematic diagram for explaining an operation state of the apparatus.
FIG. 5 is an example of the internal configuration of a general-purpose computer.
FIG. 6 is a cross-sectional view of an arrangement example of the apparatus.
FIG. 7 is a cross-sectional view of another arrangement example of the apparatus.
[Explanation of sign]
101a-n Tactile presentation part
102 Direction input section
103 Position detector
104 Control unit
201a-d Tactile presentation device
203a-d Position detection device
U user
Ux User coordinate x-axis vector
Uy User coordinate y-axis vector
Uz User coordinate z-axis vector
M This device
Ha, b Target direction
Oc Object to be presented
P device position vector
Q device attitude vector
Da, b Presentation target direction vector
Lc presentation object vector
101xa ~ xc tactile presentation device
501 CPU
502 Memory part
503 Mass storage unit
504 Communication interface
505a-n Input interface section
506a-n Input device section
507a-m Output interface section
508a ~ m Output device section

Claims (4)

利用者に所定の方向を提示する方向提示装置において、
前記利用者の体表面の少なくとも一箇所に触覚刺激を与える刺激提示手段と、
前記利用者に提示すべき方向である提示方向を指示する方向指示手段と、
前記刺激提示手段と接触している体表面の中で、前記方向指示手段が指示した提示方向と空間的位置が対応している刺激対応箇所へ、前記刺激提示手段によって触覚刺激を与え、これにより前記提示方向を前記利用者に知らせる制御手段と、
前記刺激提示手段の位置、または、姿勢よりなる前記刺激提示手段の空間内での配置情報を検出する位置検出手段と、
を有し、
前記刺激提示手段は、前記利用者の体表面を覆う円管状または中空の半球状の部材の内側に角度が異なるように全周にわたって複数配置され、
前記制御手段は、前記位置検出手段が検出した配置情報に基づいて、前記刺激対応箇所を決定し、前記方向指示手段が指示した提示方向と、前記決定した刺激対応箇所の法線方向がほぼ一致するように、前記複数の刺激提示手段の中から一つの刺激提示手段によって前記刺激対応箇所へ触覚刺激を与える、
ことを特徴とする触覚を利用した方向提示装置。
In a direction presentation device that presents a predetermined direction to a user,
A stimulus presentation means for providing a tactile stimulus to at least one location on the user's body surface;
Direction indicating means for indicating a presentation direction which is a direction to be presented to the user;
A tactile stimulus is given by the stimulus presenting means to a stimulus corresponding portion whose spatial position corresponds to the presenting direction designated by the direction indicating means in the body surface in contact with the stimulus presenting means, thereby Control means for informing the user of the presentation direction;
Position detecting means for detecting arrangement information in the space of the stimulus presenting means comprising the position of the stimulus presenting means or the posture;
Have
A plurality of the stimulus presentation means are arranged over the entire circumference so that the angles are different inside a circular or hollow hemispherical member that covers the surface of the user's body,
The control means determines the stimulus corresponding location based on the arrangement information detected by the position detection means, and the presentation direction instructed by the direction indicating means substantially coincides with the normal direction of the determined stimulus corresponding location. So as to provide a tactile stimulus to the stimulus-corresponding portion by one stimulus presenting means from among the plurality of stimulus presenting means,
A direction presentation device using a tactile sensation characterized by the above.
請求項1記載の方向提示装置が複数あり、
前記複数の方向提示装置の中で一の方向提示装置が、他の方向提示装置の方向を提示するか、
または、前記複数の方向提示装置が互いにその方向を提示する
ことを特徴とする触覚を利用した方向提示システム。
There are a plurality of direction presentation devices according to claim 1,
One direction presentation device among the plurality of direction presentation devices presents the direction of another direction presentation device;
Alternatively, the direction presentation system using a tactile sensation, wherein the plurality of direction presentation devices present directions of each other.
利用者の体表面を覆う円管状または中空の半球状の部材の内側に角度が異なるように全周にわたって複数配置され、前記利用者の体表面の少なくとも一箇所に触覚刺激を与える刺激提示手段を用いて、前記利用者に所定の方向をコンピュータが提示する方向提示方法であって、
前記コンピュータが、前記利用者に提示すべき方向である提示方向を指示する方向指示ステップと、
前記コンピュータが、前記刺激提示手段と接触している体表面の中で、前記方向指示ステップによって指示した提示方向と空間的位置が対応している刺激対応箇所へ、前記刺激提示手段によって触覚刺激を与え、これにより前記提示方向を前記利用者に知らせる制御ステップと、
前記刺激提示手段の位置、または、姿勢よりなる前記刺激提示手段の空間内での配置情報を検出する位置検出ステップと、
を有し、
前記コンピュータが行う前記制御ステップは、前記位置検出ステップにおいて検出した配置情報に基づいて、前記刺激対応箇所を決定し、前記方向指示ステップが指示した提示方向と、前記決定した刺激対応箇所の法線方向がほぼ一致するように、前記複数の刺激提示手段の中から一つの刺激提示手段によって前記刺激対応箇所へ触覚刺激を与える、
ことを特徴とする触覚を利用した方向提示方法。
A plurality of stimuli presenting means for providing a tactile stimulus to at least one part of the user's body surface, wherein a plurality of them are arranged over the entire circumference so as to have different angles inside a cylindrical or hollow hemispherical member covering the user's body surface; Using a direction presentation method in which a computer presents a predetermined direction to the user,
A direction instruction step in which the computer indicates a presentation direction which is a direction to be presented to the user;
A tactile stimulus is delivered by the stimulus presenting means to a stimulus corresponding position in which a spatial position corresponds to the presenting direction designated by the direction indicating step in the body surface in contact with the stimulus presenting means. Giving a control step to inform the user of the presentation direction,
A position detecting step of detecting arrangement information in the space of the stimulus presenting means comprising the position of the stimulus presenting means or the posture;
Have
The control step performed by the computer determines the stimulus corresponding portion based on the arrangement information detected in the position detecting step, and presents the direction indicated by the direction indicating step and the normal of the determined stimulus corresponding portion. Giving a tactile stimulus to the stimulus corresponding portion by one stimulus presenting means from among the plurality of stimulus presenting means so that directions substantially coincide with each other;
A direction presentation method using the sense of touch characterized by the above.
利用者の体表面を覆う円管状または中空の半球状の部材の内側に角度が異なるように全周にわたって複数配置され、前記利用者の体表面の少なくとも一箇所に触覚刺激を与える刺激提示手段を用いて、前記利用者に所定の方向をコンピュータが提示する方向提示方法を実現するプログラムを記録した記録媒体であって、
前記利用者に提示すべき方向である提示方向を指示する方向指示機能と、
前記刺激提示手段と接触している体表面の中で、前記方向指示機能によって指示した提示方向と空間的位置が対応している刺激対応箇所へ、前記刺激提示手段によって触覚刺激を与え、これにより前記提示方向を前記利用者に知らせる制御機能と、
前記刺激提示手段の位置、または、姿勢よりなる前記刺激提示手段の空間内での配置情報を検出する位置検出機能と、
を実現するプログラムを記録し、
前記制御機能において、前記位置検出機能において検出した配置情報に基づいて、前記刺激対応箇所を決定し、前記方向指示機能において指示した提示方向と、前記決定した刺激対応箇所の法線方向がほぼ一致するように、前記複数の刺激提示手段の中から一つの刺激提示手段によって前記刺激対応箇所へ触覚刺激を与える、
ことを特徴とする触覚を利用した方向提示方法を実現するプログラムを記録した記録媒体。
A plurality of stimuli presenting means for providing a tactile stimulus to at least one part of the user's body surface, wherein a plurality of them are arranged over the entire circumference so as to have different angles inside a tubular or hollow hemispherical member covering the user's body surface; A recording medium storing a program for realizing a direction presentation method in which a computer presents a predetermined direction to the user,
A direction indicating function for indicating a presentation direction which is a direction to be presented to the user;
A tactile stimulus is given by the stimulus presenting means to a stimulus corresponding position corresponding to a spatial position corresponding to the presenting direction designated by the direction indicating function in the body surface in contact with the stimulus presenting means, thereby A control function for notifying the user of the presentation direction;
A position detecting function for detecting arrangement information in the space of the stimulus presenting means consisting of the position of the stimulus presenting means or the posture;
Record the program that realizes
In the control function, the stimulus corresponding portion is determined based on the arrangement information detected by the position detecting function, and the presentation direction instructed by the direction indicating function substantially coincides with the normal direction of the determined stimulus corresponding portion. So as to provide a tactile stimulus to the stimulus-corresponding portion by one stimulus presenting means from among the plurality of stimulus presenting means,
The recording medium which recorded the program which implement | achieves the direction presentation method using the tactile sense characterized by the above.
JP24553799A 1999-08-31 1999-08-31 Direction presenting apparatus and method using tactile sense Expired - Fee Related JP4109806B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24553799A JP4109806B2 (en) 1999-08-31 1999-08-31 Direction presenting apparatus and method using tactile sense

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24553799A JP4109806B2 (en) 1999-08-31 1999-08-31 Direction presenting apparatus and method using tactile sense

Publications (2)

Publication Number Publication Date
JP2001075705A JP2001075705A (en) 2001-03-23
JP4109806B2 true JP4109806B2 (en) 2008-07-02

Family

ID=17135182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24553799A Expired - Fee Related JP4109806B2 (en) 1999-08-31 1999-08-31 Direction presenting apparatus and method using tactile sense

Country Status (1)

Country Link
JP (1) JP4109806B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012086435A1 (en) * 2010-12-21 2012-06-28 株式会社ニコン Electronic apparatus and input/output system

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4660679B2 (en) * 2001-08-08 2011-03-30 琢也 野嶋 Smart tool
JP4023214B2 (en) * 2002-05-20 2007-12-19 セイコーエプソン株式会社 Tactile / force sense presentation device and tactile / force sense presentation system
EP1625841A4 (en) * 2003-05-22 2009-04-01 Hokkaido Tech Licensing Office Device and method of applying skin sensory stimulation
JP4020036B2 (en) * 2003-07-31 2007-12-12 日産自動車株式会社 Command input device
JP3837572B2 (en) * 2004-03-16 2006-10-25 国立大学法人東京工業大学 Image recognition apparatus, method and program for visually handicapped person
JP4640009B2 (en) * 2005-07-15 2011-03-02 日産自動車株式会社 Driving assistance device
JP2009032139A (en) * 2007-07-30 2009-02-12 Pioneer Electronic Corp Tactile input device
KR20100125629A (en) * 2009-05-21 2010-12-01 김호군 Walking assistance system for the blind and method thereof
CA2793714C (en) * 2010-03-25 2018-10-23 Reza Taghavi Tactile communication device for the neck
US9092954B2 (en) 2013-03-15 2015-07-28 Immersion Corporation Wearable haptic device
JP2017004240A (en) * 2015-06-10 2017-01-05 日本電信電話株式会社 Direction indication device
US10694155B2 (en) 2015-06-25 2020-06-23 Intel Corporation Personal sensory drones
JP6379075B2 (en) * 2015-08-03 2018-08-22 日本電信電話株式会社 Traction generator
US10371544B2 (en) * 2017-05-04 2019-08-06 Wearworks Vibrating haptic device for the blind

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012086435A1 (en) * 2010-12-21 2012-06-28 株式会社ニコン Electronic apparatus and input/output system

Also Published As

Publication number Publication date
JP2001075705A (en) 2001-03-23

Similar Documents

Publication Publication Date Title
JP4109806B2 (en) Direction presenting apparatus and method using tactile sense
US20210064132A1 (en) Systems, methods, and interfaces for performing inputs based on neuromuscular control
JP7095602B2 (en) Information processing equipment, information processing method and recording medium
US11086392B1 (en) Devices, systems, and methods for virtual representation of user interface devices
JP2019008570A (en) Information processing device, information processing method, and program
CN105264460A (en) Holographic object feedback
WO2015083183A1 (en) Hand wearable haptic feedback based navigation device
US20180101990A1 (en) System and method for providing simulated environment
WO2020241189A1 (en) Information processing device, information processing method, and program
US11366527B1 (en) Systems and methods for sensing gestures via vibration-sensitive wearables donned by users of artificial reality systems
US11397467B1 (en) Tactile simulation of initial contact with virtual objects
US11132058B1 (en) Spatially offset haptic feedback
CN115335796A (en) Determining geographic location based on human gestures
US11150800B1 (en) Pinch-based input systems and methods
US11175731B1 (en) Apparatus, system, and method for directional acoustic sensing via wearables donned by users of artificial reality systems
CN111263956A (en) Information processing apparatus, information processing method, and program
JP2018120520A (en) Communication method through virtual space, program causing computer to execute method, and information processing device to execute program
Hu et al. Stereopilot: A wearable target location system for blind and visually impaired using spatial audio rendering
US11550470B2 (en) Grammar dependent tactile pattern invocation
Sodnik et al. Spatial auditory human-computer interfaces
WO2021246134A1 (en) Device, control method, and program
JP2017228285A (en) Pseudo force device
US11416075B1 (en) Wearable device and user input system for computing devices and artificial reality environments
US20020054175A1 (en) Selection of an alternative
Calvo et al. Evaluation of a mobile application for multimodal land navigation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070731

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071023

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080407

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110411

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110411

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees