JP5477740B2 - 多感覚インタラクションシステム - Google Patents

多感覚インタラクションシステム Download PDF

Info

Publication number
JP5477740B2
JP5477740B2 JP2009251845A JP2009251845A JP5477740B2 JP 5477740 B2 JP5477740 B2 JP 5477740B2 JP 2009251845 A JP2009251845 A JP 2009251845A JP 2009251845 A JP2009251845 A JP 2009251845A JP 5477740 B2 JP5477740 B2 JP 5477740B2
Authority
JP
Japan
Prior art keywords
virtual object
user
reaction force
presenting
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009251845A
Other languages
English (en)
Other versions
JP2011096171A (ja
Inventor
広志 安藤
ドンウク キム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2009251845A priority Critical patent/JP5477740B2/ja
Publication of JP2011096171A publication Critical patent/JP2011096171A/ja
Application granted granted Critical
Publication of JP5477740B2 publication Critical patent/JP5477740B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

この発明は多感覚インタラクションシステムに関し、特にたとえば、複数の感覚情報を統合して提示することによって仮想物体が実在している感覚をユーザに与える、多感覚インタラクションシステムに関する。
従来の多感覚インタラクションシステムの一例が特許文献1に開示されている。特許文献1のシステムは、3D表示部、力覚提示部および音出力部を備え、ユーザの動作に合わせて接触音をリアルタイムで生成している。そして、視覚、聴覚および触覚の3つの感覚情報を統合して提示することによって、仮想物体が実在している感覚をユーザに与えている。
一方、視聴覚情報に加えて嗅覚情報を提示するシステムも数多く提案されている。たとえば、非特許文献1には、画面上に表示された風船に向かって手をかざすと、それに合わせて風船が割れて香りが提示されるシステムが開示されている。
特開2009−205626号公報 [G06T 17/40] http://www.iwata-kaori.jp/ 「磐田市香りの博物館」
人間は、視覚、聴覚、嗅覚、味覚および触覚のいわゆる五感を総合的に用いて、外界からの情報を獲得している。したがって、仮想物体が実在している感覚をユーザに与えるためには、より多くの感覚情報を緊密に連携させて提示することが望ましい。しかしながら、特許文献1の技術では、視覚、聴覚および触覚の3つの感覚情報を統合して提示するだけであるので、臨場感や現実感という点においては、十分とは言えない。また、非特許文献1の技術では、触覚情報の提示は行われておらず、仮想物体が実在している感覚をユーザに与えることができない。
それゆえに、この発明の主たる目的は、新規な、多感覚インタラクションシステムを提供することである。
この発明の他の目的は、より高い臨場感や現実感をユーザに与えることができる、多感覚インタラクションシステムを提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、複数の感覚情報を統合して提示することによって、仮想物体が実在している感覚をユーザに与える多感覚インタラクションシステムであって、仮想物体の映像を提示する視覚情報提示手段、ユーザによる操作を受け付け仮想物体の物性に応じた反力を提示する触覚情報提示手段、および反力が臨界値を超えたときに匂いを提示する嗅覚情報提示手段を備える、多感覚インタラクションシステムである。
第1の発明では、多感覚インタラクションシステム(10)は、視覚情報提示手段(12,14,22,24,26)を備え、視覚情報提示手段は、仮想物体の映像、つまり視覚情報をユーザに提示する。触覚情報提示手段(12,18,30)は、ユーザの操作を受け付ける操作部(30)を含み、操作部の位置および仮想物体(対象物)の物性などに応じて、操作部が仮想物体に触れることによって生じる反力を算出し、操作部を操作するユーザにその反力、つまり触覚情報を与える。嗅覚情報提示手段(12,20,32)は、ユーザの能動的な動作に伴って触覚情報提示手段によって提示される反力が臨界値を超えたときに、ユーザに匂い、つまり嗅覚情報を提示する
第1の発明によれば、視覚情報および触覚情報に加えて嗅覚情報を連動させてユーザに提示するので、仮想物体が実在しているような感覚を高い臨場感や現実感でユーザに与えることができる。また、ユーザの能動的な動作に伴って嗅覚情報を提示するので、ユーザは嗅覚情報を意識し易くなり、嗅覚情報によって臨場感を高める効果がより有効なものとなる。
第2の発明は、複数の感覚情報を統合して提示することによって、仮想物体が実在している感覚をユーザに与える多感覚インタラクションシステムであって、仮想物体の映像を提示する視覚情報提示手段、ユーザによる操作を受け付け、仮想物体の物性に応じた反力を提示する触覚情報提示手段、および反力に応じて匂いの強度および時間の長短の少なくとも一方を変えて匂いを提示する嗅覚情報提示手段を備える、多感覚インタラクションシステムである。
第2の発明では、多感覚インタラクションシステム(10)は、視覚情報提示手段(12,14,22,24,26)を備え、視覚情報提示手段は、仮想物体の映像、つまり視覚情報をユーザに提示する。触覚情報提示手段(12,18,30)は、ユーザの操作を受け付ける操作部(30)を含み、操作部の位置および仮想物体(対象物)の物性などに応じて、操作部が仮想物体に触れることによって生じる反力を算出し、操作部を操作するユーザにその反力、つまり触覚情報を与える。嗅覚情報提示手段(12,20,32)は、ユーザの能動的な動作に伴って触覚情報提示手段によって提示される反力に応じて匂いの強度や時間の長短を変えて、ユーザに匂い、つまり嗅覚情報を提示する。
第2の発明によれば、視覚情報および触覚情報に加えて嗅覚情報を連動させてユーザに提示するので、仮想物体が実在しているような感覚を高い臨場感や現実感でユーザに与えることができる。また、ユーザの能動的な動作に伴って嗅覚情報を提示するので、ユーザは嗅覚情報を意識し易くなり、嗅覚情報によって臨場感を高める効果がより有効なものとなる。
の発明は、第1または第2の発明に従属し、視覚情報提示手段は、仮想物体の立体映像を提示する。
の発明では、視覚情報提示手段(12,14,22,24,26)は、仮想物体の立体映像をユーザに提示する。つまり、視覚情報を現実世界により近い状態でユーザに提示する。したがって、より高い臨場感や現実感をユーザに与えることができる。
の発明は、第1ないし第3のいずれかの発明に従属し、反力に応じて音を提示する聴覚情報提示手段をさらに備える。
の発明では、聴覚情報提示手段(12,16)をさらに備える。聴覚情報提示手段は、ユーザの能動的な動作に伴って触覚情報提示手段(12,18,30)によって提示される反力に応じて、ユーザに音、つまり聴覚情報を提示する。
の発明によれば、視覚、聴覚、触覚および嗅覚の4つの感覚情報を連携させてユーザに提示するので、より高い臨場感や現実感をユーザに与えることができる。
の発明は、第1ないし第のいずれかの発明に従属し、視覚情報提示手段は、反力に応じて仮想物体の形状を変化させて提示し、嗅覚情報提示手段は、仮想物体が形状変化したときに匂いを提示する。
の発明では、視覚情報提示手段(12,14,22,24,26)は、ユーザの能動的な動作に伴って触覚情報提示手段(12,18,30)によって提示される反力に応じて、仮想物体の形状を変化させて提示する。嗅覚情報提示手段(12,20,32)は、仮想物体が形状変化したとき、たとえば、仮想物体が破裂したり、窪んだりしたときに匂いを提示する。
の発明によれば、視覚、触覚および嗅覚の3つの感覚情報がより緊密に連携してユーザに提示されるので、より高い臨場感や現実感をユーザに与えることができる。
の発明は、第1ないし第のいずれかの発明に従属し、視覚情報提示手段は、匂いの発生を想起させる効果映像をさらに提示する。
の発明では、視覚情報提示手段(12,14,22,24,26)は、たとえば仮想物体からユーザに向かって飛んでくる放射状の線のような、匂いの発生を想起させる効果映像を表示する。
の発明によれば、効果映像を表示することによって、ユーザの注意力が増すので、ユーザは嗅覚情報をより強く感じることができ、嗅覚情報によって臨場感を高める効果がより有効なものとなる。
第1または第2の発明によれば、視覚情報および触覚情報に加えて嗅覚情報を連動させてユーザに提示するので、仮想物体が実在しているような感覚を高い臨場感や現実感でユーザに与えることができる。また、ユーザの能動的な動作に伴って嗅覚情報を提示するので、ユーザは匂いを意識し易くなり、嗅覚情報によって臨場感を高める効果がより有効なものとなる。
また、第3の発明によれば、視覚、聴覚、触覚および嗅覚の4つの感覚情報を緊密に連携させてユーザに提示するので、より高い臨場感や現実感をユーザに与えることができる。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う後述の実施例の詳細な説明から一層明らかとなろう。
この発明の一実施例の多感覚インタラクションシステムをユーザが体験している様子を示す図解図である。 この発明の一実施例の多感覚インタラクションシステムの構成を示すブロック図である。 図2のコンピュータのメモリのメモリマップを示す図解図である。 図2の多感覚インタラクションシステムの動作を説明するための図解図である。 図2のコンピュータのCPUが実行する全体処理の一例を示すフロー図である。 図2のコンピュータのCPUが実行する全体処理の他の一例を示すフロー図である。
図1を参照して、この発明の一実施例である多感覚インタラクションシステム10(以下、単に「システム10」という。)は、3次元モニタ14、ヘッドホン16、触覚デバイス18および嗅覚ディスプレイ20を備え、視覚、聴覚、触覚および嗅覚の4つの感覚情報を統合してユーザに提示することによって、仮想物体が実在しているような感覚をユーザに与える。
図2は、システム10の構成を示すブロック図である。図2に示すように、システム10は、全体制御を実行するコンピュータ12を備え、このコンピュータ12には、3次元モニタ14、ヘッドホン16、触覚デバイス18および嗅覚ディスプレイ20等が接続される。
3次元モニタ14は、仮想物体(対象物)の立体映像(視覚情報)をユーザに提示するものであり、ディスプレイ22、ハーフミラー24および液晶シャッタメガネ26を含む。この3次元モニタ14では、コンピュータ12からの信号に基づいてディスプレイ22に仮想物体の映像22a(図1参照)が表示され、その映像22aはハーフミラー24によって反射される。また、液晶シャッタメガネ26は、エミッタ28を介して送られるコンピュータ12からの信号に基づいて左右視差が生じるように制御される。この液晶シャッタメガネ26を装着したユーザは、ハーフミラー24を介して仮想物体の立体映像を見ることができる。
ヘッドホン16は、コンピュータ12からの信号に基づいて音(聴覚情報)を出力する。ただし、ヘッドホン16の代わりに、或いはヘッドホン16と共に、スピーカによってユーザに音を提示してもよい。
触覚デバイス18は、コンピュータ12と双方向に連動して、仮想物体に触れたユーザにその反力(感触、触覚情報)を提示するものである。触覚デバイス18は、ユーザによる操作を受け付けるペン型の操作部30を含み(図1では操作部30以外の部分は省略している)、操作部30には、その位置および仮想物体の物性(硬さや風合い)等に応じた反力が与えられる。この操作部30を操作するユーザは、仮想物体を疑似的に触ることができ、仮想物体に外力を与えることができる。触覚デバイス18としては、たとえば、Phantom(登録商標)Premium1.5を用いることができる。ただし、触覚デバイス18の種類はこれに限定されず、たとえば、グローブ型の操作部を有する触覚デバイスを用いてもよい。
嗅覚ディスプレイ20は、コントローラ32を介して送られるコンピュータ12からの信号に基づいて、ユーザに匂い(香り、嗅覚情報)を提示する。コントローラ32は、コンピュータ12から送られてくる指示信号に応じて嗅覚ディスプレイ20を駆動するためのPIC(Peripheral Interface Controller)マイコン34およびMOS-FET36を含み、嗅覚ディスプレイ20は、コントローラ32からの指示に従って時空間制御可能に匂いを放出する。嗅覚ディスプレイ20としては、公知のものを用いることができる。たとえば、香料を封入したマイクロカプセルを破壊して芳香を発生させ、その芳香を送風ファンによって運ぶマイクロカプセル方式のものを採用することもできるし、タンクに充填した香料をタンクの微小な孔から放出するインクジェット方式のものを採用することもできる。
コンピュータ12は、上述のようにシステム10の全体制御を実行し、3次元モニタ14、ヘッドホン16、触覚デバイス18および嗅覚ディスプレイ20を連動させるための制御装置として機能する。コンピュータ12は、パーソナルコンピュータのような汎用のコンピュータであり、CPU38、メモリ40、モニタ等の表示装置(図示せず)、およびキーボードやマウス等の入力装置(図示せず)などを備える。CPU38は、コンピュータ12(システム10)の動作の全体制御を実行し、メモリ40は、CPU38が処理を行うためのデータおよびプログラムを記憶すると共に、ワーキングメモリやレジスタ等として利用される。
詳しくは図3に示すように、メモリ40は、データ記憶部50およびプログラム記憶部52を含む。データ記憶部50には、仮想物体の立体形状を表す形状データ54、仮想物体の硬さ(柔らかさ)、脆さおよび風合い等を表す物性データ56、各種の音データ58、およびその他の必要なデータが適宜格納される。また、プログラム記憶部52には、視覚情報を提示するための視覚プログラム60、触覚情報を提示するための触覚プログラム62、聴覚情報を提示するための聴覚プログラム64、嗅覚情報を提示するための嗅覚プログラム66、およびその他の必要なプログラムが適宜格納される。
具体的には、視覚プログラム60は、形状データ54等に基づいて、仮想物体の立体映像を生成するためのプログラムである。また、仮想物体に操作部30が接触したときに、操作部30の位置、形状データ54および物性データ56等に基づいて、仮想物体がどのように変形(状態変化)するかを算出し、変形した仮想物体の立体映像を生成するためのプログラムである。
触覚プログラム62は、操作部30の位置および物性データ56等に基づいて、仮想物体が操作部30(つまりユーザ)に与える反力(感触)を算出するためのプログラムである。
聴覚プログラム64は、触覚デバイス18を利用して行われる仮想物体へのユーザの働きかけに応じて、つまり仮想物体からの反力や仮想物体の状態に応じて、データ記憶部50の音データ58から適宜の音データを選択するためのプログラムである。
嗅覚プログラム66は、触覚デバイス18を利用して行われる仮想物体へのユーザの働きかけに応じて、つまり仮想物体からの反力や仮想物体の状態に応じて、嗅覚ディスプレイ20から匂いを放出するための指示信号を生成するためのプログラムである。
このような構成のシステム10では、3次元モニタ14によって仮想物体の立体映像をユーザに提示する。たとえば、複数の対象物から任意の対象物をユーザが選択できるようにしておき、ユーザが選択した対象物を仮想物体として、その立体映像を表示する。そして、触覚デバイス18によってユーザの操作を受け付け、その操作に応じた反力をユーザに与える。具体的には、触覚デバイス18は、操作部30の位置を測定し、そのデータ(位置情報)をコンピュータ12に出力する。コンピュータ12に出力されたデータは、メモリ40に記憶された仮想物体の物性データ56等と共にコンピュータ12内部のプログラムによって処理された後、触覚デバイス18にフィードバックされ、仮想物体の状態に応じた反力が操作部30に与えられる。これによって、操作部30を操作するユーザは、仮想物体に実際に触れているような感覚を得ることができ、仮想物体の硬さ(柔らかさ)、重さ、および表面のざらつき感などを感じることができる。
また、システム10では、嗅覚ディスプレイ20から匂いを提示するときのトリガ(きっかけ)として触覚デバイス18を用い、ユーザによる触覚デバイス18の操作状況に応じて、嗅覚ディスプレイ20からの匂いの提示を制御する。具体的には、触覚デバイス18を利用して行われる仮想物体へのユーザの触行動(働きかけ)に応じて(或いはその触行動によって変化する仮想物体の状態に応じて)、コンピュータ12内部で処理された指示信号がコントローラ32に出力される。コントローラ32は、PICマイコン34に組み込まれているプログラムによってMOS-FET36経由で嗅覚ディスプレイ20を制御する。これによって、ユーザは、触覚デバイス18によって提示される仮想物体に触れた感触(反力)、および3次元モニタ14によって提示される仮想物体の状態(形状)に適した匂いを感じることができる。
同様に、システム10では、ヘッドホン16から音を提示するときのトリガとして触覚デバイス18を用い、触覚デバイス18の操作状況に応じて、ヘッドホン16からの音の提示を制御する。これによって、ユーザは、仮想物体に触れた感触および仮想物体の立体映像の状態に適した音を聞くことができる。
このようにして、システム10は、視覚、聴覚、触覚および嗅覚の4つの感覚情報を有機的に連携させてユーザに提示し、あたかも仮想物体が実在しているような感覚を高い臨場感でユーザに与える。
以下には、仮想物体の具体例を挙げて、システム10の動作を説明する。たとえば、仮想物体として提示される対象物が風船であって、内部に香りを封じ込めた風船を割るという行為を疑似体験できるシステム10の場合を想定する。先ず、図4(A)に示すように、3次元モニタ14によって風船の立体映像が表示される。この際、ユーザが操作部30を操作して、風船の立体映像に操作部30を近づけると、操作部30の立体映像も3次元モニタ14によって表示される。
次に、ユーザが操作部30を風船にさらに近づけ、図4(B)に示すように、操作部30と風船とが接触すると、風船独特のツルツル感や柔らかさ、弾力などの感触が触覚デバイス18によってユーザに与えられる。このとき、操作部30と風船との接触状況(位置関係)に応じた反力がユーザに与えられると共に、風船が変形する様子が表示される。また、これと同時に、操作部30と風船との接触音や風船が軋む音、或いは適宜な効果音などの音がヘッドホン16から出力される。
そして、触覚デバイス18によって与えられる反力に対抗して、ユーザが所定値より強い外力を風船に与えると(つまり風船の窪み変形が限界となる臨界値に反力が達すると)、図4(C)に示すように、風船が破裂する様子が表示され、ユーザに与えられていた風船の感触はなくなる。また、これと同時に、風船の破裂音がヘッドホン16から出力され、風船内に閉じ込めていたと仮定している匂いが嗅覚ディスプレイ20から実際に放出される。
このように、4つの感覚情報を連動してユーザに提示することによって、ユーザは、仮想の風船が実際に存在しているかのような感覚を受け、風船を割るという疑似体験を嗅覚情報を伴って高い臨場感で経験できる。
なお、嗅覚ディスプレイ20から匂いを提示するときには、図4(D)に示すように、匂いの発生を想起させる効果映像を3次元モニタ14によって表示するとよい。たとえば、破裂した風船からユーザに向かってくる放射状の点や線などを表示するとよい。これによって、ユーザは、破裂した風船から何かが向かってきていることが分かり、注意力が増す(意識する)ので、匂いをより強く感じることができる。
また、仮想物体が風船の場合には、ユーザが所定値より強い外力を風船に与えたときに、つまり触覚デバイス18による反力が臨界値に達したときに、嗅覚ディスプレイ20によって匂いを提示しているが、これに限定されず、嗅覚ディスプレイ20による匂いの提示は、触覚デバイス18による反力の大きさ等に応じて直線的或いは段階的に変化をつけて行うこともできる。たとえば、仮想物体がレモンの場合には、触覚デバイス18によってレモンを絞ったり押したりする等の物理的な操作を行うときに、絞り具合などの操作状況に応じて、嗅覚ディスプレイ20による匂いの提示に強弱や時間の長短をつけるとよい。たとえば、ユーザによるレモンの絞り具合(押し具合)が小さいときには、送風ファンの風量を小さくして弱い匂いを短時間提示し、ユーザによるレモンの絞り具合(押し具合)が大きいときには、送風ファンの風量を大きくして強い匂いを長時間提示するとよい。
同様に、触覚デバイス18による反力の大きさ等に応じて(たとえば比例させて)、ヘッドホン16からの音の提示に強弱(大小)や時間の長短をつけることもできる。
続いて、上述のようなシステム10の動作の一例をフロー図を用いて説明する。具体的には、図2に示したコンピュータ12のCPU38が、図5に示すフロー図に従って全体処理を実行する。なお、図5に示すフロー図では、具体例として、仮想物体として提示される対象物が風船である場合(図4参照)を想定して説明する。
図5を参照して、コンピュータ12のCPU38は、ステップS1で、風船の立体映像を表示する。すなわち、形状データ54等に基づく仮想物体の立体映像を生成するための信号を、3次元モニタ14のディスプレイ22および液晶シャッタメガネ26(エミッタ28)に出力し、3次元モニタ14に風船の立体画像を表示させる。
次のステップS3では、風船に操作部30が接触しているか否かを判断する。すなわち、触覚デバイス18から入力される操作部30の位置情報および形状データ54等に基づいて、風船と操作部30とが接触しているか否かを判断する。ステップS3で“NO”の場合、すなわち風船と操作部30とが接触していない場合には、ステップS5に進む。ステップS5では、全体処理の終了であるかどうかを判断する。たとえば、ユーザからの終了命令がコンピュータ12の入力装置から入力されたかどうかによって判断する。ステップS5で“NO”の場合、すなわち全体処理の終了でない場合には、ステップS3に戻る。一方、ステップS5で“YES”の場合、たとえばユーザからの終了命令が入力された場合には、全体処理を終了する。
また、ステップS3で“YES”の場合、すなわち風船と操作部30とが接触している場合には、ステップS7に進む。ステップS7では、風船が操作部30に与える反力を算出する。すなわち、操作部30の位置情報および物性データ56等に基づいて、風船が操作部30(つまりユーザ)に与える反力の大きさを算出する。
次のステップS9では、ステップS7で算出した反力が臨界値以内かどうかを判別する。すなわち、風船が割れるだけの外力がユーザから風船に与えられたかどうかを判断する。
ステップS9で“YES”の場合、すなわち反力が臨界値以内の場合には、ステップS11に進む。ステップS11では、風船の立体映像を変形させると共に、操作部30に反力を与え、接触音を出力する。すなわち、反力に応じて風船がどのように変形するかを算出し、変形した風船の立体映像を表示するための信号を3次元モニタ14に出力し、3次元モニタ14に変形した風船の立体画像を表示させる。また、算出した反力で動作するための信号を触覚デバイス18に出力し、触覚デバイス18の操作部30からユーザに反力を与える。さらに、反力に応じた接触音を音データ58から選択または合成し、その接触音を出力するための信号をヘッドホン16に出力し、ヘッドホン16から反力に応じた接触音を出力させる。ステップS11の処理が終了すると、ステップS3に戻る。
一方、ステップS9で“NO”の場合、すなわち反力が臨界値を超える場合には、ステップS13に進む。ステップS13では、風船を破裂させると共に、破裂音を出力し、匂いを提示する。すなわち、風船が破裂する様子を表示するための信号を3次元モニタ14に出力し、3次元モニタ14に風船が破裂する様子を表示させる。また、破裂音を音データ58から選択または合成し、その破裂音を出力するための信号をヘッドホン16に出力し、ヘッドホン16から破裂音を出力させる。さらに、嗅覚ディスプレイ20から匂いを放出するための指示信号を生成し、コントローラ32に出力する。コントローラ32は、その指示信号に従って嗅覚ディスプレイ20を制御し、嗅覚ディスプレイ20から匂いを放出させる。ステップS13の処理が終了すると、全体処理を終了する。
次に、他の具体例として、図6に示すフロー図を参照して、仮想物体として提示される対象物がレモンである場合について説明する。この場合にも、図2に示したコンピュータ12のCPU38が、図6に示すフロー図に従って全体処理を実行する。なお、ステップS21−27の処理は、仮想物体がレモンであることを除いて、図5のステップS1−7の処理と同様であるので、説明は省略する。
図6を参照して、コンピュータ12のCPU38は、ステップS29において、ステップS27で算出した反力がレモンを変形させるための閾値以上かどうかを判別する。すなわち、レモンが変形するだけの外力がユーザからレモンに与えられたかどうかを判断する。なお、ここでは、レモンの変形をきっかけにして効果音および匂いを提示するために、レモンが変形を開始する反力の閾値と、効果音や匂いの提示を開始する反力の閾値とを同じに設定しているが、これらの閾値は、映像、音および匂いで別々に設定してもかまわない。
ステップS29で“NO”の場合、すなわち反力がレモンを変形させるための閾値以内の場合には、ステップS31に進む。ステップS31では、操作部30に反力を与える。すなわち、算出した反力で動作するための信号を触覚デバイス18に出力し、触覚デバイス18の操作部30からユーザに反力を与える。ステップS31の処理が終了するとステップS23に戻る。
一方、ステップS29で“YES”の場合、すなわち反力がレモンを変形させるための閾値を超える場合には、ステップS33に進む。ステップS33では、レモンを変形させると共に、操作部30に反力を与え、効果音を出力し、反力の大きさに比例した強さの匂いを提示する。すなわち、変形したレモンの立体映像を表示するための信号を3次元モニタ14に出力し、算出した反力で動作するための信号を触覚デバイス18に出力し、効果音を出力するための信号をヘッドホン16に出力する。また、反力の大きさに比例させて(或いは段階的に)匂いの強弱(たとえば送風ファンの風量の強弱によって調整)を決定し、その強さの匂いを提示するための指示信号を生成してコントローラ32に出力する。また、匂いの強弱と共に、または代わりに、反力の大きさに比例させて匂いを提示する時間の長短を決定し、その時間の長さだけ匂いを提示するための指示信号を生成してコントローラ32に出力するようにしてもよい。なお、効果音を出力するときにも、反力の大きさに比例させて音量或いは音の種類を変化させるようにしてもよい。ステップS33の処理が終了するとステップS23に戻る。
この実施例によれば、視覚情報に対してユーザが働きかけることで提示される触覚情報と連動させて、聴覚情報および嗅覚情報を提示する、つまり4つの感覚情報を緊密に連携させてユーザに提示するので、仮想物体に対するより高い臨場感や現実感をユーザに与えることができ、リアルなバーチャル環境を形成できる。特に、触覚情報と連動させて嗅覚情報を提示する、つまりユーザの能動的な動作に伴って匂いを提示するので、ユーザは匂いを意識し易くなり、匂いによって臨場感を高める効果がより有効なものとなる。したがって、この実施例のシステム10は、能動的な操作によって効率的な教育が可能な環境、たとえば、博物館における重要文化財に触れる疑似体験や、危険な機器操作訓練用のシミュレータに好適に利用できる。
なお、上述の実施例では、4つの感覚情報を統合してユーザに提示するようにしたが、対象物によっては、実空間において人が物理的に働きかけても(力を加えても)音が発生しないものもあるので、このような対象物を仮想物体とする場合には、音情報の提示を省略してもよい。ただし、実際には音が発生しない場合でも、効果音を付加することによって仮想物体に対する臨場感や現実感を高めることができる。また、実際に音が発生する場合であっても、実際の音とは異なる効果音を提示することもできる。
また、上述の実施例では、より高い臨場感や現実感をユーザに与えるために、視覚情報として仮想物体の立体映像を提示するようにしたが、平面映像(2D映像)をユーザに提示するようにしてもかまわない。
さらに、上述の実施例では、仮想物体からの反力が臨界値や閾値を超えたときに嗅覚ディスプレイから匂いを提示するようにしているが、これに限定されない。たとえば、反力が発生した時点、つまり仮想物体に操作部30(ユーザ)が触れるだけで匂いを提示することもできる。また、仮想物体を押すという動作ではなく、仮想物体をこするという動作に応じて匂いを提示するようにしてもよい。たとえば、仮想物体を激しくこすると仮想物体から火が出る映像を表示し、その火に合わせて匂いや音を提示するようなことが考えられる。
また、上述の実施例では、1つの仮想物体を3次元モニタ14に表示する場合を例示しているが、複数の仮想物体を同時に3次元モニタ14に表示することもできる。たとえば、大きさの異なる2つの風船を表示し、大きな風船を触ったときにはその反力は大きく、それを割ったときには大きな破裂音と強い匂いとを提示し、小さな風船を触ったときにはその反力は小さく、それを割ったときには小さな破裂音と弱い匂いとを提示するようなことが考えられる。
10 …多感覚インタラクションシステム
12 …コンピュータ
14 …3次元モニタ
16 …ヘッドホン
18 …触覚デバイス
20 …嗅覚ディスプレイ
30 …操作部
38 …コンピュータのCPU
40 …コンピュータのメモリ

Claims (6)

  1. 複数の感覚情報を統合して提示することによって、仮想物体が実在している感覚をユーザに与える多感覚インタラクションシステムであって、
    前記仮想物体の映像を提示する視覚情報提示手段、
    前記ユーザによる操作を受け付け、前記仮想物体の物性に応じた反力を提示する触覚情報提示手段、および
    前記反力が臨界値を超えたときに匂いを提示する嗅覚情報提示手段を備える、多感覚インタラクションシステム。
  2. 複数の感覚情報を統合して提示することによって、仮想物体が実在している感覚をユーザに与える多感覚インタラクションシステムであって、
    前記仮想物体の映像を提示する視覚情報提示手段、
    前記ユーザによる操作を受け付け、前記仮想物体の物性に応じた反力を提示する触覚情報提示手段、および
    前記反力に応じて匂いの強度および時間の長短の少なくとも一方を変えて匂いを提示する嗅覚情報提示手段を備える、多感覚インタラクションシステム。
  3. 前記視覚情報提示手段は、前記仮想物体の立体映像を提示する、請求項1または2記載の多感覚インタラクションシステム。
  4. 前記反力に応じて音を提示する聴覚情報提示手段をさらに備える、請求項1ないし3のいずれかに記載の多感覚インタラクションシステム。
  5. 前記視覚情報提示手段は、前記反力に応じて前記仮想物体の形状を変化させて提示し、
    前記嗅覚情報提示手段は、前記仮想物体が形状変化したときに前記匂いを提示する、請求項1ないしのいずれかに記載の多感覚インタラクションシステム。
  6. 前記視覚情報提示手段は、前記匂いの発生を想起させる効果映像をさらに提示する、請求項1ないしのいずれかに記載の多感覚インタラクションシステム。
JP2009251845A 2009-11-02 2009-11-02 多感覚インタラクションシステム Expired - Fee Related JP5477740B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009251845A JP5477740B2 (ja) 2009-11-02 2009-11-02 多感覚インタラクションシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009251845A JP5477740B2 (ja) 2009-11-02 2009-11-02 多感覚インタラクションシステム

Publications (2)

Publication Number Publication Date
JP2011096171A JP2011096171A (ja) 2011-05-12
JP5477740B2 true JP5477740B2 (ja) 2014-04-23

Family

ID=44112979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009251845A Expired - Fee Related JP5477740B2 (ja) 2009-11-02 2009-11-02 多感覚インタラクションシステム

Country Status (1)

Country Link
JP (1) JP5477740B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5670255B2 (ja) 2011-05-27 2015-02-18 京セラ株式会社 表示機器
JP5864144B2 (ja) 2011-06-28 2016-02-17 京セラ株式会社 表示機器
JP5988141B2 (ja) * 2012-06-08 2016-09-07 国立大学法人電気通信大学 携帯端末セット、携帯端末用ジャケット、携帯端末、情報処理システム、およびプログラム
JP6012068B2 (ja) * 2012-08-28 2016-10-25 日本電気株式会社 電子機器、その制御方法及びプログラム
JP6032669B2 (ja) * 2012-11-30 2016-11-30 国立大学法人広島大学 力覚提示システム
JP5950847B2 (ja) * 2013-02-19 2016-07-13 株式会社Nttドコモ 表示装置
JP2015109092A (ja) * 2014-12-17 2015-06-11 京セラ株式会社 表示機器
WO2017061178A1 (ja) * 2015-10-05 2017-04-13 アルプス電気株式会社 触覚再現装置
US10532278B2 (en) * 2015-11-30 2020-01-14 Sony Interactive Entertainment Inc. Information processing device and method for presenting odors to a user
US10031580B2 (en) * 2016-01-13 2018-07-24 Immersion Corporation Systems and methods for haptically-enabled neural interfaces
JP6778227B2 (ja) * 2018-03-05 2020-10-28 株式会社スクウェア・エニックス 映像表示システム、映像表示方法及び映像表示プログラム
JP7377615B2 (ja) * 2019-03-27 2023-11-10 株式会社Subaru 車両の非接触操作装置、および車両
KR20200141764A (ko) 2019-06-11 2020-12-21 엘지디스플레이 주식회사 전자장치
CN110347254B (zh) * 2019-07-03 2023-04-07 小井峪国际文化艺术交易中心(山西)有限公司 基于4d模拟技术的文化展示系统
JP7252866B2 (ja) * 2019-09-10 2023-04-05 株式会社東海理化電機製作所 制御装置、制御方法、及びプログラム
JP7264844B2 (ja) * 2020-03-09 2023-04-25 Kddi株式会社 力覚提示システム、制御装置及びプログラム
JPWO2022180770A1 (ja) * 2021-02-26 2022-09-01
WO2022230264A1 (ja) * 2021-04-26 2022-11-03 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2023153232A1 (ja) * 2022-02-08 2023-08-17 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
JP2023148851A (ja) * 2022-03-30 2023-10-13 株式会社栗本鐵工所 制御装置、制御方法、触覚提示システム及びコンピュータプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0869449A (ja) * 1994-08-26 1996-03-12 Matsushita Electric Works Ltd 3次元物体の体感シミュレーション装置
JP2000035973A (ja) * 1996-06-11 2000-02-02 Masanobu Kujirada 遠隔匂い発生システム
JPH10153946A (ja) * 1996-11-25 1998-06-09 Mitsubishi Electric Corp 感覚情報提示装置
JP2000207578A (ja) * 1998-11-09 2000-07-28 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2000250688A (ja) * 1999-02-25 2000-09-14 Atsushi Matsushita 実感可能な仮想空間システム
JP2001349739A (ja) * 2000-06-06 2001-12-21 Denso Corp 車載用案内装置
WO2005066918A1 (ja) * 2003-12-26 2005-07-21 Seijiro Tomita シミュレーション装置及びシミュレーション装置のデータ授受方法
JP4677633B2 (ja) * 2005-09-09 2011-04-27 学校法人東海大学 匂い提示システム
WO2009035100A1 (ja) * 2007-09-14 2009-03-19 National Institute Of Advanced Industrial Science And Technology バーチャルリアリティ環境生成装置及びコントローラ装置

Also Published As

Publication number Publication date
JP2011096171A (ja) 2011-05-12

Similar Documents

Publication Publication Date Title
JP5477740B2 (ja) 多感覚インタラクションシステム
JP6840702B2 (ja) 触覚装置における3次元レリーフのための摩擦変調
Ihemedu-Steinke et al. Virtual reality driving simulator based on head-mounted displays
Coburn et al. A review of the capabilities of current low-cost virtual reality technology and its potential to enhance the design process
US9619034B2 (en) Overlaying of haptic effects
Kovács et al. Application of immersive technologies for education: State of the art
US20050248549A1 (en) Hand-held haptic stylus
JP4736771B2 (ja) 効果音生成装置及び効果音生成方法、並びにコンピュータ・プログラム
CN106445157B (zh) 一种画面显示方向调整的方法以及装置
JP6670361B2 (ja) レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェース、および/またはレンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースをレンダリングする方法
Peiris et al. LiquidReality: wetness sensations on the face for virtual reality
JP2019519856A (ja) マルチモーダルハプティック効果
Avanzini et al. Integrating physically based sound models in a multimodal rendering architecture
Seibert An exploratory study on virtual reality head mounted displays and their impact on player presence
Tominaga et al. " Friend Park"-expression of the wind and the scent on virtual space
Johnsor et al. Shapes: A multi-sensory environment for the B/VI and hearing impaired community
Larsson et al. On the quality of experience: A multi-modal approach to perceptual ego-motion and sensed presence in virtual environments
JP2000047565A (ja) 物体の接触感シミュレーション装置
Arnab et al. Touching artefacts in an ancient world on a browser-based platform
Fernandez “Through the looking glass: envisioning new library technologies” an experience you can feel: haptic technology
Kim Multimodal Interaction with Mid-Air Haptics
WO2023105706A1 (ja) 触覚提示デバイスおよび制御方法
CN117101118A (zh) 基于交互控制器的交互方法、装置和计算机设备
Bhoi et al. Holographic Interaction with Ultra Haptics Technology
Bordegoni et al. Multisensory Interaction in eXtended Reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140131

R150 Certificate of patent or registration of utility model

Ref document number: 5477740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees