JP2017182495A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2017182495A
JP2017182495A JP2016069360A JP2016069360A JP2017182495A JP 2017182495 A JP2017182495 A JP 2017182495A JP 2016069360 A JP2016069360 A JP 2016069360A JP 2016069360 A JP2016069360 A JP 2016069360A JP 2017182495 A JP2017182495 A JP 2017182495A
Authority
JP
Japan
Prior art keywords
virtual
information
tactile
information processing
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016069360A
Other languages
English (en)
Inventor
昌一 浮田
Shoichi Ukita
昌一 浮田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016069360A priority Critical patent/JP2017182495A/ja
Priority to DE112017001781.5T priority patent/DE112017001781T5/de
Priority to PCT/JP2017/002601 priority patent/WO2017169040A1/en
Priority to CN201780009558.8A priority patent/CN108604130A/zh
Priority to US16/087,018 priority patent/US20190094972A1/en
Publication of JP2017182495A publication Critical patent/JP2017182495A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】触覚をより精度良く呈示することが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提案する。
【解決手段】実空間内における操作体の動きに応じて仮想空間内において移動される基準の、前記仮想空間内の第1の仮想オブジェクトに対する相対的な移動方向に基づいて、ユーザへ知覚させる触覚を示す触覚情報を生成する生成部と、触覚呈示を行う触覚呈示装置によって前記ユーザへ前記触覚を知覚させるための触覚呈示情報を出力する出力部と、を備える、情報処理装置を提供する。
【選択図】図3

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
近年、仮想現実等の分野において、仮想空間において現実感を伴う感覚をユーザへ呈示する技術が提案されている。例えば、仮想空間においてユーザが仮想物体に触れたときの触覚をユーザへ呈示する技術が提案されている。
例えば、特許文献1には、皮膚感覚のフィードバックを可能とすることのできる3次元空間座標入力装置を得るために、仮想物体表面の摩擦係数値を示す皮膚感覚生成用データを用いて、3次元情報入出力デバイスへの触覚呈示の制御量を演算し、3次元情報入出力デバイスは、触覚呈示を帯電量の制御で行うようにした技術が開示されている。
特開2013−114323号公報
しかしながら、触覚呈示に関する分野において、触覚をより精度良く呈示することが望ましいと考えられる。
そこで、本開示では、触覚をより精度良く呈示することが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提案する。
本開示によれば、実空間内における操作体の動きに応じて仮想空間内において移動される基準の、前記仮想空間内の第1の仮想オブジェクトに対する相対的な移動方向に基づいて、ユーザへ知覚させる触覚を示す触覚情報を生成する生成部と、触覚呈示を行う触覚呈示装置によって前記ユーザへ前記触覚を知覚させるための触覚呈示情報を出力する出力部と、を備える、情報処理装置が提供される。
また、本開示によれば、実空間内における操作体の動きに応じて仮想空間内において移動される基準の、前記仮想空間内の第1の仮想オブジェクトに対する相対的な移動方向に基づいて、ユーザへ知覚させる触覚を示す触覚情報を、情報処理装置によって、生成することと、触覚呈示を行う触覚呈示装置によって前記ユーザへ前記触覚を知覚させるための触覚呈示情報を出力することと、を含む情報処理方法が提供される。
また、本開示によれば、コンピュータシステムを、実空間内における操作体の動きに応じて仮想空間内において移動される基準の、前記仮想空間内の第1の仮想オブジェクトに対する相対的な移動方向に基づいて、ユーザへ知覚させる触覚を示す触覚情報を生成する生成部と、触覚呈示を行う触覚呈示装置によって前記ユーザへ前記触覚を知覚させるための触覚呈示情報を出力する出力部と、として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、触覚をより精度良く呈示することが可能である。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は上記の効果に代えて、本明細書に示されたいずれかの効果又は本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る仮想空間呈示システムのシステム構成の一例を示す説明図である。 同実施形態に係る触覚呈示装置の他の例を示す説明図である。 同実施形態に係る情報処理装置及び触覚呈示装置の機能構成の一例を示す説明図である。 ヘッドマウントディスプレイによる画像の表示の一例を示す説明図である。 各種触覚受容器について説明するための説明図である。 同実施形態に係るデータテーブル形式で表わした関数ライブラリの一例を示す説明図である。 同実施形態に係る情報処理装置が行う処理の流れの一例を示すフローチャートである。 同実施形態に係る情報処理装置が行う駆動情報生成処理の流れの一例を示すフローチャートである。 同実施形態に係る触覚呈示装置が行う処理の流れの一例を示すフローチャートである。 仮想空間における仮想手により把持された仮想棒と被接触物との接触について説明するための説明図である。 第1の変形例に係る仮想空間呈示システムのシステム構成の一例を示す説明図である。 第2の変形例に係る仮想空間呈示システムのシステム構成の一例を示す説明図である。 第3の変形例に係る仮想空間呈示システムのシステム構成の一例を示す説明図である。 第4の変形例に係る仮想空間呈示システムのシステム構成の一例を示す説明図である。 本開示に係る情報処理装置のハードウェア構成の一例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.仮想空間呈示システム
2.機能構成
3.動作
4.応用例
5.変形例
6.ハードウェア構成
7.まとめ
<1.仮想空間呈示システム>
まず、図1及び図2を参照して本実施形態に係る仮想空間呈示システム1について説明する。図1は、本開示の実施形態に係る仮想空間呈示システム1のシステム構成の一例を示す説明図である。図1に示したように、仮想空間呈示システム1は、情報処理装置2と、触覚呈示装置4と、位置姿勢検出装置6と、ヘッドフォン8と、ヘッドマウントディスプレイ10と、を含む。仮想空間呈示システム1は、ユーザへ仮想空間を呈示するシステムの一例である。具体的には、仮想空間呈示システム1は、現実感を伴う仮想的な世界(以下、仮想世界とも呼ぶ。)をユーザへ提供する仮想現実と称される技術を利用するシステムである。
ヘッドマウントディスプレイ10は、画像を表示する表示装置の一例である。ヘッドマウントディスプレイ10は、仮想世界の中にいる感覚を視覚的にユーザへ呈示するために用いられる。具体的には、ヘッドマウントディスプレイ10は、ユーザの頭部に装着された状態で利用される。ヘッドマウントディスプレイ10は、情報処理装置2から送信される動作指示に基づいて仮想空間における各オブジェクトを示す画像を表示する。ヘッドマウントディスプレイ10と情報処理装置2とは、有線又は無線で通信する。
また、ヘッドマウントディスプレイ10には、ヘッドマウントディスプレイ10を装着したユーザの頭の向きを検出するセンサが設けられてもよい。その場合には、当該センサによる検出結果は情報処理装置2へ送信され、情報処理装置2は、ユーザの頭の向きを示す情報に基づいた動作指示をヘッドマウントディスプレイ10へ出力する。それにより、情報処理装置2は、仮想世界の中での頭の向きに応じた画像を、ヘッドマウントディスプレイ10に表示させることができる。
ヘッドフォン8は、音声を出力する音声出力装置の一例である。ヘッドフォン8は、仮想世界の中にいる感覚を聴覚的にユーザへ呈示するために用いられる。具体的には、ヘッドフォン8は、ユーザの頭部に装着された状態で利用される。ヘッドフォン8は、情報処理装置2から送信される動作指示に基づいて仮想世界の中の音を表現するための音声を出力する。ヘッドフォン8と情報処理装置2とは、有線又は無線で通信する。
また、情報処理装置2は、ユーザの頭の向きを示す情報に基づいた動作指示をヘッドフォン8へ出力してもよい。それにより、情報処理装置2は、仮想世界の中での頭の向きに応じた音声を、ヘッドフォン8に出力させることができる。
触覚呈示装置4は、ユーザへの触覚呈示を行う装置である。触覚呈示装置4は、仮想世界の中にいる感覚を触覚的にユーザへ呈示するために用いられる。具体的には、触覚呈示装置4は、仮想空間においてユーザが仮想物体に触れたときの触覚をユーザへ呈示する。触覚呈示装置4は、ユーザの身体の一部(以下、部位とも称する。)に対して固定された状態で利用され、ユーザの部位の動きに応じて移動する。触覚呈示装置4は、例えば、図1に示したように、グローブ型であってもよい。その場合、触覚呈示装置4は、ユーザの手に装着された状態で利用され、ユーザの手の動きに応じて移動する。触覚呈示装置4は、情報処理装置2から送信される動作指示に基づいて、ユーザへ触覚として振動を知覚させることにより触覚呈示を行う。例えば、触覚呈示装置4は、振動子を備え、当該振動子の振動を、ユーザの皮膚に伝えることにより触覚呈示を行う。具体的には、触覚呈示装置4は、当該振動子の振動を発生させることにより、ユーザの上記部位へ振動を伝えることによって、ユーザへ振動を知覚させる。触覚呈示装置4と情報処理装置2とは、有線又は無線で通信する。
なお、触覚呈示装置4は、ユーザへの触覚呈示を行うことができれば、他の構成であってもよい。例えば、図2に示したペン型の触覚呈示装置4aが仮想空間呈示システム1に適用されてもよい。触覚呈示装置4aは、図2に示したように、ユーザの手に把持された状態で利用され、ユーザの手の動きに応じて移動する。
図1に示した位置姿勢検出装置6は、実空間内における触覚呈示装置4の位置及び姿勢を検出し、検出結果を情報処理装置2へ送信する。位置姿勢検出装置6は、撮像素子を備え、撮像処理によって得られた画像から触覚呈示装置4の位置及び姿勢を検出してもよい。位置姿勢検出装置6は、例えば、撮像処理によって得られた画像から触覚呈示装置4の特定の部分を認識し、得られた画像における当該部分の位置及び大きさに基づいて、実空間内における位置を算出してもよい。なお、撮像処理に用いる撮像素子は、可視光を受光可能な撮像素子の他、可視光領域外の波長を有する赤外線又は紫外線等の電磁波を受光可能な撮像素子であってもよい。触覚呈示装置4と情報処理装置2とは、有線又は無線で通信する。
情報処理装置2は、仮想世界の中にいる感覚をユーザへ呈示するために、ヘッドマウントディスプレイ10、ヘッドフォン8及び触覚呈示装置4のそれぞれへ動作指示を送信する。情報処理装置2は、仮想空間に関する情報に基づいた各種動作指示を各装置へ送信する。仮想空間に関する情報は、仮想空間内における各オブジェクトに関する情報、仮想空間内における仮想音源に関する情報を含む。情報処理装置2による各種動作指示の送信のために用いられる仮想空間に関する情報は、情報処理装置2の記憶素子に予め記憶されていてもよく、情報処理装置2と異なる他の装置から情報処理装置2へ送信されてもよい。
情報処理装置2は、実空間内における操作体としてのユーザの部位の動きに応じて、当該部位に対応する座標等の基準が仮想空間内において移動するように、各種処理を行う。具体的には、情報処理装置2は、当該基準に基づいて、仮想部位をヘッドマウントディスプレイ10に表示させてもよい。その場合、情報処理装置2は、実空間内におけるユーザの部位の動きに応じて、仮想空間内において当該部位に対応するオブジェクトである仮想部位が移動するように、各種処理を行う。仮想部位は、実空間内におけるユーザの部位の動きに応じて仮想空間内において移動される基準に基づいて表示される本開示に係る第2の仮想オブジェクトの一例である。具体的には、情報処理装置2は、位置姿勢検出装置6から送信される実空間内における触覚呈示装置4の位置及び姿勢を示す情報に基づいて、実空間内におけるユーザの手に対応する仮想空間内における仮想手が移動するように、各種処理を行う。例えば、情報処理装置2は、実空間内におけるユーザの手の動きに応じて、ヘッドマウントディスプレイ10による仮想手の表示位置を移動させる。また、情報処理装置2は、例えば、仮想空間内において仮想手が他のオブジェクトである被接触物と接触したときに、ユーザへ知覚させる触覚を示す触覚情報を生成し、触覚呈示装置4によってユーザへ当該触覚を知覚させるための触覚呈示情報を触覚呈示装置4へ送信してもよい。それにより、触覚呈示装置4によってユーザへの触覚呈示が行われる。当該被接触物は、仮想空間内において第2の仮想オブジェクトと接触する本開示に係る第1の仮想オブジェクトの一例である。
本実施形態に係る情報処理装置2は、実空間における操作体の動きに応じて仮想空間内において移動される基準の、仮想空間内の被接触物に対する相対的な移動方向に基づいて、ユーザへ知覚させる触覚を示す触覚情報を生成する。それにより、当該基準の被接触物に対する相対的な移動方向に応じて適切な触覚をユーザへ知覚させることができる。ゆえに、触覚をより精度良く呈示することが可能となる。以下の説明では、主として本実施形態に係る情報処理装置2について、より詳細に説明する。また、以下の説明では、情報処理装置2が、ユーザへ知覚させる触覚としての振動を示す振動情報を触覚情報として生成し、触覚呈示装置4によってユーザへ当該振動を知覚させるための触覚呈示情報を触覚呈示装置4へ送信する例について、主に説明する。
<2.機能構成>
続いて、本実施形態に係る情報処理装置2の機能構成の一例について、触覚呈示装置4の機能構成の一例と合わせて説明する。図3は、本実施形態に係る情報処理装置2及び触覚呈示装置4の機能構成の一例を示す説明図である。
[情報処理装置]
まず、情報処理装置2の機能構成の一例について説明する。図3に示したように、情報処理装置2は、通信部202と、関数記憶部204と、仮想位置姿勢算出部206と、判定部208と、生成部210と、音声出力制御部212と、表示制御部214と、を備える。
(通信部)
通信部202は、情報処理装置2の外部の装置と通信する。具体的には、通信部202は、実空間内における触覚呈示装置4の位置及び姿勢を示す情報を位置姿勢検出装置6から受信し、仮想位置姿勢算出部206へ出力する。また、通信部202は、音声出力制御部212及び表示制御部214から出力された各種動作指示をそれぞれヘッドフォン8及びヘッドマウントディスプレイ10へ送信する。また、通信部202は、ユーザの頭の向きを示す情報をヘッドマウントディスプレイ10から受信した場合には、当該情報を音声出力制御部212及び表示制御部214へ出力する。
また、通信部202は、触覚呈示装置4によってユーザへ振動を知覚させるための触覚呈示情報を出力する出力部としての機能を有する。具体的には、通信部202は、生成部210によって生成されたユーザへ知覚させる振動を示す振動情報を、触覚呈示情報として、触覚呈示装置4へ送信する。なお、生成部210によって生成される振動情報の詳細については、後述する。
(関数記憶部)
関数記憶部204は、生成部210における振動情報の生成処理のために参照されるデータを記憶する。具体的には、関数記憶部204は、振動情報を生成するための関数の候補の集合である関数ライブラリを記憶する。当該関数の候補は、各材質を示す情報と紐付けられて記憶される。なお、関数ライブラリの詳細については、後述する。また、関数記憶部204は、情報処理装置2における各種処理のために参照される他のデータを記憶してもよい。
(仮想位置姿勢算出部)
仮想位置姿勢算出部206は、実空間内におけるユーザの部位の動きに応じて仮想空間内において移動する仮想部位の位置及び姿勢を算出し、判定部208、生成部210、音声出力制御部212及び表示制御部214へ出力する。具体的には、情報処理装置2は、位置姿勢検出装置6から送信される実空間内における触覚呈示装置4の位置及び姿勢を示す情報に基づいて、仮想空間内における仮想部位である仮想手の位置及び姿勢を算出する。算出された仮想空間内における仮想部位である仮想手の位置及び姿勢は、実空間内におけるユーザの部位の動きに応じて仮想空間内において移動される基準に相当する。
(表示制御部)
表示制御部214は、ヘッドマウントディスプレイ10による画像の表示を制御する。具体的には、表示制御部214は、通信部202によるヘッドマウントディスプレイ10への動作指示の送信を制御することによって、ヘッドマウントディスプレイ10による画像の表示を制御する。表示制御部214は、例えば、仮想空間内における各オブジェクトに関する情報に基づいて、ヘッドマウントディスプレイ10による各オブジェクトを示す画像の表示を制御してもよい。ここで、仮想空間内における各オブジェクトに関する情報は、例えば、各オブジェクトの位置を示す情報、各オブジェクトの形状を示す情報、各オブジェクトの表面の質感を示す情報及び各オブジェクトの表面の色を示す情報のうち少なくとも1つを含んでもよい。また、表示制御部214は、実空間内におけるユーザの部位の動きに応じて仮想空間内において移動される基準に基づいて、仮想部位をヘッドマウントディスプレイ10に表示させてもよい。具体的には、表示制御部214は、算出された仮想空間内における仮想部位である仮想手の位置及び姿勢に基づいて、仮想手をヘッドマウントディスプレイ10に表示させてもよい。
図4は、ヘッドマウントディスプレイ10による画像の表示の一例を示す説明図である。図4には、実空間内におけるユーザの手の動きに応じて仮想空間内において移動する仮想手B10及び被接触物である仮想猫B22が表示されている。表示制御部214は、仮想位置姿勢算出部206により算出された仮想手B10の位置及び姿勢を示す情報に応じて、仮想手B10の表示位置を移動させる。なお、表示制御部214は、ユーザの頭の向きを示す情報に基づいて、ヘッドマウントディスプレイ10による画像の表示を制御してもよい。
(音声出力制御部)
図3に示した音声出力制御部212は、ヘッドフォン8による音声出力を制御する。具体的には、音声出力制御部212は、通信部202によるヘッドフォン8への動作指示の送信を制御することによって、ヘッドフォン8による音声出力を制御する。音声出力制御部212は、例えば、仮想空間内における仮想音源に関する情報に基づいて、ヘッドフォン8による音声出力を制御してもよい。具体的には、音声出力制御部212は、仮想空間内における仮想音源の位置に応じて、ヘッドフォン8による音声出力におけるユーザの右耳側の音量と左耳側の音量とのバランスを変化させてもよく、ユーザの右耳側の音量及び左耳側の音量の双方を増大又は減少させてもよい。なお、音声出力制御部212は、ユーザの頭の向きを示す情報に基づいて、ヘッドフォン8による音声出力を制御してもよい。
(判定部)
判定部208は、仮想空間において仮想部位と被接触物とが接触したか否かを判定し、判定結果を生成部210へ出力する。具体的には、判定部208は、仮想位置姿勢算出部206により算出された仮想部位の位置及び姿勢と、被接触物の位置及び姿勢との関係性に基づいて、仮想部位と被接触物とが接触したか否かを判定する。例えば、判定部208は、図4に示した仮想手B10の一部と仮想猫B22の一部が重畳した場合に、仮想手B10と仮想猫B22とが接触したと判定する。
(生成部)
生成部210は、ユーザへ知覚させる触覚を示す触覚情報を生成する。例えば、生成部210は、仮想部位と被接触物とが接触したときに、ユーザへ知覚させる振動を示す振動情報を生成する。具体的には、生成部210は、判定部208により仮想空間において仮想部位と被接触物とが接触したと判定された場合に、振動情報を生成する。生成された振動情報は、通信部202へ出力され、通信部202により触覚呈示装置4へ送信される。振動情報は、時間周波数及び空間周波数と振幅の関係性を示す情報を含んでもよい。以下、係る振動情報について説明する。
人が触覚として知覚する振動の周波数特性は、時間周波数及び空間周波数の2つの周波数によって表現し得る。時間周波数は、振動の時間的な変化の周期に対応する周波数である。空間周波数は、振動が検知される皮膚表面において振動が生じる箇所の空間的な密度に相当する値である。人の皮膚の表層部には、刺激を検知する触覚受容器であるマイスナー小体(FAI)、パチニ小体(FAII)、メルケル小体(SAI)及びルフィニ終末(SAII)がある。これらの各受容器による刺激の検知結果に応じた触覚が人によって感じられる。
ここで、各受容器が検知可能な振動の周波数特性は、図5に示すように、互いに異なる。図5では、各受容器についての検知可能な時間周波数及び空間周波数の範囲が示されている。図5に示したように、受容器の皮膚表面からの深さが浅いほど、検知可能な空間周波数は高い。皮膚表面において振動が生じた場合、各受容器が検知可能な時間周波数及び空間周波数における振幅の値が当該各受容器による検知量に対応する。例えば、時間周波数が低く、かつ、空間周波数が高い周波数特性における振幅の値とメルケル小体による検知量が対応し、時間周波数が高く、かつ、空間周波数が低い周波数特性における振幅の値とパチニ小体による検知量が対応する。
ゆえに、ユーザへ振動を知覚させることによって触覚呈示を行う場合において、ユーザへ知覚させる振動の時間周波数及び空間周波数と振幅の関係性に応じた触覚がユーザによって感じられる。仮想空間呈示システム1では、触覚呈示装置4は、具体的には、生成部210によって生成された時間周波数及び空間周波数と振幅の関係性を示す情報に対応する振動をユーザへ知覚させることにより触覚呈示を行う。従って、生成部210によって生成される時間周波数及び空間周波数と振幅の関係性を示す情報に応じた触覚がユーザへ呈示される。以下、生成部210による振動情報の生成について、より詳細に説明する。
生成部210は、被接触物の仮想部位と接触したと判断される部分の特性を示す情報に基づいて、振動情報を生成してもよい。例えば、生成部210は、被接触物の仮想部位と接触したと判断される部分の仮想的な材質を示す情報に基づいて、振動情報を生成してもよい。具体的には、生成部210は、関数記憶部204に記憶される関数ライブラリから、被接触物の仮想部位と接触したと判断される部分の仮想的な材質を示す情報と紐付けられた関数を検索し、検索された関数を用いて、振動情報を生成する。上述の通り、関数ライブラリに含まれる関数の候補は、各材質を示す情報と紐付けられて記憶される。また、各オブジェクトの仮想的な材質を示す情報は予め設定されている。生成部210は、仮想位置姿勢算出部206により算出された仮想部位の位置及び姿勢、被接触物の位置及び姿勢、各オブジェクトの材質を示す情報に基づいて、被接触物の仮想部位と接触したと判断される部分の仮想的な材質を特定する。
図6は、データテーブル形式で表した関数ライブラリD10の一例を示す説明図である。図6に示したように、関数ライブラリD10では、各行において、材質を示す材質ラベルmと関数Rm(v、θ、p、T、h;f、k)とが紐付けられている。例えば、材質ラベル「厚紙(粗い)」及び関数R厚紙(粗い)(v、θ、p、T、h;f、k)、材質ラベル「厚紙(滑らか)」及び関数R厚紙(滑らか)(v、θ、p、T、h;f、k)、並びに、材質ラベル「薄紙(粗い)」及び関数R薄紙(粗い)(v、θ、p、T、h;f、k)、がそれぞれ紐付けられている。生成部210は、例えば、被接触物の仮想部位と接触したと判断される部分の仮想的な材質が木材(粗い)であった場合には、関数ライブラリD10から材質ラベル「木材(粗い)」と紐付けられた関数R木材(粗い)(v、θ、p、T、h;f、k)を検索する。仮想空間において各オブジェクトについて設定される仮想的な材質の種類は有限である場合が考えられる。ゆえに、上記のように、各材質を示す情報と紐付けられた関数の候補から検索された関数を用いて振動情報を生成することによって、振動情報の生成に用いられる情報の量を低減することができる。従って、メモリの使用量を節約することができる。なお、以下の説明では、関数Rm(v、θ、p、T、h;f、k)を関数Rとも呼ぶ。
関数Rは、各パラメータ、時間周波数f及び空間周波数kと振幅の関係性を規定する関数であり、生成部210は、関数Rに各パラメータを代入することによって、時間周波数f及び空間周波数kと振幅の関係性を示す応答関数r(f、k)を振動情報として生成する。各パラメータは、例えば、仮想部位と被接触物とが接触したときの、ユーザの部位に対応する仮想空間内の基準の被接触物に対する相対的な速度v、当該基準の被接触物に対する相対的な移動方向θ、仮想部位が被接触物へ与える仮想的な圧力p、被接触物の仮想部位と接触したと判断される部分の仮想的な温度T及び被接触物の仮想部位と接触したと判断される部分の仮想的な湿度hを含む。以上のように、生成部210は、速度v、移動方向θ、圧力p、温度T又は湿度hを示す情報に基づいて、応答関数r(f、k)を振動情報として生成してもよい。なお、応答関数r(f、k)の生成におけるパラメータには少なくとも移動方向θが含まれていればよく、速度v、圧力p、温度T及び湿度hの少なくとも1つは省略されてもよい。
物体に触れたときに感じる触覚は、上記各パラメータに依存して変化し得る。例えば、ゴム又は毛等の材質の物体についての触覚は、温度又は湿度に応じて変化しやすい。また、特に硬さが柔らかい材質の物体についての触覚は、当該物体に触れたときに当該物体へ与える圧力に応じて変化しやすい。また、物体へ触れる人の部位と当該物体の相対的な速度が大きいほど、当該物体の表面の細かい形状の差異を検知しにくい。以上のように、速度v、圧力p、温度T又は湿度hを示す情報に基づいて、振動情報を生成することによって、各パラメータに応じた触覚をより精度良く呈示することができる。
生成部210は、各パラメータのうち、速度v、移動方向θ及び圧力pを、仮想位置姿勢算出部206により算出された仮想部位の位置及び姿勢を示す情報に基づいて、算出する。ここで、生成部210は、例えば、仮想部位の表面の被接触物の内部側へ入り込んでいる距離又は仮想部位と被接触物とが重畳している領域の体積に応じて圧力pを算出してもよい。なお、生成部210は、圧力pとして、実空間におけるユーザの部位に生じている圧力を測定して得られる値を用いてもよい。例えば、加圧式タッチパネルを用いてユーザの指の動きが検出されるように構成される場合において、実空間におけるユーザの指に生じる圧力を、当該加圧式タッチパネルにより測定して得られる値を圧力pとして用いてもよい。
また、生成部210は、各パラメータのうち、温度T及び湿度hとして、仮想空間において予め設定されている値を用いてもよい。なお、生成部210は、仮想部位と接触した被接触物について温度又は湿度が設定されていない場合は、温度T又は湿度hとして、仮想空間における被接触物の周囲の環境について設定されている値を用いてもよい。また、生成部210は、温度T又は湿度hとして、固定値を用いてもよい。
本実施形態に係る生成部210は、実空間内における操作体の動きに応じて仮想空間内において移動される基準の、当該仮想空間内の第1の仮想オブジェクトに対する相対的な移動方向に基づいて、ユーザへ知覚させる触覚を示す触覚情報を生成する。具体的には、生成部210は、実空間内におけるユーザの部位の動きに応じて仮想空間内において移動される基準の、当該仮想空間内の被接触物に対する相対的な移動方向に基づいて、ユーザへ知覚させる振動を示す振動情報を生成する。また、生成部210は、被接触物と仮想部位が接触していると判断された状態で、上記基準の被接触物に対する相対的な移動方向に基づいて振動情報を生成してもよい。実空間における物体の表面形状は、異方性を有する場合がある。そのような場合には、当該物体の表面を触った時に感じる触覚は、当該物体と人の部位とが接触するときの人の部位の当該物体に対する相対的な移動方向によって異なる場合がある。ゆえに、実空間内におけるユーザの部位の動きに応じて仮想空間内において移動される基準の、当該仮想空間内の被接触物に対する相対的な移動方向に基づいて、ユーザへ知覚させる振動を示す振動情報を生成することによって、触覚をより精度良く呈示することができる。
例えば、図4に示した仮想手B10と仮想猫B22とが接触していると判断されたときの仮想手B10に対応する基準の仮想猫B22に対する相対的な移動方向が方向C12であった場合と、方向C12と異なる方向C14であった場合とで、生成部210は、異なる振動情報を生成してもよい。実空間における猫の表面には毛が生えている場合があるので、猫の表面形状は異方性を有し得る。よって、仮想手B10に対応する基準の仮想猫B22に対する相対的な移動方向に基づいて、振動情報を生成することによって、猫を触った時に感じる触覚をより精度良く呈示することができる。
また、生成部210は、仮想部位に対応する基準の被接触物に対する相対的な移動方向が第1の方向である場合と、当該第1の方向とは略逆方向の第2の方向である場合と、で異なる振動情報を生成してもよい。例えば、図4に示した仮想手B10と仮想猫B22とが接触したと判断されたときの仮想手B10に対応する基準の仮想猫B22に対する相対的な移動方向が方向C12であった場合と、方向12とは略逆方向の方向C16であった場合とで、生成部210は、異なる振動情報を生成してもよい。実空間における猫の表面には毛が一方向に沿って生えている場合がある。毛の生える方向に沿って手を動かしながら猫の表面を触る場合において、手を動かす方向が互いに逆方向である場合には、異なった触覚を感じる場合がある。具体的には、毛の根本から毛先へ向かう方向に手を動かす場合と、毛を逆立てる方向に手を動かす場合とで、異なった触覚を感じ得る。よって、仮想手B10に対応する基準の仮想猫B22に対する相対的な移動方向が方向C12であった場合と、方向C16であった場合と、で異なる振動情報を生成することによって、猫を触った時に感じる触覚をさらに精度良く呈示することができる。
生成部210は、ユーザの部位の発汗の度合いを示す情報に基づいて、振動情報を生成してもよい。その場合には、例えば、ユーザの部位の発汗量を検出するセンサが設けられ、当該センサから検出結果が情報処理装置2へ送信されるように構成され得る。生成部210は、当該センサから送信される発汗量を示す情報に基づいて、振動情報を生成する。また、生成部210は、ユーザの心拍数等の生体情報に基づいてユーザの部位の発汗量を推定し、推定された発汗量に基づいて振動情報を生成してもよい。その場合には、例えば、ユーザの心拍数等のバイタル情報を検出するセンサが設けられ、当該センサから検出結果が情報処理装置2へ送信されるように構成され得る。また、生成部210は、発汗量の推定において、撮像処理によって得られたユーザの顔の画像からユーザの表情又は目の動きを示す情報を抽出し、当該情報に基づいて、ユーザの部位の発汗量を推定してもよい。その場合には、例えば、ユーザの顔を撮像する撮像装置が設けられ、当該撮像装置からユーザの顔の画像を示す情報が情報処理装置2へ送信されるように構成され得る。以上のように、ユーザの部位の発汗の度合いを示す情報に基づいて、振動情報を生成することによって、ユーザの部位の発汗の度合いに応じた触覚をより精度良く呈示することができる。
また、生成部210は、関数の候補のうち仮想部位と接触する可能性を有する被接触物の仮想的な材質を示す情報と紐付けられた関数の候補から、関数を検索してもよい。生成部210は、例えば、仮想空間のシーンに応じて、仮想部位と接触する可能性を有する被接触物の仮想的な材質を特定してもよい。具体的には、生成部210は、仮想空間のシーンが森のシーンである場合に、木材を仮想部位と接触する可能性を有する被接触物の仮想的な材質として特定する。その場合には、生成部210は、図6に示した関数ライブラリD10のうち材質ラベル「木材(粗い)」及び「木材(滑らか)」にそれぞれ対応する関数R木材(粗い)(v、θ、p、T、h;f、k)及び関数R木材(滑らか)(v、θ、p、T、h;f、k)から関数を検索する。また、生成部210は、ヘッドマウントディスプレイ10に表示されているオブジェクトの仮想的な材質を仮想部位と接触する可能性を有する被接触物の仮想的な材質として特定してもよい。以上のように、関数の候補のうち仮想部位と接触する可能性を有する被接触物の仮想的な材質を示す情報と紐付けられた関数の候補から、関数を検索することによって、計算処理の負荷を低減することができる。
また、生成部210は、仮想部位の、被接触物と接触したと判断される部分の特性を示す情報に基づいて、振動情報を生成してもよい。例えば、生成部210は、仮想部位の、被接触物と接触したと判断される部分の仮想的な材質を示す情報に基づいて、振動情報を生成してもよい。例えば、生成部210は、関数ライブラリD10から、仮想部位の被接触物と接触したと判断される部分の仮想的な材質を示す情報と紐付けられた関数を検索し、検索された関数を用いて、振動情報を生成する。具体的には、生成部210は、関数ライブラリD10から、被接触物の仮想部位と接触したと判断される部分の仮想的な材質を示す情報と紐付けられた関数及び仮想部位の被接触物と接触したと判断される部分の仮想的な材質を示す情報と紐付けられた関数を、それぞれ検索する。そして、生成部210は、例えば、検索された2つの関数を乗じて得られる関数を用いて、振動情報を生成してもよい。それにより、仮想部位及び被接触物の仮想的な材質に基づいて、触覚をより精度良く呈示することができる。
[触覚呈示装置]
続いて、触覚呈示装置4の機能構成の一例について説明する。図3に示したように、触覚呈示装置4は、通信部408と、駆動信号算出部406と、振動制御部404と、振動部402と、を備える。
(通信部)
通信部408は、触覚呈示装置4の外部の装置と通信する。具体的には、通信部408は、情報処理装置2によって生成された応答関数r(f、k)を振動情報として情報処理装置2から受信し、駆動信号算出部406へ出力する。
(駆動信号算出部)
駆動信号算出部406は、通信部408から出力された振動情報に基づいて、振動情報が示す振動をユーザへ知覚させるために振動部402を駆動させるための駆動信号a(t)を算出し、振動制御部404へ出力する。具体的には、駆動信号算出部406は、情報処理装置2によって生成された応答関数r(f、k)に対応する振動を振動部402によって発生させるための駆動信号a(t)を算出する。算出される駆動信号a(t)は、具体的には、電流値又は電圧値を示す信号である。
(振動制御部)
振動制御部404は、振動部402の駆動を制御する。振動部402は、例えば、振動子を備え、振動制御部404は、振動情報としての応答関数r(f、k)に基づいて、当該振動子の振動を制御する。具体的には、振動制御部404は、駆動信号算出部406から出力された駆動信号a(t)に基づいて、振動部402の振動子の振動を制御する。振動制御部404による振動子の振動制御において、応答関数r(f、k)は振動子が発生する振動の、時間周波数又は振幅を制御するための情報として用いられる。換言すると、触覚呈示情報は、振動子が発生する振動の、時間周波数又は振幅を制御するための情報を含んでもよい。
(振動部)
振動部402は、振動制御部404からの動作指示に基づいて、振動を発生させることにより、ユーザへ当該振動を知覚させる。それにより、ユーザへの触覚呈示が行われる。振動部402は、具体的には、駆動信号a(t)に基づいて、情報処理装置2によって生成された応答関数r(f、k)に対応する振動を発生させる。当該機能は、例えば、ピエゾ素子、形状記憶合金素子、高分子アクチュエータ、空気圧アクチュエータ、静電アクチュエータ、超音波発生装置、偏心モータ、リニア・バイブレータ又はボイスコイルモータ等によって実現され得る。振動部402によって、ユーザへ振動を知覚させることによって、ユーザへの触覚呈示が行われる。なお、振動部402により発生可能な振動の空間周波数kが固定値である場合には、振動部402は、情報処理装置2によって生成された応答関数r(f、k)に当該固定値を代入して得られる時間周波数fと振幅の関係性を有する振動を発生させてもよい。
以上説明したように、本実施形態に係る情報処理装置2は、生成部210によって生成されたユーザへ知覚させる振動を示す振動情報である応答関数r(f、k)を、触覚呈示情報として、触覚呈示装置4へ送信する。そして、触覚呈示装置4は、応答関数r(f、k)に対応する振動を振動部402によって発生させるための駆動信号a(t)を算出し、応答関数r(f、k)に対応する振動を発生させる。触覚呈示装置4による振動を発生させる機能は上述したように様々な機構により実現され、応答関数r(f、k)に対応する振動を振動部402によって発生させるための駆動信号a(t)は利用される機構ごとに互いに異なる場合がある。ゆえに、触覚呈示装置4側で駆動信号a(t)を算出することによって、情報処理装置2による計算負荷の低減及びメモリ使用量の節約を実現することができる。また、互いに振動発生の機構が異なる触覚呈示装置4に同一の応答関数r(f、k)に対応する振動を発生させる場合に、情報処理装置2により送信される応答関数r(f、k)を共通化することができるので、使用する触覚呈示装置4の種類の変更に対して柔軟に対応することができる。
<3.動作>
続いて、本実施形態に係る情報処理装置2及び触覚呈示装置4が行う処理の流れについて説明する。
(情報処理装置が行う処理)
図7は、本実施形態に係る情報処理装置2が行う処理の流れの一例を示すフローチャートである。図7に示したように、まず、通信部202は、実空間内における触覚呈示装置4の位置及び姿勢を示す情報を位置姿勢検出装置6から受信し(ステップS102)、仮想位置姿勢算出部206へ出力する。次に、仮想位置姿勢算出部206は、位置姿勢検出装置6から送信される実空間内における触覚呈示装置4の位置及び姿勢を示す情報に基づいて、仮想空間内における仮想部位の位置及び姿勢を算出する(ステップS104)。そして、判定部208は、仮想空間において仮想部位と被接触物とが接触したか否かを判定する(ステップS106)。
判定部208により、仮想空間において仮想部位と被接触物とが接触したと判定されなかった場合(ステップS106/NO)、ステップS102の処理へ戻る。一方、判定部208により、仮想空間において仮想部位と被接触物とが接触したと判定された場合(ステップS106/YES)、生成部210は、仮想部位と被接触物とが接触したときに、ユーザへ知覚させる振動を示す振動情報として、応答関数r(f、k)を生成する(ステップS300)。そして、通信部202は、生成部によって生成された応答関数r(f、k)を、触覚呈示情報として、触覚呈示装置4へ送信し(ステップS108)、図7に示した処理は終了する。
図8は、図7における生成部210による駆動情報生成処理(ステップS300)の流れの一例を示すフローチャートである。ステップS300の処理において、生成部210は、仮想部位と被接触物とが接触したときの、仮想部位に対応する基準の被接触物に対する相対的な速度v、仮想部位に対応する基準の被接触物に対する相対的な移動方向θ及び仮想部位が被接触物へ与える仮想的な圧力pを算出する(ステップS302)。次に、生成部210は、関数記憶部204に記憶される関数ライブラリD10から、被接触物の仮想部位と接触したと判断される部分の仮想的な材質を示す材質ラベルmと紐付けられた関数Rm(v、θ、p、T、h;f、k)を検索する(ステップS304)。そして、生成部210は、関数Rに各パラメータを代入することによって、時間周波数f及び空間周波数kと振幅の関係性を示す応答関数r(f、k)を振動情報として生成し(ステップS306)、図8に示した処理は終了する。
(触覚呈示装置が行う処理)
図9は、本実施形態に係る触覚呈示装置4が行う処理の流れの一例を示すフローチャートである。図9に示したように、まず、通信部408は、情報処理装置2によって生成された応答関数r(f、k)を振動情報として情報処理装置2から受信し(ステップS501)、駆動信号算出部406へ出力する。次に、駆動信号算出部406は、通信部408から出力された応答関数r(f、k)に応じた振動を振動部402によって発生させるための駆動信号a(t)を算出する(ステップS502)。そして、駆動信号算出部406は、駆動信号a(t)を振動制御部404へ出力する(ステップS504)。次に、振動部402は、振動制御部404からの動作指示に基づいて振動を発生させることにより、駆動信号a(t)に基づくユーザへの触覚呈示を行い(ステップS506)、図9に示した処理は終了する。
<4.応用例>
上記では、実空間内におけるユーザの部位に対応する仮想空間内におけるオブジェクトである仮想部位と被接触物とが接触したときにユーザへ触覚呈示を行う例について説明したが、ユーザへの触覚呈示は他の場合においても行われてもよい。例えば、仮想空間において仮想部位の少なくとも一部と接触するオブジェクトである仮想接触物が実空間内におけるユーザの部位の動きに応じて移動する場合が想定される。仮想部位の少なくとも一部と仮想接触物とが接触する場合として、例えば、仮想部位により仮想接触物が把持される場合や仮想部位に仮想接触物が装着される場合等が挙げられる。このような場合において、当該仮想接触物が被接触物と接触したときに、ユーザへの触覚呈示が行われてもよい。以下、このように仮想部位と異なるオブジェクトを介して仮想部位と被接触物とが間接的に接触した場合にユーザへ触覚呈示を行う応用例について説明する。
ここで、実空間内におけるユーザの手に対応する仮想空間内におけるオブジェクトである仮想手によって、仮想手と異なるオブジェクトである仮想棒が把持される例について説明する。図10に示したように、仮想空間内において、仮想棒B30は、仮想手B10によりが把持されているので、仮想手B10の少なくとも一部と接触している。ここで、仮想棒B30は、実空間内におけるユーザの部位の動きに応じて仮想空間内において移動される基準に基づいて表示される本開示に係る第2の仮想オブジェクトの一例に相当する。また、被接触物B24は、仮想空間内において第2の仮想オブジェクトと接触する本開示に係る第1の仮想オブジェクトの一例に相当する。
応用例では、生成部210は、実空間内におけるユーザの部位の動きに応じて仮想空間内において移動する第2の仮想オブジェクトと第1の仮想オブジェクトとが接触したときに、仮想部位と第1の仮想オブジェクトの間に介在する、少なくとも第2の仮想オブジェクトを含む、介在物の仮想的な材質に基づいて、振動情報を生成する。図10に示した例では、仮想手B10と被接触物B24の間に仮想棒B30が介在しているので、生成部210は、介在物である仮想棒B30の仮想的な材質に基づいて振動情報を生成する。
生成部210は、例えば、応答関数r(f、k)の生成において、介在物の仮想的な硬さに応じて、応答関数r(f、k)を補正してもよい。具体的には、生成部210は、介在物の仮想的な硬さが柔らかいほど、時間周波数fの高周波領域の振幅を低減するように応答関数r(f、k)を補正してもよい。それにより、介在物が木のように柔らかい材質の物である場合には、介在物が金属のように硬い材質の物である場合と比較して、時間周波数の高周波成分を減衰させた振動をユーザへ知覚させることができる。ゆえに、触覚をより精度良く呈示することができる。
なお、関数記憶部204に記憶される関数ライブラリには、介在物の仮想的な材質を示す情報と紐付けられた関数が含まれてもよく、生成部210は、介在物の仮想的な材質を示す情報と紐付けられた関数を検索し、当該関数を用いることによって、応答関数r(f、k)を生成してもよい。このような関数ライブラリでは、例えば、図6を参照して示した被接触物に関する材質ラベルm及び介在物の仮想的な材質を示す材質ラベルnと関数Rmn(v、θ、p、T、h;f、k)とが紐付けられている。具体的には、被接触物に関する材質ラベル「厚紙(粗い)」、介在物に関する材質ラベル「木」及び関数R厚紙(粗い)、木(v、θ、p、T、h;f、k)が紐付けられている。
なお、被接触物と接触する第2の仮想オブジェクトは仮想部位の少なくとも一部と接触しなくともよく、第2の仮想オブジェクトと仮想部位の間にさらに介在物が介在してもよい。例えば、仮想手に仮想手袋が装着され、当該仮想手袋を介して仮想棒が把持された状態で、仮想棒と被接触物とが接触する場合には、第2の仮想オブジェクトに相当する仮想棒と仮想部位である仮想手の間に仮想手袋が介在する。ゆえに、仮想部位と被接触物との間には、仮想棒及び仮想手袋が介在する。係る場合において、生成部210は、仮想棒及び仮想手袋の仮想的な材質に基づいて振動情報を生成してもよい。このように、生成部210は、仮想部位と被接触物の間に介在する複数の介在物の仮想的な材質に基づいて振動情報を生成してもよい。
<5.変形例>
続いて、図11〜図14を参照して、各種変形例に係る仮想空間呈示システムについて説明する。
[第1の変形例]
図11は、第1の変形例に係る仮想空間呈示システム102のシステム構成の一例を示す説明図である。第1の変形例に係る仮想空間呈示システム102では、図3に示した本実施形態に係る仮想空間呈示システム1と比較して、情報処理装置2が触覚呈示装置4の振動部402を駆動させるための駆動信号a(t)を算出する点が異なる。
図11に示したように、第1の変形例に係る情報処理装置2は、駆動信号算出部250を備える。第1の変形例では、生成部210は、生成した振動情報を駆動信号算出部250へ出力する。そして、駆動信号算出部250は、生成部210から出力された振動情報に基づいて、振動情報が示す振動をユーザへ知覚させるために触覚呈示装置4の振動部402を駆動させるための駆動信号a(t)を算出し、通信部202へ出力する。通信部202は、駆動信号a(t)を、触覚呈示装置4によってユーザへ振動を知覚させるための触覚呈示情報として、触覚呈示装置4へ送信する。なお、図11に示したように、第1の変形例に係る触覚呈示装置4の構成から駆動信号算出部は省略され得る。
[第2の変形例]
図12は、第2の変形例に係る仮想空間呈示システム104のシステム構成の一例を示す説明図である。第2の変形例に係る仮想空間呈示システム104では、図3に示した本実施形態に係る仮想空間呈示システム1と比較して、触覚呈示装置4が実空間内における触覚呈示装置4の位置及び姿勢を検出し、検出結果を情報処理装置2へ送信する点が異なる。
図12に示したように、第2の変形例に係る触覚呈示装置4は、位置姿勢検出部450を備える。位置姿勢検出部450は、実空間内における触覚呈示装置4の位置及び姿勢を検出し、検出結果を通信部408へ出力する。そして、第2の変形例に係る通信部408は、当該検出結果を情報処理装置2へ送信する。なお、位置姿勢検出部450による触覚呈示装置4の位置及び姿勢の検出は、上述した本実施形態に係る位置姿勢検出装置6による触覚呈示装置4の位置及び姿勢の検出と同様に行われる。また、図12に示したように、第2の変形例に係る仮想空間呈示システム104の構成から位置姿勢検出装置は省略され得る。
[第3の変形例]
図13は、第3の変形例に係る仮想空間呈示システム106のシステム構成の一例を示す説明図である。第3の変形例に係る仮想空間呈示システム106では、図3に示した本実施形態に係る仮想空間呈示システム1と比較して、情報処理装置2の外部の装置である関数記憶装置50に関数ライブラリが記憶される点が異なる。
図13に示したように、第3の変形例に係る仮想空間呈示システム106は、関数記憶装置50を含む。関数記憶装置50は、振動情報を生成するための関数の候補の集合である関数ライブラリを記憶する。関数記憶装置50に記憶される関数ライブラリは、上述した本実施形態に係る関数記憶部204に記憶される関数ライブラリと同様である。第3の変形例では、情報処理装置2の通信部202は、関数記憶装置50と通信する。また、生成部210は、振動情報の生成において、通信部202を介して関数記憶装置50に記憶される関数ライブラリから、関数Rを検索する。なお、図13に示したように、第3の変形例に係る情報処理装置2の構成から関数記憶部は省略され得る。
[第4の変形例]
図14は、第4の変形例に係る仮想空間呈示システム108のシステム構成の一例を示す説明図である。第4の変形例に係る仮想空間呈示システム108では、図13に示した第3の変形例に係る仮想空間呈示システム106と比較して、情報処理装置2が外部の装置と情報ネットワークを介して通信する点が異なる。
図14に示したように、第4の変形例に係る仮想空間呈示システム108では、情報処理装置2は、触覚呈示装置4、関数記憶装置50、位置姿勢検出装置6、ヘッドフォン8及びヘッドマウントディスプレイ10とそれぞれ情報ネットワークN2、N4、N6、N8、N10を介して通信する。なお、情報処理装置2は、外部の装置の一部と情報ネットワークを介さずに通信してもよい。
<6.ハードウェア構成>
以上、本開示の実施形態を説明した。上述した情報処理装置2の処理は、ソフトウェアと、以下に説明する情報処理装置2のハードウェアとの協働により実現される。
図15は、本開示に係る情報処理装置2のハードウェア構成の一例を示す説明図である。図15に示したように、情報処理装置2は、CPU(Central Processing Unit)142と、ROM(Read Only Memory)144と、RAM(Random Access Memory)146と、ブリッジ148と、バス150と、インタフェース152と、入力装置154と、出力装置156と、ストレージ装置158と、ドライブ160と、接続ポート162と、通信装置164とを備える。
CPU142は、演算処理装置および制御装置として機能し、各種プログラムと協働して情報処理装置2内の各機能構成の動作を実現する。また、CPU142は、マイクロプロセッサであってもよい。ROM144は、CPU142が使用するプログラムまたは演算パラメータ等を記憶する。RAM146は、CPU142の実行において使用するプログラムまたは実行において適宜変化するパラメータ等を一時記憶する。CPU142、ROM144およびRAM146は、CPUバスなどから構成される内部バスにより相互に接続されている。
入力装置154は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどオペレータが情報を入力するための入力手段であり、オペレータによる入力に基づいて入力信号を生成し、CPU142に出力する入力制御回路などから構成されている。情報処理装置2のオペレータは、入力装置154を操作することにより、情報処理装置2に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置156は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプなどの装置への出力を行う。さらに、出力装置156は、スピーカおよびヘッドフォンなどの音声出力を行ってもよい。
ストレージ装置158は、データ格納用の装置である。ストレージ装置158は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置158は、CPU142が実行するプログラムや各種データを格納する。
ドライブ160は、記憶媒体用リーダライタであり、情報処理装置2に内蔵、あるいは外付けされる。ドライブ160は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM144に出力する。また、ドライブ160は、リムーバブル記憶媒体に情報を書込むこともできる。
接続ポート162は、例えば、情報処理装置2の外部の情報処理装置または周辺機器と接続するためのバスである。また、接続ポート162は、USB(Universal Serial Bus)であってもよい。
通信装置164は、例えば、ネットワークに接続するための通信デバイスで構成された通信インタフェースである。また、通信装置164は、赤外線通信対応装置であっても、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
なお、上述のような本実施形態に係る情報処理装置2の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。本実施形態に係る情報処理装置2は、本開示に係るコンピュータに相当し得る。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。また、本実施形態に係る情報処理装置2の各機能は複数のコンピュータにより分割されてもよく、その場合、当該複数のコンピュータが有する各機能は、上記のコンピュータプログラムにより実現され得る。当該複数のコンピュータ又は本実施形態に係る情報処理装置2の各機能を有する1のコンピュータは、本開示に係るコンピュータシステムに相当する。
<7.まとめ>
以上説明したように、本開示の実施形態によれば情報処理装置2は、実空間における操作体の動きに応じて仮想空間内において移動される基準の、仮想空間内の第1の仮想オブジェクトに対する相対的な移動方向に基づいて、ユーザへ知覚させる触覚を示す触覚情報を生成する。それにより、当該基準の第1の仮想オブジェクトに対する相対的な移動方向に応じて適切な触覚をユーザへ知覚させることができる。ゆえに、触覚をより精度良く呈示することが可能となる。
上記では、仮想現実を利用するシステムに情報処理装置2を適用した例について説明したが、本開示の技術的範囲は係る例に限定されない。例えば、本開示に係る情報処理装置2は、拡張現実にも適用し得る。
上記では、仮想空間における各オブジェクトを示す画像を表示する表示装置としてヘッドマウントディスプレイ10を用いる例について説明したが、本開示の技術的範囲は係る例に限定されない。例えば、頭部に装着しない状態で利用可能な表示装置が用いられてもよい。また、上記では、仮想世界の中の音を表現するための音声を出力する音声出力装置としてヘッドフォン8を用いる例について説明したが、本開示の技術的範囲は係る例に限定されない。例えば、頭部に装着しない状態で利用可能な音声出力装置が用いられてもよい。
上記では、生成部210は、仮想空間のシーンに応じて、仮想部位と接触する可能性を有する被接触物の仮想的な材質を特定する例について説明したが、本開示の技術的範囲は係る例に限定されない。例えば、生成部210は、現在の時刻に応じて、仮想部位と接触する可能性を有する被接触物の仮想的な材質を特定してもよい。また、生成部210は、現在のユーザの位置に応じて、仮想部位と接触する可能性を有する被接触物の仮想的な材質を特定してもよい。時刻又はユーザの位置に応じて仮想空間に存在するオブジェクトの種類が設定される場合が考えられるので、そのような場合に、仮想部位と接触する可能性を有する被接触物の仮想的な材質を適切に特定することができる。
上記では、位置姿勢検出装置6は、撮像処理によって得られた画像から触覚呈示装置4の位置及び姿勢を検出する例について説明したが、本開示の技術的範囲は係る例に限定されない。例えば、位置姿勢検出装置6は、電磁波又は音波を物体へ照射し、当該物体からの電磁波又は音波の反射波を検知する機構を備え、電磁波又は音波を照射した後反射波を検知するまでの時間に基づいて触覚呈示装置4の位置及び姿勢を検出してもよい。位置姿勢検出装置6は、例えば、電磁波又は音波の照射方向を逐次変更しながら照射及び反射波の検知を繰り返すことにより、触覚呈示装置4の可動領域内を走査することによって、触覚呈示装置4の位置及び姿勢を検出してもよい。
上記では、触覚呈示装置4は、振動子の振動を発生させることにより、ユーザへ振動を知覚させる例について説明したが、本開示の技術的範囲は係る例に限定されない。例えば、触覚呈示装置4は、振動制御部404からの動作指示に基づいて、電気的刺激をユーザへ与えることにより、ユーザへ振動を知覚させてもよい。
上記では、操作体としてユーザの部位を適用した例について説明したが、本開示の技術的範囲は係る例に限定されない。例えば、操作体として、スタイラス等の、ユーザにより用いられる操作用の部材が適用されてもよい。
上記では、情報処理装置2が、ユーザへ知覚させる触覚としての振動を示す振動情報を触覚情報として生成する例について説明したが、本開示の技術的範囲は係る例に限定されない。例えば、触覚として、振動の他に、電気的刺激、熱的な刺激、超音波による刺激等が適用されてもよい。情報処理装置2は、ユーザへ知覚させるこれらの触覚を示す触覚情報を生成し得る。
また、関数ライブラリに含まれる関数Rとして、各パラメータについての有限個の代表値、時間周波数fの有限個の代表値及び空間周波数kの有限個の代表値と振幅の関係性がデータテーブル形式で表現された情報が用いられてもよい。生成部210は、このようなデータテーブル形式で表現された情報において規定されていないパラメータ、時間周波数f又は空間周波数kについての振幅との関係性を補間により求めることによって、振動情報を生成してもよい。
なお、本明細書において説明した各装置による一連の制御処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体(非一時的な媒体:non-transitory media)に予め格納される。そして、各プログラムは、例えば、実行時にRAMに読み込まれ、CPUなどのプロセッサにより実行される。
また、本明細書においてフローチャートを用いて説明した処理は、必ずしもフローチャートに示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲は係る例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
実空間内における操作体の動きに応じて仮想空間内において移動される基準の、前記仮想空間内の第1の仮想オブジェクトに対する相対的な移動方向に基づいて、ユーザへ知覚させる触覚を示す触覚情報を生成する生成部と、
触覚呈示を行う触覚呈示装置によって前記ユーザへ前記触覚を知覚させるための触覚呈示情報を出力する出力部と、
を備える、情報処理装置。
(2)
前記基準に基づいて第2の仮想オブジェクトを表示させる表示制御部を備える、前記(1)に記載の情報処理装置。
(3)
前記生成部は、前記第1の仮想オブジェクトと、前記第2の仮想オブジェクトが接触していると判断された状態で、前記基準の前記第1の仮想オブジェクトに対する相対的な移動方向に基づいて前記触覚情報を生成する、前記(2)に記載の情報処理装置。
(4)
前記生成部は、前記基準の前記第1の仮想オブジェクトに対する相対的な移動方向が第1の方向である場合と、前記第1の方向とは略逆方向の第2の方向である場合と、で異なる前記触覚情報を生成する、前記(3)に記載の情報処理装置。
(5)
前記生成部は、前記第1の仮想オブジェクトの、前記第2の仮想オブジェクトと接触したと判断される部分の特性を示す情報に基づいて、前記触覚情報を生成する、前記(3)又は(4)に記載の情報処理装置。
(6)
前記生成部は、前記第1の仮想オブジェクトの、前記第2の仮想オブジェクトと接触したと判断される部分の仮想的な材質を示す情報に基づいて、前記触覚情報を生成する、前記(5)に記載の情報処理装置。
(7)
前記生成部は、前記基準の前記第1の仮想オブジェクトに対する相対的な速度に基づいて、前記触覚情報を生成する、前記(1)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記生成部は、前記第2の仮想オブジェクトが前記第1の仮想オブジェクトへ与える仮想的な圧力を示す情報に基づいて、前記触覚情報を生成する、前記(5)又は(6)に記載の情報処理装置。
(9)
前記生成部は、前記第1の仮想オブジェクトの前記第2の仮想オブジェクトと接触したと判断される部分の仮想的な温度を示す情報に基づいて、前記触覚情報を生成する、前記(5)又は(6)に記載の情報処理装置。
(10)
前記生成部は、前記第1の仮想オブジェクトの前記第2の仮想オブジェクトと接触したと判断される部分の仮想的な湿度を示す情報に基づいて、前記触覚情報を生成する、前記(5)又は(6)に記載の情報処理装置。
(11)
前記生成部は、前記操作体は前記ユーザの身体の一部であり、前記身体の一部の発汗の度合いを示す情報に基づいて、前記触覚情報を生成する、前記(3)〜(6)のいずれか一項に記載の情報処理装置。
(12)
前記触覚情報は、時間周波数及び空間周波数と振幅の関係性を示す情報を含む、前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記生成部は、各材質を示す情報と紐付けられて予め記憶される前記触覚情報を生成するための関数の候補から、前記第1の仮想オブジェクトの前記第2の仮想オブジェクトと接触したと判断される部分の仮想的な材質を示す情報と紐付けられた前記関数を検索し、検索された前記関数を用いて、前記触覚情報を生成する、前記(5)又は(6)に記載の情報処理装置。
(14)
前記生成部は、前記関数の候補のうち前記第2の仮想オブジェクトと接触する可能性を有する前記第1の仮想オブジェクトの仮想的な材質を示す情報と紐付けられた前記関数の候補から、前記関数を検索する、前記(13)に記載の情報処理装置。
(15)
前記触覚呈示装置は、前記触覚呈示情報に基づいて制御される振動子の振動を、前記ユーザの皮膚に伝えることにより前記触覚呈示を行う、前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記触覚呈示情報は、前記振動子が発生する振動の、時間周波数又は振幅を制御するための情報を含む、前記(15)に記載の情報処理装置。
(17)
前記生成部は、前記第2の仮想オブジェクトの、前記第1の仮想オブジェクトと接触したと判断される部分の特性を示す情報に基づいて、前記触覚情報を生成する、前記(5)又は(6)に記載の情報処理装置。
(18)
前記生成部は、前記第2の仮想オブジェクトの、前記第1の仮想オブジェクトと接触したと判断される部分の仮想的な材質を示す情報に基づいて、前記触覚情報を生成する、前記(17)に記載の情報処理装置。
(19)
実空間内における操作体の動きに応じて仮想空間内において移動される基準の、前記仮想空間内の第1の仮想オブジェクトに対する相対的な移動方向に基づいて、ユーザへ知覚させる触覚を示す触覚情報を、情報処理装置によって、生成することと、
触覚呈示を行う触覚呈示装置によって前記ユーザへ前記触覚を知覚させるための触覚呈示情報を出力することと、
を含む情報処理方法。
(20)
コンピュータシステムを、
実空間内における操作体の動きに応じて仮想空間内において移動される基準の、前記仮想空間内の第1の仮想オブジェクトに対する相対的な移動方向に基づいて、ユーザへ知覚させる触覚を示す触覚情報を生成する生成部と、
触覚呈示を行う触覚呈示装置によって前記ユーザへ前記触覚を知覚させるための触覚呈示情報を出力する出力部と、
として機能させるためのプログラム。
1、102、104、106、108 仮想空間呈示システム
仮想空間呈示システム
2 情報処理装置
4、4a 触覚呈示装置
6 位置姿勢検出装置
8 ヘッドフォン
10 ヘッドマウントディスプレイ
50 関数記憶装置
142 CPU
144 ROM
146 RAM
148 ブリッジ
150 バス
152 インタフェース
154 入力装置
156 出力装置
158 ストレージ装置
160 ドライブ
162 接続ポート
164 通信装置
202 通信部
204 関数記憶部
206 仮想位置姿勢算出部
208 判定部
210 生成部
212 音声出力制御部
214 表示制御部
250 駆動信号算出部
402 振動部
404 振動制御部
406 駆動信号算出部
408 通信部
450 位置姿勢検出部

Claims (20)

  1. 実空間内における操作体の動きに応じて仮想空間内において移動される基準の、前記仮想空間内の第1の仮想オブジェクトに対する相対的な移動方向に基づいて、ユーザへ知覚させる触覚を示す触覚情報を生成する生成部と、
    触覚呈示を行う触覚呈示装置によって前記ユーザへ前記触覚を知覚させるための触覚呈示情報を出力する出力部と、
    を備える、情報処理装置。
  2. 前記基準に基づいて第2の仮想オブジェクトを表示させる表示制御部を備える、請求項1に記載の情報処理装置。
  3. 前記生成部は、前記第1の仮想オブジェクトと、前記第2の仮想オブジェクトが接触していると判断された状態で、前記基準の前記第1の仮想オブジェクトに対する相対的な移動方向に基づいて前記触覚情報を生成する、請求項2に記載の情報処理装置。
  4. 前記生成部は、前記基準の前記第1の仮想オブジェクトに対する相対的な移動方向が第1の方向である場合と、前記第1の方向とは略逆方向の第2の方向である場合と、で異なる前記触覚情報を生成する、請求項3に記載の情報処理装置。
  5. 前記生成部は、前記第1の仮想オブジェクトの、前記第2の仮想オブジェクトと接触したと判断される部分の特性を示す情報に基づいて、前記触覚情報を生成する、請求項3に記載の情報処理装置。
  6. 前記生成部は、前記第1の仮想オブジェクトの、前記第2の仮想オブジェクトと接触したと判断される部分の仮想的な材質を示す情報に基づいて、前記触覚情報を生成する、請求項5に記載の情報処理装置。
  7. 前記生成部は、前記基準の前記第1の仮想オブジェクトに対する相対的な速度に基づいて、前記触覚情報を生成する、請求項1に記載の情報処理装置。
  8. 前記生成部は、前記第2の仮想オブジェクトが前記第1の仮想オブジェクトへ与える仮想的な圧力を示す情報に基づいて、前記触覚情報を生成する、請求項5に記載の情報処理装置。
  9. 前記生成部は、前記第1の仮想オブジェクトの前記第2の仮想オブジェクトと接触したと判断される部分の仮想的な温度を示す情報に基づいて、前記触覚情報を生成する、請求項5に記載の情報処理装置。
  10. 前記生成部は、前記第1の仮想オブジェクトの前記第2の仮想オブジェクトと接触したと判断される部分の仮想的な湿度を示す情報に基づいて、前記触覚情報を生成する、請求項5に記載の情報処理装置。
  11. 前記生成部は、前記操作体は前記ユーザの身体の一部であり、前記身体の一部の発汗の度合いを示す情報に基づいて、前記触覚情報を生成する、請求項3に記載の情報処理装置。
  12. 前記触覚情報は、時間周波数及び空間周波数と振幅の関係性を示す情報を含む、請求項1に記載の情報処理装置。
  13. 前記生成部は、各材質を示す情報と紐付けられて予め記憶される前記触覚情報を生成するための関数の候補から、前記第1の仮想オブジェクトの前記第2の仮想オブジェクトと接触したと判断される部分の仮想的な材質を示す情報と紐付けられた前記関数を検索し、検索された前記関数を用いて、前記触覚情報を生成する、請求項5に記載の情報処理装置。
  14. 前記生成部は、前記関数の候補のうち前記第2の仮想オブジェクトと接触する可能性を有する前記第1の仮想オブジェクトの仮想的な材質を示す情報と紐付けられた前記関数の候補から、前記関数を検索する、請求項13に記載の情報処理装置。
  15. 前記触覚呈示装置は、前記触覚呈示情報に基づいて制御される振動子の振動を、前記ユーザの皮膚に伝えることにより前記触覚呈示を行う、請求項1に記載の情報処理装置。
  16. 前記触覚呈示情報は、前記振動子が発生する振動の、時間周波数又は振幅を制御するための情報を含む、請求項15に記載の情報処理装置。
  17. 前記生成部は、前記第2の仮想オブジェクトの、前記第1の仮想オブジェクトと接触したと判断される部分の特性を示す情報に基づいて、前記触覚情報を生成する、請求項5に記載の情報処理装置。
  18. 前記生成部は、前記第2の仮想オブジェクトの、前記第1の仮想オブジェクトと接触したと判断される部分の仮想的な材質を示す情報に基づいて、前記触覚情報を生成する、請求項17に記載の情報処理装置。
  19. 実空間内における操作体の動きに応じて仮想空間内において移動される基準の、前記仮想空間内の第1の仮想オブジェクトに対する相対的な移動方向に基づいて、ユーザへ知覚させる触覚を示す触覚情報を、情報処理装置によって、生成することと、
    触覚呈示を行う触覚呈示装置によって前記ユーザへ前記触覚を知覚させるための触覚呈示情報を出力することと、
    を含む情報処理方法。
  20. コンピュータシステムを、
    実空間内における操作体の動きに応じて仮想空間内において移動される基準の、前記仮想空間内の第1の仮想オブジェクトに対する相対的な移動方向に基づいて、ユーザへ知覚させる触覚を示す触覚情報を生成する生成部と、
    触覚呈示を行う触覚呈示装置によって前記ユーザへ前記触覚を知覚させるための触覚呈示情報を出力する出力部と、
    として機能させるためのプログラム。
JP2016069360A 2016-03-30 2016-03-30 情報処理装置、情報処理方法及びプログラム Pending JP2017182495A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016069360A JP2017182495A (ja) 2016-03-30 2016-03-30 情報処理装置、情報処理方法及びプログラム
DE112017001781.5T DE112017001781T5 (de) 2016-03-30 2017-01-25 Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und nicht transientes, computerlesbares Medium
PCT/JP2017/002601 WO2017169040A1 (en) 2016-03-30 2017-01-25 Information processing apparatus, information processing method, and non-transitory computer-readable medium
CN201780009558.8A CN108604130A (zh) 2016-03-30 2017-01-25 信息处理设备、信息处理方法和非暂态计算机可读介质
US16/087,018 US20190094972A1 (en) 2016-03-30 2017-01-25 Information processing apparatus, information processing method, and non-transitory computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016069360A JP2017182495A (ja) 2016-03-30 2016-03-30 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2017182495A true JP2017182495A (ja) 2017-10-05

Family

ID=58046719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016069360A Pending JP2017182495A (ja) 2016-03-30 2016-03-30 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US20190094972A1 (ja)
JP (1) JP2017182495A (ja)
CN (1) CN108604130A (ja)
DE (1) DE112017001781T5 (ja)
WO (1) WO2017169040A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019128738A (ja) * 2018-01-23 2019-08-01 東京瓦斯株式会社 商品販売システム、商品購入支援装置
WO2020122282A1 (ko) * 2018-12-13 2020-06-18 (주)리얼감 포스 피드백 방법 및 시스템, 기계로 읽을 수 있는 저장 매체
WO2022024844A1 (ja) * 2020-07-30 2022-02-03 ソニーグループ株式会社 情報処理装置、触感提示システム及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7452430B2 (ja) * 2018-10-19 2024-03-19 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム
WO2020175199A1 (ja) * 2019-02-26 2020-09-03 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2021026618A (ja) * 2019-08-07 2021-02-22 ソニー株式会社 生成装置、生成方法、プログラム及び触覚提示デバイス
US11630504B2 (en) 2021-03-16 2023-04-18 Htc Corporation Handheld input device and electronic system

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282279A (ja) * 1992-03-30 1993-10-29 Toshiba Corp 情報提示装置
JP2000501033A (ja) * 1995-11-30 2000-02-02 ヴァーチャル テクノロジーズ インコーポレイテッド 触覚をフィードバックする人間/機械インターフェース
JP2000047565A (ja) * 1998-07-24 2000-02-18 Dainippon Printing Co Ltd 物体の接触感シミュレーション装置
JP2000047566A (ja) * 1998-07-24 2000-02-18 Dainippon Printing Co Ltd 物体の毛並接触感シミュレーション装置
JP2005500903A (ja) * 2001-08-22 2005-01-13 ミリケン・アンド・カンパニー コンピュータ支援設計システムを使用する吸収性基板上での彩色された画像の構築
EP1533678A1 (en) * 2003-11-24 2005-05-25 Sony International (Europe) GmbH Physical feedback channel for entertaining or gaming environments
US7084884B1 (en) * 1998-11-03 2006-08-01 Immersion Corporation Graphical object interactions
JP2008217260A (ja) * 2007-03-01 2008-09-18 Shibaura Institute Of Technology 力覚提示装置
JP2009276996A (ja) * 2008-05-14 2009-11-26 Canon Inc 情報処理装置、情報処理方法
JP2011528947A (ja) * 2008-07-22 2011-12-01 ソニー オンライン エンタテインメント エルエルシー シミュレーションにおける物理的相互作用のためのシステム及び方法
JP2012217861A (ja) * 2011-04-11 2012-11-12 Sony Computer Entertainment Inc 温度フィードバックを提供するモーションコントローラ
JP2014206970A (ja) * 2013-03-15 2014-10-30 イマージョン コーポレーションImmersion Corporation 表面触覚感覚を有するユーザインタフェース装置
US9030307B1 (en) * 2014-09-03 2015-05-12 Center Of Human-Centered Interaction For Coexistence Apparatus for generating haptic feedback
JP2015187862A (ja) * 2014-03-19 2015-10-29 イマージョン コーポレーションImmersion Corporation 触覚効果を与えるシステム及び方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6162123A (en) * 1997-11-25 2000-12-19 Woolston; Thomas G. Interactive electronic sword game
JP4921113B2 (ja) * 2006-10-25 2012-04-25 キヤノン株式会社 接触提示装置及び方法
JP2013114323A (ja) 2011-11-25 2013-06-10 Mitsubishi Electric Corp 3次元空間座標入力装置
US9552673B2 (en) * 2012-10-17 2017-01-24 Microsoft Technology Licensing, Llc Grasping virtual objects in augmented reality
WO2014106823A2 (en) * 2013-01-03 2014-07-10 Meta Company Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities
CN103439030B (zh) * 2013-09-17 2015-10-07 东南大学 一种力触觉再现中的纹理力测量方法
US10627904B2 (en) * 2014-02-07 2020-04-21 Ultrahaptics IP Two Limited Systems and methods of determining interaction intent in three-dimensional (3D) sensory space
JP6337729B2 (ja) 2014-10-01 2018-06-06 日油株式会社 毛髪洗浄剤組成物
US9703381B2 (en) * 2015-02-18 2017-07-11 Ecole Polytechnique Federale De Lausanne (Epfl) Multimodal haptic device including a thermal and tactile display unit, system, and method of using the same
US10324530B2 (en) * 2015-12-14 2019-06-18 Facebook Technologies, Llc Haptic devices that simulate rigidity of virtual objects

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282279A (ja) * 1992-03-30 1993-10-29 Toshiba Corp 情報提示装置
JP2000501033A (ja) * 1995-11-30 2000-02-02 ヴァーチャル テクノロジーズ インコーポレイテッド 触覚をフィードバックする人間/機械インターフェース
JP2000047565A (ja) * 1998-07-24 2000-02-18 Dainippon Printing Co Ltd 物体の接触感シミュレーション装置
JP2000047566A (ja) * 1998-07-24 2000-02-18 Dainippon Printing Co Ltd 物体の毛並接触感シミュレーション装置
US7084884B1 (en) * 1998-11-03 2006-08-01 Immersion Corporation Graphical object interactions
JP2005500903A (ja) * 2001-08-22 2005-01-13 ミリケン・アンド・カンパニー コンピュータ支援設計システムを使用する吸収性基板上での彩色された画像の構築
EP1533678A1 (en) * 2003-11-24 2005-05-25 Sony International (Europe) GmbH Physical feedback channel for entertaining or gaming environments
JP2008217260A (ja) * 2007-03-01 2008-09-18 Shibaura Institute Of Technology 力覚提示装置
JP2009276996A (ja) * 2008-05-14 2009-11-26 Canon Inc 情報処理装置、情報処理方法
JP2011528947A (ja) * 2008-07-22 2011-12-01 ソニー オンライン エンタテインメント エルエルシー シミュレーションにおける物理的相互作用のためのシステム及び方法
JP2012217861A (ja) * 2011-04-11 2012-11-12 Sony Computer Entertainment Inc 温度フィードバックを提供するモーションコントローラ
JP2014206970A (ja) * 2013-03-15 2014-10-30 イマージョン コーポレーションImmersion Corporation 表面触覚感覚を有するユーザインタフェース装置
JP2015187862A (ja) * 2014-03-19 2015-10-29 イマージョン コーポレーションImmersion Corporation 触覚効果を与えるシステム及び方法
US9030307B1 (en) * 2014-09-03 2015-05-12 Center Of Human-Centered Interaction For Coexistence Apparatus for generating haptic feedback

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019128738A (ja) * 2018-01-23 2019-08-01 東京瓦斯株式会社 商品販売システム、商品購入支援装置
WO2020122282A1 (ko) * 2018-12-13 2020-06-18 (주)리얼감 포스 피드백 방법 및 시스템, 기계로 읽을 수 있는 저장 매체
WO2022024844A1 (ja) * 2020-07-30 2022-02-03 ソニーグループ株式会社 情報処理装置、触感提示システム及びプログラム

Also Published As

Publication number Publication date
DE112017001781T5 (de) 2018-12-13
CN108604130A (zh) 2018-09-28
WO2017169040A1 (en) 2017-10-05
US20190094972A1 (en) 2019-03-28

Similar Documents

Publication Publication Date Title
JP2017182495A (ja) 情報処理装置、情報処理方法及びプログラム
US10509468B2 (en) Providing fingertip tactile feedback from virtual objects
KR102257605B1 (ko) 3차원 콘텍스트 피드백
US9454881B2 (en) Haptic warping system
KR20200000803A (ko) 가상 현실 사용자를 위한 실세계 햅틱 상호작용
KR101548156B1 (ko) 촉감과 관절 저항감을 동시에 전달하는 무선 외골격 햅틱 인터페이스 장치 및 그 구성 방법
KR20140128275A (ko) 햅틱적으로 사용가능한 합치된 다면적 디스플레이를 위한 시스템 및 방법
US11681372B2 (en) Touch enabling process, haptic accessory, and core haptic engine to enable creation and delivery of tactile-enabled experiences with virtual objects
JP2009276996A (ja) 情報処理装置、情報処理方法
CN113316754A (zh) 用于在用于人工现实界面的跟踪真实世界对象的模式之间转换的系统和方法
US20180011538A1 (en) Multimodal haptic effects
JP2018142313A (ja) 仮想感情タッチのためのシステム及び方法
JPWO2018042799A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11675439B2 (en) Method and arrangement for handling haptic feedback
WO2019230852A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2020045250A1 (ja) 触覚提示装置及び触覚提示システム
WO2023100268A1 (ja) 切削訓練補助システム
WO2023189404A1 (ja) 入出力装置
US20230140550A1 (en) Controlling interactions with virtual objects
JP2023150608A (ja) 触覚音提供システム、触覚音提供プログラム、及び、触覚音提供方法
JP2021076952A (ja) 超音波コントローラおよび制御プログラム
Pacchierotti et al. Remote Palpation Using the da Vinci Surgical System

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201110