JP2016126772A - 拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成するシステム及び方法 - Google Patents

拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成するシステム及び方法 Download PDF

Info

Publication number
JP2016126772A
JP2016126772A JP2015242785A JP2015242785A JP2016126772A JP 2016126772 A JP2016126772 A JP 2016126772A JP 2015242785 A JP2015242785 A JP 2015242785A JP 2015242785 A JP2015242785 A JP 2015242785A JP 2016126772 A JP2016126772 A JP 2016126772A
Authority
JP
Japan
Prior art keywords
virtual object
virtual
haptic
electronic device
augmented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015242785A
Other languages
English (en)
Inventor
ウー,リーウェン
Liwen Wu
ハンマーム,アブドゥルワッハーブ
Haman Abdelwahab
アルハラビ,アメール
Alhalabi Amer
エー. グラント,ダニー
A Grant Danny
エー. グラント,ダニー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2016126772A publication Critical patent/JP2016126772A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Abstract

【課題】拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成するシステム及び方法を提供する。【解決手段】システム10は、仮想オブジェクトとそれに関連付けられた触覚アセットとを記憶するように構成されたメモリ装置と、仮想オブジェクトを表示するように構成された拡張又は仮想現実空間を生成するように構成された拡張/仮想現実装置200と、拡張/仮想現実装置200が仮想オブジェクトが関わるインタラクションを検出したときに、触覚アセットに基づいて触覚効果を生成するように構成された触覚出力装置120を含む電子装置100と、を備える。【選択図】図1

Description

本発明は、拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成するシステム及び方法に関する。
拡張現実(「AR」)装置は、物理空間内の物理オブジェクトが仮想空間内の仮想オブジェクトと同時に表示される拡張現実環境を提供する。様々な拡張現実装置が、物理オブジェクト上に配置された特定のコード(例えば、QRコード(登録商標))を認識し、該特定のコードに基づいて仮想オブジェクトを用いて拡張される物理オブジェクトを含む表示画像内に、一又は複数の仮想オブジェクトを表示する。他の拡張現実装置は、画像認識を行うサーバに画像を送信するなどして、画像認識を用いて特定の既知の物理オブジェクトを認識することができる。仮想現実(「VR」)装置は仮想世界環境を提供するが、VR装置のユーザは通常は仮想世界環境内でアバターとして表現され、当該ユーザが仮想世界環境内でアバターの動作を制御する。
仮想現実技術に対する拡張現実技術の潜在的な優位性は、現実世界に仮想オブジェクトを上書きすることができることであるが、仮想現実技術は仮想オブジェクトからなる仮想世界で現実世界を置き換えてもよい。残念ながら、仮想オブジェクトは実際には存在しないため、ユーザはそれらの仮想オブジェクトに触れることはできない。
拡張及び仮想現実アプリケーションにおいて仮想オブジェクトに触覚を追加してユーザの体験を向上し、それによってユーザが仮想オブジェクトとインタラクションする際に仮想オブジェクトの手触りを感じ、感触を確かめ、仮想オブジェクトと物理オブジェクトとの間及び/又は仮想オブジェクト間の衝突を感じるようにすることが望ましい。
本発明の一態様によれば、提供されるシステムは、仮想オブジェクトとそれに関連付けられた触覚アセットとを記憶するように構成されたメモリ装置と、前記仮想オブジェクトを表示するように構成された拡張又は仮想現実空間を生成するように構成された拡張又は仮想現実装置と、前記拡張又は仮想現実装置が前記仮想オブジェクトが関わるインタラクションを検出したときに、前記触覚アセットに基づいて触覚効果を生成するように構成された触覚出力装置を含む電子装置と、を備える。
一実施形態において、前記メモリ装置がサーバの一部であり、前記電子装置が前記サーバから前記仮想オブジェクト及びそれに関連付けられた触覚アセットをダウンロードするように構成される。一実施形態において、サーバはクラウド・コンピューティング・システム一部分である。一実施形態において、前記電子装置は前記仮想オブジェクトを前記拡張又は仮想現実装置に伝達するように構成される。
一実施形態において、前記電子装置は、ハンドヘルド電子装置である。一実施形態において、前記ハンドヘルド電子装置は、前記システムのユーザが前記仮想オブジェクトとインタラクションすることを可能にするように構成されたタッチスクリーンを含む。
一実施形態において、前記電子装置は、ウェアラブル装置である。
一実施形態において、前記拡張又は仮想現実装置はヘッドマウントディスプレイである。
一実施形態において、前記メモリ装置、前記拡張又は仮想現実装置、及び前記電子装置は単一の一体化された装置の一部である。
一実施形態において、前記触覚アセットは、前記触覚出力装置が前記触覚効果を生成するための制御信号の少なくとも1つのパラメータを含む。一実施形態において、前記少なくとも1つのパラメータは、前記制御信号の振幅、周波数、及び継続時間からなる群から選択される。
一実施形態において、前記電子装置は前記仮想オブジェクトの状態を判定するように構成され、前記触覚効果は前記仮想オブジェクトの前記状態に従って予め設計された触覚効果である。
一実施形態において、前記電子装置は、入力された力及び前記仮想オブジェクトの物理特性に従って触覚パラメータを動的に計算するように構成される。
一実施形態において、前記電子装置は前記仮想オブジェクトの状態を監視するように構成され、前記触覚出力装置は前記仮想オブジェクトの前記状態が変わるときに異なる触覚効果を生成するように構成される。
本発明の一態様によれば、提供される方法は、メモリ装置から仮想オブジェクト及びそれに関連付けられた触覚アセットを取得する工程と、拡張又は仮想現実装置によって生成された拡張又は仮想現実空間内に前記仮想オブジェクトを表示する工程と、前記拡張又は仮想現実装置が前記仮想オブジェクトが関わるインタラクションを検出したときに、触覚出力装置を用いて前記触覚アセットに基づいて触覚効果を生成する工程と、を備える。
一実施形態において、前記方法は電子装置を用いてサーバの前記メモリ装置から仮想オブジェクトをダウンロードする工程を備える。一実施形態において、サーバはクラウド・コンピューティング・システム一部分である。
一実施形態において、前記触覚効果を生成する工程は、前記仮想オブジェクトの状態を判定する工程と、及び前記仮想オブジェクトの前記状態に従って予め設計された触覚効果を実行する工程とを含む。
一実施形態において、前記触覚効果を生成する工程は、入力された力及び前記仮想オブジェクトの物理特性に従って触覚パラメータを動的に計算する工程を含む。
一実施形態において、前記方法は、前記仮想オブジェクトの状態を監視する工程と、前記仮想オブジェクトの前記状態が変わるときに異なる触覚効果を生成する工程と、を含む。
本発明の上記及び上記以外の目的、特徴、及び性質、並びに、関連する構成要素の動作方法及び機能、そして製造における各部分の組み合わせと経済性については、添付図面を参照しつつ以下の詳細な説明と添付の特許請求の範囲を検討することによってさらに明らかになる。これらはいずれも本明細書の一部を構成する。添付図面は例示及び説明のためのものであり、本発明の発明特定事項の定義として用いることは意図されていない。本明細書及び特許請求の範囲における用法によれば、単数形の「a」、「an」及び「the」には複数のものへの言及が含まれる。ただし、文脈によって別に解すべきことが明白な場合はこの限りでない。
以下の図面の構成要素は、本開示の原理の概略を強調するように描写されており、必ずしも寸法通りには記載されていない。一貫性及び明瞭性を確保するために、対応する構成要素を指し示す参照符号は、必要に応じ、複数の図面にわたって繰り返し用いられる。
本発明の実施形態にかかるシステムの模式図である。
図1のシステムの電子装置のプロセッサの模式図である。
図1のシステムの拡張又は仮想現実装置のプロセッサの模式図である。
図1のシステムのサーバのプロセッサの模式図である。
本発明の一実施形態にかかる拡張又は仮想現実環境の模式図である。
本発明の実施形態にかかる方法のフローチャートである。
図1は、本発明の一実施形態に係るシステム10の模式図である。図に示すように、システム10は電子装置100、電子装置100の一部であるか又はそれとは別体のハンドヘルド/ウェアラブル装置102、拡張/仮想現実(「AR/VR」)装置200、サーバ300、一又は複数の通信チャネル350、及び/又は前記電子装置100、ハンドヘルド/ウェアラブル装置102、AR/VR装置200、及び/又はサーバ300と通信を行うその他の装置を含む。
電子装置100は、システム10のユーザと拡張現実(「AR」)環境内の仮想オブジェクトとの間のインタラクション、並びにAR環境内の2つの仮想オブジェクト間のインタラクション、及び仮想現実(「VR」)環境内の2つの仮想オブジェクト間のインタラクションに基づいて、触覚フィードバックを提供するように構成される。説明の利便性のために、「AR/VR環境」という用語は本明細書において、その環境の少なくとも一部が仮想現実空間を含むことを意味する。これについては後に詳述する。AR/VR環境は、電子装置100と通信可能に結合されたAR/VR装置200によって生成されてもよい。システム10の一部の実施形態においては、AR/VR装置200は仮想現実装置のみであり、拡張現実の側面は含まなくてもよい。
AR/VR装置200はAR/VR環境を生成してもよく、また電子装置100からリモートであってもよい。後に詳述するが、AR/VR環境は、少なくとも1つの物理オブジェクトが存在する物理空間、及び当該物理オブジェクトを拡張する一又は複数の仮想オブジェクトが表示される、又は物理オブジェクトを拡張しない仮想オブジェクトが表示される仮想現実空間を含んでもよい。一実施形態において、AR/VR装置200はヘッドマウント装置として構成されてもよい。
図1に示すように、電子装置100は、AR/VR装置200及び/又はサーバ300から制御信号を受信するように構成されたプロセッサ110、受信した制御信号に基づいて触覚効果を生成するように構成された触覚出力装置120、通信ポート130、位置/方位装置140、入力要素150、及び識別装置160を含む。電子装置100には、図1に示されるよりも多い又は少ない数の構成要素を含んでもよい。図に示した実施形態に限定されることを意図していない。
後に詳述するが、一実施形態において、ハンドヘルド/ウェアラブル装置102並びに電子装置100は、手袋、スマートウォッチ、ブレスレット、指輪、シンブル、及び/又はその他の着用可能な任意の装置の形態のウェアラブル装置として構成されてもよい。一実施形態において、ハンドヘルド/ウェアラブル装置102並びに電子装置100は、スタイラス、ジョイスティック、携帯電話、スマートフォン、タブレット、ビデオゲームコントローラ、及び/又はAR/VR装置200と通信可能に結合されるその他の任意のハンドヘルド装置などのハンドヘルド装置として構成されてもよい。一実施形態において、電子装置100及びAR/VR装置200は単一の物理装置内の別個の装置であってもよい。一実施形態において、電子装置100及びAR/VR装置200は、携帯電話、スマートフォン、タブレットなどの単一の物理装置内で一体化されていてもよい。
図2に示すように、電子装置100のプロセッサ110は、例えば、触覚フィードバック制御モジュール111、通信モジュール112、及び/又は電子装置100のその他のコンピュータプログラムモジュールを含む一又は複数のモジュールを実行するように構成されている。プロセッサ110は、電子装置100の動作および機能を管理または制御する汎用または特殊用途プロセッサ、あるいはマイクロコントローラである。例えば、プロセッサ110は、モジュール111,112との間の入出力信号を制御する特定用途向け集積回路(application−specific integrated circuit:「ASIC」)として、特に設計されてもよい。また、プロセッサ110は電子ストレージ又はメモリ装置113を含んでもよい。メモリ装置113は、内部に固定された1つ又は複数の記憶ユニット、リムーバブル記憶ユニット、及び/又はリモート・アクセスが可能な記憶ユニットを含む。これら様々な記憶ユニットは、揮発性メモリと不揮発性メモリとのいかなる組合せをも含み得る。記憶ユニットは、情報、データ、命令、ソフトウェア・コードなどの任意の組合せを記憶し得るように構成されてもよい。触覚フィードバック制御モジュール111は、制御信号を受信して、触覚出力装置120に触覚効果の形態でフィードバックを提供させる。通信モジュール112は、電子装置100、AR/VR装置200、ハンドヘルド/ウェアラブル装置102、及び/又はサーバ300の間の通信を容易にするように構成される。
触覚フィードバック制御モジュール111は、制御信号をサーバ300及び/又はAR/VR装置200から受信し、触覚出力装置120に電子装置100を介して触覚フィードバックを提供させる。一実施形態において、制御信号は、ユーザとAR/VR装置200によって表示される仮想オブジェクトとの間のインタラクションを表す。一実施形態において、制御信号は、AR/VR装置200によって表示されるAR/VR環境内の仮想オブジェクト間のインタラクションを表す。一実施形態において、制御信号は、仮想オブジェクトと物理オブジェクトとの間のインタラクションを表す。一実施形態において、触覚フィードバック制御モジュール111は制御信号を触覚出力装置120に提供するように構成される。一実施形態において、制御信号は触覚出力装置120に直接与えられて触覚フィードバックを発生させることもある。一実施形態において、触覚フィードバック制御モジュール111はサーバ300又はAR/VR装置200から受信した制御信号に基づいて触覚フィードバック・レスポンスを決定するように構成される。一実施形態において、触覚フィードバック制御モジュール111は検索テーブルを参照して、受信した制御信号に基づいて触覚フィードバック・レスポンスを決定する。
一実施形態において、検索テーブルは複数の制御信号と複数の触覚フィードバック・レスポンスとの間の関連付けを記憶する。例えば、仮想オブジェクトがAR/VR環境内で表示されたことを示す情報を制御信号が含む場合、検索テーブルはAR/VR環境内で表示され得る仮想オブジェクトごとに異なる触覚フィードバック・レスポンスを記憶する。例えば、触覚フィードバック・レスポンスは信号内に示される仮想オブジェクトのうちの一又は複数と協調し、それによって当該触覚フィードバック・レスポンスは信号内で示される一又は複数の仮想オブジェクトの一又は複数の特性に対応する。電子装置100又はハンドヘルド/ウェアラブル装置102と一又は複数の仮想オブジェクトとの間のインタラクションを示す情報を制御信号が含む場合、検索テーブルは、電子装置100又はハンドヘルド/ウェアラブル装置102とAR/VR環境との間で発生し得るインタラクションごとに異なる触覚フィードバック・レスポンスを記憶してもよい。一実施形態において、触覚フィードバック制御モジュール111は、複数の制御信号とそれに関連付けられたフィードバック・レスポンスを含む検索テーブルを記憶するように構成されたサーバ300から、触覚フィードバック・レスポンスを取得する。サーバ300はクラウド・コンピューティング・システムの一部であるクラウドベースサーバ、又は他の任意のサーバであってもよい。
一実施形態において、通信モジュール112は、電子装置100、AR/VR装置200、サーバ300、及び/又は電子装置100と類似の構成要素及び機能を有するハンドヘルド/ウェアラブル装置102、及び/又は電子装置100と通信を行うその他の装置の間の通信を容易にするように構成される。通信モジュール112は、電子装置100、AR/VR装置200、ハンドヘルド/ウェアラブル装置102、サーバ300、及び/又は電子装置100と通信を行うその他の装置の間の通信のための有線又は無線の通信チャネル350を提供するように構成される。
再び図1を参照すると、触覚出力装置120は、触覚効果の形態で触覚フィードバックを提供するように構成された一又は複数の触覚出力装置を含む。触覚出力装置160によって提供される触覚フィードバックは、振動、変形、運動感覚、静電摩擦又は超音波摩擦等の触覚効果を生成する任意の方法によって生成されてもよい。一実施形態において、触覚出力装置120が備え得るアクチュエータは、例えば、偏心質量体がモータにより動かされる偏心回転質量体(「ERM」)などの電磁アクチュエータ、ばねに取り付けられた質量体が前後に駆動されるリニア共振アクチュエータ(「LRA」)、又は圧電材料、電気活性ポリマー、もしくは形状記憶合金などの「スマートマテリアル」、マクロ複合繊維アクチュエータ、静電気アクチュエータ、電気触感アクチュエータ、及び/又は、例えば、振動触覚フィードバックである物理的フィードバックを提供する他の種類のアクチュエータである。触覚出力装置120は、非機械的装置又は非振動装置、例えば、静電摩擦(「ESF」)や超音波摩擦(「USF」)を用いる装置、超音波触覚トランスデューサを用いて音響放射圧力を生じさせる装置、触覚基板及び可撓性もしくは変形可能な表面を用いる装置、又は、熱的効果を提供する装置、又は、エアジェットを用いた空気の吹きかけなどの発射型の触覚出力を提供する装置などを含んでもよい。異なる触覚効果を生成するために、複数の触覚出力装置120を用いてもよい。
触覚出力装置120は、触覚フィードバック制御モジュール111から一又は複数の信号(例えば、制御信号又は触覚フィードバック信号)を受信するように構成される。この一又は複数の信号に基づいて、触覚出力装置120は電子装置100を解して触覚フィードバックを提供してもよい。一実施形態において、触覚出力装置120は、ハンドヘルド/ウェアラブル装置102の一部であってもよく、触覚フィードバックはハンドヘルド/ウェアラブル装置102を介して提供されてもよい。
通信ポート130はインターフェースを備え、それを介して、例えばAR/VR装置200との通信チャネル350が維持される。AR/VR装置200からの制御信号は通信チャネル350を介して受信される。この通信チャネル350は、有線又は無線の通信チャネルを含む。
位置/方位装置140は、通信チャネル350を介して電子装置100の位置、方位、又はその両方をAR/VR装置200に提供するように構成されてもよい。位置/方位装置140は、ジャイロスコープ、地理空間位置決定装置、コンパス、及び/又はその他の方位決定又は位置決定装置を含んでもよい。
入力要素150は、例えば、ボタン押下、ジェスチャ、及び/又は他の入力を受けるように構成されてもよい。入力はプロセッサ110によって通信チャネル350を介してAR/VR装置200に伝達されてもよい。入力要素150は、タッチ・パッド、タッチ・スクリーン、機械式ボタン、スイッチ、及び/又は入力を受けることができる他の入力コンポーネントを含む。
識別装置160は電子装置100の識別標識を生成するように構成されてもよい。この識別標識はAR/VR装置200によって電子装置100を識別するために用いられてもよい。この識別標識は、可視的な光学署名(例えば、可視光の波長の範囲内の光学署名)又は不可視的署名(例えば、可視光の波長の範囲内ではない光学署名)を含んでもよい。
一部の実施形態において、拡張現実(「AR」)記号が電子装置100の表面に記載されてもよい。このAR記号を用いて、例えば、AR/VR環境内で電子装置100の方位を決定すること、AR/VR環境内で電子装置100の存在を識別すること、及び/又は電子装置100の他の形態の認識を可能にすることができる。一実施形態において、電子装置100は音声署名、赤外線署名、及び/又はAR/VR装置200が認識できるその他の署名を発信してもよい。
AR/VR装置200は、仮想現実(「VR」)空間及び物理空間の両方を含むAR/VR環境を生成するように構成されてもよい。AR/VR装置200は、例えば、プロセッサ210、撮像装置220、通信ポート230、及び/又は他のコンポーネントを備える。プロセッサ210は物理空間と一致するVR空間を生成するように構成される。プロセッサ210は、物理空間内の少なくとも1つの物理オブジェクトを認識し、VR空間内の一又は複数の仮想オブジェクトを用いて少なくとも1つの物理オブジェクトを拡張するように構成される。プロセッサ210は、VR環境内のイベントを判定し、そのイベントを表す制御信号を有線又は無線の通信チャネル350を介して電子装置100に通信するように構成されてもよい。この制御信号により、電子装置100において触覚フィードバックが生成される。撮像装置220は、物理空間を画像化するように構成される。一実施形態において、撮像装置220は一又は複数のカメラ、赤外線検出器、ビデオカメラ、及び/又はその他の画像記録装置を含んでもよい。通信ポート230はインターフェースを備え、それを介して、例えば手電子装置100、ハンドヘルド/ウェアラブル装置102、及び/又はサーバ300との通信チャネル350が維持される。
図3に示すように、AR/VR装置200のプロセッサ210は、例えばオブジェクト認識モジュール211、オブジェクト生成モジュール212、イベント・ハンドラ・モジュール213、制御信号生成モジュール214、通信モジュール215、及び/又はその他のコンピュータ・プログラム・モジュールを含む、一又は複数のモジュールを実行するように構成される。プロセッサ210は、AR/VR装置200の動作および機能を管理または制御する汎用または特殊用途プロセッサ、あるいはマイクロコントローラである。例えば、プロセッサ210は、モジュール211,212,213,214,215との間の入出力信号を制御する特定用途向け集積回路(application−specific integrated circuit:「ASIC」)として、特に設計されてもよい。また、プロセッサ210は電子ストレージ又はメモリ装置216を含んでもよい。メモリ装置216は、内部に固定された1つ又は複数の記憶ユニット、リムーバブル記憶ユニット、及び/又はリモート・アクセスが可能な記憶ユニットを含む。これら様々な記憶ユニットは、揮発性メモリと不揮発性メモリとのいかなる組合せをも含み得る。記憶ユニットは、情報、データ、命令、ソフトウェア・コードなどの任意の組合せを記憶し得るように構成されてもよい。
オブジェクト認識モジュール211は、物理空間内の物理オブジェクトを認識するように構成されてもよい。オブジェクト生成モジュール212は、独立した仮想オブジェクトとして振舞うための、又は認識された物理オブジェクトを拡張するための仮想オブジェクトを生成するように構成されてもよい。イベント・ハンドラ・モジュール213は、AR/VR環境内でのイベントの発生を検出するように構成されてもよい。制御信号生成モジュール214はイベントに関する情報を受信し、電子装置100に送信する制御信号を生成するように構成されてもよい。通信モジュール215は、例えば、AR/VR装置200と電子装置100との間の通信を容易にするように構成されてもよい。
一実施形態において、オブジェクト認識モジュール211は、物理空間内のオブジェクトを認識するように構成される。オブジェクト認識モジュール211は、撮像装置220及び/又はメモリ装置216と通信して、物理空間内のオブジェクトを認識する。例えば、オブジェクト認識モジュール211は、撮像装置220から取り込まれた視覚データを受信し、該視覚データを処理して、取り込まれた視覚データに一又は複数のオブジェクトが存在するか否かを判定する。オブジェクト認識モジュール211は、取り込まれた視覚データ内に存在するオブジェクトとメモリ装置216内に記憶されたオブジェクトとを比較する。
例えば、オブジェクト認識モジュール211は、捕捉されたオブジェクトの画素をストレージ内の記憶されたオブジェクトの画素と既知の技術により比較する。捕捉されたオブジェクトの閾値となる比率(例えば、80%、90%、100%、及び/又は他の比率)の画素が記憶されたオブジェクトの画素とマッチする場合、オブジェクト認識モジュール211は、捕捉されたオブジェクトは記憶されたオブジェクトとして認識されたと判定する。一実施形態において、閾値となる比率は撮像装置220の解像度に依存する。
オブジェクト認識モジュール211は記憶されたオブジェクトに関する情報を取得し、記憶されたオブジェクトに関する情報および捕捉されたオブジェクトに関する情報をオブジェクト生成モジュール212に送信する。オブジェクト生成モジュール212に送信された情報は、例えば、記憶されたオブジェクトの画像データ、記憶されたオブジェクトの種類、物理空間における捕捉されたオブジェクトの位置、捕捉されたオブジェクトの他の物理オブジェクトに対する近接性、記憶されたオブジェクトに関する内容情報、捕捉されたオブジェクトに関する内容情報、及び/又は記憶されたオブジェクト又は捕捉されたオブジェクトに関連付けられたその他のデータを含む。一実施形態において、オブジェクト認識モジュール211は、記憶されたオブジェクトに関する情報および捕捉されたオブジェクトに関する情報を、イベント・ハンドラ・モジュール213、制御信号生成モジュール214、及び/又はプロセッサ210のその他のモジュールのうちの一又は複数に送信する。
図4は、サーバ300の一実施形態をより詳細に例示している。一実施形態において、サーバ300は、電子装置100、AR/VR装置200、ハンドヘルド/ウェアラブル装置102、及び/又はその他のサーバ300と通信する装置のうちの一又は複数と通信するように構成されてもよい。図示された実施形態において、サーバ300はプロセッサ310、電子ストレージ又はメモリ装置320、及び通信ポート330を備える。一実施形態において、サーバ300は、クラウド・コンピューティング・システム、すなわち、「クラウド」の一部分であってもよい。
サーバ300のプロセッサ310は、データを受信し、オブジェクトを認識し、イベントをハンドルし、データを送信し、及び/又はその他の機能を提供するように構成されてもよい。一実施形態において、サーバ300は電子装置100のプロセッサ110から制御信号を受信するように構成されてもよい。サーバ300のメモリ装置320は、複数の制御信号および複数のフィードバック・レスポンスを含む電子装置100の検索テーブルと類似または同様の態様で構成される検索テーブルを含んでもよい。例えば、検索テーブルは仮想オブジェクトに関連付けられる複数の触覚アセット(asset)を含んでもよい。触覚アセットは、制御信号の振幅、周波数、継続時間など、仮想オブジェクトに関連付けられる触覚効果のパラメータを含んでもよい。この制御信号は、仮想オブジェクトとインタラクションを行うとき、又は仮想オブジェクトが他の仮想オブジェクトとインタラクションを行うときに、触覚出力装置120を駆動してシステム10のユーザに対して触覚効果を生成するために用いられる。検索テーブルが制御信号に関するエントリを含む場合、サーバ300はフィードバック・レスポンスを含む情報をフィードバック制御モジュール111に伝達する。サーバ300の検索テーブルがこの制御信号に関するエントリを含まない場合、サーバ300は、この制御信号にマッチするデータがない旨の指示をフィードバック制御モジュール111に伝達するか、又はサーバ300はデフォルト制御信号を伝達する。一実施形態において、サーバ300は、電子装置100から受信したデータに関する画像処理及び/又はオブジェクト認識を実行する。
一実施形態において、サーバ300は、AR/VR装置200の撮像装置220によって取り込まれたオブジェクトに関するデータを受信する。サーバ300のプロセッサ310は、捕捉されたオブジェクトに関するオブジェクト認識を実行する。サーバ300のメモリ装置320は、一又は複数の物理オブジェクトを含む検索テーブルを含む。サーバ300は、受信したデータから認識されたオブジェクトに関するエントリが検索テーブルに含まれているかを判定する。検索テーブルが認識されたオブジェクトに関するエントリを含む場合、サーバ300は認識されたオブジェクトにマッチする記憶されたオブジェクトに関する情報を、オブジェクト認識モジュール211に伝達する。サーバ300が認識されたオブジェクトを認識しない場合、サーバ300はマッチするものがないという趣旨の指示をオブジェクト認識モジュール211に伝達する。
一実施形態において、サーバ300は、AR/VR装置200のプロセッサ210のオブジェクト認識モジュール211によって認識された物理オブジェクトに関するデータを受信する。サーバ300のプロセッサ310は、この物理オブジェクトと一又は複数の仮想オブジェクトとの間の関連付けをサーバ300のメモリ装置320が記憶しているか否かを判定する。一部の実施形態において、サーバ300のメモリ装置320は、物理オブジェクト、仮想オブジェクト、及び一又は複数の物理オブジェクトと一又は複数の仮想オブジェクトとの間の一又は複数の相関関係を含む検索テーブルを含む。サーバ300のメモリ装置320に関連付けがある場合、サーバ300は関連付けられた仮想オブジェクトに関するデータをオブジェクト生成モジュール212に伝達する。サーバ300のメモリ装置320に関連付けがない場合、サーバ300は関連付けがないことを伝達する。
一実施形態において、サーバ300は、AR/VR装置200のプロセッサ210のイベント・ハンドラ・モジュール213からイベント・データを受信するように構成される。サーバ300のメモリ装置320は、複数のイベントと各々の複数の制御信号とを関連付ける検索テーブルを含む。イベント・データの一部または全体がサーバ300のストレージに記憶されたイベントとマッチする場合、サーバ300のプロセッサ310は、このイベントに関するイベント・データをイベント・ハンドラ・モジュール213に伝達する。イベント・データがストレージに記憶されたイベントとマッチしない場合、サーバ300のプロセッサ310はマッチするイベントが存在しない旨をAR/VR装置200に伝達する。
サーバ300の通信ポート330はインターフェースを備え、それを介して、例えば電子装置100、ハンドヘルド/ウェアラブル装置102、AR/VR装置200、及び/又はその他のサーバ300と通信する装置との通信チャネル350が維持される。データ及び/又は信号は、通信チャネル350及び/又はサーバ300がデータ及び/又は信号を受信する際に用いるその他の通信チャネルを介して受信される。
一実施形態において、捕捉されたオブジェクトが記憶されたオブジェクトとマッチしない場合、オブジェクト認識モジュール211は捕捉されたオブジェクトに関するデータをサーバ300に送信し、サーバ300がオブジェクト認識を実行できるようにする。サーバ300が捕捉されたオブジェクトを認識する場合、サーバ300は捕捉されたオブジェクトにマッチする記憶されたオブジェクトに関する情報を、オブジェクト認識モジュール211に伝達する。オブジェクト認識モジュール211は、サーバ300からの記憶されたオブジェクトに関する情報、および捕捉されたオブジェクトに関する情報を、オブジェクト生成モジュール212に送信する。サーバ300が捕捉されたオブジェクトを認識しない場合、サーバ300はマッチするものがないという趣旨の指示を伝達する。
一実施形態において、オブジェクト生成モジュール212は、オブジェクト認識モジュール211から物理オブジェクトに関する情報を受信し、AR/VR環境内でこの物理オブジェクトを拡張するための一又は複数の仮想オブジェクトを生成する。オブジェクト生成モジュール212はストレージにアクセスして、この物理オブジェクトに一又は複数の仮想オブジェクトが関連付けられているかを判定する。この物理オブジェクトには仮想オブジェクトが関連付けられていない場合、オブジェクト生成モジュール212はサーバ300と通信して、サーバ300のメモリ装置320が一又は複数の物理オブジェクトと一又は複数の仮想オブジェクトとの間の一又は複数の関連付けを記憶しているかを判定する。サーバ300のメモリ装置320に関連付けがある場合、サーバ300は関連付けられた仮想オブジェクトに関するデータをオブジェクト生成モジュール212に伝達する。
仮想オブジェクトがオブジェクト認識モジュール211から受信した情報において識別される物理オブジェクトと関連づけられる場合、オブジェクト生成モジュール212は、物理空間と一致するVR空間を生成する。図5は例示的なAR/VR環境500のブロック図である。図に示すように、AR/VR環境500は、物理空間520とVR空間510とを有する。物理空間520は一又は複数の物理オブジェクト520a、520b、・・・520nを有し、VR空間510は、物理空間520内の一又は複数の物理オブジェクト520a、520b、・・・520nを拡張する、または一又は複数の物理オブジェクトを拡張しない仮想オブジェクトである、一又は複数の仮想オブジェクト510a、510b、・・・510nを有する。
一実施形態において、オブジェクト生成モジュール212はVR空間510内の一又は複数の仮想オブジェクト510a、510b、・・・510nを用いて物理オブジェクト520aを拡張する。例えば、オブジェクト生成モジュール212は、AR/VR装置200のディスプレイ表面を介してVR空間510(及び一又は複数の仮想オブジェクト510a、510b、・・・510n)を表示する。一部の実施形態において、VR空間510および表示される一又は複数の仮想オブジェクト510a、510b、・・・510nは、AR/VR装置200のディスプレイを介して3次元的に表示される。
AR/VR装置200のディスプレイを介して表示されるAR/VR環境500は、物理空間520及びVR空間510を含む。一実施形態において、物理空間520は撮像装置220によって画像化され、ディスプレイを介して表示される。一実施形態において、例えば、ディスプレイの少なくとも一部が透明(例えば、レンズ)であり、それを通して物理空間520を見ることができるように構成される実施形態においては、物理空間520は単純にディスプレイを通して見ることができる。物理空間520を表示するためにどの実施形態を用いるとしても、一又は複数の仮想オブジェクト510a、510b、・・・510nは、物理空間520内に存在する一又は複数の物理オブジェクト520a、520b、・・・520nと一致するかまたは関連付けられるように表示され、それによってAR/VR環境500内の一又は複数の物理オブジェクト520a、520b、・・・520nを拡張してもよい。単一の仮想オブジェクト510aは、単一の物理オブジェクト520aまたは複数の物理オブジェクト520a、520b、・・・520nを拡張してもよい。複数の仮想オブジェクト510a、510b、・・・510nは、単一の物理オブジェクト520aまたは複数の物理オブジェクト520a、520b、・・・520nを拡張してもよい。物理空間520内に存在する物理オブジェクト520a、520b、・・・520nを拡張する仮想オブジェクト510a、510b、・・・510nの数と種類は、上述の例に限定されない。
一実施形態において、イベント・ハンドラ・モジュール213は、AR/VR環境内でのイベントの発生を検出するように構成される。イベント・ハンドラ・モジュール213は、撮像装置220、オブジェクト認識モジュール211、オブジェクト生成モジュール212、メモリ装置216、及び/又はAR/VR装置200のその他のモジュール又は装置からデータを受信する。AR/VR装置200のメモリ装置216は、AR/VR装置200が認識する一又は複数のイベントに関するデータを記憶する。例えば、AR/VR装置200のメモリ装置216がデータを記憶するイベントは、電子装置100とAR/VR環境500との間のインタラクション、AR/VR環境500に対して発生するアクションの確認、電子装置100がAR/VR装置200によって認識されることの確認、電子装置100とVR空間510内に表示される一又は複数の仮想オブジェクトとの間のインタラクション、物理オブジェクトを拡張するための特定の種類の仮想オブジェクトの生成、電子装置100の認識、ハンドヘルド/ウェアラブル装置102の認識、ユーザとAR環境との間のインタラクション、及び/又はAR環境に関するその他の事象を含む。
一実施形態において、イベント・ハンドラ・モジュール213が受信するデータは、撮像装置220からの視覚データ、視覚データ内の捕捉されたオブジェクトに関するオブジェクト認識モジュール211からの情報、オブジェクト生成モジュール212によって生成された仮想オブジェクトに関する情報、及び/又はAR環境に関するその他の情報である。イベント・ハンドラ・モジュール213は、受信した情報をメモリ装置216に記憶されたイベントに関するデータと比較し、この情報、またはこの情報の一部がイベントと関連付けられているかを判定する。 受信した情報がイベントに関連付けられている場合、イベント・ハンドラ・モジュール213は、受信した情報を含むイベント・データおよび関連付けられたイベントに関するデータを、制御信号生成モジュール214に送信する。
一実施形態において、イベント・ハンドラ・モジュール213はプロセッサ210からデータを受信するが、そのデータは、電子装置100とAR/VR環境との間でインタラクションが発生したこと、AR/VR環境内の一又は複数の仮想オブジェクトが変化したこと、電子装置100から入力を受信したこと、電子装置100から受信した入力がAR/VR装置200によって処理されたこと、ユーザとAR/VR環境500との間でインタラクションが発生したこと、及び/又はAR/VR装置200によって他の処理が実行されたこと、を示す。一部の実施形態において、イベント・ハンドラ・モジュール213は、プロセッサ210から受信したデータと、メモリ装置216に記憶されたデータとを比較して、該データがイベントと関連付けられているかを判定する。受信した情報の一部または全体がストレージに記憶されたイベントに関連付けられている場合、イベント・ハンドラ・モジュール213は、受信した情報を含むイベント・データおよび関連付けられたイベントに関するデータを、制御信号生成モジュール214に送信する。
一実施形態において、受信した情報がメモリ装置216に記憶されたイベントに関連付けられていない場合、イベント・ハンドラ・モジュール213は、受信した情報を含むイベント・データをサーバ300に送信し、サーバ300はイベント・ハンドリングを行う。受信した情報の一部または全体がサーバ300のストレージに記憶されたイベントに関連付けられている場合、サーバ300は、関連付けられたイベントに関する情報をイベント・ハンドラ・モジュール213に伝達する。イベント・ハンドラ・モジュール213は、受信した情報を含むイベント・データおよび関連付けられたイベントに関するデータを、制御信号生成モジュール214に送信する。受信した情報がサーバ300のストレージに記憶されたイベントに関連付けられていない場合、サーバ300は、マッチするものがなかったとの指示を伝達する。
一実施形態において、制御信号生成モジュール214は、イベント・ハンドラ・モジュール213からイベント・データを受信し、該イベント・データに基づいて制御信号を生成し、電子装置100に送信するように構成される。AR/VR装置200のストレージは、複数のイベントと各々の複数の制御信号とを関連付ける検索テーブルを含む。イベント・ハンドラ・モジュール213から受信したイベント・データに基づいて、制御信号生成モジュール214は制御信号を生成し、電子装置100に送信する。例えば、制御信号生成モジュール214は、受信したイベント・データをストレージに記憶されたデータと比較する。イベント・データの一部又は全体がストレージに記憶されたイベントとマッチする場合、制御信号生成モジュール214は、マッチしたイベントに関連付けられた制御信号に関する制御信号を生成する。イベント・データがストレージに記憶されたイベントとマッチしないとき、制御信号生成モジュール214は、イベント・データをサーバ300に伝達し、該イベント・データの一部又は全体に関連付けられた制御信号をサーバのストレージが記憶しているか否かを判定する。制御信号は、例えば、イベントが発生したことを示す情報、特定の種類のイベントが発生したことを示す情報、一又は複数の仮想オブジェクトが拡張された仮想環境内に表示されていることを示す情報、電子装置100と一又は複数の仮想オブジェクトとの間の一又は複数のインタラクションを示す情報、及び/又はAR/VR環境500内のイベントに関するその他の情報を含んでもよい。
一実施形態において、通信モジュール215は、AR/VR装置200、電子装置100、サーバ300、ハンドヘルド/ウェアラブル装置102、及び/又はその他のAR/VR装置200と通信する装置の間の通信を容易にするように構成されてもよい。通信モジュール215は、AR/VR装置200、電子装置100、及び/又はハンドヘルド/ウェアラブル装置102の間の通信のための有線又は無線の通信チャネル350を提供するように構成される。通信モジュール215は、AR/VR装置200、電子装置100、ハンドヘルド/ウェアラブル装置102、サーバ、及び/又はその他の装置の間の、有線又は無線の通信チャネル350を介した、又は別個の通信チャネルを介した通信を提供にするように構成されてもよい。通信モジュール215は、制御信号生成モジュール214によって生成された制御信号を、有線又は無線の通信チャネル350を介して電子装置100及び/又はハンドヘルド装置102に伝達するように構成されてもよい。
一実施形態において、AR/VR装置200のプロセッサ210は、電子装置100が撮像装置220の視野内、又はAR/VR環境500の物理空間520内で移動するときに、電子装置100を認識するように構成されてもよい。例えば、AR/VR装置200のオブジェクト認識モジュール211は、撮像装置220からの画像データをメモリ装置216に記憶されている画像データと比較することによって、電子装置100を認識するように構成されてもよい。AR/VR装置200のメモリ装置216は、電子装置100に対応する画像データを含んでもよい。メモリ装置216は電子装置100に配置される一又は複数の識別標識に対応する画像データを含んでもよい。これらの識別標識は、製品コード、QRコード、電子装置100に関連付けられた画像、及び/又は電子装置100を識別するために用いられるその他の画像を含んでもよい。AR/VR装置200のプロセッサ210は、音声署名、赤外線署名、及び/又は電子装置100によって生成されるその他の署名を認識するように構成されてもよい。一実施形態において、制御信号生成モジュール214は、電子装置100の認識を表す制御信号を生成し、電子装置100で生成されるフィードバックが当該認識を示すようにしてもよい。
一実施形態において、プロセッサ210は電子装置100の位置及び/又は電子装置100の方位を電子装置100から受信するように構成されてもよい。電子装置100の位置及び/又は方位は、電子装置100とAR/VR装置200との間で通信チャネル350を介して伝達されてもよい。プロセッサ210は、AR/VR環境500内の電子装置100の位置及び/又は電子装置100の方位を、受信した位置及び/又は方位に基づいて決定するように構成されてもよい。一実施形態において、位置指標画像及び/又は方位指標画像は電子装置100上に配置されてもよい。オブジェクト認識モジュール211は、電子装置100が撮像装置の視野内、及び/又はAR/VR環境500の物理空間520内にあると認識するときに、位置指標画像及び/又は方位指標画像を認識してもよい。位置指標画像及び/又は方位指標画像のデータは、オブジェクト認識モジュール211、イベント・ハンドラ・モジュール213、及び/又はAR/VR装置200のその他のモジュールによって処理され、AR/VR環境500内の電子装置100の位置及び/又は方位を決定してもよい。一実施形態において、プロセッサ210は、物理オブジェクトと電子装置100との間の距離を無視してAR/VR環境500内の電子装置100の位置決めを行うように構成されてもよい。
プロセッサ210は電子装置100から入力を受けるように構成されてもよい。例えば、プロセッサ210は、入力要素150を介して受信した入力に関するデータを電子装置100から受信する。入力要素150を介して受信した入力は、例えば、ボタン押下、ジェスチャ、及び/又はタッチスクリーンのジェスチャ又は押圧などの他の入力を含む。AR装置200のプロセッサ210は、受信したデータを処理し、この処理に基づいて機能を実行する。例えば、プロセッサ210は、AR/VR環境500内の一又は複数の仮想オブジェクト510a、510b、・・・510nを追加、削除、置換、及び/又は他の方法で改変する。プロセッサ210は、処理に基づいて電子装置100にデータを送信する。プロセッサ210は、処理に基づいて他の機能を実行する。一実施形態において、プロセッサ210は電子装置100から入力を受信する。この入力は、電子装置100の識別標識と、この入力に識別標識が含まれることの指示とを含む。AR/VR装置200は、識別標識をメモリ装置216内に記憶し、この識別標識を電子装置100と関連付ける。
図6は、本発明の実施形態に係る方法600を示す。図に示す通り、この方法は工程610において、上述のシステム10のユーザが、例えば、インターネットを介してユーザに提示されたリスト、カタログ、メニュー等から仮想オブジェクトを選択することによって開始される。ユーザは上述の電子装置100を用いて仮想オブジェクトを選択してもよい。仮想オブジェクトは上述のサーバ300に保存され、このサーバはクラウドの一部であってもよい。工程620において、電子装置100を用いて仮想オブジェクトがダウンロードされる。ダウンロードされた仮想オブジェクトは電子装置100のプロセッサ110内のメモリ装置113に記憶されるか、又はダウンロードされた仮想オブジェクトはAR/VR装置200のプロセッサ210のメモリ装置216に記憶される。工程630において、仮想オブジェクトがダウンロードされるとほぼ同時に、又は仮想オブジェクトがダウンロードされた後に、選択された仮想オブジェクトに関連づけられる触覚アセットが取得される。一実施形態において、仮想オブジェクトが選択されると、ユーザはこの仮想オブジェクトに関連付けられる触覚アセットの選択の機会を与えられる。例えば、仮想オブジェクトが犬である場合、ユーザは従順又は攻撃的といった犬の性格、及び/又はショートヘア又はロングヘアなどの毛皮の手触りについて、選択する機会を与えられる。関連付けられた触覚アセットが取得されると、工程640でユーザはAR/VR環境500内の仮想オブジェクトとインタラクションしてもよい。一実施形態において、工程640でのインタラクションは、ユーザがAR/VR装置200を用いて見ている2つの仮想オブジェクトの間で行われてもよく、又は仮想オブジェクトと物理空間520内の他の物理オブジェクトとの間で行われてもよい。
図6に示す方法600についての説明を続ける。工程650において、仮想オブジェクトのアニメーションが存在するかを判定する。仮想オブジェクトのアニメーションが存在する場合、工程660で触覚効果の出力が行われて仮想オブジェクトの実在感を表現し、これによりシステム10ユーザはVR空間510内で仮想オブジェクトの動きを感じることができる。工程650で仮想オブジェクトのアニメーションが存在しないと判定された場合、この方法は工程640に戻る。工程670において、ユーザと仮想オブジェクトとの間、VR空間510内の2つの仮想オブジェクトの間、又は仮想オブジェクトと物理空間520内の他の物理オブジェクトとの間に、仮想オブジェクトとのインタラクションが存在するかが判定される。インタラクションが存在すると判定された場合、工程680でインタラクション触覚効果が実行され、これによりユーザは、例えば仮想オブジェクトの手触りを感じることができる。仮想オブジェクトとのインタラクションが存在しないと判定された場合、この方法は工程640に戻る。一実施形態において、工程650及び670における判定は同時又はほぼ同時に実行されてもよい。例えば、ユーザがタッチスクリーン上のタッチジェスチャ又はジョイスティックによって仮想オブジェクトをドラッグして動かし、この仮想オブジェクトが他の仮想オブジェクトと衝突するとき、この仮想オブジェクトがアニメーション表示されている間、ユーザはこの仮想オブジェクトとインタラクションしてもよい。このとき、生成される触覚効果はこの仮想オブジェクトの手触り及びこの衝突を表す振動を含んでもよい。
システム10の一実施形態において、ユーザはアプリケーション・ストアから仮想の鳥を購入してもよい。この仮想オブジェクトがタブレット形式のユーザの電子装置100にロードされると、ユーザは自身のデスク上を鳥が歩き回るのをタブレットのカメラを通して見ることができ、拡張現実(「AR」)アプリケーションを使用すればタブレット上で鳥の足取りを感じることができる。ユーザが自身の手で鳥に触れようとするとき、ハンドヘルド/ウェアラブル装置102を通して鳥の手触りを感じることができる。この実施形態においては、このハンドヘルド/ウェアラブル装置102はウェアラブル装置であってもよい。鳥がユーザの手に飛び乗ると、ユーザはそれが実際の鳥であるかのように手の上の歩くのを見て感じることができる。
システム10の一実施形態において、ユーザは鉛筆又はペンなどの仮想の筆記用具を手に持ち、実際又は仮想の紙に書くことができる。仮想の筆記用具はその手触りによって異なって感じられ、この筆記用具を用いた手書き動作を表す触覚効果は、この筆記用具の状態に依存する。例えば、この筆記用具が鉛筆であるかインクペンであるか、ペンの中にあるインクの量はどの程度か、この筆記用具は壊れているか、などである。
システム10の一実施形態において、ユーザは缶一杯の仮想のキャンディを右手に持ち、ユーザの右手に触覚力フィードバックが実行されて、ユーザにキャンディの缶が重いと感じさせてもよい。ユーザが仮想のキャンディを自身の左手に移し始めると、ユーザの左手に対する触覚力フィードバックが増加し、これによりユーザは自身の左手のキャンディの増加を感じる。一方でユーザの右手に対する触覚力フィードバックが低減し、これによりユーザはキャンディの缶が軽くなり缶の中のキャンディが少なくなったと感じる。
システム10の一実施形態において、ユーザは仮想の鳥オブジェクト及びそれに関連付けられた触覚アセットを仮想現実(「VR」)アプリケーションにロードし、自身のアバターとして仮想のキャラクターを選択してもよい。ユーザは、自身のアバターが仮想の鳥とインタラクションするときに触覚効果を感じることができる。
システム10の一実施形態において、第1のユーザ及び第2のユーザがオキュラスリフトなどのヘッドマウントディスプレイを着用して一緒に仮想現実(「VR」)シューティングゲームをプレイしてもよい。VR空間においては、これらのユーザはともに自身を表すアバターを有している。第1のユーザのアバターは仮想のショットガンを携行し、第1のユーザがガンを発砲するジェスチャをすると、第1のユーザは現実のガンを発砲しているかのような引き金効果を感じる。第2のユーザのアバターが撃たれると、第2のユーザは胸に力効果を感じる。
拡張現実アプリケーション
拡張現実(「AR」)アプリケーションにおいて、仮想空間510における仮想オブジェクト510aは物理空間520上に上書きされる。仮想オブジェクト510aは、他の上書きされた仮想オブジェクト510b、・・・510nとインタラクションするだけでなく、物理オブジェクト520a、520b、・・・520nともインタラクションする。ARアプリケーションにおいて、ユーザはアバターを用いなくても仮想オブジェクト510aと直接インタラクションしてもよい。
AR環境においては、いくつかの種類のインタラクションが存在する。例えば、ユーザと仮想オブジェクト510aとの間のインタラクション、仮想現実空間510内の仮想オブジェクト520aと物理空間520内の物理オブジェクト520aとの間のインタラクション、及び/又は仮想現実空間510内の2つの仮想オブジェクト510a、510bの間のインタラクションである。
AR環境内の仮想オブジェクト510a、510b、・・・510nの触覚効果を設計するために、一連の工程を採用してもよい。第1に、仮想オブジェクト510aに関わるインタラクションが発生したときに触覚効果が誘発されてもよい。現実世界や物理空間520内の物理オブジェクト520aが仮想現実空間510内の仮想オブジェクト510a、510b、・・・510nとインタラクションを開始するとき、このインタラクションは捕捉され、仮想オブジェクトの状態がコンテキストに基づいて判定され、静的又は動的な触覚効果が生成される。仮想現実空間510内の仮想オブジェクト510aが他の仮想オブジェクト510b、・・・510nとインタラクションを開始するとき、このインタラクションは捕捉され、各仮想オブジェクトの状態がコンテキストに基づいて個別に判定され、静的又は動的な触覚効果が生成される。仮想現実空間510内の仮想オブジェクト510aが現実世界や部率空間520内の物理オブジェクト520a、520b、・・・520nとのインタラクションを開始するとき、仮想オブジェクト510aの環境に基づく力が計算されてもよい。三次元空間内で仮想オブジェクトが物理オブジェクト又はユーザに向かって移動するとき、環境及び移動に基づいて衝突が計算される。
ユーザと仮想オブジェクト510aとの間のインタラクションはアクティブ・インタラクションを含んでもよい。例えば、ユーザは感触型の触覚効果を感じながら仮想オブジェクト510aに直接タッチ及び/又はドラッグしてもよく、又はユーザは確認用触覚効果を感じながら、定義されたジェスチャで仮想オブジェクト510aを制御及び/又は変更してもよい。仮想オブジェクト510aとの受動的なインタラクションも存在する。例えば、「足取り」をシミュレーションする触覚効果が生成されるとともに、ユーザの手の上を歩く仮想の鳥、又は「打撃」をシミュレーションする触覚効果が生成されるとともに、ユーザを撃つ仮想の弾丸である。仮想オブジェクト510aと現実世界や物理オブジェクト520aとのインタラクションについては、「足取り」をシミュレーションする触覚効果が生成されるとともに仮想の鳥が現実の床の上を歩いてもよく、又はユーザが衝突触覚効果を感じながら現実のテニスラケットで仮想のテニスボールを打ってもよい。例えば、2つの仮想オブジェクト510a、510bの間のインタラクションについては、「ついばむ」行為をシミュレーションする触覚効果が生成されるとともに、ユーザの手又は現実の床の上を這う仮想の虫を仮想の鳥が食べてもよく、又はユーザが衝突触覚効果を感じながら現実のテニスラケットで仮想のテニスボールを打ってもよい。
一実施形態において、システム10のハンドヘルド/ウェアラブル装置102をARアプリケーションの触覚効果の生成に用いてもよく、またウェアラブル装置の形態であってもよい。このウェアラブル装置は指、手首、腕、肩、頭、胸などに着用されるように構成されてもよい。一実施形態において、複数のウェアラブル装置を同時に用いてもよい。ARアプリケーションを携帯装置向けに設計した一実施形態において、ハンドヘルド/ウェアラブル装置102はスマートフォン又はタブレットなどのハンドヘルド装置の形態であってもよい。
一実施形態において、静的触覚生成法を用いてAR環境内の仮想オブジェクトの触覚効果を実現してもよい。第1に、各仮想オブジェクトのステートマシンを設計する。各状態について予め設計された触覚効果は、アセット/プロパティファイル(例えば、ivtファイル、haptファイルなど)として記憶され、仮想オブジェクトの他のアセット/プロパティとともにパッキングされてもよい。仮想オブジェクトの状態がある状態から他の状態に変化すると、それに従って触覚効果が実行されてもよい。例えば、仮想オブジェクトが仮想バルーンである場合、ユーザがこの仮想バルーンに「タッチ」するとこの仮想バルーンは「タッチモード」に変わり、感触型の触覚効果が実行されてもよい。ユーザが仮想バルーンを壁に「ぶつける」と、仮想バルーンは「衝突モード」に変わり、衝突型触覚効果が実行される。ユーザが針で仮想バルーンを「刺す」と、仮想バルーンは「爆発モード」に変わり、爆発型効果が実行される。
一実施形態において、動的触覚生成法を用いてAR環境内の仮想オブジェクトの触覚効果を実現してもよい。第1に、材質、形状、重量、手触り、アニメーションなどの各仮想オブジェクトの物理的特性を決定する。ユーザが仮想オブジェクトに対して力を加えた場合、力の量、位置、及び角度、並びに反射率、吸収率などの仮想オブジェクトの特性に従って触覚効果のパラメータが計算されてもよい。同様の計算は、仮想オブジェクトがユーザに対して力を加える状況、又は仮想オブジェクト同士が互いに力を加える状況で実行されてもよい。予め設計された触覚効果は各々の仮想オブジェクトについて必要とはされておらず、力及びオブジェクトの物理特性に従って動的な触覚効果が計算及び実行されてもよい。
仮想オブジェクトの状態を用いて適切な触覚フィードバックが生成されるため、状態のモニタリングを行う必要がある。触覚フィードバックは仮想オブジェクトの内部状態に基づいてカスタマイズされ、異なる状態が異なる触覚効果に対応するようになっている。例えば、仮想の車椅子から誘発される触覚効果は、仮想の椅子に座ることによって誘発される触覚効果とは異なってもよい。
触覚アセットファイル(例えば、ivtファイル、haptファイルなど)はローカルメモリに記憶されるか、又はアプリケーションのコードの一部として記憶されてもよい。本発明の一実施形態において、触覚アセット及びプロパティは仮想オブジェクトに関連付けられるが、特定のアプリケーションには依存しない。このような触覚向上型仮想オブジェクトは、ローカルメモリだけでなくクラウド上、すなわち、クラウド・コンピューティング・システムの一部であるサーバ310のメモリ装置320上にも記憶してもよい。クラウド上に触覚向上型仮想オブジェクトを記憶することによって、当該仮想オブジェクトは異なる電子装置100の間で共有することが容易になり、また電子装置100のローカルメモリ装置113を占有することもない。
仮想現実アプリケーション
仮想現実(「VR」)アプリケーションにおいて、ユーザがVRグラス(例えばオキュラスリフト)などのヘッドマウントディスプレイ装置を着用すると、現実世界は仮想世界によって置き換えられ、ユーザは仮想世界の中で自分自身を見ることがなくなる。よって、仮想環境内でユーザを表現するためにアバターが用いられ、これによって他の仮想オブジェクトとのインタラクションが行われる。
このアバターと他の仮想オブジェクトとの間でインタラクションが発生したときに、触覚効果が実行される。アバターそのものは仮想オブジェクト510a、510b、・・・510nであるため、VRアプリケーションにおいては1種類のみのインタラクションが存在する。すなわち、2つの仮想オブジェクトの間のインタラクションである。一実施形態において、アバターは人間の特徴に基づいたものでなくてもよく、道具、武器、動物などであってもよい。アバターは、VR空間510内で他の仮想オブジェクト510a、510b、・・・510nとインタラクションし、触覚効果を誘発するために、ユーザを表したものである。
一実施形態において、システム10のハンドヘルド/ウェアラブル装置102をVRアプリケーションの触覚効果の生成に用いてもよく、またウェアラブル装置の形態であってもよい。このウェアラブル装置は指、手首、腕、肩、頭、胸などに着用されるように構成されてもよい。アバターと仮想オブジェクトの間に衝突がある場合、ユーザが着用しているウェアラブル装置上で衝突触覚効果が実行されてもよい。一実施形態において、複数のウェアラブル装置を同時に用いてもよい。VRアプリケーションを携帯装置向けに設計した一実施形態において、ハンドヘルド/ウェアラブル装置102はスマートフォン又はタブレットなどのハンドヘルド装置の形態であってもよい。
一実施形態において、静的触覚生成法を用いて触覚効果を設計してもよい。この方法はアバターを含む各仮想オブジェクト510a、510b、・・・510nについて、ステートマシンを設計する工程を含む。どの触覚効果を実行するかを決定する際に、アバターの状態及びアバターとインタラクションしている仮想オブジェクトの状態を含む少なくとも2つのステートマシンを考慮する必要がある。
一実施形態において、動的触覚生成法を用いて触覚効果を設計してもよい。動的触覚効果のパラメータは、アバター及びインタラクションされる仮想オブジェクトの間の力、並びに両オブジェクトの物理特性によって決定される。
ARアプリケーションと同様に、仮想オブジェクトの状態は適切な触覚フィードバックの生成に用いられ、異なる状態は異なる触覚効果と対応する。さらに、触覚向上型仮想オブジェクトは、ローカルメモリだけでなくクラウド上、すなわち、クラウド・コンピューティング・システムの一部であるサーバ310のメモリ装置320上にも記憶してもよい。
本発明の実施形態は、アプリケーション・ベース、イベント・ベースではなく、オブジェクト・ベースの触覚デザインを提供する。本発明の実施形態は、特定のアプリケーションに依存せず、複数のAR/VRアプリケーションで使用可能な触覚アセットを有する仮想オブジェクトを提供する。
一実施形態において、システム10は、複数の電子装置100及びAR/VR装置200を備え、このような装置の複数のユーザは、同一の仮想オブジェクトに対して同時にインタラクションすることができるが、各々の異なるインタラクションに応じて異なる触覚効果を感じることができる。
本明細書に記載された実施形態は、実施可能な実装例および実施例であるが、本発明を特定の実施形態に制限することを必ずしも意図するものではない。むしろ、これらの実施形態には、当該技術分野における当業者に理解できるような変更を加えることができる。このような変更が加えられた態様も本発明の要旨及び範囲に含まれ、そして以下の請求項によって保護されるべきものである。

Claims (20)

  1. システムであって、
    仮想オブジェクトとそれに関連付けられた触覚アセットとを記憶するように構成されたメモリ装置と、
    前記仮想オブジェクトを表示するように構成された拡張又は仮想現実空間を生成するように構成された拡張又は仮想現実装置と、
    前記拡張又は仮想現実装置が前記仮想オブジェクトが関わるインタラクションを検出したときに、前記触覚アセットに基づいて触覚効果を生成するように構成された触覚出力装置を含む電子装置と、
    を備えるシステム。
  2. 前記メモリ装置がサーバの一部であり、前記電子装置が前記サーバから前記仮想オブジェクト及びそれに関連付けられた触覚アセットをダウンロードするように構成された、請求項1に記載のシステム。
  3. 前記サーバがクラウド・コンピューティング・システムの一部である、請求項2に記載のシステム。
  4. 前記電子装置が前記仮想オブジェクトを前記拡張又は仮想現実装置に伝達するように構成された、請求項2に記載のシステム。
  5. 前記電子装置がハンドヘルド電子装置である、請求項1に記載のシステム。
  6. 前記ハンドヘルド電子装置は、前記システムのユーザが前記仮想オブジェクトとインタラクションすることを可能にするように構成されたタッチスクリーンを含む、請求項5に記載のシステム。
  7. 前記電子装置がウェアラブル電子装置である、請求項1に記載のシステム。
  8. 前記拡張又は仮想現実装置がヘッドマウントディスプレイである、請求項1に記載のシステム。
  9. 前記メモリ装置、前記拡張又は仮想現実装置、及び前記電子装置が単一の一体化された装置の一部である、請求項1に記載のシステム。
  10. 前記触覚アセットは、前記触覚出力装置が前記触覚効果を生成するための制御信号の少なくとも1つのパラメータを含む、請求項1に記載のシステム。
  11. 前記少なくとも1つのパラメータは、前記制御信号の振幅、周波数、及び継続時間からなる群から選択される、請求項1に記載のシステム。
  12. 前記電子装置が前記仮想オブジェクトの状態を判定するように構成され、前記触覚効果は前記仮想オブジェクトの前記状態に従って予め設計された触覚効果である、請求項1に記載のシステム。
  13. 前記電子装置は、入力された力及び前記仮想オブジェクトの物理特性に従って触覚パラメータを動的に計算するように構成された、請求項1に記載のシステム。
  14. 前記電子装置は前記仮想オブジェクトの状態を監視するように構成され、前記触覚出力装置は前記仮想オブジェクトの前記状態が変わるときに異なる触覚効果を生成するように構成された、請求項1に記載のシステム。
  15. メモリ装置から仮想オブジェクト及びそれに関連付けられた触覚アセットを取得する工程と、
    拡張又は仮想現実装置によって生成された拡張又は仮想現実空間内に前記仮想オブジェクトを表示する工程と、
    前記拡張又は仮想現実装置が前記仮想オブジェクトが関わるインタラクションを検出したときに、触覚出力装置を用いて前記触覚アセットに基づいて触覚効果を生成する工程と、
    を備える方法。
  16. 電子装置を用いてサーバの前記メモリ装置から仮想オブジェクトをダウンロードする工程をさらに備える、請求項15に記載の方法。
  17. 前記サーバがクラウド・コンピューティング・システムの一部である、請求項15に記載の方法。
  18. 前記触覚効果を生成する工程は、前記仮想オブジェクトの状態を判定する工程と、及び前記仮想オブジェクトの前記状態に従って予め設計された触覚効果を実行する工程とを含む、請求項15に記載の方法。
  19. 前記触覚効果を生成する工程は、入力された力及び前記仮想オブジェクトの物理特性に従って触覚パラメータを動的に計算する工程を含む、請求項15に記載の方法。
  20. 前記仮想オブジェクトの状態を監視する工程と、前記仮想オブジェクトの前記状態が変わるときに異なる触覚効果を生成する工程と、をさらに含む、請求項15に記載の方法。
JP2015242785A 2014-12-31 2015-12-14 拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成するシステム及び方法 Pending JP2016126772A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/587,210 2014-12-31
US14/587,210 US20160189427A1 (en) 2014-12-31 2014-12-31 Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications

Publications (1)

Publication Number Publication Date
JP2016126772A true JP2016126772A (ja) 2016-07-11

Family

ID=55024916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015242785A Pending JP2016126772A (ja) 2014-12-31 2015-12-14 拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成するシステム及び方法

Country Status (5)

Country Link
US (1) US20160189427A1 (ja)
EP (1) EP3040814A1 (ja)
JP (1) JP2016126772A (ja)
KR (1) KR20160081809A (ja)
CN (1) CN105739683A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180077974A (ko) * 2016-12-29 2018-07-09 유한책임회사 매드제너레이터 로봇을 이용하여 사용자에게 피드백을 제공하는 vr-로봇 연동 시스템 및 방법
CN108686371A (zh) * 2017-03-31 2018-10-23 株式会社万代南梦宫娱乐 仿真系统
WO2018207662A1 (ja) * 2017-05-11 2018-11-15 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019192243A (ja) * 2018-04-20 2019-10-31 イマージョン コーポレーションImmersion Corporation 没入型現実環境において触覚効果を生成する触覚対応ウェアラブルデバイス
JP2020091898A (ja) * 2017-12-28 2020-06-11 イマージョン コーポレーションImmersion Corporation 仮想現実の長距離相互作用のためのシステム及び方法

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9971406B2 (en) 2014-12-05 2018-05-15 International Business Machines Corporation Visually enhanced tactile feedback
KR20160133306A (ko) * 2015-05-12 2016-11-22 삼성전자주식회사 웨어러블 디바이스 및 웨어러블 디바이스의 피드백 제공 방법
EP3332314B1 (en) * 2015-08-04 2024-04-10 Google LLC Input via context sensitive collisions of hands with objects in virtual reality
US10511895B2 (en) * 2015-10-09 2019-12-17 Warner Bros. Entertainment Inc. Cinematic mastering for virtual reality and augmented reality
WO2017066801A1 (en) * 2015-10-16 2017-04-20 Bent Image Lab, Llc Augmented reality platform
US10551909B2 (en) * 2016-04-07 2020-02-04 Qubit Cross Llc Virtual reality system capable of communicating sensory information
US10773179B2 (en) 2016-09-08 2020-09-15 Blocks Rock Llc Method of and system for facilitating structured block play
CN108073270A (zh) * 2016-11-17 2018-05-25 百度在线网络技术(北京)有限公司 应用于虚拟现实设备的方法和装置以及虚拟现实设备
CN106681490A (zh) * 2016-11-29 2017-05-17 维沃移动通信有限公司 一种虚拟现实终端的数据处理方法和虚拟现实终端
US11037321B2 (en) * 2016-12-02 2021-06-15 Koninklijke Kpn N.V. Determining size of virtual object
CN110199260B (zh) * 2016-12-06 2023-03-24 瑞典爱立信有限公司 生成触觉模型
US10427039B2 (en) * 2016-12-08 2019-10-01 Immersion Corporation Haptic surround functionality
GB2560003B (en) * 2017-02-24 2021-08-18 Sony Interactive Entertainment Inc Virtual reality
US10565795B2 (en) 2017-03-06 2020-02-18 Snap Inc. Virtual vision system
US10254846B1 (en) 2017-03-15 2019-04-09 Meta Company Systems and methods to facilitate interactions with virtual content in an augmented reality environment
US10251011B2 (en) 2017-04-24 2019-04-02 Intel Corporation Augmented reality virtual reality ray tracing sensory enhancement system, apparatus and method
US11782669B2 (en) * 2017-04-28 2023-10-10 Microsoft Technology Licensing, Llc Intuitive augmented reality collaboration on visual data
WO2018226472A1 (en) * 2017-06-08 2018-12-13 Honeywell International Inc. Apparatus and method for visual-assisted training, collaboration, and monitoring in augmented/virtual reality in industrial automation systems and other systems
WO2019009455A1 (ko) * 2017-07-07 2019-01-10 ㈜리얼감 포스 피드백 장치 및 방법
EP3542252B1 (en) 2017-08-10 2023-08-02 Google LLC Context-sensitive hand interaction
EP3682310A1 (en) * 2017-09-11 2020-07-22 Google LLC Switchable virtual reality and augmented reality device
CN111065987B (zh) * 2017-09-25 2023-07-28 惠普发展公司,有限责任合伙企业 增强现实系统、增强现实输入设备和计算机可读存储介质
US10515484B1 (en) 2017-10-20 2019-12-24 Meta View, Inc. Systems and methods to facilitate interactions with virtual content in an interactive space using visual indicators
EP3476448B1 (de) * 2017-10-24 2021-12-08 VR Coaster GmbH & Co. KG Vr-vorrichtung zum erzeugen und darstellen einer virtuellen realität
US20190155387A1 (en) * 2017-11-22 2019-05-23 Immersion Corporation Haptic Accessory Apparatus
US10572017B2 (en) * 2018-04-20 2020-02-25 Immersion Corporation Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments
WO2019225170A1 (ja) * 2018-05-21 2019-11-28 株式会社ワコム 位置指示デバイス及び空間位置指示システム
US10607391B2 (en) 2018-07-04 2020-03-31 International Business Machines Corporation Automated virtual artifact generation through natural language processing
CN109032343B (zh) * 2018-07-04 2022-02-11 青岛理工大学 基于视觉和力觉触觉增强现实的工业人机交互系统及方法
US10976820B2 (en) * 2018-07-12 2021-04-13 Microsoft Technology Licensing, Llc Natural interactions with virtual objects and data through touch
US20200192480A1 (en) * 2018-12-18 2020-06-18 Immersion Corporation Systems and methods for providing haptic effects based on a user's motion or environment
US11017231B2 (en) * 2019-07-10 2021-05-25 Microsoft Technology Licensing, Llc Semantically tagged virtual and physical objects
GB2587368A (en) * 2019-09-25 2021-03-31 Sony Interactive Entertainment Inc Tactile output device and system
US11561669B2 (en) * 2021-01-08 2023-01-24 Ford Global Technologies, Llc Systems and methods of using a digital twin for interacting with a city model
CN113672097B (zh) * 2021-10-22 2022-01-14 华中师范大学 一种立体综合教学场中教师手部感知交互方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002304246A (ja) * 2001-04-04 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> 力覚提示装置及び仮想空間システム
WO2006006686A1 (ja) * 2004-07-15 2006-01-19 Nippon Telegraph And Telephone Corporation 力覚提示装置、力覚提示方法および力覚提示プログラム
CN1898630A (zh) * 2004-07-15 2007-01-17 日本电信电话株式会社 力觉提示装置、力觉提示方法以及力觉提示程序
US20080059131A1 (en) * 2006-08-29 2008-03-06 Canon Kabushiki Kaisha Force sense presentation device, mixed reality system, information processing method, and information processing apparatus
JP2008123061A (ja) * 2006-11-08 2008-05-29 Canon Inc 力覚提示装置及び複合現実感システム
US20120223880A1 (en) * 2012-02-15 2012-09-06 Immersion Corporation Method and apparatus for producing a dynamic haptic effect
JP2013004087A (ja) * 2011-06-10 2013-01-07 Samsung Electronics Co Ltd ユーザの身体特性を考慮した動的ユーザインターフェース提供装置及び方法
WO2013073437A1 (ja) * 2011-11-15 2013-05-23 ソニー株式会社 情報処理装置及び方法
JP2013114402A (ja) * 2011-11-28 2013-06-10 Kyocera Corp 装置、方法及びプログラム
JP2013196465A (ja) * 2012-03-21 2013-09-30 Kddi Corp オブジェクト選択時に触覚応答が付与されるユーザインタフェース装置、触覚応答付与方法及びプログラム
US20140306891A1 (en) * 2013-04-12 2014-10-16 Stephen G. Latta Holographic object feedback
WO2014171200A1 (ja) * 2013-04-16 2014-10-23 ソニー株式会社 情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システム
JP2014203457A (ja) * 2013-04-01 2014-10-27 レノボ・シンガポール・プライベート・リミテッド タッチ入力デバイスのハプティック・フィードバック

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000067246A1 (en) * 1999-05-05 2000-11-09 Immersion Corporation Command of force sensations in a force feedback system using force effect suites
US7159008B1 (en) * 2000-06-30 2007-01-02 Immersion Corporation Chat interface with haptic feedback functionality
GB2467461B (en) * 2007-09-14 2012-03-07 Nat Inst Of Advanced Ind Scien Virtual reality environment generating apparatus and controller apparatus
KR100927009B1 (ko) * 2008-02-04 2009-11-16 광주과학기술원 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템
CN102473034B (zh) * 2009-07-22 2015-04-01 意美森公司 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法
KR20110051044A (ko) * 2009-11-09 2011-05-17 광주과학기술원 사용자에게 3차원 객체의 촉감 정보를 제공하는 방법 및 장치
US9059201B2 (en) * 2010-04-28 2015-06-16 Acorn Technologies, Inc. Transistor with longitudinal strain in channel induced by buried stressor relaxed by implantation
US9417665B2 (en) * 2010-06-28 2016-08-16 Apple Inc. Providing an alternative human interface
US9349218B2 (en) * 2012-07-26 2016-05-24 Qualcomm Incorporated Method and apparatus for controlling augmented reality
US9245428B2 (en) * 2012-08-02 2016-01-26 Immersion Corporation Systems and methods for haptic remote control gaming
US10528135B2 (en) * 2013-01-14 2020-01-07 Ctrl-Labs Corporation Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display
US20140198130A1 (en) * 2013-01-15 2014-07-17 Immersion Corporation Augmented reality user interface with haptic feedback
US9092954B2 (en) * 2013-03-15 2015-07-28 Immersion Corporation Wearable haptic device
US9939900B2 (en) * 2013-04-26 2018-04-10 Immersion Corporation System and method for a haptically-enabled deformable surface
KR20150118813A (ko) * 2014-04-15 2015-10-23 삼성전자주식회사 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
US9690370B2 (en) * 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
WO2015188011A1 (en) * 2014-06-04 2015-12-10 Quantum Interface, Llc. Dynamic environment for object and attribute display and interaction
US20190347865A1 (en) * 2014-09-18 2019-11-14 Google Inc. Three-dimensional drawing inside virtual reality environment
CN104199554B (zh) * 2014-09-21 2017-02-01 吉林大学 一种应用于移动终端的静电力触觉再现方法和装置

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002304246A (ja) * 2001-04-04 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> 力覚提示装置及び仮想空間システム
WO2006006686A1 (ja) * 2004-07-15 2006-01-19 Nippon Telegraph And Telephone Corporation 力覚提示装置、力覚提示方法および力覚提示プログラム
CN1898630A (zh) * 2004-07-15 2007-01-17 日本电信电话株式会社 力觉提示装置、力觉提示方法以及力觉提示程序
US20080059131A1 (en) * 2006-08-29 2008-03-06 Canon Kabushiki Kaisha Force sense presentation device, mixed reality system, information processing method, and information processing apparatus
JP2008123061A (ja) * 2006-11-08 2008-05-29 Canon Inc 力覚提示装置及び複合現実感システム
JP2013004087A (ja) * 2011-06-10 2013-01-07 Samsung Electronics Co Ltd ユーザの身体特性を考慮した動的ユーザインターフェース提供装置及び方法
WO2013073437A1 (ja) * 2011-11-15 2013-05-23 ソニー株式会社 情報処理装置及び方法
JP2013114402A (ja) * 2011-11-28 2013-06-10 Kyocera Corp 装置、方法及びプログラム
US20120223880A1 (en) * 2012-02-15 2012-09-06 Immersion Corporation Method and apparatus for producing a dynamic haptic effect
JP2013196465A (ja) * 2012-03-21 2013-09-30 Kddi Corp オブジェクト選択時に触覚応答が付与されるユーザインタフェース装置、触覚応答付与方法及びプログラム
JP2014203457A (ja) * 2013-04-01 2014-10-27 レノボ・シンガポール・プライベート・リミテッド タッチ入力デバイスのハプティック・フィードバック
US20140306891A1 (en) * 2013-04-12 2014-10-16 Stephen G. Latta Holographic object feedback
WO2014171200A1 (ja) * 2013-04-16 2014-10-23 ソニー株式会社 情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システム
CN105144248A (zh) * 2013-04-16 2015-12-09 索尼公司 信息处理设备和信息处理方法、显示设备和显示方法与信息处理系统

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180077974A (ko) * 2016-12-29 2018-07-09 유한책임회사 매드제너레이터 로봇을 이용하여 사용자에게 피드백을 제공하는 vr-로봇 연동 시스템 및 방법
CN108686371A (zh) * 2017-03-31 2018-10-23 株式会社万代南梦宫娱乐 仿真系统
JP2018171319A (ja) * 2017-03-31 2018-11-08 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
WO2018207662A1 (ja) * 2017-05-11 2018-11-15 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US11144114B2 (en) 2017-05-11 2021-10-12 Sony Corporation Information processing apparatus and information processing method
JP2020091898A (ja) * 2017-12-28 2020-06-11 イマージョン コーポレーションImmersion Corporation 仮想現実の長距離相互作用のためのシステム及び方法
JP2019192243A (ja) * 2018-04-20 2019-10-31 イマージョン コーポレーションImmersion Corporation 没入型現実環境において触覚効果を生成する触覚対応ウェアラブルデバイス

Also Published As

Publication number Publication date
US20160189427A1 (en) 2016-06-30
CN105739683A (zh) 2016-07-06
KR20160081809A (ko) 2016-07-08
EP3040814A1 (en) 2016-07-06

Similar Documents

Publication Publication Date Title
JP2016126772A (ja) 拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成するシステム及び方法
JP6644035B2 (ja) 手袋インタフェースオブジェクト及び方法
US11614793B2 (en) Precision tracking of user interaction with a virtual input device
US10974138B2 (en) Haptic surround functionality
CN110832441B (zh) 用于虚拟、增强和混合现实显示系统的键盘
US10317997B2 (en) Selection of optimally positioned sensors in a glove interface object
US10275025B2 (en) Gloves that include haptic feedback for use with HMD systems
CN110096131B (zh) 触感交互方法、装置、以及触感可穿戴设备
JP2022540315A (ja) 人工現実環境において周辺デバイスを使用する仮想ユーザインターフェース
EP4123425A1 (en) Eye tracking calibration techniques
EP2755113A2 (en) A system of providing feedback based on an augmented reality environment
EP3588250A1 (en) Real-world haptic interactions for a virtual reality user
US8553049B2 (en) Information-processing apparatus and information-processing method
EP3364272A1 (en) Automatic localized haptics generation system
JP2022535315A (ja) 自己触覚型仮想キーボードを有する人工現実システム
US20170003738A1 (en) Systems and methods for immersive physical interaction with a virtual environment
WO2019024051A1 (en) HAPTIC GLOVES FOR VIRTUAL REALITY SYSTEMS AND METHODS OF CONTROLLING THEM
CN108431734A (zh) 用于非触摸式表面交互的触觉反馈
US20150241984A1 (en) Methods and Devices for Natural Human Interfaces and for Man Machine and Machine to Machine Activities
JP2022534639A (ja) 指マッピング自己触覚型入力方法を有する人工現実システム
US20180011538A1 (en) Multimodal haptic effects
JP6732078B2 (ja) 触覚オーバーレイを拡張現実に統合するシステム、方法及び非一時的コンピュータ可読媒体
CN117716322A (zh) 增强现实(ar)笔/手跟踪
WO2014138880A1 (en) System and method for controlling an event in a virtual reality environment based on the body state of a user
KR101605740B1 (ko) 스마트폰 사용자의 개인화된 동작인식 방법 및 이를 이용한 게임방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190809

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190815

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191030

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200720

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210301