JP2017224290A - 日和見ディスプレイのための触覚フィードバック - Google Patents

日和見ディスプレイのための触覚フィードバック Download PDF

Info

Publication number
JP2017224290A
JP2017224290A JP2017111445A JP2017111445A JP2017224290A JP 2017224290 A JP2017224290 A JP 2017224290A JP 2017111445 A JP2017111445 A JP 2017111445A JP 2017111445 A JP2017111445 A JP 2017111445A JP 2017224290 A JP2017224290 A JP 2017224290A
Authority
JP
Japan
Prior art keywords
display device
user
haptic
haptic effect
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017111445A
Other languages
English (en)
Inventor
ビンセント レベスク、
Levesque Vincent
ビンセント レベスク、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2017224290A publication Critical patent/JP2017224290A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI

Abstract

【課題】日和見ディスプレイのための触覚フィードバックを提供する。【解決手段】システム100は、センサ132、コンピュータ装置101の近く又はコンピュータ装置のユーザの視野内に有るディスプレイ装置136を検出するように構成されるセンサと通信するコンピュータ装置を含む。また、センサは、センサと通信するプロセッサ102にディスプレイ装置に関係付けられる信号を送信するように構成される。プロセッサは、信号に基づいて、コンテンツ(例えば、テキスト、画像、音声、映像等)を表示または、出力するためのディスプレイ装置の可用性及びディスプレイ装置の場所を決定するように構成される。また、プロセッサは、ディスプレイ装置の可用性及び場所に基づいて触覚効果を決定し、かつ、触覚効果に関係付けられる触覚信号を送信するように構成される。また、触覚信号を受信して、触覚効果を出力するように構成される触覚出力装置も含む。【選択図】図1

Description

本開示は、一般に、ユーザインターフェース装置に関する。より詳細には、限定されないが、本開示は、日和見ディスプレイのための触覚フィードバックに関する。
現代の多くの装置は、装置のユーザにコンテンツを提供するために使用できるディスプレイ装置を含んでいる。コンテンツは、テキスト、画像、音声、映像等を含み得る。傍観者(例えば、装置を見ている別のユーザ)も、ディスプレイ装置に提供されるコンテンツを観察する場合がある。しかしながら、一部のディスプレイ装置は触覚フィードバック機能を欠く場合がある。更に、ディスプレイが傍観者に関連しているかもしれないコンテンツを提供している場合に、傍観者の注意がディスプレイに引き付けられない場合がある。
本開示の様々な実施形態は、日和見ディスプレイのための触覚フィードバックを提供するシステム及び方法を提供する。
一実施形態では、本開示のシステムは、コンピュータ装置とコンピュータ装置に通信可能に結合されるセンサとを備えてもよい。センサは、センサに近接し且つコンピュータ装置のユーザの視野内に有るディスプレイ装置を検出して、ディスプレイ装置に関係付けられる信号を送信するように構成され得る。また、システムは、センサと通信するプロセッサを備え、プロセッサは、センサから信号を受信し、信号に基づいて、コンテンツ(例えば、テキスト、画像、音声、映像、アニメーショングラフィックス等)をユーザに表示又は出力するためのディスプレイ装置の可用性を決定し、ディスプレイ装置の場所を決定するように構成される。また、プロセッサは、ディスプレイ装置の可用性及びディスプレイ装置の場所に少なくとも部分的に基づいて第1の触覚効果を決定するように構成され得る。プロセッサは、第1の触覚効果に関係付けられる第1の触覚信号を送信し得る。システムは、第1の触覚信号を受信して、第1の触覚効果を出力するように構成される触覚出力装置を更に備えてもよい。
別の実施形態では、本開示の方法は、コンピュータ装置に通信可能に結合されるセンサによって、センサに近接し且つコンピュータ装置のユーザの視野内に有るディスプレイ装置を検出するステップと、センサによって、ディスプレイ装置に関係付けられるセンサ信号をプロセッサに送信するステップとを含んでもよい。また、方法は、プロセッサによって、センサ信号に少なくとも部分的に基づいて、ユーザにコンテンツを出力するディスプレイ装置の可用性及びディスプレイ装置の場所を決定するステップを含んでもよい。また、方法は、プロセッサによって、ディスプレイ装置の可用性及びディスプレイ装置の場所に少なくとも部分的に基づいて第1の触覚効果を決定するステップを含んでもよい。また、方法は、プロセッサによって、第1の触覚効果に関係付けられる第1の触覚信号を触覚出力装置に送信するステップを含んでもよい。触覚出力装置は、第1の触覚信号を受信して、第1の触覚効果を出力するように構成されてもよい。更に別の実施形態は、このような方法を実装するためのコンピュータ可読媒体を含む。
こうした例示の実施形態は、本主題を限定し又はその限界を定義するためではなく、その理解を支援するための例示を提供するために言及される。例示の実施形態は、詳細な説明において検討され、そこでは更なる説明が提供される。本明細書を吟味することによって、及び/又は請求項に記載の主題の1つ以上の実施形態を実施することによって、様々な実施形態によってもたらされる利点が更に理解され得る。
本明細書の以下の部分には完全な且つ実施可能な開示がより詳細に説明される。本明細書は以下の添付の図面を参照する。
一実施形態による日和見ディスプレイ用の触覚フィードバックのためのシステムを示すブロック図である。 一実施形態による日和見ディスプレイ用の触覚フィードバックのためのシステムの実施形態を示す。 別の実施形態による日和見ディスプレイ用の触覚フィードバックのためのシステムの別の実施形態を示す。 一実施形態による日和見ディスプレイ用の触覚フィードバックを提供する方法を実行するためのステップのフローチャートである。 別の実施形態による日和見ディスプレイ用の触覚フィードバックを提供する別の方法を実行するためのステップのフローチャートである。
次に、多様な及び代替的な例示の実施形態及び添付の図面を詳細に参照する。各例示は、限定としてではなく、説明目的で提供される。修正及び変更が行われ得ることは、当業者には明らかであろう。例えば、一実施形態の一部として例示され又は記載された特徴は、更なる実施形態をもたらすために別の実施形態において使用されてもよい。従って、本開示は、添付の請求項及び均等物の範囲に入る修正及び変形を含むことが意図されている。
[日和見ディスプレイ用の触覚フィードバックの例示]
本開示の1つの例示的な実施形態は、スマートフォン又はスマートウォッチ等のコンピュータ装置を含む。コンピュータ装置は、センサ、メモリ、触覚出力装置、及びこうした要素の各々と通信するプロセッサを備える。
例示の実施形態では、センサは、コンピュータ装置の近くに日和見ディスプレイ装置を検出してもよい。日和見ディスプレイ装置は、コンピュータ装置、センサ、又はコンピュータ装置のユーザ(例えば、スマートウォッチを装着しているユーザ又はスマートフォンのユーザ)に近接しているディスプレイ装置を含み、コンピュータ装置のユーザ又は別のユーザにコンテンツを出力又は表示するために使用され得る。例えば、日和見ディスプレイ装置は、別のスマートフォン、スマートウォッチ上のディスプレイ装置、又はユーザの近くでコンピュータ装置のユーザの視野内に有る他のディスプレイ装置であってもよく、ディスプレイ装置がユーザにコンテンツを提供するために使用できるようにコンピュータ装置と通信可能であってもよい。従って、例えば、ユーザは、ユーザのコンピュータ装置でコンテンツを受信するが、日和見ディスプレイに表示されるコンテンツを見たい可能性が有る。例えば、ユーザが別の人物に向かい合って座っており、他の人物のスマートウォッチディスプレイを見ることができる場合、ユーザは、スマートウォッチがユーザの視野に有る間に所定のテキストメッセージが他の人物のスマートウォッチディスプレイに表示されることを希望してもよい。そのようにすることで、ユーザは、ユーザ自身のコンピュータ装置にアクセスしたり又はそれを観察しなくても、他の人物への混乱を最小限にしてテキストメッセージのコンテンツを見ることが可能になる。
例示の実施形態では、センサは、日和見ディスプレイ装置を検出して、プロセッサに信号を送信する。プロセッサは、信号に基づいて日和見ディスプレイ装置の可用性及び場所を検出する。日和見ディスプレイ装置の可用性は、日和見ディスプレイ装置がユーザにコンテンツを表示するために利用可能であること及び/又はユーザにコンテンツを表示していることを示してもよい。このような実施形態では、プロセッサは、日和見ディスプレイ装置によって出力されるために、コンテンツを含むデータを日和見ディスプレイ装置に送信するように構成され得る。例示の実施形態では、プロセッサは、日和見ディスプレイ装置の可用性に少なくとも部分的に基づく第1の触覚効果及び日和見ディスプレイ装置の場所に少なくとも部分的に基づく第2の触覚効果を決定するように構成される。こうした触覚信号は、単一の合成触覚効果を形成するために結合されてもよい。
例示の実施形態では、プロセッサは、第1の触覚効果に関係付けられる第1の触覚信号及び第2の触覚効果に関係付けられる第2の触覚信号を触覚出力装置に送信するように構成される。触覚出力装置は、日和見ディスプレイ装置の可用性に関係付けられる1つ以上の第1の触覚効果(例えば、テクスチャ、振動、ストロークの感覚、及び/又は突き刺すような感覚)を出力するように構成される。例示の実施形態では、1つ以上の第1の触覚効果は、日和見ディスプレイ装置が利用可能であること(例えば、ユーザに関連し得るプロセッサから受信したコンテンツを表示していること)をコンピュータ装置のユーザに示すことができる。
また、例示の実施形態では、触覚出力装置は、日和見ディスプレイ装置の場所に関係付けられる1つ以上の第2の触覚効果を出力するように構成される。このような実施形態では、1つ以上の第2の触覚効果は、日和見ディスプレイ装置の場所(例えば、日和見ディスプレイ装置に表示されているコンテンツを観察するためにどこを見るべきか)をコンピュータ装置のユーザに示す。このようにして、第1及び第2の触覚効果は、日和見ディスプレイ装置に表示されるコンテンツを観察するためにいつどこを見るべきかをコンピュータ装置のユーザに示す。
例示の実施形態では、日和見ディスプレイ装置は、センサ、メモリ、触覚出力装置、及びこうした要素の各々と通信するプロセッサを備えてもよい。このような実施形態では、センサは、コンピュータ装置のユーザの視野又はユーザの視線の方向を検出してもよい。例えば、日和見ディスプレイは、ビデオスクリーンに対して通過するユーザの視野を検出するための埋め込み又は近接センサを有するビデオスクリーンを備えてもよい。センサは、プロセッサに信号を送信してもよく、プロセッサは、コンピュータ装置のユーザの視野の方向に基づく触覚信号を触覚出力装置に送信する。触覚出力装置は、プロセッサから触覚信号を受信して、コンピュータ装置のユーザの視野に関係付けられる1つ以上の触覚効果を出力するように構成される。例示の実施形態では、触覚出力効果は、コンピュータ装置のユーザが日和見ディスプレイ装置を見ていることを日和見ディスプレイ装置に関係付けられる別のユーザ(例えば、日和見ディスプレイ装置として使用されているスマートウォッチを装着しているユーザ)に示し得る。
こうした例示は、本明細書で検討される一般的な主題を読者に紹介するために与えられており、本開示の概念をこの例示に限定することを意図していない。以下の節には、図面を参照して様々な追加の特徴及び例が記載されている。図面において、同じ数字は同じ要素を示しており、方向の記載は、例示を記載しているのであって、例示のように、本開示を限定するために使用されるべきではない。
[日和見ディスプレイ用の触覚フィードバックの例示のシステム]
図1は、一実施形態による日和見ディスプレイ用の触覚フィードバックのためのシステム100を示すブロック図である。図1に示された実施形態では、システム100は、バス106を介して他のハードウェアと通信するプロセッサ102を有するコンピュータ装置101を備える。コンピュータ装置101は、例えば、移動装置(例えば、スマートフォン)、タブレット、Eリーダ、スマートウォッチ、ヘッドマウント型ディスプレイ、メガネ、装着可能装置等を含んでもよい。
RAM、ROM又はEEPROM等の任意の適切な有形の(及び非一時的な)コンピュータ可読媒体を含み得るメモリ104が、コンピュータ装置101の動作を構成するプログラムコンポーネントを具現化する。図示の実施形態では、コンピュータ装置101は、1つ以上のネットワークインターフェース装置110、入力/出力(I/O)インターフェース要素112、及び記憶装置114を更に含む。
ネットワーク装置110は、ネットワーク接続を容易にする1つ以上の任意の構成要素を表し得る。限定されないが、例示には、Ethernet(登録商標)、USB、IEEE1394等の有線インターフェース、及び/又はIEEE802.11、Bluetooth(登録商標)等の無線インターフェース、又は携帯電話ネットワークにアクセスするための無線インターフェース(例えば、CDMA、GSM(登録商標)、UMTS又は他の移動通信ネットワーク)が含まれる。
I/Oコンポーネント112は、1つ以上のディスプレイ134、ゲームコントローラ、キーボード、マウス、ジョイスティック、カメラ、ボタン、スピーカ、マイクロホン、及び/又はデータの入力若しくは出力に使用される他のハードウェア等の装置への有線又は無線接続を容易にするために使用されてもよい。記憶装置114は、コンピュータ装置101に含まれ又はプロセッサ102に結合される磁気、光学、又は他の記憶媒体等の不揮発性記憶装置を表す。
一部の実施形態では、コンピュータ装置101は、タッチセンサ面116を有する。タッチセンサ面116は、ユーザの触覚入力を感知するように構成される任意の表面を表す。1つ以上のタッチセンサ108は、(例えば、物体がタッチセンサ面116に接触する場合に)接触領域における接触を検出して、プロセッサ102に接触に関係付けられる信号を送信するように構成される。任意の適切な数、種類、又は配置のタッチセンサ108が使用され得る。例えば、抵抗性及び/又は容量性のセンサが、タッチセンサ面116に組み込まれて、タッチの場所及び圧力、速さ、及び/又は方向等の他の情報を検出するために使用されてもよい。
タッチセンサ108は、追加的に又は代替的に、他のタイプのセンサを含み得る。例えば、タッチ位置を決定するために、タッチセンサ面116のビューを備える光学センサが使用されてもよい。別の例示として、タッチセンサ108は、ディスプレイの側部に取り付けられるLED(Light Emitting Diode)指検出器を含んでもよい。一部の実施形態では、タッチセンサ108は、ユーザ相互作用の複数の態様を検出するように構成されてもよい。例えば、タッチセンサ108は、ユーザ相互作用の速さ、圧力及び方向を検出して、この情報をプロセッサ102に送信される信号に組み込んでもよい。
一部の実施形態では、コンピュータ装置101は、コンピュータ装置101のタッチセンサ面116及びディスプレイ134を組み合わせたタッチ可能ディスプレイを備える。タッチセンサ面116は、ディスプレイ134の外部又はディスプレイ134のコンポーネントの上の1つ以上の材料層に対応してもよい。他の実施形態では、コンピュータ装置101は、コンピュータ装置101とインターフェース接続されたシステム11に含まれるディスプレイ134に設けられるグラフィカルユーザインターフェースにマッピングされ得るタッチセンサ面116を備える。
一部の実施形態では、コンピュータ装置101は、カメラ130を備える。カメラ130は図1においてコンピュータ装置101の内部に有るように描かれているが、一部の実施形態では、カメラ130はコンピュータ装置101の外部に有って通信してもよい。例えば、カメラ130は、コンピュータ装置101の外部に有り、Ethernet、USB、IEEE1394等の有線インターフェース、及び/又はIEEE802.11、ブルートゥース(登録商標)、又はラジオインターフェース等の無線インターフェースを介してコンピュータ装置101と通信してもよい。
一部の実施形態では、コンピュータ装置101は1つ以上のセンサ132を備える。一部の実施形態では、センサ132は、例えば、ジャイロスコープ、加速度計、グローバルポジショニングシステム(GPS)ユニット、距離センサ、深度センサ、ブルートゥース装置、カメラ、赤外線センサ、QR(quick response)コードセンサ等を含んでもよい。一部の実施形態では、センサ132は、例えば、装置を識別し得る装着式カメラ(例えば、Google Glass)を含むカメラを含んでもよい。一部の実施形態では、コンピュータ装置101は、ウェアラブル装置(例えば、メガネ)を含んでもよく、センサ132は、コンピュータ装置101のユーザの凝視、視線又は視野を検出する任意の装置を含んでもよい。一部の実施形態では、センサ132は、コンピュータ装置101の外部に有り、コンピュータ装置と有線又は無線で通信する。
一部の実施形態では、センサ132は、センサ132、コンピュータ装置101又はコンピュータ装置101のユーザに近接している日和見ディスプレイ装置(例えば、ディスプレイ装置136、又は別のコンピュータ装置)の可用性、存在又は場所を検出してもよい。例えば、センサ132は、センサ132とディスプレイ装置との間の信号強度を分析することにより、別のブルートゥース装置(例えば、ブルートゥースディスプレイ装置)又はネットワーク装置の存在及び場所を検出するように構成されるブルートゥース装置又は他のネットワーク装置であってもよい。一部の実施形態では、センサ132は、(例えば、センサ132とディスプレイ装置との間のブルートゥース信号の強度に基づいて)センサ132、コンピュータ装置101又はコンピュータ装置101のユーザとディスプレイ装置との間の距離を検出してもよい。別の例示として、センサ132は、室内測位技術を使用してディスプレイ装置の可用性、存在又は場所を決定してもよい。更に別の例では、センサ132は、センサ132、コンピュータ装置101又はコンピュータ装置101のユーザの位置又は場所に関するデータをサーバ又は他の装置に送信してもよい。それに応じて、サーバ又は他の装置は、センサ132によって送信されたデータに基づいてセンサ132又はコンピュータ装置101に近い他の装置(例えば、ディスプレイ装置136)の位置、場所又は可用性に関するデータを送信してもよい。
一部の実施形態では、センサ132は、センサ132の近くの装置に関する他のデータを検出してもよい。例えば、センサ132は、センサ132の近くの装置(例えば、ディスプレイ装置136)のタイプ、サイズ、形状等を検出してもよい。
一部の実施形態では、プロセッサ102は単一のセンサ132と通信し、他の実施形態では、プロセッサ102は複数のセンサ132、例えば、ジャイロスコープ、加速度計及びブルートゥース装置と通信してもよい。センサ132は、プロセッサ102にセンサ信号を送信するように構成される。
一部の実施形態では、システム100は、プロセッサ102と通信する触覚出力装置118を更に含む。触覚出力装置118は、触覚信号に応答して触覚効果を出力するように構成される。例えば、触覚出力装置118は、プロセッサ102からの触覚信号に応じて触覚効果を出力し得る。一部の実施形態では、触覚出力装置118は、例えば、振動、絞り、突き、知覚される摩擦係数の変化、疑似テクスチャ、ストロークの感覚、電気触知効果、又は表面変形(例えば、コンピュータ装置101に関係付けられる表面の変形)、及び/又は固体、液体若しくは気体の吹き出しを含む触覚効果を出力するように構成される。更に、一部の触覚効果は、同じ又は異なるタイプの複数の触覚出力装置118を順番に及び/又は同時に使用してもよい。図1には単一の触覚出力装置118が示されているが、一部の実施形態では、触覚効果を生ずるために同じ又は異なるタイプの複数の触覚出力装置118が使用されてもよい。
一部の実施形態では、触覚出力装置118は、プロセッサ102と通信し、コンピュータ装置101の内部に有る。他の実施形態では、触覚出力装置118は、コンピュータ装置101の外部に有り、(例えば、イーサネット(登録商標)、USB、IEEE1394等の有線インターフェース、及び/又はIEEE802.11、ブルートゥース、又はラジオインターフェース等の無線インターフェースを介して)コンピュータ装置101と通信してもよい。例えば、触覚出力装置118は、ウェアラブル装置(例えば、リストバンド、ブレスレット、帽子、ヘッドバンド等)に関係付けられ(例えば、結合され)、プロセッサ102から触覚信号を受信するように構成されてもよい。
一部の実施形態では、触覚出力装置118は、振動を含む触覚効果を出力するように構成される。触覚出力装置118は、例えば、圧電アクチュエータ、電気モータ、電磁アクチュエータ、音声コイル、形状記憶合金、電気活性ポリマー、ソレノイド、偏心回転質量モータ(ERM)又は線形共振アクチュエータ(LRA)の1つ以上を含んでもよい。
一部の実施形態では、触覚出力装置118は、触覚出力装置118に関係付けられる表面の知覚される摩擦係数を変調する触覚効果を出力するように構成されてもよい。一部の実施形態では、触覚出力装置118は、超音波アクチュエータを含む。超音波アクチュエータは、所定の超音波周波数、例えば、20kHzで振動して、触覚出力装置118に関係付けられる表面において知覚される係数を増加又は減少させてもよい。一部の実施形態では、超音波アクチュエータは、圧電材料を含んでもよい。
一部の実施形態では、触覚出力装置118は、静電気引力を使用して、例えば、静電アクチュエータを使用することによって、触覚効果を出力する。触覚効果は、シミュレートされるテクスチャ、シミュレートされる振動、ストロークの感覚、又はコンピュータ装置101に関係付けられる表面(タッチセンサ面116)における知覚される摩擦係数の変化を含んでもよい。一部の実施形態では、静電アクチュエータは、導電レイヤ及び絶縁レイヤを含んでもよい。導電レイヤは、任意の半導体又は銅、アルミニウム、金又は銀等の他の導電性材料であってもよい。絶縁レイヤは、ガラス、プラスチック、ポリマー、又は任意の他の絶縁性材料であってもよい。更に、プロセッサ102は、導電レイヤに電気信号、例えば、AC信号を加えることによって静電アクチュエータを動作させてもよい。一部の実施形態では、高電圧増幅器がAC信号を生成してもよい。電気信号は、導電レイヤとタッチセンサ面116に近接する又は接触するオブジェクト(例えば、ユーザの指又は体の他の部分、又はスタイラス)との間に容量結合を生成してもよい。オブジェクトと導電レイヤとの間の引力レベルの変化は、ユーザによって知覚される触覚効果を変化させることができる。
一部の実施形態では、触覚出力装置118は、変形触覚効果を出力するように構成される変形装置を含む。変形触覚効果は、コンピュータ装置101に関係付けられる表面の部分を隆起又は下降させることを含んでもよい。例えば、変形触覚効果は、タッチセンサ面116の部分を隆起させることを含んでもよい。一部の実施形態では、変形触覚効果は、コンピュータ装置101に関係付けられる表面を折り曲げ、折り畳み、丸め、捻り、絞り、屈曲させ、形状変化させ、又はそれ以外の変形をさせることを含んでもよい。例えば、変形触覚効果は、コンピュータ装置101又はコンピュータ装置101に関係付けられる表面(例えば、タッチセンサ面116)に力を加えて、それを折り曲げ、折り畳み、丸め、捻り、絞り、屈曲し、形状変化し、又はそれ以外の変形をすることを引き起こしてもよい。
一部の実施形態では、触覚出力装置118は、(例えば、コンピュータ装置101に関係付けられる表面を折り曲げ又は変形させるために)変形触覚効果を出力するように構成される流体を含む。例えば、流体はスマートゲルを含んでもよい。スマートゲルは、1つ又は複数の刺激(例えば、電界、磁界、温度、紫外線、振動、又はpH変化)に応じて変化する機械又は構造的特性を有する流体を含む。例えば、刺激に応じて、スマートゲルは、剛性、容量、透明性、及び/又は色を変化させてもよい。一部の実施形態では、剛性は、変形に対するコンピュータ装置101(例えば、タッチセンサ面116)に関係付けられる表面の抵抗を含んでもよい。一部の実施形態では、1つ以上のワイヤがスマートゲルに組み込まれ又は結合されてもよい。電流がワイヤを流れるので、熱が放射されて、スマートゲルを拡張又は収縮させることで、コンピュータ装置101又はコンピュータ装置101に関係付けられる表面を変形させてもよい。
別の例示として、流体は、レオロジー流体(例えば、磁性流体又は電気流体)を含んでもよい。レオロジー流体は、液体(例えば、油又は水)中に懸濁している金属粒子(例えば、鉄粒子)を含む。電界又は磁界に応じて、流体中の分子の秩序が再編成されて、それにより流体の全体的な制動及び/又は粘度が変更されてもよい。これがコンピュータ装置101又はコンピュータ装置101に関係付けられる表面を変形させてもよい。
一部の実施形態では、触覚出力装置118は、機械変形装置を含む。例えば、一部の実施形態では、触覚出力装置118は、変形コンポーネントを回転させるアームに結合されるアクチュエータを含んでもよい。変形コンポーネントは、例えば、楕円形、星形、又は波形形状を含んでもよい。変形コンポーネントは、所定の回転角度でコンピュータ装置101に関係付けられる表面を動かし、それ以外では動かさないように構成されてもよい。アクチュエータは、圧電アクチュエータ、回転/線形アクチュエータ、ソレノイド、電気活性ポリマアクチュエータ、MFC(macro fiber composite)アクチュエータ、形状記憶合金(SMA)アクチュエータ、及び/又は他のアクチュエータを含んでもよい。アクチュエータが変形コンポーネントを回転させると、変形コンポーネントは表面を動かして、それにより変形を引き起こしてもよい。このような実施形態では、変形コンポーネントは、表面が平坦になる位置で開始してもよい。プロセッサ102から信号を受信することに応じて、アクチュエータは変形コンポーネントを回転させてもよい。変形コンポーネントを回転させることによって、表面の1つ以上の部分が隆起させられ又は下降させられてもよい。一部の実施形態では、変形コンポーネントは、元の位置に戻るように変形コンポーネントを回転させるようにプロセッサ102がアクチュエータに信号を送るまで、この回転した状態で維持されてもよい。
更に、コンピュータ装置101に関係付けられる表面を変形させるための他の技術又は方法が用いられ得る。例えば、触覚出力装置118は、表面再構成可能な触覚基板(限定されないが、例えば、繊維、ナノチューブ、電気活性ポリマー、圧電要素、又は形状記憶合金を含む)からの接触に基づいて、その表面を変形させ又はそのテクスチャを変化させるように構成される可撓性表面レイヤを含んでもよい。一部の実施形態では、触覚出力装置118は、例えば、変形機構(例えば、ワイヤに結合されるモータ)、空気若しくは流体ポケット、材料の局部変形、共振機械要素、圧電性材料、微小電気機械システム(“MEMS”)要素又はポンプ、熱流体ポケット、MEMSポンプ、可変多孔性膜(variable porosity membranes)、又は層流変調により変形させられる。
メモリ104に関しては、モジュール124、126及び128、129は、日和見ディスプレイ用の触覚フィードバックを提供するために一部の実施形態では、装置がどのように構成され得るかを示すように描かれている。
この例示では、検出モジュール124が、タッチの位置を決定するためにタッチセンサ108を介してタッチセンサ面116を監視するようにプロセッサ102を構成する。例えば、検出モジュール124は、タッチの存在又は不存在を追跡して、タッチが存在する場合、場所、経路、速度、加速度、圧力及び/又は経時的なタッチの他の特性を追跡するためにセンサ108をサンプリングしてもよい。
一部の実施形態では、コンテンツ提供モジュール129は、コンテンツ(例えば、テキスト、画像、音声、映像等)をユーザ(例えば、コンピュータ装置101のユーザ又は別のユーザ)に提供するようにプロセッサ102を構成する。例えば、コンテンツ提供モジュール129は、ユーザに任意のフォーマットで(例えば、アニメーション画像交換フォーマットで)画像を提供するようにプロセッサ102を構成する。コンテンツがコンピュータ生成画像を含む場合、コンテンツ提供モジュール129は、ディスプレイ装置上のディスプレイ(例えば、コンピュータ装置のディスプレイ134、ディスプレイ装置136、又はプロセッサ102に通信可能に結合される別のディスプレイ)に対して画像を生成するように構成される。コンテンツが映像及び/又は静止画像を含む場合、コンテンツ提供モジュール129は、映像及び/又は静止画像にアクセスして、ディスプレイ装置のディスプレイに対して映像及び/又は静止画像のビューを生成するように構成される。コンテンツがオーディオコンテンツを含む場合、コンテンツ提供モジュール129は、ディスプレイ装置の一部であり得るスピーカを駆動して対応する音声を出力する電気信号を生成するように構成される。一部の実施形態では、コンテンツ、又はコンテンツが伝達される情報は、図1に示されるように、コンピュータ装置101の一部であり得る記憶装置114からコンテンツ提供モジュール129によって取得されてもよく、又はコンピュータ装置101から分離してコンピュータ装置101に通信可能に結合されてもよい。一部の実施形態では、コンテンツ提供モジュール129は、プロセッサ102にコンテンツを別の装置へと送信させ得る。例えば、コンテンツ提供モジュール129は、コンテンツを生成するか又はそれにアクセスして、プロセッサにコンテンツをディスプレイ装置136へと送信させ得る。
一部の実施形態では、触覚効果決定モジュール126は、生成するべき触覚効果を決定するためにデータを分析するプログラムコンポーネントを表す。触覚効果決定モジュール126は、1つ以上のアルゴリズム又はルックアップテーブルを使用して出力する1つ以上の触覚効果を選択するコードを含んでもよい。一部の実施形態では、触覚効果決定モジュール126は、触覚効果を決定するためにプロセッサ102によって使用可能な1つ以上のアルゴリズム又はルックアップテーブルを含む。
特に、一部の実施形態では、触覚効果決定モジュール126は、センサ132から受信したセンサ信号に少なくとも部分的に基づいて触覚効果を決定してもよい。例えば、プロセッサ102は、センサ132からセンサ信号を受信して、コンピュータ装置101の近くのディスプレイ装置(例えば、ディスプレイ装置136)の可用性を決定してもよい。触覚効果決定モジュール126は、ディスプレイ装置の決定された可用性に少なくとも部分的に基づいて第1の触覚効果を決定してもよい。例えば、このような実施形態では、触覚効果決定モジュール126は、ディスプレイ装置が利用可能であること(例えば、ユーザに関連し得るコンテンツを表示していること)をユーザに示すためにコンピュータ装置101に関係付けられるユーザ(例えば、コンピュータ装置を装着しているユーザ)に出力される第1の触覚効果を決定してもよい。
例えば、ディスプレイ装置136はコンピュータ装置101に近くてもよく、センサ132は(例えば、センサ132とディスプレイ装置136との間のブルートゥースの強度に基づいて)ディスプレイ装置136を検出することができる。コンピュータ装置101は、センサ132から信号を受信して、ディスプレイ装置136が利用可能であること(例えば、ディスプレイ装置136が発見可能であり、コンピュータ装置101からコンテンツを受信するために、ブルートゥースを介してコンピュータ装置101に接続するために利用可能であること)を決定し得る。触覚効果決定モジュール126は、ディスプレイ装置136が近くに有り且つディスプレイ装置136によって表示されるようにブルートゥースを介してコンピュータ装置101からコンテンツを受信していることをユーザに示すために出力される振動又は一連の振動を決定してもよい。
一部の実施形態では、プロセッサ102は、センサ132からセンサ信号を受信して、ディスプレイ装置の場所又は位置を決定してもよい。このような実施形態では、プロセッサ102は、センサ132、コンピュータ装置101、又はコンピュータ装置101若しくはセンサ132に関係付けられるユーザと、ディスプレイ装置136との間の距離を決定してもよい。触覚効果決定モジュール126は、ディスプレイ装置の決定された場所又は位置に少なくとも部分的に基づいて第2の触覚効果を決定してもよい。第2の触覚効果は、ディスプレイ装置136の場所又は位置を示し得る1つ以上の触覚効果を含んでもよい。一部の実施形態では、触覚効果決定モジュール126は、ディスプレイ装置136の場所又は位置に基づいて触覚効果の特性(例えば、振幅、持続時間、場所、タイプ、周波数等)を決定してもよい。例えば、このような実施形態では、触覚効果決定モジュール126は、ユーザに対してディスプレイ装置136の場所(例えば、垂直又は水平位置)をユーザに示すためにコンピュータ装置101のユーザに出力される第2の触覚効果を決定してもよい。
例えば、触覚効果決定モジュール126は、ディスプレイ装置136がユーザの左に位置している場合の触覚効果、及びディスプレイ装置136がユーザの正面に有る場合の別の触覚効果、及びディスプレイ装置136がユーザの上に有る場合の更に別の触覚効果を決定してもよい。別の例示として、触覚効果決定モジュール126は、ユーザがディスプレイ装置136から離れている場合の弱い若しくは短い触覚効果、又はユーザがディスプレイ装置136に近い場合の強い若しくは長い触覚効果を決定してもよい。
一部の実施形態では、触覚効果決定モジュール126は、ユーザに対するディスプレイ装置136の場所をユーザに示すために逐次触覚フィードバックを決定してもよい。このような実施形態では、触覚効果決定モジュール126は、ユーザに対するディスプレイ装置136の方向を示し得る、(例えば、ユーザの腕に沿って一連の触覚出力を決定することにより)所定の方向に向かう流れの認知を生成し得る1つ以上の触覚効果を決定してもよい。
一部の実施形態では、コンピュータ装置101は、コンピュータ装置101のユーザに対する装置(例えば、ディスプレイ装置136)の場所に関係付けられる様々な出力効果を提供するための1つ以上の触覚出力装置118を含んでもよい。
一部の実施形態では、プロセッサ102は、センサ132からセンサ信号を受信して、ディスプレイ装置のサイズ、タイプ、形状、又は他の属性を決定してもよい。このような実施形態では、触覚効果決定モジュール126は、ディスプレイ装置のサイズ、タイプ、形状、又は他の属性を示すための1つ以上の触覚効果を決定してもよい。例えば、触覚効果は、ディスプレイ装置のサイズに基づいて選択されてもよい(例えば、ディスプレイ装置が大きい場合、例えば、大型LCDスクリーンである場合に強い振動、及びディスプレイ装置が小さい場合、例えば、スマートウォッチである場合に弱い振動)。
別の実施形態では、触覚効果決定モジュール126は、コンテンツ提供モジュール129によって提供されるコンテンツに基づいて触覚効果を決定するコードを含んでもよい。例えば、コンテンツ提供モジュール129は、ディスプレイ装置136に出力される視覚コンテンツを提供してもよい。一部の実施形態では、触覚効果決定モジュール126は、視覚コンテンツに関係付けられる触覚効果を決定してもよい。例えば、このような実施形態では、触覚効果決定モジュール126は、ディスプレイ装置136によって提供される映像に関係付けられる触覚トラックを提供するための触覚効果を決定してもよい。触覚トラックは、提供されている映像の中で発生するイベントに対応する触覚効果(例えば、振動)又は一連の触覚効果を含み得る。例えば、映像が一連の爆発を含む場合、触覚トラックは、各爆発に対応する一連の振動であり得る。従って、ユーザが映像を観るとき、ユーザは映像に関係付けられる触覚効果を知覚し得る。
一部の実施形態では、触覚効果決定モジュール126は、タッチセンサ面116におけるタッチの場所に基づいて、出力する触覚効果を決定するコード、及び効果をシミュレートするために提供する1つ以上の触覚効果を選択するコードを含んでもよい。例えば、ディスプレイ134における仮想オブジェクト(例えば、仮想家具、自動車、動物、漫画キャラクタ、ボタン、レバー、ロゴ、又は人物)の存在をシミュレートするためにタッチの場所に基づいて異なる触覚効果が選択されてもよい。更に、一部の実施形態では、触覚効果決定モジュール126は、仮想オブジェクトの大きさ、色、場所、動き、及び/又は他の特徴に基づいて、出力するべき触覚効果を決定するコード、及び効果をシミュレートするために提供するべき1つ以上の触覚効果を選択するコードを含んでもよい。例えば、触覚効果は、仮想オブジェクトの色に基づいて選択されてもよい(例えば、仮想オブジェクトが赤である場合に強い振動、及び仮想オブジェクトが緑である場合に弱い振動)。
一部の実施形態では、触覚効果決定モジュール126は、イベントに基づいて触覚効果を決定するコードを含む。本明細書で使用されるイベントは、関連する触覚効果を含む可能性があるコンピュータ装置101の動作の間に発生する任意の相互作用、アクション、衝突、又は他のイベントである。一部の実施形態では、イベントは、ユーザ入力(例えば、ボタン押し下げ、ジョイスティックを操作すること、タッチセンサ面116と相互作用すること、又は装置を傾け若しくは方向付けること)、システム状態(例えば、バッテリ低下、メモリ不足、又はシステムがメッセージ、着信電話呼び出し、通知又は更新を受信することに基づいて生成される通知等のシステム通知)、送信データ、受信データ、又はプログラムイベントを含んでもよい(例えば、プログラムがゲームであれば、プログラムイベントは爆発、銃撃、衝突、ゲームキャラクタ間の相互作用、又は新たなレベルに進むこと、又は凹凸のある地形を運転することを含んでもよい)。
一部の実施形態では、触覚効果生成モジュール128は、選択された触覚効果を生成するためにプロセッサ102に触覚信号を生成させて触覚出力装置118へと送信させるプログラミングを表す。一部の例では、触覚効果生成モジュール128は、触覚効果決定モジュール126によって決定される触覚効果を触覚出力装置118に生成させる。例えば、触覚効果生成モジュール128は、選択された触覚効果を生成するために、記憶された波形又はコマンドにアクセスして、触覚出力装置118に送信してもよい。一部の実施形態では、触覚効果生成モジュール128は、触覚信号を決定するためのアルゴリズムを含んでもよい。触覚効果生成モジュール128は、触覚効果に対する目標座標(例えば、触覚効果を出力するタッチセンサ面116等のコンピュータ装置101上の場所に対する座標)を決定するためのアルゴリズムを含んでもよい。
一部の実施形態では、ディスプレイ装置136は、プロセッサ138、メモリ140、バス142、I/Oコンポーネント144、記憶装置146、ネットワークインターフェース装置148、ディスプレイ150、タッチセンサ面152、タッチセンサ154、カメラ156、センサ158、及び触覚出力装置160を含む。これらの各々は、コンピュータ装置101のメモリ104、プロセッサ102、バス106、I/Oコンポーネント112、記憶装置114、ネットワークインターフェース装置110、ディスプレイ134、タッチセンサ面116、タッチセンサ108、カメラ130、センサ132、及び触覚出力装置118と実質的に同様に構成され得るが、そうでなくてもよい。一部の実施形態では、ディスプレイ装置136は、図1に記載の全ての又は一部のコンポーネントを含んでもよい。
一部の実施形態では、ディスプレイ装置136は、例えば、移動装置(例えば、スマートフォン)、タブレット、Eリーダ、スマートウォッチ、ヘッドマウント型ディスプレイ、メガネ、ウェアラブル装置、対話型キオスク、キャッシュレジスタのスクリーン、又はコンテンツを提供するためのディスプレイを含む任意の他の装置を含む。
コンピュータ装置101は、ディスプレイ装置136に通信可能に結合されてもよい。例えば、コンピュータ装置101及びディスプレイ装置136は、ネットワークインターフェース装置110及び148を使用して通信し得る(例えば、データ又は信号172、174を送信又は受信する)。例えば、コンピュータ装置101及びディスプレイ装置136の各々は、共通の無線ネットワークに接続されてもよく、無線ネットワークを介して通信することができる。別の例示として、コンピュータ装置101及びディスプレイ装置136は、ブルートゥース接続を介して通信可能に結合され得る。
一部の実施形態では、ディスプレイ装置136は、日和見ディスプレイ装置であってもよい。例えば、ディスプレイ装置136は、ユーザにコンテンツを提供するために使用できるように、コンピュータ装置101のユーザの近く及びユーザの視野内に有るディスプレイ装置であり得る。
一部の実施形態では、ディスプレイ装置136のセンサ158は、別の装置(例えば、コンピュータ装置101)の存在又は場所を検出してもよい。例えば、センサ158は、別の装置の存在又は場所を検出するためのセンサ132と実質的に同様に構成されてもよい。
一部の実施形態では、センサ158は、コンピュータ装置101のユーザの視野の方向を検出してもよい。例えば、センサは、ユーザの凝視、視線又は視野を検出するために使用される任意の装置を含んでもよい。例えば、センサ158は、コンピュータ装置101のユーザの目の画像をキャプチャするように構成されるカメラを含んでもよく、プロセッサ138は、様々な画像処理法及び技術を使用することにより画像に少なくとも部分的に基づいてコンピュータ装置101のユーザの視野の方向を決定し得る。別の実施形態では、センサ158は、コンピュータ装置101のユーザの目又はユーザの目の近くの筋肉の動きを監視するように構成され、プロセッサ138は、監視された動きに少なくとも部分的に基づいてユーザの視野の方向を決定するように構成される。更に別の実施形態では、センサ158は、コンピュータ装置101のユーザの目を動かす筋肉の電気的活動を監視又は測定するように構成されてもよく、プロセッサ138は、ユーザの視野の方向を決定するように構成され得る。一部の実施形態では、センサ158は、例えば、機能的磁気共鳴画像法(fMRI)又は脳電図(EEG)に関係付けられるセンサを含む、ユーザの意図又は意思を決定するために使用される他のセンサを含んでもよい。更に別の実施形態では、センサ158は、例えば、ユーザの体又は頭位を分析することを含む、様々な方法及び技術を介してユーザの凝視、視線又は視野を検出してもよい。
一部の実施形態では、メモリ140は、モジュール162、164、168、170を含む。一部の実施形態では、メモリ140は、モジュール162、164、168、170の全て又は一部を含む。モジュール162、164、168、170の各々は、コンピュータ装置101の各モジュール124、126、128及び129と実質的に同様に構成され得る。
一部の実施形態では、触覚効果決定モジュール164は、センサ158から受信したセンサ信号に少なくとも部分的に基づいて触覚効果を決定してもよい。一部の実施形態では、プロセッサ138は、センサ158からセンサ信号を受信して、コンピュータ装置101のユーザの視線又は視野の方向を決定してもよい。この決定に基づいて、触覚効果決定モジュール164は、触覚効果を決定してもよい。例えば、このような実施形態では、プロセッサ138は、コンピュータ装置101のユーザがディスプレイ装置136(例えば、ディスプレイ装置のディスプレイ150)を見ていること又はその方向を見ていることを決定してもよい。この決定に基づいて、触覚効果決定モジュール126は、コンピュータ装置101のユーザがディスプレイ装置136を見ていることを示すためにディスプレイ装置136のユーザに出力される触覚効果を決定してもよい。例えば、スマートウォッチは、別のユーザがディスプレイ装置136を観察していることを示すために短く振動してもよい。このようにして、ディスプレイ装置136のユーザは、人物に関連付けられ得るディスプレイ装置上のコンテンツをその人物(例えば、コンピュータ装置101のユーザ)が見ている(例えば、読んでいる)ことに気付いてもよい。
一部の実施形態では、触覚効果決定モジュール126は、どのようにディスプレイ装置136を方向付けるかをディスプレイ装置136のユーザに示すためにコンピュータ装置101のユーザの視野又は視線の方向に基づいて別の触覚効果を決定してもよい。例えば、触覚効果は、ディスプレイ装置136上のコンテンツをコンピュータ装置101のユーザが観察することを可能にするために、ユーザが腕、手首、脚又は手を調節するべきであることをディスプレイ装置136のユーザに示してもよい。例えば、ユーザの手首に有るスマートウォッチは、ディスプレイの上端が他の人物により視認できるようにユーザがユーザの手首を調節するために別の人物(例えば、コンピュータ装置101のユーザ)がスマートウォッチのディスプレイの上端を見ていることをユーザに示すためにスマートウォッチの上端に向かって(例えば、ユーザの手首の上端に向かって)振動してもよい。
一部の実施形態では、コンテンツ提供モジュール170は、コンテンツ提供モジュール129と実質的に同様に構成されてもよく、ユーザに(例えば、コンピュータ装置101のユーザ、ディスプレイ装置136のユーザ、又は別のユーザに)コンテンツ(例えば、テキスト、画像、音声、映像、アニメーショングラフィックス等)をプロセッサ138に提供させるように構成され得る。一部の実施形態では、コンテンツ、又はコンテンツが導かれる情報は、別の装置(例えば、コンピュータ装置101)から取得されてもよい。例えば、コンテンツ提供モジュール129は、コンピュータ装置101からコンテンツを含むデータをプロセッサに受信させるように構成され得る。コンテンツは、(例えば、ディスプレイ150を介して)ディスプレイ装置136によって表示されてもよい。
図2は、日和見ディスプレイ用の触覚フィードバックのためのシステムを示す実施形態を示す。システムは、コンピュータ装置101及びディスプレイ装置136を含む。図2に示された例では、ディスプレイ装置136は、日和見ディスプレイ装置である(例えば、ディスプレイ装置136は、例えば、ディスプレイ150を介してコンテンツを表示するように構成され、コンピュータ装置101のユーザ204の視野208内に有る。
コンピュータ装置101は、センサ(例えば、図1のセンサ132)を備える。一部の実施形態では、センサは、コンピュータ装置101の内部に有るか又はコンピュータ装置の外部に有ってもよい。センサは、コンピュータ装置101又はコンピュータ装置101に関係付けられるユーザ(例えば、コンピュータ装置101を使用又は装着しているユーザ)に近接した装置を検出するように構成されてもよい。
図2に示される実施形態では、センサは、センサ、コンピュータ装置101又はユーザ204の近くに有るディスプレイ装置136を検出してもよい。一部の実施形態では、センサは、ディスプレイ装置136を検出して、ディスプレイ装置136に関係付けられるセンサ信号をコンピュータ装置101に関係付けられるプロセッサ(例えば、図1のプロセッサ102)に送信してもよい。センサ信号は、ディスプレイ装置の任意の属性に対応し得る。例えば、センサ信号は、ディスプレイ装置136の可用性を示し得る。例えば、ディスプレイ装置136は、ディスプレイ150を介してコンテンツ(例えば、テキスト、アラート、音声、画像、映像、アニメーショングラフィックス等)を提供又は出力するために利用可能であってもよい。一部の実施形態では、センサ信号は、ディスプレイ装置136の場所(例えば、センサ、コンピュータ装置101又はユーザ204に対するディスプレイ装置の場所又は位置)を示し得る。別の実施形態では、センサ信号は、ディスプレイ装置136のタイプ、サイズ又は形状を示し得る。
一部の実施形態では、コンピュータ装置101は、センサ信号に少なくとも部分的に基づいて1つ以上の触覚効果を決定して出力してもよい。触覚効果の各々は、振動又は任意の他の触覚効果を含んでもよい。例えば、コンピュータ装置101は、センサ信号を受信して、ディスプレイ装置136が利用可能であること(例えば、ユーザ204の視野208の近く又は中に有ること、及び/又はユーザ204に関連するコンテンツを表示していること)を決定してもよい。一部の実施形態では、コンテンツは、コンピュータ装置101からディスプレイ装置136に送信されてもよい。コンピュータ装置101は、ディスプレイ装置136が利用可能であることをユーザ204に示すためにユーザ204の体の一部(例えば、腕、脚、手首、手、又は体の他の部分)に触覚効果(例えば、短い振動)を出力してもよい。
一部の実施形態では、コンピュータ装置101は、(例えば、ユーザ204に対する)ディスプレイ装置の場所又は位置をユーザに示すためにユーザ204の体の一部に1つ以上の他の触覚効果を出力してもよい。例えば、一部の実施形態では、コンピュータ装置101は、ディスプレイ装置136がユーザ204に対して上又は下であることをユーザ204に示すために触覚効果を出力する。別の例示として、コンピュータ装置101は、ディスプレイ装置136がユーザ204の左又は右に有ることをユーザ204に示すために触覚効果を出力する。更に別の例では、コンピュータ装置101は、ディスプレイ装置136がユーザ204の正面又は背後に有ることをユーザ204に示すために触覚効果を出力する。
例示として、コンピュータ装置101は、ウェアラブル装置(例えば、リストバンド又はヘッドバンド)を含んでもよく、1つ以上の触覚出力装置を含んでもよい。コンピュータ装置101は、ディスプレイ装置136がユーザの左に有ることをユーザ204に示すために、(例えば、ユーザが左の手首にリストバンドを有する場合又は触覚出力装置がユーザ204の体の左側に配置されている場合)コンピュータ装置101又はユーザ204の体の左側に触覚効果を出力するように構成されてもよい。また、コンピュータ装置101は、ディスプレイ装置136がユーザの正面又は上に有ることをユーザに示すために、コンピュータ装置101又はユーザ204の体の上部(例えば、ユーザがリストバンドを装着している場合にユーザ204の手首の上部)に触覚効果を出力するように構成されてもよい。更に別の実施形態では、コンピュータ装置101は、ユーザがディスプレイ装置136から離れている場合に弱い触覚効果(例えば、弱い振動)を出力し、ユーザ204がディスプレイ装置136に近い場合に強い触覚効果(例えば、強い振動)を出力してもよい。
このようにして、コンピュータ装置101は、ユーザ204がディスプレイ装置136上に提供されるコンテンツを観察できるようにディスプレイ装置136の水平及び/又は垂直位置をユーザ204に示してもよい。このコンテンツは、ユーザ204に関連していてもよい(例えば、コンテンツはコンピュータ装置101によって提供される)。
別の実施形態では、コンピュータ装置101は、ディスプレイ装置136又はディスプレイ装置136のディスプレイ150のサイズ、形状、タイプ又は他の属性を示すためにユーザ204に1つ以上の他の触覚効果を出力してもよい。例えば、一部の実施形態では、コンピュータ装置101は、センサ信号に少なくとも部分的に基づいてディスプレイ装置136又はディスプレイ150のサイズを決定して出力してもよい。コンピュータ装置101は、ディスプレイ装置136のサイズをユーザ204に示すために触覚効果を決定して出力してもよい。例えば、コンピュータ装置101は、ディスプレイ装置136が大きなディスプレイ装置(例えば、大きなLEDスクリーン)である場合、ユーザ204に強い振動を出力してもよい。別の例では、コンピュータ装置101は、ディスプレイ装置136が小さなディスプレイ装置(例えば、スマートウォッチ又はリストバンド)である場合、ユーザ204に弱い振動を出力してもよい。このようにして、触覚効果は、ユーザ204に関連するコンテンツを表示し得るディスプレイ装置136のサイズ又は他の属性をユーザ204に示してもよい。
一部の実施形態では、コンピュータ装置101は、ディスプレイ装置136にコンテンツを提供するように構成されてもよい。例えば、コンピュータ装置101はコンテンツを含むデータを送信してもよく、ディスプレイ装置136は(例えば、ディスプレイ150を介して)コンテンツを表示するように構成されてもよい。コンピュータ装置101は、ディスプレイ装置136に表示されるコンテンツに関係付けられる1つ以上の触覚効果を出力してもよい。例えば、コンテンツは映像又はビデオゲームを含んでもよく、コンピュータ装置101はディスプレイ装置136に表示されたビデオゲーム又は映像コンテンツに対応する1つ以上の触覚効果を出力してもよい。例えば、映像コンテンツは、1つ以上のアクション又は相互作用(例えば、映像内のキャラクタ又はオブジェクト間の相互作用)を含んでもよい。コンピュータ装置101は、ディスプレイ装置136に表示されるとユーザがアクション及び/又は相互作用を知覚できるようにアクション又は相互作用に関係付けられる1つ以上の振動を出力し得る。
一部の実施形態では、ディスプレイ装置136は、コンピュータ装置101の存在又は近接を検出するためのセンサ206を備えてもよい。一部の実施形態では、センサ206は、ユーザ204の視線若しくは視野208又はユーザ204の凝視210の方向を検出するように構成されてもよい。図2に示される実施形態では、ディスプレイ装置136はセンサ206を備え、これは図1のカメラ156又はセンサ158と実質的に同様に構成されてもよい。
一部の実施形態では、ディスプレイ装置136は、センサ206からのデータに少なくとも部分的に基づいてコンピュータ装置101にデータを送信してもよい。例えば、センサ206は、(例えば、ブルートゥース信号を介して)コンピュータ装置101の存在又は近接を検出して、センサ206からのデータに基づいてディスプレイ装置136の可用性、場所又は属性を示すデータを送信してもよい。
別の例示として、センサ206は、ユーザ204の視野208又はユーザの視線210の方向を検出してもよい。ディスプレイ装置136は、センサ206からのデータに基づいてディスプレイ装置136の可用性、場所又は属性を示すデータを送信してもよい。例えば、ディスプレイ装置136は、センサ206からのデータに基づいて、ユーザ204がディスプレイ装置136又はディスプレイ装置のディスプレイ150を見ている又はその方向を見ていることを決定して、この決定に基づいてディスプレイ装置の可用性、場所又は属性に関するデータをコンピュータ装置101に送信してもよい。一部の実施形態では、コンピュータ装置101は、上記のように、ディスプレイ装置136の可用性、場所又は属性に基づいてユーザ204に1つ以上の他の触覚効果を出力してもよい。
一部の実施形態では、ディスプレイ装置136は、センサ206からのデータに少なくとも部分的に基づいて触覚効果を決定してもよい。例えば、一部の実施形態では、ディスプレイ装置136は、ユーザ204の視野208又はユーザの視線210の方向に基づいて触覚効果を決定してもよい。このような実施形態では、ディスプレイ装置136は、センサ206からのデータに基づいてユーザ204がディスプレイ装置136又はディスプレイ150を見ている又はその方向を見ていることを決定して、ディスプレイ装置136のユーザ212に(例えば、ユーザの手首、手、腕、脚、手に)触覚効果(例えば、振動)を出力してもよい。触覚効果は、ユーザ204がディスプレイ装置136又はディスプレイ150を見ていることをユーザ212に示してもよい。例えば、図2に示される実施形態では、ディスプレイ装置136は、ユーザ204がユーザ204に関連し得るディスプレイ装置のディスプレイ150上のコンテンツ(例えば、コンピュータ装置101からディスプレイ装置136に送信されるコンテンツ)を読んでいる又は観察していることをユーザ212に示すためにユーザの手首214に触覚効果を出力してもよい。一部の実施形態では、ユーザ212は、触覚効果に応じてディスプレイ装置136の位置を維持してもよい。別の実施形態では、ユーザ212は、触覚効果に応じてユーザ204の視野208の外にディスプレイ装置136を移動させてもよい。
一部の実施形態では、ディスプレイ装置136は、センサ206からのデータに基づいてユーザがディスプレイ装置136をどのように方向付けるかをユーザ212に示すためにユーザ212に1つ以上の他の触覚効果を出力してもよい。例えば、センサは、ユーザの視線210がディスプレイ150の上部に向いていることを検出してもよい。ディスプレイ装置136は、センサ206からのデータ基づいてユーザ212に1つ以上の触覚効果を出力してもよい。触覚効果は、ユーザ204がディスプレイ150の上部においてコンテンツを観察し得るようにユーザがユーザの手首214を回転させるべきであることをユーザ212に示してもよい。例えば、ディスプレイ装置136は、ユーザ204がディスプレイ150の上端を見ていることをユーザ212に示すためにディスプレイ装置の上端に向かって(例えば、ユーザの手首214の上端に向かって)振動を出力してもよく、それに従ってユーザ212にディスプレイ装置136を調節させてもよい。
図3は、別の実施形態による日和見ディスプレイ用の触覚フィードバックのためのシステムの別の実施形態を示す。図3に描かれた例では、システムは、スマートフォン又はタブレットを含むコンピュータ装置302及び日和見ディスプレイ装置304を備える。コンピュータ装置302は、日和見ディスプレイ装置304の存在、可用性又は場所を検出し得るセンサ(図示せず)を備える。日和見ディスプレイ装置304は、ディスプレイ306を含む任意の装置を備える。一部の実施形態では、日和見ディスプレイ装置304は、センサ310を備えてもよい。
図3に描かれた例では、コンピュータ装置302のユーザ308は日和見ディスプレイ装置304の傍を歩いていてもよく、コンピュータ装置302はユーザ308のポケット又は他の場所に有ってもよい。コンピュータ装置302のセンサは、ユーザ308が日和見ディスプレイ装置304の近くに居る場合に(例えば、日和見ディスプレイ装置304がユーザ308の視野内に有る場合に)、日和見ディスプレイ装置304を検出してもよい。一部の実施形態では、センサは、イベントの発生に応じて日和見ディスプレイ装置304を検出してもよい。本明細書で使用されるイベントは、関連する触覚効果を含む可能性があるコンピュータ装置302の動作の間に発生する任意の相互作用、アクション又は他のイベントである。一部の実施形態では、イベントは、システム状態(例えば、バッテリ低下、メモリ不足)、システム通知(システムがメッセージ、着信電話呼び出し、アラート、更新、次回の会合のリマインダ等を受信することに基づいて生成される通知)、データの受信(例えば、テキストメッセージの受信)を含んでもよい。例えば、コンピュータ装置302は、アラート又は更新(例えば、会合に関するアラート又はニュースのアラート)を受信してもよい。センサは、アラートに応じてユーザ308の視野内に日和見ディスプレイ装置304を検出してもよい。
一部の実施形態では、日和見ディスプレイ装置304は、ユーザ308が日和見ディスプレイ装置304に接近するとコンピュータ装置302を検出してもよい。例えば、日和見ディスプレイ装置304は、ユーザ308が日和見ディスプレイ装置304の近くに居る場合にコンピュータ装置302を検出し得るセンサ310(例えば、図2のセンサ206と実質的に同様に構成されたカメラ又は他のセンサ)を含んでもよい。別の実施形態では、センサ310は、(例えば、ユーザが日和見ディスプレイ装置304の方向を見ている場合に)ユーザ308の視線の方向又はユーザ308の視野を検出してもよい。一部の実施形態では、日和見ディスプレイ装置304は、センサ310からのデータに基づいてコンピュータ装置302に日和見ディスプレイ装置304の可用性又は場所に関係付けられる信号を送信してもよい。例えば、日和見ディスプレイ装置304は、日和見ディスプレイ装置304がユーザ308の視野内に有る場合、日和見ディスプレイ装置304の可用性及び場所に関する信号を送信してもよい。
一部の実施形態では、コンピュータ装置302は、センサデータ(例えば、コンピュータ装置302のセンサからのデータ又は日和見ディスプレイ装置304のセンサ310からのデータ)に基づいて日和見ディスプレイ装置304の可用性又は場所を決定してもよい。例えば、コンピュータ装置302は、センサデータに基づいて、イベント(例えば、コンピュータ装置302によって受信されたアラート)に関係付けられるコンテンツを表示するために日和見ディスプレイ装置304が利用可能であるかどうかを決定してもよい。コンピュータ装置302は、ディスプレイ装置が利用可能であることを決定することに応じて日和見ディスプレイ装置304にデータを送信してもよい。日和見ディスプレイ装置304は、(例えば、ディスプレイ306を介して)データに基づいてイベントに関係付けられるコンテンツを表示してもよい。図3に示された例では、コンピュータ装置302は、ディスプレイ306に示されるようにアラート309を日和見ディスプレイ装置304に送信する。
一部の実施形態では、コンピュータ装置302は、日和見ディスプレイ装置304の可用性に少なくとも部分的に基づいて第1の触覚効果を決定して出力してもよい。例えば、一部の実施形態では、コンピュータ装置302は、(例えば、日和見ディスプレイ装置304がアラート309を表示しているときに)日和見ディスプレイ装置304がイベントに関係付けられるコンテンツを表示していることに基づいて第1の触覚効果を決定してもよい。コンピュータ装置302は、日和見ディスプレイ装置304がユーザ308に関連するコンテンツを表示していること(例えば、日和見ディスプレイ装置304がコンピュータ装置302によって受信されたアラート309を表示していること)をユーザ308に示すためにユーザ308の体の一部(例えば、腰又は体の他の部分)に第1の触覚効果(例えば、振動、絞り、又は突き)を出力してもよい。
一部の実施形態では、コンピュータ装置302は、(例えば、ユーザ308に対する)日和見ディスプレイ装置304の場所又は位置に少なくとも部分的に基づいて第2の触覚効果を決定して出力してもよい。一部の実施形態では、第2の触覚効果は、1つ以上の触覚効果を含んでもよい。一部の実施形態では、コンピュータ装置302は、ユーザ308とディスプレイ装置との間の近接性又は距離を示すためにユーザの体の一部に第2の触覚効果(例えば、振動)を出力してもよい。例えば、コンピュータ装置302は、日和見ディスプレイ装置304がユーザ308に近いことを示すためにユーザ308に強い触覚効果(例えば、強い振動)を出力してもよい。また、コンピュータ装置302は、日和見ディスプレイ装置304がユーザ308の正面に有ることを示すためにコンピュータ装置302の上端に別の触覚効果(例えば、振動)を出力してもよい。別の例示として、コンピュータ装置は、ユーザ308の腕に装着されてもよい。コンピュータ装置302は、ユーザに対するディスプレイ装置304の方向を示し得る、(例えば、ユーザ308の腕に沿って一連の触覚出力を出力することにより)日和見ディスプレイ装置304への方向に向かう流れの認知を生成し得る1つ以上の触覚効果を出力してもよい。一部の実施形態では、第1及び第2の触覚効果は、ディスプレイ装置304の可用性及びユーザ308に対するディスプレイ装置304の場所を示すための単一の合成触覚効果を形成するために結合されてもよい。
一部の実施形態では、コンピュータ装置302は、日和見ディスプレイ装置304によって表示されるコンテンツに少なくとも部分的に基づいて第3の触覚効果を決定して出力してもよい。一部の実施形態では、第3の触覚効果は、1つ以上の触覚効果を含んでもよい。例えば、コンピュータ装置302は、ディスプレイ装置によって表示されるアラート309に関係付けられる触覚効果を出力してもよい。例えば、アラート309は映像であってもよく、コンピュータ装置302は、日和見ディスプレイ装置304によって表示される映像に対応する1つ以上の触覚効果をユーザ308に出力してもよい。例えば、映像は、(例えば、ニュースアラート又は他のアラートにおいて)衝突又は一連の衝突を含んでもよく、第3の触覚効果は、各衝突に対応する一連の振動であってもよく、これはユーザが映像内の1つ以上の衝突に関係付けられる触覚効果を体験することを可能にする。
一部の実施形態では、日和見ディスプレイ装置304は、触覚出力装置を備えてもよい。このような実施形態では、日和見ディスプレイ装置304は、センサ310からのデータに基づいて触覚効果を決定して出力してもよい。例えば、このような実施形態では、センサ310は、ユーザ308が日和見ディスプレイ装置304に接近するとコンピュータ装置302を検出してもよく、又はユーザ308の視野を検出してもよい。日和見ディスプレイ装置304は、(例えば、日和見ディスプレイ装置304によって表示されるコンテンツに関係付けられるデータを受信するために)コンピュータ装置302に通信可能に結合されてもよい。日和見ディスプレイ装置304は、ユーザ308が日和見ディスプレイ装置304に接近すると触覚効果(例えば、固体、液体又は気体の吹き出し又は振動)を出力してもよい。触覚効果は、日和見ディスプレイ装置304が利用可能であること(例えば、コンピュータ装置302によって受信されたアラート309を表示すること)をユーザ308に示してもよく、又はユーザ308に対する日和見ディスプレイ装置304の場所を示してもよい。例えば、日和見ディスプレイ装置304は、アラート309が表示されていることを示すため及び日和見ディスプレイ装置304の場所を示すためにユーザ308が日和見ディスプレイ装置304の近くに居る場合に強い振動を出力し得る。
[日和見ディスプレイ用の触覚フィードバックの例示の方法]
図4は、一実施形態による日和見ディスプレイ用の触覚フィードバックを提供する方法400を実行するためのステップのフローチャートである。一部の実施形態では、図4のステップは、例えば、汎用コンピュータ、移動装置又はサーバにおけるプロセッサによって実行可能なプログラムコードで実装されてもよい。一部の実施形態では、こうしたステップは一群のプロセッサによって実装されてもよい。一部の実施形態では、図4に示される1つ以上のステップは省略され又は異なる順番で行われてもよい。同様に、一部の実施形態では、図4に示されない追加のステップが実行されてもよい。以下のステップは図1及び2に示されたシステムに関して先に記載されたコンポーネントを参照して記載される。
方法400は、コンピュータ装置101のセンサ132がユーザ204の視野内に1つ以上のディスプレイ装置136を検出するステップ402で開始する。一部の実施形態では、センサ132は、センサ132又はコンピュータ装置101に近いディスプレイ装置136を検出し得る。ディスプレイ装置136は、センサ132又はコンピュータ装置101の近くに有り且つコンテンツを表示するために使用され得るディスプレイ装置を含む日和見ディスプレイであってもよい。一部の実施形態では、ディスプレイ装置136がユーザ204にコンテンツを表示するために使用できるように、ディスプレイ装置136はユーザ204の視野内に有る。例えば、センサ132は、センサ132とディスプレイ装置136との間のブルートゥース信号の強度を分析することによりディスプレイ装置136の存在及び場所を検出することができる。一部の実施形態では、センサ132は、(例えば、センサ132とディスプレイ装置136との間のブルートゥース信号の強度に基づいて)センサ132、コンピュータ装置101及びディスプレイ装置136の間の距離を検出してもよい。
方法400は、ディスプレイ装置136に関する信号がプロセッサ102に送信されるステップ404に進む。一部の実施形態では、センサ132は、ディスプレイ装置136に関する信号をプロセッサ102に送信する。他の実施形態では、ディスプレイ装置に関係付けられる別のセンサ(例えば、ディスプレイ装置136のセンサ206)が、ディスプレイ装置136に関する信号を送信する。
方法、プロセッサ102が信号に基づいてディスプレイ装置136の可用性及び場所を決定するステップ406に進む。一部の実施形態では、プロセッサ102は、コンテンツ(例えば、テキスト、画像、音声、映像、アニメーショングラフィックス等)をユーザ204に表示するためにディスプレイ装置136の可用性を決定する。例えば、プロセッサ102は、ブルートゥースを介してコンピュータ装置101に接続してコンピュータ装置101からコンテンツを受信するためにディスプレイ装置136が発見可能且つ利用可能であるかどうかを決定し得る。一部の実施形態では、プロセッサ102は、(例えば、以下に記載のステップ410において)ディスプレイ装置136にコンテンツを提供するように構成され得る。
一部の実施形態では、プロセッサ102は、ユーザ204に対するディスプレイ装置136の場所を決定する。例えば、プロセッサ102は、ユーザ204に対するディスプレイ装置136の水平及び垂直位置を決定する。
方法400は、プロセッサ102が信号に基づいてディスプレイ装置136の特徴を決定するステップ408に進む。一部の実施形態では、プロセッサ102は、センサからの信号に基づいてディスプレイ装置136のタイプ、サイズ、又は形状を決定する。例えば、プロセッサ102は、ディスプレイ装置136が大きなディスプレイ装置(例えば、大型LCDスクリーン)又は小さなディスプレイ装置(例えば、スマートウォッチ)であることを決定する。別の例示として、プロセッサ102は、ディスプレイ装置136のタイプ、例えば、ディスプレイ装置136がLCDスクリーンであるか又はスマートウォッチであるかを決定する。
方法400は、プロセッサ102がディスプレイ装置136にコンテンツを送信するステップ410に進む。一部の実施形態では、コンテンツ提供モジュール129は、プロセッサ102にコンテンツをディスプレイ装置136へと送信させる。例えば、プロセッサ102は、(例えば、ステップ406において)ディスプレイ装置136が利用可能であることをプロセッサ102が決定する場合、ディスプレイ装置136にテキストメッセージ又はアラートを送信し得る。
方法400は、プロセッサ102がディスプレイ装置136の可用性及び場所に少なくとも部分的に基づいて第1の触覚効果を決定するステップ412に進む。一部の実施形態では、触覚効果決定モジュール126は、プロセッサ102に第1の触覚効果を決定させる。一部の実施形態では、第1の触覚効果は、1つ以上の触覚効果を含み得る。例えば、第1の触覚効果は、ディスプレイ装置136の可用性に基づく可用性触覚効果及びディスプレイ装置136の場所に基づく場所触覚効果を含み得る。
例えば、プロセッサ102は、ディスプレイ装置136が利用可能であること(例えば、コンピュータ装置101から受信したコンテンツを表示するために利用可能である及び/又はコンピュータ装置101からのコンテンツを表示していること)、及びユーザ204に対するディスプレイ装置136の水平及び垂直位置に関係付けられる第1の触覚効果(例えば、一連の振動)を決定し得る。一例として、第1の触覚効果は、ユーザに対するディスプレイ装置136の水平位置を示すためにコンピュータ装置101又はユーザ204の体の一部の左側又は右側に出力される一連の断続的振動、及び/又はユーザ204に対するディスプレイ装置136の垂直位置を示すためにコンピュータ装置101又はユーザ204の体の一部の上部又は下部に出力される一連の断続的振動が後に続くコンテンツをディスプレイ装置136が表示していることをユーザ204に示す第1の振動を含む。
方法400は、プロセッサがディスプレイ装置136の特徴に少なくとも部分的に基づいて第2の触覚効果を決定するステップ414に進む。一部の実施形態では、触覚効果決定モジュール126は、プロセッサ102に第2の触覚効果を決定させる。
例えば、プロセッサ102は、ディスプレイ装置136のサイズ、タイプ、形状、又は他の属性に基づいて第2の触覚効果を決定し得る。例えば、第2の触覚効果は、ディスプレイ装置136が大きなディスプレイ装置(例えば、大型LEDスクリーン)である場合に強い振動であり得る。例えば、第2の触覚効果は、ディスプレイ装置136が小さなディスプレイ装置(例えば、スマートウォッチ)である場合に弱い振動であり得る。
方法400は、(例えば、ステップ410において)プロセッサがディスプレイ装置136に送信されたコンテンツに少なくとも部分的に基づいて第3の触覚効果を決定するステップ416に進む。一部の実施形態では、触覚効果決定モジュール126は、プロセッサ102に第3の効果を決定させる。
例えば、ディスプレイ装置136に送信されたコンテンツが映像である場合、プロセッサ102は、映像に対応する第3の触覚効果を決定し得る。例えば、映像は1つ以上の爆発又は衝突を含んでもよく、第3の触覚効果は爆発又は衝突に対応する1つ以上の振動を含み得る。
方法は、プロセッサ102が触覚出力装置118に第1の触覚効果に関係付けられる第1の触覚信号、第2の触覚効果第1の触覚効果第2の触覚信号、又は触覚出力装置118に第3の触覚効果に関係付けられる第3の触覚信号を送信するステップ418に進む。一部の実施形態では、プロセッサ102は、第1、第2及び第3の触覚信号の1つ以上を触覚出力装置118に送信してもよい。一部の実施形態では、触覚効果生成モジュール128は、第1、第2及び第3の触覚信号をプロセッサ102に生成させて、触覚出力装置118に送信させてもよい。
方法400は、触覚出力装置118がディスプレイ装置136の可用性及び場所に基づいて第1の触覚効果を出力するステップ420に進む。一部の実施形態では、第1の触覚効果は、振動、表面変形、絞り、突き、及び/又は固体、液体、気体又はプラズマの吹き出しを含む。
一部の実施形態では、第1の触覚効果は、ディスプレイ装置136がユーザ204に関連するコンテンツ(例えば、コンピュータ装置101からディスプレイ装置136に送信されるコンテンツ)を表示していることをユーザ204に示し、且つディスプレイ装置136の場所をユーザ204に示すことができる。このようにして、ユーザ204は、ユーザ204に関連し得るディスプレイ装置136に表示されているコンテンツを観察するように警告され得る。
方法400は、ディスプレイ装置136の特徴に基づく第2の触覚効果又はディスプレイ装置136に送信されるコンテンツに基づく第3の触覚効果を出力するステップ422に進む。一部の実施形態では、第2又は第3の触覚効果の各々は、振動、表面変形、絞り、突き、及び/又は固体、液体、気体又はプラズマの吹き出しを含み得る。一部の実施形態では、第2の触覚効果は、ユーザに関連するコンテンツを表示しているディスプレイ装置136のサイズ、タイプ又は形状をユーザ204に示し得る。第3の触覚効果は、ディスプレイ装置136によって表示されるコンテンツに関係付けられる触覚効果をユーザ204が知覚することを可能にし得る。
図5は、別の実施形態による日和見ディスプレイ用の触覚フィードバックを提供する別の方法500を実行するためのステップのフローチャートである。一部の実施形態では、図5のステップは、例えば、汎用コンピュータ、移動装置又はサーバにおけるプロセッサによって実行可能なプログラムコードで実装されてもよい。一部の実施形態では、こうしたステップは一群のプロセッサによって実装されてもよい。一部の実施形態では、図5に示される1つ以上のステップは省略され又は異なる順番で行われてもよい。同様に、一部の実施形態では、図5に示されない追加のステップが実行されてもよい。以下に記載のステップは図1及び2に示されたシステムに関して先に記載されたコンポーネントを参照して記載される。
方法500は、ディスプレイ装置136のセンサ206がディスプレイ装置136の近くにコンピュータ装置101を検出するステップ502で開始する。一部の実施形態では、センサ206は、コンピュータ装置101の存在又は近接を検出してもよい。例えば、センサ206は、センサ206とコンピュータ装置101との間の信号強度を分析することにより(例えば、コンピュータ装置101が発見可能であるかどうかを決定すること及びブルートゥース信号の強度に基づいてコンピュータ装置101の近接を決定することにより)、コンピュータ装置101の存在及び近接を検出し得るブルートゥース装置を含んでもよい。
方法500は、センサ206がコンピュータ装置101のユーザ204の視野208を検出するステップ504に進む。一部の実施形態では、センサ206は、ユーザ204の視線210の方向又は視野208を検出できるカメラ又は他の適切な装置を含む。
方法は、ユーザの視線210の方向又は視野208に関する第1の信号がディスプレイ装置136のプロセッサ138に送信されるステップ506に進む。一部の実施形態では、センサ206は、第1の信号をプロセッサ138に送信する。
方法は、第1の信号(例えば、ステップ506でセンサ206からプロセッサ138に送信された第1の信号)に基づいてユーザ204の視線210の方向又は視野208の方向を決定するステップ508に進む。
例えば、センサ206は、ユーザ204の視線210の方向又は視野208に関するデータをディスプレイ装置136のプロセッサ138に送信し得る。プロセッサ138は、ユーザの視線210の方向又は視野208に基づいてユーザ204がディスプレイ装置136を見ている又はその方向を見ていることを決定することができる。一例として、センサ206はユーザ204の目の動き又はユーザ204の目の近くの筋肉の動きを監視するためのカメラを含んでもよく、プロセッサ138は監視された動きに基づいてユーザ204の視線210の方向又は視野208を決定することができる。別の例示として、センサ206はユーザ204の目を動かす筋肉の電気的活動を監視又は測定し、プロセッサ138は筋肉の電気的活動に基づいてユーザ204の視線210の方向又は視野208を決定する。プロセッサ138は、ユーザの視線210の方向又は視野208に基づいてユーザ204がディスプレイ装置136を見ている又はその方向を見ていることを決定することができる。
方法は、ディスプレイ装置136に関する第2の信号がコンピュータ装置101に(例えば、コンピュータ装置101のプロセッサ102に)送信されるステップ510に進む。一部の実施形態では、ディスプレイ装置136は、ユーザ204の視線210の方向又は視野208に少なくとも部分的に基づいてコンピュータ装置101に第2の信号を送信し得る。
例えば、ディスプレイ装置136のプロセッサ138は、ユーザ204がディスプレイ装置136を見ている又はその方向を見ていることを決定してもよく、ディスプレイ装置136は、決定に基づいてコンピュータ装置101にディスプレイ装置136の可用性、場所又は属性を示す第2の信号を送信し得る。一部の実施形態では、コンピュータ装置101は、上記のように、第2の信号に基づいてディスプレイ装置の可用性、場所又は属性を決定し得る。
方法は、プロセッサ138がユーザ204の視野208に少なくとも部分的に基づいてディスプレイ装置触覚効果を決定するステップ512に進む。一部の実施形態では、ディスプレイ装置の触覚効果決定モジュール164は、プロセッサ138にディスプレイ装置触覚効果を決定させる。
例えば、プロセッサ138は、(例えば、ステップ510において)コンピュータ装置101のユーザ204がディスプレイ装置136を見ている又はその方向を見ていることに基づいてディスプレイ装置触覚効果を決定し得る。プロセッサ138は、ユーザ204がディスプレイ装置136を見ている又はその方向を見ていることをユーザ212に示すためにディスプレイ装置136のユーザ212に出力されるディスプレイ装置触覚効果を決定し得る。一例として、ディスプレイ装置136はスマートウォッチであってもよく、ユーザ204がディスプレイ装置136のディスプレイ150を見ていること(例えば、ユーザ204がディスプレイ150上のコンテンツを観察していること)をユーザ212に示すために短く振動し得る。
一部の実施形態では、ディスプレイ装置触覚効果は、1つ以上の触覚効果を含み得る。例えば、ディスプレイ装置触覚効果は、ユーザ204がディスプレイ装置136を見ていることをユーザ212に示すための触覚効果(例えば、短い振動)を含み得る。ディスプレイ装置触覚効果は、ユーザ212がディスプレイ装置136上に表示されているコンテンツをユーザ204が観察できるように、ユーザ212が腕、手首、脚又は手を調節するべきであることをユーザ212に示すための別の触覚効果(例えば、強い振動)を含み得る。一例として、スマートウォッチは、ユーザ204がディスプレイ装置136の下部を見ていることをユーザ212に示すためにユーザの手首214の下部に向かってスマートウォッチの下部において振動し得る。ユーザ212は、ディスプレイ装置136上のコンテンツをユーザ204が良く観察できるようにディスプレイ装置触覚効果に応じてユーザの手首214を調節してもよい(例えば、ディスプレイ装置136の下部が良く見えるように手首214を回転させる)。
方法500は、プロセッサ138がディスプレイ装置触覚効果に関係付けられるディスプレイ装置触覚信号をディスプレイ装置136の触覚出力装置160に送信するステップ514に進む。一部の実施形態では、触覚効果生成モジュール168は、ディスプレイ装置触覚信号をプロセッサ138に生成させて、触覚出力装置118に送信させる。
方法500は、触覚出力装置160がディスプレイ装置触覚効果を出力するステップ516に進む。一部の実施形態では、ディスプレイ装置触覚効果は、コンピュータ装置101のユーザ204の視野208の方向に基づいてディスプレイ装置136のユーザ212に出力され得る。他の実施形態では、ディスプレイ装置触覚効果は、ユーザ204の視野208の方向に基づいてコンピュータ装置101のユーザ204に出力され得る。一部の実施形態では、ディスプレイ装置触覚効果は、振動、表面変形、絞り、突き、及び/又は固体、液体、気体又はプラズマの吹き出しを含む。一部の実施形態では、ディスプレイ装置触覚効果は、ユーザ204がディスプレイ装置136を見ていることをユーザ212に示すための1つ以上の触覚効果を含む。他の実施形態では、ディスプレイ装置触覚効果は、ディスプレイ装置136が利用可能であることをユーザ204に示すため及びユーザ204に対するディスプレイ装置137の場所を示すための1つ以上の触覚効果を含む。
[概論]
上記の方法、システム及び装置は例示である。様々な構成によって、適宜、様々な手続き又はコンポーネントが省略、置換、又は追加されてもよい。例えば、代替的な構成では、方法は記載されたものとは異なる順序で実行されてもよく、及び/又はステージが追加、省略及び/又は結合されてもよい。また、所定の構成に関して記載された機能は、様々な他の構成に結合されてもよい。構成の異なる態様及び要素が、同様に結合されてもよい。また、技術は進歩するものであり、そのため要素の多くは例示であり、本開示又は特許請求の範囲を限定しない。
例示的な構成(実装を含む)の十分な理解を与えるために説明の中で特定の詳細が与えられている。しかしながら、こうした構成は特定の詳細無しで実施されてもよい。例えば、周知の回路、工程、アルゴリズム、構造及び技術が、構成を不明確にするのを避けるために不要な詳細無しで示されている。この説明は、例示的な構成のみを提供するものであり、請求項の範囲、応用性又は構成を限定しない。むしろ、構成の上記説明は、記載された技術を実装するための実施可能な説明を当業者に提供するであろう。本開示の精神又は範囲から逸れることなく、要素の機能及び配置の様々な変更が行われてもよい。
また、構成は、フロー図又はブロック図として描かれる処理として記載されてもよい。各々が連続した工程として操作を説明している場合が有るが、こうした操作の多くは並列的又は同時に行われ得る。更に、操作の順序は並び替えられてもよい。工程は、図面に含まれない追加のステップを有してもよい。更に、方法の例示は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、又はこれらの任意の組み合わせによって実装されてもよい。ソフトウェア、ファームウェア、ミドルウェア又はマイクロコードで実装される場合、必要なタスクを実行するためのプログラムコード又はコードセグメントは、記憶媒体等の非一時的なコンピュータ可読媒体に記憶されてもよい。プロセッサは、記載されたタスクを実行してもよい。
複数の例示的な構成が記載されているが、本開示の精神から逸脱することなく、様々な修正、代替構造及び均等物が使用されてもよい。例えば、上記の要素は、より大きなシステムのコンポーネントであってもよく、他の規則が本発明のアプリケーションに優先し又はそれを修正してもよい。また、上記の要素が検討される前、間又は後で多くのステップが行われてもよい。従って、先の記載によって請求項の範囲は縛られない。
本明細書における「適合される」又は「構成される」の使用は、追加のタスク又はステップを実行するように適合又は構成される装置を排除しない開放的且つ包括的な言語を意図している。更に、「基づいて」の使用は開放的且つ包括的であることが意図されており、即ち、1つ以上の記載された条件又は値に「基づいて」行われる処理、ステップ、計算、又は他の動作が、実際には、記載されたものを超える追加の条件又は値に基づいてもよい。本明細書に含まれる表題、リスト及び番号は、単に説明を容易にするためのものであって、限定することを意図していない。
本主題の態様に従う実施形態は、デジタル電子回路、コンピュータハードウェア、ファームウェア、ソフトウェア、又はこれらの組み合わせで実装され得る。一実施形態では、コンピュータは、1つ又は複数のプロセッサを備えてもよい。プロセッサは、プロセッサに結合されるRAM(ランダム・アクセス・メモリ;random access memory)等のコンピュータ可読媒体を備え、又はそれへのアクセスを有する。プロセッサは、センササンプリングルーチン、選択ルーチン、及び上述の方法を実行する他のルーチン等、メモリに記憶されたコンピュータ実行可能プログラム命令を実行する。
このようなプロセッサは、マイクロプロセッサ、DSP(デジタル・シグナル・プロセッサ;digital signal processor)、ASIC(特定用途向け集積回路;application−specific integrated circuit)、FPGA(フィールド・プログラマブル・ゲート・アレイ;field programmable gate array)、及び状態機械を含む。このようなプロセッサは、PLC、PIC(割り込みコントローラ;programmable interrupt controller)、PLD(プログラム可能論理回路;programmable logic device)、PROM(プログラム可能ROM;programmable read−only memory)、EPROM又はEEPROM(電気的プログラム可能ROM;electronically programmable read−only memory)、又は他の類似の装置等のプログラム可能電子装置を更に備えてもよい。
このようなプロセッサは、媒体、例えば、プロセッサによって実行されると、プロセッサによって遂行又は支援される本明細書に記載のステップをプロセッサに実行させることができる命令を記憶し得る有形のコンピュータ可読媒体を備え、又はこれと通信してもよい。コンピュータ可読媒体の実施形態は、限定されないが、プロセッサ、例えばウェブサーバのプロセッサにコンピュータ可読命令を提供することができる全ての電子、光学、磁気、又は他の記憶装置を備えてもよい。媒体の他の例は、限定されないが、フロッピーディスク、CD−ROM、磁気ディスク、メモリチップ、ROM、RAM、ASIC、構成プロセッサ、全ての光学媒体、全ての磁気テープ若しくは他の磁気媒体、又はコンピュータプロセッサが読み取り可能な任意の他の媒体を含む。また、様々な他の装置は、ルータ、プライベート若しくはパブリックネットワーク、又は他の伝送装置等のコンピュータ可読媒体を含んでもよい。記載されたプロセッサ及び処理は、1つ以上の構造内に有ってもよく、1つ以上の構造を通じて分散されてもよい。プロセッサは、本明細書に記載の1つ以上の方法(又は方法の一部)を実行するためのコードを備えてもよい。
本主題はその特定の実施形態に関して詳細に記載されているが、上記のことを理解すると、このような実施形態の変形、変化、及び均等物を当業者であれば容易に生み出し得ることが理解されるであろう。従って、本開示は、限定ではなく例示を目的として提示されており、当業者には容易に明らかとなる本主題への修正、変更及び/又は追加を含むことを排除しないことが理解されるべきである。

Claims (20)

  1. コンピュータ装置と、
    前記コンピュータ装置に通信可能に結合されるセンサであって、前記センサに近接し且つ前記コンピュータ装置のユーザの視野内に有るディスプレイ装置を検出して、前記ディスプレイ装置に関連する信号を送信するように構成されるセンサと、
    前記信号を受信するために前記センサに通信可能に結合されるプロセッサであって、
    前記信号に基づいて、コンテンツを出力するための前記ディスプレイ装置の可用性及び前記ディスプレイ装置の場所を決定し、
    前記ディスプレイ装置の前記可用性及び前記場所に少なくとも部分的に基づいて第1の触覚効果を決定し、且つ
    前記第1の触覚効果に関係付けられる第1の触覚信号を送信する
    ように構成されるプロセッサと、
    前記第1の触覚信号を受信し、且つ前記第1の触覚効果を出力するように構成される触覚出力装置と
    を備える、システム。
  2. 前記プロセッサは、コンテンツを含むデータを前記ディスプレイ装置に送信するように更に構成され、前記コンテンツは、テキスト、画像、音声又は映像を含む、請求項1に記載のシステム。
  3. 前記プロセッサは、
    前記コンテンツに少なくとも部分的に基づいて第2の触覚効果を決定し、且つ前記第2の触覚効果を出力するように構成される前記触覚出力装置に第2の触覚信号を送信する
    ように更に構成される、請求項2に記載のシステム。
  4. 前記第1の触覚効果は、前記ユーザに対する前記ディスプレイ装置の水平位置に関係付けられる水平触覚効果及び前記ユーザに対する前記ディスプレイ装置の垂直位置に関係付けられる垂直触覚効果を含む、請求項1に記載のシステム。
  5. 前記触覚出力装置は第1の触覚出力装置及び第2の触覚出力装置を含み、前記第1の触覚出力装置は前記水平触覚効果を出力するように構成され、前記第2の触覚出力装置は前記垂直触覚効果を出力するように構成される、請求項4に記載のシステム。
  6. 前記プロセッサは、
    前記信号に基づいて前記ディスプレイ装置のサイズ、形状又はタイプを決定し、
    前記ディスプレイ装置の前記サイズ、形状又はタイプに少なくとも部分的に基づいて第2の触覚効果を決定し、且つ
    前記第2の触覚効果を出力するように構成される前記触覚出力装置に第2の触覚信号を送信する
    ように更に構成される、請求項1に記載のシステム。
  7. 前記プロセッサは、
    前記ディスプレイ装置から表示信号を受信し、且つ
    前記表示信号に基づいて前記ディスプレイ装置の前記可用性及び前記場所を決定する
    するように更に構成され、
    前記ディスプレイ装置は、前記ユーザの前記視野を検出するように構成されるディスプレイ装置センサからのデータに基づいて前記ユーザの前記視野の方向を決定するように構成されるディスプレイ装置プロセッサを備える、請求項1に記載のシステム。
  8. 前記ディスプレイ装置センサは、前記ユーザの目に関係付けられる画像をキャプチャするように構成されるカメラを含み、前記ディスプレイ装置プロセッサは、前記画像に基づいて前記ユーザの前記視野の方向を決定するように構成される、請求項7に記載のシステム。
  9. 前記ディスプレイ装置センサは、前記ユーザの目における筋肉の動きを監視するように構成され、前記ディスプレイ装置プロセッサは、監視された動きに基づいて前記ユーザの前記視野を決定するように構成される、請求項7に記載のシステム。
  10. 前記ディスプレイ装置は、ディスプレイ触覚出力装置を備え、前記ディスプレイ装置プロセッサは、
    前記ユーザの前記視野の方向に少なくとも部分的に基づいてディスプレイ装置触覚効果を決定し、且つ
    前記ディスプレイ装置触覚効果を出力するように構成される前記ディスプレイ触覚出力装置に前記ディスプレイ装置触覚効果に関係付けられるディスプレイ装置触覚信号を送信する
    ように更に構成される、請求項7に記載のシステム。
  11. 前記センサは、前記システム又は前記センサの前記ユーザに関係付けられる場所信号を送信し、且つ前記場所信号に基づいて前記ディスプレイ装置の前記場所及び前記可用性に関するデータを受信するように構成される、請求項1に記載のシステム。
  12. コンピュータ装置に通信可能に結合されるセンサによって、前記センサに近接し且つ前記コンピュータ装置のユーザの視野内に有るディスプレイ装置を検出するステップと、
    前記センサによって、前記ディスプレイ装置に関係付けられるセンサ信号をプロセッサに送信するステップと、
    前記プロセッサによって、前記センサ信号に少なくとも部分的に基づいて前記ユーザにコンテンツを出力するための前記ディスプレイ装置の可用性及び前記ディスプレイ装置の場所を決定するステップと、
    前記プロセッサによって、前記ディスプレイ装置の前記可用性及び前記場所に少なくとも部分的に基づいて第1の触覚効果を決定するステップと、
    前記プロセッサによって、前記第1の触覚効果に関係付けられる第1の触覚信号を触覚出力装置に送信するステップと、
    前記触覚出力装置によって、前記第1の触覚効果を出力するステップと
    を含む、方法。
  13. 前記第1の触覚効果は、前記ユーザに対する前記ディスプレイ装置の水平位置に関係付けられる水平触覚効果及び前記ユーザに対する前記ディスプレイ装置の垂直位置に関係付けられる垂直触覚効果を含む、請求項12に記載の方法。
  14. 前記プロセッサによって、前記コンテンツを含むデータを前記ディスプレイ装置に送信するステップを更に含み、前記コンテンツは、画像、音声、映像又はテキストを含む、請求項12に記載の方法。
  15. 前記プロセッサによって、前記コンテンツに少なくとも部分的に基づいて第2の触覚効果を決定するステップと、
    前記プロセッサによって、前記第2の触覚効果に関係付けられる第2の触覚信号を前記触覚出力装置に送信するステップと、
    前記触覚出力装置によって、前記第2の触覚効果を出力するステップと
    を更に含む、請求項14に記載の方法。
  16. 前記プロセッサによって、前記センサ信号に基づいて前記ディスプレイ装置のサイズ、形状又はタイプを決定するステップと、
    前記プロセッサによって、前記ディスプレイ装置の前記サイズ、形状又はタイプに少なくとも部分的に基づいて第2の触覚効果を決定するステップと、
    前記プロセッサによって、前記第2の触覚効果に関係付けられる第2の触覚信号を前記触覚出力装置に送信するステップと、
    前記触覚出力装置によって、前記第2の触覚効果を出力するステップと
    を更に含む、請求項12に記載の方法。
  17. 前記センサ信号に基づいて前記ユーザにコンテンツを出力するための前記ディスプレイ装置の可用性及び前記ディスプレイ装置の場所を決定するステップは、
    前記プロセッサによって、前記ディスプレイ装置から表示信号を受信すること、及び
    前記表示信号に少なくとも部分的に基づいて前記ディスプレイ装置の前記可用性及び前記場所を決定すること
    を含み、
    前記ディスプレイ装置は前記ユーザの前記視野を検出するように構成されるディスプレイ装置センサからのデータに基づいて前記ユーザの前記視野の方向を決定するように構成されるディスプレイ装置プロセッサを備える、請求項12に記載の方法。
  18. 前記ディスプレイ装置センサは、前記ユーザの目に関係付けられる画像をキャプチャするように構成されるカメラを含み、前記ディスプレイ装置プロセッサは、前記画像に基づいて前記ユーザの前記視野の方向を決定するように構成される、請求項17に記載の方法。
  19. 前記ディスプレイ装置センサは、前記ユーザの目の動きを監視するように構成され、前記ディスプレイ装置プロセッサは、監視された動きに基づいて前記ユーザの前記視野を決定するように構成される、請求項17に記載の方法。
  20. 前記ディスプレイ装置は、ディスプレイ触覚出力装置を備え、前記方法は、
    前記ディスプレイ装置プロセッサによって、前記ユーザの前記視野の方向に少なくとも部分的に基づいてディスプレイ装置触覚効果を決定するステップと、
    前記ディスプレイ装置プロセッサによって、前記ディスプレイ装置触覚効果を出力するように構成される前記ディスプレイ触覚出力装置に前記ディスプレイ装置触覚効果に関係付けられるディスプレイ装置触覚信号を送信するステップと
    を更に含む、請求項17に記載の方法。
JP2017111445A 2016-06-08 2017-06-06 日和見ディスプレイのための触覚フィードバック Pending JP2017224290A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/176,692 US10198072B2 (en) 2016-06-08 2016-06-08 Haptic feedback for opportunistic displays
US15/176,692 2016-06-08

Publications (1)

Publication Number Publication Date
JP2017224290A true JP2017224290A (ja) 2017-12-21

Family

ID=59034661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017111445A Pending JP2017224290A (ja) 2016-06-08 2017-06-06 日和見ディスプレイのための触覚フィードバック

Country Status (5)

Country Link
US (2) US10198072B2 (ja)
EP (1) EP3255525A1 (ja)
JP (1) JP2017224290A (ja)
KR (1) KR20170138937A (ja)
CN (1) CN107479687A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102234431B1 (ko) * 2019-05-13 2021-04-01 (주)부품디비 wavy-MRE와 전자석을 이용한 진동 액추에이터
KR102234432B1 (ko) * 2019-05-13 2021-04-01 (주)부품디비 wavy-MRE와 전자석을 이용한 근감각 액추에이터

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7801569B1 (en) * 2007-03-22 2010-09-21 At&T Intellectual Property I, L.P. Mobile communications device with distinctive vibration modes
EP2000885B1 (en) * 2007-06-08 2011-01-26 Research In Motion Limited Haptic display for a handheld electronic device
KR101467796B1 (ko) * 2009-01-12 2014-12-10 엘지전자 주식회사 이동단말기 및 그 제어 방법
US9571625B2 (en) * 2009-08-11 2017-02-14 Lg Electronics Inc. Electronic device and control method thereof
US10013857B2 (en) * 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
PL2837167T3 (pl) * 2012-04-12 2019-06-28 Telefonaktiebolaget Lm Ericsson (Publ) Parowanie terminala mobilnego z urządzeniem bezprzewodowym
US8754757B1 (en) * 2013-03-05 2014-06-17 Immersion Corporation Automatic fitting of haptic effects
US9833697B2 (en) 2013-03-11 2017-12-05 Immersion Corporation Haptic sensations as a function of eye gaze
WO2014197339A1 (en) * 2013-06-08 2014-12-11 Apple Inc. Device, method, and graphical user interface for synchronizing two or more displays
KR102092332B1 (ko) * 2013-07-01 2020-04-14 삼성전자주식회사 휴대 장치 및 휴대 장치의 화면 표시 방법
US10067566B2 (en) * 2014-03-19 2018-09-04 Immersion Corporation Systems and methods for a shared haptic experience
US10613627B2 (en) 2014-05-12 2020-04-07 Immersion Corporation Systems and methods for providing haptic feedback for remote interactions
US9723494B2 (en) * 2015-11-04 2017-08-01 At&T Intellectual Property I, L.P. Augmented reality visual Wi-Fi signal

Also Published As

Publication number Publication date
US20190265794A1 (en) 2019-08-29
EP3255525A1 (en) 2017-12-13
US10198072B2 (en) 2019-02-05
CN107479687A (zh) 2017-12-15
US20170357315A1 (en) 2017-12-14
KR20170138937A (ko) 2017-12-18

Similar Documents

Publication Publication Date Title
US10564729B2 (en) Haptic feedback using a field of view
US10365878B2 (en) Haptic notification manager
US10248210B2 (en) Systems and methods for haptically-enabled conformed and multifaceted displays
US10551964B2 (en) Systems and methods for manipulating a graphical user interface through gestures in real space and providing associated haptic effects
US20190265794A1 (en) Haptic feedback for opportunistic displays
CN111338467A (zh) 用于基于用户的运动或环境提供触觉效果的系统和方法