JP2018109974A5 - - Google Patents

Download PDF

Info

Publication number
JP2018109974A5
JP2018109974A5 JP2017247341A JP2017247341A JP2018109974A5 JP 2018109974 A5 JP2018109974 A5 JP 2018109974A5 JP 2017247341 A JP2017247341 A JP 2017247341A JP 2017247341 A JP2017247341 A JP 2017247341A JP 2018109974 A5 JP2018109974 A5 JP 2018109974A5
Authority
JP
Japan
Prior art keywords
tactile
content
user
determining
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017247341A
Other languages
English (en)
Other versions
JP6985134B2 (ja
JP2018109974A (ja
Filing date
Publication date
Priority claimed from US15/390,868 external-priority patent/US10324531B2/en
Application filed filed Critical
Publication of JP2018109974A publication Critical patent/JP2018109974A/ja
Publication of JP2018109974A5 publication Critical patent/JP2018109974A5/ja
Application granted granted Critical
Publication of JP6985134B2 publication Critical patent/JP6985134B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (44)

  1. ディスプレイデバイスに通信可能に結合されるコンピュータデバイスであって、前記ディスプレイデバイスは第1のコンテンツ及び第2のコンテンツを表示するように構成されるコンピュータデバイスと、
    前記コンピュータデバイスに通信可能に結合されるセンサであって、前記ディスプレイデバイスに対する前記コンピュータデバイスのユーザの視野を検出して前記視野に関連付けられる信号を送信するように構成されるセンサと、
    前記信号を受信するために前記センサに通信可能に結合されるプロセッサであって、
    前記信号に少なくとも部分的に基づいて前記ユーザの前記視野の方向を決定すること、
    前記ディスプレイデバイスを介して表示され且つ前記ユーザの前記視野の方向内にある前記第1のコンテンツ及び前記第2のコンテンツ少なくとも1つの触覚効果を含む触覚トラックに関連付けられることを決定すること、
    前記第1のコンテンツ及び前記第2のコンテンツに関連付けられる前記触覚トラックを決定すること、
    前記信号に少なくとも部分的に基づいて前記ユーザの凝視の変化を決定すること、
    前記ユーザの前記凝視の変化に少なくとも部分的に基づいて前記触覚トラックの特徴を決定すること、及び
    前記触覚トラックに関連付けられる触覚信号を送信すること
    を行うように構成されるプロセッサと、
    前記触覚信号を受信し且つ前記触覚トラックを出力するように構成される触覚出力デバイスと
    を備える、システム。
  2. 前記センサは、前記ユーザと前記ディスプレイデバイスとの間の距離を検出し、前記距離に関連付けられる距離センサ信号を前記プロセッサに送信するように更に構成され、
    前記プロセッサは、前記距離に少なくとも部分的に基づいて前記触覚トラックの特徴を決定するように更に構成される、請求項1に記載のシステム。
  3. 前記触覚トラックの前記特徴は、前記触覚効果の振幅、持続時間、場所、タイプ又は周波数を含む、請求項2に記載のシステム。
  4. 前記プロセッサは、
    前記ユーザの前記視野内の前記第1のコンテンツに関連付けられる第1の触覚効果を決定すること、
    前記ユーザの前記視野内の前記第2のコンテンツに関連付けられる第2の触覚効果を決定すること、
    前記第1の触覚効果に関連付けられる第1の触覚信号を送信すること、及び
    前記第2の触覚効果に関連付けられる第2の触覚信号を送信すること
    を行うように更に構成され、前記触覚出力デバイスは、前記第1の触覚信号及び前記第2の触覚信号を受信して、前記第1及び第2の触覚効果を出力するように構成される、請求項1に記載のシステム。
  5. 前記プロセッサは、
    前記第1のコンテンツ又は前記第2のコンテンツの方に向けられている前記ユーザの前記視野の比率を決定すること、及び
    前記第1のコンテンツ又は前記第2のコンテンツの方に向けられている前記ユーザの前記視野の前記比率に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定すること
    を行うように更に構成される、請求項4に記載のシステム。
  6. 前記プロセッサは、
    前記第1のコンテンツの方に向けられた前記ユーザの凝視の第1の方向を決定すること、
    前記第2のコンテンツの方に向けられた前記ユーザの凝視の第2の方向を決定すること、
    前記第1の方向及び前記第2の方向に基づいて前記ユーザの凝視の変化を決定すること、及び
    前記ユーザの凝視の変化に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定すること
    を行うように更に構成される、請求項4に記載のシステム。
  7. 前記プロセッサは、
    前記ユーザの前記視野内の前記ディスプレイデバイスの第1の部分に関連付けられる第1の触覚効果を決定すること、
    前記ユーザの前記視野内の前記ディスプレイデバイスの第2の部分に関連付けられる第2の触覚効果を決定すること、
    前記第1の触覚効果に関連付けられる第1の触覚信号を送信すること、及び
    前記第2の触覚効果に関連付けられる第2の触覚信号を送信すること
    を行うように更に構成され、前記触覚出力デバイスは、前記第1の触覚信号及び前記第2の触覚信号を受信して、前記第1及び第2の触覚効果を出力する、請求項1に記載のシステム。
  8. 前記プロセッサは、
    前記ディスプレイデバイスの前記第1の部分又は前記ディスプレイデバイスの前記第2の部分の方に向けられている前記ユーザの前記視野の比率を決定すること、及び
    前記ディスプレイデバイスの前記第1の部分又は前記ディスプレイデバイスの前記第2の部分の方に向けられている前記ユーザの前記視野の前記比率に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定すること
    を行うように更に構成される、請求項7に記載のシステム。
  9. 前記センサは、前記ユーザの目に関連付けられる画像をキャプチャするように構成されるカメラを含み、
    前記プロセッサは、前記画像に基づいて前記ユーザの前記視野の方向を決定するように構成される、請求項1に記載のシステム。
  10. 前記センサは、前記ユーザの目における筋肉の動きを監視するように構成され、
    前記プロセッサは、監視された動きに基づいて前記ユーザの前記視野の方向を決定するように構成される、請求項1に記載のシステム。
  11. 前記コンピュータデバイスは仮想現実ヘッドセットを備え、前記プロセッサは、
    仮想現実環境を生成すること、及び
    前記仮想現実環境及び数のコンテンツを含むデータを前記ディスプレイデバイスに送信すること
    を行うように更に構成され、前記ディスプレイデバイスは、前記複数のコンテンツを表示するように構成され、前記複数のコンテンツは複数の仮想オブジェクトを含む、請求項1に記載のシステム。
  12. 前記プロセッサは、前記ユーザと前記第1のコンテンツ又は前記第2のコンテンツとの間の仮想距離に少なくとも部分的に基づいて前記触覚トラックの特徴を決定するように更に構成される、請求項1に記載のシステム。
  13. センサによって、コンピュータデバイスに通信可能に結合されるディスプレイデバイスに対する前記コンピュータデバイスのユーザの視野を検出するステップであって、前記ディスプレイデバイスは第1のコンテンツ及び第2のコンテンツを表示するように構成されるステップと、
    前記センサによって、前記視野に関連付けられるセンサ信号をプロセッサに送信するステップと、
    前記プロセッサによって、前記センサ信号に少なくとも部分的に基づいて前記視野の方向を決定するステップと、
    前記プロセッサによって、前記ディスプレイデバイスを介して表示される前記第1のコンテンツ及び前記第2のコンテンツが前記視野の方向に基づいて前記ユーザの前記視野内であることを決定するステップと、
    前記プロセッサによって、前記第1のコンテンツ及び前記第2のコンテンツに関連付けられる触覚トラックを決定するステップと、
    前記センサ信号に少なくとも部分的に基づいて前記ユーザの凝視の変化を決定するステップと、
    前記ユーザの前記凝視の変化に少なくとも部分的に基づいて前記触覚トラックの特徴を決定するステップと、
    前記プロセッサによって、前記触覚トラックに関連付けられる触覚信号を触覚出力デバイスに送信するステップと、
    前記触覚出力デバイスによって、前記触覚トラックを出力するステップと
    を含む、方法。
  14. 前記センサによって、前記ユーザと前記ディスプレイデバイスとの間の距離を検出するステップと、
    前記センサによって、前記距離に関連付けられる距離信号を前記プロセッサに送信するステップと、
    前記プロセッサによって、前記距離に少なくとも部分的に基づいて前記触覚トラックの特徴を決定するステップと
    を更に含む、請求項13に記載の方法。
  15. 前記触覚トラックの前記特徴は触覚効果の振幅、持続時間、場所、タイプ又は周波数を含む、請求項14に記載の方法。
  16. 前記プロセッサによって、前記ユーザの前記視野内の前記第1のコンテンツに関連付けられる第1の触覚効果を決定するステップと、
    前記プロセッサによって、前記ユーザの前記視野内の前記第2のコンテンツに関連付けられる第2の触覚効果を決定するステップと、
    前記プロセッサによって、前記第1の触覚効果に関連付けられる第1の触覚信号を送信するステップと、
    前記プロセッサによって、前記第2の触覚効果に関連付けられる第2の触覚信号を送信するステップと、
    前記触覚出力デバイスによって、前記第1の触覚効果及び前記第2の触覚効果を出力するステップであって、前記第1の触覚効果は前記第2の触覚効果とは異なるステップと
    を更に含む、請求項13に記載の方法。
  17. 前記プロセッサによって、前記第1のコンテンツ又は前記第2のコンテンツの方に向けられている前記ユーザの前記視野の比率を決定するステップと、
    前記プロセッサによって、前記第1のコンテンツ又は前記第2のコンテンツの方に向けられている前記ユーザの前記視野の前記比率に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定するステップであって、前記特徴は、前記第1の触覚効果又は前記第2の触覚効果の振幅、持続時間、場所、タイプ又は周波数を含むステップと
    を更に含む、請求項16に記載の方法。
  18. 前記プロセッサによって、前記第1のコンテンツの方に向けられた前記ユーザの凝視の第1の方向を決定するステップと、
    前記プロセッサによって、前記第2のコンテンツの方に向けられた前記ユーザの凝視の第2の方向を決定するステップと、
    前記プロセッサによって、前記第1の方向及び前記第2の方向に基づいて前記ユーザの凝視の変化を決定するステップと、
    前記プロセッサによって、前記ユーザの凝視の変化に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定するステップであって、前記特徴は、前記第1の触覚効果又は前記第2の触覚効果の振幅、持続時間、場所、タイプ又は周波数を含むステップと
    を更に含む、請求項16に記載の方法。
  19. 前記プロセッサによって、前記ユーザの前記視野内の前記ディスプレイデバイスの第1の部分に関連付けられる第1の触覚効果を決定するステップと、
    前記プロセッサによって、前記ユーザの前記視野内の前記ディスプレイデバイスの第2の部分に関連付けられる第2の触覚効果を決定するステップと、
    前記プロセッサによって、前記第1の触覚効果に関連付けられる第1の触覚信号を送信するステップと、
    前記プロセッサによって、前記第2の触覚効果に関連付けられる第2の触覚信号を送信するステップと、
    前記触覚出力デバイスによって、前記第1の触覚効果及び前記第2の触覚効果を出力するステップであって、前記第1の触覚効果は前記第2の触覚効果とは異なるステップと
    を更に含む、請求項13に記載の方法。
  20. 前記プロセッサによって、前記ディスプレイデバイスの前記第1の部分又は前記ディスプレイデバイスの前記第2の部分の方に向けられている前記ユーザの前記視野の比率を決定するステップと、
    前記プロセッサによって、前記ディスプレイデバイスの前記第1の部分又は前記ディスプレイデバイスの前記第2の部分の方に向けられている前記ユーザの前記視野の前記比率に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定するステップであって、前記特徴は、前記第1の触覚効果又は前記第2の触覚効果の振幅、持続時間、場所、タイプ又は周波数を含むステップと
    を更に含む、請求項19に記載の方法。
  21. 前記センサは、前記ユーザの目の動きを監視するように構成され、
    前記プロセッサは、監視された動きに基づいて前記ユーザの前記視野の方向を決定するように構成される、請求項13に記載の方法。
  22. 前記センサは、前記ユーザの目における筋肉の動きを監視するように構成され、
    前記プロセッサは、監視された動きに基づいて前記ユーザの前記視野の方向を決定するように構成される、請求項13に記載の方法。
  23. 前記プロセッサによって、仮想現実環境を生成するステップと、
    前記プロセッサによって、前記仮想現実環境及び数のコンテンツを含むデータを前記ディスプレイデバイスに送信するステップと、
    前記ディスプレイデバイスによって、前記複数のコンテンツを表示するステップであって、前記複数のコンテンツは複数の仮想オブジェクトを含むステップと
    を更に含む、請求項13に記載の方法。
  24. 前記プロセッサによって、前記ユーザと前記第1のコンテンツ又は前記第2のコンテンツとの間の仮想距離に少なくとも部分的に基づいて前記触覚トラックの特徴を決定するステップを更に含む、請求項13に記載の方法。
  25. ディスプレイと、
    前記ディスプレイに対するユーザの視野を検出して、前記視野に関連付けられるセンサ信号を送信するように構成されるセンサと、
    前記センサに通信可能に結合されるプロセッサと
    を備え、
    前記プロセッサは、
    前記センサ信号に少なくとも部分的に基づいて、前記ディスプレイにおけるコンテンツが前記ユーザの前記視野内にあることを決定すること、
    前記ユーザと前記コンテンツとの間の仮想距離を決定すること、
    前記コンテンツに向けられる前記視野の比率を決定すること、
    前記仮想距離と前記コンテンツに向けられる前記視野の比率とに少なくとも部分的に基づいて触覚効果を決定すること、及び
    前記触覚効果を出力するように構成される触覚出力デバイスに前記触覚効果に関連付けられる触覚信号を送信すること
    を行うように構成される、システム。
  26. 前記プロセッサは、前記仮想距離に部分的に基づいて、前記触覚効果の振幅、持続時間、位置、タイプ、又は周波数の1つ以上を決定するように更に構成される、請求項25に記載のシステム。
  27. 前記センサは、前記ユーザと前記ディスプレイとの間の物理距離を検出し、前記プロセッサは、前記物理距離に少なくとも部分的に基づいて前記触覚効果を決定するように更に構成される、請求項25に記載のシステム。
  28. 前記プロセッサは、前記コンテンツの少なくとも1つのパラメータに対応するデータを含むルックアップテーブル又はデータベースの少なくとも1つにアクセスすること、及び前記コンテンツの前記少なくとも1つのパラメータに少なくとも部分的に基づいて前記仮想距離を決定することを行うように更に構成される、請求項26に記載のシステム。
  29. 前記コンテンツの前記少なくとも1つのパラメータは、前記コンテンツのサイズ、前記コンテンツの前記ディスプレイにおける位置、又は前記コンテンツの表示の角度の少なくとも1つを含む、請求項28に記載のシステム。
  30. 前記プロセッサは、前記仮想距離の変化に基づいて前記触覚効果を調節するように更に構成される、請求項26に記載のシステム。
  31. 前記プロセッサは、
    前記ユーザの前記視野内の第2のコンテンツに関連付けられる第2の触覚効果を決定することであって、前記第2の触覚効果は、前記ユーザと前記第2のコンテンツとの間の第2の仮想距離に少なくとも部分的に基づくこと、及び
    前記第2の触覚効果に関連付けられる第2の触覚信号を前記触覚出力デバイスに送信すること
    を行うように更に構成される、請求項26に記載のシステム。
  32. 前記プロセッサは、前記コンテンツ又は前記第2のコンテンツの方に向けられている前記視野の比率に少なくとも部分的に基づいて、前記触覚効果及び前記第2の触覚効果の特徴を決定するように更に構成される、請求項31に記載のシステム。
  33. 前記プロセッサは、
    前記コンテンツの方に向けられた前記ユーザの第1の凝視方向を決定すること、
    前記第2のコンテンツの方に向けられた前記ユーザの第2の凝視方向を決定すること、
    前記第1の凝視方向及び前記第2の凝視方向からの変化に少なくとも部分的に基づいて、前記触覚効果又は前記第2の触覚効果の特徴を決定すること
    を行うように更に構成される、請求項31に記載のシステム。
  34. 前記ディスプレイは、仮想現実ヘッドセットに結合されており、前記プロセッサは、
    仮想現実環境を生成すること、及び
    前記仮想現実環境及び前記コンテンツを含むデータを前記ディスプレイに送信することであって、前記コンテンツは複数の仮想オブジェクトを含むこと
    を行うように更に構成される、請求項26に記載のシステム。
  35. ディスプレイに対するユーザの視野を検出するステップと、
    前記ディスプレイにおけるコンテンツが前記ユーザの前記視野内にあることを決定するステップと、
    前記ユーザと前記コンテンツとの間の仮想距離を決定するステップと、
    前記コンテンツに向けられる前記視野の比率を決定するステップと、
    前記仮想距離と前記コンテンツに向けられる前記視野の比率とに少なくとも部分的に基づいて触覚効果を決定するステップと、
    前記触覚効果を出力するように構成される触覚出力デバイスに前記触覚効果に関連付けられる触覚信号を送信するステップと
    を含む、方法。
  36. 前記仮想距離に部分的に基づいて、前記触覚効果の振幅、持続時間、位置、タイプ、又は周波数の1つ以上を決定するステップを更に含む、請求項35に記載の方法。
  37. 前記ユーザと前記ディスプレイとの間の物理距離を検出するステップと、
    前記物理距離に少なくとも部分的に基づいて前記触覚効果を決定するステップと
    を更に含む、請求項35に記載の方法。
  38. 前記コンテンツの少なくとも1つのパラメータに対応するデータを含むルックアップテーブル又はデータベースの少なくとも1つにアクセスするステップと、
    前記コンテンツの前記少なくとも1つのパラメータに少なくとも部分的に基づいて前記仮想距離を決定するステップと
    を更に含む、請求項35に記載の方法。
  39. 前記コンテンツの前記少なくとも1つのパラメータは、前記コンテンツのサイズ、前記コンテンツの前記ディスプレイにおける位置、又は前記コンテンツの表示の角度の少なくとも1つを含む、請求項38に記載の方法。
  40. 前記仮想距離の変化に基づいて前記触覚効果を調節するステップを更に含む、請求項35に記載の方法。
  41. 前記ユーザの前記視野内の第2のコンテンツに関連付けられる第2の触覚効果を決定するステップであって、前記第2の触覚効果は、前記ユーザと前記第2のコンテンツとの間の第2の仮想距離に少なくとも部分的に基づくステップと、
    前記第2の触覚効果に関連付けられる第2の触覚信号を前記触覚出力デバイスに送信するステップと
    を更に含む、請求項35に記載の方法。
  42. 前記コンテンツ又は前記第2のコンテンツの少なくとも1つの方に向けられている前記ユーザの前記視野の比率に少なくとも部分的に基づいて、前記触覚効果及び前記第2の触覚効果の特徴を決定するステップを更に含む、請求項41に記載の方法。
  43. 前記コンテンツの方に向けられた前記ユーザの第1の凝視方向を決定するステップと、
    前記第2のコンテンツの方に向けられた前記ユーザの第2の凝視方向を決定するステップと、
    前記第1の凝視方向及び前記第2の凝視方向からの変化に少なくとも部分的に基づいて、前記触覚効果又は前記第2の触覚効果の特徴を決定するステップと
    を更に含む、請求項41に記載の方法。
  44. プログラムコードを含む非一時的なコンピュータ可読媒体であって、プロセッサによって実行されると、前記プログラムコードは、
    ディスプレイに対するユーザの視野を検出すること、
    前記ディスプレイにおけるコンテンツが前記ユーザの前記視野内にあることを決定すること、
    前記ユーザと前記コンテンツとの間の仮想距離を決定すること、
    前記コンテンツに向けられる前記視野の比率を決定すること、
    前記仮想距離と前記コンテンツに向けられる前記視野の比率とに少なくとも部分的に基づいて触覚効果を決定すること、及び
    前記触覚効果を出力するように構成される触覚出力デバイスに前記触覚効果に関連付けられる触覚信号を送信すること
    を前記プロセッサに行わせるように構成される、非一時的なコンピュータ可読媒体。
JP2017247341A 2016-12-27 2017-12-25 視野を用いる触覚フィードバック Active JP6985134B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/390,868 2016-12-27
US15/390,868 US10324531B2 (en) 2016-12-27 2016-12-27 Haptic feedback using a field of view

Publications (3)

Publication Number Publication Date
JP2018109974A JP2018109974A (ja) 2018-07-12
JP2018109974A5 true JP2018109974A5 (ja) 2021-02-04
JP6985134B2 JP6985134B2 (ja) 2021-12-22

Family

ID=60782063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017247341A Active JP6985134B2 (ja) 2016-12-27 2017-12-25 視野を用いる触覚フィードバック

Country Status (5)

Country Link
US (2) US10324531B2 (ja)
EP (1) EP3343326B1 (ja)
JP (1) JP6985134B2 (ja)
KR (2) KR102285180B1 (ja)
CN (1) CN108334190B (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3039513B1 (en) 2013-09-03 2020-08-19 Apple Inc. Crown input for a wearable electronic device
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
EP3584671B1 (en) 2014-06-27 2022-04-27 Apple Inc. Manipulation of calendar application in device with touch screen
US20160062571A1 (en) 2014-09-02 2016-03-03 Apple Inc. Reduced size user interface
TW201610758A (zh) 2014-09-02 2016-03-16 蘋果公司 按鈕功能性
WO2016036510A1 (en) 2014-09-02 2016-03-10 Apple Inc. Music user interface
WO2016036509A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
DK179978B1 (en) * 2016-09-23 2019-11-27 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
US10401954B2 (en) * 2017-04-17 2019-09-03 Intel Corporation Sensory enhanced augmented reality and virtual reality device
CN116456097A (zh) 2017-04-28 2023-07-18 苹果公司 视频流水线
US10979685B1 (en) 2017-04-28 2021-04-13 Apple Inc. Focusing for virtual and augmented reality systems
JP6613267B2 (ja) 2017-06-02 2019-11-27 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
JP6837921B2 (ja) * 2017-06-02 2021-03-03 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6653293B2 (ja) 2017-06-05 2020-02-26 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
US10861142B2 (en) * 2017-07-21 2020-12-08 Apple Inc. Gaze direction-based adaptive pre-filtering of video data
CA3037657C (en) * 2018-03-22 2023-03-14 Jennifer Hendrix Route guidance and obstacle avoidance system
US11725958B2 (en) 2018-03-22 2023-08-15 Jennifer Hendrix Route guidance and proximity awareness system
US10712824B2 (en) 2018-09-11 2020-07-14 Apple Inc. Content-based tactile outputs
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
CN110096157B (zh) * 2018-09-11 2021-05-11 苹果公司 基于内容的触觉输出
US10775894B2 (en) * 2018-11-02 2020-09-15 Immersion Corporation Systems and methods for providing customizable haptic playback
US10860101B1 (en) * 2018-11-21 2020-12-08 Facebook Technologies, Llc Systems and methods using patterned nanovoids for actuation and deformation sensing
CN113841107A (zh) * 2019-04-26 2021-12-24 惠普发展公司,有限责任合伙企业 空间音频和触觉
US10996761B2 (en) 2019-06-01 2021-05-04 Apple Inc. User interfaces for non-visual output of time
US11086398B2 (en) * 2019-06-07 2021-08-10 Microsoft Technology Licensing, Llc Haptic rendering
US11347312B1 (en) * 2019-09-23 2022-05-31 Apple Inc. Ultrasonic haptic output devices
US11429155B2 (en) * 2019-10-01 2022-08-30 Dell Products L.P. Information handling system including dynamic configuration of piezoelectric transducers for multi-functionality
JP2021067877A (ja) * 2019-10-25 2021-04-30 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、ヘッドマウントディスプレイ、および画像表示方法
US11093005B1 (en) * 2020-05-05 2021-08-17 International Business Machines Corporation Virtual reality rollable display device
CN116209973A (zh) * 2020-11-10 2023-06-02 索尼集团公司 信号处理装置、信号处理方法和信号处理系统
US11500463B2 (en) * 2020-12-30 2022-11-15 Imagine Technologies, Inc. Wearable electroencephalography sensor and device control methods using same

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2422265A1 (en) * 2003-03-14 2004-09-14 Handshake Interactive Technologies Inc. A method and system for providing haptic effects
WO2006100645A2 (en) 2005-03-24 2006-09-28 Koninklijke Philips Electronics, N.V. Immersive reading experience using eye tracking
US8243970B2 (en) * 2008-08-11 2012-08-14 Telefonaktiebolaget L M Ericsson (Publ) Virtual reality sound for advanced multi-media applications
JP5536092B2 (ja) * 2008-12-09 2014-07-02 コーニンクレッカ フィリップス エヌ ヴェ 実体験のように感じる効果を提供する方法及びシステム
WO2014006799A1 (ja) 2012-07-05 2014-01-09 日本電気株式会社 電子機器、その制御方法及び制御プログラムが格納された非一時的なコンピュータ可読媒体
US9202350B2 (en) * 2012-12-19 2015-12-01 Nokia Technologies Oy User interfaces and associated methods
US9466187B2 (en) 2013-02-04 2016-10-11 Immersion Corporation Management of multiple wearable haptic devices
US9833697B2 (en) * 2013-03-11 2017-12-05 Immersion Corporation Haptic sensations as a function of eye gaze
JP2014197338A (ja) * 2013-03-29 2014-10-16 株式会社東芝 プログラムの疎行列演算化装置
US9946348B2 (en) * 2014-03-21 2018-04-17 Immersion Corporation Automatic tuning of haptic effects
US9690370B2 (en) * 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
US10613627B2 (en) 2014-05-12 2020-04-07 Immersion Corporation Systems and methods for providing haptic feedback for remote interactions
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
US20160187976A1 (en) 2014-12-29 2016-06-30 Immersion Corporation Systems and methods for generating haptic effects based on eye tracking
US9711015B2 (en) 2015-09-16 2017-07-18 Immersion Corporation Customizing haptic feedback in live events

Similar Documents

Publication Publication Date Title
JP2018109974A5 (ja)
US9659413B2 (en) Method, system and device for navigating in a virtual reality environment
JP6478360B2 (ja) コンテンツ閲覧
KR20220030294A (ko) 인공 현실 환경들에서 주변 디바이스를 사용하는 가상 사용자 인터페이스
KR20210095833A (ko) 시야를 이용하는 햅틱 피드백
EP3040814A1 (en) Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications
JP2018125007A5 (ja)
US20160180592A1 (en) Selectively Pairing an Application Presented in Virtual Space with a Physical Display
WO2018125742A3 (en) Dynamic depth-based content creation in virtual reality environments
EP3320829A8 (en) System for integrally measuring clinical parameters of visual function
JP2017054201A5 (ja)
US10884576B2 (en) Mediated reality
JP2012203485A5 (ja)
JP6662914B2 (ja) 媒介現実
EP3311249A1 (en) Three-dimensional user input
KR20220012990A (ko) 인공 현실 시스템들을 위한 팔 응시-구동 사용자 인터페이스 요소 게이팅
US9830395B2 (en) Spatial data processing
JP2018014078A5 (ja)
JP2022535182A (ja) ユーザインターフェース要素をゲーティングするパーソナルアシスタント要素を備えた人工現実システム
JP2018073172A5 (ja)
JP6989075B2 (ja) 仮想化環境内にイメージを提示するための方法、装置及びコンピュータプログラム
US20130314406A1 (en) Method for creating a naked-eye 3d effect
KR20220018562A (ko) 인공 현실 시스템을 위한 모서리-식별 제스처-구동 사용자 인터페이스 요소 게이팅
US10216357B2 (en) Apparatus and method for controlling the apparatus
CN108021227B (zh) 在虚拟现实中快速移动的方法及虚拟现实装置