JP2018109974A5 - - Google Patents

Download PDF

Info

Publication number
JP2018109974A5
JP2018109974A5 JP2017247341A JP2017247341A JP2018109974A5 JP 2018109974 A5 JP2018109974 A5 JP 2018109974A5 JP 2017247341 A JP2017247341 A JP 2017247341A JP 2017247341 A JP2017247341 A JP 2017247341A JP 2018109974 A5 JP2018109974 A5 JP 2018109974A5
Authority
JP
Japan
Prior art keywords
tactile
content
user
determining
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017247341A
Other languages
English (en)
Other versions
JP2018109974A (ja
JP6985134B2 (ja
Filing date
Publication date
Priority claimed from US15/390,868 external-priority patent/US10324531B2/en
Application filed filed Critical
Publication of JP2018109974A publication Critical patent/JP2018109974A/ja
Publication of JP2018109974A5 publication Critical patent/JP2018109974A5/ja
Application granted granted Critical
Publication of JP6985134B2 publication Critical patent/JP6985134B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (44)

  1. ディスプレイデバイスに通信可能に結合されるコンピュータデバイスであって、前記ディスプレイデバイスは第1のコンテンツ及び第2のコンテンツを表示するように構成されるコンピュータデバイスと、
    前記コンピュータデバイスに通信可能に結合されるセンサであって、前記ディスプレイデバイスに対する前記コンピュータデバイスのユーザの視野を検出して前記視野に関連付けられる信号を送信するように構成されるセンサと、
    前記信号を受信するために前記センサに通信可能に結合されるプロセッサであって、
    前記信号に少なくとも部分的に基づいて前記ユーザの前記視野の方向を決定すること、
    前記ディスプレイデバイスを介して表示され且つ前記ユーザの前記視野の方向内にある前記第1のコンテンツ及び前記第2のコンテンツ少なくとも1つの触覚効果を含む触覚トラックに関連付けられることを決定すること、
    前記第1のコンテンツ及び前記第2のコンテンツに関連付けられる前記触覚トラックを決定すること、
    前記信号に少なくとも部分的に基づいて前記ユーザの凝視の変化を決定すること、
    前記ユーザの前記凝視の変化に少なくとも部分的に基づいて前記触覚トラックの特徴を決定すること、及び
    前記触覚トラックに関連付けられる触覚信号を送信すること
    を行うように構成されるプロセッサと、
    前記触覚信号を受信し且つ前記触覚トラックを出力するように構成される触覚出力デバイスと
    を備える、システム。
  2. 前記センサは、前記ユーザと前記ディスプレイデバイスとの間の距離を検出し、前記距離に関連付けられる距離センサ信号を前記プロセッサに送信するように更に構成され、
    前記プロセッサは、前記距離に少なくとも部分的に基づいて前記触覚トラックの特徴を決定するように更に構成される、請求項1に記載のシステム。
  3. 前記触覚トラックの前記特徴は、前記触覚効果の振幅、持続時間、場所、タイプ又は周波数を含む、請求項2に記載のシステム。
  4. 前記プロセッサは、
    前記ユーザの前記視野内の前記第1のコンテンツに関連付けられる第1の触覚効果を決定すること、
    前記ユーザの前記視野内の前記第2のコンテンツに関連付けられる第2の触覚効果を決定すること、
    前記第1の触覚効果に関連付けられる第1の触覚信号を送信すること、及び
    前記第2の触覚効果に関連付けられる第2の触覚信号を送信すること
    を行うように更に構成され、前記触覚出力デバイスは、前記第1の触覚信号及び前記第2の触覚信号を受信して、前記第1及び第2の触覚効果を出力するように構成される、請求項1に記載のシステム。
  5. 前記プロセッサは、
    前記第1のコンテンツ又は前記第2のコンテンツの方に向けられている前記ユーザの前記視野の比率を決定すること、及び
    前記第1のコンテンツ又は前記第2のコンテンツの方に向けられている前記ユーザの前記視野の前記比率に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定すること
    を行うように更に構成される、請求項4に記載のシステム。
  6. 前記プロセッサは、
    前記第1のコンテンツの方に向けられた前記ユーザの凝視の第1の方向を決定すること、
    前記第2のコンテンツの方に向けられた前記ユーザの凝視の第2の方向を決定すること、
    前記第1の方向及び前記第2の方向に基づいて前記ユーザの凝視の変化を決定すること、及び
    前記ユーザの凝視の変化に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定すること
    を行うように更に構成される、請求項4に記載のシステム。
  7. 前記プロセッサは、
    前記ユーザの前記視野内の前記ディスプレイデバイスの第1の部分に関連付けられる第1の触覚効果を決定すること、
    前記ユーザの前記視野内の前記ディスプレイデバイスの第2の部分に関連付けられる第2の触覚効果を決定すること、
    前記第1の触覚効果に関連付けられる第1の触覚信号を送信すること、及び
    前記第2の触覚効果に関連付けられる第2の触覚信号を送信すること
    を行うように更に構成され、前記触覚出力デバイスは、前記第1の触覚信号及び前記第2の触覚信号を受信して、前記第1及び第2の触覚効果を出力する、請求項1に記載のシステム。
  8. 前記プロセッサは、
    前記ディスプレイデバイスの前記第1の部分又は前記ディスプレイデバイスの前記第2の部分の方に向けられている前記ユーザの前記視野の比率を決定すること、及び
    前記ディスプレイデバイスの前記第1の部分又は前記ディスプレイデバイスの前記第2の部分の方に向けられている前記ユーザの前記視野の前記比率に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定すること
    を行うように更に構成される、請求項7に記載のシステム。
  9. 前記センサは、前記ユーザの目に関連付けられる画像をキャプチャするように構成されるカメラを含み、
    前記プロセッサは、前記画像に基づいて前記ユーザの前記視野の方向を決定するように構成される、請求項1に記載のシステム。
  10. 前記センサは、前記ユーザの目における筋肉の動きを監視するように構成され、
    前記プロセッサは、監視された動きに基づいて前記ユーザの前記視野の方向を決定するように構成される、請求項1に記載のシステム。
  11. 前記コンピュータデバイスは仮想現実ヘッドセットを備え、前記プロセッサは、
    仮想現実環境を生成すること、及び
    前記仮想現実環境及び数のコンテンツを含むデータを前記ディスプレイデバイスに送信すること
    を行うように更に構成され、前記ディスプレイデバイスは、前記複数のコンテンツを表示するように構成され、前記複数のコンテンツは複数の仮想オブジェクトを含む、請求項1に記載のシステム。
  12. 前記プロセッサは、前記ユーザと前記第1のコンテンツ又は前記第2のコンテンツとの間の仮想距離に少なくとも部分的に基づいて前記触覚トラックの特徴を決定するように更に構成される、請求項1に記載のシステム。
  13. センサによって、コンピュータデバイスに通信可能に結合されるディスプレイデバイスに対する前記コンピュータデバイスのユーザの視野を検出するステップであって、前記ディスプレイデバイスは第1のコンテンツ及び第2のコンテンツを表示するように構成されるステップと、
    前記センサによって、前記視野に関連付けられるセンサ信号をプロセッサに送信するステップと、
    前記プロセッサによって、前記センサ信号に少なくとも部分的に基づいて前記視野の方向を決定するステップと、
    前記プロセッサによって、前記ディスプレイデバイスを介して表示される前記第1のコンテンツ及び前記第2のコンテンツが前記視野の方向に基づいて前記ユーザの前記視野内であることを決定するステップと、
    前記プロセッサによって、前記第1のコンテンツ及び前記第2のコンテンツに関連付けられる触覚トラックを決定するステップと、
    前記センサ信号に少なくとも部分的に基づいて前記ユーザの凝視の変化を決定するステップと、
    前記ユーザの前記凝視の変化に少なくとも部分的に基づいて前記触覚トラックの特徴を決定するステップと、
    前記プロセッサによって、前記触覚トラックに関連付けられる触覚信号を触覚出力デバイスに送信するステップと、
    前記触覚出力デバイスによって、前記触覚トラックを出力するステップと
    を含む、方法。
  14. 前記センサによって、前記ユーザと前記ディスプレイデバイスとの間の距離を検出するステップと、
    前記センサによって、前記距離に関連付けられる距離信号を前記プロセッサに送信するステップと、
    前記プロセッサによって、前記距離に少なくとも部分的に基づいて前記触覚トラックの特徴を決定するステップと
    を更に含む、請求項13に記載の方法。
  15. 前記触覚トラックの前記特徴は触覚効果の振幅、持続時間、場所、タイプ又は周波数を含む、請求項14に記載の方法。
  16. 前記プロセッサによって、前記ユーザの前記視野内の前記第1のコンテンツに関連付けられる第1の触覚効果を決定するステップと、
    前記プロセッサによって、前記ユーザの前記視野内の前記第2のコンテンツに関連付けられる第2の触覚効果を決定するステップと、
    前記プロセッサによって、前記第1の触覚効果に関連付けられる第1の触覚信号を送信するステップと、
    前記プロセッサによって、前記第2の触覚効果に関連付けられる第2の触覚信号を送信するステップと、
    前記触覚出力デバイスによって、前記第1の触覚効果及び前記第2の触覚効果を出力するステップであって、前記第1の触覚効果は前記第2の触覚効果とは異なるステップと
    を更に含む、請求項13に記載の方法。
  17. 前記プロセッサによって、前記第1のコンテンツ又は前記第2のコンテンツの方に向けられている前記ユーザの前記視野の比率を決定するステップと、
    前記プロセッサによって、前記第1のコンテンツ又は前記第2のコンテンツの方に向けられている前記ユーザの前記視野の前記比率に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定するステップであって、前記特徴は、前記第1の触覚効果又は前記第2の触覚効果の振幅、持続時間、場所、タイプ又は周波数を含むステップと
    を更に含む、請求項16に記載の方法。
  18. 前記プロセッサによって、前記第1のコンテンツの方に向けられた前記ユーザの凝視の第1の方向を決定するステップと、
    前記プロセッサによって、前記第2のコンテンツの方に向けられた前記ユーザの凝視の第2の方向を決定するステップと、
    前記プロセッサによって、前記第1の方向及び前記第2の方向に基づいて前記ユーザの凝視の変化を決定するステップと、
    前記プロセッサによって、前記ユーザの凝視の変化に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定するステップであって、前記特徴は、前記第1の触覚効果又は前記第2の触覚効果の振幅、持続時間、場所、タイプ又は周波数を含むステップと
    を更に含む、請求項16に記載の方法。
  19. 前記プロセッサによって、前記ユーザの前記視野内の前記ディスプレイデバイスの第1の部分に関連付けられる第1の触覚効果を決定するステップと、
    前記プロセッサによって、前記ユーザの前記視野内の前記ディスプレイデバイスの第2の部分に関連付けられる第2の触覚効果を決定するステップと、
    前記プロセッサによって、前記第1の触覚効果に関連付けられる第1の触覚信号を送信するステップと、
    前記プロセッサによって、前記第2の触覚効果に関連付けられる第2の触覚信号を送信するステップと、
    前記触覚出力デバイスによって、前記第1の触覚効果及び前記第2の触覚効果を出力するステップであって、前記第1の触覚効果は前記第2の触覚効果とは異なるステップと
    を更に含む、請求項13に記載の方法。
  20. 前記プロセッサによって、前記ディスプレイデバイスの前記第1の部分又は前記ディスプレイデバイスの前記第2の部分の方に向けられている前記ユーザの前記視野の比率を決定するステップと、
    前記プロセッサによって、前記ディスプレイデバイスの前記第1の部分又は前記ディスプレイデバイスの前記第2の部分の方に向けられている前記ユーザの前記視野の前記比率に少なくとも部分的に基づいて、前記第1の触覚効果又は前記第2の触覚効果の特徴を決定するステップであって、前記特徴は、前記第1の触覚効果又は前記第2の触覚効果の振幅、持続時間、場所、タイプ又は周波数を含むステップと
    を更に含む、請求項19に記載の方法。
  21. 前記センサは、前記ユーザの目の動きを監視するように構成され、
    前記プロセッサは、監視された動きに基づいて前記ユーザの前記視野の方向を決定するように構成される、請求項13に記載の方法。
  22. 前記センサは、前記ユーザの目における筋肉の動きを監視するように構成され、
    前記プロセッサは、監視された動きに基づいて前記ユーザの前記視野の方向を決定するように構成される、請求項13に記載の方法。
  23. 前記プロセッサによって、仮想現実環境を生成するステップと、
    前記プロセッサによって、前記仮想現実環境及び数のコンテンツを含むデータを前記ディスプレイデバイスに送信するステップと、
    前記ディスプレイデバイスによって、前記複数のコンテンツを表示するステップであって、前記複数のコンテンツは複数の仮想オブジェクトを含むステップと
    を更に含む、請求項13に記載の方法。
  24. 前記プロセッサによって、前記ユーザと前記第1のコンテンツ又は前記第2のコンテンツとの間の仮想距離に少なくとも部分的に基づいて前記触覚トラックの特徴を決定するステップを更に含む、請求項13に記載の方法。
  25. ディスプレイと、
    前記ディスプレイに対するユーザの視野を検出して、前記視野に関連付けられるセンサ信号を送信するように構成されるセンサと、
    前記センサに通信可能に結合されるプロセッサと
    を備え、
    前記プロセッサは、
    前記センサ信号に少なくとも部分的に基づいて、前記ディスプレイにおけるコンテンツが前記ユーザの前記視野内にあることを決定すること、
    前記ユーザと前記コンテンツとの間の仮想距離を決定すること、
    前記コンテンツに向けられる前記視野の比率を決定すること、
    前記仮想距離と前記コンテンツに向けられる前記視野の比率とに少なくとも部分的に基づいて触覚効果を決定すること、及び
    前記触覚効果を出力するように構成される触覚出力デバイスに前記触覚効果に関連付けられる触覚信号を送信すること
    を行うように構成される、システム。
  26. 前記プロセッサは、前記仮想距離に部分的に基づいて、前記触覚効果の振幅、持続時間、位置、タイプ、又は周波数の1つ以上を決定するように更に構成される、請求項25に記載のシステム。
  27. 前記センサは、前記ユーザと前記ディスプレイとの間の物理距離を検出し、前記プロセッサは、前記物理距離に少なくとも部分的に基づいて前記触覚効果を決定するように更に構成される、請求項25に記載のシステム。
  28. 前記プロセッサは、前記コンテンツの少なくとも1つのパラメータに対応するデータを含むルックアップテーブル又はデータベースの少なくとも1つにアクセスすること、及び前記コンテンツの前記少なくとも1つのパラメータに少なくとも部分的に基づいて前記仮想距離を決定することを行うように更に構成される、請求項26に記載のシステム。
  29. 前記コンテンツの前記少なくとも1つのパラメータは、前記コンテンツのサイズ、前記コンテンツの前記ディスプレイにおける位置、又は前記コンテンツの表示の角度の少なくとも1つを含む、請求項28に記載のシステム。
  30. 前記プロセッサは、前記仮想距離の変化に基づいて前記触覚効果を調節するように更に構成される、請求項26に記載のシステム。
  31. 前記プロセッサは、
    前記ユーザの前記視野内の第2のコンテンツに関連付けられる第2の触覚効果を決定することであって、前記第2の触覚効果は、前記ユーザと前記第2のコンテンツとの間の第2の仮想距離に少なくとも部分的に基づくこと、及び
    前記第2の触覚効果に関連付けられる第2の触覚信号を前記触覚出力デバイスに送信すること
    を行うように更に構成される、請求項26に記載のシステム。
  32. 前記プロセッサは、前記コンテンツ又は前記第2のコンテンツの方に向けられている前記視野の比率に少なくとも部分的に基づいて、前記触覚効果及び前記第2の触覚効果の特徴を決定するように更に構成される、請求項31に記載のシステム。
  33. 前記プロセッサは、
    前記コンテンツの方に向けられた前記ユーザの第1の凝視方向を決定すること、
    前記第2のコンテンツの方に向けられた前記ユーザの第2の凝視方向を決定すること、
    前記第1の凝視方向及び前記第2の凝視方向からの変化に少なくとも部分的に基づいて、前記触覚効果又は前記第2の触覚効果の特徴を決定すること
    を行うように更に構成される、請求項31に記載のシステム。
  34. 前記ディスプレイは、仮想現実ヘッドセットに結合されており、前記プロセッサは、
    仮想現実環境を生成すること、及び
    前記仮想現実環境及び前記コンテンツを含むデータを前記ディスプレイに送信することであって、前記コンテンツは複数の仮想オブジェクトを含むこと
    を行うように更に構成される、請求項26に記載のシステム。
  35. ディスプレイに対するユーザの視野を検出するステップと、
    前記ディスプレイにおけるコンテンツが前記ユーザの前記視野内にあることを決定するステップと、
    前記ユーザと前記コンテンツとの間の仮想距離を決定するステップと、
    前記コンテンツに向けられる前記視野の比率を決定するステップと、
    前記仮想距離と前記コンテンツに向けられる前記視野の比率とに少なくとも部分的に基づいて触覚効果を決定するステップと、
    前記触覚効果を出力するように構成される触覚出力デバイスに前記触覚効果に関連付けられる触覚信号を送信するステップと
    を含む、方法。
  36. 前記仮想距離に部分的に基づいて、前記触覚効果の振幅、持続時間、位置、タイプ、又は周波数の1つ以上を決定するステップを更に含む、請求項35に記載の方法。
  37. 前記ユーザと前記ディスプレイとの間の物理距離を検出するステップと、
    前記物理距離に少なくとも部分的に基づいて前記触覚効果を決定するステップと
    を更に含む、請求項35に記載の方法。
  38. 前記コンテンツの少なくとも1つのパラメータに対応するデータを含むルックアップテーブル又はデータベースの少なくとも1つにアクセスするステップと、
    前記コンテンツの前記少なくとも1つのパラメータに少なくとも部分的に基づいて前記仮想距離を決定するステップと
    を更に含む、請求項35に記載の方法。
  39. 前記コンテンツの前記少なくとも1つのパラメータは、前記コンテンツのサイズ、前記コンテンツの前記ディスプレイにおける位置、又は前記コンテンツの表示の角度の少なくとも1つを含む、請求項38に記載の方法。
  40. 前記仮想距離の変化に基づいて前記触覚効果を調節するステップを更に含む、請求項35に記載の方法。
  41. 前記ユーザの前記視野内の第2のコンテンツに関連付けられる第2の触覚効果を決定するステップであって、前記第2の触覚効果は、前記ユーザと前記第2のコンテンツとの間の第2の仮想距離に少なくとも部分的に基づくステップと、
    前記第2の触覚効果に関連付けられる第2の触覚信号を前記触覚出力デバイスに送信するステップと
    を更に含む、請求項35に記載の方法。
  42. 前記コンテンツ又は前記第2のコンテンツの少なくとも1つの方に向けられている前記ユーザの前記視野の比率に少なくとも部分的に基づいて、前記触覚効果及び前記第2の触覚効果の特徴を決定するステップを更に含む、請求項41に記載の方法。
  43. 前記コンテンツの方に向けられた前記ユーザの第1の凝視方向を決定するステップと、
    前記第2のコンテンツの方に向けられた前記ユーザの第2の凝視方向を決定するステップと、
    前記第1の凝視方向及び前記第2の凝視方向からの変化に少なくとも部分的に基づいて、前記触覚効果又は前記第2の触覚効果の特徴を決定するステップと
    を更に含む、請求項41に記載の方法。
  44. プログラムコードを含む非一時的なコンピュータ可読媒体であって、プロセッサによって実行されると、前記プログラムコードは、
    ディスプレイに対するユーザの視野を検出すること、
    前記ディスプレイにおけるコンテンツが前記ユーザの前記視野内にあることを決定すること、
    前記ユーザと前記コンテンツとの間の仮想距離を決定すること、
    前記コンテンツに向けられる前記視野の比率を決定すること、
    前記仮想距離と前記コンテンツに向けられる前記視野の比率とに少なくとも部分的に基づいて触覚効果を決定すること、及び
    前記触覚効果を出力するように構成される触覚出力デバイスに前記触覚効果に関連付けられる触覚信号を送信すること
    を前記プロセッサに行わせるように構成される、非一時的なコンピュータ可読媒体。
JP2017247341A 2016-12-27 2017-12-25 視野を用いる触覚フィードバック Active JP6985134B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/390,868 2016-12-27
US15/390,868 US10324531B2 (en) 2016-12-27 2016-12-27 Haptic feedback using a field of view

Publications (3)

Publication Number Publication Date
JP2018109974A JP2018109974A (ja) 2018-07-12
JP2018109974A5 true JP2018109974A5 (ja) 2021-02-04
JP6985134B2 JP6985134B2 (ja) 2021-12-22

Family

ID=60782063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017247341A Active JP6985134B2 (ja) 2016-12-27 2017-12-25 視野を用いる触覚フィードバック

Country Status (5)

Country Link
US (2) US10324531B2 (ja)
EP (1) EP3343326B1 (ja)
JP (1) JP6985134B2 (ja)
KR (2) KR102285180B1 (ja)
CN (1) CN108334190B (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
CN105683878B (zh) 2013-09-03 2019-05-07 苹果公司 用户界面中的用户界面对象操作
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
CN106462340B (zh) 2014-06-27 2019-09-13 苹果公司 尺寸减小的用户界面
CN113824998A (zh) 2014-09-02 2021-12-21 苹果公司 音乐用户界面
US20160062571A1 (en) 2014-09-02 2016-03-03 Apple Inc. Reduced size user interface
TWI582641B (zh) 2014-09-02 2017-05-11 蘋果公司 按鈕功能性
WO2016036509A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
DK179978B1 (en) * 2016-09-23 2019-11-27 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
US10401954B2 (en) * 2017-04-17 2019-09-03 Intel Corporation Sensory enhanced augmented reality and virtual reality device
US10979685B1 (en) 2017-04-28 2021-04-13 Apple Inc. Focusing for virtual and augmented reality systems
WO2018200993A1 (en) 2017-04-28 2018-11-01 Zermatt Technologies Llc Video pipeline
JP6613267B2 (ja) 2017-06-02 2019-11-27 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
JP6837921B2 (ja) * 2017-06-02 2021-03-03 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6653293B2 (ja) 2017-06-05 2020-02-26 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
US10861142B2 (en) * 2017-07-21 2020-12-08 Apple Inc. Gaze direction-based adaptive pre-filtering of video data
CA3037657C (en) * 2018-03-22 2023-03-14 Jennifer Hendrix Route guidance and obstacle avoidance system
US11725958B2 (en) 2018-03-22 2023-08-15 Jennifer Hendrix Route guidance and proximity awareness system
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
CN110134248B (zh) * 2018-09-11 2020-12-11 苹果公司 基于内容的触觉输出
DK179896B1 (en) 2018-09-11 2019-08-30 Apple Inc. CONTENT-BASED TACTILE OUTPUTS
US10775894B2 (en) * 2018-11-02 2020-09-15 Immersion Corporation Systems and methods for providing customizable haptic playback
US10860101B1 (en) 2018-11-21 2020-12-08 Facebook Technologies, Llc Systems and methods using patterned nanovoids for actuation and deformation sensing
WO2020219073A1 (en) * 2019-04-26 2020-10-29 Hewlett-Packard Development Company, L.P. Spatial audio and haptics
US10996761B2 (en) 2019-06-01 2021-05-04 Apple Inc. User interfaces for non-visual output of time
US11086398B2 (en) * 2019-06-07 2021-08-10 Microsoft Technology Licensing, Llc Haptic rendering
US11347312B1 (en) * 2019-09-23 2022-05-31 Apple Inc. Ultrasonic haptic output devices
US11429155B2 (en) * 2019-10-01 2022-08-30 Dell Products L.P. Information handling system including dynamic configuration of piezoelectric transducers for multi-functionality
JP2021067877A (ja) * 2019-10-25 2021-04-30 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、ヘッドマウントディスプレイ、および画像表示方法
US11093005B1 (en) * 2020-05-05 2021-08-17 International Business Machines Corporation Virtual reality rollable display device
DE112021005923T5 (de) * 2020-11-10 2023-09-28 Sony Group Corporation Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren und signalverarbeitungssystem
US11461991B2 (en) * 2020-12-30 2022-10-04 Imagine Technologies, Inc. Method of developing a database of controllable objects in an environment

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2422265A1 (en) * 2003-03-14 2004-09-14 Handshake Interactive Technologies Inc. A method and system for providing haptic effects
WO2006100645A2 (en) 2005-03-24 2006-09-28 Koninklijke Philips Electronics, N.V. Immersive reading experience using eye tracking
US8243970B2 (en) * 2008-08-11 2012-08-14 Telefonaktiebolaget L M Ericsson (Publ) Virtual reality sound for advanced multi-media applications
EP2376998B1 (en) * 2008-12-09 2015-11-04 Koninklijke Philips N.V. Method and system for providing immersive effects
WO2014006799A1 (ja) 2012-07-05 2014-01-09 日本電気株式会社 電子機器、その制御方法及び制御プログラムが格納された非一時的なコンピュータ可読媒体
US9202350B2 (en) * 2012-12-19 2015-12-01 Nokia Technologies Oy User interfaces and associated methods
US9466187B2 (en) 2013-02-04 2016-10-11 Immersion Corporation Management of multiple wearable haptic devices
US9833697B2 (en) * 2013-03-11 2017-12-05 Immersion Corporation Haptic sensations as a function of eye gaze
JP2014197338A (ja) * 2013-03-29 2014-10-16 株式会社東芝 プログラムの疎行列演算化装置
US9946348B2 (en) * 2014-03-21 2018-04-17 Immersion Corporation Automatic tuning of haptic effects
US9690370B2 (en) * 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
US10613627B2 (en) 2014-05-12 2020-04-07 Immersion Corporation Systems and methods for providing haptic feedback for remote interactions
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
US20160187976A1 (en) 2014-12-29 2016-06-30 Immersion Corporation Systems and methods for generating haptic effects based on eye tracking
US9711015B2 (en) 2015-09-16 2017-07-18 Immersion Corporation Customizing haptic feedback in live events

Similar Documents

Publication Publication Date Title
JP2018109974A5 (ja)
US11347311B2 (en) Systems and methods for providing haptic feedback for remote interactions
KR102284821B1 (ko) 가상 현실 환경에서의 내비게이션을 위한 방법, 시스템 및 장치
JP6644035B2 (ja) 手袋インタフェースオブジェクト及び方法
KR20220030294A (ko) 인공 현실 환경들에서 주변 디바이스를 사용하는 가상 사용자 인터페이스
JP2016154018A5 (ja) グラフィカルユーザインターフェースとの物理的相互作用を解釈するためのデバイス、方法及びコンピュータ可読媒体
EP3040814A1 (en) Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications
JP2018125007A5 (ja)
US20160180592A1 (en) Selectively Pairing an Application Presented in Virtual Space with a Physical Display
JP2018109984A5 (ja)
EP3320829A8 (en) System for integrally measuring clinical parameters of visual function
JP2017054201A5 (ja)
JP2012203485A5 (ja)
JP6662914B2 (ja) 媒介現実
WO2017012361A1 (zh) 调整虚拟物件在虚拟空间中位置的方法及装置
RU2017118159A (ru) Мир массового одновременного удаленного цифрового присутствия
JP2018526716A (ja) 媒介現実
US9830395B2 (en) Spatial data processing
JP2022535182A (ja) ユーザインターフェース要素をゲーティングするパーソナルアシスタント要素を備えた人工現実システム
JP2018073172A5 (ja)
JP6989075B2 (ja) 仮想化環境内にイメージを提示するための方法、装置及びコンピュータプログラム
KR20220018562A (ko) 인공 현실 시스템을 위한 모서리-식별 제스처-구동 사용자 인터페이스 요소 게이팅
CN108021227B (zh) 在虚拟现实中快速移动的方法及虚拟现实装置
US20170293412A1 (en) Apparatus and method for controlling the apparatus
JP2019067323A (ja) 情報処理装置、情報処理方法、及び記録媒体