JP2022516221A - Ar/vr環境におけるユーザ注意のオーディオインジケータ - Google Patents
Ar/vr環境におけるユーザ注意のオーディオインジケータ Download PDFInfo
- Publication number
- JP2022516221A JP2022516221A JP2021529281A JP2021529281A JP2022516221A JP 2022516221 A JP2022516221 A JP 2022516221A JP 2021529281 A JP2021529281 A JP 2021529281A JP 2021529281 A JP2021529281 A JP 2021529281A JP 2022516221 A JP2022516221 A JP 2022516221A
- Authority
- JP
- Japan
- Prior art keywords
- user
- value
- sight
- line
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 45
- 230000006854 communication Effects 0.000 claims abstract description 43
- 238000004891 communication Methods 0.000 claims abstract description 43
- 230000003595 spectral effect Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 9
- 230000010344 pupil dilation Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 6
- 230000003190 augmentative effect Effects 0.000 abstract description 5
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 37
- 238000003860 storage Methods 0.000 description 31
- 230000009471 action Effects 0.000 description 15
- 230000000007 visual effect Effects 0.000 description 12
- 239000013598 vector Substances 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000005316 response function Methods 0.000 description 5
- 229920001621 AMOLED Polymers 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 208000029436 dilated pupil Diseases 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012074 hearing test Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000007176 multidirectional communication Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/157—Conference systems defining a virtual conference space and using avatars or agents
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/307—Frequency adjustment, e.g. tone control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/13—Aspects of volume control, not necessarily automatic, in stereophonic sound systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
Claims (15)
- AR/VRシステムのウェアラブルディスプレイにおける方法であって、前記方法は、
前記ウェアラブルディスプレイを使用して、前記AR/VRシステムの第2のユーザに対してオーディオを鳴らすことであって、前記オーディオが、前記AR/VRシステムの第1のユーザから発生し、前記第1のユーザから前記第2のユーザへのオーディオ通信チャネルのパラメータを有し、前記パラメータが、前記第1のユーザを前記第2のユーザに対してより可聴にするように、第1の値から第2の値に変更される、オーディオを鳴らすこと
を含み、
プロセッサが、前記第1のユーザの視標追跡データを処理するための命令を実行することによって、前記第2のユーザ、または前記第1のユーザに対して表示される画像中の前記第2のユーザのアバターに向けられた、前記第1のユーザの視線が検出された、
方法。 - 前記パラメータは、前記プロセッサが、前記第1のユーザの眼が少なくともあらかじめ定められた時間間隔の間前記第2のユーザまたは前記第2のユーザのアバターを見たと決定するための命令を実行したとき、前記第1の値から前記第2の値に変更される、請求項1に記載の方法。
- 前記パラメータは、前記第2のユーザに対する前記第1のユーザの視線方向が検出されたとき、前記第1の値から前記第2の値に変更され、および、任意選択的に、
前記パラメータは、前記第2のユーザに対する前記第1のユーザの視線輻輳または前記第1のユーザの瞳孔拡張のうちの少なくとも1つが検出されたとき、前記第1の値から前記第2の値に変更される、
請求項1に記載の方法。 - 前記パラメータが、前記第1のユーザの前記視線の前に前記第1の値を有した、請求項1に記載の方法。
- 前記パラメータは、前記第1のユーザの視線方向または視線輻輳のうちの少なくとも1つが規則的な時間間隔で前記プロセッサによって決定されたとき、前記第1の値から前記第2の値に変更され、および/あるいは、
前記パラメータは、前記視線が少なくともあらかじめ定められた時間間隔の間はずされたとき、前記第1の値に戻される、
請求項1に記載の方法。 - 命令を記憶した非一時的メモリであって、前記命令は、1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、ウェアラブルディスプレイを使用して、AR/VRシステムの第2のユーザに対してオーディオを鳴らすことであって、前記オーディオが、前記AR/VRシステムの第1のユーザから発生し、前記第1のユーザから前記第2のユーザへのオーディオ通信チャネルのパラメータを有し、前記パラメータが、前記第1のユーザを前記第2のユーザに対してより可聴にするように、第1の値から第2の値に変更される、オーディオを鳴らすことを行わせ、
プロセッサが、前記第1のユーザの視標追跡データを処理するための命令を実行することによって、前記第2のユーザ、または前記第1のユーザに対して表示される画像中の前記第2のユーザのアバターに向けられた、前記第1のユーザの視線が検出された、
非一時的メモリ。 - 前記パラメータは、前記プロセッサが、前記第1のユーザの眼が少なくともあらかじめ定められた時間間隔の間前記第2のユーザまたは前記第2のユーザのアバターを見たと決定するための命令を実行したとき、前記第1の値から前記第2の値に変更される、請求項6に記載の非一時的メモリ。
- 前記パラメータは、前記第2のユーザに対する前記第1のユーザの視線方向が検出されたとき、前記第1の値から前記第2の値に変更され、および、任意選択的に、
前記パラメータは、前記第2のユーザに対する前記第1のユーザの視線輻輳または前記第1のユーザの瞳孔拡張のうちの少なくとも1つが検出されたとき、前記第1の値から前記第2の値に変更される、
請求項6に記載の非一時的メモリ。 - 前記パラメータが、前記第1のユーザの前記視線の前に前記第1の値を有した、請求項6に記載の非一時的メモリ。
- 前記パラメータは、前記第1のユーザの視線方向または視線輻輳のうちの少なくとも1つが規則的な時間間隔で前記1つまたは複数のプロセッサによって決定されたとき、前記第1の値から前記第2の値に変更され、および/あるいは、
前記パラメータは、前記視線が少なくともあらかじめ定められた時間間隔の間はずされたとき、前記第1の値に戻される、
請求項6に記載の非一時的メモリ。 - AR/VRシステムであって、
視標追跡システムと、第1のユーザに対して第1の画像を表示するための第1の電子ディスプレイと、マイクロフォンとを備える、第1のウェアラブルディスプレイと、
第2のユーザに対して第2の画像を表示するための第2の電子ディスプレイと、スピーカーとを備える、第2のウェアラブルディスプレイと、
前記第1のウェアラブルディスプレイおよび前記第2のウェアラブルディスプレイに通信可能に連結され、前記AR/VRシステムの前記第1のユーザから前記第2のユーザへのオーディオ通信チャネルを確立することと、前記第1の画像を表示するために前記第1のウェアラブルディスプレイにデータを提供することとを行うように構成された、コントローラであって、前記コントローラが、前記第1のウェアラブルディスプレイから、前記第1のユーザの視標追跡に関係するデータを受信することと、前記第2のユーザ、または前記第1の画像中の前記第2のユーザのアバターに向けられた、前記第1のユーザの視線を識別することとを行うように構成された注意モニタを備え、前記コントローラが、前記視線を検出すると、前記第1のユーザを前記第2のユーザに対してより可聴にするように、前記オーディオ通信チャネルのパラメータを第1の値から第2の値に変更するように構成された、コントローラと
を備える、AR/VRシステム。 - 前記注意モニタは、前記第1のユーザの眼が少なくともあらかじめ定められた時間間隔の間前記第2のユーザまたは前記第1の画像中の前記第2のユーザのアバターを見ると決定するように構成された、請求項11に記載のAR/VRシステム。
- 前記注意モニタが、前記第1のユーザの視線方向を決定するように構成され、および、任意選択的に、
前記注意モニタが、前記第1のユーザの視線輻輳または瞳孔拡張のうちの少なくとも1つを決定するように構成された、
請求項11に記載のAR/VRシステム。 - 前記パラメータが、前記オーディオ通信チャネルのピークオーディオ周波数、前記オーディオ通信チャネルのスペクトル幅、またはラウドネスのうちの少なくとも1つを含む、請求項11に記載のAR/VRシステム。
- 前記注意モニタは、経時的に前記第1のユーザの前記視線を監視することと、前記視線が少なくともあらかじめ定められた時間間隔の間はずされたとき、前記パラメータを前記第1の値に戻すこととを行うように構成された、請求項11に記載のAR/VRシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862785634P | 2018-12-27 | 2018-12-27 | |
US62/785,634 | 2018-12-27 | ||
US16/392,103 US10990171B2 (en) | 2018-12-27 | 2019-04-23 | Audio indicators of user attention in AR/VR environment |
US16/392,103 | 2019-04-23 | ||
PCT/US2019/068241 WO2020139801A1 (en) | 2018-12-27 | 2019-12-23 | Audio indicators of user attention in ar/vr environment |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022516221A true JP2022516221A (ja) | 2022-02-25 |
Family
ID=71122857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021529281A Pending JP2022516221A (ja) | 2018-12-27 | 2019-12-23 | Ar/vr環境におけるユーザ注意のオーディオインジケータ |
Country Status (5)
Country | Link |
---|---|
US (1) | US10990171B2 (ja) |
JP (1) | JP2022516221A (ja) |
KR (1) | KR20210107710A (ja) |
CN (1) | CN113227942A (ja) |
WO (1) | WO2020139801A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023035007A1 (en) | 2021-09-06 | 2023-03-09 | Kickback Space Inc. | Image analysis and gaze redirection using characteristics of the eye |
US20230146178A1 (en) * | 2021-11-11 | 2023-05-11 | Kickback Space Inc. | Attention based audio adjustment in virtual environments |
EP4195688A1 (en) * | 2021-12-08 | 2023-06-14 | Nokia Technologies Oy | Conversational service |
US20230393657A1 (en) * | 2022-06-02 | 2023-12-07 | Google Llc | Attention redirection of a user of a wearable device |
WO2024029718A1 (ko) * | 2022-08-02 | 2024-02-08 | 삼성전자주식회사 | 적어도 하나의 외부 객체에 기반하여 적어도 하나의 외부 전자 장치를 선택하기 위한 전자 장치 및 그 방법 |
WO2024110779A1 (en) * | 2022-11-24 | 2024-05-30 | Viewpointsystem Gmbh | Method for triggering actions in the metaverse or virtual worlds |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009104564A1 (ja) | 2008-02-20 | 2009-08-27 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 仮想空間における会話サーバ、会話のための方法及びコンピュータ・プログラム |
US8875026B2 (en) * | 2008-05-01 | 2014-10-28 | International Business Machines Corporation | Directed communication in a virtual environment |
EP2508945B1 (en) | 2011-04-07 | 2020-02-19 | Sony Corporation | Directional sound capturing |
US20130241805A1 (en) | 2012-03-15 | 2013-09-19 | Google Inc. | Using Convergence Angle to Select Among Different UI Elements |
US10629003B2 (en) * | 2013-03-11 | 2020-04-21 | Magic Leap, Inc. | System and method for augmented and virtual reality |
EP2987052A2 (en) * | 2013-04-16 | 2016-02-24 | The Eye Tribe ApS | Systems and methods of eye tracking data analysis |
US9818225B2 (en) * | 2014-09-30 | 2017-11-14 | Sony Interactive Entertainment Inc. | Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space |
EP3369091A4 (en) * | 2015-10-26 | 2019-04-24 | Pillantas Inc. | SYSTEMS AND METHODS FOR CONTROLLING CONVERGENT OCULAR MOVEMENTS |
US9451210B1 (en) | 2015-12-10 | 2016-09-20 | Google Inc. | Directing communications using gaze interaction |
US9905244B2 (en) * | 2016-02-02 | 2018-02-27 | Ebay Inc. | Personalized, real-time audio processing |
US10162651B1 (en) | 2016-02-18 | 2018-12-25 | Board Of Trustees Of The University Of Alabama, For And On Behalf Of The University Of Alabama In Huntsville | Systems and methods for providing gaze-based notifications |
US10657701B2 (en) * | 2016-06-30 | 2020-05-19 | Sony Interactive Entertainment Inc. | Dynamic entering and leaving of virtual-reality environments navigated by different HMD users |
US20180095636A1 (en) | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
US20180101989A1 (en) | 2016-10-06 | 2018-04-12 | Google Inc. | Headset removal in virtual, augmented, and mixed reality using an eye gaze database |
US20180196506A1 (en) | 2016-12-28 | 2018-07-12 | Colopl, Inc. | Information processing method and apparatus, information processing system, and program for executing the information processing method on computer |
US10304239B2 (en) * | 2017-07-20 | 2019-05-28 | Qualcomm Incorporated | Extended reality virtual assistant |
US10521013B2 (en) | 2018-03-01 | 2019-12-31 | Samsung Electronics Co., Ltd. | High-speed staggered binocular eye tracking systems |
-
2019
- 2019-04-23 US US16/392,103 patent/US10990171B2/en active Active
- 2019-12-23 CN CN201980086562.3A patent/CN113227942A/zh active Pending
- 2019-12-23 WO PCT/US2019/068241 patent/WO2020139801A1/en active Application Filing
- 2019-12-23 JP JP2021529281A patent/JP2022516221A/ja active Pending
- 2019-12-23 KR KR1020217021131A patent/KR20210107710A/ko unknown
Also Published As
Publication number | Publication date |
---|---|
WO2020139801A1 (en) | 2020-07-02 |
US10990171B2 (en) | 2021-04-27 |
KR20210107710A (ko) | 2021-09-01 |
US20200209957A1 (en) | 2020-07-02 |
CN113227942A (zh) | 2021-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10990171B2 (en) | Audio indicators of user attention in AR/VR environment | |
US9971403B1 (en) | Intentional user experience | |
CN106489171B (zh) | 立体图像显示器 | |
US11022794B2 (en) | Visual indicators of user attention in AR/VR environment | |
US9541996B1 (en) | Image-recognition based game | |
US11188148B2 (en) | User interaction in head-mounted display with eye tracking | |
CN110569750A (zh) | 一种用于视线检测校准的方法和计算设备 | |
US11620792B2 (en) | Fast hand meshing for dynamic occlusion | |
WO2022125239A1 (en) | Determining user intent based on attention values | |
JP2023536064A (ja) | 交互サンプリングを使用した眼追跡 | |
WO2023147038A1 (en) | Systems and methods for predictively downloading volumetric data | |
US11763517B1 (en) | Method and device for visualizing sensory perception | |
US20240005511A1 (en) | Immediate Proximity Detection and Breakthrough with Visual Treatment | |
US11354869B2 (en) | XR preferred movement along planes | |
US12028419B1 (en) | Systems and methods for predictively downloading volumetric data | |
EP4328715A1 (en) | Headset adjustment | |
EP4386519A1 (en) | Electronic device with centralized user experience manager | |
US20240103705A1 (en) | Convergence During 3D Gesture-Based User Interface Element Movement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240117 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240220 |