JP2019537791A - Advertising based on spatial sound in virtual or augmented reality video streams - Google Patents
Advertising based on spatial sound in virtual or augmented reality video streams Download PDFInfo
- Publication number
- JP2019537791A JP2019537791A JP2019522384A JP2019522384A JP2019537791A JP 2019537791 A JP2019537791 A JP 2019537791A JP 2019522384 A JP2019522384 A JP 2019522384A JP 2019522384 A JP2019522384 A JP 2019522384A JP 2019537791 A JP2019537791 A JP 2019537791A
- Authority
- JP
- Japan
- Prior art keywords
- user
- tracking
- view
- field
- sponsored content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title description 9
- 238000000034 method Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 13
- 230000003993 interaction Effects 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 claims description 7
- 230000004424 eye movement Effects 0.000 claims description 4
- 230000004886 head movement Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 12
- 238000012545 processing Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 3
- 239000000835 fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005358 geomagnetic field Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0277—Online advertisement
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/54—Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/61—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- General Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Biophysics (AREA)
- Cardiology (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
VRビデオストリームにおいて空間的音響に基づく広告が提供される。各種実施形態では、空間的音響キューがユーザに対して再生される。空間的音響キューは、仮想環境において見かけの位置を有する。ユーザの視野は、音響キューの見かけの位置に向かって追跡される。スポンサードコンテンツは、音響キューの大体の見かけの位置でユーザに表示される。【選択図】図1An advertisement based on spatial audio is provided in the VR video stream. In various embodiments, a spatial audio cue is played to a user. Spatial acoustic cues have an apparent position in the virtual environment. The user's view is tracked toward the apparent position of the acoustic cue. The sponsored content is displayed to the user at the approximate apparent location of the audio cue. [Selection diagram] Fig. 1
Description
本発明の実施形態は仮想現実提示に関し、より具体的には、仮想現実または拡張現実ビデオストリームにおける空間的音響に基づく広告に関する。 Embodiments of the present invention relate to virtual reality presentation, and more specifically, to advertisements based on spatial sound in virtual reality or augmented reality video streams.
本開示の実施形態によれば、音響に基づく広告の方法およびそのためのコンピュータプログラム製品が提供される。空間的音響キュー(cue)がユーザに対して再生される。空間的音響キューは、仮想環境において見かけの位置を有する。ユーザの視野は、音響キューの見かけの位置に向かって追跡される。スポンサードコンテンツは、音響キューの大体の見かけの位置でユーザに表示される。 According to an embodiment of the present disclosure, there is provided a method of audio-based advertising and a computer program product therefor. A spatial acoustic cue is played to the user. Spatial acoustic cues have an apparent position in the virtual environment. The user's view is tracked toward the apparent position of the acoustic cue. The sponsored content is displayed to the user at the approximate apparent location of the audio cue.
いくつかの実施形態では、ユーザの視野は、ユーザの目の動きを追跡することによって決定される。いくつかの実施形態では、ユーザの視野は、ユーザの頭の動きを追跡することによって決定される。いくつかの実施形態では、ユーザの視野は、ハンドヘルドデバイスの動きを追跡することによって決定される。 In some embodiments, the user's field of view is determined by tracking the user's eye movements. In some embodiments, the user's field of view is determined by tracking the user's head movement. In some embodiments, the user's field of view is determined by tracking the movement of the handheld device.
いくつかの実施形態では、スポンサードコンテンツは、仮想環境において仮想オブジェクトを含む。いくつかのそのような実施形態では、ユーザと仮想オブジェクトとの対話が検出され、さらなるスポンサードコンテンツがユーザに提示される。 In some embodiments, sponsored content includes virtual objects in a virtual environment. In some such embodiments, interaction between the user and the virtual object is detected and additional sponsored content is presented to the user.
没入環境では、ユーザは必ずしも自身の視野の外にあるコンテンツの存在に気づくわけではない。これは広告に対して特定の難題を提起する。広告主が仮想現実(VR)または拡張現実(AR)環境内にコンテンツを配置した可能性があるとしても、VRまたはAR環境の対話性により、ユーザは気づかずにスポンサードコンテンツを見逃す結果となる場合がある。VR体験中のユーザにはスポンサードコンテンツが見えていないため、ユーザは必ずしもその体験の至るところにそれが位置していることを知っているわけではない。従って、本開示はユーザにスポンサードコンテンツを知らせてそこに誘導する空間的音響キューを提供する。 In an immersive environment, a user does not necessarily notice the presence of content outside his or her field of view. This raises certain challenges for advertising. Even if the advertiser may have placed the content in a virtual reality (VR) or augmented reality (AR) environment, the interactivity of the VR or AR environment results in the user unnoticed to miss the sponsored content. There are cases. Since the sponsored content is not visible to the user during the VR experience, the user does not necessarily know that it is located throughout the experience. Accordingly, the present disclosure provides a spatial audio cue that informs and guides a user to sponsored content.
本開示の様々な実施形態によれば、空間的音響は、ユーザをVR体験の至るところに配置されたスポンサードコンテンツに導くために提供される。対話型広告は、VRコンテンツの本体の中に開発および埋め込みされているカスタマイズされた提示である。ユーザはVR体験の中で3Dオブジェクトの形態や拡張現実アニメーションと対話することができる。 According to various embodiments of the present disclosure, spatial sound is provided to guide a user to sponsored content located throughout the VR experience. Interactive advertisements are customized presentations that are developed and embedded within the body of VR content. The user can interact with the form of the 3D object and the augmented reality animation in the VR experience.
各種実施形態では、VR環境の中に現れる拡張されたグラフィックアニメーションが提供される。このように、スポンサードコンテンツおよびスポンサードコンテンツをレンダリングする3Dオブジェクトは、ユーザがVR体験中にそれらの方向に目を向けた場合に表示されてもよい。例えば、プロダクトプレイスメントを3Dシーン、例えばブランドコーラ缶の中に直接含めてもよい。また、ユーザが近くにいる場合またはユーザが画面に目を向けた場合にスポンサードコンテンツを表示するビデオ画面をVR環境の中に含めてもよい。より複雑なスポンサードオブジェクトの配置、例えばVRシーン中の既存のオブジェクトへのブランドデカールの動的追加(例えば、通過車両上にロゴを表示するため)も利用可能である。 In various embodiments, an enhanced graphic animation that appears in a VR environment is provided. Thus, the sponsored content and the 3D object that renders the sponsored content may be displayed when the user turns their eyes during the VR experience. For example, a product placement may be included directly in a 3D scene, for example, a brand cola can. Also, a video screen that displays sponsored content when the user is nearby or when the user looks at the screen may be included in the VR environment. More complex arrangements of sponsored objects, such as dynamically adding brand decals to existing objects in a VR scene (eg, to display a logo on passing vehicles) are also available.
各種実施形態では、VRまたはARシステムのユーザは、彼らが興味を有するスポンサードコンテンツまたはスポンサードコンテンツの種類を示してもよい。またユーザはスポンサードコンテンツとの対話を開始してVR体験の中のさらなるスポンサードコンテンツに導かれるか、彼らをVR環境の外にある好みのスポンサーのプラットフォームに導いてもよい。 In various embodiments, users of a VR or AR system may indicate the sponsored content or type of sponsored content that they are interested in. The user may also initiate an interaction with the sponsored content and be led to further sponsored content in the VR experience, or direct them to a favorite sponsor's platform outside of the VR environment.
このように、空間的音響、対話型3Dオブジェクトおよび拡張現実グラフィックスを併合してVR体験の中に新しい形態の広告を作り出す。 In this way, spatial sound, interactive 3D objects and augmented reality graphics are merged to create new forms of advertising in a VR experience.
当然のことながら、様々な仮想および拡張現実装置が当該技術分野で知られている。例えば、没入型ビデオまたはビデオオーバーレイのいずれかを提供する各種ヘッドマウントディスプレイが様々な販売業者によって提供されている。いくつかのそのような装置はスマートフォンをヘッドセットの中に一体化させ、そのスマートフォンは各仮想現実または拡張現実アプリケーションのための計算および無線通信リソースを提供する。いくつかのそのような装置は、有線もしくは無線接続を介してパーソナルコンピュータなどの外部計算ノードに接続する。さらに他の装置は、所与のアプリケーションのために必要な計算および接続性のうちのいくつかまたは全てを提供する一体化された計算ノードを備えていてもよい。 Of course, various virtual and augmented reality devices are known in the art. For example, various vendors offer various head mounted displays that provide either immersive video or video overlays. Some such devices integrate a smartphone into a headset, which provides computing and wireless communication resources for each virtual or augmented reality application. Some such devices connect to an external computing node, such as a personal computer, via a wired or wireless connection. Still other devices may include integrated computing nodes that provide some or all of the necessary computation and connectivity for a given application.
仮想現実または拡張現実ディスプレイは、仮想環境の中でユーザの動きを追跡するために様々な運動センサに繋げられていてもよい。そのような動きの追跡を使用して、仮想環境内をナビゲートしたり、仮想環境においてユーザのアバターを操作したり、仮想環境において他のオブジェクトと対話してもよい。スマートフォンを一体化させるいくつかの装置では、頭部追跡は、方位センサ、ジャイロスコープ、加速度計または地球磁場センサなどのスマートフォンの中に一体化されたセンサによって行われてもよい。センサはユーザの位置決めに関する詳細な情報を得るために、ヘッドセットの中に一体化されていてもよく、あるいは、ユーザによって保持されてもよく、様々な本体部分に取り付けられていてもよい。 The virtual or augmented reality display may be linked to various motion sensors to track the movement of the user in the virtual environment. Such motion tracking may be used to navigate within the virtual environment, manipulate the user's avatar in the virtual environment, and interact with other objects in the virtual environment. In some devices that integrate a smartphone, head tracking may be performed by sensors integrated into the smartphone, such as an orientation sensor, gyroscope, accelerometer, or geomagnetic field sensor. The sensors may be integrated into the headset, or may be carried by the user, and may be mounted on various body parts to obtain detailed information about the user's positioning.
当然のことながら、様々な実施形態は、一般にヘッドセットなしで提示されるものを含む仮想および拡張現実環境への適用である。例えば、VRまたはARのマジックウィンドウ実装は、電話などのハンドヘルドデバイス上のディスプレイを仮想空間内へのウィンドウとして使用する。ハンドヘルドを動かすか、スワイプするか、あるいはそれ以外の方法でハンドヘルドデバイスと対話することによって、ユーザは仮想環境の中で画面の視野を移動させる。ユーザの視野の中心は、目の追跡を必要とすることなく仮想空間内の仮想ウィンドウの向きに基づいて決定することができる。但し、目の追跡を含む装置では、より高い精度を得ることができる。 Of course, various embodiments have application to virtual and augmented reality environments, including those presented generally without a headset. For example, VR or AR magic window implementations use a display on a handheld device, such as a telephone, as a window into virtual space. By moving, swiping, or otherwise interacting with the handheld device, the user moves the view of the screen within the virtual environment. The center of the user's field of view can be determined based on the orientation of the virtual window in virtual space without requiring eye tracking. However, higher accuracy can be obtained with devices that include eye tracking.
次に図1を参照すると、空間的音響に基づく例示的なユーザと広告システムとの対話が本開示の実施形態に従って示されている。3Dすなわち360°のビデオフィード101が提供される。ビデオフィード内には空間的音響コンポーネント102が埋め込まれている。いくつかの実施形態では、音響コンポーネントは、VRまたはAR環境内の広告などのスポンサードコンテンツの存在を示す可聴キューを含む。音響コンポーネントはスポンサードコンテンツの方向から生じているように見えるようにするために、VRまたはAR環境内で空間的に方向づけられる。ユーザが周りを見渡し(103)、自身の注意をスポンサードコンテンツの方向に向けると、VR環境において対話型オブジェクトが起動されるか(104)、あるいは拡張されたグラフィックスが現れてもよい(105)。ユーザはVRまたはAR体験を続けてもよく(108)、あるいはVRまたはAR環境の中でそのスポンサードコンテンツにジャンプしてもよい(106)。ユーザとスポンサードコンテンツとが対話したら、彼らをスポンサーのプラットフォームに転送してもよい(107)。
Referring now to FIG. 1, an exemplary user interaction with an advertising system based on spatial sound is depicted in accordance with an embodiment of the present disclosure. A 3D or 360 °
例えば、コーラ缶を開ける位置音響により、ユーザの注意をスポンサードオブジェクトとしてVR環境に配置されたコーラ缶に向けてもよい。それがユーザの視野の中心に達したら、その缶が開いてもよい。ユーザがその缶を起動させた場合に、さらなるスポンサードコンテンツが再生されてもよく、あるいは、それらを仮想環境においてスポンサード位置に再配置してもよい。仮想環境の中でのスポンサードコンテンツの提示に加えて、さらなる対話によりユーザをスポンサードウェブサイトなどの仮想環境の外にあるコンテンツに導いてもよい。 For example, the position sound of opening the cola can may direct the user's attention as a sponsored object to the cola can placed in the VR environment. When it reaches the center of the user's field of view, the can may be opened. Additional sponsored content may be played when the user activates the can, or they may be relocated to a sponsored location in a virtual environment. In addition to presenting the sponsored content in the virtual environment, further interactions may lead the user to content outside the virtual environment, such as a sponsored website.
次に図2を参照すると、本開示の実施形態に係る空間的音響に基づく広告のための方法が示されている。201では、空間的音響キューがユーザに対して再生される。空間的音響キューは仮想環境に見かけの位置を有する。202では、ユーザの視野は音響キューの見かけの位置に向かって追跡される。203では、スポンサードコンテンツは音響キューの大体の見かけの位置でユーザに表示される。 Referring now to FIG. 2, a method for spatial audio-based advertising according to an embodiment of the present disclosure is shown. At 201, a spatial audio cue is played to a user. Spatial acoustic cues have an apparent position in the virtual environment. At 202, the user's view is tracked toward the apparent location of the acoustic cue. At 203, the sponsored content is displayed to the user at the approximate apparent location of the audio cue.
次に図3を参照すると、計算ノードの例の概略図が示されている。クラウドコンピューティングノード10は好適な計算ノードの単に一例であり、本明細書に記載されている本発明の実施形態の使用または機能性の範囲に関していかなる限定をも示唆するものではない。それにも関わらず、計算ノード10は上に記載されている機能性のいずれかを実装および/または実行することができる。
Referring now to FIG. 3, a schematic diagram of an example of a compute node is shown.
計算ノード10には、数多くの他の汎用もしくは専用計算システム環境または構成と共に動作するコンピュータシステム/サーバ12が存在する。コンピュータシステム/サーバ12と共に使用するのに適し得る周知の計算システム、環境および/または構成の例としては、限定されるものではないが、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、シッククライアント、ハンドヘルドまたはラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラム可能な家庭用電化製品、ネットワークPC、ミニコンピュータシステム、メインフレームコンピュータシステム、および上記システムまたは装置のいずれかを備える分散型クラウドコンピューティング環境などが挙げられる。
コンピュータシステム/サーバ12は、コンピュータシステムによって実行されるプログラムモジュールなどのコンピュータシステム実行可能命令の一般的な文脈において説明することができる。一般に、プログラムモジュールは、特定のタスクを実行するか特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、ロジックおよびデータ構造などを含んでもよい。コンピュータシステム/サーバ12は、タスクが通信ネットワークを介してリンクされている遠隔処理装置によって実行される分散型クラウドコンピューティング環境で実行されてもよい。分散型クラウドコンピューティング環境では、プログラムモジュールはメモリ記憶装置などのローカルおよび遠隔コンピュータシステム記憶媒体の両方に位置していてもよい。
Computer system /
図3に示すように、計算ノード10のコンピュータシステム/サーバ12は汎用計算装置の形態で示されている。コンピュータシステム/サーバ12のコンポーネントとしては、限定されるものではないが、1つ以上のプロセッサまたは処理装置16、システムメモリ28、およびシステムメモリ28などの各種システムコンポーネントをプロセッサ16に繋げるバス18が挙げられる。
As shown in FIG. 3, the computer system /
バス18は、メモリバスまたはメモリコントローラ、周辺バス、アクセラレイティッド・グラフィックス・ポート、および様々なバスアーキテクチャのいずれかを使用するプロセッサもしくはローカルバスなどの何種類かのバス構造のうちのいずれかの1つ以上を表す。例としてであって限定としてではないが、そのようなアーキテクチャとしては、工業標準アーキテクチャ(ISA)バス、マイクロチャネルアーキテクチャ(MCA)バス、拡張ISA(EISA)バス、ビデオエレクトロニクススタンダーズアソシエーション(VESA)ローカルバス、およびペリフェラルコンポーネントインターコネクト(PCI)バスが挙げられる。 Bus 18 may be any of several types of bus structures, such as a memory bus or memory controller, a peripheral bus, an accelerated graphics port, and a processor or local bus using any of a variety of bus architectures. Represents one or more of By way of example, and not limitation, such architectures may include an Industry Standard Architecture (ISA) bus, a Micro Channel Architecture (MCA) bus, an Extended ISA (EISA) bus, a Video Electronics Standards Association (VESA) local bus , And a peripheral component interconnect (PCI) bus.
コンピュータシステム/サーバ12は典型的に様々なコンピュータシステム読み取り可能媒体を備える。そのような媒体は、コンピュータシステム/サーバ12によってアクセス可能な任意の利用可能な媒体であってもよく、揮発性および不揮発性媒体、取外し可能および取外し不可能な媒体の両方を含む。
Computer system /
システムメモリ28は、ランダムアクセスメモリ(RAM)30および/またはキャッシュメモリ32などの揮発性メモリの形態のコンピュータシステム読み取り可能媒体を含むことができる。コンピュータシステム/サーバ12は、他の取外し可能/取外し不可能な揮発性/不揮発性コンピュータシステム記憶媒体をさらに備えてもよい。単なる一例として、記憶システム34は、取外し不可能な不揮発性磁気媒体(図示されておらず、典型的には「ハードドライブ」と呼ばれる)に読み書きするために設けることができる。図示されていないが、取外し可能な不揮発性磁気ディスク(例えば、「フロッピディスク」)に読み書きするための磁気ディスクドライブ、およびCD−ROM、DVD−ROMまたは他の光媒体などの取外し可能な不揮発性光ディスクに読み書きするための光ディスクドライブを設けることができる。そのような場合には、それぞれを1つ以上のデータ媒体インタフェースによってバス18に接続することができる。以下でさらに示され、かつ記載されているように、メモリ28は、本発明の実施形態の機能を実行するように構成されたプログラムモジュールのセット(例えば少なくとも1つ)を有する少なくとも1つのプログラム製品を含んでもよい。
プログラムモジュール42のセット(少なくとも1つ)を有するプログラム/ユーティリティ40は、例としてであって限定としてではないが、メモリ28ならびにオペレーティングシステム、1つ以上のアプリケーションプログラム、他のプログラムモジュールおよびプログラムデータに記憶されていてもよい。オペレーティングシステム、1つ以上のアプリケーションプログラム、他のプログラムモジュールおよびプログラムデータのそれぞれまたはそれらのいくつかの組み合わせは、ネットワーキング環境の実装を含んでもよい。プログラムモジュール42は一般に、本明細書に記載されている本発明の実施形態の機能および/または方法論を実行する。
A program /
また、コンピュータシステム/サーバ12は、キーボード、ポインティングデバイス、ディスプレイ24などの1つ以上の外部装置14、ユーザがコンピュータシステム/サーバ12と対話するのを可能にする1つ以上の装置、および/またはコンピュータシステム/サーバ12が1つ以上の他の計算装置と通信するのを可能にする任意の装置(例えば、ネットワークカード、モデムなど)と通信していてもよい。そのような通信は入力/出力(I/O)インタフェース22を介して行うことができる。なおさらに、コンピュータシステム/サーバ12はネットワークアダプタ20を介して、ローカルエリアネットワーク(LAN)、一般的なワイドエリアネットワーク(WAN)および/または公衆ネットワーク(例えば、インターネット)などの1つ以上のネットワークと通信することができる。図示されているように、ネットワークアダプタ20は、バス18を介してコンピュータシステム/サーバ12の他のコンポーネントと通信する。図示されていないが、他のハードウェアおよび/またはソフトウェアコンポーネントをコンピュータシステム/サーバ12と共に使用することができることを理解されたい。例としては、限定されるものではないが、マイクロコード、デバイスドライバ、冗長処理装置(redundant processing unit)、外部ディスクドライブアレイ、RAIDシステム、テープドライブおよびデータアーカイブ記憶システムなどが挙げられる。
Also, computer system /
本発明は、システム、方法および/またはコンピュータプログラム製品であってもよい。コンピュータプログラム製品は、プロセッサに本発明の態様を実行させるためのコンピュータ可読プログラム命令を有するコンピュータ可読記憶媒体を含んでもよい。 The invention may be a system, method and / or computer program product. The computer program product may include a computer readable storage medium having computer readable program instructions for causing a processor to perform aspects of the present invention.
コンピュータ可読記憶媒体は、命令実行装置によって使用するための命令を保持および記憶することができるタンジブルデバイスであってもよい。コンピュータ可読記憶媒体は、例えば限定されるものではないが、電子記憶装置、磁気記憶装置、光学記憶装置、電磁記憶装置、半導体記憶装置または上記の任意の好適な組み合わせであってもよい。コンピュータ可読記憶媒体のより具体的な例の限定的リストは、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラム可能リードオンリーメモリ(EPROMまたはフラッシュメモリ)、スタティックランダムアクセスメモリ(SRAM)、ポータブルコンパクトディスクリードオンリーメモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピディスク、パンチカードまたは命令が記録された溝を有する隆起構造体などの機械的に符号化された装置、および上記の任意の好適な組み合わせを含む。本明細書で使用されるコンピュータ可読記憶媒体はそれ自体が、電波または他の自由に伝搬する電磁波、導波管または他の伝送媒体を通って伝搬する電磁波(例えば、光ファイバーケーブルを通過する光パルス)またはワイヤを通って伝送される電気信号などの一時的信号であると解釈されるべきではない。 The computer-readable storage medium may be a tangible device capable of holding and storing instructions for use by an instruction execution device. The computer-readable storage medium may be, for example, without limitation, an electronic storage device, a magnetic storage device, an optical storage device, an electromagnetic storage device, a semiconductor storage device, or any suitable combination of the above. A non-exhaustive list of more specific examples of computer readable storage media is: portable computer diskette, hard disk, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), Static random access memory (SRAM), portable compact disk read-only memory (CD-ROM), digital versatile disk (DVD), memory stick, floppy disk, punch card or raised structure having grooves in which instructions are recorded, etc. It includes a mechanically encoded device, and any suitable combination of the above. As used herein, a computer readable storage medium is itself a radio wave or other freely propagating electromagnetic wave, an electromagnetic wave propagating through a waveguide or other transmission medium (eg, an optical pulse passing through a fiber optic cable). ) Or transient signals such as electrical signals transmitted over wires.
本明細書に記載されているコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体から各自の計算/処理装置に、あるいはネットワーク、例えばインターネット、ローカルエリアネットワーク、ワイドエリアネットワークおよび/または無線ネットワークを介して外部コンピュータまたは外部記憶装置にダウンロードすることができる。ネットワークは、銅伝送ケーブル、光伝送ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイコンピュータおよび/またはエッジサーバを含んでもよい。各計算/処理装置内のネットワークアダプタカードまたはネットワークインタフェースは、コンピュータ可読プログラム命令をネットワークから受信して、各自の計算/処理装置内のコンピュータ可読記憶媒体への記憶のためにコンピュータ可読プログラム命令を転送する。 The computer readable program instructions described herein may be transmitted from a computer readable storage medium to a respective computing / processing device or to an external computer via a network, such as the Internet, a local area network, a wide area network, and / or a wireless network. Alternatively, it can be downloaded to an external storage device. A network may include copper transmission cables, optical transmission fibers, wireless transmissions, routers, firewalls, switches, gateway computers and / or edge servers. A network adapter card or network interface in each computing / processing device receives the computer readable program instructions from the network and transfers the computer readable program instructions for storage on a computer readable storage medium in the respective computing / processing device. I do.
本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械命令、機械依存命令(machine dependent instruction)、マイクロコード、ファームウェア命令、状態設定データ(state−setting data)、あるいは、スモールトーク、C++などのオブジェクト指向プログラミング言語および「C」プログラミング言語または同様のプログラミング言語などの従来の手続き型プログラミング言語などの1つ以上のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードのいずれかであってもよい。コンピュータ可読プログラム命令は、全体的にユーザのコンピュータ上で、部分的にユーザのコンピュータ上で、独立型ソフトウェアパッケージとして、部分的にユーザのコンピュータ上であって部分的に遠隔コンピュータ上で、あるいは全体的に遠隔コンピュータまたはサーバ上で実行されてもよい。後者のシナリオでは、遠隔コンピュータはローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)などの任意の種類のネットワークを介してユーザのコンピュータに接続されていてもよく、あるいは、その接続は外部コンピュータに対してなされてもよい(例えば、インターネットサービスプロバイダを用いてインターネットを通して)。いくつかの実施形態では、例えば、プログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)またはプログラマブルロジックアレイ(PLA)などの電子回路は、本発明の態様を実施するためにコンピュータ可読プログラム命令の状態情報を利用して電子回路を個別化することによってコンピュータ可読プログラム命令を実行してもよい。 Computer readable program instructions for performing the operations of the present invention include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, and state-setting data. setting data), or any combination of one or more programming languages, such as an object-oriented programming language such as SmallTalk, C ++, and a conventional procedural programming language such as a "C" programming language or similar programming language. It may be either source code or object code. The computer readable program instructions may be entirely on the user's computer, partially on the user's computer, as a standalone software package, partially on the user's computer and partially on a remote computer, or entirely. Alternatively, it may be executed on a remote computer or server. In the latter scenario, the remote computer may be connected to the user's computer via any type of network, such as a local area network (LAN) or wide area network (WAN), or the connection may be made to an external computer. (Eg, over the Internet using an Internet service provider). In some embodiments, an electronic circuit, such as, for example, a programmable logic circuit, a field programmable gate array (FPGA) or a programmable logic array (PLA), converts state information of computer readable program instructions to implement aspects of the present invention. Utilization may be used to personalize electronic circuitry to execute computer readable program instructions.
本発明の態様は、本発明の実施形態に係る方法、装置(システム)およびコンピュータプログラム製品のフローチャート図および/またはブロック図を参照しながら本明細書に記載されている。当然のことながら、フローチャート図および/またはブロック図の各ブロックならびにフローチャート図および/またはブロック図のブロックの組み合わせは、コンピュータ可読プログラム命令によって実行することができる。 Aspects of the invention are described herein with reference to flowchart illustrations and / or block diagrams of methods, apparatus (systems) and computer program products according to embodiments of the invention. It should be understood that each block of the flowchart illustrations and / or block diagrams, and combinations of blocks in the flowchart illustrations and / or block diagrams, can be performed by computer readable program instructions.
コンピュータまたは他のプログラム可能なデータ処理装置のプロセッサを介して実行される命令がフローチャートおよび/またはブロック図のブロックに明記されている機能/動作を実装するための手段を作り出すように、これらのコンピュータ可読プログラム命令を汎用コンピュータ、専用コンピュータまたは他のプログラム可能なデータ処理装置のプロセッサに与えて機械を作製してもよい。また命令が、記憶されているコンピュータ可読記憶媒体がフローチャートおよび/またはブロック図のブロックに明記されている機能/動作の態様を実装する命令を含む製造品を含むように、これらのコンピュータ可読プログラム命令はコンピュータ、プログラム可能なデータ処理装置および/または特定の方法で機能するための他の装置に指示することができるコンピュータ可読記憶媒体に記憶されていてもよい。 These computers or other programmable data processing devices execute instructions such that the instructions executed via the processors create means for implementing the functions / acts specified in the blocks of the flowcharts and / or block diagrams. The readable program instructions may be provided to a processor of a general purpose computer, special purpose computer, or other programmable data processing device to create a machine. These computer-readable program instructions may also include instructions such that the stored computer-readable storage medium includes instructions that implement aspects of the functions / operations specified in the blocks of the flowcharts and / or block diagrams. May be stored on a computer readable storage medium that can direct a computer, a programmable data processing device, and / or other devices to function in a particular manner.
また、コンピュータ、他のプログラム可能な装置または他の装置上で実行される命令がフローチャートおよび/またはブロック図のブロックに明記されている機能/動作を実装するように、コンピュータ可読プログラム命令をコンピュータ、他のプログラム可能なデータ処理装置、または一連の動作工程をコンピュータ、他のプログラム可能な装置または他の装置上で実行させるための他の装置にロードして、コンピュータに実装されるプロセスを生成してもよい。 Also, the computer-readable program instructions may be executed on a computer, such that the instructions executed on the computer, other programmable devices, or other devices implement the functions / acts specified in the blocks of the flowcharts and / or block diagrams. Loading another programmable data processing device, or a series of operating steps, into a computer, another programmable device or other device for execution on another device to create a computer-implemented process. You may.
図中のフローチャートおよびブロック図は、本発明の各種実施形態に係るシステム、方法およびコンピュータプログラム製品の可能な実装のアーキテクチャ、機能性および動作を示す。この点に関しては、フローチャートまたはブロック図の各ブロックは、明記されている論理機能を実装するための1つ以上の実行可能命令を含む命令のモジュール、セグメントまたは一部を表してもよい。いくつかの他の実装では、ブロックに記載されている機能は図に記載されている順序以外で行われてもよい。例えば、連続して示されている2つのブロックは、実際には実質的に同時に実行されてもよく、あるいは、それらのブロックは時として関連する機能性に応じて逆の順序で実行されてもよい。ブロック図および/またはフローチャート図の各ブロックならびにブロック図および/またはフローチャート図のブロックの組み合わせは、明記されている機能または動作を実行するか専用ハードウェアおよびコンピュータ命令の組み合わせを実行する専用ハードウェアベースのシステムによって実装することができることにも留意されたい。 The flowcharts and block diagrams in the figures illustrate the architecture, functionality, and operation of possible implementations of systems, methods, and computer program products according to various embodiments of the present invention. In this regard, each block in the flowcharts or block diagrams may represent a module, segment, or portion of instructions, including one or more executable instructions, for implementing the specified logical functions. In some other implementations, the functions noted in the block may occur out of the order noted in the figures. For example, two blocks shown in succession may, in fact, be executed substantially simultaneously, or they may sometimes be executed in the reverse order, depending on the functionality involved. Good. Each block in the block diagrams and / or flowchart illustrations, and combinations of blocks in the block diagrams and / or flowchart illustrations, may implement dedicated functions or operations or execute dedicated hardware and computer instruction combinations. It should also be noted that this can be implemented by the following system.
本発明の各種実施形態の説明を例示のために提供してきたが、それらは網羅的であることを意図するものでも開示されている実施形態に限定されることを意図するものではない。記載されている実施形態の範囲および趣旨から逸脱しない多くの修正および変形が当業者には明らかであろう。本明細書で使用される用語は、実施形態の原理、実際の適用または市場で見出される技術を凌ぐ技術改良を最も良く説明したり、他の当業者が本明細書に開示されている実施形態を理解することができるようにしたりするために選択された。 Although descriptions of various embodiments of the present invention have been provided by way of illustration, they are not intended to be exhaustive or limited to the disclosed embodiments. Many modifications and variations will be apparent to those skilled in the art without departing from the scope and spirit of the described embodiments. The terminology used herein best describes the principles of the embodiments, their practical application or technical improvements over the technology found in the marketplace, or the embodiments disclosed by others skilled in the art. Or to be able to understand.
Claims (18)
前記ユーザの視野を前記音響キューの前記見かけの位置に向かって追跡することと、
前記仮想環境においてスポンサードコンテンツを前記音響キューの大体の前記見かけの位置で前記ユーザに表示することと、
を含む方法。 Playing a spatial audio cue to a user, wherein the spatial audio cue has an apparent position in a virtual environment;
Tracking the user's field of view towards the apparent position of the acoustic cue;
Displaying sponsored content to the user at the approximate location of the audio cue in the virtual environment;
A method that includes
さらなるスポンサードコンテンツを前記ユーザに提示することと、
をさらに含む、請求項5に記載の方法。 Detecting interaction between a user and the virtual object;
Presenting further sponsored content to the user;
The method of claim 5, further comprising:
空間的音響キューをユーザに対して再生することであって、前記空間的音響キューは、仮想環境において見かけの位置を有することと、
前記ユーザの視野を前記音響キューの前記見かけの位置に向かって追跡することと、
前記仮想環境においてスポンサードコンテンツを前記音響キューの大体の前記見かけの位置で前記ユーザに表示することと、
を含む方法をプロセッサに実行させるために前記プロセッサによって実行可能である、コンピュータプログラム製品。 A computer program product for spatial audio-based advertising, the computer program product including a computer readable storage medium having program instructions embodied therewith, wherein the program instructions comprise:
Playing a spatial audio cue to a user, wherein the spatial audio cue has an apparent position in a virtual environment;
Tracking the user's field of view towards the apparent position of the acoustic cue;
Displaying sponsored content to the user at the approximate location of the audio cue in the virtual environment;
A computer program product executable by a processor to cause the processor to perform the method comprising:
ユーザと前記仮想オブジェクトとの対話を検出することと、
さらなるスポンサードコンテンツを前記ユーザに提示することと、
をさらに含む、請求項11に記載のコンピュータプログラム製品。 The method comprises:
Detecting interaction between a user and the virtual object;
Presenting further sponsored content to the user;
The computer program product of claim 11, further comprising:
空間的音響キューをユーザに対して再生することであって、前記空間的音響キューは、仮想環境において見かけの位置を有することと、
前記ユーザの視野を前記音響キューの前記見かけの位置に向かって追跡することと、
前記仮想環境においてスポンサードコンテンツを前記音響キューの大体の前記見かけの位置で前記ユーザに表示することと、
を含む方法を前記計算ノードのプロセッサに実行させるために前記プロセッサによって実行可能である、計算ノード
を備えるシステム。 A computing node comprising a computer readable storage medium having program instructions embodied therewith, wherein said program instructions comprise:
Playing a spatial audio cue to a user, wherein the spatial audio cue has an apparent position in a virtual environment;
Tracking the user's field of view towards the apparent position of the acoustic cue;
Displaying sponsored content to the user at the approximate location of the audio cue in the virtual environment;
A system comprising a compute node executable by the processor to cause the processor of the compute node to perform the method comprising:
ユーザと前記仮想オブジェクトとの対話を検出することと、
さらなるスポンサードコンテンツを前記ユーザに提示することと、
をさらに含む、請求項17に記載のシステム。 The method comprises:
Detecting interaction between a user and the virtual object;
Presenting further sponsored content to the user;
18. The system of claim 17, further comprising:
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662413747P | 2016-10-27 | 2016-10-27 | |
US62/413,747 | 2016-10-27 | ||
PCT/US2017/058827 WO2018081609A1 (en) | 2016-10-27 | 2017-10-27 | Spatial audio based advertising in virtual or augmented reality video streams |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019537791A true JP2019537791A (en) | 2019-12-26 |
Family
ID=62024061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019522384A Pending JP2019537791A (en) | 2016-10-27 | 2017-10-27 | Advertising based on spatial sound in virtual or augmented reality video streams |
Country Status (4)
Country | Link |
---|---|
US (1) | US20190244258A1 (en) |
EP (1) | EP3533032A4 (en) |
JP (1) | JP2019537791A (en) |
WO (1) | WO2018081609A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018088450A1 (en) * | 2016-11-08 | 2018-05-17 | ヤマハ株式会社 | Speech providing device, speech reproducing device, speech providing method, and speech reproducing method |
US10835809B2 (en) | 2017-08-26 | 2020-11-17 | Kristina Contreras | Auditorium efficient tracking in auditory augmented reality |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070291034A1 (en) * | 2006-06-20 | 2007-12-20 | Dones Nelson C | System for presenting a navigable virtual subway system, and method for operating and using the same |
US8259117B2 (en) * | 2007-06-18 | 2012-09-04 | Brian Mark Shuster | Avatar eye control in a multi-user animation environment |
US8243970B2 (en) * | 2008-08-11 | 2012-08-14 | Telefonaktiebolaget L M Ericsson (Publ) | Virtual reality sound for advanced multi-media applications |
US20130293530A1 (en) * | 2012-05-04 | 2013-11-07 | Kathryn Stone Perez | Product augmentation and advertising in see through displays |
US20140270182A1 (en) * | 2013-03-14 | 2014-09-18 | Nokia Corporation | Sound For Map Display |
US9129157B2 (en) * | 2013-04-30 | 2015-09-08 | Qualcomm Incorporated | Method for image-based status determination |
US9451162B2 (en) * | 2013-08-21 | 2016-09-20 | Jaunt Inc. | Camera array including camera modules |
US9143880B2 (en) * | 2013-08-23 | 2015-09-22 | Tobii Ab | Systems and methods for providing audio to a user based on gaze input |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9392212B1 (en) * | 2014-04-17 | 2016-07-12 | Visionary Vr, Inc. | System and method for presenting virtual reality content to a user |
US9363569B1 (en) * | 2014-07-28 | 2016-06-07 | Jaunt Inc. | Virtual reality system including social graph |
US20160187976A1 (en) * | 2014-12-29 | 2016-06-30 | Immersion Corporation | Systems and methods for generating haptic effects based on eye tracking |
JP2016208348A (en) * | 2015-04-24 | 2016-12-08 | セイコーエプソン株式会社 | Display device, control method for display device, and program |
-
2017
- 2017-10-27 WO PCT/US2017/058827 patent/WO2018081609A1/en unknown
- 2017-10-27 EP EP17864672.5A patent/EP3533032A4/en not_active Withdrawn
- 2017-10-27 JP JP2019522384A patent/JP2019537791A/en active Pending
-
2019
- 2019-04-19 US US16/388,989 patent/US20190244258A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
WO2018081609A1 (en) | 2018-05-03 |
EP3533032A4 (en) | 2020-08-19 |
US20190244258A1 (en) | 2019-08-08 |
EP3533032A1 (en) | 2019-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6612250B2 (en) | Conversation detection | |
KR102475873B1 (en) | Indicating out-of-view augmented reality images | |
US9329678B2 (en) | Augmented reality overlay for control devices | |
US10397320B2 (en) | Location based synchronized augmented reality streaming | |
TWI571130B (en) | Volumetric video presentation | |
US20170287215A1 (en) | Pass-through camera user interface elements for virtual reality | |
JP7008730B2 (en) | Shadow generation for image content inserted into an image | |
US10348964B2 (en) | Method and system for 360 degree video coverage visualization | |
JP6932206B2 (en) | Equipment and related methods for the presentation of spatial audio | |
AU2021339341B2 (en) | Augmented reality-based display method, device, and storage medium | |
US11914836B2 (en) | Hand presence over keyboard inclusiveness | |
US20210174589A1 (en) | Using deep learning to determine gaze | |
US10945042B2 (en) | Generating an interactive digital video content item | |
US8845429B2 (en) | Interaction hint for interactive video presentations | |
US20190244258A1 (en) | Spatial audio based advertising in virtual or augmented reality video streams | |
US11410330B2 (en) | Methods, devices, and systems for determining field of view and producing augmented reality | |
US8957855B2 (en) | Method for displaying a stereoscopic cursor among stereoscopic objects | |
US11796959B2 (en) | Augmented image viewing with three dimensional objects | |
US20190230409A1 (en) | Picture-in-picture base video streaming for mobile devices | |
US8732620B2 (en) | Method and system for a more realistic interaction experience using a stereoscopic cursor | |
EP3389049B1 (en) | Enabling third parties to add effects to an application | |
US10930077B1 (en) | Systems and methods for rendering augmented reality mapping data | |
WO2023136934A1 (en) | Ephemeral artificial reality experiences | |
CN114788306A (en) | Placing sounds within content | |
WO2018081605A1 (en) | Predictive player tracking in virtual or augmented reality sports |