JP2019537791A - Advertising based on spatial sound in virtual or augmented reality video streams - Google Patents

Advertising based on spatial sound in virtual or augmented reality video streams Download PDF

Info

Publication number
JP2019537791A
JP2019537791A JP2019522384A JP2019522384A JP2019537791A JP 2019537791 A JP2019537791 A JP 2019537791A JP 2019522384 A JP2019522384 A JP 2019522384A JP 2019522384 A JP2019522384 A JP 2019522384A JP 2019537791 A JP2019537791 A JP 2019537791A
Authority
JP
Japan
Prior art keywords
user
tracking
view
field
sponsored content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019522384A
Other languages
Japanese (ja)
Inventor
キュリエル,エイドリアン
Original Assignee
リブライク インコーポレーテッド
リブライク インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by リブライク インコーポレーテッド, リブライク インコーポレーテッド filed Critical リブライク インコーポレーテッド
Publication of JP2019537791A publication Critical patent/JP2019537791A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0277Online advertisement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/61Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

VRビデオストリームにおいて空間的音響に基づく広告が提供される。各種実施形態では、空間的音響キューがユーザに対して再生される。空間的音響キューは、仮想環境において見かけの位置を有する。ユーザの視野は、音響キューの見かけの位置に向かって追跡される。スポンサードコンテンツは、音響キューの大体の見かけの位置でユーザに表示される。【選択図】図1An advertisement based on spatial audio is provided in the VR video stream. In various embodiments, a spatial audio cue is played to a user. Spatial acoustic cues have an apparent position in the virtual environment. The user's view is tracked toward the apparent position of the acoustic cue. The sponsored content is displayed to the user at the approximate apparent location of the audio cue. [Selection diagram] Fig. 1

Description

本発明の実施形態は仮想現実提示に関し、より具体的には、仮想現実または拡張現実ビデオストリームにおける空間的音響に基づく広告に関する。   Embodiments of the present invention relate to virtual reality presentation, and more specifically, to advertisements based on spatial sound in virtual reality or augmented reality video streams.

本開示の実施形態によれば、音響に基づく広告の方法およびそのためのコンピュータプログラム製品が提供される。空間的音響キュー(cue)がユーザに対して再生される。空間的音響キューは、仮想環境において見かけの位置を有する。ユーザの視野は、音響キューの見かけの位置に向かって追跡される。スポンサードコンテンツは、音響キューの大体の見かけの位置でユーザに表示される。   According to an embodiment of the present disclosure, there is provided a method of audio-based advertising and a computer program product therefor. A spatial acoustic cue is played to the user. Spatial acoustic cues have an apparent position in the virtual environment. The user's view is tracked toward the apparent position of the acoustic cue. The sponsored content is displayed to the user at the approximate apparent location of the audio cue.

いくつかの実施形態では、ユーザの視野は、ユーザの目の動きを追跡することによって決定される。いくつかの実施形態では、ユーザの視野は、ユーザの頭の動きを追跡することによって決定される。いくつかの実施形態では、ユーザの視野は、ハンドヘルドデバイスの動きを追跡することによって決定される。   In some embodiments, the user's field of view is determined by tracking the user's eye movements. In some embodiments, the user's field of view is determined by tracking the user's head movement. In some embodiments, the user's field of view is determined by tracking the movement of the handheld device.

いくつかの実施形態では、スポンサードコンテンツは、仮想環境において仮想オブジェクトを含む。いくつかのそのような実施形態では、ユーザと仮想オブジェクトとの対話が検出され、さらなるスポンサードコンテンツがユーザに提示される。   In some embodiments, sponsored content includes virtual objects in a virtual environment. In some such embodiments, interaction between the user and the virtual object is detected and additional sponsored content is presented to the user.

ユーザと本開示に係る空間的音響に基づく広告システムとの対話のためのプロセスを示す。Fig. 4 illustrates a process for interaction between a user and a spatial sound based advertising system according to the present disclosure. 本開示の実施形態に係る空間的音響に基づく広告のための方法を示す。4 illustrates a method for spatial sound-based advertising according to an embodiment of the present disclosure. 本発明の一実施形態に係る計算ノードを示す。4 shows a computation node according to an embodiment of the present invention.

没入環境では、ユーザは必ずしも自身の視野の外にあるコンテンツの存在に気づくわけではない。これは広告に対して特定の難題を提起する。広告主が仮想現実(VR)または拡張現実(AR)環境内にコンテンツを配置した可能性があるとしても、VRまたはAR環境の対話性により、ユーザは気づかずにスポンサードコンテンツを見逃す結果となる場合がある。VR体験中のユーザにはスポンサードコンテンツが見えていないため、ユーザは必ずしもその体験の至るところにそれが位置していることを知っているわけではない。従って、本開示はユーザにスポンサードコンテンツを知らせてそこに誘導する空間的音響キューを提供する。   In an immersive environment, a user does not necessarily notice the presence of content outside his or her field of view. This raises certain challenges for advertising. Even if the advertiser may have placed the content in a virtual reality (VR) or augmented reality (AR) environment, the interactivity of the VR or AR environment results in the user unnoticed to miss the sponsored content. There are cases. Since the sponsored content is not visible to the user during the VR experience, the user does not necessarily know that it is located throughout the experience. Accordingly, the present disclosure provides a spatial audio cue that informs and guides a user to sponsored content.

本開示の様々な実施形態によれば、空間的音響は、ユーザをVR体験の至るところに配置されたスポンサードコンテンツに導くために提供される。対話型広告は、VRコンテンツの本体の中に開発および埋め込みされているカスタマイズされた提示である。ユーザはVR体験の中で3Dオブジェクトの形態や拡張現実アニメーションと対話することができる。   According to various embodiments of the present disclosure, spatial sound is provided to guide a user to sponsored content located throughout the VR experience. Interactive advertisements are customized presentations that are developed and embedded within the body of VR content. The user can interact with the form of the 3D object and the augmented reality animation in the VR experience.

各種実施形態では、VR環境の中に現れる拡張されたグラフィックアニメーションが提供される。このように、スポンサードコンテンツおよびスポンサードコンテンツをレンダリングする3Dオブジェクトは、ユーザがVR体験中にそれらの方向に目を向けた場合に表示されてもよい。例えば、プロダクトプレイスメントを3Dシーン、例えばブランドコーラ缶の中に直接含めてもよい。また、ユーザが近くにいる場合またはユーザが画面に目を向けた場合にスポンサードコンテンツを表示するビデオ画面をVR環境の中に含めてもよい。より複雑なスポンサードオブジェクトの配置、例えばVRシーン中の既存のオブジェクトへのブランドデカールの動的追加(例えば、通過車両上にロゴを表示するため)も利用可能である。   In various embodiments, an enhanced graphic animation that appears in a VR environment is provided. Thus, the sponsored content and the 3D object that renders the sponsored content may be displayed when the user turns their eyes during the VR experience. For example, a product placement may be included directly in a 3D scene, for example, a brand cola can. Also, a video screen that displays sponsored content when the user is nearby or when the user looks at the screen may be included in the VR environment. More complex arrangements of sponsored objects, such as dynamically adding brand decals to existing objects in a VR scene (eg, to display a logo on passing vehicles) are also available.

各種実施形態では、VRまたはARシステムのユーザは、彼らが興味を有するスポンサードコンテンツまたはスポンサードコンテンツの種類を示してもよい。またユーザはスポンサードコンテンツとの対話を開始してVR体験の中のさらなるスポンサードコンテンツに導かれるか、彼らをVR環境の外にある好みのスポンサーのプラットフォームに導いてもよい。   In various embodiments, users of a VR or AR system may indicate the sponsored content or type of sponsored content that they are interested in. The user may also initiate an interaction with the sponsored content and be led to further sponsored content in the VR experience, or direct them to a favorite sponsor's platform outside of the VR environment.

このように、空間的音響、対話型3Dオブジェクトおよび拡張現実グラフィックスを併合してVR体験の中に新しい形態の広告を作り出す。   In this way, spatial sound, interactive 3D objects and augmented reality graphics are merged to create new forms of advertising in a VR experience.

当然のことながら、様々な仮想および拡張現実装置が当該技術分野で知られている。例えば、没入型ビデオまたはビデオオーバーレイのいずれかを提供する各種ヘッドマウントディスプレイが様々な販売業者によって提供されている。いくつかのそのような装置はスマートフォンをヘッドセットの中に一体化させ、そのスマートフォンは各仮想現実または拡張現実アプリケーションのための計算および無線通信リソースを提供する。いくつかのそのような装置は、有線もしくは無線接続を介してパーソナルコンピュータなどの外部計算ノードに接続する。さらに他の装置は、所与のアプリケーションのために必要な計算および接続性のうちのいくつかまたは全てを提供する一体化された計算ノードを備えていてもよい。   Of course, various virtual and augmented reality devices are known in the art. For example, various vendors offer various head mounted displays that provide either immersive video or video overlays. Some such devices integrate a smartphone into a headset, which provides computing and wireless communication resources for each virtual or augmented reality application. Some such devices connect to an external computing node, such as a personal computer, via a wired or wireless connection. Still other devices may include integrated computing nodes that provide some or all of the necessary computation and connectivity for a given application.

仮想現実または拡張現実ディスプレイは、仮想環境の中でユーザの動きを追跡するために様々な運動センサに繋げられていてもよい。そのような動きの追跡を使用して、仮想環境内をナビゲートしたり、仮想環境においてユーザのアバターを操作したり、仮想環境において他のオブジェクトと対話してもよい。スマートフォンを一体化させるいくつかの装置では、頭部追跡は、方位センサ、ジャイロスコープ、加速度計または地球磁場センサなどのスマートフォンの中に一体化されたセンサによって行われてもよい。センサはユーザの位置決めに関する詳細な情報を得るために、ヘッドセットの中に一体化されていてもよく、あるいは、ユーザによって保持されてもよく、様々な本体部分に取り付けられていてもよい。   The virtual or augmented reality display may be linked to various motion sensors to track the movement of the user in the virtual environment. Such motion tracking may be used to navigate within the virtual environment, manipulate the user's avatar in the virtual environment, and interact with other objects in the virtual environment. In some devices that integrate a smartphone, head tracking may be performed by sensors integrated into the smartphone, such as an orientation sensor, gyroscope, accelerometer, or geomagnetic field sensor. The sensors may be integrated into the headset, or may be carried by the user, and may be mounted on various body parts to obtain detailed information about the user's positioning.

当然のことながら、様々な実施形態は、一般にヘッドセットなしで提示されるものを含む仮想および拡張現実環境への適用である。例えば、VRまたはARのマジックウィンドウ実装は、電話などのハンドヘルドデバイス上のディスプレイを仮想空間内へのウィンドウとして使用する。ハンドヘルドを動かすか、スワイプするか、あるいはそれ以外の方法でハンドヘルドデバイスと対話することによって、ユーザは仮想環境の中で画面の視野を移動させる。ユーザの視野の中心は、目の追跡を必要とすることなく仮想空間内の仮想ウィンドウの向きに基づいて決定することができる。但し、目の追跡を含む装置では、より高い精度を得ることができる。   Of course, various embodiments have application to virtual and augmented reality environments, including those presented generally without a headset. For example, VR or AR magic window implementations use a display on a handheld device, such as a telephone, as a window into virtual space. By moving, swiping, or otherwise interacting with the handheld device, the user moves the view of the screen within the virtual environment. The center of the user's field of view can be determined based on the orientation of the virtual window in virtual space without requiring eye tracking. However, higher accuracy can be obtained with devices that include eye tracking.

次に図1を参照すると、空間的音響に基づく例示的なユーザと広告システムとの対話が本開示の実施形態に従って示されている。3Dすなわち360°のビデオフィード101が提供される。ビデオフィード内には空間的音響コンポーネント102が埋め込まれている。いくつかの実施形態では、音響コンポーネントは、VRまたはAR環境内の広告などのスポンサードコンテンツの存在を示す可聴キューを含む。音響コンポーネントはスポンサードコンテンツの方向から生じているように見えるようにするために、VRまたはAR環境内で空間的に方向づけられる。ユーザが周りを見渡し(103)、自身の注意をスポンサードコンテンツの方向に向けると、VR環境において対話型オブジェクトが起動されるか(104)、あるいは拡張されたグラフィックスが現れてもよい(105)。ユーザはVRまたはAR体験を続けてもよく(108)、あるいはVRまたはAR環境の中でそのスポンサードコンテンツにジャンプしてもよい(106)。ユーザとスポンサードコンテンツとが対話したら、彼らをスポンサーのプラットフォームに転送してもよい(107)。   Referring now to FIG. 1, an exemplary user interaction with an advertising system based on spatial sound is depicted in accordance with an embodiment of the present disclosure. A 3D or 360 ° video feed 101 is provided. A spatial audio component 102 is embedded in the video feed. In some embodiments, the audio component includes an audible cue that indicates the presence of sponsored content, such as an advertisement in a VR or AR environment. The acoustic components are spatially oriented within the VR or AR environment to make it appear to originate from the direction of the sponsored content. As the user looks around (103) and directs their attention to the sponsored content, an interactive object may be activated in the VR environment (104) or expanded graphics may appear (105). ). The user may continue with the VR or AR experience (108) or may jump to its sponsored content in a VR or AR environment (106). Once the user interacts with the sponsored content, they may be transferred to the sponsor's platform (107).

例えば、コーラ缶を開ける位置音響により、ユーザの注意をスポンサードオブジェクトとしてVR環境に配置されたコーラ缶に向けてもよい。それがユーザの視野の中心に達したら、その缶が開いてもよい。ユーザがその缶を起動させた場合に、さらなるスポンサードコンテンツが再生されてもよく、あるいは、それらを仮想環境においてスポンサード位置に再配置してもよい。仮想環境の中でのスポンサードコンテンツの提示に加えて、さらなる対話によりユーザをスポンサードウェブサイトなどの仮想環境の外にあるコンテンツに導いてもよい。   For example, the position sound of opening the cola can may direct the user's attention as a sponsored object to the cola can placed in the VR environment. When it reaches the center of the user's field of view, the can may be opened. Additional sponsored content may be played when the user activates the can, or they may be relocated to a sponsored location in a virtual environment. In addition to presenting the sponsored content in the virtual environment, further interactions may lead the user to content outside the virtual environment, such as a sponsored website.

次に図2を参照すると、本開示の実施形態に係る空間的音響に基づく広告のための方法が示されている。201では、空間的音響キューがユーザに対して再生される。空間的音響キューは仮想環境に見かけの位置を有する。202では、ユーザの視野は音響キューの見かけの位置に向かって追跡される。203では、スポンサードコンテンツは音響キューの大体の見かけの位置でユーザに表示される。   Referring now to FIG. 2, a method for spatial audio-based advertising according to an embodiment of the present disclosure is shown. At 201, a spatial audio cue is played to a user. Spatial acoustic cues have an apparent position in the virtual environment. At 202, the user's view is tracked toward the apparent location of the acoustic cue. At 203, the sponsored content is displayed to the user at the approximate apparent location of the audio cue.

次に図3を参照すると、計算ノードの例の概略図が示されている。クラウドコンピューティングノード10は好適な計算ノードの単に一例であり、本明細書に記載されている本発明の実施形態の使用または機能性の範囲に関していかなる限定をも示唆するものではない。それにも関わらず、計算ノード10は上に記載されている機能性のいずれかを実装および/または実行することができる。   Referring now to FIG. 3, a schematic diagram of an example of a compute node is shown. Cloud computing node 10 is merely an example of a suitable computing node and does not imply any limitation as to the scope of use or functionality of the embodiments of the invention described herein. Nevertheless, computing node 10 may implement and / or perform any of the functionality described above.

計算ノード10には、数多くの他の汎用もしくは専用計算システム環境または構成と共に動作するコンピュータシステム/サーバ12が存在する。コンピュータシステム/サーバ12と共に使用するのに適し得る周知の計算システム、環境および/または構成の例としては、限定されるものではないが、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、シッククライアント、ハンドヘルドまたはラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラム可能な家庭用電化製品、ネットワークPC、ミニコンピュータシステム、メインフレームコンピュータシステム、および上記システムまたは装置のいずれかを備える分散型クラウドコンピューティング環境などが挙げられる。   Compute node 10 has a computer system / server 12 that operates with many other general purpose or special purpose computing system environments or configurations. Examples of well-known computing systems, environments, and / or configurations that may be suitable for use with the computer system / server 12 include, but are not limited to, personal computer systems, server computer systems, thin clients, thick clients, handhelds. Or laptop device, multiprocessor system, microprocessor based system, set top box, programmable consumer electronics, network PC, mini computer system, mainframe computer system, and distributed comprising any of the above systems or devices Type cloud computing environment.

コンピュータシステム/サーバ12は、コンピュータシステムによって実行されるプログラムモジュールなどのコンピュータシステム実行可能命令の一般的な文脈において説明することができる。一般に、プログラムモジュールは、特定のタスクを実行するか特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、ロジックおよびデータ構造などを含んでもよい。コンピュータシステム/サーバ12は、タスクが通信ネットワークを介してリンクされている遠隔処理装置によって実行される分散型クラウドコンピューティング環境で実行されてもよい。分散型クラウドコンピューティング環境では、プログラムモジュールはメモリ記憶装置などのローカルおよび遠隔コンピュータシステム記憶媒体の両方に位置していてもよい。   Computer system / server 12 may be described in the general context of computer system executable instructions, such as program modules executed by a computer system. Generally, program modules may include routines, programs, objects, components, logic, data structures, etc. that perform particular tasks or implement particular abstract data types. Computer system / server 12 may execute in a distributed cloud computing environment where tasks are performed by remote processing devices that are linked through a communications network. In a distributed cloud computing environment, program modules may be located in both local and remote computer system storage media, such as memory storage.

図3に示すように、計算ノード10のコンピュータシステム/サーバ12は汎用計算装置の形態で示されている。コンピュータシステム/サーバ12のコンポーネントとしては、限定されるものではないが、1つ以上のプロセッサまたは処理装置16、システムメモリ28、およびシステムメモリ28などの各種システムコンポーネントをプロセッサ16に繋げるバス18が挙げられる。   As shown in FIG. 3, the computer system / server 12 of the computing node 10 is shown in the form of a general-purpose computing device. Components of the computer system / server 12 include, but are not limited to, one or more processors or processing units 16, a system memory 28, and a bus 18 that connects various system components such as the system memory 28 to the processor 16. Can be

バス18は、メモリバスまたはメモリコントローラ、周辺バス、アクセラレイティッド・グラフィックス・ポート、および様々なバスアーキテクチャのいずれかを使用するプロセッサもしくはローカルバスなどの何種類かのバス構造のうちのいずれかの1つ以上を表す。例としてであって限定としてではないが、そのようなアーキテクチャとしては、工業標準アーキテクチャ(ISA)バス、マイクロチャネルアーキテクチャ(MCA)バス、拡張ISA(EISA)バス、ビデオエレクトロニクススタンダーズアソシエーション(VESA)ローカルバス、およびペリフェラルコンポーネントインターコネクト(PCI)バスが挙げられる。   Bus 18 may be any of several types of bus structures, such as a memory bus or memory controller, a peripheral bus, an accelerated graphics port, and a processor or local bus using any of a variety of bus architectures. Represents one or more of By way of example, and not limitation, such architectures may include an Industry Standard Architecture (ISA) bus, a Micro Channel Architecture (MCA) bus, an Extended ISA (EISA) bus, a Video Electronics Standards Association (VESA) local bus , And a peripheral component interconnect (PCI) bus.

コンピュータシステム/サーバ12は典型的に様々なコンピュータシステム読み取り可能媒体を備える。そのような媒体は、コンピュータシステム/サーバ12によってアクセス可能な任意の利用可能な媒体であってもよく、揮発性および不揮発性媒体、取外し可能および取外し不可能な媒体の両方を含む。   Computer system / server 12 typically includes a variety of computer system readable media. Such media can be any available media that can be accessed by computer system / server 12 and includes both volatile and nonvolatile media, removable and non-removable media.

システムメモリ28は、ランダムアクセスメモリ(RAM)30および/またはキャッシュメモリ32などの揮発性メモリの形態のコンピュータシステム読み取り可能媒体を含むことができる。コンピュータシステム/サーバ12は、他の取外し可能/取外し不可能な揮発性/不揮発性コンピュータシステム記憶媒体をさらに備えてもよい。単なる一例として、記憶システム34は、取外し不可能な不揮発性磁気媒体(図示されておらず、典型的には「ハードドライブ」と呼ばれる)に読み書きするために設けることができる。図示されていないが、取外し可能な不揮発性磁気ディスク(例えば、「フロッピディスク」)に読み書きするための磁気ディスクドライブ、およびCD−ROM、DVD−ROMまたは他の光媒体などの取外し可能な不揮発性光ディスクに読み書きするための光ディスクドライブを設けることができる。そのような場合には、それぞれを1つ以上のデータ媒体インタフェースによってバス18に接続することができる。以下でさらに示され、かつ記載されているように、メモリ28は、本発明の実施形態の機能を実行するように構成されたプログラムモジュールのセット(例えば少なくとも1つ)を有する少なくとも1つのプログラム製品を含んでもよい。   System memory 28 may include computer system readable media in the form of volatile memory, such as random access memory (RAM) 30 and / or cache memory 32. Computer system / server 12 may further comprise other removable / non-removable volatile / non-volatile computer system storage media. By way of example only, storage system 34 may be provided for reading from and writing to non-removable, nonvolatile magnetic media (not shown, typically referred to as a “hard drive”). Although not shown, a magnetic disk drive for reading from and writing to a removable non-volatile magnetic disk (eg, a "floppy disk"), and a removable non-volatile such as a CD-ROM, DVD-ROM or other optical medium An optical disk drive for reading from and writing to the optical disk can be provided. In such a case, each may be connected to bus 18 by one or more data media interfaces. As further shown and described below, memory 28 includes at least one program product having a set (eg, at least one) of program modules configured to perform the functions of embodiments of the present invention. May be included.

プログラムモジュール42のセット(少なくとも1つ)を有するプログラム/ユーティリティ40は、例としてであって限定としてではないが、メモリ28ならびにオペレーティングシステム、1つ以上のアプリケーションプログラム、他のプログラムモジュールおよびプログラムデータに記憶されていてもよい。オペレーティングシステム、1つ以上のアプリケーションプログラム、他のプログラムモジュールおよびプログラムデータのそれぞれまたはそれらのいくつかの組み合わせは、ネットワーキング環境の実装を含んでもよい。プログラムモジュール42は一般に、本明細書に記載されている本発明の実施形態の機能および/または方法論を実行する。   A program / utility 40 having a set (at least one) of program modules 42 includes, by way of example and not limitation, memory 28 and an operating system, one or more application programs, other program modules and program data. It may be stored. Each of the operating system, one or more application programs, other program modules and program data, or some combination thereof, may include an implementation of a networking environment. Program module 42 generally performs the functions and / or methodologies of the embodiments of the invention described herein.

また、コンピュータシステム/サーバ12は、キーボード、ポインティングデバイス、ディスプレイ24などの1つ以上の外部装置14、ユーザがコンピュータシステム/サーバ12と対話するのを可能にする1つ以上の装置、および/またはコンピュータシステム/サーバ12が1つ以上の他の計算装置と通信するのを可能にする任意の装置(例えば、ネットワークカード、モデムなど)と通信していてもよい。そのような通信は入力/出力(I/O)インタフェース22を介して行うことができる。なおさらに、コンピュータシステム/サーバ12はネットワークアダプタ20を介して、ローカルエリアネットワーク(LAN)、一般的なワイドエリアネットワーク(WAN)および/または公衆ネットワーク(例えば、インターネット)などの1つ以上のネットワークと通信することができる。図示されているように、ネットワークアダプタ20は、バス18を介してコンピュータシステム/サーバ12の他のコンポーネントと通信する。図示されていないが、他のハードウェアおよび/またはソフトウェアコンポーネントをコンピュータシステム/サーバ12と共に使用することができることを理解されたい。例としては、限定されるものではないが、マイクロコード、デバイスドライバ、冗長処理装置(redundant processing unit)、外部ディスクドライブアレイ、RAIDシステム、テープドライブおよびデータアーカイブ記憶システムなどが挙げられる。   Also, computer system / server 12 may include one or more external devices 14, such as a keyboard, pointing device, display 24, one or more devices that allow a user to interact with computer system / server 12, and / or The computer system / server 12 may be in communication with any device that enables the computer system / server 12 to communicate with one or more other computing devices (eg, a network card, a modem, etc.). Such communication can occur via an input / output (I / O) interface 22. Still further, computer system / server 12 may be connected via network adapter 20 to one or more networks, such as a local area network (LAN), a general wide area network (WAN), and / or a public network (eg, the Internet). Can communicate. As shown, network adapter 20 communicates with other components of computer system / server 12 via bus 18. Although not shown, it should be understood that other hardware and / or software components may be used with computer system / server 12. Examples include, but are not limited to, microcode, device drivers, redundant processing units, external disk drive arrays, RAID systems, tape drives, and data archive storage systems.

本発明は、システム、方法および/またはコンピュータプログラム製品であってもよい。コンピュータプログラム製品は、プロセッサに本発明の態様を実行させるためのコンピュータ可読プログラム命令を有するコンピュータ可読記憶媒体を含んでもよい。   The invention may be a system, method and / or computer program product. The computer program product may include a computer readable storage medium having computer readable program instructions for causing a processor to perform aspects of the present invention.

コンピュータ可読記憶媒体は、命令実行装置によって使用するための命令を保持および記憶することができるタンジブルデバイスであってもよい。コンピュータ可読記憶媒体は、例えば限定されるものではないが、電子記憶装置、磁気記憶装置、光学記憶装置、電磁記憶装置、半導体記憶装置または上記の任意の好適な組み合わせであってもよい。コンピュータ可読記憶媒体のより具体的な例の限定的リストは、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラム可能リードオンリーメモリ(EPROMまたはフラッシュメモリ)、スタティックランダムアクセスメモリ(SRAM)、ポータブルコンパクトディスクリードオンリーメモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピディスク、パンチカードまたは命令が記録された溝を有する隆起構造体などの機械的に符号化された装置、および上記の任意の好適な組み合わせを含む。本明細書で使用されるコンピュータ可読記憶媒体はそれ自体が、電波または他の自由に伝搬する電磁波、導波管または他の伝送媒体を通って伝搬する電磁波(例えば、光ファイバーケーブルを通過する光パルス)またはワイヤを通って伝送される電気信号などの一時的信号であると解釈されるべきではない。   The computer-readable storage medium may be a tangible device capable of holding and storing instructions for use by an instruction execution device. The computer-readable storage medium may be, for example, without limitation, an electronic storage device, a magnetic storage device, an optical storage device, an electromagnetic storage device, a semiconductor storage device, or any suitable combination of the above. A non-exhaustive list of more specific examples of computer readable storage media is: portable computer diskette, hard disk, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), Static random access memory (SRAM), portable compact disk read-only memory (CD-ROM), digital versatile disk (DVD), memory stick, floppy disk, punch card or raised structure having grooves in which instructions are recorded, etc. It includes a mechanically encoded device, and any suitable combination of the above. As used herein, a computer readable storage medium is itself a radio wave or other freely propagating electromagnetic wave, an electromagnetic wave propagating through a waveguide or other transmission medium (eg, an optical pulse passing through a fiber optic cable). ) Or transient signals such as electrical signals transmitted over wires.

本明細書に記載されているコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体から各自の計算/処理装置に、あるいはネットワーク、例えばインターネット、ローカルエリアネットワーク、ワイドエリアネットワークおよび/または無線ネットワークを介して外部コンピュータまたは外部記憶装置にダウンロードすることができる。ネットワークは、銅伝送ケーブル、光伝送ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイコンピュータおよび/またはエッジサーバを含んでもよい。各計算/処理装置内のネットワークアダプタカードまたはネットワークインタフェースは、コンピュータ可読プログラム命令をネットワークから受信して、各自の計算/処理装置内のコンピュータ可読記憶媒体への記憶のためにコンピュータ可読プログラム命令を転送する。   The computer readable program instructions described herein may be transmitted from a computer readable storage medium to a respective computing / processing device or to an external computer via a network, such as the Internet, a local area network, a wide area network, and / or a wireless network. Alternatively, it can be downloaded to an external storage device. A network may include copper transmission cables, optical transmission fibers, wireless transmissions, routers, firewalls, switches, gateway computers and / or edge servers. A network adapter card or network interface in each computing / processing device receives the computer readable program instructions from the network and transfers the computer readable program instructions for storage on a computer readable storage medium in the respective computing / processing device. I do.

本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械命令、機械依存命令(machine dependent instruction)、マイクロコード、ファームウェア命令、状態設定データ(state−setting data)、あるいは、スモールトーク、C++などのオブジェクト指向プログラミング言語および「C」プログラミング言語または同様のプログラミング言語などの従来の手続き型プログラミング言語などの1つ以上のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードのいずれかであってもよい。コンピュータ可読プログラム命令は、全体的にユーザのコンピュータ上で、部分的にユーザのコンピュータ上で、独立型ソフトウェアパッケージとして、部分的にユーザのコンピュータ上であって部分的に遠隔コンピュータ上で、あるいは全体的に遠隔コンピュータまたはサーバ上で実行されてもよい。後者のシナリオでは、遠隔コンピュータはローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)などの任意の種類のネットワークを介してユーザのコンピュータに接続されていてもよく、あるいは、その接続は外部コンピュータに対してなされてもよい(例えば、インターネットサービスプロバイダを用いてインターネットを通して)。いくつかの実施形態では、例えば、プログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)またはプログラマブルロジックアレイ(PLA)などの電子回路は、本発明の態様を実施するためにコンピュータ可読プログラム命令の状態情報を利用して電子回路を個別化することによってコンピュータ可読プログラム命令を実行してもよい。   Computer readable program instructions for performing the operations of the present invention include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, and state-setting data. setting data), or any combination of one or more programming languages, such as an object-oriented programming language such as SmallTalk, C ++, and a conventional procedural programming language such as a "C" programming language or similar programming language. It may be either source code or object code. The computer readable program instructions may be entirely on the user's computer, partially on the user's computer, as a standalone software package, partially on the user's computer and partially on a remote computer, or entirely. Alternatively, it may be executed on a remote computer or server. In the latter scenario, the remote computer may be connected to the user's computer via any type of network, such as a local area network (LAN) or wide area network (WAN), or the connection may be made to an external computer. (Eg, over the Internet using an Internet service provider). In some embodiments, an electronic circuit, such as, for example, a programmable logic circuit, a field programmable gate array (FPGA) or a programmable logic array (PLA), converts state information of computer readable program instructions to implement aspects of the present invention. Utilization may be used to personalize electronic circuitry to execute computer readable program instructions.

本発明の態様は、本発明の実施形態に係る方法、装置(システム)およびコンピュータプログラム製品のフローチャート図および/またはブロック図を参照しながら本明細書に記載されている。当然のことながら、フローチャート図および/またはブロック図の各ブロックならびにフローチャート図および/またはブロック図のブロックの組み合わせは、コンピュータ可読プログラム命令によって実行することができる。   Aspects of the invention are described herein with reference to flowchart illustrations and / or block diagrams of methods, apparatus (systems) and computer program products according to embodiments of the invention. It should be understood that each block of the flowchart illustrations and / or block diagrams, and combinations of blocks in the flowchart illustrations and / or block diagrams, can be performed by computer readable program instructions.

コンピュータまたは他のプログラム可能なデータ処理装置のプロセッサを介して実行される命令がフローチャートおよび/またはブロック図のブロックに明記されている機能/動作を実装するための手段を作り出すように、これらのコンピュータ可読プログラム命令を汎用コンピュータ、専用コンピュータまたは他のプログラム可能なデータ処理装置のプロセッサに与えて機械を作製してもよい。また命令が、記憶されているコンピュータ可読記憶媒体がフローチャートおよび/またはブロック図のブロックに明記されている機能/動作の態様を実装する命令を含む製造品を含むように、これらのコンピュータ可読プログラム命令はコンピュータ、プログラム可能なデータ処理装置および/または特定の方法で機能するための他の装置に指示することができるコンピュータ可読記憶媒体に記憶されていてもよい。   These computers or other programmable data processing devices execute instructions such that the instructions executed via the processors create means for implementing the functions / acts specified in the blocks of the flowcharts and / or block diagrams. The readable program instructions may be provided to a processor of a general purpose computer, special purpose computer, or other programmable data processing device to create a machine. These computer-readable program instructions may also include instructions such that the stored computer-readable storage medium includes instructions that implement aspects of the functions / operations specified in the blocks of the flowcharts and / or block diagrams. May be stored on a computer readable storage medium that can direct a computer, a programmable data processing device, and / or other devices to function in a particular manner.

また、コンピュータ、他のプログラム可能な装置または他の装置上で実行される命令がフローチャートおよび/またはブロック図のブロックに明記されている機能/動作を実装するように、コンピュータ可読プログラム命令をコンピュータ、他のプログラム可能なデータ処理装置、または一連の動作工程をコンピュータ、他のプログラム可能な装置または他の装置上で実行させるための他の装置にロードして、コンピュータに実装されるプロセスを生成してもよい。   Also, the computer-readable program instructions may be executed on a computer, such that the instructions executed on the computer, other programmable devices, or other devices implement the functions / acts specified in the blocks of the flowcharts and / or block diagrams. Loading another programmable data processing device, or a series of operating steps, into a computer, another programmable device or other device for execution on another device to create a computer-implemented process. You may.

図中のフローチャートおよびブロック図は、本発明の各種実施形態に係るシステム、方法およびコンピュータプログラム製品の可能な実装のアーキテクチャ、機能性および動作を示す。この点に関しては、フローチャートまたはブロック図の各ブロックは、明記されている論理機能を実装するための1つ以上の実行可能命令を含む命令のモジュール、セグメントまたは一部を表してもよい。いくつかの他の実装では、ブロックに記載されている機能は図に記載されている順序以外で行われてもよい。例えば、連続して示されている2つのブロックは、実際には実質的に同時に実行されてもよく、あるいは、それらのブロックは時として関連する機能性に応じて逆の順序で実行されてもよい。ブロック図および/またはフローチャート図の各ブロックならびにブロック図および/またはフローチャート図のブロックの組み合わせは、明記されている機能または動作を実行するか専用ハードウェアおよびコンピュータ命令の組み合わせを実行する専用ハードウェアベースのシステムによって実装することができることにも留意されたい。   The flowcharts and block diagrams in the figures illustrate the architecture, functionality, and operation of possible implementations of systems, methods, and computer program products according to various embodiments of the present invention. In this regard, each block in the flowcharts or block diagrams may represent a module, segment, or portion of instructions, including one or more executable instructions, for implementing the specified logical functions. In some other implementations, the functions noted in the block may occur out of the order noted in the figures. For example, two blocks shown in succession may, in fact, be executed substantially simultaneously, or they may sometimes be executed in the reverse order, depending on the functionality involved. Good. Each block in the block diagrams and / or flowchart illustrations, and combinations of blocks in the block diagrams and / or flowchart illustrations, may implement dedicated functions or operations or execute dedicated hardware and computer instruction combinations. It should also be noted that this can be implemented by the following system.

本発明の各種実施形態の説明を例示のために提供してきたが、それらは網羅的であることを意図するものでも開示されている実施形態に限定されることを意図するものではない。記載されている実施形態の範囲および趣旨から逸脱しない多くの修正および変形が当業者には明らかであろう。本明細書で使用される用語は、実施形態の原理、実際の適用または市場で見出される技術を凌ぐ技術改良を最も良く説明したり、他の当業者が本明細書に開示されている実施形態を理解することができるようにしたりするために選択された。   Although descriptions of various embodiments of the present invention have been provided by way of illustration, they are not intended to be exhaustive or limited to the disclosed embodiments. Many modifications and variations will be apparent to those skilled in the art without departing from the scope and spirit of the described embodiments. The terminology used herein best describes the principles of the embodiments, their practical application or technical improvements over the technology found in the marketplace, or the embodiments disclosed by others skilled in the art. Or to be able to understand.

Claims (18)

空間的音響キューをユーザに対して再生することであって、前記空間的音響キューは、仮想環境において見かけの位置を有することと、
前記ユーザの視野を前記音響キューの前記見かけの位置に向かって追跡することと、
前記仮想環境においてスポンサードコンテンツを前記音響キューの大体の前記見かけの位置で前記ユーザに表示することと、
を含む方法。
Playing a spatial audio cue to a user, wherein the spatial audio cue has an apparent position in a virtual environment;
Tracking the user's field of view towards the apparent position of the acoustic cue;
Displaying sponsored content to the user at the approximate location of the audio cue in the virtual environment;
A method that includes
前記視野は、前記ユーザの目の動きを追跡することによって決定される、請求項1に記載の方法。   The method of claim 1, wherein the field of view is determined by tracking eye movements of the user. 前記視野は、前記ユーザの頭の動きを追跡することによって決定される、請求項1に記載の方法。   The method of claim 1, wherein the field of view is determined by tracking a head movement of the user. 前記視野は、ハンドヘルドデバイスの動きを追跡することによって決定される、請求項1に記載の方法。   The method of claim 1, wherein the field of view is determined by tracking movement of a handheld device. 前記スポンサードコンテンツは、前記仮想環境において仮想オブジェクトを含む、請求項1に記載の方法。   The method of claim 1, wherein the sponsored content comprises a virtual object in the virtual environment. ユーザと前記仮想オブジェクトとの対話を検出することと、
さらなるスポンサードコンテンツを前記ユーザに提示することと、
をさらに含む、請求項5に記載の方法。
Detecting interaction between a user and the virtual object;
Presenting further sponsored content to the user;
The method of claim 5, further comprising:
空間的音響に基づく広告のためのコンピュータプログラム製品であって、前記コンピュータプログラム製品は、それと共に具体化されるプログラム命令を有するコンピュータ可読記憶媒体を含み、前記プログラム命令は、
空間的音響キューをユーザに対して再生することであって、前記空間的音響キューは、仮想環境において見かけの位置を有することと、
前記ユーザの視野を前記音響キューの前記見かけの位置に向かって追跡することと、
前記仮想環境においてスポンサードコンテンツを前記音響キューの大体の前記見かけの位置で前記ユーザに表示することと、
を含む方法をプロセッサに実行させるために前記プロセッサによって実行可能である、コンピュータプログラム製品。
A computer program product for spatial audio-based advertising, the computer program product including a computer readable storage medium having program instructions embodied therewith, wherein the program instructions comprise:
Playing a spatial audio cue to a user, wherein the spatial audio cue has an apparent position in a virtual environment;
Tracking the user's field of view towards the apparent position of the acoustic cue;
Displaying sponsored content to the user at the approximate location of the audio cue in the virtual environment;
A computer program product executable by a processor to cause the processor to perform the method comprising:
前記視野は、前記ユーザの目の動きを追跡することによって決定される、請求項7に記載のコンピュータプログラム製品。   The computer program product of claim 7, wherein the field of view is determined by tracking eye movements of the user. 前記視野は、前記ユーザの頭の動きを追跡することによって決定される、請求項7に記載のコンピュータプログラム製品。   The computer program product of claim 7, wherein the field of view is determined by tracking a head movement of the user. 前記視野は、ハンドヘルドデバイスの動きを追跡することによって決定される、請求項7に記載のコンピュータプログラム製品。   The computer program product of claim 7, wherein the field of view is determined by tracking movement of a handheld device. 前記スポンサードコンテンツは、前記仮想環境において仮想オブジェクトを含む、請求項7に記載のコンピュータプログラム製品。   The computer program product of claim 7, wherein the sponsored content includes a virtual object in the virtual environment. 前記方法は、
ユーザと前記仮想オブジェクトとの対話を検出することと、
さらなるスポンサードコンテンツを前記ユーザに提示することと、
をさらに含む、請求項11に記載のコンピュータプログラム製品。
The method comprises:
Detecting interaction between a user and the virtual object;
Presenting further sponsored content to the user;
The computer program product of claim 11, further comprising:
それと共に具体化されるプログラム命令を有するコンピュータ可読記憶媒体を備える計算ノードであって、前記プログラム命令は、
空間的音響キューをユーザに対して再生することであって、前記空間的音響キューは、仮想環境において見かけの位置を有することと、
前記ユーザの視野を前記音響キューの前記見かけの位置に向かって追跡することと、
前記仮想環境においてスポンサードコンテンツを前記音響キューの大体の前記見かけの位置で前記ユーザに表示することと、
を含む方法を前記計算ノードのプロセッサに実行させるために前記プロセッサによって実行可能である、計算ノード
を備えるシステム。
A computing node comprising a computer readable storage medium having program instructions embodied therewith, wherein said program instructions comprise:
Playing a spatial audio cue to a user, wherein the spatial audio cue has an apparent position in a virtual environment;
Tracking the user's field of view towards the apparent position of the acoustic cue;
Displaying sponsored content to the user at the approximate location of the audio cue in the virtual environment;
A system comprising a compute node executable by the processor to cause the processor of the compute node to perform the method comprising:
前記視野は、前記ユーザの目の動きを追跡することによって決定される、請求項13に記載のシステム。   14. The system of claim 13, wherein the field of view is determined by tracking eye movements of the user. 前記視野は、前記ユーザの頭の動きを追跡することによって決定される、請求項13に記載のシステム。   14. The system of claim 13, wherein the field of view is determined by tracking head movement of the user. 前記視野は、ハンドヘルドデバイスの動きを追跡することによって決定される、請求項13に記載のシステム。   14. The system of claim 13, wherein the field of view is determined by tracking movement of a handheld device. 前記スポンサードコンテンツは、前記仮想環境において仮想オブジェクトを含む、請求項13に記載のシステム。   14. The system of claim 13, wherein the sponsored content comprises a virtual object in the virtual environment. 前記方法は、
ユーザと前記仮想オブジェクトとの対話を検出することと、
さらなるスポンサードコンテンツを前記ユーザに提示することと、
をさらに含む、請求項17に記載のシステム。
The method comprises:
Detecting interaction between a user and the virtual object;
Presenting further sponsored content to the user;
18. The system of claim 17, further comprising:
JP2019522384A 2016-10-27 2017-10-27 Advertising based on spatial sound in virtual or augmented reality video streams Pending JP2019537791A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662413747P 2016-10-27 2016-10-27
US62/413,747 2016-10-27
PCT/US2017/058827 WO2018081609A1 (en) 2016-10-27 2017-10-27 Spatial audio based advertising in virtual or augmented reality video streams

Publications (1)

Publication Number Publication Date
JP2019537791A true JP2019537791A (en) 2019-12-26

Family

ID=62024061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019522384A Pending JP2019537791A (en) 2016-10-27 2017-10-27 Advertising based on spatial sound in virtual or augmented reality video streams

Country Status (4)

Country Link
US (1) US20190244258A1 (en)
EP (1) EP3533032A4 (en)
JP (1) JP2019537791A (en)
WO (1) WO2018081609A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018088450A1 (en) * 2016-11-08 2018-05-17 ヤマハ株式会社 Speech providing device, speech reproducing device, speech providing method, and speech reproducing method
US10835809B2 (en) 2017-08-26 2020-11-17 Kristina Contreras Auditorium efficient tracking in auditory augmented reality

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070291034A1 (en) * 2006-06-20 2007-12-20 Dones Nelson C System for presenting a navigable virtual subway system, and method for operating and using the same
US8259117B2 (en) * 2007-06-18 2012-09-04 Brian Mark Shuster Avatar eye control in a multi-user animation environment
US8243970B2 (en) * 2008-08-11 2012-08-14 Telefonaktiebolaget L M Ericsson (Publ) Virtual reality sound for advanced multi-media applications
US20130293530A1 (en) * 2012-05-04 2013-11-07 Kathryn Stone Perez Product augmentation and advertising in see through displays
US20140270182A1 (en) * 2013-03-14 2014-09-18 Nokia Corporation Sound For Map Display
US9129157B2 (en) * 2013-04-30 2015-09-08 Qualcomm Incorporated Method for image-based status determination
US9451162B2 (en) * 2013-08-21 2016-09-20 Jaunt Inc. Camera array including camera modules
US9143880B2 (en) * 2013-08-23 2015-09-22 Tobii Ab Systems and methods for providing audio to a user based on gaze input
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9392212B1 (en) * 2014-04-17 2016-07-12 Visionary Vr, Inc. System and method for presenting virtual reality content to a user
US9363569B1 (en) * 2014-07-28 2016-06-07 Jaunt Inc. Virtual reality system including social graph
US20160187976A1 (en) * 2014-12-29 2016-06-30 Immersion Corporation Systems and methods for generating haptic effects based on eye tracking
JP2016208348A (en) * 2015-04-24 2016-12-08 セイコーエプソン株式会社 Display device, control method for display device, and program

Also Published As

Publication number Publication date
WO2018081609A1 (en) 2018-05-03
EP3533032A4 (en) 2020-08-19
US20190244258A1 (en) 2019-08-08
EP3533032A1 (en) 2019-09-04

Similar Documents

Publication Publication Date Title
JP6612250B2 (en) Conversation detection
KR102475873B1 (en) Indicating out-of-view augmented reality images
US9329678B2 (en) Augmented reality overlay for control devices
US10397320B2 (en) Location based synchronized augmented reality streaming
TWI571130B (en) Volumetric video presentation
US20170287215A1 (en) Pass-through camera user interface elements for virtual reality
JP7008730B2 (en) Shadow generation for image content inserted into an image
US10348964B2 (en) Method and system for 360 degree video coverage visualization
JP6932206B2 (en) Equipment and related methods for the presentation of spatial audio
AU2021339341B2 (en) Augmented reality-based display method, device, and storage medium
US11914836B2 (en) Hand presence over keyboard inclusiveness
US20210174589A1 (en) Using deep learning to determine gaze
US10945042B2 (en) Generating an interactive digital video content item
US8845429B2 (en) Interaction hint for interactive video presentations
US20190244258A1 (en) Spatial audio based advertising in virtual or augmented reality video streams
US11410330B2 (en) Methods, devices, and systems for determining field of view and producing augmented reality
US8957855B2 (en) Method for displaying a stereoscopic cursor among stereoscopic objects
US11796959B2 (en) Augmented image viewing with three dimensional objects
US20190230409A1 (en) Picture-in-picture base video streaming for mobile devices
US8732620B2 (en) Method and system for a more realistic interaction experience using a stereoscopic cursor
EP3389049B1 (en) Enabling third parties to add effects to an application
US10930077B1 (en) Systems and methods for rendering augmented reality mapping data
WO2023136934A1 (en) Ephemeral artificial reality experiences
CN114788306A (en) Placing sounds within content
WO2018081605A1 (en) Predictive player tracking in virtual or augmented reality sports