JP6703627B2 - Device and related methods - Google Patents

Device and related methods Download PDF

Info

Publication number
JP6703627B2
JP6703627B2 JP2018567718A JP2018567718A JP6703627B2 JP 6703627 B2 JP6703627 B2 JP 6703627B2 JP 2018567718 A JP2018567718 A JP 2018567718A JP 2018567718 A JP2018567718 A JP 2018567718A JP 6703627 B2 JP6703627 B2 JP 6703627B2
Authority
JP
Japan
Prior art keywords
virtual reality
event
content
audio
viewing direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018567718A
Other languages
Japanese (ja)
Other versions
JP2019521440A (en
Inventor
アンッティ エロネン
アンッティ エロネン
アルト レフティニエミ
アルト レフティニエミ
ユッシ レッパネン
ユッシ レッパネン
ヴェリ−マッティ コルモネン
ヴェリ−マッティ コルモネン
Original Assignee
ノキア テクノロジーズ オーユー
ノキア テクノロジーズ オーユー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オーユー, ノキア テクノロジーズ オーユー filed Critical ノキア テクノロジーズ オーユー
Publication of JP2019521440A publication Critical patent/JP2019521440A/en
Application granted granted Critical
Publication of JP6703627B2 publication Critical patent/JP6703627B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4438Window management, e.g. event handling following interaction with the user interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • A63F13/497Partially or entirely replaying previous game actions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Acoustics & Sound (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本開示は、仮想現実の分野に関し、特に、仮想現実コンテンツからの見逃されたイベントコンテンツの表示に関する。特に本発明は、時間的な開始点がオーディオイベントに基づく、仮想現実コンテンツからの見逃されたイベントコンテンツの表示に関する。関連する方法、コンピュータプログラム、および装置も開示される。開示される特定の側面/例は、携帯可能な電子デバイスに関する。 The present disclosure relates to the field of virtual reality, and more particularly to displaying missed event content from virtual reality content. In particular, the present invention relates to the display of missed event content from virtual reality content whose temporal starting point is based on audio events. Related methods, computer programs, and apparatus are also disclosed. Certain disclosed aspects/examples relate to portable electronic devices.

背景background

仮想現実は、グラスもしくはゴーグルなどのヘッドセットまたはユーザを囲む1つ以上のディスプレイを使用してユーザに没入型仮想体験を提供し得る。仮想現実装置は、仮想現実空間を表すマルチメディア仮想現実コンテンツをユーザに提示して、ユーザが仮想現実空間の中に存在するのをシミュレートすることもある。仮想現実空間は、広視野または360°の視野(水平方向の視野の上方および/または下方を含む場合もある)を有するビデオなどのパノラマ式ビデオにより提供されることもある。さらに、特定の位置で生じているように感じられる音を備える空間オーディオが仮想現実の消費の一環として提供されることもある。仮想現実空間を構成するビデオ画像がユーザが一度に視認できるよりも大きいことにより、ユーザにイベントが聞こえるのに見えないという結果が生じる。 Virtual reality may provide a user with an immersive virtual experience using a headset such as glasses or goggles or one or more displays surrounding the user. The virtual reality device may also present multimedia virtual reality content representing the virtual reality space to the user to simulate the user's presence in the virtual reality space. Virtual reality space may also be provided by panoramic video, such as video with a wide field of view or a 360° field of view (which may include above and/or below the horizontal field of view). In addition, spatial audio with sounds that appear to be occurring at a particular location may be provided as part of virtual reality consumption. The fact that the video images that make up the virtual reality space are larger than the user can see at one time results in the user not being able to hear and see the event.

本明細書における以前に公開された文書または任意の背景の列挙または説明は、必ずしも、その文書または背景が最新技術の一部であることまたは一般知識であることの自認であると理解されてはならない。本開示の1つ以上の側面/例は、背景の課題の1つ以上に対処することもあり、しないこともある。 Any listing or description of a previously published document or background in this specification is not necessarily to be construed as an admission that such document or background is part of the state of the art or is general knowledge. I won't. One or more aspects/examples of the present disclosure may or may not address one or more of the background issues.

摘要Summary

第1の例示の側面では、少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つのメモリとを備える次のような装置が提供される。この装置は、前記コンピュータプログラムコードが、前記少なくとも1つのプロセッサに実行されると、前記装置に少なくとも、仮想現実の中での視認用の仮想現実空間を提供するよう構成されたビデオ画像を備える仮想現実コンテンツに関して、仮想現実ビューの視認方向の、第1の視認方向から第2の視認方向へのユーザによる変更に基づいて、見逃されたイベントコンテンツの表示を提供することを実行させるよう構成される。
ここで前記仮想現実コンテンツは、ユーザに提示される仮想現実ビューが仮想現実コンテンツの視認を提供し、仮想現実ビューは、仮想現実空間を構成するビデオ画像の空間的な一部を備え、仮想現実空間のビデオ画像の空間範囲よりも空間範囲が小さく、仮想現実コンテンツは空間オーディオを含み、ビデオ画像の中の視覚的イベントに関係するオーディオイベントへの感知される方向が、仮想現実空間の中で提示される前記視覚的イベントの視覚的位置に対応する。
また、前記第2の視認方向は、視認方向の変更より前に開始が発生している特定のオーディオイベントの方向に方向閾値以内で一致する。
また、前記見逃されたイベントコンテンツは、仮想現実コンテンツのビデオ画像から抽出された視覚的画像を少なくとも有する。前記視覚的画像は、特定のオーディオイベントに対応する視覚的イベントを示し、見逃されたイベントコンテンツの時間的な開始点は、視認方向の変更が発生した仮想現実コンテンツの中の時間的な点よりも前であり、特定のオーディオイベントに基づく。
In a first exemplary aspect, there is provided an apparatus as follows, comprising at least one processor and at least one memory containing computer program code. The apparatus comprises a virtual image comprising a video image configured to, when the computer program code is executed by the at least one processor, provide the apparatus with at least a virtual reality space for viewing in virtual reality. Configured to cause providing a display of missed event content based on a user's change of the viewing direction of the virtual reality view from the first viewing direction to the second viewing direction for the real content. ..
Here, in the virtual reality content, a virtual reality view presented to a user provides a view of the virtual reality content, and the virtual reality view comprises a spatial part of a video image forming a virtual reality space. The spatial extent is smaller than the spatial extent of the video image of the space, the virtual reality content includes spatial audio, and the perceived direction to the audio event related to the visual event in the video image is in the virtual reality space. Corresponds to the visual position of the presented visual event.
Also, the second viewing direction matches the direction of a particular audio event whose start has occurred before the change of the viewing direction within a direction threshold.
Further, the missed event content includes at least a visual image extracted from a video image of the virtual reality content. The visual image shows a visual event corresponding to a specific audio event, and the temporal starting point of the missed event content is the temporal point in the virtual reality content in which the change in the viewing direction occurs. Before and based on a specific audio event.

その結果、ユーザが関連するオーディオイベントを聞き、それに対して視認方向を変更することにより反応したかもしれない見逃された視覚的イベントを、ユーザが見ることを可能にしてもよい。空間オーディオは、ほかに3次元オーディオとしても知られるが、これは、全体のオーディオ環境を構成するオーディオイベントを特定の方向から来るものとユーザが感知するように、オーディオを仮想現実のユーザ(消費者)に提示するものであり、その結果、対応する視覚的イベントがユーザの現在の仮想現実ビューの外にあるオーディオイベントを、ユーザが聞くこともある。ユーザが、聞こえたばかりのオーディオイベントに関連する視覚的イベントを視認するために、例えば頭を動かし反応し、その結果、仮想現実ビューを移動させる場合、オーディオイベントの感知された方向を見る時までには、オーディオイベントに関連した該当するビデオ画像(視覚的イベント)の一部または全部をユーザは見逃しているかもしれない。よって、装置は、見逃されたイベントコンテンツをユーザが視認でき、その結果、聞こえたオーディオイベントに関連する視覚的イベントコンテンツを視認できるように、仮想現実コンテンツを「巻き戻し」てもよい。例えば、ユーザが前方(すなわち第1の視認方向)を見てフットボール選手の特定のグループを注視していて、次にその背後(つまりユーザの現在の視界の外、第2の視認方向である)から生じるものとして感知される音(オーディオイベント)、例えば選手が「パスをくれ」と大声で呼びかけるのが聞こえた場合、ユーザはなぜ選手が大声を出しているのか確認したいかもしれない。したがって、ユーザは、第1の視認方向から第2の視認方向へと視認方向を変更するために頭を振り向ける。当然のことながら、ユーザが第2の視認方向を見ることを決定してから時間が進んでいるので、ユーザは「パスをくれ」と大声で呼びかけている選手に関連した視覚的コンテンツを見損なった。しかし、見逃されたイベントコンテンツが、ユーザが確かに聞いたオーディオイベントに関連した見ていない視覚的イベントを、ユーザが見ることができるようにしてもよい。したがって、装置は、見逃した視覚的イベントをユーザが見ることができるように、仮想現実コンテンツの中のオーディオイベントに基づいた時点から、少なくとも視覚的画像の表示を、さらに任意選択で付随するオーディオを提供する。 As a result, the user may be able to see missed visual events that the user may have heard by listening to the relevant audio event and reacting to it by changing the viewing direction. Spatial audio, otherwise known as three-dimensional audio, is used to make audio perceived by a virtual reality user (consumer) so that the user perceives the audio events that make up the overall audio environment from a particular direction. The user may also hear an audio event whose corresponding visual event is outside the user's current virtual reality view. By the time the user sees the sensed direction of an audio event, for example, if the user reacts by moving his/her head and thus moving the virtual reality view in order to see a visual event related to the audio event just heard. The user may have missed some or all of the relevant video images (visual events) associated with the audio event. Thus, the device may "rewind" the virtual reality content so that the missed event content is visible to the user and, consequently, the visual event content associated with the audio event heard. For example, a user is looking ahead (ie, a first view direction) to a particular group of football players and then behind it (ie, outside the user's current view, in a second view direction). If the user hears a sound (audio event) that is perceived as coming from, for example, a player yells "give me a pass", the user may want to see why the player is yelling. Therefore, the user turns his/her head to change the viewing direction from the first viewing direction to the second viewing direction. Not surprisingly, as time has progressed since the user decided to look in the second viewing direction, the user missed the visual content associated with the player yelling "give me a pass". .. However, the missed event content may allow the user to see unseen visual events associated with audio events that the user has indeed heard. Thus, the device provides at least a visual image display and optionally an accompanying audio from a time based on the audio event in the virtual reality content so that the user can see the missed visual event. provide.

1つ以上の実施形態において、特定のオーディオイベントに関係する視覚的イベントは、第1の視認方向に向けられている場合の仮想現実ビューの中で視認可能でなかった。1つ以上の実施形態において、第1の視認方向に向けられている場合の仮想現実ビューの中で、対応する特定のオーディオイベントが発生した時にユーザの注目が前記視覚的イベントに置かれていなかった。 In one or more embodiments, the visual event associated with the particular audio event was not visible in the virtual reality view when oriented in the first viewing direction. In one or more embodiments, in the virtual reality view when oriented in the first viewing direction, the visual event is not focused on by the user when the corresponding specific audio event occurs. It was

1つ以上の実施形態において、見逃されたイベントコンテンツの時間的な開始点は、特定のオーディオイベントが始まったと以下のうちの1つ以上に基づいてみなされる時間に基づく:
提示される他の任意のオーディオに対する特定のオーディオイベントの分析、
特定のオーディオイベントの分析、および
仮想現実コンテンツの中のオーディオイベントのタイミングを少なくとも定義する所定のオーディオイベントデータ。
In one or more embodiments, the temporal starting point for missed event content is based on the time a particular audio event is considered to have started based on one or more of the following:
Analysis of a specific audio event for any other audio presented,
Predetermined audio event data that at least defines the analysis of a specific audio event and the timing of the audio event in the virtual reality content.

他の1つ以上の例において、特定のオーディオイベントが始まったとみなされる時間は、任意の適切な方法により判断され得る。 In one or more other examples, the time at which a particular audio event is considered to have begun may be determined by any suitable method.

1つ以上の実施形態において、見逃されたイベントコンテンツの提供は、第1の視認方向と第2の視認方向との間の視認方向の変更の度合いが方向変更閾値を超えることにさらに基づく。これは、仮想現実空間を何気なく見回してその中に提示されるビデオ画像を見ているユーザと、聞こえた音、つまりオーディオイベントに反応したユーザとを区別するために方向変更閾値が使用され得るので、有利かもしれない。方向変更閾値は、0.05度/ミリ秒超、0.06度/ミリ秒超、0.07度/ミリ秒超、0.08度/ミリ秒超、0.09度/ミリ秒超、またはそれ以上であってもよい。 In one or more embodiments, the provision of the missed event content is further based on a degree of change in the viewing direction between the first viewing direction and the second viewing direction exceeding a direction change threshold. This is because the redirection threshold can be used to distinguish between a user casually looking around the virtual reality space and looking at the video image presented therein, and a user who is audible, i.e. responding to an audio event. , May be advantageous. The direction change threshold is more than 0.05 degree/millisecond, more than 0.06 degree/millisecond, more than 0.07 degree/millisecond, more than 0.08 degree/millisecond, more than 0.09 degree/millisecond, Or it may be more.

1つ以上の実施形態において、見逃されたイベントコンテンツの提供は、オーディオ閾値(絶対オーディオ閾値であっても、ユーザに提示される他の任意のオーディオに対する相対閾値であってもよい)に対する特定のオーディオイベントの音量または周波数成分のうちの1つ以上にさらに基づく。これは、ユーザが反応したかもしれないオーディオイベントを識別するため、さらにそれに応じて適切な見逃されたイベントコンテンツを提供するために音量または周波数成分を使用できるので、有利かもしれない。VR(virtuarl reality:仮想現実)ビューの方向の変更は、オーディオイベント閾値を使用した1つ以上のオーディオイベント候補の識別を提供してもよく、その中から、第2の視認方向が特定のオーディオイベントの方向に方向閾値以内で一致することに基づいて、特定のオーディオイベントが識別される。 In one or more embodiments, the provision of missed event content is specific to an audio threshold (which may be an absolute audio threshold or a relative threshold to any other audio presented to the user). It is further based on one or more of the volume or frequency components of the audio event. This may be advantageous as the volume or frequency components may be used to identify audio events that the user may have responded to, and correspondingly provide appropriate missed event content. Changing the direction of a virtual reality (VR) view may provide identification of one or more audio event candidates using an audio event threshold, of which a second viewing direction is audio specific. A particular audio event is identified based on matching the direction of the event within a direction threshold.

1つ以上の実施形態において、特定のオーディオイベントの判断は、以下のうちの1つ以上に基づく:
a)仮想現実コンテンツの中で発生する1つ以上のオーディオイベントへの方向を備える所定のオーディオイベントデータ、および方向閾値以内の第2の視認方向と、1つ以上のオーディオイベントのうちの1つの方向との相互関係、
b)視認方向の変更に応答しての、ユーザが第2の視認方向で見る方向の特定のオーディオイベントを識別するための空間オーディオのオーディオ分析。
In one or more embodiments, the determination of a particular audio event is based on one or more of the following:
a) predetermined audio event data with directions to one or more audio events occurring in the virtual reality content, and a second viewing direction within a direction threshold, and one of the one or more audio events. Interaction with direction,
b) An audio analysis of the spatial audio in response to the change of viewing direction to identify a particular audio event in the viewing direction of the user in the second viewing direction.

1つ以上の例において、オーディオ分析は、オーディオ閾値に対する空間オーディオの音量および周波数成分のうちの1つ以上に基づく。 In one or more examples, the audio analysis is based on one or more of the volume and frequency components of spatial audio relative to the audio threshold.

1つ以上の実施形態において、所定のオーディオイベントデータは、以下のうちの1つ以上に基づく:
音量に基づく、周波数に基づく、および/または音声認識に基づく分析を含んでもよいオーディオ分析、
手動で提供されたオーディオイベントデータ、
VRコンテンツの中に捕捉される物体に関連するセンサから取得されるセンサデータ、
閾値を上回り急激に変化する局所的なビデオ画像を探す読唇分析および/またはアクション識別アルゴリズムを含んでもよい、ビデオ分析。
In one or more embodiments, the predetermined audio event data is based on one or more of the following:
Audio analysis, which may include volume-based, frequency-based, and/or voice-recognition-based analysis,
Manually provided audio event data,
Sensor data obtained from sensors associated with objects captured in VR content,
Video analysis, which may include lip-reading analysis and/or action identification algorithms looking for localized video images that change rapidly above a threshold.

したがって、1つ以上の例において、装置はオーディオイベントの所定の知識を有してもよく、見逃されたイベントコンテンツを提供するために、VRビューの第2の視認方向と、既知のオーディオイベントの1つとを照合するよう構成されてもよい。1つ以上の例において、装置は、オーディオイベントの知識を有しなくてもよく、視認方向を変更するようユーザを促した可能性のある、音の大きい部分(より一般的に音量特性)または特定の周波数を含む部分(より一般的に周波数特性)を求めて空間オーディオを分析してもよい。空間オーディオの分析は、方向閾値以内の第2の視認方向の方向に制約されてもよい。分析によりオーディオイベントが識別されるのに応答して、識別されたオーディオイベントに関連付けられた視覚的イベントを示すために、見逃されたイベントコンテンツが提供されてもよい。見逃されたイベントコンテンツの時間的な開始点は、オーディオ分析またはオーディオイベントデータに基づいてもよい。例えば開始点は、空間オーディオの音の大きい部分が発生したとき、または特定のオーディオ周波数を含む部分に基づいてもよい。当然のことながら、時間的な開始点は、オーディオイベントの開始より所定の期間前に開始してもよく、これは、ユーザがオーディオイベントの原因を理解する支援となり得る。 Therefore, in one or more examples, the device may have a predetermined knowledge of audio events, and in order to provide missed event content, a second viewing direction of the VR view and a known audio event may be used. It may be configured to match one. In one or more examples, the device may have no knowledge of the audio event and may be a loud part (more generally a volume characteristic) that may have prompted the user to change the viewing direction, or Spatial audio may be analyzed for portions (more generally frequency characteristics) that include a particular frequency. The spatial audio analysis may be constrained to a direction of the second viewing direction that is within the direction threshold. In response to the audio event being identified by the analysis, the missed event content may be provided to indicate a visual event associated with the identified audio event. The temporal starting point of missed event content may be based on audio analysis or audio event data. For example, the starting point may be based on when a loud part of the spatial audio occurs, or on the part containing a particular audio frequency. Of course, the temporal starting point may start a predetermined period before the start of the audio event, which may help the user understand the cause of the audio event.

したがって、1つ以上の例において、1つ以上のオーディオイベントが、オンザフライで判断されてもよく、または所定で(オーディオイベントデータが仮想現実コンテンツとともに提供されて)もよく、装置は、第2のVR視認方向がオーディオイベント候補の1つに一致することに基づいて特定のオーディオイベントへのユーザの関心を判断するよう構成されてもよい。あるいは、またはさらに、装置は、ユーザによる視認方向の変更が、ユーザが反応した可能性のある特定のオーディオイベントを識別する識別プロセスを提供するように構成されてもよい。要するに、視認方向の変更に応答して、装置は、オーディオイベントをユーザが反応した可能性のある特定のオーディオイベントとして識別するために、第2の方向の方向閾値以内の空間オーディオの分析を提供してもよい。その結果、適切な見逃されたイベントコンテンツが提供され得る。 Thus, in one or more examples, one or more audio events may be determined on-the-fly, or may be predetermined (audio event data provided with virtual reality content), and the device may It may be configured to determine a user's interest in a particular audio event based on a VR viewing direction matching one of the audio event candidates. Alternatively, or in addition, the device may be configured so that a change in viewing direction by a user provides an identification process that identifies a particular audio event that the user may have responded to. In summary, in response to a change in viewing direction, the device provides an analysis of spatial audio within a direction threshold of a second direction to identify the audio event as a particular audio event that the user may have responded to. You may. As a result, appropriate missed event content may be provided.

1つ以上の実施形態において、見逃されたイベントコンテンツの表示は、仮想現実コンテンツの一時的な停止と、見逃されたイベントコンテンツの仮想現実ビューにおける表示とを提供することを含む。 In one or more embodiments, displaying the missed event content includes providing a temporary stop of the virtual reality content and displaying the missed event content in a virtual reality view.

1つ以上の実施形態において、特定のオーディオイベントの方向へ向かう視認方向の変更に応答して、見逃されたイベントコンテンツが始まる時点まで仮想現実コンテンツが巻き戻されるようにユーザに見えるよう時間の点で逆に仮想現実コンテンツの表示を提供する。 In one or more embodiments, in response to a change in viewing direction towards a particular audio event, a point in time at which the virtual reality content appears to the user to rewind until the point at which the missed event content begins. On the contrary, it provides a display of virtual reality content.

1つ以上の実施形態において、時間の点で逆に仮想現実コンテンツを表示することは、ユーザが第2の視認方向で止まると始まってもよい。1つ以上の実施形態において、時間の点で逆に仮想現実コンテンツを表示することは、ユーザが止まる可能性のある第2の視認方向の予測に基づいて、視認方向の変更をユーザが開始するのに伴い始まってもよい。例えば、オーディオイベントデータが、ユーザがVRビューを変更する大体の方向のオーディオイベントを示し、その結果、ユーザが前記オーディオイベントに向かって振り向くとの予測が可能であってもよい。 In one or more embodiments, displaying the virtual reality content conversely in time may begin when the user stops in the second viewing direction. In one or more embodiments, displaying virtual reality content conversely in terms of time causes the user to initiate a viewing direction change based on a second viewing direction prediction that may cause the user to stop. It may start with. For example, it may be possible for the audio event data to indicate an audio event in the general direction in which the user modifies the VR view, so that the user may turn around towards the audio event.

1つ以上の実施形態において、見逃されたイベントコンテンツは、以下のうちの1つ以上を備える:
i)仮想現実コンテンツのビデオ画像から抽出された見逃されたイベントビデオ画像、
ii)仮想現実コンテンツのビデオ画像から抽出された見逃されたイベント静止画像、
iii)仮想現実コンテンツのビデオ画像から抽出された見逃されたイベントの仮想現実コンテンツであって、見逃されたイベントの仮想現実コンテンツの少なくとも初期の視認方向は、特定のオーディオイベントの方向に合致する、見逃されたイベントの仮想現実コンテンツ、
iv)仮想現実コンテンツのビデオ画像から抽出された見逃されたイベントの仮想現実コンテンツであって、見逃されたイベントの仮想現実コンテンツは、仮想現実コンテンツの空間範囲未満の空間範囲を有し、特定のオーディオイベントの方向が焦点とされる、見逃されたイベントの仮想現実コンテンツ。
In one or more embodiments, the missed event content comprises one or more of the following:
i) Missed event video images extracted from virtual reality content video images,
ii) Missed event still images extracted from the virtual reality content video images,
iii) virtual reality content of a missed event extracted from a video image of the virtual reality content, wherein at least an initial viewing direction of the virtual reality content of the missed event matches the direction of the particular audio event, Virtual reality content for missed events,
iv) Virtual reality content of the missed event extracted from the video image of the virtual reality content, the virtual reality content of the missed event having a spatial extent less than the spatial extent of the virtual reality content, Virtual reality content for missed events that focuses on the direction of the audio event.

1つ以上の実施形態において、見逃されたイベントコンテンツは、仮想現実コンテンツとともに仮想現実ビューの中でピクチャインピクチャとして表示するために提供される。本例では、仮想現実コンテンツは時間的に中断されず、その結果、仮想現実コンテンツの表示を継続する一方で、同時に、時間的に前の見逃された視覚的イベントを示してもよい。 In one or more embodiments, missed event content is provided for display as picture-in-picture in a virtual reality view along with virtual reality content. In this example, the virtual reality content is not interrupted in time, so that the virtual reality content continues to be displayed while at the same time indicating a temporally previous missed visual event.

1つ以上の実施形態において、見逃されたイベントコンテンツの表示が完了すると、仮想現実コンテンツの表示は、第1の視認方向から第2の視認方向への視認方向の変更の時間に一致する時点から再開される。仮想現実コンテンツの表示の再開は、仮想現実ビューの現在の視認方向を用いてもよく、これは、ほぼ第2の視認方向であってもよい。 In one or more embodiments, when the display of the missed event content is complete, the virtual reality content is displayed from a point in time that coincides with the time of changing the viewing direction from the first viewing direction to the second viewing direction. It will be restarted. Resuming the display of the virtual reality content may use the current viewing direction of the virtual reality view, which may be approximately the second viewing direction.

1つ以上の実施形態において、見逃されたイベントコンテンツの表示が完了すると、仮想現実コンテンツが、少なくとも一時的に実時間よりも高い再生速度での表示のために提供される。これは、見逃されたイベントコンテンツが表示のために提供されなければ再生されていたであろうところまで追いつくように仮想現実コンテンツの再生を提供してもよい。これは、仮想現実コンテンツが事前に記録された仮想現実コンテンツではなく生の仮想現実コンテンツを備える場合に特に有用かもしれない。 In one or more embodiments, upon completion of display of missed event content, virtual reality content is provided for display at a playback speed that is at least temporarily higher than real time. This may provide playback of virtual reality content to catch up to where the missed event content would have been played if not provided for display. This may be particularly useful if the virtual reality content comprises raw virtual reality content rather than pre-recorded virtual reality content.

1つ以上の実施形態において、方向閾値は、90°未満、70°未満、45°未満、または30°未満であってもよい。1つ以上の実施形態において、ユーザは、短い間のみ聞こえた音の発生源の方を正確に見ることができないかもしれず、そこで方向閾値が、特定のオーディオイベントを識別するための許容誤差を提供するので、方向閾値は有利かもしれない。 In one or more embodiments, the orientation threshold may be less than 90°, less than 70°, less than 45°, or less than 30°. In one or more embodiments, the user may not be able to accurately see the source of sound heard only for a short time, where the directional threshold provides a tolerance for identifying a particular audio event. Therefore, the direction threshold may be advantageous.

第2の側面において、方法が提供される。本方法は、
仮想現実の中での視認用の仮想現実空間を提供するよう構成されたビデオ画像を備える仮想現実コンテンツであって、ユーザに提示される仮想現実ビューが仮想現実コンテンツの視認を提供し、仮想現実ビューは、仮想現実空間を構成するビデオ画像の空間的な一部を備え、仮想現実空間のビデオ画像の空間範囲よりも空間範囲が小さく、仮想現実コンテンツは、空間オーディオを含み、ビデオ画像の中の視覚的イベントに関係するオーディオイベントへの感知される方向が、仮想現実空間の中で提示される前記視覚的イベントの視覚的位置に対応する、仮想現実コンテンツに関して、
仮想現実ビューの視認方向の、第1の視認方向から第2の視認方向へのユーザによる変更であって、前記第2の視認方向は、視認方向の変更より前に開始が発生した特定のオーディオイベントの方向に方向閾値以内で一致する、変更に基づいて、
見逃されたイベントコンテンツの表示を提供することであって、見逃されたイベントコンテンツは、仮想現実コンテンツのビデオ画像から抽出された視覚的画像を少なくとも有し、視覚的画像は、特定のオーディオイベントに対応する視覚的イベントを示し、見逃されたイベントコンテンツの時間的な開始点は、視認方向の変更が発生した仮想現実コンテンツの中の時間的な点よりも前であり、特定のオーディオイベントに基づく、提供すること、
を含む。
In a second aspect, a method is provided. The method is
Virtual reality content comprising video images configured to provide a virtual reality space for viewing in virtual reality, wherein a virtual reality view presented to a user provides viewing of the virtual reality content, The view comprises a spatial portion of the video images that make up the virtual reality space, has a smaller spatial extent than the spatial extent of the video images in the virtual reality space, and the virtual reality content includes spatial audio and Of virtual reality content, wherein the perceived direction to the audio event associated with the visual event corresponds to the visual position of said visual event presented in virtual reality space,
A change in a viewing direction of a virtual reality view from a first viewing direction to a second viewing direction by a user, wherein the second viewing direction is a specific audio whose start occurs before the viewing direction change. Based on the changes that match the direction of the event within the direction threshold,
Providing a display of missed event content, the missed event content having at least a visual image extracted from a video image of the virtual reality content, the visual image being at a particular audio event. It shows the corresponding visual event, and the missed event content has a temporal start point before the temporal point in the virtual reality content where the viewing direction change occurred and is based on the particular audio event. To provide,
including.

第3の側面において、コンピュータ可読媒体上に記憶されたコンピュータプログラムコードを備える、コンピュータ可読媒体が提供され、コンピュータ可読媒体およびコンピュータプログラムコードは、少なくとも1つのプロセッサ上で実行されると、
仮想現実の中での視認用の仮想現実空間を提供するよう構成されたビデオ画像を備える仮想現実コンテンツであって、ユーザに提示される仮想現実ビューが仮想現実コンテンツの視認を提供し、仮想現実ビューは、仮想現実空間を構成するビデオ画像の空間的な一部を備え、仮想現実空間のビデオ画像の空間範囲よりも空間範囲が小さく、仮想現実コンテンツは、空間オーディオを含み、ビデオ画像の中の視覚的イベントに関係するオーディオイベントへの感知される方向が、仮想現実空間の中で提示される前記視覚的イベントの視覚的位置に対応する、仮想現実コンテンツに関して、
仮想現実ビューの視認方向の、第1の視認方向から第2の視認方向へのユーザによる変更であって、前記第2の視認方向は、視認方向の変更より前に開始が発生した特定のオーディオイベントの方向に方向閾値以内で一致する、変更に基づいて、
見逃されたイベントコンテンツの表示の提供であって、見逃されたイベントコンテンツは、仮想現実コンテンツのビデオ画像から抽出された視覚的画像を少なくとも有し、視覚的画像は、特定のオーディオイベントに対応する視覚的イベントを示し、見逃されたイベントコンテンツの時間的な開始点は、視認方向の変更が発生した仮想現実コンテンツの中の時間的な点よりも前であり、特定のオーディオイベントに基づく、提供をする、
方法を実行するよう構成されている。
In a third aspect, there is provided a computer readable medium comprising computer program code stored on the computer readable medium, the computer readable medium and the computer program code executing on at least one processor,
Virtual reality content comprising video images configured to provide a virtual reality space for viewing in virtual reality, wherein a virtual reality view presented to a user provides viewing of the virtual reality content, The view comprises a spatial portion of the video images that make up the virtual reality space, has a smaller spatial extent than the spatial extent of the video images in the virtual reality space, and the virtual reality content includes spatial audio and Of virtual reality content, wherein the perceived direction to the audio event associated with the visual event corresponds to the visual position of said visual event presented in virtual reality space,
A change in a viewing direction of a virtual reality view from a first viewing direction to a second viewing direction by a user, wherein the second viewing direction is a specific audio whose start occurs before the viewing direction change. Based on the changes that match the direction of the event within the direction threshold,
Providing a display of missed event content, the missed event content having at least a visual image extracted from a video image of the virtual reality content, the visual image corresponding to a particular audio event. Presents a visual event, and the missed event content has a temporal start point before the temporal point in the virtual reality content where the viewing direction change occurred, and is based on a specific audio event. do,
The method is configured to perform.

さらなる側面において、装置が提供され、装置は、仮想現実の中での視認用の仮想現実空間を提供するよう構成されたビデオ画像を備える仮想現実コンテンツであって、ユーザに提示される仮想現実ビューが仮想現実コンテンツの視認を提供し、仮想現実ビューは、仮想現実空間を構成するビデオ画像の空間的な一部を備え、仮想現実空間のビデオ画像の空間範囲よりも空間範囲が小さく、仮想現実コンテンツは、空間オーディオを含み、ビデオ画像の中の視覚的イベントに関係するオーディオイベントへの感知される方向が、仮想現実空間の中で提示される前記視覚的イベントの視覚的位置に対応する、仮想現実コンテンツに関して、
仮想現実ビューの視認方向の、第1の視認方向から第2の視認方向へのユーザによる変更であって、前記第2の視認方向は、視認方向の変更より前に開始が発生した特定のオーディオイベントの方向に方向閾値以内で一致する、変更に基づいて、
見逃されたイベントコンテンツの表示の提供であって、見逃されたイベントコンテンツは、仮想現実コンテンツのビデオ画像から抽出された視覚的画像を少なくとも有し、視覚的画像は、特定のオーディオイベントに対応する視覚的イベントを示し、見逃されたイベントコンテンツの時間的な開始点は、視認方向の変更が発生した仮想現実コンテンツの中の時間的な点よりも前であり、特定のオーディオイベントに基づく、提供をする、
よう構成された手段を備える。
In a further aspect, a device is provided, the device being virtual reality content comprising video images configured to provide a virtual reality space for viewing in virtual reality, the virtual reality view being presented to a user. Provides a view of the virtual reality content, and the virtual reality view comprises a spatial portion of the video images that make up the virtual reality space and has a smaller spatial extent than the spatial extent of the video images in the virtual reality space. The content includes spatial audio, wherein the perceived direction to the audio event related to the visual event in the video image corresponds to the visual location of the presented visual event in virtual reality space, Regarding virtual reality content,
A change in a viewing direction of a virtual reality view from a first viewing direction to a second viewing direction by a user, wherein the second viewing direction is a specific audio whose start occurs before the viewing direction change. Based on the changes that match the direction of the event within the direction threshold,
Providing a display of missed event content, the missed event content having at least a visual image extracted from a video image of the virtual reality content, the visual image corresponding to a particular audio event. Presents a visual event, and the missed event content has a temporal start point before the temporal point in the virtual reality content where the viewing direction change occurred, and is based on a specific audio event. do,
And means configured as described above.

本開示は、1つ以上の対応する側面、例、または特徴を、単独または様々な組み合わせで含み、これは、その組み合わせまたは単独で特に記載(特許請求を含む)されたか否かにかかわらない。記載される機能のうちの1つ以上を実行する関連する手段および関連する機能ユニット(例えば機能イネーブラ、ビデオ画像抽出器、ビデオ画像コンパイラ、視認方向測定器、視認方向変更器、ビデオプレーヤ、方向センサ)も本開示の範囲内である。 This disclosure includes one or more corresponding aspects, examples, or features, alone or in various combinations, whether or not specifically described (including claimed) in that combination or alone. Associated means and associated functional units for performing one or more of the functions described (eg functional enabler, video image extractor, video image compiler, view direction measuring device, view direction changer, video player, direction sensor). ) Is also within the scope of the present disclosure.

開示された方法の1つ以上を実装する対応するコンピュータプログラムも本開示の範囲内にあり、記載された例の1つ以上に含まれる。 Corresponding computer programs implementing one or more of the disclosed methods are also within the scope of the present disclosure and included in one or more of the described examples.

上記の概要は、単なる例示であり非限定的なものとして意図されている。 The above summary is intended as illustrative only and not limiting.

以下、単なる例として、添付の図面を参照しながら説明を行う。 The following description is given, by way of example only, with reference to the accompanying drawings.

装置の例示の実施形態を、仮想現実装置とともに示す。An exemplary embodiment of a device is shown with a virtual reality device. 仮想現実空間の中で第1の視認方向を見ているユーザと、オーディオイベントの発生の位置とを示す例示の平面図を示す。FIG. 3 shows an exemplary plan view showing a user looking in a first viewing direction in a virtual reality space and a position of occurrence of an audio event. オーディオイベントに反応したが関連する視覚的イベントを見逃した、仮想現実空間の中で第2の視認方向を見ているユーザを示す例示の平面図を示す。FIG. 6 illustrates an exemplary plan view showing a user in a virtual reality space looking at a second viewing direction that has responded to an audio event but missed a related visual event. 例示の見逃されたイベントコンテンツを示す。4 illustrates example missed event content. 見逃されたイベントコンテンツの表示後の仮想現実コンテンツの続行を示す。FIG. 7 illustrates continuation of virtual reality content after display of missed event content. 例示のオーディオイベントデータを示す。3 illustrates exemplary audio event data. オーディオ分析の例を示す。An example of audio analysis is shown. 例示の方法を示すフローチャートを示す。3 shows a flow chart illustrating an exemplary method. コンピュータ可読媒体を示す。3 illustrates a computer-readable medium.

例示の側面の説明Description of example aspects

仮想現実(VR)は、グラスもしくはゴーグルなどのヘッドセットまたはユーザを囲む1つ以上のディスプレイを使用してユーザに没入型仮想体験を提供し得る。仮想現実装置は、仮想現実空間を表すマルチメディア仮想現実コンテンツをユーザに提示して、ユーザが仮想現実空間の中に存在するのをシミュレートすることもある。仮想現実空間は、実世界環境を再現してユーザが物理的に実世界の位置に存在するのをシミュレートすることもある。または、仮想現実空間は、コンピュータ生成されることも、もしくはコンピュータ生成されたコンテンツと実世界マルチメディアコンテンツとの組み合わせであることもある。仮想現実空間は、広視野または360°の視野(水平方向の視野の上方および/または下方を含む場合もある)を有するビデオなどのパノラマ式ビデオにより提供されることもある。要するに、仮想現実空間は、VRコンテンツのビデオ画像が表示のために提供される、仮想3次元環境を提供する。ユーザはそのVRビュー、すなわちVR空間のビデオ画像を視認するためののぞき窓として、仮想現実空間の空間サブセットを提供される。仮想現実装置は、表示される仮想現実空間とのユーザのやり取りを提供することもある。ユーザに提供される仮想現実コンテンツは、例えばパノラマ式ビデオ捕捉デバイスまたは仮想現実コンテンツ捕捉デバイスなど、仮想現実コンテンツ捕捉デバイスにより捕捉された、実世界の生のイメージまたは記録されたイメージを備えることもある。仮想現実コンテンツ捕捉デバイスの一例は、Nokia OZOカメラである。仮想現実空間は、360°以上の視野を提供することもあるし、VRユーザの頭または眼の動きに基づく前記視野のパン/回転を提供することもある。仮想現実空間の仮想現実ビューは、ヘッドセットのディスプレイを介して仮想現実装置により前記ユーザに提供されることもある。仮想現実空間は、仮想現実コンテンツのイメージから作成された3次元空間としてVR装置のユーザには見えるかもしれない。要するに、VRコンテンツは、(途切れがなく連続的な)ラップアラウンド型の視野を形成するようにともに表示および配列可能な、複数の視認方向から得られたイメージを備えることもある。 Virtual reality (VR) may provide a user with an immersive virtual experience using a headset such as glasses or goggles or one or more displays surrounding the user. The virtual reality device may also present multimedia virtual reality content representing the virtual reality space to the user to simulate the user's presence in the virtual reality space. The virtual reality space may reproduce the real world environment to simulate the physical presence of the user in the real world position. Alternatively, the virtual reality space may be computer-generated or a combination of computer-generated content and real-world multimedia content. Virtual reality space may also be provided by panoramic video, such as video with a wide field of view or a 360° field of view (which may include above and/or below the horizontal field of view). In essence, virtual reality space provides a virtual three-dimensional environment in which video images of VR content are provided for display. The user is provided with a spatial subset of the virtual reality space as a viewing window for viewing the VR view, ie the video image of the VR space. The virtual reality device may provide user interaction with the displayed virtual reality space. The virtual reality content provided to the user may comprise a real world live or recorded image captured by the virtual reality content capture device, eg, a panoramic video capture device or a virtual reality content capture device. .. An example of a virtual reality content capture device is a Nokia OZO camera. The virtual reality space may provide a field of view of 360° or more, and may provide pan/rotation of the field of view based on the movement of the VR user's head or eyes. A virtual reality view of the virtual reality space may be provided to the user by the virtual reality device via the display of the headset. The virtual reality space may be seen by the user of the VR device as a three-dimensional space created from the image of the virtual reality content. In essence, VR content may also comprise images obtained from multiple viewing directions that can be displayed and arranged together to form a (continuous and uninterrupted) wrap-around view.

仮想現実コンテンツは、その本質から、没入型である場合もあり、その結果、大量のデータを備えることもある。仮想現実コンテンツは、ユーザを取り囲むなどするような大きな空間範囲を有するビデオ画像(すなわち動画)を備えることもある。ユーザに提供される仮想現実ビューは、総面積よりも狭いビデオ画像の面積しか対象としないかもしれず、ユーザは、ビデオ画像が対象とする仮想現実空間の空間範囲全体を鑑賞するために、仮想現実ビューをあちこち動かす必要があるかもしれない。当然のことながら、時間とともに進行するVRビデオ画像に関しては、ユーザがあらゆる時点においてビデオ画像の空間部分すべてを見ることは不可能であり、その結果、イベントが本質的に見逃される。 By its very nature, virtual reality content may be immersive and, as a result, may include large amounts of data. Virtual reality content may also include video images (ie, moving images) that have a large spatial extent, such as surrounding a user. The virtual reality view presented to the user may only cover the area of the video image that is smaller than the total area, and the user may be required to view the entire spatial extent of the virtual reality space covered by the video image in order to You may need to move the view around. Of course, for VR video images that progress over time, it is not possible for the user to see all of the spatial portion of the video image at any given time, resulting in the event being essentially missed.

VRコンテンツは、空間オーディオとともに提示されることもある。空間オーディオは、ほかに三次元オーディオまたは指向性オーディオとしても知られ、仮想現実のユーザ(消費者)がオーディオの各要素を特定の方向から生じているものと感知するようにユーザにオーディオを提示する。したがって、VRコンテンツを消費しているユーザに提示されるオーディオは、特定の方向から来ていないものとして感知される背景音楽などの周辺または無指向性オーディオと、特定の方向から生じているとユーザにより感知される指向性オーディオとを備えることもある。当然のことながら、仮想現実コンテンツ内のイベントは、登場人物が発話する、車がエンジン回転速度を上げる、ホッケーパックが打撃されるなどの付随するオーディオを生成する。したがって、ユーザの仮想現実ビューの左側に視覚的に現れる、発話中の登場人物の声は、左手側から生じる指向性オーディオとして提示され得る。ここで、オーディオイベントは、仮想現実コンテンツの中で発生している視覚的イベントに関連付けられた指向性オーディオの、少なくとも時間を基準にした、一部を備えてもよい。したがって、発話されるモノローグのオーディオイベントは、VRコンテンツの視覚的画像の中のモノローグを発話している登場人物の視覚的イベントに関連付けられてもよい。「バシッ」と打つ音のオーディオイベントは、ホッケーパックの打撃がその音を生成したのであるから、ホッケーパックがホッケー選手により打撃される視覚的イベントに関連付けられてもよい。当然のことながら、ユーザに提示される空間オーディオは、様々な方向から生じるものとして感知される、多数の指向性音、すなわちオーディオイベントを含むこともある。 VR content may also be presented with spatial audio. Spatial audio, otherwise known as 3D audio or directional audio, presents audio to the virtual reality user (consumer) so that the user perceives each element of audio as originating from a particular direction. To do. Therefore, the audio presented to a user consuming VR content is said to have originated from a particular direction, as well as peripheral or omnidirectional audio such as background music that is perceived as not coming from a particular direction. And directional audio sensed by. Not surprisingly, the events in the virtual reality content produce accompanying audio, such as spoken by a character, the car speeds up the engine, the hockey puck is hit, and so on. Thus, the voice of the speaking character, which visually appears to the left of the user's virtual reality view, may be presented as directional audio originating from the left hand side. Here, the audio event may comprise at least a time-based portion of the directional audio associated with the visual event occurring in the virtual reality content. Accordingly, the spoken monologue audio event may be associated with the visual event of the character speaking the monologue in the visual image of the VR content. A “bashing” audio event may be associated with a visual event where the hockey puck is struck by a hockey player, because the hockey puck's striking produced that sound. Of course, the spatial audio presented to the user may also include numerous directional sounds, or audio events, that are perceived as originating from different directions.

上述のとおり、仮想現実ビューは、VRコンテンツのビデオ画像の総空間範囲の一部のみを備えるが、ユーザに提示されるオーディオは、現実と同様に、仮想現実ビューの空間範囲外の方向で生じているものと感知される指向性オーディオを含むこともある。したがって、ユーザは、指向性オーディオを聞いても、そのオーディオイベントが発生した時、違う方向を見ていたことが理由で、関連付けられた視覚的イベントを目撃しないかもしれない。 As mentioned above, the virtual reality view comprises only part of the total spatial extent of the video image of the VR content, but the audio presented to the user, like reality, occurs in a direction outside the spatial extent of the virtual reality view. It may also include directional audio that is perceived as being present. Thus, a user may hear directional audio but not see the associated visual event because he was looking in a different direction when the audio event occurred.

ユーザは、オーディオイベントが聞こえるとすぐに反応して、オーディオイベントの感知された方向を見るためにVRビューの方向を変更するかもしれないが、ビデオ画像内の関連付けられた視覚的イベントは見逃したかもしれない。これは、ユーザの混乱を招く可能性があり、ユーザがVRコンテンツを理解するのを難しくする可能性も、または発生したイベントを完全に理解するために異なる視認方向でコンテンツを数回見ることを要する可能性もある。 The user may react as soon as the audio event is heard, changing the direction of the VR view to see the sensed direction of the audio event, but missed the associated visual event in the video image. It may be. This can be confusing to the user and can make it difficult for the user to understand the VR content, or to view the content several times in different viewing directions to fully understand the event that occurred. It may take.

図1は、ユーザが聞いた特定のオーディオイベントに対応する視覚的イベントを示し仮想現実コンテンツのビデオ画像から抽出された視覚的画像を少なくとも備える、見逃されたイベントコンテンツの表示を提供するよう構成された装置100を示す。したがって、ユーザは、関連するオーディオイベントを聞いた視覚的イベントを見ることができるかもしれない。 FIG. 1 is configured to provide a display of missed event content comprising at least a visual image extracted from a video image of virtual reality content showing a visual event corresponding to a particular audio event heard by a user. 1 shows a device 100. Thus, the user may be able to see a visual event that has heard the associated audio event.

装置100は、仮想現実コンテンツをユーザに提示するよう構成された仮想現実デバイス101の一部であってもよい。仮想現実デバイス101は、ヘッドセットを備えてもよいVRディスプレイ102を介してユーザにVR空間のVRビューを提示してもよい。VRディスプレイ102上でユーザに提供されるVRビューは、ユーザが頭を動かすことでVR空間を見回すことができるように、VRディスプレイの向きに基づいてもよい。当然のことながら、他のタイプのディスプレイおよび仮想現実空間を「見回す」ための他の手段が提供されてもよい。一部の例では装置100は、メモリ101aおよび少なくとも1つのプロセッサ101bをそれぞれが備え得るコンピュータ、仮想現実デバイス101、またはコンピュータサーバにより機能的に提供されるが、他の例では装置は、コンピュータ、携帯電話、またはVRデバイス101と通信する下記に列挙される他の装置などの電子デバイスであってもよい。この例において仮想現実デバイス101は、仮想現実コンテンツが記憶される(過渡的または一時的に記憶されることを含み得る)仮想現実コンテンツストア103から、仮想現実コンテンツを受信するよう構成される。したがって、仮想現実コンテンツは、生のコンテンツであってもよく、ストア103は、表示またはその先の伝送経路の、メモリまたはバッファであってもよい。装置100は、仮想現実空間の中のどこをユーザが見ているかの指示、ならびにユーザに提示されるオーディオについてのオーディオイベントの位置と、オーディオ自体と、オーディオ分析情報とのうちの1つ以上の指示を受信してもよい。オーディオイベントデータは、所定であってもよく、または装置100もしくは別の装置105により生成されてもよい。 The apparatus 100 may be part of a virtual reality device 101 configured to present virtual reality content to a user. Virtual reality device 101 may present a VR view of VR space to a user via VR display 102, which may include a headset. The VR view provided to the user on the VR display 102 may be based on the orientation of the VR display so that the user can look around the VR space by moving his head. Of course, other types of displays and other means for "looking around" the virtual reality space may be provided. In some examples, the device 100 is functionally provided by a computer, a virtual reality device 101, or a computer server, each of which may include a memory 101a and at least one processor 101b, while in other examples the device is a computer, It may be an electronic device such as a mobile phone or other device listed below that communicates with the VR device 101. In this example, virtual reality device 101 is configured to receive virtual reality content from virtual reality content store 103, where virtual reality content may be stored (which may include transient or temporary storage). Thus, the virtual reality content may be raw content and the store 103 may be a memory or a buffer of the transmission path of the display or beyond. The device 100 provides an indication of where in the virtual reality space the user is looking, as well as the location of the audio event for the audio presented to the user, the audio itself, and audio analysis information. The instructions may be received. Audio event data may be predetermined or may be generated by device 100 or another device 105.

VRコンテンツは、仮想現実コンテンツ捕捉デバイス104により提供されてもよい。別の装置105は、オーディオイベントデータを作成するよう構成されてもよく、オーディオイベントデータは、VRコンテンツとともにVRコンテンツストア103に記憶されてもよい。他の1つ以上の例では、別の装置105は提供されず、オーディオイベントの発生および方向は、装置100またはそれに関連する装置により決定されてもよい。 VR content may be provided by virtual reality content capture device 104. Another device 105 may be configured to create audio event data, which may be stored in VR content store 103 along with VR content. In another one or more examples, another device 105 is not provided and the occurrence and direction of the audio event may be determined by the device 100 or related devices.

1つ以上の例において、オーディオイベントデータは、捕捉中または制作後に仮想現実コンテンツの人間による分析に基づいて手動で提供されてもよく、したがって、別の装置105がオーディオイベントデータのデータエントリを表現してもよい。1つ以上の例において、オーディオイベントデータは、空間オーディオのコンピュータに基づくオーディオ分析に基づいて自動的に生成されてもよく、これは、VRコンテンツの制作中に提供されてもよいし、制作後に提供されてもよい。1つ以上の例において、オーディオイベントデータは、装置100および/またはVRデバイス101などによって、ユーザに対する表示のために仮想現実コンテンツを準備する一環として、またはユーザに仮想現実コンテンツを表示する間に、オンザフライで生成される。当然のことながら、コンテンツ捕捉デバイス104および別の装置105は、VRコンテンツストアに接続されて示されているが、これはシステム全体を理解するためのものにすぎず、装置100は別の装置105の有無にかかわらず記録済みVRコンテンツを用いて動作してもよい。 In one or more examples, audio event data may be provided manually based on human analysis of virtual reality content during capture or after production, thus another device 105 represents a data entry of audio event data. You may. In one or more examples, audio event data may be automatically generated based on computer-based audio analysis of spatial audio, which may be provided during the production of VR content, or post-production. May be provided. In one or more examples, the audio event data can be provided by the device 100 and/or VR device 101, etc., as part of preparing virtual reality content for display to a user, or while displaying virtual reality content to a user. Generated on the fly. Of course, the content capture device 104 and another device 105 are shown connected to the VR content store, but this is only for understanding the entire system, and device 100 is another device 105. The recorded VR content may be used regardless of whether or not the operation is performed.

この実施形態において、上述した装置100(または他の電子デバイス)は、1つのプロセッサ101bおよび1つのメモリ101aしか有しなくてもよいが、当然のことながら他の実施形態は、2つ以上のプロセッサおよび/または2つ以上のメモリ(例えば同じまたは異なるプロセッサ/メモリタイプ)を利用してもよい。さらに装置100は、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)であってもよい。 In this embodiment, the apparatus 100 (or other electronic device) described above may have only one processor 101b and one memory 101a, although, of course, other embodiments include more than one. A processor and/or more than one memory (eg, the same or different processor/memory types) may be utilized. Further, the device 100 may be an application specific integrated circuit (ASIC).

プロセッサは、メモリ内のコンピュータプログラムコードの形態で記憶された命令に従って、コンテンツストア103およびVRデバイス101などの他のコンポーネントから受信される情報の実行/処理のみを行う汎用プロセッサであってもよい。プロセッサのかかる動作により生成された出力シグナリングは、見逃されたイベントコンテンツの表示のためVR装置101などその先のさらなるコンポーネントに提供される。 The processor may be a general purpose processor that only executes/processes information received from the content store 103 and other components such as VR device 101 in accordance with instructions stored in the form of computer program code in memory. The output signaling generated by such operation of the processor is provided to further components, such as VR device 101, for display of missed event content.

メモリ(必ずしも単一のメモリユニットとは限らない)は、コンピュータプログラムコードを記憶するコンピュータ可読媒体(本例ではソリッドステートメモリであるが、ハードドライブ、ROM、RAM、フラッシュ、または同様のものなどの他のタイプのメモリであってもよい)である。このコンピュータプログラムコードは、プログラムコードがプロセッサ上で実行されるとプロセッサにより実行可能な命令を格納する。メモリとプロセッサとの内部接続は、1つ以上の例示の実施形態において、プロセッサとメモリとのアクティブな結合を提供して、プロセッサがメモリに記憶されたコンピュータプログラムコードにアクセスできるようにするものと理解することができる。 Memory (not necessarily a single memory unit) is a computer-readable medium that stores computer program code (solid state memory in this example, but is not limited to a hard drive, ROM, RAM, flash, or the like). It may be another type of memory). The computer program code stores instructions executable by the processor when the program code is executed on the processor. An interconnect between the memory and the processor, in one or more exemplary embodiments, provides an active coupling between the processor and the memory to allow the processor to access computer program code stored in the memory. I can understand.

本例では、プロセッサおよびメモリはすべて、内部で相互に電気的に接続され、個々のコンポーネント間の電気通信が可能である。本例では、ASICとしてともに構成されるように、言い換えれば電子デバイスに設置可能な単一のチップ/回路としてともに統合されるように、コンポーネントはすべて相互に近接して位置する。一部の例では、コンポーネントの1つ以上または全部が相互に別々に位置してもよい。 In this example, the processor and memory are all electrically connected to each other internally, allowing electrical communication between the individual components. In this example, the components are all located in close proximity to each other such that they are configured together as an ASIC, in other words integrated together as a single chip/circuit that can be installed in an electronic device. In some examples, one or more or all of the components may be located separately from each other.

図2は、本例ではヘッドセットを備える、VRディスプレイ102を着用したユーザ200を示す例示の平面図を示す。ユーザ200は、VRコンテンツ202を見ている。VRコンテンツ202は、VRコンテンツのビデオ画像が仮想現実空間においてユーザを包み込むよう複数の視認方向に表示される様子に類似した、ユーザを取り囲むリングとして図形で示されている。図2において、ユーザ200は、仮想現実空間内の第1の視認方向203の、視野線204、205により画定される、VRコンテンツのビデオ画像の一部を見ている。 FIG. 2 shows an exemplary plan view showing a user 200 wearing a VR display 102, which in this example comprises a headset. The user 200 is watching the VR content 202. The VR content 202 is depicted graphically as a ring that surrounds the user, similar to how a video image of the VR content is displayed in multiple viewing directions so as to surround the user in virtual reality space. In FIG. 2, a user 200 is looking at a portion of a video image of VR content defined by lines of sight 204, 205 in a first viewing direction 203 in virtual reality space.

図2はさらに、オーディオイベント206の発生を示す。オーディオイベント206は、空間オーディオを備えるので、特定の方向から生じるものとしてユーザ200により感知される。オーディオイベント206は、視覚的イベント207に関連する。ユーザ200は、第1の方向を見ていて、視覚的イベント207は、第2の方向において発生するので、ユーザ200は視覚的イベント207を見ないということが分かり、理解のために図2に示されている。オーディオイベントは、ホッケー用スティック208がパック210を打つ音を備える。したがって、オーディオイベント206に関連する視覚的イベント207は、オーディオイベント206を備える音の発生源の視覚的画像を備える。本例では、オーディオイベント206の音の発生源は、選手211がそのホッケー用スティック208を用いてパック210を打つことである。 FIG. 2 further illustrates the occurrence of audio event 206. The audio event 206 comprises spatial audio and is therefore perceived by the user 200 as originating from a particular direction. Audio event 206 is related to visual event 207. Since the user 200 is looking in the first direction and the visual event 207 occurs in the second direction, it can be seen that the user 200 does not see the visual event 207. It is shown. The audio event comprises the sound of the hockey stick 208 hitting the puck 210. Accordingly, the visual event 207 associated with the audio event 206 comprises a visual image of the source of the sound that comprises the audio event 206. In this example, the source of sound for the audio event 206 is that the player 211 hits the puck 210 with his hockey stick 208.

図3は、ユーザ200が、おそらくオーディオイベント206に反応して、オーディオイベント206の感知された方向、すなわち第2の方向300を見るために頭を向けたところを示す。したがって、仮想現実ビューの視認方向が、第1の方向203から第2の方向300に変更されている。本例では、このVRビューの視認方向の変更は、ユーザ200の頭を向けることにより実施されているが、他の例では、別の方法でVRビューの制御が達成されてもよい。 FIG. 3 shows the user 200 turning his head to see the sensed direction of the audio event 206, the second direction 300, perhaps in response to the audio event 206. Therefore, the viewing direction of the virtual reality view is changed from the first direction 203 to the second direction 300. In this example, the change in the viewing direction of the VR view is performed by turning the head of the user 200, but in another example, the control of the VR view may be achieved by another method.

図3に示されるとおり、ユーザ200がオーディオイベント206に反応してVRビューを変更した時までには、オーディオイベント206に関係する視覚的イベント207の少なくとも一部を見逃している。本例において、オーディオイベント206は比較的短かったので、ユーザ200に提示されるVRビュー301は、今や、視覚的イベント207よりも時間的に遅く、たまたま選手211がパック210を打撃した後に喜んでいるように見えるところである。したがって、ユーザ200は、聞こえたオーディオイベント206に関係した視覚的イベント207を見逃した。 As shown in FIG. 3, by the time the user 200 changes the VR view in response to the audio event 206, he has missed at least some of the visual events 207 associated with the audio event 206. In this example, the audio event 206 was relatively short, so the VR view 301 presented to the user 200 is now later in time than the visual event 207 and is happy to happen after the player 211 hits the puck 210. It seems to be there. Therefore, the user 200 misses the visual event 207 related to the audio event 206 that was heard.

図4に関して記載されるように、本例において装置100は、第1の視認方向203から、第2の視認方向300であって、ユーザが聞いた特定のオーディオイベント206の方向300に方向閾値以内で一致する、前記第2の視認方向300へのユーザ200による仮想現実ビューの視認方向の変更に基づいて、見逃されたイベントコンテンツの表示を提供するよう構成される。したがって、オーディオイベント206の時間的な長さ、およびそれにユーザ200がどの程度迅速に反応するかによって、第2の方向300は、進行中のオーディオイベント206の方向であることも、または最近もしくは直前に発生したオーディオイベント206の方向であることもある。ユーザ200が反応したオーディオイベント206を判断する際、現在時間から過去へと、近時間閾値の分だけ延びる時間ウィンドウが使用されてもよい。近時間閾値は、ユーザ200が振り向いた特定のオーディオイベントを判断するときに、最後の1秒、2秒、3秒、4秒、5秒、6秒、7秒、8秒、9秒、10秒またはそれ以上までで発生した任意のオーディオイベントを含めるために設定されてもよい。さらに、当然のことながらユーザは、ユーザが聞いたオーディオイベント206の方向を厳密に見なくてもよい。よって、第2の方向300は、オーディオイベント206の方向に厳密に合致しなくてもよい。第2の方向300とオーディオイベント206の方向との許容誤差を提供するために、方向閾値が使用されてもよい。方向閾値は、5°未満、10°未満、15°未満、20°未満、30°未満、40°未満またはそれ以上に設定されてもよい。方向閾値は、例えば人間の聴き取り方向の認識精度に似るように、水平面および垂直面で異なる値を有してもよい。 As described with respect to FIG. 4, in this example the device 100 is within the direction threshold from the first viewing direction 203 to the second viewing direction 300 to the direction 300 of the particular audio event 206 heard by the user. Is configured to provide a display of missed event content based on a change in the viewing direction of the virtual reality view by the user 200 in the second viewing direction 300 that is consistent with. Thus, depending on the length of time of the audio event 206 and how quickly the user 200 reacts to it, the second direction 300 may also be the direction of the audio event 206 in progress, or recently or immediately before. May be the direction of the audio event 206 that has occurred. In determining the audio event 206 that the user 200 has responded to, a time window extending from the current time to the past by a near time threshold may be used. The near threshold is the last 1 second, 2 seconds, 3 seconds, 4 seconds, 5 seconds, 6 seconds, 7 seconds, 8 seconds, 9 seconds, 10 when determining the particular audio event that the user 200 turned around. It may be set to include any audio event that occurred in seconds or more. Moreover, it should be appreciated that the user does not have to look closely at the direction of the audio event 206 that the user heard. Therefore, the second direction 300 may not exactly match the direction of the audio event 206. A direction threshold may be used to provide a tolerance between the second direction 300 and the direction of the audio event 206. The direction threshold may be set to less than 5°, less than 10°, less than 15°, less than 20°, less than 30°, less than 40° or more. The direction threshold value may have different values in the horizontal plane and the vertical plane, for example, to resemble the recognition accuracy of the human listening direction.

視認方向を第1の視認方向203から第2の視認方向300に変更するユーザのアクションは、装置100が、見逃されたイベントコンテンツの表示を提供するよう促してもよい。第2の視認方向が最近のオーディオイベントと合致することは、この最近のオーディオイベントをユーザが振り向いた特定のオーディオイベントとして識別して見逃されたイベントコンテンツ400の表示を提供するよう装置100を促してもよい。視認方向の変更は、ユーザが反応した特定のオーディオイベントを識別し、その後、見逃されたイベントコンテンツの表示を提供するよう装置を促してもよい。装置は、見逃されたイベントコンテンツが利用可能であるとのユーザへのプロンプトを装置が提供した後に前記見逃されたイベントコンテンツを見たいとユーザが確認するのに応答して、見逃されたイベントコンテンツの表示を提供してもよい。よって、装置100は、ユーザが反応した特定のオーディオイベントを、視認方向の変化により識別するよう構成されてもよく、次に、見逃されたイベントコンテンツ400を見るためのプロンプトまたはオプションのユーザに対する提示を提供してもよい。第2の視認方向と、最近のオーディオイベントの方向との合致は、頻繁に発生する場合もあるので、見逃されたイベントコンテンツの表示または表示に関するプロンプトが煩わしいこともあり得る。したがって、装置100は、見逃されたイベントコンテンツの表示または表示に関するプロンプトを提供するかどうかを決定するとき、その決定を、第1の視認方向203と第2の視認方向300との間の視認方向の変更の度合いが方向変更閾値を超えることに基づいて下すよう構成されてもよい。これは装置が、仮想現実空間内に提示されるビデオ画像を何気なく仮想現実空間を見回して見ているユーザ200と、特定のオーディオイベント206に反応したユーザ200とを区別できるようにしてもよい。方向変更閾値(方向変更は例えばオーディオイベント206の方向へ向かうものである)は、0.05度/ミリ秒超、0.06度/ミリ秒超、0.07度/ミリ秒超、0.08度/ミリ秒超、0.09度/ミリ秒超、またはそれ以上であってもよい。変更の度合いについての情報は、VR装置101および/またはVRディスプレイ102により提供されてもよい。変更の度合いが相対的に速ければ、ユーザ200はオーディオイベントに反応したと推定されてもよく、その結果、見逃されたイベントコンテンツ400の表示または表示に関するプロンプトを提供する。変更の度合いが相対的に遅ければ、ユーザはオーディオイベントに反応したのではないと推定されてもよく、見逃されたイベントコンテンツは表示のために提供されない。あるいは、またはさらに、見逃されたイベントコンテンツを見たいかどうかをユーザに尋ねるプロンプトは表示のために提供されなくてもよい。 The user action of changing the viewing direction from the first viewing direction 203 to the second viewing direction 300 may prompt the device 100 to provide a display of missed event content. The matching of the second viewing direction with the recent audio event prompts the device 100 to identify this recent audio event as the particular audio event the user turned to and provide a display of the missed event content 400. May be. The change in viewing direction may prompt the device to identify the particular audio event that the user responded to and then provide an indication of the missed event content. The device responds to the user confirming that he/she wants to view the missed event content after the device provides a prompt to the user that the missed event content is available. May be provided. Thus, the device 100 may be configured to identify the particular audio event that the user has responded to by the change in viewing direction, and then present the user with a prompt or option to view the missed event content 400. May be provided. Since the matching between the second viewing direction and the direction of the recent audio event may occur frequently, the display of the missed event content or the prompt regarding the display may be troublesome. Therefore, when the device 100 determines whether to provide a display or prompt for displaying the missed event content, the device 100 makes that determination in the viewing direction between the first viewing direction 203 and the second viewing direction 300. May be configured to make a change based on a direction change threshold exceeding a direction change threshold. This may allow the device to distinguish between a user 200 casually looking around the video image presented in the virtual reality space and a user 200 reacting to a particular audio event 206. The direction change thresholds (direction changes are, for example, toward the audio event 206) are greater than 0.05 degrees/milliseconds, greater than 0.06 degrees/milliseconds, greater than 0.07 degrees/milliseconds, 0. It may be greater than 08 degrees/millisecond, greater than 0.09 degree/millisecond, or higher. Information about the degree of change may be provided by VR device 101 and/or VR display 102. If the rate of change is relatively fast, the user 200 may be presumed to have responded to the audio event, thus providing a display or prompt for the missed event content 400. If the degree of change is relatively slow, it may be assumed that the user did not react to the audio event and the missed event content is not provided for display. Alternatively, or additionally, a prompt asking the user if they want to see the missed event content may not be provided for display.

図4は、例示の見逃されたイベントコンテンツ400の3つのスクリーンショットを示す。当然のことながら、図4に示される3つの例示的なフレーム401、402、403は、見逃されたイベントコンテンツを備える連続的なビデオを表す。本例では、見逃されたイベントコンテンツ400は、ユーザ200が聞いたオーディオイベントに関連する視覚的イベント207の視覚的画像を備えたビデオを備える。他の例では、見逃されたイベントコンテンツは、一連の静止画、平らなビデオ(つまり、仮想現実空間を見回してビデオの異なる部分を見ることができない)、または仮想現実コンテンツであってもよい。本例では、見逃されたイベントコンテンツは、特定のオーディオイベント206に対応する視覚的イベント207を示し仮想現実コンテンツのビデオ画像から抽出された視覚的画像を少なくとも備える。見逃されたイベントコンテンツ400の表示の前に、または見逃されたイベントコンテンツ400の一部として、装置100は仮想現実コンテンツの巻き戻しを提供してもよい。要するに、装置は、逆再生される仮想現実コンテンツの表示をユーザに提供して、ユーザがまもなく見るコンテンツが過去に発生したものであることを明示してもよい。したがって、ユーザには、仮想現実コンテンツが、見逃されたイベントコンテンツが開始する時点まで「巻き戻し」されるように見えてもよい。 FIG. 4 shows three screenshots of example missed event content 400. Of course, the three exemplary frames 401, 402, 403 shown in FIG. 4 represent continuous video with missed event content. In this example, the missed event content 400 comprises a video with a visual image of a visual event 207 associated with an audio event heard by the user 200. In other examples, the missed event content may be a series of still images, a flat video (ie, you cannot look around virtual reality space to see different parts of the video), or virtual reality content. In the present example, the missed event content comprises at least a visual image showing a visual event 207 corresponding to a particular audio event 206 and extracted from a video image of the virtual reality content. Prior to displaying the missed event content 400, or as part of the missed event content 400, the device 100 may provide rewind of virtual reality content. In essence, the device may provide the user with an indication of the virtual reality content being played back to indicate that the content that the user is about to see has occurred in the past. Thus, the virtual reality content may appear to the user to be "rewound" to the point where the missed event content begins.

このように、見逃されたイベントコンテンツ400の時間的な開始点は、視認方向203、300の変更が発生した仮想現実コンテンツの中の時間的な点よりも前である。さらに、見逃されたイベントコンテンツが開始する時間的な点は、特定のオーディオイベント206に基づく。1つ以上の例において、見逃されたイベントコンテンツの時間的な開始点は、オーディオイベント206の開始が発生した時点であってもよい。したがって、時間的な開始点は、オーディオイベント206の音がするすぐ前であってもよい。1つ以上の例において、仮想現実コンテンツに関する見逃されたイベントコンテンツの時間的な開始点は、オーディオイベント206の開始より所定の期間前であり、これは、ユーザがオーディオイベントの原因を理解する支援となり得る。したがって、見逃されたイベントコンテンツは、オーディオイベント206が発生する時に開始するのではなく、オーディオイベント206の数秒前に開始してもよい。所定の期間は、最大1秒、2秒、3秒、4秒、5秒、6秒、7秒、8秒、9秒、10秒、15秒、20秒、30秒、60秒であってもよく、その結果、見逃されたイベントコンテンツの時間的な開始点は、オーディオイベント206の開始よりもこの所定の期間前に始まる。 Thus, the temporal start point of the missed event content 400 is before the temporal point in the virtual reality content in which the change in the viewing directions 203 and 300 has occurred. Moreover, the point in time at which the missed event content begins is based on the particular audio event 206. In one or more examples, the temporal starting point of the missed event content may be the time when the start of the audio event 206 occurs. Therefore, the temporal starting point may be immediately before the sound of the audio event 206. In one or more examples, the temporal start point of missed event content for virtual reality content is a predetermined period before the start of audio event 206, which helps the user understand the cause of the audio event. Can be. Thus, missed event content may start a few seconds before the audio event 206 rather than starting when the audio event 206 occurs. The maximum period is 1 second, 2 seconds, 3 seconds, 4 seconds, 5 seconds, 6 seconds, 7 seconds, 8 seconds, 9 seconds, 10 seconds, 15 seconds, 20 seconds, 30 seconds, 60 seconds. As a result, the temporal starting point of the missed event content begins this predetermined period before the beginning of the audio event 206.

図4の例では、見逃されたイベントコンテンツビデオ(すなわち視覚的画像および付随するオーディオ)の第1のフレーム401が、オーディオイベント206の発生より数秒前に始まる。第1のフレーム401は、パック210を打撃する準備ができている選手211を示す。第2のフレーム402は、パック210を打撃する選手211、および右へ向かって進むパックを示す。第3のフレーム403は、見逃されたイベントコンテンツ400の最後を示し、図3では301と参照符号を付された第2の方向300をユーザが見たおおよその時点の視覚的画像を備える。 In the example of FIG. 4, the first frame 401 of the missed event content video (ie, visual image and accompanying audio) begins seconds before the occurrence of audio event 206. The first frame 401 shows a player 211 ready to hit the puck 210. The second frame 402 shows the player 211 hitting the puck 210 and the puck moving to the right. The third frame 403 shows the end of the missed event content 400 and comprises a visual image of the approximate time when the user saw the second direction 300, which is referenced 301 in FIG.

よって、見逃されたイベントコンテンツは、視覚的イベント207を含む視覚的画像を少なくとも備える。見逃されたイベントコンテンツ400はさらに、オーディオイベント206の発生より所定時間前の視覚的画像を少なくとも含んでもよい。見逃されたイベントコンテンツ400は、オーディオイベント206の後、少なくともユーザが第2の方向300を見た時点までの、視覚的画像を少なくとも含んでもよい。 Thus, the missed event content comprises at least a visual image containing the visual event 207. The missed event content 400 may further include at least a visual image a predetermined time before the occurrence of the audio event 206. The missed event content 400 may include at least a visual image after the audio event 206, at least up to the point in time when the user looked at the second direction 300.

よって、第2の方向300からのオーディオイベント206の指向性オーディオを聞いたユーザには、オーディオイベントに関連するVRコンテンツの視覚的画像を少なくとも含む見逃されたイベントコンテンツが自動的に提供されてもよい(これは、ユーザがどの程度正確にオーディオイベントの方向を特定できるかに応じて、第2の方向で発生する視覚的画像であってもよい)。その結果、見逃されたイベントコンテンツは、ユーザが関連するオーディオイベント206を聞きそれに対して視認方向203、300を変更することにより反応した見逃された視覚的イベント207を、ユーザが見ることを可能にする。 Thus, a user who hears the directional audio of the audio event 206 from the second direction 300 is automatically provided with missed event content including at least a visual image of VR content associated with the audio event. Good (this may be a visual image that occurs in the second direction, depending on how accurately the user can identify the direction of the audio event). As a result, the missed event content allows the user to view missed visual events 207 that the user has responded to by listening to the associated audio event 206 and changing viewing directions 203, 300 thereto. To do.

見逃されたイベントコンテンツの表示は、以下のうちの1つ以上に応答して提供されてもよい:
i)視認方向の変更を自動的に追跡すること、およびオーディオイベントの識別、
ii)見逃されたイベントコンテンツを見たいというユーザリクエスト、
iii)見逃されたイベントコンテンツが利用可能であるという、ユーザによる視認方向の変更に基づいてユーザに提供されるプロンプトに応答しての、見逃されたイベントコンテンツを見たいとのユーザの確認。
An indication of missed event content may be provided in response to one or more of the following:
i) automatically tracking changes in viewing direction, and identification of audio events,
ii) A user request to view missed event content,
iii) The user's confirmation that he/she wants to see the missed event content in response to a prompt provided to the user based on the change of the viewing direction by the user that the missed event content is available.

プロンプトは、VRディスプレイ102により提供されるVRビューにおける表示のために提供される視覚的なグラフィックであってもよい。プロンプトは、可聴プロンプトまたは触覚プロンプトであってもよい。ユーザリクエストまたはユーザの確認は、視覚コマンド、音声コマンド、および携帯電話または装置と通信しているその他電子デバイスなどのユーザインターフェースを介したコマンドのうち1つ以上であってもよい。 The prompt may be a visual graphic provided for display in the VR view provided by the VR display 102. The prompt may be an audible prompt or a tactile prompt. The user request or confirmation of the user may be one or more of a visual command, a voice command, and a command via a user interface, such as a mobile phone or other electronic device in communication with the device.

図5は、見逃されたイベントコンテンツ400が表示のために提供されると仮想現実コンテンツが続行することを示す、2つの例示的なフレームを示す。事前に記録されたコンテンツまたは生のコンテンツの場合などの一部の例において、見逃されたイベントコンテンツが表示のために提供されてもよく、次に仮想現実コンテンツは、見逃されたイベントコンテンツの表示のために中断された時点から続行してもよい。しかしながら、特に生のコンテンツの場合、これはユーザがもはや生のコンテンツを見ておらず、見逃されたイベントコンテンツの長さの分だけ遅延したコンテンツ(装置100またはVR装置101によりバッファリングされることもある)を見ていることを意味するかもしれない。よって、図5は、装置100が、a)見逃されたイベントコンテンツを表示するために仮想現実コンテンツが中断された時点から、b)VRコンテンツが生でユーザに表示される時点まで、VRコンテンツの通常再生速度に対して増大された再生速度での仮想現実コンテンツの表示を提供し得る様子を示す。 FIG. 5 shows two exemplary frames showing that virtual reality content continues as missed event content 400 is provided for display. In some cases, such as in the case of pre-recorded content or raw content, missed event content may be provided for display, and then virtual reality content may be displayed as the missed event content. You may continue from the point you left off. However, especially in the case of raw content, this means that the user is no longer watching the raw content and is delayed by the length of the missed event content (buffered by device 100 or VR device 101). May also mean that you are looking at). Thus, FIG. 5 shows that the device 100 has a VR content from a) when the virtual reality content is interrupted to display the missed event content to b) when the VR content is displayed live to the user. 7 illustrates how virtual reality content display may be provided at an increased playback speed relative to the normal playback speed.

よって、図5は、見逃されたイベントコンテンツ400の最後のフレーム403と、仮想現実の中で、ただし増大された再生速度で表示されるVRコンテンツの続行とを示す。フレーム500は、滑って離れていく選手211を増大された再生速度で示す。続いて仮想現実コンテンツは、ユーザに対して表示されるVRコンテンツがVR装置101により受信される生のVRコンテンツに「追いつく」と、その通常の、例えばリアルタイムの再生速度でのユーザに対する表示のために提供される。 Thus, FIG. 5 shows the last frame 403 of the missed event content 400 and the continuation of VR content displayed in virtual reality, but at an increased playback speed. Frame 500 shows a sliding player away 211 with an increased playback speed. The virtual reality content is then for display to the user when the VR content displayed to the user "catch up" with the raw VR content received by the VR device 101, at its normal, eg real-time playback speed. Provided to.

見逃されたイベントコンテンツの一部として、適切な視覚的コンテンツを表示するために、装置は、ユーザ200が反応した特定のオーディオイベント206を識別してもよい。これは、多数の方法で実現され得る。 To display the appropriate visual content as part of the missed event content, the device may identify the particular audio event 206 that the user 200 reacted to. This can be achieved in a number of ways.

例えば装置100は、VRコンテンツの中で発生するオーディオイベントの方向およびタイミングを識別する所定のオーディオイベントデータにアクセスできてもよい。よって、視認方向の変更に応答して、装置100は、オーディオイベントデータ、第2の視認方向、およびVRコンテンツを基準とした時間に基づいて、ユーザが反応した特定のオーディオイベントを識別してもよい。見逃されたイベントコンテンツを作成するために適切な視覚的画像をVRコンテンツから抽出するべく、オーディオイベントの開始時間および終了時間ならびにその方向を含んでもよいオーディオイベントデータが使用されてもよい。 For example, the device 100 may have access to predetermined audio event data that identifies the direction and timing of the audio event that occurs in the VR content. Therefore, in response to the change of the viewing direction, the device 100 may identify the specific audio event to which the user has reacted based on the audio event data, the second viewing direction, and the time based on the VR content. Good. Audio event data, which may include start times and end times of audio events and their directions, may be used to extract suitable visual images from VR content to create missed event content.

オーディオイベントデータは、VRコンテンツの制作後などに手動で作成されてもよい。オーディオイベントデータは、VRコンテンツの空間オーディオのオーディオ分析または視覚的画像の視覚的分析から自動的に作成されてもよい。 The audio event data may be manually created after the VR content is created. Audio event data may be automatically created from audio analysis of spatial audio of VR content or visual analysis of visual images.

1つ以上の例において、オーディオイベントデータはセンサデータから作成されてもよく、前記センサデータは、VRコンテンツの中に捕捉される物体に関連するセンサ(図示せず)から取得される。したがって、例えば、アイスホッケーゲームのVRコンテンツ捕捉中、加速度センサまたは音センサなどのセンサがパックに配置されてもよい。よって、パックの加速度がセンサにより検出されてもよく、すると、ユーザが反応するかもしれないオーディオイベントが発生したであろう時を推定できる。オーディオイベントデータは、そのようなVR内コンテンツ捕捉シーンセンサを使用して作成されてもよい。加速度の持続期間(または他の検知される量)が、オーディオイベントの開始点および終了点を判断するために使用されてもよい。コンテンツ捕捉デバイス104に対するセンサの方向が、オーディオイベントの方向を指定するために使用されてもよい。 In one or more examples, audio event data may be generated from sensor data, which is obtained from a sensor (not shown) associated with an object captured in VR content. Thus, for example, sensors such as acceleration sensors or sound sensors may be placed in the puck during VR content capture of an ice hockey game. Thus, the acceleration of the puck may be detected by the sensor, which can then estimate when there will be an audio event that the user may react to. Audio event data may be created using such an in-VR content capture scene sensor. The duration of acceleration (or other sensed amount) may be used to determine the start and end points of an audio event. The orientation of the sensor with respect to the content capture device 104 may be used to specify the orientation of the audio event.

1つ以上の例において、装置は、VRコンテンツの空間オーディオを分析してオーディオイベントを識別してもよい。そのような分析は、オーディオイベントデータを作成するために実行されてもよい。本願明細書に記載される分析は、オンザフライで実行されてもよい。よって、視認方向の変更に応答して、装置は、第2の方向の閾値方向以内の方向であり、かつ少なくとも現在時間の、さらに任意選択で現在時間の近時間閾値以内の、空間オーディオのオーディオ分析を提供して、オーディオイベントを識別してもよい。オーディオイベントは、絶対音量または閾値に対する相対音量のオーディオ分析により識別されてもよい。よって、指向性オーディオの特定部分の音がより大きいということが、それを特定のオーディオイベントとして識別するのに役立つかもしれず、オーディオイベントの音がより大きくなる時間が、見逃されたイベントコンテンツの開始点を少なくとも部分的に定義し得る。オーディオイベントは、閾値に対する周波数のオーディオ分析により識別されてもよい。したがって、特定の周波数帯の音(例えば登場人物の低く太い声)の指向性オーディオの発生が、それを特定のオーディオイベントとして識別するのに役立つかもしれない。その周波数帯のオーディオが存在する時間が、見逃されたイベントコンテンツの開始点を少なくとも部分的に定義し得る。オーディオイベントは、VRコンテンツに登場する特定の登場人物(すなわち男優/女優)の音声を識別する音声認識を使用したオーディオ分析により識別されてもよい。よって、特定の音声がほぼ第2の方向の指向性オーディオの一部であるということが、それを特定のオーディオイベントとして識別するのに役立つかもしれず、その音声が聞こえる時間が、見逃されたイベントコンテンツの開始点を少なくとも部分的に定義し得る。 In one or more examples, the device may analyze spatial audio of VR content to identify audio events. Such analysis may be performed to create audio event data. The analyzes described herein may be performed on the fly. Thus, in response to the change of the viewing direction, the device is directed to the audio of the spatial audio in a direction within a threshold direction of the second direction and at least within the current time, and optionally within a near time threshold of the current time. Analysis may be provided to identify audio events. Audio events may be identified by absolute volume or relative volume threshold audio analysis. Thus, the louder sound of a particular part of directional audio may help to identify it as a particular audio event, and the time when the audio event becomes louder is the start of missed event content. The points may be defined at least partially. Audio events may be identified by audio analysis of frequencies against a threshold. Thus, the occurrence of directional audio for sounds in a particular frequency band (eg, low and fat voice of a character) may help identify it as a particular audio event. The time that audio in that frequency band is present may at least partially define the starting point of the missed event content. Audio events may be identified by audio analysis using voice recognition to identify the voice of a particular character (ie, actor/actress) appearing in VR content. Thus, it may be helpful to identify a particular voice as a particular audio event, as the particular voice is part of the directional audio in the second direction, and the time the voice is heard may be missed by the missed event. The starting point for the content may be defined at least in part.

1つ以上の例において、装置は、潜在的なオーディオイベントが発生するかもしれないビデオ内のアクションを識別するために、VRコンテンツのビデオ画像のビデオ分析を提供してもよい。 In one or more examples, the device may provide video analysis of video images of VR content to identify actions in the video in which potential audio events may occur.

図6は、例示的なオーディオイベントデータ600を示す。当然のことながら、オーディオイベントデータ600の表形式は例示のためでしかなく、任意の数の方法で記憶され得る。例として、オーディオイベントデータ600は、2つのオーディオイベント601および602を備える。これらのオーディオイベント601、602は、VR内コンテンツ捕捉シーンセンサなどのセンサデータにより、またはオーディオ分析により、または本願明細書に記載された方法のいずれかにより決定されたものであってもよい。 FIG. 6 shows exemplary audio event data 600. Of course, the tabular format of the audio event data 600 is for illustration only and may be stored in any number of ways. As an example, the audio event data 600 comprises two audio events 601 and 602. These audio events 601, 602 may have been determined by sensor data, such as a content capture scene sensor in VR, or by audio analysis, or by any of the methods described herein.

各オーディオイベント601、602について、オーディオイベントデータ600は、ユーザ200に対して提示されることになるオーディオイベントの感知される方向603、オーディオイベントの開始時間604、および終了時間605を含んでもよい。したがって、「オーディオイベント1」601は、135°の方向で発生し、VRコンテンツを基準として30秒の時間に開始して35秒までであることが分かる。 For each audio event 601, 602, the audio event data 600 may include a sensed direction 603 of the audio event to be presented to the user 200, an audio event start time 604, and an end time 605. Therefore, it can be seen that the “audio event 1” 601 occurs in the direction of 135°, starts at the time of 30 seconds with respect to the VR content, and is up to 35 seconds.

したがって、ユーザ200が、VRコンテンツの再生がおおよそ32秒まで進んだところでVRビューの視認方向を140°に変更した場合、装置は、オーディオイベントデータ600を使用して、「オーディオイベント1」601が特定のオーディオイベントであるとの識別を提供してもよい。このように、140°が方向閾値以内であり、よって135°に十分に近いと見なされてもよい。さらに、32秒は、「オーディオイベント1」601の発生中と判断されてもよい。よって装置は、オーディオイベントデータ600を使用して、見逃されたイベントコンテンツが、約135°の視認方向からのVRコンテンツの視覚的画像を使用すべきであり、見逃されたイベントコンテンツの時間的な開始点が、「オーディオイベント1」601の開始時間604に基づくとよいと判断してもよい。このように、見逃されたイベントコンテンツをオーディオイベント601の時間的にどのくらい前に開始させるかを決定するために使用される所定の期間が5秒であれば、見逃されたイベントコンテンツの開始点は、VRコンテンツの25秒の実行時間まで進んだところであってもよい。 Therefore, when the user 200 changes the viewing direction of the VR view to 140° when the reproduction of the VR content has progressed to approximately 32 seconds, the device uses the audio event data 600 and outputs the “audio event 1” 601. Identification of a particular audio event may be provided. As such, 140° may be considered within the directional threshold and thus sufficiently close to 135°. Further, 32 seconds may be determined to be during the occurrence of “audio event 1” 601. Thus, the device should use the audio event data 600 to ensure that the missed event content uses a visual image of the VR content from a viewing direction of about 135°, and the missed event content temporally. It may be determined that the starting point may be based on the starting time 604 of “Audio Event 1” 601. Thus, if the predetermined period used to determine how long in time the missed event content starts before the audio event 601 is 5 seconds, the starting point for the missed event content is , VR content may be reached up to the execution time of 25 seconds.

図7は、視認方向300などの特定の視認方向、または視認方向の範囲における、オーディオの音量のプロット700の、例示のグラフを示す。図7のグラフは、空間オーディオのオーディオ分析の図を提供する。当然のことながら、オーディオ分析のグラフ形式は例示のためでしかなく、任意の数の方法で実行され得る。本例では、ユーザによる視認方向の第2の方向300への変更は、時間t反応に発生する。装置100は、本願明細書に記載されたオーディオ分析を提供する際、閾値701を使用して、閾値を上回る音が時間tと時間tとの間に発生したと識別してもよい。結果的に、前記音は、特定のオーディオイベント206として識別されてもよい。よって、時点tが、見逃されたイベントコンテンツの開始時間を判断するために使用されてもよい。1つ以上の例において、時間t反応は、時間tの後に発生するかもしれない。装置は、時間tからtの間のオーディオイベントを、ユーザが反応したオーディオイベントとするのに十分近い過去に発生しているオーディオイベントであると識別するよう構成されてもよい。 FIG. 7 illustrates an exemplary graph of a plot 700 of audio volume for a particular viewing direction, such as viewing direction 300, or range of viewing directions. The graph of Figure 7 provides a diagram of an audio analysis of spatial audio. Of course, the graphical form of audio analysis is for illustration only and may be implemented in any number of ways. In this example, the change of the viewing direction to the second direction 300 by the user occurs at the time t reaction . The device 100 may use the threshold 701 in providing the audio analysis described herein to identify that a sound above the threshold occurred between time t 1 and time t 2 . Consequently, the sound may be identified as a particular audio event 206. Thus, the time point t 1 may be used to determine the start time of the missed event content. In one or more examples, the time t response may occur after time t 2 . The device may be configured to identify the audio event between times t 1 and t 2 as an audio event that occurred in the past close enough to be an audio event that the user has responded to.

他の例では、プロット700は、特定の周波数を表現してもよく、音量の観点から区別されずに、オーディオの特定部分の周波数範囲が、特定のオーディオイベントとしてのその識別を提供してもよい。 In another example, the plot 700 may represent a particular frequency and the frequency range of a particular portion of audio may provide its identification as a particular audio event, without being distinguished in terms of volume. Good.

上述した実施形態は、見逃されたイベントコンテンツの開始時間を判断するために有利にオーディオイベントを使用し得る。上述のとおり、オーディオイベントの識別およびタイミングは、以下のうちの1つ以上によって決定されてもよい:
オーディオ分析、ビデオ分析、センサデータにさらに基づいてもよい、所定のオーディオイベントデータ、
音量に基づく、周波数に基づく、および/または音声認識に基づく分析を含んでもよいオーディオ分析、または
閾値を上回り急激に変化する局所的なビデオ画像を探す読唇分析および/またはアクション識別アルゴリズムを含んでもよい、ビデオ分析。
The embodiments described above may advantageously use audio events to determine the start time of missed event content. As mentioned above, the identification and timing of audio events may be determined by one or more of the following:
Predetermined audio event data, which may be further based on audio analysis, video analysis, sensor data,
It may include audio analysis, which may include volume-based, frequency-based, and/or voice-recognition-based analysis, or lip reading analysis and/or action identification algorithms looking for localized video images that change rapidly above a threshold. , Video analysis.

図8は、800、仮想現実ビューの視認方向の、第1の視認方向から第2の視認方向へのユーザによる変更であって、前記第2の視認方向は、特定のオーディオイベントの方向に方向閾値以内で一致する、変更に基づいて、801、見逃されたイベントコンテンツの表示を提供するステップであって、見逃されたイベントコンテンツは、仮想現実コンテンツのビデオ画像から抽出された視覚的画像を少なくとも有し、視覚的画像は、特定のオーディオイベントに対応する視覚的イベントを示し、見逃されたイベントコンテンツの時間的な開始点は、視認方向の変更が発生した仮想現実コンテンツの中の時間的な点よりも前であり、特定のオーディオイベントに基づくものであり、それによって、ユーザが関連するオーディオイベントを聞きそれに対して視認方向を変更することにより反応した見逃された視覚的イベントを、ユーザが見ることを可能にする、ステップを示すフロー図を示す。 FIG. 8 shows a change 800 of a viewing direction of a virtual reality view from a first viewing direction to a second viewing direction, wherein the second viewing direction is in the direction of a particular audio event. 801 providing a display of missed event content based on changes that match within a threshold, wherein the missed event content is at least a visual image extracted from a video image of the virtual reality content. And the visual image shows a visual event corresponding to a particular audio event, and the temporal starting point of the missed event content is the temporal point in the virtual reality content where the viewing direction change occurred. Prior to the point and based on a particular audio event, which allows the user to view missed visual events that the user has responded to by listening to the relevant audio event and changing the viewing direction relative to it. Figure 4 shows a flow diagram showing the steps that enable viewing.

図9は、一例によるプログラムを提供するコンピュータ/プロセッサ可読媒体900を概略的に示す。本例では、コンピュータ/プロセッサ可読媒体は、デジタル多用途ディスク(DVD:digital versatile disc)またはコンパクトディスク(CD:compact disc)などのディスクである。一部の例では、コンピュータ可読媒体は、発明の機能を実行するような形でプログラムされた任意の媒体であってもよい。コンピュータプログラムコードは、同じタイプの複数のメモリ間、またはROM、RAM、フラッシュ、ハードディスク、ソリッドステートなど異なるタイプの複数のメモリ間に分散されてもよい。 FIG. 9 schematically illustrates a computer/processor readable medium 900 that provides a program according to an example. In this example, the computer/processor readable medium is a disc such as a digital versatile disc (DVD) or a compact disc (CD). In some examples, a computer-readable medium may be any medium programmed to perform the functions of the invention. The computer program code may be distributed among multiple memories of the same type or multiple memories of different types such as ROM, RAM, flash, hard disk, solid state.

ユーザ入力は、タップ、スワイプ、スライド、押下、保持、回転ジェスチャ、デバイスのユーザインターフェース近くでの静止ホバージェスチャ、デバイス近くでの移動ホバージェスチャ、デバイスの少なくとも一部を曲げること、デバイスの少なくとも一部を握りしめること、多指ジェスチャ、デバイスを傾けること、または制御デバイスを裏返すことのうちの1つ以上を備えるジェスチャであってもよい。さらにジェスチャは、ユーザの腕などのユーザの身体、またはスタイラスもしくは自由空間ユーザジェスチャを実行するのに適した他の要素を使用した任意の自由空間ユーザジェスチャであってもよい。 User input is tap, swipe, slide, press, hold, rotate gesture, stationary hover gesture near the user interface of the device, moving hover gesture near the device, bending at least a portion of the device, at least a portion of the device The gesture may comprise one or more of clasping, multi-finger gesture, tilting the device, or flipping the control device. Further, the gesture may be the user's body, such as the user's arm, or any free space user gesture using a stylus or other element suitable for performing a free space user gesture.

上記の例で示された装置は、携帯可能な電子デバイス、ラップトップコンピュータ、移動電話、スマートフォン、タブレットコンピュータ、携帯情報端末、デジタルカメラ、スマートウォッチ、スマートアイウェア、ペンベースのコンピュータ、携帯可能でない電子デバイス、デスクトップコンピュータ、モニタ、家庭用電化製品、スマートTV、サーバ、ウェアラブル装置、仮想現実装置、またはそれらのうちの1つ以上のモジュール/回路構成としてもよい。 The device shown in the above example is a portable electronic device, laptop computer, mobile phone, smartphone, tablet computer, personal digital assistant, digital camera, smart watch, smart eyewear, pen-based computer, not portable It may be an electronic device, desktop computer, monitor, consumer electronics, smart TV, server, wearable device, virtual reality device, or one or more of these modules/circuitry.

言及された任意の装置、および/または言及された特定の装置の他の特徴は、有効化、例えばスイッチをオンにされたときなどにのみ所望の動作を実行するよう構成されたものとなるように準備された装置により提供されてもよい。そのような事例では、非有効化時(例えばスイッチオフ状態)には必ずしもアクティブメモリに適切なソフトウェアをロードしていなくてもよく、有効化時(例えばオン状態)にのみ適切なソフトウェアをロードしてもよい。装置は、ハードウェア回路構成および/またはファームウェアを備えてもよい。装置は、メモリ上にロードされたソフトウェアを備えてもよい。そのようなソフトウェア/コンピュータプログラムは、同じメモリ/プロセッサ/機能ユニット上および/または1つ以上のメモリ/プロセッサ/機能ユニット上に記録されてもよい。 Any device mentioned and/or other features of the particular device mentioned are to be adapted such that they are configured to perform a desired action only when activated, eg when switched on. May be provided by the device prepared in. In such cases, it may not be necessary to load the appropriate software into active memory when deactivating (eg switched off), but only when activated (eg switched on). May be. The device may comprise hardware circuitry and/or firmware. The device may comprise software loaded on memory. Such software/computer programs may be recorded on the same memory/processor/functional unit and/or on one or more memory/processor/functional unit.

一部の例において、言及された特定の装置は、所望の動作を実行するよう適切なソフトウェアを用いて事前にプログラムされてもよく、この適切なソフトウェアは、例えばそのソフトウェアおよびそれに関連する機能性をロック解除/有効化するため、「キー」をダウンロードするユーザが使用できるようにされてもよい。そのような例に関連する利点としては、デバイスにさらなる機能性が必要なときにデータをダウンロードする必要性が軽減されることを挙げることができ、これは、ユーザが有効化しないかもしれない機能性のためにそのような事前プログラムされたソフトウェアを記憶するのに十分な容量をデバイスが有することが分かっている例において有用な可能性がある。 In some examples, the particular device referred to may be pre-programmed with suitable software to perform the desired operations, which may include, for example, that software and its associated functionality. May be made available to the user downloading the "key" in order to unlock/enable. An advantage associated with such an example may be that it reduces the need to download data when the device needs more functionality, which is a feature that the user may not enable. It may be useful in instances where the device is known to have sufficient capacity to store such pre-programmed software for sex.

言及された任意の装置/回路構成/要素/プロセッサは、言及された機能に加えて他の機能も有してもよく、これらの機能は、同じ装置/回路構成/要素/プロセッサにより実行されてもよい。開示された1つ以上の側面は、関連するコンピュータプログラムおよび適切な保持体(例えばメモリ、信号)に記録されたコンピュータプログラム(ソース/トランスポートエンコードされてもよい)の電子的な配布を含んでもよい。 Any device/circuitry/element/processor mentioned may have other functions in addition to those mentioned, and these functions may be performed by the same device/circuitry/element/processor. Good. One or more aspects disclosed may include electronic distribution of the computer program (which may be source/transport encoded) recorded on an associated computer program and a suitable carrier (eg, memory, signal). Good.

本願明細書に記載された任意の「コンピュータ」は、同じ回路基板に、または回路基板の同じ領域/ポジションに、または同じデバイスにも位置してもしなくてもよい、1つ以上の個々のプロセッサ/処理要素の集合を備えることができる。一部の例では、言及された任意のプロセッサの1つ以上が複数のデバイスにわたって分散されてもよい。同じまたは異なるプロセッサ/処理要素が、本願明細書に記載された1つ以上の機能を実行してもよい。 Any "computer" described herein may or may not be located on the same circuit board, in the same area/position of the circuit board, or in the same device. / Can comprise a set of processing elements. In some examples, one or more of any of the mentioned processors may be distributed across multiple devices. The same or different processors/processing elements may perform one or more of the functions described herein.

「シグナリング」という用語は、送信および/または受信される一連の電気/光信号として送信される1つ以上の信号を指してもよい。一連の信号は、前記シグナリングを構成する、1、2、3、4または5以上もの個別の信号成分または別個の信号を備えてもよい。これらの個別の信号の一部または全部は、無線または有線通信により同時に、順次に、および/または互いに時間的に重なるように送信/受信されてもよい。 The term "signaling" may refer to one or more signals transmitted as a series of electrical/optical signals that are transmitted and/or received. The series of signals may comprise 1, 2, 3, 4 or even 5 or more individual signal components or separate signals making up said signaling. Some or all of these individual signals may be transmitted/received by wireless or wired communication simultaneously, sequentially and/or in time overlapping with each other.

言及された任意のコンピュータならびに/またはプロセッサおよびメモリ(例えばROM、CD−ROMなどを含む)の任意の説明に関して、これらは、コンピュータプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA:field−programmable gate array)、および/または本発明の機能を実行するような形にプログラムされた他のハードウェアコンポーネントを備えてもよい。 With respect to any description of any computer and/or processor and memory (eg, including ROM, CD-ROM, etc.) referred to, these may include computer processors, application specific integrated circuits (ASICs), field programmable gate arrays (FPGAs). : Field-programmable gate array), and/or other hardware components programmed to perform the functions of the present invention.

出願人は、ここに、本願明細書に記載された個々の特徴それぞれを単独で開示し、さらにかかる特徴2つ以上の任意の組み合わせを開示する。この開示は、当業者の一般知識を踏まえて、かかる特徴または組み合わせが本明細書に基づき全体として実行可能となる程度まで行われており、これは、かかる特徴または特徴の組み合わせが本願明細書に開示された任意の問題を解決するかどうかにはかかわらず、クレームの範囲を限定することもない。出願人は、開示された側面/例がそのような任意の個々の特徴からなっても、または特徴の組み合わせからなってもよいことを指摘する。当業者には当然のことながら、上記の説明に鑑みて、本開示の範囲内で様々な変更が加えられ得る。 Applicants disclose herein each individual feature described herein alone, as well as any combination of two or more such features. This disclosure has been made in light of the general knowledge of those skilled in the art to the extent that such features or combinations are generally feasible herein, as such features or combinations of features are referred to herein. It does not limit the scope of the claims, whether or not they solve any disclosed problems. Applicants point out that the disclosed aspects/examples may consist of any such individual feature or combination of features. Those skilled in the art will appreciate that various modifications can be made within the scope of the present disclosure in view of the above description.

基本となる新規な特徴が、その例に適用されて示され、記載され、指摘されたが、当然のことながら、記載されたデバイスおよび方法の形態および細部における様々な省略および置換および変更が、本開示の範囲から逸脱することなく、当業者によって行われることが可能である。例えば、同じ結果を達成するために実質的に同じ機能を実質的に同じ形で実行する当該要素および/または方法ステップのすべての組み合わせが、本開示の範囲内であることが明示的に意図される。さらに、当然のことながら、開示された任意の形態または例に関連して示されかつ/または記載された構造および/または要素および/または方法ステップは、一般的な設計上の選択事項として、他の任意の開示または記載または示唆された形態または例に組み込まれてもよい。さらに、特許請求の範囲では、ミーンズ・プラス・ファンクション節は、列挙された機能を実行するものとして本願明細書に記載された構造、さらに構造上の等価物のみならず、等価な構造も対象とすることを意図される。要するに、釘とねじとは、木製部品を留めるという状況において、釘が円柱状の表面を用いて木製部品同士を固定するのに対し、ねじはらせん状の表面を用いるという点で構造上の等価物ではないかもしれないが、釘とねじとは等価な構造体ではあり得る。 While the basic novel features have been shown, described and pointed out in the examples as applied, it should be understood that various omissions and substitutions and changes in the form and detail of the devices and methods described may occur. It can be done by a person skilled in the art without departing from the scope of the present disclosure. For example, all combinations of such elements and/or method steps that perform substantially the same function in substantially the same manner to achieve the same result are explicitly intended to be within the scope of the present disclosure. It Moreover, it should be understood that the structures and/or elements and/or method steps shown and/or described in connection with any of the disclosed forms or examples may be of other general design choice. May be incorporated into any disclosed or described or suggested form or example of. Further, in the claims, the means-plus-function clause is intended to cover structures described herein as performing the recited functions, as well as structural equivalents, as well as equivalent structures. Intended to do. In short, nails and screws are structurally equivalent in that in the context of fastening wooden parts, nails use cylindrical surfaces to secure wooden parts together, while screws use helical surfaces. Although not physical, nails and screws can be equivalent structures.

Claims (15)

少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つのメモリとを備える装置であって、前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサに実行されると、前記装置に少なくとも以下のこと:
仮想現実の中での視認用の仮想現実空間を提供するよう構成されたビデオ画像を備える仮想現実コンテンツであって、ユーザに提示される仮想現実ビューが前記仮想現実コンテンツの視認を提供し、前記仮想現実ビューは、前記仮想現実空間を構成する前記ビデオ画像の空間的な一部を備え、前記仮想現実空間の前記ビデオ画像の空間範囲よりも空間範囲が小さく、前記仮想現実コンテンツは、空間オーディオを含み、前記ビデオ画像の中の視覚的イベントに関係するオーディオイベントへの感知される方向が、前記仮想現実空間の中で提示される前記視覚的イベントの視覚的位置に対応する、前記仮想現実コンテンツに関して、
前記仮想現実ビューの前記視認方向の、第1の視認方向から第2の視認方向への前記ユーザによる変更であって、前記第2の視認方向は、前記視認方向の前記変更より前に開始が発生した特定のオーディオイベントの方向に方向閾値以内で一致する、前記変更に基づいて、
見逃されたイベントコンテンツの表示を提供することであって、前記見逃されたイベントコンテンツは、前記仮想現実コンテンツの前記ビデオ画像から抽出された視覚的画像を少なくとも有し、前記視覚的画像は、前記特定のオーディオイベントに対応する前記視覚的イベントを示し、前記見逃されたイベントコンテンツの時間的な開始点は、前記視認方向の前記変更が発生した前記仮想現実コンテンツの中の時間的な点よりも前であり、前記特定のオーディオイベントに基づく、前記提供すること
を実行させるよう構成される、装置。
An apparatus comprising at least one processor and at least one memory containing computer program code, wherein the computer program code, when executed by the at least one processor, causes the apparatus to at least:
Virtual reality content comprising a video image configured to provide a virtual reality space for viewing in virtual reality, wherein a virtual reality view presented to a user provides viewing of the virtual reality content, The virtual reality view comprises a spatial portion of the video images that make up the virtual reality space, has a smaller spatial extent than the spatial extent of the video images in the virtual reality space, and the virtual reality content is spatial audio. The virtual reality, wherein the sensed direction to an audio event related to a visual event in the video image corresponds to a visual position of the visual event presented in the virtual reality space. Regarding content,
The change of the viewing direction of the virtual reality view from the first viewing direction to the second viewing direction by the user, wherein the second viewing direction starts before the change of the viewing direction. Based on said change, matching the direction of the particular audio event that occurred within a direction threshold,
Providing a display of missed event content, wherein the missed event content comprises at least a visual image extracted from the video image of the virtual reality content, the visual image comprising: Indicating the visual event corresponding to a particular audio event, the temporal starting point of the missed event content is greater than the temporal point in the virtual reality content at which the change of the viewing direction occurred. An apparatus that is prior and configured to cause the providing based on the particular audio event.
前記特定のオーディオイベントに関係する前記視覚的イベントは、前記第1の視認方向に向けられている場合の前記仮想現実ビューの中で視認可能でなかったか、または、前記第1の視認方向に向けられている場合の前記仮想現実ビューの中で、前記対応する特定のオーディオイベントが発生したとき前記ユーザの注目が前記視覚的イベントに置かれていなかった、請求項1に記載の装置。 The visual event related to the particular audio event was not visible in the virtual reality view when oriented in the first viewing direction or was oriented in the first viewing direction. 2. The apparatus of claim 1, wherein in the virtual reality view, if present, the user's attention was not placed on the visual event when the corresponding particular audio event occurred. 前記見逃されたイベントコンテンツの前記時間的な開始点は、他の任意の提示されるオーディオに対する前記特定のオーディオイベントの分析と、前記仮想現実コンテンツの中のオーディオイベントのタイミングを少なくとも定義する所定のオーディオイベントデータとのうちの1つ以上に基づいて、前記特定のオーディオイベントが始まったとみなされる時間に基づく、請求項1または請求項2に記載の装置。 The temporal starting point of the missed event content is a predetermined at least defining the analysis of the particular audio event relative to any other presented audio and the timing of the audio event in the virtual reality content. 3. An apparatus according to claim 1 or claim 2, based on a time at which the particular audio event is considered to have started based on one or more of audio event data. 前記見逃されたイベントコンテンツの前記提供は、前記第1の視認方向と前記第2の視認方向との間の視認方向の変更の度合いが方向変更閾値を超えることにさらに基づく、請求項1から3のいずれかに記載の装置。 The provision of the missed event content is further based on a degree of change in a viewing direction between the first viewing direction and the second viewing direction exceeding a direction change threshold. The device according to any one of 1. 前記見逃されたイベントコンテンツの前記提供は、オーディオ閾値に対する前記特定のオーディオイベントの音量または周波数成分のうちの1つ以上にさらに基づく、請求項1から4のいずれかに記載の装置。 The apparatus of any of claims 1 to 4, wherein the providing of the missed event content is further based on one or more of the volume or frequency components of the particular audio event with respect to an audio threshold. 前記特定のオーディオイベントの判断は、
a)前記仮想現実コンテンツの中で発生する1つ以上のオーディオイベントへの前記方向を備える所定のオーディオイベントデータ、および前記方向閾値以内の前記第2の視認方向と、前記1つ以上のオーディオイベントのうちの1つの前記方向との相互関係、
b)視認方向の前記変更に応答しての、前記ユーザが反応した前記特定のオーディオイベントを識別するための前記空間オーディオのオーディオ分析
のうちの1つ以上に基づく、請求項1から5のいずれかに記載の装置。
The determination of the specific audio event is
a) predetermined audio event data comprising the direction to one or more audio events occurring in the virtual reality content, the second viewing direction within the direction threshold and the one or more audio events. Interrelation with one of the above directions,
b) Any one of claims 1 to 5 based on one or more of an audio analysis of the spatial audio in response to the change in viewing direction to identify the particular audio event to which the user responded. The device according to claim 1.
前記見逃されたイベントコンテンツの表示の前記提供は、前記仮想現実コンテンツの一時的な停止と、前記見逃されたイベントコンテンツの前記仮想現実ビューにおける表示とを提供することを含む、請求項1から6のいずれかに記載の装置。 7. The providing of a display of the missed event content comprises providing a temporary stop of the virtual reality content and a display of the missed event content in the virtual reality view. The device according to any one of 1. 前記特定のオーディオイベントの前記方向へ向かう視認方向の前記変更に応答して、前記見逃されたイベントコンテンツが始まる時点まで前記仮想現実コンテンツが巻き戻されるように前記ユーザに見えるよう時間の点で逆に前記仮想現実コンテンツの表示を提供する、請求項1から7のいずれかに記載の装置。 In response to the change in the viewing direction towards the direction of the particular audio event, the time is reversed so that the virtual reality content appears to be rewound to the user until the point at which the missed event content begins. 8. The apparatus according to any of claims 1-7, which provides a display of the virtual reality content to a. 前記見逃されたイベントコンテンツは、
i)前記仮想現実コンテンツの前記ビデオ画像から抽出された見逃されたイベントビデオ画像、
ii)前記仮想現実コンテンツの前記ビデオ画像から抽出された見逃されたイベント静止画像、
iii)前記仮想現実コンテンツの前記ビデオ画像から抽出された見逃されたイベントの仮想現実コンテンツであって、前記見逃されたイベントの仮想現実コンテンツの少なくとも初期の視認方向は、前記特定のオーディオイベントの前記方向に合致する、前記見逃されたイベントの仮想現実コンテンツ、
iv)前記仮想現実コンテンツの前記ビデオ画像から抽出された見逃されたイベントの仮想現実コンテンツであって、前記見逃されたイベントの仮想現実コンテンツは、前記仮想現実コンテンツの前記空間範囲未満の空間範囲を有し、前記特定のオーディオイベントの前記方向が焦点とされる、前記見逃されたイベントの仮想現実コンテンツ、
のうちの1つ以上を備える、請求項1から8のいずれかに記載の装置。
The missed event content is
i) a missed event video image extracted from the video image of the virtual reality content,
ii) a missed event still image extracted from the video image of the virtual reality content,
iii) virtual reality content of a missed event extracted from the video image of the virtual reality content, wherein at least an initial viewing direction of the virtual reality content of the missed event is the virtual audio content of the particular audio event. Virtual reality content of the missed event, matching the direction,
iv) Virtual reality content of the missed event extracted from the video image of the virtual reality content, wherein the virtual reality content of the missed event has a spatial range less than the spatial range of the virtual reality content. Virtual reality content of the missed event, having the focus on the direction of the particular audio event,
9. The device according to any of claims 1-8, comprising one or more of:
前記見逃されたイベントコンテンツは、前記仮想現実コンテンツとともに前記仮想現実ビューの中でピクチャインピクチャとして表示するために提供される、請求項1から9のいずれかに記載の装置。 10. The apparatus of any of claims 1-9, wherein the missed event content is provided for display as a picture-in-picture in the virtual reality view with the virtual reality content. 前記見逃されたイベントコンテンツの前記表示が完了すると、前記仮想現実コンテンツの前記表示は、前記第1の視認方向から前記第2の視認方向への視認方向の前記変更の時間に一致する時点から再開される、請求項1から9のいずれか1項に記載の装置。 When the display of the missed event content is completed, the display of the virtual reality content is restarted from a time point corresponding to the time of the change of the viewing direction from the first viewing direction to the second viewing direction. 10. A device according to any one of claims 1 to 9 which is provided. 前記見逃されたイベントコンテンツの前記表示が完了すると、前記仮想現実コンテンツが、少なくとも一時的に実時間よりも高い再生速度での表示のために提供される、請求項1から11のいずれかに記載の装置。 12. Upon completion of the display of the missed event content, the virtual reality content is provided for display at a playback speed that is at least temporarily higher than real time. Equipment. 前記方向閾値は、90°未満、70°未満、45°未満、または30°未満であってもよい、請求項1から12のいずれかに記載の装置。 13. The apparatus of any of claims 1-12, wherein the orientation threshold may be less than 90°, less than 70°, less than 45°, or less than 30°. 仮想現実の中での視認用の仮想現実空間を提供するよう構成されたビデオ画像を備える仮想現実コンテンツであって、ユーザに提示される仮想現実ビューが前記仮想現実コンテンツの視認を提供し、前記仮想現実ビューは、前記仮想現実空間を構成する前記ビデオ画像の空間的な一部を備え、前記仮想現実空間の前記ビデオ画像の空間範囲よりも空間範囲が小さく、前記仮想現実コンテンツは、空間オーディオを含み、前記ビデオ画像の中の視覚的イベントに関係するオーディオイベントへの感知される方向が、前記仮想現実空間の中で提示される前記視覚的イベントの視覚的位置に対応する、前記仮想現実コンテンツに関して、
前記仮想現実ビューの前記視認方向の、第1の視認方向から第2の視認方向への前記ユーザによる変更であって、前記第2の視認方向は、前記視認方向の前記変更より前に開始が発生した特定のオーディオイベントの方向に方向閾値以内で一致する、前記変更に基づいて、
見逃されたイベントコンテンツの表示を提供することであって、前記見逃されたイベントコンテンツは、前記仮想現実コンテンツの前記ビデオ画像から抽出された視覚的画像を少なくとも有し、前記視覚的画像は、前記特定のオーディオイベントに対応する前記視覚的イベントを示し、前記見逃されたイベントコンテンツの時間的な開始点は、前記視認方向の前記変更が発生した前記仮想現実コンテンツの中の時間的な点よりも前であり、前記特定のオーディオイベントに基づく、前記提供すること
を含む方法。
Virtual reality content comprising a video image configured to provide a virtual reality space for viewing in virtual reality, wherein a virtual reality view presented to a user provides viewing of the virtual reality content, The virtual reality view comprises a spatial portion of the video images that make up the virtual reality space, has a smaller spatial extent than the spatial extent of the video images in the virtual reality space, and the virtual reality content is spatial audio. The virtual reality, wherein the sensed direction to an audio event related to a visual event in the video image corresponds to a visual position of the visual event presented in the virtual reality space. Regarding content,
The change of the viewing direction of the virtual reality view from the first viewing direction to the second viewing direction by the user, wherein the second viewing direction starts before the change of the viewing direction. Based on said change, matching the direction of the particular audio event that occurred within a direction threshold,
Providing a display of missed event content, wherein the missed event content comprises at least a visual image extracted from the video image of the virtual reality content, the visual image comprising: Indicating the visual event corresponding to a particular audio event, the temporal starting point of the missed event content is greater than the temporal point in the virtual reality content at which the change of the viewing direction occurred. A method comprising: providing, based on the particular audio event, which was before.
装置の少なくとも1つのプロセッサ上で実行されると、前記装置に、
仮想現実の中での視認用の仮想現実空間を提供するよう構成されたビデオ画像を備える仮想現実コンテンツであって、ユーザに提示される仮想現実ビューが前記仮想現実コンテンツの視認を提供し、前記仮想現実ビューは、前記仮想現実空間を構成する前記ビデオ画像の空間的な一部を備え、前記仮想現実空間の前記ビデオ画像の空間範囲よりも空間範囲が小さく、前記仮想現実コンテンツは、空間オーディオを含み、前記ビデオ画像の中の視覚的イベントに関係するオーディオイベントへの感知される方向が、前記仮想現実空間の中で提示される前記視覚的イベントの視覚的位置に対応する、前記仮想現実コンテンツに関して、
前記仮想現実ビューの前記視認方向の、第1の視認方向から第2の視認方向への前記ユーザによる変更であって、前記第2の視認方向は、前記視認方向の前記変更より前に開始が発生した特定のオーディオイベントの方向に方向閾値以内で一致する、前記変更に基づいて、
見逃されたイベントコンテンツの表示の提供であって、前記見逃されたイベントコンテンツは、前記仮想現実コンテンツの前記ビデオ画像から抽出された視覚的画像を少なくとも有し、前記視覚的画像は、前記特定のオーディオイベントに対応する前記視覚的イベントを示し、前記見逃されたイベントコンテンツの時間的な開始点は、前記視認方向の前記変更が発生した前記仮想現実コンテンツの中の時間的な点よりも前であり、前記特定のオーディオイベントに基づく、前記提供をさせる、
ように構成されるプログラム命令を備える、コンピュータプログラム。
The device, when executed on at least one processor of the device,
Virtual reality content comprising a video image configured to provide a virtual reality space for viewing in virtual reality, wherein a virtual reality view presented to a user provides viewing of the virtual reality content, The virtual reality view comprises a spatial portion of the video images that make up the virtual reality space, has a smaller spatial extent than the spatial extent of the video images in the virtual reality space, and the virtual reality content is spatial audio. The virtual reality, wherein the sensed direction to an audio event related to a visual event in the video image corresponds to a visual position of the visual event presented in the virtual reality space. Regarding content,
The change of the viewing direction of the virtual reality view from the first viewing direction to the second viewing direction by the user, wherein the second viewing direction starts before the change of the viewing direction. Based on said change, matching the direction of the particular audio event that occurred within a direction threshold,
Providing a display of missed event content, wherein the missed event content comprises at least a visual image extracted from the video image of the virtual reality content, the visual image being the specific image. Showing the visual event corresponding to an audio event, the temporal starting point of the missed event content is before the temporal point in the virtual reality content where the change of the viewing direction occurs. Yes, based on the specific audio event, causing the provision,
A computer program comprising program instructions configured to:
JP2018567718A 2016-06-27 2017-06-12 Device and related methods Active JP6703627B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16176504.5A EP3264222B1 (en) 2016-06-27 2016-06-27 An apparatus and associated methods
EP16176504.5 2016-06-27
PCT/FI2017/050432 WO2018002418A1 (en) 2016-06-27 2017-06-12 An apparatus and associated methods

Publications (2)

Publication Number Publication Date
JP2019521440A JP2019521440A (en) 2019-07-25
JP6703627B2 true JP6703627B2 (en) 2020-06-03

Family

ID=56321757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018567718A Active JP6703627B2 (en) 2016-06-27 2017-06-12 Device and related methods

Country Status (6)

Country Link
US (1) US10560752B2 (en)
EP (1) EP3264222B1 (en)
JP (1) JP6703627B2 (en)
CN (1) CN109416562B (en)
MX (1) MX2018016336A (en)
WO (1) WO2018002418A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107888987B (en) * 2016-09-29 2019-12-06 华为技术有限公司 Panoramic video playing method and device
EP3367383B1 (en) 2017-02-23 2023-12-20 Nokia Technologies Oy Virtual reality
EP3503102A1 (en) * 2017-12-22 2019-06-26 Nokia Technologies Oy An apparatus and associated methods for presentation of captured spatial audio content
EP3547691A4 (en) * 2018-02-02 2019-11-13 Ntt Docomo, Inc. Information processing device
US10812828B2 (en) * 2018-04-10 2020-10-20 At&T Intellectual Property I, L.P. System and method for segmenting immersive video
WO2020012062A2 (en) * 2018-07-13 2020-01-16 Nokia Technologies Oy Multi-viewpoint multi-user audio user experience
KR102022604B1 (en) * 2018-09-05 2019-11-04 넷마블 주식회사 Server and method for providing game service based on an interaface for visually expressing ambient audio
EP3664417A1 (en) 2018-12-06 2020-06-10 Nokia Technologies Oy An apparatus and associated methods for presentation of audio content
JP7350510B2 (en) * 2019-05-14 2023-09-26 キヤノン株式会社 Electronic equipment, electronic equipment control method, program, and storage medium

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8730322B2 (en) * 2004-07-30 2014-05-20 Eyesee360, Inc. Telepresence using panoramic imaging and directional sound and motion
JP2008219286A (en) * 2007-03-01 2008-09-18 Sharp Corp Slide show device
JP5115150B2 (en) * 2007-11-02 2013-01-09 ソニー株式会社 Information presenting apparatus and information presenting method
US9432629B2 (en) * 2008-08-18 2016-08-30 Brigham Young University Interactive viewing of sports video
US9497501B2 (en) 2011-12-06 2016-11-15 Microsoft Technology Licensing, Llc Augmented reality virtual monitor
US8963805B2 (en) * 2012-01-27 2015-02-24 Microsoft Corporation Executable virtual objects associated with real objects
JP5992210B2 (en) * 2012-06-01 2016-09-14 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
JP5954147B2 (en) * 2012-12-07 2016-07-20 ソニー株式会社 Function control device and program
US9129430B2 (en) 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
US20150036999A1 (en) * 2013-07-30 2015-02-05 Texas Instruments Incorporated Viewer Attention Controlled Video Playback
JP6219504B2 (en) * 2013-10-25 2017-10-25 インテル コーポレイション Apparatus and method for capturing and generating user experiences
US9462230B1 (en) * 2014-03-31 2016-10-04 Amazon Technologies Catch-up video buffering
US9852774B2 (en) * 2014-04-30 2017-12-26 Rovi Guides, Inc. Methods and systems for performing playback operations based on the length of time a user is outside a viewing area
US10379614B2 (en) * 2014-05-19 2019-08-13 Immersion Corporation Non-collocated haptic cues in immersive environments
WO2015193806A1 (en) * 2014-06-17 2015-12-23 Koninklijke Philips N.V. Evaluating clinician attention
US20180124374A1 (en) * 2014-07-31 2018-05-03 Ashcorp Technologies System and Method for Reducing System Requirements for a Virtual Reality 360 Display
KR20160104493A (en) * 2015-02-26 2016-09-05 삼성전자주식회사 roadcasting receiving apparatus and control method thereof
EP3112985A1 (en) * 2015-06-30 2017-01-04 Nokia Technologies Oy An apparatus for video output and associated methods
US10129579B2 (en) * 2015-10-15 2018-11-13 At&T Mobility Ii Llc Dynamic video image synthesis using multiple cameras and remote control
CN105611481B (en) * 2015-12-30 2018-04-17 北京时代拓灵科技有限公司 A kind of man-machine interaction method and system based on spatial sound
EP3236336B1 (en) 2016-04-21 2019-03-27 Nokia Technologies Oy Virtual reality causal summary content
US20170316806A1 (en) * 2016-05-02 2017-11-02 Facebook, Inc. Systems and methods for presenting content
US10218760B2 (en) * 2016-06-22 2019-02-26 JBF Interlude 2009 LTD Dynamic summary generation for real-time switchable videos
US10701333B2 (en) * 2017-04-16 2020-06-30 Visbit Inc. System, algorithms, and designs of view-optimized zoom for 360 degree video

Also Published As

Publication number Publication date
WO2018002418A1 (en) 2018-01-04
MX2018016336A (en) 2019-09-04
JP2019521440A (en) 2019-07-25
EP3264222B1 (en) 2019-04-10
CN109416562A (en) 2019-03-01
CN109416562B (en) 2022-03-01
EP3264222A1 (en) 2018-01-03
US10560752B2 (en) 2020-02-11
US20190149886A1 (en) 2019-05-16

Similar Documents

Publication Publication Date Title
JP6703627B2 (en) Device and related methods
US9786326B2 (en) Method and device of playing multimedia and medium
JP6542039B2 (en) System and method for Foley tactile content creation
US10798518B2 (en) Apparatus and associated methods
US9950257B2 (en) Recording companion
US20180300037A1 (en) Information processing device, information processing method, and program
US10887719B2 (en) Apparatus and associated methods for presentation of spatial audio
JP6374598B2 (en) REPRODUCTION CONTROL METHOD, REPRODUCTION CONTROL DEVICE, AND ELECTRONIC DEVICE
US10846535B2 (en) Virtual reality causal summary content
WO2014066192A1 (en) Augmenting speech recognition with depth imaging
JP2020520576A5 (en)
US10474342B2 (en) Scrollable user interface control
JP6757420B2 (en) Voice control device, voice control method and program
US11825170B2 (en) Apparatus and associated methods for presentation of comments
CN114783432A (en) Playing control method of intelligent glasses, intelligent glasses and storage medium
TWI581626B (en) System and method for processing media files automatically
JP6222148B2 (en) Imaging apparatus, image reproduction method, and program
EP3323478A1 (en) An apparatus and associated methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200508

R150 Certificate of patent or registration of utility model

Ref document number: 6703627

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250