JP6703627B2 - Device and related methods - Google Patents
Device and related methods Download PDFInfo
- Publication number
- JP6703627B2 JP6703627B2 JP2018567718A JP2018567718A JP6703627B2 JP 6703627 B2 JP6703627 B2 JP 6703627B2 JP 2018567718 A JP2018567718 A JP 2018567718A JP 2018567718 A JP2018567718 A JP 2018567718A JP 6703627 B2 JP6703627 B2 JP 6703627B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual reality
- event
- content
- audio
- viewing direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 16
- 230000000007 visual effect Effects 0.000 claims description 99
- 230000008859 change Effects 0.000 claims description 59
- 238000004458 analytical method Methods 0.000 claims description 36
- 230000002123 temporal effect Effects 0.000 claims description 27
- 230000015654 memory Effects 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 17
- 230000004044 response Effects 0.000 claims description 13
- 230000006870 function Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000011664 signaling Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/26—Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/443—OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
- H04N21/4438—Window management, e.g. event handling following interaction with the user interface
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/305—Electronic adaptation of stereophonic audio signals to reverberation of the listening space
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
- A63F13/49—Saving the game status; Pausing or ending the game
- A63F13/497—Partially or entirely replaying previous game actions
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
- A63F13/5375—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/54—Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Acoustics & Sound (AREA)
- Databases & Information Systems (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本開示は、仮想現実の分野に関し、特に、仮想現実コンテンツからの見逃されたイベントコンテンツの表示に関する。特に本発明は、時間的な開始点がオーディオイベントに基づく、仮想現実コンテンツからの見逃されたイベントコンテンツの表示に関する。関連する方法、コンピュータプログラム、および装置も開示される。開示される特定の側面/例は、携帯可能な電子デバイスに関する。 The present disclosure relates to the field of virtual reality, and more particularly to displaying missed event content from virtual reality content. In particular, the present invention relates to the display of missed event content from virtual reality content whose temporal starting point is based on audio events. Related methods, computer programs, and apparatus are also disclosed. Certain disclosed aspects/examples relate to portable electronic devices.
仮想現実は、グラスもしくはゴーグルなどのヘッドセットまたはユーザを囲む1つ以上のディスプレイを使用してユーザに没入型仮想体験を提供し得る。仮想現実装置は、仮想現実空間を表すマルチメディア仮想現実コンテンツをユーザに提示して、ユーザが仮想現実空間の中に存在するのをシミュレートすることもある。仮想現実空間は、広視野または360°の視野(水平方向の視野の上方および/または下方を含む場合もある)を有するビデオなどのパノラマ式ビデオにより提供されることもある。さらに、特定の位置で生じているように感じられる音を備える空間オーディオが仮想現実の消費の一環として提供されることもある。仮想現実空間を構成するビデオ画像がユーザが一度に視認できるよりも大きいことにより、ユーザにイベントが聞こえるのに見えないという結果が生じる。 Virtual reality may provide a user with an immersive virtual experience using a headset such as glasses or goggles or one or more displays surrounding the user. The virtual reality device may also present multimedia virtual reality content representing the virtual reality space to the user to simulate the user's presence in the virtual reality space. Virtual reality space may also be provided by panoramic video, such as video with a wide field of view or a 360° field of view (which may include above and/or below the horizontal field of view). In addition, spatial audio with sounds that appear to be occurring at a particular location may be provided as part of virtual reality consumption. The fact that the video images that make up the virtual reality space are larger than the user can see at one time results in the user not being able to hear and see the event.
本明細書における以前に公開された文書または任意の背景の列挙または説明は、必ずしも、その文書または背景が最新技術の一部であることまたは一般知識であることの自認であると理解されてはならない。本開示の1つ以上の側面/例は、背景の課題の1つ以上に対処することもあり、しないこともある。 Any listing or description of a previously published document or background in this specification is not necessarily to be construed as an admission that such document or background is part of the state of the art or is general knowledge. I won't. One or more aspects/examples of the present disclosure may or may not address one or more of the background issues.
第1の例示の側面では、少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つのメモリとを備える次のような装置が提供される。この装置は、前記コンピュータプログラムコードが、前記少なくとも1つのプロセッサに実行されると、前記装置に少なくとも、仮想現実の中での視認用の仮想現実空間を提供するよう構成されたビデオ画像を備える仮想現実コンテンツに関して、仮想現実ビューの視認方向の、第1の視認方向から第2の視認方向へのユーザによる変更に基づいて、見逃されたイベントコンテンツの表示を提供することを実行させるよう構成される。
ここで前記仮想現実コンテンツは、ユーザに提示される仮想現実ビューが仮想現実コンテンツの視認を提供し、仮想現実ビューは、仮想現実空間を構成するビデオ画像の空間的な一部を備え、仮想現実空間のビデオ画像の空間範囲よりも空間範囲が小さく、仮想現実コンテンツは空間オーディオを含み、ビデオ画像の中の視覚的イベントに関係するオーディオイベントへの感知される方向が、仮想現実空間の中で提示される前記視覚的イベントの視覚的位置に対応する。
また、前記第2の視認方向は、視認方向の変更より前に開始が発生している特定のオーディオイベントの方向に方向閾値以内で一致する。
また、前記見逃されたイベントコンテンツは、仮想現実コンテンツのビデオ画像から抽出された視覚的画像を少なくとも有する。前記視覚的画像は、特定のオーディオイベントに対応する視覚的イベントを示し、見逃されたイベントコンテンツの時間的な開始点は、視認方向の変更が発生した仮想現実コンテンツの中の時間的な点よりも前であり、特定のオーディオイベントに基づく。
In a first exemplary aspect, there is provided an apparatus as follows, comprising at least one processor and at least one memory containing computer program code. The apparatus comprises a virtual image comprising a video image configured to, when the computer program code is executed by the at least one processor, provide the apparatus with at least a virtual reality space for viewing in virtual reality. Configured to cause providing a display of missed event content based on a user's change of the viewing direction of the virtual reality view from the first viewing direction to the second viewing direction for the real content. ..
Here, in the virtual reality content, a virtual reality view presented to a user provides a view of the virtual reality content, and the virtual reality view comprises a spatial part of a video image forming a virtual reality space. The spatial extent is smaller than the spatial extent of the video image of the space, the virtual reality content includes spatial audio, and the perceived direction to the audio event related to the visual event in the video image is in the virtual reality space. Corresponds to the visual position of the presented visual event.
Also, the second viewing direction matches the direction of a particular audio event whose start has occurred before the change of the viewing direction within a direction threshold.
Further, the missed event content includes at least a visual image extracted from a video image of the virtual reality content. The visual image shows a visual event corresponding to a specific audio event, and the temporal starting point of the missed event content is the temporal point in the virtual reality content in which the change in the viewing direction occurs. Before and based on a specific audio event.
その結果、ユーザが関連するオーディオイベントを聞き、それに対して視認方向を変更することにより反応したかもしれない見逃された視覚的イベントを、ユーザが見ることを可能にしてもよい。空間オーディオは、ほかに3次元オーディオとしても知られるが、これは、全体のオーディオ環境を構成するオーディオイベントを特定の方向から来るものとユーザが感知するように、オーディオを仮想現実のユーザ(消費者)に提示するものであり、その結果、対応する視覚的イベントがユーザの現在の仮想現実ビューの外にあるオーディオイベントを、ユーザが聞くこともある。ユーザが、聞こえたばかりのオーディオイベントに関連する視覚的イベントを視認するために、例えば頭を動かし反応し、その結果、仮想現実ビューを移動させる場合、オーディオイベントの感知された方向を見る時までには、オーディオイベントに関連した該当するビデオ画像(視覚的イベント)の一部または全部をユーザは見逃しているかもしれない。よって、装置は、見逃されたイベントコンテンツをユーザが視認でき、その結果、聞こえたオーディオイベントに関連する視覚的イベントコンテンツを視認できるように、仮想現実コンテンツを「巻き戻し」てもよい。例えば、ユーザが前方(すなわち第1の視認方向)を見てフットボール選手の特定のグループを注視していて、次にその背後(つまりユーザの現在の視界の外、第2の視認方向である)から生じるものとして感知される音(オーディオイベント)、例えば選手が「パスをくれ」と大声で呼びかけるのが聞こえた場合、ユーザはなぜ選手が大声を出しているのか確認したいかもしれない。したがって、ユーザは、第1の視認方向から第2の視認方向へと視認方向を変更するために頭を振り向ける。当然のことながら、ユーザが第2の視認方向を見ることを決定してから時間が進んでいるので、ユーザは「パスをくれ」と大声で呼びかけている選手に関連した視覚的コンテンツを見損なった。しかし、見逃されたイベントコンテンツが、ユーザが確かに聞いたオーディオイベントに関連した見ていない視覚的イベントを、ユーザが見ることができるようにしてもよい。したがって、装置は、見逃した視覚的イベントをユーザが見ることができるように、仮想現実コンテンツの中のオーディオイベントに基づいた時点から、少なくとも視覚的画像の表示を、さらに任意選択で付随するオーディオを提供する。 As a result, the user may be able to see missed visual events that the user may have heard by listening to the relevant audio event and reacting to it by changing the viewing direction. Spatial audio, otherwise known as three-dimensional audio, is used to make audio perceived by a virtual reality user (consumer) so that the user perceives the audio events that make up the overall audio environment from a particular direction. The user may also hear an audio event whose corresponding visual event is outside the user's current virtual reality view. By the time the user sees the sensed direction of an audio event, for example, if the user reacts by moving his/her head and thus moving the virtual reality view in order to see a visual event related to the audio event just heard. The user may have missed some or all of the relevant video images (visual events) associated with the audio event. Thus, the device may "rewind" the virtual reality content so that the missed event content is visible to the user and, consequently, the visual event content associated with the audio event heard. For example, a user is looking ahead (ie, a first view direction) to a particular group of football players and then behind it (ie, outside the user's current view, in a second view direction). If the user hears a sound (audio event) that is perceived as coming from, for example, a player yells "give me a pass", the user may want to see why the player is yelling. Therefore, the user turns his/her head to change the viewing direction from the first viewing direction to the second viewing direction. Not surprisingly, as time has progressed since the user decided to look in the second viewing direction, the user missed the visual content associated with the player yelling "give me a pass". .. However, the missed event content may allow the user to see unseen visual events associated with audio events that the user has indeed heard. Thus, the device provides at least a visual image display and optionally an accompanying audio from a time based on the audio event in the virtual reality content so that the user can see the missed visual event. provide.
1つ以上の実施形態において、特定のオーディオイベントに関係する視覚的イベントは、第1の視認方向に向けられている場合の仮想現実ビューの中で視認可能でなかった。1つ以上の実施形態において、第1の視認方向に向けられている場合の仮想現実ビューの中で、対応する特定のオーディオイベントが発生した時にユーザの注目が前記視覚的イベントに置かれていなかった。 In one or more embodiments, the visual event associated with the particular audio event was not visible in the virtual reality view when oriented in the first viewing direction. In one or more embodiments, in the virtual reality view when oriented in the first viewing direction, the visual event is not focused on by the user when the corresponding specific audio event occurs. It was
1つ以上の実施形態において、見逃されたイベントコンテンツの時間的な開始点は、特定のオーディオイベントが始まったと以下のうちの1つ以上に基づいてみなされる時間に基づく:
提示される他の任意のオーディオに対する特定のオーディオイベントの分析、
特定のオーディオイベントの分析、および
仮想現実コンテンツの中のオーディオイベントのタイミングを少なくとも定義する所定のオーディオイベントデータ。
In one or more embodiments, the temporal starting point for missed event content is based on the time a particular audio event is considered to have started based on one or more of the following:
Analysis of a specific audio event for any other audio presented,
Predetermined audio event data that at least defines the analysis of a specific audio event and the timing of the audio event in the virtual reality content.
他の1つ以上の例において、特定のオーディオイベントが始まったとみなされる時間は、任意の適切な方法により判断され得る。 In one or more other examples, the time at which a particular audio event is considered to have begun may be determined by any suitable method.
1つ以上の実施形態において、見逃されたイベントコンテンツの提供は、第1の視認方向と第2の視認方向との間の視認方向の変更の度合いが方向変更閾値を超えることにさらに基づく。これは、仮想現実空間を何気なく見回してその中に提示されるビデオ画像を見ているユーザと、聞こえた音、つまりオーディオイベントに反応したユーザとを区別するために方向変更閾値が使用され得るので、有利かもしれない。方向変更閾値は、0.05度/ミリ秒超、0.06度/ミリ秒超、0.07度/ミリ秒超、0.08度/ミリ秒超、0.09度/ミリ秒超、またはそれ以上であってもよい。 In one or more embodiments, the provision of the missed event content is further based on a degree of change in the viewing direction between the first viewing direction and the second viewing direction exceeding a direction change threshold. This is because the redirection threshold can be used to distinguish between a user casually looking around the virtual reality space and looking at the video image presented therein, and a user who is audible, i.e. responding to an audio event. , May be advantageous. The direction change threshold is more than 0.05 degree/millisecond, more than 0.06 degree/millisecond, more than 0.07 degree/millisecond, more than 0.08 degree/millisecond, more than 0.09 degree/millisecond, Or it may be more.
1つ以上の実施形態において、見逃されたイベントコンテンツの提供は、オーディオ閾値(絶対オーディオ閾値であっても、ユーザに提示される他の任意のオーディオに対する相対閾値であってもよい)に対する特定のオーディオイベントの音量または周波数成分のうちの1つ以上にさらに基づく。これは、ユーザが反応したかもしれないオーディオイベントを識別するため、さらにそれに応じて適切な見逃されたイベントコンテンツを提供するために音量または周波数成分を使用できるので、有利かもしれない。VR(virtuarl reality:仮想現実)ビューの方向の変更は、オーディオイベント閾値を使用した1つ以上のオーディオイベント候補の識別を提供してもよく、その中から、第2の視認方向が特定のオーディオイベントの方向に方向閾値以内で一致することに基づいて、特定のオーディオイベントが識別される。 In one or more embodiments, the provision of missed event content is specific to an audio threshold (which may be an absolute audio threshold or a relative threshold to any other audio presented to the user). It is further based on one or more of the volume or frequency components of the audio event. This may be advantageous as the volume or frequency components may be used to identify audio events that the user may have responded to, and correspondingly provide appropriate missed event content. Changing the direction of a virtual reality (VR) view may provide identification of one or more audio event candidates using an audio event threshold, of which a second viewing direction is audio specific. A particular audio event is identified based on matching the direction of the event within a direction threshold.
1つ以上の実施形態において、特定のオーディオイベントの判断は、以下のうちの1つ以上に基づく:
a)仮想現実コンテンツの中で発生する1つ以上のオーディオイベントへの方向を備える所定のオーディオイベントデータ、および方向閾値以内の第2の視認方向と、1つ以上のオーディオイベントのうちの1つの方向との相互関係、
b)視認方向の変更に応答しての、ユーザが第2の視認方向で見る方向の特定のオーディオイベントを識別するための空間オーディオのオーディオ分析。
In one or more embodiments, the determination of a particular audio event is based on one or more of the following:
a) predetermined audio event data with directions to one or more audio events occurring in the virtual reality content, and a second viewing direction within a direction threshold, and one of the one or more audio events. Interaction with direction,
b) An audio analysis of the spatial audio in response to the change of viewing direction to identify a particular audio event in the viewing direction of the user in the second viewing direction.
1つ以上の例において、オーディオ分析は、オーディオ閾値に対する空間オーディオの音量および周波数成分のうちの1つ以上に基づく。 In one or more examples, the audio analysis is based on one or more of the volume and frequency components of spatial audio relative to the audio threshold.
1つ以上の実施形態において、所定のオーディオイベントデータは、以下のうちの1つ以上に基づく:
音量に基づく、周波数に基づく、および/または音声認識に基づく分析を含んでもよいオーディオ分析、
手動で提供されたオーディオイベントデータ、
VRコンテンツの中に捕捉される物体に関連するセンサから取得されるセンサデータ、
閾値を上回り急激に変化する局所的なビデオ画像を探す読唇分析および/またはアクション識別アルゴリズムを含んでもよい、ビデオ分析。
In one or more embodiments, the predetermined audio event data is based on one or more of the following:
Audio analysis, which may include volume-based, frequency-based, and/or voice-recognition-based analysis,
Manually provided audio event data,
Sensor data obtained from sensors associated with objects captured in VR content,
Video analysis, which may include lip-reading analysis and/or action identification algorithms looking for localized video images that change rapidly above a threshold.
したがって、1つ以上の例において、装置はオーディオイベントの所定の知識を有してもよく、見逃されたイベントコンテンツを提供するために、VRビューの第2の視認方向と、既知のオーディオイベントの1つとを照合するよう構成されてもよい。1つ以上の例において、装置は、オーディオイベントの知識を有しなくてもよく、視認方向を変更するようユーザを促した可能性のある、音の大きい部分(より一般的に音量特性)または特定の周波数を含む部分(より一般的に周波数特性)を求めて空間オーディオを分析してもよい。空間オーディオの分析は、方向閾値以内の第2の視認方向の方向に制約されてもよい。分析によりオーディオイベントが識別されるのに応答して、識別されたオーディオイベントに関連付けられた視覚的イベントを示すために、見逃されたイベントコンテンツが提供されてもよい。見逃されたイベントコンテンツの時間的な開始点は、オーディオ分析またはオーディオイベントデータに基づいてもよい。例えば開始点は、空間オーディオの音の大きい部分が発生したとき、または特定のオーディオ周波数を含む部分に基づいてもよい。当然のことながら、時間的な開始点は、オーディオイベントの開始より所定の期間前に開始してもよく、これは、ユーザがオーディオイベントの原因を理解する支援となり得る。 Therefore, in one or more examples, the device may have a predetermined knowledge of audio events, and in order to provide missed event content, a second viewing direction of the VR view and a known audio event may be used. It may be configured to match one. In one or more examples, the device may have no knowledge of the audio event and may be a loud part (more generally a volume characteristic) that may have prompted the user to change the viewing direction, or Spatial audio may be analyzed for portions (more generally frequency characteristics) that include a particular frequency. The spatial audio analysis may be constrained to a direction of the second viewing direction that is within the direction threshold. In response to the audio event being identified by the analysis, the missed event content may be provided to indicate a visual event associated with the identified audio event. The temporal starting point of missed event content may be based on audio analysis or audio event data. For example, the starting point may be based on when a loud part of the spatial audio occurs, or on the part containing a particular audio frequency. Of course, the temporal starting point may start a predetermined period before the start of the audio event, which may help the user understand the cause of the audio event.
したがって、1つ以上の例において、1つ以上のオーディオイベントが、オンザフライで判断されてもよく、または所定で(オーディオイベントデータが仮想現実コンテンツとともに提供されて)もよく、装置は、第2のVR視認方向がオーディオイベント候補の1つに一致することに基づいて特定のオーディオイベントへのユーザの関心を判断するよう構成されてもよい。あるいは、またはさらに、装置は、ユーザによる視認方向の変更が、ユーザが反応した可能性のある特定のオーディオイベントを識別する識別プロセスを提供するように構成されてもよい。要するに、視認方向の変更に応答して、装置は、オーディオイベントをユーザが反応した可能性のある特定のオーディオイベントとして識別するために、第2の方向の方向閾値以内の空間オーディオの分析を提供してもよい。その結果、適切な見逃されたイベントコンテンツが提供され得る。 Thus, in one or more examples, one or more audio events may be determined on-the-fly, or may be predetermined (audio event data provided with virtual reality content), and the device may It may be configured to determine a user's interest in a particular audio event based on a VR viewing direction matching one of the audio event candidates. Alternatively, or in addition, the device may be configured so that a change in viewing direction by a user provides an identification process that identifies a particular audio event that the user may have responded to. In summary, in response to a change in viewing direction, the device provides an analysis of spatial audio within a direction threshold of a second direction to identify the audio event as a particular audio event that the user may have responded to. You may. As a result, appropriate missed event content may be provided.
1つ以上の実施形態において、見逃されたイベントコンテンツの表示は、仮想現実コンテンツの一時的な停止と、見逃されたイベントコンテンツの仮想現実ビューにおける表示とを提供することを含む。 In one or more embodiments, displaying the missed event content includes providing a temporary stop of the virtual reality content and displaying the missed event content in a virtual reality view.
1つ以上の実施形態において、特定のオーディオイベントの方向へ向かう視認方向の変更に応答して、見逃されたイベントコンテンツが始まる時点まで仮想現実コンテンツが巻き戻されるようにユーザに見えるよう時間の点で逆に仮想現実コンテンツの表示を提供する。 In one or more embodiments, in response to a change in viewing direction towards a particular audio event, a point in time at which the virtual reality content appears to the user to rewind until the point at which the missed event content begins. On the contrary, it provides a display of virtual reality content.
1つ以上の実施形態において、時間の点で逆に仮想現実コンテンツを表示することは、ユーザが第2の視認方向で止まると始まってもよい。1つ以上の実施形態において、時間の点で逆に仮想現実コンテンツを表示することは、ユーザが止まる可能性のある第2の視認方向の予測に基づいて、視認方向の変更をユーザが開始するのに伴い始まってもよい。例えば、オーディオイベントデータが、ユーザがVRビューを変更する大体の方向のオーディオイベントを示し、その結果、ユーザが前記オーディオイベントに向かって振り向くとの予測が可能であってもよい。 In one or more embodiments, displaying the virtual reality content conversely in time may begin when the user stops in the second viewing direction. In one or more embodiments, displaying virtual reality content conversely in terms of time causes the user to initiate a viewing direction change based on a second viewing direction prediction that may cause the user to stop. It may start with. For example, it may be possible for the audio event data to indicate an audio event in the general direction in which the user modifies the VR view, so that the user may turn around towards the audio event.
1つ以上の実施形態において、見逃されたイベントコンテンツは、以下のうちの1つ以上を備える:
i)仮想現実コンテンツのビデオ画像から抽出された見逃されたイベントビデオ画像、
ii)仮想現実コンテンツのビデオ画像から抽出された見逃されたイベント静止画像、
iii)仮想現実コンテンツのビデオ画像から抽出された見逃されたイベントの仮想現実コンテンツであって、見逃されたイベントの仮想現実コンテンツの少なくとも初期の視認方向は、特定のオーディオイベントの方向に合致する、見逃されたイベントの仮想現実コンテンツ、
iv)仮想現実コンテンツのビデオ画像から抽出された見逃されたイベントの仮想現実コンテンツであって、見逃されたイベントの仮想現実コンテンツは、仮想現実コンテンツの空間範囲未満の空間範囲を有し、特定のオーディオイベントの方向が焦点とされる、見逃されたイベントの仮想現実コンテンツ。
In one or more embodiments, the missed event content comprises one or more of the following:
i) Missed event video images extracted from virtual reality content video images,
ii) Missed event still images extracted from the virtual reality content video images,
iii) virtual reality content of a missed event extracted from a video image of the virtual reality content, wherein at least an initial viewing direction of the virtual reality content of the missed event matches the direction of the particular audio event, Virtual reality content for missed events,
iv) Virtual reality content of the missed event extracted from the video image of the virtual reality content, the virtual reality content of the missed event having a spatial extent less than the spatial extent of the virtual reality content, Virtual reality content for missed events that focuses on the direction of the audio event.
1つ以上の実施形態において、見逃されたイベントコンテンツは、仮想現実コンテンツとともに仮想現実ビューの中でピクチャインピクチャとして表示するために提供される。本例では、仮想現実コンテンツは時間的に中断されず、その結果、仮想現実コンテンツの表示を継続する一方で、同時に、時間的に前の見逃された視覚的イベントを示してもよい。 In one or more embodiments, missed event content is provided for display as picture-in-picture in a virtual reality view along with virtual reality content. In this example, the virtual reality content is not interrupted in time, so that the virtual reality content continues to be displayed while at the same time indicating a temporally previous missed visual event.
1つ以上の実施形態において、見逃されたイベントコンテンツの表示が完了すると、仮想現実コンテンツの表示は、第1の視認方向から第2の視認方向への視認方向の変更の時間に一致する時点から再開される。仮想現実コンテンツの表示の再開は、仮想現実ビューの現在の視認方向を用いてもよく、これは、ほぼ第2の視認方向であってもよい。 In one or more embodiments, when the display of the missed event content is complete, the virtual reality content is displayed from a point in time that coincides with the time of changing the viewing direction from the first viewing direction to the second viewing direction. It will be restarted. Resuming the display of the virtual reality content may use the current viewing direction of the virtual reality view, which may be approximately the second viewing direction.
1つ以上の実施形態において、見逃されたイベントコンテンツの表示が完了すると、仮想現実コンテンツが、少なくとも一時的に実時間よりも高い再生速度での表示のために提供される。これは、見逃されたイベントコンテンツが表示のために提供されなければ再生されていたであろうところまで追いつくように仮想現実コンテンツの再生を提供してもよい。これは、仮想現実コンテンツが事前に記録された仮想現実コンテンツではなく生の仮想現実コンテンツを備える場合に特に有用かもしれない。 In one or more embodiments, upon completion of display of missed event content, virtual reality content is provided for display at a playback speed that is at least temporarily higher than real time. This may provide playback of virtual reality content to catch up to where the missed event content would have been played if not provided for display. This may be particularly useful if the virtual reality content comprises raw virtual reality content rather than pre-recorded virtual reality content.
1つ以上の実施形態において、方向閾値は、90°未満、70°未満、45°未満、または30°未満であってもよい。1つ以上の実施形態において、ユーザは、短い間のみ聞こえた音の発生源の方を正確に見ることができないかもしれず、そこで方向閾値が、特定のオーディオイベントを識別するための許容誤差を提供するので、方向閾値は有利かもしれない。 In one or more embodiments, the orientation threshold may be less than 90°, less than 70°, less than 45°, or less than 30°. In one or more embodiments, the user may not be able to accurately see the source of sound heard only for a short time, where the directional threshold provides a tolerance for identifying a particular audio event. Therefore, the direction threshold may be advantageous.
第2の側面において、方法が提供される。本方法は、
仮想現実の中での視認用の仮想現実空間を提供するよう構成されたビデオ画像を備える仮想現実コンテンツであって、ユーザに提示される仮想現実ビューが仮想現実コンテンツの視認を提供し、仮想現実ビューは、仮想現実空間を構成するビデオ画像の空間的な一部を備え、仮想現実空間のビデオ画像の空間範囲よりも空間範囲が小さく、仮想現実コンテンツは、空間オーディオを含み、ビデオ画像の中の視覚的イベントに関係するオーディオイベントへの感知される方向が、仮想現実空間の中で提示される前記視覚的イベントの視覚的位置に対応する、仮想現実コンテンツに関して、
仮想現実ビューの視認方向の、第1の視認方向から第2の視認方向へのユーザによる変更であって、前記第2の視認方向は、視認方向の変更より前に開始が発生した特定のオーディオイベントの方向に方向閾値以内で一致する、変更に基づいて、
見逃されたイベントコンテンツの表示を提供することであって、見逃されたイベントコンテンツは、仮想現実コンテンツのビデオ画像から抽出された視覚的画像を少なくとも有し、視覚的画像は、特定のオーディオイベントに対応する視覚的イベントを示し、見逃されたイベントコンテンツの時間的な開始点は、視認方向の変更が発生した仮想現実コンテンツの中の時間的な点よりも前であり、特定のオーディオイベントに基づく、提供すること、
を含む。
In a second aspect, a method is provided. The method is
Virtual reality content comprising video images configured to provide a virtual reality space for viewing in virtual reality, wherein a virtual reality view presented to a user provides viewing of the virtual reality content, The view comprises a spatial portion of the video images that make up the virtual reality space, has a smaller spatial extent than the spatial extent of the video images in the virtual reality space, and the virtual reality content includes spatial audio and Of virtual reality content, wherein the perceived direction to the audio event associated with the visual event corresponds to the visual position of said visual event presented in virtual reality space,
A change in a viewing direction of a virtual reality view from a first viewing direction to a second viewing direction by a user, wherein the second viewing direction is a specific audio whose start occurs before the viewing direction change. Based on the changes that match the direction of the event within the direction threshold,
Providing a display of missed event content, the missed event content having at least a visual image extracted from a video image of the virtual reality content, the visual image being at a particular audio event. It shows the corresponding visual event, and the missed event content has a temporal start point before the temporal point in the virtual reality content where the viewing direction change occurred and is based on the particular audio event. To provide,
including.
第3の側面において、コンピュータ可読媒体上に記憶されたコンピュータプログラムコードを備える、コンピュータ可読媒体が提供され、コンピュータ可読媒体およびコンピュータプログラムコードは、少なくとも1つのプロセッサ上で実行されると、
仮想現実の中での視認用の仮想現実空間を提供するよう構成されたビデオ画像を備える仮想現実コンテンツであって、ユーザに提示される仮想現実ビューが仮想現実コンテンツの視認を提供し、仮想現実ビューは、仮想現実空間を構成するビデオ画像の空間的な一部を備え、仮想現実空間のビデオ画像の空間範囲よりも空間範囲が小さく、仮想現実コンテンツは、空間オーディオを含み、ビデオ画像の中の視覚的イベントに関係するオーディオイベントへの感知される方向が、仮想現実空間の中で提示される前記視覚的イベントの視覚的位置に対応する、仮想現実コンテンツに関して、
仮想現実ビューの視認方向の、第1の視認方向から第2の視認方向へのユーザによる変更であって、前記第2の視認方向は、視認方向の変更より前に開始が発生した特定のオーディオイベントの方向に方向閾値以内で一致する、変更に基づいて、
見逃されたイベントコンテンツの表示の提供であって、見逃されたイベントコンテンツは、仮想現実コンテンツのビデオ画像から抽出された視覚的画像を少なくとも有し、視覚的画像は、特定のオーディオイベントに対応する視覚的イベントを示し、見逃されたイベントコンテンツの時間的な開始点は、視認方向の変更が発生した仮想現実コンテンツの中の時間的な点よりも前であり、特定のオーディオイベントに基づく、提供をする、
方法を実行するよう構成されている。
In a third aspect, there is provided a computer readable medium comprising computer program code stored on the computer readable medium, the computer readable medium and the computer program code executing on at least one processor,
Virtual reality content comprising video images configured to provide a virtual reality space for viewing in virtual reality, wherein a virtual reality view presented to a user provides viewing of the virtual reality content, The view comprises a spatial portion of the video images that make up the virtual reality space, has a smaller spatial extent than the spatial extent of the video images in the virtual reality space, and the virtual reality content includes spatial audio and Of virtual reality content, wherein the perceived direction to the audio event associated with the visual event corresponds to the visual position of said visual event presented in virtual reality space,
A change in a viewing direction of a virtual reality view from a first viewing direction to a second viewing direction by a user, wherein the second viewing direction is a specific audio whose start occurs before the viewing direction change. Based on the changes that match the direction of the event within the direction threshold,
Providing a display of missed event content, the missed event content having at least a visual image extracted from a video image of the virtual reality content, the visual image corresponding to a particular audio event. Presents a visual event, and the missed event content has a temporal start point before the temporal point in the virtual reality content where the viewing direction change occurred, and is based on a specific audio event. do,
The method is configured to perform.
さらなる側面において、装置が提供され、装置は、仮想現実の中での視認用の仮想現実空間を提供するよう構成されたビデオ画像を備える仮想現実コンテンツであって、ユーザに提示される仮想現実ビューが仮想現実コンテンツの視認を提供し、仮想現実ビューは、仮想現実空間を構成するビデオ画像の空間的な一部を備え、仮想現実空間のビデオ画像の空間範囲よりも空間範囲が小さく、仮想現実コンテンツは、空間オーディオを含み、ビデオ画像の中の視覚的イベントに関係するオーディオイベントへの感知される方向が、仮想現実空間の中で提示される前記視覚的イベントの視覚的位置に対応する、仮想現実コンテンツに関して、
仮想現実ビューの視認方向の、第1の視認方向から第2の視認方向へのユーザによる変更であって、前記第2の視認方向は、視認方向の変更より前に開始が発生した特定のオーディオイベントの方向に方向閾値以内で一致する、変更に基づいて、
見逃されたイベントコンテンツの表示の提供であって、見逃されたイベントコンテンツは、仮想現実コンテンツのビデオ画像から抽出された視覚的画像を少なくとも有し、視覚的画像は、特定のオーディオイベントに対応する視覚的イベントを示し、見逃されたイベントコンテンツの時間的な開始点は、視認方向の変更が発生した仮想現実コンテンツの中の時間的な点よりも前であり、特定のオーディオイベントに基づく、提供をする、
よう構成された手段を備える。
In a further aspect, a device is provided, the device being virtual reality content comprising video images configured to provide a virtual reality space for viewing in virtual reality, the virtual reality view being presented to a user. Provides a view of the virtual reality content, and the virtual reality view comprises a spatial portion of the video images that make up the virtual reality space and has a smaller spatial extent than the spatial extent of the video images in the virtual reality space. The content includes spatial audio, wherein the perceived direction to the audio event related to the visual event in the video image corresponds to the visual location of the presented visual event in virtual reality space, Regarding virtual reality content,
A change in a viewing direction of a virtual reality view from a first viewing direction to a second viewing direction by a user, wherein the second viewing direction is a specific audio whose start occurs before the viewing direction change. Based on the changes that match the direction of the event within the direction threshold,
Providing a display of missed event content, the missed event content having at least a visual image extracted from a video image of the virtual reality content, the visual image corresponding to a particular audio event. Presents a visual event, and the missed event content has a temporal start point before the temporal point in the virtual reality content where the viewing direction change occurred, and is based on a specific audio event. do,
And means configured as described above.
本開示は、1つ以上の対応する側面、例、または特徴を、単独または様々な組み合わせで含み、これは、その組み合わせまたは単独で特に記載(特許請求を含む)されたか否かにかかわらない。記載される機能のうちの1つ以上を実行する関連する手段および関連する機能ユニット(例えば機能イネーブラ、ビデオ画像抽出器、ビデオ画像コンパイラ、視認方向測定器、視認方向変更器、ビデオプレーヤ、方向センサ)も本開示の範囲内である。 This disclosure includes one or more corresponding aspects, examples, or features, alone or in various combinations, whether or not specifically described (including claimed) in that combination or alone. Associated means and associated functional units for performing one or more of the functions described (eg functional enabler, video image extractor, video image compiler, view direction measuring device, view direction changer, video player, direction sensor). ) Is also within the scope of the present disclosure.
開示された方法の1つ以上を実装する対応するコンピュータプログラムも本開示の範囲内にあり、記載された例の1つ以上に含まれる。 Corresponding computer programs implementing one or more of the disclosed methods are also within the scope of the present disclosure and included in one or more of the described examples.
上記の概要は、単なる例示であり非限定的なものとして意図されている。 The above summary is intended as illustrative only and not limiting.
以下、単なる例として、添付の図面を参照しながら説明を行う。 The following description is given, by way of example only, with reference to the accompanying drawings.
仮想現実(VR)は、グラスもしくはゴーグルなどのヘッドセットまたはユーザを囲む1つ以上のディスプレイを使用してユーザに没入型仮想体験を提供し得る。仮想現実装置は、仮想現実空間を表すマルチメディア仮想現実コンテンツをユーザに提示して、ユーザが仮想現実空間の中に存在するのをシミュレートすることもある。仮想現実空間は、実世界環境を再現してユーザが物理的に実世界の位置に存在するのをシミュレートすることもある。または、仮想現実空間は、コンピュータ生成されることも、もしくはコンピュータ生成されたコンテンツと実世界マルチメディアコンテンツとの組み合わせであることもある。仮想現実空間は、広視野または360°の視野(水平方向の視野の上方および/または下方を含む場合もある)を有するビデオなどのパノラマ式ビデオにより提供されることもある。要するに、仮想現実空間は、VRコンテンツのビデオ画像が表示のために提供される、仮想3次元環境を提供する。ユーザはそのVRビュー、すなわちVR空間のビデオ画像を視認するためののぞき窓として、仮想現実空間の空間サブセットを提供される。仮想現実装置は、表示される仮想現実空間とのユーザのやり取りを提供することもある。ユーザに提供される仮想現実コンテンツは、例えばパノラマ式ビデオ捕捉デバイスまたは仮想現実コンテンツ捕捉デバイスなど、仮想現実コンテンツ捕捉デバイスにより捕捉された、実世界の生のイメージまたは記録されたイメージを備えることもある。仮想現実コンテンツ捕捉デバイスの一例は、Nokia OZOカメラである。仮想現実空間は、360°以上の視野を提供することもあるし、VRユーザの頭または眼の動きに基づく前記視野のパン/回転を提供することもある。仮想現実空間の仮想現実ビューは、ヘッドセットのディスプレイを介して仮想現実装置により前記ユーザに提供されることもある。仮想現実空間は、仮想現実コンテンツのイメージから作成された3次元空間としてVR装置のユーザには見えるかもしれない。要するに、VRコンテンツは、(途切れがなく連続的な)ラップアラウンド型の視野を形成するようにともに表示および配列可能な、複数の視認方向から得られたイメージを備えることもある。 Virtual reality (VR) may provide a user with an immersive virtual experience using a headset such as glasses or goggles or one or more displays surrounding the user. The virtual reality device may also present multimedia virtual reality content representing the virtual reality space to the user to simulate the user's presence in the virtual reality space. The virtual reality space may reproduce the real world environment to simulate the physical presence of the user in the real world position. Alternatively, the virtual reality space may be computer-generated or a combination of computer-generated content and real-world multimedia content. Virtual reality space may also be provided by panoramic video, such as video with a wide field of view or a 360° field of view (which may include above and/or below the horizontal field of view). In essence, virtual reality space provides a virtual three-dimensional environment in which video images of VR content are provided for display. The user is provided with a spatial subset of the virtual reality space as a viewing window for viewing the VR view, ie the video image of the VR space. The virtual reality device may provide user interaction with the displayed virtual reality space. The virtual reality content provided to the user may comprise a real world live or recorded image captured by the virtual reality content capture device, eg, a panoramic video capture device or a virtual reality content capture device. .. An example of a virtual reality content capture device is a Nokia OZO camera. The virtual reality space may provide a field of view of 360° or more, and may provide pan/rotation of the field of view based on the movement of the VR user's head or eyes. A virtual reality view of the virtual reality space may be provided to the user by the virtual reality device via the display of the headset. The virtual reality space may be seen by the user of the VR device as a three-dimensional space created from the image of the virtual reality content. In essence, VR content may also comprise images obtained from multiple viewing directions that can be displayed and arranged together to form a (continuous and uninterrupted) wrap-around view.
仮想現実コンテンツは、その本質から、没入型である場合もあり、その結果、大量のデータを備えることもある。仮想現実コンテンツは、ユーザを取り囲むなどするような大きな空間範囲を有するビデオ画像(すなわち動画)を備えることもある。ユーザに提供される仮想現実ビューは、総面積よりも狭いビデオ画像の面積しか対象としないかもしれず、ユーザは、ビデオ画像が対象とする仮想現実空間の空間範囲全体を鑑賞するために、仮想現実ビューをあちこち動かす必要があるかもしれない。当然のことながら、時間とともに進行するVRビデオ画像に関しては、ユーザがあらゆる時点においてビデオ画像の空間部分すべてを見ることは不可能であり、その結果、イベントが本質的に見逃される。 By its very nature, virtual reality content may be immersive and, as a result, may include large amounts of data. Virtual reality content may also include video images (ie, moving images) that have a large spatial extent, such as surrounding a user. The virtual reality view presented to the user may only cover the area of the video image that is smaller than the total area, and the user may be required to view the entire spatial extent of the virtual reality space covered by the video image in order to You may need to move the view around. Of course, for VR video images that progress over time, it is not possible for the user to see all of the spatial portion of the video image at any given time, resulting in the event being essentially missed.
VRコンテンツは、空間オーディオとともに提示されることもある。空間オーディオは、ほかに三次元オーディオまたは指向性オーディオとしても知られ、仮想現実のユーザ(消費者)がオーディオの各要素を特定の方向から生じているものと感知するようにユーザにオーディオを提示する。したがって、VRコンテンツを消費しているユーザに提示されるオーディオは、特定の方向から来ていないものとして感知される背景音楽などの周辺または無指向性オーディオと、特定の方向から生じているとユーザにより感知される指向性オーディオとを備えることもある。当然のことながら、仮想現実コンテンツ内のイベントは、登場人物が発話する、車がエンジン回転速度を上げる、ホッケーパックが打撃されるなどの付随するオーディオを生成する。したがって、ユーザの仮想現実ビューの左側に視覚的に現れる、発話中の登場人物の声は、左手側から生じる指向性オーディオとして提示され得る。ここで、オーディオイベントは、仮想現実コンテンツの中で発生している視覚的イベントに関連付けられた指向性オーディオの、少なくとも時間を基準にした、一部を備えてもよい。したがって、発話されるモノローグのオーディオイベントは、VRコンテンツの視覚的画像の中のモノローグを発話している登場人物の視覚的イベントに関連付けられてもよい。「バシッ」と打つ音のオーディオイベントは、ホッケーパックの打撃がその音を生成したのであるから、ホッケーパックがホッケー選手により打撃される視覚的イベントに関連付けられてもよい。当然のことながら、ユーザに提示される空間オーディオは、様々な方向から生じるものとして感知される、多数の指向性音、すなわちオーディオイベントを含むこともある。 VR content may also be presented with spatial audio. Spatial audio, otherwise known as 3D audio or directional audio, presents audio to the virtual reality user (consumer) so that the user perceives each element of audio as originating from a particular direction. To do. Therefore, the audio presented to a user consuming VR content is said to have originated from a particular direction, as well as peripheral or omnidirectional audio such as background music that is perceived as not coming from a particular direction. And directional audio sensed by. Not surprisingly, the events in the virtual reality content produce accompanying audio, such as spoken by a character, the car speeds up the engine, the hockey puck is hit, and so on. Thus, the voice of the speaking character, which visually appears to the left of the user's virtual reality view, may be presented as directional audio originating from the left hand side. Here, the audio event may comprise at least a time-based portion of the directional audio associated with the visual event occurring in the virtual reality content. Accordingly, the spoken monologue audio event may be associated with the visual event of the character speaking the monologue in the visual image of the VR content. A “bashing” audio event may be associated with a visual event where the hockey puck is struck by a hockey player, because the hockey puck's striking produced that sound. Of course, the spatial audio presented to the user may also include numerous directional sounds, or audio events, that are perceived as originating from different directions.
上述のとおり、仮想現実ビューは、VRコンテンツのビデオ画像の総空間範囲の一部のみを備えるが、ユーザに提示されるオーディオは、現実と同様に、仮想現実ビューの空間範囲外の方向で生じているものと感知される指向性オーディオを含むこともある。したがって、ユーザは、指向性オーディオを聞いても、そのオーディオイベントが発生した時、違う方向を見ていたことが理由で、関連付けられた視覚的イベントを目撃しないかもしれない。 As mentioned above, the virtual reality view comprises only part of the total spatial extent of the video image of the VR content, but the audio presented to the user, like reality, occurs in a direction outside the spatial extent of the virtual reality view. It may also include directional audio that is perceived as being present. Thus, a user may hear directional audio but not see the associated visual event because he was looking in a different direction when the audio event occurred.
ユーザは、オーディオイベントが聞こえるとすぐに反応して、オーディオイベントの感知された方向を見るためにVRビューの方向を変更するかもしれないが、ビデオ画像内の関連付けられた視覚的イベントは見逃したかもしれない。これは、ユーザの混乱を招く可能性があり、ユーザがVRコンテンツを理解するのを難しくする可能性も、または発生したイベントを完全に理解するために異なる視認方向でコンテンツを数回見ることを要する可能性もある。 The user may react as soon as the audio event is heard, changing the direction of the VR view to see the sensed direction of the audio event, but missed the associated visual event in the video image. It may be. This can be confusing to the user and can make it difficult for the user to understand the VR content, or to view the content several times in different viewing directions to fully understand the event that occurred. It may take.
図1は、ユーザが聞いた特定のオーディオイベントに対応する視覚的イベントを示し仮想現実コンテンツのビデオ画像から抽出された視覚的画像を少なくとも備える、見逃されたイベントコンテンツの表示を提供するよう構成された装置100を示す。したがって、ユーザは、関連するオーディオイベントを聞いた視覚的イベントを見ることができるかもしれない。
FIG. 1 is configured to provide a display of missed event content comprising at least a visual image extracted from a video image of virtual reality content showing a visual event corresponding to a particular audio event heard by a user. 1 shows a
装置100は、仮想現実コンテンツをユーザに提示するよう構成された仮想現実デバイス101の一部であってもよい。仮想現実デバイス101は、ヘッドセットを備えてもよいVRディスプレイ102を介してユーザにVR空間のVRビューを提示してもよい。VRディスプレイ102上でユーザに提供されるVRビューは、ユーザが頭を動かすことでVR空間を見回すことができるように、VRディスプレイの向きに基づいてもよい。当然のことながら、他のタイプのディスプレイおよび仮想現実空間を「見回す」ための他の手段が提供されてもよい。一部の例では装置100は、メモリ101aおよび少なくとも1つのプロセッサ101bをそれぞれが備え得るコンピュータ、仮想現実デバイス101、またはコンピュータサーバにより機能的に提供されるが、他の例では装置は、コンピュータ、携帯電話、またはVRデバイス101と通信する下記に列挙される他の装置などの電子デバイスであってもよい。この例において仮想現実デバイス101は、仮想現実コンテンツが記憶される(過渡的または一時的に記憶されることを含み得る)仮想現実コンテンツストア103から、仮想現実コンテンツを受信するよう構成される。したがって、仮想現実コンテンツは、生のコンテンツであってもよく、ストア103は、表示またはその先の伝送経路の、メモリまたはバッファであってもよい。装置100は、仮想現実空間の中のどこをユーザが見ているかの指示、ならびにユーザに提示されるオーディオについてのオーディオイベントの位置と、オーディオ自体と、オーディオ分析情報とのうちの1つ以上の指示を受信してもよい。オーディオイベントデータは、所定であってもよく、または装置100もしくは別の装置105により生成されてもよい。
The
VRコンテンツは、仮想現実コンテンツ捕捉デバイス104により提供されてもよい。別の装置105は、オーディオイベントデータを作成するよう構成されてもよく、オーディオイベントデータは、VRコンテンツとともにVRコンテンツストア103に記憶されてもよい。他の1つ以上の例では、別の装置105は提供されず、オーディオイベントの発生および方向は、装置100またはそれに関連する装置により決定されてもよい。
VR content may be provided by virtual reality
1つ以上の例において、オーディオイベントデータは、捕捉中または制作後に仮想現実コンテンツの人間による分析に基づいて手動で提供されてもよく、したがって、別の装置105がオーディオイベントデータのデータエントリを表現してもよい。1つ以上の例において、オーディオイベントデータは、空間オーディオのコンピュータに基づくオーディオ分析に基づいて自動的に生成されてもよく、これは、VRコンテンツの制作中に提供されてもよいし、制作後に提供されてもよい。1つ以上の例において、オーディオイベントデータは、装置100および/またはVRデバイス101などによって、ユーザに対する表示のために仮想現実コンテンツを準備する一環として、またはユーザに仮想現実コンテンツを表示する間に、オンザフライで生成される。当然のことながら、コンテンツ捕捉デバイス104および別の装置105は、VRコンテンツストアに接続されて示されているが、これはシステム全体を理解するためのものにすぎず、装置100は別の装置105の有無にかかわらず記録済みVRコンテンツを用いて動作してもよい。
In one or more examples, audio event data may be provided manually based on human analysis of virtual reality content during capture or after production, thus another
この実施形態において、上述した装置100(または他の電子デバイス)は、1つのプロセッサ101bおよび1つのメモリ101aしか有しなくてもよいが、当然のことながら他の実施形態は、2つ以上のプロセッサおよび/または2つ以上のメモリ(例えば同じまたは異なるプロセッサ/メモリタイプ)を利用してもよい。さらに装置100は、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)であってもよい。
In this embodiment, the apparatus 100 (or other electronic device) described above may have only one
プロセッサは、メモリ内のコンピュータプログラムコードの形態で記憶された命令に従って、コンテンツストア103およびVRデバイス101などの他のコンポーネントから受信される情報の実行/処理のみを行う汎用プロセッサであってもよい。プロセッサのかかる動作により生成された出力シグナリングは、見逃されたイベントコンテンツの表示のためVR装置101などその先のさらなるコンポーネントに提供される。
The processor may be a general purpose processor that only executes/processes information received from the
メモリ(必ずしも単一のメモリユニットとは限らない)は、コンピュータプログラムコードを記憶するコンピュータ可読媒体(本例ではソリッドステートメモリであるが、ハードドライブ、ROM、RAM、フラッシュ、または同様のものなどの他のタイプのメモリであってもよい)である。このコンピュータプログラムコードは、プログラムコードがプロセッサ上で実行されるとプロセッサにより実行可能な命令を格納する。メモリとプロセッサとの内部接続は、1つ以上の例示の実施形態において、プロセッサとメモリとのアクティブな結合を提供して、プロセッサがメモリに記憶されたコンピュータプログラムコードにアクセスできるようにするものと理解することができる。 Memory (not necessarily a single memory unit) is a computer-readable medium that stores computer program code (solid state memory in this example, but is not limited to a hard drive, ROM, RAM, flash, or the like). It may be another type of memory). The computer program code stores instructions executable by the processor when the program code is executed on the processor. An interconnect between the memory and the processor, in one or more exemplary embodiments, provides an active coupling between the processor and the memory to allow the processor to access computer program code stored in the memory. I can understand.
本例では、プロセッサおよびメモリはすべて、内部で相互に電気的に接続され、個々のコンポーネント間の電気通信が可能である。本例では、ASICとしてともに構成されるように、言い換えれば電子デバイスに設置可能な単一のチップ/回路としてともに統合されるように、コンポーネントはすべて相互に近接して位置する。一部の例では、コンポーネントの1つ以上または全部が相互に別々に位置してもよい。 In this example, the processor and memory are all electrically connected to each other internally, allowing electrical communication between the individual components. In this example, the components are all located in close proximity to each other such that they are configured together as an ASIC, in other words integrated together as a single chip/circuit that can be installed in an electronic device. In some examples, one or more or all of the components may be located separately from each other.
図2は、本例ではヘッドセットを備える、VRディスプレイ102を着用したユーザ200を示す例示の平面図を示す。ユーザ200は、VRコンテンツ202を見ている。VRコンテンツ202は、VRコンテンツのビデオ画像が仮想現実空間においてユーザを包み込むよう複数の視認方向に表示される様子に類似した、ユーザを取り囲むリングとして図形で示されている。図2において、ユーザ200は、仮想現実空間内の第1の視認方向203の、視野線204、205により画定される、VRコンテンツのビデオ画像の一部を見ている。
FIG. 2 shows an exemplary plan view showing a
図2はさらに、オーディオイベント206の発生を示す。オーディオイベント206は、空間オーディオを備えるので、特定の方向から生じるものとしてユーザ200により感知される。オーディオイベント206は、視覚的イベント207に関連する。ユーザ200は、第1の方向を見ていて、視覚的イベント207は、第2の方向において発生するので、ユーザ200は視覚的イベント207を見ないということが分かり、理解のために図2に示されている。オーディオイベントは、ホッケー用スティック208がパック210を打つ音を備える。したがって、オーディオイベント206に関連する視覚的イベント207は、オーディオイベント206を備える音の発生源の視覚的画像を備える。本例では、オーディオイベント206の音の発生源は、選手211がそのホッケー用スティック208を用いてパック210を打つことである。
FIG. 2 further illustrates the occurrence of
図3は、ユーザ200が、おそらくオーディオイベント206に反応して、オーディオイベント206の感知された方向、すなわち第2の方向300を見るために頭を向けたところを示す。したがって、仮想現実ビューの視認方向が、第1の方向203から第2の方向300に変更されている。本例では、このVRビューの視認方向の変更は、ユーザ200の頭を向けることにより実施されているが、他の例では、別の方法でVRビューの制御が達成されてもよい。
FIG. 3 shows the
図3に示されるとおり、ユーザ200がオーディオイベント206に反応してVRビューを変更した時までには、オーディオイベント206に関係する視覚的イベント207の少なくとも一部を見逃している。本例において、オーディオイベント206は比較的短かったので、ユーザ200に提示されるVRビュー301は、今や、視覚的イベント207よりも時間的に遅く、たまたま選手211がパック210を打撃した後に喜んでいるように見えるところである。したがって、ユーザ200は、聞こえたオーディオイベント206に関係した視覚的イベント207を見逃した。
As shown in FIG. 3, by the time the
図4に関して記載されるように、本例において装置100は、第1の視認方向203から、第2の視認方向300であって、ユーザが聞いた特定のオーディオイベント206の方向300に方向閾値以内で一致する、前記第2の視認方向300へのユーザ200による仮想現実ビューの視認方向の変更に基づいて、見逃されたイベントコンテンツの表示を提供するよう構成される。したがって、オーディオイベント206の時間的な長さ、およびそれにユーザ200がどの程度迅速に反応するかによって、第2の方向300は、進行中のオーディオイベント206の方向であることも、または最近もしくは直前に発生したオーディオイベント206の方向であることもある。ユーザ200が反応したオーディオイベント206を判断する際、現在時間から過去へと、近時間閾値の分だけ延びる時間ウィンドウが使用されてもよい。近時間閾値は、ユーザ200が振り向いた特定のオーディオイベントを判断するときに、最後の1秒、2秒、3秒、4秒、5秒、6秒、7秒、8秒、9秒、10秒またはそれ以上までで発生した任意のオーディオイベントを含めるために設定されてもよい。さらに、当然のことながらユーザは、ユーザが聞いたオーディオイベント206の方向を厳密に見なくてもよい。よって、第2の方向300は、オーディオイベント206の方向に厳密に合致しなくてもよい。第2の方向300とオーディオイベント206の方向との許容誤差を提供するために、方向閾値が使用されてもよい。方向閾値は、5°未満、10°未満、15°未満、20°未満、30°未満、40°未満またはそれ以上に設定されてもよい。方向閾値は、例えば人間の聴き取り方向の認識精度に似るように、水平面および垂直面で異なる値を有してもよい。
As described with respect to FIG. 4, in this example the
視認方向を第1の視認方向203から第2の視認方向300に変更するユーザのアクションは、装置100が、見逃されたイベントコンテンツの表示を提供するよう促してもよい。第2の視認方向が最近のオーディオイベントと合致することは、この最近のオーディオイベントをユーザが振り向いた特定のオーディオイベントとして識別して見逃されたイベントコンテンツ400の表示を提供するよう装置100を促してもよい。視認方向の変更は、ユーザが反応した特定のオーディオイベントを識別し、その後、見逃されたイベントコンテンツの表示を提供するよう装置を促してもよい。装置は、見逃されたイベントコンテンツが利用可能であるとのユーザへのプロンプトを装置が提供した後に前記見逃されたイベントコンテンツを見たいとユーザが確認するのに応答して、見逃されたイベントコンテンツの表示を提供してもよい。よって、装置100は、ユーザが反応した特定のオーディオイベントを、視認方向の変化により識別するよう構成されてもよく、次に、見逃されたイベントコンテンツ400を見るためのプロンプトまたはオプションのユーザに対する提示を提供してもよい。第2の視認方向と、最近のオーディオイベントの方向との合致は、頻繁に発生する場合もあるので、見逃されたイベントコンテンツの表示または表示に関するプロンプトが煩わしいこともあり得る。したがって、装置100は、見逃されたイベントコンテンツの表示または表示に関するプロンプトを提供するかどうかを決定するとき、その決定を、第1の視認方向203と第2の視認方向300との間の視認方向の変更の度合いが方向変更閾値を超えることに基づいて下すよう構成されてもよい。これは装置が、仮想現実空間内に提示されるビデオ画像を何気なく仮想現実空間を見回して見ているユーザ200と、特定のオーディオイベント206に反応したユーザ200とを区別できるようにしてもよい。方向変更閾値(方向変更は例えばオーディオイベント206の方向へ向かうものである)は、0.05度/ミリ秒超、0.06度/ミリ秒超、0.07度/ミリ秒超、0.08度/ミリ秒超、0.09度/ミリ秒超、またはそれ以上であってもよい。変更の度合いについての情報は、VR装置101および/またはVRディスプレイ102により提供されてもよい。変更の度合いが相対的に速ければ、ユーザ200はオーディオイベントに反応したと推定されてもよく、その結果、見逃されたイベントコンテンツ400の表示または表示に関するプロンプトを提供する。変更の度合いが相対的に遅ければ、ユーザはオーディオイベントに反応したのではないと推定されてもよく、見逃されたイベントコンテンツは表示のために提供されない。あるいは、またはさらに、見逃されたイベントコンテンツを見たいかどうかをユーザに尋ねるプロンプトは表示のために提供されなくてもよい。
The user action of changing the viewing direction from the
図4は、例示の見逃されたイベントコンテンツ400の3つのスクリーンショットを示す。当然のことながら、図4に示される3つの例示的なフレーム401、402、403は、見逃されたイベントコンテンツを備える連続的なビデオを表す。本例では、見逃されたイベントコンテンツ400は、ユーザ200が聞いたオーディオイベントに関連する視覚的イベント207の視覚的画像を備えたビデオを備える。他の例では、見逃されたイベントコンテンツは、一連の静止画、平らなビデオ(つまり、仮想現実空間を見回してビデオの異なる部分を見ることができない)、または仮想現実コンテンツであってもよい。本例では、見逃されたイベントコンテンツは、特定のオーディオイベント206に対応する視覚的イベント207を示し仮想現実コンテンツのビデオ画像から抽出された視覚的画像を少なくとも備える。見逃されたイベントコンテンツ400の表示の前に、または見逃されたイベントコンテンツ400の一部として、装置100は仮想現実コンテンツの巻き戻しを提供してもよい。要するに、装置は、逆再生される仮想現実コンテンツの表示をユーザに提供して、ユーザがまもなく見るコンテンツが過去に発生したものであることを明示してもよい。したがって、ユーザには、仮想現実コンテンツが、見逃されたイベントコンテンツが開始する時点まで「巻き戻し」されるように見えてもよい。
FIG. 4 shows three screenshots of example missed
このように、見逃されたイベントコンテンツ400の時間的な開始点は、視認方向203、300の変更が発生した仮想現実コンテンツの中の時間的な点よりも前である。さらに、見逃されたイベントコンテンツが開始する時間的な点は、特定のオーディオイベント206に基づく。1つ以上の例において、見逃されたイベントコンテンツの時間的な開始点は、オーディオイベント206の開始が発生した時点であってもよい。したがって、時間的な開始点は、オーディオイベント206の音がするすぐ前であってもよい。1つ以上の例において、仮想現実コンテンツに関する見逃されたイベントコンテンツの時間的な開始点は、オーディオイベント206の開始より所定の期間前であり、これは、ユーザがオーディオイベントの原因を理解する支援となり得る。したがって、見逃されたイベントコンテンツは、オーディオイベント206が発生する時に開始するのではなく、オーディオイベント206の数秒前に開始してもよい。所定の期間は、最大1秒、2秒、3秒、4秒、5秒、6秒、7秒、8秒、9秒、10秒、15秒、20秒、30秒、60秒であってもよく、その結果、見逃されたイベントコンテンツの時間的な開始点は、オーディオイベント206の開始よりもこの所定の期間前に始まる。
Thus, the temporal start point of the missed
図4の例では、見逃されたイベントコンテンツビデオ(すなわち視覚的画像および付随するオーディオ)の第1のフレーム401が、オーディオイベント206の発生より数秒前に始まる。第1のフレーム401は、パック210を打撃する準備ができている選手211を示す。第2のフレーム402は、パック210を打撃する選手211、および右へ向かって進むパックを示す。第3のフレーム403は、見逃されたイベントコンテンツ400の最後を示し、図3では301と参照符号を付された第2の方向300をユーザが見たおおよその時点の視覚的画像を備える。
In the example of FIG. 4, the
よって、見逃されたイベントコンテンツは、視覚的イベント207を含む視覚的画像を少なくとも備える。見逃されたイベントコンテンツ400はさらに、オーディオイベント206の発生より所定時間前の視覚的画像を少なくとも含んでもよい。見逃されたイベントコンテンツ400は、オーディオイベント206の後、少なくともユーザが第2の方向300を見た時点までの、視覚的画像を少なくとも含んでもよい。
Thus, the missed event content comprises at least a visual image containing the
よって、第2の方向300からのオーディオイベント206の指向性オーディオを聞いたユーザには、オーディオイベントに関連するVRコンテンツの視覚的画像を少なくとも含む見逃されたイベントコンテンツが自動的に提供されてもよい(これは、ユーザがどの程度正確にオーディオイベントの方向を特定できるかに応じて、第2の方向で発生する視覚的画像であってもよい)。その結果、見逃されたイベントコンテンツは、ユーザが関連するオーディオイベント206を聞きそれに対して視認方向203、300を変更することにより反応した見逃された視覚的イベント207を、ユーザが見ることを可能にする。
Thus, a user who hears the directional audio of the
見逃されたイベントコンテンツの表示は、以下のうちの1つ以上に応答して提供されてもよい:
i)視認方向の変更を自動的に追跡すること、およびオーディオイベントの識別、
ii)見逃されたイベントコンテンツを見たいというユーザリクエスト、
iii)見逃されたイベントコンテンツが利用可能であるという、ユーザによる視認方向の変更に基づいてユーザに提供されるプロンプトに応答しての、見逃されたイベントコンテンツを見たいとのユーザの確認。
An indication of missed event content may be provided in response to one or more of the following:
i) automatically tracking changes in viewing direction, and identification of audio events,
ii) A user request to view missed event content,
iii) The user's confirmation that he/she wants to see the missed event content in response to a prompt provided to the user based on the change of the viewing direction by the user that the missed event content is available.
プロンプトは、VRディスプレイ102により提供されるVRビューにおける表示のために提供される視覚的なグラフィックであってもよい。プロンプトは、可聴プロンプトまたは触覚プロンプトであってもよい。ユーザリクエストまたはユーザの確認は、視覚コマンド、音声コマンド、および携帯電話または装置と通信しているその他電子デバイスなどのユーザインターフェースを介したコマンドのうち1つ以上であってもよい。
The prompt may be a visual graphic provided for display in the VR view provided by the
図5は、見逃されたイベントコンテンツ400が表示のために提供されると仮想現実コンテンツが続行することを示す、2つの例示的なフレームを示す。事前に記録されたコンテンツまたは生のコンテンツの場合などの一部の例において、見逃されたイベントコンテンツが表示のために提供されてもよく、次に仮想現実コンテンツは、見逃されたイベントコンテンツの表示のために中断された時点から続行してもよい。しかしながら、特に生のコンテンツの場合、これはユーザがもはや生のコンテンツを見ておらず、見逃されたイベントコンテンツの長さの分だけ遅延したコンテンツ(装置100またはVR装置101によりバッファリングされることもある)を見ていることを意味するかもしれない。よって、図5は、装置100が、a)見逃されたイベントコンテンツを表示するために仮想現実コンテンツが中断された時点から、b)VRコンテンツが生でユーザに表示される時点まで、VRコンテンツの通常再生速度に対して増大された再生速度での仮想現実コンテンツの表示を提供し得る様子を示す。
FIG. 5 shows two exemplary frames showing that virtual reality content continues as missed
よって、図5は、見逃されたイベントコンテンツ400の最後のフレーム403と、仮想現実の中で、ただし増大された再生速度で表示されるVRコンテンツの続行とを示す。フレーム500は、滑って離れていく選手211を増大された再生速度で示す。続いて仮想現実コンテンツは、ユーザに対して表示されるVRコンテンツがVR装置101により受信される生のVRコンテンツに「追いつく」と、その通常の、例えばリアルタイムの再生速度でのユーザに対する表示のために提供される。
Thus, FIG. 5 shows the
見逃されたイベントコンテンツの一部として、適切な視覚的コンテンツを表示するために、装置は、ユーザ200が反応した特定のオーディオイベント206を識別してもよい。これは、多数の方法で実現され得る。
To display the appropriate visual content as part of the missed event content, the device may identify the
例えば装置100は、VRコンテンツの中で発生するオーディオイベントの方向およびタイミングを識別する所定のオーディオイベントデータにアクセスできてもよい。よって、視認方向の変更に応答して、装置100は、オーディオイベントデータ、第2の視認方向、およびVRコンテンツを基準とした時間に基づいて、ユーザが反応した特定のオーディオイベントを識別してもよい。見逃されたイベントコンテンツを作成するために適切な視覚的画像をVRコンテンツから抽出するべく、オーディオイベントの開始時間および終了時間ならびにその方向を含んでもよいオーディオイベントデータが使用されてもよい。
For example, the
オーディオイベントデータは、VRコンテンツの制作後などに手動で作成されてもよい。オーディオイベントデータは、VRコンテンツの空間オーディオのオーディオ分析または視覚的画像の視覚的分析から自動的に作成されてもよい。 The audio event data may be manually created after the VR content is created. Audio event data may be automatically created from audio analysis of spatial audio of VR content or visual analysis of visual images.
1つ以上の例において、オーディオイベントデータはセンサデータから作成されてもよく、前記センサデータは、VRコンテンツの中に捕捉される物体に関連するセンサ(図示せず)から取得される。したがって、例えば、アイスホッケーゲームのVRコンテンツ捕捉中、加速度センサまたは音センサなどのセンサがパックに配置されてもよい。よって、パックの加速度がセンサにより検出されてもよく、すると、ユーザが反応するかもしれないオーディオイベントが発生したであろう時を推定できる。オーディオイベントデータは、そのようなVR内コンテンツ捕捉シーンセンサを使用して作成されてもよい。加速度の持続期間(または他の検知される量)が、オーディオイベントの開始点および終了点を判断するために使用されてもよい。コンテンツ捕捉デバイス104に対するセンサの方向が、オーディオイベントの方向を指定するために使用されてもよい。
In one or more examples, audio event data may be generated from sensor data, which is obtained from a sensor (not shown) associated with an object captured in VR content. Thus, for example, sensors such as acceleration sensors or sound sensors may be placed in the puck during VR content capture of an ice hockey game. Thus, the acceleration of the puck may be detected by the sensor, which can then estimate when there will be an audio event that the user may react to. Audio event data may be created using such an in-VR content capture scene sensor. The duration of acceleration (or other sensed amount) may be used to determine the start and end points of an audio event. The orientation of the sensor with respect to the
1つ以上の例において、装置は、VRコンテンツの空間オーディオを分析してオーディオイベントを識別してもよい。そのような分析は、オーディオイベントデータを作成するために実行されてもよい。本願明細書に記載される分析は、オンザフライで実行されてもよい。よって、視認方向の変更に応答して、装置は、第2の方向の閾値方向以内の方向であり、かつ少なくとも現在時間の、さらに任意選択で現在時間の近時間閾値以内の、空間オーディオのオーディオ分析を提供して、オーディオイベントを識別してもよい。オーディオイベントは、絶対音量または閾値に対する相対音量のオーディオ分析により識別されてもよい。よって、指向性オーディオの特定部分の音がより大きいということが、それを特定のオーディオイベントとして識別するのに役立つかもしれず、オーディオイベントの音がより大きくなる時間が、見逃されたイベントコンテンツの開始点を少なくとも部分的に定義し得る。オーディオイベントは、閾値に対する周波数のオーディオ分析により識別されてもよい。したがって、特定の周波数帯の音(例えば登場人物の低く太い声)の指向性オーディオの発生が、それを特定のオーディオイベントとして識別するのに役立つかもしれない。その周波数帯のオーディオが存在する時間が、見逃されたイベントコンテンツの開始点を少なくとも部分的に定義し得る。オーディオイベントは、VRコンテンツに登場する特定の登場人物(すなわち男優/女優)の音声を識別する音声認識を使用したオーディオ分析により識別されてもよい。よって、特定の音声がほぼ第2の方向の指向性オーディオの一部であるということが、それを特定のオーディオイベントとして識別するのに役立つかもしれず、その音声が聞こえる時間が、見逃されたイベントコンテンツの開始点を少なくとも部分的に定義し得る。 In one or more examples, the device may analyze spatial audio of VR content to identify audio events. Such analysis may be performed to create audio event data. The analyzes described herein may be performed on the fly. Thus, in response to the change of the viewing direction, the device is directed to the audio of the spatial audio in a direction within a threshold direction of the second direction and at least within the current time, and optionally within a near time threshold of the current time. Analysis may be provided to identify audio events. Audio events may be identified by absolute volume or relative volume threshold audio analysis. Thus, the louder sound of a particular part of directional audio may help to identify it as a particular audio event, and the time when the audio event becomes louder is the start of missed event content. The points may be defined at least partially. Audio events may be identified by audio analysis of frequencies against a threshold. Thus, the occurrence of directional audio for sounds in a particular frequency band (eg, low and fat voice of a character) may help identify it as a particular audio event. The time that audio in that frequency band is present may at least partially define the starting point of the missed event content. Audio events may be identified by audio analysis using voice recognition to identify the voice of a particular character (ie, actor/actress) appearing in VR content. Thus, it may be helpful to identify a particular voice as a particular audio event, as the particular voice is part of the directional audio in the second direction, and the time the voice is heard may be missed by the missed event. The starting point for the content may be defined at least in part.
1つ以上の例において、装置は、潜在的なオーディオイベントが発生するかもしれないビデオ内のアクションを識別するために、VRコンテンツのビデオ画像のビデオ分析を提供してもよい。 In one or more examples, the device may provide video analysis of video images of VR content to identify actions in the video in which potential audio events may occur.
図6は、例示的なオーディオイベントデータ600を示す。当然のことながら、オーディオイベントデータ600の表形式は例示のためでしかなく、任意の数の方法で記憶され得る。例として、オーディオイベントデータ600は、2つのオーディオイベント601および602を備える。これらのオーディオイベント601、602は、VR内コンテンツ捕捉シーンセンサなどのセンサデータにより、またはオーディオ分析により、または本願明細書に記載された方法のいずれかにより決定されたものであってもよい。
FIG. 6 shows exemplary
各オーディオイベント601、602について、オーディオイベントデータ600は、ユーザ200に対して提示されることになるオーディオイベントの感知される方向603、オーディオイベントの開始時間604、および終了時間605を含んでもよい。したがって、「オーディオイベント1」601は、135°の方向で発生し、VRコンテンツを基準として30秒の時間に開始して35秒までであることが分かる。
For each
したがって、ユーザ200が、VRコンテンツの再生がおおよそ32秒まで進んだところでVRビューの視認方向を140°に変更した場合、装置は、オーディオイベントデータ600を使用して、「オーディオイベント1」601が特定のオーディオイベントであるとの識別を提供してもよい。このように、140°が方向閾値以内であり、よって135°に十分に近いと見なされてもよい。さらに、32秒は、「オーディオイベント1」601の発生中と判断されてもよい。よって装置は、オーディオイベントデータ600を使用して、見逃されたイベントコンテンツが、約135°の視認方向からのVRコンテンツの視覚的画像を使用すべきであり、見逃されたイベントコンテンツの時間的な開始点が、「オーディオイベント1」601の開始時間604に基づくとよいと判断してもよい。このように、見逃されたイベントコンテンツをオーディオイベント601の時間的にどのくらい前に開始させるかを決定するために使用される所定の期間が5秒であれば、見逃されたイベントコンテンツの開始点は、VRコンテンツの25秒の実行時間まで進んだところであってもよい。
Therefore, when the
図7は、視認方向300などの特定の視認方向、または視認方向の範囲における、オーディオの音量のプロット700の、例示のグラフを示す。図7のグラフは、空間オーディオのオーディオ分析の図を提供する。当然のことながら、オーディオ分析のグラフ形式は例示のためでしかなく、任意の数の方法で実行され得る。本例では、ユーザによる視認方向の第2の方向300への変更は、時間t反応に発生する。装置100は、本願明細書に記載されたオーディオ分析を提供する際、閾値701を使用して、閾値を上回る音が時間t1と時間t2との間に発生したと識別してもよい。結果的に、前記音は、特定のオーディオイベント206として識別されてもよい。よって、時点t1が、見逃されたイベントコンテンツの開始時間を判断するために使用されてもよい。1つ以上の例において、時間t反応は、時間t2の後に発生するかもしれない。装置は、時間t1からt2の間のオーディオイベントを、ユーザが反応したオーディオイベントとするのに十分近い過去に発生しているオーディオイベントであると識別するよう構成されてもよい。
FIG. 7 illustrates an exemplary graph of a
他の例では、プロット700は、特定の周波数を表現してもよく、音量の観点から区別されずに、オーディオの特定部分の周波数範囲が、特定のオーディオイベントとしてのその識別を提供してもよい。
In another example, the
上述した実施形態は、見逃されたイベントコンテンツの開始時間を判断するために有利にオーディオイベントを使用し得る。上述のとおり、オーディオイベントの識別およびタイミングは、以下のうちの1つ以上によって決定されてもよい:
オーディオ分析、ビデオ分析、センサデータにさらに基づいてもよい、所定のオーディオイベントデータ、
音量に基づく、周波数に基づく、および/または音声認識に基づく分析を含んでもよいオーディオ分析、または
閾値を上回り急激に変化する局所的なビデオ画像を探す読唇分析および/またはアクション識別アルゴリズムを含んでもよい、ビデオ分析。
The embodiments described above may advantageously use audio events to determine the start time of missed event content. As mentioned above, the identification and timing of audio events may be determined by one or more of the following:
Predetermined audio event data, which may be further based on audio analysis, video analysis, sensor data,
It may include audio analysis, which may include volume-based, frequency-based, and/or voice-recognition-based analysis, or lip reading analysis and/or action identification algorithms looking for localized video images that change rapidly above a threshold. , Video analysis.
図8は、800、仮想現実ビューの視認方向の、第1の視認方向から第2の視認方向へのユーザによる変更であって、前記第2の視認方向は、特定のオーディオイベントの方向に方向閾値以内で一致する、変更に基づいて、801、見逃されたイベントコンテンツの表示を提供するステップであって、見逃されたイベントコンテンツは、仮想現実コンテンツのビデオ画像から抽出された視覚的画像を少なくとも有し、視覚的画像は、特定のオーディオイベントに対応する視覚的イベントを示し、見逃されたイベントコンテンツの時間的な開始点は、視認方向の変更が発生した仮想現実コンテンツの中の時間的な点よりも前であり、特定のオーディオイベントに基づくものであり、それによって、ユーザが関連するオーディオイベントを聞きそれに対して視認方向を変更することにより反応した見逃された視覚的イベントを、ユーザが見ることを可能にする、ステップを示すフロー図を示す。
FIG. 8 shows a
図9は、一例によるプログラムを提供するコンピュータ/プロセッサ可読媒体900を概略的に示す。本例では、コンピュータ/プロセッサ可読媒体は、デジタル多用途ディスク(DVD:digital versatile disc)またはコンパクトディスク(CD:compact disc)などのディスクである。一部の例では、コンピュータ可読媒体は、発明の機能を実行するような形でプログラムされた任意の媒体であってもよい。コンピュータプログラムコードは、同じタイプの複数のメモリ間、またはROM、RAM、フラッシュ、ハードディスク、ソリッドステートなど異なるタイプの複数のメモリ間に分散されてもよい。
FIG. 9 schematically illustrates a computer/processor
ユーザ入力は、タップ、スワイプ、スライド、押下、保持、回転ジェスチャ、デバイスのユーザインターフェース近くでの静止ホバージェスチャ、デバイス近くでの移動ホバージェスチャ、デバイスの少なくとも一部を曲げること、デバイスの少なくとも一部を握りしめること、多指ジェスチャ、デバイスを傾けること、または制御デバイスを裏返すことのうちの1つ以上を備えるジェスチャであってもよい。さらにジェスチャは、ユーザの腕などのユーザの身体、またはスタイラスもしくは自由空間ユーザジェスチャを実行するのに適した他の要素を使用した任意の自由空間ユーザジェスチャであってもよい。 User input is tap, swipe, slide, press, hold, rotate gesture, stationary hover gesture near the user interface of the device, moving hover gesture near the device, bending at least a portion of the device, at least a portion of the device The gesture may comprise one or more of clasping, multi-finger gesture, tilting the device, or flipping the control device. Further, the gesture may be the user's body, such as the user's arm, or any free space user gesture using a stylus or other element suitable for performing a free space user gesture.
上記の例で示された装置は、携帯可能な電子デバイス、ラップトップコンピュータ、移動電話、スマートフォン、タブレットコンピュータ、携帯情報端末、デジタルカメラ、スマートウォッチ、スマートアイウェア、ペンベースのコンピュータ、携帯可能でない電子デバイス、デスクトップコンピュータ、モニタ、家庭用電化製品、スマートTV、サーバ、ウェアラブル装置、仮想現実装置、またはそれらのうちの1つ以上のモジュール/回路構成としてもよい。 The device shown in the above example is a portable electronic device, laptop computer, mobile phone, smartphone, tablet computer, personal digital assistant, digital camera, smart watch, smart eyewear, pen-based computer, not portable It may be an electronic device, desktop computer, monitor, consumer electronics, smart TV, server, wearable device, virtual reality device, or one or more of these modules/circuitry.
言及された任意の装置、および/または言及された特定の装置の他の特徴は、有効化、例えばスイッチをオンにされたときなどにのみ所望の動作を実行するよう構成されたものとなるように準備された装置により提供されてもよい。そのような事例では、非有効化時(例えばスイッチオフ状態)には必ずしもアクティブメモリに適切なソフトウェアをロードしていなくてもよく、有効化時(例えばオン状態)にのみ適切なソフトウェアをロードしてもよい。装置は、ハードウェア回路構成および/またはファームウェアを備えてもよい。装置は、メモリ上にロードされたソフトウェアを備えてもよい。そのようなソフトウェア/コンピュータプログラムは、同じメモリ/プロセッサ/機能ユニット上および/または1つ以上のメモリ/プロセッサ/機能ユニット上に記録されてもよい。 Any device mentioned and/or other features of the particular device mentioned are to be adapted such that they are configured to perform a desired action only when activated, eg when switched on. May be provided by the device prepared in. In such cases, it may not be necessary to load the appropriate software into active memory when deactivating (eg switched off), but only when activated (eg switched on). May be. The device may comprise hardware circuitry and/or firmware. The device may comprise software loaded on memory. Such software/computer programs may be recorded on the same memory/processor/functional unit and/or on one or more memory/processor/functional unit.
一部の例において、言及された特定の装置は、所望の動作を実行するよう適切なソフトウェアを用いて事前にプログラムされてもよく、この適切なソフトウェアは、例えばそのソフトウェアおよびそれに関連する機能性をロック解除/有効化するため、「キー」をダウンロードするユーザが使用できるようにされてもよい。そのような例に関連する利点としては、デバイスにさらなる機能性が必要なときにデータをダウンロードする必要性が軽減されることを挙げることができ、これは、ユーザが有効化しないかもしれない機能性のためにそのような事前プログラムされたソフトウェアを記憶するのに十分な容量をデバイスが有することが分かっている例において有用な可能性がある。 In some examples, the particular device referred to may be pre-programmed with suitable software to perform the desired operations, which may include, for example, that software and its associated functionality. May be made available to the user downloading the "key" in order to unlock/enable. An advantage associated with such an example may be that it reduces the need to download data when the device needs more functionality, which is a feature that the user may not enable. It may be useful in instances where the device is known to have sufficient capacity to store such pre-programmed software for sex.
言及された任意の装置/回路構成/要素/プロセッサは、言及された機能に加えて他の機能も有してもよく、これらの機能は、同じ装置/回路構成/要素/プロセッサにより実行されてもよい。開示された1つ以上の側面は、関連するコンピュータプログラムおよび適切な保持体(例えばメモリ、信号)に記録されたコンピュータプログラム(ソース/トランスポートエンコードされてもよい)の電子的な配布を含んでもよい。 Any device/circuitry/element/processor mentioned may have other functions in addition to those mentioned, and these functions may be performed by the same device/circuitry/element/processor. Good. One or more aspects disclosed may include electronic distribution of the computer program (which may be source/transport encoded) recorded on an associated computer program and a suitable carrier (eg, memory, signal). Good.
本願明細書に記載された任意の「コンピュータ」は、同じ回路基板に、または回路基板の同じ領域/ポジションに、または同じデバイスにも位置してもしなくてもよい、1つ以上の個々のプロセッサ/処理要素の集合を備えることができる。一部の例では、言及された任意のプロセッサの1つ以上が複数のデバイスにわたって分散されてもよい。同じまたは異なるプロセッサ/処理要素が、本願明細書に記載された1つ以上の機能を実行してもよい。 Any "computer" described herein may or may not be located on the same circuit board, in the same area/position of the circuit board, or in the same device. / Can comprise a set of processing elements. In some examples, one or more of any of the mentioned processors may be distributed across multiple devices. The same or different processors/processing elements may perform one or more of the functions described herein.
「シグナリング」という用語は、送信および/または受信される一連の電気/光信号として送信される1つ以上の信号を指してもよい。一連の信号は、前記シグナリングを構成する、1、2、3、4または5以上もの個別の信号成分または別個の信号を備えてもよい。これらの個別の信号の一部または全部は、無線または有線通信により同時に、順次に、および/または互いに時間的に重なるように送信/受信されてもよい。 The term "signaling" may refer to one or more signals transmitted as a series of electrical/optical signals that are transmitted and/or received. The series of signals may comprise 1, 2, 3, 4 or even 5 or more individual signal components or separate signals making up said signaling. Some or all of these individual signals may be transmitted/received by wireless or wired communication simultaneously, sequentially and/or in time overlapping with each other.
言及された任意のコンピュータならびに/またはプロセッサおよびメモリ(例えばROM、CD−ROMなどを含む)の任意の説明に関して、これらは、コンピュータプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA:field−programmable gate array)、および/または本発明の機能を実行するような形にプログラムされた他のハードウェアコンポーネントを備えてもよい。 With respect to any description of any computer and/or processor and memory (eg, including ROM, CD-ROM, etc.) referred to, these may include computer processors, application specific integrated circuits (ASICs), field programmable gate arrays (FPGAs). : Field-programmable gate array), and/or other hardware components programmed to perform the functions of the present invention.
出願人は、ここに、本願明細書に記載された個々の特徴それぞれを単独で開示し、さらにかかる特徴2つ以上の任意の組み合わせを開示する。この開示は、当業者の一般知識を踏まえて、かかる特徴または組み合わせが本明細書に基づき全体として実行可能となる程度まで行われており、これは、かかる特徴または特徴の組み合わせが本願明細書に開示された任意の問題を解決するかどうかにはかかわらず、クレームの範囲を限定することもない。出願人は、開示された側面/例がそのような任意の個々の特徴からなっても、または特徴の組み合わせからなってもよいことを指摘する。当業者には当然のことながら、上記の説明に鑑みて、本開示の範囲内で様々な変更が加えられ得る。 Applicants disclose herein each individual feature described herein alone, as well as any combination of two or more such features. This disclosure has been made in light of the general knowledge of those skilled in the art to the extent that such features or combinations are generally feasible herein, as such features or combinations of features are referred to herein. It does not limit the scope of the claims, whether or not they solve any disclosed problems. Applicants point out that the disclosed aspects/examples may consist of any such individual feature or combination of features. Those skilled in the art will appreciate that various modifications can be made within the scope of the present disclosure in view of the above description.
基本となる新規な特徴が、その例に適用されて示され、記載され、指摘されたが、当然のことながら、記載されたデバイスおよび方法の形態および細部における様々な省略および置換および変更が、本開示の範囲から逸脱することなく、当業者によって行われることが可能である。例えば、同じ結果を達成するために実質的に同じ機能を実質的に同じ形で実行する当該要素および/または方法ステップのすべての組み合わせが、本開示の範囲内であることが明示的に意図される。さらに、当然のことながら、開示された任意の形態または例に関連して示されかつ/または記載された構造および/または要素および/または方法ステップは、一般的な設計上の選択事項として、他の任意の開示または記載または示唆された形態または例に組み込まれてもよい。さらに、特許請求の範囲では、ミーンズ・プラス・ファンクション節は、列挙された機能を実行するものとして本願明細書に記載された構造、さらに構造上の等価物のみならず、等価な構造も対象とすることを意図される。要するに、釘とねじとは、木製部品を留めるという状況において、釘が円柱状の表面を用いて木製部品同士を固定するのに対し、ねじはらせん状の表面を用いるという点で構造上の等価物ではないかもしれないが、釘とねじとは等価な構造体ではあり得る。 While the basic novel features have been shown, described and pointed out in the examples as applied, it should be understood that various omissions and substitutions and changes in the form and detail of the devices and methods described may occur. It can be done by a person skilled in the art without departing from the scope of the present disclosure. For example, all combinations of such elements and/or method steps that perform substantially the same function in substantially the same manner to achieve the same result are explicitly intended to be within the scope of the present disclosure. It Moreover, it should be understood that the structures and/or elements and/or method steps shown and/or described in connection with any of the disclosed forms or examples may be of other general design choice. May be incorporated into any disclosed or described or suggested form or example of. Further, in the claims, the means-plus-function clause is intended to cover structures described herein as performing the recited functions, as well as structural equivalents, as well as equivalent structures. Intended to do. In short, nails and screws are structurally equivalent in that in the context of fastening wooden parts, nails use cylindrical surfaces to secure wooden parts together, while screws use helical surfaces. Although not physical, nails and screws can be equivalent structures.
Claims (15)
仮想現実の中での視認用の仮想現実空間を提供するよう構成されたビデオ画像を備える仮想現実コンテンツであって、ユーザに提示される仮想現実ビューが前記仮想現実コンテンツの視認を提供し、前記仮想現実ビューは、前記仮想現実空間を構成する前記ビデオ画像の空間的な一部を備え、前記仮想現実空間の前記ビデオ画像の空間範囲よりも空間範囲が小さく、前記仮想現実コンテンツは、空間オーディオを含み、前記ビデオ画像の中の視覚的イベントに関係するオーディオイベントへの感知される方向が、前記仮想現実空間の中で提示される前記視覚的イベントの視覚的位置に対応する、前記仮想現実コンテンツに関して、
前記仮想現実ビューの前記視認方向の、第1の視認方向から第2の視認方向への前記ユーザによる変更であって、前記第2の視認方向は、前記視認方向の前記変更より前に開始が発生した特定のオーディオイベントの方向に方向閾値以内で一致する、前記変更に基づいて、
見逃されたイベントコンテンツの表示を提供することであって、前記見逃されたイベントコンテンツは、前記仮想現実コンテンツの前記ビデオ画像から抽出された視覚的画像を少なくとも有し、前記視覚的画像は、前記特定のオーディオイベントに対応する前記視覚的イベントを示し、前記見逃されたイベントコンテンツの時間的な開始点は、前記視認方向の前記変更が発生した前記仮想現実コンテンツの中の時間的な点よりも前であり、前記特定のオーディオイベントに基づく、前記提供すること
を実行させるよう構成される、装置。 An apparatus comprising at least one processor and at least one memory containing computer program code, wherein the computer program code, when executed by the at least one processor, causes the apparatus to at least:
Virtual reality content comprising a video image configured to provide a virtual reality space for viewing in virtual reality, wherein a virtual reality view presented to a user provides viewing of the virtual reality content, The virtual reality view comprises a spatial portion of the video images that make up the virtual reality space, has a smaller spatial extent than the spatial extent of the video images in the virtual reality space, and the virtual reality content is spatial audio. The virtual reality, wherein the sensed direction to an audio event related to a visual event in the video image corresponds to a visual position of the visual event presented in the virtual reality space. Regarding content,
The change of the viewing direction of the virtual reality view from the first viewing direction to the second viewing direction by the user, wherein the second viewing direction starts before the change of the viewing direction. Based on said change, matching the direction of the particular audio event that occurred within a direction threshold,
Providing a display of missed event content, wherein the missed event content comprises at least a visual image extracted from the video image of the virtual reality content, the visual image comprising: Indicating the visual event corresponding to a particular audio event, the temporal starting point of the missed event content is greater than the temporal point in the virtual reality content at which the change of the viewing direction occurred. An apparatus that is prior and configured to cause the providing based on the particular audio event.
a)前記仮想現実コンテンツの中で発生する1つ以上のオーディオイベントへの前記方向を備える所定のオーディオイベントデータ、および前記方向閾値以内の前記第2の視認方向と、前記1つ以上のオーディオイベントのうちの1つの前記方向との相互関係、
b)視認方向の前記変更に応答しての、前記ユーザが反応した前記特定のオーディオイベントを識別するための前記空間オーディオのオーディオ分析
のうちの1つ以上に基づく、請求項1から5のいずれかに記載の装置。 The determination of the specific audio event is
a) predetermined audio event data comprising the direction to one or more audio events occurring in the virtual reality content, the second viewing direction within the direction threshold and the one or more audio events. Interrelation with one of the above directions,
b) Any one of claims 1 to 5 based on one or more of an audio analysis of the spatial audio in response to the change in viewing direction to identify the particular audio event to which the user responded. The device according to claim 1.
i)前記仮想現実コンテンツの前記ビデオ画像から抽出された見逃されたイベントビデオ画像、
ii)前記仮想現実コンテンツの前記ビデオ画像から抽出された見逃されたイベント静止画像、
iii)前記仮想現実コンテンツの前記ビデオ画像から抽出された見逃されたイベントの仮想現実コンテンツであって、前記見逃されたイベントの仮想現実コンテンツの少なくとも初期の視認方向は、前記特定のオーディオイベントの前記方向に合致する、前記見逃されたイベントの仮想現実コンテンツ、
iv)前記仮想現実コンテンツの前記ビデオ画像から抽出された見逃されたイベントの仮想現実コンテンツであって、前記見逃されたイベントの仮想現実コンテンツは、前記仮想現実コンテンツの前記空間範囲未満の空間範囲を有し、前記特定のオーディオイベントの前記方向が焦点とされる、前記見逃されたイベントの仮想現実コンテンツ、
のうちの1つ以上を備える、請求項1から8のいずれかに記載の装置。 The missed event content is
i) a missed event video image extracted from the video image of the virtual reality content,
ii) a missed event still image extracted from the video image of the virtual reality content,
iii) virtual reality content of a missed event extracted from the video image of the virtual reality content, wherein at least an initial viewing direction of the virtual reality content of the missed event is the virtual audio content of the particular audio event. Virtual reality content of the missed event, matching the direction,
iv) Virtual reality content of the missed event extracted from the video image of the virtual reality content, wherein the virtual reality content of the missed event has a spatial range less than the spatial range of the virtual reality content. Virtual reality content of the missed event, having the focus on the direction of the particular audio event,
9. The device according to any of claims 1-8, comprising one or more of:
前記仮想現実ビューの前記視認方向の、第1の視認方向から第2の視認方向への前記ユーザによる変更であって、前記第2の視認方向は、前記視認方向の前記変更より前に開始が発生した特定のオーディオイベントの方向に方向閾値以内で一致する、前記変更に基づいて、
見逃されたイベントコンテンツの表示を提供することであって、前記見逃されたイベントコンテンツは、前記仮想現実コンテンツの前記ビデオ画像から抽出された視覚的画像を少なくとも有し、前記視覚的画像は、前記特定のオーディオイベントに対応する前記視覚的イベントを示し、前記見逃されたイベントコンテンツの時間的な開始点は、前記視認方向の前記変更が発生した前記仮想現実コンテンツの中の時間的な点よりも前であり、前記特定のオーディオイベントに基づく、前記提供すること
を含む方法。 Virtual reality content comprising a video image configured to provide a virtual reality space for viewing in virtual reality, wherein a virtual reality view presented to a user provides viewing of the virtual reality content, The virtual reality view comprises a spatial portion of the video images that make up the virtual reality space, has a smaller spatial extent than the spatial extent of the video images in the virtual reality space, and the virtual reality content is spatial audio. The virtual reality, wherein the sensed direction to an audio event related to a visual event in the video image corresponds to a visual position of the visual event presented in the virtual reality space. Regarding content,
The change of the viewing direction of the virtual reality view from the first viewing direction to the second viewing direction by the user, wherein the second viewing direction starts before the change of the viewing direction. Based on said change, matching the direction of the particular audio event that occurred within a direction threshold,
Providing a display of missed event content, wherein the missed event content comprises at least a visual image extracted from the video image of the virtual reality content, the visual image comprising: Indicating the visual event corresponding to a particular audio event, the temporal starting point of the missed event content is greater than the temporal point in the virtual reality content at which the change of the viewing direction occurred. A method comprising: providing, based on the particular audio event, which was before.
仮想現実の中での視認用の仮想現実空間を提供するよう構成されたビデオ画像を備える仮想現実コンテンツであって、ユーザに提示される仮想現実ビューが前記仮想現実コンテンツの視認を提供し、前記仮想現実ビューは、前記仮想現実空間を構成する前記ビデオ画像の空間的な一部を備え、前記仮想現実空間の前記ビデオ画像の空間範囲よりも空間範囲が小さく、前記仮想現実コンテンツは、空間オーディオを含み、前記ビデオ画像の中の視覚的イベントに関係するオーディオイベントへの感知される方向が、前記仮想現実空間の中で提示される前記視覚的イベントの視覚的位置に対応する、前記仮想現実コンテンツに関して、
前記仮想現実ビューの前記視認方向の、第1の視認方向から第2の視認方向への前記ユーザによる変更であって、前記第2の視認方向は、前記視認方向の前記変更より前に開始が発生した特定のオーディオイベントの方向に方向閾値以内で一致する、前記変更に基づいて、
見逃されたイベントコンテンツの表示の提供であって、前記見逃されたイベントコンテンツは、前記仮想現実コンテンツの前記ビデオ画像から抽出された視覚的画像を少なくとも有し、前記視覚的画像は、前記特定のオーディオイベントに対応する前記視覚的イベントを示し、前記見逃されたイベントコンテンツの時間的な開始点は、前記視認方向の前記変更が発生した前記仮想現実コンテンツの中の時間的な点よりも前であり、前記特定のオーディオイベントに基づく、前記提供をさせる、
ように構成されるプログラム命令を備える、コンピュータプログラム。 The device, when executed on at least one processor of the device,
Virtual reality content comprising a video image configured to provide a virtual reality space for viewing in virtual reality, wherein a virtual reality view presented to a user provides viewing of the virtual reality content, The virtual reality view comprises a spatial portion of the video images that make up the virtual reality space, has a smaller spatial extent than the spatial extent of the video images in the virtual reality space, and the virtual reality content is spatial audio. The virtual reality, wherein the sensed direction to an audio event related to a visual event in the video image corresponds to a visual position of the visual event presented in the virtual reality space. Regarding content,
The change of the viewing direction of the virtual reality view from the first viewing direction to the second viewing direction by the user, wherein the second viewing direction starts before the change of the viewing direction. Based on said change, matching the direction of the particular audio event that occurred within a direction threshold,
Providing a display of missed event content, wherein the missed event content comprises at least a visual image extracted from the video image of the virtual reality content, the visual image being the specific image. Showing the visual event corresponding to an audio event, the temporal starting point of the missed event content is before the temporal point in the virtual reality content where the change of the viewing direction occurs. Yes, based on the specific audio event, causing the provision,
A computer program comprising program instructions configured to:
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16176504.5A EP3264222B1 (en) | 2016-06-27 | 2016-06-27 | An apparatus and associated methods |
EP16176504.5 | 2016-06-27 | ||
PCT/FI2017/050432 WO2018002418A1 (en) | 2016-06-27 | 2017-06-12 | An apparatus and associated methods |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019521440A JP2019521440A (en) | 2019-07-25 |
JP6703627B2 true JP6703627B2 (en) | 2020-06-03 |
Family
ID=56321757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018567718A Active JP6703627B2 (en) | 2016-06-27 | 2017-06-12 | Device and related methods |
Country Status (6)
Country | Link |
---|---|
US (1) | US10560752B2 (en) |
EP (1) | EP3264222B1 (en) |
JP (1) | JP6703627B2 (en) |
CN (1) | CN109416562B (en) |
MX (1) | MX2018016336A (en) |
WO (1) | WO2018002418A1 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107888987B (en) * | 2016-09-29 | 2019-12-06 | 华为技术有限公司 | Panoramic video playing method and device |
EP3367383B1 (en) | 2017-02-23 | 2023-12-20 | Nokia Technologies Oy | Virtual reality |
EP3503102A1 (en) * | 2017-12-22 | 2019-06-26 | Nokia Technologies Oy | An apparatus and associated methods for presentation of captured spatial audio content |
EP3547691A4 (en) * | 2018-02-02 | 2019-11-13 | Ntt Docomo, Inc. | Information processing device |
US10812828B2 (en) * | 2018-04-10 | 2020-10-20 | At&T Intellectual Property I, L.P. | System and method for segmenting immersive video |
WO2020012062A2 (en) * | 2018-07-13 | 2020-01-16 | Nokia Technologies Oy | Multi-viewpoint multi-user audio user experience |
KR102022604B1 (en) * | 2018-09-05 | 2019-11-04 | 넷마블 주식회사 | Server and method for providing game service based on an interaface for visually expressing ambient audio |
EP3664417A1 (en) | 2018-12-06 | 2020-06-10 | Nokia Technologies Oy | An apparatus and associated methods for presentation of audio content |
JP7350510B2 (en) * | 2019-05-14 | 2023-09-26 | キヤノン株式会社 | Electronic equipment, electronic equipment control method, program, and storage medium |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8730322B2 (en) * | 2004-07-30 | 2014-05-20 | Eyesee360, Inc. | Telepresence using panoramic imaging and directional sound and motion |
JP2008219286A (en) * | 2007-03-01 | 2008-09-18 | Sharp Corp | Slide show device |
JP5115150B2 (en) * | 2007-11-02 | 2013-01-09 | ソニー株式会社 | Information presenting apparatus and information presenting method |
US9432629B2 (en) * | 2008-08-18 | 2016-08-30 | Brigham Young University | Interactive viewing of sports video |
US9497501B2 (en) | 2011-12-06 | 2016-11-15 | Microsoft Technology Licensing, Llc | Augmented reality virtual monitor |
US8963805B2 (en) * | 2012-01-27 | 2015-02-24 | Microsoft Corporation | Executable virtual objects associated with real objects |
JP5992210B2 (en) * | 2012-06-01 | 2016-09-14 | 任天堂株式会社 | Information processing program, information processing apparatus, information processing system, and information processing method |
JP5954147B2 (en) * | 2012-12-07 | 2016-07-20 | ソニー株式会社 | Function control device and program |
US9129430B2 (en) | 2013-06-25 | 2015-09-08 | Microsoft Technology Licensing, Llc | Indicating out-of-view augmented reality images |
US20150036999A1 (en) * | 2013-07-30 | 2015-02-05 | Texas Instruments Incorporated | Viewer Attention Controlled Video Playback |
JP6219504B2 (en) * | 2013-10-25 | 2017-10-25 | インテル コーポレイション | Apparatus and method for capturing and generating user experiences |
US9462230B1 (en) * | 2014-03-31 | 2016-10-04 | Amazon Technologies | Catch-up video buffering |
US9852774B2 (en) * | 2014-04-30 | 2017-12-26 | Rovi Guides, Inc. | Methods and systems for performing playback operations based on the length of time a user is outside a viewing area |
US10379614B2 (en) * | 2014-05-19 | 2019-08-13 | Immersion Corporation | Non-collocated haptic cues in immersive environments |
WO2015193806A1 (en) * | 2014-06-17 | 2015-12-23 | Koninklijke Philips N.V. | Evaluating clinician attention |
US20180124374A1 (en) * | 2014-07-31 | 2018-05-03 | Ashcorp Technologies | System and Method for Reducing System Requirements for a Virtual Reality 360 Display |
KR20160104493A (en) * | 2015-02-26 | 2016-09-05 | 삼성전자주식회사 | roadcasting receiving apparatus and control method thereof |
EP3112985A1 (en) * | 2015-06-30 | 2017-01-04 | Nokia Technologies Oy | An apparatus for video output and associated methods |
US10129579B2 (en) * | 2015-10-15 | 2018-11-13 | At&T Mobility Ii Llc | Dynamic video image synthesis using multiple cameras and remote control |
CN105611481B (en) * | 2015-12-30 | 2018-04-17 | 北京时代拓灵科技有限公司 | A kind of man-machine interaction method and system based on spatial sound |
EP3236336B1 (en) | 2016-04-21 | 2019-03-27 | Nokia Technologies Oy | Virtual reality causal summary content |
US20170316806A1 (en) * | 2016-05-02 | 2017-11-02 | Facebook, Inc. | Systems and methods for presenting content |
US10218760B2 (en) * | 2016-06-22 | 2019-02-26 | JBF Interlude 2009 LTD | Dynamic summary generation for real-time switchable videos |
US10701333B2 (en) * | 2017-04-16 | 2020-06-30 | Visbit Inc. | System, algorithms, and designs of view-optimized zoom for 360 degree video |
-
2016
- 2016-06-27 EP EP16176504.5A patent/EP3264222B1/en active Active
-
2017
- 2017-06-12 WO PCT/FI2017/050432 patent/WO2018002418A1/en active Application Filing
- 2017-06-12 US US16/308,923 patent/US10560752B2/en active Active
- 2017-06-12 MX MX2018016336A patent/MX2018016336A/en unknown
- 2017-06-12 CN CN201780039943.7A patent/CN109416562B/en active Active
- 2017-06-12 JP JP2018567718A patent/JP6703627B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2018002418A1 (en) | 2018-01-04 |
MX2018016336A (en) | 2019-09-04 |
JP2019521440A (en) | 2019-07-25 |
EP3264222B1 (en) | 2019-04-10 |
CN109416562A (en) | 2019-03-01 |
CN109416562B (en) | 2022-03-01 |
EP3264222A1 (en) | 2018-01-03 |
US10560752B2 (en) | 2020-02-11 |
US20190149886A1 (en) | 2019-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6703627B2 (en) | Device and related methods | |
US9786326B2 (en) | Method and device of playing multimedia and medium | |
JP6542039B2 (en) | System and method for Foley tactile content creation | |
US10798518B2 (en) | Apparatus and associated methods | |
US9950257B2 (en) | Recording companion | |
US20180300037A1 (en) | Information processing device, information processing method, and program | |
US10887719B2 (en) | Apparatus and associated methods for presentation of spatial audio | |
JP6374598B2 (en) | REPRODUCTION CONTROL METHOD, REPRODUCTION CONTROL DEVICE, AND ELECTRONIC DEVICE | |
US10846535B2 (en) | Virtual reality causal summary content | |
WO2014066192A1 (en) | Augmenting speech recognition with depth imaging | |
JP2020520576A5 (en) | ||
US10474342B2 (en) | Scrollable user interface control | |
JP6757420B2 (en) | Voice control device, voice control method and program | |
US11825170B2 (en) | Apparatus and associated methods for presentation of comments | |
CN114783432A (en) | Playing control method of intelligent glasses, intelligent glasses and storage medium | |
TWI581626B (en) | System and method for processing media files automatically | |
JP6222148B2 (en) | Imaging apparatus, image reproduction method, and program | |
EP3323478A1 (en) | An apparatus and associated methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200430 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6703627 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |