JP2021103327A - コンテンツを提供及び表示するための装置及び方法 - Google Patents

コンテンツを提供及び表示するための装置及び方法 Download PDF

Info

Publication number
JP2021103327A
JP2021103327A JP2021051166A JP2021051166A JP2021103327A JP 2021103327 A JP2021103327 A JP 2021103327A JP 2021051166 A JP2021051166 A JP 2021051166A JP 2021051166 A JP2021051166 A JP 2021051166A JP 2021103327 A JP2021103327 A JP 2021103327A
Authority
JP
Japan
Prior art keywords
content item
bit rate
content
rate version
version
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021051166A
Other languages
English (en)
Other versions
JP7029562B2 (ja
Inventor
ディー. キャッスルマン、デニス
D Castleman Dennis
ディー. キャッスルマン、デニス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Publication of JP2021103327A publication Critical patent/JP2021103327A/ja
Application granted granted Critical
Publication of JP7029562B2 publication Critical patent/JP7029562B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/44029Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/611Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for multicast or broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/764Media network packet handling at the destination 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4355Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4621Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/1062Data buffering arrangements, e.g. recording or playback buffers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Abstract

【解決手段】コンテンツを表示するための方法が提供される。本方法の一実施形態は、表示デバイス上に表示されたコンテンツ項目の閲覧者の焦点領域を決定することと、コンテンツ項目の低ビットレートバージョンを取り出すことと、焦点領域に対応するコンテンツ項目の高ビットレートバージョンの部分を取り出すことと、コンテンツの高ビットレートバージョンの部分をコンテンツ項目の低ビットレートバージョンと合成して、合成画像を生成することと、表示デバイスを介して閲覧者に合成画像を表示することと、を含む。同様のステップを行うシステムと、それぞれ1つ以上のコンピュータプログラムを記憶する非一時的なコンピュータ可読記憶媒体も提供される。【選択図】図1

Description

[関連出願の相互参照]
本出願は、米国特許出願第15/280,947号(2016年9月29日に出願)、発明の名称「APPARATUS AND METHOD FOR PROVIDING AND DISPLAYING CONTENT」の継続出願であり、そこからの利益を主張する。この出願は、米国仮特許出願第62/374,687号(2016年8月12日に出願)、発明の名称「APPARATUS AND METHOD FOR PROVIDING AND DISPLAYING CONTENT」からの利益を主張し、また米国仮特許出願62/357,259号(2016年6月30日に出願)、発明の名称「APPARATUS AND METHOD FOR CAPTURING AND DISPLAYING SEGMENTED CONTENT」の利益を主張する。これらの全体の内容及び開示内容はすべて、本明細書において参照により全体として、本明細書に全て取り入れられている。
本出願は、米国特許出願第15/280,933号(2016年9月29日に出願)、発明の名称「APPARATUS AND METHOD FOR CAPTURING AND DISPLAYING SEGMENTED CONTENT」(発明者はDennis D.Castlemanであり、代理人整理番号139592[SCEA16001US01]によって識別される。)に関連する。この文献の全体の内容及び開示内容はすべて、本明細書において参照により全体として、本明細書に全て取り入れられている。
また本出願は、米国特許出願第15/280,962号(2016年9月29日に出願)、発明の名称「APPARATUS AND METHOD FOR GAZE TRACKING」(発明者はDennis D.Castlemanであり、代理人整理番号138627[SCEA16004US00]によって識別される。)に関連する。この文献の全体の内容及び開示内容はすべて、本明細書において参照により全体として、本明細書に全て取り入れられている。
[発明の分野]
本発明は全般的に、ビデオ処理及び表示に関する。
ビデオストリーミングはますます、メディアコンテンツを配信してそれにアクセスする主要な方法の1つになりつつある。またビデオストリーミングトラフィックはインターネット帯域幅消費の大きな部分を占めている。
一実施形態によって、コンテンツを表示するための方法が提供される。本方法は、表示デバイス上に表示されたコンテンツ項目の閲覧者の焦点領域を決定することと、コンテンツ項目の低ビットレートバージョンを取り出すことと、焦点領域に対応するコンテンツ項目の高ビットレートバージョンの部分を取り出すことと、コンテンツの高ビットレートバージョンの部分をコンテンツ項目の低ビットレートバージョンと合成して、合成画像を生成することと、表示デバイスを介して閲覧者に合成画像を表示することと、を含む。
別の実施形態によって、コンテンツを表示するためのシステムであって、表示デバイス、センサデバイス、表示デバイス及びセンサデバイスに結合されたプロセッサを含むシステムが提供される。プロセッサは、センサデバイスを用いて、表示デバイス上に表示されたコンテンツ項目の閲覧者の焦点領域を決定することと、コンテンツ項目の低ビットレートバージョンを取り出すことと、焦点領域に対応するコンテンツ項目の高ビットレートバージョンの部分を取り出すことと、コンテンツの高ビットレートバージョンの部分をコンテンツ項目の低ビットレートバージョンと合成して、合成画像を生成することと、表示デバイスを介して閲覧者に合成画像を表示することと、を行うように構成されている。
別の実施形態によって、1つ以上のコンピュータプログラムを記憶する非一時的なコンピュータ可読記憶媒体が提供される。1つ以上のコンピュータプログラムは、プロセッサベースのシステムに、表示デバイス上に表示されたコンテンツ項目の閲覧者の焦点領域を決定することと、コンテンツ項目の低ビットレートバージョンを取り出すことと、焦点領域に対応するコンテンツ項目の高ビットレートバージョンの部分を取り出すことと、コンテンツの高ビットレートバージョンの部分をコンテンツ項目の低ビットレートバージョンと合成して、合成画像を生成することと、表示デバイスを介して閲覧者に合成画像を表示することと、を含むステップを実行させるように構成されている。
別の実施形態によって、コンテンツを提供するための方法が提供される。本方法は、コンテンツ項目を受け取ることと、コンテンツ項目の低ビットレートバージョンを生成することと、再生デバイスからコンテンツリクエストを受け取ることであって、コンテンツリクエストは閲覧者焦点領域の表示を含む、受け取ることと、閲覧者焦点領域に基づいてコンテンツ項目の高ビットレートバージョンの部分を選択することと、コンテンツリクエストに応じて、コンテンツ項目の低ビットレートバージョンとコンテンツ項目の高ビットレートバージョンの部分とを再生デバイスに提供することと、を含む。
別の実施形態によって、コンテンツを提供するためのシステムであって、メモリデバイス、通信デバイス、メモリデバイス及び通信デバイスに結合されたプロセッサを含むシステムが提供される。プロセッサは、コンテンツ項目を受け取ることと、コンテンツ項目の低ビットレートバージョンを生成することと、コンテンツ項目の高ビットレートバージョンとコンテンツ項目の低ビットレートバージョンとをメモリデバイス上に記憶することと、通信デバイスを介して、再生デバイスからコンテンツリクエストを受け取ることであって、コンテンツリクエストは閲覧者焦点領域の表示を含む、受け取ることと、閲覧者焦点領域に基づいてコンテンツ項目の高ビットレートバージョンの部分を選択することと、コンテンツリクエストに応じて、コンテンツ項目の低ビットレートバージョンとコンテンツ項目の高ビットレートバージョンの部分とを再生デバイスに提供することと、を行うように構成されている。
本発明の種々の実施形態の特徴及び優位点をより良好に理解することは、以下の詳細な説明及び添付図面を参照することにより得られる。詳細な説明及び添付図面では、本発明の実施形態の原理が用いられている例示的な実施形態について述べている。
本発明の実施形態の前述及び他の態様、特徴、及び優位点は、以下の図面とともに示した以下のより詳しい説明から明らかとなる。
本発明のいくつかの実施形態によりコンテンツを提供するためのプロセスを例示するプロセス図である。 本発明のいくつかの実施形態によりコンテンツを提供するための方法を例示するフロー図である。 本発明のいくつかの実施形態によりコンテンツを表示するための方法を例示するフロー図である。 本発明のいくつかの実施形態によるコンテンツ表示領域の説明図である。 本発明のいくつかの実施形態によるコンテンツ表示領域の説明図である。 本発明のいくつかの実施形態による画像ブレンディングの説明図である。 いくつかの実施形態による画像セルの説明図である。 いくつかの実施形態による画像セルの説明図である。 いくつかの実施形態による焦点領域の説明図である。 いくつかの実施形態による焦点領域の説明図である。 本発明のいくつかの実施形態によるシステムを例示するブロック図である。
デジタルビデオコンテンツは種々のフォーマットで記憶及び送信してもよい。ビデオの解像度、フレームレート、符号化形式、圧縮方式、及び圧縮因子などの因子がビデオファイルの全体サイズ及びビットレートに影響する可能性がある。デジタルマルチメディアでは、ビットレートは一般に、連続媒体(たとえばオーディオまたはビデオ)を表すために単位再生時間あたりに用いられるビット数を指す。マルチメディアファイルの符号化ビットレートは、マルチメディアファイルのサイズを記録の再生時間(たとえば、秒で)で割ったものを指す場合がある。ビデオコンテンツファイルのビットレートは、ストリーミングサーバと再生デバイスとの間のネットワーク帯域幅制約の下で中断せずにビデオをストリーミングできるか否かに影響する。
最初に図1を参照して、いくつかの実施形態によりビデオコンテンツを記録し、ホスティングし、及び表示するためのプロセスを示す。ステップ111では、ビデオコンテンツをカメラシステムによって取り込む。いくつかの実施形態では、カメラシステムは以下のうちの1つ以上を含んでいてもよい。従来のカメラシステム、立体カメラシステム、パノラマカメラシステム、サラウンドビューカメラシステム、360度カメラシステム、及び全方位カメラシステムなど。ステップ112では、取り込んだビデオを符号化してサーバに送信する。いくつかの実施形態では、ステップ112で行う符号化は損失または無損失ビデオ符号化を含んでいてもよい。いくつかの実施形態では、ビデオは、ライブストリーミングまたは予め記録されたビデオコンテンツを含んでいてもよい。いくつかの実施形態では、カメラは、ネットワーク(たとえばインターネットなど)を経由して無線または有線の手段を介してサーバと通信してもよい。
いくつかの実施形態では、ステップ111及び112を行うカメラは、セグメント化されたビデオ取り込みデバイスを含んでいてもよい。ビデオ取り込みデバイスは、たとえば、米国仮特許出願第62/357,259号(2016年6月30日に出願)、発明の名称「APPARATUS AND METHOD FOR CAPTURING AND DISPLAYING SEGMENTED CONTENT」に記載されているものである。この文献の全体の開示内容は、本明細書において参照により全体として、本明細書によって全て取り入れられている。セグメント化されたビデオ取り込みデバイスを用いて、ステップ112の前に、取り込んだ各ビデオストリームを別個のビデオストリームとしてサーバに提供するか、または合成して単一のビデオストリームにしてもよい。
ステップ121では、サーバはカメラから受け取ったビデオコンテンツを復号化する。いくつかの実施形態では、復号化されたビデオは、当初に取り込んだ解像度、フレームレート、及び/またはビットレートにおけるビデオを含んでいてもよい。ステップ122では、サーバは、復号化されたビデオストリームのビットレートを低減する。いくつかの実施形態では、ビデオコンテンツのビットレートを低減することを、ビデオの解像度を低減すること、ビデオのフレームレートを低減すること、及び圧縮アルゴリズムを用いてビデオを圧縮することのうちの1つ以上によって行ってもよい。ステップ123では、低減ビットレートビデオを符号化して、再生デバイスへのストリーミングに備える。いくつかの実施形態では、ステップ122及び123は単一ステップを含んでいてもよい。たとえば、符号化アルゴリズムを用いて、受け取ったコンテンツのビットレートを減らしてもよい。
ステップ125では、受け取ったビデオから、受け取ったビデオのうちの1つ以上の部分を抽出する。コンテンツ項目の部分は全般的に、ビデオコンテンツ表示領域の空間区分を指す。いくつかの実施形態では、コンテンツの部分は、1つ以上のフレームに及ぶコンテンツ表示領域の領域を含んでいてもよい。いくつかの実施形態では、受け取ったコンテンツの暗号化方式によって部分的に復号化することが可能になるならば(たとえば、MPEG−4トランスポートストリーム)、ステップ125における抽出を、受け取ったコンテンツを部分的に復号化することによって行ってもよい。いくつかの実施形態では、ステップ125を、再生デバイスから閲覧者焦点領域を受け取ることに応じて行ってもよく、抽出部分はコンテンツ内の閲覧者の焦点領域の場所に対応してもよい。いくつかの実施形態では、ステップ125をコンテンツ上で予備的に行ってもよく、1つ以上の部分を抽出及び記憶して、再生デバイスによる後の取り出しに備えてもよい。ステップ127では、抽出部分を符号化して、再生デバイスへのストリーミングに備える。
本明細書で用いる場合及び本開示の全体にわたって、高及び低ビットレートは、サーバから再生デバイスに提供されるビデオコンテンツ項目の少なくとも2つのバージョンの相対的なビットレートに言及する相対語である。全般的に、サーバは、受け取ったビデオの少なくとも1つの低ビットレートバージョンを生成して、少なくとも、低ビットレートバージョンと比べて高いビットレートを有するコンテンツ項目のバージョンの部分を抽出してもよい。いくつかの実施形態では、ビットレートが異なるビデオコンテンツ項目の複数のバージョンをサーバによって形成してもよい。またいくつかの実施形態では、ビットレート低減を、ステップ125においてコンテンツの部分を抽出する前に受け取ったビデオに対して、及び/またはステップ125において抽出した部分に対して行ってもよい。
一般的に、コンテンツ項目の高ビットレートバージョンは、ビデオコンテンツの継続時間に渡って、コンテンツ項目の低ビットレートバージョンよりも平均ビットレートが高い。いくつかの実施形態では、ビデオコンテンツの時間セグメントの一部または全部に対して、コンテンツ項目の高ビットレートバージョンのビットレートはコンテンツ項目の低ビットレートバージョンより高くてもよい。ある場合には、コンテンツ項目の高ビットレートバージョンの抽出部分を含むビデオストリームは、コンテンツ項目の低ビットレートバージョンを含むビデオストリームと比べてビットレートが低くてもよい。たとえば、コンテンツ項目の高ビットレートバージョンの部分は、低ビットレートバージョンと比べてコンテンツの著しく小さい表示領域をカバーしてもよく、その結果、抽出部分のより低いビットレートとなる。いくつかの実施形態では、コンテンツ項目の低ビットレートバージョンは、コンテンツ項目の高ビットレートバージョンと比べて低い解像度、フレームレート、及び圧縮品質のうちの1つ以上を含んでいてもよい。いくつかの実施形態では、コンテンツ項目の低ビットレートバージョンは、コンテンツ項目の高ビットレートバージョンと比べて低いビデオ品質及び/または鮮明度を含んでいてもよい。いくつかの実施形態では、コンテンツの低及び高ビットレートバージョンは、固定ビットレート(CBR)または可変ビットレート(VBR)ビデオストリームを含んでいてもよい。
いくつかの実施形態では、サーバはネットワーク(たとえばインターネットなど)を経由して再生デバイスと通信してもよい。ステップ131では、再生デバイスは、ビデオコンテンツの低ビットレートバージョンとビデオコンテンツの高ビットレート部分の部分とを受け取って復号化する。ビデオコンテンツの高ビットレート部分の部分は、再生デバイスを介してコンテンツを閲覧する閲覧者の焦点領域に基づいて選択してもよい。いくつかの実施形態では、閲覧者の焦点領域は、閲覧者がコンテンツを閲覧する間、焦点が合っているかまたは合っている可能性がある閲覧者の視界の領域を指す。いくつかの実施形態では、焦点領域は、閲覧者の視界の中心、近中心、黄斑、近周辺、及び中周辺領域のうちの1つ以上に対応してもよい。閲覧者の焦点領域を、再生デバイスに結合されたセンサデバイスによって検出してもよい。いくつかの実施形態では、コンテンツ項目の取り込みデバイスによって記録された慣性計測ユニット(IMU)データを、閲覧者の目及び/または頭部方向と比べて、再生デバイス用に抽出する高ビットレートビデオコンテンツの部分を決定してもよい。いくつかの実施形態では、ビデオコンテンツの低ビットレートバージョンとビデオコンテンツの高ビットレート部分の部分とを、サーバから再生デバイスに別個のビデオストリームとして送信してもよい。
ステップ132では、ビデオコンテンツの低ビットレートバージョンとビデオコンテンツの高ビットレート部分の部分とを合成する。いくつかの実施形態では、ビデオストリームを合成することには、コンテンツ項目の低ビットレートバージョンを高ビットレートバージョンの部分と、高ビットレート部分を抽出したコンテンツ表示領域の場所で合成することが含まれる。いくつかの実施形態では、ステップ132には、画像の高及び低ビットレート領域間に移行領域を含んで、ビデオコンテンツの2つのバージョン間の境界の視認性を減らすことによって2つのビデオストリームをブレンドすることが含まれる。いくつかの実施形態では、ステップ132にはさらに、画像を合成する前に、ビデオコンテンツの低ビットレートバージョンをコンテンツの高ビットレートバージョンの解像度及び/またはフレームレートにスケール変更することが含まれる。
ステップ133では、閲覧者に合成画像を表示する。合成画像を、フラットスクリーンディスプレイ、曲面ディスプレイ、ドーム表示デバイス、頭部装着型表示デバイス、拡張現実表示デバイス、仮想現実表示デバイスなどのうちの1つ以上を介して表示してもよい。いくつかの実施形態では、合成画像を頭部装着型ディスプレイによって閲覧してもよい。頭部装着型ディスプレイはたとえば、米国特許出願第15/085,887号(2016年3月30日に出願)、発明の名称「Head−Mounted Display Tracking」に記載されているシステム及びデバイスである。この文献の全体の開示内容は、本明細書において参照により全体として、本明細書に全て取り入れられている。
いくつかの実施形態では、図1に示すステップの代わりに、ビデオコンテンツの高ビットレート部分をコンテンツの低ビットレートバージョンと、サーバにおいて合成して、送信用に単一のビデオストリームとして符号化してもよい。このようなビデオストリームの解像度及びフレームレートは、フル高ビットレートバージョンと比べて低減しなくてもよいが、送信されたビデオストリームの全体サイズは依然として、画像を再結合する前に、より損失の大きいビデオ圧縮アルゴリズムを用いて焦点領域の外側のコンテンツの領域を処理することによって低減してもよい。
図1に示すプロセスでは、ユーザの焦点領域に対応するコンテンツ項目の部分は比較的高ビットレートで提供され、コンテンツの残りの領域は比較的低ビットレートで提供される。図1に示すプロセスを用いて、中断のないビデオストリーミングを実現するためのネットワーク帯域幅要求を、閲覧者の視界の焦点領域におけるビデオ品質を維持しながらストリーミングビデオコンテンツの全体的なビットレートを低減することによって軽減してもよい。
次に図2を参照して、コンテンツを提供するための方法を示す。図2のステップは全般的に、プロセッサベースのデバイス(たとえば、コンピュータシステム、サーバ、クラウドベースのサーバ、コンテンツホスト、ストリーミングサービスホスト、メディアサーバなどのうちの1つ以上)によって行ってもよい。いくつかの実施形態では、図2のステップを、図8を参照して記載されるコンテンツサーバ810及び再生デバイス820、図1を参照して記載されるサーバ、ならびに/または他の同様のデバイスのうちの1つ以上によって行ってもよい。
ステップ210では、システムはコンテンツ項目を受け取る。コンテンツ項目は、映画、TV番組、ビデオクリップ、予め記録されたビデオコンテンツ、ストリーミングビデオコンテンツ、ライブストリーミングされたビデオコンテンツなどのうちの1つ以上を含んでいてもよい。いくつかの実施形態では、ビデオコンテンツには、立体カメラシステム、パノラマカメラシステム、サラウンドビューカメラシステム、360度カメラシステム、全方位カメラシステムなどのうちの1つ以上によって取り込まれた単一のビデオストリームまたは複数のビデオストリームが含まれていてもよい。いくつかの実施形態では、コンテンツ項目を任意の暗号化方式(たとえば、MPEG、WMV、VP8など)を介して符号化してもよい。いくつかの実施形態では、システムをさらに、受け取ったコンテンツ項目を種々の暗号化方式により復号化するように構成してもよい(ステップ310)。
ステップ220では、システムはコンテンツ項目の低ビットレートバージョンを生成する。いくつかの実施形態では、受け取ったコンテンツのビットレートを、ビデオの解像度を低減すること、ビデオのフレームレートを低減すること、損失圧縮アルゴリズムを用いてビデオを圧縮することのうちの1つ以上によって低減してもよい。損失圧縮は全般的に、圧縮ビデオには当初のビデオに存在するいくらかの情報が無いことを意味する。いくつかの実施形態では、コンテンツ項目の複数の低ビットレートバージョンをステップ220で生成して、再生デバイスによる取り出しに備えて記憶してもよい。
ステップ230では、システムはコンテンツリクエストを受け取る。いくつかの実施形態では、コンテンツリクエストを以下のような再生デバイスから受け取ってもよい。たとえば、ゲームコンソール、パーソナルコンピュータ、タブレットコンピュータ、テレビジョン、頭部装着型ディスプレイ(「HMD」)、拡張現実デバイス、仮想現実デバイス、着用可能デバイス、携帯型ユーザデバイス、スマートフォンなどである。いくつかの実施形態では、コンテンツリクエストによって、リクエストされているコンテンツ項目、リクエストされた時間セグメント、閲覧者の焦点及び/または領域の表示、及び/または他の認証情報のうちの1つ以上を特定してもよい。いくつかの実施形態では、コンテンツリクエストは従来のストリーミングコンテンツリクエストと同様であってもよい。いくつかの実施形態では、コンテンツリクエストは、コンテンツ表示領域内の点または領域に対応し得る閲覧者の焦点領域の表示を含んでいてもよい。いくつかの実施形態では、閲覧者の焦点領域の表示は、コンテンツのフレームの寸法内の座標または座標セットを含んでいてもよい。いくつかの実施形態では、閲覧者の焦点領域の表示を視野角によって表してもよい。いくつかの実施形態では、焦点領域を、視線追跡センサ及び頭部追跡センサのうちの1つ以上を含む再生デバイスに付随するセンサデバイスに基づいて決定してもよい。
ステップ240では、コンテンツの低ビットレートバージョンを、ステップ230で受け取ったコンテンツリクエストに応じて再生デバイスに提供する。いくつかの実施形態では、ステップ220において、コンテンツ項目の複数の低ビットレートバージョンを生成してもよい。ステップ240では、システムは、以下のうちの1つ以上に基づいて、コンテンツ項目の複数の低ビットレートバージョンの中から選択してもよい。再生デバイスとサーバとの間の現在のまたは推定されたネットワークスループット、サーバ及び/または再生デバイスにおける利用可能な帯域幅、コンテンツリクエストにおいて特定されたリクエストされたビデオ品質、再生デバイスの処理能力、ユーザ設定など。いくつかの実施形態では、複数のバージョンからコンテンツ項目の低ビットレートバージョンを選択することは、従来の適応ビットレートストリーミング方法と同様であってもよい。
ステップ250では、システムは、コンテンツリクエストに基づいてコンテンツ項目の高ビットレートバージョンの部分を選択する。コンテンツ項目の高ビットレートバージョンは一般的に、ステップ240で提供した低ビットレートコンテンツと比べてビットレートが高いコンテンツのバージョンを指す。いくつかの実施形態では、コンテンツ項目の高ビットレートバージョンは、ビデオコンテンツの継続時間に渡って、コンテンツの低ビットレートバージョンよりも高い平均ビットレートを含んでいてもよい。いくつかの実施形態では、ビデオコンテンツの一部または全部の時間セグメントの間、コンテンツ項目の高ビットレートバージョンのビットレートはコンテンツの低ビットレートバージョンより高くてもよい。いくつかの実施形態では、コンテンツの高ビットレートバージョンは、ステップ210で受け取った当初のコンテンツを含んでいてもよい。いくつかの実施形態では、コンテンツ項目の高ビットレートバージョンはまた、当初に受け取ったコンテンツ項目の低減ビットレートバージョンを含んでいてもよい。
いくつかの実施形態では、ステップ250で選択するコンテンツの部分を、検出された焦点及び予測される将来の焦点のうちの1つ以上を含む閲覧者の焦点領域に基づいて選択してもよい。いくつかの実施形態では、予測される将来の焦点をサーバ及び/または再生デバイスによって予測してもよい。いくつかの実施形態では、将来の焦点を、閲覧者の注視経路履歴、閲覧者に付随する注視経路プロファイル、複数の閲覧者から集めた注視経路データ、及びコンテンツプロバイダによって提供される標準的な注視経路のうちの1つ以上に基づいて予測してもよい。閲覧者の将来の焦点を予測する例が以下の文献に記載されている。米国特許出願第15/280,962号(2016年9月29日に出願)、発明の名称「APPARATUS AND METHOD FOR GAZE TRACKING」(発明者はDennis D.Castleman)。この文献は、代理人整理番号138627[SCEA16004US00]によって識別される。この文献の全体の開示内容は、本明細書において参照により全体として、本明細書に全て取り入れられている。
コンテンツの部分は全般的に、ディスプレイコンテンツ領域の空間部分(たとえば、フレーム内の設定画素)を指してもよい。いくつかの実施形態では、部分は、複数のフレームに及ぶディスプレイコンテンツ領域の同じ部分を含んでいてもよい。いくつかの実施形態では、ステップ250で選択した部分は全般的に、コンテンツ表示領域における閲覧者の焦点領域の場所に対応してもよい。いくつかの実施形態では、コンテンツの表示領域を複数の区分に分割してもよい。たとえば、コンテンツの表示領域を四分円、3x3グリッド、5x5グリッドなどに分割してもよい。いくつかの実施形態では、閲覧者の焦点領域と重複するコンテンツ表示領域の1つ以上の区分を、再生デバイスに提供されるコンテンツ項目の高ビットレートバージョンの部分を含むように選択してもよい。いくつかの実施形態では、コンテンツの焦点領域及び/または抽出部分は、任意の形状及びサイズを含んでいてもよい。焦点領域及びコンテンツ項目から抽出される部分の例について、本明細書における図4A〜4B及び図7A〜7Bを参照してより詳細に説明する。
いくつかの実施形態では、システムはさらに、以下のうちの1つ以上に基づいて、コンテンツの複数の当初及び/または低減ビットレートバージョンから選択して、選択部分を抽出してもよい。再生デバイスとサーバとの間の現在のまたは推定されたネットワークスループット、サーバ及び/または再生デバイスにおける利用可能な帯域幅、コンテンツリクエストにおいて特定されたリクエストされたビデオ品質、再生デバイスの処理能力、及びユーザ設定。いくつかの実施形態では、高ビットレートバージョンの部分を、ステップ220で生成した低減ビットレートバージョンのうちの1つから抽出してもよい。いくつかの実施形態では、コンテンツ項目の高ビットレートバージョンを全般的に、ステップ240で選択したコンテンツ項目の低ビットレートバージョンと比べて高いビットレートを伴うコンテンツ項目のバージョンから選択してもよい。
いくつかの実施形態では、システムをコンテンツ項目の高ビットレートバージョンのうちの2つ以上の部分を提供するように構成してもよい(ステップ270)。たとえば、システム及び/または再生デバイスは、閲覧者の2つ以上の可能性のある将来の焦点領域を予測してもよい。システムは次に、閲覧者の2つ以上の可能性がある将来の焦点領域に基づいてコンテンツ項目の高ビットレートバージョンの2つ以上の部分を選択してもよい(ステップ250)。再生デバイスを、検出した焦点領域に基づいて、再生する少し前に、提供された部分の中から選択するように構成してもよい。
ステップ260では、システムは選択部分がシステムにおいて以前にキャッシュされたか否かを判定する。いくつかの実施形態では、コンテンツの高ビットレートバージョンの部分を抽出したときに、システムはその部分を、後で用いるためにキャッシュしてもよい。いくつかの実施形態では、システムは、表示されたコンテンツ内で閲覧者がフォーカスする可能性がある場所を予測することに基づいて、コンテンツ項目の高ビットレートバージョンの複数の抽出部分を予備的に生成してもよい。たとえば、予備的に抽出した部分が、表示されたコンテンツの高活性領域及び/または前景領域に対応してもよい。いくつかの実施形態では、キャッシュ部分はそれぞれ、符号化されたビデオストリームを含んでいてもよい。いくつかの実施形態では、システムを、設定時間(たとえば、時間、日など)の間用いられていない抽出部分を自動的に消去するように構成してもよい。いくつかの実施形態では、高ビットレート部分の各キャッシュ部分を、領域識別子及びタイムスタンプ識別子(たとえば、区分3B、時間00:30:20〜00:30:22)を用いて特定して取り出してもよい。いくつかの実施形態では、コンテンツの高ビットレートバージョンの部分を、符号化された形式でキャッシュ内に記憶してもよく、また再生デバイスへのストリーミングに対して直接的利用できるようにしてもよい。選択部分が以前にキャッシュされていた場合、システムはキャッシュ部分を再生デバイスに提供してもよい(ステップ270)。
選択部分が以前にキャッシュされていなかった場合、システムはコンテンツの高ビットレートバージョンの部分を抽出する(ステップ280)。いくつかの実施形態では、ステップ210で受け取ったコンテンツから部分を抽出してもよい。いくつかの実施形態では、当初に受け取ったコンテンツの低減ビットレートバージョンのうちの1つから部分を抽出してもよい。いくつかの実施形態では、受け取ったコンテンツを最初に復号化することによって部分を抽出してもよい。いくつかの実施形態では、システムを、コンテンツ項目の符号化されたバージョンからコンテンツの一部を部分的に復号化して抽出するように構成してもよい。いくつかの実施形態では、ステップ280はさらに、抽出部分の縁部の周りに複数の空/透明画素またはセルを含むように抽出部分を処理することを含んでいてもよい。空/透明画素の密度を抽出部分の外縁に向けて徐々に増加させて、抽出部分をコンテンツのより低いビットレートバージョンと合成したときに、2つの画像間の縁部がヒトの目に対してそれほど目立たなくなるようにしてもよい。空/透明画素を含めることによって、コンテンツの高ビットレートバージョンの部分を送信するための帯域幅利用をさらに減少させてもよい。いくつかの実施形態では、ステップ280はさらに、ストリーミングするために抽出部分を別個に符号化することを含んでいてもよい。コンテンツ項目の高ビットレートバージョンの符号化された部分を次に、再生デバイスに提供してもよい(ステップ270)。いくつかの実施形態では、コンテンツ項目の高ビットレートバージョンの部分を、複数の符号化されたビデオストリーム(それぞれ、コンテンツ表示領域の所定の領域(たとえば、グリッド内のセル)に対応する)において提供してもよい。
いくつかの実施形態では、ステップ270及び240を実質的に同時に行って、同じコンテンツ項目の対応する時間セグメントを再生デバイスに提供してもよい。いくつかの実施形態では、コンテンツの低ビットレートバージョンを再生デバイスに提供してバッファに入れることを、ステップ270においてコンテンツ項目の対応する高ビットレート部分を提供する前に行ってもよい。いくつかの実施形態では、コンテンツ項目の高ビットレートバージョンの部分とコンテンツ項目の低ビットレートバージョンとを、2つの別個に符号化及び送信されたビデオストリームとして提供してもよい。いくつかの実施形態では、コンテンツ項目の高ビットレートバージョンの部分とコンテンツ項目の低ビットレートバージョンとを、サーバシステムの異なる部分から提供してもよい。たとえば、中央サーバを、コンテンツ項目の低ビットレートバージョンを再生デバイスに流すように構成してもよく、一方で、複数の地理的に分散したサーバデバイスを、同じコンテンツ項目の高ビットレートバージョンの部分を抽出し、及び/または近くの再生デバイスに提供するように構成してもよい。
いくつかの実施形態では、複数のコンテンツ項目に対してステップ210〜270を繰り返してもよい。いくつかの実施形態では、再生デバイスにおいて閲覧者がコンテンツ項目を閲覧するときにステップ250〜270を周期的に繰り返してもよい。たとえば、再生デバイスは、サーバにおいて閲覧者の焦点領域を周期的に(たとえば、数ミリ秒毎、数秒毎、数フレーム毎などに)更新してもよく、システムは、閲覧者の更新された焦点領域に基づいて、コンテンツ項目の高ビットレートバージョンの異なる部分を選択してもよい。いくつかの実施形態では、再生デバイスを、焦点領域における変化を検出して、焦点領域の場所が変化したときにのみサーバに通知するように構成してもよい。いくつかの実施形態では、焦点領域が検出されない場合(たとえば、ユーザが現時点でスクリーンを見ていない場合)、システムは、ステップ250〜270を省略して、コンテンツ項目の低ビットレートバージョンのみを再生デバイスに提供してもよい。いくつかの実施形態では、ユーザが表示デバイスを見ていないと検出された場合、システムはさらに、コンテンツ項目の最も低いビットレートバージョンを選択して、ステップ240で再生デバイスに提供して、ネットワーク帯域幅利用を低減してもよい。いくつかの実施形態では、コンテンツのストリーミングにおける中断が検出された場合、システムは、中断を減らすために提供されるコンテンツの低及び/または高ビットレートバージョンのビットレートを調整してもよい。
次に図3を参照して、コンテンツを提供するための方法を示す。図3のステップは全般的に、たとえば以下のうちの1つ以上のプロセッサベースのデバイスによって行ってもよい。ゲームコンソール、パーソナルコンピュータ、タブレットコンピュータ、テレビジョン、頭部装着型ディスプレイ(「HMD」)、拡張現実デバイス、仮想現実デバイス、着用可能デバイス、携帯型ユーザデバイス、スマートフォン、モバイルデバイスなど。いくつかの実施形態では、図3のステップを、図8を参照して記載されるコンテンツサーバ810及び再生デバイス820、図1を参照して記載される再生デバイス、または他の同様のデバイスのうちの1つ以上によって行ってもよい。
ステップ310では、システムは閲覧者の焦点領域を決定する。いくつかの実施形態では、焦点領域を、視線追跡センサ及び頭部追跡センサのうちの1つ以上を含むセンサデバイスに基づいて決定してもよい。いくつかの実施形態では、ユーザの頭部方向を、慣性計測ユニット(IMU)、加速度計、ジャイロスコープ、画像センサ、及び距離センサのうちの1つ以上を含むヘッドトラッカーデバイスによって決定してもよい。いくつかの実施形態では、IMUは、加速度計及びジャイロスコープ(しばしば磁気計も)の組み合わせを用いて身体の特定の力、角速度、及び/または身体を囲む磁界を測定及び報告する電子デバイスを含んでもよい。いくつかの実施形態では、ヘッドトラッカーデバイスをユーザが装着する頭部装着型ディスプレイ(HMD)に結合してもよい。いくつかの実施形態では、ユーザの注視場所を、画像センサ、光学式リフレクタセンサ、距離センサ、筋電図(EMG)センサ、及び光学式流量センサのうちの1つ以上を含むアイトラッカーデバイスによって決定してもよい。
いくつかの実施形態では、焦点領域を、検出された焦点及び予測される将来の焦点のうちの1つ以上に基づいて決定してもよい。いくつかの実施形態では、将来の焦点を、閲覧者の注視点履歴、閲覧者に付随する注視経路プロファイル、複数の閲覧者から集められた注視経路データ、及びコンテンツプロバイダによって提供される標準的な注視経路のうちの1つ以上に基づいて予測してもよい。いくつかの実施形態では、焦点領域を2Dまたは3D空間におけるフォーカス点によって表してもよい。いくつかの実施形態では、焦点領域を、3D角度(たとえば球面方位角(θ)と極角(φ)とによって表した方向)として表してもよい。いくつかの実施形態では、焦点領域を2D極角(φ)によって表してもよい。いくつかの実施形態では、焦点領域は、閲覧者の頭部、目、及び/または表示デバイスのピッチ、ヨー、及びロールに対応してもよい。いくつかの実施形態では、システムは、記録されたコンテンツのIMUデータと表示デバイスのIMUデータとを比べて、コンテンツに対する閲覧の焦点領域を決定してもよい。いくつかの実施形態では、焦点領域のサイズをさらに、表示デバイスからの閲覧者の距離に基づいて決定してもよい。たとえば、テレビのディスプレイの場合、より小さい焦点領域をスクリーンから5フィート離れて座る閲覧者に対応付けてもよく、一方で、より大きい焦点を10フィート離れて座る閲覧者に対応付けてもよい。いくつかの実施形態では、焦点領域を、ユーザの焦点の周りの固定サイズ及び形状の領域に近づけてもよい。
ステップ320において、再生デバイスはコンテンツ項目の低ビットレートバージョンを取り出す。いくつかの実施形態では、再生デバイスは、ステップ320においてコンテンツ項目のホストとして働くサーバにコンテンツリクエストを送って、コンテンツ項目を取り出す。コンテンツ項目の低ビットレートバージョンは、コンテンツプロバイダ及び/またはホスティングサービスによって生成されたコンテンツ項目の低減ビットレートバージョンを含んでいてもよい。いくつかの実施形態では、ステップ320をステップ310の前に行ってもよく、また閲覧者の焦点領域が決定される前に、コンテンツ項目の低ビットレートバージョンをダウンロードし、バッファに入れ、及び/または閲覧することを始めてもよい。いくつかの実施形態では、ステップ320は、本明細書で図2を参照して説明したステップ240に対応してもよい。
ステップ330において、再生デバイスはコンテンツ項目の高ビットレートバージョンの部分を取り出す。いくつかの実施形態では、再生デバイスは、ステップ310で決定した閲覧者の焦点領域を特定するコンテンツリクエストをサーバに送って、コンテンツ項目の高ビットレートバージョンの部分を取り出す。全般的に、取り出した部分は、閲覧者の焦点領域に基づいて選択したコンテンツの空間部分を含んでいてもよい。いくつかの実施形態では、取り出した部分は、コンテンツ項目の領域の短い時間セグメント(たとえば、ミリ秒、秒、フレームなど)を含んでいてもよい。いくつかの実施形態では、コンテンツ項目の高ビットレートバージョンの部分を、ステップ320で取り出したコンテンツ項目の低ビットレートバージョンから別個に符号化したビデオストリーム内に取り出してもよい。いくつかの実施形態では、コンテンツ項目の低ビットレートバージョンを、コンテンツ項目の高ビットレートバージョンを取り出す前にバッファに入れてもよい。いくつかの実施形態では、ステップ330は、本明細書で図2を参照して説明したステップ270に対応してもよい。
ステップ340では、システムは、コンテンツ項目の高ビットレートバージョンの部分をコンテンツ項目の低ビットレートバージョンと合成して、合成画像を生成する。いくつかの実施形態では、ステップ340において、システムは最初に、ステップ330で取り出したコンテンツ項目の高ビットレートバージョンの部分と、ステップ320で取り出したコンテンツ項目の低ビットレートバージョンとを復号化する。いくつかの実施形態では、コンテンツ項目の低及び高ビットレートバージョンの解像度及び/またはフレームレートが異なっている場合、システムは、画像を合成する前に、最初にバージョンのうちの少なくとも1つの解像度及び/またはフレームレートを調整してもよい。たとえば、システムは、コンテンツ項目の低ビットレートバージョンの解像度及び/またはフレームレートを増加させて、高ビットレート部分の解像度及び/またはフレームレートにマッチすることを、コンテンツ項目の復号化された低ビットレートバージョンをアップサンプルし及び/またはこれに干渉することによって行ってもよい。
いくつかの実施形態では、システムは、コンテンツ項目のうちの2つのバージョンを合成することを、コンテンツ項目の低ビットレートバージョンのフレーム内の画素を、コンテンツ項目の高ビットレートバージョンの部分の対応するフレームからの画素と取り替えることによって行ってもよい。いくつかの実施形態では、フレームをタイムスタンプによって特定してマッチしてもよい。いくつかの実施形態では、画像をさらにブレンドして、コンテンツ項目の2つのバージョンの間の境界の見た目を低減してもよい。いくつかの実施形態では、システムは、コンテンツの高ビットレートバージョンの部分とコンテンツの低ビットレートバージョンとの間に移行領域を生成することによって、コンテンツ項目のバージョンをブレンドする。移行領域では、高ビットレートバージョンからの情報を含む画素は、表示されたコンテンツの高ビットレート領域から低ビットレート領域に向けて徐々に減少してもよい。いくつかの実施形態では、コンテンツ項目の高ビットレートバージョンの部分をコンテンツ項目の低ビットレートバージョンとブレンドすることは、ブレンドするために画素を三角セルにグループ分けすることを含んでいてもよい。移行領域及びブレンディングの例について、本明細書で図5及び6A〜6Bを参照して説明する。いくつかの実施形態では、高ビットレート部分を予めブレンドされた形式でサーバから提供してもよい。たとえば、高ビットレート部分の縁部は、密度が段階的な複数の空/透明画素を含んでいてもよい。再生デバイスは次に、透明画素を伴う高ビットレート部分をコンテンツ項目の低ビットレートバージョン上に、さらに画像を処理することなく被せて、ブレンド効果をアーカイブしてもよい。
ステップ350では、合成画像を表示デバイス上に表示する。いくつかの実施形態では、表示デバイスは、モニタ、テレビジョン、プロジェクタ、頭部装着型ディスプレイ(HMD)、仮想現実表示デバイス、着用可能デバイス、ディスプレイスクリーン、モバイルデバイスなどのうちの1つ以上を含んでいてもよい。いくつかの実施形態では、ステップ350の前に、システムはさらに、表示デバイスの仕様に基づいて合成画像を調整してもよい。たとえば、仮想現実表示デバイスの場合、システムは、デバイスに付随する反り及び歪みに応じて調整してもよい。
いくつかの実施形態では、閲覧者がコンテンツ項目を閲覧するときにステップ310〜350を連続的に繰り返してもよい。いくつかの実施形態では、ステップ310で検出した焦点領域に基づいて、時間の経過とともに、コンテンツ項目の高ビットレートバージョンの異なる部分が、ステップ330で取り出され、ステップ340で低ビットレートバージョンと合成されてもよい。いくつかの実施形態では、ステップ320はステップ310及び330とは独立していてもよい。いくつかの実施形態では、焦点領域が検出されなかった場合、システムは、焦点が再び検出されるまで、表示すべきコンテンツ項目の低ビットレートバージョンのみを取り出して、ステップ330〜350を省略してもよい。
いくつかの実施形態では、システムをさらに、閲覧者の閲覧領域を決定して、ステップ320において閲覧者の閲覧領域に基づいて低ビットレートコンテンツの部分のみを取り出すように構成してもよい。閲覧者の閲覧領域を、ステップ310における焦点領域の決定と同様に視線追跡及び頭部追跡のうちの1つ以上に基づいて決定してもよい。閲覧者の閲覧領域は全般的に、ユーザには見えるが閲覧者の視界内で焦点が合っていてもよいしそうでなくてもよいコンテンツの領域を指してもよい。いくつかの実施形態では、閲覧領域は、焦点領域を囲む領域を含んでいてもよい。いくつかの実施形態では、取り出したコンテンツ項目の低ビットレートバージョンの部分は、閲覧領域内にないコンテンツ領域の領域を除外してもよい。いくつかの実施形態では、取り出したコンテンツ項目の低ビットレートバージョンの部分はさらに焦点領域を除いて、閲覧者には見えるが焦点が合っていないと想定される領域のみを含んでいてもよい。いくつかの実施形態では、コンテンツ項目の低ビットレートバージョンの取り出した部分は、閲覧者の視界の近い、中間の、及び遠い周辺視野領域のうちの1つ以上に対応してもよい。
次に図4Aを参照して、コンテンツ表示領域の説明図を示す。コンテンツ領域400はコンテンツ項目の画像領域全体を表す。コンテンツ領域400を矩形であると示しているが、いくつかの実施形態では、コンテンツ領域400は、没入型コンテンツ及び/または全方位ビデオコンテンツの場合に円柱、球体、半球などに対応してもよい。コンテンツ領域400は全般的に、本開示の趣旨から逸脱することなく、任意の形状、アスペクト比、及びサイズを含んでいてもよい。焦点410はコンテンツ内の閲覧者のフォーカス点を表す。いくつかの実施形態では、焦点410は、検出された焦点及び/または予測される焦点に対応してもよい。焦点領域412は、閲覧者の視界内で焦点が合っている可能性がある焦点410の周りの領域を表す。いくつかの実施形態では、焦点領域は、閲覧者の視界の中心、近中心、黄斑、近周辺、及び中周辺領域のうちの1つ以上を含んでいてもよい。焦点領域412のサイズ及び形状は単に例として示す。焦点領域412及びコンテンツ領域400の相対的サイズも変えてもよい。いくつかの実施形態では、焦点領域412の形状及びサイズを、それぞれの個人ユーザに対して較正してもよく、及び/または閲覧者デモグラフィック情報、閲覧習慣、ユーザフィードバック、ユーザ設定などのうちの1つ以上を含む閲覧者のプロファイルに基づいて推定してもよい。いくつかの実施形態では、焦点領域412のサイズをさらに、ディスプレイスクリーンからの閲覧者の距離に基づいて決定してもよい。いくつかの実施形態では、閲覧者の目とディスプレイスクリーン(たとえば、HMD)との間の距離が固定された表示デバイスタイプの場合、焦点領域のサイズ412を概ね同じままであると想定してもよい。
いくつかの実施形態では、再生デバイスを、焦点領域412に対応するコンテンツ項目の高ビットレートバージョンの部分を取り出すように構成してもよい。いくつかの実施形態では、コンテンツ領域400を複数の区分を含むグリッドに分割してもよい。いくつかの実施形態では、焦点領域421と重複するコンテンツ領域400の区分は、再生デバイスによって取り出されたコンテンツ項目の高ビットレートバージョンの部分を含んでいてもよい。いくつかの実施形態では、コンテンツ項目を表示するときに、コンテンツ項目の高ビットレートバージョンを、焦点領域412に対応するコンテンツ領域の部分内に表示してもよく、コンテンツ項目の低ビットレートバージョンをコンテンツ領域400の残りの部分内に表示してもよい。いくつかの実施形態では、サーバが規定したコンテンツ領域400の区分のサイズ及び形状に応じて、高ビットレート領域は、焦点領域412のサイズ及び形状に正確にマッチしなくてもよく、しかし焦点領域412を概ね実質的に覆ってもよい。いくつかの実施形態では、コンテンツ項目の高ビットレートバージョンの部分を、焦点領域412の形状及びサイズに厳密に一致するように抽出してもよい。
次に図4Bを参照して、別のコンテンツ表示領域の説明図を示す。図4Bのコンテンツ領域400、焦点410、及び焦点領域412は全般的に、図4Aの対応する要素と同様である。いくつかの実施形態では、システムはさらに、図4Bに示すように、焦点領域412を囲む閲覧領域411を決定してもよい。閲覧領域414は全般的に、ユーザには見えるが閲覧者の視界内で焦点が合っていてもよいしそうでなくてもよいコンテンツの領域を指してもよい。いくつかの実施形態では、取り出したコンテンツ項目の低ビットレートバージョンの部分は、閲覧領域414の外側のコンテンツ領域400の領域を除外してもよい。いくつかの実施形態では、取り出したコンテンツ項目の低ビットレートバージョンの部分はさらに焦点領域412を除いて、閲覧者には見えるが焦点が合っていないと想定される領域のみを含んでいてもよい。いくつかの実施形態では、閲覧領域は、閲覧者の視界の近い、中間の、及び遠い周辺視野領域のうちの1つ以上に対応してもよい。
いくつかの実施形態では、コンテンツ領域400は、複数の画像センサによって取り込まれた没入型ビデオコンテンツ及び/または全方位ビデオコンテンツに対応してもよい。閲覧領域414を用いて、複数の別個に符号化されたビデオストリームを選択してつなぎ合わせてもよい。これについては、米国仮特許出願第62/357,259号(2016年6月30日に出願)、発明の名称「APPARATUS AND METHOD FOR CAPTURING AND DISPLAYING SEGMENTED CONTENT」に記載されている。この文献の全体の開示内容は、本明細書において参照により全体として、本明細書に全て取り入れられている。たとえば、閲覧領域414が、マルチカメラシステムが取り込んだ4つのビデオストリームのうちの2つと重複する場合、取り出したコンテンツ項目の低ビットレートバージョンは2つの対応するストリームのみを含んでいてもよい。いくつかの実施形態では、焦点領域412はまた、再生デバイスにおいてつなぎ合わせられた複数の別個に符号化されたビデオストリームからのデータを含んでいてもよい。
次に図5を参照して、移行領域の説明図を示す。いくつかの実施形態では、図5は、図3のステップ350で表示した合成画像を表してもよい。表示画像は、低ビットレート領域510、高ビットレート領域512、及び移行領域511を含む。移行領域511では、高ビットレート領域512からの情報を含む画素が、高ビットレート領域512から低ビットレート領域510に向けて徐々に低減してもよい。いくつかの実施形態では、コンテンツの高ビットレートバージョンの部分をコンテンツ項目の低ビットレートバージョンとブレンドすることは、ブレンドするために移行領域511内の画素をセルにグループ分けすることを含む。いくつかの実施形態では、グループ化された画素の各セットは、コンテンツ項目のバージョンの1つまたは他からのデータを含んでいてもよい。図5では、移行領域511のサイズ及び形状を単に一例として示しており、移行領域511は任意のサイズ、形状、及び厚さであってもよい。全般的に、移行領域511は高ビットレート領域を囲み、高ビットレート領域512と低ビットレート領域510との両方からのインターリーブされたデータを含んで、2つの領域間の境界の見た目を低減する。
次に図6A及び6Bを参照して、三角セルの説明図を示す。図6Aに示すのは、複数の三角セルに分割された球体である。球体は、全方位及び/または没入型ビデオコンテンツのコンテンツ領域に対応してもよい。いくつかの実施形態では、各セルは、画像をブレンドするための単位を含んでいてもよい。いくつかの実施形態では、三角セルは球体の湾曲により良好に適応して、正方形または矩形セルと比べて、ヒトの目に対してそれほど目立たない。三角セルをより小さい三角セルにさらに再分割して、ブレンディングにおいて調整可能な粒度を提供してもよい。図6Bに三角セルを用いたブレンディングを例示する。図6Bのセルは、コンテンツ項目の2つのバージョン間の移行領域の区分を表してもよい。図6Bにおいて、「1」でラベル付けされたセルはコンテンツ項目のあるバージョンからのデータを含んでいてもよく、「2」でラベル付けされたセルはコンテンツ項目の異なるバージョンからのデータを含んでいてもよい。いくつかの実施形態では、より粒度の細かいブレンディングを得るために、図6Bの各セルをより小さい三角セルに再分割してもよい。いくつかの実施形態では、移行領域には任意の数の行または列の三角セルがあってもよい。いくつかの実施形態では、図6A及び6Bに示す各セルを併合または再分割して異なるサイズの三角セルを形成して、画像のブレンドに備えてもよい。
次に図7A及び7Bを参照して、焦点領域の説明図を示す。いくつかの実施形態では、閲覧者の焦点領域を、閲覧者の視界内で焦点が合う可能性があるコンテンツの領域に基づいて決定してもよい。図4A及び4Bでは、焦点領域を長円形に近づけている。いくつかの実施形態では、システムによって焦点領域を円、正方形などに近づけてもよい。図7A及び7Bに、システムが用いる焦点領域の形状を表す他の形状を例示する。図7Aに示す形状は、ヒトの視野の形状を、主軸を揃えて併合した2つの長円形で近似している。図7Bに示す形状は、主軸が互いに垂直な2つの長円形を含んでいる。図7Bに示す形状を用いてフォーカス点の周りにバッファ領域を形成してもよい。ヒトの目の場合、垂直方向または水平方向の動きの方が全般的に、対角線の動きよりもよく起こる。そのため、図7Bに示す形状を用いて焦点領域を近似すれば、閲覧者は、その焦点領域が高ビットレートコンテンツ領域を離れることなく、多少の垂直方向または水平方向の眼球運動を行うことができ得る。いくつかの実施形態では、ここで説明した高ビットレートコンテンツ項目の取り出した部分は、図4A〜4B、7A〜7Bに示した形状、円、正方形、矩形などのうちの1つ以上に対応してもよい。
次に図8を参照して、本発明のいくつかの実施形態により本明細書で示し説明した方法及び技術のいずれかを走らせ、実施し、及び/または実行するために用いてもよいコンテンツを提供及び表示するためのシステムを示す。システムは、データ接続部(たとえばネットワーク)を介して通信するコンテンツサーバ810及び再生デバイス820を含んでいる。
コンテンツサーバ810は、プロセッサ812、メモリ813、及び通信デバイス814を含む。コンテンツサーバ810は全般的に、ネットワークたとえばインターネットを介して再生デバイスがアクセス可能な1つ以上のプロセッサベースのデバイスを含んでいてもよい。いくつかの実施形態では、コンテンツサーバは、クラウドベースのサーバ、コンテンツホスト、ストリーミングサービスホスト、メディアサーバ、ストリーミングビデオサーバ、放送コンテンツサーバ、ソーシャルネットワーキングサーバなどのうちの1つ以上を含んでいてもよい。プロセッサ812は、制御回路、中央処理装置ユニット、グラフィカルプロセッサユニット(GPU)、マイクロプロセッサ、ビデオデコーダ、ビデオエンコーダなどのうちの1つ以上を含んでいてもよい。メモリ813は、揮発性及び/または不揮発性コンピュータ可読メモリデバイスのうちの1つ以上を含んでいてもよい。いくつかの実施形態では、メモリ813は、プロセッサ812にコンテンツを再生デバイス820に提供させるコンピュータ実行可能コードを記憶する。いくつかの実施形態では、通信デバイス814は、ネットワークアダプタ、データポート、ルータ、モデムなどのうちの1つ以上を含んでいてもよい。全般的に、通信デバイス814を、プロセッサ812が再生デバイス820と通信できるように構成してもよい。いくつかの実施形態では、プロセッサ812を、再生デバイス820からのリクエストに基づいて、コンテンツ項目の低ビットレートバージョン及びコンテンツ項目の高ビットレートバージョンの部分を再生デバイス820に提供するように構成してもよい。いくつかの実施形態では、リクエストは、リクエストされたコンテンツ項目の識別情報及び/またはコンテンツ項目の閲覧者の焦点領域の表示を含んでいてもよい。いくつかの実施形態では、プロセッサ812を、受け取ったコンテンツ項目に基づいて、コンテンツ項目の低ビットレートバージョンとコンテンツ項目の高ビットレートバージョンの1つ以上の部分とのうちの少なくとも1つを生成及び/または記憶するように構成してもよい。
メモリ813及び/または別個のコンテンツライブラリは、1つ以上のコンテンツ項目(それぞれ、ビットレートが異なるコンテンツ項目の少なくとも2つのバージョンを含む)を記憶していてもよい。いくつかの実施形態では、コンテンツサーバ810を、取り込みデバイスが記録したコンテンツを再生デバイス820に実質的にリアルタイムでストリーミングするように構成してもよい。いくつかの実施形態では、コンテンツサーバ810を、オンデマンドで再生デバイス820にストリーミング及び/またはダウンロードするための複数の予め記録されたコンテンツ項目のホストとして働くように構成してもよい。図8では1つの再生デバイス820のみを示しているが、コンテンツサーバ810を、複数の取り込みデバイスからコンテンツを同時に受け取り及び/または複数の再生デバイス820に通信デバイス814を介して提供するように構成してもよい。いくつかの実施形態では、コンテンツサーバ810を、取り込みデバイスと再生デバイス820との間のビデオストリームのピアツーピア転送を容易にするように構成してもよい。たとえば、コンテンツ項目の低ビットレートバージョンをピアツーピアネットワークを介して転送してもよく、一方で、高ビットレートコンテンツ項目の部分をコンテンツサーバ810を介して転送してもよい。いくつかの実施形態では、コンテンツサーバ810を、コンテンツ項目の低ビットレートバージョンとコンテンツ項目の高ビットレートバージョンの部分とを、別個に符号化したビデオストリームにおいて提供するように構成してもよい。
いくつかの実施形態では、コンテンツサーバ810をさらに、再生デバイス820にコンテンツ項目を提供する前にコンテンツ項目を事前処理するように構成してもよい。いくつかの実施形態では、コンテンツサーバ810は、高ビットレートコンテンツの部分を再生デバイス820に提供する前に、コンテンツサーバの高ビットレートバージョンの抽出部分の縁部を、縁部に空/透明画素を含むことによって和らげてもよい。コンテンツ項目の高ビットレートバージョンの事前処理部分を再生デバイス820に提供するときに、再生デバイス820は、2つのバージョンからの画素データをさらなる画像処理を行わずに単純に合成することによって、ビデオストリームをブレンドしてもよい。いくつかの実施形態では、コンテンツサーバ810を、コンテンツ項目の低ビットレートバージョンをコンテンツの高ビットレートバージョンの部分と合成することを、合成コンテンツを再生デバイス820に提供する前に行うように構成してもよい。
1つのコンテンツサーバ810を示しているが、いくつかの実施形態では、コンテンツサーバ810の機能を1つ以上のプロセッサベースのデバイス上で実装してもよい。いくつかの実施形態では、コンテンツの低ビットレートバージョンを提供するためのコンテンツサーバ810と、コンテンツの高ビットレートバージョンを提供するためのコンテンツサーバ810とを、別個に実装してもよい。たとえば、中央コンテンツサーバを、コンテンツの低ビットレートバージョンを提供するように構成してもよく、一方で、複数の地域分散型のコンテンツサーバを、コンテンツの高ビットレートバージョンの部分を再生デバイスに提供するように構成してもよい。
再生デバイス820は、プロセッサ821、メモリ823、表示デバイス825、及びセンサデバイス827を含む。いくつかの実施形態では、再生デバイス820は全般的に、たとえば以下のうちの1つ以上のプロセッサベースのデバイスを含んでいてもよい。ゲームコンソール、メディアコンソール、セットトップボックス、パーソナルコンピュータ、タブレットコンピュータ、テレビジョン、頭部装着型ディスプレイ(「HMD」)、拡張現実デバイス、仮想現実デバイス、着用可能デバイス、携帯型ユーザデバイス、スマートフォンなど。プロセッサ821は、制御回路、中央処理装置ユニット(CPU)、グラフィカルプロセッサユニット(GPU)、マイクロプロセッサ、ビデオデコーダなどのうちの1つ以上を含んでいてもよい。メモリ823は、揮発性及び/または不揮発性コンピュータ可読メモリデバイスのうちの1つ以上を含んでいてもよい。いくつかの実施形態では、メモリ823は、プロセッサ821にユーザの焦点領域を決定させてコンテンツサーバ810からコンテンツ項目を取り出させるコンピュータ実行可能コードを記憶する。いくつかの実施形態では、再生デバイス820を、コンテンツ項目の低ビットレートバージョンと高ビットレートバージョンの部分とを、コンテンツサーバ810から及び/またはローカルストレージから取り出して、2つのバージョンを合成して合成画像を生成して、表示デバイス825を介してユーザに表示するように構成してもよい。いくつかの実施形態では、メモリ823は、コンテンツサーバ810から取り出した1つ以上のコンテンツ項目のバージョンをバッファに入れるためのバッファを含んでいてもよい。いくつかの実施形態では、メモリ823に記憶されたコンピュータ実行可能コードは、コンピュータプログラム、ソフトウェアプログラム、再生デバイスファームウェア、モバイルアプリケーション、ゲーム及び/またはメディアコンソールアプリケーションなどのうちの1つ以上を含んでいてもよい。
表示デバイス825は、閲覧者にコンテンツを表示するためのデバイスを含んでいてもよい。いくつかの実施形態では、表示デバイス825は、モニタ、テレビジョン、頭部装着型ディスプレイ(HMD)、仮想現実表示デバイス、着用可能デバイス、ディスプレイスクリーン、モバイルデバイスなどのうちの1つ以上を含んでいてもよい。いくつかの実施形態では、表示デバイス825は、1つ以上のスクリーンを有する立体表示を含んでいてもよい。
センサデバイス827は、表示デバイス825の閲覧者の焦点及び/または領域を決定するように構成された1つ以上のセンサを含んでいてもよい。いくつかの実施形態では、センサデバイス827は、目及び/または頭部の動きを検出するための画像センサ、光学式リフレクタセンサ、距離センサ、筋電図(EMG)センサ、及び光学式流量センサのうちの1つ以上を含んでいてもよい。いくつかの実施形態では、センサデバイス827は、加速度計及びジャイロスコープ(しばしば磁気計も)の組合せを用いて身体の特定の力、角速度、及び/または身体を囲む磁界を測定及び報告するIMUを含んでいてもよい。いくつかの実施形態では、センサデバイス827をHMD及び/または着用可能デバイスに結合して、センサがユーザの頭部または目の動きを、HMD及び/または着用可能デバイスの動きを介して検出することができるようにしてもよい。いくつかの実施形態では、センサデバイス827は、ユーザの頭部動き及び目の動きのうちの1つ以上を検出するための光学センサを含んでいてもよい。いくつかの実施形態では、センサは、HMD及び/または着用可能デバイスに結合してもよく、及び/または遠方から閲覧者からデータを取り込む相対的に固定されたデバイスであってもよい。
表示デバイス825を再生デバイス820の一部として示しているが、いくつかの実施形態では、表示デバイス825は、別個のプロセッサを伴うかまたは伴わない別個のデバイスを含んでいてもよい。いくつかの実施形態では、表示デバイス825を、有線または無線通信チャネルを介して再生デバイス820に結合してもよい。たとえば、再生デバイス820はPCまたはゲームコンソールを含んでいてもよく、表示デバイス825は、再生デバイス820からのコンテンツを表示するように構成されたHMDを含んでいてもよい。いくつかの実施形態では、センサデバイス827は、再生デバイス820、表示デバイス825の一部であってもよく、及び/または再生デバイス820及び表示デバイス825のうちの1つ以上と通信する物理的に分離されたデバイスであってもよい。いくつかの実施形態では、表示デバイス825及びセンサデバイス827のうちの1つ以上を再生デバイス820と一体化してもよい。いくつかの実施形態では、表示デバイス825はさらに、取り出したコンテンツ及び/またはセンサデバイス827によって検出された閲覧者の目または頭部の動きを少なくとも部分的に記憶するためのプロセッサ及び/またはメモリを含んでいてもよい。
いくつかの実施形態では、再生デバイス820はさらに、通信デバイス(たとえば、ネットワークアダプタ、Wi−Fi送受信デバイス、モバイルデータネットワーク送受信デバイスなど)を、コンテンツサーバ810及び/または取り込みデバイスに対してコンテンツ項目をリクエストしてダウンロードするために含んでいてもよい。いくつかの実施形態では、再生デバイス820はさらに、ユーザがコンテンツ項目の選択及び再生を制御するための1つ以上のユーザ入出力デバイス(たとえば、ボタン、コントローラ、キーボード、ディスプレイスクリーン、タッチスクリーンなど)を含んでいてもよい。
いくつかの実施形態では、前述した実施形態、方法、アプローチ、及び/または技術のうちの1つ以上を、プロセッサベースの装置またはシステムによって実行可能な1つ以上のコンピュータプログラムまたはソフトウェアアプリケーション内に実装してもよい。一例として、このようなプロセッサベースの装置またはシステムは、コンピュータ、エンタテインメントシステム、ゲームコンソール、ワークステーション、グラフィックスワークステーション、サーバ、クライアント、携帯デバイス、パッド状デバイスなどを含んでいてもよい。このようなコンピュータプログラム(複数可)を、前述した方法及び/または技術の種々のステップ及び/または特徴を実行するために用いてもよい。すなわち、コンピュータプログラム(複数可)を、プロセッサベースの装置またはシステムに前述した機能を実行及び実現するようにさせるかまたは構成するように適応させてもよい。たとえば、このようなコンピュータプログラム(複数可)を、前述した方法、ステップ、技術、または特徴の任意の実施形態を実装するために用いてもよい。別の例として、このようなコンピュータプログラム(複数可)を、前述の実施形態、方法、アプローチ、及び/または技術のうちのいずれか一つ以上を用いる任意のタイプのツールまたは同様のユーティリティを実装するために用いてもよい。いくつかの実施形態では、コンピュータプログラム(複数可)の内または外にあるプログラムコードマクロ、モジュール、ループ、サブルーチン、コールなどを、前述した方法及び/または技術の種々のステップ及び/または特徴を実行するために用いてもよい。いくつかの実施形態では、コンピュータプログラム(複数可)を、コンピュータ可読な記憶デバイスまたは記録媒体もしくは媒体(複数)(たとえば、本明細書で説明したコンピュータ可読な記憶デバイスまたは記録媒体もしく媒体(複数)うちのいずれか)上に記憶または具体化してもよい。
したがって、いくつかの実施形態では、本発明によってコンピュータプログラム製品が提供される。本コンピュータプログラム製品は、コンピュータに入力するためのコンピュータプログラムを具現化するための媒体と、媒体内で具体化されるコンピュータプログラムであって、コンピュータに、本明細書で説明した実施形態、方法、アプローチ、及び/または技術のうちのいずれか一つ以上に含まれるステップのうちのいずれか一つ以上を含むステップを行わせるかまたは実行させるためのコンピュータプログラムと、を含む。たとえば、いくつかの実施形態では、本発明によって、1つ以上のコンピュータプログラムを記憶する1つ以上の非一時的なコンピュータ可読記憶媒体が提供される。1つ以上のコンピュータプログラムは、プロセッサベースの装置またはシステムに、表示デバイス上に表示されたコンテンツ項目の閲覧者の焦点領域を決定することと、コンテンツ項目の低ビットレートバージョンを取り出すことと、焦点領域に対応するコンテンツ項目の高ビットレートバージョンの部分を取り出すことと、コンテンツの高ビットレートバージョンの部分をコンテンツ項目の低ビットレートバージョンと合成して、合成画像を生成することと、表示デバイスを介して閲覧者に合成画像を表示することと、を含むステップを実行させるように適応または構成されている。
本明細書で開示した発明は特定の実施形態及びその応用例によって説明しているが、請求項で述べる本発明の範囲から逸脱することなく、当業者であれば多くの変更及び変形を施すことができる。

Claims (25)

  1. 表示デバイス上に表示されたコンテンツ項目を閲覧している閲覧者の焦点領域を決定することと、
    前記焦点領域に対応する前記コンテンツ項目の高ビットレートバージョンの部分を取り出すことと、
    前記コンテンツ項目の前記高ビットレートバージョンの前記部分を前記コンテンツ項目の低ビットレートバージョンと合成して、合成画像を生成することと、
    前記表示デバイスを介して前記閲覧者に前記合成画像を表示することと、を含み、
    前記コンテンツ項目の前記高ビットレートバージョンの前記部分の縁部を前記取り出しの前に事前処理して、前記コンテンツ項目の前記低ビットレートバージョンとブレンドするために準備する、方法。
  2. 前記焦点領域は、視線追跡センサ又は頭部追跡センサを含むセンサデバイスに基づいて決定する請求項1に記載の方法。
  3. 前記焦点領域は、検出された焦点又は予測される将来の焦点に基づいて決定する請求項1に記載の方法。
  4. 前記閲覧者の前記焦点領域の変化を検出することに応じて前記コンテンツ項目の前記高ビットレートバージョンの異なる部分を取り出すことをさらに含む
    請求項1に記載の方法。
  5. コンテンツサーバにコンテンツリクエストを送ることであって、前記コンテンツリクエストは前記焦点領域の表示を含む前記送ること、をさらに含む
    請求項1に記載の方法。
  6. 前記コンテンツ項目の前記高ビットレートバージョンの前記部分を前記コンテンツ項目の前記低ビットレートバージョンと合成することは、前記コンテンツ項目の前記高ビットレートバージョンの前記部分と前記コンテンツ項目の前記低ビットレートバージョンとの間に移行領域を生成して、前記コンテンツ項目の前記高ビットレートバージョンの前記部分と前記コンテンツ項目の前記低ビットレートバージョンとをブレンドすることを含む、請求項1に記載の方法。
  7. 前記コンテンツ項目の前記高ビットレートバージョンの前記部分を前記コンテンツ項目の前記低ビットレートバージョンと合成することは、ブレンドするために画素を三角セルにグループ分けすることを含む、請求項1〜6のいずれか一項に記載の方法。
  8. 前記コンテンツ項目の前記高ビットレートバージョンの前記部分と前記コンテンツ項目の前記低ビットレートバージョンとを、2つの別個に符号化されたビデオストリームとして取り出す、請求項1〜6のいずれか一項に記載の方法。
  9. 前記コンテンツ項目は、没入型コンテンツ又は全方位ビデオを含む請求項1〜6のいずれか一項に記載の方法。
  10. 前記コンテンツ項目の前記低ビットレートバージョンは、前記コンテンツ項目の前記高ビットレートバージョンと比べて低い、解像度、フレームレート、又は圧縮品質を含む請求項1〜6のいずれか一項に記載の方法。
  11. 表示デバイスと、
    センサデバイスと、
    前記表示デバイス及び前記センサデバイスに結合されたプロセッサであって、
    前記センサデバイスを用いて、前記表示デバイス上に表示されたコンテンツ項目の閲覧者の焦点領域を決定することと、
    前記焦点領域に対応する前記コンテンツ項目の高ビットレートバージョンの部分を取り出すことと、
    前記コンテンツ項目の前記高ビットレートバージョンの前記部分を前記コンテンツ項目の低ビットレートバージョンと合成して、合成画像を生成することと、
    前記表示デバイスを介して前記閲覧者に前記合成画像を表示することと、を行うように構成された前記プロセッサと、を含み、
    前記コンテンツ項目の前記高ビットレートバージョンの前記部分の縁部を前記取り出しの前に事前処理して、前記コンテンツ項目の前記低ビットレートバージョンとブレンドするために準備する、システム。
  12. 前記センサデバイスは視線追跡センサ又は頭部追跡センサを含む請求項11に記載のシステム。
  13. 前記焦点領域を、検出された焦点又は予測される将来の焦点に基づいて決定する請求項11に記載のシステム。
  14. 前記プロセッサはさらに、前記閲覧者の前記焦点領域の変化を検出することに応じて前記コンテンツ項目の前記高ビットレートバージョンの異なる部分を取り出すことを行うように構成されている
    請求項11に記載のシステム。
  15. 前記プロセッサはさらに、コンテンツサーバにコンテンツリクエストを送ることであって、前記コンテンツリクエストは前記焦点領域の表示を含む、前記送ることを行うように構成されている
    請求項11に記載のシステム。
  16. 前記コンテンツ項目の前記高ビットレートバージョンの前記部分を前記コンテンツ項目の前記低ビットレートバージョンと合成することは、前記コンテンツ項目の前記高ビットレートバージョンの前記部分と前記コンテンツ項目の前記低ビットレートバージョンとの間に移行領域を生成して、前記コンテンツ項目の前記高ビットレートバージョンの前記部分と前記コンテンツ項目の前記低ビットレートバージョンとをブレンドすることを含む、請求項11に記載のシステム。
  17. 前記コンテンツ項目の前記高ビットレートバージョンの前記部分を前記コンテンツ項目の前記低ビットレートバージョンと合成することは、ブレンドするために画素を三角セルにグループ分けすることを含む、請求項11〜16のいずれか一項に記載のシステム。
  18. 前記コンテンツ項目の前記高ビットレートバージョンの前記部分と前記コンテンツ項目の前記低ビットレートバージョンとを、2つの別個に符号化されたビデオストリームとして取り出す、請求項11〜16のいずれか一項に記載のシステム。
  19. 前記コンテンツ項目は、没入型コンテンツ又は全方位ビデオを含む請求項11〜16のいずれか一項に記載のシステム。
  20. 前記表示デバイスは、頭部装着型ディスプレイ、仮想現実表示デバイス、拡張現実表示デバイス、又はディスプレイスクリーンを含む請求項11〜16のいずれか一項に記載のシステム。
  21. 1つ以上のコンピュータプログラムを記憶する非一時的なコンピュータ可読記憶媒体であって、前記1つ以上のコンピュータプログラムは、プロセッサベースのシステムに、
    表示デバイス上に表示されたコンテンツ項目を閲覧している閲覧者の焦点領域を決定することと、
    前記焦点領域に対応する前記コンテンツ項目の高ビットレートバージョンの部分を取り出すことと、
    前記コンテンツ項目の前記高ビットレートバージョンの前記部分を前記コンテンツ項目の低ビットレートバージョンと合成して、合成画像を生成することと、
    前記表示デバイスを介して前記閲覧者に前記合成画像を表示することと、を含むステップを実行させるように構成されており、
    前記コンテンツ項目の前記高ビットレートバージョンの前記部分の縁部を前記取り出しの前に事前処理して、前記コンテンツ項目の前記低ビットレートバージョンとブレンドするために準備する、非一時的なコンピュータ可読記憶媒体。
  22. 再生デバイスからコンテンツリクエストを受け取ることであって、前記コンテンツリクエストは閲覧者焦点領域の表示を含む、前記受け取ることと、
    前記閲覧者焦点領域に基づいてコンテンツ項目の高ビットレートバージョンの部分を選択することと、
    前記コンテンツ項目の前記高ビットレートバージョンの前記部分の縁部を事前処理して、前記コンテンツ項目の低ビットレートバージョンとブレンドするために準備することと、
    前記コンテンツリクエストに応じて、前記コンテンツ項目の低ビットレートバージョンと前記コンテンツ項目の前記高ビットレートバージョンの前記部分とを前記再生デバイスに提供することと、を含む方法。
  23. 前記コンテンツ項目の前記低ビットレートバージョンと前記コンテンツ項目の前記高ビットレートバージョンの前記部分とを、前記再生デバイスに前記コンテンツを提供する前に別個に符号化することをさらに含む
    請求項22に記載の方法。
  24. 前記コンテンツ項目の前記高ビットレートバージョンから複数の部分を抽出することと、
    前記コンテンツ項目の前記高ビットレートバージョンの前記複数の部分の1つ以上を、複数の再生デバイスによって取り出すためにキャッシュすることと、をさらに含む
    請求項22または23に記載の方法。
  25. 通信デバイスと、
    前記通信デバイスに結合されたプロセッサであって、
    前記通信デバイスを介して、再生デバイスからコンテンツリクエストを受け取ることであって、前記コンテンツリクエストは閲覧者焦点領域の表示を含む、前記受け取ることと、
    前記閲覧者焦点領域に基づいてコンテンツ項目の高ビットレートバージョンの部分を選択することと、
    前記コンテンツ項目の前記高ビットレートバージョンの前記部分の縁部を事前処理して、前記コンテンツ項目の低ビットレートバージョンとブレンドするために準備することと、
    前記コンテンツリクエストに応じて、前記コンテンツ項目の前記低ビットレートバージョンと前記コンテンツ項目の前記高ビットレートバージョンの前記部分とを前記再生デバイスに提供することと、を行うように構成されている前記プロセッサと、を含むシステム。
JP2021051166A 2016-06-30 2021-03-25 コンテンツを提供及び表示するための装置及び方法 Active JP7029562B2 (ja)

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
US201662357259P 2016-06-30 2016-06-30
US62/357,259 2016-06-30
US201662374687P 2016-08-12 2016-08-12
US62/374,687 2016-08-12
US15/280,933 US11089280B2 (en) 2016-06-30 2016-09-29 Apparatus and method for capturing and displaying segmented content
US15/280,947 2016-09-29
US15/280,962 US10805592B2 (en) 2016-06-30 2016-09-29 Apparatus and method for gaze tracking
US15/280,933 2016-09-29
US15/280,947 US20180007422A1 (en) 2016-06-30 2016-09-29 Apparatus and method for providing and displaying content
US15/280,962 2016-09-29

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018568224A Division JP6859372B2 (ja) 2016-06-30 2017-05-30 コンテンツを表示するための方法及びシステム、並びにコンテンツを提供するための方法及びシステム

Publications (2)

Publication Number Publication Date
JP2021103327A true JP2021103327A (ja) 2021-07-15
JP7029562B2 JP7029562B2 (ja) 2022-03-03

Family

ID=60807030

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2018568225A Active JP6686186B2 (ja) 2016-06-30 2017-05-30 注視追跡のための装置及び方法
JP2018568224A Active JP6859372B2 (ja) 2016-06-30 2017-05-30 コンテンツを表示するための方法及びシステム、並びにコンテンツを提供するための方法及びシステム
JP2020065716A Active JP6944564B2 (ja) 2016-06-30 2020-04-01 注視追跡のための装置及び方法
JP2021051166A Active JP7029562B2 (ja) 2016-06-30 2021-03-25 コンテンツを提供及び表示するための装置及び方法

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2018568225A Active JP6686186B2 (ja) 2016-06-30 2017-05-30 注視追跡のための装置及び方法
JP2018568224A Active JP6859372B2 (ja) 2016-06-30 2017-05-30 コンテンツを表示するための方法及びシステム、並びにコンテンツを提供するための方法及びシステム
JP2020065716A Active JP6944564B2 (ja) 2016-06-30 2020-04-01 注視追跡のための装置及び方法

Country Status (5)

Country Link
US (3) US10805592B2 (ja)
EP (2) EP3479257A4 (ja)
JP (4) JP6686186B2 (ja)
KR (2) KR20190022851A (ja)
CN (2) CN109417624B (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10905943B2 (en) * 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
US10204658B2 (en) 2014-07-14 2019-02-12 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content
US10043319B2 (en) 2014-11-16 2018-08-07 Eonite Perception Inc. Optimizing head mounted displays for augmented reality
US10291845B2 (en) * 2015-08-17 2019-05-14 Nokia Technologies Oy Method, apparatus, and computer program product for personalized depth of field omnidirectional video
JP6404196B2 (ja) * 2015-09-16 2018-10-10 グリー株式会社 仮想画像表示プログラム、仮想画像表示装置及び仮想画像表示方法
US10805592B2 (en) 2016-06-30 2020-10-13 Sony Interactive Entertainment Inc. Apparatus and method for gaze tracking
US11017712B2 (en) 2016-08-12 2021-05-25 Intel Corporation Optimized display image rendering
US9928660B1 (en) * 2016-09-12 2018-03-27 Intel Corporation Hybrid rendering for a wearable display attached to a tethered computer
CN108616751B (zh) * 2016-12-12 2023-05-12 上海交通大学 媒体信息的处理方法、装置及系统
US11290699B2 (en) * 2016-12-19 2022-03-29 Dolby Laboratories Licensing Corporation View direction based multilevel low bandwidth techniques to support individual user experiences of omnidirectional video
CN110178370A (zh) 2017-01-04 2019-08-27 辉达公司 使用用于立体渲染的光线步进和虚拟视图广播器进行这种渲染
WO2018175053A1 (en) * 2017-03-23 2018-09-27 Thomson Licensing Method and apparatus for providing immersive reality content
US10979663B2 (en) * 2017-03-30 2021-04-13 Yerba Buena Vr, Inc. Methods and apparatuses for image processing to optimize image resolution and for optimizing video streaming bandwidth for VR videos
CN107396081B (zh) * 2017-06-19 2019-04-12 深圳市铂岩科技有限公司 针对全景视频的优化编码方法及装置
GB2564866B (en) * 2017-07-24 2021-07-28 Advanced Risc Mach Ltd Method of and data processing system for providing an output surface
US10585277B2 (en) * 2017-08-31 2020-03-10 Tobii Ab Systems and methods for tracking a gaze of a user across a multi-display arrangement
WO2019118617A1 (en) * 2017-12-15 2019-06-20 Pcms Holdings, Inc. A method for using viewing paths in navigation of 360° videos
US10805653B2 (en) * 2017-12-26 2020-10-13 Facebook, Inc. Accounting for locations of a gaze of a user within content to select content for presentation to the user
EP3714318B1 (en) 2018-01-18 2023-08-30 Valve Corporation Position tracking system for head-mounted displays that includes sensor integrated circuits
TWI678920B (zh) * 2018-05-23 2019-12-01 宏碁股份有限公司 影片處理裝置、其影片處理方法及電腦程式產品
CN110557652A (zh) * 2018-05-30 2019-12-10 宏碁股份有限公司 视频处理装置及其视频处理方法
US11048464B2 (en) * 2018-07-31 2021-06-29 Dell Products, L.P. Synchronization and streaming of workspace contents with audio for collaborative virtual, augmented, and mixed reality (xR) applications
GB2576211A (en) 2018-08-10 2020-02-12 Sony Corp A method for mapping an object to a location in virtual space
GB2576213A (en) * 2018-08-10 2020-02-12 Sony Corp A method for mapping an object to a location in virtual space
GB2576905B (en) 2018-09-06 2021-10-27 Sony Interactive Entertainment Inc Gaze input System and method
GB2576910B (en) * 2018-09-06 2021-10-20 Sony Interactive Entertainment Inc User profile generating system and method
GB2576904B (en) * 2018-09-06 2021-10-20 Sony Interactive Entertainment Inc Content modification system and method
US10855978B2 (en) * 2018-09-14 2020-12-01 The Toronto-Dominion Bank System and method for receiving user input in virtual/augmented reality
US10833945B2 (en) * 2018-11-13 2020-11-10 International Business Machines Corporation Managing downloading of content
US10939139B2 (en) 2018-11-29 2021-03-02 Apple Inc. Adaptive coding and streaming of multi-directional video
US11032607B2 (en) * 2018-12-07 2021-06-08 At&T Intellectual Property I, L.P. Methods, devices, and systems for embedding visual advertisements in video content
US20200195944A1 (en) * 2018-12-14 2020-06-18 Advanced Micro Devices, Inc. Slice size map control of foveated coding
JP7219620B2 (ja) * 2019-01-23 2023-02-08 株式会社近江デジタルファブリケーションズ 配信画像生成方法
SE543121C2 (en) 2019-02-04 2020-10-13 Tobii Ab Method and system for determining a current gaze direction
CN112423108B (zh) * 2019-08-20 2023-06-30 中兴通讯股份有限公司 码流的处理方法、装置、第一终端、第二终端及存储介质
US11481026B2 (en) * 2019-08-22 2022-10-25 Samsung Electronics Co., Ltd. Immersive device and method for streaming of immersive media
US11307655B2 (en) 2019-09-19 2022-04-19 Ati Technologies Ulc Multi-stream foveal display transport
US11956295B2 (en) 2019-09-27 2024-04-09 Apple Inc. Client-end enhanced view prediction for multi-view video streaming exploiting pre-fetched data and side information
EP4074054A1 (en) * 2019-12-09 2022-10-19 Telefonaktiebolaget LM Ericsson (publ) Electronic device, server and methods for viewport prediction based on head and eye gaze
US11284141B2 (en) 2019-12-18 2022-03-22 Yerba Buena Vr, Inc. Methods and apparatuses for producing and consuming synchronized, immersive interactive video-centric experiences
GB2596541B (en) * 2020-06-30 2023-09-13 Sony Interactive Entertainment Inc Video processing
US11410272B2 (en) * 2020-07-01 2022-08-09 Facebook Technologies, Llc. Dynamic uniformity correction
US20220070235A1 (en) * 2020-08-28 2022-03-03 Tmrw Foundation Ip S.Àr.L. System and method enabling interactions in virtual environments with virtual presence
US20220103655A1 (en) * 2020-09-29 2022-03-31 International Business Machines Corporation Proactively selecting virtual reality content contexts
CN114513669A (zh) * 2020-11-16 2022-05-17 华为云计算技术有限公司 视频编码及视频播放方法、装置和系统
US11630509B2 (en) * 2020-12-11 2023-04-18 Microsoft Technology Licensing, Llc Determining user intent based on attention values
WO2023095456A1 (ja) * 2021-11-29 2023-06-01 株式会社Nttドコモ レコメンド装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10271499A (ja) * 1997-03-26 1998-10-09 Sanyo Electric Co Ltd 画像領域を用いる画像処理方法、その方法を用いた画像処理装置および画像処理システム
JP2006171822A (ja) * 2004-12-13 2006-06-29 Nippon Telegr & Teleph Corp <Ntt> コンテンツ配信方法
JP2009005238A (ja) * 2007-06-25 2009-01-08 Sony Computer Entertainment Inc 符号化処理装置および符号化処理方法
JP2009027457A (ja) * 2007-07-19 2009-02-05 Fujifilm Corp 画像処理装置、画像処理方法、及びプログラム
US8184069B1 (en) * 2011-06-20 2012-05-22 Google Inc. Systems and methods for adaptive transmission of data
WO2012147303A1 (ja) * 2011-04-25 2012-11-01 Hayashi Mitsuo 全方位画像編集プログラム及び全方位画像編集装置

Family Cites Families (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4208811A (en) 1978-11-30 1980-06-24 Enrique Junowicz Display with overlapping picture elements
US6078349A (en) * 1995-06-07 2000-06-20 Compaq Computer Corporation Process and system for increasing the display resolution of a point-to-point video transmission relative to the actual amount of video data sent
US6331869B1 (en) 1998-08-07 2001-12-18 Be Here Corporation Method and apparatus for electronically distributing motion panoramic images
US20030011619A1 (en) 1997-10-08 2003-01-16 Robert S. Jacobs Synchronization and blending of plural images into a seamless combined image
JP3511462B2 (ja) 1998-01-29 2004-03-29 インターナショナル・ビジネス・マシーンズ・コーポレーション 操作画像表示装置およびその方法
US6337683B1 (en) 1998-05-13 2002-01-08 Imove Inc. Panoramic movies which simulate movement through multidimensional space
JP2001008232A (ja) 1999-06-25 2001-01-12 Matsushita Electric Ind Co Ltd 全方位映像出力方法と装置
US20020021353A1 (en) 2000-06-09 2002-02-21 Denies Mark Streaming panoramic video
US6788333B1 (en) * 2000-07-07 2004-09-07 Microsoft Corporation Panoramic video
US6559846B1 (en) 2000-07-07 2003-05-06 Microsoft Corporation System and process for viewing panoramic video
JP2002183212A (ja) 2000-12-19 2002-06-28 Fuji Xerox Co Ltd 電子文書加工システム、電子文書加工方法、及び、コンピュータ読取り可能な記録媒体
US20040239763A1 (en) 2001-06-28 2004-12-02 Amir Notea Method and apparatus for control and processing video images
US7714880B2 (en) 2001-11-16 2010-05-11 Honeywell International Inc. Method and apparatus for displaying images on a display
JP2004056335A (ja) 2002-07-18 2004-02-19 Sony Corp 情報処理装置および方法、表示装置および方法、並びにプログラム
CN100451803C (zh) * 2003-02-07 2009-01-14 夏普株式会社 焦点状态显示设备和焦点状态显示方法
EP1602322A1 (en) 2004-06-02 2005-12-07 SensoMotoric Instruments GmbH Method and apparatus for eye tracking latency reduction
US8232962B2 (en) * 2004-06-21 2012-07-31 Trading Technologies International, Inc. System and method for display management based on user attention inputs
US7456377B2 (en) 2004-08-31 2008-11-25 Carl Zeiss Microimaging Ais, Inc. System and method for creating magnified images of a microscope slide
US20060256133A1 (en) 2005-11-05 2006-11-16 Outland Research Gaze-responsive video advertisment display
US20070153023A1 (en) 2006-01-04 2007-07-05 Computer Associates Think, Inc. System and method of temporal anti-aliasing
US20070188521A1 (en) 2006-02-15 2007-08-16 Miller Steven D Method and apparatus for three dimensional blending
US9250703B2 (en) 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
IL175835A0 (en) 2006-05-22 2007-07-04 Rafael Armament Dev Authority Methods and systems for communicating and displaying points-of-interest
US8446509B2 (en) 2006-08-09 2013-05-21 Tenebraex Corporation Methods of creating a virtual window
SE0602545L (en) * 2006-11-29 2008-05-30 Tobii Technology Ab Eye tracking illumination
US20090074084A1 (en) 2007-09-18 2009-03-19 David Drezner Method and System for Adaptive Preprocessing for Video Encoder
US20090129693A1 (en) * 2007-11-15 2009-05-21 Bloebaum L Scott System and method for generating a photograph with variable image quality
US8760574B2 (en) 2008-04-30 2014-06-24 Broadcom Corporation Image processing methods and systems for frame rate conversion
US20090278921A1 (en) 2008-05-12 2009-11-12 Capso Vision, Inc. Image Stabilization of Video Play Back
EP2291822A1 (en) * 2008-05-21 2011-03-09 Koninklijke Philips Electronics N.V. Image resolution enhancement
US7850306B2 (en) * 2008-08-28 2010-12-14 Nokia Corporation Visual cognition aware display and visual data transmission architecture
JP4775671B2 (ja) 2008-12-26 2011-09-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5595027B2 (ja) 2009-12-11 2014-09-24 三菱電機株式会社 情報表示処理装置
US8914305B2 (en) 2010-06-30 2014-12-16 Trading Technologies International, Inc. Method and apparatus for motion based target prediction and interaction
US20130125155A1 (en) 2010-07-26 2013-05-16 Thomson Licensing Dynamic adaptation of displayed video quality based on viewers' context
US8487959B1 (en) 2010-08-06 2013-07-16 Google Inc. Generating simulated eye movement traces for visual displays
US9057587B2 (en) * 2010-08-19 2015-06-16 Evrio, Inc. Display indicating aiming point using intermediate point in trajectory path
US9232257B2 (en) 2010-09-22 2016-01-05 Thomson Licensing Method for navigation in a panoramic scene
JP5544426B2 (ja) 2010-09-24 2014-07-09 株式会社Gnzo 映像ビットストリームの伝送システム
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US8493390B2 (en) 2010-12-08 2013-07-23 Sony Computer Entertainment America, Inc. Adaptive displays using gaze tracking
JP2012124784A (ja) 2010-12-09 2012-06-28 Canon Marketing Japan Inc 動画再生システム
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
EP2472867A1 (en) 2010-12-30 2012-07-04 Advanced Digital Broadcast S.A. Coding and decoding of multiview videos
US9247312B2 (en) * 2011-01-05 2016-01-26 Sonic Ip, Inc. Systems and methods for encoding source media in matroska container files for adaptive bitrate streaming using hypertext transfer protocol
JP5678324B2 (ja) 2011-02-10 2015-03-04 パナソニックIpマネジメント株式会社 表示装置、コンピュータプログラム、及び表示方法
US8683013B2 (en) * 2011-04-18 2014-03-25 Cisco Technology, Inc. System and method for data streaming in a computer network
US20160286119A1 (en) * 2011-04-18 2016-09-29 360fly, Inc. Mobile Device-Mountable Panoramic Camera System and Method of Displaying Images Captured Therefrom
CA2833544A1 (en) 2011-04-18 2012-10-26 Eyesee360, Inc. Apparatus and method for panoramic video imaging with mobile computing devices
JP5918618B2 (ja) 2011-06-03 2016-05-18 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US8847968B2 (en) * 2011-07-12 2014-09-30 Qualcomm Incorporated Displaying static images
US8636361B2 (en) * 2011-07-20 2014-01-28 National Taiwan University Learning-based visual attention prediction system and method thereof
US9897805B2 (en) 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
US9274595B2 (en) * 2011-08-26 2016-03-01 Reincloud Corporation Coherent presentation of multiple reality and interaction models
US8990682B1 (en) 2011-10-05 2015-03-24 Google Inc. Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display
US8611015B2 (en) 2011-11-22 2013-12-17 Google Inc. User interface
FR2976149A1 (fr) * 2011-12-13 2012-12-07 Thomson Licensing Dispositif d'obtention de contenus en mode streaming en fonction de la distance ecran/observateur, et recepteur de contenus associe
EP2615834A1 (en) 2012-01-16 2013-07-17 Thomson Licensing Dealiasing method and device for 3D view synthesis
US8396983B1 (en) * 2012-03-13 2013-03-12 Google Inc. Predictive adaptive media streaming
US9082011B2 (en) 2012-03-28 2015-07-14 Texas State University—San Marcos Person identification using ocular biometrics with liveness detection
US20130271565A1 (en) 2012-04-16 2013-10-17 Qualcomm Incorporated View synthesis based on asymmetric texture and depth resolutions
JP6030230B2 (ja) 2012-07-04 2016-11-24 インテル コーポレイション パノラマベースの3dビデオコーディング
US20150193395A1 (en) 2012-07-30 2015-07-09 Google Inc. Predictive link pre-loading
US9164580B2 (en) * 2012-08-24 2015-10-20 Microsoft Technology Licensing, Llc Calibration of eye tracking system
US20140087877A1 (en) 2012-09-27 2014-03-27 Sony Computer Entertainment Inc. Compositing interactive video game graphics with pre-recorded background video content
JP2014072608A (ja) 2012-09-28 2014-04-21 Brother Ind Ltd 情報処理システム、情報処理装置、表示装置、及びプログラム
US9176581B2 (en) 2012-09-28 2015-11-03 Intel Corporation System and method for inferring user intent based on eye movement during observation of a display screen
JP5923021B2 (ja) 2012-10-05 2016-05-24 日本電信電話株式会社 映像視聴履歴解析装置、映像視聴履歴解析方法及び映像視聴履歴解析プログラム
WO2014058233A1 (ko) * 2012-10-11 2014-04-17 연세대학교 산학협력단 데이터 프리로드를 통한 사용자 디바이스의 gui 반응 속도 증대 방법 및 그 사용자 디바이스
US20150234457A1 (en) * 2012-10-15 2015-08-20 Umoove Services Ltd. System and method for content provision using gaze analysis
US8990843B2 (en) * 2012-10-26 2015-03-24 Mobitv, Inc. Eye tracking based defocusing
GB2509953B (en) 2013-01-18 2015-05-20 Canon Kk Method of displaying a region of interest in a video stream
US9665171B1 (en) * 2013-03-04 2017-05-30 Tobii Ab Gaze and saccade based graphical manipulation
US9948970B2 (en) 2013-03-15 2018-04-17 Cox Communications, Inc. Systems, methods, and apparatus for accessing recordings of content items on multiple customer devices
AU2013206560A1 (en) 2013-06-27 2015-01-22 Canon Kabushiki Kaisha Method, system and apparatus for rendering
WO2015034561A1 (en) 2013-09-03 2015-03-12 Tobii Technology Ab Portable eye tracking device
US20150142884A1 (en) 2013-11-21 2015-05-21 Microsoft Corporation Image Sharing for Online Collaborations
JP6407526B2 (ja) 2013-12-17 2018-10-17 キヤノンメディカルシステムズ株式会社 医用情報処理システム、医用情報処理方法及び情報処理システム
EP2894852A1 (en) 2014-01-14 2015-07-15 Alcatel Lucent Process for increasing the quality of experience for users that watch on their terminals a high definition video stream
US9313481B2 (en) 2014-02-19 2016-04-12 Microsoft Technology Licensing, Llc Stereoscopic display responsive to focal-point shift
US10264211B2 (en) 2014-03-14 2019-04-16 Comcast Cable Communications, Llc Adaptive resolution in software applications based on dynamic eye tracking
US9530450B2 (en) * 2014-03-18 2016-12-27 Vixs Systems, Inc. Video system with fovea tracking and methods for use therewith
US9462230B1 (en) 2014-03-31 2016-10-04 Amazon Technologies Catch-up video buffering
KR102611448B1 (ko) * 2014-05-29 2023-12-07 네버마인드 캐피탈 엘엘씨 콘텐트를 전달 및/또는 콘텐트를 재생하기 위한 방법들 및 장치
US10204658B2 (en) 2014-07-14 2019-02-12 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content
US9489739B2 (en) 2014-08-13 2016-11-08 Empire Technology Development Llc Scene analysis for improved eye tracking
US9552062B2 (en) 2014-09-05 2017-01-24 Echostar Uk Holdings Limited Gaze-based security
US10007333B2 (en) * 2014-11-07 2018-06-26 Eye Labs, LLC High resolution perception of content in a wide field of view of a head-mounted display
US9876780B2 (en) 2014-11-21 2018-01-23 Sonos, Inc. Sharing access to a media service
US10880346B2 (en) 2015-05-27 2020-12-29 Google Llc Streaming spherical video
US9877016B2 (en) 2015-05-27 2018-01-23 Google Llc Omnistereo capture and render of panoramic virtual reality content
IN2015CH02866A (ja) 2015-06-09 2015-07-17 Wipro Ltd
US9704298B2 (en) 2015-06-23 2017-07-11 Paofit Holdings Pte Ltd. Systems and methods for generating 360 degree mixed reality environments
US9681046B2 (en) 2015-06-30 2017-06-13 Gopro, Inc. Image stitching in a multi-camera array
US9857871B2 (en) * 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
US10099122B2 (en) 2016-03-30 2018-10-16 Sony Interactive Entertainment Inc. Head-mounted display tracking
US10462466B2 (en) 2016-06-20 2019-10-29 Gopro, Inc. Systems and methods for spatially selective video coding
US10095937B2 (en) * 2016-06-21 2018-10-09 GM Global Technology Operations LLC Apparatus and method for predicting targets of visual attention
US10805592B2 (en) 2016-06-30 2020-10-13 Sony Interactive Entertainment Inc. Apparatus and method for gaze tracking
KR102560029B1 (ko) * 2016-09-12 2023-07-26 삼성전자주식회사 가상 현실 콘텐트를 송수신하는 방법 및 장치
US10341658B2 (en) 2017-01-30 2019-07-02 Intel Corporation Motion, coding, and application aware temporal and spatial filtering for video pre-processing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10271499A (ja) * 1997-03-26 1998-10-09 Sanyo Electric Co Ltd 画像領域を用いる画像処理方法、その方法を用いた画像処理装置および画像処理システム
JP2006171822A (ja) * 2004-12-13 2006-06-29 Nippon Telegr & Teleph Corp <Ntt> コンテンツ配信方法
JP2009005238A (ja) * 2007-06-25 2009-01-08 Sony Computer Entertainment Inc 符号化処理装置および符号化処理方法
JP2009027457A (ja) * 2007-07-19 2009-02-05 Fujifilm Corp 画像処理装置、画像処理方法、及びプログラム
WO2012147303A1 (ja) * 2011-04-25 2012-11-01 Hayashi Mitsuo 全方位画像編集プログラム及び全方位画像編集装置
US8184069B1 (en) * 2011-06-20 2012-05-22 Google Inc. Systems and methods for adaptive transmission of data

Also Published As

Publication number Publication date
CN109417624A (zh) 2019-03-01
EP3479574A1 (en) 2019-05-08
KR102294098B1 (ko) 2021-08-26
JP6944564B2 (ja) 2021-10-06
JP2020123962A (ja) 2020-08-13
US11089280B2 (en) 2021-08-10
KR20190022851A (ko) 2019-03-06
JP2019525305A (ja) 2019-09-05
US20180007422A1 (en) 2018-01-04
US10805592B2 (en) 2020-10-13
EP3479257A4 (en) 2020-02-26
CN109417624B (zh) 2024-01-23
JP6686186B2 (ja) 2020-04-22
CN109416931B (zh) 2023-05-16
EP3479257A1 (en) 2019-05-08
JP2019521388A (ja) 2019-07-25
JP6859372B2 (ja) 2021-04-14
KR20210000761A (ko) 2021-01-05
US20180004285A1 (en) 2018-01-04
CN109416931A (zh) 2019-03-01
EP3479574A4 (en) 2020-02-26
US20180007339A1 (en) 2018-01-04
JP7029562B2 (ja) 2022-03-03

Similar Documents

Publication Publication Date Title
JP7029562B2 (ja) コンテンツを提供及び表示するための装置及び方法
US11924394B2 (en) Methods and apparatus for receiving and/or using reduced resolution images
US10536693B2 (en) Analytic reprocessing for data stream system and method
US20160277772A1 (en) Reduced bit rate immersive video
US11290699B2 (en) View direction based multilevel low bandwidth techniques to support individual user experiences of omnidirectional video
CN112204993B (zh) 使用重叠的被分区的分段的自适应全景视频流式传输
US10769754B2 (en) Virtual reality cinema-immersive movie watching for headmounted displays
Podborski et al. Virtual reality and DASH
WO2018004936A1 (en) Apparatus and method for providing and displaying content
CN116137954A (zh) 信息处理设备、信息处理方法和信息处理系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220218

R150 Certificate of patent or registration of utility model

Ref document number: 7029562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150