JP6944564B2 - 注視追跡のための装置及び方法 - Google Patents

注視追跡のための装置及び方法 Download PDF

Info

Publication number
JP6944564B2
JP6944564B2 JP2020065716A JP2020065716A JP6944564B2 JP 6944564 B2 JP6944564 B2 JP 6944564B2 JP 2020065716 A JP2020065716 A JP 2020065716A JP 2020065716 A JP2020065716 A JP 2020065716A JP 6944564 B2 JP6944564 B2 JP 6944564B2
Authority
JP
Japan
Prior art keywords
viewer
video content
gaze
profile
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020065716A
Other languages
English (en)
Other versions
JP2020123962A (ja
Inventor
ディー. キャッスルマン、デニス
ディー. キャッスルマン、デニス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2020123962A publication Critical patent/JP2020123962A/ja
Application granted granted Critical
Publication of JP6944564B2 publication Critical patent/JP6944564B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/44029Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/611Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for multicast or broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/764Media network packet handling at the destination 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4355Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4621Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/1062Data buffering arrangements, e.g. recording or playback buffers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Description

[関連出願の相互参照]
本出願は、「APPARATUS AND METHOD FOR GAZE TRACKING」という題名で、2016年9月29日に提出された米国特許出願第15/280,962号の継続出願であり、そこからの利益を主張しており、この出願は、「APPARATUS AND METHOD FOR CAPTURING AND DISPLAYING SEGMENTED CONTENT」という題名で、2016年6月30日に提出された米国仮特許出願第62/357,259号の利益を主張しており、かつ「APPARATUS AND METHOD FOR PROVIDING AND DISPLAYING CONTENT」という題名で、2016年8月12日に提出された米国仮特許出願第62/374,687号の利益も主張しており、これらの出願の全内容及び全開示は全てこれにより、その全体が本明細書での参照により完全に組み込まれている。
本出願は、発明者Dennis D.Castlemanによる、及び代理人整理番号139592[SCEA16001US01]によって特定される、「APPARATUS AND METHOD FOR CAPTURING AND DISPLAYING SEGMENTED CONTENT」という題名で、2016年9月29日に提出された米国特許出願第15/280,933号に関連しており、この出願の全内容及び全開示はこれにより、その全体が本明細書での参照により完全に組み込まれている。
本出願はまた、発明者Dennis D.Castlemanによる、及び代理人整理番号139593[SCEA16003US01]によって特定される、「APPARATUS AND METHOD FOR PROVIDING AND DISPLAYING CONTENT」という題名で、2016年9月29日に提出された米国特許出願第15/280,947号に関連しており、この出願の全内容及び全開示はこれにより、その全体が本明細書での参照により完全に組み込まれている。
[発明の分野]
本発明は一般にモーショントラッキングに関する。
注視追跡は、センサを用いて閲覧者の注視位置を追跡するプロセスである。注視位置はその後、コンピュータシステムへの入力として利用されてよい。
一実施形態は、再生装置を介して閲覧者にコンテンツを提示することと、再生装置に結合された注視追跡装置によって閲覧者の注視経路を追跡することと、閲覧者の注視経路に基づいて、閲覧者のプロフィールのデータベースに格納された複数の閲覧者のプロフィールから閲覧者のプロフィールを選択することと、閲覧者のプロフィールに基づいて閲覧者のこの先の注視位置を予測することとを含む注視追跡のための方法を提供する。
別の実施形態は、閲覧者のプロフィールのデータベースと、通信装置と、閲覧者のプロフィールのデータベース及び通信装置に結合されたプロセッサとを有する注視追跡のためのシステムを提供する。プロセッサは、通信装置に結合された再生装置を介して閲覧者にコンテンツを提示し、再生装置に結合された注視追跡装置によって閲覧者の注視経路を追跡し、閲覧者の注視経路に基づいて、閲覧者のプロフィールのデータベースに格納された複数の閲覧者のプロフィールから閲覧者のプロフィールを選択し、かつ閲覧者のプロフィールに基づいて閲覧者のこの先の注視位置を予測するように構成されている。
別の実施形態は、プロセッサベースのシステムに、再生装置を介して閲覧者にコンテンツを提示することと、再生装置に結合された注視追跡装置によって閲覧者の注視経路を追跡することと、閲覧者の注視経路に基づいて、閲覧者のプロフィールのデータベースに格納された複数の閲覧者のプロフィールから閲覧者のプロフィールを選択することと、閲覧者のプロフィールに基づいて閲覧者のこの先の注視位置を予測することとを含むステップを実行させるように構成された1つまたは複数のコンピュータプログラムを格納する非一時的コンピュータ可読記憶媒体を提供する。
別の実施形態は、表示装置と、注視追跡装置と、通信装置と、表示装置、注視追跡装置及び通信装置に結合されたプロセッサとを備える、注視追跡のためのシステムを提供する。プロセッサは、表示装置を介して閲覧者にコンテンツを提示し、注視追跡装置によって閲覧者の注視経路を追跡し、閲覧者の注視経路に基づいて、閲覧者のプロフィールのデータベースに格納された複数の閲覧者のプロフィールから閲覧者のプロフィールを選択し、閲覧者のプロフィールに基づいて閲覧者のこの先の注視位置を予測し、かつ通信装置によって、この先の注視位置に基づいてコンテンツサーバからコンテンツの一部を取り出すように構成されている。
本発明の種々の実施形態の特徴及び利点のより適切な理解は、本発明の実施形態の原理が利用される例示の実施形態を説明する以下の詳細な記載及び添付の図面を参照して達成されるであろう。
本発明の実施形態の上記の及び他の態様、特徴及び利点は、後に続く図面と併せて提示される以下のそのより詳細な説明からより明らかになるであろう。
本発明の一部の実施形態による注視を追跡するための方法を例示するフロー図である。 本発明の一部の実施形態による注視を追跡するためのシステムを例示するブロック図である。 本発明の一部の実施形態による注視経路を示す図である。 本発明の一部の実施形態による注視を追跡するためのプロセスを例示するプロセス図である。 本発明の一部の実施形態によるコンテンツを提供するための方法を例示するフロー図である。 本発明の一部の実施形態によるコンテンツを提供するための方法を例示するフロー図である。
注視追跡は、目の追跡及び/または頭部の追跡を含んでよい。一部の実施形態では、注視追跡は、表示される画像における、及び/または現実世界の状況の中での閲覧者の固視点を特定するために利用されてよい。仮想現実(VR)用途及び拡張現実(AR)用途では、システムは、閲覧者の注視位置を利用してユーザに表示するためのコンテンツを決定する場合がある。
まず図1を参照すると、注視を追跡するための方法が示されている。図1におけるステップは、例えばコンピュータシステム、サーバ、クラウドベースのサーバ、コンテンツホスト、ストリーミングサービスホスト、メディアサーバ、再生装置、表示装置などのうちの1つまたは複数などプロセッサベースの装置によって全体的に実行されてよい。一部の実施形態では、図1におけるステップは、図2を参照して説明されるサーバ210及び再生装置220、図4を参照して説明されるサーバ、及び/または他の同様の装置のうちの1つまたは複数によって実行される場合がある。
ステップ110では、システムは、再生装置を介して閲覧者にコンテンツを提示する。一部の実施形態では、コンテンツは、映画、TVショウ、ビデオクリップ、録画されたビデオコンテンツ、ストリーミングビデオコンテンツ、生中継放送のビデオコンテンツなどのうちの1つまたは複数を含んでよい。いくつかの実施形態において、コンテンツは、立体映像カメラシステム、パノラマカメラシステム、サラウンドビューカメラシステム、360°カメラシステム、全方位カメラシステムなどのうちの1つまたは複数によって取り込まれた単一のビデオストリームまたは複数のビデオストリームを含んでよい。いくつかの実施形態において、コンテンツは、コンテンツサーバから再生装置に流されてよい。いくつかの実施形態において、再生装置は、ゲームコンソール、パーソナルコンピュータ、タブレットコンピュータ、テレビジョン、ヘッドマウントディスプレイ(「HMD」)、拡張現実デバイス、仮想現実デバイス、ウェアラブルデバイス、携帯型ユーザデバイス、スマートフォンなどのうちの1つまたは複数を含んでよい。いくつかの実施形態において、再生装置は、「Head−Mounted Display Tracking」という題名で、2016年3月30日に提出された米国特許出願第15/085,887号に記載されるタイプの装置及び/またはシステムを有する場合もあり、この出願の全開示はこれにより、その全体が本明細書での参照により完全に組み込まれている。
ステップ120では、システムは、閲覧者の注視経路を追跡する。いくつかの実施形態において、注視経路は、再生装置に結合された注視追跡装置によって追跡されてよい。いくつかの実施形態では、注視追跡装置は、閲覧者の目の動き、頭部の動き及び身体の動きのうちの1つまたは複数を追跡するように構成されてよい。いくつかの実施形態において、注視追跡装置は、目の動き及び/または頭部の動きを検出するために画像センサ、光学反射板センサ、距離センサ、筋電図計測(EMG)センサ及び光学フローセンサのうちの1つまたは複数を備えてよい。いくつかの実施形態において、注視追跡装置は、加速度計及びジャイロスコープ、ときには磁気計の組み合わせを利用して、身体の固有の力、角速度及び/または身体を取り巻く磁場を計測し、報告する慣性計測装置(IMU)を備える場合がある。いくつかの実施形態において、注視追跡装置は、センサが、HMD及び/またはウェアラブルデバイスの動きを介してユーザの頭部の動きまたは目の動きを検出することを可能にするHMD及び/またはウェアラブルデバイスに結合されてよい。いくつかの実施形態において、注視追跡装置は、ユーザの頭部の動き及び目の動きのうちの1つまたは複数を検出するための光学センサを備えてよい。いくつかの実施形態において、センサは、HMD及び/またはウェアラブルデバイスに結合されてよい、あるいは、特定の距離から閲覧者からのデータを取り込む相対的に静止したデバイスを備える場合もある。いくつかの実施形態において、閲覧者の注視経路は、任意の従来式のアイトラッキングセンサ、ヘッドトラッキングセンサ及び/またはモーショントラッキングセンサによって追跡されてよい。
いくつかの実施形態において、閲覧者の注視経路は、経時的に検出される閲覧者の複数の注視位置及び/または注視方向の記録を含んでよい。いくつかの実施形態において、閲覧者の注視経路は、閲覧者によって閲覧されるコンテンツのタイムスタンプに従って刻印された注視位置及び/または注視方向を含んでよい。いくつかの実施形態において、注視経路における注視位置は、コンテンツの1つまたは複数のフレームと各々関連付けられてよい。いくつかの実施形態において、注視経路は、二次元の注視経路を含む場合がある。いくつかの実施形態において、注視経路は、コンテンツの表示領域に座標を有する注視位置を含んでよい。いくつかの実施形態において、注視経路は、三次元の注視経路を含む場合がある。例えばコンテンツは、閲覧者が、身体の動作及び/または入力装置を利用して三次元の空間内を自由に移動することができる没入型コンテンツを含む場合がある。いくつかの実施形態において、注視経路は、閲覧者の頭部及び/または目ならびに視線の方向に対応するx、y及びz座標を有する。
ステップ130では、システムは、ステップ120において追跡した閲覧者の注視経路に基づいて閲覧者のプロフィールを選択する。いくつかの実施形態において、閲覧者のプロフィールは、閲覧者のプロフィールのデータベースに格納された、そのコンテンツと対応付けられた複数の閲覧者のプロフィールから選択されてよい。いくつかの実施形態において、各閲覧者のプロフィールは、コンテンツに対応付けられた見込まれる注視経路を含んでよい。いくつかの実施形態において、閲覧者のプロフィールは、コンテンツの1つのセグメント及び/またはコンテンツの全体の継続時間に対応付けられてよい。いくつかの実施形態において、見込まれる注視経路は、コンテンツの1つまたは複数のフレームにおける見込まれる固視点を含んでよい。いくつかの実施形態において、閲覧者のプロフィールは、ステップ120において追跡したユーザの注視経路と、コンテンツ内の同一時間の中での複数の閲覧者のプロフィールにおける注視経路とのマッチングに基づいて選択されてよい。いくつかの実施形態において、追跡した注視経路と、閲覧者のプロフィールにおける注視経路とのずれの大きさを求め、最も少ないずれを有する閲覧者のプロフィールを選択することによって、追跡した注視経路は閲覧者のプロフィールと比較されてよい。
いくつかの実施形態において、閲覧者のプロフィールは、コンテンツを閲覧した複数のユーザの注視経路に基づいて生成された1つまたは複数の閲覧者のプロフィールを含んでよい。例えば、システムは、同一コンテンツを閲覧した複数の閲覧者の注視経路を記録してよい。注視経路はその後、互いに対するその類似性によってグループ分けされてよく、よく似た注視経路の各集団に対して1つの閲覧者のプロフィールが形成されてよい。いくつかの実施形態において、閲覧者のプロフィールは、コンテンツの製作後のプロセス中に生じた1つまたは複数のデフォルトの閲覧者のプロフィールを含んでよい。例えばコンテンツの製作者は、彼らが閲覧者の固視位置でありそうだと考える場所に基づいてデフォルトの注視経路を手入力で入力してよい。いくつかの実施形態において、コンテンツをリリースする前に、1人または複数の閲覧者が製作後のプロセス中にコンテンツを閲覧してデフォルトの閲覧者のプロフィールを生成する場合がある。いくつかの実施形態において、閲覧者のプロフィールは、コンテンツ内の1つまたは複数のオブジェクトの動きの追跡に基づいて生成された1つまたは複数の閲覧者のプロフィールを含んでよい。例えばサッカーゲームに対応付けられた閲覧者のプロフィールは、ゲームをしている間のサッカーボールの動きに対応付けられた注視経路を含んでよい。別の例では、閲覧者のプロフィールは、フレーム内で最も速く動いているオブジェクトの後を追う注視経路を含んでよい。さらに別の例では、閲覧者のプロフィールは、コンテンツ内の1人の特定のアクターまたは複数のアクターの後を追う注視経路を含む場合もある。いくつかの実施形態において、コンテンツは、コンテンツ内の1つまたは複数のオブジェクトを識別するためにオブジェクト認識エンジンによって処理される場合もある。識別されたオブジェクトの位置はその後、閲覧者のプロフィールの注視経路を生成するために使用されてよい。
いくつかの実施形態において、コンテンツが最初に閲覧者に示される際、システムは、デフォルトの閲覧者のプロフィールを利用して閲覧者のこの先の注視位置を予測することができ、閲覧者に対応付けられた閲覧者のプロフィールは、注視追跡データが利用可能になったとき、ステップ130においてその後調整されてよい。いくつかの実施形態において、コンテンツが最初に閲覧者に示される際、閲覧者のプロフィールは、年齢、性別、場所などの閲覧者の人口統計上の情報に基づいて選択されてよい。いくつかの実施形態において、1つまたは複数のデフォルトの閲覧者のプロフィールは、コンテンツの製作後のプロセス中に生成されてよい。
ステップ140では、システムは、ステップ130で選択された閲覧者のプロフィールに基づいて閲覧者のこの先の注視位置を予測する。いくつかの実施形態において、コンテンツの特定のフレームに関して予測されるこの先の注視位置は、ステップ130で選択された閲覧者のプロフィールにおける見込まれる注視経路の注視位置及び/または注視方向に対応してよい。いくつかの実施形態において、閲覧者のプロフィールにおける見込まれる注視経路は、注視方向情報を含んでよく、システムはまず、注視位置を予測するために見込まれる注視方向に対応するコンテンツ表示領域の一部を特定する。
いくつかの実施形態において、ステップ140で予測されたこの先の注視位置は、コンテンツの表示に影響を与えるためにシステムによって利用されてよい。いくつかの実施形態において、システムは、この先の注視位置に基づいてコンテンツの一部を選択し、再生装置においてコンテンツの一部をバッファに格納して構成されてよい。いくつかの実施形態において、再生装置においてバッファに格納されたコンテンツの一部は、この先の注視位置と対応付けられた焦点領域に相当し得る。いくつかの実施形態において、システムは、「APPARATUS AND METHOD FOR PROVIDING AND DISPLAYING CONTENT」という題名で2016年8月12日に提出され、その全開示は、その全体が参照により本明細書に組み込まれている米国仮特許出願第62/374,687号に記載されるように、コンテンツアイテムの低ビットレートバージョンと、焦点領域に相当するコンテンツアイテムの高ビットレートバージョンの一部を再生装置に提供するように構成されてよい。高ビットレートバージョンの一部は、ステップ140で予測されたこの先の注視位置に基づいて再生装置において選択される、及び/またはバッファに格納されてよい。
いくつかの実施形態において、コンテンツの一部は、そのコンテンツを含む複数のビデオストリームから選択された1つのビデオストリームに相当する。いくつかの実施形態において、コンテンツは、複数の別々にエンコードされたビデオストリームを含む場合があり、システムは、「APPARATUS AND METHOD FOR CAPTURING AND DISPLAYING SEGMENTED CONTENT」という題名で、2016年6月30日に提出され、その全開示は、その全体が参照により本明細書に組み込まれている米国仮特許出願第62/357,259号に記載されるように、再生装置に提供するために1つまたは複数のストリームを選択するように構成されてよい。再生装置に提供される1つまたは複数のビデオストリームは、ステップ140で予測されたこの先の注視位置に基づいて選択されてよい。
いくつかの実施形態において、システムは、この先の注視位置に基づいて追加されるコンテンツに関する挿入位置をさらに決定してよい。いくつかの実施形態において、追加されるコンテンツは、警告情報、補足情報、選択メニュー及び広告コンテンツのうちの1つまたは複数を含んでよい。例えばシステムは、閲覧者の予測された注視位置に基づいてレガシーコンテンツにネイティブ広告を挿入するように構成されてよい。一部の実施形態による予測されたこの先の注視位置に基づいてコンテンツを表示する方法及びシステムの例が、本明細書において図5及び図6を参照して説明される。
いくつかの実施形態において、ステップ140の後に、プロセスは、コンテンツの再生中にステップ120に戻る場合がある。いくつかの実施形態において、システムは、閲覧者のプロフィールを選択した後、閲覧者のその後の注視経路を追跡し、その後の注視経路に基づいて複数の閲覧者のプロフィールのうちの異なる1つを選択してよい。いくつかの実施形態において、ステップ130において閲覧者のために選択された閲覧者のプロフィールは、閲覧者がコンテンツを閲覧する際、任意の数の時間の長さを変更する場合がある。いくつかの実施形態において、ステップ130は、周期的に(例えば1秒、2秒、240フレームなど)繰り返されてよい。いくつかの実施形態において、ステップ130は、見込まれる注視経路からかなりのずれが検出された場合、繰り返される場合がある。
次に図2を参照すると、本発明の一部の実施形態に従って本明細書に示され記載される方法及び技術のいずれかを実施する、実装する及び/または実行するのに使用され得る注視追跡のためのシステムが示されている。システムは、ネットワークなどのデータ通信を介して通信するサーバ210と、再生装置220とを含む。
サーバ210は、プロセッサ212と、メモリ213と、通信装置214とを含む。サーバ210は、インターネットなどのネットワークを介して再生装置によってアクセス可能な1つまたは複数のプロセッサベースの装置を一般的に含んでよい。いくつかの実施形態において、コンテンツサーバは、クラウドベースのサーバ、コンテンツホスト、ストリーミングサービスホスト、メディアサーバ、ストリーミングビデオサーバ、ブロードキャストコンテンツサーバ、ソーシャルネットワーキングサーバなどのうちの1つまたは複数を含んでよい。プロセッサ212は、制御回路、中央プロセッサ装置、グラフィカルプロセッサ装置(GPU)、マイクロプロセッサ、ビデオデコーダ、ビデオエンコーダなどのうちの1つまたは複数を含んでよい。メモリ213は、揮発性及び/または不揮発性のコンピュータ可読メモリ装置のうちの1つまたは複数を含んでよい。いくつかの実施形態において、メモリ213は、プロセッサ212に再生装置220にコンテンツを提供するようにさせるコンピュータ実行可能コードを格納する。いくつかの実施形態において、通信装置214は、ネットワークアダプター、データポート、ルータ、モデムなどのうちの1つまたは複数を含んでよい。一般に、通信装置214は、プロセッサ212が再生装置220と通信することを可能にするように構成されてよい。いくつかの実施形態において、プロセッサ212は、再生装置220によって検出されたユーザの注視経路を、閲覧者のプロフィールのデータベース219に保管された閲覧者のプロフィールと照合するように構成されてよい。いくつかの実施形態において、サーバ210は、選択された閲覧者のプロフィールに基づいて再生装置220にコンテンツを提供するように構成されたコンテンツサーバをさらに備えてよい。いくつかの実施形態において、サーバ210は、キャプチャ装置によって記録されたコンテンツをほぼリアルタイムで再生装置220に流すように構成されてよい。いくつかの実施形態において、サーバ210は、オンデマンド方式で再生装置220に流す、及び/またはダウンロードするために、複数の事前に記録されたコンテンツアイテムをホストするように構成される場合もある。
閲覧者のプロフィールのデータベース219は、1つまたは複数のコンテンツアイテムに対応付けられた複数の閲覧者のプロフィールを格納するコンピュータ可読メモリ記憶装置を備えてよい。いくつかの実施形態において、閲覧者のプロフィールは、特定のコンテンツアイテムに各々対応付けられてよく、コンテンツに対応付けられた見込まれる注視経路を含んでよい。いくつかの実施形態において、見込まれる注視経路は、コンテンツの1つまたは複数のフレームにおける見込まれる固視点及び/または視線の方向を含んでよい。いくつかの実施形態において、各閲覧者のプロフィールは、コンテンツの1つのセグメント及び/またはコンテンツの全体の継続時間に対応付けられてよい。
いくつかの実施形態において、閲覧者のプロフィールのデータベース219における閲覧者のプロフィールは、コンテンツを閲覧した複数のユーザの注視経路に基づいて生成された1つまたは複数の閲覧者のプロフィールを含んでよい。例えばシステムは、同一コンテンツを閲覧した複数の閲覧者の注視経路を記録してよい。注視経路は、互いに対するその類似性によってグループ分けされてよく、よく似た注視経路の各集団に対して1つの閲覧者のプロフィールが形成されてよい。いくつかの実施形態において、例えばスポーツイベントなどの生中継放送コンテンツの場合、閲覧者のプロフィールは、放送されたコンテンツの閲覧者と比べて時間の遅延が全くないか、または遅延がより小さい状態でコンテンツを閲覧するモデル閲覧者の注視経路に基づいて確立されてよい。いくつかの実施形態において、閲覧者のプロフィールのデータベース219における閲覧者のプロフィールは、コンテンツの製作後のプロセス中に生じた1つまたは複数のデフォルトの閲覧者のプロフィールを含んでよい。いくつかの実施形態において、コンテンツが放送するためにリリースされる前に、1人または複数の閲覧者が製作後のプロセス中にコンテンツを閲覧してデフォルトの閲覧者のプロフィールを生成する場合がある。いくつかの実施形態において、閲覧者のプロフィールのデータベース219における閲覧者のプロフィールは、コンテンツ内の1つまたは複数のオブジェクトの動きの追跡に基づいて生成された1つまたは複数の閲覧者のプロフィールを含んでよい。例えばサッカーゲームに対応付けられた閲覧者のプロフィールは、ゲームをしている間、サッカーボールの動きに対応付けられた注視経路を含んでよい。別の例では、閲覧者のプロフィールのデータベース219における閲覧者のプロフィールは、フレーム内の最も速く動いているオブジェクトの後を追う注視経路を含む場合もある。さらに別の例では、閲覧者のプロフィールのデータベース219における閲覧者のプロフィールは、コンテンツ内の1人の特定のアクターまたは複数のアクターの後を追う注視経路を含む場合もある。いくつかの実施形態において、コンテンツは、コンテンツ内の1つまたは複数のオブジェクトを識別するためにオブジェクト認識エンジンによって処理される場合がある。コンテンツのフレーム内の識別されたオブジェクトの位置はその後、閲覧者のプロフィールに関する注視経路を生成するために使用されてよい。いくつかの実施形態において、閲覧者のプロフィールのデータベース219における1つまたは複数の閲覧者のプロフィールは、閲覧者の人口統計上の情報(例えば性別、年齢、場所など)と対応付けられてよい。追跡した注視経路が利用できない場合、閲覧者のプロフィールは、閲覧者の人口統計上の情報から選択されてよい。
1つの再生装置220のみが図2に示されているが、一部の実施形態では、サーバ210は、同時に(複数の)閲覧者のプロフィールを選択する、及び/または通信装置214を介して複数の再生装置220にコンテンツを同時に提供するように構成される場合もある。いくつかの実施形態において、サーバ210は、キャプチャ装置と、再生装置220との間のビデオストリームのピアツーピア転送を促進するように構成されてよい。いくつかの実施形態において、サーバ210は、複数の再生装置220から受信した閲覧者の注視経路の記録に基づいて閲覧者のプロフィールのデータベース219に閲覧者のプロフィールを加える、及び/またはその中の閲覧者のプロフィールを修正するように構成されてよい。例えば閲覧者の1つのグループが、閲覧者のプロフィールのデータベース219内の既存の閲覧者のプロフィールとあまり一致しないコンテンツの一部に関してよく似た注視経路を共有する場合、サーバ210は、このよく似た注視経路のグループに基づいて新たな閲覧者のプロフィールを形成する場合がある。いくつかの実施形態において、システムは、閲覧者の人口統計を利用して、1つまたは複数の閲覧者のプロフィールと対応付けられた人口統計を更新してよい。1つのサーバ210が示されているが、一部の実施形態では、サーバ210の機能は、1つまたは複数のプロセッサベースの装置において履行される場合もある。
再生装置220は、プロセッサ221と、メモリ223と、表示装置225と、センサ装置227とを備える。いくつかの実施形態において、再生装置220は一般に、ゲームコンソール、メディアコンソール、セットトップボックス、パーソナルコンピュータ、タブレットコンピュータ、テレビジョン、ヘッドマウントディスプレイ(「HMD」)、拡張現実デバイス、仮想現実デバイス、ウェアラブルデバイス、携帯型ユーザデバイス、スマートフォンなどのうちの1つまたは複数などのプロセッサベースの装置を含んでよい。プロセッサ221は、制御回路、中央プロセッサ装置(CPU)、グラフィカルプロセッサ装置(GPU)、マイクロプロセッサ、ビデオデコーダなどのうちの1つまたは複数を含んでよい。メモリ223は、揮発性及び/または不揮発性のコンピュータ可読メモリ装置のうちの1つまたは複数を含んでよい。いくつかの実施形態において、メモリ223は、プロセッサ221にセンサ装置227を利用して閲覧者の注視経路を追跡させるコンピュータ実行可能コードを格納している。いくつかの実施形態において、再生装置220は、サーバ210から取り出された、及び/またはローカルに保管された閲覧者のプロフィールに基づいてこの先の注視位置を予測するように構成されてよい。いくつかの実施形態において、再生装置220は、サーバ210からコンテンツを取り出す、及び/または閲覧者の予測された注視位置に基づいてローカルにコンテンツをレンダリングするように構成されてよい。いくつかの実施形態において、メモリ223は、サーバ210から表示装置225上で閲覧されるコンテンツの一部をバッファに格納するためのバッファを有してよい。いくつかの実施形態において、メモリ223に格納されたコンピュータ実行可能コードは、コンピュータプログラム、ソフトウェアプログラム、再生装置ファームウェア、モバイルアプリケーション、ゲーム及び/またはメディアコンソールアプリケーションなどのうちの1つまたは複数を含んでよい。
表示装置225は、閲覧者にコンテンツを表示するための装置を備えてよい。いくつかの実施形態において、表示装置225は、モニター、テレビジョン、ヘッドマウントディスプレイ(HMD)、仮想現実表示装置、ウェアラブルデバイス、ディスプレイスクリーン、モバイル装置などのうちの1つまたは複数を含んでよい。いくつかの実施形態において、表示装置225は、1つまたは複数のスクリーンを有する立体的なディスプレイを備える場合がある。
センサ装置227は、表示装置225の閲覧者の注視を追跡するように構成された1つまたは複数のセンサを備えてよい。いくつかの実施形態において、センサ装置227は、目及び/または頭部の動きを検出するための画像センサ、光学反射板センサ、距離センサ、筋電図計測(EMG)センサ及び光学フローセンサのうちの1つまたは複数を備えてよい。いくつかの実施形態において、センサ装置227は、加速度計及びジャイロスコープ、ときには磁気計の組み合わせを利用して、身体の固有の力、角速度及び/または身体を取り巻く磁場を計測し、報告するIMUを備える場合がある。いくつかの実施形態において、センサ装置227は、HMD及び/またはウェアラブルデバイスの動きを介してセンサがユーザの頭部または目の動きを検出することを可能にするHMD及び/またはウェアラブルデバイスに結合されてよい。いくつかの実施形態において、センサ装置227は、ユーザの頭部の動き及び目の動きのうちの1つまたは複数を検出するためのカメラを備える場合がある。いくつかの実施形態において、センサ装置227は、HMD及び/またはウェアラブルデバイスに結合されてよい、または特定の距離から閲覧者からのデータを取り込む相対的に静止した装置を備える場合もある。
表示装置225は、再生装置220の一部として示されているが、いくつかの実施形態において、表示装置225は、別個のプロセッサを備えた、または備えていない別個の装置を備える場合もある。いくつかの実施形態において、表示装置225は、有線または無線通信チャネルを介して再生装置220に結合されてよい。例えば再生装置220は、PCまたはゲームコンソールを備えてよく、表示装置225は、再生装置220からコンテンツを表示するように構成されたHMDを備えてよい。いくつかの実施形態において、センサ装置227は、再生装置220、表示装置225の一部であってよい、及び/または再生装置220及び表示装置225のうちの1つまたは複数と通信する物理的に離れた装置である場合もある。いくつかの実施形態において、表示装置225及びセンサ装置227のうちの1つまたは複数は、再生装置220と一体式であってよい。いくつかの実施形態において、表示装置225は、取り出したコンテンツ及び/またはセンサ装置227によって検出された閲覧者の目の動きまたは頭部の動きの少なくとも一部を記憶するためにプロセッサ及び/またはメモリをさらに備えてよい。
いくつかの実施形態において、再生装置220は、サーバ210及び/またはキャプチャ装置と通信するために、例えばネットワークアダプター、WiーFiトランシーバ、モバイルデータネットワークトランシーバなどの通信装置をさらに含んでよい。いくつかの実施形態において、再生装置220は、コンテンツアイテムの選択及び再生を制御するために、ユーザのために、動作追跡装置、ボタン、コントローラ、キイボード、ディスプレイスクリーン、タッチスクリーンなどの1つまたは複数のユーザ入/出力装置をさらに含んでよい。いくつかの実施形態において、入力装置は、没入型のリアリティコンテンツの中を自由に移動するために閲覧者によってさらに利用されてよい。
次に図3を参照すると、本発明の一部の実施形態による注視経路の例証が示されている。図3では、コンテンツエリア300は、コンテンツの表示領域を表しており、注視経路301、303及び302は、コンテンツの再生の同一の時間帯をカバーし、異なる閲覧者のプロフィールと対応付けられた注視経路を表している。図3において、閲覧者の追跡された注視経路が注視経路310に相当する場合、システムは、この閲覧者を注視経路302と対応付けられた閲覧者のプロフィールに一致させてよい。時間と共に継続して注視経路302の後をたどることによって、閲覧者のこの先の注視位置をその後予測することができる。いくつかの実施形態において、閲覧者は、注視経路302からのかなりずれが検出されるまで、注視経路302と対応付けられてよい。
図3に示される注視経路は、単に例示の目的で提供されており、実際の注視経路を必ずしも表していない場合もある。二次元の注視経路が示されているが、いくつかの実施形態において、閲覧者のプロフィールに対応付けられた注視経路は、三次元空間の中に注視経路を有する場合もある。例えばコンテンツは、閲覧者が三次元空間内を自由に移動し得る没入型コンテンツを有する場合がある。いくつかの実施形態において、注視経路を含む注視位置はこのとき、仮想空間において、及び視線の方向での基準点からのx、y及びz座標を各々含んでよい。図3における注視経路は細い線として示されているが、いくつかの実施形態において、注視経路は、広帯域の領域及び/または視線の方向を有する場合もある。
次に図4を参照すると、本発明の一部の実施形態によるプロセスの図式が示されている。いくつかの実施形態において、図4におけるサーバは、図2を参照して説明したサーバ210または同様の装置を備えてよい。図4における再生装置は、図2を参照して説明した再生装置220または同様の装置を備えてよい。図4では、再生装置の注視追跡装置410はまずユーザの注視位置を検出し、注視経路412を特定する。注視経路412はその後、サーバに提供される。いくつかの実施形態において、各注視経路データ地点は、それらが集められてからサーバに転送され、サーバは、データ地点を統合して注視経路を形成することができる。ステップ416では、サーバは、注視経路412を複数の閲覧者のプロフィール414と照合することによって閲覧者を選択する。ステップ420では、サーバは、選択された閲覧者のプロフィールに基づいて閲覧者のこの先の注視位置を予測する。ステップ430では、システムは、予測された注視位置に基づいて再生装置に提供するためのコンテンツの一部を選択する。いくつかの実施形態において、コンテンツの一部は、コンテンツファイル432から取り出されてよい、及び/または抽出されてよい。いくつかの実施形態において、コンテンツの一部は、コンテンツを含む1つまたは複数のビデオストリームに対応する場合がある。いくつかの実施形態において、コンテンツの一部は、コンテンツの高ビットレートバージョンの一部を含んでよい。ステップ434では、コンテンツの一部は、再生装置においてバッファに格納される。ステップ436では、コンテンツの一部を含むコンテンツがユーザに表示される。
いくつかの実施形態において、ステップ416、420及び430のうちの1つまたは複数は再生装置によって実行されてよい。例えば複数の閲覧者のプロフィールは、再生装置に予めロードされてよい。再生装置は、検出された注視経路412及び複数のローカルに保管された閲覧者のプロフィールに基づいて注視位置を予測するように構成されてよい。いくつかの実施形態において、再生装置は、予測された注視位置に基づいてコンテンツの一部を特定するリクエストをサーバに送信するように構成されてよい。いくつかの実施形態において、取り出したコンテンツをバッファに格納する代わりに、再生装置は、ローカルに保管された、及び/または流されたコンテンツファイルを利用して、予測された注視位置に基づいてコンテンツのレンダリングを開始するように構成される場合もある。
次に図5を参照すると、コンテンツを提供するための方法が示されている。図5におけるステップは、ヘッドマウントディスプレイ(「HMD」)、拡張現実デバイス、仮想現実デバイス、ウェアラブルデバイス、携帯型ユーザデバイス、スマートフォン、パーソナルコンピュータ、サーバ装置、テレビジョン、タブレットコンピュータ、ゲームコンソールなどのうちの1つまたは複数などのプロセッサベースの装置によって全体的に実行されてよい。いくつかの実施形態において、図5におけるステップは、図2を参照して説明したサーバ210及び再生装置220、図4を参照して説明したサーバ、及び/または他の同様の装置のうちの1つまたは複数によって実行されてよい。
ステップ510では、システムは、コンテンツアイテムを閲覧しているユーザの視線の方向を予測する。いくつかの実施形態において、ユーザの視線の方向は、頭部の方向及び目の方向のうちの1つまたは複数を含んでよい。いくつかの実施形態において、視線の方向は、図1を参照して説明した方法または同様の方法において予測されたこの先の注視位置に基づいて予測された方向を含んでよい。いくつかの実施形態において、閲覧者の視線の方向の履歴を含む閲覧者の注視経路は、閲覧者のプロフィールにおける複数の注視経路と比較されてよい。閲覧者の注視経路が閲覧者のプロフィールにおける注視経路と一致する場合、この一致する注視経路に基づいて閲覧者のこの先の視線の方向が予測されてよい。
コンテンツアイテムは、パノラマカメラシステム、サラウンドビューカメラシステム、360°カメラシステム、全方向性カメラシステムなどのうちの1つまたは複数によって取り込まれた複数のビデオストリームを含んでよい。いくつかの実施形態において、コンテンツアイテムは、パノラマビデオ、没入型ビデオ及び/または無指向性ビデオのうちの1つまたは複数に対応するセグメント化されたコンテンツを含んでよい。いくつかの実施形態において、複数のビデオストリームの各々は、カメラ組立体の別個の画像センサによって取り込まれてよい。いくつかの実施形態において、コンテンツアイテムは、事前に記録された、またはリアルタイムのストリーミングコンテンツを含んでよい。コンテンツアイテムは、再生装置にアクセス可能なサーバ上にホストされた複数の個々にエンコードされたビデオストリームを含んでよい。
いくつかの実施形態において、ステップ510の後、システムは、コンテンツアイテムの1つまたは複数のビデオストリームが、コンテンツアイテムを閲覧中のユーザの予測される閲覧領域の範囲内にあるかどうかを判断することができる。いくつかの実施形態において、ユーザの予測される閲覧領域は、選択された閲覧者のプロフィールに基づいて予測された視線の方向に対応する固視点を取り囲む特定の領域に相当し得る。いくつかの実施形態において、視線の方向は、1つまたは複数の入力装置を介するユーザの入力に基づいてよい。例えばユーザは、ジョイスティック、タッチパッド、マウス、方向キーなどを使用して視線の方向を変えることができる。閲覧領域はこのとき、視線の方向に対応付けられた表示領域に対応してよい。いくつかの実施形態において、1つのビデオストリームのみが閲覧領域の範囲内にある場合、システムは、ユーザに表示するために、選択されたビデオストリームを取り出す、及び/またはデコードするだけでよい。いくつかの実施形態において、2つ以上のビデオストリームがユーザの閲覧領域の範囲内にある場合、システムは、ステップ520〜540を実行することができる。
ステップ520では、システムは、コンテンツアイテムの2つ以上のビデオストリームを選択する。ビデオストリームの選択は、ステップ510において予測されたユーザの視線の方向、及びコンテンツアイテムの複数のビデオストリームに対応付けられた方向データに基づいてよい。複数のビデオストリームの方向データは、コンテンツアイテムを記録するキャプチャシステムによって記録され、コンテンツアイテムファイルの一部として含まれてよい。いくつかの実施形態において、キャプチャシステムは、コンテンツアイテムを記録する間、キャプチャシステムの配向を記録するために1つまたは複数のIMUを含んでよい。コンテンツアイテムの現行のセクションに対応付けられたIMUデータは、ユーザの予測される視線の方向に対応するビデオストリームを特定するために、ユーザの予測される視線の方向と比較されてよい。
いくつかの実施形態において、2つ以上のビデオストリームを選択することは、選択したビデオストリームをバッファまたはキャッシュにロードしてデコードすることを含む。いくつかの実施形態において、2つ以上のビデオストリームを選択することは、コンテンツアイテムをホストするサーバから選択したストリームを取り出すことを含む。いくつかの実施形態において、ステップ510及びステップ520は、コンテンツサーバ、再生装置及び/または第3の装置によって実行されてよい。
ステップ530では、システムは、ステップ520で選択された2つ以上のビデオストリームをデコードして、2つ以上の復号されたビデオストリームを形成する。いくつかの実施形態において、デコーディングは、再生装置にある画像もしくはビデオデコーダハードウェア及び/またはソフトウェアモジュールによって実施されてよい。
ステップ540では、システムは、2つ以上の復号されたビデオストリームをつなぎ合わせて組み合わされた画像を形成する。いくつかの実施形態において、ビデオストリームは、ビデオストリームのアライニング、ワーピング、ブレンディングのうちの1つまたは複数を含む方法など既知のスティッチ法に従ってつなぎ合わせることができる。いくつかの実施形態において、画像のアライニングは、特徴及び/またはキーポイント検出を介して再生装置において実行される場合もある。
いくつかの実施形態において、システムは、ユーザの予測される閲覧領域に基づいてビデオストリームの一部を選択的につなぎ合わせるようにさらに構成されてよい。例えば2つのビデオストリームの重なり合う領域の一部のみが、ユーザの予測される閲覧領域の範囲内にある場合、システムは、この予測に基づいてユーザにとって見ることができると推定される重なり合う領域の一部をブレンドするだけでよい。いくつかの実施形態において、ブレンディングの度合いは、視野の中でのその領域の位置にさらに左右される場合がある。例えば、重なり合う領域が、ユーザの視野の周辺領域内にある場合、おおざっぱな(例えばあまり計算的に要求が厳しくない)ブレンディングが行われてよく、重なり合う領域が、ユーザの見込まれる固視点の付近にある場合、より大規模なブレンディングが行われる可能性がある。いくつかの実施形態において、2つ以上の復号されたビデオストリームをつなぎ合わせる作業は、再生装置に関連付けられる歪み及びゆがみに基づいて画像を組み合わせることをさらに含む。
ステップ550では、システムは、ステップ540において生成された組み合わされた画像がユーザに表示されるようにする。いくつかの実施形態において、画像は、フラットスクリーン表示装置またはヘッドマウントディスプレイに表示されてよい。いくつかの実施形態において、ステップ550の前に、システムは、表示装置と対応付けられたパラメータに基づいて組み合わせた画像をさらに調整する。いくつかの実施形態において、システムは、3D及び/または仮想現実表示装置のために立体画像を生成する場合もある。いくつかの実施形態において、システムは、表示装置の表示解像度に基づいて組み合わせた画像の解像度を調整してよい。いくつかの実施形態において、システムは、表示装置に関連付けられる歪み及びゆがみに基づいて画像を調整する場合もある。
いくつかの実施形態において、ステップ510〜550は、ユーザがコンテンツアイテムを閲覧している間、自分の視線の方向を変えるのにつれて継続的に繰り返されてよい。いくつかの実施形態において、ステップ510においてユーザの視線の方向を予測するのに選択された閲覧者のプロフィールは、コンテンツアイテムを閲覧している間、任意の数の時間の長さを変更する場合がある。いくつかの実施形態において、ステップ510において予測される視線の方向に応じて、ステップ520〜ステップ540において選択され、デコードされ、つなぎ合わされたビデオストリームは経時的に変化する場合がある。
次に図6を参照すると、コンテンツを提供するための方法が示されている。図6におけるステップは、コンピュータシステム、サーバ、クラウドベースのサーバ、コンテンツホスト、ストリーミングサービスホスト、メディアサーバなどのうちの1つまたは複数などプロセッサベースの装置によって全体的に実行されてよい。いくつかの実施形態において、図6におけるステップは、図2を参照して説明したサーバ210及び再生装置220、図4を参照して説明したサーバ、及び/または他の同様の装置のうちの1つまたは複数によって実行されてよい。
ステップ610では、システムは、コンテンツアイテムの閲覧者のこの先の注視位置を予測する。いくつかの実施形態において、ユーザの注視位置は、頭部の方向及び目の方向のうちの1つまたは複数を含んでよい。いくつかの実施形態において、この先の注視位置は、図1を参照して説明した方法または同様の方法に基づいて予測されてよい。いくつかの実施形態において、閲覧者の注視位置の履歴を含む注視経路は、閲覧者のプロフィールにおける複数の注視経路と比較されてよい。閲覧者の注視経路が、閲覧者のプロフィールの注視経路と一致した場合、この一致する注視経路に基づいて閲覧者のこの先の注視位置が予測されてよい。いくつかの実施形態において、ステップ610は、コンテンツサーバ、再生装置及び/または第3の装置によって実行されてよい。
ステップ620では、再生装置は、コンテンツアイテムの低ビットレートバージョンを取り出す。いくつかの実施形態において、再生装置は、コンテンツアイテムを取り出すために、ステップ620においてコンテンツアイテムをホストしているサーバにコンテンツリクエストを送信する。コンテンツアイテムの低ビットレートバージョンは、コンテンツプロバイダ及び/またはホスティングサービスによって生成されたコンテンツアイテムの低下されたビットレートバージョンを含んでよい。いくつかの実施形態において、ステップ620は、ステップ610に先だって行われる場合もあり、コンテンツアイテムの低ビットレートバージョンは、閲覧者の焦点領域が特定される、または予測される前にダウンロードされる、バッファに格納される、及び/または閲覧され始めてよい。
ステップ630では、再生装置は、コンテンツアイテムの高ビットレートバージョンの一部を取り出す。いくつかの実施形態において、再生装置は、コンテンツアイテムの高ビットレートバージョンの一部を取り出すために、ステップ610で予測した閲覧者の焦点領域を識別するコンテンツリクエストをサーバに送信する。いくつかの実施形態において、サーバは、焦点領域を予測し、コンテンツアイテムの高ビットレートバージョンの対応する部分を再生装置に送信するように構成されてよい。一般に、取り出された部分は、閲覧者の予測される焦点領域に基づいて選択されたコンテンツの空間的な部分を含んでよい。いくつかの実施形態において、取り出された部分は、コンテンツアイテムの特定の領域の短い一時的な区分を含んでよい(例えばミリ秒、秒、フレームなど)。いくつかの実施形態において、コンテンツアイテムの高ビットレートバージョンの一部は、ステップ620において取り出されたコンテンツアイテムの低ビットレートバージョンとは別個にエンコードされたビデオストリームの中で取り出されてよい。いくつかの実施形態において、コンテンツアイテムの低ビットレートバージョンは、コンテンツアイテムの高ビットレートバージョンの取り出しより先にバッファに格納されてよい。
ステップ640では、システムは、コンテンツアイテムの高ビットレートバージョンの一部を、コンテンツアイテムの低ビットレートバージョンと組み合わせて組み合わされた画像を生成する。いくつかの実施形態において、ステップ640において、システムはまず、ステップ630において取り出したコンテンツアイテムの高ビットレートバージョンの一部と、ステップ620において取り出したコンテンツアイテムの低ビットレートバージョンをデコードする。いくつかの実施形態において、コンテンツアイテムの低ビットレートバージョンと、高ビットレートバージョンの解像度及び/またはフレーム率が異なる場合、システムは、画像を組み合わせる前に、バージョンの少なくとも一方の解像度及び/またはフレーム率をまず調節する場合がある。
ステップ650では、組み合わせた画像が表示装置に表示される。いくつかの実施形態において、表示装置は、モニター、テレビジョンセット、プロジェクタ、ヘッドマウントディスプレイ(HMD)、仮想現実表示装置、ウェアラブルデバイス、ディスプレイスクリーン、モバイル装置などのうちの1つまたは複数を含んでよい。いくつかの実施形態において、ステップ650の前に、システムは表示装置の仕様に基づいて組み合わせた画像をさらに調整する場合がある。例えば仮想現実表示装置の場合、システムは、装置に対応付けられた歪み及びゆがみに対して調整されてよい。
いくつかの実施形態において、ステップ610〜650は、閲覧者がコンテンツアイテムを閲覧する際、継続的に繰り返されてよい。いくつかの実施形態において、ステップ610においてユーザの焦点領域を予測するために選択された閲覧者のプロフィールは、コンテンツアイテムを閲覧している間、任意の数の時間の長さを変更する場合がある。いくつかの実施形態において、ステップ610において予測された焦点領域に基づいて、コンテンツアイテムの高ビットレートバージョンの異なる部分がステップ630において取り出され、経時的にステップ640において低ビットレートバージョンと組み合わされてよい。いくつかの実施形態において、ステップ620は、ステップ610及びステップ630と独立して行われてよい。
いくつかの実施形態において、システムは、閲覧者の閲覧領域を予測し、ステップ620において閲覧者の閲覧領域に基づいて低ビットレートのコンテンツの一部のみを取り出すようにさらに構成されてよい。閲覧者の閲覧領域は、ステップ610における焦点領域の予測と同様に、閲覧者のプロフィールに対する閲覧者のマッチングに基づいて予測されてよい。閲覧者の閲覧領域は一般に、ユーザにとって見ることが可能なコンテンツの領域を指してよいが、閲覧者の視野における焦点である場合、または焦点ではない場合がある。
いくつかの実施形態において、上記に記載した実施形態、方法、手法及び/または技術のうちの1つまたは複数は、プロセッサベースの装置またはシステムによって実行可能な1つまたは複数のコンピュータプログラムまたはソフトウェアアプリケーションにおいて実施されてよい。一例として、そのようなプロセッサベースの装置またはシステムは、コンピュータ、エンターテイメントシステム、ゲームコンソール、ワークステーション、グラフィックワークステーション、サーバ、クライアント、携帯型装置、パッド式装置などを含んでよい。そのようなコンピュータプログラム(複数可)は、上記に記載した方法及び/または技術の様々なステップ及び/または特徴を実行するために使用されてよい。すなわち、コンピュータプログラム(複数可)は、プロセッサベースの装置またはシステムに上記に記載した機能を実行し、達成させる、またはプロセッサベースの装置またはシステムを上記に記載した機能を実行し、達成するように構成するように適合されてよい。例えばそのようなコンピュータプログラム(複数可)は、上記に記載した方法、ステップ技術または特徴の任意の実施形態を実施するために使用されてよい。別の例として、そのようなコンピュータプログラム(複数可)は、上記に記載した実施形態、方法、手法及び/または技術のうちの任意の1つまたは複数を利用する任意のタイプのツールまたは同様のユーティリティを実装するために使用される場合もある。いくつかの実施形態において、上記に記載した方法及び/または技術の様々なステップ及び/または特徴を実行するために、コンピュータプログラム(複数可)内の、またはコンピュータプログラム(複数可)を持たないプログラムコードマクロ、モジュール、ループ、サブルーチン、コールなどが使用されてよい。いくつかの実施形態において、コンピュータプログラム(複数可)は、コンピュータ可読記憶装置、もしくは1つまたは複数の記録媒体、例えば本明細書に記載されるコンピュータ可読記憶装置もしくは1つまたは複数の記録媒体に格納される、またはそこに取り込まれてよい。
したがっていくつかの実施形態において、本発明は、コンピュータへの入力のためにコンピュータプログラムを取り込むための媒体と、コンピュータに、本明細書に記載される実施形態、方法、手法及び/または技術のうちの任意の1つまたは複数に含まれるステップのうちの任意の1つまたは複数を含むステップを実施させる、または実行させるために、媒体に取り込まれたコンピュータプログラムとを備えるコンピュータプログラム製品を提供する。例えばいくつかの実施形態において、本発明は、再生装置を介して閲覧者にコンテンツを提示することと、再生装置に結合された注視追跡装置によって閲覧者の注視経路を追跡することと、閲覧者の注視経路に基づいて閲覧者のプロフィールのデータベースに格納された複数の閲覧者のプロフィールから閲覧者のプロフィールを選択することと、閲覧者のプロフィールに基づいて閲覧者のこの先の注視位置を予測することとを含むステップをプロセッサベースの装置またはシステムに実行させるように適合された、またはそのように構成された1つまたは複数のコンピュータプログラムを格納する1つまたは複数の非一時的コンピュータ可読記憶媒体を提供する。
ここに開示される発明は、特有の実施形態及びその用途を利用して説明されてきたが、特許請求の範囲に記載される本発明の範囲から逸脱することなく、多くの修正及び変更が、それに対して当業者によって行われる可能性がある。

Claims (26)

  1. 再生装置を介して閲覧者にビデオコンテンツを提示することと、
    前記閲覧者が再生されている前記ビデオコンテンツを閲覧している間、閲覧者プロフィールに基づいて前記閲覧者のこの先の注視位置を予測することと、
    前記この先の注視位置に基づいてサーバから前記ビデオコンテンツの一部を取り出すこととを含
    前記閲覧者プロフィールは、前記ビデオコンテンツに対応付けられた見込まれる注視経路を含む、方法。
  2. 前記ビデオコンテンツの前記一部は、前記ビデオコンテンツの高ビットレートバージョンの一部を含む、請求項1の方法。
  3. 前記この先の注視位置に基づいて前記ビデオコンテンツの前記一部を選択することと、
    前記再生装置において前記ビデオコンテンツの前記一部をバッファに格納することとをさらに含む、請求項1の方法。
  4. 前記ビデオコンテンツの前記一部は、前記この先の注視位置と対応付けられた焦点領域に相当する、請求項1の方法。
  5. 前記ビデオコンテンツの前記一部は、前記ビデオコンテンツを含む複数のビデオストリームから選択された1つのビデオストリームに相当する、請求項1の方法。
  6. 前記この先の注視位置に基づいて追加されるコンテンツに関する挿入位置を決定することをさらに含む、請求項1の方法。
  7. 前記閲覧者が前記ビデオコンテンツを閲覧している間、前記閲覧者の注視経路を追跡することと、
    前記閲覧者の前記注視経路に基づいて前記閲覧者プロフィールを選択することとをさらに含む、請求項1の方法。
  8. 前記閲覧者プロフィールを選択した後、前記閲覧者のその後の注視経路を追跡することと、
    前記その後の注視経路に基づいて異なる閲覧者プロフィールを選択することとをさらに含む、請求項7の方法。
  9. 前記閲覧者プロフィールは、複数の閲覧者プロフィールから選択され、前記複数の閲覧者プロフィールは、前記ビデオコンテンツを閲覧した複数のユーザの注視経路に基づいて生成された1つまたは複数の閲覧者プロフィールを含む、請求項1から8のいずれか一項の方法。
  10. 前記閲覧者プロフィールは、複数の閲覧者プロフィールから選択され、前記複数の閲覧者プロフィールは、前記ビデオコンテンツの製作後のプロセス中に生じた1つまたは複数のデフォルトの閲覧者プロフィールを含む、請求項1から8のいずれか一項の方法。
  11. 前記閲覧者プロフィールは、複数の閲覧者プロフィールから選択され、前記複数の閲覧者プロフィールは、前記ビデオコンテンツ内の1つまたは複数のオブジェクトの動きの追跡に基づいて生成された1つまたは複数の閲覧者プロフィールを含む、請求項1から8のいずれか一項の方法。
  12. 閲覧者プロフィールデータベースと、
    通信装置と、
    前記閲覧者プロフィールデータベース及び前記通信装置と結合されたプロセッサとを備え、前記プロセッサは、
    前記通信装置に結合された再生装置を介して閲覧者にビデオコンテンツを提示し、
    前記閲覧者が再生されている前記ビデオコンテンツを閲覧している間、前記閲覧者プロフィールデータベースから取り出された閲覧者プロフィールに基づいて前記閲覧者のこの先の注視位置を予測し、
    前記この先の注視位置に基づいてサーバから前記ビデオコンテンツの一部を取り出すように構成され
    前記閲覧者プロフィールは、前記ビデオコンテンツに対応付けられた見込まれる注視経路を含む、システム。
  13. 前記ビデオコンテンツの前記一部は、前記ビデオコンテンツの高ビットレートバージョンの一部を含む、請求項1のシステム。
  14. 前記プロセッサは、
    前記この先の注視位置に基づいて前記ビデオコンテンツの前記一部を選択し、
    前記再生装置において前記ビデオコンテンツの前記一部をバッファに格納するようにさらに構成される、請求項1のシステム。
  15. 前記ビデオコンテンツの前記一部は、前記この先の注視位置と対応付けられた焦点領域に相当する、請求項1のシステム。
  16. 前記ビデオコンテンツの前記一部は、前記ビデオコンテンツを含む複数のビデオストリームから選択された1つのビデオストリームに相当する、請求項1のシステム。
  17. 前記プロセッサは、
    前記この先の注視位置に基づいて追加されるコンテンツに関する挿入位置を決定するようにさらに構成される、請求項1のシステム。
  18. 前記プロセッサは、
    前記閲覧者が前記ビデオコンテンツを閲覧している間、前記閲覧者の注視経路を追跡し、
    前記閲覧者の前記注視経路に基づいて前記閲覧者プロフィールを選択するようにさらに構成される、請求項1のシステム。
  19. 前記プロセッサは、
    前記閲覧者プロフィールを選択した後、前記閲覧者のその後の注視経路を追跡し、
    前記その後の注視経路に基づいて異なる閲覧者プロフィールを選択するようにさらに構成される、請求項1のシステム。
  20. 前記閲覧者プロフィールは、複数の閲覧者プロフィールから選択され、前記複数の閲覧者プロフィールは、前記ビデオコンテンツを閲覧した複数のユーザの注視経路に基づいて生成された1つまたは複数の閲覧者プロフィールを含む、請求項1から19のいずれか一項のシステム。
  21. 前記閲覧者プロフィールは、複数の閲覧者プロフィールから選択され、前記複数の閲覧者プロフィールは、前記ビデオコンテンツの製作後のプロセス中に生じた1つまたは複数のデフォルトの閲覧者プロフィールを含む、請求項1から19のいずれか一項のシステム。
  22. 前記閲覧者プロフィールは、複数の閲覧者プロフィールから選択され、前記複数の閲覧者プロフィールは、前記ビデオコンテンツ内の1つまたは複数のオブジェクトの動きの追跡に基づいて生成された1つまたは複数の閲覧者プロフィールを含む、請求項1から19のいずれか一項のシステム。
  23. プロセッサベースのシステムに、
    再生装置を介して閲覧者にビデオコンテンツを提示することと、
    前記閲覧者が再生されている前記ビデオコンテンツを閲覧している間、閲覧者プロフィールに基づいて前記閲覧者のこの先の注視位置を予測することと、
    前記この先の注視位置に基づいてサーバから前記ビデオコンテンツの一部を取り出すこととを含み、
    前記閲覧者プロフィールは、前記ビデオコンテンツに対応付けられた見込まれる注視経路を含む、ステップを実行させるように構成された1つまたは複数のコンピュータプログラムを格納する非一時的コンピュータ可読記憶媒体。
  24. 表示装置と、
    通信装置と、
    前記表示装置及び前記通信装置に結合されたプロセッサとを備え、
    前記プロセッサは、
    前記表示装置を介して閲覧者にビデオコンテンツを提示し、
    前記閲覧者が再生されている前記ビデオコンテンツを閲覧している間、閲覧者プロフィールに基づいて前記閲覧者のこの先の注視位置を予測し、
    前記通信装置によって、前記この先の注視位置に基づいてサーバから前記ビデオコンテンツの一部を取り出すように構成され
    前記閲覧者プロフィールは、前記ビデオコンテンツに対応付けられた見込まれる注視経路を含む、システム。
  25. 前記プロセッサに結合された注視追跡装置をさらに含み、
    前記プロセッサは、
    前記注視追跡装置によって前記閲覧者の注視経路を追跡し、
    前記閲覧者の前記注視経路に基づいて前記閲覧者プロフィールを選択するようにさらに構成される、請求項2のシステム。
  26. 前記閲覧者プロフィールは、閲覧者プロフィールデータベースに格納された複数の閲覧者プロフィールから選択される、請求項2または2のシステム。
JP2020065716A 2016-06-30 2020-04-01 注視追跡のための装置及び方法 Active JP6944564B2 (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US201662357259P 2016-06-30 2016-06-30
US62/357,259 2016-06-30
US201662374687P 2016-08-12 2016-08-12
US62/374,687 2016-08-12
US15/280,933 2016-09-29
US15/280,962 2016-09-29
US15/280,933 US11089280B2 (en) 2016-06-30 2016-09-29 Apparatus and method for capturing and displaying segmented content
US15/280,962 US10805592B2 (en) 2016-06-30 2016-09-29 Apparatus and method for gaze tracking
US15/280,947 2016-09-29
US15/280,947 US20180007422A1 (en) 2016-06-30 2016-09-29 Apparatus and method for providing and displaying content
JP2018568225A JP6686186B2 (ja) 2016-06-30 2017-05-30 注視追跡のための装置及び方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018568225A Division JP6686186B2 (ja) 2016-06-30 2017-05-30 注視追跡のための装置及び方法

Publications (2)

Publication Number Publication Date
JP2020123962A JP2020123962A (ja) 2020-08-13
JP6944564B2 true JP6944564B2 (ja) 2021-10-06

Family

ID=60807030

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2018568225A Active JP6686186B2 (ja) 2016-06-30 2017-05-30 注視追跡のための装置及び方法
JP2018568224A Active JP6859372B2 (ja) 2016-06-30 2017-05-30 コンテンツを表示するための方法及びシステム、並びにコンテンツを提供するための方法及びシステム
JP2020065716A Active JP6944564B2 (ja) 2016-06-30 2020-04-01 注視追跡のための装置及び方法
JP2021051166A Active JP7029562B2 (ja) 2016-06-30 2021-03-25 コンテンツを提供及び表示するための装置及び方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2018568225A Active JP6686186B2 (ja) 2016-06-30 2017-05-30 注視追跡のための装置及び方法
JP2018568224A Active JP6859372B2 (ja) 2016-06-30 2017-05-30 コンテンツを表示するための方法及びシステム、並びにコンテンツを提供するための方法及びシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021051166A Active JP7029562B2 (ja) 2016-06-30 2021-03-25 コンテンツを提供及び表示するための装置及び方法

Country Status (5)

Country Link
US (3) US10805592B2 (ja)
EP (2) EP3479257A4 (ja)
JP (4) JP6686186B2 (ja)
KR (2) KR102294098B1 (ja)
CN (2) CN109416931B (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10905943B2 (en) * 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
US10204658B2 (en) 2014-07-14 2019-02-12 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content
US10055892B2 (en) 2014-11-16 2018-08-21 Eonite Perception Inc. Active region determination for head mounted displays
US10291845B2 (en) * 2015-08-17 2019-05-14 Nokia Technologies Oy Method, apparatus, and computer program product for personalized depth of field omnidirectional video
JP6404196B2 (ja) * 2015-09-16 2018-10-10 グリー株式会社 仮想画像表示プログラム、仮想画像表示装置及び仮想画像表示方法
US10805592B2 (en) 2016-06-30 2020-10-13 Sony Interactive Entertainment Inc. Apparatus and method for gaze tracking
US11017712B2 (en) 2016-08-12 2021-05-25 Intel Corporation Optimized display image rendering
US9928660B1 (en) * 2016-09-12 2018-03-27 Intel Corporation Hybrid rendering for a wearable display attached to a tethered computer
CN108616751B (zh) * 2016-12-12 2023-05-12 上海交通大学 媒体信息的处理方法、装置及系统
US11290699B2 (en) * 2016-12-19 2022-03-29 Dolby Laboratories Licensing Corporation View direction based multilevel low bandwidth techniques to support individual user experiences of omnidirectional video
DE112018000311T5 (de) * 2017-01-04 2019-09-19 Nvidia Corporation Stereoskopisches Rendering unter Verwendung von Raymarching und ein Broadcaster für eine virtuelle Ansicht für solches Rendering
US11119567B2 (en) * 2017-03-23 2021-09-14 Interdigital Ce Patent Holdings Method and apparatus for providing immersive reality content
US10979663B2 (en) * 2017-03-30 2021-04-13 Yerba Buena Vr, Inc. Methods and apparatuses for image processing to optimize image resolution and for optimizing video streaming bandwidth for VR videos
CN107396081B (zh) * 2017-06-19 2019-04-12 深圳市铂岩科技有限公司 针对全景视频的优化编码方法及装置
GB2564866B (en) * 2017-07-24 2021-07-28 Advanced Risc Mach Ltd Method of and data processing system for providing an output surface
US10585277B2 (en) * 2017-08-31 2020-03-10 Tobii Ab Systems and methods for tracking a gaze of a user across a multi-display arrangement
CN115499686B (zh) * 2017-12-15 2024-03-08 Pcms控股公司 用于在360°视频导航中使用查看路径的方法
US10805653B2 (en) * 2017-12-26 2020-10-13 Facebook, Inc. Accounting for locations of a gaze of a user within content to select content for presentation to the user
CN115857173A (zh) 2018-01-18 2023-03-28 威尔乌集团 用于包括传感器集成电路的头戴式显示器的位置跟踪系统
TWI678920B (zh) * 2018-05-23 2019-12-01 宏碁股份有限公司 影片處理裝置、其影片處理方法及電腦程式產品
CN110557652A (zh) * 2018-05-30 2019-12-10 宏碁股份有限公司 视频处理装置及其视频处理方法
US11048464B2 (en) * 2018-07-31 2021-06-29 Dell Products, L.P. Synchronization and streaming of workspace contents with audio for collaborative virtual, augmented, and mixed reality (xR) applications
GB2576213A (en) * 2018-08-10 2020-02-12 Sony Corp A method for mapping an object to a location in virtual space
GB2576211A (en) 2018-08-10 2020-02-12 Sony Corp A method for mapping an object to a location in virtual space
GB2576904B (en) * 2018-09-06 2021-10-20 Sony Interactive Entertainment Inc Content modification system and method
GB2576910B (en) * 2018-09-06 2021-10-20 Sony Interactive Entertainment Inc User profile generating system and method
GB2576905B (en) 2018-09-06 2021-10-27 Sony Interactive Entertainment Inc Gaze input System and method
US10855978B2 (en) * 2018-09-14 2020-12-01 The Toronto-Dominion Bank System and method for receiving user input in virtual/augmented reality
US10833945B2 (en) * 2018-11-13 2020-11-10 International Business Machines Corporation Managing downloading of content
US10939139B2 (en) 2018-11-29 2021-03-02 Apple Inc. Adaptive coding and streaming of multi-directional video
US11032607B2 (en) * 2018-12-07 2021-06-08 At&T Intellectual Property I, L.P. Methods, devices, and systems for embedding visual advertisements in video content
US20200195944A1 (en) * 2018-12-14 2020-06-18 Advanced Micro Devices, Inc. Slice size map control of foveated coding
JP7219620B2 (ja) * 2019-01-23 2023-02-08 株式会社近江デジタルファブリケーションズ 配信画像生成方法
SE543121C2 (en) 2019-02-04 2020-10-13 Tobii Ab Method and system for determining a current gaze direction
CN112423108B (zh) * 2019-08-20 2023-06-30 中兴通讯股份有限公司 码流的处理方法、装置、第一终端、第二终端及存储介质
US11481026B2 (en) * 2019-08-22 2022-10-25 Samsung Electronics Co., Ltd. Immersive device and method for streaming of immersive media
US11307655B2 (en) * 2019-09-19 2022-04-19 Ati Technologies Ulc Multi-stream foveal display transport
US11956295B2 (en) 2019-09-27 2024-04-09 Apple Inc. Client-end enhanced view prediction for multi-view video streaming exploiting pre-fetched data and side information
US20230011586A1 (en) * 2019-12-09 2023-01-12 Telefonaktiebolaget Lm Ericsson (Publ) Electronic device, server and methods for viewport prediction based on head and eye gaze
US11284141B2 (en) 2019-12-18 2022-03-22 Yerba Buena Vr, Inc. Methods and apparatuses for producing and consuming synchronized, immersive interactive video-centric experiences
GB2596541B (en) * 2020-06-30 2023-09-13 Sony Interactive Entertainment Inc Video processing
US11410272B2 (en) * 2020-07-01 2022-08-09 Facebook Technologies, Llc. Dynamic uniformity correction
US20220070235A1 (en) * 2020-08-28 2022-03-03 Tmrw Foundation Ip S.Àr.L. System and method enabling interactions in virtual environments with virtual presence
US20220103655A1 (en) * 2020-09-29 2022-03-31 International Business Machines Corporation Proactively selecting virtual reality content contexts
CN114513669A (zh) * 2020-11-16 2022-05-17 华为云计算技术有限公司 视频编码及视频播放方法、装置和系统
US11630509B2 (en) * 2020-12-11 2023-04-18 Microsoft Technology Licensing, Llc Determining user intent based on attention values
WO2023095456A1 (ja) * 2021-11-29 2023-06-01 株式会社Nttドコモ レコメンド装置

Family Cites Families (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4208811A (en) 1978-11-30 1980-06-24 Enrique Junowicz Display with overlapping picture elements
US6078349A (en) * 1995-06-07 2000-06-20 Compaq Computer Corporation Process and system for increasing the display resolution of a point-to-point video transmission relative to the actual amount of video data sent
US6331869B1 (en) 1998-08-07 2001-12-18 Be Here Corporation Method and apparatus for electronically distributing motion panoramic images
JPH10271499A (ja) 1997-03-26 1998-10-09 Sanyo Electric Co Ltd 画像領域を用いる画像処理方法、その方法を用いた画像処理装置および画像処理システム
US20030011619A1 (en) * 1997-10-08 2003-01-16 Robert S. Jacobs Synchronization and blending of plural images into a seamless combined image
JP3511462B2 (ja) * 1998-01-29 2004-03-29 インターナショナル・ビジネス・マシーンズ・コーポレーション 操作画像表示装置およびその方法
CA2371349A1 (en) 1998-05-13 1999-11-18 Scott Gilbert Panoramic movies which simulate movement through multidimensional space
JP2001008232A (ja) 1999-06-25 2001-01-12 Matsushita Electric Ind Co Ltd 全方位映像出力方法と装置
AU2001275453A1 (en) 2000-06-09 2001-12-17 Imove Inc. Streaming panoramic video
US6788333B1 (en) * 2000-07-07 2004-09-07 Microsoft Corporation Panoramic video
US6559846B1 (en) 2000-07-07 2003-05-06 Microsoft Corporation System and process for viewing panoramic video
JP2002183212A (ja) 2000-12-19 2002-06-28 Fuji Xerox Co Ltd 電子文書加工システム、電子文書加工方法、及び、コンピュータ読取り可能な記録媒体
IL159537A0 (en) 2001-06-28 2004-06-01 Omnivee Inc Method and apparatus for control and processing of video images
US7714880B2 (en) 2001-11-16 2010-05-11 Honeywell International Inc. Method and apparatus for displaying images on a display
JP2004056335A (ja) 2002-07-18 2004-02-19 Sony Corp 情報処理装置および方法、表示装置および方法、並びにプログラム
CN100451803C (zh) * 2003-02-07 2009-01-14 夏普株式会社 焦点状态显示设备和焦点状态显示方法
EP1602322A1 (en) 2004-06-02 2005-12-07 SensoMotoric Instruments GmbH Method and apparatus for eye tracking latency reduction
US8232962B2 (en) 2004-06-21 2012-07-31 Trading Technologies International, Inc. System and method for display management based on user attention inputs
US7456377B2 (en) * 2004-08-31 2008-11-25 Carl Zeiss Microimaging Ais, Inc. System and method for creating magnified images of a microscope slide
JP2006171822A (ja) 2004-12-13 2006-06-29 Nippon Telegr & Teleph Corp <Ntt> コンテンツ配信方法
US20060256133A1 (en) * 2005-11-05 2006-11-16 Outland Research Gaze-responsive video advertisment display
US20070153023A1 (en) 2006-01-04 2007-07-05 Computer Associates Think, Inc. System and method of temporal anti-aliasing
US20070188521A1 (en) * 2006-02-15 2007-08-16 Miller Steven D Method and apparatus for three dimensional blending
US9250703B2 (en) * 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
IL175835A0 (en) 2006-05-22 2007-07-04 Rafael Armament Dev Authority Methods and systems for communicating and displaying points-of-interest
US8446509B2 (en) 2006-08-09 2013-05-21 Tenebraex Corporation Methods of creating a virtual window
SE0602545L (en) * 2006-11-29 2008-05-30 Tobii Technology Ab Eye tracking illumination
JP4863936B2 (ja) * 2007-06-25 2012-01-25 株式会社ソニー・コンピュータエンタテインメント 符号化処理装置および符号化処理方法
JP4897600B2 (ja) 2007-07-19 2012-03-14 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム
US20090074084A1 (en) 2007-09-18 2009-03-19 David Drezner Method and System for Adaptive Preprocessing for Video Encoder
US20090129693A1 (en) * 2007-11-15 2009-05-21 Bloebaum L Scott System and method for generating a photograph with variable image quality
US8760574B2 (en) * 2008-04-30 2014-06-24 Broadcom Corporation Image processing methods and systems for frame rate conversion
US20090278921A1 (en) 2008-05-12 2009-11-12 Capso Vision, Inc. Image Stabilization of Video Play Back
WO2009141770A1 (en) * 2008-05-21 2009-11-26 Koninklijke Philips Electronics N.V. Image resolution enhancement
US7850306B2 (en) 2008-08-28 2010-12-14 Nokia Corporation Visual cognition aware display and visual data transmission architecture
JP4775671B2 (ja) 2008-12-26 2011-09-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5595027B2 (ja) 2009-12-11 2014-09-24 三菱電機株式会社 情報表示処理装置
US8914305B2 (en) 2010-06-30 2014-12-16 Trading Technologies International, Inc. Method and apparatus for motion based target prediction and interaction
WO2012015460A1 (en) 2010-07-26 2012-02-02 Thomson Licensing Dynamic adaptation of displayed video quality based on viewers' context
US8487959B1 (en) 2010-08-06 2013-07-16 Google Inc. Generating simulated eye movement traces for visual displays
US9057587B2 (en) * 2010-08-19 2015-06-16 Evrio, Inc. Display indicating aiming point using intermediate point in trajectory path
US9232257B2 (en) 2010-09-22 2016-01-05 Thomson Licensing Method for navigation in a panoramic scene
SG188630A1 (en) * 2010-09-24 2013-04-30 Gnzo Inc Video bit stream transmission system
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US8493390B2 (en) * 2010-12-08 2013-07-23 Sony Computer Entertainment America, Inc. Adaptive displays using gaze tracking
JP2012124784A (ja) 2010-12-09 2012-06-28 Canon Marketing Japan Inc 動画再生システム
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
EP2472867A1 (en) 2010-12-30 2012-07-04 Advanced Digital Broadcast S.A. Coding and decoding of multiview videos
US9247312B2 (en) 2011-01-05 2016-01-26 Sonic Ip, Inc. Systems and methods for encoding source media in matroska container files for adaptive bitrate streaming using hypertext transfer protocol
JP5678324B2 (ja) 2011-02-10 2015-03-04 パナソニックIpマネジメント株式会社 表示装置、コンピュータプログラム、及び表示方法
WO2012145317A1 (en) 2011-04-18 2012-10-26 Eyesee360, Inc. Apparatus and method for panoramic video imaging with mobile computing devices
US20160286119A1 (en) 2011-04-18 2016-09-29 360fly, Inc. Mobile Device-Mountable Panoramic Camera System and Method of Displaying Images Captured Therefrom
US8683013B2 (en) * 2011-04-18 2014-03-25 Cisco Technology, Inc. System and method for data streaming in a computer network
US9692965B2 (en) 2011-04-25 2017-06-27 Mitsuo Hayashi Omnidirectional image editing program and omnidirectional image editing apparatus
JP5918618B2 (ja) 2011-06-03 2016-05-18 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US8184069B1 (en) 2011-06-20 2012-05-22 Google Inc. Systems and methods for adaptive transmission of data
US8847968B2 (en) * 2011-07-12 2014-09-30 Qualcomm Incorporated Displaying static images
US8636361B2 (en) 2011-07-20 2014-01-28 National Taiwan University Learning-based visual attention prediction system and method thereof
US9897805B2 (en) * 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
US9274595B2 (en) * 2011-08-26 2016-03-01 Reincloud Corporation Coherent presentation of multiple reality and interaction models
US8990682B1 (en) * 2011-10-05 2015-03-24 Google Inc. Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display
US8611015B2 (en) 2011-11-22 2013-12-17 Google Inc. User interface
FR2976149A1 (fr) * 2011-12-13 2012-12-07 Thomson Licensing Dispositif d'obtention de contenus en mode streaming en fonction de la distance ecran/observateur, et recepteur de contenus associe
EP2615834A1 (en) 2012-01-16 2013-07-17 Thomson Licensing Dealiasing method and device for 3D view synthesis
US8396983B1 (en) * 2012-03-13 2013-03-12 Google Inc. Predictive adaptive media streaming
US9082011B2 (en) 2012-03-28 2015-07-14 Texas State University—San Marcos Person identification using ocular biometrics with liveness detection
US20130271565A1 (en) 2012-04-16 2013-10-17 Qualcomm Incorporated View synthesis based on asymmetric texture and depth resolutions
KR101698657B1 (ko) 2012-07-04 2017-01-20 인텔 코포레이션 파노라마 기반 3d 비디오 코딩
US20150193395A1 (en) * 2012-07-30 2015-07-09 Google Inc. Predictive link pre-loading
US9164580B2 (en) * 2012-08-24 2015-10-20 Microsoft Technology Licensing, Llc Calibration of eye tracking system
US20140087877A1 (en) 2012-09-27 2014-03-27 Sony Computer Entertainment Inc. Compositing interactive video game graphics with pre-recorded background video content
US9176581B2 (en) * 2012-09-28 2015-11-03 Intel Corporation System and method for inferring user intent based on eye movement during observation of a display screen
JP2014072608A (ja) 2012-09-28 2014-04-21 Brother Ind Ltd 情報処理システム、情報処理装置、表示装置、及びプログラム
JP5923021B2 (ja) 2012-10-05 2016-05-24 日本電信電話株式会社 映像視聴履歴解析装置、映像視聴履歴解析方法及び映像視聴履歴解析プログラム
US9886177B2 (en) 2012-10-11 2018-02-06 Industry-Academic Cooperation Foundation, Yonsei University Method for increasing GUI response speed of user device through data preloading, and said user device
US20150234457A1 (en) * 2012-10-15 2015-08-20 Umoove Services Ltd. System and method for content provision using gaze analysis
US8990843B2 (en) * 2012-10-26 2015-03-24 Mobitv, Inc. Eye tracking based defocusing
GB2509953B (en) 2013-01-18 2015-05-20 Canon Kk Method of displaying a region of interest in a video stream
US9665171B1 (en) * 2013-03-04 2017-05-30 Tobii Ab Gaze and saccade based graphical manipulation
US9948970B2 (en) 2013-03-15 2018-04-17 Cox Communications, Inc. Systems, methods, and apparatus for accessing recordings of content items on multiple customer devices
AU2013206560A1 (en) 2013-06-27 2015-01-22 Canon Kabushiki Kaisha Method, system and apparatus for rendering
CN105960193A (zh) 2013-09-03 2016-09-21 托比股份公司 便携式眼睛追踪设备
US20150142884A1 (en) 2013-11-21 2015-05-21 Microsoft Corporation Image Sharing for Online Collaborations
JP6407526B2 (ja) 2013-12-17 2018-10-17 キヤノンメディカルシステムズ株式会社 医用情報処理システム、医用情報処理方法及び情報処理システム
EP2894852A1 (en) 2014-01-14 2015-07-15 Alcatel Lucent Process for increasing the quality of experience for users that watch on their terminals a high definition video stream
US9313481B2 (en) 2014-02-19 2016-04-12 Microsoft Technology Licensing, Llc Stereoscopic display responsive to focal-point shift
US10264211B2 (en) 2014-03-14 2019-04-16 Comcast Cable Communications, Llc Adaptive resolution in software applications based on dynamic eye tracking
US9530450B2 (en) * 2014-03-18 2016-12-27 Vixs Systems, Inc. Video system with fovea tracking and methods for use therewith
US9462230B1 (en) 2014-03-31 2016-10-04 Amazon Technologies Catch-up video buffering
EP3149937A4 (en) * 2014-05-29 2018-01-10 NEXTVR Inc. Methods and apparatus for delivering content and/or playing back content
US10204658B2 (en) 2014-07-14 2019-02-12 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content
US9489739B2 (en) 2014-08-13 2016-11-08 Empire Technology Development Llc Scene analysis for improved eye tracking
US9552062B2 (en) 2014-09-05 2017-01-24 Echostar Uk Holdings Limited Gaze-based security
US10007333B2 (en) * 2014-11-07 2018-06-26 Eye Labs, LLC High resolution perception of content in a wide field of view of a head-mounted display
US9876780B2 (en) * 2014-11-21 2018-01-23 Sonos, Inc. Sharing access to a media service
US9877016B2 (en) 2015-05-27 2018-01-23 Google Llc Omnistereo capture and render of panoramic virtual reality content
WO2016191694A1 (en) 2015-05-27 2016-12-01 Google Inc. Streaming spherical video
IN2015CH02866A (ja) 2015-06-09 2015-07-17 Wipro Ltd
US9704298B2 (en) * 2015-06-23 2017-07-11 Paofit Holdings Pte Ltd. Systems and methods for generating 360 degree mixed reality environments
US9681046B2 (en) 2015-06-30 2017-06-13 Gopro, Inc. Image stitching in a multi-camera array
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
US10099122B2 (en) 2016-03-30 2018-10-16 Sony Interactive Entertainment Inc. Head-mounted display tracking
US10462466B2 (en) * 2016-06-20 2019-10-29 Gopro, Inc. Systems and methods for spatially selective video coding
US10095937B2 (en) * 2016-06-21 2018-10-09 GM Global Technology Operations LLC Apparatus and method for predicting targets of visual attention
US10805592B2 (en) 2016-06-30 2020-10-13 Sony Interactive Entertainment Inc. Apparatus and method for gaze tracking
KR102560029B1 (ko) * 2016-09-12 2023-07-26 삼성전자주식회사 가상 현실 콘텐트를 송수신하는 방법 및 장치
US10341658B2 (en) 2017-01-30 2019-07-02 Intel Corporation Motion, coding, and application aware temporal and spatial filtering for video pre-processing

Also Published As

Publication number Publication date
EP3479574A1 (en) 2019-05-08
EP3479257A1 (en) 2019-05-08
JP2021103327A (ja) 2021-07-15
CN109416931A (zh) 2019-03-01
JP6859372B2 (ja) 2021-04-14
EP3479574A4 (en) 2020-02-26
CN109416931B (zh) 2023-05-16
US20180007339A1 (en) 2018-01-04
JP7029562B2 (ja) 2022-03-03
EP3479257A4 (en) 2020-02-26
US20180007422A1 (en) 2018-01-04
KR20210000761A (ko) 2021-01-05
CN109417624B (zh) 2024-01-23
KR102294098B1 (ko) 2021-08-26
JP2019525305A (ja) 2019-09-05
US20180004285A1 (en) 2018-01-04
US10805592B2 (en) 2020-10-13
JP6686186B2 (ja) 2020-04-22
JP2019521388A (ja) 2019-07-25
US11089280B2 (en) 2021-08-10
JP2020123962A (ja) 2020-08-13
KR20190022851A (ko) 2019-03-06
CN109417624A (zh) 2019-03-01

Similar Documents

Publication Publication Date Title
JP6944564B2 (ja) 注視追跡のための装置及び方法
US10843088B2 (en) Sharing recorded gameplay
US11482192B2 (en) Automated object selection and placement for augmented reality
US10020025B2 (en) Methods and systems for customizing immersive media content
US8964008B2 (en) Volumetric video presentation
KR101605276B1 (ko) 오디오 비주얼 재생을 위한 시선 기반 위치 선택
US8730354B2 (en) Overlay video content on a mobile device
US11748870B2 (en) Video quality measurement for virtual cameras in volumetric immersive media
US20200388068A1 (en) System and apparatus for user controlled virtual camera for volumetric video
US11383164B2 (en) Systems and methods for creating a non-curated viewing perspective in a video game platform based on a curated viewing perspective
CN109154862B (zh) 用于处理虚拟现实内容的装置、方法和计算机可读介质
JP2023534045A (ja) フォロワ視聴者向けのインフルエンサストリームのカスタマイゼーション
WO2018004933A1 (en) Apparatus and method for gaze tracking
JP2016012351A (ja) クライアントデバイスにより超高解像度ビデオコンテンツ内をナビゲートするための方法、システムおよびデバイス
US10764655B2 (en) Main and immersive video coordination system and method
US11902603B2 (en) Methods and systems for utilizing live embedded tracking data within a live sports video stream

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210910

R150 Certificate of patent or registration of utility model

Ref document number: 6944564

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150