WO2018079166A1 - 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、情報処理システム、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
WO2018079166A1
WO2018079166A1 PCT/JP2017/034884 JP2017034884W WO2018079166A1 WO 2018079166 A1 WO2018079166 A1 WO 2018079166A1 JP 2017034884 W JP2017034884 W JP 2017034884W WO 2018079166 A1 WO2018079166 A1 WO 2018079166A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
content
viewpoint
viewing
information processing
Prior art date
Application number
PCT/JP2017/034884
Other languages
English (en)
French (fr)
Inventor
友久 田中
裕介 瀬下
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201780064597.8A priority Critical patent/CN109845277A/zh
Priority to JP2018547214A priority patent/JP6996514B2/ja
Priority to US16/333,326 priority patent/US20190253743A1/en
Publication of WO2018079166A1 publication Critical patent/WO2018079166A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2407Monitoring of transmitted content, e.g. distribution time, number of downloads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • G06Q30/0246Traffic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0249Advertisements based upon budgets or funds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/252Processing of multiple end-users' preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing system, an information processing method, and a program. More specifically, the user's observation position information for a free viewpoint image that can observe an image in various directions, such as an omnidirectional image, an omnidirectional image, or a panoramic image, is acquired, and the image to be provided to the viewer is acquired.
  • the present invention relates to an information processing apparatus, an information processing system, an information processing method, and a program that perform control and the like.
  • Images from various directions are displayed on a display unit such as a PC, tablet terminal, portable terminal, or head-mounted display (HMD) and selected by the user Alternatively, a system that can observe an image automatically selected according to the orientation of a user is widely used. Note that a video capable of presenting video in various directions selected by the user is referred to as a “free viewpoint video”.
  • 360 degree surrounding omnidirectional video (moving image) data can be acquired from an external server or read from a recording medium and displayed on a display device.
  • the user can select a video in an arbitrary direction and display it on the display device, and can freely change the viewpoint and observe an image such as a moving image or a still image.
  • Video displayed on the display unit of a PC, tablet terminal, or mobile terminal can be displayed by moving the observation direction by a mouse operation by the user, slide processing on the touch panel, flick processing, or the like. You can enjoy images in any direction.
  • an image according to the orientation of the user's head can be displayed according to sensor information for detecting the movement and direction of the head mounted on the HMD, The user can feel as if it is present in the video displayed on the display unit of the HMD.
  • the observation video can be switched by a user operation or the like, so that a video region in which many users are observed and a video region in which almost no observation is observed may occur. That is, there are a video area with a high audience rating and a video area with a low audience rating.
  • data analysis based on such features unique to free viewpoint video, for example, it is possible to analyze a video area with a high audience rating, etc. By using this analysis result, more effective content provision processing or It is possible to perform advertisement providing processing or billing processing.
  • Patent Document 1 Japanese Patent Laid-Open No. 2013-183209 “Multi-viewpoint video stream viewing system and method” describes a viewpoint switching in a system in which a viewer can arbitrarily select and switch which stream of a plurality of video streams is viewed. A configuration for analyzing popular images and videos by recording operations is disclosed.
  • Patent Document 2 Japanese Patent Laid-Open No. 2013-255210, “Video Display Method, Video Display Device, and Video Display Program” is a system for providing a content that can be viewed by a viewer by selecting a desired region of a panoramic video. Discloses a configuration in which a viewer's region selection information is recorded and a past selection region is displayed when the same video is viewed again.
  • a free viewpoint video that can change both the viewpoint position and the viewpoint direction such as a display video for an HMD (head mounted display).
  • HMD head mounted display
  • An object is to provide an information processing apparatus, an information processing system, an information processing method, and a program.
  • an image that a viewer observes a free viewpoint video that can change both the viewpoint position and the viewpoint direction such as a display video for an HMD (head mounted display).
  • An object of the present invention is to provide an information processing apparatus, an information processing system, an information processing method, and a program that acquire and analyze time-series viewing information of a region and control a provided video according to the analysis result.
  • the first aspect of the present disclosure is: Obtain viewpoint position information of multiple users who view content, An information processing apparatus including a data processing unit that generates a viewpoint position heat map indicating a distribution state of a user's viewpoint position.
  • the second aspect of the present disclosure is: An information processing system having a server and a client;
  • the server Send free viewpoint video content that enables observation of video according to at least one of the viewpoint position and the line-of-sight direction to the client,
  • the client Generate viewing status information having time-series data of the viewpoint position and the line-of-sight direction of the user viewing the content, and send it to the server.
  • the server receives viewing status information from multiple clients, Viewpoint heat map showing the distribution of the viewpoint position of content viewing users, or Gaze point heat map showing distribution of gaze point positions of content viewing users,
  • the information processing system generates at least one of the heat maps.
  • the third aspect of the present disclosure is: A process of receiving and displaying free viewpoint video content that enables observation of video according to at least one of the viewpoint position and the line-of-sight direction from the server, and There is an information processing apparatus that generates viewing state information including time-series data of a viewpoint position and a line-of-sight direction of a user who views the free viewpoint video content and transmits the information to a server.
  • the fourth aspect of the present disclosure is: An information processing method for executing information processing in an information processing device, A data processing unit of the information processing apparatus; Obtain viewpoint position information of multiple users who view content, There is an information processing method for generating a viewpoint position heat map indicating a distribution state of a user's viewpoint position.
  • the fifth aspect of the present disclosure is: A program for executing information processing in an information processing device, In the data processing unit of the information processing apparatus, A process of acquiring viewpoint position information of a plurality of users who view content; There is a program for executing a process for generating a viewpoint position heat map indicating the distribution of the viewpoint position of the user.
  • the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes.
  • a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • a configuration is realized in which a viewpoint position heat map indicating a distribution state of viewpoint positions of content viewing users is generated and content and advertisement distribution control using the heat map can be performed.
  • the server transmits, to the client, free viewpoint video content that enables observation of video according to the viewpoint position and the line-of-sight direction.
  • the client generates viewing status information having time-series data of the content viewing user's viewpoint position and line-of-sight direction, and transmits it to the server.
  • the server receives viewing status information from a plurality of clients, and generates a viewpoint position heat map indicating the viewing user's viewpoint position distribution status and a gazing point position heat map indicating the viewing user's gazing point position distribution status.
  • FIG. 25 is a diagram for describing an example hardware configuration of an information processing device.
  • the video content provided to the viewer in the information processing system of the present disclosure is content that allows the viewer to freely specify the position and orientation of the viewpoint.
  • the content may be, for example, live content that is streamed or recorded content that is downloaded in advance or recorded and distributed on a medium (information recording medium).
  • the client Information (viewing status information) indicating from which position the viewer is viewing from which position is recorded as time-series information.
  • the “viewing state information” recorded by the client (information processing apparatus on the viewer side) is transmitted to an information processing apparatus (server) that performs data analysis processing in real time or later.
  • the server stores viewing status information received from many clients (viewer side devices) in a database.
  • the server analyzes the viewing status information stored in the database and obtains statistical information such as the viewing position (head position) and viewing direction of the viewer at each time, or FoV (Field of View) which is viewing area information. To do.
  • the server analyzes the viewing status information stored in the database and obtains statistical information such as the viewing position (head position) and viewing direction of the viewer at each time, or FoV (Field of View) which is viewing area information. To do.
  • Gaze point information on which position of the content is often viewed (2) Viewer head position (viewpoint position) information on the content, A map that can immediately grasp each of these pieces of information, specifically, a three-dimensional heat map is generated.
  • the server receives viewing status information from a large number of viewers who are viewing the same content, for example, via a network, and performs analysis processing.
  • the processing executed by the information processing apparatus such as the server of the present disclosure or the information processing system is, for example, the following processing.
  • (A) Generation of gazing point position heat map and head position heat map A heat map capable of grasping statistical information of the content viewing area and the user's viewpoint position (head position) is generated.
  • Image quality control according to the degree of attention is executed. Specifically, for example, the encoding bit rate is controlled based on the analysis result of the viewing situation. Based on the heat map, encoding control is performed such that the texture of an object with a high degree of attention is encoded at a higher bit rate, and conversely, the texture of an object that has not received much attention is encoded at a low bit rate.
  • (F) A billing process based on the analysis result of the viewing situation is executed.
  • the audience rating for each video area is calculated based on the heat map, and a high fee is charged for reproducing a popular image area with a high audience rating, while a low price is charged for reproducing an unpopular video area.
  • a gaze detection device HMD or the like is attached to a spectator such as a concert or a movie, and the gaze information of the spectator is acquired and analyzed.
  • An information processing apparatus such as a server or an information processing system of the present disclosure executes, for example, each of the processes (a) to (g) described above.
  • an information processing apparatus such as a server or an information processing system of the present disclosure executes, for example, each of the processes (a) to (g) described above.
  • specific configuration examples and processing examples for executing the processing of the above-described embodiments (a) to (g) will be sequentially described.
  • FIG. 1 is a diagram illustrating a configuration example of an information processing system according to the present disclosure.
  • the user (content viewer) 10 wears the viewing device 20.
  • the viewing device 20 is, for example, an HDM (Head Mounted Display).
  • HDM Head Mounted Display
  • the viewing device 20 includes a sensor that detects the position and orientation (head position and direction) of the user (viewer) 10 and a sensor that detects the line of sight of the user 10.
  • the sensor that detects the position and orientation (head position and direction) of the user 10 is configured by an existing sensor such as a gyroscope or a stereo camera.
  • an existing sensor for detecting the line of sight of the user 10 for example, an existing line of sight detection sensor using a pupil corneal reflection method or the like can be used.
  • the line-of-sight detection sensor detects the line-of-sight direction of the user 10 from, for example, the rotation center position of the left and right eyeballs and the direction of the visual axis (and head posture). Note that a sensor that simply detects the posture of the head by head tracking and determines the forward direction of the head as the line-of-sight direction may be used. In this case, the head front direction and the line-of-sight direction coincide.
  • the viewing device 20 includes, for example, a 3D display that allows the user (viewer) 10 to view a free viewpoint video as a stereoscopic image with both eyes.
  • a rendering image (moving image) by the PC 21 is displayed on the display of the viewing device 20.
  • the PC 21 receives the free viewpoint video content 51 provided from the free viewpoint video distribution server 30 via the network 36, cuts out an image area to be displayed on the viewing device 20, outputs it to the viewing device 20, and displays it on the display. .
  • FIG. 1 only one user (viewer) 10, viewing device 20, and PC 21 are shown. However, a large number of PCs 21 are connected to the network 36, and a large number of users (viewers) The content 51 is viewed using the viewing device 20.
  • the display device that outputs content on the user (viewer) 10 side is not limited to the HMD, and for example, a portable terminal such as a PC, a television, or a smartphone can be used.
  • the image cut-out process by the PC 21 is performed as follows.
  • the display image area is identified according to the self-position received from the viewing device 20 and the viewing angle of the viewing device 20, that is, FoV (Field of View), and the identified image area is provided from the free viewpoint video distribution server 30. It is cut out from the viewpoint video content 51, outputted to the viewing device 20, and displayed on the display.
  • FoV Field of View
  • the user (viewer) 10 who observes the video displayed on the display of the viewing device 20 can freely control the viewing position and direction by changing his / her head posture.
  • Various metadata are set in the content 51 provided from the free viewpoint video distribution server 30.
  • the metadata includes, for example, definition information of the viewing frustum that defines the image area of the display image.
  • the metadata includes information on a “near clip” that forms a user-side plane that forms the view frustum, a “far clip” that forms a plane separated from the user, and the like.
  • the data processing unit of the PC 21 can determine the viewing frustum necessary for rendering by using the viewing device 20 default FoV and these metadata. Details of the view frustum and the “near clip” and “far clip” will be further described later with reference to FIG.
  • the free viewpoint video content 51 is streamed from the free viewpoint video distribution server 30 via the network 36, for example.
  • the free viewpoint video content 51 is, for example, content stored in the free viewpoint video content database 31, and the free viewpoint video distribution server 30 reads the content from the free viewpoint video content database 31 via the network 35 and receives the user (viewing). E.) To the PC 21 on the 10 side.
  • a unique viewer ID and content ID are assigned to the user (viewer) 10 and the content 51, respectively.
  • the PC 21 records the head position (viewpoint position) and posture (head front direction, head top direction), line-of-sight direction, and FoV of the user (viewer) 10 at each time during the reproduction of the content 51, and the viewing situation Information 52 is generated and sequentially transmitted to the viewing status information collection server 40.
  • the viewing status information collection server 40 receives the viewing status information 52 from the PC 21 via the network 36, and stores and records the received viewing status information 52 in the viewing information recording database 41 connected by the network 35.
  • FIG. 2 is a diagram illustrating an example of a display image on the display of the user (viewer) wearing the viewing device 20 and the viewing device 20.
  • an image corresponding to the movement and direction of the head mounted on the viewing device 20 is displayed.
  • This image is a rendering image by the PC 21.
  • An image when the user (viewer) 10 wearing the viewing device 20 turns to the right is the display image P.
  • An image when the user (viewer) 10 wearing the viewing device 20 turns to the left is the display image Q.
  • the user (viewer) 10 wearing the viewing device 20 can observe an image of 360 degrees around by changing the direction of the body (head).
  • information on the user's head position (viewpoint position) and line-of-sight direction detected by the mounted sensor of the viewing device 20 is sequentially transmitted from the viewing device 20 to the PC 21.
  • the PC 21 records the user's (viewer) 10 head position (viewpoint position) and posture (head forward direction, head-up direction), line-of-sight direction, and FoV at each time during playback of the content 51, and the viewing situation Information 52 is generated and sequentially transmitted to the viewing status information collection server 40.
  • the data shown in FIG. 3 is an example of the data of viewing status information 52 generated by the PC 21.
  • FIG. 3 shows data examples (1) and (2) of the viewing status information 52 of two users (viewers) A and B.
  • the viewing status information collection server 40 collects viewing status information 52 of a large number of users via the network and stores it in the viewing information recording database 41.
  • the viewing status information 52 includes a viewer ID, a content ID, a head position (viewpoint position), a head for each time during the reproduction period of the content displayed on the display of the viewing device 20.
  • the forward direction, the head overhead direction, the line-of-sight direction, and FoV are recorded.
  • the viewing status information includes “line-of-sight direction” data, this data is used as the “line-of-sight direction” data. It can be used as “Gaze direction” data.
  • the viewer ID is an identifier of the viewer. For example, the user (viewer) who views the content by the operator or administrator of the free viewpoint video distribution server 30 or the viewing information collection server 40 that is the manager of the content 51. Given to each.
  • the content ID is a content identifier. For example, it is set for each of the provided contents by the operator or administrator of the free viewpoint video distribution server 30 or the viewing information collection server 40 that is the administrator of the content 51.
  • a content manager who is an operator of the free viewpoint video distribution server 30 and the viewing information collection server 40 holds a user list in which user IDs are recorded. A list in which the content ID of the viewed content is recorded is held.
  • the head position (viewpoint position), the head forward direction, the head overhead direction, the line-of-sight direction, FoV, and the like are sensor information input from the viewing device 20 worn by the user (viewer) 10 by the PC 21. It is data that can be acquired or calculated based on this.
  • the head position (viewpoint position) data includes coordinate information of xyz indicating position information in the xyz three-dimensional space.
  • the head forward direction, the head overhead direction, the line-of-sight direction, and the direction information thereof are constituted by xyz values of direction vectors (unit vectors) indicating directions in the xyz three-dimensional space.
  • the head position (viewpoint position), the head front direction, the head overhead direction, the line-of-sight direction, FoV, and these data will be described.
  • the head position (viewpoint position), the head forward direction, the head overhead direction, the line-of-sight direction, FoV, and the coordinate system applied to these position and direction information are preset in the free viewpoint video content displayed on the viewing device 20.
  • these data are calculated by the PC 21 based on the sensor information of the viewing device 20.
  • the PC 21 outputs the free viewpoint video content coordinate system information together with the free viewpoint video content to the viewing device 20, and the viewing device 20 receives the position information and direction information according to the free viewpoint video content coordinate system as sensor information.
  • the PC 21 can apply the sensor information as it is and record it as viewing status information shown in FIG. 3.
  • the PC 21 converts the sensor information input from the viewing device 20 into a free viewpoint video content coordinate system, which is a content-specific coordinate system, and converts it into the viewing status information shown in FIG. Record.
  • the head position (viewpoint position), the head forward direction, the head overhead direction, the line-of-sight direction, and FoV are shown as data according to the viewer head coordinate system.
  • the center position P of the left and right eyes of the user (viewer) is set to the origin O of the viewer head coordinate system.
  • the head forward direction is the Z-axis direction of the viewer head coordinate system
  • the head upward direction is the Y-axis direction of the viewer head coordinate system.
  • the FoV (view frustum) shown in FIG. 4 corresponds to a predetermined viewing angle of the viewing device 20 worn by the user (viewer) 10, and the content area in the range of this FoV (view frustum) is the user (viewer). This is an image area corresponding to 10 viewing areas.
  • This FoV (view frustum) is defined as a box with a quadrangular pyramid shape centering on the front direction (Z axis) of the user (viewer) 10.
  • the plane near the user viewpoint of the square pyramid-shaped FoV (view frustum) is called “Near clip”, and the plane far from the user viewpoint is called “Far clip”.
  • each data of “head position (viewpoint position)”, “head forward direction”, “head overhead direction”, and “gaze direction” is shown according to the viewer head coordinate system.
  • the PC 21 converts the sensor information input from the viewing device 20 into content-specific information. It converts into the free viewpoint video content coordinate system which is a coordinate system, and the conversion data is recorded as viewing condition information 52 shown in FIG.
  • the PC 21 receives the viewing status information 52 shown in FIG. 3, that is, the viewer ID, the content ID, the head position (viewpoint position), the head for each time during the playback period of the content displayed on the display of the viewing device 20.
  • the viewing status information 52 in which the forward direction, the head overhead direction, the line-of-sight direction, and the FoV are recorded is generated and sequentially transmitted to the viewing status information collection server 40.
  • the viewing status information collection server 40 collects viewing status information 52 of a large number of users via the network and stores it in the viewing information recording database 41.
  • a server such as the viewing status information collection server 40 or the free viewpoint video distribution server 30 uses the viewing status information 52 stored in the viewing information recording database 41 to generate various analysis information. . Specifically, for example, a heat map that can grasp statistical information on a gaze point position corresponding to a content attention area and a user's viewpoint position (head position) is generated.
  • FIG. 5 is a process for calculating a user gaze point that can be acquired using the viewing status information 52 stored in the viewing information recording database 41, that is, a user (viewer) gaze point for free-viewpoint video content. It is a figure explaining an example.
  • FIG. 5 shows the plane projection data of the free viewpoint content coordinate system at a certain playback time, but in actuality, from the intersection of the line segment and the object in the three-dimensional space, the gaze point in the three-dimensional coordinate system. The position can be calculated.
  • FIG. 5 shows an example in which one gaze point of one user (viewer) is calculated. For example, gaze point information of a large number of viewing users at the same playback time of a certain content is accumulated. Thus, it is possible to generate a heat map indicating the distribution state of gazing points of many users (viewers).
  • FIG. 6 is a heat map showing the distribution of gazing points of a large number of users (viewers) generated using the gazing point information of a large number of viewing users at the same playback time of the same content stored in the viewing information recording database 41. It is an example.
  • FIG. 6 shows a content display area centered on one display object 56 included in the free viewpoint video content.
  • the example shown in FIG. 6 is a heat map showing a distribution state of gazing points of a large number of users (viewers) in playback frames of the same content stored in the viewing information recording database 41 at the same playback time.
  • a three-dimensional space corresponding to the video space included in one frame of content is divided by a grid of a predetermined size (for example, a cube of length L), and the grid is colored according to the number of gazing points included in each grid Divide (light and shade). For example, the darker color (for example, black or dark red) is set as the number of gazing points included in the lattice is larger, and the lighter color (for example, light gray or pink) is set as the number of gazing points is smaller. When the number of gazing points included in the grid is 0, it is set to white or transparent.
  • a grid of a predetermined size for example, a cube of length L
  • the grid is colored according to the number of gazing points included in each grid Divide (light and shade). For example, the darker color (for example, black or dark red) is set as the number of gazing points included in the lattice is larger, and the lighter color (for example, light gray or pink) is set as the number of gazing points is smaller.
  • each grid is colored by changing the alpha channel value that can be used as output color setting information according to the number of gazing points and adjusting the output color and output density. realizable.
  • the heat map is shown as two-dimensional data for easy understanding of the description of the output setting of each grid. However, actually, from the intersection of the line segment and the object in the three-dimensional space.
  • the point of gaze position in the three-dimensional coordinate system can be calculated, and the heat map can be generated and output as three-dimensional data.
  • FIG. 7 shows an example of grid setting when a heat map as three-dimensional data is generated.
  • a lattice in which cubes each having an L side are arranged in a three-dimensional space of X ⁇ Y ⁇ Z is generated.
  • Count the number of gazing points in a large number of L ⁇ L ⁇ L cube units arranged in this three-dimensional space and paint a grid with a large number of gazing points with a dark color or a color close to black.
  • the heat map described with reference to FIG. 6 is a heat map representing the position of the point of sight indicating where the user (viewer) is looking at the content. By using it, it is also possible to generate a heat map of the head position (viewpoint position) of the user (viewer).
  • FIG. 8 is a configuration example of a heat map of the head position (viewpoint position) of the user (viewer).
  • FIG. 8 is similar to FIG. 6 described above, and shows the multiple users (viewers) generated by using the gazing point information of many viewing users at the same playback time of the same content stored in the viewing information recording database 41. It is an example of the heat map which shows the distribution condition of a head position (viewpoint position).
  • FIG. 8 shows an area centered on one display object 56 included in the free viewpoint video content.
  • the example shown in FIG. 8 is a heat map showing the distribution of head positions of multiple users (viewers) in playback frames at the same playback time of the same content stored in the viewing information recording database 41.
  • the three-dimensional space is divided by a lattice having a predetermined size (for example, a cube having a length L), and the lattice is divided into colors (shades) according to the number of head positions included in each lattice. For example, the larger the number of head positions (viewpoint positions) included in the lattice, the darker the color (for example, black or dark red) is set. The smaller the number of head positions (viewpoint positions), the lighter the color (for example, lighter). Set to gray or pink. When the number of head positions (viewpoint positions) included in the lattice is 0, white or transparent is set.
  • each grid is color-coded according to the number of head positions (viewpoint positions) so that the head position (viewpoint position) of the user who is viewing the content can be discriminated at a glance.
  • each grid is colored by changing the alpha channel value that can be used as output color setting information according to the number of head positions (viewpoint positions). This can be realized by adjusting the density.
  • the head position (viewpoint position) heat map generation sequence described with reference to FIG. 8 will be described with reference to the flowcharts shown in FIGS. 9 and 10.
  • the head position (viewpoint position) heat map generation process according to the flowcharts shown in FIGS. 9 and 10 is performed by either the free viewpoint video distribution server 30 or the viewing information collection server 40 shown in FIG. Can be executed in Information processing apparatuses such as the free-viewpoint video distribution server 30 and the viewing information collection server 40 have a data processing unit including a CPU having a program execution function, and the flowcharts shown in FIGS. 9 and 10 are controlled by the data processing unit. The process according to this is executed. An example of the hardware configuration of the information processing apparatus will be described later. Hereinafter, processing of each step in the flowcharts shown in FIGS. 9 and 10 will be described.
  • step S102 the data processing unit of the information processing apparatus holds head position information in units of lattice elements of a three-dimensional box (X ⁇ Y ⁇ Z) configured by cubic lattice elements having a side length L.
  • the initialization process for setting all the values of the three-dimensional array counter Ah [x] [y] [z] to 0 is executed.
  • the heat map has the three-dimensional configuration described with reference to FIG. As shown in FIG. 7, a three-dimensional box having a size of X ⁇ Y ⁇ Z composed of L ⁇ L ⁇ L lattice elements is set.
  • L, X, Y, and Z are constants that can be defined for each content.
  • L can be defined as 1 m
  • the entire three-dimensional space constituting the heat map is set to 10 m ⁇ 10 m ⁇ 10 m, and 1000 pieces of 1 m are included therein. It means that a grid element of ⁇ 1m ⁇ 1m is set.
  • Each of the L ⁇ L ⁇ L lattice elements can be identified by the coordinate information (x, y, z), and the head position included in each lattice element specified by the coordinate information (x, y, z)
  • a process of counting the number of (viewpoint positions) is performed.
  • the counter that holds the count value is a head position information holding three-dimensional array counter Ah [x] [y] [z].
  • step S102 the values of all counters Ah [x] [y] [z] of the L ⁇ L ⁇ L lattice elements in the three-dimensional box of size X ⁇ Y ⁇ Z shown in FIG. Execute the initialization process.
  • This process is a process of acquiring only the head position information from the viewing status information shown in FIG. 3 and generating a list consisting only of the head position information.
  • the viewing status information shown in FIG. 3 is acquired from a large number of users (viewers), and the information processing apparatus acquires only the head position information from the acquired large number of lists and includes only the head position information.
  • a head position information list ⁇ Ph (k) ⁇ which is a list is generated.
  • n the total number of list elements, which corresponds to the number of users who are content viewers on the viewing status list transmission side.
  • step S104 the data processing unit of the information processing apparatus determines whether or not the head position information list is empty. If there is no data (head position information) in the head position information list, the process proceeds to step S113. If there is data (head position information) in the head position information list, the process proceeds to step S105.
  • This process is an initialization process in which the list element to be processed in the head position information list ⁇ Ph (k) ⁇ is set as the head element.
  • step S106 the data processing unit of the information processing apparatus determines that the list element identifier k is k ⁇ n It is determined whether or not the determination formula is satisfied. That is, it is determined whether the list element identifier: k is smaller than the total number of list elements: n.
  • Step S107 the data processing unit of the information processing apparatus acquires head position information ⁇ Ph (k) ⁇ of the list element identifier k in step S107.
  • This head position information is obtained as coordinate information (Phx, Phy, Phz) according to the free viewpoint video content coordinate system, as described above with reference to FIG.
  • step S108 the data processing unit of the information processing device, based on the head position coordinates (Phx, Phy, Phz) of the head position information ⁇ Ph (k) ⁇ , according to the following (Formula 1): Each value of x, y, z is calculated.
  • x F floor (Phx / L)
  • y F floor (Phy / L)
  • z F floor (Phz / L)
  • ...
  • F floor (a) is a function that returns the integer part of a.
  • the position of the coordinate information (Phx, Phy, Phz) that is the head position information ⁇ Ph (k) ⁇ of the list element identifier k is in the X ⁇ Y ⁇ Z box shown in FIG.
  • This is an expression for calculating which lattice element of a set number of L ⁇ L ⁇ L lattice elements is included.
  • the head position coordinates (Phx, Phy, Phz) of the head position information ⁇ Ph (k) ⁇ Means that the grid element is the sixth grid element from the origin along the X axis in the X ⁇ Y ⁇ Z box shown in FIG.
  • step S108 in this way, which lattice element in the three-dimensional box constituting the hit map includes the head position coordinates (Phx, Phy, Phz) of the head position information ⁇ Ph (k) ⁇ .
  • (X, y, z) calculated by the above (Expression 1) is the position information (identifier) of the lattice element including the head position coordinates (Phx, Phy, Phz) of the head position information ⁇ Ph (k) ⁇ . )
  • step S109 the data processing unit of the information processing apparatus calculates (x, y, z) according to (Equation 1) in step S108, that is, the head of the head position information ⁇ Ph (k) ⁇ . It is determined whether (x, y, z), which is position information (identifier) of the lattice element including the position coordinates (Phx, Phy, Phz) satisfies the following (Formula 2). 0 ⁇ x ⁇ X, 0 ⁇ y ⁇ Y, and 0 ⁇ z ⁇ Z (Formula 2)
  • X, Y, and Z are the lengths of the sides of the three-dimensional box that defines the heat map shown in FIG.
  • the position of (x, y, z) which is the position information (identifier) of the lattice element including the head position coordinates (Phx, Phy, Phz) is the heat shown in FIG. It will be inside the 3D box that defines the map.
  • Step S110 The process of step S110 is position information (identifier) of a lattice element including the head position coordinates (Phx, Phy, Phz) of the head position information ⁇ Ph (k) ⁇ in step S109 (x, y, This is processing when it is determined that z) satisfies the following (Formula 2). 0 ⁇ x ⁇ X, 0 ⁇ y ⁇ Y, and 0 ⁇ z ⁇ Z (Formula 2)
  • the counter value (Ah [x] [y] [z]) of the lattice element (x, y, z) to which the head position calculated in step S108 belongs is incremented by one,
  • the head position of one user (viewer) is updated to the set count data included in this lattice element.
  • step S111 After the list element update process in step S111, the processes in and after step S106 are executed for the list element k set as a new process target. In step S106 k ⁇ n If it is determined that the determination formula is not satisfied and all the n list elements registered in the head position information list have been processed, the process proceeds to step S112.
  • Step S112 If it is determined that the processing of all n list elements registered in the head position information list has been completed, the data processing unit of the information processing device, in step S112, includes a head composed of cubic lattice elements having a side length L.
  • a value heat map output value is calculated by dividing each value of all grid elements of the position information holding three-dimensional array counter Ah [x] [y] [z] by the total number of list elements n.
  • the set value of the head position information holding three-dimensional array counter Ah [x] [y] [z] corresponding to each lattice element is set to a value in the range of 0 to 1.
  • the maximum number of head positions included in one lattice element is n
  • the set value of the three-dimensional array counter Ah [x] [y] [z] is in the range of 0 to 1 by division processing by n. Set to a value.
  • step S113 the data processing unit of the information processing device sets the updated set value of the head position information holding three-dimensional array counter Ah [x] [y] [z] at the analysis frame time: t ( Save the heat map output value) in the database.
  • each grid coloring process uses an alpha channel value that can be used as output color setting information as a three-dimensional array counter Ah [x] [y].
  • the output color and output density are adjusted by changing according to the set value of [z].
  • step S114 the data processing unit of the information processing apparatus determines whether or not the analysis frame time: t is the frame final time of the content configuration frame.
  • Step S115 If it is determined in step S114 that there is an unprocessed frame, the data processing unit of the information processing apparatus executes frame time update processing of the analysis target frame in step S115. That is, the frame time: t of the analysis target frame is updated to the next frame time.
  • step S103 After this update process, the process returns to step S103, and the process after step S103 is executed for the unprocessed frame.
  • step S114 If it is determined in step S114 that there are no unprocessed frames, the head position heat map corresponding to all the constituent frames of the content has been completed, and the process ends.
  • data as shown in FIG. 11A is stored in the database as frame unit data. It is possible to output a head position (viewpoint position) heat map as shown in FIG.
  • the gaze point heat map generation sequence described with reference to FIG. 6 will be described with reference to the flowcharts shown in FIGS. 12 and 13.
  • the gazing point position heat map generation process according to the flowcharts shown in FIGS. 12 and 13 is executed in any one of the information processing devices of the free viewpoint video distribution server 30 and the viewing information collection server 40 shown in FIG. Can do.
  • Information processing apparatuses such as the free-viewpoint video distribution server 30 and the viewing information collection server 40 have a data processing unit including a CPU having a program execution function, and the flowcharts shown in FIGS. The process according to this is executed. An example of the hardware configuration of the information processing apparatus will be described later.
  • processing of each step in the flowcharts shown in FIGS. 12 and 13 will be described.
  • step S202 the data processing unit of the information processing apparatus holds gaze point position information in units of lattice elements of a three-dimensional box (X ⁇ Y ⁇ Z) configured by cubic lattice elements having a side length L.
  • the initialization process for setting all the values of the three-dimensional array counter Aw [x] [y] [z] to 0 is executed.
  • the heat map has the three-dimensional configuration described with reference to FIG. As shown in FIG. 7, a three-dimensional box having a size of X ⁇ Y ⁇ Z composed of L ⁇ L ⁇ L lattice elements is set.
  • L, X, Y, and Z are constants that can be defined for each content.
  • L can be defined as 1 m
  • the entire three-dimensional space constituting the heat map is set to 10 m ⁇ 10 m ⁇ 10 m, and 1000 pieces of 1 m are included therein. It means that a grid element of ⁇ 1m ⁇ 1m is set.
  • Each of the L ⁇ L ⁇ L lattice elements can be identified by the coordinate information (x, y, z), and the gazing point position included in each lattice element specified by the coordinate information (x, y, z)
  • the process of counting the number of The counter that holds the count value is the gazing point position information holding three-dimensional array counter Aw [x] [y] [z].
  • step S202 all the values of all counters Aw [x] [y] [z] of L ⁇ L ⁇ L lattice elements in the three-dimensional box of size X ⁇ Y ⁇ Z shown in FIG. Execute the initialization process.
  • This process is a process for generating a list consisting only of gazing point position information based on the viewing status information data shown in FIG.
  • the viewing status information shown in FIG. 3 is acquired from a large number of users (viewers), and the information processing apparatus is a gazing point position that is a list including only gazing point position information based on the acquired data of the large number of lists.
  • the gaze point calculation process based on the viewing status information data shown in FIG. 3 is executed according to the process described above with reference to FIG. That is, the line of sight (half line) is obtained from the head position coordinates and the line-of-sight direction included in the viewing status information. Further, the intersection of this line of sight (half line) and the object included in the free viewpoint video content is obtained. Among these intersections, the intersection closest to the head position is selected from the intersections included in the view frustum represented by FoV, near clip, and far clip. As a result, the coordinate data of the selected intersection position is added to the gazing point position information list ⁇ Pw (k) ⁇ .
  • the process of obtaining the gazing point from the viewing status information and adding it to the list is repeatedly executed for all viewing status information, and the gazing point position information list ⁇ Pw (k) ⁇ , which is a list consisting only of the gazing point position information Is generated.
  • step S204 the data processing unit of the information processing apparatus determines whether or not the gazing point position information list is empty. If there is no data (gazing point position information) in the gazing point position information list, the process proceeds to step S213. If there is data (gaze point position information) in the gaze point position information list, the process proceeds to step S205.
  • This process is an initialization process in which the list element to be processed in the gazing point position information list ⁇ Pw (k) ⁇ is set as the first element.
  • step S206 the data processing unit of the information processing apparatus determines that the list element identifier: k is k ⁇ n It is determined whether or not the determination formula is satisfied. That is, it is determined whether the list element identifier: k is smaller than the total number of list elements: n.
  • Step S207 the data processing unit of the information processing apparatus acquires gaze point position information ⁇ Pw (k) ⁇ of the list element identifier k in step S207.
  • This gaze point position information is obtained as coordinate information (Pwx, Pwy, Pwz) according to the free viewpoint video content coordinate system, as described above with reference to FIG.
  • step S208 the data processing unit of the information processing device, in accordance with the following (Equation 3), based on the gaze point position coordinates (Pwx, Pwy, Pwz) of the gaze point position information ⁇ Pw (k) ⁇ .
  • Each value of x, y, z is calculated.
  • x F floor (Pwx / L)
  • y F floor (Pwy / L)
  • z F floor (Pwz / L)
  • F floor (a) is a function that returns the integer part of a.
  • the position of the coordinate information (Pwx, Pwy, Pwz), which is the gaze point position information ⁇ Pw (k) ⁇ of the list element identifier k is in the X ⁇ Y ⁇ Z box shown in FIG.
  • This is an expression for calculating which lattice element of a set number of L ⁇ L ⁇ L lattice elements is included.
  • the elements are the sixth from the origin along the X axis, the sixth from the origin along the Y axis, and the sixth from the origin along the Z axis from the origin in the X ⁇ Y ⁇ Z box shown in FIG. Means one lattice element.
  • step S208 in this way, which lattice element in the three-dimensional box constituting the hit map includes the gazing point position coordinates (Pwx, Pwy, Pwz) of the gazing point position information ⁇ Pw (k) ⁇ .
  • (X, y, z) calculated by the above (Expression 1) is the position information (identifier) of the lattice element including the gazing point position coordinates (Pwx, Pwy, Pwz) of the gazing point position information ⁇ Pw (k) ⁇ . )
  • step S209 the data processing unit of the information processing device calculates (x, y, z) according to (Equation 3) in step S208, that is, the gazing point of the gazing point position information ⁇ Pw (k) ⁇ . It is determined whether (x, y, z), which is position information (identifier) of the lattice element including the position coordinates (Pwx, Pwy, Pwz) satisfies the following (Formula 4). 0 ⁇ x ⁇ X, 0 ⁇ y ⁇ Y, and 0 ⁇ z ⁇ Z (Formula 4)
  • X, Y, and Z are the lengths of the sides of the three-dimensional box that defines the heat map shown in FIG.
  • the position of (x, y, z) which is the position information (identifier) of the lattice element including the gazing point position coordinates (Pwx, Pwy, Pwz) is the heat shown in FIG. It will be inside the 3D box that defines the map.
  • Step S210 The process of step S210 is the position information (identifier) of the lattice element including the gazing point position coordinates (Pwx, Pwy, Pwz) of the gazing point position information ⁇ Pw (k) ⁇ in step S209 (x, y, This is processing when it is determined that z) satisfies the following (formula 4). 0 ⁇ x ⁇ X, 0 ⁇ y ⁇ Y, and 0 ⁇ z ⁇ Z (Formula 4)
  • step S210 the data processing unit of the information processing apparatus sets one counter value as an update process of the processing target gazing point position information holding three-dimensional array counter: Aw [x] [y] [z]. Execute processing to increase. That is, the following counter value update process is performed.
  • Aw [x] [y] [z] Aw [x] [y] [z] +1
  • the counter value (Aw [x] [y] [z]) of the lattice element (x, y, z) to which the gazing point position calculated in step S208 belongs is incremented by one,
  • the gazing point position of one user (viewer) is updated to the count data set as included in this lattice element.
  • step S211 After the list element update process in step S211, the processes in and after step S206 are executed for the list element k set as a new process target.
  • step S206 k ⁇ n If it is determined that the determination formula is not satisfied and the processing of all n list elements registered in the gazing point position information list is completed, the process proceeds to step S212.
  • Step S212 When it is determined that the processing of all n list elements registered in the gazing point position information list has been completed, the data processing unit of the information processing apparatus, in step S212, gazing point including a cubic lattice element having a side length L.
  • a value heat map output value is calculated by dividing each value of all grid elements of the position information holding three-dimensional array counter Aw [x] [y] [z] by the total number of list elements n.
  • the set value of the three-dimensional array counter Aw [x] [y] [z] for holding the point of interest position information corresponding to each lattice element is set to a value in the range of 0-1.
  • the number of gazing point positions included in one lattice element is n at the maximum, and the set value of the three-dimensional array counter Aw [x] [y] [z] is in the range of 0 to 1 by the division process by n.
  • step S213 the data processing unit of the information processing apparatus sets the set value of the updated three-dimensional array counter for holding gazing point position information Aw [x] [y] [z] at the analysis frame time: t ( Save the heat map output value) in the database.
  • output processing is executed in response to a user output request.
  • each grid coloring process uses an alpha channel value that can be used as output color setting information as a three-dimensional array counter Aw [x] [y].
  • the output color and output density are adjusted by changing according to the set value of [z].
  • step S214 the data processing unit of the information processing apparatus determines whether or not the analysis frame time: t is the frame final time of the content configuration frame.
  • Step S215) If it is determined in step S214 that there is an unprocessed frame, the data processing unit of the information processing apparatus executes frame time update processing of the analysis target frame in step S215. That is, the frame time: t of the analysis target frame is updated to the next frame time.
  • step S203 After this update process, the process returns to step S203, and the process after step S203 is executed for the unprocessed frame.
  • step S214 If it is determined in step S214 that there are no unprocessed frames, the gazing point position heat map corresponding to all the constituent frames of the content has been completed, and the process ends.
  • the data as shown in FIG. 14A is stored in the database as frame unit data. It becomes possible to output a heat map as shown in FIG.
  • FIG. 15 is a diagram illustrating a configuration example of an information processing system that provides recommended viewpoint information and performs display control based on the recommended viewpoint information.
  • the free viewpoint video distribution server 30 acquires and acquires the free viewpoint video content stored in the free viewpoint video content database 31 via the network 35.
  • the free viewpoint video content is transmitted to the information processing device (content output device) 70 on the user (viewer) side via the network 36.
  • the viewing device 70 a PC 73 and a mobile terminal (smartphone) 74 are shown in addition to the combination of the HMD 72 that displays a rendering image by the PC 71 as described with reference to FIG. 1.
  • the user can freely change the image area displayed on each viewing device.
  • An example of changing the display image area will be described with reference to FIG.
  • FIG. 16 shows content 51 that is free viewpoint video content
  • the lower part of FIG. 16 shows a portable terminal (smartphone) 74.
  • an image of a partial area of the free viewpoint video content for example, an area arbitrarily selected by the user can be displayed.
  • the display image A of the left mobile terminal (smartphone) 74 is an area image of a partial area of the image areas a1 to a2 of the partial area in the content 51.
  • the display image B of the mobile terminal (smartphone) 74 on the right side is a region image of partial sections of the image sections b1 to b2 of the partial area in the content 51.
  • the user can display an image of an arbitrary region by moving the display image by a finger slide process on the display unit configured as a touch panel.
  • the display area can be freely selected by an input operation using a keyboard, a mouse, a remote controller, or the like.
  • the viewing device 70 transmits the viewing status information 52 having the data configuration shown in FIG. 3 to the viewing information collection server 40 in the same manner as described above with reference to FIG.
  • the viewing information collection server 40 stores the collected viewing status information in a viewing information recording database 41 connected via the network 35.
  • the information processing system shown in FIG. 15 is different from the system shown in FIG. 1 in that the free viewpoint video distribution server 30 transmits recommended viewpoint information 61 to the viewer device 70.
  • the free viewpoint video distribution server 30 analyzes the viewing status information stored in the viewing information recording database 41, generates recommended viewpoint information 61 based on the analysis result, and transmits it to the viewer device 70. .
  • the viewer device 70 can use the recommended viewpoint information 61 to perform display control such as automatically displaying content including, for example, the most popular viewpoint position and image area in the line-of-sight direction at each content playback time.
  • display control such as automatically displaying content including, for example, the most popular viewpoint position and image area in the line-of-sight direction at each content playback time.
  • the recommended viewpoint information 61 records a content ID, a reproduction time, a head position, a head forward direction, a head overhead direction, a line-of-sight direction, and FoV.
  • This data is data in which a recommended head position (viewpoint position), head forward direction, head overhead direction, line-of-sight direction, and FoV at each playback time are recorded for the content specified by the content ID. That is, by displaying an image with the settings of the head position (viewpoint position), the head forward direction, the head overhead direction, the line-of-sight direction, and FoV recorded in the recommended viewpoint information shown in FIG. It is possible to automatically display popular images.
  • the viewing device 70 when the recommended image according to the recommended viewpoint information 61 is automatically displayed on the display, it is necessary to set the mode of the viewing device 70 to the viewpoint automatic control mode.
  • the viewing device 70 has a configuration capable of switching between the following two viewpoint control modes that can be set in the content display processing.
  • Viewpoint control mode 1 Viewpoint manual control mode
  • Viewpoint control mode 2 Viewpoint automatic control mode
  • the viewpoint manual control mode is a mode in which the display area can be changed according to the intention of the user.
  • the display is changed according to the change mode by changing the position and direction of the head of the user (viewer).
  • the image can be changed.
  • the display image area can be moved by an input process by a user such as a touch panel and a mouse.
  • the viewpoint automatic control mode is a mode in which a recommended image according to the recommended viewpoint information 61 is automatically displayed on the display.
  • the display image changing process corresponding to the movement of the HMD or the user input to the PC smartphone or the like is stopped.
  • FIG. 19 and 20 are executed in the information processing apparatus on the viewing device 70 side, that is, the information processing apparatus such as the PC 71, PC 73, and portable terminal (smartphone) 74 shown in FIG.
  • These information processing apparatuses have a data processing unit including a CPU having a program execution function, and processing according to a flowchart is executed under the control of the data processing unit. An example of the hardware configuration of the information processing apparatus will be described later.
  • the flowchart shown in FIG. 19 is a flowchart for explaining the sequence of the viewpoint automatic control mode setting process executed in the information processing apparatus on the viewing device 70 side.
  • processing for initializing the state of the playback application is performed before the start of content playback. Steps starting from step S301 in FIG. 19 are executed with the playback button being pressed or the like as a trigger.
  • step S301 the information processing apparatus (viewing device) sets the viewpoint position P and viewpoint direction Q corresponding to the display content, which is data corresponding to the display content, to initial values.
  • the initial value is included in the content metadata.
  • the content is free viewpoint video content.
  • the viewpoint position P and viewpoint direction Q are expressed in a free viewpoint video content coordinate system.
  • viewpoint position corresponds to viewpoint position P
  • head forward direction ”And“ head overhead direction ”correspond to the viewpoint direction Q.
  • the viewpoint direction Q is represented by a quaternion.
  • step S302 the information processing apparatus (viewing device) sets the viewpoint control mode to the viewpoint automatic control mode. With these processes, the initialization process is completed.
  • the process according to the flowchart shown in FIG. 20 is executed by the content reproduction application activated in the information processing apparatus (viewing device).
  • the reproduction application executes drawing processing for each image frame constituting the content according to the recommended viewpoint information. For example, when content is rendered at 60 fps, each frame, that is, every 1/60 seconds until content playback is stopped by the user (viewer) or content playback ends (final frame is drawn).
  • the processing from step S321 onwards in the flow shown in FIG. 20 is repeatedly executed.
  • Step S321 the information processing apparatus (viewing device) determines whether or not the viewpoint control mode is set to the viewpoint automatic control mode. If the automatic viewpoint control mode is set, the process proceeds to step S322. If the viewpoint automatic control mode is not set, the process proceeds to step S331.
  • Step S322 If the automatic viewpoint control mode is set, the information processing apparatus determines whether or not a mode switching input is detected in step S322. If no mode switching input is detected, the process proceeds to step S323. If a mode switching input is detected, the process proceeds to step S333.
  • Step S323 If the mode switching input is not detected, the information processing apparatus acquires “recommended viewpoint information R” at the current playback time included in the metadata of the content in step S323, and proceeds to step S324.
  • “Recommended viewpoint information R” is information having the data described above with reference to FIG.
  • the head position Pr and the head direction Qr (obtained from the head front direction and head top direction) included in the recommended viewpoint information R at the current reproduction time are acquired.
  • the head direction Qr is represented by a quaternion.
  • Step S324 the information processing apparatus calculates a recommended viewpoint at the current reproduction time.
  • the viewpoint direction Qc at the current playback time is obtained in the same manner by using the viewpoint direction Q of the immediately preceding frame and the head direction Qr obtained from the recommended viewpoint information R (slerp: special linear interpolation).
  • step S325 the information processing apparatus renders the content including the image area corresponding to the recommended viewpoint at the current playback time calculated in step S324 on the display unit of the viewing device. If FoV can be set as a rendering parameter, the FoV included in the recommended viewpoint information R is set.
  • the information processing apparatus updates the viewpoint information (position, direction) to be recorded in the viewing status information transmitted to the viewing information collection server to the viewpoint information corresponding to the current display content.
  • P and Q are updated with Pc and Qc, respectively.
  • step S326 the information processing apparatus generates viewing state information including correspondence data between the viewpoint information (position Pc, direction Qc) updated in step S325 and the content reproduction time, and transmits the viewing state information to the viewing information collection server. To do.
  • Step S331 and S332 If it is determined in step S321 that the viewpoint automatic control mode is not set, the information processing apparatus determines whether or not a mode switching input is detected in step S331. If a mode switching input is detected, the process proceeds to step S332, and the viewpoint control mode is changed to the viewpoint automatic control mode. If no mode switching input is detected, the process proceeds to step S334.
  • Step S333 If a mode switching input is detected in step S322, switching from the viewpoint automatic control mode to viewpoint manual mode control is performed in step S333, and the process proceeds to step S334.
  • Step S334 the information processing apparatus executes content display control in the viewpoint manual mode. Specifically, a viewpoint (position P, direction Q) according to the viewpoint manual control mode is calculated, and video display according to the calculated viewpoint is performed.
  • a viewpoint (position P, direction Q) according to the viewpoint manual control mode is calculated, and video display according to the calculated viewpoint is performed.
  • video display according to the viewpoint (P, Q) corresponding to the position and direction of the HMD is performed.
  • video display is performed according to the viewpoint (P, Q) corresponding to the user operation.
  • the free viewpoint video distribution server clusters the head position and head direction of the recommended viewpoint information in the time direction, and records the content playback time when they change beyond an appropriate threshold as a scene turning point.
  • the time list is distributed as scene turning point information to the viewing device on the user side as meta information corresponding to the content.
  • a viewing device (such as a PC) on the user side can display a mark or mark indicating a scene turning point at the time position of a progress bar indicating the content playback time, for example, based on “scene turning point information”. Also, by starting playback from the time in the list, operations such as moving to the next / previous scene turning point can be performed.
  • FIG. 21 is a diagram illustrating a configuration example of an information processing system that performs provision of scene turning point information 81 and processing using the scene turning point information 81.
  • the free viewpoint video distribution server 30 acquires and acquires the free viewpoint video content stored in the free viewpoint video content database 31 via the network 35.
  • the free viewpoint video content is transmitted to the information processing device (content output device) 70 on the user (viewer) side via the network 36.
  • the information processing device content output device
  • the viewing device 70 in addition to the combination of the HMD 72 that displays the rendered image by the PC 71 similar to that described with reference to FIG. 1, the PC 73, the mobile terminal (smartphone 74).
  • the viewing device 70 transmits the viewing status information 52 having the data configuration shown in FIG. 3 to the viewing information collection server 40 in the same manner as described above with reference to FIG.
  • the viewing information collection server 40 stores the collected viewing status information in a viewing information recording database 41 connected via the network 35.
  • the free viewpoint video distribution server 30 transmits scene turning point information 81 to the viewer device 70.
  • the free viewpoint video distribution server 30 analyzes the viewing status information stored in the viewing information recording database 41, generates scene turning point information 81 based on the analysis result, and sends it to the viewer device 70. Send.
  • the viewer device 70 can use this scene turning point information 81 to know in advance the content scene turning point, and a mark or mark indicating the scene turning point at the time position of the progress bar indicating the content playback time. Can be displayed. Also, by starting playback from the time in the list, operations such as moving to the next / previous scene turning point can be performed.
  • a data configuration example of the scene turning point information 81 generated by the free viewpoint video distribution server 30 based on the viewing status information stored in the viewing information recording database 41 and transmitted to the viewer device 70 will be described with reference to FIG. To do.
  • the scene turning point information 81 is generated as data corresponding to the content ID and the scene turning point time. This data records the scene turning point time for the content specified by the content ID.
  • Step S401 First, the information processing apparatus (free viewpoint video distribution server 30) resets the “scene turning point information list” in step S401. That is, the list is emptied.
  • step S402 the information processing apparatus acquires recording data of recommended viewpoint information of the processing target content, and average values P (k), Q of the head position P and the head direction Q in units of time T intervals.
  • a value obtained by averaging the viewpoint positions and orientations included in the recommended viewpoint information of the content at intervals of T seconds is calculated.
  • T is a predetermined fixed value, and a value such as 5 seconds is used.
  • n a value obtained by averaging the viewpoint positions and orientations included in the recommended viewpoint information of the content at intervals of T seconds.
  • Step S404 the information processing apparatus determines whether the list element identification parameter k is greater than the maximum value n. If k> n, it is determined that the head position / direction transition list generation process has ended, and the process proceeds to step S411. If k> n is not satisfied, it is determined that the head position direction transition list generation process has not been completed, and the process proceeds to step S405.
  • step S405 the information processing apparatus calculates change amount (difference) information based on adjacent list elements listed in the head position direction transition list. The following two changes are calculated.
  • Head position change amount: ⁇ P (k)
  • Head direction change amount: ⁇ Q (k)
  • Step S406 the information processing apparatus determines whether or not the amount of change (difference) ⁇ P (k) or ⁇ Q (k) calculated in step S405 exceeds a predetermined threshold value.
  • the threshold value is a predetermined threshold value for each of the change amounts (differences) ⁇ P (k) and ⁇ Q (k), and is a threshold value determined in advance according to the content.
  • step S405 If it is determined that the amount of change (difference) ⁇ P (k) or ⁇ Q (k) calculated in step S405 has exceeded a predetermined threshold value, the process proceeds to step S407. On the other hand, if it is determined that the change amount (difference) ⁇ P (k) or ⁇ Q (k) calculated in step S405 does not exceed the predetermined threshold value, the process proceeds to step S408.
  • Step S407 If it is determined that the amount of change (difference) ⁇ P (k) or ⁇ Q (k) calculated in step S405 has exceeded the specified threshold, in step S407, the time kT is set as the scene change time in the scene change point information list.
  • the scene change time kT is recorded in the scene change point information list.
  • Step S408 After the process of step S407 is completed, or when it is determined in step S406 that the change amount (difference) ⁇ P (k) or ⁇ Q (k) does not exceed the specified threshold value, the process proceeds to step S408. .
  • Step S411 If it is determined in step S404 that the list element identification parameter k is greater than the maximum value n, that is, if k> n, it is determined that the head position / direction transition list generation processing has ended, and the process proceeds to step S411. In step S411, the generated scene turning point information list is saved in the database, and the process ends.
  • Step S421 First, in step S421, the information processing apparatus (viewing device) determines whether a movement request to the next chapter has been input. When the movement request to the next chapter is input, the process proceeds to step S422. If not, the process ends.
  • Step S422 the information processing apparatus determines whether the scene turning point information list is empty or whether the current playback time is later than the scene turning point time of the last entry in the list.
  • step S424 If the scene turning point information list is empty or the current playback time is later than the scene turning point time of the last entry in the list, the process proceeds to step S424. If the scene turning point information list is not empty or the current playback time is not later than the scene turning point time of the last entry in the list, the process proceeds to step S423.
  • Step S423 If the scene turning point information list is not empty or the current playback time is not later than the scene turning point time of the last entry in the list in step S422, the process proceeds to step S423.
  • the information processing apparatus acquires a minimum scene turning point time T that is larger than the current reproduction time from the scene turning point information list, and sets the reproduction start time to T. That is, chapter movement processing is performed.
  • Step S424 If it is determined in step S422 that the scene turning point information list is empty or the current playback time is later than the scene turning point time of the last entry in the list, the process proceeds to step S424.
  • step S424 the information processing apparatus sets the time of the last frame of the content as the reproduction time. That is, a process for moving to the reproduction process of the last frame is performed.
  • chapter movement process described with reference to the flow shown in FIG. 24 is an example of the chapter movement process to the rear side of the content, but also in the case of the chapter movement to the front side, refer to the scene turning point information list. Can be done.
  • advertisement display a configuration in which a virtual signboard advertisement by CG is distributed and superimposed in free viewpoint video content will be described.
  • the advertiser designates the advertisement budget, the texture image that serves as the signboard advertisement, and the rank, and registers the advertisement in the advertisement database.
  • three ranks are set in advance. These three ranks are ranks according to the gazing point distribution status of the gazing point heat map generated based on the viewing status information transmitted from the viewing device.
  • An example of the advertisement rank regulation list is shown in FIG.
  • the advertisement rank regulation list is data in which the degree of attention 0 to 1.0 and the unit price (yen / second) are associated with each of the ranks 3 to 1.
  • the degree of attention is data corresponding to the gazing point distribution status of the gazing point heat map generated based on the viewing status information transmitted from the viewing device.
  • a region including a grid with many gazing points in the gazing point heat map has a high degree of attention, and a region including a lattice with few gazing points in the gazing point heat map is set to have a low degree of attention.
  • the unit price is set according to the degree of attention, and the lattice area with a high degree of attention has a high unit price, and the area with a low degree of attention has a low unit price.
  • the advertiser determines the rank based on the advertisement rank regulation, and registers the advertisement in the advertisement database together with the texture image that becomes the signboard advertisement, the rank, the budget, and the like.
  • An example of registration data in the advertisement database is shown in FIG.
  • a URL for acquiring texture image data to be a signboard advertisement, an initial budget, a budget balance, and a rank are registered in association with each other.
  • a free viewpoint video distribution server that distributes an advertisement together with free viewpoint video content superimposes the advertisement registered in the advertisement database on the content and transmits it to the viewing device on the user (viewer) side and displays it on the display unit.
  • the free viewpoint video distribution server performs advertisement selection and advertisement output position determination processing according to a predetermined algorithm in the advertisement provision processing.
  • the surface of the grid (obtained from the heat map) that satisfies the attention level corresponding to the rank of the advertisement is replaced with the texture of the advertisement image and displayed.
  • the unit price is subtracted from the budget every display time of 1 second, and when the budget is exhausted (when it becomes 0), the corresponding advertisement is removed from the advertisement DB. Rendering an advertisement image at the point where the normal on the spherical surface of the circumscribed sphere is in the direction of the viewer's head, instead of rendering the advertisement image as the texture of the lattice surface.
  • the advertisement may be arranged so that the center point of the ad touches and the upward direction of the advertisement is aligned with the overhead direction of the viewer.
  • the budget is all spent on the server side, but only when it is possible to determine that the advertisement was actually “seen” or “entered view” from the watch point of the viewing status information sent from the client or FoV You may be charged.
  • FIG. 27 is a diagram illustrating a configuration example of an information processing system that executes the present embodiment. Similar to the information processing system described above with reference to FIG. 1, the free viewpoint video distribution server 30 acquires and acquires the free viewpoint video content stored in the free viewpoint video content database 31 via the network 35. The free viewpoint video content is transmitted to the information processing device (content output device) 70 on the user (viewer) side via the network 36. 27, similarly to FIG. 15 described above, as an example of the viewing device 70, in addition to the combination of the HMD 72 that displays the rendered image by the PC 71 similar to that described with reference to FIG. 1, the PC 73, the mobile terminal (smartphone) 74).
  • the information processing device content output device
  • the viewing device 70 transmits the viewing status information 52 having the data configuration shown in FIG. 3 to the viewing information collection server 40 in the same manner as described above with reference to FIG.
  • the viewing information collection server 40 stores the collected viewing status information in a viewing information recording database 41 connected via the network 35.
  • the free viewpoint video distribution server 30 transmits the advertisement embedded content 102 to the viewer device 70.
  • advertisement embedded content 102 advertisement information (texture information including advertisement data) acquired based on the URL recorded in the advertisement database described with reference to FIG. 26 is embedded.
  • advertisement database storage data described with reference to FIG. 26 is stored in the advertisement database 101 shown in FIG.
  • the free viewpoint video distribution server 30 that distributes the advertisement together with the free viewpoint video content transmits the advertisement embedded content 102 in which the advertisement registered in the advertisement database 101 is superimposed on the content to the viewing device 70 on the user (viewer) side for display. Displayed in the section.
  • the free viewpoint video distribution server 30 performs advertisement selection and advertisement output position determination processing according to a predetermined algorithm in the advertisement provision processing.
  • the flow shown in FIG. 28 is executed on the assumption that the gaze position heat map described above with reference to FIG. 6 has already been generated as the gaze position heat map corresponding to the content provided to the user. Is done.
  • Step S501 First, the information processing apparatus (free viewpoint video distribution server 30) creates a copy of the original content and sets it as the initial value of the advertisement embedded content D in step S501.
  • the original content is content that the free viewpoint video distribution server 30 transmits to the viewing device 70 and is free viewpoint video content.
  • Step S502 the information processing apparatus creates a gazing point position transition heat map list M (k) that averages the gazing point heat map at intervals of T seconds.
  • T is a predetermined fixed value, for example, a value such as 5 to 15 seconds is used.
  • the parameter initialization process is executed as described above.
  • step S504 the information processing apparatus determines whether the list element parameter k of the gazing point position transition heat map list M (k) is larger than the parameter maximum value n. When k> n, it is determined that the process is finished, and the process is finished. If k> n is not satisfied, the process proceeds to step S505.
  • step S505 the information processing apparatus selects a lattice Lmax having the highest degree of attention among all lattices in the gazing point position transition heat map list M (k). That is, the lattice Lmax with the largest gazing point is selected.
  • step S506 the information processing apparatus determines whether the attention level F of Lmax is included in the advertisement rank regulation list.
  • the output value of the heat map is set in the range of 0 to 1.0.
  • the attention degree setting value of the advertisement rank regulation list described with reference to FIG. 25 is also set to 0 to 1.0.
  • the case shown in FIG. 25 is always included in the advertisement rank definition list, but may not be included depending on the contents of the advertisement rank definition list.
  • step S506 the advertisement rank rule set to the attention level that matches the heat map output value of the grid Lmax with the highest level of attention among all the grids in the gazing point position transition heat map list M (k) selected in step S505. Determine if there is an entry in the list. If there is a matching entry, the process proceeds to step S507, and if not, the process proceeds to step S512.
  • Step S507 there is an entry in the advertisement rank regulation list set to the attention level that matches the heat map output value of the grid Lmax with the highest level of attention among all the grids in the gazing point position transition heat map list M (k). If it is determined, the process proceeds to step S507.
  • step S507 the information processing apparatus selects, from the advertisement rank definition list, an entry in the advertisement rank definition list set to the attention level that matches the heat map output value of Lmax, and the rank R and unit price set in the entry Get P.
  • step S508 the information processing apparatus selects an advertisement A having “rank” equal to R and “budget balance” equal to or greater than P from the advertisement database, that is, the advertisement database storing the data shown in FIG. Search for.
  • step S509 the information processing apparatus determines whether or not the advertisement A has been extracted as a search result in step S508. That is, it is determined whether or not an advertisement A having a “rank” equal to R and a “budget balance” equal to or greater than P is extracted.
  • step S510 If extracted, the process proceeds to step S510, and if not extracted, the process proceeds to step S512.
  • Step S510 In step S509, if the advertisement A having “rank” equal to R and “budget remaining” equal to or greater than P is extracted, the process proceeds to step S510.
  • the information processing apparatus adds a cube C having the same position and size as the grid Lmax selected from the gazing point position transition heat map list M (k) to the part of t seconds from Kt of the content D.
  • Content D is a copy of the original content generated in step S501.
  • step S511 the information processing apparatus selects the URL of the advertisement A extracted as an advertisement satisfying the condition from the advertisement database, and acquires advertisement data using the URL. Further, the acquired advertisement data is set in the content D as a texture to be pasted on the generated cube C in step S510. Further, the advertisement database is updated so that a value obtained by subtracting P from “budget remaining” of advertisement A becomes a new “budget remaining” value.
  • the parameter update described above is executed, and the processes after step S504 are executed based on the update parameter.
  • step S504 the list element parameter k of the gazing point position transition heat map list M (k) is larger than the parameter maximum value n, that is, When k> n, it is determined that the process is finished, and the process is finished. Further, the generated “content D with advertisement embedded” is stored in the content DB so that it can be distributed instead of the original content.
  • FIG. 29 is a diagram illustrating a configuration example of an information processing system that executes the present embodiment. Similar to the information processing system described above with reference to FIG. 1, the free viewpoint video distribution server 30 acquires and acquires the free viewpoint video content stored in the free viewpoint video content database 31 via the network 35. The free viewpoint video content is transmitted to the information processing device (content output device) 70 on the user (viewer) side via the network 36. In FIG. 29, similarly to FIG. 15 described above, as an example of the viewing device 70, in addition to the combination of the HMD 72 that displays the rendered image by the PC 71 similar to that described with reference to FIG. 74).
  • the viewing device 70 transmits the viewing status information 52 having the data configuration shown in FIG. 3 to the viewing information collection server 40 in the same manner as described above with reference to FIG.
  • the viewing information collection server 40 stores the collected viewing status information in a viewing information recording database 41 connected via the network 35.
  • the free viewpoint video distribution server 30 transmits the encoded control content 131 to the viewer device 70.
  • the encoding control content 131 encodes the texture of a high-attention object in the content at a higher bit rate based on the gaze position heat map generated based on the listening state information 52, and conversely the content Content generated by executing encoding control such as encoding at low bit rate the texture of an object that has not received much attention.
  • the server that executes such an encoding process for each content area is the transcode server 121 shown in FIG. 29, and the database that stores the resulting encoded content is the transcoded content database 122 shown in FIG. is there.
  • the transcode server 121 uses a gazing point position heat map or the like generated based on the viewing status information generated for the free viewpoint video content, and the content area with a high degree of attention or the content area with a low degree of attention And re-encoding with a setting that increases the bit rate of the texture of the object in the content area of high attention.
  • the re-encoded content is stored in the transcoded content database 122.
  • the free viewpoint video distribution server 30 transmits the encoded control content 131 acquired from the transcoded content database 122 to the viewer device 70.
  • FIG. 30 is executed on the assumption that the gaze position heat map described above with reference to FIG. 6 has already been generated as the gaze position heat map corresponding to the content provided to the user. Is done. Also, it is assumed that the free viewpoint video content to be re-encoded that is executed by the transcode server 1210 has been previously encoded at a uniform bit rate in the entire space within the content.
  • Step S601 First, in step S601, the information processing apparatus (transcode server 121) acquires a gazing point position heat map H corresponding to all playback times (corresponding to all frames) of content to be processed (free viewpoint video content).
  • the gazing point position heat map is the heat map described above with reference to FIGS. 6 and 12 to 14 and is a heat map in which data corresponding to the degree of attention in the content is expressed.
  • Step S602 the information processing apparatus executes normalization processing of the gazing point position heat map H corresponding to all reproduction times (corresponding to all frames), and gazing point mapping information obtained by mapping the normalized data to the texture space. M is generated.
  • the gazing point mapping information M can be obtained by acquiring vertex data of polygons included in the three-dimensional lattice of the gazing point position heat map H after normalization and referring to the texture coordinates therefrom.
  • the texture corresponds to, for example, an object unit or area unit image included in the content, and the value changes in time series.
  • step S603 the information processing apparatus obtains the viewing ratio p of the texture area based on the gazing point mapping information M.
  • the viewing ratio p corresponds to the viewing ratio (the number of gazing points in the grid) in units of grids with respect to the total viewing volume (the total number of gazing points) of the content. If there is no viewing log, processing may be performed assuming that p is equivalent in all textures.
  • step S604 the information processing apparatus calculates the viewing probability P of each texture in all frames constituting the content based on the viewing ratio p of the texture region.
  • the viewing probability P can be calculated by accumulating p at all reproduction times and dividing by the sampling number of reproduction times.
  • step S605 the information processing apparatus determines a bit rate to be applied to the encoding of each texture in accordance with the target total bit rate B and the viewing probability P of each texture.
  • the bit rate of each texture may be obtained simply by B ⁇ P, but it is desirable to set a lower limit in order to prevent extreme image quality degradation.
  • step S606 the information processing apparatus performs re-encoding processing on all the textures included in the content in accordance with the texture-unit bit rate determined in step S605, and stores the re-encoded processing in the transcoded content database 122.
  • step S607 the information processing apparatus updates the list of effective bit rate lists in which the bit rate of the texture unit corresponding to the content is recorded.
  • the effective bit rate list is stored in the transcoded content database 122 together with the content.
  • the free viewpoint video distribution server 30 transmits the encoded control content 131 acquired from the transcoded content database 122 to the viewer device 70. At this time, the effective bit rate list is also transmitted as content metadata.
  • the change target of the bit rate is not limited to the texture, and may be model data or the like.
  • the flow shown in FIG. 31 is executed in the information processing apparatus that executes content rendering on the viewing device 70 side.
  • a reproduction application activated in the information processing apparatus performs a process of drawing for each frame.
  • the steps of the flow shown in FIG. 31 are repeated every 1/60 seconds until content playback is stopped by the user or content playback ends (final frame is drawn). Execute.
  • Step S621 the information processing apparatus determines whether a bit rate change request has been input. If a bit rate change request is input, the process proceeds to step S622, and if not input, the process proceeds to step S623.
  • the effective bit rate list in which the bit rate of the texture unit of the content is recorded is acquired as metadata together with the content.
  • Step S622 If a bit rate change request is input, the information processing apparatus changes the content acquisition destination in step S622 to acquire an image frame corresponding to the bit rate of the change request. As with the bit rate list, it is assumed that the URL of the content can be acquired as metadata.
  • Step S623 Next, in step S623, the information processing apparatus acquires a playback frame.
  • Step S624 Next, in step S624, the information processing apparatus renders the content of the frame acquired in step S623.
  • the viewing device on the client side can display content with image quality according to the request of the user (viewer).
  • the popularity / attention level of the viewpoint position and the gazing point position is acquired from the heat map, and the viewing fee is calculated from the acquired data and the viewing status information for each frame of the viewer and charged.
  • FIG. 32 shows the following figures. (1) Unit price setting data corresponding to viewpoint position popularity (2) Unit price setting data corresponding to attention point (or FoV center) attention level
  • the viewpoint position popularity corresponding unit price setting data is data corresponding to the content ID, the viewpoint position popularity, and the unit price.
  • the popularity of the viewpoint position is calculated based on the viewpoint position heat map generated from the viewing status information.
  • Gaze point (or FoV center) attention level corresponding unit price setting data is correspondence data of content ID, attention level of gaze point (or FoV center), and unit price.
  • the degree of attention of the gazing point (or FoV center) is calculated based on the gazing point position heat map generated from the viewing status information.
  • FIG. 33 is a diagram illustrating a configuration example of an information processing system that executes billing processing based on a viewing situation analysis result. Similar to the information processing system described above with reference to FIG. 1, the free viewpoint video distribution server 30 acquires and acquires the free viewpoint video content stored in the free viewpoint video content database 31 via the network 35. The free viewpoint video content is transmitted to the information processing device (content output device) 70 on the user (viewer) side via the network 36.
  • the information processing device (content output device) 70 on the user (viewer) side via the network 36.
  • the information processing device content output device
  • FIG. 33 similarly to FIG. 15 described above, as an example of the viewing device 70, in addition to the combination of the HMD 72 that displays a rendering image by the PC 71 similar to that described with reference to FIG. 74).
  • the viewing device 70 transmits the viewing status information 52 having the data configuration shown in FIG. 3 to the viewing information collection server 40 in the same manner as described above with reference to FIG.
  • the viewing information collection server 40 stores the collected viewing status information in a viewing information recording database 41 connected via the network 35.
  • the billing information database 141 stores the following data described above with reference to FIG. (1) Unit price setting data corresponding to viewpoint position popularity (2) Unit price setting data corresponding to attention point (or FoV center) attention level
  • the free viewpoint video distribution server 30 executes charging processing for each user (viewer) based on these data stored in the charging information database 141.
  • Step S702 the information processing apparatus stores all the viewing status information list L (k) that matches the content ID of the specified content to be processed and the viewer ID of the specified user (viewer) to be processed.
  • step S704 the information processing apparatus determines whether the list element identification parameter k is greater than the maximum value n. If k> n, it is determined that the content viewing fee calculation process has ended, and the process ends. If k> n is not satisfied, it is determined that the content viewing fee calculation processing has not ended, and the process proceeds to step S705.
  • step S705 the information processing apparatus obtains the viewpoint position (head position) heat map Mp and the gazing point position heat map Mq of the designated content that matches the viewing fee calculation time of the viewing status information list L (k). get.
  • step S706 the information processing apparatus obtains a lattice Lp of the viewpoint position (head position) heat map Mp corresponding to the head position (viewpoint position) coordinates P of the viewing status information list L (k), and The degree of popularity Rp corresponding to the viewpoint position is acquired.
  • Step S707 the information processing apparatus acquires a unit price Vp corresponding to the popularity degree Rp based on the viewpoint position popularity degree data.
  • the unit price is the price per second. This process is a unit price calculation process using the above data described above with reference to FIG. 32 (1).
  • step S709 the information processing apparatus calculates a gazing point position Q from the head position coordinates P and the line-of-sight direction of the viewing status information list L (k).
  • This gaze point position calculation process corresponds to the process described above with reference to FIG.
  • step S710 the information processing apparatus determines whether or not the gazing point position Q exists in the content. When it exists, it progresses to step S711, and when it does not exist, it progresses to step S714.
  • Step S711 If it is determined in step S710 that the gazing point position Q exists in the content, the information processing apparatus next acquires a lattice Lq of the gazing point position heat map Mq corresponding to the gazing point position Q in step S711. The popularity Rq of the gazing point is acquired.
  • Step S712 the information processing apparatus acquires the unit price Vq corresponding to the popularity degree Rq based on the attention point (or FoV center) attention level corresponding unit price setting data.
  • the unit price is the price per second. This process has been described with reference to FIG. 32 (2).
  • Gaze point (or FoV center) attention level corresponding unit price setting data The unit price calculation process using the above data.
  • the above parameter update is executed, and the processing from step S704 is executed based on the update parameter.
  • step S704 the list element parameter k of the viewing status information list L (k) is larger than the parameter maximum value n, that is, When k> n, it is determined that the process is finished, and the process is finished.
  • a gaze detection device such as an HMD
  • the gaze information of the spectator is acquired and analyzed.
  • a gaze tracking device 151 that is a gaze detection device (HMD or the like) is attached to a spectator 150 such as a concert or a movie, and a gaze is determined based on an output from the gaze tracking device 151.
  • the analysis device 152 generates viewing state information including the sight line position (head position) of the spectator 150, sight direction information, and the like. That is, the viewing status information having the data described above with reference to FIG. 3 is generated.
  • the viewing status information 52 generated by the line-of-sight analysis device 152 is transmitted to the viewing information collection server 40.
  • the viewing information collection server 40 stores the collected viewing status information in a viewing information recording database 41 connected via the network 35.
  • the content distribution server 30 can generate the above-described head position (viewpoint position) heat map and gazing point position heat map based on the viewing status information stored in the viewing information recording database 41. Furthermore, by using these heat maps, it is possible to perform processing according to the above-described embodiments (A) to (F).
  • the line-of-sight analysis device 152 is set to generate the viewing status information 52, but the output from the line-of-sight tracking device 151 is directly transmitted to the line-of-sight information collection server 40 to collect the line-of-sight information.
  • the server 40 may be configured to generate the viewing status information 52.
  • the gaze information of the viewer who is directly viewing the content is obtained by detecting the gaze of the person in the content and calculating the heat map. Even if it cannot be obtained, the same processing as described above can be realized. In this case, the viewer inside the content is analyzed to generate viewing status information.
  • FIG. 36 for an example of a hardware configuration of each server that executes processing according to the above-described embodiment, an information processing apparatus that configures a client-side PC, a viewing device, and the like, and a server. To explain.
  • a CPU (Central Processing Unit) 301 functions as a data processing unit that executes various processes in accordance with a program stored in a ROM (Read Only Memory) 302 or a storage unit 308. For example, processing according to the sequence described in the above-described embodiment is executed.
  • a RAM (Random Access Memory) 303 stores programs executed by the CPU 301, data, and the like. These CPU 301, ROM 302, and RAM 303 are connected to each other by a bus 304.
  • the CPU 301 is connected to an input / output interface 305 via a bus 304, and an input unit 306 including various switches, a keyboard, a mouse, and a microphone, and an output unit 307 including a display and a speaker are connected to the input / output interface 305. Yes.
  • the CPU 301 executes various processes in response to a command input from the input unit 306, and outputs a processing result to the output unit 307, for example.
  • the storage unit 308 connected to the input / output interface 305 includes, for example, a hard disk and stores programs executed by the CPU 301 and various data.
  • the communication unit 309 functions as a data communication transmission / reception unit via a network such as the Internet or a local area network, and further as a broadcast wave transmission / reception unit, and communicates with an external device.
  • the drive 310 connected to the input / output interface 305 drives a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card, and executes data recording or reading.
  • a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card
  • the encoding or decoding of data can be executed as a process of the CPU 301 as a data processing unit, but a configuration including a codec as dedicated hardware for executing the encoding process or the decoding process may be adopted.
  • An information processing apparatus including a data processing unit that generates a viewpoint position heat map indicating a distribution state of a user's viewpoint position.
  • the data processing unit further includes: Obtaining gazing point position information of the contents of the plurality of users; The information processing apparatus according to (1), wherein a gaze position heat map indicating a distribution state of a user's gaze position is generated.
  • the data processing unit The information processing apparatus according to (2), wherein the gaze point position heat map is generated by calculating an intersection of a viewing direction of a user who views the content and a display object in the content as a gazing point position.
  • the content is free viewpoint video content that enables observation of video according to at least one of a viewpoint position and a line-of-sight direction,
  • the information processing apparatus according to any one of (1) to (3), wherein the data processing unit acquires viewpoint state information including the viewpoint position information based on a sensor output provided in a viewing device.
  • the viewpoint situation information is The information processing apparatus according to (4), which is information in which at least a viewpoint position and a line-of-sight direction for each user who views the content are recorded as time-series data.
  • the data processing unit Viewpoint heat map showing the distribution of the viewpoint position of content viewing users, or Gaze point heat map showing distribution of gaze point positions of content viewing users, Using at least one of the heat maps
  • the information processing apparatus according to any one of (1) to (6), wherein recommended viewpoint information including a viewpoint position with a high distribution rate or a gazing point position is generated.
  • the data processing unit The information processing apparatus according to (7), wherein the recommended viewpoint information is transmitted to a client on the content viewing side together with a free viewpoint video content that enables observation of a video according to at least one of a viewpoint position and a line-of-sight direction.
  • the data processing unit Viewpoint heat map showing the distribution of the viewpoint position of content viewing users, or Gaze point heat map showing distribution of gaze point positions of content viewing users, Using at least one of the heat maps
  • the information processing apparatus according to any one of (1) to (8), wherein scene change point information of content is generated.
  • the data processing unit The information according to (9) or (10), wherein the scene turning point information is transmitted to the client on the content viewing side together with the free viewpoint video content that enables observation of the video according to at least one of the viewpoint position and the line-of-sight direction. Processing equipment.
  • the data processing unit Using the gazing point position heat map indicating the distribution state of the gazing point position of the content viewing user, the advertising fee corresponding to the content area is set, and the advertisement output control according to the set advertising fee is executed (1) to ( 11) The information processing apparatus according to any one of the above.
  • the data processing unit Based on the gazing point position heat map, generate advertisement rank stipulation information that increases the advertising fee of the content area with a high gazing point distribution rate, The information processing apparatus according to (12), wherein advertisement output control is executed using the generated advertisement rank regulation information.
  • the data processing unit Using the gazing point position heat map indicating the distribution state of the gazing point position of the content viewing user, the encoding control content generated by executing the encoding control corresponding to the content area is transmitted to the content viewing side client (1).
  • the information processing apparatus according to any one of (13).
  • the data processing unit Viewpoint heat map showing the distribution of the viewpoint position of content viewing users, or Gaze point heat map showing distribution of gaze point positions of content viewing users, Using at least one of the heat maps
  • the information processing apparatus according to any one of (1) to (14), which executes charging processing for each content area.
  • An information processing system having a server and a client,
  • the server Send free viewpoint video content that enables observation of video according to at least one of the viewpoint position and the line-of-sight direction to the client,
  • the client Generate viewing status information having time-series data of the viewpoint position and the line-of-sight direction of the user viewing the content, and send it to the server.
  • the server receives viewing status information from multiple clients, Viewpoint heat map showing the distribution of the viewpoint position of content viewing users, or Gaze point heat map showing distribution of gaze point positions of content viewing users, An information processing system that generates a heat map of at least one of the above.
  • a process of receiving and displaying free viewpoint video content that enables observation of video according to at least one of the viewpoint position and the line-of-sight direction from the server, and An information processing apparatus that generates viewing state information including time-series data of a viewpoint position and a line-of-sight direction of a user who views the free viewpoint video content and transmits the information to a server.
  • a program for executing information processing in an information processing apparatus In the data processing unit of the information processing apparatus, A process of acquiring viewpoint position information of a plurality of users who view content; A program for executing processing for generating a viewpoint position heat map indicating a distribution state of a user's viewpoint position.
  • the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • the viewpoint position heat map indicating the distribution status of the viewpoint position of the content viewing user is generated, and the distribution control of the content and advertisement using the heat map is performed.
  • the server transmits, to the client, free viewpoint video content that enables observation of video according to the viewpoint position and the line-of-sight direction.
  • the client generates viewing status information having time-series data of the content viewing user's viewpoint position and line-of-sight direction, and transmits it to the server.
  • the server receives viewing status information from a plurality of clients, and generates a viewpoint position heat map indicating the viewing user's viewpoint position distribution status and a gazing point position heat map indicating the viewing user's gazing point position distribution status. Furthermore, content distribution control, advertisement distribution control, and the like according to the heat map are executed. With this configuration, a configuration is realized in which a viewpoint position heat map indicating the distribution of viewpoint positions of content viewing users is generated and content and advertisement distribution control using the heat map is enabled.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Databases & Information Systems (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

コンテンツ視聴ユーザの視点位置の分布状況を示す視点位置ヒートマップを生成し、ヒートマップを利用したコンテンツや広告の配信制御を可能とする。サーバは、視点位置や視線方向に応じた映像を観察可能とした自由視点映像コンテンツをクライアントに送信する。クライアントはコンテンツ視聴ユーザの視点位置と視線方向の時系列データを有する視聴状況情報を生成してサーバに送信する。サーバは、複数クライアントから視聴状況情報を受信し、視聴ユーザの視点位置分布状況を示す視点位置ヒートマップと、視聴ユーザの注視点位置分布状況を示す注視点位置ヒートマップを生成する。さらに、ヒートマップに応じたコンテンツの配信制御、広告の配信制御等を実行する。

Description

情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
 本開示は、情報処理装置、情報処理システム、および情報処理方法、並びにプログラムに関する。さらに詳細には、全天球映像や全方位映像、あるいはパノラマ映像等、様々な方向の映像を観察可能な自由視点映像に対するユーザの観察位置情報等を取得して、視聴者に提供する映像の制御等を行う情報処理装置、情報処理システム、および情報処理方法、並びにプログラムに関する。
 全天球映像や全方位映像、あるいはパノラマ映像等、様々な方向の画像をPCや、タブレット端末、携帯端末、あるいはヘッド・マウント・ディスプレイ(HMD)等の表示部に表示し、ユーザによる選択画像、あるいはユーザの向きに応じて自動選択された映像を観察可能としたシステムが広く利用されている。
 なお、ユーザの選択した様々な方向の映像を提示可能とした映像を「自由視点映像」と呼ぶ。
 例えば、PC等において、周囲360度の全方位映像の映像(動画像)データを外部サーバから取得、あるいは記録メディアから読み出して表示装置に表示させることができる。ユーザは、任意方向の映像を選択して表示装置に表示可能であり、自由に視点を変えて動画像や静止画等の画像を観察することができる。
 PCやタブレット端末、あるいは携帯端末の表示部に表示した映像は、ユーザによるマウス操作、あるいはタッチパネルに対するスライド処理や、フリック処理などによって観察方向を移動させて表示可能であり、ユーザは、容易に様々な方向の映像を楽しむことができる。
 ヘッド・マウント・ディスプレイ(HMD)に映像を表示する場合は、HMDに搭載した頭部の動きや方向を検出するセンサ情報に応じて、ユーザの頭の向きに応じた映像を表示可能であり、ユーザは、あたかもHMDの表示部に表示された映像の中に存在しているような感覚を味わうことができる。
 このような自由視点映像は、ユーザ操作等によって観察映像を切り替えることが可能であるため、多くのユーザが観察される映像領域と、ほとんど観察されない映像領域が発生することがある。
 すなわち、視聴率の高い映像領域と視聴率の低い映像領域が存在する。
 このような自由視点映像固有の特徴に基づくデータ解析として、例えば、視聴率の高い映像領域等を解析する処理が可能であり、この解析結果を利用すれば、より効果的なコンテンツの提供処理や広告の提供処理、あるいは課金処理等を行うことが可能になる。
 特許文献1(特開2013-183209号公報「多視点映像ストリーム視聴システムおよび方法」)は、複数の映像ストリームのどのストリームを見るかを視聴者が任意に選択、切り替え可能なシステムにおいて、視点切り替え操作を記録することで、人気のある画像や映像を解析する構成を開示している。
 また、特許文献2(特開2013-255210号公報「映像表示方法、映像表示装置および映像表示プログラム」)は、視聴者がパノラマ映像の所望の領域を選択して視聴可能なコンテンツを提供するシステムにおいて、視聴者の領域選択情報を記録して、同じ映像を再度視聴する際に、過去の選択領域を表示する構成を開示している。
 なお、自由視点映像にも複数の異なる種類の映像がある。従来型の多視点映像、パノラマ映像や全天球映像などの多くは、視点位置を固定し、向きのみを変更可能な構成としたものが多い。
 このようなコンテンツでは、視聴者が映像のどの部分を見ているかの解析を行う場合、向きのみを解析すればよい。
 しかし、昨今、例えばHMD(ヘッド・マウント・ディスプレイ)に対する表示映像のような視点位置と視点方向の両方を変更可能な自由視点映像の利用が進んでいる。
 このような視点位置と視点方向の両方を変更可能な自由視点映像についての視聴領域解析を行うためには、視聴者がどの視点位置からどの方向を見ていたかの時系列情報が必要となる。しかし、このような解析処理については明確な手法が確立されていないというのが現状である。
特開2013-183209号公報 特開2013-255210号公報
 本開示は、例えば上記問題点に鑑みてなされたものであり、全天球映像や全方位映像、あるいはパノラマ映像等、様々な方向の映像を観察可能な自由視点映像に対するユーザの観察位置情報等を取得し、解析する情報処理装置、情報処理システム、および情報処理方法、並びにプログラムを提供することを目的とする。
 また、本開示の一実施例においては、例えばHMD(ヘッド・マウント・ディスプレイ)に対する表示映像のように視点位置と視点方向の両方を変更可能な自由視点映像について、視聴者が観察している画像領域の時系列視聴情報を取得、解析し、解析結果に応じて提供映像の制御等を行う情報処理装置、情報処理システム、および情報処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 コンテンツを視聴する複数ユーザの視点位置情報を取得し、
 ユーザの視点位置の分布状況を示す視点位置ヒートマップを生成するデータ処理部を有する情報処理装置。
 さらに、本開示の第2の側面は、
 サーバとクライアントを有する情報処理システムであり、
 前記サーバは、
 視点位置、または視線方向の少なくともいずれかに応じた映像を観察可能とした自由視点映像コンテンツを前記クライアントに送信し、
 前記クライアントは、
 コンテンツを視聴するユーザの視点位置と視線方向の時系列データを有する視聴状況情報を生成してサーバに送信し、
 サーバは、複数のクライアントから視聴状況情報を受信し、
 コンテンツ視聴ユーザの視点位置の分布状況を示す視点位置ヒートマップ、または、
 コンテンツ視聴ユーザの注視点位置の分布状況を示す注視点位置ヒートマップ、
 の少なくともいずれかのヒートマップを生成する情報処理システムにある。
 さらに、本開示の第3の側面は、
 視点位置、または視線方向の少なくともいずれかに応じた映像を観察可能とした自由視点映像コンテンツをサーバから受信して表示する処理を実行し、さらに、
 前記自由視点映像コンテンツを視聴するユーザの視点位置と視線方向の時系列データを含む視聴状況情報を生成してサーバに送信する情報処理装置にある。
 さらに、本開示の第4の側面は、
 情報処理装置において、情報処理を実行する情報処理方法であり、
 前記情報処理装置のデータ処理部が、
 コンテンツを視聴する複数ユーザの視点位置情報を取得し、
 ユーザの視点位置の分布状況を示す視点位置ヒートマップを生成する情報処理方法にある。
 さらに、本開示の第5の側面は、
 情報処理装置において、情報処理を実行させるプログラムであり、
 前記情報処理装置のデータ処理部に、
 コンテンツを視聴する複数ユーザの視点位置情報を取得する処理と、
 ユーザの視点位置の分布状況を示す視点位置ヒートマップを生成する処理を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、コンテンツ視聴ユーザの視点位置の分布状況を示す視点位置ヒートマップを生成し、ヒートマップを利用したコンテンツや広告の配信制御を可能とする構成が実現される。
 具体的には、例えば、サーバは、視点位置や視線方向に応じた映像を観察可能とした自由視点映像コンテンツをクライアントに送信する。クライアントはコンテンツ視聴ユーザの視点位置と視線方向の時系列データを有する視聴状況情報を生成してサーバに送信する。サーバは、複数クライアントから視聴状況情報を受信し、視聴ユーザの視点位置分布状況を示す視点位置ヒートマップと、視聴ユーザの注視点位置分布状況を示す注視点位置ヒートマップを生成する。さらに、ヒートマップに応じたコンテンツの配信制御、広告の配信制御等を実行する。
 本構成により、コンテンツ視聴ユーザの視点位置の分布状況を示す視点位置ヒートマップを生成し、ヒートマップを利用したコンテンツや広告の配信制御を可能とする構成が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
情報処理システムの一構成例について説明する図である。 視聴デバイスの利用例について説明する図である。 視聴状況情報のデータ例について説明する図である。 視聴状況情報のデータの具体例について説明する図である。 注視点について説明する図である。 注視点位置ヒートマップの一例について説明する図である。 三次元ヒートマップの構成例について説明する図である。 頭部位置(視点位置)ヒートマップの一例について説明する図である。 頭部位置(視点位置)ヒートマップの生成シーケンスについて説明するフローチャートを示す図である。 頭部位置(視点位置)ヒートマップの生成シーケンスについて説明するフローチャートを示す図である。 頭部位置(視点位置)ヒートマップの具体例について説明する図である。 注視点位置ヒートマップの生成シーケンスについて説明するフローチャートを示す図である。 注視点位置ヒートマップの生成シーケンスについて説明するフローチャートを示す図である。 注視点位置ヒートマップの具体例について説明する図である。 情報処理システムの一構成例について説明する図である。 視聴デバイスの一例について説明する図である。 推奨視点情報の一例について説明する図である。 視聴デバイスの視点制御モードの切り替え処理例について説明する図である。 推奨視点情報を利用した処理シーケンスについて説明するフローチャートを示す図である。 推奨視点情報を利用した処理シーケンスについて説明するフローチャートを示す図である。 情報処理システムの一構成例について説明する図である。 シーン転換点情報の一例について説明する図である。 シーン転換点情報を利用した処理シーケンスについて説明するフローチャートを示す図である。 シーン転換点情報を利用した処理シーケンスについて説明するフローチャートを示す図である。 広告ランク規定リストの一例について説明する図である。 広告データベース格納データの一例について説明する図である。 情報処理システムの一構成例について説明する図である。 広告提供処理のシーケンスについて説明するフローチャートを示す図である。 情報処理システムの一構成例について説明する図である。 エンコード制御コンテンツを利用した処理シーケンスについて説明するフローチャートを示す図である。 エンコード制御コンテンツを利用した処理シーケンスについて説明するフローチャートを示す図である。 課金設定データの例について説明する図である。 情報処理システムの一構成例について説明する図である。 課金処理を実行する場合の処理シーケンスについて説明するフローチャートを示す図である。 情報処理システムの一構成例について説明する図である。 情報処理装置のハードウェア構成例について説明する図である。
 以下、図面を参照しながら本開示の情報処理装置、情報処理システム、および情報処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.本開示の情報処理システムの実行する処理の概要について
 2-(a).注視点位置ヒートマップと、頭部位置ヒートマップを生成する実施例について
 2-(b).推奨視点情報の提供と推奨視点情報に基づく表示制御を実行する実施例について
 2-(c).コンテンツの自動チャプタ分割処理を実行する実施例について
 2-(d).広告表示制御を実行する実施例について
 2-(e).注目度に応じた画質制御を実行する実施例について
 2-(f).視聴状況の解析結果に基づく課金処理を実行する実施例について
 2-(g).コンサートや映画などの観客の注目領域を解析する実施例について
 3.情報処理装置のハードウェア構成例について
 4.本開示の構成のまとめ
  [1.本開示の情報処理システムの実行する処理の概要について]
 まず、本開示の情報処理システムの実行する処理の概要について説明する。
 前述したように、全天球映像や全方位映像、あるいはパノラマ映像等、様々な方向の映像をPCや、タブレット端末、携帯端末、あるいはヘッド・マウント・ディスプレイ(HMD)等の表示部に表示し、ユーザによる選択映像、あるいはユーザの向きに応じて自動選択された映像を観察可能としたシステムが広く利用されている。
 なお、前述したように、ユーザの選択した様々な方向の映像を提示可能とした映像を「自由視点映像」と呼ぶ。
 本開示の情報処理システムにおいて視聴者に提供する映像コンテンツは、視聴者が視点の位置と向きを自由に指定できるコンテンツである。
 なお、コンテンツは例えばストリーミング配信されるライブコンテンツや、予めダウンロード、あるいはメディア(情報記録媒体)に記録されて配布される録画コンテンツいずれでもよい。
 本開示の情報処理システムでは、視点位置または視線方向の少なくともいずれかに応じた映像を観察可能な自由視点映像コンテンツを、クライアント(視聴者側の情報処理装置)で再生する際に、クライアントは、視聴者がどの位置からどの方向を見ているかの情報(視聴状況情報)を時系列情報として記録する。
 クライアント(視聴者側の情報処理装置)が記録した「視聴状況情報」は、リアルタイムまたは後でまとめてデータ解析処理を行う情報処理装置(サーバ)に送信される。
 サーバは、多くのクライアント(視聴者側装置)から受信した視聴状況情報をデータベースに格納する。
 サーバは、データベースに蓄積された視聴状況情報を解析し、各時刻における視線者の視聴位置(頭部位置)や視線方向、あるいは視聴領域情報であるFoV(Field of View)等の統計情報を取得する。
 さらに、この統計情報に基づいて、
 (1)コンテンツのどの位置が多く見られているかの注視点情報
 (2)コンテンツに対する視聴者の頭部位置(視点位置)情報、
 これらの各情報を即座に把握できるマップ、具体的には、三次元ヒートマップを生成する。
 サーバは、同じコンテンツを視聴している多数の視聴者から、例えばネットワークを介して視聴状況情報を受信し、解析処理を行う。
 本開示のサーバ等の情報処理装置、あるいは情報処理システムの実行する処理は、例えば以下の処理である。
 (a)注視点位置ヒートマップと、頭部位置ヒートマップの生成
 コンテンツの視聴領域、ユーザの視点位置(頭部位置)の統計情報を把握できるヒートマップを生成する。
 (b)推奨視点情報の提供と推奨視点情報に基づく表示制御の実行
 視聴状況の解析結果に基づいて、各時刻において最も人気のある視点位置と視線方向の映像領域からなるコンテンツを自動表示する。
 このコンテンツ制御により、多くの視聴者の高い映像等を優先的に提供することができる。
 (c)コンテンツの自動チャプタ分割処理の実行
 具体的には、視聴状況の解析結果、例えばヒートマップの時系列変化の度合いに基づいて、シーン転換点を検出し、このシーン転換点をチャプタの切り替え点として設定する。
 (d)広告表示制御の実行
 具体的には、視聴状況の解析結果、例えばヒートマップに基づいて、コンテンツ中で視聴者が注目した映像領域を抽出し、自由視点映像における映像領域単位の「視聴率」を求め、視聴率に基づいて以下の処理を行う。
 コンテンツに広告を重畳して提供する場合、視聴率をベースに広告料を自動算出する。
 (e)注目度に応じた画質制御を実行する。
 具体的には、視聴状況の解析結果に基づいて、例えば、エンコードビットレートを制御する。ヒートマップに基づいて、注目度の高いオブジェクトのテクスチャをより高いビットレートでエンコードし、逆にあまり注目されていないオブジェクトのテクスチャを低ビットレートでエンコードするといったエンコード制御を実行する。
 (f)視聴状況の解析結果に基づく課金処理を実行する。
 ヒートマップに基づいて映像領域単位の視聴率を算出し、視聴率の高い人気のある画像領域の再生には高額な課金を行い、逆に人気のない映像領域の再生は低額課金とする。コンテンツの視聴料金の設定を自動化する。
 (g)コンサートや映画などの観客の注目領域を解析する。
 コンサートや映画などの観客に、視線検出用の器具(HMDなど)を装着させて、観客の視線情報等を取得して解析する。
 本開示のサーバ等の情報処理装置や情報処理システムは、例えば上述の(a)~(g)の各処理を実行する。
 以下、上述の実施例(a)~(g)の処理を実行するための具体的な構成例と処理例について、順次説明する。
  [2-(a).注視点位置ヒートマップと、頭部位置ヒートマップを生成する実施例について]
 まず、コンテンツ視聴状況の解析情報としての注視点位置ヒートマップと、頭部位置ヒートマップを生成する実施例について説明する。
 以下に説明する処理は、コンテンツの視聴領域、ユーザの視点位置(頭部位置)の統計情報を把握できるヒートマップを生成する処理である。
 図1は、本開示の情報処理システムの一構成例を示す図である。
 ユーザ(コンテンツ視聴者)10は、視聴デバイス20を装着する。視聴デバイス20は、例えばHDM(ヘッド・マウント・ディスプレイ)である。
 視聴デバイス20には、ユーザ10の向き、視線方向に応じた映像が表示される。
 すなわち、全天球映像や全方位映像、あるいはパノラマ映像等、様々な方向映像を提示可能とした「自由視点映像」が表示される。
 視聴デバイス20はユーザ(視聴者)10の位置や向き(頭部位置と方向)を検出するセンサ、さらに、ユーザ10の視線を検出するセンサを搭載している。
 ユーザ10の位置や向き(頭部位置と方向)を検出するセンサは、例えば、ジャイロ、ステレオカメラ等の既存のセンサによって構成される。
 ユーザ10の視線を検出するセンサについても、例えば瞳孔角膜反射法などを用いた既存の視線検出センサが利用可能である。
 視線検出センサは、例えば、左右の眼球の回転中心位置と視軸の向き(および頭部姿勢)からユーザ10の視線方向を検出する。
 なお、単にヘッドトラッキングで頭部の姿勢を検出し、頭部前方方向を視線方向として判断するセンサを用いてもよい。
 この場合、頭部前方方向と、視線方向は一致することになる。
 視聴デバイス20の搭載センサが検出したユーザの位置(頭部位置)と視線方向の情報は、視聴デバイス20から逐次PC21に送信される。
 視聴デバイス20は、例えば、ユーザ(視聴者)10が自由視点映像を両眼で立体画像として視聴できる3Dディスプレイを搭載する。
 視聴デバイス20のディスプレイにはPC21によるレンダリング画像(動画)が表示される。
 PC21は、ネットワーク36を介して自由視点映像配信サーバ30から提供される自由視点映像のコンテンツ51を受信し、視聴デバイス20に表示する画像領域を切り出して視聴デバイス20に出力してディスプレイに表示させる。
 なお、図1では、ユーザ(視聴者)10、視聴デバイス20、PC21を、各々1つのみ示しているが、ネットワーク36には、多数のPC21が接続され、多数のユーザ(視聴者)が、視聴デバイス20を利用してコンテンツ51を視聴している。
 また、ユーザ(視聴者)10側においてコンテンツ出力を行う表示装置としては、HMDに限らず、例えばPC、テレビ、スマホ等の携帯端末等も利用可能である。
 PC21による画像切り出し処理は、以下のように行われる。
 視聴デバイス20から受信した自己位置と、視聴デバイス20既定の視野角、すなわちFoV(Field of View)に従って、表示画像領域を特定し、特定した画像領域を自由視点映像配信サーバ30から提供される自由視点映像コンテンツ51から切り出して、視聴デバイス20に出力してディスプレイに表示させる。
 視聴デバイス20のディスプレイに表示された映像を観察するユーザ(視聴者)10は自分の頭部姿勢を変えることで、視聴の位置と方向を自由に制御できる。
 なお、自由視点映像配信サーバ30から提供されるコンテンツ51には、様々なメタデータが設定されている。
 メタデータには、例えば、表示画像の画像領域を規定する視錐台の規定情報が含まれる。視錐台を構成するユーザ側平面を構成する「nearクリップ」と、ユーザから離間した平面を構成する「farクリップ」の情報等がメタデータに含まれる。
 PC21のデータ処理部は、視聴デバイス20既定のFoVと、これらのメタデータを利用して、レンダリングに必要な視錐台を決定することができる。
 なお、視錐台と、「nearクリップ」、「farクリップ」の詳細については、図4を参照して後段でさらに説明する。
 前述したように、自由視点映像のコンテンツ51は、例えばネットワーク36を介して自由視点映像配信サーバ30からストリーミング配信される。
 自由視点映像のコンテンツ51は、例えば自由視点映像コンテンツデータベース31に格納されたコンテンツであり、自由視点映像配信サーバ30は、ネットワーク35を介して自由視点映像コンテンツデータベース31からコンテンツを読み出してユーザ(視聴者)10側のPC21に送信する。
 なお、ユーザ(視聴者)10と、コンテンツ51にはそれぞれ一意に定まる視聴者IDとコンテンツIDが割り当てられている。
 PC21は、コンテンツ51の再生中の各時刻におけるユーザ(視聴者)10の頭部位置(視点位置)と姿勢(頭部前方方向、頭部上部方向)、視線方向、FoVを記録し、視聴状況情報52を生成して、視聴状況情報収集サーバ40に逐次送信する。
 視聴状況情報収集サーバ40は、ネットワーク36を介してPC21から視聴状況情報52を受信し、受信した視聴状況情報52をネットワーク35によって接続された視聴情報記録データベース41に視聴情報を保存、記録する。
 図2は、視聴デバイス20を装着したユーザ(視聴者)と、視聴デバイス20のディスプレイに対する表示画像の例を示す図である。
 視聴デバイス20のディスプレイには、視聴デバイス20に搭載した頭部の動きや方向に応じた画像が表示される。この画像はPC21によるレンダリング画像である。
 この画像表示制御により、ユーザは、あたかも視聴デバイス20の表示部に表示された画像の中に存在しているような感覚を味わうことができる。
 視聴デバイス20を装着したユーザ(視聴者)10が右を向いたときの画像が表示画像Pである。
 視聴デバイス20を装着したユーザ(視聴者)10が左を向いたときの画像が表示画像Qである。
 視聴デバイス20を装着したユーザ(視聴者)10は、体(頭)の向きを変更することで、周囲360度の画像を観察することができる。
 次に、図3を参照して、視聴デバイス20と接続されたPC21が生成し、視聴状況情報収集サーバ40に送信する視聴状況情報52の詳細データ構成について説明する。
 先に図1を参照して説明したように、視聴デバイス20の搭載センサが検出したユーザの頭部位置(視点位置)と視線方向の情報は、視聴デバイス20から逐次PC21に送信される。
 PC21は、コンテンツ51の再生中の各時刻におけるユーザ(視聴者)10の頭部位置(視点位置)と姿勢(頭部前方方向、頭部頭上方向)、視線方向、FoVを記録し、視聴状況情報52を生成して、視聴状況情報収集サーバ40に逐次送信する。
 図3に示すデータは、PC21の生成する視聴状況情報52のデータの一例である。
 図3には、2人のユーザ(視聴者)A,Bの視聴状況情報52のデータ例(1),(2)を示している。
 視聴状況情報収集サーバ40は、多数のユーザの視聴状況情報52を、ネットワークを介して収集して視聴情報記録データベース41に格納する。
 図3に示すように、視聴状況情報52には、視聴デバイス20のディスプレイに表示されるコンテンツの再生期間中の各時刻について、視聴者ID、コンテンツID、頭部位置(視点位置)、頭部前方方向、頭部頭上方向、視線方向、FoVが記録される。
 なお、先に説明したように、単にヘッドトラッキングで頭部の姿勢を検出し、頭部前方方向を視線方向として判断するセンサを用いることも可能であり、この場合、頭部前方方向と、視線方向は一致することになる。
 なお、後述するヒートマップの生成処理等においては、視聴状況情報に「視線方向」データがあれば、このデータを「視線方向」データとして利用し、無い場合は、「頭部前方方向」を「視線方向」データとして利用することが可能である。
 視聴者IDは、視聴者の識別子であり、例えばコンテンツ51の管理者である自由視点映像配信サーバ30や、視聴情報収集サーバ40の運営者や管理者によって、コンテンツを視聴するユーザ(視聴者)ごとに付与される。
 コンテンツIDは、コンテンツの識別子である。例えばコンテンツ51の管理者である自由視点映像配信サーバ30や、視聴情報収集サーバ40の運営者や管理者によって、提供コンテンツの各々に設定される。
 自由視点映像配信サーバ30や、視聴情報収集サーバ40の運営者であるコンテンツ管理者は、ユーザIDを記録したユーザリストを保持しており、さらに、ユーザID単位の視聴履歴情報として、各ユーザが視聴したコンテンツのコンテンツIDを記録したリストを保持する。
 頭部位置(視点位置)、頭部前方方向、頭部頭上方向、視線方向、FoV、これらの情報は、PC21が、ユーザ(視聴者)10の装着した視聴デバイス20から入力するセンサ情報等に基づいて取得、または算出可能なデータである。
 頭部位置(視点位置)データは、xyz三次元空間における位置情報を示すxyzの座標情報からなる。
 頭部前方方向、頭部頭上方向、視線方向、これらの方向情報は、xyz三次元空間における方向を示す方向ベクトル(単位ベクトル)のxyzの値によって構成される。
 FoVは、前述したように、視聴デバイス20既定の視野角、すなわちFoV(Field of View)であり、FoVの規定ボックスとして設定される視錐台の上面の広がり角度と、側面の広がり角度情報から構成される。
 図3に示す例では、FoVとして、データ[30×20]が記録されているが、これは、FoVの規定ボックスとして設定される視錐台の上面の広がり角度=30°、側面の広がり角度=20°であることを示す。
 図4を参照して、頭部位置(視点位置)、頭部前方方向、頭部頭上方向、視線方向、FoV、これらのデータについて説明する。
 頭部位置(視点位置)、頭部前方方向、頭部頭上方向、視線方向、FoV、これらの位置と方向情報に適用する座標系は、視聴デバイス20に表示される自由視点映像コンテンツに予め設定された図4左下に示す自由視点映像コンテンツ座標系とする。
 ただし、これらのデータは、視聴デバイス20のセンサ情報に基づいてPC21が算出する。
 PC21が、視聴デバイス20に対して、自由視点映像コンテンツとともに自由視点映像コンテンツ座標系情報を出力し、視聴デバイス20が、センサ情報として、自由視点映像コンテンツ座標系に従った位置情報や方向情報を有するセンサ情報をPC21に出力する場合は、PC21は、このセンサ情報をそのまま適用して図3に示す視聴状況情報として記録することができる。
 一方、視聴デバイス20が独自の座標系、例えば、視聴デバイス20を装着したユーザ(視聴者)の頭部位置を基準位置(原点)とした視聴者頭部座標系等を適用したセンサ情報としての位置情報や方向情報を出力する場合は、PC21は、視聴デバイス20から入力するセンサ情報を、コンテンツ固有の座標系である自由視点映像コンテンツ座標系に変換して、図3に示す視聴状況情報に記録する。
 図4には、頭部位置(視点位置)、頭部前方方向、頭部頭上方向、視線方向、FoV、これらの各データを、視聴者頭部座標系に従ったデータとして示している。
 図4に示すように、ユーザ(視聴者)の左右両眼球の中心位置Pを、視聴者頭部座標系の原点Oに設定する。この左右両眼球の中心位置Pが頭部位置P(=視点位置P)とする。
 頭部前方方向は視聴者頭部座標系のZ軸方向であり、頭部上方向が視聴者頭部座標系のY軸方向である。
 図4に示すFoV(視錐台)は、ユーザ(視聴者)10の装着した視聴デバイス20既定の視野角に相当し、このFoV(視錐台)の範囲のコンテンツ領域がユーザ(視聴者)10の視聴領域に相当する画像領域であ。
 このFoV(視錐台)は、ユーザ(視聴者)10の頭部前方方向(Z軸)を中心とした四角錐形状のボックスとして規定される。
 四角錐形状のFoV(視錐台)のユーザ視点に近い側の平面を「Nearクリップ」、ユーザ視点に遠い側の平面を「Farクリップ」と呼ぶ。
 先に説明したように、図3に示す視聴状況情報52中のFoVデータとして、
 「30×20」
 上記データが記録されている。
 30は、四角錐形状のFoV(視錐台)を上面から見たときの「Nearクリップ」から「Farクリップ」へ延びる線(辺)の原点P(頭部位置P(=視点位置P))からの広がり角度が30度であることを意味する。
 20は、四角錐形状のFoV(視錐台)を側面から見たときの「Nearクリップ」から「Farクリップ」へ延びる線(辺)の原点P(頭部位置P(=視点位置P))からの広がり角度が20度であることを意味する。
 図4に示す例は、「頭部位置(視点位置)」、「頭部前方方向」、「頭部頭上方向」、「視線方向」の各データを、視聴者頭部座標系に従って示している。ユーザ(視聴者)10の装着した視聴デバイス20から入力するセンサ情報が、この視聴者頭部座標系に従ったデータである場合、PC21は、視聴デバイス20から入力するセンサ情報を、コンテンツ固有の座標系である自由視点映像コンテンツ座標系に変換して、その変換データを図3に示す視聴状況情報52として記録する。
 PC21は、図3に示す視聴状況情報52、すなわち、視聴デバイス20のディスプレイに表示されるコンテンツの再生期間中の各時刻について、視聴者ID、コンテンツID、頭部位置(視点位置)、頭部前方方向、頭部頭上方向、視線方向、FoVを記録した視聴状況情報52を生成して、視聴状況情報収集サーバ40に逐次送信する。
 視聴状況情報収集サーバ40は、多数のユーザの視聴状況情報52を、ネットワークを介して収集して視聴情報記録データベース41に格納する。
 視聴状況情報収集サーバ40、あるいは、自由視点映像配信サーバ30等のサーバ(情報処理装置)は、視聴情報記録データベース41に格納された視聴状況情報52を利用して、様々な解析情報を生成する。
 具体的には、例えば、コンテンツの注目領域に相当する注視点位置や、ユーザの視点位置(頭部位置)の統計情報を把握できるヒートマップを生成する。
 図5は、視聴情報記録データベース41に格納された視聴状況情報52を利用して取得することが可能なユーザ注視点、すなわち、自由視点映像コンテンツに対するユーザ(視聴者)の注視点を算出する処理例について説明する図である。
 図5に示すように、自由視点映像コンテンツに含まれるある1つの表示オブジェクト56と視聴者視線方向57の交点から視聴者が注視していた場所である注視点58を求めることができる。
 なお、図5は、ある再生時刻での自由視点コンテンツ座標系の平面射影データを表しているが、実際には三次元空間での線分とオブジェクトの交わりから、三次元座標系での注視点位置を算出することができる。
 また、図5には1人のユーザ(視聴者)の1つの注視点を算出する例を示しているが、例えばある同一コンテンツの同一再生時刻における多数の視聴ユーザの注視点情報を集積することで、多くのユーザ(視聴者)の注視点の分布状況を示すヒートマップを生成することが可能となる。
 図6は、視聴情報記録データベース41に格納された同一コンテンツの同一再生時刻における多数の視聴ユーザの注視点情報を利用して生成した多数ユーザ(視聴者)の注視点の分布状況を示すヒートマップの例である。
 図6には自由視点映像コンテンツに含まれる1つの表示オブジェクト56を中心としたコンテンツ表示領域を示している。
 図6に示す例は、視聴情報記録データベース41に格納された同一コンテンツの同一再生時刻の再生フレームにおける多数ユーザ(視聴者)の注視点の分布状況を示すヒートマップである。
 コンテンツの1つのフレームに含まれる映像空間に対応する三次元空間を既定の大きさの格子(例えば長さLの立方体)で分割し、各格子に含まれる注視点の個数に応じて格子を色(濃淡)分けする。
 例えば、格子に含まれる注視点の個数が多いほど、濃い色(例えば黒や濃い赤)に設定し、注視点の個数が少ないほど、薄い色(例えば薄いグレーやピンク)に設定する。格子に含まれる注視点の個数が0の場合は、白または透明に設定する。
 このように各格子を注視点数に応じて色分けすることで、一目でコンテンツの注目領域を判別可能としたヒートマップ、すなわち注目領域を可視化したヒートマップを生成することができる。
 なお、例えばディスプレイにヒートマップを表示する場合の各格子の色付け処理は、出力色の設定情報として利用可能なアルファチャンネル値を注視点数に応じて変更して出力色や出力濃度を調整することで実現できる。
 アルファチャンネルを用いた各格子の出力値調整処理の具体例について説明する。
 例えば、ある時刻tのフレームの格子kに含まれる注視点の個数n(k)と、そのフレーム内の注視点の総数Nを用いて、格子kのアルファチャンネル値をn(k)/Nとする。
 例えば、ある1つの格子に含まれる注視点の個数(=その格子を注視したユーザ数)が0の場合は、アルファチャネル値=0.0となり、格子の出力設定は透明(=白)となる。
 また、格子に含まれる注視点の個数(=その格子を注視したユーザ数)がNの場合は、アルファチャネル値=1.0となり、格子の出力設定は、不透明(=黒)となる。
 なお、図6に示す例は、各格子の出力設定の説明を理解しやすくするため、ヒートマップを2次元データとして示しているが、実際には三次元空間での線分とオブジェクトの交わりから、三次元座標系での注視点位置を算出可能であり、ヒートマップも三次元データとして生成、出力することができる。
 三次元データとしてのヒートマップを生成した場合の格子設定例を図7に示す。
 図7に示すように、X×Y×Zの三次元空間内に、一辺がLの立方体を配列した格子を生成する。
 この三次元空間内に配置された多数のL×L×Lの立方体単位で、注視点数をカウントして、注視点数の多い格子を濃い色や黒に近い色で塗りつぶして出力し、注視点数が少ない格子を薄い色や白に近い色で塗りつぶして出力する。
 このように、視聴情報記録データベース41に格納された同一コンテンツの同一再生時刻における多数の視聴ユーザの注視点情報を利用することで、注視点の多い画像領域を一目で把握可能なヒートマップを、図7に示すような三次元データとして生成して出力することができる。
 図6を参照して説明したヒートマップは、ユーザ(視聴者)がコンテンツのどこを見ているかを示す注視点位置を表したヒートマップであるが、図3に示す視聴状況情報の記録データを用いることで、ユーザ(視聴者)の頭部位置(視点位置)のヒートマップを生成することも可能である。
 図8は、ユーザ(視聴者)の頭部位置(視点位置)のヒートマップの構成例である。
 図8は、先に説明した図6と同様、視聴情報記録データベース41に格納された同一コンテンツの同一再生時刻における多数の視聴ユーザの注視点情報を利用して生成した多数ユーザ(視聴者)の頭部位置(視点位置)の分布状況を示すヒートマップの例である。
 図8には自由視点映像コンテンツに含まれる1つの表示オブジェクト56を中心とした領域を示している。
 図8に示す例は、視聴情報記録データベース41に格納された同一コンテンツの同一再生時刻の再生フレームにおける多数ユーザ(視聴者)の頭部位置の分布状況を示すヒートマップである。
 三次元空間を既定の大きさの格子(例えば長さLの立方体)で分割し、各格子に含まれる頭部位置の個数に応じて格子を色(濃淡)分けする。
 例えば、格子に含まれる頭部位置(視点位置)の個数が多いほど、濃い色(例えば黒や濃い赤)に設定し、頭部位置(視点位置)の個数が少ないほど、薄い色(例えば薄いグレーやピンク)に設定する。格子に含まれる頭部位置(視点位置)の個数が0の場合は、白または透明に設定する。
 このように各格子を頭部位置(視点位置)の数に応じて色分けすることで、一目でコンテンツを視聴しているユーザの頭部位置(視点位置)を判別可能としたヒートマップを生成することができる。
 なお、例えばディスプレイにヒートマップを表示する場合の各格子の色付け処理は、出力色の設定情報として利用可能なアルファチャンネル値を頭部位置(視点位置)数に応じて変更して出力色や出力濃度を調整することで実現できる。
 次に、図6を参照して説明した注視点位置ヒートマップ、図8を参照して説明した頭部位置(視点位置)ヒートマップの生成シーケンスについて、図9以下に示すフローチャートを参照して説明する。
 まず、図8を参照して説明した頭部位置(視点位置)ヒートマップの生成シーケンスについて、図9、図10に示すフローチャートを参照して説明する。
 なお、図9、図10に示すフローチャートに従った頭部位置(視点位置)ヒートマップの生成処理は、図1に示す自由視点映像配信サーバ30、視聴情報収集サーバ40のいずれかの情報処理装置において実行することができる。
 自由視点映像配信サーバ30、視聴情報収集サーバ40等の情報処理装置はプログラム実行機能を持つCPUを備えたデータ処理部を有し、データ処理部の制御下で図9、図10に示すフローチャートに従った処理が実行される。なお、情報処理装置のハードウェア構成例については後段で説明する。
 以下、図9、図10に示すフローチャートの各ステップの処理について説明する。
  (ステップS101)
 情報処理装置のデータ処理部は、ステップS101において、自由視点映像コンテンツから、頭部位置(視点位置)ヒートマップの生成処理対象フレームである解析フレームの初期設定を行う。具体的には、解析フレーム時間:t=0に設定する。
 これは、自由視点映像コンテンツの最初のフレームを解析対象フレームとして選択する処理に相当する。
  (ステップS102)
 次に、情報処理装置のデータ処理部は、ステップS102において、一辺の長さLの立方体格子要素によって構成される三次元ボックス(X×Y×Z)の格子要素単位の頭部位置情報を保持するための三次元配列カウンタAh[x][y][z]の値を全て0とする初期化処理を実行する。
 ヒートマップは、図7を参照して説明した三次元構成を持つ。
 図7に示すように、L×L×Lの格子要素からなるX×Y×Zの大きさの三次元ボックスを設定する。
 L,X,Y,Zはコンテンツ毎に定義できる定数である。例えば、Lを1m、X=Y=Z=10と定義可能であり、この場合、ヒートマップを構成する三次元空間全体は、10m×10m×10mの設定であり、この中に1000個の1m×1m×1mの格子要素が設定されていることを意味する。
 L×L×Lの格子要素の各々は、座標情報(x,y,z)によって識別可能であり、この座標情報(x,y,z)によって特定される各格子要素に含まれる頭部位置(視点位置)の数をカウントする処理を行うことになる。このカウント値を保持するカウンタが、頭部位置情報保持三次元配列カウンタAh[x][y][z]である。
 ステップS102では、図7に示すX×Y×Zの大きさの三次元ボックス内のL×L×Lの格子要素のすべてのカウンタAh[x][y][z]の値を全て0とする初期化処理を実行する。
  (ステップS103)
 次に、情報処理装置のデータ処理部は、ステップS103において、解析対象コンテンツの解析フレーム時間tにおける全視聴情報から、頭部位置情報リスト{Ph(k)}を生成する。(k=0,1,・・・,n-1、ただし、n=リスト要素総数)
 この処理は、図3に示す視聴状況情報から頭部位置情報のみを取得して、頭部位置情報のみからなるリストを生成する処理である。
 図3に示す視聴状況情報は、多数のユーザ(視聴者)から取得されており、情報処理装置は、取得した多数のリストから頭部位置情報のみを取得して、頭部位置情報のみからなるリストである頭部位置情報リスト{Ph(k)}を生成する。
 kはリスト要素識別子であり、k=0,1,・・・,n-1である。
 n=リスト要素総数であり、視聴状況リスト送信側のコンテンツ視聴者であるユーザ数に対応する。
  (ステップS104)
 次に、情報処理装置のデータ処理部は、ステップS104において、頭部位置情報リストは空か否かを判定する。
 頭部位置情報リストにデータ(頭部位置情報)が無い場合は、ステップS113に進む。
 頭部位置情報リストにデータ(頭部位置情報)がある場合は、ステップS105に進む。
  (ステップS105)
 次に、情報処理装置のデータ処理部は、ステップS105において、頭部位置情報リスト{Ph(k)}のリスト要素識別子の値kをk=0に初期化する。
 この処理は、頭部位置情報リスト{Ph(k)}の処理対象とするリスト要素を先頭の要素に設定する初期化処理である。
  (ステップS106)
 次に、情報処理装置のデータ処理部は、ステップS106において、リスト要素識別子:kが、
 k<n
 上記判定式を満たすか否かを判定する。
 すなわち、リスト要素識別子:kが、リスト要素総数:nより小さいか否かを判定する。
 リスト要素識別子:kが、リスト要素総数:nに等しい場合、全てのリスト要素:k=0~n-1に対する処理が完了したことを意味し、この場合は、ステップS112に進む。
 一方、リスト要素識別子:kが、リスト要素総数:n未満である場合、全てのリスト要素:k=0~n-1に対する処理が完了しておらず、未処理のリスト要素があることを意味し、この場合は、ステップS107に進む。
  (ステップS107)
 次に、情報処理装置のデータ処理部は、ステップS107において、リスト要素識別子kの頭部位置情報{Ph(k)}を取得する。
 この頭部位置情報は、先に図3他を参照して説明したように、自由視点映像コンテンツ座標系に従った座標情報(Phx,Phy,Phz)として得られる。
  (ステップS108)
 次に、情報処理装置のデータ処理部は、ステップS108において、頭部位置情報{Ph(k)}の頭部位置座標(Phx,Phy,Phz)に基づいて、以下の(式1)に従って、x,y,zの各値を算出する。
 x=Ffloor(Phx/L),
 y=Ffloor(Phy/L),
 z=Ffloor(Phz/L),
            ・・・・(式1)
 なお、Ffloor(a)は、aの整数部を返す関数とする。
 上記(式1)は、リスト要素識別子kの頭部位置情報{Ph(k)}である座標情報(Phx,Phy,Phz)の位置が、図7に示すX×Y×Zのボックス内に多数設定されたL×L×Lの格子要素のどの格子要素に含まれるかを算出する式である。
 上記(式1)において例えば、x=y=z=0の算出結果が得られた場合、頭部位置情報{Ph(k)}の頭部位置座標(Phx,Phy,Phz)が含まれる格子要素は、図7に示すX×Y×Zのボックス内の原点に接した1つの格子要素であることを意味する。
 また、上記(式1)において例えば、x=5、y=z=0の算出結果が得られた場合、頭部位置情報{Ph(k)}の頭部位置座標(Phx,Phy,Phz)が含まれる格子要素は、図7に示すX×Y×Zのボックス内のX軸に沿って、原点から6番目の1つの格子要素であることを意味する。
 ステップS108では、このようにして、頭部位置情報{Ph(k)}の頭部位置座標(Phx,Phy,Phz)が、ヒットマップを構成する三次元ボックス内のどの格子要素に含まれるかを算出する。
 上記(式1)によって算出される(x,y,z)は、頭部位置情報{Ph(k)}の頭部位置座標(Phx,Phy,Phz)が含まれる格子要素の位置情報(識別子)となる。
  (ステップS109)
 次に、情報処理装置のデータ処理部は、ステップS109において、ステップS108で上記(式1)に従って算出した(x,y,z)、すなわち、頭部位置情報{Ph(k)}の頭部位置座標(Phx,Phy,Phz)が含まれる格子要素の位置情報(識別子)である(x,y,z)が以下の(式2)を満たすか否かを判定する。
 0≦x<X,かつ、0≦y<Y,かつ、0≦z<Z   ・・・(式2)
 X,Y,Zは、図7に示すヒートマップを規定する三次元ボックスの各辺の長さである。
 上記(式2)を満たす場合は、頭部位置座標(Phx,Phy,Phz)が含まれる格子要素の位置情報(識別子)である(x,y,z)の位置は、図7に示すヒートマップを規定する三次元ボックスの内部にあることになる。
 しかし、上記(式2)を満たしていない場合は、頭部位置座標(Phx,Phy,Phz)が含まれる格子要素の位置情報(識別子)である(x,y,z)の位置は、図7に示すヒートマップを規定する三次元ボックスの外部にあることになる。
 この場合は、ヒートマップの格子要素のカウンタ値(=頭部位置数)を増分させる処理ができない。
 従って、この場合は、ステップS110のカウンタ値の更新処理を省略して、ステップS111に進む。
  (ステップS110)
 ステップS110の処理は、ステップS109において、頭部位置情報{Ph(k)}の頭部位置座標(Phx,Phy,Phz)が含まれる格子要素の位置情報(識別子)である(x,y,z)が以下の(式2)を満たしたと判定した場合の処理である。
 0≦x<X,かつ、0≦y<Y,かつ、0≦z<Z   ・・・(式2)
 上記(式2)を満たす場合は、頭部位置座標(Phx,Phy,Phz)が含まれる格子要素の位置情報(識別子)である(x,y,z)の位置は、図7に示すヒートマップを規定する三次元ボックスの内部にあることになる。
 この場合、情報処理装置のデータ処理部は、ステップS110において、処理対象の頭部位置情報保持用三次元配列カウンタ:Ah[x][y][z]の更新処理として、カウンタ値を1つ増やす処理を実行する。すなわち、以下のカウンタ値更新処理を行う。
 Ah[x][y][z]=Ah[x][y][z]+1
 このカウンタ値更新処理によって、ステップS108で算出した頭部位置が属する格子要素である(x,y,z)のカウンタ:Ah[x][y][z]のカウント値が1つ増加され、一人のユーザ(視聴者)の頭部位置がこの格子要素内に含まれる設定としたカウントデータに更新される。
  (ステップS111)
 次に、情報処理装置のデータ処理部は、ステップS111において、頭部位置情報リスト{Ph(k)}からの処理対象のリスト要素を更新する処理を実行する。
 すなわち、リスト要素識別子kを、
 k=k+1
 とする更新処理を行う。
 この処理によって、頭部位置情報リスト{Ph(k)}の処理対象要素が、次の要素に設定される。
 このステップS111におけるリスト要素更新処理の後、新たな処理対象として設定されたリスト要素kに対して、ステップS106以下の処理を実行する。
 ステップS106において、
 k<n
 上記判定式が成立せず、頭部位置情報リストに登録されたn個のリスト要素すべての処理が完了したと判定すると、ステップS112に進む。
  (ステップS112)
 頭部位置情報リストに登録されたn個のリスト要素すべての処理が完了したと判定すると、情報処理装置のデータ処理部は、ステップS112において、一辺の長さLの立方体格子要素からなる頭部位置情報保持用三次元配列カウンタAh[x][y][z]の全格子要素の各値を、リスト要素総数nで割った値(ヒートマップ出力値)を算出する。
 この除算処理により、各格子要素に対応する頭部位置情報保持用三次元配列カウンタAh[x][y][z]の設定値は0~1の範囲の値に設定される。
 1つの格子要素に含まれる頭部位置の数は、最大でnであり、nによる除算処理によって、三次元配列カウンタAh[x][y][z]の設定値は0~1の範囲の値に設定される。
  (ステップS113)
 次に、情報処理装置のデータ処理部は、ステップS113において、解析フレーム時間:tにおける、更新後の頭部位置情報保持用三次元配列カウンタAh[x][y][z]の設定値(ヒートマップ出力値)をデータベースに保存する。
 また、例えばユーザの出力要求に応じて出力処理を実行する。
 なお、先に説明したように、例えばディスプレイにヒートマップを表示する場合の各格子の色付け処理は、出力色の設定情報として利用可能なアルファチャンネル値を三次元配列カウンタAh[x][y][z]の設定値に応じて変更して出力色や出力濃度を調整する。
 この処理によって、頭部位置が多い格子要素は、濃い色での出力がなされ、頭部位置が少ない格子要素は、薄い色での出力がなされ、一目で頭部位置のかたより具合を判別することが可能となる。
  (ステップS114)
 次に、情報処理装置のデータ処理部は、ステップS114において、解析フレーム時間:tが、コンテンツ構成フレームのフレーム最終時間であるか否かを判定する。
 解析フレーム時間:tが、コンテンツ構成フレームのフレーム最終時間である場合は、全フレームの処理が完了したと判定し、処理を終了する。
 一方、解析フレーム時間:tが、コンテンツ構成フレームのフレーム最終時間でない場合は、未処理フレームがあると判定し、ステップS115に進む。
  (ステップS115)
 ステップS114において、未処理フレームがあると判定した場合は、情報処理装置のデータ処理部は、ステップS115において、解析対象フレームのフレーム時間の更新処理を実行する。
 すなわち、解析対象フレームのフレーム時間:tを次のフレーム時間に更新する。
 この更新処理の後、ステップS103に戻り、未処理フレームについて、ステップS103以下の処理を実行する。
 ステップS114において、未処理フレームがないと判定されると、コンテンツの構成フレーム全てに対応す頭部位置ヒートマップが完成したことになり、処理を終了する。
 この図9、図10に示すフローチャートに従った処理を実行することで、図11(a)に示すようなデータが、フレーム単位データとして、データベースに格納され、このデータを利用することで、図11(b)に示すような頭部位置(視点位置)ヒートマップを出力することが可能となる。
 次に、図6を参照して説明した注視点位置ヒートマップの生成シーケンスについて、図12、図13に示すフローチャートを参照して説明する。
 なお、図12、図13に示すフローチャートに従った注視点位置ヒートマップの生成処理は、図1に示す自由視点映像配信サーバ30、視聴情報収集サーバ40のいずれかの情報処理装置において実行することができる。
 自由視点映像配信サーバ30、視聴情報収集サーバ40等の情報処理装置はプログラム実行機能を持つCPUを備えたデータ処理部を有し、データ処理部の制御下で図12、図13に示すフローチャートに従った処理が実行される。なお、情報処理装置のハードウェア構成例については後段で説明する。
 以下、図12、図13に示すフローチャートの各ステップの処理について説明する。
  (ステップS201)
 情報処理装置のデータ処理部は、ステップS201において、自由視点映像コンテンツから、注視点位置ヒートマップの生成処理対象フレームである解析フレームの初期設定を行う。具体的には、解析フレーム時間:t=0に設定する。
 これは、自由視点映像コンテンツの最初のフレームを解析対象フレームとして選択する処理に相当する。
  (ステップS202)
 次に、情報処理装置のデータ処理部は、ステップS202において、一辺の長さLの立方体格子要素によって構成される三次元ボックス(X×Y×Z)の格子要素単位の注視点位置情報を保持するための三次元配列カウンタAw[x][y][z]の値を全て0とする初期化処理を実行する。
 ヒートマップは、図7を参照して説明した三次元構成を持つ。
 図7に示すように、L×L×Lの格子要素からなるX×Y×Zの大きさの三次元ボックスを設定する。
 L,X,Y,Zはコンテンツ毎に定義できる定数である。例えば、Lを1m、X=Y=Z=10と定義可能であり、この場合、ヒートマップを構成する三次元空間全体は、10m×10m×10mの設定であり、この中に1000個の1m×1m×1mの格子要素が設定されていることを意味する。
 L×L×Lの格子要素の各々は、座標情報(x,y,z)によって識別可能であり、この座標情報(x,y,z)によって特定される各格子要素に含まれる注視点位置の数をカウントする処理を行うことになる。このカウント値を保持するカウンタが、注視点位置情報保持三次元配列カウンタAw[x][y][z]である。
 ステップS202では、図7に示すX×Y×Zの大きさの三次元ボックス内のL×L×Lの格子要素のすべてのカウンタAw[x][y][z]の値を全て0とする初期化処理を実行する。
  (ステップS203)
 次に、情報処理装置のデータ処理部は、ステップS203において、解析対象コンテンツの解析フレーム時間tにおける全視聴情報から、注視点位置情報リスト{Pw(k)}を生成する。(k=0,1,・・・,n-1、ただし、n=リスト要素総数)
 この処理は、図3に示す視聴状況情報のデータに基づいて、注視点位置情報のみからなるリストを生成する処理である。
 図3に示す視聴状況情報は、多数のユーザ(視聴者)から取得されており、情報処理装置は、取得した多数のリストのデータに基づいて注視点位置情報のみからなるリストである注視点位置情報リスト{Pw(k)}を生成する。
 kはリスト要素識別子であり、k=0,1,・・・,n-1である。
 n=リスト要素総数である。
 なお、図3に示す視聴状況情報のデータに基づく注視点位置の算出処理は、先に図5を参照して説明した処理に従って実行される。
 すなわち、視聴状況情報に含まれる頭部位置座標と視線方向から視線(半直線)を求める。さらに、この視線(半直線)と自由視点映像コンテンツに含まれるオブジェクトとの交点を求める。
 これらの交点のうち、FoVとnearクリップ、farクリップで表される視錐台に含まれる交点で、最も頭部位置に近い交点を選ぶ。
 この結果、選択された交点位置の座標データを注視点位置情報リスト{Pw(k)}に追加する。
 なお、オブジェクトとの交点がない場合や、視錐台に含まれる交点がなければ、注視点はなかったと判定し、リストには何も追加しない。
 このように視聴状況情報から注視点を求めリストに追加する処理を、すべての視聴状況情報について、繰り返し実行し、注視点位置情報のみからなるリストである注視点位置情報リスト{Pw(k)}を生成する。
  (ステップS204)
 次に、情報処理装置のデータ処理部は、ステップS204において、注視点位置情報リストは空か否かを判定する。
 注視点位置情報リストにデータ(注視点位置情報)が無い場合は、ステップS213に進む。
 注視点位置情報リストにデータ(注視点位置情報)がある場合は、ステップS205に進む。
  (ステップS205)
 次に、情報処理装置のデータ処理部は、ステップS205において、注視点位置情報リスト{Pw(k)}のリスト要素識別子の値kをk=0に初期化する。
 この処理は、注視点位置情報リスト{Pw(k)}の処理対象とするリスト要素を先頭の要素に設定する初期化処理である。
  (ステップS206)
 次に、情報処理装置のデータ処理部は、ステップS206において、リスト要素識別子:kが、
 k<n
 上記判定式を満たすか否かを判定する。
 すなわち、リスト要素識別子:kが、リスト要素総数:nより小さいか否かを判定する。
 リスト要素識別子:kが、リスト要素総数:nに等しい場合、全てのリスト要素:k=0~n-1に対する処理が完了したことを意味し、この場合は、ステップS212に進む。
 一方、リスト要素識別子:kが、リスト要素総数:n未満である場合、全てのリスト要素:k=0~n-1に対する処理が完了しておらず、未処理のリスト要素があることを意味し、この場合は、ステップS207に進む。
  (ステップS207)
 次に、情報処理装置のデータ処理部は、ステップS207において、リスト要素識別子kの注視点位置情報{Pw(k)}を取得する。
 この注視点位置情報は、先に図3他を参照して説明したように、自由視点映像コンテンツ座標系に従った座標情報(Pwx,Pwy,Pwz)として得られる。
  (ステップS208)
 次に、情報処理装置のデータ処理部は、ステップS208において、注視点位置情報{Pw(k)}の注視点位置座標(Pwx,Pwy,Pwz)に基づいて、以下の(式3)に従って、x,y,zの各値を算出する。
 x=Ffloor(Pwx/L),
 y=Ffloor(Pwy/L),
 z=Ffloor(Pwz/L),
            ・・・・(式3)
 なお、Ffloor(a)は、aの整数部を返す関数とする。
 上記(式1)は、リスト要素識別子kの注視点位置情報{Pw(k)}である座標情報(Pwx,Pwy,Pwz)の位置が、図7に示すX×Y×Zのボックス内に多数設定されたL×L×Lの格子要素のどの格子要素に含まれるかを算出する式である。
 上記(式3)において例えば、x=y=z=5の算出結果が得られた場合、注視点位置情報{Pw(k)}の注視点位置座標(Pwx,Pwy,Pwz)が含まれる格子要素は、図7に示すX×Y×Zのボックス内の原点から、X軸に沿って原点から6番目、かつY軸に沿って原点から6番目、かつZ軸に沿って原点から6番目にある1つの格子要素であることを意味する。
 ステップS208では、このようにして、注視点位置情報{Pw(k)}の注視点位置座標(Pwx,Pwy,Pwz)が、ヒットマップを構成する三次元ボックス内のどの格子要素に含まれるかを算出する。
 上記(式1)によって算出される(x,y,z)は、注視点位置情報{Pw(k)}の注視点位置座標(Pwx,Pwy,Pwz)が含まれる格子要素の位置情報(識別子)となる。
  (ステップS209)
 次に、情報処理装置のデータ処理部は、ステップS209において、ステップS208で上記(式3)に従って算出した(x,y,z)、すなわち、注視点位置情報{Pw(k)}の注視点位置座標(Pwx,Pwy,Pwz)が含まれる格子要素の位置情報(識別子)である(x,y,z)が以下の(式4)を満たすか否かを判定する。
 0≦x<X,かつ、0≦y<Y,かつ、0≦z<Z   ・・・(式4)
 X,Y,Zは、図7に示すヒートマップを規定する三次元ボックスの各辺の長さである。
 上記(式4)を満たす場合は、注視点位置座標(Pwx,Pwy,Pwz)が含まれる格子要素の位置情報(識別子)である(x,y,z)の位置は、図7に示すヒートマップを規定する三次元ボックスの内部にあることになる。
 しかし、上記(式4)を満たしていない場合は、注視点位置座標(Pwx,Pwy,Pwz)が含まれる格子要素の位置情報(識別子)である(x,y,z)の位置は、図7に示すヒートマップを規定する三次元ボックスの外部にあることになる。
 この場合は、ヒートマップの格子要素のカウンタ値(=注視点位置数)を増分させる処理ができない。
 従って、この場合は、ステップS210のカウンタ値の更新処理を省略して、ステップS211に進む。
  (ステップS210)
 ステップS210の処理は、ステップS209において、注視点位置情報{Pw(k)}の注視点位置座標(Pwx,Pwy,Pwz)が含まれる格子要素の位置情報(識別子)である(x,y,z)が以下の(式4)を満たしたと判定した場合の処理である。
 0≦x<X,かつ、0≦y<Y,かつ、0≦z<Z   ・・・(式4)
 上記(式4)を満たす場合は、注視点位置座標(Pwx,Pwy,Pwz)が含まれる格子要素の位置情報(識別子)である(x,y,z)の位置は、図7に示すヒートマップを規定する三次元ボックスの内部にあることになる。
 この場合、情報処理装置のデータ処理部は、ステップS210において、処理対象の注視点位置情報保持用三次元配列カウンタ:Aw[x][y][z]の更新処理として、カウンタ値を1つ増やす処理を実行する。すなわち、以下のカウンタ値更新処理を行う。
 Aw[x][y][z]=Aw[x][y][z]+1
 このカウンタ値更新処理によって、ステップS208で算出した注視点位置が属する格子要素である(x,y,z)のカウンタ:Aw[x][y][z]のカウント値が1つ増加され、一人のユーザ(視聴者)の注視点位置がこの格子要素内に含まれる設定としたカウントデータに更新される。
  (ステップS211)
 次に、情報処理装置のデータ処理部は、ステップS211において、注視点位置情報リスト{Pw(k)}からの処理対象のリスト要素を更新する処理を実行する。
 すなわち、リスト要素識別子kを、
 k=k+1
 とする更新処理を行う。
 この処理によって、注視点位置情報リスト{Pw(k)}の処理対象要素が、次の要素に設定される。
 このステップS211におけるリスト要素更新処理の後、新たな処理対象として設定されたリスト要素kに対して、ステップS206以下の処理を実行する。
 ステップS206において、
 k<n
 上記判定式が成立せず、注視点位置情報リストに登録されたn個のリスト要素すべての処理が完了したと判定すると、ステップS212に進む。
  (ステップS212)
 注視点位置情報リストに登録されたn個のリスト要素すべての処理が完了したと判定すると、情報処理装置のデータ処理部は、ステップS212において、一辺の長さLの立方体格子要素からなる注視点位置情報保持用三次元配列カウンタAw[x][y][z]の全格子要素の各値を、リスト要素総数nで割った値(ヒートマップ出力値)を算出する。
 この除算処理により、各格子要素に対応する注視点位置情報保持用三次元配列カウンタAw[x][y][z]の設定値は0~1の範囲の値に設定される。
 1つの格子要素に含まれる注視点位置の数は、最大でnであり、nによる除算処理によって、三次元配列カウンタAw[x][y][z]の設定値は0~1の範囲の値に設定される。
  (ステップS213)
 次に、情報処理装置のデータ処理部は、ステップS213において、解析フレーム時間:tにおける、更新後の注視点位置情報保持用三次元配列カウンタAw[x][y][z]の設定値(ヒートマップ出力値)をデータベースに保存する。
 また、例えばユーザの出力要求に応じて出力処理を実行する。
 なお、先に説明したように、例えばディスプレイにヒートマップを表示する場合の各格子の色付け処理は、出力色の設定情報として利用可能なアルファチャンネル値を三次元配列カウンタAw[x][y][z]の設定値に応じて変更して出力色や出力濃度を調整する。
 この処理によって、注視点位置が多い格子要素は、濃い色での出力がなされ、、注視点位置が少ない格子要素は、薄い色での出力がなされ、一目で注視点位置のかたより具合を判別することが可能となる。
  (ステップS214)
 次に、情報処理装置のデータ処理部は、ステップS214において、解析フレーム時間:tが、コンテンツ構成フレームのフレーム最終時間であるか否かを判定する。
 解析フレーム時間:tが、コンテンツ構成フレームのフレーム最終時間である場合は、全フレームの処理が完了したと判定し、処理を終了する。
 一方、解析フレーム時間:tが、コンテンツ構成フレームのフレーム最終時間でない場合は、未処理フレームがあると判定し、ステップS215に進む。
  (ステップS215)
 ステップS214において、未処理フレームがあると判定した場合は、情報処理装置のデータ処理部は、ステップS215において、解析対象フレームのフレーム時間の更新処理を実行する。
 すなわち、解析対象フレームのフレーム時間:tを次のフレーム時間に更新する。
 この更新処理の後、ステップS203に戻り、未処理フレームについて、ステップS203以下の処理を実行する。
 ステップS214において、未処理フレームがないと判定されると、コンテンツの構成フレーム全てに対応す注視点位置ヒートマップが完成したことになり、処理を終了する。
 この図12、図13に示すフローチャートに従った処理を実行することで、図14(a)に示すようなデータが、フレーム単位データとして、データベースに格納され、このデータを利用することで、図14(b)に示すようなヒートマップを出力することが可能となる。
  [2-(b).推奨視点情報の提供と推奨視点情報に基づく表示制御を実行する実施例について]
 次に、推奨視点情報の提供と推奨視点情報に基づく表示制御を実行する実施例について説明する。
 以下に説明する実施例は、視聴状況の解析結果に基づいて、各時刻において最も人気のある視点位置と視線方向の画像領域からなるコンテンツを自動表示することを可能とした実施例である。
 このコンテンツ制御により、多くの視聴者が見た映像を優先的に提供することができる。
 図15は、推奨視点情報の提供と推奨視点情報に基づく表示制御を実行する情報処理システムの一構成例を示す図である。
 先に図1を参照して説明した情報処理システムと同様、自由視点映像配信サーバ30は、自由視点映像コンテンツデータベース31に格納された自由視点映像コンテンツを、ネットワーク35を介して取得し、取得した自由視点映像コンテンツを、ネットワーク36を介して、ユーザ(視聴者)側の情報処理装置(コンテンツ出力装置)70に送信する。
 図15では、視聴デバイス70の例として、図1を参照して説明したと同様のPC71によるレンダリング画像を表示するHMD72の組み合わせの他、PC73、携帯端末(スマホ)74を示している。
 HMD72以外のPC73、携帯端末(スマホ)74においても、ユーザ(視聴者)は、各視聴デバイスに表示される画像領域を自由に変更することができる。
 表示画像領域の変更例について、図16を参照して説明する。
 図16上段には自由視点映像コンテンツであるコンテンツ51、図16下段には、携帯端末(スマホ)74を示している。
 携帯端末(スマホ)74の表示部には、自由視点映像コンテンツの一部の領域、例えばユーザが任意に選択した領域の画像を表示することができる。
 左側の携帯端末(スマホ)74の表示画像Aは、コンテンツ51内の一部領域の画像区間a1~a2の部分区間の領域画像である。
 右側の携帯端末(スマホ)74の表示画像Bは、コンテンツ51内の一部領域の画像区間b1~b2の部分区間の領域画像である。
 ユーザは、タッチパネルとして構成された表示部に対する指のスライド処理などによって、表示画像を移動させて、任意の領域の画像を表示することができる。
 この他、PCやテレビ等の表示装置を利用した場合も、キーボード、マウス、リモコン等の入力操作により、表示領域を自由に選択することができる。
 図15に戻りシステム構成の説明を続ける。
 視聴デバイス70は、図1以下を参照して説明した前述の処理と同様、図3に示すデータ構成を持つ視聴状況情報52を視聴情報収集サーバ40に送信する。
 視聴情報収集サーバ40は、収集した視聴状況情報を、ネットワーク35を介して接続された視聴情報記録データベース41に格納する。
 図15に示す情報処理システムにおいて、図1に示すシステムとの差異は、自由視点映像配信サーバ30が、視聴者デバイス70に対して、推奨視点情報61を送信している点である。
 本実施例では、自由視点映像配信サーバ30は、視聴情報記録データベース41に格納された視聴状況情報を解析し、解析結果に基づいて推奨視点情報61を生成して、視聴者デバイス70に送信する。
 視聴者デバイス70では、この推奨視点情報61を利用して、例えば各コンテンツ再生時刻において最も人気のある視点位置と視線方向の画像領域からなるコンテンツを自動表示するといった表示制御を行うことができる。このコンテンツ表示制御により、多くの視聴者の高い画像等を優先的に提供することができる。
 自由視点映像配信サーバ30が視聴情報記録データベース41に格納された視聴状況情報に基づいて生成し、視聴者デバイス70に送信する推奨視点情報61のデータ構成例について、図17を参照して説明する。
 図17に示すように、推奨視点情報61は、コンテンツID、再生時刻、頭部位置、頭部前方方向、頭部頭上方向、視線方向、FoVが記録される。
 このデータは、コンテンツIDで特定されるコンテンツについて、各再生時刻における推奨される頭部位置(視点位置)、頭部前方方向、頭部頭上方向、視線方向、FoVを記録したデータである。
 すなわち、この図17に示す推奨視点情報に記録された頭部位置(視点位置)、頭部前方方向、頭部頭上方向、視線方向、FoVの設定で画像を表示することにより、推奨画像、最も人気のある画像を自動的に表示することが可能となる。
 なお、視聴デバイス70において、推奨視点情報61に従った推奨画像をディスプレイに自動表示させる場合、視聴デバイス70のモードを視点自動制御モードに設定することが必要である。
 図18に示すように、視聴デバイス70は、コンテンツの表示処理において設定可能な以下の2つの視点制御モードを切り替え可能な構成を持つ。
 (1)視点制御モード1=視点マニュアル制御モード
 (2)視点制御モード2=視点自動制御モード
 視点マニュアル制御モードは、ユーザの意思によって表示領域を変更可能としたモードであり、HMDの場合、ユーザ(視聴者)の頭部の位置や方向を変更することで、その変更態様に応じて表示画像を変更可能としたモードである。
 また、PCやスマホ等のディスプレイにコンテンツを表示する場合は、ユーザによるタッチパネル、マウス等の入力処理により、表示画像領域を移動させることができる。
 一方、視点自動制御モードは、推奨視点情報61に従った推奨画像をディスプレイに自動表示させるモードである。
 この視点自動制御モードの設定では、HMDの動きや、PCスマホ等に対するユーザの入力に応じた表示画像の変更処理は停止される。
 以下、視聴デバイス70側の情報処理装置において実行される本実施例に従ったコンテンツ表示制御処理シーケンスについて、図19、図20に示すフローチャートを参照して説明する。
 図19、図20に示すフローチャートは、視聴デバイス70側の情報処理装置、すなわち、図15に示すPC71、PC73、携帯端末(スマホ)74等の情報処理装置において実行される。これらの情報処理装置はプログラム実行機能を持つCPUを備えたデータ処理部を有し、データ処理部の制御下でフローチャートに従った処理が実行される。なお、情報処理装置のハードウェア構成例については後段で説明する。
 まず、図19に示すフローチャートの各処理について説明する。
 図19に示すフローチャートは、視聴デバイス70側の情報処理装置において実行する視点自動制御モードの設定処理のシーケンスを説明するフローチャートである。
 情報処理装置(視聴デバイス)では、まず、コンテンツ再生の開始前に再生アプリの状態を初期化する処理を行う。再生ボタンが押されたなどをトリガとして、図19のステップS301から始まるステップを実行する。
  (ステップS301)
 情報処理装置(視聴デバイス)は、ステップS301において、表示コンテンツに対応するデータである表示コンテンツ対応の視点位置Pと視点方向Qを初期値に設定する。初期値は、コンテンツのメタデータに含まれている。なお、コンテンツは、自由視点映像コンテンツである。
 視点位置Pと視点方向Qは、自由視点映像コンテンツ座標系で表現されている。
 なお、図17に示す推奨視点情報、あるいは先に図3を参照して説明した視聴状況情報に記録されているデータ中、「頭部位置」が視点位置Pに対応し、「頭部前方方向」と「頭部頭上方向」の組が視点方向Qに対応する。なお、視点方向Qは四元数で表す。
  (ステップS302)
 情報処理装置(視聴デバイス)は、次に、ステップS302において、視点制御モードを視点自動制御モードに設定する。
 これらの処理によって、初期化処理を終了する。
 次に、視点自動制御モードに設定された情報処理装置(視聴デバイス)が実行するコンテンツの表示制御シーケンスについて、図20に示すフローチャートを参照して説明する。
 図20に示すフローチャートに従った処理は、情報処理装置(視聴デバイス)において起動されたコンテンツ再生アプリによって実行される。
 視点自動制御モードでは、再生アプリがコンテンツを構成する画像フレーム毎の描画処理を推奨視点情報に従って実行する。
 例えば、コンテンツが60fpsでレンダリングされる場合、ユーザ(視聴者)によりコンテンツ再生が停止されるか、コンテンツ再生が終了する(最終フレームが描画される)まで、各フレーム単位、すなわち1/60秒ごとに図20に示すフローのステップS321以下の処理を繰り返し実行する。
  (ステップS321)
 まず、情報処理装置(視聴デバイス)は、ステップS321において、視点制御モードが視点自動制御モードに設定されているかどうかの判定を行う。
 視点自動制御モードに設定されている場合はステップS322に進む。
 視点自動制御モードに設定されていない場合はステップS331に進む。
  (ステップS322)
 視点自動制御モードに設定されている場合、情報処理装置は、ステップS322において、モード切り替え入力が検出されたか否かを判定する。
 モード切り替え入力が検出されていなければ、ステップS323に進む。
 モード切り替え入力が検出された場合は、ステップS333に進む。
  (ステップS323)
 モード切り替え入力が検出されていない場合、情報処理装置は、ステップS323において、コンテンツのメタデータに含まれる現再生時刻における「推奨視点情報R」を取得し、ステップS324に進む。
 「推奨視点情報R」は、先に図17を参照して説明したデータを有する情報である。
 ここでは、推奨視点情報Rに含まれる頭部位置、頭部前方方向、頭部頭上方向を用いた処理例について説明する。
 現再生時刻における推奨視点情報Rに含まれる頭部位置Pr、頭部方向Qr(頭部前方方向、頭部頭上方向から求まる)を取得する。
 頭部方向Qrは四元数で表す。
  (ステップS324)
 次に、情報処理装置は、ステップS324において、現再生時刻での推奨視点を計算する。
 この推奨視点算出処理には、
 直前フレームの視点位置Pと、視点方向Qと、
 ステップS323で取得した推奨視点情報Rの記録データである頭部位置Pr、頭部前方方向Qr、
 これらのデータを用いる。
 現再生時刻の推奨視点の視点位置Pcを、直前フレームの視点位置Pと、推奨視点情報Rに含まれる頭部位置Prを利用した線形補間(lerp:linear interpolation)により、以下の式に従って算出する。
 Pc=(1-t)P+tPr
 tは0≦t≦1となるパラメータである。
 また現再生時刻での視点方向Qcを、直前フレームの視点方向Qと、推奨視点情報Rから求めた頭部方向Qrを利用した(slerp:spherical linear interpolation)により同様に求める。
  (ステップS325)
 次に、情報処理装置は、ステップS325において、ステップS324で算出した現再生時刻での推奨視点に対応する画像領域からなるコンテンツを視聴デバイスの表示部にレンダリングする。
 なお、レンダリングのパラメータとしてFoVを設定できる場合は、推奨視点情報Rに含まれるFoVを設定する。
 さらに、情報処理装置は、視聴情報収集サーバに送信する視聴状況情報に記録するための視点情報(位置,方向)を、現在の表示コンテンツに対応した視点情報に更新する。
 P、Qを、Pc、Qcでそれぞれ更新する。
  (ステップS326)
 次に、情報処理装置は、ステップS326において、ステップS325で更新した視点情報(位置Pc,方向Qc)と、コンテンツ再生時刻との対応データを含む視聴状況情報を生成して視聴情報収集サーバに送信する。
  (ステップS331,S332)
 ステップS321において、視点自動制御モードに設定されていないと判定した場合、情報処理装置は、ステップS331において、モード切り替え入力が検出されたか否かを判定する。
 モード切り替え入力が検出された場合は、ステップS332に進み、視点制御モードを視点自動制御モードに変更する。
 モード切り替え入力が検出されていない場合は、ステップS334に進む。
  (ステップS333)
 ステップS322で、モード切り替え入力が検出された場合は、ステップS333で、視点自動制御モードから、視点マニュアルモード制御への切り替えを行い、ステップS334に進む。
  (ステップS334)
 ステップS334では、情報処理装置は、視点マニュアルモードでのコンテンツ表示制御を実行する。
 具体的には、視点マニュアル制御モードに従った視点(位置P,方向Q)を算出して、その算出視点に応じた映像表示を行う。
 HMDの場合は、HMDの位置と方向に応じた視点(P,Q)に従った映像表示を行う。
 また、PCやスマホ等の場合は、ユーザ操作に応じた視点(P,Q)に従った映像表示を行う。
  [2-(c).コンテンツの自動チャプタ分割処理を実行する実施例について]
 次に、コンテンツの自動チャプタ分割処理を実行する実施例について説明する。
 以下に説明する実施例は、視聴状況の解析結果、例えばヒートマップの時系列変化の度合いに基づいて、シーン転換点を検出し、このシーン転換点をチャプタの切り替え点として設定することを可能とした実施例である。
 例えば、自由視点映像配信サーバが、推奨視点情報の頭部位置や頭部方向を時間方向にクラスタリングして、それらが適当な閾値を超えて変化するコンテンツ再生時刻をシーン転換点として記録し、それら時刻のリストをシーン転換点情報として、コンテンツ対応のメタ情報としてユーザ側の視聴デバイスに配信する。
 ユーザ側の視聴デバイス(PCなど)は、例えば、「シーン転換点情報」に基づいて、コンテンツ再生時刻を示すプログレスバーの時刻位置にシーン転換点を意味するマークや印を表示することができる。また、リスト中の時刻から再生を開始することで、次/前のシーン転換点に移動、などの操作も可能になる。
 図21は、シーン転換点情報81の提供とシーン転換点情報81を利用した処理を実行する情報処理システムの一構成例を示す図である。
 先に図1を参照して説明した情報処理システムと同様、自由視点映像配信サーバ30は、自由視点映像コンテンツデータベース31に格納された自由視点映像コンテンツを、ネットワーク35を介して取得し、取得した自由視点映像コンテンツを、ネットワーク36を介して、ユーザ(視聴者)側の情報処理装置(コンテンツ出力装置)70に送信する。
 図21では、先に説明した図15と同様、視聴デバイス70の例として、図1を参照して説明したと同様のPC71によるレンダリング画像を表示するHMD72の組み合わせの他、PC73、携帯端末(スマホ)74を示している。
 視聴デバイス70は、図1以下を参照して説明した前述の処理と同様、図3に示すデータ構成を持つ視聴状況情報52を視聴情報収集サーバ40に送信する。
 視聴情報収集サーバ40は、収集した視聴状況情報を、ネットワーク35を介して接続された視聴情報記録データベース41に格納する。
 図21に示す情報処理システムにおいて、自由視点映像配信サーバ30は、視聴者デバイス70に対して、シーン転換点情報81を送信する。
 本実施例では、自由視点映像配信サーバ30は、視聴情報記録データベース41に格納された視聴状況情報を解析し、解析結果に基づいてシーン転換点情報81をを生成して、視聴者デバイス70に送信する。
 視聴者デバイス70では、このシーン転換点情報81を利用して、コンテンツのシーン転換点をあらかじめ知ることが可能となり、コンテンツ再生時刻を示すプログレスバーの時刻位置にシーン転換点を意味するマークや印を表示することができる。また、リスト中の時刻から再生を開始することで、次/前のシーン転換点に移動、などの操作も可能になる。
 自由視点映像配信サーバ30が視聴情報記録データベース41に格納された視聴状況情報に基づいて生成し、視聴者デバイス70に送信するシーン転換点情報81のデータ構成例について、図22を参照して説明する。
 図22に示すように、シーン転換点情報81は、コンテンツID、シーン転換点時刻との対応データとして生成される。
 このデータは、コンテンツIDで特定されるコンテンツについてのシーン転換点時刻を記録したものである。
 以下、図23に示すフローチャートを参照して、情報処理装置としての自由視点映像配信サーバ30が実行する「シーン転換点情報」の生成シーケンスについて説明する。
 図23に示すフローチャートの各ステップの処理について説明する。
  (ステップS401)
 まず、情報処理装置(自由視点映像配信サーバ30)は、ステップS401において、「シーン転換点情報リスト」をリセットする。
 すなわち、リストを空にする。
  (ステップS402)
 次に、情報処理装置は、ステップS402において、処理対象コンテンツの推奨視点情報の記録データを取得し、時間T間隔単位で、頭部位置Pと頭部方向Qの平均値P(k),Q(k)を算出(k=0,1,2,・・・,n)して、頭部位置方向推移リストを生成する。
 すなわち、コンテンツの推奨視点情報に含まれる視点の位置と向きをT秒間隔で平均化した値を計算する。Tは既定の固定値で、例えば5秒などの値を用いる。コンテンツ全体をT秒間隔でn分割するとn+1個のパートになる。
 各パート単位で頭部位置Pと向きQの平均P(k)とQ(k)を求める。
 P(k)とQ(k)は時刻kTからT秒間の頭部の位置と向きの平均を表す。
  (ステップS403)
 次に、情報処理装置は、ステップS403において、ステップS402で生成した頭部位置方向推移リストのリスト要素識別パラメータkを初期化(k=1)する。
  (ステップS404)
 次に、情報処理装置は、ステップS404において、リスト要素識別パラメータkが最大値nより大きいか否かを判定する。
 k>nである場合は、頭部位置方向推移リストの生成処理終了と判断してステップS411に進む。
 k>nでない場合は、頭部位置方向推移リストの生成処理が終了していないと判断してステップS405に進む。
  (ステップS405)
 次に、情報処理装置は、ステップS405において、頭部位置方向推移リストにリストされた隣接するリスト要素に基づく、変化量(差分)情報を算出する。
 以下の2つの変化量を算出する。
 頭部位置変化量:ΔP(k)=|P(k)-P(k-1)|
 頭部方向変化量:ΔQ(k)=|Q(k)-Q(k-1)|
  (ステップS406)
 次に、情報処理装置は、ステップS406において、ステップS405で算出した変化量(差分)ΔP(k)、またはΔQ(k)が既定のしきい値を超えたか否かを判定する。
 なお、しきい値は、変化量(差分)ΔP(k)、ΔQ(k)各々について、予め規定したしきい値であり、コンテンツに応じて予め決定したしきい値である。
 ステップS405で算出した変化量(差分)ΔP(k)、またはΔQ(k)が既定のしきい値を超えたと判定した場合は、ステップS407に進む。
 一方、ステップS405で算出した変化量(差分)ΔP(k)、またはΔQ(k)が既定のしきい値を超えていないと判定した場合は、ステップS408に進む。
  (ステップS407)
 ステップS405で算出した変化量(差分)ΔP(k)、またはΔQ(k)が規定しきい値を超えたと判定した場合は、ステップS407において、シーン転換点情報リストに、シーン転換時刻として時刻kTを追加する。
 すなわち、頭部位置方向推移リストにリストされた隣接するリスト要素について、変化量(差分)がしきい値より大きい場合、シーン転換点情報リストに、シーン転換時刻kTを記録する。
  (ステップS408)
 ステップS407の処理終了後、あるいは、ステップS406にのおいて、変化量(差分)ΔP(k)、またはΔQ(k)が規定しきい値を超えていないと判定した場合は、ステップS408に進む。
 ステップS408では、頭部位置方向推移リストのリスト要素識別パラメータ:kの更新(k=k+1)を実行して、更新後のパラメータに基づいて、ステップS404以下の処理を実行する。
  (ステップS411)
 ステップS404において、リスト要素識別パラメータkが最大値nより大きいと判定した場合、すなわち、k>nである場合は、頭部位置方向推移リストの生成処理終了と判断してステップS411に進む。
 ステップS411では、生成したシーン転換点情報リストをデータベースに保存して処理を終了する。
 次に図24に示すフローチャートを参照して、クライアント側、すなわち、視聴デバイス70側の情報処理装置において、自由視点コンテンツを再生中にチャプタ移動操作を実行したときの処理について説明する。
 なお、再生するコンテンツと、シーン転換点情報リストは取得済みであるものとする。また、図24に示すフローチャートに従った処理は、再生フレームごとに繰り返し実行される。
  (ステップS421)
 まず、情報処理装置(視聴デバイス)は、ステップS421において、次のチャプタへの移動要求が入力されたか否かを判定する。
 次のチャプタへの移動要求が入力された場合は、ステップS422に進む。されていない場合は、処理を終了する。
  (ステップS422)
 次に、情報処理装置は、ステップS422において、シーン転換点情報リストが空であるか、または、リストの最終エントリのシーン転換点時刻より、現在の再生時刻が後であるかを判定する。
 シーン転換点情報リストが空、または、リストの最終エントリのシーン転換点時刻より、現在の再生時刻が後である場合は、ステップS424に進む。
 シーン転換点情報リストが空でない、または、リストの最終エントリのシーン転換点時刻より、現在の再生時刻が後でない場合は、ステップS423に進む。
  (ステップS423)
 ステップS422において、シーン転換点情報リストが空でない、または、リストの最終エントリのシーン転換点時刻より、現在の再生時刻が後でない場合は、ステップS423に進む。
 情報処理装置は、ステップS423において、シーン転換点情報リストから、現在の再生時刻より大きい最小シーン転換点時刻Tを取得して、再生開始時刻をTに設定する。
 すなわち、チャプタの移動処理を行う。
  (ステップS424)
 ステップS422において、シーン転換点情報リストが空、または、リストの最終エントリのシーン転換点時刻より、現在の再生時刻が後であると判定した場合は、ステップS424に進む。
 情報処理装置は、ステップS424において、コンテンツの最終フレームの時刻を、再生時刻に設定する。
 すなわち、最終フレームの再生処理に移動する処理を行う。
 なお、図24に示すフローを参照して説明したチャプタ移動処理は、コンテンツ後方側へのチャプタ移動処理の例であるが、前方側へのチャプタ移動の場合も同様、シーン転換点情報リストを参照して行うことが可能である。
  [2-(d).広告表示制御を実行する実施例について]
 次に、広告表示制御を実行する実施例について説明する。
 以下に説明する実施例は、視聴状況の解析結果、例えばヒートマップに基づいて効果的な広告表示処理を実現する実施例である。
 視聴状況の解析結果、例えばヒートマップに基づいて、自由視点映像における画像領域単位の「視聴率」を求め、視聴率に基づいて以下の処理を行う。
 コンテンツに広告を重畳して提供する場合、視聴率をベースに広告料を自動算出する。
 以下の実施例では、広告表示の一例として、自由視点映像コンテンツ内にCGによる仮想的な看板広告を配信して重畳する構成について説明する。広告主は広告の予算、看板広告となるテクスチャ画像、ランクを指定して、広告データベースに広告を登録する。
 ランクは、例えば3段階のランクが予め設定される。
 この3段階のランクは、視聴デバイスから送信される視聴状況情報に基づいて生成される注視点ヒートマップの注視点分布状況に応じたランクである。
 広告ランク規定リストの例を図25に示す。
 図25に示すように、広告ランク規定リストは、ランク3~1の各々に対して、注目度0~1.0と、単価(円/秒)が対応付けられたデータである。
 注目度は、視聴デバイスから送信される視聴状況情報に基づいて生成される注視点ヒートマップの注視点分布状況に対応するデータである。
 注視点ヒートマップにおいて注視点が多い格子を含む領域は注目度が高く、注視点ヒートマップにおいて注視点が少ない格子を含む領域は注目度が低く設定される。
 単価は、この注目度に応じて設定され、注目度の高い格子領域は高い単価となり、注目度の低い領域は低い単価となる。
 広告主は、この広告ランク規定に基づいて、ランクを決定し、看板広告となるテクスチャ画像とランク、予算等のデータとともに広告データベースに広告を登録する。
 広告データベースの登録データ例を図26に示す。
 図26に示すように、広告データベースには、看板広告となるテクスチャ画像のデータを取得するためのURL、初期予算、予算残高、ランクが対応付けて登録される。
 自由視点映像コンテンツとともに広告を配信する自由視点映像配信サーバは、広告データベースに登録された広告をコンテンツに重畳してユーザ(視聴者)側の視聴デバイスに送信して表示部に表示する。
 自由視点映像配信サーバは、この広告提供処理に際して、所定のアルゴリズムに従った広告選択および広告出力位置決定処理を行う。
 広告出力位置決定処理においては、広告のランクに対応する注目度を満たす格子(ヒートマップから求まる)の表面を、広告の画像のテクスチャで置き換えて表示する。
 また、表示時間1秒ごとに予算から単価を減算し、予算が尽きたら(0になったら)広告DBから該当の広告を取り除く。
 なお、格子表面のテクスチャとして広告画像を描画するのではなく、格子の外接球を考え、その外接球の球面上の法線が視聴者の頭部位置方向となる点に、広告画像を張る矩形の中心点が接するよう、かつ広告の上方向と視聴者の頭上方向を合わせて広告を配置してもよい。
 この例だと、すべてサーバ側で予算が消化されるが、クライアントから送られる視聴状況情報の注視点やFoVから実際に広告が「見られた」「視界に入った」と判定できる場合にだけ課金される方法でもよい。
 図27は、本実施例を実行する情報処理システムの一構成例を示す図である。
 先に図1を参照して説明した情報処理システムと同様、自由視点映像配信サーバ30は、自由視点映像コンテンツデータベース31に格納された自由視点映像コンテンツを、ネットワーク35を介して取得し、取得した自由視点映像コンテンツを、ネットワーク36を介して、ユーザ(視聴者)側の情報処理装置(コンテンツ出力装置)70に送信する。
 図27では、先に説明した図15と同様、視聴デバイス70の例として、図1を参照して説明したと同様のPC71によるレンダリング画像を表示するHMD72の組み合わせの他、PC73、携帯端末(スマホ)74を示している。
 視聴デバイス70は、図1以下を参照して説明した前述の処理と同様、図3に示すデータ構成を持つ視聴状況情報52を視聴情報収集サーバ40に送信する。
 視聴情報収集サーバ40は、収集した視聴状況情報を、ネットワーク35を介して接続された視聴情報記録データベース41に格納する。
 図27に示す情報処理システムにおいて、自由視点映像配信サーバ30は、視聴者デバイス70に対して、広告埋め込みコンテンツ102を送信する。
 この広告埋め込みコンテンツ102は、図26を参照して説明した広告データベースに記録されたURLに基づいて取得された広告情報(広告データを含むテクスチャ情報)が埋め込まれている。
 なお、図27に示す広告データベース101に、図26を参照して説明した広告データベース格納データが格納されている。
 自由視点映像コンテンツとともに広告を配信する自由視点映像配信サーバ30は、広告データベース101に登録された広告をコンテンツに重畳した広告埋め込みコンテンツ102をユーザ(視聴者)側の視聴デバイス70に送信して表示部に表示する。
 自由視点映像配信サーバ30は、この広告提供処理に際して、所定のアルゴリズムに従った広告選択および広告出力位置決定処理を行う。
 以下、図28に示すフローチャートを参照して、情報処理装置としての自由視点映像配信サーバ30が実行する広告選択処理と広告出力位置決定処理、広告提供処理のシーケンスについて説明する。
 図28に示すフローチャートの各ステップの処理について説明する。
 なお、図28に示すフローは、先に図6を参照して説明した注視点位置ヒートマップが、ユーザ側に提供するコンテンツに対応する注視点位置ヒートマップとして生成済みであることを前提として実行される。
  (ステップS501)
 まず、情報処理装置(自由視点映像配信サーバ30)は、ステップS501において、オリジナルのコンテンツのコピーを作成し、広告埋め込みコンテンツDの初期値とする。
 オリジナルのコンテンツは、自由視点映像配信サーバ30が視聴デバイス70に送信するコンテンツであり自由視点映像コンテンツである。
  (ステップS502)
 次に、情報処理装置は、ステップS502において、注視点ヒートマップをT秒間隔で平均化した注視点位置推移ヒートマップリストM(k)作成する。
 Tは既定の固定値で、例えば5秒~15秒などの値を用いる。コンテンツ全体をT秒間隔でn分割するとn+1個のパートになる。
 kは、注視点位置推移ヒートマップリストM(k)のリスト要素パラメータであり、
 k=0,1,・・・,nである。
  (ステップS503)
 次に、情報処理装置は、ステップS503において、注視点位置推移ヒートマップリストM(k)のリスト要素パラメータkを初期化、すなわち、
 k=0
 上記のようにパラメータの初期化処理を実行する。
  (ステップS504)
 次に、情報処理装置は、ステップS504において、注視点位置推移ヒートマップリストM(k)のリスト要素パラメータkが、パラメータ最大値nより大きいか否かを判定する。
 k>nである場合は、処理終了と判断して処理を終了する。
 k>nでない場合は、ステップS505に進む。
  (ステップS505)
 次に、情報処理装置は、ステップS505において、注視点位置推移ヒートマップリストM(k)の全格子の中で最も注目度の大きい格子Lmaxを選択する。
 すなわち、注視点のもっとも多い格子Lmaxを選択する。
  (ステップS506)
 次に、情報処理装置は、ステップS506において、Lmaxの注目度Fが、広告ランク規定リストに含まれるか否かを判定する。
 先に図14を参照して説明したようにヒートマップの出力値は、0~1.0の範囲に設定される。
 一方、図25を参照して説明した広告ランク規定リストの注目度の設定値も0~1.0に設定されている。
 図25のような場合は広告ランク規定リストに常に含まれるが、広告ランク規定リストの内容によっては含まれない場合もある。
 ステップS506では、ステップS505で選択した注視点位置推移ヒートマップリストM(k)の全格子の中で最も注目度の大きい格子Lmaxのヒートマップ出力値と一致する注目度に設定された広告ランク規定リストのエントリがあるか否かを判定する。
 一致エントリがある場合は、ステップS507に進み、無い場合はステップS512に進む。
  (ステップS507)
 ステップS506において、注視点位置推移ヒートマップリストM(k)の全格子の中で最も注目度の大きい格子Lmaxのヒートマップ出力値と一致する注目度に設定された広告ランク規定リストのエントリがあると判定した場合は、ステップS507に進む。
 情報処理装置は、ステップS507において、広告ランク規定リストから、Lmaxのヒートマップ出力値と一致する注目度に設定された広告ランク規定リストのエントリを選択し、そのエントリに設定されたランクRと単価Pを取得する。
  (ステップS508)
 次に、情報処理装置は、ステップS508において、広告データベース、すなわち図26に示すデータを格納した広告データベースから、「ランク」がRと等しく、かつ「予算残り」がP以上の値の広告Aを検索する。
  (ステップS509)
 次に、情報処理装置は、ステップS509において、ステップS508の検索結果として広告Aが抽出できたか否かを判定する。
 すなわち、「ランク」がRと等しく、かつ「予算残り」がP以上の値の広告Aが抽出されたか否かを判定する。
 抽出された場合は、ステップS510に進み、抽出されなかった場合は、ステップS512に進む。
  (ステップS510)
 ステップS509で、「ランク」がRと等しく、かつ「予算残り」がP以上の値の広告Aが抽出された場合、ステップS510に進む。
 情報処理装置はステップS510において、注視点位置推移ヒートマップリストM(k)から選択した格子Lmaxと位置、大きさが同じ立方体Cを、コンテンツDのKtからt秒間のパートに追加する。
 コンテンツDは、ステップS501で生成したオリジナルコンテンツのコピーである。
  (ステップS511)
 次に、情報処理装置は、ステップS511において、条件を満足する広告として抽出した広告AのURLを広告データベースから選択し、URLを用いて広告データを取得する。
 さらに、取得した広告データを、ステップS510で、生成した立方体Cに貼り付けるテクスチャとしてコンテンツDに設定する。
 また、広告Aの「予算残り」からPを引いた値が、新しい「予算残り」の値になるように、広告データベースを更新する。
  (ステップS512)
 次に、情報処理装置は、ステップS512において、注視点位置推移ヒートマップリストM(k)のリスト要素パラメータkの更新処理を実行する。すなわち、
 k=k+1
 上記のパラメータ更新を実行して、ステップS504以下の処理を更新パラメータに基づいて実行する。
 ステップS504で、注視点位置推移ヒートマップリストM(k)のリスト要素パラメータkが、パラメータ最大値nより大きい、すなわち、
 k>nである場合は、処理終了と判断して処理を終了する。
 また、生成した「広告を埋め込んだコンテンツD」をコンテンツDBに保存して、オリジナルのコンテンツの代わりに配信できるようにする。
  [2-(e).注目度に応じた画質制御を実行する実施例について]
 次に、注目度に応じた画質制御を実行する実施例について説明する。
 具体的には、視聴状況の解析結果に基づいて、例えば、エンコードビットレートを制御する。ヒートマップに基づいて、コンテンツ内にある注目度の高いオブジェクトのテクスチャをより高いビットレートでエンコードし、逆にコンテンツ内であまり注目されていないオブジェクトのテクスチャを低ビットレートでエンコードするといったエンコード制御を実行する。
 図29は、本実施例を実行する情報処理システムの一構成例を示す図である。
 先に図1を参照して説明した情報処理システムと同様、自由視点映像配信サーバ30は、自由視点映像コンテンツデータベース31に格納された自由視点映像コンテンツを、ネットワーク35を介して取得し、取得した自由視点映像コンテンツを、ネットワーク36を介して、ユーザ(視聴者)側の情報処理装置(コンテンツ出力装置)70に送信する。
 図29では、先に説明した図15と同様、視聴デバイス70の例として、図1を参照して説明したと同様のPC71によるレンダリング画像を表示するHMD72の組み合わせの他、PC73、携帯端末(スマホ)74を示している。
 視聴デバイス70は、図1以下を参照して説明した前述の処理と同様、図3に示すデータ構成を持つ視聴状況情報52を視聴情報収集サーバ40に送信する。
 視聴情報収集サーバ40は、収集した視聴状況情報を、ネットワーク35を介して接続された視聴情報記録データベース41に格納する。
 図29に示す情報処理システムにおいて、自由視点映像配信サーバ30は、視聴者デバイス70に対して、エンコード制御コンテンツ131を送信する。
 このエンコード制御コンテンツ131は、聴状況情報52に基づいて生成された注視点位置ヒートマップ等に基づいて、コンテンツ内にある注目度の高いオブジェクトのテクスチャをより高いビットレートでエンコードし、逆にコンテンツ内であまり注目されていないオブジェクトのテクスチャを低ビットレートでエンコードするといったエンコード制御を実行して生成されたコンテンツである。
 なお、このようなコンテンツ領域単位のエンコード処理を実行するサーバが図29に示すトランスコードサーバ121であり、この結果として得られるエンコードコンテンツを格納するデータベースが図29に示すトランスコード済みコンテンツデータベース122である。
 トランスコードサーバ121は、自由視点映像コンテンツに対して生成された視聴状況情報に基づいて生成される注視点位置ヒートマップ等を利用して、注目度の高いコンテンツ領域や、注目度の低いコンテンツ領域を判別し、注目度の高いコンテンツ領域にあるオブジェクトのテクスチャのビットレートを高くなるような設定で再エンコードする。再エンコードしたコンテンツは、トランスコード済みコンテンツデータベース122に格納される。 
 自由視点映像配信サーバ30は、視聴者デバイス70に対して、トランスコード済みコンテンツデータベース122から取得したエンコード制御コンテンツ131を送信する。
 以下、図30に示すフローチャートを参照して、情報処理装置としてのトランスコードサーバ1210が実行する自由視点映像コンテンツの再エンコード処理のシーケンスについて説明する。
 図30に示すフローチャートの各ステップの処理について説明する。
 なお、図30に示すフローは、先に図6を参照して説明した注視点位置ヒートマップが、ユーザ側に提供するコンテンツに対応する注視点位置ヒートマップとして生成済みであることを前提として実行される。
 また、トランスコードサーバ1210が実行する再エンコード対象とする自由視点映像コンテンツは、予めコンテンツ内の全空間で均一なビットレートでエンコード処理がなされているものとする。
  (ステップS601)
 まず、情報処理装置(トランスコードサーバ121)は、ステップS601において、処理対象とするコンテンツ(自由視点映像コンテンツ)の全再生時刻対応(全フレーム対応)の注視点位置ヒートマップHを取得する。
 注視点位置ヒートマップは、先に図6、図12~図14を参照して説明したヒートマップであり、コンテンツ中の注目度に応じたデータが表現されたヒートマップである。
  (ステップS602)
 次に、情報処理装置は、ステップS602において、全再生時刻対応(全フレーム対応)の注視点位置ヒートマップHの正規化処理を実行し、この正規化データをテクスチャ空間にマッピングした注視点マッピング情報Mを生成する。
 この注視点マッピング情報Mは、正規化後の注視点位置ヒートマップHの三次元格子内に含まれるポリゴンの頂点データを取得し、そこからテクスチャ座標を参照することで求めることができる。
 なお、テクスチャは、例えば、コンテンツに含まれるオブジェクト単位、あるいは領域単位の画像に相当し、時系列で値が変化する。
  (ステップS603)
 次に、情報処理装置は、ステップS603において、注視点マッピング情報Mに基づいて、テクスチャ領域の視聴割合pを求める。視聴割合pは、コンテンツの全体の視聴量(注視点数の総量)に対する格子単位の視聴割合(格子内の注視点数)に相当する。
 なお、視聴ログがない場合は、全テクスチャでpを同値なものと想定する処理を行ってもよい。
  (ステップS604)
 次に、情報処理装置は、ステップS604において、テクスチャ領域の視聴割合pに基づいて、コンテンツ構成全フレームにおける各テクスチャの視聴確率Pを算出する。
 視聴確率Pは、全再生時刻のpを積算し、再生時刻のサンプリング数で割ることで算出することができる。
  (ステップS605)
 次に、情報処理装置は、ステップS605において、予め規定した目標となる総ビットレートBと、各テクスチャの視聴確率Pに応じて各テクスチャのエンコードに適用するビットレートを決定する。
 各テクスチャのビットレートは単純にB×Pで求めても良いが、極端な画質低下を防止するため、下限を設ける設定が望ましい。
  (ステップS606)
 次に、情報処理装置は、ステップS606において、コンテンツに含まれる全テクスチャを、ステップS605で決定したテクスチャ単位のビットレートに従って、再エンコード処理を実行し、トランスコード済みコンテンツデータベース122に保存する。
  (ステップS607)
 次に、情報処理装置は、ステップS607において、コンテンツ対応のテクスチャ単位のビットレートを記録した有効ビットレートリストのリストを更新する。
 なお、この有効ビットレートリストはコンテンツとともにトランスコード済みコンテンツデータベース122に保存する。
 自由視点映像配信サーバ30は、視聴者デバイス70に対して、トランスコード済みコンテンツデータベース122から取得したエンコード制御コンテンツ131を送信する。なお、この際、コンテンツのメタデータとして、上記の有効ビットレートリストも送信する。
 この処理によって、注目度の高い領域のみ高画質データとなり、注目度の低い領域は低画質となる画像コンテンツがネットワークを介して視聴デバイスに送信されることになる。結果としてデータ伝送効率が高まり、ネットワーク遅延によるコンテンツの再生遅延を防止することが可能となる。
 なお、上記処理においては、テクスチャのビットレートを変更する例について説明したが、ビットレートの変更対象はテクスチャに限らず、モデルデータ等であってもよい。
 次にクライアント側である視聴デバイス70において実行するコンテンツ出力処理のシーケンスについて、図31に示すフローチャートを参照して説明する。
 図31に示すフローは、視聴デバイス70側においてコンテンツのレンダリングを実行する情報処理装置において実行される。
 情報処理装置において起動された再生アプリがフレーム毎に描画する処理を行う。
 コンテンツが60fpsでレンダリングされる場合、ユーザによりコンテンツ再生が停止されるか、コンテンツ再生が終了する(最終フレームが描画される)まで、1/60秒ごとに、図31に示すフローのステップを繰り返し実行する。
  (ステップS621)
 まず、情報処理装置は、ステップS621において、ビットレート変更要求が入力されたか否かを判定する。
 ビットレート変更要求が入力された場合は、ステップS622に進み、入力されていない場合はステップS623に進む。
 なお、コンテンツのテクスチャ単位のビットレートが記録された有効ビットレートリストはコンテンツとともにメタデータとして取得される。
  (ステップS622)
 ビットレート変更要求が入力された場合は、情報処理装置は、ステップS622において、変更要求のビットレートに応じた画像フレームを取得するためコンテンツ取得先を変更する。ビットレートのリスト同様、コンテンツのURLもメタデータとして取得できているものとする。
  (ステップS623)
 次に、情報処理装置は、ステップS623において、再生用のフレームを取得する。
  (ステップS624)
 次に、情報処理装置は、ステップS624において、ステップS623で取得したフレームのコンテンツをレンダリングする。
 これらの処理によって、クライアント側の視聴デバイスは、ユーザ(視聴者)の要求に応じた画質のコンテンツを表示することが可能となる。
  [2-(f).視聴状況の解析結果に基づく課金処理を実行する実施例について]
 次に、視聴状況の解析結果に基づく課金処理を実行する実施例について説明する。
 具体的には、例えば注視点位置ヒートマップに基づいて画像領域単位の視聴率を算出し、視聴率の高い人気のある画像領域の再生には高額な課金を行い、逆に人気のない画像領域の再生は低額課金とする。コンテンツの視聴料金の設定を自動化することを可能とした実施例である。
 例えば、視点位置と注視点位置(またはFoV中心の領域)の人気度・注目度をヒートマップから取得し、取得データと視聴者のフレーム毎の視聴状況情報から視聴料金を計算して課金する。
 図32には、以下の各図を示している。
 (1)視点位置人気度対応単価設定データ
 (2)注視点(またはFoV中心)注目度対応単価設定データ
 (1)視点位置人気度対応単価設定データは、コンテンツIDと、視点位置の人気度と、単価との対応データである。
 視点位置の人気度は、視聴状況情報から生成される視点位置ヒートマップに基づいて算出される。
 (2)注視点(またはFoV中心)注目度対応単価設定データは、コンテンツIDと、注視点(またはFoV中心)の注目度と、単価との対応データである。
 注視点(またはFoV中心)の注目度は、視聴状況情報から生成される注視点位置ヒートマップに基づいて算出される。
 これらの単価設定データと、コンテンツのフレームレート(60fps/30fpsなど)からフレーム毎の視聴課金額を計算する。例えば30fpsのコンテンツで、ある時刻に視点位置が人気度0.4、注視点の注目度0.7であれば、その時刻のフレームの視聴料金は(0.1+1)/30=0.037円として計算できる(最終桁を四捨五入)。このように各フレームの視聴料金の総和を求めることで、コンテンツ全体の視聴の課金ができる。
 図33は、視聴状況の解析結果に基づく課金処理を実行する情報処理システムの一構成例を示す図である。
 先に図1を参照して説明した情報処理システムと同様、自由視点映像配信サーバ30は、自由視点映像コンテンツデータベース31に格納された自由視点映像コンテンツを、ネットワーク35を介して取得し、取得した自由視点映像コンテンツを、ネットワーク36を介して、ユーザ(視聴者)側の情報処理装置(コンテンツ出力装置)70に送信する。
 図33では、先に説明した図15と同様、視聴デバイス70の例として、図1を参照して説明したと同様のPC71によるレンダリング画像を表示するHMD72の組み合わせの他、PC73、携帯端末(スマホ)74を示している。
 視聴デバイス70は、図1以下を参照して説明した前述の処理と同様、図3に示すデータ構成を持つ視聴状況情報52を視聴情報収集サーバ40に送信する。
 視聴情報収集サーバ40は、収集した視聴状況情報を、ネットワーク35を介して接続された視聴情報記録データベース41に格納する。
 図33に示す情報処理システムにおいて、課金情報データベース141には、先に図32を参照して説明した以下のデータが格納されている。
 (1)視点位置人気度対応単価設定データ
 (2)注視点(またはFoV中心)注目度対応単価設定データ
 自由視点映像配信サーバ30は、課金情報データベース141に格納されたこれらのデータに基づいて、各ユーザ(視聴者)に対する課金処理を実行する。
 以下、図34に示すフローチャートを参照して、情報処理装置としての自由視点配信サーバ30が実行するコンテンツ視聴料金の算出シーケンスについて説明する。
 図34に示すフローチャートの各ステップの処理について説明する。
  (ステップS701)
 まず、情報処理装置(自由視点映像配信サーバ30)は、ステップS701において、「視聴料金S」をリセットする。
 「視聴料金S」は、処理対象となる指定のコンテンツに対する、処理対象となる指定ユーザ(視聴者)の視聴料金を計算するための変数である。
 情報処理装置は、ステップS701において、「視聴料金S」をリセットし、S=0、すなわち視聴料金=0に設定する。
  (ステップS702)
 次に、情報処理装置は、ステップS702において、処理対象となる指定のコンテンツのコンテンツID、処理対象となる指定ユーザ(視聴者)の視聴者IDにマッチする視聴状況情報リストL(k)をすべて取得する。
 kは、視聴状況情報リストL(k)のリスト要素を識別するリスト要素識別パラメータであり、k=0,1,2,・・・,nである。
  (ステップS703)
 次に、情報処理装置は、ステップS703において、リスト要素識別パラメータのの初期化処理を実行する。
 k=0
 に設定する。
  (ステップS704)
 次に、情報処理装置は、ステップS704において、リスト要素識別パラメータkが最大値nより大きいか否かを判定する。
 k>nである場合は、コンテンツ視聴料金の算出処理終了と判断して処理を終了する。
 k>nでない場合は、コンテンツ視聴料金の算出処理が終了していないと判断してステップS705に進む。
  (ステップS705)
 次に、情報処理装置は、ステップS705において、視聴状況情報リストL(k)の視聴料金算出時刻にマッチする指定コンテンツの視点位置(頭部位置)ヒートマップMpと、注視点位置ヒートマップMqを取得する。
  (ステップS706)
 次に、情報処理装置は、ステップS706において、視聴状況情報リストL(k)の頭部位置(視点位置)座標Pに対応する視点位置(頭部位置)ヒートマップMpの格子Lpを求め、その視点位置対応の人気度Rpを取得する。
  (ステップS707)
 次に、情報処理装置は、ステップS707において、視点位置人気度データに基づいて、人気度Rp対応の単価Vpを取得する。単価は1秒当たりの価格とする。
 この処理は、先に図32(1)を参照して説明した
 (1)視点位置人気度対応単価設定データ
 上記データを利用した単価算出処理である。
  (ステップS708)
 次に、情報処理装置は、ステップS708において、視聴料金Sを更新する。
 具縦的には、以下の算出式によって視聴料金を算出する。
 S=S+Vp/(フレームレート)
 この算出値Sを、更新後の新たな視聴料金Sとする。
  (ステップS709)
 次に、情報処理装置は、ステップS709において、視聴状況情報リストL(k)の頭部位置座標Pと視線方向から、注視点位置Qを算出する。
 この注視点位置算出処理は、先に図5を参照して説明した処理に相当する。
  (ステップS710)
 次に、情報処理装置は、ステップS710において、コンテンツ内に注視点位置Qが存在するか否かを判定する。
 存在する場合は、ステップS711に進み、存在しない場合は、ステップS714に進む。
  (ステップS711)
 ステップS710において、コンテンツ内に注視点位置Qが存在すると判定されると、次に、情報処理装置は、ステップS711において、注視点位置Qに対応する注視点位置ヒートマップMqの格子Lqを取得し、その注視点の人気度Rqを取得する。
  (ステップS712)
 次に、情報処理装置は、ステップS712において、注視点(またはFoV中心)注目度対応単価設定データに基づいて、人気度Rq対応の単価Vqを取得する。単価は1秒当たりの価格とする。
 この処理は、先に図32(2)を参照して説明した
 (1)注視点(またはFoV中心)注目度対応単価設定データ
 上記データを利用した単価算出処理である。
  (ステップS713)
 次に、情報処理装置は、ステップS713において、視聴料金Sを更新する。
 具縦的には、以下の算出式によって視聴料金を算出する。
 S=S+Vq/(フレームレート)
 この算出値Sを、更新後の新たな視聴料金Sとする。
  (ステップS714)
 次に、情報処理装置は、ステップS714において、視聴状況情報リストL(k)のリスト要素パラメータkの更新処理を実行する。すなわち、
 k=k+1
 上記のパラメータ更新を実行して、ステップS704以下の処理を更新パラメータに基づいて実行する。
 ステップS704で、視聴状況情報リストL(k)のリスト要素パラメータkが、パラメータ最大値nより大きい、すなわち、
 k>nである場合は、処理終了と判断して処理を終了する。
  [2-(g).コンサートや映画などの観客の注目領域を解析する実施例について]
 次に、コンサートや映画などの観客の注目領域を解析する実施例について説明する。
 この実施例は、具体的には、例えば、コンサートや映画などの観客に、視線検出用の器具(HMDなど)を装着させ、観客の視線情報等を取得して解析する実施例である。
 図35に示すように、例えば、コンサートや映画などの観客150に、視線検出用の器具(HMDなど)である視線トラッキングデバイス151を装着させ、この視線トラッキングデバイス151からの出力に基づいて、視線解析装置152が、観客150の視線位置(頭部位置)、視線方向情報等からなる視聴状況情報を生成する。
 すなわち、先に図3を参照して説明したデータを有する視聴状況情報を生成する。
 視線解析装置152が生成した視聴状況情報52は、視聴情報収集サーバ40に送信される。
 視聴情報収集サーバ40は、収集した視聴状況情報を、ネットワーク35を介して接続された視聴情報記録データベース41に格納する。
 コンテンツ配信サーバ30は、この視聴情報記録データベース41に格納された視聴状況情報に基づいて、前述した頭部位置(視点位置)ヒートマップや注視点位置ヒートマップを生成することが可能となる。
 さらに、これらのヒートマップを利用することで、前述の(A)~(F)の各実施例に従った処理を行うことができる。
 なお、図35に示す構成では、視線解析装置152が視聴状況情報52を生成する設定としているが、視線トラッキングデバイス151からの出力を、直接、視線情報収集サーバ40に送信して、視線情報収集サーバ40において、視聴状況情報52を生成する構成としてもよい。
 さらに、コンサートなど観客や聴衆が記録されている自由視点映像では、そのコンテンツ内の人の視線を検出してヒートマップを算出することにより、そのコンテンツを直接視聴している視聴者の視線情報が取得できなくても上記と同様の処理を実現することが可能である。この場合、コンテンツ内部の視聴者の解析を実行して視聴状況情報を生成する。
  [3.情報処理装置のハードウェア構成例について]
 次に、上述した実施例に従った処理を実行する各サーバ、およびクライアント側のPCや、視聴デバイス等を構成する情報処理装置、およびサーバのハードウェア構成の一構成例について、図36を参照して説明する。
 CPU(Central Processing Unit)301は、ROM(Read Only Memory)302、または記憶部308に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)303には、CPU301が実行するプログラムやデータなどが記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。
 CPU301はバス304を介して入出力インタフェース305に接続され、入出力インタフェース305には、各種スイッチ、キーボード、マウス、マイクロホンなどよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307が接続されている。CPU301は、入力部306から入力される指令に対応して各種の処理を実行し、処理結果を例えば出力部307に出力する。
 入出力インタフェース305に接続されている記憶部308は、例えばハードディスク等からなり、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部、さらに放送波の送受信部として機能し、外部の装置と通信する。
 入出力インタフェース305に接続されているドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア311を駆動し、データの記録あるいは読み取りを実行する。
 なお、データの符号化あるいは復号は、データ処理部としてのCPU301の処理として実行可能であるが、符号化処理あるいは復号処理を実行するための専用ハードウェアとしてのコーデックを備えた構成としてもよい。
  [4.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) コンテンツを視聴する複数ユーザの視点位置情報を取得し、
 ユーザの視点位置の分布状況を示す視点位置ヒートマップを生成するデータ処理部を有する情報処理装置。
 (2) 前記データ処理部は、さらに、
 前記複数ユーザのコンテンツの注視点位置情報を取得し、
 ユーザの注視点位置の分布状況を示す注視点位置ヒートマップを生成する(1)に記載の情報処理装置。
 (3) 前記データ処理部は、
 コンテンツを視聴するユーザの視線方向と、コンテンツ内の表示オブジェクトの交点を注視点位置として算出して、前記注視点位置ヒートマップを生成する(2)に記載の情報処理装置。
 (4) 前記コンテンツは視点位置、または視線方向の少なくともいずれかに応じた映像を観察可能とした自由視点映像コンテンツであり、
 前記データ処理部は、視聴デバイスに設けられたセンサ出力に基づいて前記視点位置情報を含む視点状況情報を取得する(1)~(3)いずれかに記載の情報処理装置。
 (5) 前記視点状況情報は、
 コンテンツを視聴するユーザ単位の少なくとも視点位置と視線方向を時系列データとして記録した情報である(4)に記載の情報処理装置。
 (6) 前記視点位置は、ユーザの頭部位置である(5)に記載の情報処理装置。
 (7) 前記データ処理部は、
 コンテンツ視聴ユーザの視点位置の分布状況を示す視点位置ヒートマップ、または、
 コンテンツ視聴ユーザの注視点位置の分布状況を示す注視点位置ヒートマップ、
 の少なくともいずれかのヒートマップを利用して、
 分布率の高い視点位置、または注視点位置を含む推奨視点情報を生成する(1)~(6)いずれかに記載の情報処理装置。
 (8) 前記データ処理部は、
 視点位置、または視線方向の少なくともいずれかに応じた映像を観察可能とした自由視点映像コンテンツとともに、前記推奨視点情報をコンテンツ視聴側のクライアントに送信する(7)に記載の情報処理装置。
 (9) 前記データ処理部は、
 コンテンツ視聴ユーザの視点位置の分布状況を示す視点位置ヒートマップ、または、
 コンテンツ視聴ユーザの注視点位置の分布状況を示す注視点位置ヒートマップ、
 の少なくともいずれかのヒートマップを利用して、
 コンテンツのシーン転換点情報を生成する(1)~(8)いずれかに記載の情報処理装置。
 (10) 前記データ処理部は、
 前記視点位置ヒートマップ、または注視点位置ヒートマップの時系列データにおいて、変化量の大きい変換点をシーン転換点と推定して、前記シーン転換点情報を生成する(9)に記載の情報処理装置。
 (11) 前記データ処理部は、
 視点位置、または視線方向の少なくともいずれかに応じた映像を観察可能とした自由視点映像コンテンツとともに、前記シーン転換点情報をコンテンツ視聴側のクライアントに送信する(9)または(10)に記載の情報処理装置。
 (12) 前記データ処理部は、
 コンテンツ視聴ユーザの注視点位置の分布状況を示す注視点位置ヒートマップを利用して、コンテンツ領域対応の広告料金を設定し、設定した広告料金に従った広告出力制御を実行する(1)~(11)いずれかに記載の情報処理装置。
 (13) 前記データ処理部は、
 前記注視点位置ヒートマップに基づいて、注視点分布率の高いコンテンツ領域の広告料金を高くした広告ランク規定情報を生成し、
 生成した広告ランク規定情報を利用して、広告出力制御を実行する(12)に記載の情報処理装置。
 (14) 前記データ処理部は、
 コンテンツ視聴ユーザの注視点位置の分布状況を示す注視点位置ヒートマップを利用して、コンテンツ領域対応のエンコード制御を実行して生成したエンコード制御コンテンツを、コンテンツ視聴側のクライアントに送信する(1)~(13)いずれかに記載の情報処理装置。
 (15) 前記データ処理部は、
 コンテンツ視聴ユーザの視点位置の分布状況を示す視点位置ヒートマップ、または、
 コンテンツ視聴ユーザの注視点位置の分布状況を示す注視点位置ヒートマップ、
 の少なくともいずれかのヒートマップを利用して、
 コンテンツ領域単位の課金処理を実行する(1)~(14)いずれかに記載の情報処理装置。
 (16) サーバとクライアントを有する情報処理システムであり、
 前記サーバは、
 視点位置、または視線方向の少なくともいずれかに応じた映像を観察可能とした自由視点映像コンテンツを前記クライアントに送信し、
 前記クライアントは、
 コンテンツを視聴するユーザの視点位置と視線方向の時系列データを有する視聴状況情報を生成してサーバに送信し、
 サーバは、複数のクライアントから視聴状況情報を受信し、
 コンテンツ視聴ユーザの視点位置の分布状況を示す視点位置ヒートマップ、または、
 コンテンツ視聴ユーザの注視点位置の分布状況を示す注視点位置ヒートマップ、
 の少なくともいずれかのヒートマップを生成する情報処理システム。
 (17) 前記サーバは、
 コンテンツを視聴するユーザの視線方向と、コンテンツ内の表示オブジェクトの交点を注視点位置として算出して、前記注視点位置ヒートマップを生成する(16)に記載の情報処理システム。
 (18) 視点位置、または視線方向の少なくともいずれかに応じた映像を観察可能とした自由視点映像コンテンツをサーバから受信して表示する処理を実行し、さらに、
 前記自由視点映像コンテンツを視聴するユーザの視点位置と視線方向の時系列データを含む視聴状況情報を生成してサーバに送信する情報処理装置。
 (19) 情報処理装置において、情報処理を実行する情報処理方法であり、
 前記情報処理装置のデータ処理部が、
 コンテンツを視聴する複数ユーザの視点位置情報を取得し、
 ユーザの視点位置の分布状況を示す視点位置ヒートマップを生成する情報処理方法。
 (20) 情報処理装置において、情報処理を実行させるプログラムであり、
 前記情報処理装置のデータ処理部に、
 コンテンツを視聴する複数ユーザの視点位置情報を取得する処理と、
 ユーザの視点位置の分布状況を示す視点位置ヒートマップを生成する処理を実行させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、コンテンツ視聴ユーザの視点位置の分布状況を示す視点位置ヒートマップを生成し、ヒートマップを利用したコンテンツや広告の配信制御を可能とする構成が実現される。
 具体的には、例えば、サーバは、視点位置や視線方向に応じた映像を観察可能とした自由視点映像コンテンツをクライアントに送信する。クライアントはコンテンツ視聴ユーザの視点位置と視線方向の時系列データを有する視聴状況情報を生成してサーバに送信する。サーバは、複数クライアントから視聴状況情報を受信し、視聴ユーザの視点位置分布状況を示す視点位置ヒートマップと、視聴ユーザの注視点位置分布状況を示す注視点位置ヒートマップを生成する。さらに、ヒートマップに応じたコンテンツの配信制御、広告の配信制御等を実行する。
 本構成により、コンテンツ視聴ユーザの視点位置の分布状況を示す視点位置ヒートマップを生成し、ヒートマップを利用したコンテンツや広告の配信制御を可能とする構成が実現される。
  10 ユーザ(視聴者)
  20 視聴デバイス
  21 PC
  30 自由視点映像配信サーバ
  31 自由視点映像コンテンツデータベース
  40 視聴情報収集サーバ
  41 視聴情報記録データベース
  51 コンテンツ(自由視点映像コンテンツ)
  52 視聴状況情報
  56 表示オブジェクト
  57 視聴者視線方向
  58 注視点
  61 推奨視点情報
  70 視聴デバイス
  71 PC
  72 HMD
  73 PC
  74 携帯端末(スマホ)
  81 シーン転換点情報
 101 広告データベース
 102 広告埋め込みコンテンツ
 121 トランスコードサーバ
 122 トランスコード済みコンテンツデータベース
 131 エンコード制御コンテンツ
 141 課金情報データベース
 151 視線トラッキングデバイス
 152 視線解析装置
 301 CPU
 302 ROM
 303 RAM
 304 バス
 305 入出力インタフェース
 306 入力部
 307 出力部
 308 記憶部
 309 通信部
 310 ドライブ
 311 リムーバブルメディア

Claims (20)

  1.  コンテンツを視聴する複数ユーザの視点位置情報を取得し、
     ユーザの視点位置の分布状況を示す視点位置ヒートマップを生成するデータ処理部を有する情報処理装置。
  2.  前記データ処理部は、さらに、
     前記複数ユーザのコンテンツの注視点位置情報を取得し、
     ユーザの注視点位置の分布状況を示す注視点位置ヒートマップを生成する請求項1に記載の情報処理装置。
  3.  前記データ処理部は、
     コンテンツを視聴するユーザの視線方向と、コンテンツ内の表示オブジェクトの交点を注視点位置として算出して、前記注視点位置ヒートマップを生成する請求項2に記載の情報処理装置。
  4.  前記コンテンツは視点位置、または視線方向の少なくともいずれかに応じた映像を観察可能とした自由視点映像コンテンツであり、
     前記データ処理部は、視聴デバイスに設けられたセンサ出力に基づいて前記視点位置情報を含む視点状況情報を取得する請求項1に記載の情報処理装置。
  5.  前記視点状況情報は、
     コンテンツを視聴するユーザ単位の少なくとも視点位置と視線方向を時系列データとして記録した情報である請求項4に記載の情報処理装置。
  6.  前記視点位置は、ユーザの頭部位置である請求項5に記載の情報処理装置。
  7.  前記データ処理部は、
     コンテンツ視聴ユーザの視点位置の分布状況を示す視点位置ヒートマップ、または、
     コンテンツ視聴ユーザの注視点位置の分布状況を示す注視点位置ヒートマップ、
     の少なくともいずれかのヒートマップを利用して、
     分布率の高い視点位置、または注視点位置を含む推奨視点情報を生成する請求項1に記載の情報処理装置。
  8.  前記データ処理部は、
     視点位置、または視線方向の少なくともいずれかに応じた映像を観察可能とした自由視点映像コンテンツとともに、前記推奨視点情報をコンテンツ視聴側のクライアントに送信する請求項7に記載の情報処理装置。
  9.  前記データ処理部は、
     コンテンツ視聴ユーザの視点位置の分布状況を示す視点位置ヒートマップ、または、
     コンテンツ視聴ユーザの注視点位置の分布状況を示す注視点位置ヒートマップ、
     の少なくともいずれかのヒートマップを利用して、
     コンテンツのシーン転換点情報を生成する請求項1に記載の情報処理装置。
  10.  前記データ処理部は、
     前記視点位置ヒートマップ、または注視点位置ヒートマップの時系列データにおいて、変化量の大きい変換点をシーン転換点と推定して、前記シーン転換点情報を生成する請求項9に記載の情報処理装置。
  11.  前記データ処理部は、
     視点位置、または視線方向の少なくともいずれかに応じた映像を観察可能とした自由視点映像コンテンツとともに、前記シーン転換点情報をコンテンツ視聴側のクライアントに送信する請求項9に記載の情報処理装置。
  12.  前記データ処理部は、
     コンテンツ視聴ユーザの注視点位置の分布状況を示す注視点位置ヒートマップを利用して、コンテンツ領域対応の広告料金を設定し、設定した広告料金に従った広告出力制御を実行する請求項1に記載の情報処理装置。
  13.  前記データ処理部は、
     前記注視点位置ヒートマップに基づいて、注視点分布率の高いコンテンツ領域の広告料金を高くした広告ランク規定情報を生成し、
     生成した広告ランク規定情報を利用して、広告出力制御を実行する請求項12に記載の情報処理装置。
  14.  前記データ処理部は、
     コンテンツ視聴ユーザの注視点位置の分布状況を示す注視点位置ヒートマップを利用して、コンテンツ領域対応のエンコード制御を実行して生成したエンコード制御コンテンツを、コンテンツ視聴側のクライアントに送信する請求項1に記載の情報処理装置。
  15.  前記データ処理部は、
     コンテンツ視聴ユーザの視点位置の分布状況を示す視点位置ヒートマップ、または、
     コンテンツ視聴ユーザの注視点位置の分布状況を示す注視点位置ヒートマップ、
     の少なくともいずれかのヒートマップを利用して、
     コンテンツ領域単位の課金処理を実行する請求項1に記載の情報処理装置。
  16.  サーバとクライアントを有する情報処理システムであり、
     前記サーバは、
     視点位置、または視線方向の少なくともいずれかに応じた映像を観察可能とした自由視点映像コンテンツを前記クライアントに送信し、
     前記クライアントは、
     コンテンツを視聴するユーザの視点位置と視線方向の時系列データを有する視聴状況情報を生成してサーバに送信し、
     サーバは、複数のクライアントから視聴状況情報を受信し、
     コンテンツ視聴ユーザの視点位置の分布状況を示す視点位置ヒートマップ、または、
     コンテンツ視聴ユーザの注視点位置の分布状況を示す注視点位置ヒートマップ、
     の少なくともいずれかのヒートマップを生成する情報処理システム。
  17.  前記サーバは、
     コンテンツを視聴するユーザの視線方向と、コンテンツ内の表示オブジェクトの交点を注視点位置として算出して、前記注視点位置ヒートマップを生成する請求項16に記載の情報処理システム。
  18.  視点位置、または視線方向の少なくともいずれかに応じた映像を観察可能とした自由視点映像コンテンツをサーバから受信して表示する処理を実行し、さらに、
     前記自由視点映像コンテンツを視聴するユーザの視点位置と視線方向の時系列データを含む視聴状況情報を生成してサーバに送信する情報処理装置。
  19.  情報処理装置において、情報処理を実行する情報処理方法であり、
     前記情報処理装置のデータ処理部が、
     コンテンツを視聴する複数ユーザの視点位置情報を取得し、
     ユーザの視点位置の分布状況を示す視点位置ヒートマップを生成する情報処理方法。
  20.  情報処理装置において、情報処理を実行させるプログラムであり、
     前記情報処理装置のデータ処理部に、
     コンテンツを視聴する複数ユーザの視点位置情報を取得する処理と、
     ユーザの視点位置の分布状況を示す視点位置ヒートマップを生成する処理を実行させるプログラム。
PCT/JP2017/034884 2016-10-26 2017-09-27 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム WO2018079166A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780064597.8A CN109845277A (zh) 2016-10-26 2017-09-27 信息处理装置、信息处理系统、信息处理方法和程序
JP2018547214A JP6996514B2 (ja) 2016-10-26 2017-09-27 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US16/333,326 US20190253743A1 (en) 2016-10-26 2017-09-27 Information processing device, information processing system, and information processing method, and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-209294 2016-10-26
JP2016209294 2016-10-26

Publications (1)

Publication Number Publication Date
WO2018079166A1 true WO2018079166A1 (ja) 2018-05-03

Family

ID=62023359

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/034884 WO2018079166A1 (ja) 2016-10-26 2017-09-27 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム

Country Status (4)

Country Link
US (1) US20190253743A1 (ja)
JP (1) JP6996514B2 (ja)
CN (1) CN109845277A (ja)
WO (1) WO2018079166A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019212137A (ja) * 2018-06-06 2019-12-12 株式会社アルファコード ヒートマップ提示装置およびヒートマップ提示用プログラム
WO2020022946A1 (en) * 2018-07-27 2020-01-30 Telefonaktiebolaget Lm Ericsson (Publ) System and method for inserting advertisement content in 360-degree immersive video
WO2020049838A1 (ja) * 2018-09-07 2020-03-12 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN111727605A (zh) * 2018-06-01 2020-09-29 Lg电子株式会社 用于发送和接收关于多个视点的元数据的方法及设备
WO2021161774A1 (ja) * 2020-02-10 2021-08-19 ソニーグループ株式会社 画像処理装置、画像処理方法及びプログラム
WO2021199184A1 (ja) * 2020-03-30 2021-10-07 株式会社ソニー・インタラクティブエンタテインメント 画像表示システム、画像処理装置、画像表示方法、およびコンピュータプログラム
JP2021527974A (ja) * 2018-06-22 2021-10-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像データストリームを生成するための装置および方法
WO2022054716A1 (ja) * 2020-09-14 2022-03-17 株式会社Nttドコモ 情報配信管理装置
WO2022070598A1 (ja) * 2020-09-29 2022-04-07 富士フイルム株式会社 データ処理装置、データ処理方法、及びプログラム
KR20220073621A (ko) * 2020-11-26 2022-06-03 한양대학교 산학협력단 안구 전도 기반의 시선 추적 방법
JP2022083921A (ja) * 2020-11-25 2022-06-06 ソフトバンク株式会社 情報処理装置及びプログラム
US11490063B2 (en) 2018-10-01 2022-11-01 Telefonaktiebolaget Lm Ericsson (Publ) Video client optimization during pause
JP7171964B1 (ja) 2022-07-29 2022-11-15 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP7398854B1 (ja) 2023-06-30 2023-12-15 ヴィアゲート株式会社 ウェブページ閲覧解析システム、ウェブページ閲覧解析方法およびウェブページ閲覧解析プログラム
JP7398853B1 (ja) 2023-06-30 2023-12-15 ヴィアゲート株式会社 動画視聴解析システム、動画視聴解析方法および動画視聴解析プログラム
JP7509904B2 (ja) 2020-09-29 2024-07-02 富士フイルム株式会社 データ処理装置、データ処理方法、及びプログラム

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108632674B (zh) * 2017-03-23 2021-09-21 华为技术有限公司 一种全景视频的播放方法和客户端
JP6463826B1 (ja) * 2017-11-27 2019-02-06 株式会社ドワンゴ 動画配信サーバ、動画配信方法及び動画配信プログラム
US20190253751A1 (en) * 2018-02-13 2019-08-15 Perfect Corp. Systems and Methods for Providing Product Information During a Live Broadcast
JP2020005038A (ja) * 2018-06-25 2020-01-09 キヤノン株式会社 送信装置、送信方法、受信装置、受信方法、及び、プログラム
US10991342B2 (en) * 2018-07-04 2021-04-27 Ricoh Company, Ltd. Terminal apparatus, system, and method of displaying image
JP7301507B2 (ja) * 2018-08-08 2023-07-03 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
CN111163306B (zh) * 2018-11-08 2022-04-05 华为技术有限公司 一种vr视频处理的方法及相关装置
KR102287133B1 (ko) * 2018-11-30 2021-08-09 한국전자기술연구원 자유 시점 영상 제공 방법 및 장치
US11388467B1 (en) 2019-07-17 2022-07-12 Walgreen Co. Media content distribution platform
US11589094B2 (en) * 2019-07-22 2023-02-21 At&T Intellectual Property I, L.P. System and method for recommending media content based on actual viewers
CN112738010B (zh) * 2019-10-28 2023-08-22 阿里巴巴集团控股有限公司 数据交互方法及系统、交互终端、可读存储介质
US11023729B1 (en) 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
CN111158492B (zh) * 2019-12-31 2021-08-06 维沃移动通信有限公司 视频剪辑方法及头戴式设备
EP4099687A4 (en) * 2020-01-30 2023-10-11 Amatelus Inc. VIDEO DISTRIBUTION APPARATUS, VIDEO DISTRIBUTION SYSTEM, VIDEO DISTRIBUTION METHOD AND PROGRAM
KR20210147404A (ko) * 2020-05-28 2021-12-07 삼성전자주식회사 엣지 컴퓨팅 서비스를 이용한 영상 컨텐츠 전송 방법 및 장치
GB2597917B (en) * 2020-07-29 2024-03-27 Sony Interactive Entertainment Inc Gaze tracking method and apparatus
WO2022091215A1 (ja) * 2020-10-27 2022-05-05 Amatelus株式会社 映像配信装置、映像配信システム、映像配信方法、及びプログラム
CN112887600B (zh) * 2021-01-25 2022-08-05 睿魔智能科技(深圳)有限公司 一种基于起立行为检测的拍摄方法及系统
US20230019723A1 (en) * 2021-07-14 2023-01-19 Rovi Guides, Inc. Interactive supplemental content system
CN113784149B (zh) * 2021-09-10 2023-09-19 咪咕数字传媒有限公司 一种视频信号的热度区域的展示方法、装置及设备
CN114051089B (zh) * 2021-10-12 2023-09-15 聚好看科技股份有限公司 一种全景视频中投放资源的方法及显示设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132362A (ja) * 2001-10-22 2003-05-09 Sony Corp 情報通信システム、および情報通信方法、並びにコンピュータ・プログラム
JP2013255210A (ja) * 2012-01-19 2013-12-19 Nippon Telegr & Teleph Corp <Ntt> 映像表示方法、映像表示装置および映像表示プログラム
JP2014183353A (ja) * 2013-03-18 2014-09-29 Sony Corp 映像処理装置、映像再生装置、映像処理方法、映像再生方法及び映像処理システム
JP2016025633A (ja) * 2014-07-24 2016-02-08 ソニー株式会社 情報処理装置、管理装置、情報処理方法、およびプログラム

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2683648B1 (fr) * 1991-11-12 1996-12-13 Apple Computer Procede de choix d'objets dans une sequence d'images mobiles et piste d'essai de reussite correspondante.
US6009409A (en) * 1997-04-02 1999-12-28 Lucent Technologies, Inc. System and method for scheduling and controlling delivery of advertising in a communications network
WO2007056373A2 (en) * 2005-11-04 2007-05-18 Eyetracking, Inc. Characterizing dynamic regions of digital media data
US8613024B2 (en) * 2005-12-13 2013-12-17 United Video Properties, Inc. Cross-platform predictive popularity ratings for use in interactive television applications
US8446509B2 (en) * 2006-08-09 2013-05-21 Tenebraex Corporation Methods of creating a virtual window
US8374590B1 (en) * 2006-10-12 2013-02-12 At&T Mobility Ii Llc Systems and methods for updating user availability for wireless communication applications
US20090021598A1 (en) * 2006-12-06 2009-01-22 Mclean John Miniature integrated multispectral/multipolarization digital camera
US20090133047A1 (en) * 2007-10-31 2009-05-21 Lee Hans C Systems and Methods Providing Distributed Collection and Centralized Processing of Physiological Responses from Viewers
US8356004B2 (en) * 2007-12-13 2013-01-15 Searete Llc Methods and systems for comparing media content
US10872322B2 (en) * 2008-03-21 2020-12-22 Dressbot, Inc. System and method for collaborative shopping, business and entertainment
US8079054B1 (en) * 2008-04-14 2011-12-13 Adobe Systems Incorporated Location for secondary content based on data differential
JP4775671B2 (ja) * 2008-12-26 2011-09-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8808195B2 (en) * 2009-01-15 2014-08-19 Po-He Tseng Eye-tracking method and system for screening human diseases
WO2010147600A2 (en) * 2009-06-19 2010-12-23 Hewlett-Packard Development Company, L, P. Qualified command
US8154615B2 (en) * 2009-06-30 2012-04-10 Eastman Kodak Company Method and apparatus for image display control according to viewer factors and responses
US8684742B2 (en) * 2010-04-19 2014-04-01 Innerscope Research, Inc. Short imagery task (SIT) research method
US8487959B1 (en) * 2010-08-06 2013-07-16 Google Inc. Generating simulated eye movement traces for visual displays
US20120106793A1 (en) * 2010-10-29 2012-05-03 Gershenson Joseph A Method and system for improving the quality and utility of eye tracking data
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US9213405B2 (en) * 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
JP5841538B2 (ja) * 2011-02-04 2016-01-13 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 関心度推定装置および関心度推定方法
JP2012248070A (ja) * 2011-05-30 2012-12-13 Sony Corp 情報処理装置、メタデータ設定方法、及びプログラム
WO2013018267A1 (ja) * 2011-07-29 2013-02-07 パナソニック株式会社 提示制御装置、及び提示制御方法
US9442565B2 (en) * 2011-08-24 2016-09-13 The United States Of America, As Represented By The Secretary Of The Navy System and method for determining distracting features in a visual display
US9538133B2 (en) * 2011-09-23 2017-01-03 Jie Diao Conveying gaze information in virtual conference
US20130205314A1 (en) * 2012-02-07 2013-08-08 Arun Ramaswamy Methods and apparatus to select media based on engagement levels
CN104145234A (zh) * 2012-03-07 2014-11-12 索尼公司 信息处理装置、信息处理方法以及程序
JP6028351B2 (ja) * 2012-03-16 2016-11-16 ソニー株式会社 制御装置、電子機器、制御方法、及びプログラム
US20140122991A1 (en) * 2012-03-25 2014-05-01 Imc Technologies Sa Fast annotation of electronic content and mapping of same
AU2013205535B2 (en) * 2012-05-02 2018-03-15 Samsung Electronics Co., Ltd. Apparatus and method of controlling mobile terminal based on analysis of user's face
EP2856281A1 (en) * 2012-05-24 2015-04-08 Thomson Licensing Content/advertising profiling
US20140092006A1 (en) * 2012-09-28 2014-04-03 Joshua Boelter Device and method for modifying rendering based on viewer focus area from eye tracking
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
US20140195918A1 (en) * 2013-01-07 2014-07-10 Steven Friedlander Eye tracking user interface
US10031637B2 (en) * 2013-01-25 2018-07-24 Lg Electronics Inc. Image display apparatus and method for operating the same
WO2014138352A1 (en) * 2013-03-06 2014-09-12 Zito Arthur J Jr Multi-media presentation system
JP6191248B2 (ja) * 2013-06-04 2017-09-06 富士通株式会社 情報処理装置及び情報処理プログラム
US9367131B2 (en) * 2013-07-24 2016-06-14 Rovi Guides, Inc. Methods and systems for generating icons associated with providing brain state feedback
US9451162B2 (en) * 2013-08-21 2016-09-20 Jaunt Inc. Camera array including camera modules
US9137558B2 (en) * 2013-11-26 2015-09-15 At&T Intellectual Property I, Lp Method and system for analysis of sensory information to estimate audience reaction
US20150244747A1 (en) * 2014-02-26 2015-08-27 United Video Properties, Inc. Methods and systems for sharing holographic content
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
WO2015170142A1 (en) * 2014-05-08 2015-11-12 Sony Corporation Portable electronic equipment and method of controlling a portable electronic equipment
US10852838B2 (en) * 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9363569B1 (en) * 2014-07-28 2016-06-07 Jaunt Inc. Virtual reality system including social graph
US10198505B2 (en) * 2014-08-21 2019-02-05 Affectomatics Ltd. Personalized experience scores based on measurements of affective response
US9736503B1 (en) * 2014-09-12 2017-08-15 Google Inc. Optimizing timing of display of a mid-roll video advertisement based on viewer retention data
CN108196369B (zh) * 2015-01-06 2020-12-04 华为技术有限公司 一种近眼显示器
KR20160090123A (ko) * 2015-01-21 2016-07-29 삼성전자주식회사 선호채널 설정 장치 및 방법
US9842268B1 (en) * 2015-03-27 2017-12-12 Google Llc Determining regions of interest based on user interaction
KR101687543B1 (ko) * 2015-04-27 2016-12-19 엘지전자 주식회사 디스플레이 장치 및 그 제어방법
US20160345062A1 (en) * 2015-05-19 2016-11-24 Rovi Guides, Inc. Systems and methods for determining temporally popular content for presentation on a common display
US10390064B2 (en) * 2015-06-30 2019-08-20 Amazon Technologies, Inc. Participant rewards in a spectating system
KR102343331B1 (ko) * 2015-07-07 2021-12-24 삼성전자주식회사 통신 시스템에서 비디오 서비스를 제공하는 방법 및 장치
WO2017025483A1 (de) * 2015-08-07 2017-02-16 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Verfahren und vorrichtung zur datenerfassung und auswertung von umgebungsdaten
US9829976B2 (en) * 2015-08-07 2017-11-28 Tobii Ab Gaze direction mapping
CN105915877A (zh) * 2015-12-27 2016-08-31 乐视致新电子科技(天津)有限公司 一种三维视频的自由观影方法及设备
EP3432590A4 (en) * 2016-03-14 2019-02-27 Sony Corporation DISPLAY DEVICE AND TERMINAL INFORMATION PROCESSING DEVICE
US20170289596A1 (en) * 2016-03-31 2017-10-05 Microsoft Technology Licensing, Llc Networked public multi-screen content delivery
US10187694B2 (en) * 2016-04-07 2019-01-22 At&T Intellectual Property I, L.P. Method and apparatus for enhancing audience engagement via a communication network
US9851792B2 (en) * 2016-04-27 2017-12-26 Rovi Guides, Inc. Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment
US10139901B2 (en) * 2016-07-05 2018-11-27 Immersv, Inc. Virtual reality distraction monitor
WO2018035133A1 (en) * 2016-08-17 2018-02-22 Vid Scale, Inc. Secondary content insertion in 360-degree video
US20180077345A1 (en) * 2016-09-12 2018-03-15 Canon Kabushiki Kaisha Predictive camera control system and method
US10345898B2 (en) * 2016-09-22 2019-07-09 International Business Machines Corporation Context selection based on user eye focus
US10021448B2 (en) * 2016-11-22 2018-07-10 DISH Technologies L.L.C. Sports bar mode automatic viewing determination

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132362A (ja) * 2001-10-22 2003-05-09 Sony Corp 情報通信システム、および情報通信方法、並びにコンピュータ・プログラム
JP2013255210A (ja) * 2012-01-19 2013-12-19 Nippon Telegr & Teleph Corp <Ntt> 映像表示方法、映像表示装置および映像表示プログラム
JP2014183353A (ja) * 2013-03-18 2014-09-29 Sony Corp 映像処理装置、映像再生装置、映像処理方法、映像再生方法及び映像処理システム
JP2016025633A (ja) * 2014-07-24 2016-02-08 ソニー株式会社 情報処理装置、管理装置、情報処理方法、およびプログラム

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111727605A (zh) * 2018-06-01 2020-09-29 Lg电子株式会社 用于发送和接收关于多个视点的元数据的方法及设备
CN111727605B (zh) * 2018-06-01 2022-09-13 Lg电子株式会社 用于发送和接收关于多个视点的元数据的方法及设备
JP7168969B2 (ja) 2018-06-06 2022-11-10 株式会社アルファコード ヒートマップ提示装置およびヒートマップ提示用プログラム
US11393161B2 (en) 2018-06-06 2022-07-19 Alpha Code Inc. Heat map presentation device and heat map presentation program
CN112236740A (zh) * 2018-06-06 2021-01-15 株式会社阿尔法代码 热图展示装置以及热图展示用程序
JP2019212137A (ja) * 2018-06-06 2019-12-12 株式会社アルファコード ヒートマップ提示装置およびヒートマップ提示用プログラム
WO2019235106A1 (ja) * 2018-06-06 2019-12-12 株式会社アルファコード ヒートマップ提示装置およびヒートマップ提示用プログラム
JP2021527974A (ja) * 2018-06-22 2021-10-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像データストリームを生成するための装置および方法
JP7480065B2 (ja) 2018-06-22 2024-05-09 コーニンクレッカ フィリップス エヌ ヴェ 画像データストリームを生成するための装置および方法
WO2020022946A1 (en) * 2018-07-27 2020-01-30 Telefonaktiebolaget Lm Ericsson (Publ) System and method for inserting advertisement content in 360-degree immersive video
US11647258B2 (en) 2018-07-27 2023-05-09 Telefonaktiebolaget Lm Ericsson (Publ) Immersive video with advertisement content
US11481179B2 (en) 2018-09-07 2022-10-25 Sony Corporation Information processing apparatus and information processing method
WO2020049838A1 (ja) * 2018-09-07 2020-03-12 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11490063B2 (en) 2018-10-01 2022-11-01 Telefonaktiebolaget Lm Ericsson (Publ) Video client optimization during pause
US11758103B2 (en) 2018-10-01 2023-09-12 Telefonaktiebolaget Lm Ericsson (Publ) Video client optimization during pause
WO2021161774A1 (ja) * 2020-02-10 2021-08-19 ソニーグループ株式会社 画像処理装置、画像処理方法及びプログラム
WO2021199184A1 (ja) * 2020-03-30 2021-10-07 株式会社ソニー・インタラクティブエンタテインメント 画像表示システム、画像処理装置、画像表示方法、およびコンピュータプログラム
JP7496412B2 (ja) 2020-03-30 2024-06-06 株式会社ソニー・インタラクティブエンタテインメント 画像表示システム、画像処理装置、画像表示方法、およびコンピュータプログラム
WO2022054716A1 (ja) * 2020-09-14 2022-03-17 株式会社Nttドコモ 情報配信管理装置
JP7436687B2 (ja) 2020-09-14 2024-02-22 株式会社Nttドコモ 情報配信管理装置
JP7509904B2 (ja) 2020-09-29 2024-07-02 富士フイルム株式会社 データ処理装置、データ処理方法、及びプログラム
WO2022070598A1 (ja) * 2020-09-29 2022-04-07 富士フイルム株式会社 データ処理装置、データ処理方法、及びプログラム
JP2022083921A (ja) * 2020-11-25 2022-06-06 ソフトバンク株式会社 情報処理装置及びプログラム
JP7194158B2 (ja) 2020-11-25 2022-12-21 ソフトバンク株式会社 情報処理装置及びプログラム
KR20220073621A (ko) * 2020-11-26 2022-06-03 한양대학교 산학협력단 안구 전도 기반의 시선 추적 방법
KR102564902B1 (ko) 2020-11-26 2023-08-09 한양대학교 산학협력단 안구 전도 기반의 시선 추적 방법
JP2024018622A (ja) * 2022-07-29 2024-02-08 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
WO2024024500A1 (ja) * 2022-07-29 2024-02-01 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP7171964B1 (ja) 2022-07-29 2022-11-15 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP7398853B1 (ja) 2023-06-30 2023-12-15 ヴィアゲート株式会社 動画視聴解析システム、動画視聴解析方法および動画視聴解析プログラム
JP7398854B1 (ja) 2023-06-30 2023-12-15 ヴィアゲート株式会社 ウェブページ閲覧解析システム、ウェブページ閲覧解析方法およびウェブページ閲覧解析プログラム

Also Published As

Publication number Publication date
CN109845277A (zh) 2019-06-04
US20190253743A1 (en) 2019-08-15
JPWO2018079166A1 (ja) 2019-09-12
JP6996514B2 (ja) 2022-01-17

Similar Documents

Publication Publication Date Title
JP6996514B2 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP6558587B2 (ja) 情報処理装置、表示装置、情報処理方法、プログラム、および情報処理システム
JP6575974B2 (ja) ヘッドマウントディスプレイの追跡システム
US20190335166A1 (en) Deriving 3d volumetric level of interest data for 3d scenes from viewer consumption data
JP6824579B2 (ja) 画像生成装置および画像生成方法
TW200421865A (en) Image generating method utilizing on-the-spot photograph and shape data
US11501486B2 (en) Surface characterisation apparatus and system
JP6934957B2 (ja) 画像生成装置、基準画像データ生成装置、画像生成方法、および基準画像データ生成方法
JP6980031B2 (ja) 画像生成装置および画像生成方法
US10803652B2 (en) Image generating apparatus, image generating method, and program for displaying fixation point objects in a virtual space
CN112272817B (zh) 用于在沉浸式现实中提供音频内容的方法和装置
JP6392738B2 (ja) 情報取得装置、情報取得方法及び情報取得プログラム
US20200257112A1 (en) Content generation apparatus and method
CN113170231A (zh) 跟随用户运动控制播放视频内容的方法和装置
US20220230400A1 (en) Image processing apparatus, image distribution system, and image processing method
EP3493541B1 (en) Selecting an omnidirectional image for display
JP2022522504A (ja) 画像の奥行きマップの処理
JP6563592B2 (ja) 表示制御装置、表示制御方法及びプログラム
JPWO2019004073A1 (ja) 画像配置決定装置、表示制御装置、画像配置決定方法、表示制御方法及びプログラム
JP2022521701A (ja) 画像信号を生成する装置および方法
US20200336717A1 (en) Information processing device and image generation method
WO2022224964A1 (ja) 情報処理装置及び情報処理方法
WO2022259632A1 (ja) 情報処理装置及び情報処理方法
CN118338237A (zh) 用于在沉浸式现实中提供音频内容的方法和装置
JP2022032838A (ja) 送信装置、受信装置、ネットワークノード、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17865081

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018547214

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17865081

Country of ref document: EP

Kind code of ref document: A1