WO2022065040A1 - 情報処理装置、情報処理方法、および情報処理システム - Google Patents

情報処理装置、情報処理方法、および情報処理システム Download PDF

Info

Publication number
WO2022065040A1
WO2022065040A1 PCT/JP2021/033075 JP2021033075W WO2022065040A1 WO 2022065040 A1 WO2022065040 A1 WO 2022065040A1 JP 2021033075 W JP2021033075 W JP 2021033075W WO 2022065040 A1 WO2022065040 A1 WO 2022065040A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
resolution
viewpoint
recommended
information processing
Prior art date
Application number
PCT/JP2021/033075
Other languages
English (en)
French (fr)
Inventor
翔 小倉
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to US18/019,389 priority Critical patent/US20230300309A1/en
Priority to CN202180063408.1A priority patent/CN116137954A/zh
Priority to EP21872171.0A priority patent/EP4221234A4/en
Priority to JP2022551860A priority patent/JPWO2022065040A1/ja
Publication of WO2022065040A1 publication Critical patent/WO2022065040A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and an information processing system, and more particularly to an information processing apparatus, an information processing method, and an information processing system capable of realizing more suitable distribution of a wide range of images.
  • a panoramic image such as a VR (Virtual Reality) image on a display device such as an HMD (Head Mounted Display) or a tablet terminal
  • a display device such as an HMD (Head Mounted Display) or a tablet terminal
  • Patent Document 1 discloses a video distribution method for distributing high-resolution video data for a partial video including a present presentation area to be presented to a user, and delivering low-resolution video data for other partial videos. ing.
  • the panoramic image when the viewing direction is changed, the panoramic image may not be delivered favorably.
  • This disclosure is made in view of such a situation, and makes it possible to realize more suitable distribution of a wide range of images.
  • the viewpoint area corresponding to the user's viewpoint with respect to the display device is set to the first resolution
  • the recommended area set in the image is set to the second resolution.
  • the information processing apparatus sets the viewpoint region corresponding to the user's viewpoint with respect to the display device at the first resolution and the recommended region set in the image among the images. It is an information processing method that controls so as to encode the other area with the first resolution and the third resolution lower than the second resolution at the resolution of 2.
  • the information processing apparatus is set with image data in which the viewpoint region corresponding to the user's viewpoint among the images transmitted from the distribution server is encoded with the first resolution and the image.
  • An acquisition control unit that controls acquisition of the image data encoded by a second resolution in the recommended area via different transmission lines, and a display control unit that displays the viewpoint area based on the image data.
  • the display control unit is an information processing device that displays the recommended area in place of the viewpoint area when the user's viewpoint moves to the recommended area.
  • the information processing apparatus includes image data in which the viewpoint region corresponding to the user's viewpoint is encoded at the first resolution among the images transmitted from the distribution server.
  • the image data in which the recommended area set in the image is encoded at the second resolution is controlled to be acquired via different transmission paths, and the viewpoint area is displayed based on the image data.
  • This is an information processing method for displaying the recommended area instead of the viewpoint area when the user's viewpoint moves to the recommended area.
  • the information processing system of the third aspect of the present disclosure includes a distribution server and a display device, and the distribution server displays a viewpoint region of an image corresponding to a user's viewpoint with respect to the display device at a first resolution.
  • Information processing including a control unit that controls to encode the recommended area set in the image at a second resolution and the other areas at the first resolution and a third resolution lower than the second resolution. It is a system.
  • the viewpoint area corresponding to the user's viewpoint with respect to the display device is at the first resolution
  • the recommended area set in the image is at the second resolution.
  • the other area is controlled to encode at the first resolution and a third resolution lower than the second resolution.
  • the image data in which the viewpoint area corresponding to the user's viewpoint is encoded with the first resolution and the recommended area set in the image is controlled to be acquired via different transmission paths, the viewpoint area is displayed based on the image data, and the user's viewpoint becomes the recommended area. When moved, the recommended area is displayed instead of the viewpoint area.
  • FIG. 1 is a diagram showing an outline of an image distribution system according to the present embodiment.
  • the image distribution system 1 is configured to include a distribution server 10 and a display device 20 connected to the distribution server 10 via a network NW.
  • the distribution server 10 constitutes so-called cloud computing built on a network NW such as the Internet.
  • the distribution server 10 has a display area of the display device 20 such as an all-sky image obtained by taking a real space with a 360-degree camera and a VR image such as a 360-degree CG image generated by CG (Computer Graphics) as video content.
  • An image (hereinafter, also referred to as a wide range image) that shows a wider range than the range that can be displayed is uploaded.
  • the wide range image is not limited to a 360-degree image in which the entire circumference of 360 degrees can be viewed, but also includes, for example, a 180-degree image in which the surrounding 180 degrees can be viewed. In the following, the wide range image is assumed to be a moving image, but may be a still image.
  • the distribution server 10 distributes the uploaded video content (wide-range image) to the display device 20 via the network NW.
  • the distribution of the video content may be real-time distribution or VOD (Video On Demand) distribution.
  • the display device 20 is configured as an HMD (Head Mounted Display), a tablet terminal, or the like.
  • HMD Head Mounted Display
  • a part of the video content is displayed in the display area (display unit) of the display device 20 according to the user's viewpoint (head direction or line-of-sight direction). Will be done.
  • the display device 20 is configured as a tablet terminal, a part of the video content is performed according to a user's operation (touch input to the touch panel as a display unit, tilt of the tablet terminal detected by the gyro sensor, etc.). Only the area is displayed.
  • the distribution server 10 generates a viewpoint image in which the video content is encoded for each area (each viewpoint) based on the uploaded video content.
  • the display device 20 requests the distribution server 10 for a viewpoint image according to the user's viewpoint, thereby acquiring the viewpoint image corresponding to the user's viewpoint.
  • the distribution server 10 distributes the viewpoint area corresponding to the user's viewpoint at a high resolution, the recommended area set in the video content at a medium resolution, and the other areas at a low resolution. As a result, even when the user's viewpoint moves to the recommended area where the user is likely to pay attention, the user can view an image of a certain level of quality.
  • the high resolution means the highest resolution among the resolutions corresponding to the display device 20, the resolution that realizes the highest quality guaranteed as video content, or the resolution of the image taken by the camera as it is. say.
  • the low resolution is a resolution lower than the high resolution, and means the minimum resolution that can be viewed without failure as video content.
  • medium resolution means lower resolution than high resolution and higher resolution than low resolution.
  • the medium resolution may be a resolution as close to the high resolution as possible while being affected by the distribution band and the like, or may be the same resolution as the high resolution in an environment where the distribution band has a margin.
  • These resolutions may be predetermined without depending on the image distribution system 1, or may be set for each image distribution system 1. Further, these resolutions may be appropriately set by the user.
  • FIG. 2 is a block diagram showing a functional configuration example of the image distribution system 1 according to the first embodiment.
  • the image distribution system 1 of FIG. 2 is configured to include a camera 31 and a sensor 32 in addition to the distribution server 10 and the display device 20.
  • the camera 31 and sensor 32 are installed at a shooting site for shooting performers such as dramas and movies, a live venue for recording live performances of artists, and a stadium for shooting athletes and directors at sports events such as soccer, rugby, and athletics. Then, performers, artists, athletes, etc. are photographed and sensed.
  • the camera 31 is configured to be capable of capturing a wide range of images, for example, as a 360 degree camera.
  • the spherical image of the shooting site, the live venue, the stadium, etc. taken by the camera 31 is uploaded to the distribution server 10 as a wide range image.
  • the sensor 32 is configured to be able to acquire the position (distance) of a subject such as a performer, an artist, or a player photographed by the camera 31, and is configured as, for example, a stereo camera or a depth sensor.
  • the sensing results of the performers, artists, and athletes sensed by the sensor 32 are also uploaded to the distribution server 10 together with a wide range image. It is preferable that the wide range image and the sensing result are synchronized with each other.
  • the sensor 32 may be configured to be directly attached to a performer, an artist, a player, or the like.
  • the distribution server 10 is configured to include an encoder 51, a transmission unit 52, and a control unit 53.
  • the encoder 51 encodes a wide range image captured by the camera 31 for each area under the control of the control unit 53, thereby generating image data in which each area of the wide range image is encoded.
  • the transmission unit 52 transmits, among the image data generated by the encoder 51, the image data corresponding to the acquisition request from the display device 20 to the display device 20 as one stream.
  • the control unit 53 controls each unit of the distribution server 10 including the encoder 51 and the transmission unit 52.
  • control unit 53 controls the generation of image data for each region by the encoder 51 and controls the transmission of image data by the transmission unit 52.
  • the control unit 53 sets the viewpoint area corresponding to the user's viewpoint with respect to the display device 20 at the first resolution, the recommended area set in the wide-range image at the second resolution, and the other other areas.
  • the region is controlled to be encoded at a first resolution and a third resolution lower than the second resolution.
  • the recommended area is an area that the user who views a wide range of images should pay particular attention to.
  • the first resolution is higher or the same as the second resolution.
  • the encoder 51 generates image data encoded with a high resolution in the viewpoint region, a medium resolution in the recommended region, and a low resolution in the other regions.
  • the recommended areas are the sensing result of the subject in the wide range image from the sensor 32, the operation information showing the operation of the director and the shooting staff who witnessed the shooting site, the live venue, and the stadium, and other users who watched the distributed wide range image. It is set based on the viewing history information that represents the viewing history of. In a wide range image, it is possible to set a plurality of recommended areas both temporally and spatially.
  • control unit 53 generates recommended area information representing the recommended area set in the wide range image.
  • the recommended area information includes the temporal position (reproduction time) and the spatial position (direction) of the recommended area in the wide area image.
  • the control unit 53 supplies recommended area information to the display device 20 in synchronization with the image data transmitted from the transmission unit 52 to the display device 20.
  • the recommended area information may be packed in the image data as metadata of the image data and transmitted to the display device 20.
  • the display device 20 is configured to include a recommended area information acquisition unit 71, a viewpoint information acquisition unit 72, an acquisition control unit 73, a buffer 74, a decoder 75, a display control unit 76, and a display unit 77.
  • the recommended area information acquisition unit 71 acquires the recommended area information from the distribution server 10 and supplies it to the acquisition control unit 73.
  • the viewpoint information acquisition unit 72 acquires viewpoint information representing the viewpoint of a user who views a wide range of images, and supplies the viewpoint information to the acquisition control unit 73 and the decoder 75.
  • the viewpoint information may be the line-of-sight detection result obtained by eye tracking, or may be information representing the direction and posture of the head obtained by head tracking.
  • the acquisition control unit 73 requests the distribution server 10 to acquire image data in the viewpoint region corresponding to the user's viewpoint based on the viewpoint information from the viewpoint information acquisition unit 72.
  • the buffer 74 acquires image data (high-resolution image data) in the viewpoint region corresponding to the user's viewpoint. Further, the buffer 74 acquires the image data of the viewpoint region, the image data of the recommended region of medium resolution, and the image data of other regions of low resolution. The acquired image data is temporarily held in the buffer 74 and sequentially supplied to the decoder 75.
  • the decoder 75 decodes the image data corresponding to the user's viewpoint, which is sequentially supplied from the buffer 74, based on the viewpoint information from the viewpoint information acquisition unit 72, and supplies the image data to the display control unit 76.
  • the display control unit 76 displays a high-resolution viewpoint area on the display unit 77 configured as a display based on the image data decoded by the decoder 75.
  • FIG. 3 is a diagram showing an example of distribution of each area of a wide range image.
  • the viewpoint area V11 corresponding to the user's viewpoint and the recommended area R12 are set.
  • the image data in which the viewpoint region V11 is encoded at a high resolution, the recommended region R12 is encoded at a medium resolution, and the other regions are encoded at a low resolution are obtained. It is transmitted as a stream of 1.
  • the image data is transmitted as RWP (Region Wise Packing) data in which each frame of a wide range image is packed by changing the resolution for each area.
  • RWP Registered Wise Packing
  • FIG. 4 is a diagram showing an example of RWP data.
  • the RWP data is packed in 4K size by arranging a wide range image (each frame) of 11K size on a two-dimensional surface so that each area becomes a rectangle as a whole by changing the position and size for each area. It is the coded data.
  • FIG. 4 five RWP data in which five regions in one frame of a VR image are packed as Viewports (display regions) are shown.
  • FIG. A of FIG. 4 in the VR image, the area indicated by Viewport1 is packed with high resolution, the area indicated by A and B is medium resolution, and the area indicated by X and Y is packed with low resolution. It is shown.
  • Viewport 1 corresponds to a viewpoint area diagonally left rear of the user, and for example, when the user's viewpoint moves diagonally left rear, the RWP data of FIG. A is transmitted to the display device 20.
  • FIG. 4B in the VR image, the area indicated by Viewport2 is packed with high resolution, the area indicated by A and B is medium resolution, and the area indicated by X and Y is packed with low resolution. It is shown.
  • Viewport 2 corresponds to the user's left viewpoint area, and for example, when the user's viewpoint moves to the left, the RWP data of FIG. B is transmitted to the display device 20.
  • the region indicated by Viewport 3 is packed with high resolution
  • the region indicated by A and B is medium resolution
  • the region indicated by X and Y is packed with low resolution. It is shown.
  • the Viewport 3 corresponds to the viewpoint area in front of the user, and when the user's viewpoint is in front, the RWP data of FIG. C is transmitted to the display device 20.
  • FIG. D of FIG. 4 in the VR image, the area indicated by Viewport 4 is packed with high resolution, the area indicated by A and B is medium resolution, and the area indicated by X and Y is packed with low resolution. It is shown.
  • the Viewport 4 corresponds to the viewpoint area on the right side of the user, and for example, when the viewpoint of the user moves to the right side, the RWP data of FIG. D is transmitted to the display device 20.
  • the area indicated by Viewport 5 is packed with high resolution
  • the area indicated by A and B is medium resolution
  • the area indicated by X and Y is packed with low resolution. It is shown.
  • the Viewport 5 corresponds to a viewpoint area diagonally to the right and rear of the user, and for example, when the user's viewpoint moves diagonally to the right and rear, the RWP data of FIG. E is transmitted to the display device 20.
  • RWP data is transmitted as image data.
  • the viewpoint region V11 has a high resolution
  • the recommended region R12 has a medium resolution
  • the other regions have a low resolution, as shown in FIG. RWP data packed in resolution is transmitted.
  • the process of FIG. 6 is basically repeated at a timing that matches the drawing speed of the image on the display unit 77, for example.
  • step S11 the recommended area information acquisition unit 71 acquires the recommended area information from the distribution server 10.
  • step S12 the viewpoint information acquisition unit 72 acquires viewpoint information representing the viewpoint of the user who views a wide range image.
  • step S13 the acquisition control unit 73 determines whether or not the user's viewpoint has changed significantly based on the viewpoint information acquired by the viewpoint information acquisition unit 72.
  • step S13 If it is determined in step S13 that the user's viewpoint has not changed significantly, the process proceeds to step S14.
  • step S14 the acquisition control unit 73 acquires image data in which the viewpoint area corresponding to the user's viewpoint at that time has a high resolution and the recommended area represented by the recommended area information acquired in step S11 has a medium resolution.
  • the buffer 74 acquires image data transmitted from the distribution server 10 in response to a request from the acquisition control unit 73.
  • step S15 the decoder 75 decodes the image data acquired by the buffer 74 at the previous timing, and the display control unit 76 obtains a high-resolution viewpoint region based on the image data decoded by the decoder 75. It is displayed on the display unit 77.
  • step S15 the process returns to step S11, and the subsequent processes are repeated.
  • step S13 determines that the user's viewpoint has changed significantly. If it is determined in step S13 that the user's viewpoint has changed significantly, the process proceeds to step S16.
  • step S16 the acquisition control unit 73 determines whether or not the user's viewpoint has moved to the recommended area based on the viewpoint information acquired by the viewpoint information acquisition unit 72.
  • step S16 If it is determined in step S16 that the user's viewpoint has moved to the recommended area, the process proceeds to step S17.
  • step S17 the acquisition control unit 73 requests the distribution server 10 to acquire high-resolution image data in the recommended area.
  • the buffer 74 acquires image data transmitted from the distribution server 10 in response to a request from the acquisition control unit 73.
  • step S18 the decoder 75 decodes the image data acquired by the buffer 74 at the previous timing, and the display control unit 76 sets a recommended region of medium resolution based on the image data decoded by the decoder 75. It is displayed on the display unit 77.
  • step S18 the process returns to step S11, and the subsequent processes are repeated. In the subsequent processing, high-resolution image data with the recommended area as the viewpoint area will be acquired from the distribution server 10.
  • step S16 when it is determined that the user's viewpoint has not moved to the recommended area, that is, when the user's viewpoint has moved to another area other than the recommended area, the process proceeds to step S19.
  • step S19 the acquisition control unit 73 updates the acquisition area information representing the area to be acquired among each area of the wide range image based on the viewpoint information acquired by the viewpoint information acquisition unit 72.
  • step S20 the acquisition control unit 73 acquires high-resolution image data in the post-change viewpoint area, which is the viewpoint area after the user's viewpoint is changed, which is represented by the updated acquisition area information.
  • Request to. The buffer 74 acquires image data transmitted from the distribution server 10 in response to a request from the acquisition control unit 73.
  • step S21 the display control unit 76 determines whether or not the viewpoint region after the change of high resolution can be displayed. At this time, since the post-change viewpoint region included in the image data acquired by the buffer 74 at the previous timing has a low resolution, it is determined that the high-resolution post-change viewpoint region cannot be displayed, and the processing is performed. The process proceeds to step S22.
  • step S22 the decoder 75 decodes the image data acquired by the buffer 74 at the previous timing, and the display control unit 76 uses the image data decoded by the decoder 75 so far (high resolution). The viewpoint area is displayed on the display unit 77.
  • step S22 the process returns to step S20, and steps S20 and S21 are repeated. Steps S20 and S21 are also repeated at timings that match the drawing speed of the image on the display unit 77.
  • step S21 if it is determined in step S21 that the high-resolution post-change viewpoint region can be displayed, the process proceeds to step S23, and the decoder 75 decodes the image data acquired by the buffer 74 at the previous timing.
  • the display control unit 76 causes the display unit 77 to display the high-resolution post-change viewpoint region based on the image data decoded by the decoder 75.
  • step S23 the process returns to step S11, and the subsequent processes are repeated.
  • the recommended area of medium resolution is buffered together with the viewpoint area of high resolution.
  • the user's viewpoint moves to an area other than the recommended area, there is a delay until the viewing area becomes high resolution, but when the user's viewpoint moves to the recommended area, the user can pay attention to it. Since the highly recommended area is displayed at medium resolution, the user can view an image of a certain level of quality.
  • the process of FIG. 7 is also basically repeated at a timing that matches the drawing speed of the image in, for example, the display device 20 (display unit 77).
  • step S31 the control unit 53 controls the encoder 51 so that each region of the wide-range image is encoded with a different resolution for each frame of the wide-range image.
  • step S32 the control unit 53 transfers the image data encoded by the encoder 51 to the display device 20 based on the request for the image data from the display device 20. Select as the transmission target.
  • RWP data in which the viewpoint area corresponding to the user's viewpoint is packed as a Viewport is selected as a transmission target to the display device 20. Will be done.
  • the RWP data in which the recommended area is packed as a viewport is selected as the transmission target to the display device 20 in response to the request from the display device 20.
  • step S33 the control unit 53 controls the transmission unit 52 so as to transmit the image data selected as the transmission target to the display device 20 to the display device 20.
  • step S33 the process returns to step S31, and the subsequent processes are repeated.
  • the image data including the recommended area of medium resolution is delivered to the display device 20 as the image data in which each area of the wide range image is encoded with high resolution.
  • the user's viewpoint moves to the recommended area where the user is likely to pay attention, the user can view an image of a certain quality without delay, which is a more suitable wide-range image. It becomes possible to realize the delivery of.
  • Image data may be generated in which the area corresponding to the viewpoint is encoded with high resolution and the area corresponding to the recommended area is encoded with medium resolution.
  • a plurality of recommended areas may be set spatially.
  • two recommended areas R22 and R23 are set.
  • one recommended area is selected as the final recommended area based on at least one of the user's operation, preference, and line-of-sight transition.
  • the final recommended area may be selected by the user or may be automatically selected based on the user's preference. Further, as the final recommended area, a recommended area close to the viewpoint estimated based on the user's line-of-sight transition acquired in advance may be selected.
  • the peripheral area of the recommended area may be included in the recommended area.
  • a predetermined width is set around the recommended area R32 shown by the broken line frame in the figure.
  • the region SA of is also treated in the same manner as the recommended region R32.
  • the recommended area R32 including the area SA may be encoded at a medium resolution, or the recommended area R32 may be displayed when the user's viewpoint moves to the recommended area R32 including the area SA. good.
  • the viewpoint area and a part of the recommended area may overlap.
  • the viewpoint region may be changed from the viewpoint region V41 to the recommended region R42.
  • the area that the side that provides the wide range image P40 wants to recommend to the user can be more reliably viewed by the user.
  • FIG. 11 is a block diagram showing a functional configuration example of the image distribution system 1 according to the second embodiment.
  • the image distribution system 1 of FIG. 11 is also configured to include a camera 31 and a sensor 32 in addition to the distribution server 10 and the display device 20.
  • the distribution server 10 of FIG. 11 is configured to include an encoder 151, a transmission unit 152, and a control unit 153.
  • the encoder 151, the transmission unit 152, and the control unit 153 have basically the same functions as the encoder 51, the transmission unit 52, and the control unit 53 in FIG. 2, respectively.
  • the encoder 151 generates image data encoded with a high resolution in the viewpoint area and the recommended area, and a low resolution in the other areas.
  • the transmission unit 152 under the control of the control unit 153, among the image data generated by the encoder 151, a plurality of image data corresponding to the acquisition request from the display device 20 (2 in the example of FIG. 11). It is transmitted to the display device 20 as a stream.
  • the display device 20 of FIG. 11 includes a recommended area information acquisition unit 171, a viewpoint information acquisition unit 172, an acquisition control unit 173, a decoder 174-1, 174-2, a switching unit 175, a display control unit 176, and a display unit 177. It is configured as follows.
  • the recommended area information acquisition unit 171, the viewpoint information acquisition unit 172, the display control unit 176, and the display unit 177 are basically the recommended area information acquisition unit 71, the viewpoint information acquisition unit 72, and the display control unit 76 in FIG. And the display unit 77, each has the same function.
  • the acquisition control unit 173 requests the distribution server 10 to acquire image data transmitted as a plurality of streams. Specifically, the acquisition control unit 173 determines the viewpoint area corresponding to the user's viewpoint based on the recommended area information acquired by the recommended area information acquisition unit 171 and the viewpoint information acquired by the viewpoint information acquisition unit 172. Controls to acquire the image data and the image data of the recommended area as different streams.
  • the decoders 174-1 and 174-2 each have a function of combining the buffer 74 and the decoder 75 of FIG. 2. That is, the decoders 174-1 and 174-2 each acquire the image data from the distribution server 10 and temporarily hold the image data, and sequentially decode the held image data. The decoders 174-1, 174-2 decode the image data in synchronization with each other.
  • the switching unit 175 switches the image data supplied to the display control unit 176 to one of the image data decoded by the decoders 174-1 and 174-2 based on the viewpoint information from the viewpoint information acquisition unit 172. .. That is, among the image data decoded by the decoders 174-1, 174-2, the image data in the region corresponding to the user's line of sight is supplied to the display control unit 176.
  • the display control unit 176 creates a viewpoint area based on the image data from the switching unit 175, and displays the recommended area instead of the viewpoint area when the user's viewpoint moves to the recommended area.
  • FIG. 12 is a diagram showing an example of distribution of each area of a wide range image.
  • the viewpoint area V11 corresponding to the user's viewpoint and the recommended area R12 are set.
  • the image data in which the viewpoint region V11 is encoded at high resolution is transmitted as a stream of 1
  • the recommended region R12 is the image data encoded at high resolution.
  • the image data in which the other regions are encoded at low resolution is transmitted as another stream.
  • the image data is transmitted as hierarchical structure data in which each area of a wide range image is layered for each resolution.
  • FIG. 13 is a diagram showing an example of hierarchical structure data.
  • the hierarchical structure data is coded data in which each area of a wide range image (each frame) is encoded at a different resolution.
  • coded data in which three regions A, B, and C in one frame having a wide range image are encoded at three levels of resolution (high resolution, medium resolution, and low resolution) is shown. ..
  • the coded data in which the area B (viewpoint area) is encoded with high resolution is 1.
  • the coded data in which the area C is encoded with high resolution is transmitted to the display device 20 as another stream of 1.
  • the coded data in which those regions are encoded at a low resolution is transmitted to the display device 20 as one of the streams or another stream.
  • the coded data is transmitted to the display device 20. good. Further, when there is no margin in the band, the coded data in which the recommended area is set may be transmitted to the display device 20 with the area encoded at a medium resolution.
  • the image data transmitted as a plurality of streams is assumed to be hierarchical structure data, but it may be the above-mentioned RWP data.
  • the RWP data in which the area B (viewpoint area) is packed with high resolution is a stream of 1.
  • the RWP data in which the area C is packed with high resolution may be transmitted to the display device 20 as another stream.
  • hierarchical structure data or RWP data is transmitted as image data.
  • the process of FIG. 14 is basically repeated at a timing that matches the drawing speed of the image on the display unit 177, for example. Since the processing of steps S111 to S113 in the flowchart of FIG. 14 is the same as the processing of steps S11 to S13 in the flowchart of FIG. 6, the description thereof will be omitted.
  • step S113 determines that the user's viewpoint has not changed significantly. If it is determined in step S113 that the user's viewpoint has not changed significantly, the process proceeds to step S114.
  • step S114 the acquisition control unit 173 acquires the high-resolution image data of the viewpoint area corresponding to the viewpoint of the user at that time and the high-resolution image data of the recommended area represented by the recommended area information on the distribution server.
  • Request to 10. The decoder 174-1 acquires the image data of the viewpoint region transmitted from the distribution server 10 in response to the request of the acquisition control unit 173, and decodes the image data acquired at the previous timing.
  • the decoder 174-2 acquires the image data of the recommended area transmitted from the distribution server 10 in response to the request of the acquisition control unit 173, and decodes the image data acquired at the previous timing.
  • step S115 the switching unit 175 supplies the image data of the viewpoint region corresponding to the user's line of sight, which is decoded by the decoder 174-1, to the display control unit 176, and the display control unit 176 provides the high resolution viewpoint area. It is displayed on the display unit 177 as a main line image.
  • step S115 the process returns to step S111, and the subsequent processes are repeated.
  • step S113 determines that the user's viewpoint has changed significantly. If it is determined in step S113 that the user's viewpoint has changed significantly, the process proceeds to step S116.
  • step S116 the acquisition control unit 173 determines whether or not the user's viewpoint has moved to the recommended area based on the viewpoint information acquired by the viewpoint information acquisition unit 172.
  • step S116 If it is determined in step S116 that the user's viewpoint has moved to the recommended area, the process proceeds to step S117.
  • step S117 the switching unit 175 switches the main line image to the recommended area by switching the image data supplied to the display control unit 176 to the image data in the recommended area decoded by the decoder 174-2.
  • step S118 the display control unit 176 causes the display unit 177 to display a high-resolution recommended area based on the image data decoded by the decoder 174-2.
  • step S118 the process returns to step S111, and the subsequent processes are repeated.
  • high-resolution image data with the recommended area as the viewpoint area will be acquired from the distribution server 10.
  • step S116 If it is determined in step S116 that the user's viewpoint has not moved to the recommended area, that is, if the user's viewpoint has moved to an area other than the recommended area, the process proceeds to step S119.
  • step S119 the acquisition control unit 173 updates the acquisition area information representing the area to be acquired among each area of the wide range image based on the viewpoint information acquired by the viewpoint information acquisition unit 172.
  • the acquisition control unit 173 has a high-resolution post-change viewpoint region which is a viewpoint region after the user's viewpoint is changed, which is represented by the updated acquisition region information together with the image data of the viewpoint region so far.
  • the decoder 174-1 acquires the image data of the viewpoint region transmitted from the distribution server 10 in response to the request of the acquisition control unit 173, and decodes the image data acquired at the previous timing.
  • the decoder 174-2 starts the acquisition of the image data in the post-change viewpoint region transmitted from the distribution server 10 in response to the request of the acquisition control unit 73.
  • step S121 the display control unit 176 determines whether or not the viewpoint region after the change of high resolution can be displayed. At this time, since the image data acquired by the decoder 174-2 at the previous timing is the image data in the recommended region, it is determined that the viewpoint region after the change cannot be displayed, and the process proceeds to step S122.
  • step S122 the display control unit 176 causes the display unit 177 to display the conventional (high resolution) viewpoint area based on the image data decoded by the decoder 174-1.
  • step S122 the process returns to step S120, and steps S120 and S121 are repeated. Steps S120 and S121 are also repeated at timings that match the drawing speed of the image on the display unit 177.
  • step S121 determines whether the high-resolution post-change viewpoint region can be displayed. If it is determined in step S121 that the high-resolution post-change viewpoint region can be displayed, the process proceeds to step S123, and the switching unit 175 transfers the image data supplied to the display control unit 176 to the decoder 174-2. By switching to the image data in the post-change viewpoint region decoded by the above, the main line image is switched to the post-change viewpoint region.
  • step S124 the display control unit 176 causes the display unit 177 to display the high-resolution post-change viewpoint region based on the image data decoded by the decoder 174-2. After step S124, the process returns to step S111, and the subsequent processes are repeated.
  • the decoder 174-1 acquires the high-resolution viewpoint area
  • the decoder 174-2 acquires the high-resolution recommended area.
  • the operation flow of the distribution server 10 of FIG. 13 is basically the same as the operation flow of the distribution server 10 of FIG. 2 described with reference to the flowchart of FIG. 7.
  • the display device is used for each of the plurality of streams in response to a request from the display device 20 based on the viewpoint information representing the user's viewpoint and the recommended area information representing the recommended area. It differs from the operation of the distribution server 10 in FIG. 13 in that the image data to be transmitted to 20 is selected. Specifically, in addition to the image data in which the viewpoint region is encoded with high resolution, the image data in which the recommended region is encoded with high resolution is selected as the transmission target to the display device 20.
  • the image data in which the viewing area is encoded in high resolution and the image data in which the recommended area is encoded in high resolution are delivered to the display device 20.
  • This allows the user to view high quality images without delay, even when the user's point of view moves to a recommended area that the user is likely to pay attention to, and more suitable wide-range image distribution. Can be realized.
  • Example of processing according to the recommended area> As variations of the recommended area set in the wide range image, an example in which a plurality of recommended areas are set (FIG. 8) and an example in which the viewpoint area and the recommended area overlap (FIG. 10) have been described. Here, the details of the processing in each case will be described.
  • Example of processing when there are multiple recommended areas 15 to 17 are diagrams showing an example of processing when a plurality of recommended areas exist. Here, it is assumed that image data having different resolutions are packed and transmitted as one stream.
  • RWP data in which the viewpoint area V111 including the recommended area R112 has a high resolution, the recommended area R113 has a medium resolution, and the other areas have a low resolution is transmitted. That is, the recommended area R112 is regarded as the same as the viewpoint area V111, and the recommended area R113 is selected as the final recommended area.
  • the viewpoint region V111 does not overlap with any of the recommended regions R112 and R113.
  • RWP data in which the viewpoint area V111 has a high resolution, the recommended areas R112 and R113 have a medium resolution, and the other areas have a low resolution are transmitted. That is, the recommended areas R112 and R113 are selected as the final recommended areas and packed at the same resolution.
  • the resolution (medium resolution) of the recommended areas R112 and R113 in the example of FIG. 16 is lower than the resolution (medium resolution) of the recommended area R113 in the example of FIG.
  • the recommended areas R112 and R113 are packed at the same resolution, but the resolution may be adjusted according to the weighting for the recommended area.
  • the distance from the viewpoint area V111 is set.
  • the recommended area is weighted accordingly.
  • the recommended areas R112 and R113 are selected as the final recommended areas, but the recommended area R112 near the viewpoint area V111 is higher than the recommended area R113 far from the viewpoint area V111. Make sure it is packed at the resolution.
  • the recommendation area may be weighted according to the recommendation level based on the user's preference and the user's line-of-sight transition, not the distance from the viewpoint area V111, and the selection result by the user may be used.
  • the recommended area may be weighted accordingly.
  • Example of processing when the viewpoint area and the recommended area overlap 18 to 21 are diagrams showing an example of processing when the viewpoint area and the recommended area overlap. Here, it is assumed that image data having different resolutions are packed and transmitted as one stream.
  • the peripheral area SA123 centered on the viewpoint area V121 is encoded at a medium resolution (middle). It should be set as the resolution area).
  • RWP data in which the viewpoint area V121 has a high resolution, the recommended area R122 and the surrounding area SA123 have a medium resolution, and the other areas have a low resolution are transmitted. Will be done.
  • the recommended area R122 is packed with a higher resolution than the surrounding area SA123, but the reverse may be possible.
  • the peripheral region SA123 set as the medium resolution region includes the entire region of the viewpoint region V121, the peripheral region SA123 centered on the recommended region R122 is set. May be good.
  • the entire viewpoint area V121 corresponding to the user's viewpoint overlaps with the recommended area R122.
  • the peripheral area SA123 centered on the viewpoint area V121 is set as the medium resolution area.
  • RWP data packed in the viewpoint region V121 including the recommended region R122 with high resolution, the peripheral region SA123 with medium resolution, and the other regions with low resolution is transmitted. Will be done.
  • FIG. 21 shows an example in which one of the viewpoint area and the recommended area overlaps when a plurality of recommended areas exist.
  • the peripheral area SA134 based on the plurality of recommended areas is set as the medium resolution area while including the viewpoint area V131. To do so.
  • the peripheral region SA134 is set so as to include the entire recommended region R132 including the viewpoint region V131 and a part of the recommended region R133.
  • the user can obtain a certain level of quality. It becomes possible to watch the image of.
  • FIG. 22 is a block diagram showing a configuration example of computer hardware that executes the above-mentioned series of processes programmatically.
  • the above-mentioned distribution server 10 and display device 20 are realized by a computer having the configuration shown in FIG. 22.
  • the CPU (Central Processing Unit) 301, ROM (ReadOnlyMemory) 302, and RAM (RandomAccessMemory) 303 are connected to each other by the bus 304.
  • the input / output interface 305 is further connected to the bus 304.
  • An input unit 306 including a keyboard, a mouse, and the like, and an output unit 307 including a display, a speaker, and the like are connected to the input / output interface 305.
  • the input / output interface 305 is connected to a storage unit 308 made of a hard disk, a non-volatile memory, etc., a communication unit 309 made of a network interface, etc., and a drive 310 for driving the removable media 311.
  • the CPU 301 loads the program stored in the storage unit 308 into the RAM 303 via the input / output interface 305 and the bus 304, and executes the above-mentioned series of processes. Is done.
  • the program executed by the CPU 301 is recorded on the removable media 311 or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting, and installed in the storage unit 308.
  • the program executed by the computer may be a program in which processing is performed in chronological order according to the order described in the present specification, in parallel, or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • the present disclosure may have the following structure.
  • the viewpoint area corresponding to the user's viewpoint with respect to the display device is the first resolution
  • the recommended area set in the image is the second resolution
  • the other areas are the first resolution and the second resolution.
  • An information processing device including a control unit that controls to encode at a third resolution lower than the resolution of.
  • the information processing apparatus according to (1) wherein the first resolution is higher than or the same as the second resolution.
  • the control unit is the display device from a plurality of image data in which each area of the image is encoded based on at least one of the viewpoint information representing the user's viewpoint and the recommended area information representing the recommended area.
  • the information processing device according to (1) which selects the transmission target to.
  • the control unit selects, in addition to the image data whose viewpoint region is encoded at the first resolution, the image data whose recommended region is encoded at the first resolution as the transmission target.
  • the information processing apparatus according to (7) or (8), wherein the image data is hierarchical structure data in which each area of the image is layered for each resolution.
  • the information processing apparatus according to (7) or (8), wherein the image data is RWP (Region Wise Packing) data in which the image is packed by changing the resolution for each area.
  • RWP Registered Wise Packing
  • the control unit selects the recommended area selected based on at least one of the user's operation, preference, and line-of-sight transition as the final recommended area (3).
  • the information processing apparatus according to any one of (10).
  • the control unit has the image data in which a peripheral area including at least a part of the viewpoint area and the recommended area is encoded by the second resolution.
  • the information processing apparatus according to any one of (3) to (11).
  • (13) The information processing apparatus according to any one of (1) to (12), wherein the recommended area includes a peripheral area of the recommended area.
  • the viewpoint area corresponding to the user's viewpoint with respect to the display device is the first resolution
  • the recommended area set in the image is the second resolution
  • the other areas are the first resolution and the second resolution.
  • the viewpoint area corresponding to the user's viewpoint is encoded with the first resolution
  • the recommended area set in the image is encoded with the second resolution.
  • An acquisition control unit that controls acquisition of the image data via different transmission lines, and A display control unit that displays the viewpoint area based on the image data is provided.
  • the display control unit is an information processing device that displays the recommended area in place of the viewpoint area when the user's viewpoint moves to the recommended area.
  • the image data is acquired via different transmission lines, and the image data is acquired.
  • the viewpoint area is displayed based on the image data, and the viewpoint area is displayed.
  • An information processing method that displays the recommended area in place of the viewpoint area when the user's viewpoint moves to the recommended area.
  • the distribution server Of the images the viewpoint area corresponding to the user's viewpoint with respect to the display device is the first resolution, the recommended area set in the image is the second resolution, and the other areas are the first resolution and the first resolution.
  • An information processing system including a control unit that controls encoding at a third resolution lower than the resolution of 2.
  • 1 image distribution system 10 distribution server, 20 display device, 31 camera, 32 sensor, 51 encoder, 52 transmission unit, 53 control unit, 71 recommended area information acquisition unit, 72 viewpoint information acquisition unit, 73 acquisition control unit, 74 buffer , 75 decoder, 76 display control unit, 77 display unit, 151 encoder, 152 transmission unit, 153 control unit, 171 recommended area information acquisition unit, 172 viewpoint information acquisition unit, 173 acquisition control unit, 174-1, 174-2 decoder , 175 switching unit, 176 display control unit, 177 display unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本開示は、より好適な広範囲画像の配信を実現することができるようにする情報処理装置、情報処理方法、および情報処理システムに関する。 制御部は、画像のうち、表示装置に対するユーザの視点に対応する視点領域を第1の解像度で、画像において設定されたお薦め領域を第2の解像度で、その他の領域を第1の解像度と第2の解像度より低い第3の解像度で符号化するよう制御する。本開示は、例えば、画像配信システムに適用することができる。

Description

情報処理装置、情報処理方法、および情報処理システム
 本開示は、情報処理装置、情報処理方法、および情報処理システムに関し、特に、より好適な広範囲画像の配信を実現することができるようにした情報処理装置、情報処理方法、および情報処理システムに関する。
 通常、VR(Virtual Reality)画像のようなパノラマ画像を、HMD(Head Mounted Display)やタブレット端末などの表示デバイスで視聴する場合、パノラマ画像の一部領域のみが表示される。
 このようなパノラマ画像の高効率な配信手法として、ヘッドトラッキングやアイトラッキングを用いて、ユーザの視聴領域を高解像度で、それ以外の領域を低解像度で配信する手法が知られており、帯域の節約と表示デバイスの負荷軽減が実現されている。
 例えば、特許文献1には、ユーザに提示する現在提示領域を含む部分映像については高解像度の映像データを配信し、その他の部分映像については低解像度の映像データを配信する映像配信方法が開示されている。
特開2016-167699号公報
 しかしながら、従来の技術では、視聴方向が変更された場合に、パノラマ画像を好適に配信できないことがあった。
 本開示は、このような状況に鑑みてなされたものであり、より好適な広範囲画像の配信を実現することができるようにするものである。
 本開示の第1の側面の情報処理装置は、画像のうち、表示装置に対するユーザの視点に対応する視点領域を第1の解像度で、前記画像において設定されたお薦め領域を第2の解像度で、その他の領域を前記第1の解像度と前記第2の解像度より低い第3の解像度で符号化するよう制御する制御部を備える情報処理装置である。
 本開示の第1の側面の情報処理方法は、情報処理装置が、画像のうち、表示装置に対するユーザの視点に対応する視点領域を第1の解像度で、前記画像において設定されたお薦め領域を第2の解像度で、その他の領域を前記第1の解像度と前記第2の解像度より低い第3の解像度で符号化するよう制御する情報処理方法である。
 本開示の第2の側面の情報処理装置は、配信サーバから伝送される画像のうち、ユーザの視点に対応する視点領域を第1の解像度で符号化された画像データと、前記画像において設定されたお薦め領域を第2の解像度で符号化された前記画像データを、異なる伝送路を介して取得するよう制御する取得制御部と、前記画像データに基づいて、前記視点領域を表示する表示制御部とを備え、前記表示制御部は、前記ユーザの視点が前記お薦め領域に移動した場合、前記視点領域に代えて、前記お薦め領域を表示する情報処理装置である。
 本開示の第2の側面の情報処理方法は、情報処理装置が、配信サーバから伝送される画像のうち、ユーザの視点に対応する視点領域を第1の解像度で符号化された画像データと、前記画像において設定されたお薦め領域を第2の解像度で符号化された前記画像データを、異なる伝送路を介して取得するよう制御し、前記画像データに基づいて、前記視点領域を表示し、前記ユーザの視点が前記お薦め領域に移動した場合、前記視点領域に代えて、前記お薦め領域を表示する情報処理方法である。
 本開示の第3の側面の情報処理システムは、配信サーバと、表示装置とを含み、前記配信サーバは、画像のうち、前記表示装置に対するユーザの視点に対応する視点領域を第1の解像度で、前記画像において設定されたお薦め領域を第2の解像度で、その他の領域を前記第1の解像度と前記第2の解像度より低い第3の解像度で符号化するよう制御する制御部を備える情報処理システムである。
 本開示の第1および第3の側面においては、画像のうち、前記表示装置に対するユーザの視点に対応する視点領域を第1の解像度で、前記画像において設定されたお薦め領域を第2の解像度で、その他の領域を前記第1の解像度と前記第2の解像度より低い第3の解像度で符号化するよう制御される。
 本開示の第2の側面においては、配信サーバから伝送される画像のうち、ユーザの視点に対応する視点領域を第1の解像度で符号化された画像データと、前記画像において設定されたお薦め領域を第2の解像度で符号化された前記画像データを、異なる伝送路を介して取得するよう制御され、前記画像データに基づいて、前記視点領域が表示され、前記ユーザの視点が前記お薦め領域に移動した場合、前記視点領域に代えて、前記お薦め領域が表示される。
本開示の実施の形態に係る画像配信システムの概要を示す図である。 画像配信システムの機能構成例を示すブロック図である。 広範囲画像の各領域の配信の例を示す図である。 RWPデータの例を示す図である。 お薦め領域を含む画像データの例を示す図である。 表示装置の動作の流れについて説明するフローチャートである。 配信サーバの動作の流れについて説明するフローチャートである。 お薦め領域の例を示す図である。 お薦め領域の例を示す図である。 お薦め領域の例を示す図である。 画像配信システムの他の機能構成例を示すブロック図である。 広範囲画像の各領域の配信の例を示す図である。 階層構造データについて説明する図である。 表示装置の動作の流れについて説明するフローチャートである。 複数のお薦め領域が存在する場合の処理の例を示す図である。 複数のお薦め領域が存在する場合の処理の例を示す図である。 複数のお薦め領域が存在する場合の処理の例を示す図である。 視点領域とお薦め領域が重なる場合の処理の例を示す図である。 視点領域とお薦め領域が重なる場合の処理の例を示す図である。 視点領域とお薦め領域が重なる場合の処理の例を示す図である。 視点領域とお薦め領域が重なる場合の処理の例を示す図である。 コンピュータのハードウェアの構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.画像配信システムの概要
 2.第1の実施の形態(1のストリームによる配信)
 3.お薦め領域のバリエーション
 4.第2の実施の形態(複数のストリームによる配信)
 5.お薦め領域に応じた処理の例
 6.コンピュータの構成例
<1.画像配信システムの概要>
 図1は、本実施の形態に係る画像配信システムの概要を示す図である。
 図1に示されるように、画像配信システム1は、配信サーバ10と、ネットワークNWを介して配信サーバ10に接続される表示装置20を含むように構成される。
 配信サーバ10は、インターネットなどのネットワークNW上に構築される、いわゆるクラウドコンピューティングを構成する。配信サーバ10には、映像コンテンツとして、360度カメラにより実空間を撮影した全天球画像や、CG(Computer Graphics)により生成された360度CG画像などのVR画像といった、表示装置20の表示領域に表示可能な範囲よりも広い範囲が映る画像(以下、広範囲画像ともいう)がアップロードされる。広範囲画像には、360度全周が視聴可能な360度画像に限らず、例えば周囲180度が視聴可能な180度画像なども含まれるものとする。以下においては、広範囲画像は、動画像であるものとするが、静止画像であってもよい。
 配信サーバ10は、アップロードされた映像コンテンツ(広範囲画像)を、ネットワークNWを介して表示装置20に配信する。映像コンテンツの配信は、リアルタイム配信であってもよいし、VOD(Video On Demand)配信であってもよい。
 表示装置20は、HMD(Head Mounted Display)やタブレット端末などとして構成される。表示装置20が、HMDとして構成される場合、表示装置20の表示領域(表示部)には、ユーザの視点(頭の向きや視線の方向)に応じて、映像コンテンツの一部領域のみが表示される。また、表示装置20が、タブレット端末として構成される場合、ユーザの操作(表示部としてのタッチパネルに対するタッチ入力や、ジャイロセンサにより検知されるタブレット端末の傾きなど)に応じて、映像コンテンツの一部領域のみが表示される。
 具体的には、配信サーバ10は、アップロードされた映像コンテンツに基づいて、映像コンテンツを領域毎(視点毎)に符号化した視点画像を生成する。表示装置20は、ユーザの視点に応じて視点画像を配信サーバ10に要求することで、ユーザの視点に対応する視点画像を取得する。
 このとき、配信サーバ10は、ユーザの視点に対応する視点領域を高解像度で、映像コンテンツにおいて設定されたお薦め領域を中解像度で、その他の領域を低解像度で配信する。これにより、ユーザが注目する可能性の高いお薦め領域に、ユーザの視点が移動した場合であっても、ユーザは、一定程度の品質の画像を視聴することができる。
 ここで、高解像度とは、表示装置20に対応する解像度のうちの最も高い解像度、映像コンテンツとして保証される最高の品質を実現する解像度、または、カメラにより撮影された画像のままの解像度などをいう。一方、低解像度とは、高解像度よりも低い解像であり、映像コンテンツとして破綻なく視聴可能な最低限の解像度などをいう。そして、中解像度は、高解像度よりも低く、低解像度よりも高い解像度をいう。中解像度は、配信帯域などにも影響を受ける中で、可能な限り高解像度に近い解像度としてもよいし、配信帯域に余裕がある環境においては、高解像度と同じ解像度としてもよい。
 これらの解像度(高解像度、中解像度、低解像度)は、画像配信システム1によらずにあらかじめ決められていてもよいし、画像配信システム1毎に設定可能とされてもよい。また、これらの解像度は、ユーザにより、適宜設定可能とされてもよい。
 以下においては、本実施の形態に係る画像配信システムの具体的な構成について説明する。
<2.第1の実施の形態>
(画像配信システムのブロック図)
 図2は、第1の実施の形態に係る画像配信システム1の機能構成例を示すブロック図である。
 図2の画像配信システム1は、配信サーバ10と表示装置20に加え、カメラ31とセンサ32を含むように構成される。
 カメラ31とセンサ32は、ドラマや映画などの演者を撮影する撮影現場や、アーティストのライブを収録するライブ会場、サッカーやラグビー、陸上などのスポーツイベントにおいて選手や監督を撮影する競技場などに設置され、演者やアーティスト、選手などを撮影・センシングする。
 カメラ31は、広範囲画像を撮影可能に構成され、例えば360度カメラとして構成される。この場合、カメラ31により撮影現場やライブ会場、競技場などが撮影された全天球画像は、広範囲画像として配信サーバ10にアップロードされる。
 センサ32は、カメラ31により撮影される演者やアーティスト、選手などの被写体の位置(距離)を取得可能に構成され、例えばステレオカメラやデプスセンサなどとして構成される。センサ32によりセンシングされた演者やアーティスト、選手のセンシング結果もまた、広範囲画像とともに配信サーバ10にアップロードされる。広範囲画像とセンシング結果とは、互いに同期していることが好ましい。なお、センサ32は、演者やアーティスト、選手などに直接装着されるように構成されてもよい。
 配信サーバ10は、エンコーダ51、伝送部52、および制御部53を含むように構成される。
 エンコーダ51は、制御部53の制御の下、カメラ31により撮影された広範囲画像を領域毎に符号化することで、広範囲画像の各領域が符号化された画像データを生成する。
 伝送部52は、制御部53の制御の下、エンコーダ51により生成された画像データのうち、表示装置20からの取得要求に応じた画像データを、1のストリームとして表示装置20に伝送する。
 制御部53は、エンコーダ51と伝送部52を含む配信サーバ10の各部を制御する。
 具体的には、制御部53は、エンコーダ51による領域毎の画像データの生成を制御したり、伝送部52による画像データの伝送を制御したりする。
 例えば、制御部53は、広範囲画像のうち、表示装置20に対するユーザの視点に対応する視点領域を第1の解像度で、広範囲画像において設定されたお薦め領域を第2の解像度で、それ以外のその他の領域を第1の解像度と第2の解像度より低い第3の解像度で符号化するよう制御する。お薦め領域は、広範囲画像を視聴するユーザに特に注目してもらいたい領域とされる。第1の解像度は、第2の解像度より高いかまたは同じ解像度とされる。ここでは、エンコーダ51により、視点領域が高解像度で、お薦め領域が中解像度で、その他の領域が低解像度で符号化された画像データが生成される。
 お薦め領域は、センサ32からの広範囲画像における被写体のセンシング結果、撮影現場やライブ会場、競技場に立ち会った監督や撮影スタッフなどの操作を表す操作情報、配信された広範囲画像を視聴した他のユーザの視聴履歴を表す視聴履歴情報などに基づいて設定される。広範囲画像においては、時間的にも空間的にも複数のお薦め領域が設定可能とされる。
 また、制御部53は、広範囲画像において設定されたお薦め領域を表すお薦め領域情報を生成する。お薦め領域情報は、広範囲画像におけるお薦め領域の時間的位置(再生時間)と空間的位置(方向)を含む。
 制御部53は、伝送部52から表示装置20に伝送される画像データに同期して、お薦め領域情報を表示装置20に供給する。お薦め領域情報は、画像データのメタデータとして画像データにパッキングされて、表示装置20に伝送されてもよい。
 表示装置20は、お薦め領域情報取得部71、視点情報取得部72、取得制御部73、バッファ74、デコーダ75、表示制御部76、および表示部77を含むように構成される。
 お薦め領域情報取得部71は、配信サーバ10からお薦め領域情報を取得し、取得制御部73に供給する。
 視点情報取得部72は、広範囲画像を視聴するユーザの視点を表す視点情報を取得し、取得制御部73とデコーダ75に供給する。視点情報は、アイトラッキングにより得られた視線検出結果であってもよいし、ヘッドトラッキングにより得られた頭部の向きや姿勢を表す情報であってもよい。
 取得制御部73は、視点情報取得部72からの視点情報に基づいて、ユーザの視点に対応する視点領域の画像データの取得を、配信サーバ10に要求する。
 この結果、バッファ74は、ユーザの視点に対応する視点領域の画像データ(高解像度の画像データ)を取得する。また、バッファ74は、視点領域の画像データとともに、中解像度のお薦め領域の画像データと、低解像度のその他の領域の画像データを取得する。取得された画像データは、一時的にバッファ74に保持され、順次、デコーダ75に供給される。
 デコーダ75は、視点情報取得部72からの視点情報に基づいて、バッファ74から順次供給される、ユーザの視点に対応する画像データを復号し、表示制御部76に供給する。
 表示制御部76は、デコーダ75により復号された画像データに基づいて、高解像度の視点領域を、ディスプレイとして構成される表示部77に表示させる。
(広範囲画像の配信について)
 ここで、図2の画像配信システム1における広範囲画像の配信について説明する。
 図3は、広範囲画像の各領域の配信の例を示す図である。
 図3に示される広範囲画像P10において、ユーザの視点に対応する視点領域V11と、お薦め領域R12が設定されているとする。この場合、図2の画像配信システム1においては、視点領域V11が高解像度で符号化され、お薦め領域R12が中解像度で符号化され、その他の領域が低解像度で符号化された画像データが、1のストリームとして伝送される。例えば、画像データは、広範囲画像の各フレームを領域毎に解像度を変更してパッキングしたRWP(Region Wise Packing)データとして伝送される。
 図4は、RWPデータの例を示す図である。
 RWPデータは、例えば11Kサイズの広範囲画像(の各フレーム)が領域毎に位置とサイズを変更して、各領域が全体で矩形になるように2次元面上に配置されて4Kサイズにパッキングされた符号化データである。図4の例では、VR画像の1フレームにおける5つの領域が、それぞれViewport(表示領域)としてパッキングされた5つのRWPデータが示されている。
 図4のA図には、VR画像において、Viewport1で示される領域が高解像度で、A,Bで示される領域が中解像度で、X,Yで示される領域が低解像度でパッキングされたRWPデータが示されている。ここでは、Viewport1は、ユーザの斜め左後方の視点領域に対応し、例えばユーザの視点が斜め左後方に移動した場合に、A図のRWPデータが表示装置20に伝送される。
 図4のB図には、VR画像において、Viewport2で示される領域が高解像度で、A,Bで示される領域が中解像度で、X,Yで示される領域が低解像度でパッキングされたRWPデータが示されている。ここでは、Viewport2は、ユーザの左方の視点領域に対応し、例えばユーザの視点が左方に移動した場合に、B図のRWPデータが表示装置20に伝送される。
 図4のC図には、VR画像において、Viewport3で示される領域が高解像度で、A,Bで示される領域が中解像度で、X,Yで示される領域が低解像度でパッキングされたRWPデータが示されている。ここでは、Viewport3は、ユーザの正面の視点領域に対応し、ユーザの視点が正面にある場合には、C図のRWPデータが表示装置20に伝送される。
 図4のD図には、VR画像において、Viewport4で示される領域が高解像度で、A,Bで示される領域が中解像度で、X,Yで示される領域が低解像度でパッキングされたRWPデータが示されている。ここでは、Viewport4は、ユーザの右方の視点領域に対応し、例えばユーザの視点が右方に移動した場合に、D図のRWPデータが表示装置20に伝送される。
 図4のE図には、VR画像において、Viewport5で示される領域が高解像度で、A,Bで示される領域が中解像度で、X,Yで示される領域が低解像度でパッキングされたRWPデータが示されている。ここでは、Viewport5は、ユーザの斜め右後方の視点領域に対応し、例えばユーザの視点が斜め右後方に移動した場合に、E図のRWPデータが表示装置20に伝送される。
 このようにして、本実施の形態においては、画像データとしてRWPデータが伝送される。例えば、図3の広範囲画像P10が符号化された画像データが伝送される場合、図5に示されるような、視点領域V11が高解像度で、お薦め領域R12が中解像度で、その他の領域が低解像度でパッキングされたRWPデータが伝送される。
(表示装置の動作の流れ)
 次に、図6のフローチャートを参照して、表示装置20の動作の流れについて説明する。
 図6の処理は、基本的には、例えば表示部77における画像の描画速度に合わせたタイミングで繰り返される。
 ステップS11において、お薦め領域情報取得部71は、配信サーバ10からお薦め領域情報を取得する。
 ステップS12において、視点情報取得部72は、広範囲画像を視聴するユーザの視点を表す視点情報を取得する。
 ステップS13において、取得制御部73は、視点情報取得部72により取得された視点情報に基づいて、ユーザの視点が大きく変化したか否かを判定する。
 ステップS13において、ユーザの視点が大きく変化していないと判定された場合、処理はステップS14に進む。
 ステップS14において、取得制御部73は、そのときのユーザの視点に対応する視点領域が高解像度で、ステップS11において取得されたお薦め領域情報で表されるお薦め領域が中解像度の画像データの取得を、配信サーバ10に要求する。バッファ74は、取得制御部73の要求に応じて配信サーバ10から伝送されてくる画像データを取得する。
 ステップS15において、デコーダ75は、1つ前のタイミングでバッファ74により取得された画像データを復号し、表示制御部76は、デコーダ75により復号された画像データに基づいて、高解像度の視点領域を表示部77に表示させる。ステップS15の後、処理はステップS11に戻り、以降の処理が繰り返される。
 一方、ステップS13において、ユーザの視点が大きく変化したと判定された場合、処理はステップS16に進む。
 ステップS16において、取得制御部73は、視点情報取得部72により取得された視点情報に基づいて、ユーザの視点がお薦め領域に移動したか否かを判定する。
 ステップS16において、ユーザの視点がお薦め領域に移動したと判定された場合、処理はステップS17に進む。
 ステップS17において、取得制御部73は、お薦め領域が高解像度の画像データの取得を、配信サーバ10に要求する。バッファ74は、取得制御部73の要求に応じて配信サーバ10から伝送されてくる画像データを取得する。
 ステップS18において、デコーダ75は、1つ前のタイミングでバッファ74により取得された画像データを復号し、表示制御部76は、デコーダ75により復号された画像データに基づいて、中解像度のお薦め領域を表示部77に表示させる。ステップS18の後、処理はステップS11に戻り、以降の処理が繰り返される。以降の処理においては、お薦め領域を視点領域とした高解像度の画像データが、配信サーバ10から取得されることになる。
 さて、ステップS16において、ユーザの視点がお薦め領域に移動していないと判定された場合、すなわち、ユーザの視点がお薦め領域以外のその他の領域に移動した場合、処理はステップS19に進む。
 ステップS19において、取得制御部73は、視点情報取得部72により取得された視点情報に基づいて、広範囲画像の各領域のうち、取得すべき領域を表す取得領域情報を更新する。
 ステップS20において、取得制御部73は、更新された取得領域情報で表される、ユーザの視点が変化した後の視点領域となる変化後視点領域が高解像度の画像データの取得を、配信サーバ10に要求する。バッファ74は、取得制御部73の要求に応じて配信サーバ10から伝送されてくる画像データを取得する。
 ステップS21において、表示制御部76は、高解像度の変化後視点領域を表示可能であるか否かを判定する。このとき、1つ前のタイミングでバッファ74により取得された画像データに含まれる変化後視点領域は低解像度であることから、高解像度の変化後視点領域を表示可能ではないと判定され、処理はステップS22に進む。
 ステップS22において、デコーダ75は、1つ前のタイミングでバッファ74により取得された画像データを復号し、表示制御部76は、デコーダ75により復号された画像データに基づいて、これまでの(高解像度の)視点領域を表示部77に表示させる。ステップS22の後、処理はステップS20に戻り、ステップS20,S21が繰り返される。ステップS20,S21もまた、表示部77における画像の描画速度に合わせたタイミングで繰り返される。
 一方、ステップS21において、高解像度の変化後視点領域を表示可能であると判定された場合、ステップS23に進み、デコーダ75は、1つ前のタイミングでバッファ74により取得された画像データを復号し、表示制御部76は、デコーダ75により復号された画像データに基づいて、高解像度の変化後視点領域を表示部77に表示させる。ステップS23の後、処理はステップS11に戻り、以降の処理が繰り返される。
 以上のように、バッファ74においては、高解像度の視点領域とともに、中解像度のお薦め領域がバッファリングされる。これにより、ユーザの視点がお薦め領域以外のその他の領域に移動したときには、視聴領域が高解像度になるまでに遅延が発生するものの、ユーザの視点がお薦め領域に移動したときには、ユーザが注目する可能性の高いお薦め領域が中解像度で表示されるので、ユーザは、一定程度の品質の画像を視聴することが可能となる。
(配信サーバの動作の流れ)
 続いて、図7のフローチャートを参照して、配信サーバ10の動作の流れについて説明する。
 図7の処理もまた、基本的には、例えば表示装置20(表示部77)における画像の描画速度に合わせたタイミングで繰り返される。
 ステップS31において、制御部53は、広範囲画像の各フレームについて、広範囲画像の各領域を異なる解像度で符号化するよう、エンコーダ51を制御する。
 例えば、広範囲画像の各領域がそれぞれViewportとしてパッキングされた5つのRWPデータが生成される。このとき、各RWPデータにおいて、お薦め領域に設定される領域がある場合には、その領域は中解像度でパッキングされるようにする。但し、お薦め領域に設定される領域がViewportとしてパッキングされるRWPデータは、この限りではない。
 ステップS32において、制御部53は、表示装置20からの画像データの要求に基づいて、エンコーダ51により符号化された画像データから、表示装置20の要求に応じた画像データを、表示装置20への伝送対象として選択する。
 例えば、ユーザの視点を表す視点情報に基づいた表示装置20からの要求に応じて、そのユーザの視点に対応する視点領域がViewportとしてパッキングされたRWPデータが、表示装置20への伝送対象として選択される。また、ユーザの視点がお薦め領域に移動した場合には、表示装置20からの要求に応じて、お薦め領域がViewportとしてパッキングされたRWPデータが、表示装置20への伝送対象として選択される。
 ステップS33において、制御部53は、表示装置20への伝送対象として選択された画像データを表示装置20へ伝送するよう、伝送部52を制御する。ステップS33の後、処理はステップS31に戻り、以降の処理が繰り返される。
 以上の処理によれば、広範囲画像の各領域が高解像度で符号化された画像データとして、中解像度のお薦め領域を含む画像データが表示装置20へ配信される。これにより、ユーザが注目する可能性の高いお薦め領域に、ユーザの視点が移動した場合であっても、ユーザは、一定程度の品質の画像を遅延なく視聴することができ、より好適な広範囲画像の配信を実現することが可能となる。
 なお、以上においては、表示装置20からの要求によらずに、広範囲画像の各領域が異なる解像度で符号化された複数の画像データが生成されるものとした。
 これに限らず、配信サーバ10が、表示装置20からのユーザの視点を表す視点情報や、お薦め領域を表すお薦め領域情報に基づいた要求を受ける度に、広範囲画像の各領域のうち、ユーザの視点に対応する領域を高解像度で、お薦め領域に対応する領域を中解像度で符号化した画像データを生成するようにしてもよい。
<3.お薦め領域のバリエーション>
 ここで、広範囲画像において設定されるお薦め領域のバリエーションについて説明する。
 広範囲画像においては、空間的に複数のお薦め領域が設定されてもよい。
 例えば、図8に示される広範囲画像P20のように、ユーザの視点に対応する視点領域V21に加え、2つのお薦め領域R22,R23が設定されるようにする。
 この場合、ユーザの操作、嗜好、および視線遷移の少なくともいずれかに基づいて、1つのお薦め領域が、最終的なお薦め領域として選択される。
 すなわち、最終的なお薦め領域は、ユーザにより選択されてもよいし、ユーザの嗜好に基づいて自動的に選択されてもよい。また、最終的なお薦め領域として、あらかじめ取得されたユーザの視線遷移に基づいて推定される視点に近いお薦め領域が選択されてもよい。
 広範囲画像において、お薦め領域の周辺領域が、そのお薦め領域に含まれてもよい。
 例えば、図9に示される広範囲画像P30のように、ユーザの視点に対応する視点領域V31と、お薦め領域R32が設定されている場合、図中破線枠で示される、お薦め領域R32周囲で所定幅の領域SAもまた、お薦め領域R32と同様に扱われるようにする。
 この場合、領域SAを含むお薦め領域R32が中解像度で符号化されてもよいし、ユーザの視点が領域SAを含むお薦め領域R32に移動した場合に、お薦め領域R32が表示されるなどしてもよい。
 広範囲画像において、視点領域とお薦め領域の一部が重なるようにしてもよい。
 例えば、図10に示される広範囲画像P40のように、ユーザの視点に対応する視点領域V41とお薦め領域R42の一部が重なる場合を考える。このような場合、視点領域が、視点領域V41からお薦め領域R42に遷移するようにしてもよい。これにより、広範囲画像P40を提供する側がユーザにお薦めしたい領域を、より確実にユーザに視聴してもらうことができる。
<4.第2の実施の形態>
(画像配信システムのブロック図)
 図11は、第2の実施の形態に係る画像配信システム1の機能構成例を示すブロック図である。
 図11の画像配信システム1もまた、図2の画像配信システムと同様、配信サーバ10と表示装置20に加え、カメラ31とセンサ32を含むように構成される。
 図11の配信サーバ10は、エンコーダ151、伝送部152、および制御部153を含むように構成される。
 エンコーダ151、伝送部152、および制御部153は、図2のエンコーダ51、伝送部52、および制御部53と、それぞれ基本的に同様の機能を有する。
 但し、ここでは、エンコーダ151により、視点領域とお薦め領域が高解像度で、その他の領域が低解像度で符号化された画像データが生成される。
 また、伝送部152は、制御部153の制御の下、エンコーダ151により生成された画像データのうち、表示装置20からの取得要求に応じた画像データを、複数(図11の例では2)のストリームとして表示装置20に伝送する。
 図11の表示装置20は、お薦め領域情報取得部171、視点情報取得部172、取得制御部173、デコーダ174-1,174-2、切替部175、表示制御部176、および表示部177を含むように構成される。
 お薦め領域情報取得部171、視点情報取得部172、表示制御部176、および表示部177は、基本的には、図2のお薦め領域情報取得部71、視点情報取得部72、表示制御部76、および表示部77と、それぞれ同様の機能を有する。
 取得制御部173は、複数のストリームとして伝送されてくる画像データの取得を、配信サーバ10に要求する。具体的には、取得制御部173は、お薦め領域情報取得部171により取得されたお薦め領域情報と、視点情報取得部172により取得された視点情報に基づいて、ユーザの視点に対応する視点領域の画像データと、お薦め領域の画像データを、異なるストリームとして取得するよう制御する。
 デコーダ174-1,174-2は、それぞれ図2のバッファ74とデコーダ75を組み合わせた機能を有している。すなわち、デコーダ174-1,174-2は、それぞれ配信サーバ10からの画像データを取得し、一時的に保持するとともに、順次、保持している画像データを復号する。デコーダ174-1,174-2は、互いに同期して画像データを復号する。
 切替部175は、視点情報取得部172からの視点情報に基づいて、表示制御部176に供給される画像データを、デコーダ174-1,174-2により復号された画像データのいずれか一方に切り替える。すなわち、デコーダ174-1,174-2により復号された画像データのうち、ユーザの視線に対応する領域の画像データが、表示制御部176に供給される。表示制御部176は、切替部175からの画像データに基づいて、視点領域をしたり、ユーザの視点がお薦め領域に移動した場合には、視点領域に代えてお薦め領域を表示したりする。
(広範囲画像の配信について)
 ここで、図11の画像配信システム1における広範囲画像の配信について説明する。
 図12は、広範囲画像の各領域の配信の例を示す図である。
 図12に示される広範囲画像P10において、ユーザの視点に対応する視点領域V11と、お薦め領域R12が設定されているとする。この場合、図11の画像配信システム1においては、例えば、視点領域V11が高解像度で符号化された画像データが1のストリームとして伝送され、お薦め領域R12が高解像度で符号化された画像データと、その他の領域が低解像度で符号化された画像データが、別の1のストリームとして伝送される。例えば、画像データは、広範囲画像の各領域を解像度毎に階層化した階層構造データとして伝送される。
 図13は、階層構造データの例を示す図である。
 階層構造データは、広範囲画像(の各フレーム)の各領域がそれぞれ異なる解像度で符号化された符号化データである。図13の例では、広範囲画像のある1フレームにおける3つの領域A,B,Cがそれぞれ3レベルの解像度(高解像度、中解像度、低解像度)で符号化された符号化データが示されている。
 図13の例において、例えば、ユーザの視点が領域Bにあり、領域Cにお薦め領域が設定されている場合には、領域B(視点領域)が高解像度で符号化された符号化データが1のストリームとして表示装置20に伝送され、領域Cが高解像度で符号化された符号化データが別の1のストリームとして表示装置20に伝送される。このとき、領域Aを含む他の領域については、それらの領域が低解像度で符号化された符号化データが、いずれかのストリーム、または、さらに別のストリームとして表示装置20に伝送される。
 また、ユーザの視点に対応する領域(視点領域)が高解像度で符号化された符号化データとともに、その近隣の領域が中解像度で符号化された符号化データが表示装置20に伝送されてもよい。さらに、帯域に余裕がない場合には、お薦め領域が設定されている領域については、その領域が中解像度で符号化された符号化データが表示装置20に伝送されてもよい。
 以上においては、複数のストリームとして伝送される画像データが、階層構造データであるものとしたが、上述したRWPデータであってもよい。
 すなわち、図13の例において、ユーザの視点が領域Bにあり、領域Cにお薦め領域が設定されている場合には、領域B(視点領域)が高解像度でパッキングされたRWPデータが1のストリームとして表示装置20に伝送され、領域Cが高解像度でパッキングされたRWPデータが別の1のストリームとして表示装置20に伝送されればよい。
 このようにして、本実施の形態においては、画像データとして階層構造データまたはRWPデータが伝送される。
(表示装置の動作の流れ)
 次に、図14のフローチャートを参照して、図13の表示装置20の動作の流れについて説明する。
 図14の処理は、基本的には、例えば表示部177における画像の描画速度に合わせたタイミングで繰り返される。なお、図14のフローチャートにおけるステップS111乃至S113の処理は、図6のフローチャートにおけるステップS11乃至S13の処理と同様であるので、その説明は省略する。
 すなわち、ステップS113において、ユーザの視点が大きく変化していないと判定された場合、処理はステップS114に進む。
 ステップS114において、取得制御部173は、そのときのユーザの視点に対応する視点領域の高解像度の画像データと、お薦め領域情報で表されるお薦め領域の高解像度の画像データの取得を、配信サーバ10に要求する。デコーダ174-1は、取得制御部173の要求に応じて配信サーバ10から伝送されてくる視点領域の画像データを取得するとともに、1つ前のタイミングで取得された画像データを復号する。デコーダ174-2は、取得制御部173の要求に応じて配信サーバ10から伝送されてくるお薦め領域の画像データを取得するとともに、1つ前のタイミングで取得された画像データを復号する。
 ステップS115において、切替部175は、デコーダ174-1により復号された、ユーザの視線に対応する視点領域の画像データを表示制御部176に供給し、表示制御部176は、高解像度の視点領域を本線画像として表示部177に表示させる。ステップS115の後、処理はステップS111に戻り、以降の処理が繰り返される。
 一方、ステップS113において、ユーザの視点が大きく変化したと判定された場合、処理はステップS116に進む。
 ステップS116において、取得制御部173は、視点情報取得部172により取得された視点情報に基づいて、ユーザの視点がお薦め領域に移動したか否かを判定する。
 ステップS116において、ユーザの視点がお薦め領域に移動したと判定された場合、処理はステップS117に進む。
 ステップS117において、切替部175は、表示制御部176に供給される画像データを、デコーダ174-2により復号されたお薦め領域の画像データに切り替えることで、本線画像をお薦め領域に切り替える。
 ステップS118において、表示制御部176は、デコーダ174-2により復号された画像データに基づいて、高解像度のお薦め領域を表示部177に表示させる。ステップS118の後、処理はステップS111に戻り、以降の処理が繰り返される。以降の処理においては、お薦め領域を視点領域とした高解像度の画像データが、配信サーバ10から取得されることになる。
 さて、ステップS116において、ユーザの視点がお薦め領域に移動していないと判定された場合、すなわち、ユーザの視点がお薦め領域以外のその他の領域に移動した場合、処理はステップS119に進む。
 ステップS119において、取得制御部173は、視点情報取得部172により取得された視点情報に基づいて、広範囲画像の各領域のうち、取得すべき領域を表す取得領域情報を更新する。
 ステップS120において、取得制御部173は、これまでの視点領域の画像データとともに、更新された取得領域情報で表される、ユーザの視点が変化した後の視点領域となる高解像度の変化後視点領域の画像データの取得を、配信サーバ10に要求する。デコーダ174-1は、取得制御部173の要求に応じて配信サーバ10から伝送されてくる視点領域の画像データを取得するとともに、1つ前のタイミングで取得された画像データを復号する。デコーダ174-2は、取得制御部73の要求に応じて配信サーバ10から伝送されてくる変化後視点領域の画像データの取得を開始する。
 ステップS121において、表示制御部176は、高解像度の変化後視点領域を表示可能であるか否かを判定する。このとき、1つ前のタイミングでデコーダ174-2により取得された画像データはお薦め領域の画像データであることから、変化後視点領域を表示可能ではないと判定され、処理はステップS122に進む。
 ステップS122においは、表示制御部176は、デコーダ174-1により復号された画像データに基づいて、これまでの(高解像度の)視点領域を表示部177に表示させる。ステップS122の後、処理はステップS120に戻り、ステップS120,S121が繰り返される。ステップS120,S121もまた、表示部177における画像の描画速度に合わせたタイミングで繰り返される。
 一方、ステップS121において、高解像度の変化後視点領域を表示可能であると判定された場合、ステップS123に進み、切替部175は、表示制御部176に供給される画像データを、デコーダ174-2により復号された変化後視点領域の画像データに切り替えることで、本線画像を変化後視点領域に切り替える。
 ステップS124において、表示制御部176は、デコーダ174-2により復号された画像データに基づいて、高解像度の変化後視点領域を表示部177に表示させる。ステップS124の後、処理はステップS111に戻り、以降の処理が繰り返される。
 以上のように、デコーダ174-1により、高解像度の視点領域が取得されるとともに、デコーダ174-2により、高解像度のお薦め領域が取得される。これにより、ユーザの視点がお薦め領域以外のその他の領域に移動したときには、視聴領域が高解像度になるまでに遅延が発生するものの、ユーザの視点がお薦め領域に移動したときには、ユーザが注目する可能性の高いお薦め領域が高解像度で表示されるので、ユーザは、高品質の画像を視聴することが可能となる。
(配信サーバの動作の流れ)
 続いて、図13の配信サーバ10の動作の流れについて説明する。図13の配信サーバ10の動作の流れは、基本的には、図7のフローチャートを参照して説明した図2の配信サーバ10の動作の流れと同様である。
 但し、図13の配信サーバ10の動作においては、ユーザの視点を表す視点情報と、お薦め領域を表すお薦め領域情報に基づいた表示装置20からの要求に応じて、複数のストリームそれぞれについて、表示装置20への伝送対象となる画像データが選択される点で、図13の配信サーバ10の動作とは異なる。具体的には、視点領域が高解像度で符号化された画像データに加え、お薦め領域が高解像度で符号化された画像データが、表示装置20への伝送対象として選択される。
 このような動作によれば、視聴領域が高解像度で符号化された画像データととともに、お薦め領域が高解像度で符号化された画像データが表示装置20へ配信される。これにより、ユーザが注目する可能性の高いお薦め領域に、ユーザの視点が移動した場合であっても、ユーザは、高品質の画像を遅延なく視聴することができ、より好適な広範囲画像の配信を実現することが可能となる。
<5.お薦め領域に応じた処理の例>
 以上においては、広範囲画像において設定されるお薦め領域のバリエーションとして、複数のお薦め領域が設定される例(図8)と、視点領域とお薦め領域が重なる例(図10)について説明した。ここでは、それぞれの場合における処理の詳細について説明する。
(複数のお薦め領域が存在する場合の処理の例)
 図15乃至図17は、複数のお薦め領域が存在する場合の処理の例を示す図である。ここでは、異なる解像度の画像データがパッキングされて1のストリームとして伝送されるものとする。
 図15に示される広範囲画像P110においては、ユーザの視点に対応する視点領域V111に加え、2つのお薦め領域R112,R113が設定されている。図15の例では、視点領域V111の全部が、お薦め領域R112に重なっている。
 この場合、図中右側に示されるように、お薦め領域R112を含む視点領域V111が高解像度で、お薦め領域R113が中解像度で、その他の領域が低解像度でパッキングされたRWPデータが伝送される。すなわち、お薦め領域R112は視点領域V111と同一とみなされ、最終的なお薦め領域としてお薦め領域R113が選択される。
 図16に示される広範囲画像P110においても、ユーザの視点に対応する視点領域V111に加え、2つのお薦め領域R112,R113が設定されている。但し、図16の例では、視点領域V111は、お薦め領域R112,R113のいずれにも重なっていない。
 この場合、図中右側に示されるように、視点領域V111が高解像度で、お薦め領域R112,R113がそれぞれ中解像度で、その他の領域が低解像度でパッキングされたRWPデータが伝送される。すなわち、最終的なお薦め領域として、お薦め領域R112,R113が選択され同一の解像度でパッキングされる。なお、図16の例におけるお薦め領域R112,R113の解像度(中解像度)は、図15の例におけるお薦め領域R113の解像度(中解像度)より低い解像度とされる。
 図16の例では、お薦め領域R112,R113が同一の解像度でパッキングされるものとしたが、お薦め領域に対する重み付けに応じて解像度が調整されてもよい。
 例えば、図16と同様、図17に示される広範囲画像P110において、ユーザの視点に対応する視点領域V111に加え、2つのお薦め領域R112,R113が設定されている場合、視点領域V111との距離に応じて、お薦め領域の重み付けが行われる。
 この場合、図中右側に示されるように、最終的なお薦め領域として、お薦め領域R112,R113が選択されるが、視点領域V111に近いお薦め領域R112が、視点領域V111から遠いお薦め領域R113より高い解像度でパッキングされるようにする。
 また、図示はしないが、視点領域V111との距離ではなく、ユーザの嗜好やユーザの視線遷移に基づいたお薦め度に応じて、お薦め領域の重み付けが行われてもよいし、ユーザによる選択結果に応じて、お薦め領域の重み付けが行われてもよい。
 なお、以上においては、異なる解像度の画像データがパッキングされて1のストリームとして伝送されるものとしたが、異なる解像度の画像データが複数のストリームとして伝送される場合には、対応する画像データのストリーム毎に、同様の処理が行われる。
(視点領域とお薦め領域が重なる場合の処理の例)
 図18乃至図21は、視点領域とお薦め領域が重なる場合の処理の例を示す図である。ここでは、異なる解像度の画像データがパッキングされて1のストリームとして伝送されるものとする。
 図18に示される広範囲画像P120においては、ユーザの視点に対応する視点領域V121の一部が、お薦め領域R122に重なっている。このように、ユーザの視点が視点領域V121とお薦め領域R122のどちらに移動するかを推定し難い状況では、視点領域V121を中心とした周囲領域SA123が、中解像度で符号化される領域(中解像度領域)として設定されるようにする。
 図18の例では、図中下段に示されるように、視点領域V121が高解像度で、お薦め領域R122と周囲領域SA123がそれぞれ中解像度で、その他の領域が低解像度でパッキングされたRWPデータが伝送される。なお、図18の例では、お薦め領域R122が、周囲領域SA123より高い解像度でパッキングされているが、その逆であってもよい。
 また、図19に示されるように、中解像度領域として設定される周囲領域SA123に、視点領域V121の全ての領域が含まれる場合には、お薦め領域R122を中心とした周囲領域SA123が設定されてもよい。
 図20に示される広範囲画像P120においては、ユーザの視点に対応する視点領域V121の全部が、お薦め領域R122に重なっている。このように、ユーザの視点がお薦め領域R122にある状況では、視点領域V121を中心とした周囲領域SA123が、中解像度領域として設定されるようにする。
 図20の例では、図中下段に示されるように、お薦め領域R122を含む視点領域V121が高解像度で、周囲領域SA123が中解像度で、その他の領域が低解像度でパッキングされたRWPデータが伝送される。
 図21には、複数のお薦め領域が存在する場合において、視点領域とお薦め領域のいずれかが重なる場合の例が示される。
 図21に示される広範囲画像P130においては、ユーザの視点に対応する視点領域V131に加え、2つのお薦め領域R132,R133が設定され、視点領域V131の全部が、お薦め領域R132に重なっている。このように、ユーザの視点が複数のお薦め領域の一方(お薦め領域R132)にある状況では、視点領域V131を含みつつ、複数のお薦め領域を基準にした周囲領域SA134が、中解像度領域として設定されるようにする。
 図21の例では、視点領域V131を含むお薦め領域R132の全部と、お薦め領域R133の一部が含まれるように、周囲領域SA134が設定されている。
 以上のようにして、視点領域とお薦め領域が重なることで、ユーザの視点がどこに移動するかを推定し難い状況であっても、周囲領域が設定されることにより、ユーザは、一定程度の品質の画像を視聴することが可能となる。
 なお、以上においては、異なる解像度の画像データがパッキングされて1のストリームとして伝送されるものとしたが、異なる解像度の画像データが複数のストリームとして伝送される場合には、対応する画像データのストリーム毎に、同様の処理が行われる。
<6.コンピュータの構成例>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 図22は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 上述した配信サーバ10や表示装置20は、図22に示す構成を有するコンピュータにより実現される。
 CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303は、バス304により相互に接続されている。
 バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、キーボード、マウスなどよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307が接続される。また、入出力インタフェース305には、ハードディスクや不揮発性のメモリなどよりなる記憶部308、ネットワークインタフェースなどよりなる通信部309、リムーバブルメディア311を駆動するドライブ310が接続される。
 以上のように構成されるコンピュータでは、CPU301が、例えば、記憶部308に記憶されているプログラムを入出力インタフェース305およびバス304を介してRAM303にロードして実行することにより、上述した一連の処理が行われる。
 CPU301が実行するプログラムは、例えばリムーバブルメディア311に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部308にインストールされる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたときなどの必要なタイミングで処理が行われるプログラムであっても良い。
 本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 さらに、本開示は以下のような構成をとることができる。
(1)
 画像のうち、表示装置に対するユーザの視点に対応する視点領域を第1の解像度で、前記画像において設定されたお薦め領域を第2の解像度で、その他の領域を前記第1の解像度と前記第2の解像度より低い第3の解像度で符号化するよう制御する制御部
 を備える情報処理装置。
(2)
 前記第1の解像度は、前記第2の解像度より高いかまたは同じ解像度とされる
 (1)に記載の情報処理装置。
(3)
 前記制御部は、前記ユーザの視点を表す視点情報と、前記お薦め領域を表すお薦め領域情報の少なくともいずれかに基づいて、前記画像の各領域が符号化された複数の画像データから、前記表示装置への伝送対象を選択する
 (1)に記載の情報処理装置。
(4)
 前記制御部は、前記伝送対象として選択された前記画像データを、1のストリームとして伝送するよう制御する
 (3)に記載の情報処理装置。
(5)
 前記制御部は、前記ユーザの視点が前記お薦め領域に移動した場合、前記お薦め領域が前記第1の解像度で符号化された前記画像データを、前記伝送対象として選択する
 (4)に記載の情報処理装置。
(6)
 前記画像データは、前記画像を領域毎に解像度を変更してパッキングしたRWP(Region Wise Packing)データである
 (4)または(5)に記載の情報処理装置。
(7)
 前記制御部は、前記伝送対象として選択された前記画像データを、複数のストリームとして伝送するよう制御する
 (3)に記載の情報処理装置。
(8)
 前記制御部は、前記視点領域が前記第1の解像度で符号化された前記画像データに加え、前記お薦め領域が前記第1の解像度で符号化された前記画像データを、前記伝送対象として選択する
 (7)に記載の情報処理装置。
(9)
 前記画像データは、前記画像の各領域を解像度毎に階層化した階層構造データである
 (7)または(8)に記載の情報処理装置。
(10)
 前記画像データは、前記画像を領域毎に解像度を変更してパッキングしたRWP(Region Wise Packing)データである
 (7)または(8)に記載の情報処理装置。
(11)
 前記制御部は、前記お薦め領域が複数存在する場合、前記ユーザの操作、嗜好、および視線遷移の少なくともいずれかに基づいて選択された前記お薦め領域を、最終的な前記お薦め領域として選択する
 (3)乃至(10)のいずれかに記載の情報処理装置。
(12)
 前記制御部は、前記視点領域と前記お薦め領域の一部または全部が重なる場合、前記視点領域と前記お薦め領域の少なくとも一部を含む周囲領域が前記第2の解像度で符号化された前記画像データを、前記伝送対象として選択する
 (3)乃至(11)のいずれかに記載の情報処理装置。
(13)
 前記お薦め領域は、前記お薦め領域の周辺領域を含む
 (1)乃至(12)のいずれかに記載の情報処理装置。
(14)
 情報処理装置が、
 画像のうち、表示装置に対するユーザの視点に対応する視点領域を第1の解像度で、前記画像において設定されたお薦め領域を第2の解像度で、その他の領域を前記第1の解像度と前記第2の解像度より低い第3の解像度で符号化するよう制御する
 情報処理方法。
(15)
 配信サーバから伝送される画像のうち、ユーザの視点に対応する視点領域を第1の解像度で符号化された画像データと、前記画像において設定されたお薦め領域を第2の解像度で符号化された前記画像データを、異なる伝送路を介して取得するよう制御する取得制御部と、
 前記画像データに基づいて、前記視点領域を表示する表示制御部と
 を備え、
 前記表示制御部は、前記ユーザの視点が前記お薦め領域に移動した場合、前記視点領域に代えて、前記お薦め領域を表示する
 情報処理装置。
(16)
 前記第1の解像度は、前記第2の解像度より高いかまたは同じ解像度とされる
 (15)に記載の情報処理装置。
(17)
 前記取得制御部は、前記ユーザの視点を表す視点情報と、前記お薦め領域を表すお薦め領域情報に基づいて、前記画像データの取得を制御する
 (15)または(16)に記載の情報処理装置。
(18)
 前記取得制御部は、前記お薦め領域が複数存在する場合、前記ユーザの操作、嗜好、および視線遷移の少なくともいずれかに基づいて、最終的に取得する前記お薦め領域を選択する
 (15)乃至(17)のいずれかに記載の情報処理装置。
(19)
 情報処理装置が、
 配信サーバから伝送される画像のうち、ユーザの視点に対応する視点領域を第1の解像度で符号化された画像データと、前記画像において設定されたお薦め領域を第2の解像度で符号化された前記画像データを、異なる伝送路を介して取得し、
 前記画像データに基づいて、前記視点領域を表示し、
 前記ユーザの視点が前記お薦め領域に移動した場合、前記視点領域に代えて、前記お薦め領域を表示する
 情報処理方法。
(20)
 配信サーバと、
 表示装置と
 を含み、
 前記配信サーバは、
  画像のうち、前記表示装置に対するユーザの視点に対応する視点領域を第1の解像度で、前記画像において設定されたお薦め領域を第2の解像度で、その他の領域を前記第1の解像度と前記第2の解像度より低い第3の解像度で符号化するよう制御する制御部
 を備える
 情報処理システム。
 1 画像配信システム, 10 配信サーバ, 20 表示装置, 31 カメラ, 32 センサ, 51 エンコーダ, 52 伝送部, 53 制御部, 71 お薦め領域情報取得部, 72 視点情報取得部, 73 取得制御部, 74 バッファ, 75 デコーダ, 76 表示制御部, 77 表示部, 151 エンコーダ, 152 伝送部, 153 制御部, 171 お薦め領域情報取得部, 172 視点情報取得部, 173 取得制御部, 174-1,174-2 デコーダ, 175 切替部, 176 表示制御部, 177 表示部

Claims (20)

  1.  画像のうち、表示装置に対するユーザの視点に対応する視点領域を第1の解像度で、前記画像において設定されたお薦め領域を第2の解像度で、その他の領域を前記第1の解像度と前記第2の解像度より低い第3の解像度で符号化するよう制御する制御部
     を備える情報処理装置。
  2.  前記第1の解像度は、前記第2の解像度より高いかまたは同じ解像度とされる
     請求項1に記載の情報処理装置。
  3.  前記制御部は、前記ユーザの視点を表す視点情報と、前記お薦め領域を表すお薦め領域情報の少なくともいずれかに基づいて、前記画像の各領域が符号化された複数の画像データから、前記表示装置への伝送対象を選択する
     請求項1に記載の情報処理装置。
  4.  前記制御部は、前記伝送対象として選択された前記画像データを、1のストリームとして伝送するよう制御する
     請求項3に記載の情報処理装置。
  5.  前記制御部は、前記ユーザの視点が前記お薦め領域に移動した場合、前記お薦め領域が前記第1の解像度で符号化された前記画像データを、前記伝送対象として選択する
     請求項4に記載の情報処理装置。
  6.  前記画像データは、前記画像を領域毎に解像度を変更してパッキングしたRWP(Region Wise Packing)データである
     請求項4に記載の情報処理装置。
  7.  前記制御部は、前記伝送対象として選択された前記画像データを、複数のストリームとして伝送するよう制御する
     請求項3に記載の情報処理装置。
  8.  前記制御部は、前記視点領域が前記第1の解像度で符号化された前記画像データに加え、前記お薦め領域が前記第1の解像度で符号化された前記画像データを、前記伝送対象として選択する
     請求項7に記載の情報処理装置。
  9.  前記画像データは、前記画像の各領域を解像度毎に階層化した階層構造データである
     請求項7に記載の情報処理装置。
  10.  前記画像データは、前記画像を領域毎に解像度を変更してパッキングしたRWP(Region Wise Packing)データである
     請求項7に記載の情報処理装置。
  11.  前記制御部は、前記お薦め領域が複数存在する場合、前記ユーザの操作、嗜好、および視線遷移の少なくともいずれかに基づいて選択された前記お薦め領域を、最終的な前記お薦め領域として選択する
     請求項3に記載の情報処理装置。
  12.  前記制御部は、前記視点領域と前記お薦め領域の一部または全部が重なる場合、前記視点領域と前記お薦め領域の少なくとも一部を含む周囲領域が前記第2の解像度で符号化された前記画像データを、前記伝送対象として選択する
     請求項3に記載の情報処理装置。
  13.  前記お薦め領域は、前記お薦め領域の周辺領域を含む
     請求項1に記載の情報処理装置。
  14.  情報処理装置が、
     画像のうち、表示装置に対するユーザの視点に対応する視点領域を第1の解像度で、前記画像において設定されたお薦め領域を第2の解像度で、その他の領域を前記第1の解像度と前記第2の解像度より低い第3の解像度で符号化するよう制御する
     情報処理方法。
  15.  配信サーバから伝送される画像のうち、ユーザの視点に対応する視点領域を第1の解像度で符号化された画像データと、前記画像において設定されたお薦め領域を第2の解像度で符号化された前記画像データを、異なる伝送路を介して取得するよう制御する取得制御部と、
     前記画像データに基づいて、前記視点領域を表示する表示制御部と
     を備え、
     前記表示制御部は、前記ユーザの視点が前記お薦め領域に移動した場合、前記視点領域に代えて、前記お薦め領域を表示する
     情報処理装置。
  16.  前記第1の解像度は、前記第2の解像度より高いかまたは同じ解像度とされる
     請求項15に記載の情報処理装置。
  17.  前記取得制御部は、前記ユーザの視点を表す視点情報と、前記お薦め領域を表すお薦め領域情報に基づいて、前記画像データの取得を制御する
     請求項15に記載の情報処理装置。
  18.  前記取得制御部は、前記お薦め領域が複数存在する場合、前記ユーザの操作、嗜好、および視線遷移の少なくともいずれかに基づいて、最終的に取得する前記お薦め領域を選択する
     請求項15に記載の情報処理装置。
  19.  情報処理装置が、
     配信サーバから伝送される画像のうち、ユーザの視点に対応する視点領域を第1の解像度で符号化された画像データと、前記画像において設定されたお薦め領域を第2の解像度で符号化された前記画像データを、異なる伝送路を介して取得するよう制御し、
     前記画像データに基づいて、前記視点領域を表示し、
     前記ユーザの視点が前記お薦め領域に移動した場合、前記視点領域に代えて、前記お薦め領域を表示する
     情報処理方法。
  20.  配信サーバと、
     表示装置と
     を含み、
     前記配信サーバは、
      画像のうち、前記表示装置に対するユーザの視点に対応する視点領域を第1の解像度で、前記画像において設定されたお薦め領域を第2の解像度で、その他の領域を前記第1の解像度と前記第2の解像度より低い第3の解像度で符号化するよう制御する制御部
     を備える
     情報処理システム。
PCT/JP2021/033075 2020-09-23 2021-09-09 情報処理装置、情報処理方法、および情報処理システム WO2022065040A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US18/019,389 US20230300309A1 (en) 2020-09-23 2021-09-09 Information processing device, information processing method, and information processing system
CN202180063408.1A CN116137954A (zh) 2020-09-23 2021-09-09 信息处理设备、信息处理方法和信息处理系统
EP21872171.0A EP4221234A4 (en) 2020-09-23 2021-09-09 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING SYSTEM
JP2022551860A JPWO2022065040A1 (ja) 2020-09-23 2021-09-09

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020158545 2020-09-23
JP2020-158545 2020-09-23

Publications (1)

Publication Number Publication Date
WO2022065040A1 true WO2022065040A1 (ja) 2022-03-31

Family

ID=80845215

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/033075 WO2022065040A1 (ja) 2020-09-23 2021-09-09 情報処理装置、情報処理方法、および情報処理システム

Country Status (5)

Country Link
US (1) US20230300309A1 (ja)
EP (1) EP4221234A4 (ja)
JP (1) JPWO2022065040A1 (ja)
CN (1) CN116137954A (ja)
WO (1) WO2022065040A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016167699A (ja) 2015-03-09 2016-09-15 日本電信電話株式会社 映像配信方法、映像配信装置及び映像配信プログラム
WO2018128097A1 (ja) * 2017-01-06 2018-07-12 ソニー株式会社 情報処理装置および情報処理方法
WO2018155670A1 (ja) * 2017-02-27 2018-08-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像配信方法、画像表示方法、画像配信装置及び画像表示装置
WO2019054360A1 (ja) * 2017-09-12 2019-03-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像表示方法、画像配信方法、画像表示装置及び画像配信装置
JP2019169929A (ja) * 2018-03-26 2019-10-03 Kddi株式会社 Vr映像配信装置および方法、vr映像再生装置および方法ならびにvr映像システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019521587A (ja) * 2016-05-26 2019-07-25 ヴィド スケール インコーポレイテッド ビューポート適応360度映像配信の方法および装置
US20180176468A1 (en) * 2016-12-19 2018-06-21 Qualcomm Incorporated Preferred rendering of signalled regions-of-interest or viewports in virtual reality video
EP3672251A1 (en) * 2018-12-20 2020-06-24 Koninklijke KPN N.V. Processing video data for a video player apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016167699A (ja) 2015-03-09 2016-09-15 日本電信電話株式会社 映像配信方法、映像配信装置及び映像配信プログラム
WO2018128097A1 (ja) * 2017-01-06 2018-07-12 ソニー株式会社 情報処理装置および情報処理方法
WO2018155670A1 (ja) * 2017-02-27 2018-08-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像配信方法、画像表示方法、画像配信装置及び画像表示装置
WO2019054360A1 (ja) * 2017-09-12 2019-03-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像表示方法、画像配信方法、画像表示装置及び画像配信装置
JP2019169929A (ja) * 2018-03-26 2019-10-03 Kddi株式会社 Vr映像配信装置および方法、vr映像再生装置および方法ならびにvr映像システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4221234A4

Also Published As

Publication number Publication date
US20230300309A1 (en) 2023-09-21
EP4221234A1 (en) 2023-08-02
JPWO2022065040A1 (ja) 2022-03-31
CN116137954A (zh) 2023-05-19
EP4221234A4 (en) 2024-02-28

Similar Documents

Publication Publication Date Title
JP7029562B2 (ja) コンテンツを提供及び表示するための装置及び方法
US20210409672A1 (en) Methods and apparatus for receiving and/or playing back content
US11924394B2 (en) Methods and apparatus for receiving and/or using reduced resolution images
US20180225537A1 (en) Methods and apparatus relating to camera switching and/or making a decision to switch between cameras
KR20170015938A (ko) 콘텐트를 전달 및/또는 콘텐트를 재생하기 위한 방법들 및 장치
KR20170008725A (ko) 콘텐트를 스트리밍하기 위한 방법들 및 장치
US20180249189A1 (en) Methods and apparatus for use in a system or device where switching between cameras may occur
CN110730340B (zh) 基于镜头变换的虚拟观众席展示方法、系统及存储介质
WO2022065040A1 (ja) 情報処理装置、情報処理方法、および情報処理システム
JP7319340B2 (ja) 配信サーバ、配信方法及びプログラム
JP6970143B2 (ja) 配信サーバ、配信方法及びプログラム
CA3237494A1 (en) Systems and methods for providing rapid content switching in media assets featuring multiple content streams that are delivered over computer networks

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21872171

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022551860

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021872171

Country of ref document: EP

Effective date: 20230424