WO2021224972A1 - 中継サーバおよび配信画像生成方法 - Google Patents

中継サーバおよび配信画像生成方法 Download PDF

Info

Publication number
WO2021224972A1
WO2021224972A1 PCT/JP2020/018585 JP2020018585W WO2021224972A1 WO 2021224972 A1 WO2021224972 A1 WO 2021224972A1 JP 2020018585 W JP2020018585 W JP 2020018585W WO 2021224972 A1 WO2021224972 A1 WO 2021224972A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
game
processing device
information
information processing
Prior art date
Application number
PCT/JP2020/018585
Other languages
English (en)
French (fr)
Inventor
雅宏 藤原
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to US17/918,992 priority Critical patent/US20230239550A1/en
Priority to PCT/JP2020/018585 priority patent/WO2021224972A1/ja
Publication of WO2021224972A1 publication Critical patent/WO2021224972A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4781Games

Definitions

  • the present invention relates to a technique for generating a delivered image and a technique for transmitting a delivered image.
  • Patent Document 1 discloses a system for distributing a display image including a game image being played by a distribution user to a viewing user via a shared server.
  • the display image includes a game image, a comment transmitted from the viewing user, and a camera image of the distribution user, and the information processing device of the distribution user encodes the display image and transmits it to the shared server. This allows the viewing user to see the same display image as the distribution user.
  • an object of the present invention is to provide a technique for enhancing the usefulness of an image sharing system that distributes content images such as games to viewing users.
  • the relay server of an embodiment of the present invention is an information processing device operated by a user and a relay server connected to an image sharing server, and a first method of acquiring a content image from the information processing device.
  • Another aspect of the present invention is a method of generating a distribution image in a relay server connected to an information processing device operated by a user and an image sharing server, in which a step of acquiring a content image from the information processing device and the information processing device. It includes a step of acquiring a camera image from and a step of generating a distribution image in which the content image and the camera image are combined.
  • a technique for enhancing the usefulness of an image sharing system that distributes a content image to a viewing user is provided.
  • FIG. 1 shows an image sharing system 1 according to an embodiment of the present invention.
  • a game image and a game sound (game sound) being played by a user who is a distributor are live-distributed, and a viewing user outputs the game sound. Realize a viewing environment.
  • the distribution user streams the game sound that he / she is playing, but the content to be streamed is not limited to the game, and may be other types of video content.
  • the image sharing system 1 includes an information processing device 10 operated by a distribution user, a relay server 12, a first image sharing server 14a, a second image sharing server 14b, and a third image sharing server that provide game image sounds to viewing users. It includes 14c and a fourth image sharing server 14d (hereinafter, referred to as "image sharing server 14" when not particularly distinguished).
  • the relay server 12 connects to the information processing device 10 and the image sharing server 14 via a network such as the Internet. It is preferable that there are a plurality of image sharing servers 14, but there may be one.
  • the plurality of image sharing servers 14 may be operated by different business entities, but a plurality of image sharing servers 14 are operated by one business entity to provide different types of services within one business entity. It may be.
  • the access point (hereinafter referred to as “AP”) 8 has the functions of a wireless access point and a router, and the information processing device 10 connects to the AP 8 via wireless or wired communication and communicates with the relay server 12 on the network. Connect as possible.
  • the information processing device 10 can directly connect to the image sharing server 14 and transmit the distributed image to the image sharing server 14, but by transmitting the distributed image to the image sharing server 14 via the relay server 12, the distributed image can be transmitted.
  • the processing load on video distribution can be reduced.
  • the input device 6 operated by the user connects to the information processing device 10 wirelessly or by wire, and outputs the operation information by the user to the information processing device 10.
  • the information processing device 10 receives the operation information from the input device 6, it reflects it in the processing of the system software or the application software, and outputs the processing result from the output device 4.
  • the information processing device 10 may be a game device that executes a game program, and the input device 6 may be a game controller.
  • the input device 6 includes a plurality of input units such as a plurality of push-type operation buttons, an analog stick capable of inputting an analog amount, and a rotary button.
  • the auxiliary storage device 2 is a storage such as an HDD (hard disk drive) or SSD (solid state drive), may be a built-in storage device, or is externally connected to the information processing device 10 by USB (Universal Serial Bus) or the like. It may be a storage device.
  • the output device 4 may be a television having a display for outputting an image and a speaker for outputting sound, or may be a head-mounted display.
  • the camera 7 photographs the space in which the user exists at a predetermined cycle and outputs the image to the information processing device 10.
  • the camera 7 is a stereo camera, and the information processing device 10 can calculate depth information from images taken by the two cameras.
  • the game image and the game sound are distributed to the viewing user, and the handling of the game image in the distribution will be particularly described below.
  • the information processing device 10 transmits the game image being played by the user to the relay server 12, the relay server 12 generates a distribution image and transmits it to the image sharing server 14, and the image sharing server 14 views the image. Broadcast the delivered image to the user. In this way, the image sharing system 1 operates as a content image distribution system.
  • the relay server 12 provides the user with a relay service for relaying the streaming distribution
  • the image sharing server 14 provides the user with an image sharing service for performing the streaming distribution.
  • the relay server 12 and the image sharing server 14 each set a network account for identifying the user for the user.
  • the relay server 12 is notified of the network account of the image sharing service by the user, and manages the network account of the relay service and the network account of the image sharing service in association with each other.
  • the relay server 12 receives the designation of one or more image sharing services used for distribution from the user, and causes the user to sign in to the image sharing server 14 using the network account of the designated image sharing service.
  • the relay server 12 receives the game image from the information processing device 10 and the captured image captured by the camera 7 (hereinafter referred to as “camera image”) as separate streams, and the game image and the camera Generate a distribution image that is combined with the image. Since the relay server 12 executes the synthesis process, the information processing apparatus 10 does not have to perform the synthesis process.
  • the relay server 12 transmits the generated distribution image to the image sharing server 14 that provides the image sharing service specified by the user.
  • the image sharing server 14 of the embodiment is a video distribution server, receives distribution images from the relay server 12, and streams them to the terminal device of the viewing user.
  • FIG. 2 shows the hardware configuration of the information processing device 10.
  • the information processing device 10 includes a main power button 20, a power ON LED 21, a standby LED 22, a system controller 24, a clock 26, a device controller 30, a media drive 32, a USB module 34, a flash memory 36, a wireless communication module 38, and wired communication. It includes a module 40, a subsystem 50, and a main system 60.
  • the main system 60 includes a main CPU (Central Processing Unit), a memory and a memory controller which are main storage devices, a GPU (Graphics Processing Unit), and the like.
  • the GPU is mainly used for arithmetic processing of a game program. These functions may be configured as system-on-chip and formed on one chip.
  • the main CPU has a function of executing a game program recorded in the auxiliary storage device 2 or the ROM medium 44.
  • the subsystem 50 includes a sub CPU, a memory as a main storage device, a memory controller, and the like, does not have a GPU, and does not have a function of executing a game program.
  • the number of circuit gates of the sub CPU is smaller than the number of circuit gates of the main CPU, and the operating power consumption of the sub CPU is smaller than the operating power consumption of the main CPU.
  • the sub CPU operates even while the main CPU is in the standby state, and its processing function is limited in order to keep the power consumption low.
  • the main power button 20 is an input unit for inputting operations from the user, and is provided on the front surface of the housing of the information processing device 10 to turn on or off the power supply to the main system 60 of the information processing device 10. Manipulated for.
  • the power ON LED 21 lights up when the main power button 20 is turned on, and the standby LED 22 lights up when the main power button 20 is turned off.
  • the system controller 24 detects the user pressing the main power button 20. When the main power button 20 is pressed while the main power is off, the system controller 24 acquires the pressing operation as an "on instruction", while the main power is on when the main power is on. When the button 20 is pressed, the system controller 24 acquires the pressing operation as an "off instruction”.
  • the clock 26 is a real-time clock that generates current date and time information and supplies it to the system controller 24, the subsystem 50, and the main system 60.
  • the device controller 30 is configured as an LSI (Large-Scale Integrated Circuit) that executes information transfer between devices like a south bridge. As shown in the figure, devices such as a system controller 24, a media drive 32, a USB module 34, a flash memory 36, a wireless communication module 38, a wired communication module 40, a subsystem 50, and a main system 60 are connected to the device controller 30. NS.
  • the device controller 30 absorbs the difference in electrical characteristics and the difference in data transfer speed of each device, and controls the timing of data transfer.
  • the media drive 32 is a drive device that mounts and drives application software such as games and a ROM medium 44 that records license information, and reads programs, data, and the like from the ROM medium 44.
  • the ROM medium 44 may be a read-only recording medium such as an optical disc, a magneto-optical disc, or a Blu-ray disc.
  • the USB module 34 is a module that connects to an external device with a USB cable.
  • the USB module 34 may be connected to the auxiliary storage device 2 and the camera 7 with a USB cable.
  • the flash memory 36 is an auxiliary storage device that constitutes an internal storage.
  • the wireless communication module 38 uses a communication protocol such as a Bluetooth (registered trademark) protocol or an IEEE 802.11 protocol to wirelessly communicate with, for example, an input device 6.
  • the wired communication module 40 communicates with an external device by wire and connects to an external network via the AP8.
  • FIG. 3 shows a functional block of an information processing device 10 that operates as a streaming data transmission device.
  • the information processing device 10 includes a processing unit 100, a communication unit 102, and a reception unit 104, and the processing unit 100 includes an execution unit 110, an image processing unit 120, a sound providing unit 122, a camera image supply unit 124, and a shared processing unit 130. Be prepared.
  • the execution unit 110 has a game image generation unit 112 and a game sound generation unit 114.
  • the sharing processing unit 130 includes a setting image generation unit 132, a game image acquisition unit 134, a game sound acquisition unit 136, a camera image acquisition unit 138, a first transmission processing unit 140, a second transmission processing unit 142, an information transmission unit 144, and settings. It has a part 146.
  • each element described as a functional block that performs various processes can be composed of a circuit block, a memory, and other LSIs in terms of hardware, and system software and memory in terms of software. It is realized by the game program loaded in. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any of them.
  • the communication unit 102 receives the operation information in which the user operates the input unit of the input device 6, and transmits the distribution data generated by the processing unit 100 to the relay server 12.
  • the processing unit 100 generates stream data including a game image and a game sound as distribution data and stream data including a camera image, and the communication unit 102 transmits the stream data to the relay server 12 as a separate stream.
  • the functional block of the communication unit 102 is represented as a configuration having both the functions of the wireless communication module 38 and the wired communication module 40 shown in FIG.
  • the reception unit 104 is provided between the communication unit 102 and the processing unit 100, and transmits data or information between the communication unit 102 and the processing unit 100.
  • the reception unit 104 receives the operation information of the input device 6 via the communication unit 102, the reception unit 104 supplies the operation information to a predetermined functional block in the processing unit 100.
  • the execution unit 110 executes a game program (hereinafter, may be simply referred to as a "game").
  • the functional block shown as the execution unit 110 here is realized by software such as system software and game software, hardware such as GPU, and the like.
  • the game image generation unit 112 Upon receiving the execution result of the game program, the game image generation unit 112 generates the game image data, and the game sound generation unit 114 generates the game sound data.
  • the game is an example of an application, and the execution unit 110 may execute an application other than the game.
  • the execution unit 110 executes the game program and performs arithmetic processing for moving the game character in the virtual space based on the operation information input by the user to the input device 6.
  • the game image generation unit 112 includes a GPU (Graphics Processing Unit) that executes rendering processing and the like, receives arithmetic processing results in the virtual space, and generates game image data from a viewpoint position (virtual camera) in the virtual space. ..
  • the game sound generation unit 114 generates game sound data in the virtual space.
  • FIG. 4 shows an example of a game screen displayed on the user's output device 4.
  • the game image generation unit 112 generates a game image and supplies it to the image processing unit 120
  • the game sound generation unit 114 generates a game sound and supplies it to the sound providing unit 122.
  • the image processing unit 120 provides the game image to the output device 4, and the sound providing unit 122 provides the game sound to the output device 4.
  • the output device 4 outputs a game image and a game sound, and the user plays the game while listening to the game picture sound output from the output device 4.
  • the sharing processing unit 130 performs a process for sharing the image sound data of the game being played by the user with other viewing users via the relay server 12 and the image sharing server 14.
  • the game sound data sharing process is started when the user operates a specific input button (SHARE button) provided on the input device 6, and the setting image generation unit 132 selects options for sharing the sound data. Generate the input image to show.
  • SHARE button specific input button
  • FIG. 5 shows an example of an input screen showing options for sharing processing.
  • the setting image generation unit 132 generates an input image indicating the sharing processing option and supplies it to the image processing unit 120, and the image processing unit 120 displays the input image indicating the sharing processing option on the output device 4.
  • This input screen shows three options for sharing image sound data.
  • "Upload video clip” is a GUI element for specifying that the image recorded in the auxiliary storage device 2 is uploaded to the image sharing server 14, and "upload screenshot” is an image of the screenshot image.
  • the GUI element for specifying uploading to the shared server 14, "broadcast gameplay”, is a GUI element for specifying that the screenshot data of the game is live-broadcasted via the image sharing server 14. ..
  • the user operates the input device 6 to move the selection frame 200, selects one of the GUI elements, and presses the enter button to execute the selected sharing process.
  • the GUI element of "broadcast gameplay” is selected.
  • the setting image generation unit 132 causes the output device 4 to display a setting screen for selecting setting information in broadcast distribution.
  • FIG. 6 shows an example of a setting screen displayed when "broadcast gameplay" is selected.
  • the user specifies one or more image sharing services to be used from among the plurality of image sharing services.
  • the first image sharing service, the second image sharing service, the third image sharing service, and the fourth image sharing service are presented in a specifiable manner.
  • the first image sharing service is provided by the first image sharing server 14a
  • the second image sharing service is provided by the second image sharing server 14b
  • the third image sharing service is provided by the third image sharing server 14c.
  • the fourth image sharing service is provided by the fourth image sharing server 14d.
  • the user can select a plurality of image sharing services.
  • the information processing device 10 uses a plurality of image sharing services in order to use a plurality of image sharing services. It is necessary to transmit the game image to each of the image sharing servers 14. For example, when distributing a game image using three image sharing services, the information processing device 10 must transmit the game image to each of the three image sharing servers 14. Therefore, the CPU load on the distribution process becomes high.
  • the relay server 12 plays a role of transmitting the game image to the plurality of image sharing servers 14, the information processing device 10 need only transmit the game image to the relay server 12. .. Therefore, the CPU load required for the distribution process can be relatively reduced.
  • the user selects the check boxes of the three image sharing services and specifies the distribution of the live video through the first image sharing server 14a, the third image sharing server 14c, and the fourth image sharing server 14d. ing.
  • the setting image generation unit 132 causes the output device 4 to display another setting screen.
  • FIG. 7 shows an example of a setting screen displayed when "broadcast gameplay" is selected.
  • This setting screen includes the following items for setting the broadcast distribution mode.
  • the check box of "Include the camera image in the broadcast” may be selected by default. The user deselects the check box if he / she does not want the camera image to be delivered. If "include the camera image in the broadcast” is selected, an option for further setting the display position of the camera image is provided, and the user may be able to specify the display position of the camera image.
  • the check box of "Include the microphone sound in the broadcast" may be selected by default. The user deselects the check box if he / she does not want the microphone sound to be delivered.
  • a resolution lower than the resolution of the game image displayed on the output device 4 may be set by default.
  • the setting unit 146 sets the contents selected by the user for the items (a) to (d) regarding the broadcast of the game image. Specifically, when the user arranges the frame 202 in "Start broadcasting" and presses the enter button of the input device 6, the setting unit 146 broadcasts the contents selected by the user regarding the items (a) to (d).
  • the setting information is registered in the auxiliary storage device 2 as the setting information of the above, and the setting information is notified to the image processing unit 120, the sound providing unit 122, and the camera image supply unit 124.
  • the information transmission unit 144 transmits information specifying the image sharing service to be used to the relay server 12.
  • information indicating that the first image sharing service, the third image sharing service, and the fourth image sharing service are used is transmitted from the information transmission unit 144 to the relay server 12.
  • the image processing unit 120 When the distribution process is started, the image processing unit 120 not only outputs the game image generated by the game image generation unit 112 to the output device 4, but also outputs it to the sharing processing unit 130. Further, the sound providing unit 122 not only outputs the game sound generated by the game sound generating unit 114 to the output device 4, but also outputs it to the shared processing unit 130.
  • the sound signal (microphone sound) input to the microphone (not shown) by the sound providing unit 122 is regarded as the game sound. It is synthesized and the synthesized sound signal is output to the sharing processing unit 130.
  • the camera image supply unit 124 acquires a camera image from the camera 7 and supplies it to the sharing processing unit 130. At this time, the camera image supply unit 124 calculates the depth information from the captured image of the stereo camera and supplies the camera image together with the depth information to the sharing processing unit 130.
  • the game image acquisition unit 134 acquires the game image supplied from the image processing unit 120
  • the game sound acquisition unit 136 acquires the game sound supplied from the sound providing unit 122.
  • Time information (time stamp) is added to each of the game image and the game sound.
  • the first transmission processing unit 140 adjusts and encodes the quality of the acquired game image and game sound as necessary, and transmits the acquired game image and game sound to the relay server 12 as one stream (hereinafter, also referred to as “first stream”).
  • the camera image acquisition unit 138 acquires the camera image supplied from the camera image supply unit 124. Time information (time stamp) is also added to the camera image.
  • the second transmission processing unit 142 encodes the acquired camera image and transmits it to the relay server 12 as one stream (hereinafter, also referred to as “second stream”).
  • the sharing processing unit 130 of the embodiment transmits the game image and the camera image to the relay server 12 as separate streams without synthesizing them. This makes it possible to eliminate the process of synthesizing the game image and the camera image in the information processing device 10. In particular, when processing a camera image to be included in a game image to be distributed, the processing load of the information processing device 10 can be reduced by having the relay server 12 take charge of the processing related to the image processing.
  • FIG. 8 is a diagram showing a functional block of a relay server that relays distributed images between an information processing device and an image sharing server.
  • the relay server 12 includes a processing unit 300 and a communication unit 302, and the processing unit 300 includes an information acquisition unit 310, a first acquisition unit 312, a second acquisition unit 314, a synthesis processing unit 316, and a transmission processing unit 318.
  • the processing unit 300 has a function of generating a distribution image obtained by synthesizing a game image and a camera image, and transmitting the distribution image and the game sound as one stream to the image sharing server 14.
  • the communication unit 302 receives the first stream including the game image and the second stream including the camera image from the information processing device 10, and transmits the distribution image generated by the processing unit 300 to the image sharing server 14.
  • each element described as a functional block that performs various processes can be composed of a circuit block, a memory, and other LSIs in terms of hardware, and system software and memory in terms of software. It is realized by the game program loaded in. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any of them.
  • the information acquisition unit 310 acquires information that identifies the image sharing service used by the user, that is, information that identifies the image sharing server 14 that distributes the distributed image, from the information processing device 10. As shown in FIG. 6, when the information for specifying the first image sharing service, the third image sharing service, and the fourth image sharing service is received, the information acquisition unit 310 receives the first image sharing server 14a and the third image sharing server. 14c, the fourth image sharing server 14d is specified to be the distribution source of the distribution image, and the transmission processing unit 318 is notified.
  • the first acquisition unit 312 acquires the first stream including the game image from the information processing device 10
  • the second acquisition unit 314 is the second acquisition unit 314 including the camera image from the information processing device 10. Get the stream.
  • the first stream also includes the game sound, and also includes the microphone sound when the user permits the distribution of the microphone sound.
  • the generated time information (time stamp) is added to both the first stream and the second stream.
  • the compositing processing unit 316 uses the time stamps added to each to generate a delivered image synthesized by aligning the generation times of the game image and the camera image.
  • FIG. 9 shows an example of a distribution image synthesized by the synthesis processing unit 316.
  • the compositing processing unit 316 synthesizes the game image and the camera image in which the times indicated by the time stamps match.
  • the camera image is superimposed and displayed in the game image, but it may be combined by another method.
  • the second stream acquired by the second acquisition unit 314 includes the depth information of the camera image together with the camera image.
  • the camera image includes a distribution user and its background, but the composition processing unit 316 may cut out the distribution user included in the camera image from the background using depth information and combine it with the game image. .. By processing the camera image in this way, it is not necessary to superimpose the user background included in the camera image on the game image.
  • the transmission processing unit 318 transmits the distribution image generated by the synthesis processing unit 316 to the image sharing server 14 according to the information acquired by the information acquisition unit 310.
  • the transmission processing unit 318 transmits the distribution image to the first image sharing server 14a, the third image sharing server 14c, and the fourth image sharing server 14d, and the first image sharing server 14a, the third image sharing server 14c,
  • the fourth image sharing server 14d distributes the distributed image to the viewing user.
  • the image sharing system 1 by providing the relay server 12, it is possible to reduce the distribution load in the information processing device 10 and the processing load of the camera image.
  • the present invention can be used in a technique for distributing a content image.
  • 2nd transmission processing unit 144 ... information transmission unit 146 ... setting unit, 300 ... processing unit, 302 ... communication unit, 310 ... information acquisition unit, 312 ... first acquisition Unit, 314 ... Second acquisition unit, 316 ... Synthesis processing unit, 318 ... Transmission processing unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

第1取得部312は、情報処理装置からコンテンツ画像を取得する。第2取得部314は、情報処理装置からカメラ画像を取得する。合成処理部316は、コンテンツ画像およびカメラ画像を合成した配信画像を生成する。送信処理部318は、生成した配信画像を、画像共有サーバに送信する。

Description

中継サーバおよび配信画像生成方法
 本発明は、配信画像を生成する技術および配信画像を送信する技術に関する。
 特許文献1は、配信ユーザがプレイしているゲーム画像を含む表示画像を、共有サーバ経由で視聴ユーザに配信するシステムを開示する。表示画像には、ゲーム画像、視聴ユーザから送信されたコメント、配信ユーザを撮影したカメラ画像が含まれ、配信ユーザの情報処理装置は、表示画像をエンコードして、共有サーバに送信する。これにより視聴ユーザが、配信ユーザと同じ表示画像を見ることが可能となる。
国際公開第2014/068806号
 近年のゲームプログラムは高度な演算処理を要求するため、ゲームプログラムによるCPU(Central Processing Unit)使用率は高くなることが多い。ゲーム画像配信時には、CPUが配信処理にも使用されるため、プログラム実行による演算処理および配信処理以外の処理負荷をできるだけ低減することが好ましい。
 そこで本発明は、ゲームなどのコンテンツ画像を視聴ユーザに配信する画像共有システムの有用性を高めるための技術を提供することを目的とする。
 上記課題を解決するために、本発明のある態様の中継サーバは、ユーザが操作する情報処理装置と、画像共有サーバに接続する中継サーバであって、情報処理装置からコンテンツ画像を取得する第1取得部と、情報処理装置からカメラ画像を取得する第2取得部と、コンテンツ画像およびカメラ画像を合成した配信画像を生成する合成処理部と、生成した配信画像を、画像共有サーバに送信する送信処理部とを備える。
 本発明の別の態様は、ユーザが操作する情報処理装置と画像共有サーバに接続する中継サーバにおいて配信画像を生成する方法であって、情報処理装置からコンテンツ画像を取得するステップと、情報処理装置からカメラ画像を取得するステップと、コンテンツ画像およびカメラ画像を合成した配信画像を生成するステップと、を含む。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
 本発明によると、コンテンツ画像を視聴ユーザに配信する画像共有システムの有用性を高めるための技術を提供する。
実施例にかかる画像共有システムを示す図である。 情報処理装置のハードウェア構成を示す図である。 情報処理装置の機能ブロックを示す図である。 ゲーム画面の一例を示す図である。 共有処理の選択肢を示す入力画面の一例を示す図である。 設定画面の一例を示す図である。 設定画面の一例を示す図である。 中継サーバの機能ブロックを示す図である。 合成した配信画像の例を示す図である。
 図1は、本発明の実施例にかかる画像共有システム1を示す。実施例の画像共有システム1は、配信主となるユーザ(以下、「配信ユーザ」とも呼ぶ)がプレイ中のゲーム画像およびゲーム音(ゲーム画音)をライブ配信し、視聴ユーザがゲーム画音を視聴する環境を実現する。実施例では、配信ユーザが、自身がプレイ中のゲーム画音をストリーミング配信するが、ストリーミング配信するコンテンツはゲームに限らず、他の種類の動画コンテンツであってもよい。
 画像共有システム1は、配信ユーザが操作する情報処理装置10と、中継サーバ12と、視聴ユーザにゲーム画音を提供する第1画像共有サーバ14a、第2画像共有サーバ14b、第3画像共有サーバ14c、第4画像共有サーバ14d(以下、特に区別しない場合には「画像共有サーバ14」と呼ぶ)とを備える。中継サーバ12は、情報処理装置10と画像共有サーバ14に、インターネットなどのネットワークにより接続する。画像共有サーバ14は複数存在することが好ましいが、1つであってもよい。複数の画像共有サーバ14は、それぞれ異なる事業体により運営されてよいが、複数の画像共有サーバ14が1つの事業体により運営されて、1つの事業体の中で異なる種類のサービスを提供するものであってもよい。
 情報処理装置10周辺の構成について説明する。アクセスポイント(以下、「AP」とよぶ)8は、無線アクセスポイントおよびルータの機能を有し、情報処理装置10は、無線または有線経由でAP8に接続して、ネットワーク上の中継サーバ12と通信可能に接続する。情報処理装置10は、画像共有サーバ14に直接接続して配信画像を画像共有サーバ14に送信することも可能であるが、中継サーバ12経由で画像共有サーバ14に配信画像を送信することで、動画配信にかかる処理負荷を低減できるようになる。
 ユーザが操作する入力装置6は、情報処理装置10と無線または有線で接続し、ユーザによる操作情報を情報処理装置10に出力する。情報処理装置10は入力装置6から操作情報を受け付けるとシステムソフトウェアやアプリケーションソフトウェアの処理に反映し、出力装置4から処理結果を出力させる。実施例において情報処理装置10はゲームプログラムを実行するゲーム装置であり、入力装置6はゲームコントローラであってよい。入力装置6は、複数のプッシュ式の操作ボタンや、アナログ量を入力できるアナログスティック、回動式ボタンなどの複数の入力部を有して構成される。
 補助記憶装置2は、HDD(ハードディスクドライブ)やSSD(ソリッドステートドライブ)などのストレージであり、内蔵型記憶装置であってよく、またはUSB(Universal Serial Bus)などによって情報処理装置10と接続する外部記憶装置であってもよい。出力装置4は、画像を出力するディスプレイおよび音を出力するスピーカを有するテレビであってよく、またヘッドマウントディスプレイであってもよい。カメラ7はユーザが存在する空間を所定の周期で撮影し、情報処理装置10に出力する。カメラ7はステレオカメラであって、情報処理装置10は、2つのカメラで撮影された画像から深度情報を算出できる。
 画像共有システム1では、ゲーム画像およびゲーム音(ゲーム画音)が視聴ユーザに配信されるが、以下では特に、配信におけるゲーム画像の取り扱いについて説明する。画像共有システム1において情報処理装置10は、ユーザがプレイ中のゲーム画像を中継サーバ12に送信し、中継サーバ12が配信画像を生成して画像共有サーバ14に送信し、画像共有サーバ14が視聴ユーザに配信画像をブロードキャストする。このように画像共有システム1は、コンテンツ画像配信システムとして動作する。
 中継サーバ12は、ストリーミング配信を中継する中継サービスをユーザに提供し、画像共有サーバ14は、ストリーミング配信を実施する画像共有サービスをユーザに提供する。中継サーバ12および画像共有サーバ14は、ユーザに対して、ユーザを識別するネットワークアカウントをそれぞれ設定している。中継サーバ12は、当該ユーザより画像共有サービスのネットワークアカウントを通知され、中継サービスのネットワークアカウントと画像共有サービスのネットワークアカウントとを紐付けて管理する。
 配信開始前、ユーザは中継サービスのネットワークアカウントを用いて、中継サーバ12にサインインする。中継サーバ12はユーザから、配信に利用する1以上の画像共有サービスの指定を受け付け、指定された画像共有サービスのネットワークアカウントを用いて、ユーザを画像共有サーバ14にサインインさせる。
 配信開始後、中継サーバ12は、情報処理装置10からゲーム画像と、カメラ7がユーザを撮影した撮影画像(以下、「カメラ画像」と呼ぶ)とを別個のストリームにより受信し、ゲーム画像とカメラ画像とを合成した配信画像を生成する。合成処理を中継サーバ12が実施することで、情報処理装置10が合成処理を行わなくてよい。中継サーバ12は、生成した配信画像を、ユーザにより指定された画像共有サービスを提供する画像共有サーバ14に送信する。実施例の画像共有サーバ14は動画配信サーバであって、中継サーバ12から配信画像を受信し、視聴ユーザの端末装置にストリーミング配信する。
 図2は、情報処理装置10のハードウェア構成を示す。情報処理装置10は、メイン電源ボタン20、電源ON用LED21、スタンバイ用LED22、システムコントローラ24、クロック26、デバイスコントローラ30、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60を有して構成される。
 メインシステム60は、メインCPU(Central Processing Unit)、主記憶装置であるメモリおよびメモリコントローラ、GPU(Graphics Processing Unit)などを備える。GPUはゲームプログラムの演算処理に主として利用される。これらの機能はシステムオンチップとして構成されて、1つのチップ上に形成されてよい。メインCPUは補助記憶装置2またはROM媒体44に記録されたゲームプログラムを実行する機能をもつ。
 サブシステム50は、サブCPU、主記憶装置であるメモリおよびメモリコントローラなどを備え、GPUを備えず、ゲームプログラムを実行する機能をもたない。サブCPUの回路ゲート数は、メインCPUの回路ゲート数よりも少なく、サブCPUの動作消費電力は、メインCPUの動作消費電力よりも少ない。サブCPUは、メインCPUがスタンバイ状態にある間においても動作し、消費電力を低く抑えるべく、その処理機能を制限されている。
 メイン電源ボタン20は、ユーザからの操作入力が行われる入力部であって、情報処理装置10の筐体の前面に設けられ、情報処理装置10のメインシステム60への電源供給をオンまたはオフするために操作される。電源ON用LED21は、メイン電源ボタン20がオンされたときに点灯し、スタンバイ用LED22は、メイン電源ボタン20がオフされたときに点灯する。
 システムコントローラ24は、ユーザによるメイン電源ボタン20の押下を検出する。メイン電源がオフ状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オン指示」として取得し、一方で、メイン電源がオン状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オフ指示」として取得する。
 クロック26はリアルタイムクロックであって、現在の日時情報を生成し、システムコントローラ24やサブシステム50およびメインシステム60に供給する。デバイスコントローラ30は、サウスブリッジのようにデバイス間の情報の受け渡しを実行するLSI(Large-Scale Integrated Circuit)として構成される。図示のように、デバイスコントローラ30には、システムコントローラ24、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60などのデバイスが接続される。デバイスコントローラ30は、それぞれのデバイスの電気特性の違いやデータ転送速度の差を吸収し、データ転送のタイミングを制御する。
 メディアドライブ32は、ゲームなどのアプリケーションソフトウェア、およびライセンス情報を記録したROM媒体44を装着して駆動し、ROM媒体44からプログラムやデータなどを読み出すドライブ装置である。ROM媒体44は、光ディスクや光磁気ディスク、ブルーレイディスクなどの読出専用の記録メディアであってよい。
 USBモジュール34は、外部機器とUSBケーブルで接続するモジュールである。USBモジュール34は補助記憶装置2およびカメラ7とUSBケーブルで接続してもよい。フラッシュメモリ36は、内部ストレージを構成する補助記憶装置である。無線通信モジュール38は、Bluetooth(登録商標)プロトコルやIEEE802.11プロトコルなどの通信プロトコルで、たとえば入力装置6と無線通信する。有線通信モジュール40は、外部機器と有線通信し、AP8を介して外部のネットワークに接続する。
 図3は、ストリーミングデータの送信装置として動作する情報処理装置10の機能ブロックを示す。情報処理装置10は、処理部100、通信部102および受付部104を備え、処理部100は、実行部110、画像処理部120、音提供部122、カメラ画像供給部124および共有処理部130を備える。実行部110は、ゲーム画像生成部112およびゲーム音生成部114を有する。共有処理部130は、設定画像生成部132、ゲーム画像取得部134、ゲーム音取得部136、カメラ画像取得部138、第1送信処理部140、第2送信処理部142、情報送信部144および設定部146を有する。
 図3において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、システムソフトウェアや、メモリにロードされたゲームプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 通信部102は、入力装置6の入力部をユーザが操作した操作情報を受信し、処理部100で生成した配信用データを中継サーバ12に送信する。処理部100は配信用データとして、ゲーム画像およびゲーム音とを合成したストリームデータと、カメラ画像を含むストリームデータとを生成し、通信部102が別個のストリームとして中継サーバ12に送信する。通信部102の機能ブロックは、図2に示す無線通信モジュール38および有線通信モジュール40の機能を併せ持つ構成として表現している。
 受付部104は、通信部102と処理部100との間に設けられ、通信部102と処理部100との間でデータないしは情報を伝送する。受付部104は通信部102を介して入力装置6の操作情報を受け付けると、その操作情報を処理部100における所定の機能ブロックに供給する。
 実行部110はゲームプログラム(以下、単に「ゲーム」とも呼ぶこともある)を実行する。ここで実行部110として示す機能ブロックは、システムソフトウェア、ゲームソフトウェアなどのソフトウェア、GPUなどのハードウェアなどにより実現される。ゲームプログラムの実行結果を受けて、ゲーム画像生成部112は、ゲームの画像データを生成し、ゲーム音生成部114は、ゲームの音データを生成する。なおゲームはアプリケーションの一例であり、実行部110は、ゲーム以外のアプリケーションを実行してもよい。
 ユーザによるゲームプレイ中、実行部110はゲームプログラムを実行して、ユーザが入力装置6に入力した操作情報をもとに、仮想空間においてゲームキャラクタを動かす演算処理を行う。ゲーム画像生成部112は、レンダリング処理などを実行するGPU(Graphics Processing Unit)を含み、仮想空間における演算処理結果を受けて、仮想空間内の視点位置(仮想カメラ)からのゲーム画像データを生成する。ゲーム音生成部114は、仮想空間内のゲーム音データを生成する。
 図4は、ユーザの出力装置4に表示されるゲーム画面の一例を示す。ユーザのゲームプレイ中、ゲーム画像生成部112はゲーム画像を生成して、画像処理部120に供給し、ゲーム音生成部114はゲーム音を生成して、音提供部122に供給する。画像処理部120は、ゲーム画像を出力装置4に提供し、音提供部122は、ゲーム音を出力装置4に提供する。出力装置4は、ゲーム画像およびゲーム音を出力し、ユーザは、出力装置4から出力されるゲーム画音を視聴しながら、ゲームをプレイする。
 以下、実施例の共有処理について説明する。
 共有処理部130は、ユーザがプレイ中のゲームの画音データを、中継サーバ12および画像共有サーバ14を介して他の視聴ユーザと共有するための処理を実施する。ゲーム画音データの共有処理は、ユーザが入力装置6に設けられた特定の入力ボタン(SHAREボタン)を操作したことを契機として開始され、設定画像生成部132は画音データの共有に関する選択肢を示す入力画像を生成する。
 図5は、共有処理の選択肢を示す入力画面の一例を示す。設定画像生成部132は、共有処理の選択肢を示す入力画像を生成して画像処理部120に供給し、画像処理部120は、共有処理の選択肢を示す入力画像を出力装置4に表示する。
 この入力画面に、画音データの共有に関する3つの選択肢が示される。“ビデオクリップをアップロードする”は、補助記憶装置2に記録された画像を画像共有サーバ14にアップロードすることを指定するためのGUI要素、“スクリーンショットをアップロードする”は、スクリーンショットの画像を画像共有サーバ14にアップロードすることを指定するためのGUI要素、“ゲームプレイをブロードキャストする”は、ゲームの画音データを画像共有サーバ14を介してライブ中継することを指定するためのGUI要素である。ユーザは入力装置6を操作して選択枠200を動かし、いずれかのGUI要素を選択して決定ボタンを押すことで、選択した共有処理が実行される。
 実施例では“ゲームプレイをブロードキャストする”のGUI要素が選択される。このGUI要素が選択された後、設定画像生成部132は、ブロードキャスト配信における設定情報を選択させる設定画面を出力装置4に表示させる。
 図6は、“ゲームプレイをブロードキャストする”が選択された場合に表示される設定画面の一例を示す。この設定画面でユーザは、複数の画像共有サービスの中から、利用する1つ以上の画像共有サービスを指定する。図6に示す例では、第1画像共有サービス、第2画像共有サービス、第3画像共有サービス、第4画像共有サービスが指定可能に提示されている。ここで第1画像共有サービスは第1画像共有サーバ14aにより提供され、第2画像共有サービスは第2画像共有サーバ14bにより提供され、第3画像共有サービスは第3画像共有サーバ14cにより提供され、第4画像共有サービスは第4画像共有サーバ14dにより提供される。実施例の画像共有システム1においてユーザは、複数の画像共有サービスを選択できる。
 実施例とは異なり、情報処理装置10が画像共有サーバ14に直接接続して、ゲーム画像を配信する画像共有システムでは、情報処理装置10は、複数の画像共有サービスを利用するために、複数の画像共有サーバ14のそれぞれにゲーム画像を送信する必要がある。たとえば3つの画像共有サービスを利用してゲーム画像を配信する場合、情報処理装置10は、3つの画像共有サーバ14のそれぞれにゲーム画像を送信しなければならない。そのため配信処理にかかるCPU負荷は高くなる。
 一方で実施例の画像共有システム1では、中継サーバ12が、複数の画像共有サーバ14にゲーム画像を送信する役割を担うため、情報処理装置10は中継サーバ12にのみゲーム画像を送信すればよい。そのため配信処理にかかるCPU負荷を相対的に下げられる。図6に示す例でユーザは、3つの画像共有サービスのチェックボックスを選択し、第1画像共有サーバ14a、第3画像共有サーバ14cおよび第4画像共有サーバ14dを通じたライブ動画の配信を指定している。ユーザが入力装置6の決定ボタンを操作すると、設定画像生成部132は、別の設定画面を出力装置4に表示させる。
 図7は、“ゲームプレイをブロードキャストする”が選択された場合に表示される設定画面の一例を示す。この設定画面には、ブロードキャストの配信態様を設定するための以下の項目が含まれる。
(a)配信画像に、カメラ画像を含めるか否かを選択するための項目
 項目(a)に関し、「カメラの映像をブロードキャストに含める」のチェックボックスが、デフォルト選択された状態にあってよい。ユーザは、カメラ画像の配信を希望しなければ、チェックボックスの選択を解除する。なお「カメラの映像をブロードキャストに含める」ことを選択した場合に、さらにカメラ画像の表示位置を設定するための選択肢が提供され、ユーザは、カメラ画像の表示位置を指定できてもよい。
(b)マイク音声を配信するか否かを選択するための項目
 項目(b)に関し、「マイクの音声をブロードキャストに含める」のチェックボックスが、デフォルト選択された状態にあってよい。ユーザは、マイク音声の配信を希望しなければ、チェックボックスの選択を解除する。
(c)表示画面に視聴ユーザからのコメントを表示するか否かを選択するための項目
 項目(c)に関し、「画面にコメントを表示する」のチェックボックスが、デフォルト選択された状態にあってよい。ユーザは、コメント表示を希望しなければ、チェックボックスの選択を解除する。
(d)配信画像の画質を選択するための項目
 項目(d)に関し、ユーザは、出力装置4に表示されるゲーム画像の解像度以下の解像度を選択できる。配信画像の解像度として、出力装置4に表示されるゲーム画像の解像度よりも低い解像度がデフォルト設定されていてもよい。
 設定部146は、ゲーム画像のブロードキャストに関し、項目(a)~(d)についてユーザが選択した内容を設定する。具体的にはユーザが枠202を「ブロードキャストをはじめる」に配置して入力装置6の決定ボタンを押すと、設定部146が、ユーザが項目(a)~(d)に関して選択した内容を、ブロードキャストの設定情報として補助記憶装置2に登録するとともに、設定情報を画像処理部120、音提供部122およびカメラ画像供給部124に通知する。
 以下、項目(a)に関して、「カメラの映像をブロードキャストに含める」ことが設定されている場合の配信処理について説明する。配信処理の開始前、情報送信部144は、中継サーバ12に、利用する画像共有サービスを特定する情報を送信する。この例では第1画像共有サービス、第3画像共有サービス、第4画像共有サービスを利用することを示す情報が、情報送信部144から中継サーバ12に送信される。
 配信処理が開始されると、画像処理部120は、ゲーム画像生成部112で生成されたゲーム画像を出力装置4に出力するだけでなく、共有処理部130にも出力する。また音提供部122は、ゲーム音生成部114で生成されたゲーム音を出力装置4に出力するだけでなく、共有処理部130にも出力する。なお項目(b)に関して、「マイクの音声をブロードキャストに含める」ことが設定されている場合は、音提供部122がマイク(図示せず)に入力された音信号(マイク音)をゲーム音と合成して、合成した音信号を共有処理部130に出力する。カメラ画像供給部124は、カメラ7からカメラ画像を取得し、共有処理部130に供給する。このときカメラ画像供給部124は、ステレオカメラの撮影画像から深度情報を算出し、カメラ画像を深度情報とともに共有処理部130に供給する。
 共有処理部130において、ゲーム画像取得部134は、画像処理部120から供給されるゲーム画像を取得し、ゲーム音取得部136は、音提供部122から供給されるゲーム音を取得する。ゲーム画像およびゲーム音には、それぞれ時刻情報(タイムスタンプ)が付加されている。第1送信処理部140は、取得したゲーム画像およびゲーム音の品質を必要に応じて調整してエンコードし、1つのストリーム(以下、「第1ストリーム」とも呼ぶ)として中継サーバ12に送信する。
 カメラ画像取得部138は、カメラ画像供給部124から供給されるカメラ画像を取得する。カメラ画像にも、時刻情報(タイムスタンプ)が付加されている。第2送信処理部142は、取得したカメラ画像をエンコードし、1つのストリーム(以下、「第2ストリーム」とも呼ぶ)として中継サーバ12に送信する。
 このように実施例の共有処理部130は、ゲーム画像とカメラ画像とを合成することなく、それぞれ別個のストリームとして中継サーバ12に送信する。これにより情報処理装置10においてゲーム画像とカメラ画像とを合成する処理をなくすことができる。特に配信するゲーム画像に含めるカメラ画像を加工する場合に、画像加工にかかる処理を中継サーバ12に担当させることで、情報処理装置10の処理負荷を低減できる。
 図8は、情報処理装置と画像共有サーバとの間で配信画像を中継する中継サーバの機能ブロックを示す図である。中継サーバ12は、処理部300および通信部302を備え、処理部300は、情報取得部310、第1取得部312、第2取得部314、合成処理部316および送信処理部318を備える。処理部300は、ゲーム画像とカメラ画像とを合成した配信画像を生成し、配信画像とゲーム音とを1つのストリームで画像共有サーバ14に送信する機能をもつ。通信部302は、情報処理装置10からゲーム画像を含む第1ストリームおよびカメラ画像を含む第2ストリームを受信し、処理部300で生成した配信画像を画像共有サーバ14に送信する。
 図8において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、システムソフトウェアや、メモリにロードされたゲームプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 情報処理装置10による配信開始前、情報取得部310は情報処理装置10から、ユーザが利用する画像共有サービスを特定する情報、すなわち配信画像を配信する画像共有サーバ14を特定する情報を取得する。図6に示すように、第1画像共有サービス、第3画像共有サービス、第4画像共有サービスを特定する情報を受信すると、情報取得部310は、第1画像共有サーバ14a、第3画像共有サーバ14c、第4画像共有サーバ14dが配信画像の配信元になることを特定し、送信処理部318に通知する。
 情報処理装置10による配信開始後、第1取得部312は、情報処理装置10からゲーム画像を含む第1ストリームを取得し、第2取得部314は、情報処理装置10からカメラ画像を含む第2ストリームを取得する。なお上記したように第1ストリームには、ゲーム音も含まれ、またユーザがマイク音声の配信を許可している場合には、マイク音も含まれる。第1ストリームおよび第2ストリームともに、生成された時刻情報(タイムスタンプ)が付加されている。
 合成処理部316は、それぞれに付加されたタイムスタンプを利用して、ゲーム画像およびカメラ画像の生成時刻を揃えて合成した配信画像を生成する。
 図9は、合成処理部316が合成した配信画像の例を示す。合成処理部316は、タイムスタンプが示す時刻が一致するゲーム画像とカメラ画像とを合成する。図9に示す例では、カメラ画像がゲーム画像内に重畳表示されているが、その他の手法で合成されてもよい。
 なお第2取得部314が取得した第2ストリームには、カメラ画像とともに、カメラ画像の深度情報が含まれている。カメラ画像には、配信ユーザと、その背景が含まれているが、合成処理部316は、カメラ画像に含まれる配信ユーザを深度情報を用いて背景から切り出して、ゲーム画像に合成してもよい。このようにカメラ画像を加工することで、カメラ画像に含まれるユーザの背景をゲーム画像に重畳せずにすむ。
 送信処理部318は、情報取得部310が取得した情報にしたがって、合成処理部316が生成した配信画像を画像共有サーバ14に送信する。この例で送信処理部318は、第1画像共有サーバ14a、第3画像共有サーバ14c、第4画像共有サーバ14dに配信画像を送信し、第1画像共有サーバ14a、第3画像共有サーバ14c、第4画像共有サーバ14dは、視聴ユーザに配信画像を配信する。このように画像共有システム1によれば、中継サーバ12を設けたことで、情報処理装置10における配信負荷や、カメラ画像の処理負荷を低減することが可能となる。
 以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。実施例ではゲーム画像の配信について説明したが、本技術は、ゲーム以外のコンテンツの配信にも利用可能である。
 本発明は、コンテンツ画像を配信する技術に利用できる。
1・・・画像共有システム、10・・・情報処理装置、12・・・中継サーバ、14・・・画像共有サーバ、14a・・・第1画像共有サーバ、14b・・・第2画像共有サーバ、14c・・・第3画像共有サーバ、14d・・・第4画像共有サーバ、100・・・処理部、102・・・通信部、104・・・受付部、110・・・実行部、112・・・ゲーム画像生成部、114・・・ゲーム音生成部、120・・・画像処理部、122・・・音提供部、124・・・カメラ画像供給部、130・・・共有処理部、132・・・設定画像生成部、134・・・ゲーム画像取得部、136・・・ゲーム音取得部、138・・・カメラ画像取得部、140・・・第1送信処理部、142・・・第2送信処理部、144・・・情報送信部、146・・・設定部、300・・・処理部、302・・・通信部、310・・・情報取得部、312・・・第1取得部、314・・・第2取得部、316・・・合成処理部、318・・・送信処理部。

Claims (5)

  1.  ユーザが操作する情報処理装置と、画像共有サーバに接続する中継サーバであって、
     前記情報処理装置からコンテンツ画像を取得する第1取得部と、
     前記情報処理装置からカメラ画像を取得する第2取得部と、
     コンテンツ画像およびカメラ画像を合成した配信画像を生成する合成処理部と、
     生成した配信画像を、画像共有サーバに送信する送信処理部と、
     を備えることを特徴とする中継サーバ。
  2.  前記第2取得部は、カメラ画像とともに、カメラ画像の深度情報を取得し、
     前記合成処理部は、カメラ画像に含まれるユーザを深度情報を用いて切り出して、コンテンツ画像に合成する、
     ことを特徴とする請求項1に記載の中継サーバ。
  3.  前記情報処理装置から、配信画像を配信する画像共有サーバを特定する情報を取得する情報取得部をさらに備え、
     前記送信処理部は、前記情報取得部が取得した情報にしたがって、配信画像を送信する、
     ことを特徴とする請求項1または2に記載の中継サーバ。
  4.  ユーザが操作する情報処理装置と画像共有サーバに接続する中継サーバにおいて配信画像を生成する方法であって、
     前記情報処理装置からコンテンツ画像を取得するステップと、
     前記情報処理装置からカメラ画像を取得するステップと、
     コンテンツ画像およびカメラ画像を合成した配信画像を生成するステップと、
     を含むことを特徴とする配信画像生成方法。
  5.  ユーザが操作する情報処理装置と画像共有サーバに接続するコンピュータに、
     前記情報処理装置からコンテンツ画像を取得する機能と、
     前記情報処理装置からカメラ画像を取得する機能と、
     コンテンツ画像およびカメラ画像を合成した配信画像を生成する機能と、
     生成した配信画像を、画像共有サーバに送信する機能と、
     を実現させるためのプログラム。
PCT/JP2020/018585 2020-05-07 2020-05-07 中継サーバおよび配信画像生成方法 WO2021224972A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/918,992 US20230239550A1 (en) 2020-05-07 2020-05-07 Relay server and distribution image generation method
PCT/JP2020/018585 WO2021224972A1 (ja) 2020-05-07 2020-05-07 中継サーバおよび配信画像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/018585 WO2021224972A1 (ja) 2020-05-07 2020-05-07 中継サーバおよび配信画像生成方法

Publications (1)

Publication Number Publication Date
WO2021224972A1 true WO2021224972A1 (ja) 2021-11-11

Family

ID=78467944

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/018585 WO2021224972A1 (ja) 2020-05-07 2020-05-07 中継サーバおよび配信画像生成方法

Country Status (2)

Country Link
US (1) US20230239550A1 (ja)
WO (1) WO2021224972A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024042929A1 (ja) * 2022-08-25 2024-02-29 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018508074A (ja) * 2015-02-25 2018-03-22 フェイスブック,インク. 物体によって反射された光の特徴に基づく体積内の物体の識別
JP2019118656A (ja) * 2018-01-05 2019-07-22 株式会社セガゲームス 情報処理装置及び動画配信システム
JP2019165490A (ja) * 2012-11-05 2019-09-26 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6496172B2 (ja) * 2015-03-31 2019-04-03 大和ハウス工業株式会社 映像表示システム及び映像表示方法
US9936238B2 (en) * 2016-07-29 2018-04-03 Infiniscene, Inc. Systems and methods for production and delivery of live video
US10609332B1 (en) * 2018-12-21 2020-03-31 Microsoft Technology Licensing, Llc Video conferencing supporting a composite video stream
US11358057B2 (en) * 2019-03-22 2022-06-14 Disney Enterprises, Inc. Systems and methods for allowing interactive broadcast streamed video from dynamic content

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019165490A (ja) * 2012-11-05 2019-09-26 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理システム
JP2018508074A (ja) * 2015-02-25 2018-03-22 フェイスブック,インク. 物体によって反射された光の特徴に基づく体積内の物体の識別
JP2019118656A (ja) * 2018-01-05 2019-07-22 株式会社セガゲームス 情報処理装置及び動画配信システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024042929A1 (ja) * 2022-08-25 2024-02-29 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法

Also Published As

Publication number Publication date
US20230239550A1 (en) 2023-07-27

Similar Documents

Publication Publication Date Title
JP7157099B2 (ja) クライアント側のアセット統合を用いたクラウドゲームストリーミング
JP6695449B2 (ja) ブラウザベースのクラウドゲーム
JP5222058B2 (ja) 時間ベースのメタデータを用いた動的なメディアのインタラクション
TWI437877B (zh) 資訊處理系統、資訊處理裝置、程式產品及電腦可讀取之記錄媒體
US20180221762A1 (en) Video generation system, control device, and processing device
WO2018128166A1 (ja) 情報処理装置およびアプリケーション画像配信方法
JP6839068B2 (ja) 情報処理装置およびゲーム画像配信方法
WO2020121890A1 (ja) 情報処理装置およびコンテンツ編集方法
JP2017225509A (ja) 映像生成システムおよび映像生成プログラム
JP2024006973A (ja) データ処理方法、システム及びコンピュータプログラム
WO2021251257A1 (ja) 配信サーバおよび画像配信方法
WO2008032471A1 (fr) Système d'affichage vidéo, dispositif d'affichage vidéo, son procédé de commande et support de stockage d'informations
WO2021224972A1 (ja) 中継サーバおよび配信画像生成方法
WO2019107275A1 (ja) 情報処理装置およびゲーム画像配信方法
WO2021193399A1 (ja) 情報処理装置およびゲーム画像配信方法
JP7018484B2 (ja) 情報処理装置およびゲーム画像表示方法
WO2021193400A1 (ja) 情報処理装置および画像配信方法
JP7139473B2 (ja) 情報処理装置およびゲーム画像表示方法
JP7069249B2 (ja) 情報処理装置および画像共有方法
WO2021251256A1 (ja) 情報処理装置および画像共有方法
JP5111422B2 (ja) コンテンツ制作システム及びコンテンツ制作プログラム
TW200835332A (en) Network video playing system and operation method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20934642

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20934642

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP