WO2024024500A1 - コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム - Google Patents

コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム Download PDF

Info

Publication number
WO2024024500A1
WO2024024500A1 PCT/JP2023/025621 JP2023025621W WO2024024500A1 WO 2024024500 A1 WO2024024500 A1 WO 2024024500A1 JP 2023025621 W JP2023025621 W JP 2023025621W WO 2024024500 A1 WO2024024500 A1 WO 2024024500A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
line
sight
effect
area
Prior art date
Application number
PCT/JP2023/025621
Other languages
English (en)
French (fr)
Inventor
昭彦 戀塚
尚 小嶋
優理 小田桐
Original Assignee
株式会社ドワンゴ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ドワンゴ filed Critical 株式会社ドワンゴ
Publication of WO2024024500A1 publication Critical patent/WO2024024500A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data

Definitions

  • One aspect of the present disclosure relates to a content distribution system, a content distribution method, and a content distribution program.
  • Patent Document 1 transmits a video based on material data for generating the video, acquires event information related to the line of sight from the viewer of the video while the video is being played, and collects event information. Perform operations on the material data accordingly.
  • Patent Documents 2 and 3 also describe techniques for distributing content using information regarding the viewer's line of sight.
  • a system that can increase the appeal of content to viewers is desired.
  • a content distribution system includes at least one processor.
  • the at least one processor displays content on a plurality of user terminals, acquires line-of-sight data indicating the line-of-sight position of a user who views the content from two or more of the plurality of user terminals, and
  • the above gaze data is analyzed to calculate the distribution of the gaze positions of two or more users in the content, and based on the calculated distribution, the content displayed on at least one target terminal among the multiple user terminals is Determine how the effect will be applied.
  • two or more pieces of line-of-sight data are analyzed to obtain a distribution of the line-of-sight positions of two or more users in the content, and based on this distribution, the manner in which effects are applied to the content is determined.
  • the manner in which effects are applied is determined based on the reactions of a plurality of viewers to the content, so it is possible to increase the appeal of the content to the viewers.
  • FIG. 1 is a diagram illustrating an example of application of a content distribution system according to an embodiment.
  • 1 is a diagram illustrating an example of a hardware configuration related to a content distribution system according to an embodiment.
  • FIG. 1 is a diagram illustrating an example of a functional configuration related to a content distribution system according to an embodiment.
  • FIG. 2 is a sequence diagram illustrating an example of content distribution processing.
  • FIG. 3 is a diagram illustrating an example of content before an effect is applied.
  • FIG. 2 is a diagram illustrating an example of content to which effects have been added.
  • FIG. 7 is a diagram illustrating another example of content to which effects have been added.
  • the content distribution system is a computer system that distributes content to users.
  • Content refers to human-perceivable information provided by a computer or computer system.
  • Electronic data indicating content is called content data.
  • the expression format of the content is not limited, and the content may be expressed as an image (for example, a photograph, a video, etc.).
  • Content can be used for various types of information transmission or communication, such as news, education, medical care, games, chat, business transactions, lectures, seminars, training, concerts, surveys, etc. can be done.
  • Content distribution refers to a process performed to provide content to a user, for example, a process of transmitting information to a user via a communication network.
  • the content distribution system provides content to users by transmitting content data to user terminals.
  • the content is provided by a distributor.
  • a distributor is a person who intends to provide information to viewers through a content distribution system, and is a content sender.
  • a viewer is a person who seeks to obtain information through a content distribution system, and is a content user.
  • the content distribution system transmits content data provided from a distributor terminal to a viewer terminal.
  • the viewer terminal processes the content data and displays the content on the screen.
  • distributors and viewers may be collectively referred to as users, and distributor terminals and viewer terminals may be collectively referred to as user terminals.
  • the content distribution method is not limited.
  • the content distribution system may perform real-time distribution.
  • the distributor terminal processes the captured video to generate content data, and transmits the content data to the content distribution system in real time.
  • the content distribution system transmits the received content data to viewer terminals in real time.
  • This is one aspect of Internet live broadcasting.
  • Content data may be generated in a content distribution system. That is, the content distribution system may generate content data by processing real-time video provided from a distributor terminal, and transmit the content data to a viewer terminal in real time.
  • the content distribution system may be used for time-shifting, allowing content to be viewed in a given period of time after real-time distribution.
  • the content distribution system may perform on-demand distribution that allows viewers to view content at any timing.
  • the content distribution system may store content data generated by processing videos shot in the past in a storage device such as a database.
  • the content distribution system may transmit stored content data to a viewer terminal in response to a viewer's request.
  • the content distribution system acquires line-of-sight data indicating the line-of-sight position of a user who views content from two or more user terminals.
  • the user's line of sight position is the position where the user is looking on the screen of the user terminal.
  • Gaze data is acquired by an eye tracking system.
  • the eye tracking system may be installed in the user terminal, or may be installed in another computer different from the user terminal. Alternatively, the tracking system may be realized by a user terminal and another computer working together.
  • the content distribution system calculates the distribution of gaze positions of two or more users in the content.
  • the distribution of gaze positions is information indicating where each user's gaze is located in the content, and indicates, for example, the degree of concentration of the user's gaze. This distribution can represent how many viewers are paying attention to each area in the content.
  • the distribution system analyzes two or more pieces of line-of-sight data and calculates a distribution of line-of-sight positions of two or more users.
  • the number of line-of-sight data used to calculate the distribution of line-of-sight positions may be 2 or more, and 100 or more or 1000 or more pieces of line-of-sight data may be used.
  • the content distribution system can identify a first area in the content where the user's line of sight is focused, and a second area where the user's line of sight is less focused than the first area, based on the distribution of line of sight positions.
  • the first area can be said to be an area that includes a relatively large amount of the user's line of sight (line of sight position), or an area that is viewed by many users.
  • the second area can be said to be an area where the user's line of sight (line of sight position) is less than the first area, or an area that is not often seen by the user.
  • the content distribution system determines the manner in which effects are applied to the content based on the distribution of gaze positions.
  • An effect is an audiovisual effect that occurs on a user terminal.
  • the effects include an audiovisual effect for guiding the user's line of sight to a specific area of the content displayed on the user terminal, or an audiovisual effect depending on the degree of concentration of the user's line of sight.
  • the manner in which an effect is applied is information necessary to generate an effect in the user terminal, and includes, for example, the configuration of the effect, the display position of the effect in the content, the volume of the effect, the output timing of the effect, and the like.
  • the configuration of the effect includes a visual configuration (display configuration) and an auditory configuration (sound configuration) of the effect.
  • Electronic data indicating how effects are applied is referred to as effect data.
  • a user terminal to which an effect is applied is referred to as a target terminal. That is, the content distribution system determines the manner in which effects are applied to the content displayed on the target terminal.
  • FIG. 1 is a diagram illustrating an example of application of the content distribution system 1 according to the embodiment.
  • the content distribution system 1 includes a server 10.
  • the server 10 is a computer that distributes content data.
  • the server 10 is connected to a plurality of viewer terminals 20 and a distributor terminal 30 via a communication network N.
  • the number of viewer terminals 20 is not limited as long as it is two or more.
  • the number of distributor terminals 30 is not limited as long as it is one or more.
  • the server 10 is also connected to a user database 40 via a communication network N.
  • the configuration of the communication network N is not limited.
  • the communication network N may include the Internet or may include an intranet.
  • the viewer terminal 20 is a computer used by the viewer.
  • the viewer terminal 20 has a function of accessing the content distribution system 1 to receive and display content data.
  • the type and configuration of the viewer terminal 20 are not limited.
  • the viewer terminal 20 may be a mobile terminal such as a high-performance mobile phone (smartphone), a tablet terminal, a wearable terminal (for example, a head-mounted display (HMD), smart glasses, etc.), a laptop personal computer, or a mobile phone.
  • the viewer terminal 20 may be a stationary terminal such as a desktop personal computer.
  • the distributor terminal 30 is a computer used by a distributor.
  • the distributor terminal 30 has a function of photographing a video, and a function of accessing the content distribution system 1 and transmitting electronic data (video data) representing the video.
  • the type and configuration of the distributor terminal 30 are not limited.
  • the distributor terminal 30 may be a shooting system that has functions for shooting, recording, and transmitting video.
  • the distributor terminal 30 may be a mobile terminal such as a high-performance mobile phone (smartphone), a tablet terminal, a wearable terminal (for example, a head-mounted display (HMD), smart glasses, etc.), a laptop personal computer, or a mobile phone.
  • the distributor terminal 30 may be a stationary terminal such as a desktop personal computer.
  • the viewer operates the viewer terminal 20 to log in to the content distribution system 1, thereby allowing the viewer to view the content.
  • a distributor can operate the distributor terminal 30 to log into the content distribution system 1, thereby providing content to viewers.
  • the viewers and distributors of the content distribution system 1 have already logged in. It is not necessary for the viewer to log in to the content distribution system 1. That is, the content distribution system 1 can transmit content data to the viewer terminals 20 of general viewers who are not logged in. In this case, general viewers who are not logged in can also view the content.
  • the user database 40 is a non-temporary storage device that stores data used by the content distribution system 1.
  • the user database 40 stores attribute information of users (eg, viewers) who use the content distribution system 1.
  • the attribute information is various types of information regarding the user, and may include, for example, the user's identifier (user ID), age, gender, the identifier of the content viewed by the user (content ID), and the number of times the content has been viewed.
  • the attribute information may include information arbitrarily selected or set by the user.
  • the attribute information may include information regarding a favorite person or character selected by the user, an image color associated with the person or character, and the like.
  • the attribute information may be stored in an area other than the user database 40.
  • the attribute information may be stored in a cookie area of a browser on the viewer terminal 20.
  • the attribute information may include information indicating whether or not the user is logged into the content distribution system 1.
  • the user database 40 may be constructed as a single database or may be a collection of multiple databases.
  • the installation location of the user database 40 is not limited.
  • the user database 40 may be provided in a computer system separate from the content distribution system 1.
  • FIG. 2 is a diagram showing an example of a hardware configuration related to the content distribution system 1.
  • FIG. 2 shows a server computer 100 functioning as the server 10 and a terminal computer 200 functioning as the viewer terminal 20 or the distributor terminal 30.
  • the server computer 100 includes a processor 101, a main storage section 102, an auxiliary storage section 103, and a communication section 104 as hardware components.
  • the processor 101 is an arithmetic device that executes an operating system and application programs, and is, for example, a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit).
  • the main storage unit 102 is a device that stores programs to be executed, calculation results, etc., and is configured of, for example, ROM (Read Only Memory) or RAM (Random Access Memory).
  • the auxiliary storage unit 103 is generally a device capable of storing a larger amount of data than the main storage unit 102, and is configured with a nonvolatile storage medium such as a hard disk or flash memory.
  • the auxiliary storage unit 103 stores a server program P1 and various data for causing the server computer 100 to function as the server 10.
  • the communication unit 104 is a device that performs data communication with other computers via the communication network N, and is configured by, for example, a network card or a wireless communication module.
  • the content distribution program is implemented as a server program P1.
  • Each functional element of the server 10 is realized by loading a server program P1 onto the processor 101 or the main storage unit 102 and causing the processor 101 to execute the program.
  • the server program P1 includes codes for realizing each functional element of the server 10.
  • the processor 101 operates the communication unit 104 according to the server program P1 to read and write data in the main storage unit 102 or the auxiliary storage unit 103.
  • the server 10 may be composed of one or more computers. When a plurality of computers are used, these computers are connected to each other via the communication network N to logically configure one server 10.
  • the terminal computer 200 includes a processor 201, a main storage section 202, an auxiliary storage section 203, a communication section 204, an input interface 205, an output interface 206, and an imaging section 207 as hardware components.
  • Processor 201 is an arithmetic device that executes an operating system and application programs, and is, for example, a CPU or GPU.
  • the main storage unit 202 is a device that stores programs to be executed, calculation results, etc., and is configured of, for example, ROM or RAM.
  • the auxiliary storage unit 203 is generally a device capable of storing a larger amount of data than the main storage unit 202, and is configured with a nonvolatile storage medium such as a hard disk or flash memory.
  • the auxiliary storage unit 203 stores a client program P2 and various data for causing the terminal computer 200 to function as the viewer terminal 20 or the distributor terminal 30.
  • the communication unit 204 is a device that performs data communication with other computers via the communication network N, and is configured by, for example, a network card or a wireless communication module.
  • the input interface 205 is a device that receives data based on a user's operation or action, and includes, for example, at least one of a keyboard, an operation button, a pointing device, a touch panel, a microphone, a sensor, and a camera.
  • the output interface 206 is a device that outputs data processed by the terminal computer 200, and includes, for example, a display device such as a monitor, a touch panel, and an HMD.
  • the image capturing unit 207 is a device that captures an image (video or photograph) of the real world, and is, for example, a camera.
  • the imaging unit 207 can also function as an input interface 205.
  • Each functional element of the viewer terminal 20 or the distributor terminal 30 is realized by loading the corresponding client program P2 into the processor 201 or the main storage unit 202 and causing the processor 201 to execute the program.
  • the client program P2 includes codes for realizing each functional element of the viewer terminal 20 or the distributor terminal 30.
  • the processor 201 operates the communication unit 204, input interface 205, output interface 206, or imaging unit 207 according to the client program P2, and reads and writes data in the main storage unit 202 or the auxiliary storage unit 203.
  • At least one of the server program P1 and the client program P2 may be provided after being recorded non-temporarily on a tangible recording medium such as a CD-ROM, DVD-ROM, or semiconductor memory.
  • a tangible recording medium such as a CD-ROM, DVD-ROM, or semiconductor memory.
  • at least one of these programs may be provided via the communication network N as a data signal superimposed on a carrier wave. These programs may be provided separately or together.
  • FIG. 3 is a diagram showing an example of a functional configuration related to the content distribution system 1.
  • the server 10 includes a content transfer section 11, an acquisition section 12, a calculation section 13, a specification section 14, a determination section 15, and an effect transmission section 16 as functional elements.
  • the content transfer unit 11 is a functional element that receives content data transmitted from the distributor terminal 30 and transmits the content data to the viewer terminal 20.
  • the acquisition unit 12 is a functional element that acquires line-of-sight data from the viewer terminal 20.
  • the calculation unit 13 is a functional element that analyzes the line-of-sight data acquired by the acquisition unit 12 and calculates the distribution of line-of-sight positions.
  • the identifying unit 14 has a function of identifying a first area in the content where the user's line of sight is concentrated and a second area where the user's line of sight is less concentrated than the first area, based on the distribution of line of sight positions calculated by the calculation unit 13. is an element.
  • the determining unit 15 is a functional element that determines the manner in which effects are applied based on the distribution of gaze positions.
  • the effect transmitter 16 is a functional element that transmits effect data to the viewer terminal 20.
  • the viewer terminal 20 includes a content receiving section 21, a line-of-sight specifying section 22, a line-of-sight data transmitting section 23, an effect receiving section 24, and a display control section 25 as functional elements.
  • the content receiving unit 21 is a functional element that receives content data from the server 10.
  • the line-of-sight specifying unit 22 is a functional element that specifies the line-of-sight position based on the movement of the viewer's eyes. In this embodiment, the line of sight identifying unit 22 constitutes an eye tracking system.
  • the line-of-sight data transmitter 23 is a functional element that transmits line-of-sight data indicating the line-of-sight position to the server 10.
  • the effect receiving unit 24 is a functional element that receives effect data from the server 10.
  • the display control unit 25 is a functional element that controls the display of the screen of the viewer terminal 20.
  • the distributor terminal 30 includes a content transmitter 31 as a functional element.
  • the content transmitter 31 is a functional element that transmits content data to the server 10.
  • FIG. 4 is a sequence diagram showing an example of content distribution processing as a processing flow S1.
  • step S101 the content transmitter 31 transmits content data to the server 10.
  • the content transmitter 31 transmits content data to the server 10 in response to the operation.
  • the content transfer unit 11 receives content data transmitted from the content transmission unit 31.
  • the content transfer unit 11 transmits content data to the plurality of viewer terminals 20.
  • the content transfer unit 11 transmits content data in response to a content request from the viewer terminal 20.
  • the content request is a data signal for requesting the server 10 to reproduce content.
  • the viewer terminal 20 when a viewer operates the viewer terminal 20 to start playing a desired content, the viewer terminal 20 generates a content request in response to the operation and transmits it to the server 10.
  • the content transfer unit 11 transmits content data in response to the content request.
  • the content reception unit 21 receives content data transmitted from the content transfer unit 11.
  • step S103 the viewer terminal 20 displays the content.
  • the display control unit 25 processes the content data and displays the content on the screen.
  • the viewer terminal 20 may output audio from a speaker in accordance with the display of the content.
  • the line-of-sight specifying unit 22 specifies the line-of-sight position of the viewer.
  • the line-of-sight specifying unit 22 specifies the line-of-sight position on the screen of the viewer terminal 20 based on the movement of the viewer's eyes.
  • the method of specifying the line-of-sight position by the line-of-sight specifying unit 22 is not limited.
  • the line-of-sight identifying unit 22 captures an image around the viewer's eyes using the imaging unit 207 of the viewer terminal 20, and identifies the line-of-sight position based on the position of the iris with the inner corner of the user's eye as a reference point. Good too.
  • the line-of-sight specifying unit 22 may specify the position of the viewer's line-of-sight using a corneal reflex method (PCR).
  • PCR corneal reflex method
  • the viewer terminal 20 may be equipped with an infrared emitting device and an infrared camera as a hardware configuration.
  • the line-of-sight position may be expressed, for example, using a two-dimensional coordinate system that can uniquely identify the position on the screen of the viewer terminal 20.
  • the line-of-sight data transmission unit 23 transmits line-of-sight data indicating the line-of-sight position to the server 10.
  • the line-of-sight data indicating the line-of-sight position is not limited to data indicating the coordinate position of the line-of-sight on the screen.
  • the viewer terminal 20 acquires data indicating that the viewer is viewing a specific area in the content (for example, a specific object included in the content) as gaze data, and the gaze data transmitter 23 acquires the data.
  • the gaze data thus obtained may be transmitted to the server 10.
  • the acquisition unit 12 receives (acquires) the line-of-sight data transmitted by the line-of-sight data transmitting unit 23.
  • the acquisition unit 12 acquires line-of-sight data from two or more of the plurality of viewer terminals 20 . That is, the acquisition unit 12 acquires two or more line-of-sight data.
  • the calculation unit 13 calculates the distribution of gaze positions of two or more viewers in the content.
  • the calculation unit 13 analyzes the two or more pieces of line-of-sight data acquired by the acquisition unit 12 and calculates the distribution of line-of-sight positions.
  • the method of calculating the distribution of gaze positions by the calculation unit 13 is not limited.
  • the calculation unit 13 may divide the content into a plurality of small areas, and calculate the number of lines of sight located in each small area as the distribution of line-of-sight positions based on the acquired line-of-sight data.
  • step S107 the specifying unit 14 specifies a first area in the content where the viewer's line of sight is focused, and a second area where the viewer's line of sight is less focused than the first area.
  • the identifying unit 14 identifies the first area and the second area based on the distribution of gaze positions calculated by the calculating unit 13.
  • the method of identifying the first area and the second area by the identifying unit 14 is not limited.
  • the specifying unit 14 divides the content into a plurality of small areas.
  • the specifying unit 14 may specify the small area as the first area if the number of lines of sight located within the small area is greater than or equal to a predetermined first threshold.
  • the specifying unit 14 may specify the small area as the second area if the number of lines of sight located within the small area is equal to or less than a predetermined second threshold that is smaller than the first threshold.
  • the identification unit 14 may identify these plurality of small regions collectively as one first region.
  • the identification unit 14 may collectively identify the plurality of small regions as one second region.
  • the shapes and sizes of the first region and the second region are not limited.
  • the first region and the second region may have a polygonal shape, a circular shape, or an irregular shape without symmetry.
  • step S108 the determining unit 15 determines the manner in which effects are applied to the content based on the distribution of gaze positions.
  • the determining unit 15 determines the manner in which the effect is applied, such as the configuration of the effect, the display position of the effect in the content, the volume of the effect, or the output timing of the effect.
  • the configuration of the effect may be, for example, changing the display mode of a part of the content.
  • the display mode may be changed by adding a pattern (for example, a star, a heart, or a face mark) or a character string to a part of the content, or by enclosing a part of the content with a frame. It may be something.
  • Changing the display mode may be to display part of the content brighter or darker than other parts.
  • Changing the display mode may include displaying a part of the content in an enlarged or reduced form.
  • Changing the display mode may be to display the content in such a way that a part of the content moves in a predetermined manner (for example, vibrates or rotates).
  • the configuration of the effect may be to change the display mode of comments included in the content.
  • the comments may be comments posted by multiple viewers via the viewer terminals 20.
  • the content distribution system 1 includes a comment posted from a certain viewer terminal 20 in the content and displays the comment on other viewer terminals 20 as well. Therefore, viewers can view not only comments posted by themselves but also comments provided by other viewers.
  • Changing the display mode of comments may include adding a pattern to the target comment, changing the color of the target comment to a specific color, or specifying the font of the target comment. It may be possible to change the font to Changing the comment display mode may be to display the target comment larger than other comments. Changing the display mode of comments is included in changing the display mode of part of the content described above.
  • the configuration of the effect may be to generate a sound related to the content.
  • the configuration of the effect may be to generate the sound of a person or character included in the content, or a sound related to an object included in the content (for example, an engine sound if the content includes a car). It may be to generate a message, or it may be to generate a voice that reads out a comment included in the content.
  • the determining unit 15 determines the manner in which the effect is applied based on the distribution of gaze positions.
  • the determining unit 15 may determine the manner in which the effect is applied using information indicating the first region and the second region identified based on the distribution of gaze positions.
  • the determining unit 15 may determine changing the display mode of the first area as the effect application mode.
  • the configuration of the effect may be to add a pattern or a character string to the first area, or to display a comment located in the first area larger than other comments.
  • the configuration of the effect may be to display information indicating the number or percentage of viewers viewing the first area. Information indicating the number or percentage of viewers is not limited to specific numerical values.
  • an icon or the like included in the first area may be displayed with a predetermined movement (for example, vibration or rotation) indicating that a large number or percentage of viewers view the first area.
  • the number or percentage of viewers viewing the first area is calculated based on the distribution of gaze positions.
  • the determining unit 15 may determine that the effect is to be applied by generating a sound related to the first area.
  • the configuration of the effect is to generate the voice of a person or character located in the first area, to generate a sound related to an object located in the first area, or to generate a voice that reads out a comment located in the first area. It may also be possible to generate such information.
  • the line of sight is further focused on the first area where the line of sight is already focused. That is, the above-mentioned effect can be said to be an audiovisual effect for guiding the viewer's line of sight to the first area in the content.
  • the above-mentioned effect is an effect related to the first area where the viewer's line of sight is focused, and can also be said to be an audiovisual effect depending on the degree of concentration of the viewer's line of sight.
  • the determining unit 15 may decide to change the display mode of the second area as the effect application mode.
  • the configuration of the effect in this case is the same as that in the case of changing the display mode of the first area. That is, for example, the configuration of the effect may be adding a pattern or a character string to the second area, or displaying a comment located in the second area larger than other comments. good.
  • the configuration of the effect may be to display information indicating the number or percentage of viewers viewing the second area.
  • the determining unit 15 may determine that the effect is to be applied by generating a sound related to the second area.
  • the configuration of the effect in this case is the same as that in the case of generating the sound related to the first area. That is, for example, the configuration of the effect is to generate the voice of a person or character located in the second area, to generate a sound related to an object located in the second area, or to generate a sound that reads out a comment located in the second area. It may also be to generate.
  • the line of sight is focused on the second area where the line of sight is not focused. That is, the above-mentioned effect can be said to be an audiovisual effect for guiding the viewer's line of sight to the second area in the content.
  • the above-mentioned effect is an effect related to the second area where the viewer's line of sight is not focused, and can also be said to be an audiovisual effect depending on the degree of concentration of the viewer's line of sight.
  • step S109 the effect transmitter 16 transmits effect data indicating how the effect is applied to the viewer terminal 20.
  • the effect transmitter 16 does not have to transmit the effect data to all viewer terminals 20, and may transmit the effect data only to the target viewer terminals 20 (target terminals) to which the effect is applied. good.
  • the effect receiving unit 24 of the viewer terminal 20 to which the effect data has been transmitted receives the effect data.
  • step S110 the viewer terminal 20 adds an effect to the content. If the effect is a visual effect, the display control unit 25 processes the effect data and displays the effect on the screen. If the effect is an auditory effect, the viewer terminal 20 outputs the effect from the speaker.
  • FIG. 5 is a diagram illustrating an example of content before effects are applied.
  • FIG. 6 is a diagram showing an example of content to which effects have been added.
  • the viewer terminal 20 displays a video of two singers performing a live concert as content C1.
  • Content C1 includes comments posted by multiple viewers. In this example, comments such as "Wave your hand!, “Good luck!, and "Cute! are displayed.
  • the identifying unit 14 identifies a first area in the content C1 where viewers' gazes are concentrated and a second area where viewers' gazes are less concentrated than the first area, based on the distribution of gaze positions. do.
  • the identifying unit 14 identifies the area A1 where the comment “Wave your hand!” and the area A3 where one of the singers is displayed as the first area, and “Give it your best!”
  • the area A2 in which the comment "A" is displayed and the area A4 in which the other singer is displayed are specified as the second area.
  • the determining unit 15 determines the manner in which the effect is applied based on the distribution of line-of-sight positions.
  • the determining unit 15 displays the comment included in the area A2 specified as the second area larger than other comments, adds a star mark to the comment, and displays the comment included in the area A2 specified as the second area.
  • the manner in which the effect is applied is determined to be to add a star and a heart mark to the area A4.
  • the determining unit 15 determines that the effect is to be applied by generating the voice of the singer located in the area A4 specified as the second area (for example, a voice such as "Look at me!).
  • the effect transmitting unit 16 transmits effect data indicating the manner in which the effect determined by the determining unit 15 is applied to the viewer terminal 20 (target terminal).
  • the effect receiving unit 24 receives the effect data, and the viewer terminal 20 processes the effect data to generate an effect.
  • the display control unit 25 displays the comment included in area A2 larger than other comments, and adds marks such as stars to area A2 and area A4.
  • the viewer terminal 20 generates the voice of the singer located in the area A4 from the speaker.
  • FIG. 7 is a diagram showing another example of content to which effects have been added.
  • the viewer terminal 20 inputs the character string that constitutes the question "Which season do you like the most?" and the questions "Spring,” “Summer,” “Autumn,” and “Winter.”
  • a questionnaire video including four icons each forming a choice is displayed as content C2.
  • the identifying unit 14 identifies a first area in the content C2 where viewers' gazes are concentrated and a second area where viewers' gazes are less concentrated than the first area, based on the distribution of gaze positions. do.
  • the specifying unit 14 specifies area B2 including the "summer” icon as the first area, and areas B1, B3, and B4 including the "spring", "autumn", and "winter” icons, respectively. Specify as 2 areas.
  • the determining unit 15 determines the manner in which the effect is applied based on the distribution of line-of-sight positions.
  • the determining unit 15 displays the "summer" icon included in region B2 specified as the first region in a vibrating manner, and determines the proportion of line of sight located in each region B1 to B4. Deciding that the effect is to be displayed on the icon is the manner in which the effect is applied. That is, in this example, an icon that particularly attracts the attention of the viewer (attention is focused on it) is displayed so as to vibrate. Additionally, in this example, the degree of attention from the viewer (percentage of line of sight) for each icon is displayed as a numerical value.
  • the line-of-sight ratio is calculated from the distribution of line-of-sight positions.
  • the character string "20%” indicating the percentage of line of sight located in area B1 is displayed on the "Spring” icon
  • the character string "40%” indicating the proportion of line of sight located in area B2. is displayed on the "summer” icon
  • the character string "10%” indicating the proportion of gaze located in area B3 is displayed on the "autumn” icon
  • "30%” indicating the proportion of gaze located in area B4 is displayed.
  • %” is displayed on the “Winter” icon.
  • the effect transmitting unit 16 transmits effect data indicating the manner in which the effect determined by the determining unit 15 is applied to the viewer terminal 20 (target terminal).
  • the effect receiving unit 24 receives the effect data, and the viewer terminal 20 processes the effect data to generate an effect.
  • the display control unit 25 displays the "summer" icon included in area B2 so as to vibrate, and displays a character string indicating the percentage of line of sight on the corresponding icon.
  • the content distribution system 1 may transmit content data not only to the viewer terminal 20 but also to the distributor terminal 30.
  • the distributor terminal 30 processes the content data and displays the content on the screen.
  • the content distribution system 1 may also transmit the effect data to the distributor terminal 30.
  • the distributor terminal 30 processes the effect data and adds effects to the content. That is, the distributor terminal 30 can also function as the viewer terminal 20 (target terminal).
  • the manner in which effects are applied is not limited to the example described above.
  • the determining unit 15 may determine the manner in which the effect is applied based on the viewer's attribute information.
  • the determining unit 15 may determine the manner in which the effect is applied based on attribute information such as age or gender, for example. Specifically, the determining unit 15 determines that the effect is to be applied by displaying comments included in the first area where the eyes of elderly viewers are focused, larger than other comments and in a color that stands out. Good too.
  • the calculating unit 13 classifies the viewers into a plurality of groups based on the attribute information, and calculates the distribution of gaze positions for each group. may be calculated. For example, the calculation unit 13 may calculate the distribution of gaze positions for each age group or gender of viewers.
  • the calculation unit 13 may weight the gaze data based on the viewer's attribute information. For example, the calculation unit 13 may calculate the distribution of gaze positions using a value obtained by multiplying the number of gazes of viewers of a specific age group or gender by a predetermined coefficient.
  • the determining unit 15 may determine the manner in which the effect is applied based on the attribute information of the viewer (hereinafter referred to as the target person) who uses the target terminal. Specifically, when the attribute information includes information about a favorite person or character selected by the subject and an image color associated with the person or character, the determining unit 15 selects the sound to be generated as an effect. may be the voice of a person or character selected by the subject, or the color of a design added to the content as an effect may be an image color associated with the person or character.
  • the determining unit 15 displays only a predetermined number of comments from among the plurality of comments that have attracted the most attention, and does not display other comments. This may be determined as the manner in which the effect is applied. At this time, the determining unit 15 identifies comments that attract many gazes based on the distribution of gaze positions.
  • the determining unit 15 may decide to display the distribution of gaze positions on the screen of the user terminal in a format that can be visually recognized by the user, such as a heat map, as the manner in which the effect is applied. In this case, the determining unit 15 may determine the manner in which the effect is applied without the identifying unit 14 identifying the first area and the second area.
  • the acquisition unit 12 acquires line-of-sight data each time a content is viewed by each viewer, and stores the acquired line-of-sight data in a database.
  • the calculation unit 13 may calculate the distribution of gaze positions by analyzing two or more pieces of accumulated gaze data. That is, the timing at which the acquisition unit 12 acquires the line-of-sight data from each viewer terminal 20 does not necessarily have to be simultaneous, and may be different.
  • the content distribution system 1 When the content distribution system 1 is used for on-demand distribution, the content distribution system 1 accumulates data indicating the history of comments posted by a certain viewer in a database, and when other viewers view the content. Additionally, comments may be included in the content and displayed based on the data.
  • the viewer terminal 20 displays data indicating the time when the gaze data was acquired (for example, data indicating the progress of the content) as well as the gaze data. ) may be sent to the server 10.
  • the case where there is a difference in the timing at which the content is displayed on each viewer terminal 20 means, for example, when the content distribution system 1 is used for on-demand distribution, or when there is a delay (lag) in the timing at which the content is displayed. This is the case when the situation occurs.
  • the calculation unit 13 of the server 10 can calculate the distribution of gaze positions for each scene included in the content based on the gaze data and data indicating the time when the gaze data is acquired.
  • the viewer terminal 20 does not need to transmit data indicating the time when the line-of-sight data was acquired to the server 10.
  • the case where there is no difference in the timing at which content is displayed on each viewer terminal 20 means, for example, when the content distribution system 1 is used for real-time distribution, or when there is a delay (lag) in the timing at which the content is displayed. For example, if you have not done so.
  • the process of adding effects may be performed by the server 10.
  • the server 10 changes the configuration of the content based on the effect application mode determined by the determining unit 15 (such as changing the content to a partially highlighted content), and views and listens to content data indicating the changed content.
  • the information may also be transmitted to the user terminal 20.
  • the display control unit 25 of the viewer terminal 20 processes the content data and displays the content, so that the content to which the effect has been added is displayed on the screen.
  • the concept includes a case where the executing entity (that is, the processor) of n processes from the first process to the nth process changes midway. That is, this expression indicates a concept that includes both a case in which all of the n processes are executed by the same processor, and a case in which the processors in the n processes are changed according to an arbitrary policy.
  • the processing procedure of the method executed by at least one processor is not limited to the example in the above embodiment. For example, some of the steps described above may be omitted, or each step may be performed in a different order. Furthermore, any two or more of the steps described above may be combined, or some of the steps may be modified or deleted. Alternatively, other steps may be performed in addition to each of the above steps.
  • any part or all of the functional units described in this specification may be realized by a program.
  • the programs mentioned in this specification may be distributed by being recorded non-temporarily on a computer-readable recording medium, or may be distributed via communication lines (including wireless communication) such as the Internet. , it may be distributed as being installed on any terminal.
  • a configuration described in this specification as one device (or member; the same applies hereinafter) may be realized by multiple devices. good.
  • configurations described herein as multiple devices may be implemented by a single device.
  • some or all of the means or functions included in a certain device for example, a server
  • may be included in another device for example, a user terminal.
  • the present disclosure includes the following aspects.
  • (Additional note 1) comprising at least one processor; the at least one processor, Display content on multiple user terminals, Obtaining line-of-sight data indicating the line-of-sight position of a user viewing the content from two or more user terminals among the plurality of user terminals; Analyzing the acquired two or more pieces of line-of-sight data to calculate the distribution of line-of-sight positions of two or more users in the content, A content distribution system that determines, based on the calculated distribution, a mode of applying an effect to the content displayed on at least one target terminal among the plurality of user terminals.
  • the at least one processor Based on the distribution, identify a first area in the content where the line of sight of the two or more users is concentrated, and a second area where the line of sight of the two or more users is less concentrated than the first area;
  • the content distribution system according to supplementary note 1, wherein changing the display mode of the first area of the content displayed on the at least one target terminal is determined as the mode of applying the effect.
  • the at least one processor Based on the distribution, identify a first area in the content where the line of sight of the two or more users is concentrated, and a second area where the line of sight of the two or more users is less concentrated than the first area;
  • the content distribution system according to supplementary note 1, wherein changing the display mode of the second area of the content displayed on the at least one target terminal is determined as the mode of applying the effect.
  • the plurality of user terminals include a distributor terminal that distributes the content and a plurality of viewer terminals, The content distribution system according to any one of appendices 1 to 3, wherein the content is content distributed in real time from the distributor terminal to the plurality of viewer terminals.
  • the plurality of user terminals include a plurality of viewer terminals, The content distribution system according to any one of appendices 1 to 3, wherein the content is content distributed on-demand to the plurality of viewer terminals.
  • a content distribution method performed by a content distribution system comprising at least one processor, the method comprising: displaying the content on multiple user terminals; acquiring line-of-sight data indicating the line-of-sight position of a user viewing the content from two or more user terminals among the plurality of user terminals; analyzing the acquired two or more pieces of the line-of-sight data to calculate a distribution of line-of-sight positions of the two or more users in the content;
  • a content distribution method comprising the step of determining, based on the calculated distribution, a mode of applying an effect to the content displayed on at least one target terminal among the plurality of user terminals.
  • (Appendix 8) displaying the content on multiple user terminals; acquiring line-of-sight data indicating the line-of-sight position of a user viewing the content from two or more user terminals among the plurality of user terminals; analyzing the acquired two or more pieces of the line-of-sight data to calculate a distribution of line-of-sight positions of the two or more users in the content;
  • a content distribution program that causes a computer to execute a step of determining, based on the calculated distribution, a mode of applying an effect to the content displayed on at least one target terminal among the plurality of user terminals.
  • two or more pieces of line-of-sight data are analyzed to obtain a distribution of the line-of-sight positions of two or more users in the content, and the mode of applying effects to the content is determined based on this distribution. It is determined.
  • the manner in which effects are applied is determined based on the reactions of a plurality of viewers to the content, so it is possible to increase the appeal of the content to the viewers.
  • this mechanism reflects viewer reactions in the content and provides interactive content, which can facilitate communication between viewers and distributors and between viewers.
  • the display mode of the first area where the user's line of sight is focused is changed.
  • the display mode of the second area, where the user's line of sight is less focused than the first area is changed. This makes it possible, for example, to add an effect to guide the viewer's line of sight to the second area, dispersing the line of sight that is omnipresent in the first area and drawing the line of sight to the second area as well. be able to.
  • SYMBOLS 1 Content distribution system, 10... Server, 11... Content transfer part, 12... Acquisition part, 13... Calculation part, 14... Specification part, 15... Determination part, 16... Effect transmission part, 20... Viewer terminal, 21... Content reception section, 22... Gaze identification section, 23... Gaze data transmission section, 24... Effect reception section, 25... Display control section, 30... Distributor terminal, 31... Content transmission section, 40... User database, A1, A2, A3, A4, B1, B1, B2, B3, B4...area, C1, C2...content, P1...server program, P2...client program.

Abstract

一実施形態に係るコンテンツ配信システムは、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、コンテンツを複数のユーザ端末上に表示させ、コンテンツを視認するユーザの視線位置を示す視線データを、複数のユーザ端末のうちの2以上のユーザ端末から取得し、取得した2以上の視線データを解析して、コンテンツにおける2以上のユーザの視線位置の分布を算出し、算出した分布に基づいて、複数のユーザ端末のうちの少なくとも一つの対象端末に表示されているコンテンツに付与されるエフェクトの付与態様を決定する。

Description

コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
 本開示の一側面は、コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラムに関する。
 視聴者の視線に関する情報を用いてコンテンツ配信を行う技術が知られている。例えば、特許文献1に記載された動画配信システムは、動画を生成するための素材データに基づいて動画を送出し、動画の再生中における動画の視聴者から視線に関するイベント情報を取得し、イベント情報に応じて、素材データに対する操作を行う。特許文献2および3にも、視聴者の視線に関する情報を用いてコンテンツ配信を行う技術が記載されている。
特開2020-120304号公報 特開2016-126773号公報 特開2020-202575号公報
 コンテンツの視聴者に対する訴求力を高めることができる仕組みが望まれている。
 本開示の一側面に係るコンテンツ配信システムは、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、コンテンツを複数のユーザ端末上に表示させ、コンテンツを視認するユーザの視線位置を示す視線データを、複数のユーザ端末のうちの2以上のユーザ端末から取得し、取得した2以上の視線データを解析して、コンテンツにおける2以上のユーザの視線位置の分布を算出し、算出した分布に基づいて、複数のユーザ端末のうちの少なくとも一つの対象端末に表示されているコンテンツに付与されるエフェクトの付与態様を決定する。
 このような側面においては、2以上の視線データが解析されて、コンテンツにおける2以上のユーザの視線位置の分布が得られ、この分布に基づいてコンテンツに付与されるエフェクトの付与態様が決定される。この仕組みによって、複数の視聴者のコンテンツに対する反応を踏まえてエフェクトの付与態様が決定されるので、コンテンツの視聴者に対する訴求力を高めることができる。
 本開示の一側面によれば、コンテンツの視聴者に対する訴求力を高めることができる。
実施形態に係るコンテンツ配信システムの適用の一例を示す図である。 実施形態に係るコンテンツ配信システムに関連するハードウェア構成の一例を示す図である。 実施形態に係るコンテンツ配信システムに関連する機能構成の一例を示す図である。 コンテンツの配信処理の一例を示すシーケンス図である。 エフェクトが付与される前のコンテンツの一例を示す図である。 エフェクトが付与されたコンテンツの一例を示す図である。 エフェクトが付与されたコンテンツの他の例を示す図である。
 以下、添付図面を参照しながら本開示での実施形態を詳細に説明する。図面の説明において同一または同等の要素には同一の符号を付し、重複する説明を省略する。
[システムの概要]
 実施形態に係るコンテンツ配信システムは、ユーザに向けてコンテンツを配信するコンピュータシステムである。コンテンツとは、コンピュータまたはコンピュータシステムによって提供され、人が認識可能な情報のことをいう。コンテンツを示す電子データのことをコンテンツデータという。コンテンツの表現形式は限定されず、コンテンツは画像(例えば、写真、映像など)によって表現されてもよい。コンテンツは様々な態様の情報伝達またはコミュニケーションのために用いることができ、例えば、ニュース、教育、医療、ゲーム、チャット、商取引、講演、セミナー、研修、コンサート、アンケートなどの様々な場面または目的で利用され得る。コンテンツの配信とは、ユーザにコンテンツを提供するために実行される処理のことをいい、例えば、通信ネットワークを経由して情報をユーザに向けて送信する処理のことをいう。
 コンテンツ配信システムは、コンテンツデータをユーザ端末に送信することで、コンテンツをユーザに提供する。一例では、そのコンテンツは、配信者から提供される。配信者とは、コンテンツ配信システムによって視聴者に情報を提供しようとする人であり、コンテンツの発信者である。視聴者は、コンテンツ配信システムによって情報を得ようとする人であり、コンテンツの利用者である。コンテンツ配信システムは、配信者端末から提供されたコンテンツデータを視聴者端末に送信する。視聴者端末は、コンテンツデータを処理して画面上にコンテンツを表示する。本開示において、配信者と視聴者とをユーザと総称して説明し、配信者端末と視聴者端末とをユーザ端末と総称して説明を行う場合がある。
 コンテンツの配信手法は限定されない。例えば、コンテンツ配信システムは、リアルタイム配信を行ってもよい。この場合、例えば、配信者端末は、撮影した映像を処理してコンテンツデータを生成し、そのコンテンツデータをコンテンツ配信システムに向けてリアルタイムに送信する。コンテンツ配信システムは、受信したコンテンツデータを視聴者端末に向けてリアルタイムに送信する。これはインターネット生放送の一態様である。コンテンツデータは、コンテンツ配信システムにおいて生成されてもよい。すなわち、コンテンツ配信システムは、配信者端末から提供されるリアルタイムの映像を処理することでコンテンツデータを生成し、そのコンテンツデータを視聴者端末に向けてリアルタイムに送信してもよい。コンテンツ配信システムは、リアルタイム配信後の所与の期間においてコンテンツを視聴することが可能なタイムシフトのために用いられてもよい。
 コンテンツ配信システムは、視聴者が任意のタイミングでコンテンツを視聴することが可能なオンデマンド配信を行ってもよい。この場合、例えば、コンテンツ配信システムは、過去に撮影された映像を処理することで生成されたコンテンツデータを、データベースなどの記憶装置に格納してもよい。コンテンツ配信システムは、視聴者の要求に応じて、格納されたコンテンツデータを視聴者端末に向けて送信してもよい。
 コンテンツ配信システムは、コンテンツを視認するユーザの視線位置を示す視線データを、2以上のユーザ端末から取得する。ユーザの視線位置は、ユーザ端末の画面においてユーザが見ている位置である。視線データは、アイトラッキングシステムにより取得される。アイトラッキングシステムは、ユーザ端末に搭載されていてもよいし、ユーザ端末とは異なる他のコンピュータに搭載されていてもよい。あるいは、トラッキングシステムは、ユーザ端末と他のコンピュータとが協働して実現されてもよい。
 コンテンツ配信システムは、コンテンツにおける2以上のユーザの視線位置の分布を算出する。視線位置の分布は、コンテンツにおいて個々のユーザの視線がどこに位置するかを示す情報であり、例えば、ユーザの視線の集中度を示す。この分布によって、コンテンツにおける各領域がどの程度の視聴者に注目されているかを表すことができる。配信システムは、2以上の視線データを解析して、2以上のユーザの視線位置の分布を算出する。視線位置の分布を算出するために使用される視線データの数は2以上であればよく、100以上または1000以上の視線データが使用されてもよい。コンテンツ配信システムは、視線位置の分布に基づいて、コンテンツにおいてユーザの視線が集まる第1領域、および第1領域よりもユーザの視線が集まらない第2領域を特定し得る。第1領域は、ユーザの視線(視線位置)を相対的に多く含む領域であるとも、多くのユーザに見られている領域であるともいえる。第2領域は、第1領域よりもユーザの視線(視線位置)が少ない領域であるとも、ユーザにあまり見られていない領域であるともいえる。
 コンテンツ配信システムは、視線位置の分布に基づいて、コンテンツに付与されるエフェクトの付与態様を決定する。エフェクトとは、ユーザ端末において発生する視聴覚的効果である。例えば、エフェクトは、ユーザ端末に表示されたコンテンツの特定の領域にユーザの視線を誘導するための視聴覚的効果、または、ユーザの視線の集中度に応じた視聴覚的効果を含む。エフェクトの付与態様とは、ユーザ端末においてエフェクトを発生させるために必要な情報であり、例えば、エフェクトの構成、コンテンツにおけるエフェクトの表示位置、エフェクトの音量またはエフェクトの出力タイミングなどを含む。エフェクトの構成は、エフェクトの視覚的な構成(表示の構成)、および聴覚的な構成(音の構成)を含む。エフェクトの付与態様を示す電子データのことをエフェクトデータという。エフェクトが付与される対象のユーザ端末を対象端末という。すなわち、コンテンツ配信システムは、対象端末に表示されているコンテンツに付与されるエフェクトの付与態様を決定する。
[システムの構成]
 図1は、実施形態に係るコンテンツ配信システム1の適用の一例を示す図である。本実施形態では、コンテンツ配信システム1はサーバ10を備える。サーバ10は、コンテンツデータを配信するコンピュータである。サーバ10は、通信ネットワークNを介して複数の視聴者端末20および配信者端末30と接続する。視聴者端末20の数は、2以上であればよく限定されない。配信者端末30の数は、1以上であればよく限定されない。サーバ10は、通信ネットワークNを介してユーザデータベース40とも接続する。通信ネットワークNの構成は限定されない。例えば、通信ネットワークNはインターネットを含んで構成されていてもよいし、イントラネットを含んで構成されていてもよい。
 視聴者端末20は、視聴者によって用いられるコンピュータである。一例では、視聴者端末20は、コンテンツ配信システム1にアクセスしてコンテンツデータを受信および表示する機能を有する。視聴者端末20の種類および構成は限定されない。例えば、視聴者端末20は高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラスなど)、ラップトップ型パーソナルコンピュータ、携帯電話機などの携帯端末でもよい。あるいは、視聴者端末20はデスクトップ型パーソナルコンピュータなどの据置型端末でもよい。
 配信者端末30は、配信者によって用いられるコンピュータである。一例では、配信者端末30は、映像を撮影する機能と、コンテンツ配信システム1にアクセスしてその映像を示す電子データ(映像データ)を送信する機能とを有する。配信者端末30の種類および構成は限定されない。例えば、配信者端末30は映像を撮影、収録、および送信する機能を有する撮影システムであってもよい。あるいは、配信者端末30は高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラスなど)、ラップトップ型パーソナルコンピュータ、携帯電話機などの携帯端末でもよい。あるいは、配信者端末30はデスクトップ型パーソナルコンピュータなどの据置型端末でもよい。
 視聴者は、視聴者端末20を操作してコンテンツ配信システム1にログインし、これにより視聴者はコンテンツを視聴することができる。配信者は、配信者端末30を操作してコンテンツ配信システム1にログインし、これによりコンテンツを視聴者に提供することができる。本実施形態では、コンテンツ配信システム1の視聴者および配信者が既にログインしていることを前提とする。視聴者によるコンテンツ配信システム1へのログインは必須ではない。すなわち、コンテンツ配信システム1は、ログインしていない一般の視聴者の視聴者端末20にコンテンツデータを送信することができる。この場合、ログインしていない一般の視聴者もコンテンツを視聴することができる。
 ユーザデータベース40は、コンテンツ配信システム1によって用いられるデータを記憶する非一時的な記憶装置である。ユーザデータベース40は、コンテンツ配信システム1を利用するユーザ(例えば、視聴者)の属性情報を記憶する。属性情報は、ユーザに関する各種の情報であり、例えば、ユーザの識別子(ユーザID)、年齢、性別、ユーザが視聴したコンテンツの識別子(コンテンツID)、コンテンツの視聴回数を含んでいてもよい。属性情報は、ユーザが任意に選択または設定した情報が含まれていてもよい。例えば、属性情報は、ユーザが選択した好みの人またはキャラクター、当該人またはキャラクターに対応付けられたイメージカラーに関する情報などを含んでいてもよい。属性情報は、ユーザデータベース40以外の領域に記憶されていてもよい。例えば、属性情報は、視聴者端末20におけるブラウザのクッキー(Cookie)領域に記憶されていてもよい。属性情報は、ユーザがコンテンツ配信システム1にログインしているか否かを示す情報を含んでいてもよい。
 ユーザデータベース40は、単一のデータベースとして構築されてもよいし、複数のデータベースの集合であってもよい。ユーザデータベース40の設置場所は限定されない。例えば、ユーザデータベース40は、コンテンツ配信システム1とは別のコンピュータシステム内に設けられてもよい。
 図2は、コンテンツ配信システム1に関連するハードウェア構成の一例を示す図である。図2は、サーバ10として機能するサーバコンピュータ100と、視聴者端末20または配信者端末30として機能する端末コンピュータ200とを示す。
 一例として、サーバコンピュータ100はハードウェア構成要素として、プロセッサ101、主記憶部102、補助記憶部103、および通信部104を備える。プロセッサ101は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置であり、例えばCPU(Central Processing Unit)またはGPU(Graphics Processing Unit)である。主記憶部102は、実行されようとするプログラム、演算結果などを記憶する装置であり、例えばROM(Read Only Memory)またはRAM(Random Access Memory)により構成される。補助記憶部103は、一般に主記憶部102よりも大量のデータを記憶することが可能な装置であり、例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部103は、サーバコンピュータ100をサーバ10として機能させるためのサーバプログラムP1と各種のデータとを記憶する。通信部104は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置であり、例えばネットワークカードまたは無線通信モジュールにより構成される。
 本実施形態では、コンテンツ配信プログラムはサーバプログラムP1として実装される。サーバ10の各機能要素は、プロセッサ101または主記憶部102の上にサーバプログラムP1を読み込ませてプロセッサ101にそのプログラムを実行させることで実現される。サーバプログラムP1は、サーバ10の各機能要素を実現するためのコードを含む。プロセッサ101はサーバプログラムP1に従って通信部104を動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを実行する。
 サーバ10は、一つまたは複数のコンピュータにより構成され得る。複数のコンピュータが用いられる場合には、通信ネットワークNを介してこれらのコンピュータが互いに接続されることで、論理的に一つのサーバ10が構成される。
 一例として、端末コンピュータ200はハードウェア構成要素として、プロセッサ201、主記憶部202、補助記憶部203、通信部204、入力インタフェース205、出力インタフェース206、および撮像部207を備える。プロセッサ201は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置であり、例えばCPUまたはGPUである。主記憶部202は、実行されようとするプログラム、演算結果などを記憶する装置であり、例えばROMまたはRAMにより構成される。補助記憶部203は、一般に主記憶部202よりも大量のデータを記憶することが可能な装置であり、例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部203は、端末コンピュータ200を視聴者端末20または配信者端末30として機能させるためのクライアントプログラムP2と各種のデータとを記憶する。通信部204は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置であり、例えばネットワークカードまたは無線通信モジュールにより構成される。入力インタフェース205は、ユーザの操作または動作に基づいてデータを受け付ける装置であり、例えば、キーボード、操作ボタン、ポインティングデバイス、タッチパネル、マイクロフォン、センサ、およびカメラのうちの少なくとも一つによって構成される。出力インタフェース206は、端末コンピュータ200で処理されたデータを出力する装置であり、例えば、モニタ、タッチパネル、HMDなどの表示装置を含んで構成される。撮像部207は、現実世界を写した画像(映像または写真)を撮影する装置であり、例えばカメラである。撮像部207は入力インタフェース205としても機能し得る。
 視聴者端末20または配信者端末30の各機能要素は、対応するクライアントプログラムP2をプロセッサ201または主記憶部202に読み込ませてプロセッサ201にそのプログラムを実行させることで実現される。クライアントプログラムP2は、視聴者端末20または配信者端末30の各機能要素を実現するためのコードを含む。プロセッサ201はクライアントプログラムP2に従って通信部204、入力インタフェース205、出力インタフェース206、または撮像部207を動作させ、主記憶部202または補助記憶部203におけるデータの読み出しおよび書き込みを行う。
 サーバプログラムP1およびクライアントプログラムP2の少なくとも一つは、CD-ROM、DVD-ROM、半導体メモリなどの有形の記録媒体に非一時的に記録された上で提供されてもよい。あるいは、これらのプログラムの少なくとも一つは、搬送波に重畳されたデータ信号として通信ネットワークNを介して提供されてもよい。これらのプログラムは別々に提供されてもよいし、一緒に提供されてもよい。
 図3は、コンテンツ配信システム1に関連する機能構成の一例を示す図である。サーバ10は、機能要素としてコンテンツ転送部11、取得部12、算出部13、特定部14、決定部15およびエフェクト送信部16を備えている。コンテンツ転送部11は、配信者端末30から送信されたコンテンツデータを受信し、そのコンテンツデータを視聴者端末20に送信する機能要素である。取得部12は、視聴者端末20から視線データを取得する機能要素である。算出部13は、取得部12により取得された視線データを解析して、視線位置の分布を算出する機能要素である。特定部14は、算出部13が算出した視線位置の分布に基づいて、コンテンツにおけるユーザの視線が集まる第1領域と、第1領域よりもユーザの視線が集まらない第2領域とを特定する機能要素である。決定部15は、視線位置の分布に基づいて、エフェクトの付与態様を決定する機能要素である。エフェクト送信部16は、エフェクトデータを視聴者端末20に送信する機能要素である。
 視聴者端末20は、機能要素としてコンテンツ受信部21、視線特定部22、視線データ送信部23、エフェクト受信部24および表示制御部25を備えている。コンテンツ受信部21は、サーバ10からコンテンツデータを受信する機能要素である。視線特定部22は、視聴者の眼の動きに基づいて、視線位置を特定する機能要素である。本実施形態では、視線特定部22はアイトラッキングシステムを構成する。視線データ送信部23は、視線位置を示す視線データをサーバ10に送信する機能要素である。エフェクト受信部24は、エフェクトデータをサーバ10から受信する機能要素である。表示制御部25は、視聴者端末20の画面の表示を制御する機能要素である。
 配信者端末30は、機能要素としてコンテンツ送信部31を備えている。コンテンツ送信部31は、サーバ10にコンテンツデータを送信する機能要素である。
[システムの動作]
 図4を参照して、コンテンツ配信システム1の動作を説明するとともに、本実施形態に係るコンテンツ配信方法について説明する。図4は、コンテンツの配信処理の一例を処理フローS1として示すシーケンス図である。
 ステップS101では、コンテンツ送信部31がコンテンツデータをサーバ10に送信する。例えば、配信者がコンテンツを視聴者に配信するために配信者端末30を操作すると、コンテンツ送信部31がその操作に応答してコンテンツデータをサーバ10に送信する。コンテンツ転送部11は、コンテンツ送信部31から送信されたコンテンツデータを受信する。
 ステップS102では、コンテンツ転送部11がコンテンツデータを複数の視聴者端末20に送信する。コンテンツ転送部11は、視聴者端末20からのコンテンツ要求に応答してコンテンツデータを送信する。コンテンツ要求は、コンテンツの再生をサーバ10に要求するためのデータ信号である。例えば、視聴者が所望のコンテンツの再生を開始させるために視聴者端末20を操作すると、視聴者端末20がその操作に応答してコンテンツ要求を生成し、サーバ10に送信する。コンテンツ転送部11は、そのコンテンツ要求に応答してコンテンツデータを送信する。コンテンツ受信部21は、コンテンツ転送部11から送信されたコンテンツデータを受信する。
 ステップS103では、視聴者端末20がコンテンツを表示する。コンテンツ受信部21がコンテンツデータを受信すると、表示制御部25がそのコンテンツデータを処理してコンテンツを画面に表示する。視聴者端末20は、コンテンツの表示に合わせて音声をスピーカから出力してもよい。
 ステップS104では、視線特定部22が、視聴者の視線位置を特定する。視線特定部22は、視聴者の眼の動きに基づいて、視聴者端末20の画面における視線位置を特定する。視線特定部22による視線位置の特定方法は限定されない。一例として、視線特定部22は、視聴者端末20の撮像部207によって視聴者の眼の周辺の画像を撮影し、ユーザの目頭を基準点とした虹彩の位置に基づいて視線位置を特定してもよい。他の例として、視線特定部22は角膜反射法(PCCR)を用いて視聴者の視線位置を特定してもよい。角膜反射法を採用する場合、視聴者端末20はハードウェア構成として赤外線出射装置および赤外線カメラを備えていてもよい。視線位置は、例えば、視聴者端末20の画面における位置を一意に特定できる二次元の座標系を用いて表現されてもよい。
 ステップS105では、視線データ送信部23が、視線位置を示す視線データをサーバ10に送信する。視線位置を示す視線データは、画面における視線の座標位置を示すデータに限られない。例えば、視聴者端末20は、視聴者がコンテンツにおける特定の領域(例えば、コンテンツに含まれる特定のオブジェクト)を視認していることを示すデータを視線データとして取得し、視線データ送信部23が取得された視線データをサーバ10に送信してもよい。取得部12は、視線データ送信部23によって送信された視線データを受信(取得)する。取得部12は、複数の視聴者端末20のうちの2以上の視聴者端末20から視線データを取得する。すなわち、取得部12は、2以上の視線データを取得する。
 ステップS106では、算出部13が、コンテンツにおける2以上の視聴者の視線位置の分布を算出する。算出部13は、取得部12が取得した2以上の視線データを解析して、視線位置の分布を算出する。算出部13による視線位置の分布の算出方法は限定されない。例えば、算出部13は、コンテンツを複数の小領域に分割し、取得した視線データに基づいて、各小領域内に位置する視線の数を視線位置の分布として算出してもよい。
 ステップS107では、特定部14が、コンテンツにおける視聴者の視線が集まる第1領域と、第1領域よりも視聴者の視線が集まらない第2領域とを特定する。特定部14は、算出部13が算出した視線位置の分布に基づいて、第1領域と第2領域とを特定する。
 特定部14による第1領域および第2領域の特定手法は限定されない。例えば、特定部14は、コンテンツを複数の小領域に分割する。特定部14は、小領域内に位置する視線の数が所定の第1閾値以上である場合には当該小領域を第1領域として特定してもよい。特定部14は、小領域内に位置する視線の数が、第1閾値よりも小さい所定の第2閾値以下である場合には、当該小領域を第2領域として特定してもよい。特定部14は、連続する複数の小領域がいずれも第1領域である場合には、これらの複数の小領域をまとめて一つの第1領域として特定してもよい。同様に、特定部14は、連続する複数の小領域がいずれも第2領域である場合には、これらの複数の小領域をまとめて一つの第2領域として特定してもよい。第1領域および第2領域の形状および大きさは限定されない。第1領域および第2領域は、多角形状、円形状、または対称性のない不規則な形状であってもよい。
 ステップS108では、決定部15が、視線位置の分布に基づいて、コンテンツに付与されるエフェクトの付与態様を決定する。決定部15は、エフェクトの付与態様として、例えば、エフェクトの構成、コンテンツにおけるエフェクトの表示位置、エフェクトの音量またはエフェクトの出力タイミングなどを決定する。
 エフェクトが視覚的効果である場合、エフェクトの構成は、例えばコンテンツの一部の表示態様を変更することであってもよい。一例として、表示態様の変更は、コンテンツの一部に図柄(例えば、星、ハートまたは顔のマークなど)または文字列を付加することであってもよいし、コンテンツの一部を枠線で囲むことであってもよい。表示態様の変更は、コンテンツの一部を他の部分よりも明るくまたは暗く表示することであってもよい。表示態様の変更は、コンテンツの一部を拡大または縮小させたかたちで該コンテンツを表示させることであってもよい。表示態様の変更は、コンテンツの一部に所定の動き(例えば、振動または回転など)をさせたかたちで該コンテンツ表示させることであってもよい。
 エフェクトの構成は、コンテンツに含まれるコメントの表示態様を変更することであってもよい。コメントは、複数の視聴者が視聴者端末20を介して投稿したコメントであってもよい。この場合、コンテンツ配信システム1は、ある視聴者端末20から投稿されたコメントをコンテンツに含めて他の視聴者端末20にもそのコメントを表示させる。したがって、視聴者は、自らが投稿したコメントだけでなく、他の視聴者が提供したコメントを閲覧することができる。コメントの表示態様の変更は、対象のコメントに図柄を付加することであってもよいし、対象のコメントの色を特定色に変更することであってもよいし、対象のコメントのフォントを特定のフォントに変更することであってもよい。コメントの表示態様の変更は、対象のコメントを他のコメントよりも大きく表示することであってもよい。コメントの表示態様を変更することは、上述したコンテンツの一部の表示態様を変更することに含まれる。
 エフェクトが聴覚的効果である場合、エフェクトの構成は、コンテンツに関連する音を発生させることであってもよい。一例として、エフェクトの構成は、コンテンツに含まれる人またはキャラクターの音声を発生させることであってもよいし、コンテンツに含まれる物に関する音(例えばコンテンツに車が含まれる場合にはエンジン音など)を発生させることであってもよいし、コンテンツに含まれるコメントを読み上げる音声を発生させることであってもよい。
 上述したように、決定部15は、視線位置の分布に基づいて、エフェクトの付与態様を決定する。決定部15は、視線位置の分布に基づいて特定された第1領域および第2領域を示す情報を用いて、エフェクトの付与態様を決定してもよい。一例として、決定部15は、第1領域の表示態様を変更することをエフェクトの付与態様として決定してもよい。この場合、エフェクトの構成は、第1領域に図柄または文字列を付加することであってもよいし、第1領域に位置するコメントを他のコメントよりも大きく表示することなどであってもよい。エフェクトの構成は、第1領域を視認する視聴者の数または割合を示す情報を表示することであってもよい。視聴者の数または割合を示す情報とは、具体的な数値に限定されない。例えば、第1領域に含まれるアイコンなどが、第1領域を視認する視聴者の数または割合が大きいことを示す所定の動き(例えば、振動または回転など)をするように表示されてもよい。第1領域を視認する視聴者の数または割合は、視線位置の分布に基づいて算出される。
 他の例として、決定部15は、第1領域に関連する音を発生させることをエフェクトの付与態様として決定してもよい。この場合、エフェクトの構成は、第1領域に位置する人もしくはキャラクターの音声を発生させること、第1領域に位置する物に関する音を発生させること、または第1領域に位置するコメントを読み上げる音声を発生させることなどであってもよい。
 上述したような第1領域に関するエフェクトが付与されることによって、既に視線が集まっている第1領域に一層視線が集まる。すなわち、上述したエフェクトは、コンテンツにおける第1領域に視聴者の視線を誘導するための視聴覚的効果といえる。上述したエフェクトは、視聴者の視線が集まっている第1領域に関連するエフェクトであり、視聴者の視線の集中度に応じた視聴覚的効果ともいえる。
 決定部15は、第2領域の表示態様を変更することをエフェクトの付与態様として決定してもよい。この場合のエフェクトの構成は、第1領域の表示態様を変更する場合と同様である。すなわち、例えば、エフェクトの構成は、第2領域に図柄または文字列を付加することであってもよいし、第2領域に位置するコメントを他のコメントよりも大きく表示することなどであってもよい。エフェクトの構成は、第2領域を視認する視聴者の数または割合を示す情報を表示することであってもよい。
 決定部15は、第2領域に関連する音を発生させることをエフェクトの付与態様として決定してもよい。この場合のエフェクトの構成は、第1領域に関連する音を発生させる場合と同様である。すなわち、例えば、エフェクトの構成は、第2領域に位置する人もしくはキャラクターの音声を発生させること、第2領域に位置する物に関する音を発生させること、または第2領域に位置するコメントを読み上げる音声を発生させることなどであってもよい。
 上述したような第2領域に関するエフェクトが付与されることによって、視線が集まっていない第2領域に視線が集まる。すなわち、上述したエフェクトは、コンテンツにおける第2領域に視聴者の視線を誘導するための視聴覚的効果といえる。上述したエフェクトは、視聴者の視線が集まっていない第2領域に関連するエフェクトであり、視聴者の視線の集中度に応じた視聴覚的効果ともいえる。
 ステップS109では、エフェクト送信部16が、エフェクトの付与態様を示すエフェクトデータを視聴者端末20に送信する。このとき、エフェクト送信部16は、全ての視聴者端末20にエフェクトデータを送信しなくてもよく、エフェクトが付与される対象の視聴者端末20(対象端末)のみにエフェクトデータを送信してもよい。エフェクトデータを送信された視聴者端末20のエフェクト受信部24は、エフェクトデータを受信する。
 ステップS110では、視聴者端末20がコンテンツにエフェクトを付与する。エフェクトが視覚的効果である場合、表示制御部25がエフェクトデータを処理してエフェクトを画面に表示する。エフェクトが聴覚的効果である場合、視聴者端末20はエフェクトをスピーカから出力する。
 図5および図6を参照し、エフェクトの付与態様の一例について説明する。図5は、エフェクトが付与される前のコンテンツの一例を示す図である。図6は、エフェクトが付与されたコンテンツの一例を示す図である。
 図5および図6の例では、視聴者端末20は、二人の歌手がライブコンサートを行っている映像をコンテンツC1として表示している。コンテンツC1には、複数の視聴者から投稿されたコメントが含まれている。この例では、「手を振って!」、「がんばれ!」および「可愛い!」というコメントが表示されている。
 まず、特定部14が、視線位置の分布に基づいて、コンテンツC1における視聴者の視線が集まっている第1領域と、第1領域よりも視聴者の視線が集まっていない第2領域とを特定する。この例では、特定部14は、「手を振って!」というコメントが表示されている領域A1と、一方の歌手が表示されている領域A3とを第1領域として特定し、「がんばれ!」というコメントが表示されている領域A2と、他方の歌手が表示されている領域A4とを第2領域として特定する。
 その後、決定部15が、視線位置の分布に基づいて、エフェクトの付与態様を決定する。この例では、決定部15は、第2領域として特定された領域A2に含まれるコメントを他のコメントよりも大きく表示し、当該コメントに星のマークを付加すること、および第2領域として特定された領域A4に星およびハートのマークを付加することをエフェクトの付与態様として決定する。更に決定部15は、第2領域として特定された領域A4に位置する歌手の音声(例えば「こっちを見て!」などの音声)を発生させることをエフェクトの付与態様として決定する。エフェクト送信部16は、決定部15が決定したエフェクトの付与態様を示すエフェクトデータを視聴者端末20(対象端末)に送信する。
 エフェクト受信部24がエフェクトデータを受信し、視聴者端末20がそのエフェクトデータを処理してエフェクトを発生させる。この例では、表示制御部25が、領域A2に含まれるコメントを他のコメントよりも大きく表示し、領域A2および領域A4に星などのマークを付加する。視聴者端末20は、領域A4に位置する歌手の音声をスピーカから発生させる。
 図7を参照し、エフェクトの付与態様の他の例について説明する。図7は、エフェクトが付与されたコンテンツの他の例を示す図である。図7の例では、視聴者端末20は、「あなたはどの季節が一番好きですか?」という質問を構成する文字列と、「春」、「夏」、「秋」および「冬」の選択肢をそれぞれ構成する四つのアイコンとを含むアンケート映像をコンテンツC2として表示している。
 まず、特定部14が、視線位置の分布に基づいて、コンテンツC2における視聴者の視線が集まっている第1領域と、第1領域よりも視聴者の視線が集まっていない第2領域とを特定する。この例では、特定部14は、「夏」のアイコンを含む領域B2を第1領域として特定し、「春」、「秋」、「冬」のアイコンをそれぞれ含む領域B1,B3,B4を第2領域として特定する。
 その後、決定部15が、視線位置の分布に基づいて、エフェクトの付与態様を決定する。この例では、決定部15は、第1領域として特定された領域B2に含まれる「夏」のアイコンを振動するように表示すること、および各領域B1~B4に位置する視線の割合を対応するアイコンに表示することをエフェクトの付与態様として決定する。すなわち、この例では、視聴者に特に注目されている(視線が集まっている)アイコンが振動するように表示される。加えて、この例では、各アイコンにおける視聴者からの注目の程度(視線の割合)が数値として表示される。視線の割合は、視線位置の分布から算出される。この例では、領域B1に位置する視線の割合を示す「20%」との文字列が「春」のアイコンに表示され、領域B2に位置する視線の割合を示す「40%」との文字列が「夏」のアイコンに表示され、領域B3に位置する視線の割合を示す「10%」との文字列が「秋」のアイコンに表示され、領域B4に位置する視線の割合を示す「30%」との文字列が「冬」のアイコンに表示される。エフェクト送信部16は、決定部15が決定したエフェクトの付与態様を示すエフェクトデータを視聴者端末20(対象端末)に送信する。
 エフェクト受信部24がエフェクトデータを受信し、視聴者端末20がそのエフェクトデータを処理してエフェクトを発生させる。この例では、表示制御部25が、領域B2に含まれる「夏」のアイコンを振動するように表示し、視線の割合を示す文字列を対応するアイコンに表示する。
 [変形例]
 以上、本開示での様々な例を詳細に説明した。しかし、本開示は上記の例に限定されるものではない。本開示に関しては、その要旨を逸脱しない範囲で様々な変形が可能である。
 コンテンツ配信システム1は、視聴者端末20だけでなく、配信者端末30にもコンテンツデータを送信してもよい。配信者端末30は、コンテンツデータを処理して画面にコンテンツを表示する。この場合、コンテンツ配信システム1は、配信者端末30にもエフェクトデータを送信してもよい。配信者端末30は、エフェクトデータを処理して、コンテンツにエフェクトを付与する。すなわち、配信者端末30は、視聴者端末20(対象端末)としても機能し得る。
 エフェクトの付与態様は、上述した例に限定されない。決定部15は、視聴者の属性情報に基づいて、エフェクトの付与態様を決定してもよい。決定部15は、例えば、年齢または性別などの属性情報に基づいてエフェクトの付与態様を決定してもよい。具体的には、決定部15は、高齢の視聴者の視線が集まっている第1領域に含まれるコメントを他のコメントよりも大きく且つ目立つ色で表示することをエフェクトの付与態様として決定してもよい。このように決定部15が視聴者の属性情報に基づいてエフェクトの付与態様を決定する場合、算出部13は属性情報に基づいて視聴者を複数のグループに分類し、グループごとに視線位置の分布を算出してもよい。例えば、算出部13は、視聴者の年齢層または性別ごとに視線位置の分布を算出してもよい。
 算出部13は、視線位置の分布を算出する際、視聴者の属性情報に基づいて視線データの重みづけを行ってもよい。例えば、算出部13は、特定の年齢層または性別の視聴者の視線の数に所定の係数を掛けた数値を用いて視線位置の分布を算出してもよい。
 決定部15は、対象端末を使用する視聴者(以下、対象者という)の属性情報に基づいて、エフェクトの付与態様を決定してもよい。具体的には、対象者が選択した好みの人またはキャラクター、および当該人またはキャラクターに対応付けられたイメージカラーの情報が属性情報に含まれている場合、決定部15は、エフェクトとして発生させる音声を対象者が選択した人またはキャラクターの音声にしてもよいし、エフェクトとしてコンテンツに付加される図柄の色を当該人またはキャラクターに対応付けられたイメージカラーにしてもよい。
 視聴者が投稿した複数のコメントがコンテンツに含まれて表示される場合、決定部15は、複数のコメントのうち視線が多く集まっている所定数のコメントのみを表示し、他のコメントを表示しないことをエフェクトの付与態様として決定してもよい。このとき、決定部15は、視線位置の分布に基づいて、視線が多く集まっているコメントを特定する。
 決定部15は、ヒートマップなどのユーザによって視認可能な形式で視線位置の分布をユーザ端末の画面に表示することを、エフェクトの付与態様として決定してもよい。この場合、特定部14によって第1領域および第2領域の特定が行われることなく、決定部15はエフェクトの付与態様を決定してもよい。
 コンテンツ配信システム1がオンデマンド配信に用いられる場合、取得部12は、各視聴者によってコンテンツが視聴される度に視線データを取得し、取得した視線データをデータベースに蓄積する。算出部13は、蓄積された2以上の視線データを解析して視線位置の分布を算出してもよい。すなわち、取得部12が各視聴者端末20から視線データを取得するタイミングは必ずしも同時でなくてもよく、異なっていてもよい。
 コンテンツ配信システム1がオンデマンド配信に用いられる場合、コンテンツ配信システム1は、ある視聴者から投稿されたコメントの履歴を示すデータをデータベースに蓄積しておき、他の視聴者がコンテンツを視聴する際に、当該データに基づいてコメントをコンテンツに含めて表示させてもよい。
 各視聴者端末20にコンテンツが表示されるタイミングに差が生じている場合、視聴者端末20は、視線データと共に、当該視線データが取得された時間を示すデータ(例えばコンテンツの進行度を示すデータ)をサーバ10に送信してもよい。各視聴者端末20にコンテンツが表示されるタイミングに差が生じている場合とは、例えば、コンテンツ配信システム1がオンデマンド配信に用いられる場合、またはコンテンツが表示されるタイミングに遅延(ラグ)が生じている場合などである。サーバ10の算出部13は、視線データと当該視線データが取得された時間を示すデータとに基づいて、コンテンツに含まれる場面ごとに視線位置の分布を算出することができる。各視聴者端末20にコンテンツが表示されるタイミングに差が生じていない場合、視聴者端末20は、視線データが取得された時間を示すデータをサーバ10に送信しなくてもよい。各視聴者端末20にコンテンツが表示されるタイミングに差が生じていない場合とは、例えば、コンテンツ配信システム1がリアルタイム配信に用いられる場合、またはコンテンツが表示されるタイミングに遅延(ラグ)が生じていない場合などである。
 エフェクトの付与処理は、サーバ10によって行われてもよい。例えば、サーバ10は、決定部15が決定したエフェクトの付与態様に基づいてコンテンツの構成を変更し(一部が強調表示されたコンテンツに変更するなど)、変更後のコンテンツを示すコンテンツデータを視聴者端末20に送信してもよい。この場合、視聴者端末20の表示制御部25がコンテンツデータを処理してコンテンツを表示することで、エフェクトが付与されたコンテンツが画面に表示される。
 本開示において、「少なくとも一つのプロセッサが、第1の処理を実行し、第2の処理を実行し、…第nの処理を実行する。」との表現、またはこれに対応する表現は、第1の処理から第nの処理までのn個の処理の実行主体(すなわちプロセッサ)が途中で変わる場合を含む概念を示す。すなわち、この表現は、n個の処理のすべてが同じプロセッサで実行される場合と、n個の処理においてプロセッサが任意の方針で変わる場合との双方を含む概念を示す。
 少なくとも一つのプロセッサにより実行される方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップの一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正または削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。
 二つの数値の大小関係の比較では、「以上」および「よりも大きい」という二つの基準のどちらが用いられてもよく、「以下」および「未満」という二つの基準のうちのどちらが用いられてもよい。
 本明細書で述べた各機能部の任意の一部または全部がプログラムによって実現されてもよい。本明細書で言及したプログラムは、コンピュータ読み取り可能な記録媒体に非一時的に記録して頒布されてもよいし、インターネットなどの通信回線(無線通信も含む)を介して頒布されてもよいし、任意の端末にインストールされた状態で頒布されてもよい。
 上記の記載に基づいて、当業者であれば、本開示についての追加の効果または種々の変形例を想到できるかもしれないが、本開示の態様は、上述した個々の実施形態に限定されるものではない。特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨とを逸脱しない範囲で、種々の追加、変更および部分的削除が可能である。
 例えば、本明細書において1台の装置(あるいは部材。以下同じ)として説明される構成(これは、図面において1台の装置として描かれている構成を含む)が、複数の装置によって実現されもよい。あるいは、本明細書において複数の装置として説明される構成(これは、図面において複数の装置として描かれている構成を含む)が1台の装置によって実現されてもよい。あるいは、或る装置(例えばサーバ)に含まれる手段または機能の一部または全部が、他の装置(例えばユーザ端末)に含まれてもよい。
 本明細書に記載された事項のすべてが必須の要件というわけではない。例えば、本明細書に記載されているが特許請求の範囲に記載されていない事項は、任意の付加的事項ということができる。
 本出願人は本明細書の「先行技術文献」欄に記載された公知技術を知っているにすぎない。本開示は必ずしもその公知技術における課題を解決することを目的とするものではないことにも留意されたい。本開示において解決しようとする課題は、本明細書の全体を考慮して認定されるべきものである。例えば、本明細書において、特定の構成によって所定の効果を奏する旨の記載がある場合、当該所定の効果に対応する課題が解決されるということもできる。しかし、その効果に関する記載は必ずしも、そのような特定の構成を必須の要件とする趣旨ではない。
 [付記]
 上記の様々な例から把握されるとおり、本開示は以下に示す態様を含む。
(付記1)
 少なくとも一つのプロセッサを備え、
 前記少なくとも一つのプロセッサが、
  コンテンツを複数のユーザ端末上に表示させ、
  前記コンテンツを視認するユーザの視線位置を示す視線データを、前記複数のユーザ端末のうちの2以上のユーザ端末から取得し、
  取得した2以上の前記視線データを解析して、前記コンテンツにおける2以上のユーザの視線位置の分布を算出し、
  算出した前記分布に基づいて、前記複数のユーザ端末のうちの少なくとも一つの対象端末に表示されている前記コンテンツに付与されるエフェクトの付与態様を決定する、コンテンツ配信システム。
(付記2)
 前記少なくとも一つのプロセッサが、
  前記分布に基づいて、前記コンテンツにおける前記2以上のユーザの視線が集まる第1領域と、前記第1領域よりも前記2以上のユーザの視線が集まらない第2領域とを特定し、
  前記少なくとも一つの対象端末に表示されている前記コンテンツの前記第1領域の表示態様を変更することを、前記エフェクトの付与態様として決定する、付記1に記載のコンテンツ配信システム。
(付記3)
 前記少なくとも一つのプロセッサが、
  前記分布に基づいて、前記コンテンツにおける前記2以上のユーザの視線が集まる第1領域と、前記第1領域よりも前記2以上のユーザの視線が集まらない第2領域とを特定し、
  前記少なくとも一つの対象端末に表示されている前記コンテンツの前記第2領域の表示態様を変更することを、前記エフェクトの付与態様として決定する、付記1に記載のコンテンツ配信システム。
(付記4)
 前記複数のユーザ端末は、前記コンテンツを配信する配信者端末と、複数の視聴者端末とを含み、
 前記コンテンツは、前記配信者端末から前記複数の視聴者端末にリアルタイム配信されるコンテンツである、付記1~3のいずれか一つの付記に記載のコンテンツ配信システム。
(付記5)
 前記複数のユーザ端末は、複数の視聴者端末を含み、
 前記コンテンツは、前記複数の視聴者端末にオンデマンド配信されるコンテンツである、付記1~3のいずれか一つの付記に記載のコンテンツ配信システム。
(付記6)
 前記少なくとも一つのプロセッサが、前記複数のユーザの属性情報に基づいて、前記エフェクトの付与態様を決定する、付記1~5のいずれか一つの付記に記載のコンテンツ配信システム。
(付記7)
 少なくとも一つのプロセッサを備えるコンテンツ配信システムによって実行されるコンテンツ配信方法であって、
 コンテンツを複数のユーザ端末上に表示させるステップと、
 前記コンテンツを視認するユーザの視線位置を示す視線データを、前記複数のユーザ端末のうちの2以上のユーザ端末から取得するステップと、
 取得した2以上の前記視線データを解析して、前記コンテンツにおける2以上のユーザの視線位置の分布を算出するステップと、
 算出した前記分布に基づいて、前記複数のユーザ端末のうちの少なくとも一つの対象端末に表示されている前記コンテンツに付与されるエフェクトの付与態様を決定するステップと
を含むコンテンツ配信方法。
(付記8)
 コンテンツを複数のユーザ端末上に表示させるステップと、
 前記コンテンツを視認するユーザの視線位置を示す視線データを、前記複数のユーザ端末のうちの2以上のユーザ端末から取得するステップと、
 取得した2以上の前記視線データを解析して、前記コンテンツにおける2以上のユーザの視線位置の分布を算出するステップと、
 算出した前記分布に基づいて、前記複数のユーザ端末のうちの少なくとも一つの対象端末に表示されている前記コンテンツに付与されるエフェクトの付与態様を決定するステップと
をコンピュータに実行させるコンテンツ配信プログラム。
 付記1,7,8によれば、2以上の視線データが解析されて、コンテンツにおける2以上のユーザの視線位置の分布が得られ、この分布に基づいてコンテンツに付与されるエフェクトの付与態様が決定される。この仕組みによって、複数の視聴者のコンテンツに対する反応を踏まえてエフェクトの付与態様が決定されるので、コンテンツの視聴者に対する訴求力を高めることができる。一例では、この仕組みによって、視聴者の反応がコンテンツに反映され、インタラクティブなコンテンツが提供されるので、視聴者と配信者との間、および視聴者間でのコミュニケーションが促進され得る。
 付記2によれば、ユーザの視線が集まる第1領域の表示態様が変更される。これにより、例えば、第1領域に視聴者の視線を誘導させるためのエフェクトを付与することが可能となり、第1領域に視線を一層集めることができる。
 付記3によれば、第1領域よりもユーザの視線が集まっていない第2領域の表示態様が変更される。これにより、例えば、第2領域に視聴者の視線を誘導させるためのエフェクトを付与することが可能となり、第1領域に遍在している視線を分散させて、第2領域にも視線を集めることができる。
 付記4によれば、リアルタイム配信されるコンテンツにエフェクトが付与される。これにより、リアルタイム配信されるコンテンツの視聴者に対する訴求力を高めることができる。
 付記5によれば、オンデマンド配信されるコンテンツにエフェクトが付与される。これにより、オンデマンド配信されるコンテンツの視聴者に対する訴求力を高めることができる。
 付記6によれば、視聴者の属性情報に基づいてエフェクトの付与態様が決定されるので、コンテンツの視聴者に対する訴求力を一層高めることができる。
 1…コンテンツ配信システム、10…サーバ、11…コンテンツ転送部、12…取得部、13…算出部、14…特定部、15…決定部、16…エフェクト送信部、20…視聴者端末、21…コンテンツ受信部、22…視線特定部、23…視線データ送信部、24…エフェクト受信部、25…表示制御部、30…配信者端末、31…コンテンツ送信部、40…ユーザデータベース、A1,A2,A3,A4,B1,B1,B2,B3,B4…領域、C1,C2…コンテンツ、P1…サーバプログラム、P2…クライアントプログラム。

 

Claims (8)

  1.  少なくとも一つのプロセッサを備え、
     前記少なくとも一つのプロセッサが、
      コンテンツを複数のユーザ端末上に表示させ、
      前記コンテンツを視認するユーザの視線位置を示す視線データを、前記複数のユーザ端末のうちの2以上のユーザ端末から取得し、
      取得した2以上の前記視線データを解析して、前記コンテンツにおける2以上のユーザの視線位置の分布を算出し、
      算出した前記分布に基づいて、前記複数のユーザ端末のうちの少なくとも一つの対象端末に表示されている前記コンテンツに付与されるエフェクトの付与態様を決定する、コンテンツ配信システム。
  2.  前記少なくとも一つのプロセッサが、
      前記分布に基づいて、前記コンテンツにおける前記2以上のユーザの視線が集まる第1領域と、前記第1領域よりも前記2以上のユーザの視線が集まらない第2領域とを特定し、
      前記少なくとも一つの対象端末に表示されている前記コンテンツの前記第1領域の表示態様を変更することを、前記エフェクトの付与態様として決定する、請求項1に記載のコンテンツ配信システム。
  3.  前記少なくとも一つのプロセッサが、
      前記分布に基づいて、前記コンテンツにおける前記2以上のユーザの視線が集まる第1領域と、前記第1領域よりも前記2以上のユーザの視線が集まらない第2領域とを特定し、
      前記少なくとも一つの対象端末に表示されている前記コンテンツの前記第2領域の表示態様を変更することを、前記エフェクトの付与態様として決定する、請求項1に記載のコンテンツ配信システム。
  4.  前記複数のユーザ端末は、前記コンテンツを配信する配信者端末と、複数の視聴者端末とを含み、
     前記コンテンツは、前記配信者端末から前記複数の視聴者端末にリアルタイム配信されるコンテンツである、請求項1~3のいずれか一項に記載のコンテンツ配信システム。
  5.  前記複数のユーザ端末は、複数の視聴者端末を含み、
     前記コンテンツは、前記複数の視聴者端末にオンデマンド配信されるコンテンツである、請求項1~3のいずれか一項に記載のコンテンツ配信システム。
  6.  前記少なくとも一つのプロセッサが、前記複数のユーザの属性情報に基づいて、前記エフェクトの付与態様を決定する、請求項1~3のいずれか一項に記載のコンテンツ配信システム。
  7.  少なくとも一つのプロセッサを備えるコンテンツ配信システムによって実行されるコンテンツ配信方法であって、
     コンテンツを複数のユーザ端末上に表示させるステップと、
     前記コンテンツを視認するユーザの視線位置を示す視線データを、前記複数のユーザ端末のうちの2以上のユーザ端末から取得するステップと、
     取得した2以上の前記視線データを解析して、前記コンテンツにおける2以上のユーザの視線位置の分布を算出するステップと、
     算出した前記分布に基づいて、前記複数のユーザ端末のうちの少なくとも一つの対象端末に表示されている前記コンテンツに付与されるエフェクトの付与態様を決定するステップと
    を含むコンテンツ配信方法。
  8.  コンテンツを複数のユーザ端末上に表示させるステップと、
     前記コンテンツを視認するユーザの視線位置を示す視線データを、前記複数のユーザ端末のうちの2以上のユーザ端末から取得するステップと、
     取得した2以上の前記視線データを解析して、前記コンテンツにおける2以上のユーザの視線位置の分布を算出するステップと、
     算出した前記分布に基づいて、前記複数のユーザ端末のうちの少なくとも一つの対象端末に表示されている前記コンテンツに付与されるエフェクトの付与態様を決定するステップと
    をコンピュータに実行させるコンテンツ配信プログラム。

     
PCT/JP2023/025621 2022-07-29 2023-07-11 コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム WO2024024500A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-122059 2022-07-29
JP2022122059A JP7171964B1 (ja) 2022-07-29 2022-07-29 コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム

Publications (1)

Publication Number Publication Date
WO2024024500A1 true WO2024024500A1 (ja) 2024-02-01

Family

ID=84046004

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/025621 WO2024024500A1 (ja) 2022-07-29 2023-07-11 コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム

Country Status (2)

Country Link
JP (2) JP7171964B1 (ja)
WO (1) WO2024024500A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046730A (ja) * 2014-08-25 2016-04-04 学校法人早稲田大学 視聴者注目情報提供システム、時空間マーカ設定装置及びそのプログラム、並びに、情報提供装置及びそのプログラム
JP2017028402A (ja) * 2015-07-17 2017-02-02 日本放送協会 映像評価装置、及びプログラム
JP2017216667A (ja) * 2016-05-31 2017-12-07 フォーブ インコーポレーテッド 画像提供システム
WO2018079166A1 (ja) * 2016-10-26 2018-05-03 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2020052986A (ja) * 2018-09-26 2020-04-02 株式会社ドワンゴ サーバシステム、アプリケーションプログラム配信サーバ、閲覧用端末、コンテンツ閲覧方法、アプリケーションプログラム、配信方法、アプリケーションプログラム配信方法
WO2020184021A1 (ja) * 2019-03-12 2020-09-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2021180474A (ja) * 2020-05-15 2021-11-18 株式会社ドワンゴ 動画配信装置、動画配信方法、および、動画配信プログラム
JP2022097475A (ja) * 2020-12-18 2022-06-30 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046730A (ja) * 2014-08-25 2016-04-04 学校法人早稲田大学 視聴者注目情報提供システム、時空間マーカ設定装置及びそのプログラム、並びに、情報提供装置及びそのプログラム
JP2017028402A (ja) * 2015-07-17 2017-02-02 日本放送協会 映像評価装置、及びプログラム
JP2017216667A (ja) * 2016-05-31 2017-12-07 フォーブ インコーポレーテッド 画像提供システム
WO2018079166A1 (ja) * 2016-10-26 2018-05-03 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2020052986A (ja) * 2018-09-26 2020-04-02 株式会社ドワンゴ サーバシステム、アプリケーションプログラム配信サーバ、閲覧用端末、コンテンツ閲覧方法、アプリケーションプログラム、配信方法、アプリケーションプログラム配信方法
WO2020184021A1 (ja) * 2019-03-12 2020-09-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2021180474A (ja) * 2020-05-15 2021-11-18 株式会社ドワンゴ 動画配信装置、動画配信方法、および、動画配信プログラム
JP2022097475A (ja) * 2020-12-18 2022-06-30 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Also Published As

Publication number Publication date
JP2024018622A (ja) 2024-02-08
JP7171964B1 (ja) 2022-11-15
JP2024018844A (ja) 2024-02-08

Similar Documents

Publication Publication Date Title
US10699482B2 (en) Real-time immersive mediated reality experiences
US9015245B1 (en) Experience sharing with commenting
US10430559B2 (en) Digital rights management in virtual and augmented reality
CN112672175A (zh) 直播交互方法、装置、电子设备和存储介质
US20140129343A1 (en) Dynamic targeted advertising avatar
US10897637B1 (en) Synchronize and present multiple live content streams
US10037077B2 (en) Systems and methods of generating augmented reality experiences
US10372222B1 (en) System and method for filtering content based on gestures
US20140325540A1 (en) Media synchronized advertising overlay
US9372601B2 (en) Information processing apparatus, information processing method, and program
WO2022105282A1 (zh) 一种游戏显示方法及装置
WO2014179515A2 (en) Management of user media impressions
WO2018135334A1 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
WO2021065928A1 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
JP2022544511A (ja) 表示コンテンツの有効性評価のためにデータを収集するシステム及び方法
JP7202935B2 (ja) 注目度算出装置、注目度算出方法、および注目度算出プログラム
JP7130771B2 (ja) 注目情報の処理方法および装置、記憶媒体ならびに電子機器
US11843820B2 (en) Group party view and post viewing digital content creation
US11095945B2 (en) Information processing device, method, and program
WO2024024500A1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
US11546669B2 (en) Systems and methods for stream viewing with experts
JP7291106B2 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
JP7367258B1 (ja) 情報処理システム、情報処理方法、情報処理プログラム、および配信者端末
JP7469536B1 (ja) コンテンツ管理システム、コンテンツ管理方法、コンテンツ管理プログラム、およびユーザ端末
WO2022180973A1 (ja) コメントアート管理システム、コメントアート管理方法、コメントアート管理プログラム、およびコンピュータ読取可能な記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23846231

Country of ref document: EP

Kind code of ref document: A1