JP2024018622A - コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム - Google Patents

コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム Download PDF

Info

Publication number
JP2024018622A
JP2024018622A JP2022122059A JP2022122059A JP2024018622A JP 2024018622 A JP2024018622 A JP 2024018622A JP 2022122059 A JP2022122059 A JP 2022122059A JP 2022122059 A JP2022122059 A JP 2022122059A JP 2024018622 A JP2024018622 A JP 2024018622A
Authority
JP
Japan
Prior art keywords
content
line
sight
effect
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022122059A
Other languages
English (en)
Other versions
JP7171964B1 (ja
Inventor
昭彦 戀塚
尚 小嶋
優理 小田桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2022122059A priority Critical patent/JP7171964B1/ja
Priority to JP2022176404A priority patent/JP2024018844A/ja
Application granted granted Critical
Publication of JP7171964B1 publication Critical patent/JP7171964B1/ja
Priority to PCT/JP2023/025621 priority patent/WO2024024500A1/ja
Publication of JP2024018622A publication Critical patent/JP2024018622A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data

Abstract

【課題】コンテンツの視聴者に対する訴求力を高めること。【解決手段】一実施形態に係るコンテンツ配信システムは、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、コンテンツを複数のユーザ端末上に表示させ、コンテンツを視認するユーザの視線位置を示す視線データを、複数のユーザ端末のうちの2以上のユーザ端末から取得し、取得した2以上の視線データを解析して、コンテンツにおける2以上のユーザの視線位置の分布を算出し、算出した分布に基づいて、複数のユーザ端末のうちの少なくとも一つの対象端末に表示されているコンテンツに付与されるエフェクトの付与態様を決定する。【選択図】図4

Description

本開示の一側面は、コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラムに関する。
視聴者の視線に関する情報を用いてコンテンツ配信を行う技術が知られている。例えば、特許文献1に記載された動画配信システムは、動画を生成するための素材データに基づいて動画を送出し、動画の再生中における動画の視聴者から視線に関するイベント情報を取得し、イベント情報に応じて、素材データに対する操作を行う。特許文献2および3にも、視聴者の視線に関する情報を用いてコンテンツ配信を行う技術が記載されている。
特開2020-120304号公報 特開2016-126773号公報 特開2020-202575号公報
コンテンツの視聴者に対する訴求力を高めることができる仕組みが望まれている。
本開示の一側面に係るコンテンツ配信システムは、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、コンテンツを複数のユーザ端末上に表示させ、コンテンツを視認するユーザの視線位置を示す視線データを、複数のユーザ端末のうちの2以上のユーザ端末から取得し、取得した2以上の視線データを解析して、コンテンツにおける2以上のユーザの視線位置の分布を算出し、算出した分布に基づいて、複数のユーザ端末のうちの少なくとも一つの対象端末に表示されているコンテンツに付与されるエフェクトの付与態様を決定する。
このような側面においては、2以上の視線データが解析されて、コンテンツにおける2以上のユーザの視線位置の分布が得られ、この分布に基づいてコンテンツに付与されるエフェクトの付与態様が決定される。この仕組みによって、複数の視聴者のコンテンツに対する反応を踏まえてエフェクトの付与態様が決定されるので、コンテンツの視聴者に対する訴求力を高めることができる。
本開示の一側面によれば、コンテンツの視聴者に対する訴求力を高めることができる。
実施形態に係るコンテンツ配信システムの適用の一例を示す図である。 実施形態に係るコンテンツ配信システムに関連するハードウェア構成の一例を示す図である。 実施形態に係るコンテンツ配信システムに関連する機能構成の一例を示す図である。 コンテンツの配信処理の一例を示すシーケンス図である。 エフェクトが付与される前のコンテンツの一例を示す図である。 エフェクトが付与されたコンテンツの一例を示す図である。 エフェクトが付与されたコンテンツの他の例を示す図である。
以下、添付図面を参照しながら本開示での実施形態を詳細に説明する。図面の説明において同一または同等の要素には同一の符号を付し、重複する説明を省略する。
[システムの概要]
実施形態に係るコンテンツ配信システムは、ユーザに向けてコンテンツを配信するコンピュータシステムである。コンテンツとは、コンピュータまたはコンピュータシステムによって提供され、人が認識可能な情報のことをいう。コンテンツを示す電子データのことをコンテンツデータという。コンテンツの表現形式は限定されず、コンテンツは画像(例えば、写真、映像など)によって表現されてもよい。コンテンツは様々な態様の情報伝達またはコミュニケーションのために用いることができ、例えば、ニュース、教育、医療、ゲーム、チャット、商取引、講演、セミナー、研修、コンサート、アンケートなどの様々な場面または目的で利用され得る。コンテンツの配信とは、ユーザにコンテンツを提供するために実行される処理のことをいい、例えば、通信ネットワークを経由して情報をユーザに向けて送信する処理のことをいう。
コンテンツ配信システムは、コンテンツデータをユーザ端末に送信することで、コンテンツをユーザに提供する。一例では、そのコンテンツは、配信者から提供される。配信者とは、コンテンツ配信システムによって視聴者に情報を提供しようとする人であり、コンテンツの発信者である。視聴者は、コンテンツ配信システムによって情報を得ようとする人であり、コンテンツの利用者である。コンテンツ配信システムは、配信者端末から提供されたコンテンツデータを視聴者端末に送信する。視聴者端末は、コンテンツデータを処理して画面上にコンテンツを表示する。本開示において、配信者と視聴者とをユーザと総称して説明し、配信者端末と視聴者端末とをユーザ端末と総称して説明を行う場合がある。
コンテンツの配信手法は限定されない。例えば、コンテンツ配信システムは、リアルタイム配信を行ってもよい。この場合、例えば、配信者端末は、撮影した映像を処理してコンテンツデータを生成し、そのコンテンツデータをコンテンツ配信システムに向けてリアルタイムに送信する。コンテンツ配信システムは、受信したコンテンツデータを視聴者端末に向けてリアルタイムに送信する。これはインターネット生放送の一態様である。コンテンツデータは、コンテンツ配信システムにおいて生成されてもよい。すなわち、コンテンツ配信システムは、配信者端末から提供されるリアルタイムの映像を処理することでコンテンツデータを生成し、そのコンテンツデータを視聴者端末に向けてリアルタイムに送信してもよい。コンテンツ配信システムは、リアルタイム配信後の所与の期間においてコンテンツを視聴することが可能なタイムシフトのために用いられてもよい。
コンテンツ配信システムは、視聴者が任意のタイミングでコンテンツを視聴することが可能なオンデマンド配信を行ってもよい。この場合、例えば、コンテンツ配信システムは、過去に撮影された映像を処理することで生成されたコンテンツデータを、データベースなどの記憶装置に格納してもよい。コンテンツ配信システムは、視聴者の要求に応じて、格納されたコンテンツデータを視聴者端末に向けて送信してもよい。
コンテンツ配信システムは、コンテンツを視認するユーザの視線位置を示す視線データを、2以上のユーザ端末から取得する。ユーザの視線位置は、ユーザ端末の画面においてユーザが見ている位置である。視線データは、アイトラッキングシステムにより取得される。アイトラッキングシステムは、ユーザ端末に搭載されていてもよいし、ユーザ端末とは異なる他のコンピュータに搭載されていてもよい。あるいは、トラッキングシステムは、ユーザ端末と他のコンピュータとが協働して実現されてもよい。
コンテンツ配信システムは、コンテンツにおける2以上のユーザの視線位置の分布を算出する。視線位置の分布は、コンテンツにおいて個々のユーザの視線がどこに位置するかを示す情報であり、例えば、ユーザの視線の集中度を示す。この分布によって、コンテンツにおける各領域がどの程度の視聴者に注目されているかを表すことができる。配信システムは、2以上の視線データを解析して、2以上のユーザの視線位置の分布を算出する。視線位置の分布を算出するために使用される視線データの数は2以上であればよく、100以上または1000以上の視線データが使用されてもよい。コンテンツ配信システムは、視線位置の分布に基づいて、コンテンツにおいてユーザの視線が集まる第1領域、および第1領域よりもユーザの視線が集まらない第2領域を特定し得る。第1領域は、ユーザの視線(視線位置)を相対的に多く含む領域であるとも、多くのユーザに見られている領域であるともいえる。第2領域は、第1領域よりもユーザの視線(視線位置)が少ない領域であるとも、ユーザにあまり見られていない領域であるともいえる。
コンテンツ配信システムは、視線位置の分布に基づいて、コンテンツに付与されるエフェクトの付与態様を決定する。エフェクトとは、ユーザ端末において発生する視聴覚的効果である。例えば、エフェクトは、ユーザ端末に表示されたコンテンツの特定の領域にユーザの視線を誘導するための視聴覚的効果、または、ユーザの視線の集中度に応じた視聴覚的効果を含む。エフェクトの付与態様とは、ユーザ端末においてエフェクトを発生させるために必要な情報であり、例えば、エフェクトの構成、コンテンツにおけるエフェクトの表示位置、エフェクトの音量またはエフェクトの出力タイミングなどを含む。エフェクトの構成は、エフェクトの視覚的な構成(表示の構成)、および聴覚的な構成(音の構成)を含む。エフェクトの付与態様を示す電子データのことをエフェクトデータという。エフェクトが付与される対象のユーザ端末を対象端末という。すなわち、コンテンツ配信システムは、対象端末に表示されているコンテンツに付与されるエフェクトの付与態様を決定する。
[システムの構成]
図1は、実施形態に係るコンテンツ配信システム1の適用の一例を示す図である。本実施形態では、コンテンツ配信システム1はサーバ10を備える。サーバ10は、コンテンツデータを配信するコンピュータである。サーバ10は、通信ネットワークNを介して複数の視聴者端末20および配信者端末30と接続する。視聴者端末20の数は、2以上であればよく限定されない。配信者端末30の数は、1以上であればよく限定されない。サーバ10は、通信ネットワークNを介してユーザデータベース40とも接続する。通信ネットワークNの構成は限定されない。例えば、通信ネットワークNはインターネットを含んで構成されていてもよいし、イントラネットを含んで構成されていてもよい。
視聴者端末20は、視聴者によって用いられるコンピュータである。一例では、視聴者端末20は、コンテンツ配信システム1にアクセスしてコンテンツデータを受信および表示する機能を有する。視聴者端末20の種類および構成は限定されない。例えば、視聴者端末20は高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラスなど)、ラップトップ型パーソナルコンピュータ、携帯電話機などの携帯端末でもよい。あるいは、視聴者端末20はデスクトップ型パーソナルコンピュータなどの据置型端末でもよい。
配信者端末30は、配信者によって用いられるコンピュータである。一例では、配信者端末30は、映像を撮影する機能と、コンテンツ配信システム1にアクセスしてその映像を示す電子データ(映像データ)を送信する機能とを有する。配信者端末30の種類および構成は限定されない。例えば、配信者端末30は映像を撮影、収録、および送信する機能を有する撮影システムであってもよい。あるいは、配信者端末30は高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラスなど)、ラップトップ型パーソナルコンピュータ、携帯電話機などの携帯端末でもよい。あるいは、配信者端末30はデスクトップ型パーソナルコンピュータなどの据置型端末でもよい。
視聴者は、視聴者端末20を操作してコンテンツ配信システム1にログインし、これにより視聴者はコンテンツを視聴することができる。配信者は、配信者端末30を操作してコンテンツ配信システム1にログインし、これによりコンテンツを視聴者に提供することができる。本実施形態では、コンテンツ配信システム1の視聴者および配信者が既にログインしていることを前提とする。視聴者によるコンテンツ配信システム1へのログインは必須ではない。すなわち、コンテンツ配信システム1は、ログインしていない一般の視聴者の視聴者端末20にコンテンツデータを送信することができる。この場合、ログインしていない一般の視聴者もコンテンツを視聴することができる。
ユーザデータベース40は、コンテンツ配信システム1によって用いられるデータを記憶する非一時的な記憶装置である。ユーザデータベース40は、コンテンツ配信システム1を利用するユーザ(例えば、視聴者)の属性情報を記憶する。属性情報は、ユーザに関する各種の情報であり、例えば、ユーザの識別子(ユーザID)、年齢、性別、ユーザが視聴したコンテンツの識別子(コンテンツID)、コンテンツの視聴回数を含んでいてもよい。属性情報は、ユーザが任意に選択または設定した情報が含まれていてもよい。例えば、属性情報は、ユーザが選択した好みの人またはキャラクター、当該人またはキャラクターに対応付けられたイメージカラーに関する情報などを含んでいてもよい。属性情報は、ユーザデータベース40以外の領域に記憶されていてもよい。例えば、属性情報は、視聴者端末20におけるブラウザのクッキー(Cookie)領域に記憶されていてもよい。属性情報は、ユーザがコンテンツ配信システム1にログインしているか否かを示す情報を含んでいてもよい。
ユーザデータベース40は、単一のデータベースとして構築されてもよいし、複数のデータベースの集合であってもよい。ユーザデータベース40の設置場所は限定されない。例えば、ユーザデータベース40は、コンテンツ配信システム1とは別のコンピュータシステム内に設けられてもよい。
図2は、コンテンツ配信システム1に関連するハードウェア構成の一例を示す図である。図2は、サーバ10として機能するサーバコンピュータ100と、視聴者端末20または配信者端末30として機能する端末コンピュータ200とを示す。
一例として、サーバコンピュータ100はハードウェア構成要素として、プロセッサ101、主記憶部102、補助記憶部103、および通信部104を備える。プロセッサ101は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置であり、例えばCPU(Central Processing Unit)またはGPU(Graphics Processing Unit)である。主記憶部102は、実行されようとするプログラム、演算結果などを記憶する装置であり、例えばROM(Read Only Memory)またはRAM(Random Access Memory)により構成される。補助記憶部103は、一般に主記憶部102よりも大量のデータを記憶することが可能な装置であり、例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部103は、サーバコンピュータ100をサーバ10として機能させるためのサーバプログラムP1と各種のデータとを記憶する。通信部104は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置であり、例えばネットワークカードまたは無線通信モジュールにより構成される。
本実施形態では、コンテンツ配信プログラムはサーバプログラムP1として実装される。サーバ10の各機能要素は、プロセッサ101または主記憶部102の上にサーバプログラムP1を読み込ませてプロセッサ101にそのプログラムを実行させることで実現される。サーバプログラムP1は、サーバ10の各機能要素を実現するためのコードを含む。プロセッサ101はサーバプログラムP1に従って通信部104を動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを実行する。
サーバ10は、一つまたは複数のコンピュータにより構成され得る。複数のコンピュータが用いられる場合には、通信ネットワークNを介してこれらのコンピュータが互いに接続されることで、論理的に一つのサーバ10が構成される。
一例として、端末コンピュータ200はハードウェア構成要素として、プロセッサ201、主記憶部202、補助記憶部203、通信部204、入力インタフェース205、出力インタフェース206、および撮像部207を備える。プロセッサ201は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置であり、例えばCPUまたはGPUである。主記憶部202は、実行されようとするプログラム、演算結果などを記憶する装置であり、例えばROMまたはRAMにより構成される。補助記憶部203は、一般に主記憶部202よりも大量のデータを記憶することが可能な装置であり、例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部203は、端末コンピュータ200を視聴者端末20または配信者端末30として機能させるためのクライアントプログラムP2と各種のデータとを記憶する。通信部204は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置であり、例えばネットワークカードまたは無線通信モジュールにより構成される。入力インタフェース205は、ユーザの操作または動作に基づいてデータを受け付ける装置であり、例えば、キーボード、操作ボタン、ポインティングデバイス、タッチパネル、マイクロフォン、センサ、およびカメラのうちの少なくとも一つによって構成される。出力インタフェース206は、端末コンピュータ200で処理されたデータを出力する装置であり、例えば、モニタ、タッチパネル、HMDなどの表示装置を含んで構成される。撮像部207は、現実世界を写した画像(映像または写真)を撮影する装置であり、例えばカメラである。撮像部207は入力インタフェース205としても機能し得る。
視聴者端末20または配信者端末30の各機能要素は、対応するクライアントプログラムP2をプロセッサ201または主記憶部202に読み込ませてプロセッサ201にそのプログラムを実行させることで実現される。クライアントプログラムP2は、視聴者端末20または配信者端末30の各機能要素を実現するためのコードを含む。プロセッサ201はクライアントプログラムP2に従って通信部204、入力インタフェース205、出力インタフェース206、または撮像部207を動作させ、主記憶部202または補助記憶部203におけるデータの読み出しおよび書き込みを行う。
サーバプログラムP1およびクライアントプログラムP2の少なくとも一つは、CD-ROM、DVD-ROM、半導体メモリなどの有形の記録媒体に非一時的に記録された上で提供されてもよい。あるいは、これらのプログラムの少なくとも一つは、搬送波に重畳されたデータ信号として通信ネットワークNを介して提供されてもよい。これらのプログラムは別々に提供されてもよいし、一緒に提供されてもよい。
図3は、コンテンツ配信システム1に関連する機能構成の一例を示す図である。サーバ10は、機能要素としてコンテンツ転送部11、取得部12、算出部13、特定部14、決定部15およびエフェクト送信部16を備えている。コンテンツ転送部11は、配信者端末30から送信されたコンテンツデータを受信し、そのコンテンツデータを視聴者端末20に送信する機能要素である。取得部12は、視聴者端末20から視線データを取得する機能要素である。算出部13は、取得部12により取得された視線データを解析して、視線位置の分布を算出する機能要素である。特定部14は、算出部13が算出した視線位置の分布に基づいて、コンテンツにおけるユーザの視線が集まる第1領域と、第1領域よりもユーザの視線が集まらない第2領域とを特定する機能要素である。決定部15は、視線位置の分布に基づいて、エフェクトの付与態様を決定する機能要素である。エフェクト送信部16は、エフェクトデータを視聴者端末20に送信する機能要素である。
視聴者端末20は、機能要素としてコンテンツ受信部21、視線特定部22、視線データ送信部23、エフェクト受信部24および表示制御部25を備えている。コンテンツ受信部21は、サーバ10からコンテンツデータを受信する機能要素である。視線特定部22は、視聴者の眼の動きに基づいて、視線位置を特定する機能要素である。本実施形態では、視線特定部22はアイトラッキングシステムを構成する。視線データ送信部23は、視線位置を示す視線データをサーバ10に送信する機能要素である。エフェクト受信部24は、エフェクトデータをサーバ10から受信する機能要素である。表示制御部25は、視聴者端末20の画面の表示を制御する機能要素である。
配信者端末30は、機能要素としてコンテンツ送信部31を備えている。コンテンツ送信部31は、サーバ10にコンテンツデータを送信する機能要素である。
[システムの動作]
図4を参照して、コンテンツ配信システム1の動作を説明するとともに、本実施形態に係るコンテンツ配信方法について説明する。図4は、コンテンツの配信処理の一例を処理フローS1として示すシーケンス図である。
ステップS101では、コンテンツ送信部31がコンテンツデータをサーバ10に送信する。例えば、配信者がコンテンツを視聴者に配信するために配信者端末30を操作すると、コンテンツ送信部31がその操作に応答してコンテンツデータをサーバ10に送信する。コンテンツ転送部11は、コンテンツ送信部31から送信されたコンテンツデータを受信する。
ステップS102では、コンテンツ転送部11がコンテンツデータを複数の視聴者端末20に送信する。コンテンツ転送部11は、視聴者端末20からのコンテンツ要求に応答してコンテンツデータを送信する。コンテンツ要求は、コンテンツの再生をサーバ10に要求するためのデータ信号である。例えば、視聴者が所望のコンテンツの再生を開始させるために視聴者端末20を操作すると、視聴者端末20がその操作に応答してコンテンツ要求を生成し、サーバ10に送信する。コンテンツ転送部11は、そのコンテンツ要求に応答してコンテンツデータを送信する。コンテンツ受信部21は、コンテンツ転送部11から送信されたコンテンツデータを受信する。
ステップS103では、視聴者端末20がコンテンツを表示する。コンテンツ受信部21がコンテンツデータを受信すると、表示制御部25がそのコンテンツデータを処理してコンテンツを画面に表示する。視聴者端末20は、コンテンツの表示に合わせて音声をスピーカから出力してもよい。
ステップS104では、視線特定部22が、視聴者の視線位置を特定する。視線特定部22は、視聴者の眼の動きに基づいて、視聴者端末20の画面における視線位置を特定する。視線特定部22による視線位置の特定方法は限定されない。一例として、視線特定部22は、視聴者端末20の撮像部207によって視聴者の眼の周辺画像を撮影し、ユーザの目頭を基準点とした虹彩の位置に基づいて視線位置を特定してもよい。他の例として、視線特定部22は角膜反射法(PCCR)を用いて視聴者の視線位置を特定してもよい。角膜反射法を採用する場合、視聴者端末20はハードウェア構成として赤外線出射装置および赤外線カメラを備えていてもよい。視線位置は、例えば、視聴者端末20の画面における位置を一意に特定できる二次元の座標系を用いて表現されてもよい。
ステップS105では、視線データ送信部23が、視線位置を示す視線データをサーバ10に送信する。視線位置を示す視線データは、画面における視線の座標位置を示すデータに限られない。例えば、視聴者端末20は、視聴者がコンテンツにおける特定の領域(例えば、コンテンツに含まれる特定のオブジェクト)を視認していることを示すデータを視線データとして取得し、視線データ送信部23が取得された視線データをサーバ10に送信してもよい。取得部12は、視線データ送信部23によって送信された視線データを受信(取得)する。取得部12は、複数の視聴者端末20のうちの2以上の視聴者端末20から視線データを取得する。すなわち、取得部12は、2以上の視線データを取得する。
ステップS106では、算出部13が、コンテンツにおける2以上の視聴者の視線位置の分布を算出する。算出部13は、取得部12が取得した2以上の視線データを解析して、視線位置の分布を算出する。算出部13による視線位置の分布の算出方法は限定されない。例えば、算出部13は、コンテンツを複数の小領域に分割し、取得した視線データに基づいて、各小領域内に位置する視線の数を視線位置の分布として算出してもよい。
ステップS107では、特定部14が、コンテンツにおける視聴者の視線が集まる第1領域と、第1領域よりも視聴者の視線が集まらない第2領域とを特定する。特定部14は、算出部13が算出した視線位置の分布に基づいて、第1領域と第2領域とを特定する。
特定部14による第1領域および第2領域の特定手法は限定されない。例えば、特定部14は、コンテンツを複数の小領域に分割する。特定部14は、小領域内に位置する視線の数が所定の第1閾値以上である場合には当該小領域を第1領域として特定してもよい。特定部14は、小領域内に位置する視線の数が、第1閾値よりも小さい所定の第2閾値以下である場合には、当該小領域を第2領域として特定してもよい。特定部14は、連続する複数の小領域がいずれも第1領域である場合には、これらの複数の小領域をまとめて一つの第1領域として特定してもよい。同様に、特定部14は、連続する複数の小領域がいずれも第2領域である場合には、これらの複数の小領域をまとめて一つの第2領域として特定してもよい。第1領域および第2領域の形状および大きさは限定されない。第1領域および第2領域は、多角形状、円形状、または対称性のない不規則な形状であってもよい。
ステップS108では、決定部15が、視線位置の分布に基づいて、コンテンツに付与されるエフェクトの付与態様を決定する。決定部15は、エフェクトの付与態様として、例えば、エフェクトの構成、コンテンツにおけるエフェクトの表示位置、エフェクトの音量またはエフェクトの出力タイミングなどを決定する。
エフェクトが視覚的効果である場合、エフェクトの構成は、例えばコンテンツの一部の表示態様を変更することであってもよい。一例として、表示態様の変更は、コンテンツの一部に図柄(例えば、星、ハートまたは顔のマークなど)または文字列を付加することであってもよいし、コンテンツの一部を枠線で囲むことであってもよい。表示態様の変更は、コンテンツの一部を他の部分よりも明るくまたは暗く表示することであってもよい。表示態様の変更は、コンテンツの一部を拡大または縮小させて表示することであってもよい。表示態様の変更は、コンテンツの一部を所定の動き(例えば、振動または回転など)をさせて表示することであってもよい。
エフェクトの構成は、コンテンツに含まれるコメントの表示態様を変更することであってもよい。コメントは、複数の視聴者が視聴者端末20を介して投稿したコメントであってもよい。この場合、コンテンツ配信システム1は、ある視聴者端末20から投稿されたコメントをコンテンツに含めて他の視聴者端末20にも表示させる。したがって、視聴者は、自らが投稿したコメントだけでなく、他の視聴者が提供したコメントを閲覧することができる。コメントの表示態様の変更は、対象のコメントに図柄を付加することであってもよいし、対象のコメントの色を特定色に変更することであってもよいし、対象のコメントのフォントを特定のフォントに変更することであってもよい。コメントの表示態様の変更は、対象のコメントを他のコメントよりも大きく表示することであってもよい。コメントの表示態様を変更することは、上述したコンテンツの一部の表示態様を変更することに含まれる。
エフェクトが聴覚的効果である場合、エフェクトの構成は、コンテンツに関連する音を発生させることであってもよい。一例として、エフェクトの構成は、コンテンツに含まれる人またはキャラクターの音声を発生させることであってもよいし、コンテンツに含まれる物に関する音(例えばコンテンツに車が含まれる場合にはエンジン音など)を発生させることであってもよいし、コンテンツに含まれるコメントを読み上げる音声を発生させることであってもよい。
上述したように、決定部15は、視線位置の分布に基づいて、エフェクトの付与態様を決定する。決定部15は、視線位置の分布に基づいて特定された第1領域および第2領域を示す情報を用いて、エフェクトの付与態様を決定してもよい。一例として、決定部15は、第1領域の表示態様を変更することをエフェクトの付与態様として決定してもよい。この場合、エフェクトの構成は、第1領域に図柄または文字列を付加することであってもよいし、第1領域に位置するコメントを他のコメントよりも大きく表示することなどであってもよい。エフェクトの構成は、第1領域を視認する視聴者の数または割合を示す情報を表示することであってもよい。視聴者の数または割合を示す情報とは、具体的な数値に限定されない。例えば、第1領域に含まれるアイコンなどが、第1領域を視認する視聴者の数または割合が大きいことを示す所定の動き(例えば、振動または回転など)をするように表示されてもよい。第1領域を視認する視聴者の数または割合は、視線位置の分布に基づいて算出される。
他の例として、決定部15は、第1領域に関連する音を発生させることをエフェクトの付与態様として決定してもよい。この場合、エフェクトの構成は、第1領域に位置する人もしくはキャラクターの音声を発生させること、第1領域に位置する物に関する音を発生させること、または第1領域に位置するコメントを読み上げる音声を発生させることなどであってもよい。
上述したような第1領域に関するエフェクトが付与されることによって、既に視線が集まっている第1領域に一層視線が集まる。すなわち、上述したエフェクトは、コンテンツにおける第1領域に視聴者の視線を誘導するための視聴覚的効果といえる。上述したエフェクトは、視聴者の視線が集まっている第1領域に関連するエフェクトであり、視聴者の視線の集中度に応じた視聴覚的効果ともいえる。
決定部15は、第2領域の表示態様を変更することをエフェクトの付与態様として決定してもよい。この場合のエフェクトの構成は、第1領域の表示態様を変更する場合と同様である。すなわち、例えば、エフェクトの構成は、第2領域に図柄または文字列を付加することであってもよいし、第2領域に位置するコメントを他のコメントよりも大きく表示することなどであってもよい。エフェクトの構成は、第2領域を視認する視聴者の数または割合を示す情報を表示することであってもよい。
決定部15は、第2領域に関連する音を発生させることをエフェクトの付与態様として決定してもよい。この場合のエフェクトの構成は、第1領域に関連する音を発生させる場合と同様である。すなわち、例えば、エフェクトの構成は、第2領域に位置する人もしくはキャラクターの音声を発生させること、第2領域に位置する物に関する音を発生させること、または第2領域に位置するコメントを読み上げる音声を発生させることなどであってもよい。
上述したような第2領域に関するエフェクトが付与されることによって、視線が集まっていない第2領域に視線が集まる。すなわち、上述したエフェクトは、コンテンツにおける第2領域に視聴者の視線を誘導するための視聴覚的効果といえる。上述したエフェクトは、視聴者の視線が集まっていない第2領域に関連するエフェクトであり、視聴者の視線の集中度に応じた視聴覚的効果ともいえる。
ステップS109では、エフェクト送信部16が、エフェクトの付与態様を示すエフェクトデータを視聴者端末20に送信する。このとき、エフェクト送信部16は、全ての視聴者端末20にエフェクトデータを送信しなくてもよく、エフェクトが付与される対象の視聴者端末20(対象端末)のみにエフェクトデータを送信してもよい。エフェクトデータを送信された視聴者端末20のエフェクト受信部24は、エフェクトデータを受信する。
ステップS110では、視聴者端末20がコンテンツにエフェクトを付与する。エフェクトが視覚的効果である場合、表示制御部25がエフェクトデータを処理してエフェクトを画面に表示する。エフェクトが聴覚的効果である場合、視聴者端末20はエフェクトをスピーカから出力する。
図5および図6を参照し、エフェクトの付与態様の一例について説明する。図5は、エフェクトが付与される前のコンテンツの一例を示す図である。図6は、エフェクトが付与されたコンテンツの一例を示す図である。
図5および図6の例では、視聴者端末20は、二人の歌手がライブコンサートを行っている映像をコンテンツC1として表示している。コンテンツC1には、複数の視聴者から投稿されたコメントが含まれている。この例では、「手を振って!」、「がんばれ!」および「可愛い!」というコメントが表示されている。
まず、特定部14が、視線位置の分布に基づいて、コンテンツC1における視聴者の視線が集まっている第1領域と、第1領域よりも視聴者の視線が集まっていない第2領域とを特定する。この例では、特定部14は、「手を振って!」というコメントが表示されている領域A1と、一方の歌手が表示されている領域A3とを第1領域として特定し、「がんばれ!」というコメントが表示されている領域A2と、他方の歌手が表示されている領域A4とを第2領域として特定する。
その後、決定部15が、視線位置の分布に基づいて、エフェクトの付与態様を決定する。この例では、決定部15は、第2領域として特定された領域A2に含まれるコメントを他のコメントよりも大きく表示し、当該コメントに星のマークを付加すること、および第2領域として特定された領域A4に星およびハートのマークを付加することをエフェクトの付与態様として決定する。更に決定部15は、第2領域として特定された領域A4に位置する歌手の音声(例えば「こっちを見て!」などの音声)を発生させることをエフェクトの付与態様として決定する。エフェクト送信部16は、決定部15が決定したエフェクトの付与態様を示すエフェクトデータを視聴者端末20(対象端末)に送信する。
エフェクト受信部24がエフェクトデータを受信し、視聴者端末20がそのエフェクトデータを処理してエフェクトを発生させる。この例では、表示制御部25が、領域A2に含まれるコメントを他のコメントよりも大きく表示し、領域A2および領域A4に星などのマークを付加する。視聴者端末20は、領域A4に位置する歌手の音声をスピーカから発生させる。
図7を参照し、エフェクトの付与態様の他の例について説明する。図7は、エフェクトが付与されたコンテンツの他の例を示す図である。図7の例では、視聴者端末20は、「あなたはどの季節が一番好きですか?」という質問を構成する文字列と、「春」、「夏」、「秋」および「冬」の選択肢をそれぞれ構成する四つのアイコンとを含むアンケート映像をコンテンツC2として表示している。
まず、特定部14が、視線位置の分布に基づいて、コンテンツC2における視聴者の視線が集まっている第1領域と、第1領域よりも視聴者の視線が集まっていない第2領域とを特定する。この例では、特定部14は、「夏」のアイコンを含む領域B2を第1領域として特定し、「春」、「秋」、「冬」のアイコンをそれぞれ含む領域B1,B3,B4を第2領域として特定する。
その後、決定部15が、視線位置の分布に基づいて、エフェクトの付与態様を決定する。この例では、決定部15は、第1領域として特定された領域B2に含まれる「夏」のアイコンを振動するように表示すること、および各領域B1~B4に位置する視線の割合を対応するアイコンに表示することをエフェクトの付与態様として決定する。すなわち、この例では、視聴者に特に注目されている(視線が集まっている)アイコンが振動するように表示される。加えて、この例では、各アイコンにおける視聴者からの注目の程度(視線の割合)が数値として表示される。視線の割合は、視線位置の分布から算出される。この例では、領域B1に位置する視線の割合を示す「20%」との文字列が「春」のアイコンに表示され、領域B2に位置する視線の割合を示す「40%」との文字列が「夏」のアイコンに表示され、領域B3に位置する視線の割合を示す「10%」との文字列が「秋」のアイコンに表示され、領域B4に位置する視線の割合を示す「30%」との文字列が「冬」のアイコンに表示される。エフェクト送信部16は、決定部15が決定したエフェクトの付与態様を示すエフェクトデータを視聴者端末20(対象端末)に送信する。
エフェクト受信部24がエフェクトデータを受信し、視聴者端末20がそのエフェクトデータを処理してエフェクトを発生させる。この例では、表示制御部25が、領域B2に含まれる「夏」のアイコンを振動するように表示し、視線の割合を示す文字列を対応するアイコンに表示する。
[変形例]
以上、本開示での様々な例を詳細に説明した。しかし、本開示は上記の例に限定されるものではない。本開示に関しては、その要旨を逸脱しない範囲で様々な変形が可能である。
コンテンツ配信システム1は、視聴者端末20だけでなく、配信者端末30にもコンテンツデータを送信してもよい。配信者端末30は、コンテンツデータを処理して画面にコンテンツを表示する。この場合、コンテンツ配信システム1は、配信者端末30にもエフェクトデータを送信してもよい。配信者端末30は、エフェクトデータを処理して、コンテンツにエフェクトを付与する。すなわち、配信者端末30は、視聴者端末20(対象端末)としても機能し得る。
エフェクトの付与態様は、上述した例に限定されない。決定部15は、視聴者の属性情報に基づいて、エフェクトの付与態様を決定してもよい。決定部15は、例えば、年齢または性別などの属性情報に基づいてエフェクトの付与態様を決定してもよい。具体的には、決定部15は、高齢の視聴者の視線が集まっている第1領域に含まれるコメントを他のコメントよりも大きく且つ目立つ色で表示することをエフェクトの付与態様として決定してもよい。このように決定部15が視聴者の属性情報に基づいてエフェクトの付与態様を決定する場合、算出部13は属性情報に基づいて視聴者を複数のグループに分類し、グループごとに視線位置の分布を算出してもよい。例えば、算出部13は、視聴者の年齢層または性別ごとに視線位置の分布を算出してもよい。
算出部13は、視線位置の分布を算出する際、視聴者の属性情報に基づいて視線データの重みづけを行ってもよい。例えば、算出部13は、特定の年齢層または性別の視聴者の視線の数に所定の係数を掛けた数値を用いて視線位置の分布を算出してもよい。
決定部15は、対象端末を使用する視聴者(以下、対象者という)の属性情報に基づいて、エフェクトの付与態様を決定してもよい。具体的には、対象者が選択した好みの人またはキャラクター、および当該人またはキャラクターに対応付けられたイメージカラーの情報が属性情報に含まれている場合、決定部15は、エフェクトとして発生させる音声を対象者が選択した人またはキャラクターの音声にしてもよいし、エフェクトとしてコンテンツに付加される図柄の色を当該人またはキャラクターに対応付けられたイメージカラーにしてもよい。
視聴者が投稿した複数のコメントがコンテンツに含まれて表示される場合、決定部15は、複数のコメントのうち視線が多く集まっている所定数のコメントのみを表示し、他のコメントを表示しないことをエフェクトの付与態様として決定してもよい。このとき、決定部15は、視線位置の分布に基づいて、視線が多く集まっているコメントを特定する。
決定部15は、ヒートマップなどのユーザによって視認可能な形式で視線位置の分布をユーザ端末の画面に表示することを、エフェクトの付与態様として決定してもよい。この場合、特定部14によって第1領域および第2領域の特定が行われることなく、決定部15はエフェクトの付与態様を決定してもよい。
コンテンツ配信システム1がオンデマンド配信に用いられる場合、取得部12は、各視聴者によってコンテンツが視聴される度に視線データを取得し、取得した視線データをデータベースに蓄積する。算出部13は、蓄積された2以上の視線データを解析して視線位置の分布を算出してもよい。すなわち、取得部12が各視聴者端末20から視線データを取得するタイミングは必ずしも同時でなくてもよく、異なっていてもよい。
コンテンツ配信システム1がオンデマンド配信に用いられる場合、コンテンツ配信システム1は、ある視聴者から投稿されたコメントの履歴を示すデータをデータベースに蓄積しておき、他の視聴者がコンテンツを視聴する際に、当該データに基づいてコメントをコンテンツに含めて表示させてもよい。
各視聴者端末20にコンテンツが表示されるタイミングに差が生じている場合、視聴者端末20は、視線データと共に、当該視線データが取得された時間を示すデータ(例えばコンテンツの進行度を示すデータ)をサーバ10に送信してもよい。各視聴者端末20にコンテンツが表示されるタイミングに差が生じている場合とは、例えば、コンテンツ配信システム1がオンデマンド配信に用いられる場合、またはコンテンツが表示されるタイミングに遅延(ラグ)が生じている場合などである。サーバ10の算出部13は、視線データと当該視線データが取得された時間を示すデータとに基づいて、コンテンツに含まれる場面ごとに視線位置の分布を算出することができる。各視聴者端末20にコンテンツが表示されるタイミングに差が生じていない場合、視聴者端末20は、視線データが取得された時間を示すデータをサーバ10に送信しなくてもよい。各視聴者端末20にコンテンツが表示されるタイミングに差が生じていない場合とは、例えば、コンテンツ配信システム1がリアルタイム配信に用いられる場合、またはコンテンツが表示されるタイミングに遅延(ラグ)が生じていない場合などである。
エフェクトの付与処理は、サーバ10によって行われてもよい。例えば、サーバ10は、決定部15が決定したエフェクトの付与態様に基づいてコンテンツの構成を変更し(一部が強調表示されたコンテンツに変更するなど)、変更後のコンテンツを示すコンテンツデータを視聴者端末20に送信してもよい。この場合、視聴者端末20の表示制御部25がコンテンツデータを処理してコンテンツを表示することで、エフェクトが付与されたコンテンツが画面に表示される。
本開示において、「少なくとも一つのプロセッサが、第1の処理を実行し、第2の処理を実行し、…第nの処理を実行する。」との表現、またはこれに対応する表現は、第1の処理から第nの処理までのn個の処理の実行主体(すなわちプロセッサ)が途中で変わる場合を含む概念を示す。すなわち、この表現は、n個の処理のすべてが同じプロセッサで実行される場合と、n個の処理においてプロセッサが任意の方針で変わる場合との双方を含む概念を示す。
少なくとも一つのプロセッサにより実行される方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップの一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正または削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。
二つの数値の大小関係の比較では、「以上」および「よりも大きい」という二つの基準のどちらが用いられてもよく、「以下」および「未満」という二つの基準のうちのどちらが用いられてもよい。
本明細書で述べた各機能部の任意の一部または全部がプログラムによって実現されてもよい。本明細書で言及したプログラムは、コンピュータ読み取り可能な記録媒体に非一時的に記録して頒布されてもよいし、インターネットなどの通信回線(無線通信も含む)を介して頒布されてもよいし、任意の端末にインストールされた状態で頒布されてもよい。
上記の記載に基づいて、当業者であれば、本開示についての追加の効果または種々の変形例を想到できるかもしれないが、本開示の態様は、上述した個々の実施形態に限定されるものではない。特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨とを逸脱しない範囲で、種々の追加、変更および部分的削除が可能である。
例えば、本明細書において1台の装置(あるいは部材。以下同じ)として説明される構成(これは、図面において1台の装置として描かれている構成を含む)が、複数の装置によって実現されもよい。あるいは、本明細書において複数の装置として説明される構成(これは、図面において複数の装置として描かれている構成を含む)が1台の装置によって実現されてもよい。あるいは、或る装置(例えばサーバ)に含まれる手段または機能の一部または全部が、他の装置(例えばユーザ端末)に含まれてもよい。
本明細書に記載された事項のすべてが必須の要件というわけではない。例えば、本明細書に記載されているが特許請求の範囲に記載されていない事項は、任意の付加的事項ということができる。
本出願人は本明細書の「先行技術文献」欄に記載された公知技術を知っているにすぎない。本開示は必ずしもその公知技術における課題を解決することを目的とするものではないことにも留意されたい。本開示において解決しようとする課題は、本明細書の全体を考慮して認定されるべきものである。例えば、本明細書において、特定の構成によって所定の効果を奏する旨の記載がある場合、当該所定の効果に対応する課題が解決されるということもできる。しかし、その効果に関する記載は必ずしも、そのような特定の構成を必須の要件とする趣旨ではない。
[付記]
上記の様々な例から把握されるとおり、本開示は以下に示す態様を含む。
(付記1)
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサが、
コンテンツを複数のユーザ端末上に表示させ、
前記コンテンツを視認するユーザの視線位置を示す視線データを、前記複数のユーザ端末のうちの2以上のユーザ端末から取得し、
取得した2以上の前記視線データを解析して、前記コンテンツにおける2以上のユーザの視線位置の分布を算出し、
算出した前記分布に基づいて、前記複数のユーザ端末のうちの少なくとも一つの対象端末に表示されている前記コンテンツに付与されるエフェクトの付与態様を決定する、コンテンツ配信システム。
(付記2)
前記少なくとも一つのプロセッサが、
前記分布に基づいて、前記コンテンツにおける前記2以上のユーザの視線が集まる第1領域と、前記第1領域よりも前記2以上のユーザの視線が集まらない第2領域とを特定し、
前記少なくとも一つの対象端末に表示されている前記コンテンツの前記第1領域の表示態様を変更することを、前記エフェクトの付与態様として決定する、付記1に記載のコンテンツ配信システム。
(付記3)
前記少なくとも一つのプロセッサが、
前記分布に基づいて、前記コンテンツにおける前記2以上のユーザの視線が集まる第1領域と、前記第1領域よりも前記2以上のユーザの視線が集まらない第2領域とを特定し、
前記少なくとも一つの対象端末に表示されている前記コンテンツの前記第2領域の表示態様を変更することを、前記エフェクトの付与態様として決定する、付記1に記載のコンテンツ配信システム。
(付記4)
前記複数のユーザ端末は、前記コンテンツを配信する配信者端末と、複数の視聴者端末とを含み、
前記コンテンツは、前記配信者端末から前記複数の視聴者端末にリアルタイム配信されるコンテンツである、付記1~3のいずれか一つの付記に記載のコンテンツ配信システム。
(付記5)
前記複数のユーザ端末は、複数の視聴者端末を含み、
前記コンテンツは、前記複数の視聴者端末にオンデマンド配信されるコンテンツである、付記1~3のいずれか一つの付記に記載のコンテンツ配信システム。
(付記6)
前記少なくとも一つのプロセッサが、前記複数のユーザの属性情報に基づいて、前記エフェクトの付与態様を決定する、付記1~5のいずれか一つの付記に記載のコンテンツ配信システム。
(付記7)
少なくとも一つのプロセッサを備えるコンテンツ配信システムによって実行されるコンテンツ配信方法であって、
コンテンツを複数のユーザ端末上に表示させるステップと、
前記コンテンツを視認するユーザの視線位置を示す視線データを、前記複数のユーザ端末のうちの2以上のユーザ端末から取得するステップと、
取得した2以上の前記視線データを解析して、前記コンテンツにおける2以上のユーザの視線位置の分布を算出するステップと、
算出した前記分布に基づいて、前記複数のユーザ端末のうちの少なくとも一つの対象端末に表示されている前記コンテンツに付与されるエフェクトの付与態様を決定するステップと
を含むコンテンツ配信方法。
(付記8)
コンテンツを複数のユーザ端末上に表示させるステップと、
前記コンテンツを視認するユーザの視線位置を示す視線データを、前記複数のユーザ端末のうちの2以上のユーザ端末から取得するステップと、
取得した2以上の前記視線データを解析して、前記コンテンツにおける2以上のユーザの視線位置の分布を算出するステップと、
算出した前記分布に基づいて、前記複数のユーザ端末のうちの少なくとも一つの対象端末に表示されている前記コンテンツに付与されるエフェクトの付与態様を決定するステップと
をコンピュータに実行させるコンテンツ配信プログラム。
付記1,7,8によれば、2以上の視線データが解析されて、コンテンツにおける2以上のユーザの視線位置の分布が得られ、この分布に基づいてコンテンツに付与されるエフェクトの付与態様が決定される。この仕組みによって、複数の視聴者のコンテンツに対する反応を踏まえてエフェクトの付与態様が決定されるので、コンテンツの視聴者に対する訴求力を高めることができる。一例では、この仕組みによって、視聴者の反応がコンテンツに反映され、インタラクティブなコンテンツが提供されるので、視聴者と配信者との間、および視聴者間でのコミュニケーションが促進され得る。
付記2によれば、ユーザの視線が集まる第1領域の表示態様が変更される。これにより、例えば、第1領域に視聴者の視線を誘導させるためのエフェクトを付与することが可能となり、第1領域に視線を一層集めることができる。
付記3によれば、第1領域よりもユーザの視線が集まっていない第2領域の表示態様が変更される。これにより、例えば、第2領域に視聴者の視線を誘導させるためのエフェクトを付与することが可能となり、第1領域に遍在している視線を分散させて、第2領域にも視線を集めることができる。
付記4によれば、リアルタイム配信されるコンテンツにエフェクトが付与される。これにより、リアルタイム配信されるコンテンツの視聴者に対する訴求力を高めることができる。
付記5によれば、オンデマンド配信されるコンテンツにエフェクトが付与される。これにより、オンデマンド配信されるコンテンツの視聴者に対する訴求力を高めることができる。
付記6によれば、視聴者の属性情報に基づいてエフェクトの付与態様が決定されるので、コンテンツの視聴者に対する訴求力を一層高めることができる。
1…コンテンツ配信システム、10…サーバ、11…コンテンツ転送部、12…取得部、13…算出部、14…特定部、15…決定部、16…エフェクト送信部、20…視聴者端末、21…コンテンツ受信部、22…視線特定部、23…視線データ送信部、24…エフェクト受信部、25…表示制御部、30…配信者端末、31…コンテンツ送信部、40…ユーザデータベース、A1,A2,A3,A4,B1,B1,B2,B3,B4…領域、C1,C2…コンテンツ、P1…サーバプログラム、P2…クライアントプログラム。

Claims (8)

  1. 少なくとも一つのプロセッサを備え、
    前記少なくとも一つのプロセッサが、
    コンテンツを複数のユーザ端末上に表示させ、
    前記コンテンツを視認するユーザの視線位置を示す視線データを、前記複数のユーザ端末のうちの2以上のユーザ端末から取得し、
    取得した2以上の前記視線データを解析して、前記コンテンツにおける2以上のユーザの視線位置の分布を算出し、
    算出した前記分布に基づいて、前記複数のユーザ端末のうちの少なくとも一つの対象端末に表示されている前記コンテンツに付与されるエフェクトの付与態様を決定する、コンテンツ配信システム。
  2. 前記少なくとも一つのプロセッサが、
    前記分布に基づいて、前記コンテンツにおける前記2以上のユーザの視線が集まる第1領域と、前記第1領域よりも前記2以上のユーザの視線が集まらない第2領域とを特定し、
    前記少なくとも一つの対象端末に表示されている前記コンテンツの前記第1領域の表示態様を変更することを、前記エフェクトの付与態様として決定する、請求項1に記載のコンテンツ配信システム。
  3. 前記少なくとも一つのプロセッサが、
    前記分布に基づいて、前記コンテンツにおける前記2以上のユーザの視線が集まる第1領域と、前記第1領域よりも前記2以上のユーザの視線が集まらない第2領域とを特定し、
    前記少なくとも一つの対象端末に表示されている前記コンテンツの前記第2領域の表示態様を変更することを、前記エフェクトの付与態様として決定する、請求項1に記載のコンテンツ配信システム。
  4. 前記複数のユーザ端末は、前記コンテンツを配信する配信者端末と、複数の視聴者端末とを含み、
    前記コンテンツは、前記配信者端末から前記複数の視聴者端末にリアルタイム配信されるコンテンツである、請求項1~3のいずれか一項に記載のコンテンツ配信システム。
  5. 前記複数のユーザ端末は、複数の視聴者端末を含み、
    前記コンテンツは、前記複数の視聴者端末にオンデマンド配信されるコンテンツである、請求項1~3のいずれか一項に記載のコンテンツ配信システム。
  6. 前記少なくとも一つのプロセッサが、前記複数のユーザの属性情報に基づいて、前記エフェクトの付与態様を決定する、請求項1~3のいずれか一項に記載のコンテンツ配信システム。
  7. 少なくとも一つのプロセッサを備えるコンテンツ配信システムによって実行されるコンテンツ配信方法であって、
    コンテンツを複数のユーザ端末上に表示させるステップと、
    前記コンテンツを視認するユーザの視線位置を示す視線データを、前記複数のユーザ端末のうちの2以上のユーザ端末から取得するステップと、
    取得した2以上の前記視線データを解析して、前記コンテンツにおける2以上のユーザの視線位置の分布を算出するステップと、
    算出した前記分布に基づいて、前記複数のユーザ端末のうちの少なくとも一つの対象端末に表示されている前記コンテンツに付与されるエフェクトの付与態様を決定するステップと
    を含むコンテンツ配信方法。
  8. コンテンツを複数のユーザ端末上に表示させるステップと、
    前記コンテンツを視認するユーザの視線位置を示す視線データを、前記複数のユーザ端末のうちの2以上のユーザ端末から取得するステップと、
    取得した2以上の前記視線データを解析して、前記コンテンツにおける2以上のユーザの視線位置の分布を算出するステップと、
    算出した前記分布に基づいて、前記複数のユーザ端末のうちの少なくとも一つの対象端末に表示されている前記コンテンツに付与されるエフェクトの付与態様を決定するステップと
    をコンピュータに実行させるコンテンツ配信プログラム。

JP2022122059A 2022-07-29 2022-07-29 コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム Active JP7171964B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022122059A JP7171964B1 (ja) 2022-07-29 2022-07-29 コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP2022176404A JP2024018844A (ja) 2022-07-29 2022-11-02 コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
PCT/JP2023/025621 WO2024024500A1 (ja) 2022-07-29 2023-07-11 コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022122059A JP7171964B1 (ja) 2022-07-29 2022-07-29 コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022176404A Division JP2024018844A (ja) 2022-07-29 2022-11-02 コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム

Publications (2)

Publication Number Publication Date
JP7171964B1 JP7171964B1 (ja) 2022-11-15
JP2024018622A true JP2024018622A (ja) 2024-02-08

Family

ID=84046004

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022122059A Active JP7171964B1 (ja) 2022-07-29 2022-07-29 コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP2022176404A Pending JP2024018844A (ja) 2022-07-29 2022-11-02 コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022176404A Pending JP2024018844A (ja) 2022-07-29 2022-11-02 コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム

Country Status (2)

Country Link
JP (2) JP7171964B1 (ja)
WO (1) WO2024024500A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046730A (ja) * 2014-08-25 2016-04-04 学校法人早稲田大学 視聴者注目情報提供システム、時空間マーカ設定装置及びそのプログラム、並びに、情報提供装置及びそのプログラム
JP2017028402A (ja) * 2015-07-17 2017-02-02 日本放送協会 映像評価装置、及びプログラム
WO2018079166A1 (ja) * 2016-10-26 2018-05-03 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2020052986A (ja) * 2018-09-26 2020-04-02 株式会社ドワンゴ サーバシステム、アプリケーションプログラム配信サーバ、閲覧用端末、コンテンツ閲覧方法、アプリケーションプログラム、配信方法、アプリケーションプログラム配信方法
WO2020184021A1 (ja) * 2019-03-12 2020-09-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2021180474A (ja) * 2020-05-15 2021-11-18 株式会社ドワンゴ 動画配信装置、動画配信方法、および、動画配信プログラム
JP2022097475A (ja) * 2020-12-18 2022-06-30 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017216667A (ja) * 2016-05-31 2017-12-07 フォーブ インコーポレーテッド 画像提供システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046730A (ja) * 2014-08-25 2016-04-04 学校法人早稲田大学 視聴者注目情報提供システム、時空間マーカ設定装置及びそのプログラム、並びに、情報提供装置及びそのプログラム
JP2017028402A (ja) * 2015-07-17 2017-02-02 日本放送協会 映像評価装置、及びプログラム
WO2018079166A1 (ja) * 2016-10-26 2018-05-03 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2020052986A (ja) * 2018-09-26 2020-04-02 株式会社ドワンゴ サーバシステム、アプリケーションプログラム配信サーバ、閲覧用端末、コンテンツ閲覧方法、アプリケーションプログラム、配信方法、アプリケーションプログラム配信方法
WO2020184021A1 (ja) * 2019-03-12 2020-09-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2021180474A (ja) * 2020-05-15 2021-11-18 株式会社ドワンゴ 動画配信装置、動画配信方法、および、動画配信プログラム
JP2022097475A (ja) * 2020-12-18 2022-06-30 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Also Published As

Publication number Publication date
WO2024024500A1 (ja) 2024-02-01
JP7171964B1 (ja) 2022-11-15
JP2024018844A (ja) 2024-02-08

Similar Documents

Publication Publication Date Title
US10699482B2 (en) Real-time immersive mediated reality experiences
US9015245B1 (en) Experience sharing with commenting
CN112672175A (zh) 直播交互方法、装置、电子设备和存储介质
US10897637B1 (en) Synchronize and present multiple live content streams
US10037077B2 (en) Systems and methods of generating augmented reality experiences
WO2022105282A1 (zh) 一种游戏显示方法及装置
US9372601B2 (en) Information processing apparatus, information processing method, and program
EP3488616A1 (en) Methods and system for customizing immersive media content
WO2018135334A1 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
WO2021065928A1 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
JP2022544511A (ja) 表示コンテンツの有効性評価のためにデータを収集するシステム及び方法
JP7202935B2 (ja) 注目度算出装置、注目度算出方法、および注目度算出プログラム
US11226785B2 (en) Scale determination service
US11095945B2 (en) Information processing device, method, and program
WO2024024500A1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP6609078B1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
US20220368986A1 (en) Methods and systems for counseling a user with respect to supervised content
CN113515336B (zh) 直播间加入方法、创建方法、装置、设备及存储介质
US11546669B2 (en) Systems and methods for stream viewing with experts
JP7291106B2 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
US11523171B2 (en) Information processing device
JP7469536B1 (ja) コンテンツ管理システム、コンテンツ管理方法、コンテンツ管理プログラム、およびユーザ端末
JP7367258B1 (ja) 情報処理システム、情報処理方法、情報処理プログラム、および配信者端末
WO2022180973A1 (ja) コメントアート管理システム、コメントアート管理方法、コメントアート管理プログラム、およびコンピュータ読取可能な記録媒体
JP6871470B1 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220729

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221102

R150 Certificate of patent or registration of utility model

Ref document number: 7171964

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150