JP7469977B2 - コンピュータプログラム、情報処理方法及び情報処理装置 - Google Patents

コンピュータプログラム、情報処理方法及び情報処理装置 Download PDF

Info

Publication number
JP7469977B2
JP7469977B2 JP2020122290A JP2020122290A JP7469977B2 JP 7469977 B2 JP7469977 B2 JP 7469977B2 JP 2020122290 A JP2020122290 A JP 2020122290A JP 2020122290 A JP2020122290 A JP 2020122290A JP 7469977 B2 JP7469977 B2 JP 7469977B2
Authority
JP
Japan
Prior art keywords
user
live
image
live video
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020122290A
Other languages
English (en)
Other versions
JP2022018875A (ja
Inventor
充男 久保田
Original Assignee
株式会社エヌケービー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エヌケービー filed Critical 株式会社エヌケービー
Priority to JP2020122290A priority Critical patent/JP7469977B2/ja
Publication of JP2022018875A publication Critical patent/JP2022018875A/ja
Application granted granted Critical
Publication of JP7469977B2 publication Critical patent/JP7469977B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本技術は、コンピュータプログラム、情報処理方法及び情報処理装置に関する。
ライブ施設におけるライブをインターネット等の通信ネットワークを介して、リアルタイム中継することにより、ライブ動画を共有するサービスが知られている。
特許文献1には、全周カメラと、前記全周カメラで撮影された全周動画を取得して時系列の全周フレーム画像データを生成する全周画像生成手段と、前記全周フレーム画像データから通信端末装置において実時間でストリーミング再生可能な形式の全周動画データを生成する全周動画データ生成手段と、前記全周動画データを、前記通信端末装置に配信するライブ配信用サーバと、前記ライブ配信用サーバから配信された前記全周動画データを実時間でストリーミング再生し、ユーザによる視線の指示に応じた範囲の動画映像を表示する全周動画ライブ再生手段と、を備える全周動画ライブ配信システムが開示されている。特許文献1に記載の技術によれば、ユーザが全周動画をライブで視聴することができる。
特開2013-161360号公報
しかしながら、自宅等でライブ動画を視聴するユーザにとっては、視聴者間、あるいはライブ出演者とのコミュニケーションが十分でなく、ユーザがライブ動画で十分な満足度を得られない場合がある。また、出演者側にとっても、どのようなユーザがライブ動画を視聴しているのかが分からないという問題がある。
本開示の目的は、ライブ動画の視聴におけるユーザの満足度を向上させることが可能なコンピュータプログラム等を提供することである。
本開示の一態様に係るコンピュータプログラムは、ライブ施設におけるライブ動画の配信指示を取得し、所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加要求を取得し、取得した前記配信指示及び参加要求に基づき、前記ライブ動画と、前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を含むBOXルーム画像とを含む画面を表示部に表示する処理をコンピュータに実行させる。
本開示の一態様に係るコンピュータプログラムは、ライブ施設におけるライブ動画を視聴するユーザに係る座席券に関する情報を取得し、前記ライブ動画の視聴中における所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を取得し、取得した前記座席券に関する情報と、前記BOXルームへの参加が許可された複数のユーザそれぞれに係る前記ユーザ画像とを関連付けて前記ライブ施設内の出力装置に出力する処理をコンピュータに実行させる。
本開示の一態様に係る情報処理方法は、ライブ施設におけるライブ動画の配信指示を取得し、所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加要求を取得し、前記ライブ動画を取得し、前記ライブ動画の視聴中における前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を取得し、取得した前記配信指示及び参加要求に基づき、前記ライブ動画と、前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を含むBOXルーム画像とを含む画面情報を生成し、生成した前記画面情報を出力する。
本開示の一態様に係る情報処理装置は、ライブ施設におけるライブ動画の配信指示を取得する第1取得部と、所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加要求を取得する第2取得部と、前記ライブ動画を取得する第3取得部と、前記ライブ動画の視聴中における前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を取得する第4取得部と、前記第1取得部が取得した配信指示及び前記第2取得部が取得した参加要求に基づき、前記第3取得部が取得したライブ動画と、前記第4取得部が取得した前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を含むBOXルーム画像とを含む画面情報を生成する生成部と、前記生成部が生成した画面情報を出力する出力部とを備える。
本開示によれば、ライブ動画の視聴におけるユーザの満足度を向上させることができる。
第1実施形態における動画配信システムの概要図である。 情報処理装置の構成を示すブロック図である。 ユーザ情報DBのレコードレイアウトを例示する説明図である。 ライブ動画DBのレコードレイアウトを例示する説明図である。 座席券情報DBのレコードレイアウトを例示する説明図である。 中継装置等の構成を示すブロック図である。 端末装置の構成を示すブロック図である。 動画配信システムにて実行される処理手順の一例を示すフローチャートである。 動画配信システムにて実行されるライブ動画配信に係る処理手順の一例を示すフローチャートである。 動画配信システムにて実行されるライブ動画配信に係る処理手順の一例を示すフローチャートである。 端末装置の表示部に表示される表示画面の一例を示す図である。 出力装置のモニタに表示されるモニタ画面の一例を示す図である。 第3実施形態における動画配信システムにて実行される処理手順の一例を示すフローチャートである。 第4実施形態における学習モデルの概要図である。 第4実施形態における動画配信システムにて実行される処理手順の一例を示すフローチャートである。 第4実施形態における出力装置のモニタに表示されるモニタ画面の一例を示す図である。 第5実施形態における動画配信システムにて実行される処理手順の一例を示すフローチャートである。
本発明をその実施の形態を示す図面を参照して具体的に説明する。
(第1実施形態)
図1は、第1実施形態における動画配信システム100の概要図である。動画配信システム100は、ライブ動画を配信する情報処理装置1と、複数のライブ施設2内に設置される撮影装置21及び出力装置22と接続される中継装置23と、ライブ動画を視聴する複数ユーザの端末装置3とを含む。情報処理装置1は、出力装置22及び端末装置3それぞれとの間で、インターネット等のネットワークNを介して情報の送受信が可能である。
情報処理装置1は例えば、動画配信サービスの提供者によって管理される、サーバコンピュータである。情報処理装置1は、各ライブ施設2で撮影されたライブ動画を取得し、取得したライブ動画をストリーミング形式で端末装置3へ配信する動画配信サーバとして機能する。また情報処理装置1は、ライブ動画を視聴するユーザの端末装置3から取得したユーザ画像を、他のユーザの端末装置3や、ライブ施設2内の出力装置22へ配信するユーザ画像配信サーバとして機能する。
動画配信システム100により配信されるライブ動画とは、例えば、ライブ施設2において行われるライブ、音楽コンサート、演劇、スポーツの試合等を撮影した動画データである。ライブ動画は、例えば美術館、水族館等におけるガイドツアー等を撮影した動画データであってもよい。ライブ動画は、ライブ施設2において撮影されリアルタイムでストリーミング形式にて配信される。情報処理装置1は、各ライブ施設2から取得した多数のライブ動画を管理し、各ユーザの希望に応じたライブ動画を端末装置3へ配信する。
各ライブ施設2には、撮影装置21、出力装置22及び中継装置23が備えられている。撮影装置21は、例えばCCD(Charge Coupled Device)イメージセンサ等の撮像素子及びレンズ等を有するカメラである。撮影装置21は、レンズを介して入射した光を撮像素子にて光電変換し、画像データとして出力する。撮影装置21は、連続して撮影した複数の画像データからなる動画データを生成する。また、撮影装置21は、マイクロフォン等の音声入力デバイスを備え、ライブ施設2における音声を集音する。撮影装置21は、画像データ及び音声データの時間軸を合わせた音声付きのライブ動画を取得する。ライブ動画は、例えばフルハイビジョン等の、高い解像度にて撮影されることが好ましい。撮影装置21は、例えばライブ施設2内の座席に設置され、ライブ中におけるライブ動画を取得する。撮影装置21は、撮影方向(パン・チルト角度)を変更することができ、ユーザの要求に応じた視線方向のライブ動画を撮影する。撮影装置21は、ユーザの所有する座席券の座席番号に応じて、ライブ施設2内の異なる位置に複数台設置されてよい。撮影装置21は、座席に設置されるものに限定されず、美術館のガイドツアー等の場合においては、撮影者により把持され、場所を移動しながらライブ施設2内を撮影するものであってよい。
出力装置22は、例えば大型ディスプレイ、大型スクリーン、プロジェクタ等のモニタ222及びスピーカ223等を備える装置である(図6参照)。出力装置22は、ライブ施設2内において出演者から視認可能な位置に設けられ、ライブ動画を視聴するユーザの画像、音声等を出演者に対して出力する。出力装置22は、例えばスマートフォン、タブレット端末等の可搬型の装置であってもよい。
中継装置23は、例えばサーバコンピュータ、パーソナルコンピュータ等である。中継装置23は、有線又は無線により撮影装置21及び出力装置22それぞれと接続されており、ネットワークNを介した情報処理装置1と撮影装置21及び出力装置22との間の通信を中継する。中継装置23は、例えばルータ、ゲートウェイ等であってもよい。中継装置23は、撮影装置21から入力される画像データを情報処理装置1へ送信する。中継装置23は、情報処理装置1から受信した画像又は音声を含む情報を出力装置22へ出力する。
端末装置3はそれぞれ、例えばパーソナルコンピュータ、スマートフォン、タブレット端末等の情報端末装置である。動画配信サービスを利用するユーザは、端末装置3を用いて情報処理装置1から配信されるライブ動画を鑑賞することができる。ユーザはまた、端末装置3を用いて、ライブ動画を同時に視聴する他のユーザや、ライブ施設2の出演者に対し、ユーザ自身を撮影したユーザ画像やユーザ音声を情報処理装置1により配信することができる。
動画配信システム100における動画配信サービスでは、ライブ動画の視聴を希望するユーザは、予め座席券を購入する。座席券は、例えば、ライブ施設2の座席番号毎に販売される。座席券は、座席位置や、座席カテゴリ等に応じて複数の種類に分けられ、それぞれの種類に応じた価格で販売されている。例えば、座席の種類には、一人につき一席が用意される一般席や、グループシート・カップルシート等、複数人で利用可能なBOX席が含まれている。BOX席の座席券を購入したユーザは、ライブ動画の配信時に、端末装置3を用いて同一のBOX席のグループメンバーであるBOXルームユーザのみが参加可能なBOXルームに参加し、ライブ動画を視聴することができる。BOXルーム(グループルーム)とは、端末装置3の表示画面にて提供される、限定されたBOXルームユーザ間の画像やチャットボードを含むコミュニケーション空間であり、仮想的に生成されるBOX席である。
上述のように動画配信システム100では、ネットワークNを介したライブ動画の配信において、ユーザ同士のコミュニケーションが可能なBOXルームを提供することで、離れた場所でライブ動画を視聴するユーザ間におけるコミュニケーションを促進することができる。また、ライブ施設2内に設置される出力装置22を用いて、ユーザからのリアクションをリアルタイムで出演者へ表示する。出演者は、ユーザのリアクションを見ながらライブを進行することができ、ユーザのリアクションに応じた発信が可能となる。従って、ユーザ同士に加え、ユーザ及び出演者間におけるコミュニケーションが可能となり、双方における満足度を向上することができる。
このような動画配信システム100の構成及び詳細な処理内容について以下に説明する。
図2は、情報処理装置1の構成を示すブロック図である。情報処理装置1は、制御部10、記憶部11及び通信部12を備える。情報処理装置1は説明を容易にするために1台のサーバコンピュータとして説明するが、複数のサーバコンピュータで処理又は機能を分散させた構成とすることが好ましく、複数のサーバコンピュータをネットワークで接続して構築されるクラウドサーバであることが好ましい。
制御部10は、一又は複数のCPU(Central Processing Unit )又はGPU(Graphics Processing Unit)を用いたプロセッサであり、内蔵するROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを用い、各構成部を制御して処理を実行する。
通信部12は、ネットワークNを介した通信を実現する通信デバイスである。制御部10は、通信部12を介して撮影装置21からライブ動画データを取得する。制御部10は、通信部12を介して出力装置22へユーザのリアクションに関する情報を出力する。制御部10は、通信部12を介して端末装置3へライブ動画を配信する。
記憶部11は、ハードディスク、SSD(Solid State Drive )等の記憶装置を含む。記憶部11には、プログラム1Pを含む制御部10が参照するプログラム及びデータが記憶されている。制御部10は、プログラム1Pに基づき、後述するライブ動画及びユーザ画像等の配信に関する処理を実行する。
記憶部11に記憶されるプログラム1Pは、当該プログラム1Pを読み取り可能に記録した非一時的な記録媒体1Aにより提供されてもよい。記録媒体1Aは、例えば、CD-ROM、USB(Universal Serial Bus)メモリ、SD(Secure Digital)カード、マイクロSDカード、コンパクトフラッシュ(登録商標)などの可搬型メモリである。この場合、制御部10は、不図示の読取装置を用いて記録媒体1Aからプログラム1Pを読み取り、読み取ったプログラム1Pを記憶部11に記憶する。また、記憶部11に記憶されるプログラム1Pは、通信部12を介した通信により提供されてもよい。この場合、制御部10は、通信部12を通じてプログラム1Pを取得し、取得したプログラム1Pを記憶部11に記憶する。なお記憶部11は、複数の記憶装置により構成されていてもよく、情報処理装置1に接続された外部記憶装置であってもよい。
また、記憶部11には、ユーザ情報DB(Data Base :データベース)111、ライブ動画DB112、座席券情報DB113等が記憶されている。記憶部11には、学習モデル1Mが記憶されていてもよい。学習モデル1Mについては、他の実施形態で詳述する。
図3は、ユーザ情報DB111のレコードレイアウトを例示する説明図である。ユーザ情報DB111は、動画配信サービスのユーザに関するユーザ情報を格納するデータベースである。ユーザ情報DB111には、複数のユーザそれぞれのユーザID、氏名、住所、年齢、ユーザが使用する端末装置3を識別する端末装置情報(例えばIPアドレス等)、クレジットカード番号、座席券・商品等の購入履歴等の情報が対応付けられて格納されている。ユーザ情報は、ユーザが初めて動画配信サービスを利用する際に情報処理装置1にて提供される登録用の画面を用いて収集される。ユーザは端末装置3に表示される登録用の画面上において、ユーザに対して発行されているアカウント情報に対応させてユーザ情報を登録することができる。また、ユーザ情報は、ユーザアカウント情報に対応させて座席券・商品等が購入される都度、記録される。ユーザ情報DB111の記憶内容は図3に示す例に限定されない。
図4は、ライブ動画DB112のレコードレイアウトを例示する説明図である。情報処理装置1は、中継装置23を介して取得した各ライブ施設2におけるライブ動画をライブ動画DB112に記録している。ライブ動画DB112には、ライブ動画を識別するライブ動画ID、動画データ、ライブを識別するライブ識別情報(例えばライブID、ライブ名称及び開催日時等)、ライブ動画を撮影する撮影装置21を識別する撮影装置情報(例えば装置の固有アドレス)、ライブ動画の配信開始時刻及び終了時刻を含む配信日時等が対応付けられて格納されている。ライブ動画DB112の内容は、随時更新される。ライブ動画DB112の記憶内容は図4に示す例に限定されない。
図5は、座席券情報DB113のレコードレイアウトを例示する説明図である。座席券情報DB113は、ユーザの購入した座席券に関する情報を格納するデータベースである。座席券情報DB113には、座席券情報を識別する座席券ID、ライブを識別するライブ識別情報(例えばライブID、ライブ名称及び開催日時等)、座席番号、座席券の購入者に関する情報(例えばユーザID)、座席券の購入日、座席数、招待者に関する情報(例えばユーザID)、ライブ動画ID等が対応付けられて格納されている。座席数とは、1つの座席番号に含まれる座席の数であり、1枚の座席券で同時にライブ動画を視聴することのできるユーザの人数に相当する。招待者とは、座席券の購入者からライブ動画の視聴に招待されたユーザであり、当該座席券の利用を許可されたユーザである。ライブ動画IDとは、座席券IDに対応するライブ動画を識別する識別情報であり、当該座席券IDの座席に設置された撮影装置21により撮影されるライブ動画のライブ動画IDが含まれる。
座席券情報は、例えば座席券販売会社のサーバ装置又は購入者の端末装置3等と通信を行うことにより、ユーザアカウントに対応付けて座席券が販売される都度、記録される。BOX席の座席券を購入したユーザ(購入者)は、購入後、座席券の種類毎に設定される座数に応じた招待可能枠の範囲内で、他のユーザ(招待者)を招待することができる。情報処理装置1は、購入者の端末装置3等を介して招待者に関する情報を収集し、座席券情報DB113に記録する。座席券情報DB113の記憶内容は図5に示す例に限定されない。
図6は、中継装置23等の構成を示すブロック図である。中継装置23は、制御部230、記憶部231、通信部232及び入出力部233を備える。
制御部230は、一又は複数のCPU又はGPUを用いたプロセッサであり、内蔵するROM及びRAM等のメモリを用い、各構成部を制御して処理を実行する。記憶部231は、ハードディスク、SSD等の記憶装置を含む。記憶部231には、制御部230が参照するプログラム及びデータが記憶されている。
通信部232は、ネットワークNを介した通信を実現する通信デバイスである。制御部230は、通信部232を介して情報処理装置1へライブ動画を出力すると共に、情報処理装置1から出力装置22へ出力する画像データ、音声データ等を取得する。
入出力部233は、撮影装置21及び出力装置22をそれぞれ接続する入出力インタフェースである。入出力部233と、撮影装置21及び出力装置22それぞれとの間の接続は有線であってもよく、無線であってもよい。撮影装置21により撮影された画像データ及び音声データは、不図示のエンコーダを介し、入出力部233へ入力される。エンコーダは、撮影装置21から入力されたライブ動画を、リアルタイムで圧縮・符号化して、インターネット配信に適した動画データを生成する。制御部230は、入出力部233を通して撮影装置21から得られる信号を取得する。制御部230は、ユーザの操作による撮影方向の変更指示に関する信号を情報処理装置1から取得した場合、当該信号を入出力部233を通して撮影装置21へ出力する。また、制御部230は、入出力部233を通して情報処理装置1から取得した画面データ、音声データ等を出力装置22へ出力する。出力装置22は、モニタ222へ画面を表示する共に、スピーカ223により音声を出力する。
上記では、撮影装置21及び出力装置22は中継装置23を介して情報処理装置1と通信する例を説明したが、本実施形態は限定されるものではない。撮影装置21及び出力装置22はそれぞれ通信機能を備え、中継装置23を介することなくネットワークNを通して情報処理装置1とデータの送受信を行うものであってよい。
図7は、端末装置3の構成を示すブロック図である。端末装置3は、制御部30、記憶部31、通信部32、表示部33、操作部34、音声入力部35、音声出力部36、撮影部37を備える。
制御部30は、CPU又はGPU等のプロセッサと、メモリ等を含む。制御部30は、プロセッサ、メモリ、記憶部31、及び通信部32を集積した1つのハードウェア(SoC:System On a Chip)として構成されていてもよい。制御部30は、記憶部31に記憶されているプログラム3Pに基づき、各構成部を制御して処理を実行する。
記憶部31は、例えばフラッシュメモリ等の不揮発性メモリを含む。記憶部31には、プログラム3Pを含む制御部30が参照するプログラム及びデータが記憶されている。制御部30は、プログラム3Pに基づき、後述するライブ動画及び画面情報の受信、ユーザ画像の送信等に関する処理を実行する。
記憶部31に記憶されるプログラム3Pは、当該プログラム3Pを読み取り可能に記録した非一時的な記録媒体3Aにより提供されてもよい。この場合、制御部30は、不図示の読取装置を用いて記録媒体3Aからプログラム3Pを読み取り、読み取ったプログラム3Pを記憶部31に記憶する。また、記憶部31に記憶されるプログラム3Pは、通信部32を介した通信により提供されてもよい。この場合、制御部30は、通信部32を通じてプログラム3Pを取得し、取得したプログラム3Pを記憶部31に記憶する。
通信部32は、公衆通信網又はキャリアネットワークを含むネットワークNを介した情報処理装置1との通信を実現する通信デバイスである。制御部30は、通信部32を介し、情報処理装置1から画面情報を取得すると共に、ユーザの画像データ、音声データを情報処理装置1へ出力する
表示部33は、液晶パネル、有機EL(Electro Luminescence)ディスプレイ等のディスプレイ装置を含む。表示部33は、制御部30からの指示に従ってライブ動画を含む各種の情報を表示する。操作部34は、ユーザの操作を受け付けるインタフェースであり、例えば物理ボタン、マウス、ディスプレイ内蔵のタッチパネルデバイス等を含む。操作部34は、ユーザからの操作入力を受け付け、操作内容に応じた制御信号を制御部30へ送出する。
音声入力部35は、ユーザの音声情報の入力を受け付けるための音声入力デバイスであり、マイクロフォン等を用いる。音声入力部35は、音波を音声データに変換し、変換した音声データを制御部30に与える。音声出力部36は、音声を再生するための音声出力デバイスであり、スピーカ等を用いる。音声出力部36は、制御部30からの音声出力制御に従い、音声データを音波に変換して出力する。
撮影部37は、CMOS(Complementary Metal Oxide Semiconductor )、又はCCD(Charge Coupled Device )等のイメージセンサを備えた撮影装置である。撮影部37は、制御部30の制御指示に基づき、ユーザの静止画又は動画を含むユーザ画像を撮影する。
図8は、動画配信システム100にて実行される処理手順の一例を示すフローチャートである。例えば上述したようにユーザ情報の登録が済んでいる状態で、購入者又は招待者であるユーザが端末装置3を用いてプログラム3Pを選択し、アカウント情報を用いてログインすると、端末装置3の制御部30及び情報処理装置1の制御部10が以下の処理を実行する。
端末装置3の制御部30は、プログラム3Pに従って、ライブ動画配信サービスに係る受付画像を表示部33に表示する(ステップS11)。受付画像には、例えば配信を希望するライブ動画に関するライブ識別情報、座席番号及びパスコード等の入力欄と、配信指示を受け付けるための配信ボタンとが含まれている。ライブ動画の視聴に際し、ユーザは予め座席番号及びパスコード等が記載された座席券を購入する。BOX席の座席番号を有する座席券を購入したユーザ(購入者)は、購入後、当該座席券の席数に応じた人数の他ユーザ(招待者)に対し、例えば座席番号及びパスコード等を付した招待メールを送信することにより、BOX席へ招待する。招待者は、招待メールを受信し、座席番号及びパスコードを取得する。
なお、座席番号及びパスコードの通知方法は限定されるものではない。例えば、情報処理装置1又は座席券販売会社等のサーバ装置から座席券の購入者又は招待者の端末装置3へ、座席番号及びパスコードを取得するためのURL等のリンク先情報が送信されてもよい。又は、情報処理装置1又は座席券販売会社等のサーバ装置から座席券の購入者又は招待者の端末装置3へ、ライブ動画ID、ユーザID及び座席券ID等を埋め込んだURL等のリンク先情報が送信されてもよい。
制御部30は、受付画像を用いてユーザの操作部34の操作を受け付け、ライブ識別情報、座席番号、パスコード等を含むライブ動画の配信指示を取得する(ステップS12)。制御部30は、端末装置3の識別情報、ライブ識別情報、座席番号及びパスコード等を含むライブ動画の配信指示を情報処理装置1へ送信する(ステップS13)。
情報処理装置1の制御部10は、端末装置3の識別情報、ライブ名称、座席番号及びパスコード等を含むライブ動画の配信指示を受信する(ステップS14)。制御部10は、配信指示を取得する第1取得部として機能する。制御部10は、ユーザ情報DB111を参照して、ログインに係る端末装置3の識別情報に関連付けられるユーザIDを取得する(ステップS15)。また制御部10は、座席券情報DB113を参照して、ライブ識別情報及び座席番号に関連付けられる座席券IDを特定し(ステップS16)、特定した座席券IDに関連付けられる購入者及び紹介者のユーザIDを取得する。
制御部10は、ユーザの認証処理を実行する(ステップS17)。制御部10は、取得した座席番号及びパスコードが予め記憶する認証データと一致し、且つ、ログインに係るユーザIDが座席券IDに関連付けられる購入者又は紹介者に含まれている場合、ログインユーザを座席券の正規ユーザとして認証する。
認証しないと判定した場合(ステップS17:NO)、制御部10は処理を終了する。制御部10は、認証不可を示す情報を端末装置3へ出力し、再度入力を受け付けるものであってもよい。
認証すると判定した場合(ステップS17:YES)、制御部10は、例えばBOXルームへの参加ボタンを含む画面情報を生成することにより、BOXルームへの参加問い合わせを端末装置3へ送信する(ステップS18)。BOXルームには、複数人で利用可能なBOX席を利用するユーザのみが参加できる。
端末装置3の制御部30は、BOXルームへの参加問い合わせを受信し(ステップS19)、参加問い合わせに基づく画面を表示部33に表示する。制御部30は、例えば参加ボタンの押下操作の受け付け等により、BOXルームへの参加要求を取得する(ステップS20)。制御部30は、取得した参加要求を情報処理装置1へ送信する(ステップS21)。
情報処理装置1の制御部10は、BOXルームへの参加要求を受信する(ステップS22)。制御部10は、参加要求を取得する第2取得部として機能する。制御部10は、参加要求を受信したユーザIDのユーザを、座席番号のBOXルームのBOXルームユーザに追加し(ステップS23)、BOXルームへの参加を許可する許可情報を端末装置3へ送信する(ステップS24)。
端末装置3の制御部30は、許可情報を受信する(ステップS25)。制御部30は、受信した許可情報を示す画面を表示部33に表示し、一連の処理を終了する。制御部30は、許可情報として、参加したグループのBOXルーム画像を表示部33に表示してもよい。
上述の処理において、ライブ動画の配信指示及びBOXルームへの参加要求はそれぞれ取得されるものに限定されず、まとめて取得されてもよい。例えば、端末装置3の制御部30は、表示部33に表示されるリンク先情報のクリック操作を受け付けることにより、配信指示及び参加要求を取得し、情報処理装置1へ送信する。情報処理装置1の制御部10は、配信指示及び参加要求を取得し、リンク先情報に応じた画像を表示する。
上述の処理が実行され、ライブ施設2におけるライブが開始する。図9及び図10は、動画配信システム100にて実行されるライブ動画配信に係る処理手順の一例を示すフローチャートである。ライブ動画の配信対象となるライブ施設2内には、ライブ開始前に、ユーザの購入した座席券に係る座席番号の座席上に撮影装置21が設置されている。ライブ動画の配信開始時刻になり、撮影装置21にて撮影が開始されると、情報処理装置1の制御部10及び端末装置3の制御部30が以下の処理を実行する。
情報処理装置1の制御部10は、中継装置23を介して撮影装置21からリアルタイムでライブ動画を受信し(ステップS31)、受信したライブ動画をライブ動画IDに関連付けてライブ動画DB112に記憶する。ライブ施設2内に撮影装置21が複数備えられている場合においては、制御部10は、各撮影装置21による複数のライブ動画を取得し、それぞれのライブ動画IDを関連付けて記憶する。制御部10は、ライブ動画を取得する第3取得部として機能する。
制御部10は、図8の処理により配信指示を取得した端末装置3へライブ動画の配信を開始する(ステップS32)。端末装置3には、当該端末装置3に係る座席券IDに応じたライブ動画IDのライブ動画、すなわち座席番号に応じた撮影装置21により撮影されるライブ動画が配信される。ライブ動画は、画像データ及び音声データを含み、例えばストリーミング形式の通信プロトコルによりリアルタイムで配信される。
制御部10は、撮影装置21から取得したライブ動画に、VFX(Visual Effects)等の手法を用いて編集を施したライブ動画を配信してもよい。
制御部30は、撮影部37を介してユーザを撮影したユーザ画像の取得を開始する(ステップS33)。制御部10は、ユーザ画像を取得する第4取得部として機能する。制御部30は、取得したユーザ画像をリアルタイムで圧縮・符号化して、インターネット配信に適したファイル形式の動画データに変換したユーザ画像を生成する。制御部30は、生成したユーザ画像を情報処理装置1へ送信する(ステップS34)。この場合において、制御部30は、音声入力部35により取得したユーザ音声をユーザ画像と関連付けて情報処理装置1へ送信してもよい。すなわち、ユーザ画像は、ユーザ音声を含む動画データであってよい。なお、制御部30は、情報処理装置1等から取得する許可信号に応じて、音声入力部35による音声入力のオン/オフを切り替えるものであってよい。
情報処理装置1の制御部10は、ユーザ画像を受信し(ステップS35)、一時的に記憶部11に記憶する。制御部10は、ユーザ画像の配信を開始する(ステップS36)。ユーザ画像は、例えばストリーミング形式の通信プロトコルによりリアルタイムで配信される。
制御部10は、受信したユーザ画像に基づき、ユーザの参加しているBOXルームの各BOXルームユーザに係るユーザ画像を含むBOXルーム画像を生成する。制御部10は、BOXルーム画像とライブ動画とを含む画面情報を生成する(ステップS37)。制御部10は、画面情報を生成する生成部として機能する。制御部10は、生成した画面情報を端末装置3へ送信する(ステップS38)。制御部10は、画面情報を出力する出力部として機能する。
端末装置3の制御部30は、画面情報を受信する(ステップS39)。制御部30は、受信した画面情報に基づく表示画面330を表示部33に表示する(ステップS40)。画面情報と共に音声データを取得した場合には、制御部30は、音声出力部36により音声を出力する。
図11は、端末装置3の表示部33に表示される表示画面330の一例を示す図である。図11に示す例にて、表示画面330には複数の領域が含まれ、各領域には、ライブ動画像331、商品購入画像332、チャットルーム画像333、BOXルーム画像334及びツールバー335等がそれぞれ表示されている。ライブ動画像331の表示領域には、撮影装置21から取得したライブ動画像がリアルタイムで表示される。
商品購入画像332の表示領域には、ライブ動画に関する各種の商品の購入を受け付ける商品購入画像が表示される。ユーザは、商品購入画像332を利用して、例えばCD、ライブ限定グッズ等の商品を購入することができる。商品には、デジタルコンテンツが含まれていてもよい。情報処理装置1の制御部10は、例えばユーザDB111を参照して、ユーザ属性や購入履歴に基づくお勧め商品を特定し、特定したお勧め商品を含む商品購入画像332を生成する。ユーザは、表示画面330を用いて、通常ライブ施設2において販売される商品を、現地に行くことなく購入することができる。
チャットルーム画像333の表示領域には、BOXルームユーザによるチャット画像が表示される。制御部10は、表示画面330により、BOXルームへの参加を許可したBOXルームユーザによるチャットルームを提供する。制御部10は、各BOXルームユーザからチャット入力を受け付けた都度、チャットルーム画像333を更新する。
BOXルーム画像334の表示領域には、ユーザが参加するBOXルームに係る画像が表示されており、各BOXルームユーザの端末装置3から取得した複数のユーザ画像が含まれている。制御部10は、各BOXルームユーザの端末装置3からユーザ画像を取得した場合、座席券情報DB113を参照して、当該ユーザ画像のユーザIDが含まれるBOXルームを特定する。制御部10は、特定したBOXルームにおけるBOXルーム画像上の各ユーザIDが割り当てられた位置に、対応するユーザIDのユーザ画像をそれぞれ表示するBOXルーム画像を生成する。制御部30は、ストリーミング形式で配信されるライブ動画及びユーザ画像を含む表示画面情報を受信し表示部33に表示する。
ツールバー335の表示領域には、撮影装置21の視点操作のための操作ボタン336、拍手操作を受け付けるための拍手ボタン337、画面表示を切り替えるための切替ボタン338等を含むバーが表示される。端末装置3の制御部30は、ユーザによる各ボタン操作を受け付け、受け付けた操作信号を情報処理装置1へ送信する。
ユーザは、操作ボタン336を操作することにより、撮影装置21の撮影方向を右、左及び正面に変更することができる。端末装置3の制御部30は、各方向に応じた操作ボタン336の操作を受け付けた場合、受け付けた操作信号を情報処理装置1へ送信する。情報処理装置1は、操作信号を受信し、中継装置23を介して座席券IDに関連付けられる撮影装置21へと撮影方向の変更指示を出力する。撮影装置21は、変更指示に応じて撮影方向を変更する。操作ボタンは、上下方向の操作ボタン336を含み、チルト操作を受け付けるものであってもよい。操作ボタン336により切替可能な撮影装置21の撮影方向は、各座席の種類に応じて異なるものであってよい。例えば、情報処理装置1の制御部10は、座席券IDと、当該座席券IDに係る撮影装置21のチルト・パン角度の変更可能範囲の設定情報とを関連付けて記憶しておき、変更可能角度の範囲内で撮影装置21の撮影方向の変更指示を出力するものであってよい。
ユーザは、切替ボタン338を操作することにより、ライブ動画像以外の表示領域の表示又は非表示を切り替えることができる。制御部30は、切替ボタン338の押下操作を取得し、ライブ動画像の表示領域を変更し、全画面フレームにてライブ動画を表示する。切替ボタン338は、各表示領域に対する操作毎に複数設けられていてもよい。拍手ボタン337については、他の実施形態で詳述する。
ユーザは、表示画面330を利用して、ライブ動画の視聴を行うと共に、ユーザ間におけるコミュニケーションや買い物などを楽しむことができる。なお表示画面330は、上述したライブ動画像331、商品購入画像332、チャットルーム画像333、BOXルーム画像334及びツールバー335等を全て含む構成に限定されるものでない。
図9に戻り、説明を続ける。上述のユーザ画像は、BOXルームユーザに加え、出演者にも共有される。情報処理装置1の制御部10は、取得した各ユーザのユーザ画像からなる画面情報を含む出力情報を生成する(ステップS41)。出力情報には、ユーザ音声が含まれていてもよい。制御部10は、生成した出力情報を中継装置23へ送信する(ステップS42)。
中継装置23の制御部230は、出力情報を受信する。制御部230は、受信した画面情報に基づくモニタ画面を出力装置22のモニタ222に表示する。
図12は、出力装置22のモニタ222に表示されるモニタ画面の一例を示す図である。図12Aは、BOX席のBOXルームユーザのユーザ画像を含むモニタ画面224の例を示す図である。図12Bは、一般席のユーザのユーザ画像を含むモニタ画面225の例を示す図である。情報処理装置1の制御部10は、ライブ動画の配信と並行して、ライブ動画を視聴する各ユーザの端末装置3から、リアルタイムでユーザ画像を取得する。制御部10は、各端末装置3に関連付けられる座席券IDに応じて、座席券の種類毎にユーザ画像を表示するモニタ画面情報を生成し、生成したモニタ画面を出力装置22へ出力する。制御部10は、モニタ画面情報と共に、モニタ画面情報に含まれるユーザ画像に対応付けて取得したユーザ音声を出力してもよい。
例えば、図12Aに示す如く、座席の種類がBOX席である複数のユーザ画像2241は、各BOX席の座席番号のグループ単位で表示される。各BOX席の画像2242には、座席番号又は座席の種類等が認識可能に対応付けられており、その他の座席種類のユーザ画像と区別して表示される。BOX席の画像2242は、BOXルームで共有されるBOXルーム画像であってよい。図12Bに示す如く、座席の種類がBOX席以外(例えば一般席)であるユーザ画像2251は、一覧で表示される。一覧表示される一般席のユーザ画像それぞれには、各座席番号が対応付けられていてもよい。情報処理装置1の制御部10又は中継装置23の制御部230は、画面の切り替え指示を取得し、取得した切り替え指示に応じたBOX席又は一般席のいずれか一方のモニタ画面を表示してよい。複数のユーザ画像2241を含むBOX席の画像2242又はBOX席以外のユーザ画像2251は、モニタ画面上において、各ライブ施設2における各ユーザの座席位置に対応する位置にそれぞれ配置されてもよい。
ライブの出演者は、出力装置22に表示されるユーザ画像や音声により、ネットワークNを介してライブ動画を視聴するユーザのリアクションを取得し、また出力装置22を介してユーザとコミュニケーションを行うことができる。ユーザ画像は、座席の種類毎に分けて表示されるため、出演者はグループ毎のメンバー構成やリアクションを容易に認識することができる。
図9に戻り、説明を続ける。情報処理装置1の制御部10は、ライブ動画の配信を終了するか否かを判定する(ステップS43)。例えばライブ動画の配信終了時刻でないことにより配信を終了しないと判定した場合(ステップS43:NO)、制御部10は、処理をステップS35へ戻し、ライブ動画の配信を継続する。表示画面情報及び出力情報の生成及び送信は、ライブ動画の配信終了時まで継続的に行われる。
一方、ライブ動画の配信終了時刻であることにより配信を終了すると判定した場合(ステップS43:YES)、制御部10は配信の終了を端末装置3へ通知する(ステップS44)。制御部10は、ライブ動画の配信を終了し(ステップS45)、一連の処理を終了する。
端末装置3の制御部30は、配信の終了通知を取得する(ステップS46)。制御部30は、処理を終了するか否かを判定する(ステップS47)。終了通知を取得しておらず、処理を終了しないと判定した場合(ステップS47:NO)、制御部30は、処理をステップS34に戻す。一方、終了通知を取得したことにより、処理を終了すると判定した場合(ステップS47:YES)、制御部30は、ユーザ画像の送信、画面情報の受信を終了する。制御部30は、表示画面330の表示を終了し(ステップS48)、一連の処理を終了する。
上述の図8から図10において、処理手順は図8から図9の例に限定されるものではない。各処理手順は、その順序を変更して実行されてもよく、また並行して複数の処理が実行されてもよい。情報処理装置1の制御部10は、ライブ動画の配信、ユーザ画像の配信、出力情報の出力を並行して行うものであってよい。
上述の処理において、情報処理装置1の制御部10は、ライブ動画像331、商品購入画像332、チャットルーム画像333、及びBOXルーム画像334をそれぞれ表示する複数の領域を含む画面情報を生成し、送信する例を説明したが、本実施形態は限定されるものではない。制御部10は、全ての領域に対応する画面情報を生成し、送信するものに限られず、各領域単位での画面情報をそれぞれに非同期で生成し、出力するものであってよい。
上述の処理においては、表示画面330が、ライブ動画の配信開始時刻から配信終了時刻の間に端末装置3の表示部33に表示される例を説明したが、本実施形態は限定されるものではない。例えば、表示画面330は配信開始時刻から配信終了時刻の間以外の時間に表示され、ライブの開催前後において、ユーザによる商品の購入受け付けや、BOXルームの提供を行うものであってよい。
上述の処理によれば、ネットワークNを介したライブ動画の視聴において、ライブ動画と共に表示される各種の情報により、ユーザの臨場感を高めることができる。ユーザ画像が配信されることにより、ユーザ同士又はユーザ及び出演者間におけるコミュニケーションを促進し、ユーザ及び出演者の満足度を向上させ得る。
(第2実施形態)
第2実施形態では、出演者及びBOXルームユーザ間によるファン交流を提供する構成を説明する。以下では、第2実施形態について、第1実施形態と異なる点を説明する。後述する構成を除く他の構成については第1実施形態の動画配信システム100と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
第2実施形態の情報処理装置1は、ライブ動画として、全ての観客に対するライブ映像とは別に、出演者との特別交流が可能なファンサービスに関するライブ動画を配信する。ファンサービスは、例えば、ライブ終了後に行われ、所定の座席番号の座席券を利用するBOXルームユーザのみが参加することができる。情報処理装置1の制御部10は、予め座席券IDと、ファンサービス動画の配信の有無とを関連付けて記憶している。制御部10は、座席券IDに対応するファンサービスへの参加資格を有するユーザIDを特定し、特定したユーザIDに係る端末装置3へ、ファンサービスを撮影するライブ動画を配信する。本実施形態によれば、所定の座席券を利用するBOXルームユーザは、出演者とBOXルームユーザのみとの間における特別なコミュニケーションが可能となり、ユーザの満足度をさらに向上させることができる。
(第3実施形態)
第3実施形態では、アバターにより生成されるユーザ画像を表示する構成を説明する。以下では、第3実施形態について、第1実施形態と異なる点を説明する。後述する構成を除く他の構成については第1実施形態の動画配信システム100と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
図13は、第3実施形態における動画配信システム100にて実行される処理手順の一例を示すフローチャートである。情報処理装置1の制御部10は、アバターを生成するためのアバターコンテンツを含む画面情報を生成し、生成したアバターコンテンツを含む画面情報を端末装置3へ送信する(ステップS51)。
端末装置3の制御部30は、アバターコンテンツを含む画面情報を受信し(ステップS52)、受信した画面情報に基づく画面を表示部33に表示する(ステップS53)。制御部30は、ユーザの操作部34の操作によるアバターの選択を受け付ける(ステップS54)。制御部30は、選択されたコンテンツによるアバター画像を生成する(ステップS55)。制御部30は、生成したアバター画像を情報処理装置1へ送信する(ステップS56)。
情報処理装置1の制御部10は、アバター画像を受信する(ステップS57)。制御部10は、受信したアバター画像を、ユーザ画像として記憶する。制御部10は、記憶したアバター画像であるユーザ画像を用いて、表示画面情報又は出力情報を生成する。端末装置3やモニタ222には、アバター画像が表示される。アバターコンテンツには、例えば季節やライブ内容に応じたキャラクター、衣装、装飾品等が含まれている。ユーザは、ライブ動画の配信毎に、ライブに参加するユーザ自身の代わりにアバターを変身させることができる。アバター生成画面は、仮想的な更衣室として機能する。
なお、ユーザ画像は、アバターを用いて生成するものに限定されない。情報処理装置1は、例えば季節、ライブ内容、ライブ施設2等に応じた背景コンテンツを提供してもよい。ユーザは端末装置3を用いて、好みの背景コンテンツを選択し、端末装置3により撮影されるユーザの撮像画像と、選択した背景コンテンツとを重畳させたユーザ画像を生成してもよい。背景コンテンツは、同一BOXルームに参加する全てのユーザ画像に共通して適用されてもよい。背景コンテンツは、各ユーザ画像の背景に適用されるものに限定されず、BOXルーム画像の周囲に設けられる枠の背景として適用されるものであってもよい。同一コンテンツをBOXルームに適用することで、BOXルームユーザ間の連帯感をより高めることができる。
上記のアバターコンテンツ又は背景コンテンツは、座席券の種類に応じてBOXルームのBOXルームユーザに対し限定的に提供されてよい。座席券の種類に応じた限定コンテンツを用いたユーザ画像又はBOXルーム画像を表示することにより、他の座席券のユーザ画像との差別化を図ることができる。本実施形態によれば、ユーザはライブ毎に異なるアバター又は背景を表示させてライブ動画を視聴することができるため、ユーザの満足度をさらに向上させることができる。
(第4実施形態)
第4実施形態では、ユーザのリアクションに応じたさらなる画像又は音声を出力装置22に出力する構成を説明する。以下では、第4実施形態について、第1実施形態と異なる点を説明する。後述する構成を除く他の構成については第1実施形態の動画配信システム100と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
第4実施形態の情報処理装置1は、記憶部11に、図2に示す如く学習モデル1Mを記憶している。学習モデル1Mは、機械学習により生成された学習モデルであり、ユーザを撮影したユーザ画像の入力に応じて当該ユーザの盛り上がり度を示すデータを出力する。学習モデル1Mは、その定義情報によって定義される。学習モデル1Mの定義情報は、例えば、学習モデル1Mの構造情報や層の情報、各層が備えるノードの情報、学習済みのパラメータ等を含む。記憶部11には、学習モデル1Mに関する定義情報が記憶されている。
図14は、第4実施形態における学習モデル1Mの概要図である。学習モデル1Mは予め、情報処理装置1又は外部装置において、ニューラルネットワークを用いた深層学習によって、生成され、学習される。学習アルゴリズムは、例えばCNN(Convolution Neural Network)である。
学習モデル1Mは、端末装置3の撮影部37により撮影された、ライブ動画を視聴するユーザのユーザ画像を入力する入力層と、当該ユーザのライブ動画に対する盛り上がり度を示す情報を出力する出力層と、特徴量を抽出する中間層(隠れ層)とを備える。中間層は、入力データの特徴量を抽出する複数のノードを有し、各種パラメータを用いて抽出された特徴量を出力層に受け渡す。入力層に、画像データが入力された場合、学習済みパラメータによって中間層で演算が行なわれ、出力層から、盛り上がり度に関する出力情報が出力される。
学習モデル1Mの入力層へ入力される入力情報は、ユーザ画像に限定されず、例えば端末装置3の音声入力部35により取得されたユーザ音声が入力要素に含まれてよい。あるいは、後述する拍手ボタンの操作に関する情報が入力要素に含まれてよい。
盛り上がり度は、例えば1から5の5段階に分別され、盛り上がり度の数値が高い程、ユーザの盛り上がりが大きいことを示す。例えば、ユーザ画像におけるユーザの笑顔が検出された場合には盛り上がり度が大きいと判断される。ユーザ画像におけるユーザの所定動作(例えば拍手動作、ダンス動作等)が検出された場合には盛り上がり度が大きいと判断される。音声データにおける歓声、拍手音が大きい場合には盛り上がり度が大きいと判断される。学習モデル1Mの出力層は、設定されている盛り上がり度に各々対応するチャネルを含み、各盛り上がり度に対する確度をスコアとして出力する。情報処理装置1は、スコアが最も高い盛り上がり度、あるいはスコアが閾値以上である盛り上がり度を出力層の出力値とすることができる。なお出力層は、それぞれの盛り上がり度の確度を出力する複数の出力ノードを有する代わりに、最も確度の高い盛り上がり度を出力する1個の出力ノードを有してもよい。なお、盛り上がり度は5段階に分類される例に限定されない。盛り上がり度は、5段階以外の複数段階に分類されてもよく、百分率で表されてもよい。
制御部10は、過去に収集した大量のユーザ画像に、既知の盛り上がり度が付与された情報群を訓練データとして予め収集して学習モデル1Mを学習する。盛り上がり度は、例えばユーザから取得したアンケート結果やライブ管理者の判断等により決定される盛り上がり度を正解ラベルとしてよい。制御部10は、ユーザ画像に応じた盛り上がり度を出力するよう、例えば誤差逆伝播法を用いて、学習モデル1Mを構成する各種パラメータ及び重み等を学習する。
学習モデル1Mは、CNNに限定されるものではない。学習モデル1Mは、時系列データを取得した場合にはリカレントニューラルネットワーク(RNN:Recurrent Neural Network)でもよい。学習モデル1Mは、ニューラルネットワークを用いないサポートベクタマシン、回帰木等、他の学習アルゴリズムで構築された学習モデルであってよい。
第4実施形態における端末装置3の表示部33に表示される表示画面330には、図11に示す如く拍手ボタン337が含まれている。ユーザは、拍手ボタン337を操作することで、ライブ動画に対する盛り上がりの感情を出演者へ通知することができる。
図15は、第4実施形態における動画配信システム100にて実行される処理手順の一例を示すフローチャートである。ライブ動画の配信が開始され、端末装置3の表示部33には、プログラム3Pに従い拍手ボタン337を含む表示画面330が表示される。
ユーザは、ライブ動画の視聴中において、出演者に拍手を送りたい場合に、拍手ボタン337をタップする。端末装置3の制御部30は、操作部34により、ユーザの拍手ボタン337の押下操作を受け付ける(ステップS61)。制御部30は、拍手ボタン337の操作を受け付けたことを示す操作信号を情報処理装置1へ送信する(ステップS62)。
情報処理装置1の制御部10は、操作信号を受信する(ステップS63)。また、制御部10は、所定のタイミングにて、記憶部11に記憶するユーザ画像を読み出す(ステップS64)。制御部10は、ユーザ画像を入力情報として学習モデル1Mに入力し(ステップS65)、出力される盛り上がり度を取得する(ステップS66)。学習モデル1Mには、ユーザ画像の他、ユーザ音声、拍手ボタン337の操作を受け付けたことを示す操作信号等が入力されてもよい。
制御部10は、取得した操作信号又は盛り上がり度に基づき、画面情報又は音声を含むリアクション情報を生成する(ステップS67)。例えば、制御部10は、拍手ボタン337の操作信号に応じた拍手音、合成音声を含むリアクション情報を生成する。制御部10は、操作信号の連続回数、連続時間に応じて音声データの音量や音声パターンを変化させてもよい。又は、制御部10は、盛り上がり度の状態又は推移を示す盛り上がり度グラフ又はオブジェクトを含む画面情報をリアクション情報として生成してもよい。制御部10は、学習モデル1Mから出力された盛り上がり度の数値に応じて、盛り上がり度グラフのバーの長さ、色を変化させたリアクション情報を生成する。制御部10は、盛り上がり度に応じた拍手音、合成音声を含むリアクション情報を生成してもよい。制御部10は、、操作信号又は盛り上がり度に基づき、オブジェクトの大きさ、色及び表示態様のいずれか1つを変化させたリアクション情報を生成してもよい。制御部10は、ユーザ画像又はBOX席の画像の枠又は背景の色を変化させたリアクション情報を生成してもよい。制御部10は、ユーザ画像のアバターサイズ変化させたリアクション情報を生成してもよい。リアクション情報は、所定間隔において各ユーザの端末装置3から取得した操作信号又は盛り上がり度を合計し、合計したデータに基づき生成されるものであってよい。
制御部10は、生成したリアクション情報を中継装置23へ送信する(ステップS68)。中継装置23の制御部230は、リアクション情報を受信する。制御部230は、受信した画面情報に基づくモニタ画面を出力装置22のモニタ222に表示すると共に、音声をスピーカ223により出力する。リアクション情報は、ユーザ画像に関連付けて出力装置22に表示されてもよい。これにより、例えば出演者は、ユーザのユーザ画像と拍手ボタン337の操作状況とを対応付けて認識することができる。
図16は、第4実施形態における出力装置22のモニタ222に表示されるモニタ画面226の一例を示す図である。モニタ画面226には、ユーザ画像2261に対応付けてリアクション情報2262が表示されている。図16の例では、各ユーザ画像2261は、ライブ施設2における座席の配置に対応付けてモニタ画面226上に表示されている。情報処理装置1の制御部10は、ライブ施設2における座席位置と座席番号とを関連付けたMAP情報を予め記憶している。制御部10は、各ユーザ画像2261に係る座席券IDに基づき、各ユーザ画像2261をライブ施設2の座席位置及び座席番号に応じて画面上に配置するモニタ画面情報を生成する。例えば、2階のBOX席のユーザ画像2261からなるBOX席の画像2263は、BOX席単位で画面上側に配置される。1階の一般席のユーザ画像2261は、一覧で画面下側に配置される。
ユーザ画像2261には、各ユーザ画像に係るリアクション情報2262が関連付けて表示されている。図16の例では、リアクション情報2262は、盛り上がり度に応じて大きさが異なる拍手マークにて表示されている。情報処理装置1の制御部10は、ユーザ単位、又は座席券の種類単位で取得した盛り上がり度に応じて、大きさを変化させた拍手マークを生成し、生成した拍手マークをユーザ画像2261又はBOX席の画像2263に重畳表示する。盛り上がり度が高くなると、拍手マークのサイズが大きくなる。リアクション情報又はモニタ画面情報は、端末装置3へ送信されることによりユーザ側に表示されてもよい。
本実施形態によれば、出力装置22からユーザのリアクションに応じた画像や効果音が出力され、出演者は容易にユーザの座席番号やリアクションを認識することができる。ユーザと出演者とのコミュニケーションを促進し、双方における満足度をさらに向上させ得る。
(第5実施形態)
第5実施形態では、出演者の指示に応じた画像又は音声を出力装置22に出力する構成を説明する。以下では、第5実施形態について、第1実施形態と異なる点を説明する。後述する構成を除く他の構成については第1実施形態の動画配信システム100と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
図17は、第5実施形態における動画配信システム100にて実行される処理手順の一例を示すフローチャートである。
ライブ施設2のモニタ222には、複数のユーザ画像と、当該ユーザ画像に係る座席番号又は座席の種類が対応付けて表示されている。ライブの出演者は、モニタ222に表示される画面を通して、特定の座席番号を指定しユーザとの対話を行う。ライブの出演者は、モニタ222のタップ操作等により、いずれかの座席番号(例えばBOX席A)を指定する。中継装置23の制御部230は、モニタ222のタップ操作の受け付け等により、座席番号の指定を受け付ける(ステップS71)。制御部230は、タップ操作の位置座標等を含む指定情報を取得する。制御部230は、取得した指定情報を情報処理装置1へ送信する(ステップS72)。
情報処理装置1の制御部10は、指定情報を受信する(ステップS73)。制御部10は、出力装置22に表示している画面情報(出力情報)に含まれる各ユーザ画像の表示位置と、指定情報とに基づき、出演者の指定した座席番号を特定する(ステップS74)。なお、指定情報の取得又は座席番号の特定方法は限定されない。制御部10は、指定情報としてライブ動画に含まれる音声データを取得し、取得した出演者の音声データを解析することにより、座席番号を特定してもよい。
制御部10は、特定した座席番号に係る各ユーザ画像を含むBOX席の画像(例えばBOX席AのBOXルーム画像)の表示領域を変更し、当該BOX席の画像を拡大表示する画面情報を生成する(ステップS75)。制御部10は、生成した画面情報を中継装置23へ送信する(ステップS76)。この場合において、制御部10は、特定した座席番号に係るユーザ画像に対応付けられるユーザ音声のみを取得し、取得したユーザ音声を画面情報に関連付けて出力してもよい。制御部10は、特定した座席番号に係るユーザの端末装置3の音声入力のみを有効にすることで、特定した座席番号に係る端末装置3からのユーザ音声を取得してよい。この場合において、制御部10は、一定時間経過後、又は出演者から終了を示す所定キーワード、合図を取得したときは、端末装置3の音声入力を終了してよい。
中継装置23の制御部230は、画面情報を受信する(ステップS77)。制御部230は、受信した画面情報に基づく画面を出力装置22のモニタ222に表示すると共に、音声をスピーカ223により出力し(ステップS78)一連の処理を終了する。制御部230は、処理をステップS71の戻しループ処理を実行してもよい。本実施形態によれば、出演者からの発信内容に応じて出力情報が変化するため、ユーザと出演者とのコミュニケーションをより促進し、ユーザ参加型の動画配信システムを実現することができる。
上述の各実施形態において、ライブ動画は、リアルタイムで配信するものに限定されない。情報処理装置1は、取得したライブ動画を収集管理し、任意のタイミングにて送信されるユーザの配信指示に応じて端末装置3へライブ動画を配信するオンデマンドサービスを提供してもよい。この場合、情報処理装置1による出力装置22への出力情報の出力処理は省略されてもよい。
上述の各実施形態において、情報処理装置1の制御部10が実行する処理の一部は、端末装置3の制御部30で実行されてもよく、又は中継装置23の制御部230で実行されてもよい。また、処理の順序が変動または省略されてもよい。
第1実施形態から第5実施形態に示した例は、各実施形態に示した構成の全部又は一部を組み合わせて他の実施の形態を実現することが可能である。
今回開示された実施の形態は全ての点で例示であって、制限的なものではない。本発明の範囲は、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれる。
100 動画配信システム
1 情報処理装置
10 制御部
11 記憶部
12 通信部
1P プログラム
1M 学習モデル
2 ライブ施設
21 撮影装置
22 出力装置
222 モニタ
223 スピーカ
23 中継装置
230 制御部
231 記憶部
232 通信部
233 入出力部
3 端末装置
30 制御部
31 記憶部
32 通信部
33 表示部
34 操作部
35 音声入力部
36 音声出力部
37 撮影部
3P プログラム

Claims (12)

  1. ライブ施設におけるライブ動画の配信指示を取得し、
    所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加要求を取得し、
    取得した前記配信指示及び参加要求に基づき、前記ライブ動画と、前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を含むBOXルーム画像とを含む画面を表示部に表示する
    処理をコンピュータに実行させるためのコンピュータプログラム。
  2. 前記BOXルームへの参加が許可された複数のユーザ間で共有されるグループチャットを含む前記画面を前記表示部に表示する
    処理をコンピュータに実行させるための請求項1に記載のコンピュータプログラム。
  3. 拍手操作を受け付ける拍手ボタンを前記表示部に表示し、
    前記拍手ボタンの操作を受け付けた場合、前記拍手ボタンの操作を受け付けたことを示す操作信号を外部装置へ出力する
    処理をコンピュータに実行させるための請求項1又は請求項2に記載のコンピュータプログラム。
  4. 前記ライブ動画に関する商品の購入画像を含む前記画面を前記表示部に表示する
    処理をコンピュータに実行させるための請求項1から請求項3のいずれか1項に記載のコンピュータプログラム。
  5. 前記BOXルームへの参加が許可された複数のユーザと、ライブの出演者との交流が可能な特別交流画像を含む前記画面を前記表示部に表示する
    処理をコンピュータに実行させるための請求項1から請求項4のいずれか1項に記載のコンピュータプログラム。
  6. 前記ライブ動画に応じた背景又はアバターの選択を受け付け、
    受け付けた前記背景又はアバターにより生成される前記BOXルーム画像を含む前記画面を前記表示部に表示する
    処理をコンピュータに実行させるための請求項1から請求項5のいずれか1項に記載のコンピュータプログラム。
  7. ライブ施設におけるライブ動画を視聴するユーザに係る座席券に関する情報を取得し、
    前記ライブ動画の視聴中における所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を取得し、
    取得した前記座席券に関する情報と、前記BOXルームへの参加が許可された複数のユーザそれぞれに係る前記ユーザ画像とを関連付けて前記ライブ施設内の出力装置に出力する
    処理をコンピュータに実行させるためのコンピュータプログラム。
  8. 前記BOXルームへの参加が許可された複数のユーザそれぞれに係る前記ユーザ画像と、所定の座席以外の座席券に関連付けられ前記BOXルームへ参加していないユーザに係る前記ユーザ画像とを区別して表示する画面情報を前記出力装置に出力する
    処理をコンピュータに実行させるための請求項7に記載のコンピュータプログラム。
  9. 前記ユーザによる拍手ボタンの操作を受け付けたことを示す操作信号を取得し、
    取得した操作信号に応じた画像又は音声を前記出力装置に出力する
    処理をコンピュータに実行させるための請求項7又は請求項8に記載のコンピュータプログラム。
  10. 前記ユーザ画像に基づいて、前記ユーザの盛り上がり度を判定し、
    前記ユーザの盛り上がり度の判定結果に応じた画像又は音声を前記出力装置に出力する
    処理をコンピュータに実行させるための請求項7から請求項9のいずれか1項に記載のコンピュータプログラム。
  11. ライブ施設におけるライブ動画の配信指示を取得し、
    所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加要求を取得し、
    前記ライブ動画を取得し、
    前記ライブ動画の視聴中における前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を取得し、
    取得した前記配信指示及び参加要求に基づき、前記ライブ動画と、前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を含むBOXルーム画像とを含む画面情報を生成し、
    生成した前記画面情報を出力する
    情報処理方法。
  12. ライブ施設におけるライブ動画の配信指示を取得する第1取得部と、
    所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加要求を取得する第2取得部と、
    前記ライブ動画を取得する第3取得部と、
    前記ライブ動画の視聴中における前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を取得する第4取得部と、
    前記第1取得部が取得した配信指示及び前記第2取得部が取得した参加要求に基づき、前記第3取得部が取得したライブ動画と、前記第4取得部が取得した前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を含むBOXルーム画像とを含む画面情報を生成する生成部と、
    前記生成部が生成した画面情報を出力する出力部とを備える
    情報処理装置。
JP2020122290A 2020-07-16 2020-07-16 コンピュータプログラム、情報処理方法及び情報処理装置 Active JP7469977B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020122290A JP7469977B2 (ja) 2020-07-16 2020-07-16 コンピュータプログラム、情報処理方法及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020122290A JP7469977B2 (ja) 2020-07-16 2020-07-16 コンピュータプログラム、情報処理方法及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2022018875A JP2022018875A (ja) 2022-01-27
JP7469977B2 true JP7469977B2 (ja) 2024-04-17

Family

ID=80203154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020122290A Active JP7469977B2 (ja) 2020-07-16 2020-07-16 コンピュータプログラム、情報処理方法及び情報処理装置

Country Status (1)

Country Link
JP (1) JP7469977B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162224A1 (ja) * 2022-02-28 2023-08-31 日本電気株式会社 情報処理システム、情報処理方法およびコンピュータ可読媒体

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003125366A (ja) 2001-10-11 2003-04-25 Sony Corp コミュニケーションシステム、コミュニケーション方法、コミュニケーションプログラム、並びに情報処理装置
US20090290024A1 (en) 2008-05-21 2009-11-26 Larson Bradley R Providing live event media content to spectators
JP2010092304A (ja) 2008-10-08 2010-04-22 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
JP2016034087A (ja) 2014-07-31 2016-03-10 Front Row Holdings株式会社 映像表示システム
JP2016152619A (ja) 2015-08-04 2016-08-22 株式会社 ディー・エヌ・エー ビデオチャットを提供するサーバ、プログラム及び方法
US20190102941A1 (en) 2017-09-29 2019-04-04 Sony Interactive Entertainment America Llc Venue mapping for virtual reality spectating of electronic sports
WO2019234879A1 (ja) 2018-06-07 2019-12-12 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、情報処理方法およびコンピュータプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003125366A (ja) 2001-10-11 2003-04-25 Sony Corp コミュニケーションシステム、コミュニケーション方法、コミュニケーションプログラム、並びに情報処理装置
US20090290024A1 (en) 2008-05-21 2009-11-26 Larson Bradley R Providing live event media content to spectators
JP2010092304A (ja) 2008-10-08 2010-04-22 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
JP2016034087A (ja) 2014-07-31 2016-03-10 Front Row Holdings株式会社 映像表示システム
JP2016152619A (ja) 2015-08-04 2016-08-22 株式会社 ディー・エヌ・エー ビデオチャットを提供するサーバ、プログラム及び方法
US20190102941A1 (en) 2017-09-29 2019-04-04 Sony Interactive Entertainment America Llc Venue mapping for virtual reality spectating of electronic sports
WO2019234879A1 (ja) 2018-06-07 2019-12-12 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、情報処理方法およびコンピュータプログラム

Also Published As

Publication number Publication date
JP2022018875A (ja) 2022-01-27

Similar Documents

Publication Publication Date Title
JP6428955B1 (ja) 情報処理装置及び動画配信システム
WO2021246498A1 (ja) ライブ配信システム
CN106792228B (zh) 一种直播互动方法和系统
JP6561241B2 (ja) サーバ装置、動画配信システム、それに用いられる制御方法及びコンピュータプログラム
US20110090347A1 (en) Media Systems and Methods for Providing Synchronized Multiple Streaming Camera Signals of an Event
WO2008157671A1 (en) Method and apparatus for selecting events to be displayed at virtual venues and social networking
JP2011048825A (ja) オンラインレポーティング装置および方法
US10289193B2 (en) Use of virtual-reality systems to provide an immersive on-demand content experience
WO2014073276A1 (ja) 通信端末、情報処理装置、通信方法、情報処理方法、プログラム、及び通信システム
WO2014073275A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2018011849A (ja) 動画記録装置、動画配信方法及びプログラム
US20230388600A1 (en) Interactive purchasing of products displayed in video
TW202341038A (zh) 電腦程式、終端及伺服器
CN109361954A (zh) 视频资源的录制方法、装置、存储介质及电子装置
JP7469977B2 (ja) コンピュータプログラム、情報処理方法及び情報処理装置
KR20120007590A (ko) 경기장 영상 공유를 위한 시스템, 이를 위한 서버, 이를 위한 단말, 이 경기장 영상 공유 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체
KR20200041839A (ko) 방송 시청을 위한 가상 현실 사용자 인터페이스 제공 방법 및 장치
Young et al. Telefest: Augmented virtual teleportation for live concerts
JP7371844B1 (ja) レコメンデーションのためのシステム、方法、及びコンピュータ可読媒体
TW201740367A (zh) 雲端歌唱直播系統
TW202333503A (zh) 電腦程式及伺服器
KR102452584B1 (ko) 서드 파티의 가상 현실 콘텐츠를 제공하기 위한 장치 및 방법
JP7378851B2 (ja) 表示装置
JP7089815B1 (ja) サーバ
JP7178752B1 (ja) 興行映像表示プログラム及び興行映像配信システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230411

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240328

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240405

R150 Certificate of patent or registration of utility model

Ref document number: 7469977

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150