JP2015050572A - 情報処理装置、プログラム及び情報処理方法 - Google Patents

情報処理装置、プログラム及び情報処理方法 Download PDF

Info

Publication number
JP2015050572A
JP2015050572A JP2013180214A JP2013180214A JP2015050572A JP 2015050572 A JP2015050572 A JP 2015050572A JP 2013180214 A JP2013180214 A JP 2013180214A JP 2013180214 A JP2013180214 A JP 2013180214A JP 2015050572 A JP2015050572 A JP 2015050572A
Authority
JP
Japan
Prior art keywords
moving image
image data
divided
information processing
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013180214A
Other languages
English (en)
Other versions
JP5915604B2 (ja
Inventor
建太郎 牛山
Kentaro Ushiyama
建太郎 牛山
英輝 松尾
Hideki Matsuo
英輝 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2013180214A priority Critical patent/JP5915604B2/ja
Publication of JP2015050572A publication Critical patent/JP2015050572A/ja
Application granted granted Critical
Publication of JP5915604B2 publication Critical patent/JP5915604B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】動画データをライブ配信するために、端末からストリーミング配信サーバへアップロードするためのネットワークの帯域幅に応じて、端末から解像度の異なる動画データをストリーミング配信サーバへ柔軟にアップロードすることが可能な情報処理装置を提供する。
【解決手段】エンコードサーバ3は、カメラ1により取得されたオリジナル動画データに基づいて低解像度の動画データと、中解像度及び高解像度の動画データとを生成し、中解像度及び高解像度の動画データに基づいて複数の分割動画データを生成する。そして、エンコードサーバ3は、配信サーバ4とクライアント端末5との間のネットワークNWの帯域幅に応じて、複数の分割動画データの中から、低解像度の動画データとともにアップロード対象の分割動画データを決定する。そして、エンコードサーバ3は、配信サーバ4へ、低解像度の動画データと、分割動画データとをアップロードする。
【選択図】図1

Description

本発明は、動画データを含むコンテンツをクライアント端末へ配信する配信サーバとの間でネットワークを介して通信可能な情報処理装置等の技術分野に関する。
従来、発信者側となる端末に接続されたカメラにより撮影された動画データをライブ配信する技術が知られている。例えば特許文献1に開示されたシステムでは、端末は、カメラにより撮影された動画データを、インターネットを介してストリーミング配信サーバへアップロードする。そして、ストリーミング配信サーバは、端末からアップロードされた動画データを、インターネットを介してクライアント端末へ配信するようになっている。
特開2003−296239号公報
しかしながら、特許文献1の技術では、端末とストリーミング配信サーバとの間のネットワークの帯域が狭い場合、カメラにより撮影された複数の解像度の動画データとして、所定の解像度の動画データと高解像度の動画データの両方をストリーミング配信サーバへアップロードするには時間を要し、ライブ配信することが困難であった。
本発明は、以上の点に鑑みてなされたものである。端末からクライアント端末へ動画データをライブ配信するために、端末からストリーミング配信サーバへアップロードするためのネットワークの帯域幅に応じて、端末から解像度の異なる動画データをストリーミング配信サーバへ柔軟にアップロードすることが可能なことが可能な情報処理装置、プログラム及び情報処理方法を提供する。
上記課題を解決するために、請求項1に記載の発明は、撮影手段により撮影された動画データを取得する取得手段と、前記取得手段により取得された動画データに基づいて、第1の解像度の第1の動画データと、前記第1の解像度より高い第2の解像度の第2の動画データと、を生成する第1生成手段と、前記第1生成手段により生成された第2の動画データを構成する画像フレームの領域を複数の分割領域に分割し、前記複数の分割領域に対応する複数の分割動画データを生成する第2生成手段と、端末装置と情報処理装置との間のネットワークの帯域幅、または、前記端末装置へ動画データを配信する配信装置と前記情報処理装置との間のネットワークの帯域幅に応じて、前記第2生成手段により生成された複数の分割動画データの中から、前記第1の動画データとともに前記配信装置へアップロードするアップロード対象の前記分割動画データを決定する第1決定手段と、前記端末装置、または、前記配信装置へ、前記第1の動画データと、前記第1決定手段により決定された前記分割動画データとをアップロードするアップロード手段と、を備えることを特徴とする。
請求項2に記載の発明は、請求項1に記載の情報処理装置において、前記第1決定手段は、前記第1の解像度のレイヤと前記第2の解像度のレイヤを含む複数のレイヤごとに、前記アップロード対象のデータストリームを決定する決定処理を行う第2決定手段を備え、前記第2決定手段は、前記データストリームの決定処理中の前記ネットワークの帯域幅から、前記第1の解像度のレイヤに対応する第1のデータストリームのビットレートを引いた差分ビットレート中で、前記第1の解像度のレイヤ以外の前記レイヤに対応する第2のデータストリームのビットレートに応じて、前記分割動画データを含む前記第2のデータストリームを前記アップロード対象として決定し、前記アップロード手段は、前記第1のデータストリームと、前記第2決定手段により決定された前記第2のデータストリームをアップロードすることを特徴とする。
請求項3に記載の発明は、請求項2に記載の情報処理装置において、前記情報処理装置は、前記取得手段により取得された動画データを構成する画像フレームの中の1画素以上を含む特定画素領域を決定する第3決定手段と、前記第2決定手段により決定された前記第2のデータストリームにおいて前記分割領域の前記特定画素領域に占める割合が所定値以上の前記レイヤがあるかを判定する判定手段と、を更に備え、前記第2決定手段は、前記割合が所定値以上の前記レイヤがあると判定された場合、前記割合が所定値以上の前記レイヤに対応する前記第2のデータストリームを前記アップロード対象として決定することを特徴とする。
請求項4に記載の発明は、請求項3に記載の情報処理装置において、前記第2決定手段は、前記割合が所定値以上の前記レイヤが複数ある場合、前記割合が所定値以上の複数の前記レイヤの中で画質が最も高い前記レイヤに対応する前記第2のデータストリームを前記アップロード対象として決定することを特徴とする。
請求項5に記載の発明は、請求項3または4に記載の情報処理装置において、前記第2決定手段は、前記割合が所定値以上の前記レイヤがない場合、前記割合が最も高い前記レイヤに対応する前記第2のデータストリームを前記アップロード対象として決定することを特徴とする。
請求項6に記載の発明は、請求項1に記載の情報処理装置において、前記取得手段により取得された動画データを構成する画像フレームの中の1画素以上を含む特定画素領域を決定する第3決定手段を更に備え、前記第1決定手段は、前記第3決定手段により決定された特定描画領域に占める割合が最も高い前記特定画素領域に対応する分割動画データを優先して前記アップロード対象として決定することを特徴とする。
請求項7に記載の発明は、情報処理装置のコンピュータに、撮影手段により撮影された動画データを取得するステップと、前記取得された動画データに基づいて、第1の解像度の第1の動画データと、前記第1の解像度より高い第2の解像度の第2の動画データと、を生成するステップと、前記生成された第2の動画データを構成する画像フレームの領域を複数の分割領域に分割し、前記複数の分割領域に対応する複数の分割動画データを生成するステップと、端末装置と前記情報処理装置との間のネットワークの帯域幅、または、前記端末装置へ動画データを配信する配信装置と前記情報処理装置との間のネットワークの帯域幅に応じて、前記生成された複数の分割動画データの中から、前記第1の動画データとともに前記配信装置へアップロードするアップロード対象の前記分割動画データを決定するステップと、前記端末装置、または、前記配信装置へ、前記第1の動画データと、前記決定された前記分割動画データとをアップロードするステップと、を実行させることを特徴とする。
請求項8に記載の発明は、情報処理装置により実行される情報処理方法であって、撮影手段により撮影された動画データを取得するステップと、前記取得された動画データに基づいて、第1の解像度の第1の動画データと、前記第1の解像度より高い第2の解像度の第2の動画データと、を生成するステップと、前記生成された第2の動画データを構成する画像フレームの領域を複数の分割領域に分割し、前記複数の分割領域に対応する複数の分割動画データを生成するステップと、端末装置と前記情報処理装置との間のネットワークの帯域幅、または、前記端末装置へ動画データを配信する配信装置と前記情報処理装置との間のネットワークの帯域幅に応じて、前記生成された複数の分割動画データの中から、前記第1の動画データとともに前記配信装置へアップロードするアップロード対象の前記分割動画データを決定するステップと、前記端末装置、または、前記配信装置へ、前記第1の動画データと、前記決定された前記分割動画データとをアップロードするステップと、を含むことを特徴とする。
請求項1、7または8に記載の発明によれば、情報処理装置から端末装置へ動画データをライブ配信するために、情報処理装置から配信装置または端末装置へアップロードするためのネットワークの帯域幅に応じて、情報処理装置から解像度の異なる動画データを配信装置または端末装置へ柔軟にアップロードすることができる。
請求項2に記載の発明によれば、第1の解像度のレイヤに対応する第1のデータストリームのビットレートと、第1の解像度のレイヤ以外のレイヤに対応する第2のデータストリームであって前記分割動画データを含む前記第2のデータストリームを、配信装置または端末装置へ柔軟にアップロードすることができる。
請求項3に記載の発明によれば、より高画質の分割動画データを含む第2のデータストリームを、配信装置または端末装置へ柔軟にアップロードすることができる。
請求項4に記載の発明によれば、より高画質の分割動画データを含む第2のデータストリームを、配信装置または端末装置へ柔軟にアップロードすることができる。
請求項5に記載の発明によれば、より高画質の分割動画データを含む第2のデータストリームを、配信装置または端末装置へ柔軟にアップロードすることができる。
請求項6に記載の発明によれば、より高画質の分割動画データを、配信装置または端末装置へ柔軟にアップロードすることができる。
第1の実施形態の通信システムS1の概要構成例を示す図である。 (A)は、エンコードサーバ3の制御部31またはCPUにより実行されるアップロード処理を示すフローチャートである。(B)は、エンコードサーバ3の制御部31またはCPUにより実行されるアップロードストリーム生成処理の詳細を示すフローチャートである。 エンコードサーバ3の制御部31またはCPUにより実行されるアップロードストリーム決定処理の詳細を示すフローチャートである。 各レイヤの動画データを構成する1画像フレームを示す図である。 (A)は、レイヤ2の画像フレームにおける特定画素領域を示す図である。(B),(C)は、レイヤ2に対応する動画データストリームにおいて、動画データブロックが決定される様子を示す図である。 第2の実施形態の通信システムS2の概要構成例を示す図である。
以下、本発明の実施形態を図面に基づいて説明する。
(1.第1実施形態)
始めに、図1等を参照して、本発明の第1実施形態の通信システムS1の構成及び動作概要について説明する。図1は、第1の実施形態の通信システムS1の概要構成例を示す図である。図1に示すように、通信システムS1は、カメラ1、マイクロフォン2、エンコードサーバ3、配信サーバ4、及びクライアント端末5を含んで構成される。カメラ1は、本発明の撮影手段の一例である。エンコードサーバ3は、本発明の情報処理装置の一例である。配信サーバ4は、本発明の配信装置の一例である。クライアント端末5は、本発明の端末装置の一例である。カメラ1及びマイクロフォン2は、それぞれ、例えば通信ケーブルを介してエンコードサーバ3に接続される。なお、カメラ1及びマイクロフォン2は、それぞれ、無線によりエンコードサーバ3に接続されてもよい。エンコードサーバ3、配信サーバ4、及びクライアント端末5は、ネットワークNWに接続される。ネットワークNWは、例えば、インターネット等により構成される。なお、配信サーバ4は、ネットワークNWを介してクライアント端末5からの要求を受け、この要求に応じて応答するWebサーバの機能を有する。
カメラ1は、撮影者の指示に従って被写体を撮影し、その動画データを、通信ケーブルを介してエンコードサーバ3へ送信する。マイクロフォン2は、撮影者の指示に従って被写体の周囲の音声を集音し、その音声データを、通信ケーブルを介してエンコードサーバ3へ送信する。カメラ1により撮影された動画データを、以下、「オリジナル動画データ」という。オリジナル動画データの一例として、例えばパノラマ動画データがある。パノラマ動画データは、例えば高解像度のカメラ1で、且つ広範囲を撮影可能なレンズを搭載するカメラ1により被写体が撮影された動画データである。広範囲を撮影可能なレンズには、ワイドレンズ、魚眼レンズ、360度レンズ等がある。なお、カメラ1により撮影されたオリジナル動画データは、撮影者の端末を介してエンコードサーバ3に送信されてもよい。
エンコードサーバ3は、カメラ1からのオリジナル動画データを、通信ケーブルを介して取得する。また、エンコードサーバ3は、マイクロフォン2からの音声データを、通信ケーブルを介して取得する。また、エンコードサーバ3は、カメラ1からのオリジナル動画データに基づいて、解像度の異なる複数の動画データを生成する。つまり、解像度に応じた複数のレイヤごとに動画データが生成される。例えば、1つのオリジナル動画データから、低解像度の動画データ、中解像度の動画データ、及び高解像度の動画データが生成される。ここで、低解像度の動画データは、第1の解像度の第1の動画データの一例である。中解像度の動画データ、または高解像度の動画データは、第1の解像度より高い第2の解像度の第2の動画データの一例である。低解像度のレイヤを、以下、「レイヤ1」という。レイヤ1は最下位層である。中解像度のレイヤを、以下、「レイヤ2」という。高解像度のレイヤを、以下、「レイヤ3」という。なお、本実施形態では、レイヤ1からレイヤ3までの3つのレイヤを例にとっているが、これに限定されるものではない。そして、エンコードサーバ3は、生成した各レイヤの動画データのうち、所定のレイヤの動画データを構成する画像フレームの領域を複数の分割領域に分割する。例えば、レイヤ2及びレイヤ3の動画データを構成する画像フレームの領域が複数の分割領域に分割され、複数の分割領域に対応する複数の分割動画データが生成される。なお、画像フレーム中の分割領域で囲まれるフレームを、以下、「分割フレーム」という。
エンコードサーバ3と配信サーバ4との間のネットワークNWの帯域幅(bps)に応じて、例えばレイヤ2またはレイヤ3の複数の分割動画データの中から、レイヤ1の動画データとともに配信サーバ4へアップロードするアップロード対象の分割動画データを決定する。ここで、ネットワークNWの帯域幅とは、ネットワークNWで伝送可能なビットレートを意味する。ネットワークNWで伝送可能なビットレートとは、ネットワークNWの伝送路容量である。エンコードサーバ3は、レイヤ1の動画データと、決定された分割動画データとをネットワークNWを介して配信サーバ4へアップロードする。なお、エンコードサーバ3は、マイクロフォン2からの音声データを取得した場合、取得した音声データを、レイヤ1の動画データとともに配信サーバ4へアップロードする。
配信サーバ4は、エンコードサーバ3からアップロードされた動画データ、分割動画データ、及び音声データを記憶する。そして、配信サーバ4は、例えばクライアント端末5からのコンテンツの要求に応じて、動画データ、及び分割動画データを含むコンテンツをクライアント端末5へ配信する。なお、コンテンツは、音声データを含んでもよい。コンテンツの配信は、例えば、ネットワークNWを介してストリーミングで行われる。クライアント端末5は、配信サーバ4から配信されたコンテンツを受信する。
また、配信サーバ4は、例えばクライアント端末5からのカメラワークデータのリクエストに応じて、コンテンツのカメラワークデータをクライアント端末5へ送信する。カメラワークデータは、仮想スクリーンに表れる動画に対して、二次元平面または三次元仮想空間における仮想カメラの位置または仮想カメラの向きと、画角(視野範囲)と、仮想カメラの位置または仮想カメラの向きが指定された時間とが対応付けられたデータである。なお、三次元仮想空間は、例えば、コンピュータを用いて表示可能な仮想的な三次元空間を示す。ここで、本実施形態において、仮想カメラとは、二次元平面または三次元仮想空間における仮想スクリーンに表れる動画に対して仮想的に設定された視点をいう。カメラワークデータによれば、二次元平面または三次元仮想空間における仮想スクリーンに表れる動画の全部または一部を仮想的に撮影する仮想カメラの動きを規定することができる。そして、カメラワークデータにより動画における表示範囲が特定される。この表示範囲は、1画像フレームのうち表示画面に描画される描画領域に相当する。言い換えれば、表示範囲は、画像フレームから切り出される範囲である。また、仮想カメラの動きは、疑似的なカメラワーク(以下、「疑似カメラワーク」という)により制御される。つまり、疑似カメラワークにより、動画に対する仮想カメラの向きや視界の広さなどが決定される。本実施形態のカメラワークデータによれば、疑似カメラワークを再現することができる。また、1つのカメラワークデータは、例えば、動画データの再生開始からの再生終了までの再生時間に対応するとは限らない。つまり、1つのカメラワークデータは、再生時間における一部の時間範囲に対応する場合もある。クライアント端末5は、例えば、ストリーミングでコンテンツを受信しながら、取得したカメラワークデータに応じた範囲内の動画を表示画面に表示する。
エンコードサーバ3は、図1に示すように、制御部31、記憶部32、及びインターフェース部33,34等を備えて構成される。これらの構成要素は、バス35に接続されている。制御部31は、コンピュータとしてのCPU、ROM、及びRAM等により構成される。制御部31は、本発明の取得手段、第1生成手段、第2生成手段、第1決定手段、第2決定手段、第3決定手段、判定手段、及びアップロード手段の一例である。記憶部32は、例えば、例えばハードディスクドライブ(HDD)により構成される。記憶部32には、OS(Operating System)、及びサーバプログラム等が記憶されている。制御部31は、サーバプログラムを実行することで上述する処理を行う。
配信サーバ4は、図1に示すように、制御部41、記憶部42、及びインターフェース部43等を備えて構成される。これらの構成要素は、バス44に接続されている。制御部41は、コンピュータとしてのCPU、ROM、及びRAM等により構成される。記憶部42は、例えば、例えばハードディスクドライブにより構成される。記憶部42には、OS、及びサーバプログラム等が記憶されている。記憶部42には、クライアント端末5からの要求に応じて、クライアント端末5へ送信されるWebページのデータが記憶される。さらに、記憶部42には、動画データ記憶領域42a、音声データ記憶領域42b、及びワークファイル記憶領域42cが設けられている。
動画データ記憶領域42aには、エンコードサーバ3からアップロードされた複数の動画データ、及び分割動画データが記憶される。音声データ記憶領域42bには、エンコードサーバ3からアップロードされた音声データが記憶される。ワークファイル記憶領域42cには、ワークファイルがコンテンツごとに対応付けられて記憶される。ワークファイルには、例えば、コンテンツのタイトル、疑似カメラワークの特徴を示す情報、及びカメラワークデータ等が格納される。疑似カメラワークの特徴を示す情報には、例えば疑似カメラワークにより表示画面に表示される被写体やシーンの名称や説明文等が含まれる。コンテンツのタイトル及び疑似カメラワークの特徴を示す情報は、カメラワークデータの検索に用いられる。なお、ワークファイルには、コンテンツを識別するコンテンツIDが含まれてもよい。ワークファイル記憶領域42cに記憶されるワークファイルには、例えば、クライアント端末5からアップロードされたワークファイルも含まれる。なお、1つのコンテンツには、複数のワークファイルが対応付けられる場合もある。例えば、あるコンテンツに対して、複数のユーザそれぞれにより行われた疑似カメラワークに対応するカメラワークデータが対応付けられる。
クライアント端末5は、図1に示すように、制御部51、記憶部52、ビデオRAM53、映像制御部54、操作処理部55、音声制御部56、及びインターフェース部57等を備えて構成される。これらの構成要素は、バス58に接続されている。映像制御部54には、ディスプレイを備える表示部54aが接続される。操作処理部55には、操作部55aが接続される。操作部55aには、例えば、マウス、キーボード、リモコン等がある。表示部54aと操作部55aとを兼ねるタッチパネルが適用されてもよい。制御部51は、ユーザによる操作部55aからの操作指示を、操作処理部55を介して受け付ける。ユーザは、操作部55aを用いて、上述した疑似カメラワークの操作を行うことができる。音声制御部56には、スピーカ56aが接続される。インターフェース部57は、ネットワークNWに接続される。制御部51は、コンピュータとしてのCPU、ROM、及びRAM等により構成される。記憶部52は、例えば、ハードディスクドライブ(HDD)により構成される。記憶部52には、OS、及びプレイヤーソフトウェア等が記憶されている。プレイヤーソフトウェアは、コンテンツを再生するためのプログラムである。
制御部51は、プレイヤーソフトウェアを実行することでコンテンツを再生するプレイヤーとして機能する。制御部51はプレイヤーの機能により、配信サーバ4からストリーミングで配信されたコンテンツを順次取得し、コンテンツを再生させる。また、プレイヤーの機能により、ディスプレイには、動画を表示する表示画面が表示される。制御部51におけるRAMにはバッファメモリが設けられている。バッファメモリには、例えば配信サーバ4から配信されたコンテンツに含まれる動画データ等が一時的に保持される。また、バッファメモリには、例えば配信サーバ4から配信されたカメラワークデータが一時的に保持される。制御部51は、バッファメモリからビデオRAM53へ動画データを出力する。ビデオRAM53には、描画データを格納するフレームバッファがRAMに設けられている。映像制御部54は、制御部51からの制御信号に従って、フレームバッファに書き込まれた描画データを表示画面に描画することで表示させる。また、例えば配信サーバ4からバッファメモリに保持されたコンテンツに音声データが含まれる場合がある。この場合、制御部51は、バッファメモリから音声データを再生して音声制御部56へ出力する。音声制御部56は、音声データからアナログ音声信号を生成し、生成したアナログ音声信号をスピーカ56aへ出力する。
次に、図2を参照して、エンコードサーバ3が配信サーバ4へ動画データ及び音声データをアップロードするときの動作について説明する。図2(A)は、エンコードサーバ3の制御部31またはCPUにより実行されるアップロード処理を示すフローチャートである。図2(B)は、エンコードサーバ3の制御部31またはCPUにより実行されるアップロードストリーム生成処理の詳細を示すフローチャートである。図3は、エンコードサーバ3の制御部31またはCPUにより実行されるアップロードストリーム決定処理の詳細を示すフローチャートである。図2(A)に示す処理は、例えば、カメラ2により撮影されたオリジナル動画データの取得開始指示があった場合に開始される。図2(A)に示す処理が開始されると、エンコードサーバ3の制御部31は、カメラ2により撮影されたオリジナル動画データ、及びマイクロフォン2により集音された音声データの取得を開始する。
図2(A)に示す処理が開始されると、制御部31は、アップロードストリーム生成処理を開始する(ステップS1)。アップロードストリーム生成処理は、複数のレイヤごとにアップロード対象の動画データストリームを生成する生成処理である。アップロードストリーム生成処理は、例えばOSのマルチタスクにより、アップロード処理におけるステップS2以降の処理と並列して実行される。なお、図2(B)の例では、アップロードストリーム生成処理により、音声データストリームについても生成される。
図2(B)に示すアップロードストリーム生成処理では、制御部31は、カメラ1から新たな画像フレームを取得したか否かを判定する(ステップS11)。カメラ1から新たな画像フレームを取得したと判定された場合(ステップS11:YES)、ステップS12へ進む。一方、カメラ1から新たな画像フレームを取得していないと判定された場合(ステップS11:NO)、ステップS17へ進む。ステップS12では、制御部31は、ステップS11で取得した画像フレームに基づいて、レイヤ1の画像フレームを生成する。例えば、制御部31は、ステップS11で取得した画像フレームのピクセル数を例えば1/16にリサイズしてレイヤ1の画像フレームを生成する。
次いで、制御部13は、ステップS12で生成したレイヤ1の画像フレームを、レイヤ1に対応する動画データストリームに追加して例えば記憶部32に記憶する(ステップS13)。ここで、動画データストリームは、ストリーミングで配信可能なデータ例である。動画データストリームには、1以上の動画データブロックを含む。動画データブロックは、例えば、動画データの先頭位置から終了位置までが所定の時間範囲で区切られたデータである。1つの動画データブロックには、例えば、複数の画像フレームが含まれることになる。なお、ステップS13の処理は、画像フレームが取得される度に行われるので、動画データストリームには、動画データを構成する画像フレームが時系列で追加されていくことになる。つまり、画像フレームが追加される処理過程においてレイヤ1の動画データが生成される。なお、この処理過程において、制御部31は、動画データをエンコードしてもよい。例えば、動画データは、MPEG等の所定の圧縮形式でエンコードされる。
次いで、制御部31は、ステップS11で取得した画像フレームに基づいて、レイヤ1以外のレイヤの画像フレームを生成する(ステップS14)。例えば、制御部31は、ステップS11で取得した画像フレームのピクセル数を例えば1/4にリサイズしてレイヤ2の画像フレームを生成する。また、、制御部31は、ステップS11で取得した画像フレームをレイヤ3の画像フレームとして生成する。なお、レイヤ3の画像フレームについてもリサイズして生成してもよい。
次いで、制御部31は、ステップS14で生成されたレイヤ1以外のレイヤの画像フレームの領域を複数の分割領域に分割して分割フレームを生成する(ステップS15)。例えば、レイヤ2及びレイヤ3の画像フレームの領域が複数の分割領域に分割される。
図4は、各レイヤの動画データを構成する1画像フレームを示す図である。図4の例では、レイヤ1の1画像フレームあたりのピクセル数は、1M(メガ)ピクセルである。また、レイヤ2の1画像フレームあたりのピクセル数は、4Mピクセルである。また、レイヤ3の1画像フレームあたりのピクセル数は、16Mピクセルである。そして、図4の例では、レイヤ2の1画像フレームの領域は4等分に分割されている。つまり、レイヤ2の1画像フレームから、パート1から4までの4つの分割フレームが得られる。一方、レイヤ3の1画像フレームの領域は16等分に分割されている。つまり、レイヤ3の1画像フレームから、パート1から16までの16つの分割フレームが得られる。このように、図4の例では、レイヤ2及びレイヤ3それぞれの分割フレームのピクセル数は、レイヤ1の画像フレームのピクセル数と同一になっている。なお、レイヤ1の動画データを構成する画像フレームについても、分割されるように構成してもよい。また、図4の例では、画像フレームが格子状に分割されるように構成したが、その他の形状に分割されてもよい。また、図4の例では、同じレイヤにおける画像フレーム全体の面積が均等になるように分割されているが、不均等になるように分割されてもよい。
次いで、制御部31は、ステップS15で生成したレイヤ1以外のレイヤの各パートの分割フレームを、各パートの動画データストリームに追加して例えば記憶部32に記憶する(ステップS16)。例えば、制御部31は、レイヤ2のパートごとの分割フレームを、レイヤ2に対応するパートごとの動画データストリームに追加して例えば記憶部32に記憶する。更に、制御部31は、レイヤ3のパートごとの分割フレームを、レイヤ3に対応するパートごとの動画データストリームに追加して例えば記憶部32に記憶する。なお、各パートごとの動画データブロックには、各パートに対応する複数の分割フレームが含まれることになる。この場合、動画データストリームには、分割動画データを構成する分割フレームが時系列で追加されていくことになる。つまり、分割フレームが追加される処理過程において各パートの分割動画データが生成される。なお、この処理過程において、制御部31は、分割動画データをエンコードしてもよい。また、所定数の画像フレームが記憶された場合に、各画像フレームの領域が複数の分割領域に分割され、それぞれの分割動画データが生成されるように構成してもよい。
次いで、制御部31は、マイクロフォン2から取得された音声データを、音声データストリームに追加して例えば記憶部12記憶し(ステップS17)、ステップS11に戻る。なお、マイクロフォン2から取得された音声データが所定の圧縮形式でエンコードされてもよい。ステップS11に戻ると、制御部11は、直前のステップS12〜S16で処理された画像フレームの後に続く画像フレームを取得したか否かを判定することになる。
次いで、制御部31は、アップロードストリーム決定処理を行う(ステップS2)。アップロードストリーム決定処理は、実行中のアップロードストリーム生成処理において記憶される複数のストリームデータのうち、複数のレイヤごとにアップロード対象の動画データストリームを決定する決定処理である。言い換えれば、アップロードストリーム決定処理は、クライアント端末5へ配信対象となる動画データストリームを決定する処理である。なお、図3の例では、アップロードストリーム決定処理により、アップロード対象の音声データストリームについても決定される。
図3に示すアップロードストリーム決定処理では、制御部31は、エンコードサーバ3と配信サーバ4との間のネットワークNWの帯域幅を取得する(ステップS21)。つまり、データストリームの決定処理中のネットワークNWの帯域幅を取得する。例えば、制御部31は、データストリームを配信サーバ4へアップロードしながら現在のアップロード速度を計測することでネットワークNWの帯域幅を取得する。
次いで、制御部31は、アップロードストリーム生成処理において記憶された音声データストリームをアップロード対象として決定する(ステップS22)。次いで、制御部31は、アップロードストリーム生成処理において記憶された動画データストリームのうち、最下位層であるレイヤ1に対応する動画データストリームをアップロード対象として決定する(ステップS23)。レイヤ1に対応する動画データストリームは、第1のデータストリームの一例である。一方、レイヤ2に対応する動画データストリームとレイヤ3に対応する動画データストリームは、それぞれ、第2のデータストリームの一例である。
次いで、制御部31は、規定のクライアント端末の描画性能を示す値を、例えば記憶部32から取得する(ステップS24)。ここで、規定のクライアント端末とは、例えば平均的な性能を有するクライアント端末である。また、描画性能は、表示画面に単位時間あたり何ピクセル描画できるかを示すレンダリング能力である。言い換えれば、描画性能は、フレームバッファが1表示画面あたり何ピクセル分のデータをバッファリングできるかを示す。
次いで、制御部31は、ステップS24で取得された描画性能を示す値に基づいて、描画対象とするレイヤを決定する(ステップS25)。つまり、描画対象となるレイヤの範囲が決定される。なお、ステップS25の決定対象となるレイヤからレイヤ1は除かれる。例えば、規定のクライアント端末の描画性能を示す値が、4M(pixels/frame)であるとする。この場合、図4の例では、レイヤ1及びレイヤ2の画像フレームは、1画像フレーム全体を描画できる。一方、レイヤ3の画像フレームは、画像フレームの1/4しか描画できない。そのため、この場合、上記ステップS25では、描画対象とするレイヤとして、レイヤ2が決定される。また、例えば、規定のクライアント端末の描画性能を示す値が、16M(pixels/frame)であるとする。この場合、図4の例では、レイヤ1〜3の画像フレームは、1画像フレーム全体を描画できる。そのため、この場合、上記ステップS25では、描画対象とするレイヤとして、レイヤ2及びレイヤ3が決定される。
次いで、制御部31は、カメラ1から取得されたオリジナル動画データを構成する画像フレームの中の1画素以上を含む特定画素領域を、例えば複数の画像フレームごとに決定する(ステップS26)。例えばカメラ1の撮影画面の中心、或いはカメラ1で撮影されたステージの中心等を含む領域が、特定画素領域として予め設定される。言い換えれば、視聴者により最も注目されると推定される領域が予め設定される。この場合、制御部31は、予め設定された特定画素領域を例えば複数の画像フレームごとに決定する。
或いは、撮影者が、映像に登場する話し手や歌い手等を中心とする領域を特定画素領域として指定してもよい。例えば、撮影者は、例えばカメラ1を持ち、被写体に対する距離やアングルを適宜変更しながら特定画素領域をカメラ1から指定する。撮影者により指定された特定画素領域を示す情報は、カメラ1からエンコードサーバ3へ送信される。そして、制御部31は、撮影者による指示に従って指定された特定画素領域を例えば複数の画像フレームごとに決定する。
或いは、カメラ1により撮影されたオリジナル動画データが撮影者の端末を介してエンコードサーバ3に送信される場合がある。この場合、撮影者が、端末の表示画面に表示された動画に対して、上述した疑似カメラワークの操作を行うことで特定される表示範囲を特定画素領域として指定する。撮影者により指定された特定画素領域を示す情報は、撮影者の端末からエンコードサーバ3へ送信される。そして、制御部31は、撮影者により指定された特定画素領域を例えば複数の画像フレームごとに決定する。
或いは、制御部31は、例えば視聴者の上記動画に対する現在の視聴領域を示す情報を収集し集計処理することで、視聴者により注目されている領域を特定画素領域として決定してもよい。例えば、オリジナル動画における複数の部分領域ごとに集計した表示回数に基づいて特定画素領域が決定されるように構成するとよい。ここで、部分領域は、1画素以上を含む領域である。部分領域ごとの表示回数は、例えば、視聴者が注目する度合いを示す数値である。表示回数が高い部分領域を含むシーンほど、多くの視聴者が注目していると考えられる。表示回数が多い部分領域は、視聴者による疑似カメラワークの操作によって、よく表示される領域である。部分領域ごとの表示回数は、例えば配信サーバ4により決定される。例えば、配信サーバ4は、ワークファイル記憶領域42cに記憶される複数のカメラワークデータそれぞれが示す表示範囲に基づいて、上記オリジナル動画データを構成する複数の画像フレームそれぞれにおける部分領域ごとに表示回数を決定する。つまり、表示範囲の重なりに応じて、部分領域ごとの表示回数が算出される。エンコードサーバ3の制御部31は、部分領域ごとの表示回数を示す表示回数情報を、ネットワークNWを介して配信サーバ4から取得する。そして、制御部31は、エンコードサーバ3から取得した表示回数情報に基づいて、例えば表示回数が閾値より多い上位の部分領域により構成される領域を、特定画素領域を例えば複数の画像フレームごとに決定する。
次いで、制御部31は、ステップS25で決定されたレイヤに対応する動画データストリームに含まれる分割フレームの描画率を、動画データブロックごとに算出する(ステップS27)。ここで、分割フレームの描画率とは、分割フレームの上記特定画素領域に占める割合をいう。図5(A)は、レイヤ2の画像フレームにおける特定画素領域を示す図である。図5(A)の例では、パート1における先頭の分割フレームの描画率は17%である。また、パート2における先頭の分割フレームの描画率は50%である。また、パート3における先頭の分割フレームの描画率は8%である。また、パート4における先頭の分割フレームの描画率は25%である。この場合、パート2の先頭の分割フレームの描画率が最も大きい。また、図5(A)の例では、破線で示すように、動画データブロック内で特定画素領域の位置が画像フレームごとに変化している。なお、ステップS27で算出される分割フレームの描画率は、例えば、動画データブロックに含まれる複数の分割フレームの描画率の平均または合計となる。
次いで、制御部31は、ステップS21で取得されたネットワークNWの帯域幅から、レイヤ1に対応する動画データストリームのビットレートを引いた差分ビットレートを算出する(ステップS28)。つまり、ネットワークNWの帯域幅から、動画データストリームのビットレートが減算された差分ビットレートが算出される。ここで、差分ビットレートは、ネットワークNWの帯域幅と、レイヤ1に対応する動画データストリームを配信サーバ4へアップロードするために消費する帯域との差である。なお、動画データストリームのビットレートは、例えば動画データストリームに含まれる動画データブロックごとに算出されるビットレートの平均である。
次いで、制御部31は、ステップS25で決定されたレイヤに対応する動画データストリームのビットレートと、ステップS28で算出された差分ビットレートとに基づいて、最適の動画データストリームを決定する(ステップS29)。例えば、ステップS25で決定されたレイヤごとに、「動画データストリームのビットレート≦差分ビットレート」の条件を満たすように、動画データストリームの中から動画データブロックが決定される。つまり、動画データストリームのビットレートが、差分ビットレート以下になるように、動画データブロックが決定される。図5(B),(C)は、レイヤ2に対応する動画データストリームにおいて、動画データブロックが決定される様子を示す図である。図5(B),(C)の例では、パート1からパート4の動画データストリームにおいて時間範囲T1〜T4ごとに動画データブロックが決定されている。例えば、時間範囲T1では、描画率が50%の動画データブロックと、描画率が25%の動画データブロックとが決定されている。つまり、描画率が高い分割フレームを含む動画データブロックが優先してアップロード対象として決定される。これにより、より高画質の分割動画データをアップロードすることができる。なお、時間範囲T1では描画率の合計は75%である。また、例えば、時間範囲T2では、描画率が20%の動画データブロックと、描画率が70%の動画データブロックとが決定されている。なお、時間範囲T2では、描画率の合計は90%である。このように、時間範囲T1〜T4ごとに決定された動画データブロックが含まれる動画データストリームが、最適の動画データストリームとして決定される。
次いで、制御部31は、ステップS29で決定された最適の動画データストリームにおいて時間範囲T1〜Tn(nは自然数)ごとの描画率または描画率の合計が所定値以上のレイヤがあるかを判定する(ステップS30)。ここで、所定値は例えば70%程度に設定される。所定値を70%程度に設定すれば、高画質の動画データを提供することができる。なお、時間範囲T1〜Tn全ての中の所定割合(例えば、80%)以上の時間範囲で描画率または描画率の合計が所定値以上のレイヤがあるか否かが判定されるように構成してもよい。そして、上記描画率または描画率の合計が所定値以上のレイヤがないと判定された場合(ステップS30:NO)、ステップS31へ進む。一方、上記描画率または描画率の合計が所定値以上のレイヤがあると判定された場合(ステップS30:YES)、ステップS32へ進む。
ステップS31では、制御部31は、ステップS25で決定されたレイヤのうち、描画率が最も高いレイヤに対応する最適の動画データストリームをアップロード対象として決定し、図2(A)に示す処理に戻る。ここで、描画率が最も高いとは、例えば、最適の動画データストリームに含まれる所定数の動画ブロックデータに対応する描画率の平均または合計が最も高いことを意味する。この所定数は、最適の動画データストリームに含まれる全ての動画ブロックデータの数であってもよい。一方、ステップS32では、制御部31は、描画率または描画率の合計が所定値以上のレイヤの中で、画質が最も高いレイヤに対応する最適の動画データストリームをアップロード対象として決定し、図2(A)に示す処理に戻る。なお、描画率または描画率の合計が所定値以上のレイヤが複数ある場合、複数のレイヤの中で画質が最も高いレイヤに対応する最適の動画データストリームがアップロード対象として決定される。例えば、レイヤ1〜レイヤ3の中で、画質が最も高いレイヤはレイヤ3である。
図2(A)に示すステップS3では、制御部31は、ステップS2のアップロードストリーム決定処理によりアップロード対象として決定された動画データストリーム及び音声データストリームを配信サーバ4へアップロードし、ステップS4へ進む。このアップロードは、例えば、エンコードサーバ3から配信サーバ4へのストリーミング配信により行われる。これにより、レイヤ1に対応する動画データストリーム、及びレイヤ2またはレイヤ3に対応する動画データストリーム等が、図2(A)に示す処理の終了まで配信サーバ4へストリーミングし続けられる。
ステップS4では、制御部31は、アップロード処理の終了指示があったか否かを判定する。終了指示がない場合(ステップS4:NO)、ステップS5へ進む。一方、例えば撮影者から終了指示があった場合(ステップS4:YES)、図2(A)に示すアップロード処理が終了する。なお、終了指示があった場合、図2(B)に示すアップロードストリーム生成処理も終了する。ステップS5では、制御部31は、撮影者による疑似カメラワークの操作があったか否かを判定する。例えば、上述したように、撮影者の疑似カメラワークの操作により指定された特定画素領域を示す情報は、撮影者の端末からエンコードサーバ3へ送信される。制御部31は、端末から受信した情報が示す特定画素領域に変更があった場合、撮影者による疑似カメラワークの操作があったと判定する(ステップS5:YES)。この場合、制御部31は、ステップS2に戻り、アップロードストリーム決定処理をやり直す。これは、特定画素領域の変更によりステップS29で決定される最適の動画データストリームが変わる場合があるためである。一方、撮影者による疑似カメラワークの操作がないと判定された場合(ステップS5:NO)、ステップS6へ進む。
ステップS6では、制御部31は、計測している現在のアップロード速度に閾値以上の変化があったか否かを判定する。アップロード速度に閾値以上の変化があったと判定された場合(ステップS6:YES)、ステップS2に戻り、アップロードストリーム決定処理がやり直される。これは、ステップS28で算出される差分ビットレートの変化によりステップS29で決定される最適の動画データストリームが変わる場合があるためである。一方、アップロード速度に閾値以上の変化がないと判定された場合(ステップS6:NO)、ステップS3に戻る。
一方、配信サーバ4は、アップロードされた動画データストリーム、及び音声データストリームを取得して記憶する。このとき、配信サーバ4は、動画データストリームからレイヤ1の動画データ、及びレイヤ2またはレイヤ3の分割動画データを取得して動画データ記憶領域42aに記憶してもよい。また、配信サーバ4は、アップロードされた音声データストリームから音声データを取得して音声データ記憶領域42bに記憶してもよい。そして、クライアント端末5は、クライアント端末5と配信サーバ1との間のネットワークNWの帯域幅と、クライアント端末5の描画性能との少なくとも何れか一方に応じて、例えばレイヤ2またはレイヤ3に対応する最適な動画データブロックを決定する。例えば、ユーザの疑似カメラワークの操作により指定された表示範囲を特定画素領域として、上記ステップS27〜S29と同様の処理により最適な動画データブロックが決定される。次いで、クライアント端末5は、音声データブロック、レイヤ1に対応する動画データブロック、及びレイヤ2またはレイヤ3に対応する上記最適な動画データブロックを配信サーバ4へ要求する。配信サーバ4は、要求されたレイヤの動画データブロックを配信対象として例えば動画データ記憶領域42aから取得し、要求された音声データブロックを例えば音声データ記憶領域42bから配信対象として取得する。なお、クライアント端末5から要求されたレイヤ2またはレイヤ3の分割画像データが動画データ記憶領域42aに記憶されていない場合がある。この場合、記憶されていない分割画像データに対応する動画データブロックは配信対象から除外される。
そして、配信サーバ4は、取得した動画データブロックを含む動画データストリーム、及び音声データブロックを含む音声データストリームをストリーミングでクライアント端末5へ配信する。これにより、疑似的なライブ配信を実現することができる。クライアント端末5は、配信サーバ4から配信された動画データブロック、及び音声データブロックを受信してバッファメモリに一時的に保持させる。次いで、クライアント端末5は、バッファメモリに保持された動画データブロックに含まれるレイヤ2またはレイヤ3の分割フレームをフレームバッファに書き込む。次いで、クライアント端末5は、フレームバッファに書き込まれなかった領域に、動画データブロックに含まれるレイヤ1の画像フレームを書き込む。そして、フレームバッファへの書き込みが完了すると、クライアント端末5は、フレームバッファに書き込まれた画像フレームを表示画面に表示させる。これにより、低解像度の動画データを構成する画像フレームにおいて例えばユーザが注目する領域に、中解像度または高解像度の分割動画データを構成する分割フレームを表示させることができる。
以上説明したように、第1の実施形態によれば、エンコードサーバ3は、カメラ1により取得されたオリジナル動画データに基づいて低解像度の動画データと、中解像度及び高解像度の動画データとを生成し、中解像度及び高解像度の動画データに基づいて複数の分割動画データを生成する。そして、エンコードサーバ3は、エンコードサーバ3と配信サーバ4との間のネットワークNWの帯域幅に応じて、複数の分割動画データの中から、低解像度の動画データとともにアップロード対象の分割動画データを決定する。そして、エンコードサーバ3は、配信サーバ4へ、低解像度の動画データと、分割動画データとをアップロードするように構成した。そのため、エンコードサーバ3は、クライアント端末5へ動画データをライブ配信するために、配信サーバ4との間のネットワークNWの帯域幅に応じて、解像度の異なる動画データを配信サーバ4へ柔軟にアップロードすることができる。
(2.第2の実施形態)
次に、図6等を参照して、本発明の第2実施形態の通信システムS2の構成及び動作概要について説明する。第1の実施形態の通信システムS1では、動画データ及び分割動画データがエンコードサーバ3から配信サーバ4を介してクライアント端末5へ配信されるように構成した。第2実施形態の通信システムS2では、動画データ及び分割動画データがエンコード配信サーバ3aからクライアント端末5へ配信されるように構成する。図6は、第2の実施形態の通信システムS2の概要構成例を示す図である。なお、第2実施形態の通信システムS2において、第1の実施形態の通信システムS1と同様の構成については同一の符号を付し、重複する説明を省略するものとする。
図6は、第2の実施形態の通信システムS2の概要構成例を示す図である。図6に示すように、通信システムS2は、カメラ1、マイクロフォン2、エンコード配信サーバ3a、転送サーバ4a、及びクライアント端末5を含んで構成される。エンコード配信サーバ3aは、本発明の情報処理装置の一例である。カメラ1及びマイクロフォン2は、それぞれ、例えば通信ケーブルCを介してエンコード配信サーバ3aに接続される。エンコード配信サーバ3a、及び転送サーバ4aは、ネットワークNWに接続される。なお、転送サーバ4aは、ネットワークNWを介してクライアント端末5からの要求を受け、この要求に応じて応答するWebサーバの機能を有する。
エンコード配信サーバ3aは、カメラ1からのオリジナル動画データを、通信ケーブルCを介して取得する。また、エンコード配信サーバ3aは、マイクロフォン2からの音声データを、通信ケーブルCを介して取得する。また、エンコード配信サーバ3aは、エンコードサーバ3と同様に、カメラ1からのオリジナル動画データに基づいて、解像度の異なる複数の動画データを生成する。エンコード配信サーバ3aは、クライアント端末5とエンコード配信サーバ3aとの間のネットワークNWの帯域幅に応じて、例えばレイヤ2またはレイヤ3の複数の分割動画データの中から、レイヤ1の動画データとともにクライアント端末5へアップロードするアップロード対象の分割動画データを決定する。そして、エンコード配信サーバ3aは、動画データ、分割動画データ、及び音声データを記憶する。更に、エンコード配信サーバ3aは、記憶した動画データ、分割動画データ、及び音声データそれぞれにアクセスするためのURL(Uniform Resource Locator)を、転送サーバ4aへ通知する。このURLには、エンコード配信サーバ3aのアドレス情報と、動画データ、分割動画データ、及び音声データそれぞれの記憶場所を示すパス名とが含まれる。アドレス情報は、エンコード配信サーバ3aのIPアドレスまたはドメイン名を示す。転送サーバ4aは、クライアント端末5からのコンテンツの要求に応じて、エンコード配信サーバ3aから通知されたURLをクライアント端末5へ送信する。これにより、クライアント端末5は、転送サーバ4aから取得したURLに従ってエンコード配信サーバ3aへアクセスしてコンテンツを要求する。この要求に応じて、エンコード配信サーバ3aは、レイヤ1の動画データ、上記決定された分割動画データ、及び音声データを、ネットワークNWを介してクライアント端末5へアップロードする。第2実施形態の通信システムS2におけるアップロードは、例えば、エンコード配信サーバ3aからクライアント端末5へのストリーミング配信により行われる。
また、エンコード配信サーバ3aは、エンコードサーバ3と同様、図6に示すように、制御部31、記憶部32、及びインターフェース部33、34等を備えて構成される。なお、上述したワークファイル記憶領域42cは、例えば、転送サーバ4aの記憶部に設けられる。ワークファイル記憶領域42cは、エンコード配信サーバ3aの記憶部32に設けられてもよい。また、上述した図2(A)に示すアップロード処理、図2(B)に示すアップロードストリーム生成処理、及び図3に示すアップロードストリーム決定処理は、エンコード配信サーバ3aに対しても適用される。この場合、図2(A)に示す処理は、クライアント端末5からのコンテンツの要求に応じて開始される。ただし、エンコード配信サーバ3aの制御部31によるステップS21では、エンコード配信サーバ3aとクライアント端末5との間のネットワークNWの帯域幅が取得される。この場合のステップS28では、エンコード配信サーバ3aとクライアント端末5との間のネットワークNWの帯域幅から、レイヤ1に対応する動画データストリームのビットレートを引いた差分ビットレートが算出され、ステップS29以降で用いられる。そして、この場合のステップS3では、エンコード配信サーバ3aの制御部31は、アップロード対象として決定された動画データストリーム及び音声データストリームのうち、クライアント端末5から要求されたデータストリームをクライアント端末5へストリーミングで配信することになる。これにより、レイヤ1に対応する動画データストリーム、及びレイヤ2またはレイヤ3に対応する動画データストリーム等がネットワークNWを介してクライアント端末5へアップロードされる。なお、この場合のクライアント端末5は、第1の実施形態と同じように、エンコード配信サーバ3aとの間のネットワークNWの帯域幅と、クライアント端末5の描画性能との少なくとも何れか一方に応じて、例えばレイヤ2またはレイヤ3に対応する最適な動画データブロックを決定し、エンコード配信サーバ3aへ要求することになる。また、この場合のステップS6におけるアップロード速度は、エンコード配信サーバ3aがデータストリームをクライアント端末5へアップロードしながら計測する。
以上説明したように、第2の実施形態によれば、エンコード配信サーバ3aは、カメラ1により取得されたオリジナル動画データに基づいて低解像度の動画データと、中解像度及び高解像度の動画データとを生成し、中解像度及び高解像度の動画データに基づいて複数の分割動画データを生成する。そして、エンコード配信サーバ3aは、エンコード配信サーバ3aとクライアント端末5との間のネットワークNWの帯域幅に応じて、複数の分割動画データの中から、低解像度の動画データとともにアップロード対象の分割動画データを決定する。そして、エンコード配信サーバ3aは、クライアント端末5へ、低解像度の動画データと、分割動画データとをアップロードするように構成した。そのため、エンコード配信サーバ3aは、クライアント端末5へ動画データをライブ配信するために、クライアント端末5との間のネットワークNWの帯域幅に応じて、解像度の異なる動画データをクライアント5へ柔軟にストリーミング配信することができる。
なお、上記実施形態において、クライアント端末5は配信サーバ4またはエンコード配信サーバ3aからコンテンツを受信する構成を示した。しかし、ハイブリッド型またはピア型のピアツーピアネットワークにおいて、クライアント端末5が他のクライアント端末5からコンテンツを受信する場合に対しても本発明は適用できる。この場合、クライアント端末5が本発明の情報処理装置として機能する。
1 カメラ
2 マイクロフォン
3 エンコードサーバ
3a エンコード配信サーバ
4 配信サーバ
4a 転送サーバ
5 クライアント端末
S1、S2 通信システム

Claims (8)

  1. 撮影手段により撮影された動画データを取得する取得手段と、
    前記取得手段により取得された動画データに基づいて、第1の解像度の第1の動画データと、前記第1の解像度より高い第2の解像度の第2の動画データと、を生成する第1生成手段と、
    前記第1生成手段により生成された第2の動画データを構成する画像フレームの領域を複数の分割領域に分割し、前記複数の分割領域に対応する複数の分割動画データを生成する第2生成手段と、
    端末装置と情報処理装置との間のネットワークの帯域幅、または、前記端末装置へ動画データを配信する配信装置と前記情報処理装置との間のネットワークの帯域幅に応じて、前記第2生成手段により生成された複数の分割動画データの中から、前記第1の動画データとともに前記配信装置へアップロードするアップロード対象の前記分割動画データを決定する第1決定手段と、
    前記端末装置、または、前記配信装置へ、前記第1の動画データと、前記第1決定手段により決定された前記分割動画データとをアップロードするアップロード手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記第1決定手段は、前記第1の解像度のレイヤと前記第2の解像度のレイヤを含む複数のレイヤごとに、前記アップロード対象のデータストリームを決定する決定処理を行う第2決定手段を備え、
    前記第2決定手段は、前記データストリームの決定処理中の前記ネットワークの帯域幅から、前記第1の解像度のレイヤに対応する第1のデータストリームのビットレートを引いた差分ビットレート中で、前記第1の解像度のレイヤ以外の前記レイヤに対応する第2のデータストリームのビットレートに応じて、前記分割動画データを含む前記第2のデータストリームを前記アップロード対象として決定し、
    前記アップロード手段は、前記第1のデータストリームと、前記第2決定手段により決定された前記第2のデータストリームをアップロードすることを特徴とする請求項1に記載の情報処理装置。
  3. 前記情報処理装置は、
    前記取得手段により取得された動画データを構成する画像フレームの中の1画素以上を含む特定画素領域を決定する第3決定手段と、
    前記第2決定手段により決定された前記第2のデータストリームにおいて前記分割領域の前記特定画素領域に占める割合が所定値以上の前記レイヤがあるかを判定する判定手段と、
    を更に備え、
    前記第2決定手段は、前記割合が所定値以上の前記レイヤがあると判定された場合、前記割合が所定値以上の前記レイヤに対応する前記第2のデータストリームを前記アップロード対象として決定することを特徴とする請求項2に記載の情報処理装置。
  4. 前記第2決定手段は、前記割合が所定値以上の前記レイヤが複数ある場合、前記割合が所定値以上の複数の前記レイヤの中で画質が最も高い前記レイヤに対応する前記第2のデータストリームを前記アップロード対象として決定することを特徴とする請求項3に記載の情報処理装置。
  5. 前記第2決定手段は、前記割合が所定値以上の前記レイヤがない場合、前記割合が最も高い前記レイヤに対応する前記第2のデータストリームを前記アップロード対象として決定することを特徴とする請求項3または4に記載の情報処理装置。
  6. 前記取得手段により取得された動画データを構成する画像フレームの中の1画素以上を含む特定画素領域を決定する第3決定手段を更に備え、
    前記第1決定手段は、前記第3決定手段により決定された特定描画領域に占める割合が最も高い前記特定画素領域に対応する分割動画データを優先して前記アップロード対象として決定することを特徴とする請求項1に記載の情報処理装置。
  7. 情報処理装置のコンピュータに、
    撮影手段により撮影された動画データを取得するステップと、
    前記取得された動画データに基づいて、第1の解像度の第1の動画データと、前記第1の解像度より高い第2の解像度の第2の動画データと、を生成するステップと、
    前記生成された第2の動画データを構成する画像フレームの領域を複数の分割領域に分割し、前記複数の分割領域に対応する複数の分割動画データを生成するステップと、
    端末装置と前記情報処理装置との間のネットワークの帯域幅、または、前記端末装置へ動画データを配信する配信装置と前記情報処理装置との間のネットワークの帯域幅に応じて、前記生成された複数の分割動画データの中から、前記第1の動画データとともに前記配信装置へアップロードするアップロード対象の前記分割動画データを決定するステップと、
    前記端末装置、または、前記配信装置へ、前記第1の動画データと、前記決定された前記分割動画データとをアップロードするステップと、
    を実行させることを特徴とするプログラム。
  8. 情報処理装置により実行される情報処理方法であって、
    撮影手段により撮影された動画データを取得するステップと、
    前記取得された動画データに基づいて、第1の解像度の第1の動画データと、前記第1の解像度より高い第2の解像度の第2の動画データと、を生成するステップと、
    前記生成された第2の動画データを構成する画像フレームの領域を複数の分割領域に分割し、前記複数の分割領域に対応する複数の分割動画データを生成するステップと、
    端末装置と前記情報処理装置との間のネットワークの帯域幅、または、前記端末装置へ動画データを配信する配信装置と前記情報処理装置との間のネットワークの帯域幅に応じて、前記生成された複数の分割動画データの中から、前記第1の動画データとともに前記配信装置へアップロードするアップロード対象の前記分割動画データを決定するステップと、
    前記端末装置、または、前記配信装置へ、前記第1の動画データと、前記決定された前記分割動画データとをアップロードするステップと、
    を含むことを特徴とする情報処理方法。
JP2013180214A 2013-08-30 2013-08-30 情報処理装置、プログラム及び情報処理方法 Active JP5915604B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013180214A JP5915604B2 (ja) 2013-08-30 2013-08-30 情報処理装置、プログラム及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013180214A JP5915604B2 (ja) 2013-08-30 2013-08-30 情報処理装置、プログラム及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2015050572A true JP2015050572A (ja) 2015-03-16
JP5915604B2 JP5915604B2 (ja) 2016-05-11

Family

ID=52700253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013180214A Active JP5915604B2 (ja) 2013-08-30 2013-08-30 情報処理装置、プログラム及び情報処理方法

Country Status (1)

Country Link
JP (1) JP5915604B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017063282A (ja) * 2015-09-24 2017-03-30 ブラザー工業株式会社 サーバ装置、サーバプログラム、端末プログラム、動画送信方法、動画表示方法、通信システム
CN108574735A (zh) * 2018-04-11 2018-09-25 努比亚技术有限公司 数据处理方法、终端及计算机可读存储介质
CN111078601A (zh) * 2019-12-18 2020-04-28 成都国科微电子有限公司 一种总线带宽使用峰值调整方法及装置
CN113507629A (zh) * 2021-06-30 2021-10-15 中标慧安信息技术股份有限公司 物联网中视频端与通信端之间的数据传输控制方法和系统
JP7382689B1 (ja) 2023-06-13 2023-11-17 株式会社Tomody ストリーミング配信システム、配信サーバおよび撮影者端末

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002335570A (ja) * 2001-05-09 2002-11-22 Matsushita Electric Ind Co Ltd 画像伝送方法、画像伝送プログラム、画像伝送装置、監視プログラム、および、携帯電話
JP2011217345A (ja) * 2010-03-18 2011-10-27 Nippon Telegr & Teleph Corp <Ntt> 映像伝送方法、映像伝送装置、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002335570A (ja) * 2001-05-09 2002-11-22 Matsushita Electric Ind Co Ltd 画像伝送方法、画像伝送プログラム、画像伝送装置、監視プログラム、および、携帯電話
JP2011217345A (ja) * 2010-03-18 2011-10-27 Nippon Telegr & Teleph Corp <Ntt> 映像伝送方法、映像伝送装置、及びプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017063282A (ja) * 2015-09-24 2017-03-30 ブラザー工業株式会社 サーバ装置、サーバプログラム、端末プログラム、動画送信方法、動画表示方法、通信システム
CN108574735A (zh) * 2018-04-11 2018-09-25 努比亚技术有限公司 数据处理方法、终端及计算机可读存储介质
CN108574735B (zh) * 2018-04-11 2022-07-12 柴森森 数据处理方法、终端及计算机可读存储介质
CN111078601A (zh) * 2019-12-18 2020-04-28 成都国科微电子有限公司 一种总线带宽使用峰值调整方法及装置
CN111078601B (zh) * 2019-12-18 2022-11-15 成都国科微电子有限公司 一种总线带宽使用峰值调整方法及装置
CN113507629A (zh) * 2021-06-30 2021-10-15 中标慧安信息技术股份有限公司 物联网中视频端与通信端之间的数据传输控制方法和系统
JP7382689B1 (ja) 2023-06-13 2023-11-17 株式会社Tomody ストリーミング配信システム、配信サーバおよび撮影者端末

Also Published As

Publication number Publication date
JP5915604B2 (ja) 2016-05-11

Similar Documents

Publication Publication Date Title
EP3459252B1 (en) Method and apparatus for spatial enhanced adaptive bitrate live streaming for 360 degree video playback
US20180204381A1 (en) Image processing apparatus for generating virtual viewpoint image and method therefor
US20120291080A1 (en) Image delivery system with image quality varying with frame rate
KR20190008901A (ko) 가상 현실 미디어 콘텐트의 스트리밍을 개선하는 방법, 디바이스, 및 컴퓨터 프로그램
JP5915604B2 (ja) 情報処理装置、プログラム及び情報処理方法
JP5838925B2 (ja) 通信システム、端末装置、動画の表示方法、及びプログラム
JP6541309B2 (ja) 送信装置、送信方法、及びプログラム
JP6270555B2 (ja) 画像処理システム、撮像装置及びその制御方法
JP2006254366A (ja) 画像処理装置、カメラシステム、ビデオシステム、ネットワークデータシステム、並びに、画像処理方法
JP2013255210A (ja) 映像表示方法、映像表示装置および映像表示プログラム
KR20150029461A (ko) 파노라마 영상의 스트리밍 서비스 제공 시스템에서 타일링 영상 동기화 방법
JP5928196B2 (ja) 通信システム、端末装置、登録方法、及びプログラム
KR20210019017A (ko) 컨텐츠의 처리 방법 및 장치
JP2020524450A (ja) 多チャネル映像のための伝送システム及びその制御方法、多チャネル映像再生方法及びその装置
US20230162435A1 (en) Information processing apparatus, information processing method, and storage medium
US10841490B2 (en) Processing method and processing system for video data
JP5850012B2 (ja) 情報処理装置、プログラム及び通信システム
JP6355634B2 (ja) データ処理装置、データ処理方法、プログラム、記録媒体及びデータ処理システム
JP6987567B2 (ja) 配信装置、受信装置及びプログラム
JP6735644B2 (ja) 情報処理装置及びその制御方法、コンピュータプログラム
JP6970143B2 (ja) 配信サーバ、配信方法及びプログラム
JP7319340B2 (ja) 配信サーバ、配信方法及びプログラム
GB2560953A (en) Video Streaming
JP6548538B2 (ja) 画像配信システム及びサーバ

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160321

R150 Certificate of patent or registration of utility model

Ref document number: 5915604

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150