JP7351140B2 - 配信装置、配信システムおよび配信プログラム - Google Patents

配信装置、配信システムおよび配信プログラム Download PDF

Info

Publication number
JP7351140B2
JP7351140B2 JP2019153769A JP2019153769A JP7351140B2 JP 7351140 B2 JP7351140 B2 JP 7351140B2 JP 2019153769 A JP2019153769 A JP 2019153769A JP 2019153769 A JP2019153769 A JP 2019153769A JP 7351140 B2 JP7351140 B2 JP 7351140B2
Authority
JP
Japan
Prior art keywords
video data
data
difference
time
client terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019153769A
Other languages
English (en)
Other versions
JP2021034911A (ja
Inventor
涼一 舟橋
尚己 長谷川
厚子 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019153769A priority Critical patent/JP7351140B2/ja
Publication of JP2021034911A publication Critical patent/JP2021034911A/ja
Application granted granted Critical
Publication of JP7351140B2 publication Critical patent/JP7351140B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、配信装置等に関する。
MPEG(Moving Picture Experts Group)-DASH(Dynamic Adaptive Streaming over HTTP)、HLS(HTTP Live Streaming)等の、セグメントベースの映像配信方式がインターネット環境で一般的に用いられている。
たとえば、セグメントベースの映像配信を行う配信サーバは、映像データを分割することで複数のセグメントファイルを生成する。以下、セグメントファイルを単に、ファイルと表記する。配信サーバは、生成した各ファイルに対してメタデータ管理を含めたエンコード処理を行い、ユーザが操作するクライアント端末からの要求に応じて、各ファイルを連続して配信する。このように、各ファイルを連続して配信することを、ストリーミング配信と表記する。
なお、ユーザが視聴する映像の形式が多様化しており、配信サーバは、クライアント端末から指定される映像の形式に合わせて映像データを変換し、変換した映像データの各ファイルをストリーミング配信する場合がある。配信サーバが行う変換処理には、映像の視認性を向上させる処理、フィルタ処理、エフェクト処理等が含まれる。
また、配信サーバは、現在撮影中の映像データをリアルタイムにストリーミング配信するサービス(ライブストリーミング配信)を行っている。ここで、ユーザは、ライブストリーミング配信される映像を参照しつつ、SNS(Social Networking Service)等によって、他のユーザと映像に関する意見交換をリアルタイムに行う場合がある。
特開2016-100635号公報 特開2006-211615号公報 特開2007-019589号公報
しかしながら、上述した従来技術では、映像データの変換処理に伴う遅延時間を削減することができないという問題がある。
たとえば、配信サーバがクライアント端末にストリーミング配信を行っている間に、映像の形式変更をクライアント端末によって指定される場合がある。配信サーバが、かかる指定を受け付けると、ファイルの変換処理を行うため、遅延時間が発生する。
ここで、配信サーバが複数のクライアント端末に対して、ライブストリーミング配信を行っており、第1のユーザが映像の形式変更を指定すると、第1のユーザのクライアント端末に映像を配信する時間が、第2のユーザのクライアント端末よりも遅れてしまう。そうすると、第1のユーザが第2のユーザよりも遅延時間分だけ遅れて映像を参照することになり、SNS等によって、複数のユーザがリアルタイムに意見交換する場合に、好ましくない。
1つの側面では、本発明は、映像データの変換処理に伴う遅延時間を削減することができる配信装置、配信システム、クライアント端末および配信プログラムを提供することを目的とする。
第1の案では、配信装置は、変換部と、抽出部と、配信部とを有する。変換部は、映像データに対して変換処理を実行することで、変換映像データを生成する。抽出部は、映像データと、変換映像データとの差分データを抽出する。配信部は、差分データが抽出されると、映像データと差分データとをクライアント端末に配信する。
映像データの変換処理に伴う遅延時間を削減することができる。
図1は、本実施例に係る配信システムの一例を示す図である。 図2は、本実施例に係る配信装置の処理の一例を説明するための図である。 図3は、ライブストリーミング配信されるデータのデータ構造の一例を示す図である。 図4は、本実施例に係る配信装置の構成を示す機能ブロック図である。 図5は、差分データテーブルのデータ構造の一例を示す図である。 図6は、抽出部の処理の一例を説明するための図である。 図7は、本実施例に係るクライアント端末の構成を示す機能ブロック図である。 図8は、復元部の処理の一例を説明するための図である。 図9は、本実施例に係る配信装置の処理手順を示すフローチャートである。 図10は、本実施例に係るクライアント端末の処理手順を示すフローチャートである。 図11は、本実施例に係る配信装置のその他の構成を示す機能ブロック図である。 図12は、従来方式の遅延時間と本方式の遅延時間とを示す図である。 図13は、クライアント端末と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図14は、配信装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
以下に、本願の開示する配信装置、配信システム、クライアント端末および配信プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例に係る配信システムの一例を示す図である。図1に示すように、この配信システムは、クライアント端末50a,50b,50cと、カメラ60と、配信装置100とを有する。クライアント端末50a~50cは、ネットワーク5を介して、配信装置100に接続される。配信装置100は、カメラ60に接続される。
図1では、クライアント端末50a~50cを示すが、配信システムは、他のクライアント端末を更に含んでいてもよい。以下の説明では、クライアント端末50a~50cをまとめて、「クライアント端末50」と表記する。
クライアント端末50は、配信装置100から、ライブストリーミング配信されるデータを受信し、受信したデータを基にして映像を再生する端末装置である。ライブストリーミング配信されるデータには、後述するように、映像データおよび差分データが含まれる。クライアント端末50は、PC(Personal Computer)、ノートPC、タブレット端末、スマートフォン等に対応する。クライアント端末50は、有線または無線によって、ネットワーク5に接続する。
カメラ60は、映像を撮影する撮影装置である。カメラ60は、撮影した映像データを、配信装置100に出力する。カメラ60は、有線または無線によって、配信装置100に接続されてもよいし、ネットワークを介して、配信装置100に接続されてもよい。
配信装置100は、映像データを用いて、クライアント端末50にライブストリーミング配信を行う装置である。図2は、本実施例に係る配信装置の処理の一例を説明するための図である。配信装置100は、映像データ11に対して、所定の変換処理を実行することで、変換映像データ12を生成する。本実施例では、配信装置100が実行する所定の変換処理を、映像の視認性を向上させる処理、フィルタ処理、エフェクト処理等のうち、いずれかの変換処理とする。配信装置100は、映像データ11と変換映像データ12との差分を抽出することで、差分データ13を生成する。
映像データ11には、複数の画像フレーム11~11n+4が含まれる(nは自然数)。図2では、画像フレーム11~11n+4以外の画像フレームの図示を省略する。画像フレーム11~11n+4は、それぞれ静止画像に対応するものである。画像フレーム11~11n+4には、時系列にフレーム番号が割り当てられる。
変換映像データ12には、複数の変換フレーム12~12n+4が含まれる。図2では、変換フレーム12~12n+4以外の変換フレームの図示を省略する。配信装置100が、画像フレーム11~11n+4に対してそれぞれ変換処理を実行することで、変換フレーム12~12n+4が生成される。変換フレーム12~12n+4には、変換元の画像フレームと同一のフレーム番号が割り当てられる。
差分データ13には、複数の差分フレーム13~13n+4が含まれる。図2では、差分フレーム13~13n+4以外の差分フレームの図示を省略する。配信装置100は、画像フレーム11~11n+4と、変換フレーム12~12n+4との差分を抽出することで、差分フレーム13~13n+4を生成する。差分フレーム13~13n+4には、対応する画像フレームと同一のフレーム番号が割り当てられる。たとえば、差分フレーム13~13n+4のフレーム番号は、画像フレーム11~11n+4のフレーム番号にそれぞれ対応する。
配信装置100は、映像データ11および差分データ13を、クライアント端末50にライブストリーミング配信する。
図3は、ライブストリーミング配信されるデータのデータ構造の一例を示す図である。図3に示すように、配信装置100から、ライブストリーミング配信されるデータ10には、映像データ11と、差分データ13とが含まれる。
クライアント端末50は、ライブストリーミング配信によってデータ10を受信すると、データ10に含まれる映像データ11を用いて、映像を再生する。クライアント端末50は、ユーザから、変換映像データの再生要求を受け付けた場合、映像データ11と、差分データ13とを基にして、変換映像データ12を復元し、復元した変換映像データを用いて、映像を再生する。
上記のように、本実施例に係る配信システムは、配信装置100が、映像データ11をクライアント端末50に配信する際に、変換処理を並行して実行し、映像データ11と変換映像データ12との差分データ13を、映像データ11と共に配信する。なお、差分データ13は、映像データ11よりも処理時間分遅れて、クライアント端末50に配信される。
クライアント端末50は、映像データ11によって、映像を再生し、ユーザから、変換映像データの再生要求を受け付けた場合に、映像データ11と、差分データ13とを基にして、変換映像データ12を復元し、復元した変換映像データを用いて、映像を再生する。これによって、映像データを再生中にユーザから、変換映像データの再生要求を受け付けた場合でも、映像データ11の変換処理に伴う遅延時間を削減することができる。
次に、図1に示した配信装置100の構成の一例について説明する。図4は、本実施例に係る配信装置の構成を示す機能ブロック図である。図4に示すように、この配信装置100は、通信部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。
通信部110は、ネットワーク5を介して、クライアント端末50との間でデータ通信を実行する処理部である。また、通信部110は、カメラ60との間でデータ通信を実行する。後述する制御部150は、通信部110を介して、クライアント端末50、カメラ60とデータをやり取りする。通信部110は、通信装置の一例である。
入力部120は、各種のデータを、配信装置100に入力するための入力装置である。入力部120は、キーボードやマウス、タッチパネル等に対応する。
表示部130は、制御部150から出力されるデータを表示する表示装置である。表示部130は、液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ、タッチパネル等に対応する。
記憶部140は、映像バッファ141、変換映像バッファ142、差分データテーブル143を有する。記憶部140は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
映像バッファ141は、カメラ60から受信する映像データを格納するバッファである。たとえば、映像バッファ141に格納される映像データは、図2に示した映像データ11に対応する。
変換映像バッファ142は、変換映像データを格納するバッファである。たとえば、変換映像バッファ142に格納される変換映像データは、図2に示した変換映像データ12に対応する。
差分データテーブル143は、差分データに関する各種のデータを保持するテーブルである。差分データテーブル143によって保持されるデータは、図2に示した差分データ13に対応する。
図5は、差分データテーブルのデータ構造の一例を示す図である。図5に示すように、この差分データテーブル143は、フレーム番号、差分画像座標、差分画像サイズ、差分画像を対応付ける。フレーム番号毎の各レコード(差分画像座標、差分画像サイズ、差分画像)が、図2に示した差分データ13の各差分フレームに対応する。差分画像座標、差分画像サイズ、差分画像に関する説明は後述する。
図4の説明に戻る。制御部150は、取得部151と、変換部152と、抽出部153と、配信部154とを有する。制御部150は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部150は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
取得部151は、カメラ60から映像データを受信する処理部である。取得部151は、映像データを、映像バッファ141に格納する。カメラ60から取得する映像データには、複数の画像フレームが含まれ、時系列にフレーム番号が付与されているものとする。
変換部152は、映像バッファ141に格納された映像データに対して、所定の変換処理を実行することで、変換映像データを生成する処理部である。たとえば、変換部152は、変換処理として、映像の視認性を向上させる処理、フィルタ処理、エフェクト処理のうち、いずれかの処理を実行する。変換部152は、変換映像データを、変換映像バッファ142に格納する。
たとえば、変換部152が、所定の変換処理として、エフェクト処理を実行する場合について説明する。変換部152は、映像データに含まれる複数の画像フレームから、未選択の画像フレームを選択し、画像フレームと、対象物の特徴を定義したテンプレートとを比較して、画像フレームに対象物が含まれるか否かを判定する。変換部152は、画像フレームに対象物が含まれる場合に、対象物に対して所定のエフェクトを付与することで、画像フレームを変換フレームに変換する。変換部152は、どのようなエフェクトを付与しても良いが、たとえば、対象物を強調表示する。
変換部152は、映像データに含まれる複数の画像フレームに対して、上記の処理を繰り返し実行することで、映像データを変換映像データに変換する。変換部152は、変換映像データに含まれる各変換フレームに対して、変換元の画像フレームのフレーム番号をそれぞれ付与するものとする。
抽出部153は、映像バッファ141に格納された映像データと、変換映像バッファ142に格納された変換映像データとの差分データを抽出する処理部である。抽出部153は、差分データに関するデータを、差分データテーブル143に登録する。
図6は、抽出部の処理の一例を説明するための図である。図6では一例として、画像フレーム11と、変換フレーム12とを用いて説明を行う。画像フレーム11には、選手1aと、ボール1bとが含まれており、変換フレーム12では、選手1aの領域にエフェクト2が付与されている。
抽出部153は、画像フレーム11と、変換フレーム12との差分を取ることで、差分フレーム13を生成する。差分フレーム13には、差分画像3が含まれる。抽出部153は、差分フレーム13nを基にして、差分データテーブル143に登録するための、差分画像座標、差分画像サイズ、差分画像を抽出する。
図6に示す差分フレーム13では、差分画像座標は、差分画像3の左上端の座標(x、y)となる。差分画像サイズは、差分画像3の「横幅w×高さh」となる。差分画像は、差分画像3となる。抽出部153は、画像フレーム11nに付与されたフレーム番号と対応付けて、差分画像座標、差分画像サイズ、差分画像(差分画像のバイナリデータ)を、差分データテーブル143に登録する。
抽出部153は、他の画像フレームと、他の変換フレームとを基にして、他の差分フレームを抽出し、フレーム番号と対応づけて、差分画像座標、差分画像サイズ、差分画像を、差分データテーブル143に登録する処理を繰り返し実行する。
配信部154は、映像データと、差分データとをクライアント端末50に配信(ライブストリーミング配信)する処理部である。ライブストリーミング配信されるデータは、図3で説明したように、映像データ11と、差分データ13とが含まれる。差分データに含まれる各差分フレームの情報は、差分データテーブル143の各フレーム番号に対応付けられた、差分画像座標、差分画像サイズ、差分画像(差分画像のバイナリデータ)に対応する。
配信部154は、映像データ11に含まれる各映像フレームのフレーム番号と、差分データ13に含まれる各差分フレームのフレーム番号と同一のタイミングで、クライアント端末50に配信してもよい。または、配信部154は、映像データ11を、先行して配信し、差分データ13の差分フレームについては、差分データテーブル143に差分フレームのデータが登録された時点で、順次、配信してもよい。
次に、図1に示したクライアント端末50aの構成の一例について説明する。図7は、本実施例に係るクライアント端末の構成を示す機能ブロック図である。図7では、一例として、クライアント端末50aの構成について説明するが、クライアント端末50b,50cの構成は、クライアント端末50aの構成と同様である。
図7に示すように、クライアント端末50aは、通信部51と、入力部52と、表示部53と、記憶部54と、制御部55とを有する。
通信部51は、ネットワーク5を介して、配信装置100との間でデータ通信を実行する処理部である。通信部51は、通信装置の一例である。後述する制御部55は、通信部51を介して、配信装置100とデータをやり取りする。
入力部52は、各種のデータを、クライアント端末50aに入力するための入力装置である。入力部52は、キーボードやマウス、タッチパネル等に対応する。たとえば、ユーザは、入力部52を操作して、閲覧中の映像の変換要求を行う。
表示部53は、制御部55から出力される映像データ(または、変換映像データ)を表示する表示装置である。表示部53は、液晶ディスプレイ、有機ELディスプレイ、タッチパネル等に対応する。
記憶部54は、バッファ54aと、変換データバッファ54bを有する。記憶部54は、RAM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。
バッファ54aは、ライブストリーミング配信されるデータを格納するバッファである。図3で説明したように、ライブストリーミング配信されるデータ10には、映像データ11と、差分データ13とが含まれる。
変換データバッファ54bは、映像データ11と、差分データ13とを基にして復元される変換映像データ12を格納するバッファである。後述するように、変換映像データ12は、制御部55の復元部55bによって復元される。
制御部55は、受信部55aと、復元部55bと、表示制御部55cとを有する。制御部55は、CPUやMPUなどによって実現できる。また、制御部55は、ASICやFPGAなどのハードワイヤードロジックによっても実現できる。
受信部55aは、配信装置100から、ライブストリーミング配信されるデータ(映像データおよび差分データ)を受信する処理部である。受信部55aは、ライブストリーミング配信されるデータを、バッファ54aに格納する。
復元部55bは、入力部52を操作するユーザから、映像の変換要求を受け付けた場合、変換映像データ12を復元する処理部である。復元部55bは、復元した変換映像データ12を、変換データバッファ54bに格納する。復元部55bは、バッファ54aに格納された映像データ11の各画像フレームのうち、表示制御部55cによって、表示部53に出力されてない画像フレーム以降について、変換フレームを順次生成し、変換データバッファ54bに変換フレームを格納する。
たとえば、映像データ11の画像フレーム11n-1が、表示制御部55cによって表示部53に出力された時点において、入力部52を操作するユーザから、映像の変換要求を受け付けた場合について説明する。この場合、復元部55bは、バッファ54aから、画像フレーム11を取得する。また、復元部55bは、画像フレーム11のフレーム番号に対応する差分フレーム13の差分画像座標、差分画像サイズ、差分画像を基にして、差分フレーム13を復元する。
図8は、復元部の処理の一例を説明するための図である。復元部55bは、画像フレーム11と、復元した差分フレーム13とを加算することで、変換フレーム12を復元する。復元部55bは、画像フレーム11n+1以降の画像フレームに対しても、差分フレーム13n+1以降の差分フレームを加算することで、変換フレーム12n+1以降の変換フレームを順次復元し、変換データバッファ54bに格納する。
表示制御部55cは、バッファ54aに格納された映像データを、フレーム番号の順に読み出して、表示部53に出力する処理部である。表示制御部55cは、入力部52を操作するユーザから、映像の変換要求を受け付けた場合、変換データバッファ54bに格納された変換フレームを順に読み出し、表示部53に出力することで、変換映像データを表示させる。
次に、本実施例に係る配信装置100の処理手順の一例について説明する。図9は、本実施例に係る配信装置の処理手順を示すフローチャートである。図9に示すように、配信装置100の配信部154は、クライアント端末50に対して、映像データの配信を開始する(ステップS101)。
配信装置100の変換部152は、映像データに対して変換処理を実行し、変換映像データを生成する(ステップS102)。変換部152は、変換処理が終了していない場合には(ステップS103,No)、再度、ステップS102に移行する。
一方、変換部152による変換処理が終了している場合には(ステップS103,Yes)、配信装置100の抽出部153は、映像データと変換映像データとを基にして、差分データを抽出する(ステップS104)。抽出部153は、抽出が完了していない場合には(ステップS105,No)、ステップS104に移行する。
一方、抽出部153による抽出が完了している場合には(ステップS105,Yes)、配信部154は、差分データの配信を開始する(ステップS106)。配信部154は、映像データが終了した場合に、映像データおよび差分データの配信を停止する(ステップS107)。
次に、本実施例に係るクライアント端末50aの処理手順の一例について説明する。なお、クライアント端末50b、50cの処理手順は、クライアント端末50aの処理手順と同様である。図10は、本実施例に係るクライアント端末の処理手順を示すフローチャートである。図10に示すように、クライアント端末50aの受信部55aは、映像データの受信を開始する(ステップS201)。また、受信部55aは、差分データの受信を開始する(ステップS202)。
クライアント端末50aの受信部55aは、映像データと差分データとの受信が完了していない場合には(ステップS203,No)、再度、ステップS203に移行する。
一方、受信部55aによって、映像データと差分データとの受信が完了した場合には(ステップS203,Yes)、クライアント端末50aの表示制御部55cは、入力部52から変換要求を受け付けたか否かを判定する(ステップS204)。
表示制御部55cは、入力部52から変換要求を受け付けていない場合には(ステップS204,No)、映像データを表示部53に出力することで、映像データを表示させ(ステップS205)、ステップS208に移行する。
一方、入力部52から変換要求を受け付けた場合には(ステップS204,Yes)、クライアント端末50aの復元部55bは、映像データと差分データとを基にして、変換映像データを復元する(ステップS206)。
表示制御部55cは、変換映像データを表示部53に出力することで、変換映像データを表示させる(ステップS207)。表示制御部55cは、映像データが終了した場合に、映像データまたは変換映像データの出力を停止する(ステップS208)。
次に、本実施例に係る配信システムの効果について説明する。配信装置100は、映像データ11をクライアント端末50に配信する際に、変換処理を並行して実行し、映像データ11と変換映像データ12との差分データ13を、映像データ11と共に配信する。クライアント端末50は、映像データ11によって、映像を再生し、ユーザから、変換要求を受け付けた場合に、映像データ11と、差分データ13とを基にして、変換映像データ12を復元し、復元した変換映像データを用いて、映像を再生する。これによって、ユーザ固有の変換処理を実行する場合に、システム全体の遅延時間を削減することができる。また、ユーザが、クライアント端末50側で、差分データ13のあり、無しの切り替えることもできる。
また、配信装置100は、差分データ13をクライアント端末50に配信する場合に、差分データ13の各差分フレームから、差分画像座標、差分画像サイズ、差分画像を抽出する。配信装置100は、抽出した差分画像座標、差分画像サイズ、差分画像の組を、差分データとして、クライアント端末50に配信することで、差分データのデータ量を削減することができる。
ところで、上述した配信装置100の処理は一例であり、配信装置100は他の処理を実行してもよい。図11は、本実施例に係る配信装置のその他の構成を示す機能ブロック図である。図11に示す配信装置200は、図4に示した配信装置100と比較して、制御部150に、推定部155を有する。
推定部155は、映像変換時間、映像通信時間、差分生成時間、差分通信時間、復元時間を推定する処理部である。映像変換時間は、「第1時間」に対応する。映像通信時間は、「第2時間」に対応する。差分生成時間、差分通信時間、復元時間は、「第3時間」に対応する。
映像変換時間は、変換部152が、映像データ11を基にして変換映像データ12を生成する時間を示すものである。たとえば、推定部155は、映像データ11のデータ量と、このデータ量に要する変換部152の処理時間との関係を示す情報を保持しており、かかる情報と、映像データ11のデータ量とから、映像変換時間を算出する。
映像通信時間は、配信対象のデータ(映像データあるいは変換映像データ)をクライアント端末50に配信する際の通信時間を示すものである。たとえば、推定部155は、ネットワーク5の通信速度の情報を保持しており、かかる情報と、配信対象のデータ量とから、映像通信時間を算出する。
差分生成時間は、映像データ11と変換映像データ12とを基にして、差分データ13を生成する時間を示すものである。推定部155は、映像データ11および変換映像データ12のデータ量と、このデータ量に要する抽出部153の処理時間との関係を示す情報を保持しており、かかる情報と、映像データ11および変換映像データ12のデータ量とから、差分生成時間を算出する。
差分通信時間は、差分データ13をクライアント端末50に配信する際の通信時間を示すものである。たとえば、推定部155は、ネットワーク5の通信速度の情報を保持しており、かかる情報と、差分データ13のデータ量とから、差分通信時間を算出する。
復元時間は、クライアント端末50が、映像データ11と差分データ13とを基にして変換映像データ12を復元する時間を示すものである。たとえば、推定部155は、映像データ11および差分データ13のデータ量と、このデータ量に要する復元部55bの復元時間との関係を示す情報を保持しており、かかる情報と、映像データ11および差分データ13のデータ量とから、復元時間を算出する。
図12は、従来方式の遅延時間と本方式の遅延時間とを示す図である。図12の横軸は、時間軸である。時刻tsを、クライアント端末50から、変換要求を受け付けた時刻とする。図12では一例として、変換前の映像データ11のデータ量と、変換映像データ12のデータ量とが同一であるものとする。
従来方式では、クライアント端末50から、変換要求を受け付けた場合に、映像データ11を変換映像データ12に変換する映像変換時間Aと、変換映像データ12を配信する映像通信時間Bが発生する。このため、従来方式の遅延時間Xは、式(1)に示される。
X=A+B・・・(1)
一方、本方式では、映像データ11を配信する処理(映像通信時間B)と、映像データ11の変換処理(映像変換処理A)、差分データ13の抽出処理(差分作成時間D)、差分データ13の配信処理(差分通信時間E)とを並行して行う。また、差分データは、クライアント端末50で復元される(復元時間F)。このため、本方式の遅延時間Yは、式(2)によって示される。
Y=max(B、A+D+E)+F・・・(2)
推定部155は、X>Yとなる場合に、本方式を採用すると判定し、変換部152、抽出部153、配信部154に上述した処理を実行させる。一方、推定部155は、X≦Yとなる場合に、従来方式を採用すると判定し、制御信号を、抽出部153、配信部154に出力することで、従来方式による処理を実行させる。
制御信号を受信した抽出部153は、差分データ13を抽出する処理をスキップする。制御信号を受信した配信部154は、映像データ11をクライアント端末50に配信する処理を停止し、変換映像バッファ142に格納される変換映像データ12を、クライアント端末50に配信する。
上記のように、推定部155が、映像変換時間、映像通信時間、差分生成時間、差分通信時間、復元時間を推定し、本方式による配信を実行するか否かを判定することで、最適なデータ配信を実行することができる。たとえば、クライアント端末50の性能が低く、復元時間Fが想定よりも大きい場合には、かかる状況を事前に予測し、従来方式に切り替えて、遅延時間を短縮することができる。
図11の配信装置200を用いて、配信装置100の他の処理を説明したが、配信装置100は、更に他の処理を実行してもよい。以下において、配信装置100のその他の処理(1)、(2)について説明する。
配信装置100のその他の処理(1)について説明する。上記の説明では、配信装置100の抽出部153は、差分フレーム13を基にして、差分画像座標、差分画像サイズ、差分画像を抽出し、フレーム番号と対応付けて、差分データテーブル143に登録する場合について説明したがこれに限定されるものではない。抽出部153は、差分フレーム13をそのまま差分バッファ(図示略)に格納してもよい。すなわち、抽出部153は、差分データ13を、差分バッファに格納する。
配信装置100の配信部154は、映像バッファ141に格納された映像データ11と、差分バッファに格納された差分データ13とを、クライアント端末50に配信する。
配信装置100のその他の処理(2)について説明する。上記の説明では、変換部152は、映像データ11に単一の変換処理を実行することで、一種類の変換映像データ12を生成していたがこれに限定されるものではない。変換部152は、複数種類の変換処理を実行することで、複数種類の変換映像データを生成してもよい。
抽出部153は、複数種類の変換映像データそれぞれから、複数の差分データを抽出し、配信部154は、映像データ11と共に、複数の差分データを、クライアント端末50に配信する。
たとえば、変換部152は、映像データ11に対して、第1、2、3の変換処理を実行して、変換映像データ12A,12B,12Cを生成する。抽出部153は、映像データ11と、変換映像データ12Aから、差分データ13Aを抽出する。抽出部153は、映像データ11と、変換映像データ12Bから、差分データ13Bを抽出する。抽出部153は、映像データ11と、変換映像データ12Cから、差分データ13Cを抽出する。配信部154は、映像データ11と、差分データ13A,13B,13Cとを、クライアント端末50に配信する。
クライアント端末50は、配信装置100からの配信を受信し、映像データ11を基にして、映像を再生する。クライアント端末50は、ユーザによって、第1の変換要求を受け付けた場合には、映像データ11と、差分データ13Aとを基にして、変換映像データ12Aを復元し、復元した変換映像データ12Aを再生する。
クライアント端末50は、ユーザによって、第2の変換要求を受け付けた場合には、映像データ11と、差分データ13Bとを基にして、変換映像データ12Bを復元し、復元した変換映像データ12Bを再生する。
クライアント端末50は、ユーザによって、第3の変換要求を受け付けた場合には、映像データ11と、差分データ13Cとを基にして、変換映像データ12Cを復元し、復元した変換映像データ12Cを再生する。
上記のように、配信装置100は、複数種類の変換処理を実行することで、複数種類の変換映像データを生成し、映像データと各変換映像データとの各差分データを配信することで、ユーザが各種の変更要求のいずれかを選択する場合でも、遅延時間を削減することができる。
次に、上記実施例に示したクライアント端末50、配信装置100(200)と同様の機能を実現するコンピュータのハードウェア構成の一例について順に説明する。
図13は、クライアント端末と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。図13に示すように、コンピュータ200aは、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203と、読み取り装置204とを有する。また、コンピュータ300は、ネットワークを介して、配信装置100等との間でデータの授受を行う通信装置205とを有する。コンピュータ200aは、各種情報を一時記憶するRAM206と、ハードディスク装置207とを有する。そして、各装置201~207は、バス208に接続される。
ハードディスク装置207は、受信プログラム207a、復元プログラム207b、表示制御プログラム207cを有する。CPU201は、受信プログラム207a、復元プログラム207b、表示制御プログラム207cを読み出してRAM206に展開する。
受信プログラム207aは、受信プロセス206aとして機能する。復元プログラム207bは、復元プロセス206bとして機能する。表示制御プログラム207cは、表示制御プロセス206cとして機能する。
受信プロセス206aの処理は、受信部55aの処理に対応する。復元プロセス206bの処理は、復元部55bの処理に対応する。表示制御プロセス206cの処理は、表示制御部55cの処理に対応する。
なお、各プログラム207a~207cについては、必ずしも最初からハードディスク装置207に記憶させておかなくてもよい。例えば、コンピュータ200aに挿入されるフレキシブルディスク(FD)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200aが各プログラム207a~207cを読み出して実行するようにしてもよい。
図14は、配信装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。図14に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303と、読み取り装置304とを有する。また、コンピュータ300は、ネットワークを介して、クライアント端末50等との間でデータの授受を行う通信装置305とを有する。コンピュータ300は、各種情報を一時記憶するRAM306と、ハードディスク装置307とを有する。そして、各装置301~307は、バス308に接続される。
ハードディスク装置307は、取得プログラム307a、変換プログラム307b、抽出プログラム307c、配信プログラム307d、推定プログラム307eを有する。CPU301は、取得プログラム307a、変換プログラム307b、抽出プログラム307c、配信プログラム307d、推定プログラム307eを読み出してRAM306に展開する。
取得プログラム307aは、取得プロセス306aとして機能する。変換プログラム307bは、変換プロセス306bとして機能する。抽出プログラム307cは、抽出プロセス306cとして機能する。配信プログラム307dは、配信プロセス306dとして機能する。推定プログラム307eは、推定プロセス306eとして機能する。
取得プロセス306aの処理は、取得部151の処理に対応する。変換プロセス306bの処理は、変換部152の処理に対応する。抽出プロセス306cの処理は、抽出部153の処理に対応する。配信プロセス306dの処理は、配信部154の処理に対応する。推定プロセス306eの処理は、推定部155の処理に対応する。
なお、各プログラム307a~307eについては、必ずしも最初からハードディスク装置307に記憶させておかなくてもよい。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム307a~307eを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)映像データに対して変換処理を実行することで、変換映像データを生成する変換部と、
前記映像データと、前記変換映像データとの差分データを抽出する抽出部と、
前記差分データが抽出されると、前記映像データと前記差分データとをクライアント端末に配信する配信部と
を有することを特徴とする配信装置。
(付記2)前記変換部が前記変換映像データを生成する処理と、前記配信部が前記映像データを前記クライアント端末に前記映像データを配信する処理は、並行して実行されることを特徴とする付記1に記載の配信装置。
(付記3)前記変換処理に要する時間を示す第1時間と、前記変換映像データを前記クライアント端末に配信する時間を示す第2時間と、前記差分データに関連する処理に要する時間を示す第3時間とを推定する推定部を更に有し、前記配信部は、前記第1時間、前記第2時間、前記第3時間を基にして、前記映像データと前記差分データとをクライアント端末に配信するか否かを判定することを特徴とする付記1または2に記載の配信装置。
(付記4)前記抽出部は、前記映像データのフレームと、前記変換映像データのフレームとの差分領域を特定し、前記差分領域の座標および前記差分領域のサイズを、前記差分データとして抽出することを特徴とする付記1、2または3に記載の配信装置。
(付記5)前記変換部は、前記映像データに対して複数種類の変換処理を実行することで、複数種類の変換データを生成し、前記抽出部は、前記複数種類の変換データそれぞれから、複数の差分データを抽出し、前記配信部は、前記映像データと、前記複数の差分データとを前記クライアント端末に配信することを特徴とする付記1~4のいずれか一つに記載の配信装置。
(付記6)配信装置とクライアント端末とを含む配信システムであって、
前記配信装置は、
映像データに対して変換処理を実行することで、変換映像データを生成する変換部と、
前記映像データと、前記変換映像データとの差分データを抽出する抽出部と、
前記差分データが抽出されると、前記映像データと前記差分データとを前記クライアント端末に配信する配信部とを有し、
前記クライアント端末は、
前記映像データと前記差分データとを受信する受信部と、
前記映像データと前記差分データとを基にして、前記変換映像データを復元する復元部と
を有することを特徴とする配信システム。
(付記7)前記復元部は、映像データの変換要求を受け付けた場合、前記変換映像データを復元し、前記変換要求を受け付けていない場合、前記変換映像データを復元する処理をスキップすることを特徴とする付記6に記載の配信システム。
(付記8)映像データに対して変換処理を実行することで生成される変換映像データと前記映像データとの差分データ、および、前記映像データを受信する受信部と、
前記映像データと前記差分データとを基にして、前記変換映像データを復元する復元部と
を有することを特徴とするクライアント端末。
(付記9)コンピュータに、
映像データに対して変換処理を実行することで、変換映像データを生成し、
前記映像データと、前記変換映像データとの差分データを抽出し、
前記差分データが抽出されると、前記映像データと前記差分データとをクライアント端末に配信する
処理を実行させることを特徴とする配信プログラム。
(付記10)前記変換映像データを生成する処理と、前記映像データを前記クライアント端末に配信する処理は並行して実行されることを特徴とする付記9に記載の配信プログラム。
(付記11)前記変換処理に要する時間を示す第1時間と、前記変換映像データを前記クライアント端末に配信する時間を示す第2時間と、前記差分データに関連する処理に要する時間を示す第3時間とを推定し、前記第1時間、前記第2時間、前記第3時間を基にして、前記映像データと前記差分データとをクライアント端末に配信するか否かを判定する処理を更に実行することを特徴とする付記9または10に記載の配信プログラム。
(付記12)前記抽出する処理は、前記映像データのフレームと、前記変換映像データのフレームとの差分領域を特定し、前記差分領域の座標および前記差分領域のサイズを、前記差分データとして抽出することを特徴とする付記9、10または11に記載の配信プログラム。
(付記13)前記変換部する処理は、前記映像データに対して複数種類の変換処理を実行することで、複数種類の変換データを生成し、前記抽出する処理は、前記複数種類の変換データそれぞれから、複数の差分データを抽出し、前記配信する処理は、前記映像データと、前記複数の差分データとを前記クライアント端末に配信することを特徴とする付記9~12のいずれか一つに記載の配信プログラム。
5 ネットワーク
50a,50b,50c クライアント端末
51,110 通信部
52,120 入力部
53,130 表示部
54,140 記憶部
54a バッファ
54b 変換データバッファ
55、150 制御部
55a 受信部
55b 復元部
55c 表示制御部
60 カメラ
100 配信装置
141 映像バッファ
142 変換映像バッファ
143 差分データテーブル
151 取得部
152 変換部
153 抽出部
154 配信部
155 推定部

Claims (7)

  1. 映像データに対して変換処理を実行することで、変換映像データを生成する変換部と、
    前記映像データと、前記変換映像データとの差分データを抽出する抽出部と、
    前記変換処理に要する時間を示す第1時間と、前記変換映像データをクライアント端末に配信する時間を示す第2時間と、前記差分データに関連する処理に要する時間を示す第3時間とを推定する推定部と、
    前記第1時間、前記第2時間、前記第3時間を基にして、前記映像データと前記差分データとを前記クライアント端末に配信するか否かを判定し、判定結果を基にして、前記映像データと前記差分データとを前記クライアント端末に配信する配信部と
    を有することを特徴とする配信装置。
  2. 前記変換部が前記変換映像データを生成する処理と、前記配信部が前記映像データを前記クライアント端末に前記映像データを配信する処理は、並行して実行されることを特徴とする請求項1に記載の配信装置。
  3. 前記抽出部は、前記映像データのフレームと、前記変換映像データのフレームとの差分領域を特定し、前記差分領域の座標および前記差分領域のサイズを、前記差分データとして抽出することを特徴とする請求項1または2に記載の配信装置。
  4. 前記変換部は、前記映像データに対して複数種類の変換処理を実行することで、複数種類の変換データを生成し、前記抽出部は、前記複数種類の変換データそれぞれから、複数の差分データを抽出し、前記配信部は、前記映像データと、前記複数の差分データとを前記クライアント端末に配信することを特徴とする請求項1、2または3に記載の配信装置。
  5. 配信装置とクライアント端末とを含む配信システムであって、
    前記配信装置は、
    映像データに対して変換処理を実行することで、変換映像データを生成する変換部と、
    前記映像データと、前記変換映像データとの差分データを抽出する抽出部と、
    前記変換処理に要する時間を示す第1時間と、前記変換映像データを前記クライアント端末に配信する時間を示す第2時間と、前記差分データに関連する処理に要する時間を示す第3時間とを推定する推定部と、
    前記第1時間、前記第2時間、前記第3時間を基にして、前記映像データと前記差分データとを前記クライアント端末に配信するか否かを判定し、判定結果を基にして、前記映像データと前記差分データとを前記クライアント端末に配信する配信部とを有し、
    前記クライアント端末は、
    前記映像データと前記差分データとを受信する受信部と、
    前記映像データと前記差分データとを基にして、前記変換映像データを復元する復元部と
    を有することを特徴とする配信システム。
  6. 前記復元部は、映像データの変換要求を受け付けた場合、前記変換映像データを復元し、前記変換要求を受け付けていない場合、前記変換映像データを復元する処理をスキップすることを特徴とする請求項に記載の配信システム。
  7. コンピュータに、
    映像データに対して変換処理を実行することで、変換映像データを生成し、
    前記映像データと、前記変換映像データとの差分データを抽出し、
    前記変換処理に要する時間を示す第1時間と、前記変換映像データをクライアント端末に配信する時間を示す第2時間と、前記差分データに関連する処理に要する時間を示す第3時間とを推定し、
    前記第1時間、前記第2時間、前記第3時間を基にして、前記映像データと前記差分データとを前記クライアント端末に配信するか否かを判定し、
    判定結果を基にして、前記映像データと前記差分データとを前記クライアント端末に配信する
    処理を実行させることを特徴とする配信プログラム。
JP2019153769A 2019-08-26 2019-08-26 配信装置、配信システムおよび配信プログラム Active JP7351140B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019153769A JP7351140B2 (ja) 2019-08-26 2019-08-26 配信装置、配信システムおよび配信プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019153769A JP7351140B2 (ja) 2019-08-26 2019-08-26 配信装置、配信システムおよび配信プログラム

Publications (2)

Publication Number Publication Date
JP2021034911A JP2021034911A (ja) 2021-03-01
JP7351140B2 true JP7351140B2 (ja) 2023-09-27

Family

ID=74677827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019153769A Active JP7351140B2 (ja) 2019-08-26 2019-08-26 配信装置、配信システムおよび配信プログラム

Country Status (1)

Country Link
JP (1) JP7351140B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131969A (ja) 2001-10-19 2003-05-09 Minolta Co Ltd ファイル送信装置、ファイル送信方法、ファイル送信プログラム、および、ファイル送信プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003299064A (ja) 2002-03-29 2003-10-17 Sony Corp コンテンツ視聴システム、視聴装置、および電子しおり
JP2007121864A (ja) 2005-10-31 2007-05-17 Toppan Printing Co Ltd 最適化映像再生システム及び最適化映像配信システム及び映像最適化装置及び最適化映像再生方法及び映像コンテンツデータ記憶媒体
WO2012081241A1 (ja) 2010-12-16 2012-06-21 パナソニック株式会社 制作装置及びコンテンツ配信システム
JP2012175626A (ja) 2011-02-24 2012-09-10 Kddi Corp 配信映像の超解像化装置および超解像映像再生装置
JP2012244438A (ja) 2011-05-19 2012-12-10 Sony Computer Entertainment Inc 動画像撮影装置、情報処理システム、情報処理装置、および画像データ処理方法
JP2014038159A (ja) 2012-08-13 2014-02-27 Ricoh Co Ltd 画像処理装置、画像処理方法、プロジェクタ、画像投影システム、プログラム及び記録媒体
JP2016058848A (ja) 2014-09-08 2016-04-21 ソニー株式会社 画像処理装置及び画像処理方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131969A (ja) 2001-10-19 2003-05-09 Minolta Co Ltd ファイル送信装置、ファイル送信方法、ファイル送信プログラム、および、ファイル送信プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003299064A (ja) 2002-03-29 2003-10-17 Sony Corp コンテンツ視聴システム、視聴装置、および電子しおり
JP2007121864A (ja) 2005-10-31 2007-05-17 Toppan Printing Co Ltd 最適化映像再生システム及び最適化映像配信システム及び映像最適化装置及び最適化映像再生方法及び映像コンテンツデータ記憶媒体
WO2012081241A1 (ja) 2010-12-16 2012-06-21 パナソニック株式会社 制作装置及びコンテンツ配信システム
JP2012175626A (ja) 2011-02-24 2012-09-10 Kddi Corp 配信映像の超解像化装置および超解像映像再生装置
JP2012244438A (ja) 2011-05-19 2012-12-10 Sony Computer Entertainment Inc 動画像撮影装置、情報処理システム、情報処理装置、および画像データ処理方法
JP2014038159A (ja) 2012-08-13 2014-02-27 Ricoh Co Ltd 画像処理装置、画像処理方法、プロジェクタ、画像投影システム、プログラム及び記録媒体
JP2016058848A (ja) 2014-09-08 2016-04-21 ソニー株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP2021034911A (ja) 2021-03-01

Similar Documents

Publication Publication Date Title
RU2564832C2 (ru) Способ стабилизации видеоизображения для многофункциональных платформ
JP6266656B2 (ja) 画像をサイズ変更するためのシステム及び方法
JP4281309B2 (ja) 画像処理装置、画像処理方法、および画像フレームデータ記憶媒体、並びにコンピュータ・プログラム
US11438510B2 (en) System and method for editing video contents automatically technical field
US8274602B2 (en) Image processing apparatus and image processing method with redundant frame detection
JP6300792B2 (ja) キャプチャされたデータの強化
CN111464834A (zh) 一种视频帧处理方法、装置、计算设备及存储介质
CN111095939A (zh) 识别媒体项目的先前流传输部分以避免重复重放
US11076140B2 (en) Information processing apparatus and method of controlling the same
CN113115095B (zh) 视频处理方法、装置、电子设备以及存储介质
JPWO2011077550A1 (ja) 画面中継装置
JP2024512476A (ja) 敵対的生成ネットワークによる帯域幅消費の削減
WO2021179954A1 (zh) 视频处理方法、装置、设备及存储介质
JP7351140B2 (ja) 配信装置、配信システムおよび配信プログラム
CN113730923A (zh) 基于游戏直播的主播输入操作分享与显示方法、及设备
US20160211002A1 (en) Video data file generation method and video data file generation apparatus
KR20240127360A (ko) 비디오 스트리밍 서비스를 위한 관심의 프록시로서의 시선
JP2024517702A (ja) シングルストリームを利用して関心領域の高画質映像を提供する方法、コンピュータ装置、およびコンピュータプログラム
CN113905177A (zh) 视频生成方法、装置、设备及存储介质
JP4946433B2 (ja) 情報配信装置及びプログラム
JP2010073074A (ja) 画像信号処理装置、画像表示装置、録画再生装置、画像信号処理方法
US9025900B1 (en) Distributed image storage using cloud
JP6623905B2 (ja) サーバ装置、情報処理方法およびプログラム
WO2022201305A1 (ja) 画像処理装置、方法およびプログラム
JP7456553B2 (ja) 画像処理装置、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230828

R150 Certificate of patent or registration of utility model

Ref document number: 7351140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150