JP7406229B2 - 配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 - Google Patents

配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP7406229B2
JP7406229B2 JP2019195707A JP2019195707A JP7406229B2 JP 7406229 B2 JP7406229 B2 JP 7406229B2 JP 2019195707 A JP2019195707 A JP 2019195707A JP 2019195707 A JP2019195707 A JP 2019195707A JP 7406229 B2 JP7406229 B2 JP 7406229B2
Authority
JP
Japan
Prior art keywords
data
distribution
unit
video
key frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019195707A
Other languages
English (en)
Other versions
JP2021069100A (ja
Inventor
祐介 漢
Original Assignee
株式会社ミラティブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ミラティブ filed Critical 株式会社ミラティブ
Priority to JP2019195707A priority Critical patent/JP7406229B2/ja
Publication of JP2021069100A publication Critical patent/JP2021069100A/ja
Application granted granted Critical
Publication of JP7406229B2 publication Critical patent/JP7406229B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体に関し、特に、動画データを配信端末から被配信端末に配信する配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体に関する。
近年、動画データを配信する配信システムが広く利用されている。この動画データの配信システムには、例えば、所定のサーバを介して動画データを配信端末から被配信端末に配信するシステムがある。
このような配信システムでは、配信する動画データをGOP単位等の所定のデータ単位のデータとして配信し、データ単位のデータは、例えば、Iフレーム等のキーフレームのデータとこれに時系列的に続くPフレーム(差分フレーム)やBフレーム(差分フレーム)等の映像に関する差分データで構成され、被配信端末は、任意のタイミングでサーバにアクセスし、キーフレームのデータと映像に関する差分データにより視聴可能な映像データを生成して視聴することができる。
このような動画データの配信システムは、特許文献1に開示される技術を参照することができる。
特開2019-29870号公報
ところで、上述したデータ単位の配信時間(データ単位において最初のデータが配信されてから最後のデータが配信されるまでの時間)は数十秒程度に設定されることが多い。
このため、被配信端末が配信時間の途中でサーバにアクセスした場合にあっては、映像に関する差分データが配信されるのみでキーフレームの映像データが配信されず次のデータ単位の配信が行われるまでの間、映像を視聴できないことがありタイムラグが生じることがある。上述の通り、データ単位の配信時間は数十秒程度に設定されることが多く、被配信端末の視聴者からは、最初のアクセスにおける視聴のタイムラグが長くキーフレームの映像データを並行して配信する等の改善が望まれていた。
本願発明は上記事情に鑑みてなされたものであり、キーフレームの映像データを並行して配信することができる配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体を提供することを目的とする。
上記目的を達成するために、本発明に係る配信システムは、動画データを配信する配信システムであって、前記動画データは、映像データを含むとともに、前記映像データは、キーフレームのデータを含み、前記キーフレームのデータを配信する第1のデータ配信部と第2のデータ配信部を有することを特徴とする。
上記目的を達成するために、本発明に係る配信システムは、動画データを配信端末から被配信端末に配信する配信システムであって、前記動画データは、映像データを含むとともに、前記映像データは、キーフレームのデータを含み、前記配信端末から映像データを入力するデータ入力部と、前記キーフレームのデータを前記被配信端末に配信する第1のデータ配信部と、前記キーフレームのデータを前記被配信端末に配信する第2のデータ配信部と、を有することを特徴とする。
上記目的を達成するために、本発明に係る配信システムは、動画データを配信端末から被配信端末に配信する配信システムであって、前記動画データは、映像データと音声データを含むとともに、前記映像データは、キーフレームのデータと映像に関する差分データを含み、前記配信端末から映像データと音声データを入力するデータ入力部と、前記映像データと前記音声データを前記被配信端末に配信するするとともに、前記キーフレームのデータと映像に関する差分データを含む映像データを前記被配信端末に配信する第1のデータ配信部と、前記映像データから少なくとも前記キーフレームのデータを前記被配信端末に配信する第2のデータ配信部と、を有することを特徴とする。
本発明によれば、上記構成により、キーフレームの映像データを並行して配信することができる。
前記映像データは、前記キーフレームのデータと前記映像に関する差分データを含む所定のデータ単位の映像データとするとともに、前記第1のデータ配信部は、前記映像データを前記データ単位ごとに前記被配信端末に配信し、前記第2のデータ配信部は、前記第1のデータ配信部により配信される前記データ単位の配信時間内において、前記データ単位の配信時間よりも短い所定の配信時間間隔で前記データ単位の映像データと並行して少なくとも前記キーフレームのデータを前記被配信端末に配信することができる。
前記第1のデータ配信部は、前記データ単位の配信時間内において、前記データ単位の各データの配信時間間隔を前記データ単位の配信時間よりも短い所定の時間間隔として前記被配信端末に配信するとともに、前記第2のデータ配信部は、前記第1のデータ配信部における前記データ単位の各データの配信時間間隔と同じ配信時間間隔で少なくとも前記キーフレームのデータを前記被配信端末に配信することが好ましい。
前記映像データから少なくとも前記キーフレームのデータを記憶するデータ記憶部を有し、前記第2のデータ配信部は、前記データ記憶部に記憶されたデータを前記被配信端末に配信することができる。
前記映像データと前記音声データのデコード処理を行うデコード処理部を有することとすれば、第1のデータと第2のデータのデコード処理を行うことができる。
前記デコード処理を行うためのデータは、前記第1のデータ配信部により配信されるデータに含まれるとともに、前記第2のデータ配信部により配信されるデータに含まれ、前記第2のデータ配信部により前記被配信端末に配信されることができる。
前記第2のデータ配信部により配信されたデコード処理を行うためのデータにより、前記被配信端末に前記デコード処理部を設定することとすれば、被配信端末でデコード処理を行うことができる。
前記デコード処理部は、前記被配信端末に設定することができる。
前記デコード処理を行うためのデータは、前記映像データのデコード処理を行うためのデータおよび/または前記音声データのデコード処理を行うためのデータを含むことができる。
上記目的を達成するために、本発明に係るプログラムは、映像データを含む動画データを配信する配信システムのコンピュータを、前記映像データにおけるキーフレームのデータを配信する第1のデータ配信部と第2のデータ配信部を有することを特徴とする。
上記目的を達成するために、本発明に係るプログラムは、動画データを配信端末から被配信端末に配信する配信システムのコンピュータを、前記配信端末から映像データを入力するデータ入力部と、前記映像データにおけるキーフレームのデータを前記被配信端末に配信する第1のデータ配信部と第2のデータ配信部を有することを特徴とする。
上記目的を達成するために、本発明に係るプログラムは、映像データと音声データを含む動画データを配信端末から被配信端末に配信する配信システムのコンピュータを、前記配信端末から映像データと音声データを入力するデータ入力部と、キーフレームのデータおよび映像に関する差分データを含む前記映像データと前記音声データを前記被配信端末に配信する第1のデータ配信部と、前記映像データから少なくとも前記キーフレームのデータを前記被配信端末に配信する第2のデータ配信部と、を有することを特徴とする。
上記目的を達成するために、本発明に係るコンピュータ読み取り可能な記憶媒体は、上記プログラムを記憶することを特徴とする。
本発明によれば、キーフレームの映像データを並行して配信することができる。
本発明の実施形態に係る配信システムの全体構成を示す図である。 同配信システムのコンピュータの構成を示すブロック図である。 同配信システムの第1のサーバの構成を示すブロック図である。 同配信システムのデータの構成を示す図で、(a)は多重化されたデータを示す図、(b)は分離されたデータを示す図である。 同配信システムのデータ生成部により生成された映像データの構成を示す図である。 同配信システムの第1のデータ出力部により出力される映像データの構成を示す図である。 同配信システムの第1のデータ出力部により出力される音声データの構成を示す図で、(a)はリップシンク処理前の音声データの構成を示す図、(b)はリップシンク処理後の音声データの構成を示す図である。 同配信システムの第2のサーバの構成を示すブロック図である。 同配信システムの第2のデータ配信部により被配信端末に配信されるデータの構成を示す図である。 同配信システムにおける被配信端末の構成を示すブロック図である。 同配信システムにおけるデータ処理方法を説明するためのフローチャートである。 同配信システムにおけるデータ処理方法を説明するための図11に続くフローチャートである。 従来の配信システムの課題を説明するための図である。 本発明の配信システムの技術的効果を説明するための図で、(a)は第1のデータ配信部により配信されるデータを示す図、(b)は第2のデータ配信部により配信されるデータを示す図である。
以下、本発明の実施形態について図面を参照して詳細に説明する。図1は、本発明の実施形態に係る配信システムの全体構成を示す図、図2は、同配信システムのコンピュータの構成を示すブロック図、図3は、同配信システムの第1のサーバの構成を示すブロック図、図4は、同配信システムのデータの構成を示す図、図5は、同配信システムのデータ生成部により生成された映像データの構成を示す図、図6は、同配信システムの第1のデータ出力部により出力される映像データの構成を示す図、図7は、同配信システムの第1のデータ出力部により出力される音声データの構成を示す図、図8は、同配信システムの第2のサーバの構成を示すブロック図、図9は、同配信システムの第2のデータ配信部により被配信端末に配信されるデータの構成を示す図、図10は、同配信システムにおける被配信端末の構成を示すブロック図である。
図1を参照して本発明の配信システム1の概要を説明すると、配信システム1は、動画データ100を配信端末2から第1のサーバ3と第2のサーバ4を介して被配信端末5にリアルタイムに生配信することができる。動画データ100は、映像データ101と音声データ102を含んでおり、映像データ101と音声データ102は、所定にエンコード処理され多重化されたデータとして配信端末2から送信される。
第1のサーバ3は、オリジンサーバとし、第2のサーバ4は、エッジサーバとし、配信端末2および被配信端末5は、情報端末装置とすることができる。情報端末装置は、携帯端末装置とすることができ、携帯端末装置は更に携帯電話機、スマートフォン、タブレット端末とすることができる。配信システム1は、ネットワーク通信回線NTを通じて配信端末2、第1のサーバ3、第2のサーバ4、被配信端末5の相互間の通信を可能に構成されている。なお、ネットワーク通信回線NTは、インターネット回線等を含むことができる。
配信システム1の各構成機器は、コンピュータとしての一般的な構成を備えている。配信システム1の各構成機器は、図2に示すように、相互にバス1Aを介して接続された中央処理装置(CPU、GPU、DSP)1B、記憶装置(ROM、RAM、ハードディスク、キャッシュメモリ)1C、入力装置(キーボード、タッチパネル、マウス)1D、表示装置(液晶ディスプレー)1E等を有している。記憶装置1Cは、コンピュータ読み取り可能な記憶媒体として機能する。
第1のサーバ2は、図3に示すように、第1のデータ入力部10、データ分離部20、データ生成部30、第1のデータ記憶部40、およびデータ出力部50を有している。
第1のデータ入力部10は、図4(a)に示すように、配信端末2から多重化された映像データ101と音声データ102(結合された映像データ101と音声データ102)を入力することができる。
データ分離部20は、第1のデータ入力部10により入力された多重化された映像データ101と音声データ102(結合された映像データ101と音声データ102)を図4(b)に示すように、分離することができる。
データ生成部30は、図5に示すように、データ分離部20により分離されたデータのうち映像データ101をキーフレームのデータ101aと映像に関する差分データ101bとするデータ処理を行うことができる(映像データ101は、キーフレームのデータ101aと映像に関する差分データ101bを含んでいる)。
より詳しくはキーフレームのデータ101aは、Iフレーム(Intra-Picture)のデータとすることができ、映像に関する差分データ101bは、Pフレーム(Predictive-Picture、差分フレーム)のデータとすることができる。ここで、Iフレーム(Intra-Picture)とは、動画中の1フレームを独立して再現可能なフレームであり、動画中のフレームの画像情報を全て含んでいるフレームである。Iフレーム(Intra-Picture)は、映像データのフレーム間予測の基準となるフレームである。Pフレーム(Predictive-Picture)は、直前のIフレームを参照して動画中の1フレームを再現可能なフレームであり、映像データのフレーム間の差分データを含むものである。
第1のデータ記憶部40は、エンコード処理された映像データ101と音声データ102のデコード処理を行うためのデータ103を記憶することができる。第1のデータ記憶部40により記憶されるデコード処理を行うためのデータ103は、映像データ101のデコード処理を行うためのデータ103aおよび音声データ102のデコード処理を行うためのデータ103bを含むことができる。
映像データ101のデコード処理を行うためのデータ103aは、H.264の規格に基づいたデータとすることができ、H.264の規格に基づいたデータは、NALユニットのデータとすることができる。更に、NALユニットのデータは、SPS(シーケンスパラメータセット)、PPS(ピクチャパラメータセット)、およびSEI(付加拡張情報)メッセージを含むことができる。
また、音声データ102のデコード処理を行うためのデータ103bは、AudioSpecificConfigを含むことができる。
データ出力部50は、映像データ101を第2のサーバ4に出力することができる。すなわち、データ出力部50は、図6に示すように、映像データ101を、キーフレームのデータ101aとキーフレームのデータ101aに時系列的に続く複数の映像に関する差分データ101bを含む所定のデータ単位Dより詳しくはGOP単位の映像データ101として出力することができる。すなわち、データ出力部50は、データ単位Dの最初のデータをキーフレームのデータ101aとして出力することができる。データ単位Dは、本実施形態にあっては、一のキーフレームのデータ101aと複数の映像に関する差分データ101bを含んでいる。
データ出力部50は、映像データ101をデータ単位Dごとに第2のサーバ4に出力することができる。データ出力部50により出力されるデータ単位Dの出力時間は、例えばTとされ、データ単位Dの出力時間T内において、各データの出力時間間隔は、例えばデータ単位Dの出力時間Tよりも短い所定の時間間隔ΔTとして第2のサーバ4に出力することができる。データ単位Dの出力時間は、データ単位Dにおいて最初のデータ(キーフレームのデータ101a)が配信されてから最後のデータ(最後の映像に関する差分データ101b)が出力されるまでの時間となる。
データ出力部50は、同じく図6に示すように、第1のデータ記憶部40からエンコード処理された映像データ101のデコード処理を行うためのデータ103aをヘッダ情報としてキーフレームのデータ101aの前に付加することができる。なお、被配信端末5と接続直後にデータ103aを配信することとしてもよい。
また、データ出力部50は、音声データ102を第2のサーバ4に出力することができる。ここで、配信端末2から入力される音声データ102の入力の時間間隔ΔT+tは、映像データ101の入力の時間間隔ΔTと相違した時間間隔で入力されることがある。このため、データ出力部50は、図7に示すように、音声データ102の各データの出力時間間隔を、データ単位Dを構成する映像データ101の各データの出力時間間隔ΔTに対応させるリップシンク処理が可能なように構成されている。すなわち、第1のデータ出力部50は、第1のデータ入力部10により入力された音声データ102の各データに対し数1の係数αを乗じて配信時間間隔を調整しリップシンク処理を行うことができる。
[数1]
α=ΔT/(ΔT+t)
更に、データ出力部50は、同じく図7に示すように、第1のデータ記憶部40からエンコード処理された音声データ102のデコード処理を行うためのデータ103bをヘッダ情報としてリップシンク処理がされた音声データ102の前に付加して第2のサーバ4に出力することができる。
第2のサーバ4は、図8に示すように、第2のデータ入力部60、第2のデータ記憶部70、記憶データ判断部75、データ複製部80、第1のデータ配信部90、および第2のデータ配信部92を有している。第2のサーバ4は、第1のデータ配信部90および第2のデータ配信部92を介して被配信端末5に動画データ100やデコード処理を行うためのデータ103を自動的に配信するプッシュ型の情報配信方式とすることができる。
第2のデータ入力部60は、第1のサーバ2のデータ出力部50から出力された映像データ101、音声データ102、およびデコード処理を行うためのデータ103を入力することができる。
第2のデータ記憶部70は、第2のデータ入力部60により入力された映像データ101からキーフレームのデータ101aを選択して記憶(キャッシュ)することができる。キーフレームのデータ101aは、データ単位Dを構成するデータの最初に入力されるデータであり、第2のデータ記憶部70は、データ単位Dを構成するデータの最初のデータをキーフレームのデータ101aとして判断し記憶することができる。
また、第2のデータ記憶部70は、第2のデータ入力部60により入力されたデータからエンコード処理された映像データ101のデコード処理を行うためのデータ103aを選択して記憶(キャッシュ)することができる。デコード処理を行うためのデータ103aは、ヘッダ情報としてキーフレームのデータ101aの前に付加されたデータであり、第2のデータ記憶部70は、キーフレームのデータ101aの前にあるヘッダ情報をデコード処理を行うためのデータ103aとして判断し記憶することができる。
更に、第2のデータ記憶部70は、第2のデータ入力部60により入力されたデータからエンコード処理された音声データ102のデコード処理を行うためのデータ103bを選択して記憶(キャッシュ)することができる。デコード処理を行うためのデータ103bは、ヘッダ情報として音声データの前に付加されたデータであり、第2のデータ記憶部70は、音声データ102の前にあるヘッダ情報をデコード処理を行うためのデータ103bとして選択し記憶することができる。なお、第2のデータ記憶部70は、映像に関する差分データ101bおよび音声データ102を記憶されない非記憶データとして処理するように構成されている。
記憶データ判断部75は、第2のデータ入力部60により入力されたデータに関し第2のデータ記憶部70により記憶するデータであるか否かの判断を行うことができる。すなわち、記憶データ判断部75は、データ単位Dを構成する最初のデータを第2のデータ記憶部70により記憶するキーフレームのデータ101aとして判断する。また、記憶データ判断部75は、キーフレームのデータ101aの前にあるヘッダ情報を映像データ101のデコード処理を行うためのデータ103aとして判断する。
更に、記憶データ判断部75は、音声データ102の前にあるヘッダ情報を音声データ102のデコード処理を行うためのデータ103bとして判断する。更にまた、記憶データ判断部75は、映像に関する差分データ101bおよび音声データ102については記憶されない非記憶データとして判断する。なお、記憶データ判断部75による記憶データの判断は、キーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データのデコード処理を行うためのデータ103bに所定の識別情報を付与することにより行ってもよい。
データ複製部80は、第2のデータ記憶部70により記憶されたキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを複製することができる。
第1のデータ配信部90は、第2のデータ入力部60により入力された映像データ101および音声データ102を被配信端末5に配信することができる。
すなわち、第1のデータ配信部90は、上記の図6と同様に、映像データ101を、キーフレームのデータ101aとキーフレームのデータ101aに時系列的に続く複数の映像に関する差分データ101bを含む所定のデータ単位Dより詳しくはGOP単位の映像データとして被配信端末5に配信することができる。
第1のデータ配信部90は、映像データ101をデータ単位Dごとに被配信端末5に配信することができる。第1のデータ配信部90により配信されるデータ単位Dの配信時間は、例えばTとされ、データ単位Dの配信時間T内において、各データの配信時間間隔は、例えばデータ単位Dの配信時間Tよりも短い所定の時間間隔ΔTとして被配信端末5に配信することができる。データ単位Dの配信時間は、上述した出力時間と同様に、データ単位Dにおいて最初のデータ(キーフレームのデータ101a)が配信されてから最後のデータ(最後の映像に関する差分データ101b)が配信されるまでの時間となる。
第1のデータ配信部90は、同じく図6に示すように、エンコード処理された映像データ101のデコード処理を行うためのデータ103aをヘッダ情報としてキーフレームのデータ101aの前に付加して配信することができる。
また、第1のデータ配信部90は、音声データ102を被配信端末5に配信することができる。第2のデータ配信部90により配信される音声データ102は、図7に示すように、音声データ102の各データの配信時間間隔ΔT+tを、データ単位Dを構成する映像データ101の各データの配信時間間隔ΔTに対応させるリップシンク処理がされた音声データ102を被配信端末5に配信することができる。
更に、第1のデータ配信部90は、同じく図7に示すように、第2のデータ入力部60からエンコード処理された音声データ102のデコード処理を行うためのデータ103bをヘッダ情報としてリップシンク処理がされた音声データ102の前に付加して被配信端末5に配信することができる。
第2のデータ配信部92は、図9に示すように、第2のデータ記憶部70に記憶されたデータより詳しくはデータ複製部80により複製されたデータ更に詳しくはキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを被配信端末5に更に並行して配信することができる。
より詳しくは、第2のデータ配信部92は、図9に示すように、第1のデータ配信部90により配信されるデータ単位Dの配信時間T内において、データ単位Dの配信時間Tよりも短い所定の配信時間間隔ΔTでデータ単位Dの映像データと並行してキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを被配信端末5に配信することができる。
より詳しくは、第2のデータ配信部92は、第1のデータ配信部90におけるデータ単位Dの各データの配信時間間隔ΔTと同じ配信時間間隔ΔTでキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを被配信端末5に配信することができる。なお、データ101a、データ103a、データ103bを配信時間T内において予め定められた任意の回数および/またはタイミングで配信するようにしてもよい。
被配信端末5は、図10に示すように、第3のデータ入力部94およびデコード処理部96を有している。
第3のデータ入力部94は、第2のサーバ4の第1のデータ配信部90から配信されるキーフレームのデータ101a、差分データ101b、および音声データ102を入力するとともに、第2のデータ配信部92から配信されるキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを並行して入力することができる。
デコード処理部96は、第3のデータ入力部94により入力された映像データ101のデコード処理を行うためのデータ103aおよび音声データ102のデコード処理を行うためのデータ103bにより映像データ101と音声データ102のデコード処理を行うことができる。
ここで、上記した配信システム1の各機能部は、所定のプログラム200を実行させることにより機能をさせることができる。
すなわち、プログラム200は、配信システム1の各構成機器のコンピュータを、第1のデータ入力部10、データ分離部20、データ生成部30、第1のデータ記憶部40、データ出力部50、第2のデータ入力部60、第2のデータ記憶部70、記憶データ判断部75、データ複製部80、第1のデータ配信部90、第2のデータ配信部92、第3のデータ入力部94、およびデコード処理部96として機能させることができる。プログラム200は、配信システム1の記憶装置1Cに記憶されている。
次に、本発明の配信システム1によるデータ処理方法を図11および図12のフローチャートに基づいて説明する。
すなわち、第1のサーバ2のデータ処理方法を図11に示すように、まずステップS10において、第1のデータ入力部10が、配信端末2から多重化された映像データ101と音声データ102を入力する。
次いで、ステップS20において、データ分離部20が、第1のデータ入力部10により入力された多重化された映像データ101と音声データ102を分離する。
次に、ステップS30において、データ生成部30が、データ分離部20により分離されたデータのうち映像データ101をキーフレームのデータ101aと映像に関する差分データ101bとするデータ処理を行う。
続いて、ステップS40において、データ出力部50が、映像データ101、音声データ102、およびデコード処理を行うためのデータ103を第2のサーバ4に出力する。より詳しくは、データ出力部50は、映像データ101を、キーフレームのデータ101aとキーフレームのデータ101aに時系列的に続く複数の映像に関する差分データ101bを含む所定のデータ単位Dの映像データとして出力する。
また、データ出力部50は、映像データ101のデコード処理を行うためのデータ103aをヘッダ情報としてキーフレームのデータ101aの前に付加して出力する。更に、データ出力部50は、音声データ102の出力時間間隔ΔT+tを、映像データ101の出力時間間隔ΔTに対応させるリップシンク処理を行うとともに、音声データ102のデコード処理を行うためのデータ103bをヘッダ情報としてリップシンク処理がされた音声データ102の前に付加して出力する。
次に、第2のサーバ4および被配信端末5のデータ処理方法を図12に示すように、ステップS50において、第2のデータ入力部60が、第1のサーバ2のデータ出力部50から出力された映像データ101、音声データ102、およびデコード処理を行うためのデータ103を入力する。
次いで、ステップS60において、記憶データ判断部75が、第2のデータ入力部60により入力されたデータに関し第2のデータ記憶部70により記憶するデータであるか否かの判断を行う。すなわち、記憶データ判断部75は、データ単位Dを構成する最初のデータを第2のデータ記憶部70により記憶するキーフレームのデータ101aとして判断し、更にキーフレームのデータ101aの前にあるヘッダ情報を映像データ101のデコード処理を行うためのデータ103aとして判断し、音声データ102の前にあるヘッダ情報を音声データ102のデコード処理を行うためのデータ103bとして判断し、映像に関する差分データ101bおよび音声データ102は非記憶データとして判断する。
続いて、ステップS65において、第2のデータ記憶部70が、記憶データ判断部75により記憶するデータとして判断されたキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを記憶する。また、第2のデータ記憶部70は、映像に関する差分データ101bおよび音声データ102は非記憶データとして処理する。
次に、ステップ70において、データ複製部80が、第2のデータ記憶部70により記憶されたキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを複製する。
続いて、ステップS80において、第1のデータ配信部90が、第2のデータ入力部60により入力された映像データ101および音声データ102を被配信端末5に配信する。すなわち、第2のデータ配信部90は、映像データ101を、キーフレームのデータ101aとキーフレームのデータ101aに時系列的に続く複数の映像に関する差分データ101bを含む所定のデータ単位Dの映像データとして配信する。また、第1のデータ配信部90は、エンコード処理された映像データ101のデコード処理を行うためのデータ103aをヘッダ情報としてキーフレームのデータ101aの前に付加して配信する。更に、第1のデータ配信部90は、リップシンク処理がされた音声データ102を被配信端末5に配信する。また更に、第1のデータ配信部90は、第2のデータ入力部60からエンコード処理された音声データ102のデコード処理を行うためのデータ103bをヘッダ情報としてリップシンク処理がされた音声データ102の前に付加して配信する。
次いで、ステップS80に並行するステップS90において、第2のデータ配信部92が、データ複製部80により複製されたキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データのデコード処理を行うためのデータ103bを被配信端末5に更に並行して配信する。
次に、ステップS100において、被配信端末5のユーザが所定のタイミングで第2のサーバ4にアクセスする。このアクセスにより、被配信端末5の第3のデータ入力部94が、第2のサーバ4の第1のデータ配信部90から配信される少なくとも映像に関する差分データ101bおよび音声データ102を入力するとともに、第2のデータ配信部92から配信されるキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを並行して入力する。
続いて、ステップS110において、デコード処理部96が、第3のデータ入力部94により入力された映像データ101のデコード処理を行うためのデータ103aおよび音声データ102のデコード処理を行うためのデータ103bにより映像データ101と音声データ102のデコード処理を行う。これにより、被配信端末5のユーザは動画100の視聴を行うことができる。
以上説明したように、本発明によれば、キーフレームのデータ101aを被配信端末5に並行して配信する第2のデータ配信部92を有することとしたので、キーフレームのデータ101aを並行して配信することができる。
すなわち、従来においては、図13に示すように、例えば、「Pフレーム1」の配信タイミングで被配信端末5のユーザがアクセスをした場合にあっては、次のデコード処理を行うためのデータ103a,103bやキーフレームのデータ101aが配信されるまでΔA時間だけ視聴のタイムラグを生じることとなる。
これに対し、本発明においては、図14に示すように、例えば、「Pフレーム1」の配信タイミングでユーザがアクセスをした場合にあっても、第2のデータ配信部92によりデコード処理を行うためのデータ103a,103bやキーフレームのデータ101aが並行して配信されているので、ΔA時間の視聴のタイムラグを生じることなく視聴することができる。
また、本発明によれば、被配信端末5にデコード処理部96を設定するとともに、デコード処理部96は、第2のデータ配信部92により配信されたデコード処理を行うためのデータ103によりデコード処理を行うこととしたので、被配信端末5でデコード処理を行うことができる。
なお、本発明は上述した実施形態に限定されることなく、種々の変形実施、応用実施が可能であることは勿論である。
すなわち、上述した実施形態にあっては、第2のデータ配信部92は、映像データ101からキーフレームのデータ101aを被配信端末5に配信することとしているが、更に映像に関する差分データ101bや音声データ102を配信することとしても所要の効果を奏する。すなわち、第2のデータ配信部92は、映像データ100から少なくともキーフレームのデータ101aを被配信端末5に配信することとすれば、本発明の技術的効果を達成することができる。
また、上述した実施形態にあっては、映像に関する差分データ101bは、Pフレームのデータとすることとしているが、更にIフレームとPフレームとの間に映像に関する差分データ101bとしてBフレーム(Bi-directionally Predictive-Picture、差分フレーム)のデータを含むこととしてもよい。
更に、上述した実施形態にあっては、デコード処理を行うためのデータ103は、映像データ101のデコード処理を行うためのデータ103aおよび音声データ102のデコード処理を行うためのデータ103bを含むこととしているが、いずれか一方としても所要の効果を奏することができる。すなわち、デコード処理を行うためのデータ103は、映像データ101のデコード処理を行うためのデータ103aおよび/または音声データ102のデコード処理を行うためのデータ103を含むこととすれば、本発明の技術的効果を達成することができる。
更にまた、映像データ101のデコード処理を行うためのデータ103aは、SPS、PPS、およびSEIを含むこととしているが、少なくともいずれかを含むこととすればよい。また、映像データ101のデコード処理を行うためのデータ103aは、SPS、PPS、およびSEI以外のデータを含むこととしてよい。
また、更に、音声データ102のデコード処理を行うためのデータ103bは、AudioSpecificConfigを含むこととしているが、他のデータを含むこととしてもよい。
更にまた、上述した実施形態にあっては、第1のサーバ2におけるデータ生成部30において、映像データ101をキーフレームのデータ101aと映像に関する差分データ101bとするデータ処理を行うこととしているが、配信端末2において、キーフレームのデータ101aと映像に関する差分データ101bとするデータ処理を行うこととして、第1のデータ入力部10が、キーフレームのデータ101aと映像に関する差分データ101bを入力することとしても所要の効果を奏することができる。
また、上述した実施形態にあっては、データ単位Dは、一のキーフレームのデータ101aと複数の映像に関する差分データ101bを含むこととしているが、ヘッダ情報としてキーフレームのデータ101aの前に付加される映像データ101のデコード処理を行うためのデータ103aを更に含めてデータ単位Dとすることとしてもよい。
更に、上述した実施形態にあっては、データ単位Dの配信時間(出力時間)は、データ単位Dにおいて最初のデータ(キーフレームのデータ101a)が配信されてから最後のデータ(最後の映像に関する差分データ101b)が出力されるまでの時間とすることとしているが、最初のデータを映像データ101のデコード処理を行うためのデータ103aとして、データ単位Dの配信時間(出力時間)を設定することとしてもよい。
NT:ネットワーク通信回線
1:配信システム
1A:バス
1B:中央処理装置
1C:記憶装置
1D:入力装置
1E:表示装置
2:配信端末
3:第1のサーバ
4:第2のサーバ
5:被配信端末
10:第1のデータ入力部
20:データ分離部
30:データ生成部
40:第1のデータ記憶部
50:データ出力部
60:第2のデータ入力部
70:第2のデータ記憶部
80:データ複製部
90:第1のデータ配信部
92:第2のデータ配信部
94:第3のデータ入力部
96:デコード処理部
100:動画データ
101:映像データ
101a:キーフレームのデータ
101b:映像に関する差分データ
102:音声データ
103:デコード処理を行うためのデータ
103a:映像データのデータ処理を行うためのデータ
103b:音声データのデコード処理を行うためのデータ
200:プログラム

Claims (7)

  1. 配信端末からの映像データを含む動画データを被配信端末に対してリアルタイム配信する配信システムであって、
    前記配信端末から、キーフレームのデータと映像に関する差分データとを含むエンコード処理された映像データを入力するデータ入力部と、
    前記エンコード処理された映像データから選択された前記キーフレームのデータを記憶するデータ記憶部と、
    前記配信システムにアクセスした被配信端末に対して、前記エンコード処理された映像データを配信する第1のデータ配信部と、
    前記配信システムにアクセスした前記被配信端末に対して、前記記憶されたキーフレームのデータを配信する第2のデータ配信部と、
    を有することを特徴とする配信システム。
  2. 映像データと音声データとを含む動画データを配信端末から被配信端末に対してリアルタイム配信する配信システムであって、
    前記映像データは、キーフレームのデータおよび映像に関する差分データを含み、
    前記配信端末から映像データと音声データを入力するデータ入力部と、
    前記音声データが前記映像データの各データと相違した時間間隔で入力される場合、前記音声データの時間間隔と前記映像データの各データの時間間隔とを対応させるよう調整して出力するデータ出力部と、
    前記キーフレームのデータおよび映像に関する差分データを含む映像データと前記音声データを前記被配信端末に配信する第1のデータ配信部と、
    前記映像データから少なくとも前記キーフレームのデータを前記被配信端末に配信する第2のデータ配信部と、
    を有することを特徴とする配信システム。
  3. 前記映像データは、前記キーフレームのデータと前記映像に関する差分データを含む所定のデータ単位の映像データとするとともに、
    前記第1のデータ配信部は、前記映像データを前記データ単位ごとに前記被配信端末に配信し、
    前記第2のデータ配信部は、前記第1のデータ配信部により配信される前記データ単位の配信時間内において、前記データ単位の配信時間よりも短い所定の配信時間間隔で前記データ単位の映像データと並行して少なくとも前記キーフレームのデータを前記被配信端末に配信することを特徴とする請求項1又は2に記載の配信システム。
  4. 前記第1のデータ配信部は、前記データ単位の配信時間内において、前記データ単位の各データの配信時間間隔を前記データ単位の配信時間よりも短い所定の時間間隔として前記被配信端末に配信するとともに、
    前記第2のデータ配信部は、前記第1のデータ配信部における前記データ単位の各データの配信時間間隔と同じ配信時間間隔で少なくとも前記キーフレームのデータを前記被配信端末に配信することを特徴とする請求項に記載の配信システム。
  5. 映像データと音声データとを含む動画データを配信端末から被配信端末に対してリアルタイム配信する配信システムであって、
    前記映像データは、キーフレームのデータと映像に関する差分データを含み、
    前記配信端末から映像データと音声データを入力するデータ入力部と、
    前記キーフレームのデータおよび映像に関する差分データを含む映像データと前記音声データとを前記被配信端末に配信する第1のデータ配信部と、
    前記映像データから少なくとも前記キーフレームのデータと、前記音声データのデコード処理を行うためのデータとを前記被配信端末に配信する第2のデータ配信部と、
    を有することを特徴とする配信システム。
  6. 配信システムの各構成機器のコンピュータを、請求項1乃至5のいずれか1項に記載の配信システムとして機能させることを特徴とするプログラム。
  7. 請求項に記載のプログラムを記憶することを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2019195707A 2019-10-28 2019-10-28 配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 Active JP7406229B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019195707A JP7406229B2 (ja) 2019-10-28 2019-10-28 配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019195707A JP7406229B2 (ja) 2019-10-28 2019-10-28 配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体

Publications (2)

Publication Number Publication Date
JP2021069100A JP2021069100A (ja) 2021-04-30
JP7406229B2 true JP7406229B2 (ja) 2023-12-27

Family

ID=75638660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019195707A Active JP7406229B2 (ja) 2019-10-28 2019-10-28 配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体

Country Status (1)

Country Link
JP (1) JP7406229B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025023A (ja) 1999-07-09 2001-01-26 Nippon Telegr & Teleph Corp <Ntt> 映像ストリーム配信方法、配信システムならびに該方法のプログラムを記録した記録媒体
JP2002344932A (ja) 2001-05-22 2002-11-29 Mega Chips Corp 動画像配信システム、動画像配信方法及びそれらのプログラム
JP2002369203A (ja) 2001-06-06 2002-12-20 Mega Chips Corp 画像配信方法、画像復号化方法、およびそれらのプログラム
US20070098079A1 (en) 2003-06-16 2007-05-03 Boyce Jill M Decoding method and apparatus enabling fast channel change of compressed video
US20070174880A1 (en) 2005-07-05 2007-07-26 Optibase Ltd. Method, apparatus, and system of fast channel hopping between encoded video streams
WO2010069427A1 (en) 2008-12-19 2010-06-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and encoder for providing a tune- in stream for an encoded video stream and method and decoder for tuning into an encoded video stream
JP2010239588A (ja) 2009-03-31 2010-10-21 Nec Corp 動画配信装置、動画受信装置、動画配信方法、動画受信方法、および、プログラム
US20160142750A1 (en) 2013-06-19 2016-05-19 Telefonaktiebolaget L M Ericsson (Publ) Arrangements and method thereof for a channel change during streaming
WO2019048426A1 (en) 2017-09-11 2019-03-14 Tiledmedia B.V. CONTINUOUS DIFFUSION OF FRAMES OF SPACE ELEMENTS TO A CLIENT DEVICE

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025023A (ja) 1999-07-09 2001-01-26 Nippon Telegr & Teleph Corp <Ntt> 映像ストリーム配信方法、配信システムならびに該方法のプログラムを記録した記録媒体
JP2002344932A (ja) 2001-05-22 2002-11-29 Mega Chips Corp 動画像配信システム、動画像配信方法及びそれらのプログラム
JP2002369203A (ja) 2001-06-06 2002-12-20 Mega Chips Corp 画像配信方法、画像復号化方法、およびそれらのプログラム
US20070098079A1 (en) 2003-06-16 2007-05-03 Boyce Jill M Decoding method and apparatus enabling fast channel change of compressed video
US20070174880A1 (en) 2005-07-05 2007-07-26 Optibase Ltd. Method, apparatus, and system of fast channel hopping between encoded video streams
WO2010069427A1 (en) 2008-12-19 2010-06-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and encoder for providing a tune- in stream for an encoded video stream and method and decoder for tuning into an encoded video stream
JP2010239588A (ja) 2009-03-31 2010-10-21 Nec Corp 動画配信装置、動画受信装置、動画配信方法、動画受信方法、および、プログラム
US20160142750A1 (en) 2013-06-19 2016-05-19 Telefonaktiebolaget L M Ericsson (Publ) Arrangements and method thereof for a channel change during streaming
WO2019048426A1 (en) 2017-09-11 2019-03-14 Tiledmedia B.V. CONTINUOUS DIFFUSION OF FRAMES OF SPACE ELEMENTS TO A CLIENT DEVICE

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Fuchs,H. & Farber,N.,Optimizing channel change time in IPTV applications,2008 IEEE International Symposium on Broadband Multimedia Systems and Broadcasting,IEEE,2008年04月,ieeexplore.ieee.org/document/4536619
Jennehag,U., & Pettersson,S.,On Synchronization Frames for Channel Switching in a GOP-Based IPTV Environment,5th IEEE Consumer Communications and Networking Conference 2008,IEEE,2008年01月,638 -642,ieeexplore.ieee.org/document/4446445
Jennehag,U., Zhang,T., & Pettersson,S.,Improving Transmission Efficiency in H.264 based IPTV Systems,IEEE Transactions on Broadcasting,vol. 53, no. 1,IEEE,2007年03月,69-78,ieeexplore.ieee.org/document/4114797

Also Published As

Publication number Publication date
JP2021069100A (ja) 2021-04-30

Similar Documents

Publication Publication Date Title
CN107231563B (zh) 视频处理方法和装置
US8880720B2 (en) Method and device for delivering supplemental content associated with audio/visual content to a user
CN111818004B (zh) 云游戏直播方法、系统及计算机可读存储介质
JP5461454B2 (ja) 映像分割再生方法、映像再生方法、映像分割再生システム、及び映像分割再生プログラム
KR20180031547A (ko) 서버에서 멀티 비트 레이트 스트림 미디어를 적응적으로 제공하기 위한 방법 및 장치
US11356493B2 (en) Systems and methods for cloud storage direct streaming
TWI770583B (zh) 用於使用廣播調度資料來促進執行內容修改操作之方法、非暫時性電腦可讀儲存介質及計算系統
KR20210029829A (ko) 미디어 스트림 재생들 사이를 트랜지션하는 동안 트랜지션 프레임들의 동적 재생
CN112351303B (zh) 一种网络会议中的视频共享方法、系统和可读存储介质
CN108449634B (zh) 一种多进程解码的播放方法、计算机设备和存储介质
CN107534797B (zh) 一种增强媒体记录的方法和系统
US20220329883A1 (en) Combining Video Streams in Composite Video Stream with Metadata
CN108307248B (zh) 视频播放方法、装置、计算设备及存储介质
US11463747B2 (en) Systems and methods for real time control of a remote video production with multiple streams
CN112218128A (zh) 广告视频的播放方法、播放客户端及可读存储介质
WO2018224839A2 (en) Methods and systems for generating a reaction video
JP7406229B2 (ja) 配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体
JP5262675B2 (ja) 映像配信システムおよびユニキャスト型多地点映像配信方法
JP2009171294A (ja) 映像配信システム、映像中継装置、及び映像中継方法
JP6368335B2 (ja) トランスコード装置、映像配信システム、トランスコード方法、映像配信方法及びトランスコードプログラム
JP5264146B2 (ja) 同期配信システム、同期再生システム及び同期配信再生システム
CN112672089A (zh) 会议控制及与会方法、装置、服务器、终端及存储介质
US11856242B1 (en) Synchronization of content during live video stream
CN114600468B (zh) 将复合视频流中的视频流与元数据组合的组合器系统、接收器设备、计算机实现的方法和计算机可读介质
US11799943B2 (en) Method and apparatus for supporting preroll and midroll during media streaming and playback

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221128

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231208

R150 Certificate of patent or registration of utility model

Ref document number: 7406229

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150