JP2021069100A - 配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 - Google Patents

配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP2021069100A
JP2021069100A JP2019195707A JP2019195707A JP2021069100A JP 2021069100 A JP2021069100 A JP 2021069100A JP 2019195707 A JP2019195707 A JP 2019195707A JP 2019195707 A JP2019195707 A JP 2019195707A JP 2021069100 A JP2021069100 A JP 2021069100A
Authority
JP
Japan
Prior art keywords
data
distribution
unit
video
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019195707A
Other languages
English (en)
Other versions
JP7406229B2 (ja
Inventor
祐介 漢
Yusuke Hata
祐介 漢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mirrativ Inc
Original Assignee
Mirrativ Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mirrativ Inc filed Critical Mirrativ Inc
Priority to JP2019195707A priority Critical patent/JP7406229B2/ja
Publication of JP2021069100A publication Critical patent/JP2021069100A/ja
Application granted granted Critical
Publication of JP7406229B2 publication Critical patent/JP7406229B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】キーフレームの映像データを並行して配信することができる配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体を提供する。【解決手段】配信システム1は、動画データ100を配信端末2から被配信端末5に配信する配信システム1であって、動画データ100は、映像データ101と音声データ102を含み、配信端末2から映像データ101と音声データ102を入力するデータ入力部10と、映像データ101と音声データ102を被配信端末5に配信するするとともに、映像データ101をキーフレームのデータ101aと映像に関する差分データ101bとして被配信端末5に配信する第1のデータ配信部90と、映像データ100から少なくともキーフレームのデータ101aを被配信端末5に配信する第2のデータ配信部92と、を有することを特徴とする。【選択図】図1

Description

本発明は、配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体に関し、特に、動画データを配信端末から被配信端末に配信する配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体に関する。
近年、動画データを配信する配信システムが広く利用されている。この動画データの配信システムには、例えば、所定のサーバを介して動画データを配信端末から被配信端末に配信するシステムがある。
このような配信システムでは、配信する動画データをGOP単位等の所定のデータ単位のデータとして配信し、データ単位のデータは、例えば、Iフレーム等のキーフレームのデータとこれに時系列的に続くPフレーム(差分フレーム)やBフレーム(差分フレーム)等の映像に関する差分データで構成され、被配信端末は、任意のタイミングでサーバにアクセスし、キーフレームのデータと映像に関する差分データにより視聴可能な映像データを生成して視聴することができる。
このような動画データの配信システムは、特許文献1に開示される技術を参照することができる。
特開2019−29870号公報
ところで、上述したデータ単位の配信時間(データ単位において最初のデータが配信されてから最後のデータが配信されるまでの時間)は数十秒程度に設定されることが多い。
このため、被配信端末が配信時間の途中でサーバにアクセスした場合にあっては、映像に関する差分データが配信されるのみでキーフレームの映像データが配信されず次のデータ単位の配信が行われるまでの間、映像を視聴できないことがありタイムラグが生じることがある。上述の通り、データ単位の配信時間は数十秒程度に設定されることが多く、被配信端末の視聴者からは、最初のアクセスにおける視聴のタイムラグが長くキーフレームの映像データを並行して配信する等の改善が望まれていた。
本願発明は上記事情に鑑みてなされたものであり、キーフレームの映像データを並行して配信することができる配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体を提供することを目的とする。
上記目的を達成するために、本発明に係る配信システムは、動画データを配信する配信システムであって、前記動画データは、映像データを含むとともに、前記映像データは、キーフレームのデータを含み、前記キーフレームのデータを配信する第1のデータ配信部と第2のデータ配信部を有することを特徴とする。
上記目的を達成するために、本発明に係る配信システムは、動画データを配信端末から被配信端末に配信する配信システムであって、前記動画データは、映像データを含むとともに、前記映像データは、キーフレームのデータを含み、前記配信端末から映像データを入力するデータ入力部と、前記キーフレームのデータを前記被配信端末に配信する第1のデータ配信部と、前記キーフレームのデータを前記被配信端末に配信する第2のデータ配信部と、を有することを特徴とする。
上記目的を達成するために、本発明に係る配信システムは、動画データを配信端末から被配信端末に配信する配信システムであって、前記動画データは、映像データと音声データを含むとともに、前記映像データは、キーフレームのデータと映像に関する差分データを含み、前記配信端末から映像データと音声データを入力するデータ入力部と、前記映像データと前記音声データを前記被配信端末に配信するするとともに、前記キーフレームのデータと映像に関する差分データを含む映像データを前記被配信端末に配信する第1のデータ配信部と、前記映像データから少なくとも前記キーフレームのデータを前記被配信端末に配信する第2のデータ配信部と、を有することを特徴とする。
本発明によれば、上記構成により、キーフレームの映像データを並行して配信することができる。
前記映像データは、前記キーフレームのデータと前記映像に関する差分データを含む所定のデータ単位の映像データとするとともに、前記第1のデータ配信部は、前記映像データを前記データ単位ごとに前記被配信端末に配信し、前記第2のデータ配信部は、前記第1のデータ配信部により配信される前記データ単位の配信時間内において、前記データ単位の配信時間よりも短い所定の配信時間間隔で前記データ単位の映像データと並行して少なくとも前記キーフレームのデータを前記被配信端末に配信することができる。
前記第1のデータ配信部は、前記データ単位の配信時間内において、前記データ単位の各データの配信時間間隔を前記データ単位の配信時間よりも短い所定の時間間隔として前記被配信端末に配信するとともに、前記第2のデータ配信部は、前記第1のデータ配信部における前記データ単位の各データの配信時間間隔と同じ配信時間間隔で少なくとも前記キーフレームのデータを前記被配信端末に配信することが好ましい。
前記映像データから少なくとも前記キーフレームのデータを記憶するデータ記憶部を有し、前記第2のデータ配信部は、前記データ記憶部に記憶されたデータを前記被配信端末に配信することができる。
前記映像データと前記音声データのデコード処理を行うデコード処理部を有することとすれば、第1のデータと第2のデータのデコード処理を行うことができる。
前記デコード処理を行うためのデータは、前記第1のデータ配信部により配信されるデータに含まれるとともに、前記第2のデータ配信部により配信されるデータに含まれ、前記第2のデータ配信部により前記被配信端末に配信されることができる。
前記第2のデータ配信部により配信されたデコード処理を行うためのデータにより、前記被配信端末に前記デコード処理部を設定することとすれば、被配信端末でデコード処理を行うことができる。
前記デコード処理部は、前記被配信端末に設定することができる。
前記デコード処理を行うためのデータは、前記映像データのデコード処理を行うためのデータおよび/または前記音声データのデコード処理を行うためのデータを含むことができる。
上記目的を達成するために、本発明に係るプログラムは、映像データを含む動画データを配信する配信システムのコンピュータを、前記映像データにおけるキーフレームのデータを配信する第1のデータ配信部と第2のデータ配信部を有することを特徴とする。
上記目的を達成するために、本発明に係るプログラムは、動画データを配信端末から被配信端末に配信する配信システムのコンピュータを、前記配信端末から映像データを入力するデータ入力部と、前記映像データにおけるキーフレームのデータを前記被配信端末に配信する第1のデータ配信部と第2のデータ配信部を有することを特徴とする。
上記目的を達成するために、本発明に係るプログラムは、映像データと音声データを含む動画データを配信端末から被配信端末に配信する配信システムのコンピュータを、前記配信端末から映像データと音声データを入力するデータ入力部と、キーフレームのデータおよび映像に関する差分データを含む前記映像データと前記音声データを前記被配信端末に配信する第1のデータ配信部と、前記映像データから少なくとも前記キーフレームのデータを前記被配信端末に配信する第2のデータ配信部と、を有することを特徴とする。
上記目的を達成するために、本発明に係るコンピュータ読み取り可能な記憶媒体は、上記プログラムを記憶することを特徴とする。
本発明によれば、キーフレームの映像データを並行して配信することができる。
本発明の実施形態に係る配信システムの全体構成を示す図である。 同配信システムのコンピュータの構成を示すブロック図である。 同配信システムの第1のサーバの構成を示すブロック図である。 同配信システムのデータの構成を示す図で、(a)は多重化されたデータを示す図、(b)は分離されたデータを示す図である。 同配信システムのデータ生成部により生成された映像データの構成を示す図である。 同配信システムの第1のデータ出力部により出力される映像データの構成を示す図である。 同配信システムの第1のデータ出力部により出力される音声データの構成を示す図で、(a)はリップシンク処理前の音声データの構成を示す図、(b)はリップシンク処理後の音声データの構成を示す図である。 同配信システムの第2のサーバの構成を示すブロック図である。 同配信システムの第2のデータ配信部により被配信端末に配信されるデータの構成を示す図である。 同配信システムにおける被配信端末の構成を示すブロック図である。 同配信システムにおけるデータ処理方法を説明するためのフローチャートである。 同配信システムにおけるデータ処理方法を説明するための図11に続くフローチャートである。 従来の配信システムの課題を説明するための図である。 本発明の配信システムの技術的効果を説明するための図で、(a)は第1のデータ配信部により配信されるデータを示す図、(b)は第2のデータ配信部により配信されるデータを示す図である。
以下、本発明の実施形態について図面を参照して詳細に説明する。図1は、本発明の実施形態に係る配信システムの全体構成を示す図、図2は、同配信システムのコンピュータの構成を示すブロック図、図3は、同配信システムの第1のサーバの構成を示すブロック図、図4は、同配信システムのデータの構成を示す図、図5は、同配信システムのデータ生成部により生成された映像データの構成を示す図、図6は、同配信システムの第1のデータ出力部により出力される映像データの構成を示す図、図7は、同配信システムの第1のデータ出力部により出力される音声データの構成を示す図、図8は、同配信システムの第2のサーバの構成を示すブロック図、図9は、同配信システムの第2のデータ配信部により被配信端末に配信されるデータの構成を示す図、図10は、同配信システムにおける被配信端末の構成を示すブロック図である。
図1を参照して本発明の配信システム1の概要を説明すると、配信システム1は、動画データ100を配信端末2から第1のサーバ3と第2のサーバ4を介して被配信端末5にリアルタイムに生配信することができる。動画データ100は、映像データ101と音声データ102を含んでおり、映像データ101と音声データ102は、所定にエンコード処理され多重化されたデータとして配信端末2から送信される。
第1のサーバ3は、オリジンサーバとし、第2のサーバ4は、エッジサーバとし、配信端末2および被配信端末5は、情報端末装置とすることができる。情報端末装置は、携帯端末装置とすることができ、携帯端末装置は更に携帯電話機、スマートフォン、タブレット端末とすることができる。配信システム1は、ネットワーク通信回線NTを通じて配信端末2、第1のサーバ3、第2のサーバ4、被配信端末5の相互間の通信を可能に構成されている。なお、ネットワーク通信回線NTは、インターネット回線等を含むことができる。
配信システム1の各構成機器は、コンピュータとしての一般的な構成を備えている。配信システム1の各構成機器は、図2に示すように、相互にバス1Aを介して接続された中央処理装置(CPU、GPU、DSP)1B、記憶装置(ROM、RAM、ハードディスク、キャッシュメモリ)1C、入力装置(キーボード、タッチパネル、マウス)1D、表示装置(液晶ディスプレー)1E等を有している。記憶装置1Cは、コンピュータ読み取り可能な記憶媒体として機能する。
第1のサーバ2は、図3に示すように、第1のデータ入力部10、データ分離部20、データ生成部30、第1のデータ記憶部40、およびデータ出力部50を有している。
第1のデータ入力部10は、図4(a)に示すように、配信端末2から多重化された映像データ101と音声データ102(結合された映像データ101と音声データ102)を入力することができる。
データ分離部20は、第1のデータ入力部10により入力された多重化された映像データ101と音声データ102(結合された映像データ101と音声データ102)を図4(b)に示すように、分離することができる。
データ生成部30は、図5に示すように、データ分離部20により分離されたデータのうち映像データ101をキーフレームのデータ101aと映像に関する差分データ101bとするデータ処理を行うことができる(映像データ101は、キーフレームのデータ101aと映像に関する差分データ101bを含んでいる)。
より詳しくはキーフレームのデータ101aは、Iフレーム(Intra-Picture)のデータとすることができ、映像に関する差分データ101bは、Pフレーム(Predictive-Picture、差分フレーム)のデータとすることができる。ここで、Iフレーム(Intra-Picture)とは、動画中の1フレームを独立して再現可能なフレームであり、動画中のフレームの画像情報を全て含んでいるフレームである。Iフレーム(Intra-Picture)は、映像データのフレーム間予測の基準となるフレームである。Pフレーム(Predictive-Picture)は、直前のIフレームを参照して動画中の1フレームを再現可能なフレームであり、映像データのフレーム間の差分データを含むものである。
第1のデータ記憶部40は、エンコード処理された映像データ101と音声データ102のデコード処理を行うためのデータ103を記憶することができる。第1のデータ記憶部40により記憶されるデコード処理を行うためのデータ103は、映像データ101のデコード処理を行うためのデータ103aおよび音声データ102のデコード処理を行うためのデータ103bを含むことができる。
映像データ101のデコード処理を行うためのデータ103aは、H.264の規格に基づいたデータとすることができ、H.264の規格に基づいたデータは、NALユニットのデータとすることができる。更に、NALユニットのデータは、SPS(シーケンスパラメータセット)、PPS(ピクチャパラメータセット)、およびSEI(付加拡張情報)メッセージを含むことができる。
また、音声データ102のデコード処理を行うためのデータ103bは、AudioSpecificConfigを含むことができる。
データ出力部50は、映像データ101を第2のサーバ4に出力することができる。すなわち、データ出力部50は、図6に示すように、映像データ101を、キーフレームのデータ101aとキーフレームのデータ101aに時系列的に続く複数の映像に関する差分データ101bを含む所定のデータ単位Dより詳しくはGOP単位の映像データ101として出力することができる。すなわち、データ出力部50は、データ単位Dの最初のデータをキーフレームのデータ101aとして出力することができる。データ単位Dは、本実施形態にあっては、一のキーフレームのデータ101aと複数の映像に関する差分データ101bを含んでいる。
データ出力部50は、映像データ101をデータ単位Dごとに第2のサーバ4に出力することができる。データ出力部50により出力されるデータ単位Dの出力時間は、例えばTとされ、データ単位Dの出力時間T内において、各データの出力時間間隔は、例えばデータ単位Dの出力時間Tよりも短い所定の時間間隔ΔTとして第2のサーバ4に出力することができる。データ単位Dの出力時間は、データ単位Dにおいて最初のデータ(キーフレームのデータ101a)が配信されてから最後のデータ(最後の映像に関する差分データ101b)が出力されるまでの時間となる。
データ出力部50は、同じく図6に示すように、第1のデータ記憶部40からエンコード処理された映像データ101のデコード処理を行うためのデータ103aをヘッダ情報としてキーフレームのデータ101aの前に付加することができる。なお、被配信端末5と接続直後にデータ103aを配信することとしてもよい。
また、データ出力部50は、音声データ102を第2のサーバ4に出力することができる。ここで、配信端末2から入力される音声データ102の入力の時間間隔ΔT+tは、映像データ101の入力の時間間隔ΔTと相違した時間間隔で入力されることがある。このため、データ出力部50は、図7に示すように、音声データ102の各データの出力時間間隔を、データ単位Dを構成する映像データ101の各データの出力時間間隔ΔTに対応させるリップシンク処理が可能なように構成されている。すなわち、第1のデータ出力部50は、第1のデータ入力部10により入力された音声データ102の各データに対し数1の係数αを乗じて配信時間間隔を調整しリップシンク処理を行うことができる。
[数1]
α=ΔT/(ΔT+t)
更に、データ出力部50は、同じく図7に示すように、第1のデータ記憶部40からエンコード処理された音声データ102のデコード処理を行うためのデータ103bをヘッダ情報としてリップシンク処理がされた音声データ102の前に付加して第2のサーバ4に出力することができる。
第2のサーバ4は、図8に示すように、第2のデータ入力部60、第2のデータ記憶部70、記憶データ判断部75、データ複製部80、第1のデータ配信部90、および第2のデータ配信部92を有している。第2のサーバ4は、第1のデータ配信部90および第2のデータ配信部92を介して被配信端末5に動画データ100やデコード処理を行うためのデータ103を自動的に配信するプッシュ型の情報配信方式とすることができる。
第2のデータ入力部60は、第1のサーバ2のデータ出力部50から出力された映像データ101、音声データ102、およびデコード処理を行うためのデータ103を入力することができる。
第2のデータ記憶部70は、第2のデータ入力部60により入力された映像データ101からキーフレームのデータ101aを選択して記憶(キャッシュ)することができる。キーフレームのデータ101aは、データ単位Dを構成するデータの最初に入力されるデータであり、第2のデータ記憶部70は、データ単位Dを構成するデータの最初のデータをキーフレームのデータ101aとして判断し記憶することができる。
また、第2のデータ記憶部70は、第2のデータ入力部60により入力されたデータからエンコード処理された映像データ101のデコード処理を行うためのデータ103aを選択して記憶(キャッシュ)することができる。デコード処理を行うためのデータ103aは、ヘッダ情報としてキーフレームのデータ101aの前に付加されたデータであり、第2のデータ記憶部70は、キーフレームのデータ101aの前にあるヘッダ情報をデコード処理を行うためのデータ103aとして判断し記憶することができる。
更に、第2のデータ記憶部70は、第2のデータ入力部60により入力されたデータからエンコード処理された音声データ102のデコード処理を行うためのデータ103bを選択して記憶(キャッシュ)することができる。デコード処理を行うためのデータ103bは、ヘッダ情報として音声データの前に付加されたデータであり、第2のデータ記憶部70は、音声データ102の前にあるヘッダ情報をデコード処理を行うためのデータ103bとして選択し記憶することができる。なお、第2のデータ記憶部70は、映像に関する差分データ101bおよび音声データ102を記憶されない非記憶データとして処理するように構成されている。
記憶データ判断部75は、第2のデータ入力部60により入力されたデータに関し第2のデータ記憶部70により記憶するデータであるか否かの判断を行うことができる。すなわち、記憶データ判断部75は、データ単位Dを構成する最初のデータを第2のデータ記憶部70により記憶するキーフレームのデータ101aとして判断する。また、記憶データ判断部75は、キーフレームのデータ101aの前にあるヘッダ情報を映像データ101のデコード処理を行うためのデータ103aとして判断する。
更に、記憶データ判断部75は、音声データ102の前にあるヘッダ情報を音声データ102のデコード処理を行うためのデータ103bとして判断する。更にまた、記憶データ判断部75は、映像に関する差分データ101bおよび音声データ102については記憶されない非記憶データとして判断する。なお、記憶データ判断部75による記憶データの判断は、キーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データのデコード処理を行うためのデータ103bに所定の識別情報を付与することにより行ってもよい。
データ複製部80は、第2のデータ記憶部70により記憶されたキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを複製することができる。
第1のデータ配信部90は、第2のデータ入力部60により入力された映像データ101および音声データ102を被配信端末5に配信することができる。
すなわち、第1のデータ配信部90は、上記の図6と同様に、映像データ101を、キーフレームのデータ101aとキーフレームのデータ101aに時系列的に続く複数の映像に関する差分データ101bを含む所定のデータ単位Dより詳しくはGOP単位の映像データとして被配信端末5に配信することができる。
第1のデータ配信部90は、映像データ101をデータ単位Dごとに被配信端末5に配信することができる。第1のデータ配信部90により配信されるデータ単位Dの配信時間は、例えばTとされ、データ単位Dの配信時間T内において、各データの配信時間間隔は、例えばデータ単位Dの配信時間Tよりも短い所定の時間間隔ΔTとして被配信端末5に配信することができる。データ単位Dの配信時間は、上述した出力時間と同様に、データ単位Dにおいて最初のデータ(キーフレームのデータ101a)が配信されてから最後のデータ(最後の映像に関する差分データ101b)が配信されるまでの時間となる。
第1のデータ配信部90は、同じく図6に示すように、エンコード処理された映像データ101のデコード処理を行うためのデータ103aをヘッダ情報としてキーフレームのデータ101aの前に付加して配信することができる。
また、第1のデータ配信部90は、音声データ102を被配信端末5に配信することができる。第2のデータ配信部90により配信される音声データ102は、図7に示すように、音声データ102の各データの配信時間間隔ΔT+tを、データ単位Dを構成する映像データ101の各データの配信時間間隔ΔTに対応させるリップシンク処理がされた音声データ102を被配信端末5に配信することができる。
更に、第1のデータ配信部90は、同じく図7に示すように、第2のデータ入力部60からエンコード処理された音声データ102のデコード処理を行うためのデータ103bをヘッダ情報としてリップシンク処理がされた音声データ102の前に付加して被配信端末5に配信することができる。
第2のデータ配信部92は、図9に示すように、第2のデータ記憶部70に記憶されたデータより詳しくはデータ複製部80により複製されたデータ更に詳しくはキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを被配信端末5に更に並行して配信することができる。
より詳しくは、第2のデータ配信部92は、図9に示すように、第1のデータ配信部90により配信されるデータ単位Dの配信時間T内において、データ単位Dの配信時間Tよりも短い所定の配信時間間隔ΔTでデータ単位Dの映像データと並行してキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを被配信端末5に配信することができる。
より詳しくは、第2のデータ配信部92は、第1のデータ配信部90におけるデータ単位Dの各データの配信時間間隔ΔTと同じ配信時間間隔ΔTでキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを被配信端末5に配信することができる。なお、データ101a、データ103a、データ103bを配信時間T内において予め定められた任意の回数および/またはタイミングで配信するようにしてもよい。
被配信端末5は、図10に示すように、第3のデータ入力部94およびデコード処理部96を有している。
第3のデータ入力部94は、第2のサーバ4の第1のデータ配信部90から配信されるキーフレームのデータ101a、差分データ101b、および音声データ102を入力するとともに、第2のデータ配信部92から配信されるキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを並行して入力することができる。
デコード処理部96は、第3のデータ入力部94により入力された映像データ101のデコード処理を行うためのデータ103aおよび音声データ102のデコード処理を行うためのデータ103bにより映像データ101と音声データ102のデコード処理を行うことができる。
ここで、上記した配信システム1の各機能部は、所定のプログラム200を実行させることにより機能をさせることができる。
すなわち、プログラム200は、配信システム1の各構成機器のコンピュータを、第1のデータ入力部10、データ分離部20、データ生成部30、第1のデータ記憶部40、データ出力部50、第2のデータ入力部60、第2のデータ記憶部70、記憶データ判断部75、データ複製部80、第1のデータ配信部90、第2のデータ配信部92、第3のデータ入力部94、およびデコード処理部96として機能させることができる。プログラム200は、配信システム1の記憶装置1Cに記憶されている。
次に、本発明の配信システム1によるデータ処理方法を図11および図12のフローチャートに基づいて説明する。
すなわち、第1のサーバ2のデータ処理方法を図11に示すように、まずステップS10において、第1のデータ入力部10が、配信端末2から多重化された映像データ101と音声データ102を入力する。
次いで、ステップS20において、データ分離部20が、第1のデータ入力部10により入力された多重化された映像データ101と音声データ102を分離する。
次に、ステップS30において、データ生成部30が、データ分離部20により分離されたデータのうち映像データ101をキーフレームのデータ101aと映像に関する差分データ101bとするデータ処理を行う。
続いて、ステップS40において、データ出力部50が、映像データ101、音声データ102、およびデコード処理を行うためのデータ103を第2のサーバ4に出力する。より詳しくは、データ出力部50は、映像データ101を、キーフレームのデータ101aとキーフレームのデータ101aに時系列的に続く複数の映像に関する差分データ101bを含む所定のデータ単位Dの映像データとして出力する。
また、データ出力部50は、映像データ101のデコード処理を行うためのデータ103aをヘッダ情報としてキーフレームのデータ101aの前に付加して出力する。更に、データ出力部50は、音声データ102の出力時間間隔ΔT+tを、映像データ101の出力時間間隔ΔTに対応させるリップシンク処理を行うとともに、音声データ102のデコード処理を行うためのデータ103bをヘッダ情報としてリップシンク処理がされた音声データ102の前に付加して出力する。
次に、第2のサーバ4および被配信端末5のデータ処理方法を図12に示すように、ステップS50において、第2のデータ入力部60が、第1のサーバ2のデータ出力部50から出力された映像データ101、音声データ102、およびデコード処理を行うためのデータ103を入力する。
次いで、ステップS60において、記憶データ判断部75が、第2のデータ入力部60により入力されたデータに関し第2のデータ記憶部70により記憶するデータであるか否かの判断を行う。すなわち、記憶データ判断部75は、データ単位Dを構成する最初のデータを第2のデータ記憶部70により記憶するキーフレームのデータ101aとして判断し、更にキーフレームのデータ101aの前にあるヘッダ情報を映像データ101のデコード処理を行うためのデータ103aとして判断し、音声データ102の前にあるヘッダ情報を音声データ102のデコード処理を行うためのデータ103bとして判断し、映像に関する差分データ101bおよび音声データ102は非記憶データとして判断する。
続いて、ステップS65において、第2のデータ記憶部70が、記憶データ判断部75により記憶するデータとして判断されたキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを記憶する。また、第2のデータ記憶部70は、映像に関する差分データ101bおよび音声データ102は非記憶データとして処理する。
次に、ステップ70において、データ複製部80が、第2のデータ記憶部70により記憶されたキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを複製する。
続いて、ステップS80において、第1のデータ配信部90が、第2のデータ入力部60により入力された映像データ101および音声データ102を被配信端末5に配信する。すなわち、第2のデータ配信部90は、映像データ101を、キーフレームのデータ101aとキーフレームのデータ101aに時系列的に続く複数の映像に関する差分データ101bを含む所定のデータ単位Dの映像データとして配信する。また、第1のデータ配信部90は、エンコード処理された映像データ101のデコード処理を行うためのデータ103aをヘッダ情報としてキーフレームのデータ101aの前に付加して配信する。更に、第1のデータ配信部90は、リップシンク処理がされた音声データ102を被配信端末5に配信する。また更に、第1のデータ配信部90は、第2のデータ入力部60からエンコード処理された音声データ102のデコード処理を行うためのデータ103bをヘッダ情報としてリップシンク処理がされた音声データ102の前に付加して配信する。
次いで、ステップS80に並行するステップS90において、第2のデータ配信部92が、データ複製部80により複製されたキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データのデコード処理を行うためのデータ103bを被配信端末5に更に並行して配信する。
次に、ステップS100において、被配信端末5のユーザが所定のタイミングで第2のサーバ4にアクセスする。このアクセスにより、被配信端末5の第3のデータ入力部94が、第2のサーバ4の第1のデータ配信部90から配信される少なくとも映像に関する差分データ101bおよび音声データ102を入力するとともに、第2のデータ配信部92から配信されるキーフレームのデータ101a、映像データ101のデコード処理を行うためのデータ103a、および音声データ102のデコード処理を行うためのデータ103bを並行して入力する。
続いて、ステップS110において、デコード処理部96が、第3のデータ入力部94により入力された映像データ101のデコード処理を行うためのデータ103aおよび音声データ102のデコード処理を行うためのデータ103bにより映像データ101と音声データ102のデコード処理を行う。これにより、被配信端末5のユーザは動画100の視聴を行うことができる。
以上説明したように、本発明によれば、キーフレームのデータ101aを被配信端末5に並行して配信する第2のデータ配信部92を有することとしたので、キーフレームのデータ101aを並行して配信することができる。
すなわち、従来においては、図13に示すように、例えば、「Pフレーム1」の配信タイミングで被配信端末5のユーザがアクセスをした場合にあっては、次のデコード処理を行うためのデータ103a,103bやキーフレームのデータ101aが配信されるまでΔA時間だけ視聴のタイムラグを生じることとなる。
これに対し、本発明においては、図14に示すように、例えば、「Pフレーム1」の配信タイミングでユーザがアクセスをした場合にあっても、第2のデータ配信部92によりデコード処理を行うためのデータ103a,103bやキーフレームのデータ101aが並行して配信されているので、ΔA時間の視聴のタイムラグを生じることなく視聴することができる。
また、本発明によれば、被配信端末5にデコード処理部96を設定するとともに、デコード処理部96は、第2のデータ配信部92により配信されたデコード処理を行うためのデータ103によりデコード処理を行うこととしたので、被配信端末5でデコード処理を行うことができる。
なお、本発明は上述した実施形態に限定されることなく、種々の変形実施、応用実施が可能であることは勿論である。
すなわち、上述した実施形態にあっては、第2のデータ配信部92は、映像データ101からキーフレームのデータ101aを被配信端末5に配信することとしているが、更に映像に関する差分データ101bや音声データ102を配信することとしても所要の効果を奏する。すなわち、第2のデータ配信部92は、映像データ100から少なくともキーフレームのデータ101aを被配信端末5に配信することとすれば、本発明の技術的効果を達成することができる。
また、上述した実施形態にあっては、映像に関する差分データ101bは、Pフレームのデータとすることとしているが、更にIフレームとPフレームとの間に映像に関する差分データ101bとしてBフレーム(Bi-directionally Predictive-Picture、差分フレーム)のデータを含むこととしてもよい。
更に、上述した実施形態にあっては、デコード処理を行うためのデータ103は、映像データ101のデコード処理を行うためのデータ103aおよび音声データ102のデコード処理を行うためのデータ103bを含むこととしているが、いずれか一方としても所要の効果を奏することができる。すなわち、デコード処理を行うためのデータ103は、映像データ101のデコード処理を行うためのデータ103aおよび/または音声データ102のデコード処理を行うためのデータ103を含むこととすれば、本発明の技術的効果を達成することができる。
更にまた、映像データ101のデコード処理を行うためのデータ103aは、SPS、PPS、およびSEIを含むこととしているが、少なくともいずれかを含むこととすればよい。また、映像データ101のデコード処理を行うためのデータ103aは、SPS、PPS、およびSEI以外のデータを含むこととしてよい。
また、更に、音声データ102のデコード処理を行うためのデータ103bは、AudioSpecificConfigを含むこととしているが、他のデータを含むこととしてもよい。
更にまた、上述した実施形態にあっては、第1のサーバ2におけるデータ生成部30において、映像データ101をキーフレームのデータ101aと映像に関する差分データ101bとするデータ処理を行うこととしているが、配信端末2において、キーフレームのデータ101aと映像に関する差分データ101bとするデータ処理を行うこととして、第1のデータ入力部10が、キーフレームのデータ101aと映像に関する差分データ101bを入力することとしても所要の効果を奏することができる。
また、上述した実施形態にあっては、データ単位Dは、一のキーフレームのデータ101aと複数の映像に関する差分データ101bを含むこととしているが、ヘッダ情報としてキーフレームのデータ101aの前に付加される映像データ101のデコード処理を行うためのデータ103aを更に含めてデータ単位Dとすることとしてもよい。
更に、上述した実施形態にあっては、データ単位Dの配信時間(出力時間)は、データ単位Dにおいて最初のデータ(キーフレームのデータ101a)が配信されてから最後のデータ(最後の映像に関する差分データ101b)が出力されるまでの時間とすることとしているが、最初のデータを映像データ101のデコード処理を行うためのデータ103aとして、データ単位Dの配信時間(出力時間)を設定することとしてもよい。
NT:ネットワーク通信回線
1:配信システム
1A:バス
1B:中央処理装置
1C:記憶装置
1D:入力装置
1E:表示装置
2:配信端末
3:第1のサーバ
4:第2のサーバ
5:被配信端末
10:第1のデータ入力部
20:データ分離部
30:データ生成部
40:第1のデータ記憶部
50:データ出力部
60:第2のデータ入力部
70:第2のデータ記憶部
80:データ複製部
90:第1のデータ配信部
92:第2のデータ配信部
94:第3のデータ入力部
96:デコード処理部
100:動画データ
101:映像データ
101a:キーフレームのデータ
101b:映像に関する差分データ
102:音声データ
103:デコード処理を行うためのデータ
103a:映像データのデータ処理を行うためのデータ
103b:音声データのデコード処理を行うためのデータ
200:プログラム

Claims (14)

  1. 動画データを配信する配信システムであって、
    前記動画データは、映像データを含むとともに、前記映像データは、キーフレームのデータを含み、
    前記キーフレームのデータを配信する第1のデータ配信部と第2のデータ配信部を有することを特徴とする配信システム。
  2. 動画データを配信端末から被配信端末に配信する配信システムであって、
    前記動画データは、映像データを含むとともに、前記映像データは、キーフレームのデータを含み、
    前記配信端末から映像データを入力するデータ入力部と、
    前記キーフレームのデータを前記被配信端末に配信する第1のデータ配信部と第2のデータ配信部を有することを特徴とする配信システム。
  3. 動画データを配信端末から被配信端末に配信する配信システムであって、
    前記動画データは、映像データと音声データを含むとともに、前記映像データは、キーフレームのデータと映像に関する差分データを含み、
    前記配信端末から映像データと音声データを入力するデータ入力部と、
    前記キーフレームのデータおよび映像に関する差分データを含む映像データと前記音声データを前記被配信端末に配信する第1のデータ配信部と、
    前記映像データから少なくとも前記キーフレームのデータを前記被配信端末に配信する第2のデータ配信部と、を有することを特徴とする配信システム。
  4. 前記映像データは、前記キーフレームのデータと前記映像に関する差分データを含む所定のデータ単位の映像データとするとともに、
    前記第1のデータ配信部は、前記映像データを前記データ単位ごとに前記被配信端末に配信し、
    前記第2のデータ配信部は、前記第1のデータ配信部により配信される前記データ単位の配信時間内において、前記データ単位の配信時間よりも短い所定の配信時間間隔で前記データ単位の映像データと並行して少なくとも前記キーフレームのデータを前記被配信端末に配信することを特徴とする請求項3に記載の配信システム。
  5. 前記第1のデータ配信部は、前記データ単位の配信時間内において、前記データ単位の各データの配信時間間隔を前記データ単位の配信時間よりも短い所定の時間間隔として前記被配信端末に配信するとともに、
    前記第2のデータ配信部は、前記第1のデータ配信部における前記データ単位の各データの配信時間間隔と同じ配信時間間隔で少なくとも前記キーフレームのデータを前記被配信端末に配信することを特徴とする請求項4に記載の配信システム。
  6. 前記映像データから少なくとも前記キーフレームのデータを記憶するデータ記憶部を有し、
    前記第2のデータ配信部は、前記データ記憶部に記憶されたデータを前記被配信端末に配信することを特徴とする請求項3乃至請求項5のいずれか一項に記載の配信システム。
  7. 前記映像データと前記音声データのデコード処理を行うデコード処理部を有することを特徴とする請求項3乃至請求項6のいずれか一項に記載の配信システム。
  8. 前記デコード処理を行うためのデータは、前記第1のデータ配信部により配信されるデータに含まれるとともに、前記第2のデータ配信部により配信されるデータに含まれ、前記第2のデータ配信部により前記被配信端末に配信されることを特徴とする請求項7に記載の配信システム。
  9. 前記デコード処理部は、前記被配信端末に設定されることを特徴とする請求項7または請求項8に記載の配信システム。
  10. 前記デコード処理を行うためのデータは、前記映像データのデコード処理を行うためのデータおよび/または前記音声データのデコード処理を行うためのデータを含むことを特徴とする請求項8または請求項9に記載の配信システム。
  11. 映像データを含む動画データを配信する配信システムのコンピュータを、
    前記映像データにおけるキーフレームのデータを配信する第1のデータ配信部と第2のデータ配信部を有することを特徴とするプログラム。
  12. 動画データを配信端末から被配信端末に配信する配信システムのコンピュータを、
    前記配信端末から映像データを入力するデータ入力部と、
    前記映像データにおけるキーフレームのデータを前記被配信端末に配信する第1のデータ配信部と第2のデータ配信部を有することを特徴とするプログラム。
  13. 映像データと音声データを含む動画データを配信端末から被配信端末に配信する配信システムのコンピュータを、
    前記配信端末から映像データと音声データを入力するデータ入力部と、
    キーフレームのデータおよび映像に関する差分データを含む前記映像データと前記音声データを前記被配信端末に配信する第1のデータ配信部と、
    前記映像データから少なくとも前記キーフレームのデータを前記被配信端末に配信する第2のデータ配信部と、を有することを特徴とするプログラム。
  14. 請求項11〜請求項13のいずれか一項に記載のプログラムを記憶することを特徴とするコンピュータ読み取り可能な記憶媒体。



JP2019195707A 2019-10-28 2019-10-28 配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体 Active JP7406229B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019195707A JP7406229B2 (ja) 2019-10-28 2019-10-28 配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019195707A JP7406229B2 (ja) 2019-10-28 2019-10-28 配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体

Publications (2)

Publication Number Publication Date
JP2021069100A true JP2021069100A (ja) 2021-04-30
JP7406229B2 JP7406229B2 (ja) 2023-12-27

Family

ID=75638660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019195707A Active JP7406229B2 (ja) 2019-10-28 2019-10-28 配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体

Country Status (1)

Country Link
JP (1) JP7406229B2 (ja)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025023A (ja) 1999-07-09 2001-01-26 Nippon Telegr & Teleph Corp <Ntt> 映像ストリーム配信方法、配信システムならびに該方法のプログラムを記録した記録媒体
JP4721028B2 (ja) 2001-05-22 2011-07-13 株式会社メガチップス 動画像配信システム、動画像配信方法及びそれらのプログラム
JP4451022B2 (ja) 2001-06-06 2010-04-14 株式会社メガチップス 画像配信方法、画像復号化方法、およびそれらのプログラム
AU2004250926A1 (en) 2003-06-16 2004-12-29 Thomson Licensing Encoding method and apparatus enabling fast channel change of compressed video
US20070174880A1 (en) 2005-07-05 2007-07-26 Optibase Ltd. Method, apparatus, and system of fast channel hopping between encoded video streams
WO2010069427A1 (en) 2008-12-19 2010-06-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and encoder for providing a tune- in stream for an encoded video stream and method and decoder for tuning into an encoded video stream
JP5229066B2 (ja) 2009-03-31 2013-07-03 日本電気株式会社 動画配信装置、動画受信装置、動画配信方法、動画受信方法、および、プログラム
WO2014204366A1 (en) 2013-06-19 2014-12-24 Telefonaktiebolaget L M Ericsson (Publ) Arrangements and method thereof for a channel change during streaming
EP3863296B1 (en) 2017-09-11 2023-11-22 Tiledmedia B.V. Streaming frames of spatial elements to a client device

Also Published As

Publication number Publication date
JP7406229B2 (ja) 2023-12-27

Similar Documents

Publication Publication Date Title
US11792444B2 (en) Dynamic viewpoints of live event
KR102536652B1 (ko) 대체 컨텐츠의 종료를 피대체 컨텐츠의 종료에 맞춰 정렬하는 것을 지원하기 위한 대체 컨텐츠 재생의 동적 감소
JP5461454B2 (ja) 映像分割再生方法、映像再生方法、映像分割再生システム、及び映像分割再生プログラム
KR102469142B1 (ko) 미디어 스트림 재생들 사이를 트랜지션하는 동안 트랜지션 프레임들의 동적 재생
CN108495152B (zh) 一种视频直播方法、装置、电子设备及介质
US10638180B1 (en) Media timeline management
US20110229106A1 (en) System for playback of ultra high resolution video using multiple displays
CN109698949B (zh) 基于虚拟现实场景的视频处理方法、装置和系统
TWI770583B (zh) 用於使用廣播調度資料來促進執行內容修改操作之方法、非暫時性電腦可讀儲存介質及計算系統
CN112351303B (zh) 一种网络会议中的视频共享方法、系统和可读存储介质
CN111629223B (zh) 视频同步方法及装置、计算机可读存储介质以及电子设备
US11463747B2 (en) Systems and methods for real time control of a remote video production with multiple streams
CN111835988B (zh) 字幕的生成方法、服务器、终端设备及系统
CN110198457B (zh) 视频播放方法及其设备、系统、存储介质、终端、服务器
JP7406229B2 (ja) 配信システム、プログラム、およびコンピュータ読み取り可能な記憶媒体
JP2012222399A (ja) 映像再生システム、映像再生方法、映像再生装置及びプログラム
JP6368335B2 (ja) トランスコード装置、映像配信システム、トランスコード方法、映像配信方法及びトランスコードプログラム
JPWO2015020069A1 (ja) データ処理装置、データ処理方法、プログラム、記録媒体及びデータ処理システム
JP2019033362A (ja) 配信装置、受信装置及びプログラム
CN112672089A (zh) 会议控制及与会方法、装置、服务器、终端及存储介质
CN112272305A (zh) 一种多路实时交互视频缓存存储方法
US20230276105A1 (en) Information processing apparatus, information processing apparatus, and program
US10893331B1 (en) Subtitle processing for devices with limited memory
JP2005295343A (ja) テレビ放送補完システム、端末、テレビ放送補完方法およびコンピュータプログラム
CN116530072A (zh) 用于在媒体流式传输和回放期间支持前贴片和中贴片的方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221128

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231208

R150 Certificate of patent or registration of utility model

Ref document number: 7406229

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150