JP2008244869A - ライブ配信システム、Webサーバ、エンコーダ及びライブ配信システムにおける配信管理方法 - Google Patents

ライブ配信システム、Webサーバ、エンコーダ及びライブ配信システムにおける配信管理方法 Download PDF

Info

Publication number
JP2008244869A
JP2008244869A JP2007082757A JP2007082757A JP2008244869A JP 2008244869 A JP2008244869 A JP 2008244869A JP 2007082757 A JP2007082757 A JP 2007082757A JP 2007082757 A JP2007082757 A JP 2007082757A JP 2008244869 A JP2008244869 A JP 2008244869A
Authority
JP
Japan
Prior art keywords
distribution
server
live
video
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007082757A
Other languages
English (en)
Inventor
Yoichi Takebayashi
洋一 竹林
Takehiro Sugiyama
岳弘 杉山
Yutaka Sakane
裕 坂根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DIGITAL SENSATION CO Ltd
Shizuoka University NUC
Original Assignee
DIGITAL SENSATION CO Ltd
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DIGITAL SENSATION CO Ltd, Shizuoka University NUC filed Critical DIGITAL SENSATION CO Ltd
Priority to JP2007082757A priority Critical patent/JP2008244869A/ja
Publication of JP2008244869A publication Critical patent/JP2008244869A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】エンコーダと配信サーバ間のネットワークが不安定な状態になった場合でも、視聴者(クライアント)に安定的にライブ映像を配信できるライブ配信システムを提供すること。
【解決手段】ライブ配信用の映像をカット編集可能な箇所でブロック分割及び圧縮し、ブロック分割した圧縮映像データをサーバに転送するエンコーダ200−1,200−2と、配信状況及び又はクライアントの要求に応じて、ブロック分割された映像データを結合して配信番組を作成するサーバ300とを設けた。これにより、特殊なサーバやビューアを用いずに、すなわち従来の配信システムインフラをほとんど変えずに、視聴者に安定的にライブ映像を配信できるライブ配信システム100を実現できる。
【選択図】図1

Description

本発明は、インターネットを利用したライブ配信システムに関する。
従来、インターネットを利用したライブ配信として、ストリーミング配信が一般的に行われている。ストリーミング配信は、クライアント(視聴者)が映像データ及び音声データ(以下、これをまとめて単に映像データと呼ぶ)をダウンロードしながら、再生するものである。これにより、クライアントは、コンサートやイベント会場等の撮影現場で撮影された映像を、ライブに近い感覚で視聴することができる。
図15に、従来のライブ配信システムの構成を示す。複数のカメラ11a,11bで得られた映像はミキサ12に送出される。ミキサ12は、各カメラ11a,11bのスイッチングや宣伝の挿入等を行うことで、番組を構成する。なお、図中点線で示したカメラ11a,11bからミキサ12までは、アナログ信号処理系である。よって、ミキサ12では、アナログ処理により番組構成処理が行われる。
ミキサ12により番組構成とされた映像は、エンコーダ13に送出される。エンコーダ13は、入力された映像をエンコードし、エンコード後の映像データをサーバ14に送出する。サーバ14は、クライアント(PC)15の要求に応じて、映像データをクライアント15に配信する。
従来、クライアントの利便性を考慮して、種々のライブ配信方法が提案されている。
例えば、特許文献1には、配信映像を第1及び第2のエンコーダで生成し、第1のエンコーダではリアルタイムに近い映像をライブ配信し、第2のエンコーダでは映像ファイルを蓄積しておき、視聴者からの要求に応じてリプレイ配信する技術が開示されている。
また、特許文献2には、サーバに映像データを分割して格納し、クライアントからの要求に応じて映像データを再生して配信する技術が開示されている。
また、特許文献3には、リアルタイムに近いライブ映像をマルチキャスト送信する一方、要求に応じてタイムシフト映像をユニキャスト送信する技術が開示されている。
これら特許文献1〜3に記載された技術は、確かに、クライアントの利便性を向上させるものとして有効であると考えられる。
特開2004−274531号公報 特開2005−011150号公報 特開2004−088466号公報
ところで、インターネットにおける映像配信は、テレビやラジオの電波放送と比べ仕組みが大きく異なる。電波放送では、電波の届く範囲に存在する全ての受信機が同時刻に同じ映像を受信できる。つまり、放送可能な範囲は限定されるが、視聴者数が限定されないところに特徴がある。
これに対して、インターネットの映像配信は、土管(ネットワークケーブル)と水(データ)に例えることができる。映像配信サーバと呼ばれる、映像データを供給するサーバから、視聴者が利用する水(映像)を土管(インターネット)に流しだす必要がある。つまり、100人の視聴者に対し100人分の水(映像)を供給する必要があり、配信可能エリアは全世界(インターネットで到達可能な範囲)であるが、視聴者の数は限定される。さらに、インターネットの通信はベストエフォート方式と呼ばれ、土管を近隣住人で共有するため、時間によっては期待する量の水を流すことができなくなる(ネットワーク帯域の変化によるデータ到着の遅延)。
インターネットにおける映像視聴のスタイルは、ビデオ・オン・デマンド(VOD)方式とライブ方式の2種類が存在する。VODは、ユーザ(視聴者)が視聴を希望するときに希望する映像を閲覧するスタイルであり、特許文献1、2に示されている再生映像を配信する方式はこの方式に含まれる。一方、ライブ方式は、どこかで行われているイベントをその時刻に視聴する(TVの生中継と同じ)スタイルである。
インターネットライブ配信における一般的な機器構成とデータの流れは、図15に示したように、カメラ11a,11bで撮影した映像を、インターネット配信可能な映像データに変換(エンコード)した後、配信サーバ14を経由し全視聴者に配信する。この場合、図に示すように2種類のネットワークが必要となる。エンコーダ13と配信サーバ14間のネットワークと、配信サーバ14と視聴者PC15間のネットワークである。
ライブの場合、屋外や指定された屋内(ホールなど)が会場になるケースが多く、エンコーダ13から配信サーバ14までの安定したネットワーク経路を確保することは困難なケースが多い。エンコーダ13と配信サーバ14間のネットワークは映像データの源泉であるため、このネットワークの切断、帯域不足は、即配信事故となる。配信サーバ14と視聴者PC15間の帯域の変動は、個人の視聴環境が劣化するだけですむが、上流であるエンコーダ13と配信サーバ14間の帯域変動は、全視聴者の環境悪化の直接的原因となる。現状この問題に対する抜本的な解決方法は存在せず、エンコーダ13と配信サーバ14間の経路を多重化するなどの措置を講じるのみであった。
本発明は、エンコーダと配信サーバ間のネットワークが不安定な状態になった場合でも、視聴者(クライアント)に安定的にライブ映像を配信できるライブ配信システムを提供する。また、本発明は、クライアントの利便性が向上する新規なサービスを実現できるライブ配信システムを提供する。
本発明のライブ配信システムは、ライブ配信用の映像をカット編集可能な箇所でブロック分割及び圧縮し、ブロック分割した圧縮映像データをサーバに転送するエンコーダと、配信状況及び又はクライアントの要求に応じて、前記ブロック分割された映像データを結合して配信番組を作成するサーバと、を具備する構成を採る。
本発明のライブ配信システムは、コミュニケーショングループ毎に配信情報を管理する配信情報管理部を有するWebサーバと、前記配信情報管理部からの要求に基づいてライブ映像を結合することで、前記コミュニケーショングループ毎の番組を構成する映像データ結合編集部を有する配信サーバと、を具備する構成を採る。
本発明によれば、エンコーダと配信サーバ間のネットワークが不安定な状態になった場合でも、視聴者(クライアント)に安定的にライブ映像を配信できるライブ配信システムを実現できる。また、コミュニケーショングループ毎に自由に番組を構成でき、さらにコミュニケーショングループ内で同一のライブ番組を視聴できるので、特にチャットや、掲示板、携帯電話等で会話を行うクライアントの利便性が向上する。
本発明の実施の形態を説明にするに先だって、本発明に至った過程について説明する。
本発明の一つの特徴は、エンコーダから配信サーバに、圧縮符号化したファイルをブロック転送したことである。これにより、経路の帯域変動に強く(時間平均で転送データ以上の帯域が確保できればよい)、エンコーダと配信サーバ間の転送を安定して行うことができる。
従来の配信システムでは、デジタル化した映像データを即座に配信サーバに送信し、遅延少なく視聴者へ配信するが、本発明では、ブロック転送の基本思想をライブ配信用インフラとして適用することで、エンコーダと配信サーバ間で安定したデータ転送を行うことができる基本システムを実現できる。このように、本発明の発明者らは、配信システムインフラの着想に至った。
まず、本発明では、基本前提として「従来から存在するサーバやビューアを利用する」ことを念頭に置いた。特殊なサーバやビューアで実現されるシステムは、導入時のコストが高く「普及」という面で現実的でない。本発明のライブ配信システムは、下記の点で従来のライブ配信システムと異なる。
1.映像データをブロック単位で配信サーバに集約することで、ライブのように一連の映像として見せる仕組みを、Webサーバと連携させた再生リストで実現した。
2.配信サーバに映像を集めることで、従来システムでは不可能だった「複数映像ソースの編集」が可能になった。
3.映像データをサーバで蓄積しているため、「番組的に意味のあるところから見せる」などのサービスが実現可能になった。
4.視聴者間の視聴箇所(見ている映像)がバラバラになると、ライブ感を損なう可能性があり、ライブ配信システムとしては大きなマイナスになることから、クライアント(視聴者)間の視聴を同期させる工夫を導入した。本発明では、インターネット視聴者がチャットや掲示板で番組内容について議論するという新しい視聴スタイルを想定し、コミュニケーションしているグループ間で映像を同期して見せる仕掛けの着想に至った。なお、システムでは、コミュニケーショングループ単位で視聴箇所の管理を行うが、独立したクライアントを含む全ての視聴者に対して視聴箇所の管理は必要なので、独立クライアントは1人のコミュニケーショングループとして管理する。
以下、本発明の実施の形態について図面を参照して詳細に説明する。
(1)構成
(1−1)原理構成
図1に、本実施の形態の準ライブ配信システムの原理構成を示す。本実施の形態のライブ配信システムは、カメラ101−1,101−2で映像・音声を取得してから、クライアント(PC)400に配信されるまでに、バッファリングや、番組編集、番組再生等による遅延時間が発生するため、ライブ配信システムとは呼ばずに、準ライブ配信システムと呼ぶことにする。
準ライブ配信システム100は、複数のカメラ101−1,101−2で取得した映像・音声をエンコーダ200−1,200−2に送出する。ここで、カメラ101−1では例えば演奏者の顔が撮影され、カメラ101−2では例えば演奏者の手が撮影されている。
各エンコーダ200−1,200−2は、映像・音声をエンコード(圧縮符号化)し、エンコード後の映像データ及び音声データ(以下、これをまとめて単に映像データと呼ぶ)をある程度(数分〜数十分)蓄積してから、サーバ300へブロック転送する。本実施の形態の場合、エンコーダ200−1,200−2は、クリップ単位に分割した映像データをサーバ300にブロック転送する。これにより、エンコーダ200−1,200−2とサーバ300との間のネットワーク経路が不安定であった場合でも、クライアント400に配信するライブ映像がクリップ内で途切れることを確実に回避でき、安定した配信ができるようになる。なお、図中のブロックの区切りは、1クリップの区切りを表している。
サーバ300は、到着した映像データを映像データベース300aに蓄積する。これにより、映像データの再利用及び番組構成の編集が可能となる。
サーバ300は、蓄積した映像データを仮想的に並べ番組を作成する(300b)。このとき、サーバ300は、コミュニケーショングループ毎に番組を構成する。図では、コミュニケーショングループA(500a)に対しては番組(main)を構成し、コミュニケーショングループB(500b)に対しては番組(sub1)を構成している。各番組(main,sub1)は、コミュニケーショングループ内のクライアント400の要求に応じて編集される。なお、コミュニケーショングループC(500c)のようにコミュニケーショングループは、一人のクライアントにより形成されていてもよい。
また、サーバ300は、予め制作された映像データ(宣伝や差込映像など)を番組の間に組み込む。本実施の形態では、これを間繋ぎコンテンツとして利用する。その詳細については、後述する。
クライアント400は、番組を「きりの良いところから(都合良いところから)」視聴できる。きりの良いとは、例えば「Aさんの演奏途中からではなくAさんの最初から」など、番組が意味不明にならないところからの視聴を意味する。
サーバ300は、チャットや、掲示板、携帯電話等で会話しているコミュニケーショングループ500a,500bには、それぞれ同じ番組中の同じ視聴ポイントを保障する。ここで、インターネットライブ配信では、通常数秒から数分程度のずれは常時発生するため、同程度のずれは許容するものとする。
(1−2)全体構成
図2に、図1の原理構成を具現化した準ライブ配信システム100の全体構成を示す。
サーバ300は、Webサーバ310と配信サーバ320とで構成されている。
エンコーダ200は、1クリップ単位の映像データを配信サーバ320に送出すると共に、1クリップの映像データの配信が完了する度に配信情報更新通知信号をWebサーバ310に送出する。
Webサーバ310は、クライアント400からの要求に応じたHTMLを送出する。またWebサーバ310は、クライアント400からの要求に応じて配信画像の再生リストを送出する。さらにWebサーバ310は、クライアント400と同期情報の送受を行う。
実際上、クライアント400とサーバ300は、以下の通信を行う。
クライアント400は、起動しているWebブラウザ400aから、配信ページ400bを取得し、これを開く。
配信ページ400bには、映像ビューア410が組み込まれており、映像ビューア410は、起動後のWebサーバ310から再生リスト(映像データを並べた番組内容)を取得する。
映像ビューア410は、再生リストに従い、配信サーバ320へ映像データを要求し、映像を再生する。
Webサーバ310とクライアント400は、同期情報を交信することで視聴ポイントの同期調整を行う。本実施の形態では、コミュニケーショングループ間での同期調整(以下これを全体同期と呼ぶ)と、コミュニケーショングループ内での同期調整(以下これをグループ同期と呼ぶ)とを行う。
全体同期とは、コミュニケーショングループ内の特定のクライアントをグループリーダとして、Webサーバ310がその視聴ポイントを取得する処理である。この全体同期を行う場合、グループリーダであるクライアントのWebブラウザ400aが、一定時間毎に映像ビューア410の再生位置(視聴ポイント)をWebサーバ310に送信することで、Webサーバ310におけるグループリーダの同期情報を更新する。なお、グループリーダの視聴ポイントは、実在するクライアント400の視聴ポイントでなく、仮想的に設定した視聴ポイントであってもよい。
グループ同期とは、コミュニケーショングループ内のクライアント(グループメンバー)の視聴ポイントを、強制的にグループリーダと同一の視聴ポイントに合わせる処理である。グループ同期を行う場合、グループメンバーであるクライアント400のWebブラウザ400aは、一定時間毎にグループリーダの同期情報(視聴ポイント)をWebサーバ310から取得し、映像ビューア410が自装置の視聴ポイントとグループリーダの視聴ポイントとを比較し、自装置の視聴ポイントをグループリーダの視聴ポイントに合わせるための調整を行う。
(1−3)エンコーダの構成
図3に、エンコーダ200の構成を示す。エンコーダ200は、カメラで取得されたアナログ映像を映像入力部201を介してエンコード部202に入力する。エンコード部202は、アナログ映像信号をデジタル化すると共に圧縮符号化し、これにより得た映像データを映像データ時分割部203に送出する。
映像データ時分割部203は、映像データを、指定された時間及びシーン解析結果に基づいて時分割することでクリップを形成し、これを映像データ転送部204を介して配信サーバ320(映像データ受信部321)に転送する。すなわち、エンコーダ200からは、カット編集可能な箇所でブロック分割された映像データが、配信サーバ320にブロック転送される。これにより、経路の帯域変動に強く(時間平均で転送データ以上の帯域が確保できればよい)、エンコーダと配信サーバ間の転送を安定して行うことができる。
因みに、図3では、映像を圧縮符号化後に分割する場合を示したが、映像を分割後に圧縮符号化してもよく、要は、サーバ側でカット編集可能なブロック単位の映像データを形成して転送すればよい。
配信情報更新通知部206は、1クリップの映像データの転送が終了する度に、又は、1シーンが終了する度に、Webサーバ310(配信情報管理部311)に配信情報更新通知信号を送信する。
シーン設定部205は、意味のあるまとまり(例えば、1講演や、演奏、イベントなど)の区切りを示すシーン情報を設定する。このシーン情報は、配信情報更新通知部206からメッセージとしてWebサーバ310(配信情報管理部311)に送信される。
(1−4)Webサーバの構成
図4に、Webサーバ310の構成を示す。Webサーバ310は、配信情報管理部311にエンコーダ200(配信情報更新通知部206)から送られた配信情報更新通知信号を入力する。配信情報管理部311は、エンコーダ200からの配信情報更新通知信号が入力されると、配信情報の更新処理を行うと共に、配信サーバ320(映像データ結合編集部324)にファイル結合を要求する。
ここで、配信情報管理部311は、配信情報入出力部312からクライアント(管理者)400からの編集情報を入力し、配信サーバ320にこの編集情報に従ったファイル結合を要求する。これにより、コミュニケーショングループ毎の配信番組が構成される。
再生リスト生成部313は、配信情報管理部311からの配信情報を入力し、クライアント400が再生可能な映像データを列挙した再生リストを生成し、これをクライアント400の映像ビューア410(再生リスト要求・受信部411)からの再生リスト要求に応じて映像ビューア410(再生リスト要求・受信部411)に送信する。
配信情報入力部312は、配信情報を編集する機能をクライアント(管理者)400に提供する(図13参照)と共に、クライアント400からの編集情報をクライアント400から受け取る。
同期情報管理部315は、グループリーダから参照ポイント(視聴ポイント)を受信すると共にこれを管理する。また同期情報管理部315は、グループメンバーに同期情報を送信する。
同期情報入出力部314は、同期情報を編集する機能をユーザ(管理者)400に提供する(図14参照)。
(1−5)配信サーバの構成
図5に、配信サーバ320の構成を示す。配信サーバ320は、エンコーダ200(映像データ転送部204)からの映像データを映像データ受信部321で受信する。映像データ蓄積部322は、映像データを保存すると共に、受信映像をデータベースに登録する。
映像データ結合編集部324は、Webサーバ310(配信情報管理部311)からシーン結合要求を受信すると、関連する映像データを結合することで、1つの映像データを生成する。具体的には、映像データ結合編集部324は、コミュニケーショングループ毎の配信番組を構成する。
コンテンツ送信部323は、クライアント400の映像ビューア410(コンテンツ要求・受信部412)からの要求に応じて、指定された映像データを映像ビューア410(コンテンツ要求・受信部412)に送信する。
(1−6)映像ビューアの構成
図6に、映像ビューア410の構成を示す。再生リスト要求・受信部411は、Webサーバ310(再生リスト生成部313)に再生リストを要求し、Webサーバ310(再生リスト生成部313)から要求した再生リストを受信する。
コンテンツ要求・受信部412は、受信した再生リストに基づき、配信サーバ320(コンテンツ送信部323)にコンテンツを要求し、配信サーバ320(コンテンツ送信部323)から要求したコンテンツを受信する。
コンテンツ再生部413は、受信した映像データを順次再生する。
参照ポイント取得部414は、ビューアのコンテンツ再生位置(視聴ポイント)を取得する。
同期情報設定部415は、視聴ポイントを更新するようWebサーバ310(同期管理部315)に通知する。
同期情報取得部416は、グループIDに対応する視聴ポイントをWebサーバ310(同期情報管理部315)から取得する。
同期調整部417は、参照ポイント取得部414で得た視聴ポイントと、同期情報取得部416で得た視聴ポイントを比較し、ビューアの視聴ポイントを修正する必要があるか評価し、修正する必要があると評価した場合にはビューアの視聴ポイントを修正する。
参照ポイント設定部418は、ビューアの参照ポイント(視聴ポイント)を同期調整部417から得た値に更新する。
(2)動作
次に、本実施の形態の準ライブシステム100の動作について説明する。
(2−1)同期処理
先ず、間繋ぎコンテンツを利用した同期処理と、グループ同期について説明する。
<間繋ぎコンテンツを利用した同期>
図7に、間繋ぎコンテンツを利用した同期処理のイメージを示す。
図7Aは、クライアントAがコンテンツ2を見終わるとき、まだコンテンツ3が存在しない状態であり、クライアントBはクライアントAよりも後方(過去)の視聴ポイントにいる。
図7Bに示すように、クライアントAには、予めサーバに蓄積してある間繋ぎコンテンツaを番組として視聴させる。
次に、図7Cに示すように、クライアントAがaを視聴しているときコンテンツ3が到着し、クライアントBが2を見終わったとする。
すると、図7Dに示すように、クライアントBには、間繋ぎコンテンツaは飛ばし、コンテンツ3を視聴させる。
このように、後行するクライアントBには、間繋ぎコンテンツを視聴させないことで、全体の同期調整を行うことができる。また、リアルタイムから遠い視聴ポイントから視聴を開始したクライアントBでも、間繋ぎコンテンツaを飛ばしていくことで、ライブ映像を途切れさせることなく、リアルタイムに近い視聴ポイントに近づけることができる。この結果、視聴開始が遅かったクライアントBでも、徐々にライブ感の高い映像を視聴できるようになる。
<グループ同期>
図8に、グループ同期のイメージを示す。
図8A及び図8Bは、グループリーダがクライアントの場合を示すものである。
図8Aは、コミュニケーショングループAのリーダ(クライアント)Aと、このコミュニケーショングループAに所属しないクライアントBが異なる場所を視聴している状態を示す。
図8Bに示すように、クライアントBがコミュニケーショングループAに加わると、クライアントBを強制的にグループリーダであるクライアントAの視聴ポイントにジャンプさせる。
図8C及び図8Dは、グループリーダが仮想クライアントの場合を示すものである。
図8Cにおける点線はグループリーダである仮想クライアントの視聴ポイントを示すものであり、この視聴ポイント(参照ポイント)は、Webサーバ310の同期情報入出力部314から同期情報管理部315に番組視聴開始時刻(hh:mm:ss)を与え、同期情報管理部315によってコミュニケーショングループBの参照ポイントとして自動で算出されたものである。
図8Dに示すように、クライアントBがコミュニケーショングループBに加わると、クライアントBを強制的に仮想参照ポイントにジャンプさせる。
因みに、実際には、グループ内で最も先行した視聴ポイント(すなわち、最もリアルタイムに近い視聴ポイント)を視聴しているクライアントを、又は配信可能な視聴ポイントの中で最もリアルタイムに近い視聴ポイントを仮想的にグループリーダの視聴ポイントに設定すれば、コミュニケーショングループ全体のライブ感を高めることができる。
(2−2)エンコーダの動作
図9のフローチャートを用いて、エンコーダ200の動作を説明する。
エンコーダ200は、START9aでエンコード処理を開始すると、映像入力部201から映像を取り込み(ST11)、エンコード部202でそれをエンコードし(ST12)、これにより得た映像データをエンコード部202の記憶装置に書き出す(ST13)。
また、エンコーダ200は、START9bで映像データの分割・配信サーバへの送信・Webサーバへの通知処理を開始すると、映像データ時分割部203にてステップST14−ST15−ST14を繰り返すことで、分割編集ポイントがくるのを待ち受ける。映像データ時分割部203は、分割編集ポイントを検出すると(ST15;YES)、映像データを分割する(ST16)。これにより、カット編集可能な箇所でブロック分割されたブロックデータが形成される。
次に、エンコーダ200は、分割した映像データを配信サーバ320へブロック転送し(ST17)、転送後、Webサーバ310へ配信情報更新通知を送信する(ST18)。エンコーダ200は、ステップST18の処理の後、再びステップST14に戻って、同様の処理を繰り返す。
(2−3)Webサーバの動作
図10のフローチャートを用いて、Webサーバ310の動作を説明する。
Webサーバ310は、START10aで配信情報更新処理を開始すると、配信情報管理部311においてステップST21−ST22−ST21の処理を繰り返すことで、エンコーダ200からの配信情報の更新通知を待ち受ける。
エンコーダ200から配信情報の更新要求があると(ST22;YES)、配信情報管理部311は、ステップST23で更新通知内容が「映像データの追加」であるか否か判断し、更新通知内容が「映像データの追加」であれば(ST23;YES)、ステップST24に移って配信情報に追加映像に関する情報を追加することで配信情報を更新し、次にステップST21に戻ると共に更新した配信情報を再生リスト生成部313に送出する。
更新通知内容が「映像データの追加」でなければ(ST23;NO)、配信情報管理部311は、ステップST25で更新通知内容が「映像結合」であるか否か判断し、更新通知内容が「映像結合」であれば(ST25;YES)、結合要求を配信サーバ320に送信し(ST26)、更新通知内容が「映像結合」でなければ(ST25;NO)、ステップST21に戻る。
配信情報管理部311は、ステップST26の後、配信サーバ320から映像結合処理を完了したことの通知があるまでステップST27−ST28−ST27を繰り返し、通知があると(ST28;YES)、ステップST29に移って配信情報に結合映像に関する情報を追加することで配信情報を更新し(ST29)、ステップST21に戻ると共に更新した配信情報を再生リスト生成部313に送出する。
また、Webサーバ310は、START10bで再生リスト作成処理を開始し、再生リスト作成部313がステップST31−ST32−ST31を繰り返すことで映像ビューア410からの再生リスト作成の要求を待つ。再生リスト作成部313は、映像ビューア410から再生リスト作成の要求があると(ST32;YES)、配信情報管理部311の配信情報に基づいて、視聴可能コンテンツを検索することで、再生リストを要求したクライアント400が視聴可能なコンテンツを列挙し(ST33)、ステップST34に進む。
再生リスト作成部313は、ステップST34で視聴可能なコンテンツがあると判断すると(ST34;YES)、視聴可能な映像データの一覧を取得し(ST35)、映像データ一覧を並べて再生リストを作成する(ST37)。これに対して、ステップST34で視聴可能なコンテンツがないと判断すると(ST34;NO)、間繋ぎコンテンツを選択し(ST36)、間繋ぎコンテンツを含む再生リストを作成する(ST37)。
次に、再生リスト作成部313は、作成した再生リストをクライアント400の映像ビューア410に送信する(ST38)。再生リスト作成部313は、ステップST38の処理の後、再びステップST31に戻って、同様の処理を繰り返す。
(2−4)Webサーバ及び映像ビューアにおけるグループ同期動作
図11のフローチャートを用いて、Webサーバ310及び映像ビューア410におけるグループ同期動作を説明する。
Webサーバ310は、START11aで同期情報更新処理を開始する。このSTART11aで開始する同期情報更新処理とは、グループリーダが実際のクライアントである場合の、グループリーダであるクライアントの視聴ポイントを更新する処理に相当する。Webサーバ310の同期情報管理部315は、ステップST41−ST42−ST41の処理を繰り返すことで、グループリーダの同期情報設定部415からの同期情報を待ち受ける。同期情報管理部315は、同期情報を受信すると(ST42;YES)、同期データデータベース(同期データDB)315−1に格納したグループリーダに関する同期情報を、この受信した同期情報に更新する(ST43)。なお、同期データDB315−1は、同期情報管理部315内に設けられている。
一方、グループリーダが仮想的なものである場合は、Webサーバ310は、START11bで仮想同期情報の入力処理を開始し、同期情報管理部315が同期情報入出力部314から入力された仮想同期情報を、グループリーダの同期情報として同期データDB315−1に追加する(ST51)。
各クライアント400の映像ビューア410は、START11cで同期補正処理を開始する。映像ビューア410は、ステップST61で参照ポイント取得部414がビューアの参照ポイント(視聴ポイント)を取得する。次に、ステップST62で同期情報取得部416が所属するグループリーダの同期情報をWebサーバ310の同期情報管理部315から取得する。
次に、ステップST63で同期調整部417においてグループリーダの同期情報と自装置の同期情報(すなわちグループリーダの視聴ポイントと自装置の視聴ポイント)を比較する、同期調整処理を行う。同期調整部417は、グループリーダの視聴ポイントと自装置の視聴ポイントがずれている場合には、自装置の視聴ポイントの更新が必要であると判断し(ST64;YES)、自装置の参照ポイントをグループリーダの視聴ポイントに合わせる参照ポイント更新処理を行う(ST65)。すなわち、参照ポイント設定部418で設定する参照ポイントをグループリーダの視聴ポイントに合わせる。映像ビューア410は、ステップST64で自装置の参照ポイントの更新が必要ないと判断した場合(ST64;NO)又は参照ポイント更新処理(ST65)が終了すると、ステップST61に戻る。
(2−5)配信サーバの動作
図12のフローチャートを用いて、配信サーバ320の動作を説明する。
配信サーバ320は、START12aで映像データ保存処理を開始すると、ステップST71−ST72−ST71を繰り返すことでエンコード200からの映像データを待ち受け、映像データを受信すると(ST72;YES)、ステップST73に移って映像データ蓄積部322の映像データDB322−1に映像データを保存する。
配信サーバ320は、START12bで映像配信処理を開始すると、ステップST81−ST82−ST81を繰り返すことでクライアント400の映像ビューア410からのコンテンツ配信の要求を待ち受け、要求があると(ST82;YES)、要求された映像データをクライアント400の映像ビューア410に送信する(ST83)。
配信サーバ320は、START12cで映像データ結合処理を開始すると、ステップST91−ST92−ST91を繰り返すことでWebサーバ310からの映像データの結合要求を待ち受け、結合要求があると(ST92;YES)、ステップST93に移って映像データ結合編集部324によって要求に応じた関連映像データを1つの映像データに結合する。これにより、コミュニケーショングループ毎の番組が構成される。
次に、配信サーバ320は、結合した映像データを映像データDB322−1に書き込み(ST94)、結合が完了したことをWebサーバ310に通知する(ST95)。
(3)管理画面
図13に、配信情報管理画面を示す。図13の配信情報管理画面は、配信サーバ320で管理している映像データの利用状態や、Webサーバ310で管理している番組構成(並べ方)を編集する機能を、Webブラウザ400aで提供する実現例を示すものである。
また図14に、同期情報管理画面を示す。図14の同期情報管理画面は、Webサーバ310で管理している同期情報の編集と、仮想同期情報の登録が行える機能を、Webブラウザ400aで提供する実現例を示すものである。
(4)効果
以上説明したように、本実施の形態によれば、ライブ配信用の映像をカット編集可能な箇所でブロック分割及び圧縮し、ブロック分割した圧縮映像データをサーバに転送するエンコーダ200−1,200−2と、配信状況及び又はクライアントの要求に応じて、ブロック分割された映像データを結合して配信番組を作成するサーバ300とを設けたことにより、特殊なサーバやビューアを用いずに、すなわち従来の配信システムインフラをほとんど変えずに、エンコーダ200−1,200−2と配信サーバ320間で安定したデータ転送を行うことができ、エンコーダ200−1,200−2と配信サーバ320間のネットワークが不安定な状態になった場合でも、視聴者に安定的にライブ映像を配信できるライブ配信システム100を実現できる。
コミュニケーショングループ毎に配信情報を管理する配信情報管理部311を有するWebサーバ310と、配信情報管理部311からの要求に基づいてライブ映像を結合することで、コミュニケーショングループ毎の番組を構成する映像データ結合編集部324を有する配信サーバ320とを設けたことにより、コミュニケーショングループ内のクライアントは同一のライブ番組を視聴しながら、チャットや、掲示板、携帯電話等で会話を行うことができるようになる。
また、Webサーバ310に、コミュニケーショングループ毎の同期情報を管理し、コミュニケーション毎に異なる同期情報を、クライアント400に送信する同期情報管理部315を設けたので、同一のコミュニケーショングループに属するクライアント400の視聴ポイントを同一位置とすることができるので、同一のコミュニケーショングループ内のクライアント400は同一視聴ポイントの映像・音声を視聴しながら、会話できるようになる。すなわち、配信される番組が同じでも視聴ポイントが異なると、会話がかみ合わなくなるおそれがあるが、これを有効に回避することができる。
また、配信サーバ320によって、配信番組中に、ライブ映像とは異なる間繋ぎコンテンツを挿入し、映像ビューア410によって、視聴ポイントに応じて、間繋ぎコンテンツを飛ばした映像を再生するようにしたので、リアルタイムから遠い視聴ポイントから視聴を開始した場合でも、間繋ぎコンテンツを飛ばしていくことで、ライブ映像を途切れさせることなく、リアルタイムに近い視聴ポイントに近づけることができる。この結果、視聴開始が遅かったクライアント400でも、徐々にライブ感の高い映像を視聴できるようになる。
また、エンコーダ200によって、クリップ単位に分割した映像データを配信サーバ320に送信すると共に、クリップ毎に映像データの送信が終了したことをWebサーバ310に通知するようにしたので、配信サーバ320は、エンコーダ200からのクリップ映像が確実に到達してから、配信番組を構成し、クライアント400にライブ映像を配信できるようになる。この結果、エンコーダ200と配信サーバ320との間の回線状態等に応じて、クライアント400に配信するライブ映像がクリップ内で途切れることを確実に回避できる。
本発明は、インターネットを利用したライブ配信システムに広く適用可能である。
本発明の実施の形態に係る準ライブ配信システムの原理構成を示す模式図 実施の形態の準ライブ配信システムの全体構成を示すブロック図 エンコーダの構成を示すブロック図 Webサーバの構成を示すブロック図 配信サーバの構成を示すブロック図 映像ビューアの構成を示すブロック図 間繋ぎコンテンツを利用した同期処理のイメージを示す図 グループ同期のイメージを示す図 エンコーダの動作の説明に供するフローチャート Webサーバの動作の説明に供するフローチャート Webサーバと映像ビューアの動作の説明に供するフローチャート 配信サーバの動作の説明に供するフローチャート 配信情報管理画面の実現例を示す図 同期情報管理画面の実現例を示す図 従来のライブ配信システムの構成例を示す図
符号の説明
100 準ライブ配信システム
200 エンコーダ
203 映像データ時分割部
205 シーン設定部
206 配信情報更新通知部
300 サーバ
310 Webサーバ
311 配信情報管理部
315 同期情報管理部
320 配信サーバ
324 映像データ結合編集部
400 クライアント
400a Webブラウザ
400b 配信ページ
410 映像ビューア
414 参照ポイント取得部
415 同期情報設定部
416 同期情報取得部
417 同期調整部
500a,500b,500c コミュニケーショングループ

Claims (10)

  1. ライブ配信用の映像をカット編集可能な箇所でブロック分割及び圧縮し、ブロック分割した圧縮映像データをサーバに転送するエンコーダと、
    配信状況及び又はクライアントの要求に応じて、前記ブロック分割された映像データを結合して配信番組を作成するサーバと、
    を具備するライブ配信システム。
  2. 前記サーバは、
    コミュニケーショングループ毎に配信情報を管理する配信情報管理部を有するWebサーバと、
    前記配信情報管理部からの要求に基づいてライブ映像を結合することで、前記コミュニケーショングループ毎の配信番組を構成する映像データ結合編集部を有する配信サーバと、
    を具備する請求項1に記載のライブ配信システム。
  3. コミュニケーショングループ毎に配信情報を管理する配信情報管理部を有するWebサーバと、
    前記配信情報管理部からの要求に基づいてライブ映像を結合することで、前記コミュニケーショングループ毎の配信番組を構成する映像データ結合編集部を有する配信サーバと、
    を具備するライブ配信システム。
  4. 前記Webサーバは、前記コミュニケーショングループ毎の同期情報を管理し、コミュニケーション毎に異なる同期情報を、前記クライアント端末に送信する同期情報管理部を、さらに具備する
    請求項3に記載のライブ配信システム。
  5. 前記同期情報管理部は、前記コミュニケーショングループ内の特定のクライアント端末の視聴ポイント、又は、仮想的に設定した視聴ポイントを、前記コミュニケーショングループに属する複数のクライアント端末に、前記同期情報として送信する
    請求項4に記載のライブ配信システム。
  6. 前記配信サーバは、前記配信番組中に、ライブ映像とは異なる間繋ぎコンテンツを挿入し、
    クライアント端末の映像ビューアは、視聴ポイントに応じて、前記間繋ぎコンテンツを飛ばした映像を再生する
    請求項3から請求項5のいずれかに記載のライブ配信システム。
  7. コミュニケーショングループ毎に配信情報を管理する配信情報管理部と、
    前記コミュニケーショングループ毎の同期情報を管理し、コミュニケーション毎に異なる同期情報を、前記クライアント端末に送信する同期情報管理部と、
    を具備するWebサーバ。
  8. 前記同期情報管理部は、前記コミュニケーショングループ内の特定のクライアント端末の視聴ポイント、又は、仮想的に設定した視聴ポイントを、前記コミュニケーショングループに属する複数のクライアント端末に、前記同期情報として送信する
    請求項7に記載のWebサーバ。
  9. ライブ配信システムのサーバに回線により接続され、前記サーバにライブ映像データを供給するエンコーダであって、
    クリップ単位に分割した圧縮映像データを前記サーバに送信すると共に、クリップ毎に圧縮映像データの送信が終了したことを前記サーバに通知する
    エンコーダ。
  10. サーバにおいてコミュニケーショングループ毎に配信番組を構成するステップと、
    コミュニケーショングループ毎に視聴ポイントの同期をとるステップと、
    を含む、ライブ配信システムにおける配信管理方法。
JP2007082757A 2007-03-27 2007-03-27 ライブ配信システム、Webサーバ、エンコーダ及びライブ配信システムにおける配信管理方法 Pending JP2008244869A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007082757A JP2008244869A (ja) 2007-03-27 2007-03-27 ライブ配信システム、Webサーバ、エンコーダ及びライブ配信システムにおける配信管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007082757A JP2008244869A (ja) 2007-03-27 2007-03-27 ライブ配信システム、Webサーバ、エンコーダ及びライブ配信システムにおける配信管理方法

Publications (1)

Publication Number Publication Date
JP2008244869A true JP2008244869A (ja) 2008-10-09

Family

ID=39915654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007082757A Pending JP2008244869A (ja) 2007-03-27 2007-03-27 ライブ配信システム、Webサーバ、エンコーダ及びライブ配信システムにおける配信管理方法

Country Status (1)

Country Link
JP (1) JP2008244869A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022529081A (ja) * 2019-06-17 2022-06-16 グーグル エルエルシー 動的メディアセッションを提供するための方法、システム、および媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004135062A (ja) * 2002-10-10 2004-04-30 Matsushita Electric Ind Co Ltd 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2004167266A (ja) * 2004-01-13 2004-06-17 Hitachi Ltd 連携診療支援方法及び装置
JP2005208710A (ja) * 2004-01-20 2005-08-04 Nec Corp 同期制御方法、コミュニケーション同期制御装置および双方向コミュニケーションシステム
JP2007074684A (ja) * 2005-09-09 2007-03-22 Ssc Partners:Kk 動画配信システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004135062A (ja) * 2002-10-10 2004-04-30 Matsushita Electric Ind Co Ltd 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2004167266A (ja) * 2004-01-13 2004-06-17 Hitachi Ltd 連携診療支援方法及び装置
JP2005208710A (ja) * 2004-01-20 2005-08-04 Nec Corp 同期制御方法、コミュニケーション同期制御装置および双方向コミュニケーションシステム
JP2007074684A (ja) * 2005-09-09 2007-03-22 Ssc Partners:Kk 動画配信システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022529081A (ja) * 2019-06-17 2022-06-16 グーグル エルエルシー 動的メディアセッションを提供するための方法、システム、および媒体
JP7247377B2 (ja) 2019-06-17 2023-03-28 グーグル エルエルシー 動的メディアセッションを提供するための方法、システム、および媒体

Similar Documents

Publication Publication Date Title
WO2016063780A1 (ja) 受信装置、送信装置、およびデータ処理方法
JP5728736B2 (ja) コーデック適用フレーム・サイズでの音声スプリッティング
US9860572B2 (en) Spatially segmented content delivery
US8205236B2 (en) Contents distribution system, contents distribution method thereof and contents distribution program thereof
JP4534997B2 (ja) 送受信システム、受信装置、受信方法
KR20080106517A (ko) 통신 네트워크를 통해 미디어 컨텐츠를 공급하기 위한 방법, 장치 및 시스템
CN101909160A (zh) 一种网络视频直播中的播控切换方法及装置
CN100515079C (zh) 一种在iptv中实现画中画的方法
EP1362479A2 (en) Customized program creation by splicing server based video, audio, or graphical segments
CN112752109B (zh) 视频播放控制方法和系统
US9338480B2 (en) Systems and methods to compensate for the effects of transmission delay
US9654301B2 (en) Method, system and software product for streaming content
US7043747B1 (en) Methods and apparatus for information broadcasting and reception
JP2005086222A (ja) マルチキャスト型コンテンツ受信制御方法及びマルチキャスト型コンテンツ受信クライアント
US6871234B1 (en) Information distribution control system, and information distribution control method
CN100562093C (zh) 会议电视系统与交互式网络电视系统融合的方法及装置
CN113114687B (zh) 一种iptv合流方法及系统
EP1540960A1 (en) Streaming of real-time data for television programming
CN105656742A (zh) 一种基于most的多环网流媒体多播系统和方法
WO2018224839A2 (en) Methods and systems for generating a reaction video
JP5997500B2 (ja) 放送通信連携受信装置
JP2008244869A (ja) ライブ配信システム、Webサーバ、エンコーダ及びライブ配信システムにおける配信管理方法
JP2009171294A (ja) 映像配信システム、映像中継装置、及び映像中継方法
JP2011176730A (ja) コンテンツ配信装置及びプログラム、並びに、コンテンツ配信システム
CN113612728B (zh) 流媒体播放方法、传输设备和系统

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100608