JP4397894B2 - 映像配信装置および映像配信プログラム - Google Patents

映像配信装置および映像配信プログラム Download PDF

Info

Publication number
JP4397894B2
JP4397894B2 JP2005510139A JP2005510139A JP4397894B2 JP 4397894 B2 JP4397894 B2 JP 4397894B2 JP 2005510139 A JP2005510139 A JP 2005510139A JP 2005510139 A JP2005510139 A JP 2005510139A JP 4397894 B2 JP4397894 B2 JP 4397894B2
Authority
JP
Japan
Prior art keywords
encoder
information
data
disaster
video distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005510139A
Other languages
English (en)
Other versions
JPWO2005043913A1 (ja
Inventor
智功 廣瀬
篤嗣 田谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2005043913A1 publication Critical patent/JPWO2005043913A1/ja
Application granted granted Critical
Publication of JP4397894B2 publication Critical patent/JP4397894B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/177Initialisation or configuration control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2404Monitoring of server processing errors or hardware failure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2405Monitoring of the internal components or processes of the server, e.g. server load
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/814Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts comprising emergency warnings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Alarm Systems (AREA)

Description

この発明は、映像配信装置および映像配信プログラムに関する。
従来、エンコーダ等から送信されるMPEG4(Moving Picture Expert Group 4)等の画像データを動画サーバが受信し、動画サーバが所定のクライアント端末に受信した画像データをストリーミング配信する動画配信システムが知られている。
この動画配信システムでは、動画サーバに障害が発生した際、縮退が行われる。この縮退では、障害が発生した動画サーバである障害動画サーバ以外の複数の正常な動画サーバが、障害動画サーバを代行する。
ところで、各動画サーバを管理する管理サーバは、各エンコーダに対して、蓄積設定の存在有無、優先レベルおよびエンコーダIDを予め設定している。ここで、優先レベルには、高、中、低の三段階ある。
そして、管理サーバが、障害動画サーバが担当していたエンコーダの蓄積設定の存在有無、優先レベルの段階およびエンコーダID(Identification)の昇順に基づいて優先順位をつけ、優先順位の高いエンコーダから順に正常な動画サーバへ割り当てを行う。また、管理サーバは、正常な動画サーバが処理しきれないエンコーダについては、その運用を強制的に停止させることとなる。
また、特許文献1に開示された分散処理システムでは、ネットワークを管理する管理ノードが、予め、業務と業務を処理する処理ノードとの組み合わせを複数用意しておく。そして、所定の処理ノードに障害が発生した際に管理ノードは、障害の発生した処理ノードの業務をバックアップする所定の組み合わせを選択し、選択した組み合わせを各処理ノードに送信し、各処理ノードは受信した組み合わせをもとに障害の発生した処理ノードの業務のバックアップを行っていた。
特開平6−214962号公報
しかしながら、従来の動画配信システムでは、優先順位が固定されているため、動的に各エンコーダの優先順位を変更することが出来ないという問題があった。
例えば、ある地点で災害等が発生し、災害等の状況を消防局等が知りたい場合には、災害等が発生している地点に最も近く、災害等の画像を受信しているエンコーダが重要となるが、このエンコーダに対して予め設定された優先順位が低い場合がある。
すなわち、災害等が発生した地点に近いエンコーダを担当している動画サーバに異常が発生した際、このエンコーダの優先順位が低いために正常な動画サーバに割りあてられることなく強制的に運用が停止させられる恐れがある。
また、特許文献1のように管理ノードが、障害の発生した処理ノードに代わって正常な処理ノードに業務のバックアップを行わせる場合も、予め用意しておいた処理ノードと業務の組み合わせを利用するので、常に変化する業務近辺の状況に対応する事ができない。
従って、時々刻々と変化するエンコーダ周辺の状況に合わせて、各エンコーダの優先順位を動的に変化させることがきわめて重要な課題となっていた。
この発明は、上述した従来技術による問題点を解消し、課題を解決するためになされたものであり、動画サーバに障害が発生した場合に、エンコーダの周辺状況に基づいて、適切なエンコーダを選択することができる映像配信装置および映像配信プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するため、本発明は、撮像装置に1対1接続された複数のエンコーダにネットワーク接続された映像配信装置であって、災害の位置情報を外部装置からネットワークを介して受信する災害位置受信手段と、管理すべき他の映像配信装置を記憶する記憶手段と、前記記憶手段に記憶された映像配信装置の障害を感知する障害感知手段と、各映像配信装置に対応付けて、該映像配信装置に対応付けられた複数のエンコーダと、動画データを表示する表示端末とを記憶した管理情報と、前記管理情報を参照し、前記障害が発生した他の映像配信装置に対応付けられた複数のエンコーダと表示装置とを特定する特定手段と、前記特定した各エンコーダに対して、該エンコーダに接続された撮像装置の映像データを要求する引継ぎ要求情報をネットワークを介して送信する引継ぎ要求送信手段と、前記引継ぎ要求情報を送信した前記各エンコーダから、該エンコーダの位置情報をネットワークを介して受信するエンコーダ位置受信手段と、前記受信した各エンコーダの位置情報と前記受信した災害の位置情報とに基づき、該災害位置に最も近いエンコーダを選択するエンコーダ選択手段と、前記エンコーダ選択手段が選択したエンコーダから動画データを受信し、前記特定手段に従って障害が発生した他の映像配信装置に対応付けられた表示端末に該動画データを配信する動画配信手段と、を備えたことを要件とする。
この発明によれば、動画サーバに障害が発生した場合に、エンコーダの周辺状況に基づいて、適切なエンコーダを選択することができる。
以下に、本発明にかかる映像配信装置および映像配信プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態により本発明が限定されるものではない。
まず、本実施の形態1にかかる動画配信システムのシステム構成について説明する。第1図は、本実施の形態1にかかる動画配信システムのシステム構成を示す機能ブロック図である。
同図に示すように、この動画配信システムは、エンコーダ10〜12がそれぞれに対応するカメラ13〜15から画像データを受信し、受信した画像データをマルチキャストする。
このマルチキャストは、複数の相手を指定してデータを送信するものであり、マルチキャストされたデータは、一旦、ルータ21に送信され、ルータ21から、指定された動画サーバ1〜3のいずれかに送信される。
そして、ルータ21から画像データを受信した動画サーバ1〜3は、受信した画像データを図示しない所定のクライアント端末にストリーミング配信するシステムである。
また、インターネット40に接続された災害通知サーバ30は、災害を検知した際に、検知した災害位置を動画サーバ1に送信し、動画サーバ1は、受信した災害位置を記憶する。
そして、動画サーバ2または3のいずれかに障害が発生した場合には、動画サーバ1が、障害の発生した動画サーバの担当していたエンコーダの情報と災害通知サーバ30から受信した災害位置とをもとにエンコーダの優先順位を決定する。
ところで、動画サーバ1は、障害の発生した動画サーバが担当していたエンコーダを全て担当できない場合には、優先順位の高いエンコーダを優先して担当し、担当できないエンコーダに対しては停止要求を送信する。
次に、エンコーダ10〜12の構成について説明する。なお、これらのエンコーダ10〜12はいずれも同様の構成を有するので、ここではエンコーダ10を例にとって説明する。
エンコーダ10は、エンコーダ10に対応するカメラ13から画像データを受信し、受信した画像データをストリームデータとしてマルチキャストする際に、MPEGデータにエンコーダ10の現在位置に対する緯度、経度および現在エンコーダ10の利用しているカメラ13の方向に係る情報を示すエンコーダ情報を付与する。以下、エンコーダの現在位置に対する緯度、経度および現在エンコーダの利用しているカメラの方向に係る情報をまとめてエンコーダ情報と表記する。
エンコーダ10は、入力受付部16と、位置情報送受信部17と、制御部18と、記憶部19と、通信部20とを有する。
入力受付部16は、カメラ13から画像データを受信し、受信した画像データを制御部18に渡す。制御部18は、MPEGデータ作成部18aと、XMLデータ作成部18bと、位置情報処理部18cと、データ送信部18dとを有する。
MPEGデータ作成部18aは、入力受付部16から受け取った画像データからMPEGデータを作成する。また、MPEGデータ作成部18aは、記憶部19からXML(eXtensible Markup Language)データ19aを取得する。
そして、MPEGデータ作成部18aは、第2図に示すように、作成したMPEGデータ103に、UDP(User Datagram Protocol)ヘッダ100、RTP(Real-time Transport Protocol)ヘッダ101および取得したXMLデータ102を付与し、ストリームデータとしてデータ送信部18dに渡す。
XMLデータ作成部18bは、位置情報処理部18cが特定するエンコーダ6のエンコーダ情報をもとに、位置情報を含んだXMLデータを作成する。
第3図は、XMLデータ作成部18bがXMLでエンコーダの位置情報およびカメラの方向に係る情報を記述したXMLデータの一例である。同図において「longitude=”135.75”」はエンコーダの緯度を表し、「latitude=”35.5”」は、エンコーダの経度を表し、「altitude=”100”」はエンコーダが利用するカメラの方向を表す。
なお、第3図では、利用するカメラの方向が固定された固定カメラの場合を示しているが、カメラの方向が移動する移動式カメラの場合には、カメラの方向に対する移動範囲が記述される。
そして、XMLデータ作成部18bは、作成したXMLデータを記憶部19にXMLデータ19aとして記憶させる。
位置情報処理部18cは、位置情報送受信部17を用いて、基地局と通信し、エンコーダ10の現在位置に対する緯度および経度を特定する。また、位置情報処理部18cは、カメラ13の方向に係る情報をカメラ13から受信する。
そして、位置情報処理部18cは、エンコーダ10の位置情報およびカメラの方向に係る情報をXMLデータ作成部18bに渡す。
データ送信部18dは、MPEGデータ作成部18aから受け取ったストリームデータを通信部20を介してマルチキャストする。また、データ送信部18dは通信部20を介して動画サーバ1から停止要求を受信した場合には、エンコーダ10を停止させる。
次に、動画サーバ1〜3について説明する。動画サーバ1〜3は、担当するエンコーダからストリームデータを受信した際に、所定のクライアント端末にストリーミング配信を行う。
また、動画サーバ1は、動画サーバ2または3に障害が発生した際に、障害の発生した動画サーバが担当していたエンコーダを動画サーバ1が代わりに担当する。
しかし、障害の発生した動画サーバが担当していたエンコーダをすべて動画サーバ1が代わりに担当することができない場合がある。
従って、動画サーバ1は、各エンコーダ6〜8の位置情報と災害通知サーバ30から送信される災害位置とをもとにして災害位置に近いエンコーダから順に優先順位を高く設定する。そして、動画サーバ1は、設定した優先順位をもとにして障害の発生した動画サーバの代わりに担当するエンコーダを順に選択する。
なお、災害位置との距離が等しいエンコーダが複数存在する場合には、エンコーダが利用するカメラの方向を更に考慮して優先順位を設定する。具体的にはカメラの方向が災害位置に向いているエンコーダを優先する。
次に、動画サーバ1の構成について説明する。動画サーバ1は、通信部4と、制御部5と、記憶部9とを有する。なお、制御部5は、縮退処理部6と、管理サーバ部7と、データ送受信部8とを有する。
縮退処理部6は、動画サーバ2または3に障害が発生した際に、障害の発生した動画サーバが担当していたエンコーダの優先順位を決定し、代わりに担当するエンコーダを選択する。縮退処理部6は、障害感知部6aと、引継ぎ要求部6bと、エンコーダ選択部6cとを有する。
障害感知部6aは、動画サーバ2または3に障害が発生した際、その障害を感知し、障害の発生した動画サーバを特定する。
引継ぎ要求部6bは、障害感知部6aが障害を感知した際に、記憶部15に記憶されている管理情報19bをもとにして、障害の発生した動画サーバが担当していたエンコーダからマルチキャストされるストリーミングデータを取得するため、引継ぎ要求をルータ21に送信する。
エンコーダ選択部6cは、障害の発生した動画サーバが担当していたエンコーダが送信するストリームデータに付与されている位置情報と、記憶部15に記憶された災害位置データ15cとをもとに、障害の発生した動画サーバの代わりに担当するエンコーダを選択する。なお、エンコーダ選択部6cは、災害位置に近いエンコーダから順に選択することとなる。
ところで、災害位置との距離が等しいエンコーダが複数存在する場合には、エンコーダが利用するカメラの方向が災害位置に向いているエンコーダを優先する。
管理サーバ部7は、定期的に動画サーバ2および3と通信し、各動画サーバ2および3が担当しているエンコーダと、ストリーミング配信の対象となっているクライアント端末を特定する。そして、管理サーバ部7は、各動画サーバが担当するエンコーダの情報とクライアント端末の情報とを記憶部9に管理情報9bとして記憶させる。
また、管理サーバ部7は、災害通知サーバ30から災害位置に係る情報を受信し、受信した災害位置に係る情報を災害位置データ9cとして記憶部9に記憶させる。
データ送信部8は、エンコーダからマルチキャストされるストリームデータを受信し、受信したストリームデータを記憶部9にストリームデータ9aとして一旦記憶させ、所定のクライアント端末に記憶しておいたストリームデータ9aをストリーミング配信する。
次に、第1図に示したエンコーダ10が、位置情報と利用するカメラの方向に係る情報とを取得し、取得した情報をもとにXMLデータを作成する処理手順について説明する。第4図は、エンコーダ10が位置情報とカメラ方向に係る情報を取得し、取得した情報をもとにXMLデータを作成する処理手順を示すフローチャートである。なお、この処理は、エンコーダ10の動作中に繰り返し実行される。同図に示すように、位置情報処理部18cが位置情報送受信部17をもちいて最寄の基地局に信号を送信し(ステップS101)、位置情報送受信部17を用いて基地局から応答信号を受信する(ステップS102)。
そして、位置情報処理部18cは、受信した応答信号をもとにエンコーダ10の緯度と経度とを特定する(ステップS103)。また、位置情報処理部18cは、カメラ13からカメラの方向を示すカメラ情報を受信する(ステップS104)。そして、位置情報処理部18cは、エンコーダ10の緯度、経度およびカメラ13の方向をエンコーダ情報としてXMLデータ作成部18bに渡す(ステップS105)。そして、XMLデータ作成部18bは、受け取ったエンコーダ情報をもとにXMLデータを作成し(ステップS106)、作成したXMLデータを記憶部19にXMLデータ19aとして記憶させる(ステップS107)。
次に、エンコーダ10がストリームデータを作成し、作成したストリームデータをマルチキャストする処理手順について説明する。第5図は、エンコーダがストリームデータを作成し、作成したストリームデータをマルチキャストする処理手順を示すフローチャートである。
同図に示すように、入力受付部16がカメラ13から画像データを受信し(ステップS201)、受信した画像データをMPEGデータ作成部18aに渡す(ステップS202)。そして、MPEGデータ作成部18aは、記憶部19に記憶されたXMLデータ19aを取得し(ステップS203)、画像データをもとにMPEGデータを作成する(ステップS204)。
そして、MPEGデータ作成部18aは、MPEGデータにXMLデータとUDPヘッダとRTPヘッダとを付与したストリームデータを作成し(ステップS205)、作成したストリームデータをデータ送信部18dに渡し(ステップS206)、データ送信部18dが、通信部20を介してストリームデータをマルチキャストする(ステップS207)。
このように、エンコーダ10では、予め、位置情報処理部18cが、エンコーダに係る位置情報を取得し、MPEGデータ作成部18aが、カメラ9から送信される画像データからMPEGデータを作成し、作成したMPEGデータにエンコーダの位置情報を付与したストリームデータを作成し、データ送信部18dが通信部20を介してストリームデータをマルチキャストする。
次に、災害通知サーバ30が災害を検知し、検知した災害位置を動画サーバ1に送信する処理手順について説明する。第6図は、災害通知サーバ30が災害を検知し、検知した災害位置を動画サーバに送信する処理手順を示すフローチャートである。なお、第6図に示したフローチャートは、災害通知サーバ30が災害を検知するたびに繰り返し実行される。
同図に示すように、ある場所で災害が起こった際に災害通知サーバ30が災害を検知し(ステップS301)、災害が発生した場所を特定する(ステップS302)。
そして、災害通知サーバ30は、特定した災害発生場所を動画サーバ1の管理サーバ部7に送信し(ステップS303)、管理サーバ部7が、災害発生場所を受信し(ステップS)、受信した災害発生場所を災害位置データ9cとして記憶部9に記憶させる(ステップS305)。
次に、動画サーバ2または3に障害が発生した際に、動画サーバ1が、障害の発生した動画サーバの担当していたエンコーダの優先順位を決定し、代わりに担当するエンコーダを選択する処理手順について説明する。第7図は、動画サーバ2または3に障害が発生した際に、動画サーバ1が障害の発生した動画サーバの担当していたエンコーダの優先順位を決定し、代わりに担当するエンコーダを選択する処理手順を示すフローチャートである。
同図に示すように、障害感知部6aが障害を感知し、障害の発生した動画サーバを特定し(ステップS401)、引継ぎ要求部6bが、障害の検知されたサーバと管理情報9bとをもとにして障害の発生した動画サーバの担当する複数のエンコーダを特定する(ステップS402)。
そして、引継ぎ要求部6bは、特定した複数のエンコーダからストリームデータを受信するために引継ぎ要求をルータ21に送信し(ステップS403)、エンコーダ選択部6cがルータ21から複数のストリームデータを受信する(ステップS404)。
そして、エンコーダ選択部6cは、ストリームデータに含まれるXMLデータの位置情報と災害位置データ15cとをもとにして、災害場所に近いエンコーダから順に優先順位を決定する(ステップS405)。なお、災害の発生場所との距離が等しいエンコーダが複数存在する場合には、エンコーダに対して災害の発生している方向と、エンコーダ情報に含まれるカメラの方向がより近いエンコーダを優先する。
そして、エンコーダ選択部6cは、優先順位の高い順にエンコーダを一つ選択し(ステップS406)、蓄積余力があるか否かを確認する(ステップS408)。
ここで、蓄積余力とは、記憶部9が、ストリームデータ9aとして、エンコードから送信されるストリームデータを記憶することができる残りの量である。
記憶部9に蓄積余力がない場合には(ステップS408,No)、エンコーダ選択部6cが担当できないエンコーダに停止要求を送信する(ステップS407)。
一方、記憶部9に蓄積余力がある場合には(ステップS408,Yes)、選択したエンコーダに対応するクライアント端末にストリームデータをストリーミング配信する(ステップS409)。
そして、全てのエンコーダを選択したかどうかを確認する(ステップS410)。全てのエンコーダを選択していない場合には(ステップS410,No)、ステップS406に移行する。一方、全てのエンコーダを選択した場合には(ステップS410,Yes)、処理を終了する。
上述してきたように、本実施の形態1にかかるストリーミング配信システムでは、MPEGデータ作成部18aが、カメラから受信した画像データをMPEGデータに変換し、変換したMPEGデータに位置情報を添付したストリームデータを作成し、データ送信部18dがストリームデータをマルチキャストする。
そして、動画サーバ2または3に障害が発生した場合に、動画サーバ1では、障害感知部6aが障害を感知し、引継ぎ要求部6bが、ルータ21に引継ぎ要求を送信し、エンコーダ選択部6cが、障害の発生した動画サーバが担当していたエンコーダから送信されるストリームデータを受信する。
そして、エンコーダ選択部6cが、受信したストリームデータに含まれる位置情報と、災害位置データ15cとをもとにして、災害位置に近いエンコーダが優先されるように、担当するエンコーダを選択している。
そのため、障害の発生した動画サーバの代わりに担当するエンコーダの優先順位を時々刻々と変化する災害等の位置にあわせて動的に変更することができる。
なお、本実施の形態1では、動画サーバ1が動画サーバ2または3を管理し、動画サーバ2または3に障害が発生した際には、動画サーバ1が障害の発生した動画サーバの担当していたエンコーダを代わりに担当したが、動画サーバ2または3が動画サーバ1同様に各動画サーバを管理し、障害の発生した動画サーバの担当していたエンコーダを代わりに担当する構成としてもよい。
また、実施の形態1のエンコーダは固定されていたが、これに限定されるものではなく、カメラつき携帯電話等の移動端末を使って画像データを受信し、所定の動画サーバに画像データを送信する構成としてもよい。
次に、本実施の形態2にかかるストリーミング配信システムのシステム構成について説明する。第8図は、本実施の形態2にかかる動画配信システムのシステム構成を示す機能ブロック図である。
同図に示すように、この動画配信システムは、エンコーダ50〜52がそれぞれに対応するカメラ13〜15から画像データを受信し、受信した画像データを指定した動画サーバ70〜72のいずれかに送信する。そして、画像データを受信した動画サーバは、所定のクライアント端末に受信した画像データをストリーミング配信する。
なお、エンコーダ50〜51は、所定の動画サーバに画像データを送信する際、MDO6(Multiple Destination Option on IPv6)に基づいて、送信する動画サーバを指定して送信する。
このMDO6は、第9図に示すように明示的に行きたいアドレスをIPv6の拡張ヘッダとして格納する。同図に示すように、拡張ヘッダには、IPV6(Internet Protocol version 6)ヘッダ110と、Hop−by−Hopヘッダ111と、Routingヘッダ112と、Destinationヘッダ113と、UDP(User Datagram Protocol)ヘッダ114からなり、MDO6では特にDestinationヘッダ113に送信先となる複数の動画サーバに対するアドレスを指定する。
そして、エンコーダ50〜51は、画像データを送信する際に、画像データをMPEGデータに変換し、変換したMPEGデータにIPV6の基本ヘッダと、MDO6に基づいた拡張ヘッダとを添付し、ルータ80に送信する。
そして、ルータ80は、受信したデータを拡張ヘッダで指定された所定の動画サーバに送信する。
ところで、動画サーバ70〜72のいずれかに障害が発生した場合には、管理サーバ60が、障害の発生した動画サーバの代わりとなる正常な動画サーバを選択する。
具体的には、管理サーバ60は、動画サーバ70に障害が発生した場合には、動画サーバ71を選択し、動画サーバ71に障害が発生した場合には、動画サーバ72を選択し、動画サーバ72に障害が発生した場合には、動画サーバ70を選択する。
そして、管理サーバ60は、障害の発生した動画サーバに画像データを送信している複数のエンコーダの優先順位を決定し、優先順位の高いエンコーダから順に代わりに担当する動画サーバの宛先情報を送信する。
なお、正常な動画サーバの画像データに対する蓄積可能な容量を超過し、エンコーダを担当しきれない動画サーバに対しては、管理サーバ60が、担当できないエンコーダに停止要求を送信する。
ところで、エンコーダの優先順位の決定するには、後述するように、管理サーバ60が、災害通知サーバ30から送信される災害発生場所の情報と、エンコーダ50〜52から送信されるエンコーダの位置情報とに基づいて決定する。
次に、エンコーダ50〜52の構成について説明する。なお、これらのエンコーダ50〜52はいずれも同様の構成を有するので、ここではエンコーダ50を例にとって説明する。
このエンコーダ50は、カメラ13から画像データを受信し、受信した画像データをもとにMPEGデータを作成する。
また、エンコーダ50は、指定した複数の動画サーバに、作成したMPEGデータを送信するために、MDO6に基づき、複数の動画サーバの宛先を指定した拡張ヘッダと、IPv6の基本ヘッダをMPEGデータに添付させ、ストリームデータとしてルータ80に送信する。そして、送信されたデータは、ルータ80から指定された各動画サーバに送信される。
また、エンコーダ50は、エンコーダ50の位置情報等を特定し、特定した情報をもとにXMLデータを作成し、作成したXMLデータを管理サーバ60に送信する。
エンコーダ50は、制御部51と、記憶部52とを有する。なお、その他の構成および動作は、実施の形態1に示したエンコーダ6と同様であるので同一の構成要素には同一の符号を付して説明を省略する。
制御部51は、MPEGデータ作成部51aと、XMLデータ作成部51bと、位置情報処理部51cと、データ送受信部51dとを有する。
MPEGデータ作成部51aは、入力部16から画像データを受け取り、受け取った画像データからMPEGデータを作成する。また、MPEGデータ作成部51aは、送信先情報52bとMDO6とに基づいて複数の宛先を指定した拡張ヘッダを作成する。なお、送信先情報52bは、エンコーダ50が送信する複数の動画サーバの宛先を示す。
そして、MPEGデータ作成部51aは、MPEGデータにIPv6の基本ヘッダと拡張ヘッダとを添付し、ストリームデータとしてデータ送受信部51dに渡す。
XMLデータ作成部51bは、位置情報処理部51cから受け取るエンコーダの位置情報をもとにしてXMLデータを作成し、作成したXMLデータをXMLデータ52aとして記憶部52に記憶させる。
位置情報処理部51cは、位置情報送受信部17を用いて、基地局と通信し、エンコーダ50の現在位置に対する緯度および経度を特定する。また、位置情報処理部51cは、カメラ13の方向を示すカメラ情報をカメラ13から受信する。そして、位置情報処理部51cは、特定した現在位置に対する緯度、経度およびカメラ13の方向に係る情報をエンコーダ情報としてXMLデータ作成部51bに渡す。
データ送受信部51dは、MPEGデータ作成部51aから受け取ったストリームデータを通信部20を介して指定した動画サーバに送信する。また、データ送受信部51dは、定期的にXMLデータ52aを管理サーバ60に送信する。
さらに、データ送受信部51dは、画像データを送信する動画サーバに障害が発生した際には、管理サーバ60から障害の発生した動画サーバの代わりとなる正常な動画サーバの宛先情報を受信し、受信した宛先情報に基づいて送信先情報52bを修正する。
なお、データ送受信部51dは、画像データを送信する動画サーバに障害が発生した際に、管理サーバ60から停止要求を受信したならば、エンコーダ50を停止させる。
次に、管理サーバ60の構成について説明する。管理サーバ60は、動画サーバ70〜72に障害が発生した際に、障害の発生した動画サーバの担当していたエンコーダを代わりに担当する正常な動画サーバを選択する。そして、管理サーバ60は、障害の発生した動画サーバにストリームデータを送信しているエンコーダに対して新たに選択した動画サーバの宛先情報を送信する。
また、管理サーバ60は、定期的に各エンコーダ50〜52からXMLデータを受信し、受信したXMLデータを各エンコーダと対応付けて記憶する。このXMLデータには、各エンコーダ50〜52に対するエンコーダの位置情報を含んでいる。
管理サーバ60は、通信部61と、制御部62と、記憶部63とを有する。通信部61は、エンコーダ50〜52と、災害情報通知サーバ30と、動画サーバ70〜72との間でデータ通信を行うためのネットワークインターフェースである。
制御部62は、障害感知部62aと、エンコーダ選択部62bと、データ送受信部62cとを有する。
障害感知部62aは、動画サーバ70〜72のいずれかで発生する障害を感知する。
エンコーダ選択部62bは、動画サーバ70〜72のいずれかに障害が発生した際に、まず、管理情報63cをもとにして、障害の発生した動画サーバにストリームデータを送信しているエンコーダを特定する。
そして、エンコーダ選択部62bは、特定したエンコーダの位置情報と災害情報通知サーバ30から受信した災害位置データ63aとをもとに災害発生場所に近いエンコーダが優先されるように優先順位を特定する。
なお、災害発生場所との距離が等しいエンコーダが複数存在する場合には、エンコーダの位置から災害が発生している方向と、エンコーダ情報に含まれるカメラの方向とがより近いエンコーダを優先する。
そして、エンコーダ選択部62bは、決定したエンコーダの優先順位と担当する動画サーバの蓄積可能容量63dとをもとにエンコーダを選択する。ここで、蓄積可能容量63dとは、障害の発生した動画サーバの代わりをする動画サーバが蓄積可能なストリームデータに対する残りの容量を示す。
従って、エンコーダ選択部62bは、エンコーダを一つ選択するたびに代わりに担当するサーバの蓄積可能容量を超過しているか否かを判断し、蓄積可能容量を超過していない場合には、選択したエンコーダに対して代わりに担当する動画サーバの宛先情報63eを送信する。
一方、エンコーダを選択した際に、担当する動画サーバの蓄積可能容量を超過している場合には、選択していない残りのエンコーダに停止要求を送信することとなる。
データ送受信部62cは、災害情報通知サーバ30から送信される災害発生場所を示す災害位置データと、エンコーダ50〜52から送信されるXMLデータと、動画サーバ70〜72から送信される動画サーバ70〜72が現に担当しているエンコーダを特定する情報と、各動画サーバ70〜72に対する画像データを蓄積可能な容量の情報と、動画サーバ70〜72の宛先情報とをそれぞれ受信する。
そして、データ送受信部62cは、受信した災害位置データ、XMLデータ、エンコーダを特定する情報、蓄積可能な容量の情報および宛先情報を記憶部63に災害位置データ63a、XML情報63b、管理情報63c、蓄積可能容量63dおよび宛先情報63eとして記憶する。
次にエンコーダ50が、指定した動画サーバにストリームデータを送信する処理手順について説明する。第10図はエンコーダが、ストリームデータを指定した動画サーバに送信する処理手順を示すフローチャートである。
同図に示すように、入力受付部16がカメラ13から画像データを受信し(ステップS501)、受信した画像データをMPEGデータ作成部51bに渡す(ステップS502)。
そして、MPEGデータ作成部51aが、取得した画像データからMPEGデータを作成し(ステップS503)、送信先情報52をもとにして送信する複数の動画サーバの宛先を特定し(ステップS504)、特定した動画サーバの宛先から所定の動画サーバのアドレスを指定した拡張ヘッダを作成する(ステップS505)。
そして、MPEGデータ作成部51aは、作成したMPEGデータにIPv6の基本ヘッダと拡張ヘッダとを添付したストリームデータを作成し(ステップS506)、作成したストリームデータをデータ送受信部51dに渡し(ステップS507)、データ送受信部51dは、通信部20を介して指定した複数の動画サーバにストリームデータを送信する(ステップS508)。
このようにエンコーダ50では、MPEGデータ作成部51aが、カメラ13から送信される画像データからMPEGデータを作成し、送信先情報52bをもとに複数の宛先を含んだ拡張ヘッダを作成し、MPEGデータにIPv6の基本ヘッダと拡張ヘッダとを添付したストリームデータを、指定した動画サーバに送信する。
次に、エンコーダ50が、位置情報を含んだXMLデータを管理サーバ60に送信する処理手順について説明する。第11図は、エンコーダが、位置情報を含んだXMLデータを管理サーバ60に送信する処理手順を示すフローチャートである。
同図に示すように、データ送受信部51dが、記憶部52からXMLデータ52aを取得し(ステップS601)、取得したXMLデータを通信部20を介してデータ送受信部62cに送信する(ステップS602)。
そして、データ送受信部62cは、通信部61を介してXMLデータを受信し(ステップS603)、受信したXMLデータをもとにXML情報63bを修正する(ステップS604)。
次に、動画サーバ70が、現在担当しているエンコーダと、画像データの蓄積可能な容量と、動画サーバ70の宛先情報を管理サーバ60に送信する処理手順について説明する。第12図は、動画サーバが、現在担当しているエンコーダと、画像データの蓄積可能な容量と、動画サーバの宛先情報を管理サーバに送信する処理手順を示すフローチャートである。
同図に示すように、動画サーバ70が現在担当しているエンコーダと、ストリームデータを蓄積可能な容量と、動画サーバ70の宛先情報とを動画サーバ情報として特定し(ステップS701)、特定した動画サーバ情報をデータ送受信部62cに送信する(ステップS702)。
そして、データ送受信部62cは通信部61を介して動画サーバ情報を受信し(ステップS703)、受信した動画サーバ情報をもとにしてそれぞれを管理情報63c、蓄積可能容量63dおよび宛先情報63eとして記憶部63に記憶させる(ステップS704)。ここで、管理情報63cは、動画サーバが現に担当しているエンコーダを示し、蓄積可能容量63dは、動画サーバがストリームデータを蓄積可能な容量を示し、宛先情報eは動画サーバの宛先を示す。
ところで、動画サーバ71と72も同様に管理サーバ60に動画サーバ情報を送信する。従って、管理情報63cは、動画サーバ70〜72それぞれが担当しているエンコーダの情報を含み、蓄積可能容量63dは、動画サーバ70〜72それぞれのストリームデータに対する蓄積可能な容量の情報を含み、宛先情報63eは、動画サーバ70〜72の宛先情報を含むこととなる。
次に、管理サーバ60が、動画サーバの障害を検知し、エンコーダが正常な動画サーバにストリームデータを送信できるよう指示する処理手順について説明する。第13図は、管理サーバが、動画サーバの障害を検知し、エンコーダが正常な動画サーバにストリームデータを送信できるように指示する処理手順を示すフローチャートである。
同図に示すように、障害感知部62aが障害を感知し、障害の発生した動画サーバを特定する(ステップS801)。そして、エンコーダ選択部62bが、管理情報63cをもとに障害の発生した動画サーバにストリームデータを送信している複数のエンコーダを特定し(ステップS802)、XML情報63に含まれる複数のエンコーダに対する位置情報と災害位置データ63aとに基づいて災害発生場所に近いエンコーダが優先されるように、優先順位を決定する(ステップS803)。
なお、ステップS803で災害発生位置との距離が等しいエンコーダが複数存在する場合には、災害発生場所の方向とカメラの方向とがより近いエンコーダが優先される。
そして、エンコーダ選択部62aは、エンコーダを順に一つ選択し(ステップS804)、障害の発生した動画サーバの代わりとなる動画サーバにストリームデータを蓄積する余力があるか否かを蓄積可能容量63dをもとにして判断する(ステップS805)。
ストリームデータを蓄積する余力がない場合には(ステップS805,No)、エンコーダ選択部62aは、正常な動画サーバに割振ることができないエンコーダに停止要求を送信する(ステップS806)。
一方、ストリームデータを蓄積する余力がある場合には(ステップS805,Yes)、エンコーダ選択部62aは、新たな送信先となる動画サーバの宛先を宛先情報63eから取得し、取得した宛先を選択したエンコーダに送信し(ステップS807)、全てのエンコーダを選択したか否かを確認する(ステップS808)。
全てのエンコーダを選択していない場合には(ステップS808,No)、ステップS804に移行する。一方、全てのエンコーダを選択している場合には(ステップS808,Yes)、処理を終了する。
上述してきたように、本実施の形態2にかかるストリーミング配信システムでは、動画サーバ70〜71に障害が発生した際に、エンコーダ選択部62bが、障害の発生している動画サーバにストリームデータを送信しているエンコーダの優先順位を災害位置データ63とXML情報63bとに基づいて決定し、優先順位の高いエンコーダから順に正常な動画サーバの宛先情報を送信し、宛先情報を受信したエンコーダは、送信先となる動画サーバの宛先を変更する。
そのため、動画サーバに障害が発生した際に、障害の発生した動画サーバにストリームデータを送信するエンコーダの優先順位を、時々刻々と変化する災害等の状況に応じて動的に変化させることができ、最適なストリームデータをクライアント端末に送信することができる。
なお、本実施の形態2では、管理サーバ60が、動画サーバ70に障害が発生した際に、動画サーバ71を代行させ、動画サーバ71に障害が発生した際に、動画サーバ72を代行させ、動画サーバ72に障害が発生した際に動画サーバ70を代行させたが、例えば、動画サーバ70に障害が発生した際に、動画サーバ71および72を代行させ、動画サーバ71に障害が発生した際に、動画サーバ72および70を代行させ、動画サーバ72に障害が発生した際に、動画サーバ70および71を代行する構成としてもよい。
また、本実施の形態1および2では、エンコーダの位置情報およびエンコーダが利用するカメラの方向に係る情報をXMLを用いて記述したが、他の言語を利用してエンコーダの位置情報およびエンコーダが利用するカメラの方向に係る情報を記述し、MPEGデータに添付してもよい。
なお、本実施の形態1および2では動画配信システムについて説明したが、この動画配信システムに係る動画サーバが有する構成をソフトウェアによって実現することで、同様の機能を有する動画配信プログラムを得ることができる。そこで、この動画配信プログラムを実行するコンピュータシステムについて説明する。
第14図は、本実施の形態に係る動画配信プログラムを実行するコンピュータシステムを示す図である。同図に示すように、このコンピュータシステム200は、本体部201と、本体部201からの指示により表示画面202aに情報を表示するディスプレイ202と、このコンピュータシステム200に種々の情報を入力するためのキーボード203と、ディスプレイ202の表示画面202a上の任意の位置を指定するマウス204と、LAN206または広域エリアネットワーク(WAN)に接続するLANインタフェースと、公衆回線207に接続するモデム205とを有する。ここで、LAN206は、他のコンピュータシステム(PC)211、サーバ212、プリンタ213などとコンピュータシステム200とを接続している。
また、第15図は、第14図に示した本体部201の構成を示す機能ブロック図である。同図に示すように、この本体部201は、CPU221と、RAM222と、ROM223と、ハードディスクドライブ(HDD)224と、CD−ROMドライブ225と、FDドライブ226と、I/Oインタフェース227と、LANインタフェース228とを有する。
そして、このコンピュータシステム200において実行される動画配信プログラムは、フロッピィディスク(FD)208、CD−ROM209、DVDディスク、光磁気ディスク、ICカードなどの可搬型記憶媒体に記憶され、これらの記憶媒体から読み出されてコンピュータシステム200にインストールされる。
そして、インストールされた動画配信プログラムは、HDD224に記憶され、RAM222、ROM223などを利用してCPU221により実行される。
以上説明したように、本発明によれば、エンコーダが、自エンコーダの位置する位置情報を特定し、特定した位置情報を符号化した動画データに付与し、動画配信装置に送信する。そして、動画配信装置は、他動画配信装置に障害が発生した際に、他動画配信装置に動画データを送信している複数のエンコーダの動画データを取得し、取得した複数の動画データに含まれるエンコーダの位置情報と、災害発生位置とに基づいて、災害発生位置に近いエンコーダを優先して選択し、選択したエンコーダを障害の発生した他動画配信装置の代わりに担当することとしたので、エンコーダの周辺状況によってエンコーダの優先順位を動的に変化させることができ、クライアント端末に重要な動画データを安定して配信することができるという効果を奏する。
以上のように、本発明にかかる映像配信装置および映像配信プログラムは、重要な動画データを安定してクライアント端末に送信するシステムに有用である。
第1図は、本実施の形態1にかかる動画配信システムのシステム構成を示す機能ブロック図である。 第2図は、実施の形態1に係るストリームデータのデータ構造を示す図である。 第3図は、XMLデータ作成部がXMLでエンコーダの位置情報およびカメラの方向の情報を記述したXMLデータの一例である。 第4図は、エンコーダが位置情報とカメラ方向に係る情報を取得し、取得した情報をもとにXMLデータを作成する処理手順を示すフローチャートである。 第5図は、エンコーダがストリームデータを作成し、作成したストリームデータをマルチキャストする処理手順を示すフローチャートである。 第6図は、災害通知サーバが災害を検知し、検知した災害位置を動画サーバに送信する処理手順を示すフローチャートである。 第7図は、動画サーバ2または3に障害が発生した際に、動画サーバ1が障害の発生した動画サーバの担当していたエンコーダの優先順位を決定し、代わりに担当するエンコーダを選択する処理手順を示すフローチャートである。 第8図は、本実施の形態2にかかる動画配信システムのシステム構成を示す機能ブロック図である。 第9図は、MDO6にかかる拡張ヘッダを示す図である。 第10図は、エンコーダが、ストリームデータを指定した動画サーバに送信する処理手順を示すフローチャートである。 第11図は、エンコーダが、位置情報を含んだXMLデータを管理サーバに送信する処理手順を示すフローチャートである。 第12図は、動画サーバが、現在担当しているエンコーダと、画像データの蓄積可能な容量と、動画サーバの宛先情報を管理サーバに送信する処理手順を示すフローチャートである。 第13図は、管理サーバが、動画サーバの障害を検知し、エンコーダが正常な動画サーバにストリームデータを送信できるように指示する処理手順を示すフローチャートである。 第14図は、本実施の形態1および2に係る動画配信プログラムを実行するコンピュータシステムを示す図である。 第15図は、第14図に示した本体部の構成を示す機能ブロック図である。
1,2,3 動画サーバ
4,20,61 通信部
5,18,51,62 制御部
6 縮退処理部
6a,62a 障害感知部
6b 引継ぎ要求部
6c,62b エンコーダ選択部
7 管理サーバ部
8,62c データ送受信部
9,19,52,63 記憶部
9a ストリームデータ
9b,63c 管理情報
9c,63a 災害位置データ
10,11,12 エンコーダ
13,14,15 カメラ
16 入力受付部
17 位置情報送受信部
18a,51a MPEGデータ作成部
18b,51b XMLデータ作成部
18c,51c 位置情報処理部
18d,51d データ送信部
19a,52a XMLデータ
21 ルータ
30 災害情報通知サーバ
63b XML情報
63d 蓄積可能容量
63e 宛先情報
100 UDPヘッダ
101 RTPヘッダ
102 XMLデータ
103 MPEGデータ
110 IPV6ヘッダ
111 Hop-by-Hopヘッダ
112 Routingヘッダ
113 Destinationヘッダ
114 UDPヘッダ
200 コンピュータシステム
201 本体部
202 ディスプレイ
202a 表示画面
203 キーボード
204 マウス
205 モデム
206 LAN
207 公衆回線
208 フロッピィディスク
209 CD−ROM
211 PC
212 サーバ
213 プリンタ

Claims (4)

  1. 撮像装置に1対1接続された複数のエンコーダにネットワーク接続された映像配信装置であって、
    災害の位置情報を外部装置からネットワークを介して受信する災害位置受信手段と、
    管理すべき他の映像配信装置を記憶する記憶手段と、
    前記記憶手段に記憶された映像配信装置の障害を感知する障害感知手段と、
    前記他の映像配信装置に対応付けて、該映像配信装置に対応付けられた複数のエンコーダと、動画データを表示する表示端末とを記憶した管理情報と、
    前記管理情報を参照し、前記障害が発生した他の映像配信装置に対応付けられた複数のエンコーダと表示装置とを特定する特定手段と、
    前記特定した各エンコーダに対して、該エンコーダに接続された撮像装置の映像データを要求する引継ぎ要求情報をネットワークを介して送信する引継ぎ要求送信手段と、
    前記引継ぎ要求情報を送信した前記各エンコーダから、該エンコーダの位置情報をネットワークを介して受信するエンコーダ位置受信手段と、
    前記受信した各エンコーダの位置情報と前記受信した災害の位置情報とに基づき、該災害位置に最も近いエンコーダを選択するエンコーダ選択手段と、
    前記エンコーダ選択手段が選択したエンコーダから動画データを受信し、前記特定手段に従って障害が発生した他の映像配信装置に対応付けられた表示端末に該動画データを配信する動画配信手段と、
    を備えたことを特徴とする映像配信装置。
  2. 前記エンコーダ位置受信手段は、前記エンコーダに接続された撮像装置の撮像方向に係る情報をさらに受信し、
    前記エンコーダ選択手段は、前記災害位置に最も近いエンコーダが複数存在する場合に、前記受信した各エンコーダの位置情報と前記受信した災害の位置情報とに基づき、エンコーダ位置に対する災害位置の方向に、前記撮像方向がより近い撮像装置に接続されたエンコーダを選択することを特徴とする請求項1記載の映像配信装置。
  3. 他の映像配信装置に対応付けて、該映像配信装置に対応付けられた複数のエンコーダと、動画データを表示する表示端末とを記憶した管理情報と、管理すべき他の映像配信装置とを記憶装置に格納するコンピュータに、
    災害の位置情報を外部装置からネットワークを介して受信する災害位置受信手順と、
    前記記憶装置に記憶された映像配信装置の障害を感知する障害感知手順と、
    前記管理情報を参照し、前記障害が発生した他の映像配信装置に対応付けられた複数のエンコーダと表示装置とを特定する特定手順と、
    前記特定した各エンコーダに対して、該エンコーダに接続された撮像装置の映像データを要求する引継ぎ要求情報をネットワークを介して送信する引継ぎ要求送信手順と、
    前記引継ぎ要求情報を送信した前記各エンコーダから、該エンコーダの位置情報をネットワークを介して受信するエンコーダ位置受信手順と、
    前記受信した各エンコーダの位置情報と前記受信した災害の位置情報とに基づき、該災害位置に最も近いエンコーダを選択するエンコーダ選択手順と、
    前記エンコーダ選択手順で選択したエンコーダから動画データを受信し、前記特定手順の特定結果に従って障害が発生した他の映像配信装置に対応付けられた表示端末に該動画データを配信する動画配信手順と、
    を実行させることを特徴とする映像配信プログラム。
  4. 前記エンコーダ位置受信手順は、前記エンコーダに接続された撮像装置の撮像方向に係る情報をさらに受信し、
    前記エンコーダ選択手順は、前記災害位置に最も近いエンコーダが複数存在する場合に、前記受信した各エンコーダの位置情報と前記受信した災害の位置情報とに基づき、エンコーダ位置に対する災害位置の方向に、前記撮像方向がより近い撮像装置に接続されたエンコーダを選択することを特徴とする請求項3記載の映像配信プログラム。
JP2005510139A 2003-10-31 2003-10-31 映像配信装置および映像配信プログラム Expired - Fee Related JP4397894B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2003/013992 WO2005043913A1 (ja) 2003-10-31 2003-10-31 動画配信装置、動画配信システムおよび動画配信プログラム

Publications (2)

Publication Number Publication Date
JPWO2005043913A1 JPWO2005043913A1 (ja) 2007-05-10
JP4397894B2 true JP4397894B2 (ja) 2010-01-13

Family

ID=34532056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005510139A Expired - Fee Related JP4397894B2 (ja) 2003-10-31 2003-10-31 映像配信装置および映像配信プログラム

Country Status (4)

Country Link
US (1) US8077771B2 (ja)
JP (1) JP4397894B2 (ja)
GB (1) GB2423209B (ja)
WO (1) WO2005043913A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8191006B2 (en) * 2007-09-19 2012-05-29 Canon Kabushiki Kaisha Information processing apparatus, control method of information processing apparatus, computer program and storage medium
JP6862977B2 (ja) * 2017-03-22 2021-04-21 富士通株式会社 通信制御プログラム、通信制御方法、および通信制御装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3003440B2 (ja) 1993-01-19 2000-01-31 株式会社日立製作所 負荷分散制御方法および分散処理システム
JPH09326873A (ja) * 1996-06-04 1997-12-16 Toshiba Corp 情報伝送システム
JP2003204297A (ja) 2001-08-07 2003-07-18 Asia Air Survey Co Ltd 現場状況伝送端末及び現場状況伝送システム
JP2003134045A (ja) 2001-10-24 2003-05-09 Nec Corp 同報ストリーミング配信システム及び同報ストリーミング配信方法
JP2003274390A (ja) * 2002-03-18 2003-09-26 Olympus Optical Co Ltd 映像配信サーバおよび映像受信クライアントシステム
JP4188615B2 (ja) 2002-03-18 2008-11-26 株式会社日立国際電気 映像配信サーバおよび映像配信システム
CA2390621C (en) * 2002-06-13 2012-12-11 Silent Witness Enterprises Ltd. Internet video surveillance camera system and method

Also Published As

Publication number Publication date
US20060193381A1 (en) 2006-08-31
WO2005043913A1 (ja) 2005-05-12
JPWO2005043913A1 (ja) 2007-05-10
GB2423209A (en) 2006-08-16
GB0607388D0 (en) 2006-05-24
US8077771B2 (en) 2011-12-13
GB2423209B (en) 2008-04-23

Similar Documents

Publication Publication Date Title
US9853834B2 (en) Method for communication in a tactical network
CA2390621C (en) Internet video surveillance camera system and method
US8478869B2 (en) Information processing device and program
JP2013258700A (ja) オーディオビデオブリッジネットワークにおける動的ストリーム管理のためのシステム
US10097795B2 (en) Network video recorder cluster and method of operation
JP2012150806A (ja) デスクトップ共有システム及びその方法
JP2006119941A (ja) 動画像蓄積方法
US9032111B2 (en) Method and apparatus for transmitting event information between devices connected with network, and storage medium storing method
KR20130052373A (ko) 서버와 디바이스를 중개하는 방법 및 장치, 컴퓨터로 읽을 수 있는 기록 매체
JP4397894B2 (ja) 映像配信装置および映像配信プログラム
US8456671B2 (en) Communication system, information storage device, management device, and terminal device
JP6699231B2 (ja) 情報配信装置、情報配信プログラム、通信端末、通信処理プログラム及び情報配信システム
JP2006311294A (ja) 自動設定装置及びネットワーク対応装置のパラメータ設定方法
KR100758572B1 (ko) 동화상 배신 장치, 동화상 배신 시스템 및 동화상 배신 프로그램을 기록한 컴퓨터로 판독가능한 기록 매체
JP5205783B2 (ja) コンテンツ配信システム
CN111131761B (zh) 分布式拼接显示系统和数据传输方法
JP2011160023A (ja) データ配信方法
JP6862977B2 (ja) 通信制御プログラム、通信制御方法、および通信制御装置
JP6026491B2 (ja) 伝送システム、送信部、および、受信部
KR102050416B1 (ko) 네트워크 카메라 장치 및 이의 영상 스트리밍 제공 방법
KR102654719B1 (ko) 감시 시스템에서의 영상 전송 방법
JP4552232B2 (ja) 配信システム、配信制御装置および配信制御方法
JP2002268962A (ja) 監視システム
JP6011400B2 (ja) 情報処理装置、マルチキャスト配信システムおよびプログラム
JP2008172542A (ja) 映像伝送システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090421

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090721

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091020

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091021

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131030

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees