JP2007104540A - 撮影画像配信装置、撮影画像配信プログラム及び撮影画像配信方法 - Google Patents
撮影画像配信装置、撮影画像配信プログラム及び撮影画像配信方法 Download PDFInfo
- Publication number
- JP2007104540A JP2007104540A JP2005294656A JP2005294656A JP2007104540A JP 2007104540 A JP2007104540 A JP 2007104540A JP 2005294656 A JP2005294656 A JP 2005294656A JP 2005294656 A JP2005294656 A JP 2005294656A JP 2007104540 A JP2007104540 A JP 2007104540A
- Authority
- JP
- Japan
- Prior art keywords
- distribution
- image data
- moving image
- frame
- synchronization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Circuits (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】複数のカメラで撮影された複数の動画像のそれぞれに対して、任意のタイミングで同期を与えて、ユーザが試聴する端末で表示させることができる撮影画像配信装置、撮影画像配信プログラム及び撮影画像配信方法を提供する。
【解決手段】撮影画像配信装置は、複数台の撮影装置で撮影した動画像データを受信する動画像データ受信手段と、動画像データ受信手段により受信した複数の動画像データのそれぞれについて、それらの動画像データを構成する撮影フレームを指定する入力手段と、入力手段により指定された複数の動画像データの撮影フレームに対して、同期を付与する同期付与手段と、同期付与手段が同期を付与した複数の撮影フレームを合成して、1つの配信フレームを生成する配信画像生成手段と、配信画像生成手段により生成した配信フレームを、画像表示端末へ送信する送信処理手段とを有する。
【選択図】図1
【解決手段】撮影画像配信装置は、複数台の撮影装置で撮影した動画像データを受信する動画像データ受信手段と、動画像データ受信手段により受信した複数の動画像データのそれぞれについて、それらの動画像データを構成する撮影フレームを指定する入力手段と、入力手段により指定された複数の動画像データの撮影フレームに対して、同期を付与する同期付与手段と、同期付与手段が同期を付与した複数の撮影フレームを合成して、1つの配信フレームを生成する配信画像生成手段と、配信画像生成手段により生成した配信フレームを、画像表示端末へ送信する送信処理手段とを有する。
【選択図】図1
Description
本発明は、複数のカメラにより撮影した被写体の撮影画像のデータを配信先の端末へストリーミング配信する撮影画像配信装置、撮影画像配信プログラム及び撮影画像配信方法に関する。
従来、カメラにより撮影した動画像をTCP/IP(Transmission Control Protocol / Internet Protocol)を利用してインターネットを介して端末へ配信するサービス(ストリーミング配信サービス)が行われている。この配信の処理においては、TCP/IPのRTP(Real-time Transport Protocol)やRTSP(Real Time Streaming Protocol)などのプロトコルや、同軸ケーブルや光ファイバケーブルによるケーブルテレビのデジタル配信技術などが利用され、例えば、映画やスポーツ中継などの動画像配信のサービスが行われている。なお、スポーツ中継など動画像配信のサービスを行う為の技術として、特許文献1が公開されている。
また、複数のカメラにより撮影した動画像に対して、同期を与える方法として、特許文献2に記載されている技術が知られている。この技術では、GPS(Global Positioning System)を利用して各カメラに対して信号を送信し、その信号の受信時刻に基づいて、全てのカメラが撮影する動画像に同期を与えている。
特開昭63−144664号公報
特開2002−32978号公報
上述の特許文献1においては、複数台のカメラにより撮影された同一対象の動画像を合成して端末に配信する技術が記載されている。しかしながら、特許文献1の技術は動画像のデジタル信号やアナログ信号を合成し、デジタル配信技術を用いて同軸ケーブルや光ファイバケーブル上に配信する仕組みであって、近年コンテンツ配信などで利用されているインターネット通信における技術ではない。
ここで、インターネットを利用したコンテンツ配信においても、複数台のカメラにより撮影された映像を配信する技術が存在し利用されているが、この技術においては、カメラそれぞれに接続されたエンコーダによって画像をエンコードし配信している。また、それぞれのカメラで撮影されたエンコード済みの画像データは、別々の通信セッションとして配信先の端末へ配信される。ここで問題となるのは、インターネット通信の技術を利用して複数台のカメラにより撮影された同一対象の映像を配信する際には、ケーブルテレビなどで利用されるデジタル配信技術とは異なり、各アングルの動画像に同期のずれが発生するということである。
つまり、各エンコード装置の処理能力が異なる場合や、各画像データの通信セッションのインターネット上の通信経路が異なる場合などには、各カメラで撮影された動画像データの配信先端末への到達時間にずれが生じ、各アングルの映像のタイミングがずれて端末のモニタに表示されることになってしまう。これにより、同時に複数のアングルからの画像を見るような場合において、画像を視聴するユーザに違和感を与える結果となってしまうという問題が発生していた。
また、上述の特許文献2においては、複数のカメラがGPSから信号を受信した時刻に基づいて、各カメラが撮影した動画像データに対して同期を与えていたため、それらの動画像を配信する事業者等は、各動画像に対して任意のタイミングで同期させて、ユーザが試聴する端末に対して配信することはできないという問題があった。
本発明は、上記事情に鑑みてなされたものであり、その目的は、複数のカメラで撮影された複数の動画像のそれぞれに対して、任意のタイミングで同期を与えて、ユーザが試聴する端末で表示させることができる撮影画像配信装置、撮影画像配信プログラム及び撮影画像配信方法を提供することにある。
本発明は、上述の課題を解決すべくなされたもので、請求項1に記載の発明は、複数台の撮影装置で撮影した動画像データを受信する動画像データ受信手段と、前記動画像データ受信手段により受信した複数の動画像データのそれぞれについて、それらの動画像データを構成する撮影フレームを指定する入力手段と、前記入力手段により指定された前記複数の動画像データの撮影フレームに対して、同期を付与する同期付与手段と、前記同期付与手段が同期を付与した複数の撮影フレームを合成して、1つの配信フレームを生成する配信画像生成手段と、前記配信画像生成手段により生成した配信フレームを、画像表示端末へ送信する送信処理手段とを有することを特徴とする撮影画像配信装置である。
また、請求項2に記載の発明は、前記動画像データ受信手段が受信した複数の動画像データを、1つの表示画面上に同時に表示する表示手段を更に有することを特徴とする請求項1に記載の撮影画像配信装置である。
また、請求項3に記載の発明は、前記送信処理手段は、前記配信フレームの各撮影フレームの位置を示すフレーム位置特定情報を、前記画像表示端末へ送信することを特徴とする請求項1又は2に記載の撮影画像配信装置である。
また、請求項4に記載の発明は、複数台の撮影装置で撮影した動画像データを受信させる第1のステップと、前記第1のステップで受信した複数の動画像データのそれぞれについて、それらの動画像データを構成する撮影フレームを指定させる第2のステップと、前記第2のステップで指定された前記複数の動画像データの撮影フレームに対して、同期を付与させる第3のステップと、前記第3のステップで同期が付与された複数の撮影フレームを合成して、1つの配信フレームを生成させる第4のステップと、前記第4のステップにより生成された配信フレームを、画像表示端末へ送信させる第5のステップとをコンピュータに実行させるための撮影画像配信プログラムである。
また、請求項5に記載の発明は、複数台の撮影装置で撮影した動画像データを受信する第1のステップと、前記第1のステップで受信した複数の動画像データのそれぞれについて、それらの動画像データを構成する撮影フレームを指定する第2のステップと、前記第2のステップで指定した前記複数の動画像データの撮影フレームに対して、同期を付与する第3のステップと、前記第3のステップで同期が付与した複数の撮影フレームを合成して、1つの配信フレームを生成する第4のステップと、前記第4のステップにより生成した配信フレームを、画像表示端末へ送信する第5のステップとを有することを特徴とする撮影画像配信方法である。
本発明では、動画像データ受信手段により、複数台の撮影装置で撮影した動画像データを受信し、入力手段により、動画像データ受信手段により受信した複数の動画像データのそれぞれについて、それらの動画像データを構成する撮影フレームを指定し、同期手段により、入力手段により指定された複数の動画像データの撮影フレームに対して、同期を付与し、配信画像生成手段により、同期付与手段が同期を付与した複数の撮影フレームを合成して、1つの配信フレームを生成し、送信処理手段により、配信画像生成手段により生成した配信フレームを、画像表示端末へ送信するようにした。
これにより、動画像データを配信する事業者等は、複数の動画像データの所定の撮影フレームを入力手段により指定し、同期付与手段により全ての撮影装置で撮影した動画像データに対して一斉に同期を与えることができる。よって、複数の動画像データを配信する事業者等の編集作業に要する労力を軽減することができる。
これにより、動画像データを配信する事業者等は、複数の動画像データの所定の撮影フレームを入力手段により指定し、同期付与手段により全ての撮影装置で撮影した動画像データに対して一斉に同期を与えることができる。よって、複数の動画像データを配信する事業者等の編集作業に要する労力を軽減することができる。
以下、本発明の一実施形態による撮影画像配信システムを図面を参照して説明する。
図1は、同実施形態による撮影画像配信システムの構成を示す図である。この撮影画像配信システムは、カメラ10a〜10d、撮像装置15、配信画像編集装置20、エンコーダ30、ストリーミングサーバ40、端末50を有する。ストリーミングサーバ40と端末50とは、インターネットなどのネットワーク45を介して接続されている。
図1は、同実施形態による撮影画像配信システムの構成を示す図である。この撮影画像配信システムは、カメラ10a〜10d、撮像装置15、配信画像編集装置20、エンコーダ30、ストリーミングサーバ40、端末50を有する。ストリーミングサーバ40と端末50とは、インターネットなどのネットワーク45を介して接続されている。
カメラ10a〜10dは、撮像装置15に接続された機器であり被写体を撮影して動画像データを生成する。また、カメラ10a〜10dは、収音マイクを備えており、周囲の音を収音して音声データを生成する。
なお、本実施形態では、撮像装置15に4台のカメラ10a〜10dが接続されている場合について説明しているが、これに限定されるものではなく、配信画像編集装置20にカメラを何台接続しても良い。
また、本実施形態では、配信画像編集装置20に撮像装置15が1台接続されている場合について説明しているが、これに限定されるものではなく、配信画像編集装置20に撮像装置15を複数台接続するようにしてもよい。
なお、本実施形態では、撮像装置15に4台のカメラ10a〜10dが接続されている場合について説明しているが、これに限定されるものではなく、配信画像編集装置20にカメラを何台接続しても良い。
また、本実施形態では、配信画像編集装置20に撮像装置15が1台接続されている場合について説明しているが、これに限定されるものではなく、配信画像編集装置20に撮像装置15を複数台接続するようにしてもよい。
配信画像編集装置20は、撮像装置15の記憶媒体に記憶されている動画像データを構成する撮影フレームを指定することにより、同期を付与するタイミングを決定する。また、配信画像編集装置20は、同期のタイミングが指定された動画像データの撮影フレームを、合成することにより配信フレームを生成する。
エンコーダ30は、配信画像編集装置20から出力される配信フレームに対して、エンコード処理することにより、配信データを生成する。ストリーミングサーバ40は、ネットワーク45を介して端末50に配信データを送信する。
端末50は、ユーザが使用するPC(Personal Computer)などの機器である。ユーザは、ストリーミングサーバ40から配信される配信データを端末50で再生することにより、カメラ10a〜10dで撮影、収音した動画像データ、音声データを試聴する。
エンコーダ30は、配信画像編集装置20から出力される配信フレームに対して、エンコード処理することにより、配信データを生成する。ストリーミングサーバ40は、ネットワーク45を介して端末50に配信データを送信する。
端末50は、ユーザが使用するPC(Personal Computer)などの機器である。ユーザは、ストリーミングサーバ40から配信される配信データを端末50で再生することにより、カメラ10a〜10dで撮影、収音した動画像データ、音声データを試聴する。
図2は、本実施形態による配信画像編集装置20(図1)の機能ブロック図である。この配信画像編集装置20は、データ受信部21、制御部22、配信画像生成部23、音合成部24、送信処理部25、記憶部26、入力部27、表示部28、同期付与部29を有する。
データ受信部21は、撮像装置15の記憶媒体から、各カメラ10a〜10dごとに撮影、収音した動画像データ、音声データを読み出して、記憶部26に記録する。制御部22は、配信画像編集装置20内の各処理部を制御する。
配信画像生成部23は、記憶部26に記憶されている、各カメラ10a〜10dごとに撮影した動画像データを構成する撮影フレームを、同期付与部29が与える同期タイミングに基づいて合成し、配信フレームを生成する。
データ受信部21は、撮像装置15の記憶媒体から、各カメラ10a〜10dごとに撮影、収音した動画像データ、音声データを読み出して、記憶部26に記録する。制御部22は、配信画像編集装置20内の各処理部を制御する。
配信画像生成部23は、記憶部26に記憶されている、各カメラ10a〜10dごとに撮影した動画像データを構成する撮影フレームを、同期付与部29が与える同期タイミングに基づいて合成し、配信フレームを生成する。
図3は、本実施形態による配信画像編集装置20(図1)の配信画像生成部23による配信フレームの生成方法の一例を示す図である。配信画像生成部23は、後述する同期付与部29により同期が付与された複数の動画像データの撮影フレームf1〜f4を、1つの配信フレームf0として合成する。ここでは、撮影フレームf1を左上に、撮影フレームf2を右上に、撮影フレームf3を左下に、撮影フレームf4を右下に配置して、長方形状の配信フレームf0を生成する場合を示している。
なお、撮影フレームf1〜f4の配置方法は、図3に示すように縦2フレーム×横2フレームとする必要はなく、縦1フレーム×横4フレームで配置したり、縦4フレーム×横1フレームで配置したりすることも可能である。
また、ここでは、4つの撮影フレームf1〜f4を、1つの配信フレームf0に合成する場合について説明したが、このような構成に限定されるものではない。例えば、9つのカメラ動画像データを撮影した場合には、縦3フレーム×横3フレームとして合成することにより、配信フレームf0を生成することもできる。
また、ここでは、4つの撮影フレームf1〜f4を、1つの配信フレームf0に合成する場合について説明したが、このような構成に限定されるものではない。例えば、9つのカメラ動画像データを撮影した場合には、縦3フレーム×横3フレームとして合成することにより、配信フレームf0を生成することもできる。
図2に戻り、音合成部24は、記憶部26に記憶されている各カメラ10a〜10dの収音マイクで収音した音声データを合成することにより配信音声データを生成する。
送信処理部25は、配信画像生成部23で生成された配信フレームのデータと、音合成部24で生成された配信音声データとを、エンコーダ30へ送信する。
記憶部26は、データ受信部21が撮像装置12の記憶媒体から読み出した動画像データと音声データを記憶する。
送信処理部25は、配信画像生成部23で生成された配信フレームのデータと、音合成部24で生成された配信音声データとを、エンコーダ30へ送信する。
記憶部26は、データ受信部21が撮像装置12の記憶媒体から読み出した動画像データと音声データを記憶する。
図4は、本実施形態による配信画像編集装置20の記憶部26(図2)に記憶されるデータの一例を示している。図に示すように、カメラ10aで撮影された動画像データV1と、カメラ10aの収音マイクで収音された音声データA1とが対応付けられて記憶されている。カメラ10b、10c、10dについても同様に、動画像データV2、V3、V4と、音声データA2、A3、A4がそれぞれ対応付けられて記憶されている。
図2に戻り、入力部27は、キーボードやマウスなどの入力機器により構成され、配信フレームを配信する事業者などの指示を入力する。なお、入力部27は、表示部28の表示画面に操作ボタンを表示することにより、配信フレームを配信する事業者などの指示情報を入力してもよい。
表示部28は、LCD(Liquid Crystal Display)などの表示機器を備え、記憶部26に記憶されている各カメラ10a〜10dごとの動画像データを同時に表示機器に表示する。表示部28は、表示機器に表示される各カメラ10a〜10dごとの動画像データを独立して操作することができるように制御する。この制御の内容としては、例えば、動画像データの再生や一時停止、巻き戻し、早送りなどがある。
表示部28は、LCD(Liquid Crystal Display)などの表示機器を備え、記憶部26に記憶されている各カメラ10a〜10dごとの動画像データを同時に表示機器に表示する。表示部28は、表示機器に表示される各カメラ10a〜10dごとの動画像データを独立して操作することができるように制御する。この制御の内容としては、例えば、動画像データの再生や一時停止、巻き戻し、早送りなどがある。
同期付与部29は、表示部28に表示されている各カメラ10a〜10dの動画像データの全てに対して、一斉に同期タイミングを付与する。同期タイミングを付与する方法としては、例えば、表示部28に表示されている各カメラ10a〜10dの動画像データの撮影フレームに、それらの撮影フレームが同期させるフレームであることを示す同期情報を付加することなどの方法を用いることができる。
図5は、本実施形態による配信画像編集装置20の表示部28(図2)の表示画面d0の一例を示す図である。同期付与部29は、4つの動画像データV1〜V4(図4)を記憶部26から読み出す。そして、表示画面d0を動画像データ数だけ子画面を表示する。ここでは、動画像データ数が4であり、表示画面d0に子画面d1〜d4を表示している場合を示している。
同期付与部29は、カメラ10aで撮影した動画像データを子画面d1に表示し、カメラ10bで撮影した動画像データを子画面d2に表示し、カメラ10cで撮影した動画像データを子画面d3に表示し、カメラ10dで撮影した動画像データを子画面d4に表示する。
同期付与部29は、カメラ10aで撮影した動画像データを子画面d1に表示し、カメラ10bで撮影した動画像データを子画面d2に表示し、カメラ10cで撮影した動画像データを子画面d3に表示し、カメラ10dで撮影した動画像データを子画面d4に表示する。
子画面d1〜d4には、それぞれ再生/一時停止ボタンb11、b21、b31、b41、巻き戻しボタンb12、b22、b32、b42、早送りボタンb31、b32、b33、b34が表示される。
同期付与部29は、再生/一時停止ボタンb11、b21、b31、b41が押される度に動画像データの再生と一時停止の処理を切り替える。また、巻き戻しボタンb12、b22、b32、b42が押された場合には、子画面に表示している動画像データを巻き戻す。また、早送りボタンb31、b32、b33、b34が押された場合には、子画面に表示している動画像データを早送りする。
同期付与部29は、再生/一時停止ボタンb11、b21、b31、b41が押される度に動画像データの再生と一時停止の処理を切り替える。また、巻き戻しボタンb12、b22、b32、b42が押された場合には、子画面に表示している動画像データを巻き戻す。また、早送りボタンb31、b32、b33、b34が押された場合には、子画面に表示している動画像データを早送りする。
本実施形態による配信フレームを配信する事業者は、それぞれ子画面d1〜d4に表示される動画像データV1〜V4を見ながら、入力部27である再生/一時停止ボタン、巻き戻しボタン、早送りボタンを操作することにより、各動画像データV1〜V4に対して同期を与えたい撮影フレームで一時停止の状態にする。
その後、本実施形態による配信フレームを配信する事業者が、入力部27である同期付与ボタンb4を押した場合には、同期付与部29は、その時点で子画面d1〜d4に表示されている動画像データV1〜V4の撮影フレームに対して同期を付与する。
その後、本実施形態による配信フレームを配信する事業者が、入力部27である同期付与ボタンb4を押した場合には、同期付与部29は、その時点で子画面d1〜d4に表示されている動画像データV1〜V4の撮影フレームに対して同期を付与する。
なお、上述した説明では、表示部28の表示画面に子画面を4つ表示する場合について説明したが、このような構成に限定されるものではない。例えば、配信画像編集装置20の記憶部26に多数の動画像データが記憶されているような場合には、それらの全ての動画像データを表示部28に同時に表示すると、1つ1つの子画面が小さくなりすぎて、操作しにくくなる。このような場合には、表示部28に1つの画面のみを表示して1つの動画像データに対して同期を与えるフレームで一時停止させた後に、他の動画像データに切り替えて同様の処理を繰り返すことによって、全ての動画像データに対して同期を与える撮影フレームを容易に指定することができる。
図6は、本実施形態による端末50(図1)の機能ブロック図である。この端末50は、通信処理部51、制御部52、入力部53、動画像出力処理部54、記憶部55、表示部56を有する。
通信処理部51は、ネットワーク45を介して配信データをストリーミングサーバ40から受信する。制御部52は、端末50内の各処理部を制御する。入力部53は、キーボードやマウスなどの入力機器により構成され、端末50のユーザの指示を入力する。
動画像出力処理部54は、受信する配信データに含まれる動画像データを表示部56に表示する。
記憶部55は、HD(Hard Disk)などの記憶装置であり、ストリーミングサーバ40から配信される配信データを記憶する。表示部56は、LCDなどの表示機器を備え、記憶部26に記憶されている、各カメラ10a〜10d間で同期が取られた動画像データを同時に表示機器に表示する。
通信処理部51は、ネットワーク45を介して配信データをストリーミングサーバ40から受信する。制御部52は、端末50内の各処理部を制御する。入力部53は、キーボードやマウスなどの入力機器により構成され、端末50のユーザの指示を入力する。
動画像出力処理部54は、受信する配信データに含まれる動画像データを表示部56に表示する。
記憶部55は、HD(Hard Disk)などの記憶装置であり、ストリーミングサーバ40から配信される配信データを記憶する。表示部56は、LCDなどの表示機器を備え、記憶部26に記憶されている、各カメラ10a〜10d間で同期が取られた動画像データを同時に表示機器に表示する。
図7は、本実施形態による端末50の表示部56に表示される画像の一例を示す図である。図に示すように、端末50がストリーミングサーバ40から受信する配信データには、複数のカメラ10a〜10dで撮影され、配信画像生成部23で同期を付与され合成された配信フレームが含まれている。
端末50のユーザがマウスなどを利用して特定のカメラの撮影フレームf1〜f4をクリックすることにより、その指示を端末50の制御部52が受け付け、制御部52が動画像出力処理部54へ当該撮影フレームの表示指示を行う。そして動画像出力処理部54は表示指示を受けた撮影フレームを分離して、表示部に単独で大きく表示する処理を行う。ここでは、撮影フレームf1を大きく表示している場合を示している。
なお、図7では、予め撮影フレームf1〜f4が合成された配信フレームが表示されている場合を示しているが、この配信フレームを表示せずに、ユーザより指示された撮影フレームのみを表示部56に表示するようにしても良い。
端末50のユーザがマウスなどを利用して特定のカメラの撮影フレームf1〜f4をクリックすることにより、その指示を端末50の制御部52が受け付け、制御部52が動画像出力処理部54へ当該撮影フレームの表示指示を行う。そして動画像出力処理部54は表示指示を受けた撮影フレームを分離して、表示部に単独で大きく表示する処理を行う。ここでは、撮影フレームf1を大きく表示している場合を示している。
なお、図7では、予め撮影フレームf1〜f4が合成された配信フレームが表示されている場合を示しているが、この配信フレームを表示せずに、ユーザより指示された撮影フレームのみを表示部56に表示するようにしても良い。
本実施形態の撮影画像配信システムにおいては、まず配信画像編集装置20が、複数台のカメラ10a〜10dの撮影した動画像データを順次受信し、それらの動画像データを構成する撮影フレームを、配信フレーム内の所定位置に配置し合成した配信データを生成する。また、配信画像編集装置20は配信フレームの1フレーム内に配置・合成された撮影フレームそれぞれの位置を示すフレーム位置特定情報を記憶する。
また、配信画像編集装置20は、生成した配信フレームを順次、エンコーダ30へ送信する。そして、エンコーダ30はエンコードの処理を行うことにより配信データを生成し、ストリーミングサーバ40が端末50からの配信要求に基づいて配信する。
また、配信画像編集装置20は、生成した配信フレームを順次、エンコーダ30へ送信する。そして、エンコーダ30はエンコードの処理を行うことにより配信データを生成し、ストリーミングサーバ40が端末50からの配信要求に基づいて配信する。
また、端末50は、配信要求に応じた配信データを順次受信する。また、端末50は、フレーム位置特定情報を受信する。そして、端末50は、フレーム位置特定情報で示される撮影フレームの位置に対応する各撮影フレームを配信フレームから分離して動画像データを表示部56へ出力する。
なお、本実施形態においては、配信画像編集装置20、エンコーダ30、ストリーミングサーバ40を別々の装置として記載しているが、それぞれの機能を1つの配信画像編集装置20に持たせるようにしても良い。
なお、本実施形態においては、配信画像編集装置20、エンコーダ30、ストリーミングサーバ40を別々の装置として記載しているが、それぞれの機能を1つの配信画像編集装置20に持たせるようにしても良い。
図8は、本実施形態による撮影画像配信システムの処理フローを示す図である。
まず、複数の撮影者が複数のカメラ10a〜10dのそれぞれを利用して撮影対象を撮影する。これにより、カメラ10a〜10dは動画像データが生成し、撮像装置15へ出力する。撮像装置15は、複数のカメラ10a〜10dのそれぞれから動画像データを取得し、それらの動画像データを配信画像編集装置20へ順次送信する(ステップS101)。配信画像編集装置20では、データ受信部21(図2)が、各カメラ10a〜10dから送信された動画像データを受信する。
まず、複数の撮影者が複数のカメラ10a〜10dのそれぞれを利用して撮影対象を撮影する。これにより、カメラ10a〜10dは動画像データが生成し、撮像装置15へ出力する。撮像装置15は、複数のカメラ10a〜10dのそれぞれから動画像データを取得し、それらの動画像データを配信画像編集装置20へ順次送信する(ステップS101)。配信画像編集装置20では、データ受信部21(図2)が、各カメラ10a〜10dから送信された動画像データを受信する。
また、カメラ10a〜10dは収音マイクを備えており、各カメラ10a〜10dは、その収音マイクで収音した音声データを配信画像編集装置20へ送信する。撮像装置15は、複数のカメラ10a〜10dのそれぞれから音声データを取得し、それらの音声データを配信画像編集装置20へ順次送信する(ステップS102)。
各カメラ10a〜10dから出力された動画像データと音声データは、記憶部26に記憶される(図4参照)。
各カメラ10a〜10dから出力された動画像データと音声データは、記憶部26に記憶される(図4参照)。
次に、同期付与部29は、記憶部26から複数の動画像データを読み出して、表示部28の表示画面上に同時に表示する(図5参照)。各動画像データは個々に操作(再生/一時停止、巻き戻し、早送り等)可能であり、カメラ10a〜10dで撮影した動画像データの配信を行う事業者等は、入力部27である再生/一時停止ボタン(図5)を押すことにより、各動画像データを構成するいずれかの撮影フレームを指定する(ステップS103)。
次に、配信画像生成部23(図2)は、複数のカメラ10a〜10dから受信した動画像データを構成する撮影フレームを1つの配信フレーム内に配置・合成する処理を行う(ステップS104)。この処理は、例えば、撮影フレームが長方形であればその1辺を他の撮影フレームのある1辺と接合して配置・合成しても良いし、1つの撮影フレームの所定の位置にカメラ台数分の各撮影フレームを配置して合成するようにしても良い。
つまり、配信画像生成部23は、配信フレームが端末50へ配信された後、当該端末50において配信フレームに配置・合成された各撮影フレームを分離できるような配置・合成の処理であればどのような配置・合成の処理であっても良い。
つまり、配信画像生成部23は、配信フレームが端末50へ配信された後、当該端末50において配信フレームに配置・合成された各撮影フレームを分離できるような配置・合成の処理であればどのような配置・合成の処理であっても良い。
なお、合成の具体例としては例えば、撮影フレームの画像信号からビットマップデータへ変換し、各撮影フレームのビットマップデータが同一画面上にビットマップデータにより並べて表示される配信フレームを生成する。また、配信画像編集装置20は配信フレームにおける各撮影フレームの位置の情報を示すフレーム位置特定情報を生成する(ステップS105)。また、音合成部24は各カメラから受信した音を周波数合成し配信音データを生成する(ステップS106)。
そして、配信画像生成部23は配信フレームとフレーム位置特定情報とを、また、音合成部24は合成した配信音声データを送信処理部25へ転送し、送信処理部25(図2)がエンコーダ30へ送信する(ステップS107)。
次に、エンコーダ30は送信処理部25から受信した情報をエンコードして配信データを生成し、ストリーミングサーバ40へ転送する(ステップS108)。そして、ストリーミングサーバ40は、配信要求の情報を受信した端末50へ、配信フレームと合成した音声データとフレーム位置特定情報とが含まれる配信データを配信する(ステップS109)。
なお、フレーム位置特定情報は、予めストリーミングサーバ40が記憶しており、端末50からの配信要求を受付けることにより、予め当該端末50へ送信しておくようにしても良い。ここで本実施形態においては、ストリーミングサーバ40はウェブブラウザの機能と、ストリーミングサーバの機能の両方を備えているものとする。
次に、エンコーダ30は送信処理部25から受信した情報をエンコードして配信データを生成し、ストリーミングサーバ40へ転送する(ステップS108)。そして、ストリーミングサーバ40は、配信要求の情報を受信した端末50へ、配信フレームと合成した音声データとフレーム位置特定情報とが含まれる配信データを配信する(ステップS109)。
なお、フレーム位置特定情報は、予めストリーミングサーバ40が記憶しており、端末50からの配信要求を受付けることにより、予め当該端末50へ送信しておくようにしても良い。ここで本実施形態においては、ストリーミングサーバ40はウェブブラウザの機能と、ストリーミングサーバの機能の両方を備えているものとする。
また上述の例においては、複数台のカメラ10a〜10dから受信した各撮影フレームを配信フレームに合成して直ちに端末50へ配信しているが、配信画像編集装置20やストリーミングサーバ40においてデータベースなどに一時的に記憶しておき、ストリーミングサーバ40が配信要求を端末50から受けた場合に当該データベースに記録されている配信フレームを送信するようにしても良い。
この技術は、例えば配信画像編集装置20が、カメラ10a〜10dから受信した撮影フレームのデータを、受信の順番に保持した画像データファイルを生成してデータベースに記録する。そして、配信画像生成部23が、ストリーミングサーバ40を介して端末50から受信した配信要求に応じて、データベースに記録されている画像データファイルそれぞれから撮影フレームの各1フレームのデータを順に読み込み、それら撮影フレームを配信フレーム内の所定位置に配置し合成した配信画像データとして生成し、エンコーダ30へ配信する。または、既に合成した配信画像データをストリーミングサーバ40のデータベースに格納しておき、端末50からの配信要求に従って配信するようにしても良い。
この技術は、例えば配信画像編集装置20が、カメラ10a〜10dから受信した撮影フレームのデータを、受信の順番に保持した画像データファイルを生成してデータベースに記録する。そして、配信画像生成部23が、ストリーミングサーバ40を介して端末50から受信した配信要求に応じて、データベースに記録されている画像データファイルそれぞれから撮影フレームの各1フレームのデータを順に読み込み、それら撮影フレームを配信フレーム内の所定位置に配置し合成した配信画像データとして生成し、エンコーダ30へ配信する。または、既に合成した配信画像データをストリーミングサーバ40のデータベースに格納しておき、端末50からの配信要求に従って配信するようにしても良い。
本実施形態による撮影画像配信システムによれば、動画像データを配信する事業者等は、複数の動画像データの所定の撮影フレームを入力部27により指定し、同期付与部29により全ての撮影装置で撮影した動画像データに対して一斉に同期を与えることができる。よって、複数の動画像データを配信する事業者等の編集作業に要する労力を軽減することができる。
また、本実施形態による撮影画像配信システムによれば、各カメラ10a〜10dのそれぞれで撮影された撮影フレームを1つの配信フレームに配置・合成するので、1台の装置によりエンコード処理され、また1つの通信経路を経由して複数のカメラ10a〜10dで撮影された画像のデータが端末50へ配信されることとなる。
従って、各カメラ10a〜10dで撮影された画像のデータを別々の装置でエンコード処理し、それぞれ別々の通信セッションにより配信する場合に比べて、エンコード装置の処理能力の違いや通信経路の違いがなくなるので、端末50に各カメラ10a〜10dの画像の撮影フレームが同期して到達する。つまり、各カメラ10a〜10dで撮影した画像が端末50において同期して表示されるので、各画像のタイムラグが発生せず、これにより視聴するユーザに違和感を与えることを削減することができる。
従って、各カメラ10a〜10dで撮影された画像のデータを別々の装置でエンコード処理し、それぞれ別々の通信セッションにより配信する場合に比べて、エンコード装置の処理能力の違いや通信経路の違いがなくなるので、端末50に各カメラ10a〜10dの画像の撮影フレームが同期して到達する。つまり、各カメラ10a〜10dで撮影した画像が端末50において同期して表示されるので、各画像のタイムラグが発生せず、これにより視聴するユーザに違和感を与えることを削減することができる。
次に、本実施形態による端末50の処理フローについて説明する。
まず、端末50はユーザからの指示に基づいて、ストリーミングサーバ40の備えるウェブサーバの処理部にアクセスする。そして端末50は配信要求を送信する。するとウェブサーバの処理部が配信要求を受信し、ストリーミングサーバ40の処理部へ配信の指示を行う。またストリーミングサーバ40の記憶部にフレーム位置特定情報が予め記憶されている場合にはウェブサーバの処理部はこのフレーム位置特定情報を端末50へ送信する。
まず、端末50はユーザからの指示に基づいて、ストリーミングサーバ40の備えるウェブサーバの処理部にアクセスする。そして端末50は配信要求を送信する。するとウェブサーバの処理部が配信要求を受信し、ストリーミングサーバ40の処理部へ配信の指示を行う。またストリーミングサーバ40の記憶部にフレーム位置特定情報が予め記憶されている場合にはウェブサーバの処理部はこのフレーム位置特定情報を端末50へ送信する。
また、ストリーミング開始時刻(配信要求受信後、または所定の時刻の検知後)になると、ストリーミングサーバ40は、エンコーダ30から受信した配信フレームと合成した音声データとを配信データとして端末50へ配信する。またこの時、フレーム位置特定情報を共に配信するようにしても良い。
そして、端末50が配信された情報を受信すると、動画像出力処理部54がフレーム位置特定情報から、配信フレーム内に配置・合成された各撮影フレームの位置を読み取る。この撮影フレームの位置は配信フレームにおける所定の位置(例えば、配信フレームの角(図3の位置P1)の座標をx=0、y=0などとする)を基点とした座標などにより示される。
そして、端末50が配信された情報を受信すると、動画像出力処理部54がフレーム位置特定情報から、配信フレーム内に配置・合成された各撮影フレームの位置を読み取る。この撮影フレームの位置は配信フレームにおける所定の位置(例えば、配信フレームの角(図3の位置P1)の座標をx=0、y=0などとする)を基点とした座標などにより示される。
そして、動画像出力処理部54は、各撮影フレームを配信フレームから分離の処理においては、例えば、各撮影フレームのビットマップデータをキャプチャし、それぞれ別々にモニタなどの表示部に出力する。また動画像出力処理部54は合成した音声データをスペクトラム解析などによって周波数分離し、複数のカメラのそれぞれで収音された音を分離する。そして、端末50が選択を受付けた撮影フレームに対応する音をスピーカなどから出力する処理を行う。
以上の処理により、フレーム位置特定情報によって配信フレーム内の撮影フレームを特定しているので、ユーザにより選択された撮影フレームのデータを処理負荷なく容易にキャプチャしてモニタ上に表示することができる。
以上の処理により、フレーム位置特定情報によって配信フレーム内の撮影フレームを特定しているので、ユーザにより選択された撮影フレームのデータを処理負荷なく容易にキャプチャしてモニタ上に表示することができる。
上述の各装置は内部に、コンピュータシステムを有している。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。
ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
10a〜10d・・・カメラ(撮影装置)、15・・・撮像装置、20・・・配信画像編集装置、21・・・データ受信部(動画像データ受信手段)、22・・・制御部、23・・・配信画像生成部(配信画像生成手段)、24・・・音合成部、25・・・送信処理部(送信処理手段)、26・・・記憶部、27・・・入力部(入力手段)、28・・・表示部(表示手段)、29・・・同期付与部(同期付与手段)、30・・・エンコーダ、40・・・ストリーミングサーバ、50・・・端末(画像表示端末)、51・・・通信処理部、52・・・制御部、53・・・入力部、54・・・動画像出力処理部、55・・・記憶部、56・・・表示部
Claims (5)
- 複数台の撮影装置で撮影した動画像データを受信する動画像データ受信手段と、
前記動画像データ受信手段により受信した複数の動画像データのそれぞれについて、それらの動画像データを構成する撮影フレームを指定する入力手段と、
前記入力手段により指定された前記複数の動画像データの撮影フレームに対して、同期を付与する同期付与手段と、
前記同期付与手段が同期を付与した複数の撮影フレームを合成して、1つの配信フレームを生成する配信画像生成手段と、
前記配信画像生成手段により生成した配信フレームを、画像表示端末へ送信する送信処理手段と、
を有することを特徴とする撮影画像配信装置。 - 前記動画像データ受信手段が受信した複数の動画像データを、1つの表示画面上に同時に表示する表示手段を更に有することを特徴とする請求項1に記載の撮影画像配信装置。
- 前記送信処理手段は、
前記配信フレームの各撮影フレームの位置を示すフレーム位置特定情報を、前記画像表示端末へ送信することを特徴とする請求項1又は2に記載の撮影画像配信装置。 - 複数台の撮影装置で撮影した動画像データを受信させる第1のステップと、
前記第1のステップで受信した複数の動画像データのそれぞれについて、それらの動画像データを構成する撮影フレームを指定させる第2のステップと、
前記第2のステップで指定された前記複数の動画像データの撮影フレームに対して、同期を付与させる第3のステップと、
前記第3のステップで同期が付与された複数の撮影フレームを合成して、1つの配信フレームを生成させる第4のステップと、
前記第4のステップにより生成された配信フレームを、画像表示端末へ送信させる第5のステップと、
をコンピュータに実行させるための撮影画像配信プログラム。 - 複数台の撮影装置で撮影した動画像データを受信する第1のステップと、
前記第1のステップで受信した複数の動画像データのそれぞれについて、それらの動画像データを構成する撮影フレームを指定する第2のステップと、
前記第2のステップで指定した前記複数の動画像データの撮影フレームに対して、同期を付与する第3のステップと、
前記第3のステップで同期が付与した複数の撮影フレームを合成して、1つの配信フレームを生成する第4のステップと、
前記第4のステップにより生成した配信フレームを、画像表示端末へ送信する第5のステップと、
を有することを特徴とする撮影画像配信方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005294656A JP2007104540A (ja) | 2005-10-07 | 2005-10-07 | 撮影画像配信装置、撮影画像配信プログラム及び撮影画像配信方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005294656A JP2007104540A (ja) | 2005-10-07 | 2005-10-07 | 撮影画像配信装置、撮影画像配信プログラム及び撮影画像配信方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007104540A true JP2007104540A (ja) | 2007-04-19 |
Family
ID=38030996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005294656A Pending JP2007104540A (ja) | 2005-10-07 | 2005-10-07 | 撮影画像配信装置、撮影画像配信プログラム及び撮影画像配信方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007104540A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010171561A (ja) * | 2009-01-21 | 2010-08-05 | Hitachi Ltd | 動画情報管理装置、および方法 |
WO2013021656A1 (ja) * | 2011-08-11 | 2013-02-14 | パナソニック株式会社 | 再生装置、再生方法、集積回路、放送システム、及び放送方法 |
JP2016165162A (ja) * | 2016-06-16 | 2016-09-08 | 株式会社ハーツクリエイション | 動画配信システム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH066773A (ja) * | 1992-06-16 | 1994-01-14 | Hitachi Ltd | テレビジョン信号送信装置およびテレビジョン信号表示装置 |
JP2000175154A (ja) * | 1998-12-01 | 2000-06-23 | Alpine Electronics Inc | ディスク再生装置 |
JP2001333348A (ja) * | 2000-05-24 | 2001-11-30 | Minolta Co Ltd | 送信装置、受信装置、放送システムおよび放送方法 |
JP2004088456A (ja) * | 2002-08-27 | 2004-03-18 | Megafusion Corp | 画像配信システム |
JP2004247937A (ja) * | 2003-02-13 | 2004-09-02 | Canon Inc | 画像撮影装置 |
-
2005
- 2005-10-07 JP JP2005294656A patent/JP2007104540A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH066773A (ja) * | 1992-06-16 | 1994-01-14 | Hitachi Ltd | テレビジョン信号送信装置およびテレビジョン信号表示装置 |
JP2000175154A (ja) * | 1998-12-01 | 2000-06-23 | Alpine Electronics Inc | ディスク再生装置 |
JP2001333348A (ja) * | 2000-05-24 | 2001-11-30 | Minolta Co Ltd | 送信装置、受信装置、放送システムおよび放送方法 |
JP2004088456A (ja) * | 2002-08-27 | 2004-03-18 | Megafusion Corp | 画像配信システム |
JP2004247937A (ja) * | 2003-02-13 | 2004-09-02 | Canon Inc | 画像撮影装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010171561A (ja) * | 2009-01-21 | 2010-08-05 | Hitachi Ltd | 動画情報管理装置、および方法 |
US8566890B2 (en) | 2009-01-21 | 2013-10-22 | Hitachi Consumer Electronics Co., Ltd. | Video information control apparatus and method |
US9154545B2 (en) | 2009-01-21 | 2015-10-06 | Hitachi Maxell, Ltd. | Video information control apparatus and method |
WO2013021656A1 (ja) * | 2011-08-11 | 2013-02-14 | パナソニック株式会社 | 再生装置、再生方法、集積回路、放送システム、及び放送方法 |
US8773584B2 (en) | 2011-08-11 | 2014-07-08 | Panasonic Corporation | Playback apparatus, playback method, integrated circuit, broadcast system, and broadcast method using a broadcast video and additional video |
JP2016165162A (ja) * | 2016-06-16 | 2016-09-08 | 株式会社ハーツクリエイション | 動画配信システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10951820B2 (en) | System and method for generating a plurality of unique videos of a same event | |
JP6216513B2 (ja) | コンテンツ送信装置、コンテンツ送信方法、コンテンツ再生装置、コンテンツ再生方法、プログラム、およびコンテンツ配信システム | |
US20150124171A1 (en) | Multiple vantage point viewing platform and user interface | |
KR101326739B1 (ko) | 정보처리 시스템 및 정보처리 장치 | |
US20180227501A1 (en) | Multiple vantage point viewing platform and user interface | |
WO2007061068A1 (ja) | 受信装置及び本線映像配信装置 | |
JP2006050370A (ja) | 情報処理装置および方法、記録媒体、並びにプログラム | |
JP6241802B1 (ja) | 映像配信システム、ユーザ端末装置および映像配信方法 | |
JP2009267999A (ja) | ライブ配信システム、動画撮影システム、及び動画配信方法 | |
JP2006041886A (ja) | 情報処理装置および方法、記録媒体、並びにプログラム | |
US20200213631A1 (en) | Transmission system for multi-channel image, control method therefor, and multi-channel image playback method and apparatus | |
JP2007104540A (ja) | 撮影画像配信装置、撮影画像配信プログラム及び撮影画像配信方法 | |
JP4565232B2 (ja) | 講義ビデオ作成システム | |
KR20130044062A (ko) | 원격 영상정보 제공시스템 | |
JP5520146B2 (ja) | 映像受信装置、及びその制御方法 | |
JP2012004991A (ja) | 放送受信装置及びその制御方法 | |
CN112004100B (zh) | 将多路音视频源集合成单路音视频源的驱动方法 | |
JP2013026945A (ja) | ネットワーク放送システムおよびその方法。 | |
JP2004200823A (ja) | 撮像装置、記録装置および再生装置 | |
WO2023042403A1 (ja) | コンテンツ配信サーバ | |
WO2018142515A1 (ja) | コンテンツ配信方法、コンテンツ取得方法および情報処理端末 | |
KR20150027745A (ko) | 상호작용 오디오/비디오 브로드캐스트 시스템, 이 시스템을 동작시키기 위한 방법 및 상호작용 오디오/비디오 브로드캐스트 시스템에서의 동작을 위한 사용자 디바이스 | |
JP2019169928A (ja) | 字幕生成装置及び字幕生成プログラム | |
van Deventer et al. | Media orchestration between streams and devices via new MPEG timed metadata | |
JP2022066944A (ja) | 情報処理装置、コンピュータプログラムおよび情報処理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080724 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110222 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110705 |