JP2005130251A - 映像配信システム - Google Patents

映像配信システム Download PDF

Info

Publication number
JP2005130251A
JP2005130251A JP2003364574A JP2003364574A JP2005130251A JP 2005130251 A JP2005130251 A JP 2005130251A JP 2003364574 A JP2003364574 A JP 2003364574A JP 2003364574 A JP2003364574 A JP 2003364574A JP 2005130251 A JP2005130251 A JP 2005130251A
Authority
JP
Japan
Prior art keywords
video
encoding
video data
divided
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003364574A
Other languages
English (en)
Other versions
JP4305752B2 (ja
Inventor
Akihiro Muto
明宏 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003364574A priority Critical patent/JP4305752B2/ja
Publication of JP2005130251A publication Critical patent/JP2005130251A/ja
Application granted granted Critical
Publication of JP4305752B2 publication Critical patent/JP4305752B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】
共通の映像を複数視聴者に配信する際に、伝送データ量を抑えつつ、各視聴者の注視領域を鮮明に配信し得る映像配信システムを実現する。
【解決手段】
視聴者の注視領域を映像表示装置の注視領域検出手段で検出し、当該検出した注視領域に対応する映像領域の符号化品質を向上させる。さらに、複数の映像表示装置それぞれで検出した複数の注視領域に対応する分割映像データの符号化品質をそれぞれ向上させるとともに、配信の際には、各映像表示装置個別の注視領域に対応する分割映像データのみを向上させた符号化品質のまま配信し、他の映像表示装置の注視領域に対応する上記分割映像データは標準的な符号化品質で配信するようにしたことにより、システム全体の伝送データ量を抑えつつ、視聴者の注視領域の画像を鮮明に配信し得る映像配信システムを実現できる。
【選択図】 図7

Description

本発明は映像配信システムに関し、映像を符号化して複数の視聴者に配信する場合に適用して好適なものである。
従来、ネットワークや放送等を介して、離れた地点の映像を複数の利用者で共用して視聴するシステムが一般化している。ISDN(Integrated Services Digital Network)やインターネット等を用いた多地点テレビ会議システム、スポーツ競技の多人数での視聴、監視カメラシステム等はその一例である。
一方、大量の計算処理を必要とする分野において、複数の計算機を高速ネットワークで接続して分散処理を行う、いわゆるクラスタ処理が一般化しつつある。このクラスタ処理によって、高価な高性能計算機と同等の処理を、より安価な構成で実行することができる。一般に高画質データの圧縮処理にあたっては、大量の計算が必要であり、これを安価に実現する手段としてクラスタ処理を適用することが考えられる(例えば、特許文献1参照)。
特開2000−30047公報
ここで、同一の映像を複数の視聴者が同時視聴する場合、映像における各視聴者の関心領域(興味を持つ部分)がそれぞれ異なる場合がある。例えば、スポーツ中継において各視聴者がそれぞれ特定の選手をより鮮明に視聴したい場合や、テレビ会議システムにおいて特定の会議参加者の挙動をより鮮明に視聴したい場合、あるいは監視カメラシステムの監視画像内において特定の領域をピックアップして鮮明に監視したい場合等が挙げられる。
画像を鮮明に視聴させるためには、一般的には伝送する画像のデータ量を増やす必要があるが、ネットワーク等の帯域が限られたシステム系内では伝送データ量を不用意に増加させることは望ましくないという問題がある。
また、不特定多数の複数視聴者を前提にする場合、動画像の圧縮方法によっては画像品位と計算処理負荷とがトレードオフの関係にある場合もあり、このときシステム負荷は動的に変化することが予想されるが、このようなシステム負荷の変動を予期してシステムのスペックを過大に構築することは、コストや計算機資源の有効活用の観点からみて無駄が多いという問題がある。
このような用途に、上述したクラスタ処理を適用することが考えられるが、しかしながらクラスタ処理では、各計算機毎にその計算処理が管理され、また複数の計算処理が並列実行されている場合がほとんどである。このためクラスタ処理を用いて動画像処理をリアルタイムに実行する場合、所定の機体時間内に処理が終了する保証が無いという問題がある。
本発明は以上の点を考慮してなされたもので、共通の映像を複数視聴者に配信する際に、伝送データ量を抑えつつ、各視聴者の注視領域を鮮明に配信し得る映像配信システム及び映像配信方法を提案しようとするものである。
かかる課題を解決するため本発明においては、映像を配信する映像配信装置と、配信された映像を表示する映像表示装置とからなる映像配信システムにおいて、入力された映像データを複数の映像領域に対応して分割し、複数の分割映像データを生成する映像分割手段と、複数の分割映像データをそれぞれ符号化して複数の分割符号化データを生成する符号化手段と、符号化手段を制御する符号化制御手段と、複数の分割符号化データを合成して符号化映像データを生成する合成手段と、符号化映像データを映像表示装置に配信する配信手段とを映像配信装置に設けるとともに、配信された符号化映像データを受信する受信手段と、符号化映像データを復号して映像を表示する復号表示手段と、復号表示手段が表示する映像に対する視聴者の注視領域を検出する注視領域検出手段とを映像表示装置に設け、符号化制御手段は、注視領域検出手段が検出した注視領域に対応する映像領域の割映像データに対する符号化品質を向上させるようにした。
注視領域検出手段が検出した注視領域の符号化品質を選択的に向上させることにより、
システム全体の伝送データ量を抑えつつ、視聴者の注視領域の画像を鮮明に配信することができる。
また、複数の映像表示装置を映像配信システムに設け、符号化制御手段は、複数の映像表示装置それぞれで検出した複数の注視領域に対応する分割映像データに対して符号化品質をそれぞれ向上させるとともに、配信手段は、複数の映像表示装置それぞれに対し、当該映像表示装置個別の注視領域に対応する分割映像データのみを、向上させた符号化品質のまま配信し、他の映像表示装置の注視領域に対応する上記分割映像データは標準的な符号化品質で配信するようにした。
これにより、その視聴者の注視領域のみを向上した画質で配信することができ、システム全体の伝送データ量をさらに抑えつつ、各ユーザの関心領域の画像を鮮明に配信することができる。
上述のように本発明によれば、視聴者の注視領域を注視領域検出手段で検出し、当該検出した注視領域に対応する映像領域の符号化品質を向上させるようにしたことにより、システム全体の伝送データ量を抑えつつ、視聴者の注視領域の画像を鮮明に配信し得る映像像配信システムを実現できる。
また、複数の映像表示装置を映像配信システムに設け、複数の映像表示装置それぞれで検出した複数の注視領域に対応する分割映像データの符号化品質をそれぞれ向上させるとともに、配信の際には、各映像表示装置個別の注視領域に対応する分割映像データのみを向上させた符号化品質のまま配信し、他の映像表示装置の注視領域に対応する上記分割映像データは標準的な符号化品質で配信するようにしたことにより、システム全体の伝送データ量をさらに抑えつつ、視聴者の注視領域の画像を鮮明に配信し得る映像配信システムを実現できる。
以下図面について、本発明の一実施の形態を詳述する。
(1)動画像クラスタ処理システムの全体構成
図1は、本発明による動画像クラスタ処理システム1を示し、サーバPC(Personal Computer)2と、4台のエンコーダPC3A〜3Dと、5台のユーザPC4A〜4Eとがネットワーク5を介して接続されている。
この、映像配信システムとしての動画像クラスタ処理システム1は、映像配信装置としてのサーバPC2に供給されるアナログ映像信号S1を、情報処理装置及び符号化手段としてのエンコーダPC3A〜3Dを用いたクラスタ処理によってJPEG(Joint Photographic cording experts Group)2000方式でリアルタイム圧縮符号化処理し、映像表示装置としてのユーザPC4A〜4Eに配信するようになされている。
サーバPC2においては、当該サーバPC2を統括制御するCPU11に対し、メモリ12、表示部13、ハードディスクドライブ14、ネットワークインターフェース15及びビデオキャプチャ回路16が、バス17を介して接続されている。
ハードディスクドライブ14には、例えばWindows(登録商標)等のオペレーティングシステムや、動画像クラスタ処理プログラム等の各種アプリケーションプログラムが格納されている。CPU11は、サーバPC2の起動に応じてハードディスクドライブ14からオペレーティングシステムを読み出し、メモリ12に展開して実行する。
そしてCPU11は、オペレーティングシステムの実行環境下において動画像クラスタ処理プログラムを実行し、エンコーダPC3A〜3Dに対して動画像の圧縮符号化処理を分散処理させる。
すなわちサーバPC2のビデオキャプチャ回路16は、外部から供給されるアナログ映像信号S1をディジタル変換してディジタル映像信号D1を生成し、これをCPU11に供給する。CPU11は動画像クラスタ処理プログラムに従い、ディジタル映像信号D1の圧縮符号化をエンコーダPC3A〜3Dに分散処理させる。
ここでJPEG2000方式は、ディジタル映像信号の圧縮符号化を、ピクチャとしてのフレーム(又はフィールド)毎に完結して行うとともに、各フレームを複数の画像領域に分割して、各画像領域個別に圧縮符号化し得るようになされている。
すなわち図2に示すように、映像分割手段としてのCPU11は、例えば720×480画素でなるディジタル映像信号S1の各フレームを4分割し、360×240画素でなる4個のブロックを生成する。さらにCPU11は各ブロックを4分割し、180×120画素でなる16個のエリアを生成する。ブロック1はエリア1〜4、ブロック2はエリア5〜8、ブロック3はエリア9〜12、ブロック4はエリア13〜16でそれぞれ構成される。
このときCPU11は、初期状態として、エリア1〜エリア4をエンコーダPC3Aに割り当てるとともに、エリア5〜エリア8をエンコーダPC3Bに、エリア9〜エリア12をエンコーダPC3Cに、エリア13〜エリア16をエンコーダPC3Dにそれぞれ割り当てる(この割り当てをアサインと呼ぶ)。そしてCPU11は、各エンコーダPC3A〜3DにPC3Aに割り当てたエリアの映像データを、それぞれ分割ディジタル映像データD2A〜D2DとしてエンコーダPC3A〜3DにPC3Aに順次供給する。
なお、各エンコーダPC3A〜3Dに対するエリアのアサインは、後述する関心領域適応符号化処理手順に基づき、各エンコーダPC3の処理負荷に応じて符号化制御手段としてのCPU11によって適宜変更される。
エンコーダPC3(3A〜3D)においては、当該エンコーダPC3を統括制御するCPU21に対し、メモリ22、表示部23、ハードディスクドライブ24及びネットワークインターフェース25がバス27を介して接続されている。
ハードディスクドライブ24には、オペレーティングシステムやクラスタアプリケーションプログラム等の各種アプリケーションプログラムが格納されている。CPU21は、エンコーダPC3の起動に応じてハードディスクドライブ24からオペレーティングシステムを読み出し、メモリ22に展開して実行する。
そしてCPU21は、オペレーティングシステムの実行環境下において動画像符号化プログラムを実行することにより、サーバPC2から供給される分割ディジタル映像データD2(D2A〜D2D)をJPEG2000方式で圧縮符号化して分割符号化データD3(D3A〜D3D)を生成し、これをサーバPC2に返送する。
合成手段としてのサーバPC2のCPU11は、各エンコーダPC3A〜3Dから返送される分割符号化データD3A〜D3Dをフレーム単位で順次合成して、圧縮符号化されたフレームデータの連続でなる符号化映像データを生成する。そして配信手段としてのCPU11は、この合成した符号化映像データを、各ユーザPC4A〜4Eに対しそれぞれ符号化映像データD4A〜D4Eとして配信する。
ユーザPC4(4A〜4E)においては、当該ユーザPC4を統括制御するCPU31に対し、メモリ32、表示部33、ハードディスクドライブ34、ネットワークインターフェース35及び視線検出部36が、バス37を介して接続されている。
ハードディスクドライブ34には、オペレーティングシステムや動画像表示プログラム等の各種アプリケーションプログラムが格納されている。CPU31は、ユーザPC4の起動に応じてハードディスクドライブ34からオペレーティングシステムを読み出し、メモリ32に展開して実行する。
そして受信手段及び復号表示手段としてのCPU31は、オペレーティングシステムの実行環境下において動画像表示プログラムを実行することにより、サーバPC2から供給される符号化映像データD4(D4A〜D4E)を復号して表示部33に表示する。
かくして動画像クラスタ処理システム1は、サーバPC2に入力されたアナログ映像信号S1をエンコーダPC3A〜3Dによるクラスタ処理でリアルタイム圧縮符号化処理し、ユーザPC4A〜4Eに配信して表示するようになされている。
(2)本発明による関心領域適応符号化
かかる構成に加えてこの動画像クラスタ処理システム1においては、各ユーザPC4A〜4Eが、配信映像におけるユーザ(すなわち配信映像の視聴者)が注視している領域(関心領域)をそれぞれ検出し、当該関心領域の符号化品質を選択的に高めて符号化することにより、システム全体の伝送データ量を抑えつつ、各ユーザに対してその関心領域の画像を鮮明に伝送するようになされている。
上述したようにユーザPC4(4A〜4E)には、そのユーザの視線方向を検出するための視線検出部36が設けられている。図3に示すように、視線検出部36は2台のカメラ36A及び36Bで構成される。カメラ36A及び36Bは、表示部33に表示された配信映像を視聴するユーザの顔面をそれぞれ右側及び左側から撮影し得るように、表示部33との位置関係が選定されている。
カメラ36A及び36Bは、それぞれ撮影したユーザの右側顔面映像D6R及び左側顔面映像D6L及をCPU31に供給する。注視領域検出手段としてのCPU31は所定の視線検出プログラムに従い、予め記憶されている目のテンプレート画像と、右側顔面映像D6R及び左側顔面映像D6Lとを照合するテンプレートマッチング処理を行うことにより、当該右側顔面映像D6R及び左側顔面映像D6Lにおけるユーザの目の位置を検出する。
さらにCPU31は、検出した右側顔面映像D6R及び左側顔面映像D6Lにおけるユーザの目の位置に基づいて、当該ユーザの顔面の指向方向(上下角及び左右角)を算出する。そして注視領域検出手段及び注視領域情報送信手段としてのCPU31は、算出したユーザの顔面の指向方向と表示部33の設置位置との関係に基づいて、当該ユーザの顔面が、表示部33に表示された配信映像のどのエリアに指向しているか(すなわちユーザが
どのエリアを注視しているか)を検出し、当該検出した指向エリアのエリア番号(図2)を、注視領域情報としての関心領域情報D5(D5A〜D5E)としてサーバPC2に送信する。
ユーザPC4のCPU11は、上述したユーザの関心領域抽出処理を、所定間隔毎(例えば3秒毎)に実行する。
ここでJPEG2000方式では、ディジタル映像信号の圧縮符号化処理において画質的な階層符号化(SNRスケーラビリティ)を行い得るようになされている。そして、この階層符号化によって、符号化データの部分的な抽出による復号が可能である。
図4はSNRスケーラビリティの例を示し、符号化レベルとして、画質がもっとも高いレベル1から画質がもっとも低いレベル4が設定されている。映像をレベル1で符号化した場合、符号化データにはレベル1からレベル4までのデータが含まれる。これらの符号化データをすべて用いて復号を行うと、画質のもっとも高いレベル1の復号映像を得ることができる。同様に、レベル2からレベル4までの符号化データを用いて復号を行うとレベル2の復号映像を、レベル3及びレベル4の符号化データを用いて復号を行うとレベル3の復号映像を、そしてレベル4の符号化データのみを用いて復号を行うと画質のもっとも低いレベル4の復号映像を得ることができる。
また、映像をレベル2で符号化した場合、符号化データにはレベル2からレベル4までの符号化データが含まれ、レベル3で符号化した場合はレベル3及びレベル4の符号化データが、そしてレベル4で符号化した場合はレベル4の符号化データのみが含まれる。
ここで、符号化レベルが高いほど(すなわち符号化ビットレートが高いほど)符号化品質が高く、復号後の画像の画質が向上するが、これに伴い符号化処理の処理時間が長くなる(言い換えれば処理負荷が高くなる)という関係がある。
すなわち図5に示すように、画質がもっとも高いレベル1の符号化ビットレートは2.0[bpp] (Bit Per Pixel) であり、当該レベル1における標準的な符号化処理時間を示す標準符号化時間は、1ブロック当たり48[msec]である。同様に、レベル2の符号化ビットレートは1.0[bpp] であり、この場合の標準符号化時間は20[msec]である。また、レベル3の符号化ビットレートは0.5[bpp] であり、この場合の標準符号化時間は28[msec]である。さらに、画像がもっとも低いレベル4の符号化ビットレートは0.25[bpp]であり、この場合の標準符号化時間は20[msec]である。なお、エリア当たりの標準符号化時間は、ブロック当たりの標準符号化時間の約1/4になる。
CPU11は、クラスタ符号化の開始時において、各タイル1〜タイル16それぞれの符号化レベルを、後述するクラスタ符号化準備処理手順で選択されたレベルに設定する。そしてCPU11は、各エンコーダPC3A〜3Dに対し、それぞれに割り当てられたエリア1〜エリア16を、設定した符号化レベルで符号化するように指示する。
そして注視領域情報受信手段及び符号化制御手段としてのCPU11は、各ユーザPC4(4A〜4E)から関心領域情報D5(D5A〜D5E)を受信すると、後述する関心領域適応符号化処理手順に基づいて、各エンコーダPC3A〜3Dに対し、受信した関心領域情報D5A〜D5Eで示される関心領域のエリアの符号化レベルを上げる(すなわち符号化品質を上げる)ように指示する。
このときCPU11は、各エンコーダPC3A〜3Dから返送される処理負荷情報に基づいて各エンコーダPC3A〜3Dに対するエリアのアサインを適宜変更して、エンコーダPC3A〜3Dの処理負荷を平均化し、これによりシステム全体の符号化処理遅延を防止するようになされている。
さらにCPU11は、各エンコーダPC3A〜3Dから返送された分割符号化データD3A〜D3Dを合成して各ユーザPC4A〜4Eに配信する際、各ユーザPC4A〜4Eそれぞれの関心領域情報D5A〜D5Eに基づいて、各ユーザPC4A〜4Eそれぞれに配信する符号化データD4A〜D4Dのエリア毎のレベルを個別に調整する。
すなわち、各ユーザPC4A〜4Eそれぞれの関心領域のエリアについてはすべてのレベルの符号化データを伝送するのに対し、他のユーザPC4の関心領域及び関心領域以外のエリアについては、初期値のレベル3までのデータのみを伝送する。このため、各ユーザPC4A〜4Eそれぞれに対してその関心領域の映像だけを高画質で配信することができ、これによりシステム全体の伝送データ量を抑えつつ、各ユーザに対してその関心領域の画像を鮮明に伝送することができる。
(3)各PCの処理手順
次に、上述した本発明による関心領域適応符号化を行うための、サーバPC2、エンコーダPC3及びユーザPC4それぞれの処理手順を、フローチャートを用いて詳細に説明する。
まず、サーバPC2の処理手順について説明する。サーバPC2のCPU11は、実際のクラスタ符号化処理に先立って、各エンコーダPC3A〜3Dの符号化処理能力を判定する。すなわちサーバPC2のCPU11は、図6に示すクラスタ符号化準備処理手順ルーチンRT1の開始ステップから入って次のステップSP1に移る。ステップSP1においてCPU11は、ハードディスクドライブ14から、予め設定されている複数の符号化レベルを読み出し、次のステップSP2に移る。
ステップSP2においてCPU11は、複数の符号化レベルのうちの最高の符号化レベルを選択し、次のステップSP3に移る。
ステップSP3においてCPU11は、各エンコーダPC3A〜3Dに対し、ハードディスクドライブ14から読み出した所定のテスト画像に対する符号化を、選択した符号化レベルで複数回実行させるテスト符号化命令を送出し、次のステップSP4に移る。
ステップSP4においてCPU11は、各エンコーダPC3A〜3Dそれぞれのテスト符号化処理時間を測定し、これをエンコーダPC3A〜3Dそれぞれの符号化処理能力値として記憶し、次のステップSP5に移る。
ステップSP5においてCPU11は、符号化処理能力値に基づいて、各エンコーダPC3A〜3Dそれぞれに実際の符号化処理を実行させた場合における、1フレームの符号化処理に要する処理予測時間を算出し、次のステップSP6に移る。
ステップSP6においてCPU11は、算出した処理予測時間が1フレーム期間(すなわち33[msec])以内であるかを判定する。ステップSP6において処理予測時間が1フレーム期間以内である場合、CPU11はステップSP10に移り、デフォルトの符号化レベルを変更することなくクラスタ符号化準備処理手順を終了する。
これに対してステップSP6において、処理予測時間が1フレーム期間を超過した場合、このことは現在の符号化レベルの設定では1フレームの符号化が1フレーム期間内に終了しないと予想されることを表しており、このときCPU11はステップSP7に移る。
ステップSP7においてCPU11は、1フレーム期間に対する処理予測時間の超過割合を算出し、当該超過割合に応じたより低い符号化レベルを選択し、次のステップSP8に移る。
ステップSP8においてCPU11は、選択された符号化レベルが存在するか否かを判断する。ステップSP8において、選択された符号化レベルが存在する場合、CPU11はステップSP3に戻り、新たに選択された符号化レベルで再度ステップSP3〜SP10を実行する。
これに対してステップSP8において、選択された符号化レベルが存在しない場合、このことはこれ以上符号化レベルを下げることができないことを表しており、このときCPU11はステップSP9に移り、各符号化レベルそれぞれに設定されている符号化ビットレートを所定値だけ下げて更新することにより、各符号化レベルそれぞれにおける処理負荷を低減する。
そしてCPU11はステップSP2に戻り、更新された符号化レベルに基づいて再度ステップSP2〜SP10を実行する。
このようにサーバPCのCPU11は、各エンコーダPC3A〜3Dそれぞれの処理能力に応じた符号化レベルを設定した後、配信映像のクラスタ符号化処理を開始する。
すなわちサーバPC2のCPU11は、図7に示すクラスタ符号化処理手順ルーチンRT2の開始ステップから入って次のステップSP15に移る。ステップSP15においてCPU11は、各エンコーダPC3A〜3Dに対し、初期値としての符号化レベルを設定する。このときCPU11は、関心領域に対する符号化レベルの向上余地を残しておくため、最高レベル以下でなおかつ1フレーム期間内に処理が終了するもっとも高い符号化レベルを初期値とする。
次のステップSP16においてCPU11は、各エンコーダPC3A〜3Dに対し、初期状態のエリアのアサインを行う。すなわち、エリア1〜エリア4をエンコーダPC3Aにアサインするともに、エリア5〜エリア8をエンコーダPC3Bに、エリア9〜エリア12をエンコーダPC3Cに、エリア13〜エリア16をエンコーダPC3Dにそれぞれアサインする。
次のステップSP17においてCPU11は、各エンコーダPC3A〜3Dに対してアサインに応じた分割ディジタル映像データD2A〜D2Dの供給を開始するとともに、各エンコーダPC3A〜3Dに対して設定した符号化レベルでの符号化処理の開始を指示し、次のステップSP18に移る。
この状態において各エンコーダPC3A〜3Dは、それぞれ分割ディジタル映像データD2A〜D2Dを符号化し、分割符号化データD3A〜D3DをサーバPC2に返送するとともに、それぞれの処理負荷情報をサーバPC2に通知する。
ステップSP18においてCPU11は、各エンコーダPC3A〜3Dから返送された分割符号化データD3A〜D3Dを合成して、各ユーザPC4A〜4Eに対して符号化映像データD4A〜D4Eとして配信する。
この状態において各ユーザPC4A〜4Eは、それぞれ符号化映像データD4A〜D4Eを復号して表示部33(図1)に表示するとともに、表示した映像に対するユーザの関心領域を検出した場合、関心領域情報D5A〜D5EとしてサーバPC11に通知する。
次のステップSP19においてCPU11は、各ユーザPC4A〜4Eから関心領域情報D5A〜D5Eが通知されているか否かを判断する。ステップSP19において、関心領域情報D5A〜D5Eが通知されていない場合、CPU11はステップSP25に移り、各エンコーダPC3A〜3Dから通知された処理負荷情報に基づいて、符号化処理が1フレーム期間内に終了するように各エンコーダPC3A〜3Dに対するエリアのアサインを行った後、ステップSP26に移る。
これに対して、ステップSP19において関心領域情報D5A〜D5Eが通知されている場合、CPU11はステップSP20に移る。
ステップSP20においてCPU11は、関心領域情報D5A〜D5Eで示された関心領域についての符号化レベルを最高レベルに上げ、次のステップSP21に移る。
ステップSP21においてCPU11は、ステップSP20で変更された符号化レベルと、各エンコーダPC3A〜3Dから通知された処理負荷情報とに基づいて、符号化処理が1フレーム期間内に終了するように各エンコーダPC3A〜3Dに対するエリアのアサインを開始し、次のステップSP22に移る。
ステップSP22においてCPU11は、ステップSP21で行ったアサイン処理において、処理時間が1フレーム期間内を超過する、アサインが不可能なエリアが存在するか否かを判定する。ステップSP22においてアサイン不可能なエリアが存在しない場合、CPU11はステップSP26に移る。
これに対して、ステップSP22においてアサイン不可能なエリアが存在した場合、CPU11はステップSP23に移り、関心領域の符号化レベルを一つ下げた後、次のステップSP24に移る。
ステップSP24においてCPU11は、関心領域の符号化レベルが他の領域の符号化レベルより上か否かを比較する。ステップSP24において、関心領域の符号化レベルが他の領域の符号化レベルより上ではないと判断した場合、CPU11はステップSP21に戻り、関心領域の符号化レベルが他の領域よりも上になるように再度アサインを行う。
これに対して、ステップSP24において、関心領域の符号化レベルが他の領域の符号化レベルよりも上であると判断した場合、CPU11はステップSP26に移る。
このようにしてCPU11は、各ユーザPC4A〜4Eから通知された関心領域情報D5A〜D5Eに基づいて、関心領域の符号化レベルを他の領域よりも高く設定するとともに、変更された符号化レベルと処理負荷情報とに応じて各エンコーダPC3A〜3Dに対するエリアのアサインを変更する。
ステップSP26においてCPU11は、各エンコーダPC3A〜3Dに対して新たなアサインに応じた分割ディジタル映像データD2A〜D2Dの供給を開始するとともに、変更した符号化レベルで次のフレームの符号化処理の開始を指示し、ステップSP27に移る。
ステップSP27においてCPU11は、各エンコーダPC3A〜3Dから返送された分割符号化データD3A〜D3Dを合成し、各ユーザPC4A〜4Eに対して符号化映像データD4A〜D4Eとして配信し、ステップSP19に戻る。
このときCPU11は関心領域情報D5A〜D5Eに基づいて、各ユーザPC4A〜4E個別の関心領域については、すべてのレベルの符号化データを伝送するのに対し、他のユーザPC4の関心領域及び関心領域以外のエリアについては、初期値のレベル3までの符号化データのみを伝送する。
このようにしてCPU11は、各ユーザPC4A〜4Eに対して、その関心領域の映像だけを高画質で配信する。
次に、エンコーダPC3(3A〜3D)における符号化処理手順について説明する。エンコーダPC3のCPU21は、図8に示す符号化処理手順ルーチンRT3の開始ステップから入ってステップSP31に移る。ステップSP31においてCPU21は、サーバPC2からから供給される分割ディジタル映像データD2(D2A〜D2D)の供給を待ち受け、当該分割ディジタル映像データD2を受け取ると、次のステップSP32に移る。
ステップSP32においてCPU21は、受け取った分割ディジタル映像データD2の各エリアをそれぞれ指定された符号化レベルで符号化して分割符号化データD3(D3A〜D3D)を生成し、次のステップSP33に移る。
ステップSP33においてCPU11は、分割符号化データD3をサーバPC2に返送するとともに、このときの処理負荷情報をサーバPC2に通知し、ステップSP31に戻る。
このようにしてエンコーダPC3のCPU21は、サーバPC2から供給される分割ディジタル映像データD2を逐次符号化して分割符号化データD3を返送するとともに、符号化処理の処理負荷情報をサーバPC2に通知していく。
次に、ユーザPC4(4A〜4E)における表示処理手順について説明する。ユーザPC4のCPU31は、図9に示す表示処理手順ルーチンRT4の開始ステップから入ってステップSP41に移る。ステップSP41においてCPU31は、サーバPC2からから供給される符号化映像データD4(D4A〜D4E)の供給を待ち受け、当該符号化映像データD4を受信すると、次のステップSP42に移る。
ステップSP42においてCPU31は、受け取った符号化映像データD4を復号して表示部33に表示し、次のステップSP43に移る。
ステップSP43においてCPU31は、ユーザの関心領域抽出タイミングが到来したか否かを判定する。ステップSP43において、関心領域抽出タイミングが到来していないと判定した場合、CPU31はステップSP41に戻り、再度符号化映像データD4の受信、復号及び表示を行う。
これに対して、ステップSP43において関心領域抽出タイミングが到来したと判定した場合、CPU31はステップSP44に移る。
ステップSP44においてCPU31は、視線検出部36を介してユーザの画像を取り込み、当該取り込んだユーザの画像から表示画像における関心領域を抽出し、関心領域情報D5(D5A〜D5E)としてサーバPC2に送信した後、ステップSP41に戻る。
このようにしてユーザPC4のCPU31は、サーバPC2から配信される符号化映像データD4を逐次復号して表示するとともに、所定タイミング毎にユーザの関心領域を抽出してサーバPC2に通知していく。
(4)関心領域の推移に応じた符号化レベルの変化例
次に、上述した関心領域適応符号化による、関心領域の推移に応じた符号化レベルの変化の例を図10を用いて説明する。図10において、各ユーザPC4A〜4Eは3秒毎に関心領域を抽出し、抽出した関心領域に応じて、各エンコーダPC3A〜3Dに対するアサインが変化している。
すなわち処理開始直後の期間T1においては、初期状態として、エリア1〜エリア4がエンコーダPC3Aに、エリア5〜エリア8がエンコーダPC3Bに、エリア9〜エリア12がエンコーダPC3Cに、エリア13〜エリア16がエンコーダPC3Dにそれぞれアサインされている。このとき、エリア1〜16の符号化レベルはいずれも初期値のレベル3であり、各エンコーダPC3の処理負荷レベルはいずれも「1」である。
そして、この期間T1において表示した映像に対し、ユーザPC4Aはエリア12を、ユーザPC4Bはエリア4を、ユーザPC4Cはエリア2を、ユーザPC4Dはエリア5を、ユーザPC4Eはエリア13をそれぞれ関心領域として抽出した。サーバPC2はこの関心領域の抽出結果を反映して、次の期間T2における符号化レベル及びアサインの変更を行う。
すなわちこの期間T2において、サーバPC2は関心領域であるエリア2、4、5、12及び13を符号化レベル2に設定した。
この期間T2における、各ユーザPC4A〜4Eの表示映像の符号化レベルを、図11及び図12に示す。各ユーザPC4A〜4Eにおいては、個別の関心領域のみが符号化レベルが高くなっており、関心領域以外の領域は符号化レベル3になっている。
また、期間T4において、エリア3及びエリア4に対して符号化レベル1が設定されている。初期状態においてはユーザPC4Aに対してエリア3及びエリア4の双方がアサインされており、このままでは当該ユーザPC4Aの処理負荷が過大になる。
このためサーバPC2は期間T4において、ユーザPC4Bに対してエリア4をアサインするとともに、この代わりにユーザPC4Aに対してエリア5をアサインすることにより、符号化負荷を分散している。
(5)動作及び効果
以上の構成において、動画像クラスタ処理システム1のサーバPC2は、ディジタル映像信号D1の1フレーム分の画像データを16枚のエリアに分割して4台のエンコーダPC3A〜3Dに適宜割り当て分割ディジタル映像データD2A〜D2Dを生成し、それぞれ対応するエンコーダPC3A〜3Dに供給する。
エンコーダPC3A〜3Dは、分割ディジタル映像データD2A〜D2Dをそれぞれ符号化して分割符号化データD3A〜D3Dを生成し、このときの処理負荷情報とともにサーバPC2に送信する。サーバPC2は分割符号化データD3A〜D3Dを合成して1フレーム分のデータでなる符号化映像データD4A〜D4Eを生成し、対応するユーザPC4A〜4Eに配信する。
各ユーザPC4A〜4Eはそれぞれ符号化映像データD4A〜D4Eを復号して表示する。このとき各ユーザPC4A〜4Eは、表示した配信映像においてユーザが注視している関心領域を検出し、これを関心領域情報D5A〜D5Eとしてサーバ2に通知する。
サーバ2は、関心領域情報D5A〜D5Eに基づいて関心領域の符号化レベルを上げるとともに、処理負荷情報を参考にして、各エンコーダPC3A〜3Dの符号化処理が1フレーム期間内に終了するように、各エンコーダPC3A〜3Dに対するエリアのアサインを適宜変更する。
さらにサーバ2は、符号化映像データD4A〜D4EをユーザPC4A〜4Eに配信する際、関心領域情報D5A〜D5Eに基づいて、各ユーザPC4A〜4E個別の関心領域についてはすべてのレベルの符号化データを伝送するのに対し、他のユーザPC4の関心領域及び関心領域以外のエリアについては、初期値のレベル3までの符号化データのみを伝送する。
以上の構成によれば、各ユーザPC4A〜4Eにおいて配信映像におけるユーザが注視している関心領域を検出し、当該関心領域の符号化品質を上げて符号化することにより、各ユーザが注視している領域の画質をのみを選択的に向上させ、これによりシステム全体の伝送データ量を抑えつつ、各ユーザの関心領域の画像を鮮明に伝送することができる。
また、符号化映像データD4A〜D4EをユーザPC4A〜4Eに配信する際、各ユーザPC4A〜4E個別の関心領域についてのみ、すべてのレベルの符号化データを伝送することにより、他ユーザの関心領域については標準的な画質で伝送して、システム全体の伝送データ量をさらに抑えつつ、各ユーザの関心領域の画像を鮮明に伝送することができる。
また、関心領域情報D5A〜D5E及び処理負荷情報に基づいて、各エンコーダPC3A〜3Dに対するエリアのアサインを適宜変更することにより、各エンコーダPC3A〜3Dの処理能力を有効に活用して、動画像クラスタ処理のリアルタイム性を確保しつつ、可能な限り高い画質で動画像の圧縮符号化を行うことができる。
(6)他の実施の形態
なお上述の実施の形態においては、動画像クラスタ処理システム1がJPEG2000方式による動画像圧縮伸張処理を実行する場合について述べたが、本発明はこれに限らず、例えばMPEG(Moving Picture Experts Group)2方式等、様々な符号化方式を本発明に適用することができる。
また上述の実施の形態においては、サーバPC2、エンコーダPC3及びユーザPC4それぞれのCPU11、21及び31が、それぞれのハードディスクドライブ14、24及び34に格納されている動画像クラスタ処理プログラム、動画像符号化処理プログラム及び動画像表示プログラムを実行するようにしたが、本発明はこれに限らず、これらのプログラムが格納されているプログラム格納媒体をインストールすることにより、上述した処理を実行するようにしてもよい。
この場合、サーバPC2、エンコーダPC3及びユーザPC4にプログラムをインストールするためのプログラム格納媒体としては、例えばCD−ROM(Compact Disk-Read Only Memory)やDVD(Digital Versatile Disk)等のパッケージメディアのみならず、プログラムが一時的又は永続的に格納される半導体メモリや磁気ディスク等で実現してもよい。また、これらプログラム格納媒体にプログラムを格納する手段としては、ローカルエリアネットワークやインターネット、ディジタル衛星放送等の有線及び無線通信媒体を用いても良い。
また上述の実施の形態においては、ユーザの関心領域を抽出する方法として、当該ユーザの顔面を2台のカメラで撮影し、右側顔面映像及び左側顔面映像に対してテンプレートマッチング処理を行うことによりユーザの顔面の指向方向を検出し、当該検出した指向方向に基づいて、配信映像上の関心領域を抽出するようにしたが、本発明はこれに限らず、例えばユーザが装着したヘッドセットによって頭部の指向方向を検出し、当該検出した指向方向に基づいて関心領域を抽出する等、種々の方法で関心領域を抽出してもよい。
複数台のパーソナルコンピュータ、ワークステーション、パソコン等を用いて動画像処理を行う場合に適用できる。
動画像クラスタ処理システムの全体構成を示すブロック図である。 フレームの分割状態を示す略線図である。 視線検出部の構成を示すブロック図である。 SNRスケーラビリティの説明に供する略線図である。 エンコードレベルと標準符号化処理時間の関係を示す表である。 サーバPCのクラスタ符号化準備処理手順を示すフローチャートである。 サーバPCのクラスタ符号化処理手順を示すフローチャートである。 エンコーダPCの符号化処理手順を示すフローチャートである。 ユーザPCの表示処理手順を示すフローチャートである。 関心領域とエンコード符号化レベルの説明に供する略線図である。 各ユーザPCに対する符号化レベルを示す略線図である。 各ユーザPCに対する符号化レベルを示す略線図である。
符号の説明
1……動画像クラスタ処理システム、2……サーバPC、3A〜3D……エンコーダPC、4A〜4E……ユーザPC、5……ネットワーク、11、21、31……CPU、12、22、32……メモリ、13、23、33……表示部、14、24、34……ハードディスクドライブ、15、25、35……ネットワークインターフェース、16……ビデオキャプチャ回路、17、27、37……バス、36……視線検出部。

Claims (11)

  1. 映像を配信する映像配信装置と、上記配信された映像を表示する映像表示装置とからなる映像配信システムにおいて、
    上記映像配信装置は、
    入力された映像データを複数の映像領域に対応して分割し、複数の分割映像データを生成する映像分割手段と、
    上記複数の分割映像データをそれぞれ符号化して複数の分割符号化データを生成する符号化手段と、
    上記符号化手段を制御する符号化制御手段と、
    複数の上記分割符号化データを合成して符号化映像データを生成する合成手段と、
    上記符号化映像データを上記映像表示装置に配信する配信手段とを具え、
    上記映像表示装置は、
    上記配信された符号化映像データを受信する受信手段と、
    上記符号化映像データを復号して映像を表示する復号表示手段と、
    上記復号表示手段が表示する上記映像に対する視聴者の注視領域を検出する注視領域検出手段とを具え、
    上記符号化制御手段は、上記注視領域検出手段が検出した上記注視領域に対応する上記映像領域の上記分割映像データに対する符号化品質を向上させる
    ことを特徴とする映像配信システム。
  2. 入力された映像データを複数の映像領域に対応して分割し、複数の分割映像データを生成する映像分割手段と、
    上記複数の分割映像データをそれぞれ符号化して複数の分割符号化データを生成する符号化手段と、
    複数の上記分割符号化データを合成して符号化映像データを生成する合成手段と、
    上記符号化映像データを映像表示装置に配信する配信手段と、
    上記映像表示装置から送信される、上記配信した符号化映像データを復号して表示した映像に対する視聴者の注視領域を示す注視領域情報を受信する注視領域情報受信手段と、
    受信した上記注視領域情報が示す上記注視領域に対応する上記映像領域の上記分割映像
    データの符号化品質を向上させるように、上記符号化手段を制御する符号化制御手段と
    を具えることを特徴とする映像配信装置。
  3. 上記符号化制御手段は、複数の上記映像表示装置それぞれで検出した複数の上記注視領域に対応する上記映像領域の上記分割映像データに対する符号化品質を向上させる
    ことを特徴とする請求項2に記載の映像配信装置。
  4. 上記配信手段は、複数の上記映像表示装置それぞれに対し、当該映像表示装置個別の上記注視領域に対応する上記分割映像データのみを上記向上させた符号化品質のまま配信し、他の上記映像表示装置の上記注視領域に対応する上記分割映像データは標準的な符号化品質で配信する
    ことを特徴とする請求項3に記載の映像配信装置。
  5. 上記符号化手段は、複数の情報処理装置で構成される
    ことを特徴とする請求項2に記載の映像配信装置。
  6. 上記符号化制御手段は、上記複数の情報処理装置それぞれから通知される符号化処理の処理負荷情報と、上記注視領域検出手段が検出した上記注視領域の情報とに応じて、上記複数の情報処理装置それぞれに対する上記分割映像データの符号化処理を割り当てる
    ことを特徴とする請求項5に記載の映像配信装置。
  7. 入力された映像データを複数の映像領域に対応して分割し、複数の分割映像データを生成する映像分割ステップと、
    上記複数の分割映像データをそれぞれ符号化して複数の分割符号化データを生成する符号化ステップと、
    複数の上記分割符号化データを合成して符号化映像データを生成する合成ステップと、
    上記符号化映像データを映像表示装置に配信する配信ステップと、
    上記映像表示装置から送信される、上記配信した符号化映像データを復号して表示した映像に対する視聴者の注視領域を示す注視領域情報を受信する注視領域情報受信ステップと、
    受信した上記注視領域情報が示す上記注視領域に対応する上記映像領域の上記分割映像
    データの符号化品質を向上させるように、上記符号化手段を制御する符号化制御ステップと
    を具えることを特徴とする映像配信方法。
  8. 入力された映像データを複数の映像領域に対応して分割し、複数の分割映像データを生成する映像分割ステップと、
    上記複数の分割映像データをそれぞれ符号化して複数の分割符号化データを生成する符号化ステップと、
    複数の上記分割符号化データを合成して符号化映像データを生成する合成ステップと、
    上記符号化映像データを映像表示装置に配信する配信ステップと、
    上記映像表示装置から送信される、上記配信した符号化映像データを復号して表示した映像に対する視聴者の注視領域を示す注視領域情報を受信する注視領域情報受信ステップと、
    受信した上記注視領域情報が示す上記注視領域に対応する上記映像領域の上記分割映像
    データの符号化品質を向上させるように、上記符号化手段を制御する符号化制御ステップと
    を映像配信装置に実行させる映像配信プログラム。
  9. 映像配信装置から配信された符号化映像データを受信する受信手段と、
    上記符号化映像データを復号して映像を表示する復号表示手段と、
    上記復号表示手段が表示する上記映像に対する視聴者の注視領域を検出する注視領域検出手段と、
    上記検出した注視領域を示す注視領域情報を上記映像配信装置に送信する注視領域情報送信手段と
    を具えることを特徴とする映像表示装置。
  10. 映像配信装置から配信された符号化映像データを受信する受信ステップと、
    上記符号化映像データを復号して映像を表示する復号表示ステップと、
    表示した上記映像に対する視聴者の注視領域を検出する注視領域検出ステップと、
    上記検出した注視領域を示す注視領域情報を上記映像配信装置に送信する注視領域情報送信ステップと
    を具えることを特徴とする映像表示方法。
  11. 映像配信装置から配信された符号化映像データを受信する受信ステップと、
    上記符号化映像データを復号して映像を表示する復号表示ステップと、
    表示した上記映像に対する視聴者の注視領域を検出する注視領域検出ステップと、
    上記検出した注視領域を示す注視領域情報を上記映像配信装置に送信する注視領域情報送信ステップと
    を映像表示装置に実行させる映像表示プログラム。
JP2003364574A 2003-10-24 2003-10-24 映像配信システム、映像配信装置、映像配信方法及び映像配信プログラム Expired - Fee Related JP4305752B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003364574A JP4305752B2 (ja) 2003-10-24 2003-10-24 映像配信システム、映像配信装置、映像配信方法及び映像配信プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003364574A JP4305752B2 (ja) 2003-10-24 2003-10-24 映像配信システム、映像配信装置、映像配信方法及び映像配信プログラム

Publications (2)

Publication Number Publication Date
JP2005130251A true JP2005130251A (ja) 2005-05-19
JP4305752B2 JP4305752B2 (ja) 2009-07-29

Family

ID=34643515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003364574A Expired - Fee Related JP4305752B2 (ja) 2003-10-24 2003-10-24 映像配信システム、映像配信装置、映像配信方法及び映像配信プログラム

Country Status (1)

Country Link
JP (1) JP4305752B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2428153A (en) * 2005-07-08 2007-01-17 Sharp Kk Interactive multiple view display
JP2011004054A (ja) * 2009-06-17 2011-01-06 Sharp Corp 画像処理システム及び方法
CN102970481A (zh) * 2011-09-01 2013-03-13 索尼公司 拍摄系统、图案检测系统和电子单元
JP2015517239A (ja) * 2012-03-12 2015-06-18 アルカテル−ルーセント ビデオインターフェースを制御するための方法、ビデオインターフェースを動作させるための方法、顔向き検出器、およびビデオ会議サーバ
WO2015190093A1 (ja) * 2014-06-10 2015-12-17 株式会社ソシオネクスト 半導体集積回路およびそれを備えた表示装置並びに制御方法
US9261958B2 (en) 2009-07-29 2016-02-16 Samsung Electronics Co., Ltd. Apparatus and method for navigation in digital object using gaze information of user
JP2016178356A (ja) * 2015-03-18 2016-10-06 株式会社リコー 通信装置、通信システム、受信制御方法およびプログラム
JP2019080273A (ja) * 2017-10-27 2019-05-23 株式会社リコー 通信端末、通信システム、通信方法、及びプログラム
JP2019534614A (ja) * 2016-09-26 2019-11-28 ドルビー ラボラトリーズ ライセンシング コーポレイション コンテンツに基づいた映像データのストリーム分割
JP2020043533A (ja) * 2018-09-13 2020-03-19 凸版印刷株式会社 映像伝送システム、映像伝送装置、および、映像伝送プログラム
US10771745B2 (en) 2016-08-23 2020-09-08 Nec Corporation Image processing apparatus, image processing method, and storage medium having program stored therein
WO2022158220A1 (ja) * 2021-01-25 2022-07-28 株式会社ソニー・インタラクティブエンタテインメント 画像表示システムおよび画像表示方法
JP7271080B2 (ja) 2017-10-11 2023-05-11 エヌ・ティ・ティ・コミュニケーションズ株式会社 通信装置、通信システム、通信方法、及びプログラム

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2428153A (en) * 2005-07-08 2007-01-17 Sharp Kk Interactive multiple view display
JP2011004054A (ja) * 2009-06-17 2011-01-06 Sharp Corp 画像処理システム及び方法
US9261958B2 (en) 2009-07-29 2016-02-16 Samsung Electronics Co., Ltd. Apparatus and method for navigation in digital object using gaze information of user
CN102970481A (zh) * 2011-09-01 2013-03-13 索尼公司 拍摄系统、图案检测系统和电子单元
EP2565822A3 (en) * 2011-09-01 2013-09-04 Sony Corporation Electronic unit controlled by a photographing system including a pattern detection system
JP2015517239A (ja) * 2012-03-12 2015-06-18 アルカテル−ルーセント ビデオインターフェースを制御するための方法、ビデオインターフェースを動作させるための方法、顔向き検出器、およびビデオ会議サーバ
US9402053B2 (en) 2012-03-12 2016-07-26 Alcatel Lucent Method for control of a video interface, method for operation of a video interface, face orientation detector, and video conferencing server
WO2015190093A1 (ja) * 2014-06-10 2015-12-17 株式会社ソシオネクスト 半導体集積回路およびそれを備えた表示装置並びに制御方法
US10855946B2 (en) 2014-06-10 2020-12-01 Socionext Inc. Semiconductor integrated circuit, display device provided with same, and control method
JPWO2015190093A1 (ja) * 2014-06-10 2017-06-01 株式会社ソシオネクスト 半導体集積回路およびそれを備えた表示装置並びに制御方法
JP2016178356A (ja) * 2015-03-18 2016-10-06 株式会社リコー 通信装置、通信システム、受信制御方法およびプログラム
US10771745B2 (en) 2016-08-23 2020-09-08 Nec Corporation Image processing apparatus, image processing method, and storage medium having program stored therein
JP2019534614A (ja) * 2016-09-26 2019-11-28 ドルビー ラボラトリーズ ライセンシング コーポレイション コンテンツに基づいた映像データのストリーム分割
US11653065B2 (en) 2016-09-26 2023-05-16 Dolby Laboratories Licensing Corporation Content based stream splitting of video data
US11303966B2 (en) 2016-09-26 2022-04-12 Dolby Laboratories Licensing Corporation Content based stream splitting of video data
JP7271080B2 (ja) 2017-10-11 2023-05-11 エヌ・ティ・ティ・コミュニケーションズ株式会社 通信装置、通信システム、通信方法、及びプログラム
JP2019080273A (ja) * 2017-10-27 2019-05-23 株式会社リコー 通信端末、通信システム、通信方法、及びプログラム
JP7006133B2 (ja) 2017-10-27 2022-01-24 株式会社リコー 通信システム及び通信方法
JP7256491B2 (ja) 2018-09-13 2023-04-12 凸版印刷株式会社 映像伝送システム、映像伝送装置、および、映像伝送プログラム
JP2020043533A (ja) * 2018-09-13 2020-03-19 凸版印刷株式会社 映像伝送システム、映像伝送装置、および、映像伝送プログラム
JP7498459B2 (ja) 2018-09-13 2024-06-12 Toppanホールディングス株式会社 映像伝送システム、映像伝送装置、および、映像伝送プログラム
WO2022158220A1 (ja) * 2021-01-25 2022-07-28 株式会社ソニー・インタラクティブエンタテインメント 画像表示システムおよび画像表示方法

Also Published As

Publication number Publication date
JP4305752B2 (ja) 2009-07-29

Similar Documents

Publication Publication Date Title
US11924394B2 (en) Methods and apparatus for receiving and/or using reduced resolution images
US11902493B2 (en) Methods and apparatus for processing content based on viewing information and/or communicating content
JP4305752B2 (ja) 映像配信システム、映像配信装置、映像配信方法及び映像配信プログラム
EP1259080B1 (en) Picture transmission method, picture transmission method program, storage medium which stores picture transmission method program, and picture transmission apparatus
US20050237380A1 (en) Coding method for notion-image data, decoding method, terminal equipment executing these, and two-way interactive system
JP2009021901A (ja) 画像送信装置、画像送信方法、受信装置および画像送信システム
JP2006314115A (ja) 画像復号化装置および画像復号化方法
JP2002351438A (ja) 映像監視システム
JP2005045666A (ja) トランスコーダ
JP3913726B2 (ja) 多地点テレビ会議制御装置及び多地点テレビ会議システム
KR20200076529A (ko) 가상 현실 비디오 스트리밍에서의 관심영역 타일 인덱싱
JP2005341323A (ja) 多地点テレビ会議システム,多地点テレビ会議制御方法,サーバ装置,多地点テレビ会議制御プログラムおよびそのプログラム記録媒体
WO2020050058A1 (ja) コンテンツ配信システムおよびコンテンツ配信方法、並びにプログラム
WO2018035383A1 (en) Methods and apparatus for processing content based on viewing information and/or communicating content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090409

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090422

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees