JP4305752B2 - VIDEO DISTRIBUTION SYSTEM, VIDEO DISTRIBUTION DEVICE, VIDEO DISTRIBUTION METHOD, AND VIDEO DISTRIBUTION PROGRAM - Google Patents

VIDEO DISTRIBUTION SYSTEM, VIDEO DISTRIBUTION DEVICE, VIDEO DISTRIBUTION METHOD, AND VIDEO DISTRIBUTION PROGRAM Download PDF

Info

Publication number
JP4305752B2
JP4305752B2 JP2003364574A JP2003364574A JP4305752B2 JP 4305752 B2 JP4305752 B2 JP 4305752B2 JP 2003364574 A JP2003364574 A JP 2003364574A JP 2003364574 A JP2003364574 A JP 2003364574A JP 4305752 B2 JP4305752 B2 JP 4305752B2
Authority
JP
Japan
Prior art keywords
video
encoding
video data
divided
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003364574A
Other languages
Japanese (ja)
Other versions
JP2005130251A (en
Inventor
明宏 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003364574A priority Critical patent/JP4305752B2/en
Publication of JP2005130251A publication Critical patent/JP2005130251A/en
Application granted granted Critical
Publication of JP4305752B2 publication Critical patent/JP4305752B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は映像配信システムに関し、映像を符号化して複数の視聴者に配信する場合に適用して好適なものである。   The present invention relates to a video distribution system, and is suitable for application to a case where video is encoded and distributed to a plurality of viewers.

従来、ネットワークや放送等を介して、離れた地点の映像を複数の利用者で共用して視聴するシステムが一般化している。ISDN(Integrated Services Digital Network)やインターネット等を用いた多地点テレビ会議システム、スポーツ競技の多人数での視聴、監視カメラシステム等はその一例である。   2. Description of the Related Art Conventionally, a system in which a video at a distant point is shared by a plurality of users and viewed via a network, a broadcast, or the like has become common. Examples thereof include a multipoint video conference system using ISDN (Integrated Services Digital Network) and the Internet, viewing by a large number of people in sports competitions, a surveillance camera system, and the like.

一方、大量の計算処理を必要とする分野において、複数の計算機を高速ネットワークで接続して分散処理を行う、いわゆるクラスタ処理が一般化しつつある。このクラスタ処理によって、高価な高性能計算機と同等の処理を、より安価な構成で実行することができる。一般に高画質データの圧縮処理にあたっては、大量の計算が必要であり、これを安価に実現する手段としてクラスタ処理を適用することが考えられる(例えば、特許文献1参照)。
特開2000−30047公報
On the other hand, in a field that requires a large amount of calculation processing, so-called cluster processing, in which a plurality of computers are connected by a high-speed network and distributed processing is becoming common. By this cluster processing, processing equivalent to an expensive high-performance computer can be executed with a cheaper configuration. In general, a large amount of calculation is required for compression processing of high-quality data, and it is conceivable to apply cluster processing as means for realizing this at a low cost (for example, see Patent Document 1).
JP 2000-30047 JP

ここで、同一の映像を複数の視聴者が同時視聴する場合、映像における各視聴者の関心領域(興味を持つ部分)がそれぞれ異なる場合がある。例えば、スポーツ中継において各視聴者がそれぞれ特定の選手をより鮮明に視聴したい場合や、テレビ会議システムにおいて特定の会議参加者の挙動をより鮮明に視聴したい場合、あるいは監視カメラシステムの監視画像内において特定の領域をピックアップして鮮明に監視したい場合等が挙げられる。   Here, when a plurality of viewers view the same video at the same time, the regions of interest (interested portions) of each viewer in the video may be different. For example, if each viewer wants to watch a specific player more clearly in a sports broadcast, if he wants to see a specific conference participant's behavior more clearly in a video conference system, or in the surveillance image of a surveillance camera system For example, when a specific area is picked up and it is desired to monitor clearly.

画像を鮮明に視聴させるためには、一般的には伝送する画像のデータ量を増やす必要があるが、ネットワーク等の帯域が限られたシステム系内では伝送データ量を不用意に増加させることは望ましくないという問題がある。   In order to view images clearly, it is generally necessary to increase the amount of data to be transmitted. However, in a system such as a network where the bandwidth is limited, it is not possible to increase the amount of transmitted data carelessly. There is a problem that it is not desirable.

また、不特定多数の複数視聴者を前提にする場合、動画像の圧縮方法によっては画像品位と計算処理負荷とがトレードオフの関係にある場合もあり、このときシステム負荷は動的に変化することが予想されるが、このようなシステム負荷の変動を予期してシステムのスペックを過大に構築することは、コストや計算機資源の有効活用の観点からみて無駄が多いという問題がある。   In addition, when assuming a large number of unspecified viewers, the image quality and calculation processing load may be in a trade-off relationship depending on the moving image compression method. At this time, the system load changes dynamically. However, there is a problem that it is wasteful from the viewpoint of cost and effective use of computer resources to build an excessive system specification in anticipation of such fluctuations in system load.

このような用途に、上述したクラスタ処理を適用することが考えられるが、しかしながらクラスタ処理では、各計算機毎にその計算処理が管理され、また複数の計算処理が並列実行されている場合がほとんどである。このためクラスタ処理を用いて動画像処理をリアルタイムに実行する場合、所定の機体時間内に処理が終了する保証が無いという問題がある。   It is conceivable to apply the above-described cluster processing for such purposes, however, in cluster processing, the calculation processing is managed for each computer, and a plurality of calculation processing is executed in parallel in most cases. is there. For this reason, when moving image processing is executed in real time using cluster processing, there is a problem that there is no guarantee that the processing will be completed within a predetermined aircraft time.

本発明は以上の点を考慮してなされたもので、共通の映像を複数視聴者に配信する際に、伝送データ量を抑えつつ、各視聴者の注視領域を鮮明に配信し得る映像配信システム及び映像配信方法を提案しようとするものである。   The present invention has been made in consideration of the above points, and when distributing a common video to a plurality of viewers, a video distribution system capable of clearly distributing the gaze area of each viewer while suppressing the amount of transmission data. And a video distribution method.

かかる課題を解決するため本発明においては、映像を配信する映像配信装置と、配信された映像を表示する映像表示装置とからなる映像配信システムにおいて、映像配信装置は、入力された映像データを複数の映像領域に対応して分割し、複数の分割映像データを生成する映像分割手段と、複数の情報処理装置で構成され、複数の分割映像データをそれぞれ符号化して複数の分割符号化データを生成する符号化手段と、符号化手段を制御する符号化制御手段と、複数の分割符号化データを合成して符号化映像データを生成する合成手段と、符号化映像データを映像表示装置に配信する配信手段とを具え、映像表示装置は、配信された符号化映像データを受信する受信手段と、符号化映像データを復号して映像を表示する復号表示手段と、復号表示手段が表示する映像に対する視聴者の注視領域を検出する注視領域検出手段とを有し、符号化制御手段は、注視領域検出手段が検出した注視領域に対応する映像領域の分割映像データに対する符号化品質を向上させると共に、複数の情報処理装置それぞれから通知される符号化処理の処理負荷情報と、注視領域検出手段が検出した注視領域の情報とに応じて、複数の情報処理装置それぞれに対する分割映像データの符号化処理を割り当てるようにした。 In order to solve this problem, in the present invention, in a video distribution system including a video distribution device that distributes video and a video display device that displays the distributed video, the video distribution device receives a plurality of input video data. It is composed of video dividing means that generates a plurality of divided video data and a plurality of information processing devices, and generates a plurality of divided encoded data by encoding each of the plurality of divided video data. Encoding means for controlling, encoding control means for controlling the encoding means, combining means for combining a plurality of divided encoded data to generate encoded video data, and distributing the encoded video data to the video display device The video display device includes a receiving means for receiving the distributed encoded video data, a decoding display means for decoding the encoded video data and displaying the video, and a decoding And a region of interest detection means indicates means detects a fixation region of the viewer for the video to be displayed, the encoding control unit, code for dividing the video data of the video area watch area detection means corresponds to the gaze region detected Rutotomoni improve of quality, the processing load information of the encoding process is notified from each of the plurality of information processing apparatuses, in accordance with the information of the gaze region watch area detected by the detecting means, for each of a plurality of information processing apparatuses The encoding process of divided video data was assigned .

注視領域検出手段が検出した注視領域の符号化品質を選択的に向上させることにより、
システム全体の伝送データ量を抑えつつ、視聴者の注視領域の画像を鮮明に配信することができる。
By selectively improving the encoding quality of the gaze area detected by the gaze area detection means,
It is possible to clearly distribute the image of the viewer's gaze area while suppressing the transmission data amount of the entire system.

また本発明においては、映像分割手段によって入力された映像データを複数の映像領域に対応して分割し、複数の分割映像データを生成し、複数の分割映像データをそれぞれ符号化して複数の分割符号化データを生成する複数の情報処理装置に対し、符号化制御手段によって分割映像データを割り当てて供給し、合成手段によって複数の分割符号化データを合成して符号化映像データを生成する合成し、配信手段によって符号化映像データを映像表示装置に配信し、注視領域情報受信手段によって映像表示装置から送信される、配信した符号化映像データを復号して表示した映像に対する視聴者の注視領域を示す注視領域情報を受信し、注視領域検出手段が検出した注視領域に対応する映像領域の分割映像データに対する符号化品質を向上させると共に、複数の情報処理装置それぞれから通知される符号化処理の処理負荷情報と、注視領域検出手段が検出した注視領域の情報とに応じて、複数の情報処理装置それぞれに対する分割映像データの符号化処理を割り当てるようにした。 In the present invention, the video data input by the video dividing means is divided corresponding to a plurality of video areas, a plurality of divided video data is generated, and the plurality of divided video data are encoded to obtain a plurality of divided codes. A plurality of information processing devices that generate encoded data are allocated and supplied with divided video data by the encoding control means, and a plurality of divided encoded data are combined by the combining means to generate encoded video data, The encoded video data is delivered to the video display device by the distribution means, and the viewer's gaze area for the video that is transmitted from the video display device by the gaze area information receiving means and decoded is displayed. Receives gaze area information and improves the encoding quality for the divided video data of the video area corresponding to the gaze area detected by the gaze area detection means. In addition, the code of the divided video data for each of the plurality of information processing devices according to the processing load information of the encoding process notified from each of the plurality of information processing devices and the information of the gaze region detected by the gaze region detection means Added the process .

これにより、その視聴者の注視領域のみを向上した画質で配信することができ、システム全体の伝送データ量をさらに抑えつつ、各ユーザの関心領域の画像を鮮明に配信することができる。   Thereby, it is possible to distribute only the viewer's gaze area with improved image quality, and it is possible to clearly distribute the image of the area of interest of each user while further reducing the amount of transmission data of the entire system.

上述のように本発明によれば、システム全体の転送データ量を抑えつつ、視聴者の中止領域の画像を鮮明に配信できる映像配信システム、映像配信装置、映像配信方法及び映像配信プログラムを実現できる。 According to the present invention as described above, achieved while suppressing the amount of data transferred across the system, clearly distribution can video distribution system image viewers stop region, the video distribution device, a video distribution method, and a video distribution program it can.

以下図面について、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)動画像クラスタ処理システムの全体構成
図1は、本発明による動画像クラスタ処理システム1を示し、サーバPC(Personal Computer)2と、4台のエンコーダPC3A〜3Dと、5台のユーザPC4A〜4Eとがネットワーク5を介して接続されている。
(1) Overall Configuration of Moving Image Cluster Processing System FIG. 1 shows a moving image cluster processing system 1 according to the present invention, which includes a server PC (Personal Computer) 2, four encoder PCs 3A to 3D, and five user PCs 4A. To 4E are connected via the network 5.

この、映像配信システムとしての動画像クラスタ処理システム1は、映像配信装置としてのサーバPC2に供給されるアナログ映像信号S1を、情報処理装置及び符号化手段としてのエンコーダPC3A〜3Dを用いたクラスタ処理によってJPEG(Joint Photographic cording experts Group)2000方式でリアルタイム圧縮符号化処理し、映像表示装置としてのユーザPC4A〜4Eに配信するようになされている。   The moving image cluster processing system 1 as a video distribution system uses an information processing device and encoder PCs 3A to 3D as encoding means for processing an analog video signal S1 supplied to a server PC2 as a video distribution device. The JPEG (Joint Photographic Cording Experts Group) 2000 system performs real-time compression encoding processing and distributes it to the user PCs 4A to 4E as video display devices.

サーバPC2においては、当該サーバPC2を統括制御するCPU11に対し、メモリ12、表示部13、ハードディスクドライブ14、ネットワークインターフェース15及びビデオキャプチャ回路16が、バス17を介して接続されている。   In the server PC 2, a memory 12, a display unit 13, a hard disk drive 14, a network interface 15, and a video capture circuit 16 are connected to a CPU 11 that controls the server PC 2 through a bus 17.

ハードディスクドライブ14には、例えばWindows(登録商標)等のオペレーティングシステムや、動画像クラスタ処理プログラム等の各種アプリケーションプログラムが格納されている。CPU11は、サーバPC2の起動に応じてハードディスクドライブ14からオペレーティングシステムを読み出し、メモリ12に展開して実行する。   The hard disk drive 14 stores an operating system such as Windows (registered trademark) and various application programs such as a moving image cluster processing program. The CPU 11 reads the operating system from the hard disk drive 14 in response to the activation of the server PC 2, expands it in the memory 12, and executes it.

そしてCPU11は、オペレーティングシステムの実行環境下において動画像クラスタ処理プログラムを実行し、エンコーダPC3A〜3Dに対して動画像の圧縮符号化処理を分散処理させる。   Then, the CPU 11 executes the moving image cluster processing program under the operating system execution environment, and causes the encoders PC3A to 3D to distribute the moving image compression encoding processing.

すなわちサーバPC2のビデオキャプチャ回路16は、外部から供給されるアナログ映像信号S1をディジタル変換してディジタル映像信号D1を生成し、これをCPU11に供給する。CPU11は動画像クラスタ処理プログラムに従い、ディジタル映像信号D1の圧縮符号化をエンコーダPC3A〜3Dに分散処理させる。   That is, the video capture circuit 16 of the server PC 2 converts the analog video signal S1 supplied from the outside into a digital signal, generates a digital video signal D1, and supplies this to the CPU 11. In accordance with the moving image cluster processing program, the CPU 11 causes the encoders PC3A to 3D to distributely compress and encode the digital video signal D1.

ここでJPEG2000方式は、ディジタル映像信号の圧縮符号化を、ピクチャとしてのフレーム(又はフィールド)毎に完結して行うとともに、各フレームを複数の画像領域に分割して、各画像領域個別に圧縮符号化し得るようになされている。   Here, the JPEG2000 system performs compression encoding of a digital video signal for each frame (or field) as a picture, and divides each frame into a plurality of image areas, and compresses each image area individually. It is made to become possible.

すなわち図2に示すように、映像分割手段としてのCPU11は、例えば720×480画素でなるディジタル映像信号S1の各フレームを4分割し、360×240画素でなる4個のブロックを生成する。さらにCPU11は各ブロックを4分割し、180×120画素でなる16個のエリアを生成する。ブロック1はエリア1〜4、ブロック2はエリア5〜8、ブロック3はエリア9〜12、ブロック4はエリア13〜16でそれぞれ構成される。   That is, as shown in FIG. 2, the CPU 11 as the video dividing means divides each frame of the digital video signal S1 composed of, for example, 720 × 480 pixels into four to generate four blocks composed of 360 × 240 pixels. Further, the CPU 11 divides each block into four to generate 16 areas each having 180 × 120 pixels. Block 1 includes areas 1 to 4, block 2 includes areas 5 to 8, block 3 includes areas 9 to 12, and block 4 includes areas 13 to 16.

このときCPU11は、初期状態として、エリア1〜エリア4をエンコーダPC3Aに割り当てるとともに、エリア5〜エリア8をエンコーダPC3Bに、エリア9〜エリア12をエンコーダPC3Cに、エリア13〜エリア16をエンコーダPC3Dにそれぞれ割り当てる(この割り当てをアサインと呼ぶ)。そしてCPU11は、各エンコーダPC3A〜3DにPC3Aに割り当てたエリアの映像データを、それぞれ分割ディジタル映像データD2A〜D2DとしてエンコーダPC3A〜3DにPC3Aに順次供給する。   At this time, as an initial state, the CPU 11 assigns area 1 to area 4 to the encoder PC 3A, area 5 to area 8 to the encoder PC 3B, area 9 to area 12 to the encoder PC 3C, and area 13 to area 16 to the encoder PC 3D. Assign each one (this assignment is called an assignment). Then, the CPU 11 sequentially supplies the video data of the area allocated to the PC 3A to each encoder PC 3A to 3D as the divided digital video data D2A to D2D to the encoder PC 3A to 3D to the PC 3A.

なお、各エンコーダPC3A〜3Dに対するエリアのアサインは、後述する関心領域適応符号化処理手順に基づき、各エンコーダPC3の処理負荷に応じて符号化制御手段としてのCPU11によって適宜変更される。   The area assignment for each of the encoders PC3A to 3D is appropriately changed by the CPU 11 serving as an encoding control unit according to the processing load of each encoder PC3 based on a region-of-interest adaptive encoding processing procedure described later.

エンコーダPC3(3A〜3D)においては、当該エンコーダPC3を統括制御するCPU21に対し、メモリ22、表示部23、ハードディスクドライブ24及びネットワークインターフェース25がバス27を介して接続されている。   In the encoder PC3 (3A to 3D), a memory 22, a display unit 23, a hard disk drive 24, and a network interface 25 are connected via a bus 27 to a CPU 21 that performs overall control of the encoder PC3.

ハードディスクドライブ24には、オペレーティングシステムやクラスタアプリケーションプログラム等の各種アプリケーションプログラムが格納されている。CPU21は、エンコーダPC3の起動に応じてハードディスクドライブ24からオペレーティングシステムを読み出し、メモリ22に展開して実行する。   The hard disk drive 24 stores various application programs such as an operating system and a cluster application program. The CPU 21 reads the operating system from the hard disk drive 24 in response to the activation of the encoder PC 3, expands it in the memory 22, and executes it.

そしてCPU21は、オペレーティングシステムの実行環境下において動画像符号化プログラムを実行することにより、サーバPC2から供給される分割ディジタル映像データD2(D2A〜D2D)をJPEG2000方式で圧縮符号化して分割符号化データD3(D3A〜D3D)を生成し、これをサーバPC2に返送する。   Then, the CPU 21 executes the moving image encoding program under the operating environment of the operating system, thereby compressing and encoding the divided digital video data D2 (D2A to D2D) supplied from the server PC2 by the JPEG2000 method. D3 (D3A to D3D) is generated and returned to the server PC2.

合成手段としてのサーバPC2のCPU11は、各エンコーダPC3A〜3Dから返送される分割符号化データD3A〜D3Dをフレーム単位で順次合成して、圧縮符号化されたフレームデータの連続でなる符号化映像データを生成する。そして配信手段としてのCPU11は、この合成した符号化映像データを、各ユーザPC4A〜4Eに対しそれぞれ符号化映像データD4A〜D4Eとして配信する。   The CPU 11 of the server PC2 serving as the synthesizing unit sequentially synthesizes the divided encoded data D3A to D3D returned from the encoders PC3A to 3D in units of frames, and encoded video data including a series of compressed and encoded frame data. Is generated. Then, the CPU 11 serving as a distribution unit distributes the combined encoded video data as encoded video data D4A to D4E to the user PCs 4A to 4E, respectively.

ユーザPC4(4A〜4E)においては、当該ユーザPC4を統括制御するCPU31に対し、メモリ32、表示部33、ハードディスクドライブ34、ネットワークインターフェース35及び視線検出部36が、バス37を介して接続されている。   In the user PC 4 (4 </ b> A to 4 </ b> E), a memory 32, a display unit 33, a hard disk drive 34, a network interface 35, and a line-of-sight detection unit 36 are connected via a bus 37 to the CPU 31 that performs overall control of the user PC 4. Yes.

ハードディスクドライブ34には、オペレーティングシステムや動画像表示プログラム等の各種アプリケーションプログラムが格納されている。CPU31は、ユーザPC4の起動に応じてハードディスクドライブ34からオペレーティングシステムを読み出し、メモリ32に展開して実行する。   The hard disk drive 34 stores various application programs such as an operating system and a moving image display program. The CPU 31 reads the operating system from the hard disk drive 34 in response to the activation of the user PC 4, expands it in the memory 32, and executes it.

そして受信手段及び復号表示手段としてのCPU31は、オペレーティングシステムの実行環境下において動画像表示プログラムを実行することにより、サーバPC2から供給される符号化映像データD4(D4A〜D4E)を復号して表示部33に表示する。   The CPU 31 as the receiving means and the decoding display means executes the moving image display program under the operating system execution environment to decode and display the encoded video data D4 (D4A to D4E) supplied from the server PC2. Displayed on the unit 33.

かくして動画像クラスタ処理システム1は、サーバPC2に入力されたアナログ映像信号S1をエンコーダPC3A〜3Dによるクラスタ処理でリアルタイム圧縮符号化処理し、ユーザPC4A〜4Eに配信して表示するようになされている。   Thus, the moving image cluster processing system 1 performs real-time compression coding processing of the analog video signal S1 input to the server PC2 by cluster processing by the encoders PC3A to 3D, and distributes and displays it to the user PCs 4A to 4E. .

(2)本発明による関心領域適応符号化
かかる構成に加えてこの動画像クラスタ処理システム1においては、各ユーザPC4A〜4Eが、配信映像におけるユーザ(すなわち配信映像の視聴者)が注視している領域(関心領域)をそれぞれ検出し、当該関心領域の符号化品質を選択的に高めて符号化することにより、システム全体の伝送データ量を抑えつつ、各ユーザに対してその関心領域の画像を鮮明に伝送するようになされている。
(2) Region-of-interest adaptive encoding according to the present invention In addition to this configuration, in the moving image cluster processing system 1, each user PC 4A to 4E is gazing at the user in the distribution video (that is, the viewer of the distribution video). Each region (region of interest) is detected, and the encoding quality of the region of interest is selectively increased and encoded, so that the amount of transmission data of the entire system is suppressed and an image of the region of interest is displayed to each user. It is designed to transmit clearly.

上述したようにユーザPC4(4A〜4E)には、そのユーザの視線方向を検出するための視線検出部36が設けられている。図3に示すように、視線検出部36は2台のカメラ36A及び36Bで構成される。カメラ36A及び36Bは、表示部33に表示された配信映像を視聴するユーザの顔面をそれぞれ右側及び左側から撮影し得るように、表示部33との位置関係が選定されている。   As described above, the user PC 4 (4A to 4E) is provided with the line-of-sight detection unit 36 for detecting the user's line-of-sight direction. As shown in FIG. 3, the line-of-sight detection unit 36 includes two cameras 36A and 36B. The positional relationship between the cameras 36A and 36B and the display unit 33 is selected so that the face of the user who views the distribution video displayed on the display unit 33 can be photographed from the right side and the left side, respectively.

カメラ36A及び36Bは、それぞれ撮影したユーザの右側顔面映像D6R及び左側顔面映像D6L及をCPU31に供給する。注視領域検出手段としてのCPU31は所定の視線検出プログラムに従い、予め記憶されている目のテンプレート画像と、右側顔面映像D6R及び左側顔面映像D6Lとを照合するテンプレートマッチング処理を行うことにより、当該右側顔面映像D6R及び左側顔面映像D6Lにおけるユーザの目の位置を検出する。   The cameras 36A and 36B supply the right face image D6R and the left face image D6L of the photographed user to the CPU 31, respectively. The CPU 31 as the gaze area detecting means performs a template matching process for comparing the eye template image stored in advance with the right face image D6R and the left face image D6L in accordance with a predetermined line-of-sight detection program. The position of the user's eyes in the video D6R and the left face video D6L is detected.

さらにCPU31は、検出した右側顔面映像D6R及び左側顔面映像D6Lにおけるユーザの目の位置に基づいて、当該ユーザの顔面の指向方向(上下角及び左右角)を算出する。そして注視領域検出手段及び注視領域情報送信手段としてのCPU31は、算出したユーザの顔面の指向方向と表示部33の設置位置との関係に基づいて、当該ユーザの顔面が、表示部33に表示された配信映像のどのエリアに指向しているか(すなわちユーザが
どのエリアを注視しているか)を検出し、当該検出した指向エリアのエリア番号(図2)を、注視領域情報としての関心領域情報D5(D5A〜D5E)としてサーバPC2に送信する。
Further, the CPU 31 calculates the orientation direction (vertical and horizontal angles) of the user's face based on the position of the user's eyes in the detected right facial image D6R and left facial image D6L. Then, the CPU 31 as the gaze area detection unit and the gaze area information transmission unit displays the user's face on the display unit 33 based on the calculated relationship between the orientation of the user's face and the installation position of the display unit 33. To which area of the distribution video is directed (that is, which area the user is gazing at), and the area number of the detected directional area (FIG. 2) is used as the attention area information D5 as the attention area information. (D5A to D5E) are transmitted to the server PC2.

ユーザPC4のCPU11は、上述したユーザの関心領域抽出処理を、所定間隔毎(例えば3秒毎)に実行する。   The CPU 11 of the user PC 4 performs the above-described user region-of-interest extraction process at predetermined intervals (for example, every 3 seconds).

ここでJPEG2000方式では、ディジタル映像信号の圧縮符号化処理において画質的な階層符号化(SNRスケーラビリティ)を行い得るようになされている。そして、この階層符号化によって、符号化データの部分的な抽出による復号が可能である。   Here, in the JPEG 2000 system, image quality hierarchical coding (SNR scalability) can be performed in compression coding processing of a digital video signal. By this hierarchical encoding, decoding by partial extraction of encoded data is possible.

図4はSNRスケーラビリティの例を示し、符号化レベルとして、画質がもっとも高いレベル1から画質がもっとも低いレベル4が設定されている。映像をレベル1で符号化した場合、符号化データにはレベル1からレベル4までのデータが含まれる。これらの符号化データをすべて用いて復号を行うと、画質のもっとも高いレベル1の復号映像を得ることができる。同様に、レベル2からレベル4までの符号化データを用いて復号を行うとレベル2の復号映像を、レベル3及びレベル4の符号化データを用いて復号を行うとレベル3の復号映像を、そしてレベル4の符号化データのみを用いて復号を行うと画質のもっとも低いレベル4の復号映像を得ることができる。   FIG. 4 shows an example of SNR scalability, where the encoding level is set from level 1 with the highest image quality to level 4 with the lowest image quality. When the video is encoded at level 1, the encoded data includes data from level 1 to level 4. When decoding is performed using all of these encoded data, a decoded video of level 1 with the highest image quality can be obtained. Similarly, when decoding is performed using the encoded data of level 2 to level 4, the decoded video of level 2 is performed, and when decoding is performed using the encoded data of level 3 and level 4, the decoded video of level 3 is performed. If decoding is performed using only encoded data of level 4, a decoded video of level 4 with the lowest image quality can be obtained.

また、映像をレベル2で符号化した場合、符号化データにはレベル2からレベル4までの符号化データが含まれ、レベル3で符号化した場合はレベル3及びレベル4の符号化データが、そしてレベル4で符号化した場合はレベル4の符号化データのみが含まれる。   When the video is encoded at level 2, the encoded data includes encoded data from level 2 to level 4, and when encoded at level 3, the encoded data of level 3 and level 4 are When encoding is performed at level 4, only encoded data at level 4 is included.

ここで、符号化レベルが高いほど(すなわち符号化ビットレートが高いほど)符号化品質が高く、復号後の画像の画質が向上するが、これに伴い符号化処理の処理時間が長くなる(言い換えれば処理負荷が高くなる)という関係がある。   Here, the higher the encoding level (that is, the higher the encoding bit rate), the higher the encoding quality and the higher the image quality of the decoded image, but this increases the processing time of the encoding process (in other words, in other words) The processing load increases).

すなわち図5に示すように、画質がもっとも高いレベル1の符号化ビットレートは2.0[bpp] (Bit Per Pixel) であり、当該レベル1における標準的な符号化処理時間を示す標準符号化時間は、1ブロック当たり48[msec]である。同様に、レベル2の符号化ビットレートは1.0[bpp] であり、この場合の標準符号化時間は20[msec]である。また、レベル3の符号化ビットレートは0.5[bpp] であり、この場合の標準符号化時間は28[msec]である。さらに、画像がもっとも低いレベル4の符号化ビットレートは0.25[bpp]であり、この場合の標準符号化時間は20[msec]である。なお、エリア当たりの標準符号化時間は、ブロック当たりの標準符号化時間の約1/4になる。   That is, as shown in FIG. 5, the encoding bit rate of level 1 with the highest image quality is 2.0 [bpp] (Bit Per Pixel), and standard encoding indicating the standard encoding processing time in level 1 is shown. The time is 48 [msec] per block. Similarly, the encoding bit rate of level 2 is 1.0 [bpp], and the standard encoding time in this case is 20 [msec]. The level 3 encoding bit rate is 0.5 [bpp], and the standard encoding time in this case is 28 [msec]. Further, the encoding bit rate of the lowest level 4 of the image is 0.25 [bpp], and the standard encoding time in this case is 20 [msec]. Note that the standard coding time per area is about ¼ of the standard coding time per block.

CPU11は、クラスタ符号化の開始時において、各タイル1〜タイル16それぞれの符号化レベルを、後述するクラスタ符号化準備処理手順で選択されたレベルに設定する。そしてCPU11は、各エンコーダPC3A〜3Dに対し、それぞれに割り当てられたエリア1〜エリア16を、設定した符号化レベルで符号化するように指示する。   At the start of cluster encoding, the CPU 11 sets the encoding level of each of the tiles 1 to 16 to the level selected in the cluster encoding preparation processing procedure described later. Then, the CPU 11 instructs each of the encoders PC3A to 3D to encode the areas 1 to 16 assigned thereto at the set encoding level.

そして注視領域情報受信手段及び符号化制御手段としてのCPU11は、各ユーザPC4(4A〜4E)から関心領域情報D5(D5A〜D5E)を受信すると、後述する関心領域適応符号化処理手順に基づいて、各エンコーダPC3A〜3Dに対し、受信した関心領域情報D5A〜D5Eで示される関心領域のエリアの符号化レベルを上げる(すなわち符号化品質を上げる)ように指示する。   When the CPU 11 serving as the gaze area information receiving unit and the encoding control unit receives the region-of-interest information D5 (D5A to D5E) from each user PC 4 (4A to 4E), the CPU 11 based on the region-of-interest adaptive encoding processing procedure described later. The encoders PC3A to 3D are instructed to increase the encoding level of the area of interest indicated by the received region-of-interest information D5A to D5E (that is, to increase the encoding quality).

このときCPU11は、各エンコーダPC3A〜3Dから返送される処理負荷情報に基づいて各エンコーダPC3A〜3Dに対するエリアのアサインを適宜変更して、エンコーダPC3A〜3Dの処理負荷を平均化し、これによりシステム全体の符号化処理遅延を防止するようになされている。   At this time, the CPU 11 appropriately changes the area assignments for the encoders PC3A to 3D based on the processing load information returned from the encoders PC3A to 3D, and averages the processing loads of the encoders PC3A to 3D. The encoding processing delay is prevented.

さらにCPU11は、各エンコーダPC3A〜3Dから返送された分割符号化データD3A〜D3Dを合成して各ユーザPC4A〜4Eに配信する際、各ユーザPC4A〜4Eそれぞれの関心領域情報D5A〜D5Eに基づいて、各ユーザPC4A〜4Eそれぞれに配信する符号化データD4A〜D4Dのエリア毎のレベルを個別に調整する。   Further, when the CPU 11 synthesizes the divided encoded data D3A to D3D returned from the encoders PC3A to 3D and distributes them to the user PCs 4A to 4E, it is based on the region-of-interest information D5A to D5E of each user PC 4A to 4E. The level for each area of the encoded data D4A to D4D distributed to each of the user PCs 4A to 4E is individually adjusted.

すなわち、各ユーザPC4A〜4Eそれぞれの関心領域のエリアについてはすべてのレベルの符号化データを伝送するのに対し、他のユーザPC4の関心領域及び関心領域以外のエリアについては、初期値のレベル3までのデータのみを伝送する。このため、各ユーザPC4A〜4Eそれぞれに対してその関心領域の映像だけを高画質で配信することができ、これによりシステム全体の伝送データ量を抑えつつ、各ユーザに対してその関心領域の画像を鮮明に伝送することができる。   That is, all levels of encoded data are transmitted for the areas of interest of the respective user PCs 4A to 4E, while the initial value level 3 is used for areas of interest of other users PC4 and areas other than the areas of interest. Only data up to is transmitted. For this reason, only the video of the region of interest can be distributed to each of the user PCs 4A to 4E with high image quality, thereby suppressing the amount of transmission data of the entire system and the image of the region of interest to each user. Can be transmitted clearly.

(3)各PCの処理手順
次に、上述した本発明による関心領域適応符号化を行うための、サーバPC2、エンコーダPC3及びユーザPC4それぞれの処理手順を、フローチャートを用いて詳細に説明する。
(3) Processing procedure of each PC Next, the processing procedure of each of the server PC2, the encoder PC3, and the user PC4 for performing the above-described region-of-interest adaptive encoding according to the present invention will be described in detail with reference to flowcharts.

まず、サーバPC2の処理手順について説明する。サーバPC2のCPU11は、実際のクラスタ符号化処理に先立って、各エンコーダPC3A〜3Dの符号化処理能力を判定する。すなわちサーバPC2のCPU11は、図6に示すクラスタ符号化準備処理手順ルーチンRT1の開始ステップから入って次のステップSP1に移る。ステップSP1においてCPU11は、ハードディスクドライブ14から、予め設定されている複数の符号化レベルを読み出し、次のステップSP2に移る。   First, the processing procedure of the server PC 2 will be described. Prior to the actual cluster encoding process, the CPU 11 of the server PC 2 determines the encoding processing capabilities of the encoders PC3A to 3D. That is, the CPU 11 of the server PC 2 enters from the start step of the cluster coding preparation processing routine RT1 shown in FIG. 6 and proceeds to the next step SP1. In step SP1, the CPU 11 reads a plurality of preset encoding levels from the hard disk drive 14, and proceeds to the next step SP2.

ステップSP2においてCPU11は、複数の符号化レベルのうちの最高の符号化レベルを選択し、次のステップSP3に移る。   In step SP2, the CPU 11 selects the highest encoding level among the plurality of encoding levels, and proceeds to the next step SP3.

ステップSP3においてCPU11は、各エンコーダPC3A〜3Dに対し、ハードディスクドライブ14から読み出した所定のテスト画像に対する符号化を、選択した符号化レベルで複数回実行させるテスト符号化命令を送出し、次のステップSP4に移る。   In step SP3, the CPU 11 sends to each encoder PC3A to 3D a test encoding command for executing encoding for a predetermined test image read from the hard disk drive 14 a plurality of times at the selected encoding level. Move to SP4.

ステップSP4においてCPU11は、各エンコーダPC3A〜3Dそれぞれのテスト符号化処理時間を測定し、これをエンコーダPC3A〜3Dそれぞれの符号化処理能力値として記憶し、次のステップSP5に移る。   In step SP4, the CPU 11 measures the test encoding processing time of each of the encoders PC3A to 3D, stores this as the encoding processing capability value of each of the encoders PC3A to 3D, and proceeds to the next step SP5.

ステップSP5においてCPU11は、符号化処理能力値に基づいて、各エンコーダPC3A〜3Dそれぞれに実際の符号化処理を実行させた場合における、1フレームの符号化処理に要する処理予測時間を算出し、次のステップSP6に移る。   In step SP5, the CPU 11 calculates a predicted process time required for the encoding process for one frame when each encoder PC3A to 3D executes the actual encoding process based on the encoding processing capability value. The process proceeds to step SP6.

ステップSP6においてCPU11は、算出した処理予測時間が1フレーム期間(すなわち33[msec])以内であるかを判定する。ステップSP6において処理予測時間が1フレーム期間以内である場合、CPU11はステップSP10に移り、デフォルトの符号化レベルを変更することなくクラスタ符号化準備処理手順を終了する。   In step SP6, the CPU 11 determines whether the calculated predicted process time is within one frame period (that is, 33 [msec]). If the predicted processing time is within one frame period in step SP6, the CPU 11 moves to step SP10 and ends the cluster encoding preparation processing procedure without changing the default encoding level.

これに対してステップSP6において、処理予測時間が1フレーム期間を超過した場合、このことは現在の符号化レベルの設定では1フレームの符号化が1フレーム期間内に終了しないと予想されることを表しており、このときCPU11はステップSP7に移る。   On the other hand, if the predicted processing time exceeds one frame period in step SP6, this means that the encoding of one frame is not expected to end within one frame period with the current encoding level setting. At this time, the CPU 11 proceeds to step SP7.

ステップSP7においてCPU11は、1フレーム期間に対する処理予測時間の超過割合を算出し、当該超過割合に応じたより低い符号化レベルを選択し、次のステップSP8に移る。   In step SP7, the CPU 11 calculates the excess rate of the predicted processing time for one frame period, selects a lower encoding level corresponding to the excess rate, and moves to the next step SP8.

ステップSP8においてCPU11は、選択された符号化レベルが存在するか否かを判断する。ステップSP8において、選択された符号化レベルが存在する場合、CPU11はステップSP3に戻り、新たに選択された符号化レベルで再度ステップSP3〜SP10を実行する。   In step SP8, the CPU 11 determines whether or not the selected encoding level exists. In step SP8, if the selected encoding level exists, the CPU 11 returns to step SP3, and executes steps SP3 to SP10 again with the newly selected encoding level.

これに対してステップSP8において、選択された符号化レベルが存在しない場合、このことはこれ以上符号化レベルを下げることができないことを表しており、このときCPU11はステップSP9に移り、各符号化レベルそれぞれに設定されている符号化ビットレートを所定値だけ下げて更新することにより、各符号化レベルそれぞれにおける処理負荷を低減する。   On the other hand, if the selected encoding level does not exist in step SP8, this means that the encoding level cannot be lowered any more. At this time, the CPU 11 moves to step SP9, and each encoding is performed. By updating the encoding bit rate set for each level by a predetermined value, the processing load at each encoding level is reduced.

そしてCPU11はステップSP2に戻り、更新された符号化レベルに基づいて再度ステップSP2〜SP10を実行する。   Then, the CPU 11 returns to step SP2, and executes steps SP2 to SP10 again based on the updated encoding level.

このようにサーバPCのCPU11は、各エンコーダPC3A〜3Dそれぞれの処理能力に応じた符号化レベルを設定した後、配信映像のクラスタ符号化処理を開始する。   As described above, the CPU 11 of the server PC sets the encoding level corresponding to the processing capability of each of the encoders PC3A to 3D, and then starts cluster encoding processing of the distribution video.

すなわちサーバPC2のCPU11は、図7に示すクラスタ符号化処理手順ルーチンRT2の開始ステップから入って次のステップSP15に移る。ステップSP15においてCPU11は、各エンコーダPC3A〜3Dに対し、初期値としての符号化レベルを設定する。このときCPU11は、関心領域に対する符号化レベルの向上余地を残しておくため、最高レベル以下でなおかつ1フレーム期間内に処理が終了するもっとも高い符号化レベルを初期値とする。   That is, the CPU 11 of the server PC 2 enters from the start step of the cluster encoding processing procedure routine RT2 shown in FIG. 7 and proceeds to the next step SP15. In step SP15, the CPU 11 sets an encoding level as an initial value for each of the encoders PC3A to 3D. At this time, in order to leave room for improvement in the coding level for the region of interest, the CPU 11 sets the highest coding level that is equal to or lower than the highest level and completes processing within one frame period as an initial value.

次のステップSP16においてCPU11は、各エンコーダPC3A〜3Dに対し、初期状態のエリアのアサインを行う。すなわち、エリア1〜エリア4をエンコーダPC3Aにアサインするともに、エリア5〜エリア8をエンコーダPC3Bに、エリア9〜エリア12をエンコーダPC3Cに、エリア13〜エリア16をエンコーダPC3Dにそれぞれアサインする。   In the next step SP16, the CPU 11 assigns areas in the initial state to the encoders PC3A to 3D. That is, area 1 to area 4 are assigned to encoder PC3A, area 5 to area 8 are assigned to encoder PC3B, area 9 to area 12 are assigned to encoder PC3C, and area 13 to area 16 are assigned to encoder PC3D.

次のステップSP17においてCPU11は、各エンコーダPC3A〜3Dに対してアサインに応じた分割ディジタル映像データD2A〜D2Dの供給を開始するとともに、各エンコーダPC3A〜3Dに対して設定した符号化レベルでの符号化処理の開始を指示し、次のステップSP18に移る。   In the next step SP17, the CPU 11 starts supplying the divided digital video data D2A to D2D corresponding to the assignment to the encoders PC3A to 3D, and performs encoding at the encoding level set for the encoders PC3A to 3D. The start of the conversion process is instructed, and the process proceeds to the next step SP18.

この状態において各エンコーダPC3A〜3Dは、それぞれ分割ディジタル映像データD2A〜D2Dを符号化し、分割符号化データD3A〜D3DをサーバPC2に返送するとともに、それぞれの処理負荷情報をサーバPC2に通知する。   In this state, each of the encoders PC3A to 3D encodes the divided digital video data D2A to D2D, returns the divided encoded data D3A to D3D to the server PC2, and notifies the server PC2 of each processing load information.

ステップSP18においてCPU11は、各エンコーダPC3A〜3Dから返送された分割符号化データD3A〜D3Dを合成して、各ユーザPC4A〜4Eに対して符号化映像データD4A〜D4Eとして配信する。   In step SP18, the CPU 11 synthesizes the divided encoded data D3A to D3D returned from the encoders PC3A to 3D and distributes them as encoded video data D4A to D4E to the user PCs 4A to 4E.

この状態において各ユーザPC4A〜4Eは、それぞれ符号化映像データD4A〜D4Eを復号して表示部33(図1)に表示するとともに、表示した映像に対するユーザの関心領域を検出した場合、関心領域情報D5A〜D5EとしてサーバPC11に通知する。   In this state, each of the user PCs 4A to 4E decodes the encoded video data D4A to D4E and displays the decoded video data D4A to D4E on the display unit 33 (FIG. 1). The server PC 11 is notified as D5A to D5E.

次のステップSP19においてCPU11は、各ユーザPC4A〜4Eから関心領域情報D5A〜D5Eが通知されているか否かを判断する。ステップSP19において、関心領域情報D5A〜D5Eが通知されていない場合、CPU11はステップSP25に移り、各エンコーダPC3A〜3Dから通知された処理負荷情報に基づいて、符号化処理が1フレーム期間内に終了するように各エンコーダPC3A〜3Dに対するエリアのアサインを行った後、ステップSP26に移る。   In the next step SP19, the CPU 11 determines whether or not the region-of-interest information D5A to D5E is notified from each user PC 4A to 4E. If the region-of-interest information D5A to D5E is not notified in step SP19, the CPU 11 moves to step SP25, and the encoding process is completed within one frame period based on the processing load information notified from each encoder PC3A to 3D. Then, after assigning areas to the encoders PC3A to 3D, the process proceeds to step SP26.

これに対して、ステップSP19において関心領域情報D5A〜D5Eが通知されている場合、CPU11はステップSP20に移る。   On the other hand, when the region-of-interest information D5A to D5E is notified in step SP19, the CPU 11 proceeds to step SP20.

ステップSP20においてCPU11は、関心領域情報D5A〜D5Eで示された関心領域についての符号化レベルを最高レベルに上げ、次のステップSP21に移る。   In step SP20, the CPU 11 raises the encoding level for the region of interest indicated by the region-of-interest information D5A to D5E, and proceeds to the next step SP21.

ステップSP21においてCPU11は、ステップSP20で変更された符号化レベルと、各エンコーダPC3A〜3Dから通知された処理負荷情報とに基づいて、符号化処理が1フレーム期間内に終了するように各エンコーダPC3A〜3Dに対するエリアのアサインを開始し、次のステップSP22に移る。   In step SP21, the CPU 11 determines that the encoding process is completed within one frame period based on the encoding level changed in step SP20 and the processing load information notified from each encoder PC3A to 3D. The assignment of the area to ˜3D is started, and the process proceeds to the next step SP22.

ステップSP22においてCPU11は、ステップSP21で行ったアサイン処理において、処理時間が1フレーム期間内を超過する、アサインが不可能なエリアが存在するか否かを判定する。ステップSP22においてアサイン不可能なエリアが存在しない場合、CPU11はステップSP26に移る。   In step SP22, the CPU 11 determines whether or not there is an area that cannot be assigned and whose processing time exceeds one frame period in the assignment process performed in step SP21. If there is no unassignable area in step SP22, the CPU 11 proceeds to step SP26.

これに対して、ステップSP22においてアサイン不可能なエリアが存在した場合、CPU11はステップSP23に移り、関心領域の符号化レベルを一つ下げた後、次のステップSP24に移る。   On the other hand, if there is an unassignable area in step SP22, the CPU 11 moves to step SP23, lowers the encoding level of the region of interest by one, and moves to the next step SP24.

ステップSP24においてCPU11は、関心領域の符号化レベルが他の領域の符号化レベルより上か否かを比較する。ステップSP24において、関心領域の符号化レベルが他の領域の符号化レベルより上ではないと判断した場合、CPU11はステップSP21に戻り、関心領域の符号化レベルが他の領域よりも上になるように再度アサインを行う。   In step SP24, the CPU 11 compares whether or not the encoding level of the region of interest is higher than the encoding levels of other regions. If it is determined in step SP24 that the encoding level of the region of interest is not higher than the encoding level of the other region, the CPU 11 returns to step SP21 so that the encoding level of the region of interest is higher than the other region. Assign again.

これに対して、ステップSP24において、関心領域の符号化レベルが他の領域の符号化レベルよりも上であると判断した場合、CPU11はステップSP26に移る。   On the other hand, when it is determined in step SP24 that the encoding level of the region of interest is higher than the encoding levels of other regions, the CPU 11 proceeds to step SP26.

このようにしてCPU11は、各ユーザPC4A〜4Eから通知された関心領域情報D5A〜D5Eに基づいて、関心領域の符号化レベルを他の領域よりも高く設定するとともに、変更された符号化レベルと処理負荷情報とに応じて各エンコーダPC3A〜3Dに対するエリアのアサインを変更する。   In this way, the CPU 11 sets the encoding level of the region of interest higher than the other regions based on the region-of-interest information D5A to D5E notified from each user PC 4A to 4E, and the changed encoding level and The area assignment for the encoders PC3A to 3D is changed according to the processing load information.

ステップSP26においてCPU11は、各エンコーダPC3A〜3Dに対して新たなアサインに応じた分割ディジタル映像データD2A〜D2Dの供給を開始するとともに、変更した符号化レベルで次のフレームの符号化処理の開始を指示し、ステップSP27に移る。   In step SP26, the CPU 11 starts to supply the divided digital video data D2A to D2D corresponding to the new assignment to the encoders PC3A to 3D, and starts the encoding process of the next frame at the changed encoding level. Instructed and proceeds to step SP27.

ステップSP27においてCPU11は、各エンコーダPC3A〜3Dから返送された分割符号化データD3A〜D3Dを合成し、各ユーザPC4A〜4Eに対して符号化映像データD4A〜D4Eとして配信し、ステップSP19に戻る。   In step SP27, the CPU 11 synthesizes the divided encoded data D3A to D3D returned from the encoders PC3A to 3D, distributes them to the user PCs 4A to 4E as encoded video data D4A to D4E, and returns to step SP19.

このときCPU11は関心領域情報D5A〜D5Eに基づいて、各ユーザPC4A〜4E個別の関心領域については、すべてのレベルの符号化データを伝送するのに対し、他のユーザPC4の関心領域及び関心領域以外のエリアについては、初期値のレベル3までの符号化データのみを伝送する。   At this time, the CPU 11 transmits all levels of encoded data for each user PC 4A to 4E based on the region-of-interest information D5A to D5E. For other areas, only encoded data up to the initial level 3 is transmitted.

このようにしてCPU11は、各ユーザPC4A〜4Eに対して、その関心領域の映像だけを高画質で配信する。   In this way, the CPU 11 delivers only the video of the region of interest with high image quality to each of the user PCs 4A to 4E.

次に、エンコーダPC3(3A〜3D)における符号化処理手順について説明する。エンコーダPC3のCPU21は、図8に示す符号化処理手順ルーチンRT3の開始ステップから入ってステップSP31に移る。ステップSP31においてCPU21は、サーバPC2からから供給される分割ディジタル映像データD2(D2A〜D2D)の供給を待ち受け、当該分割ディジタル映像データD2を受け取ると、次のステップSP32に移る。   Next, the encoding process procedure in encoder PC3 (3A-3D) is demonstrated. The CPU 21 of the encoder PC3 enters from the start step of the encoding process routine RT3 shown in FIG. 8 and proceeds to step SP31. In step SP31, the CPU 21 waits for the supply of the divided digital video data D2 (D2A to D2D) supplied from the server PC 2. When the divided digital video data D2 is received, the CPU 21 proceeds to the next step SP32.

ステップSP32においてCPU21は、受け取った分割ディジタル映像データD2の各エリアをそれぞれ指定された符号化レベルで符号化して分割符号化データD3(D3A〜D3D)を生成し、次のステップSP33に移る。   In step SP32, the CPU 21 encodes each area of the received divided digital video data D2 at a specified encoding level to generate divided encoded data D3 (D3A to D3D), and proceeds to the next step SP33.

ステップSP33においてCPU11は、分割符号化データD3をサーバPC2に返送するとともに、このときの処理負荷情報をサーバPC2に通知し、ステップSP31に戻る。   In step SP33, the CPU 11 returns the divided encoded data D3 to the server PC2, notifies the server PC2 of the processing load information at this time, and returns to step SP31.

このようにしてエンコーダPC3のCPU21は、サーバPC2から供給される分割ディジタル映像データD2を逐次符号化して分割符号化データD3を返送するとともに、符号化処理の処理負荷情報をサーバPC2に通知していく。   In this way, the CPU 21 of the encoder PC3 sequentially encodes the divided digital video data D2 supplied from the server PC2 and returns the divided encoded data D3, and notifies the server PC2 of the processing load information of the encoding process. Go.

次に、ユーザPC4(4A〜4E)における表示処理手順について説明する。ユーザPC4のCPU31は、図9に示す表示処理手順ルーチンRT4の開始ステップから入ってステップSP41に移る。ステップSP41においてCPU31は、サーバPC2からから供給される符号化映像データD4(D4A〜D4E)の供給を待ち受け、当該符号化映像データD4を受信すると、次のステップSP42に移る。   Next, a display processing procedure in the user PC 4 (4A to 4E) will be described. The CPU 31 of the user PC 4 enters from the start step of the display processing procedure routine RT4 shown in FIG. 9 and proceeds to step SP41. In step SP41, the CPU 31 waits for the supply of the encoded video data D4 (D4A to D4E) supplied from the server PC 2. When the encoded video data D4 is received, the CPU 31 proceeds to the next step SP42.

ステップSP42においてCPU31は、受け取った符号化映像データD4を復号して表示部33に表示し、次のステップSP43に移る。   In step SP42, the CPU 31 decodes the received encoded video data D4 and displays it on the display unit 33, and proceeds to the next step SP43.

ステップSP43においてCPU31は、ユーザの関心領域抽出タイミングが到来したか否かを判定する。ステップSP43において、関心領域抽出タイミングが到来していないと判定した場合、CPU31はステップSP41に戻り、再度符号化映像データD4の受信、復号及び表示を行う。   In step SP43, the CPU 31 determines whether or not the user's region of interest extraction timing has come. If it is determined in step SP43 that the region of interest extraction timing has not arrived, the CPU 31 returns to step SP41, and receives, decodes, and displays the encoded video data D4 again.

これに対して、ステップSP43において関心領域抽出タイミングが到来したと判定した場合、CPU31はステップSP44に移る。   On the other hand, if it is determined in step SP43 that the region of interest extraction timing has arrived, the CPU 31 proceeds to step SP44.

ステップSP44においてCPU31は、視線検出部36を介してユーザの画像を取り込み、当該取り込んだユーザの画像から表示画像における関心領域を抽出し、関心領域情報D5(D5A〜D5E)としてサーバPC2に送信した後、ステップSP41に戻る。   In step SP44, the CPU 31 captures the user image via the line-of-sight detection unit 36, extracts a region of interest in the display image from the captured user image, and transmits the region of interest information D5 (D5A to D5E) to the server PC2. Then, the process returns to step SP41.

このようにしてユーザPC4のCPU31は、サーバPC2から配信される符号化映像データD4を逐次復号して表示するとともに、所定タイミング毎にユーザの関心領域を抽出してサーバPC2に通知していく。   In this way, the CPU 31 of the user PC 4 sequentially decodes and displays the encoded video data D4 distributed from the server PC 2, extracts the user's region of interest at every predetermined timing, and notifies the server PC 2 of it.

(4)関心領域の推移に応じた符号化レベルの変化例
次に、上述した関心領域適応符号化による、関心領域の推移に応じた符号化レベルの変化の例を図10を用いて説明する。図10において、各ユーザPC4A〜4Eは3秒毎に関心領域を抽出し、抽出した関心領域に応じて、各エンコーダPC3A〜3Dに対するアサインが変化している。
(4) Example of coding level change according to region of interest transition Next, an example of the coding level change according to region of interest adaptive coding described above will be described with reference to FIG. . In FIG. 10, each user PC4A-4E extracts a region of interest every 3 seconds, and the assignment to each encoder PC3A-3D changes according to the extracted region of interest.

すなわち処理開始直後の期間T1においては、初期状態として、エリア1〜エリア4がエンコーダPC3Aに、エリア5〜エリア8がエンコーダPC3Bに、エリア9〜エリア12がエンコーダPC3Cに、エリア13〜エリア16がエンコーダPC3Dにそれぞれアサインされている。このとき、エリア1〜16の符号化レベルはいずれも初期値のレベル3であり、各エンコーダPC3の処理負荷レベルはいずれも「1」である。   That is, in the period T1 immediately after the start of processing, as an initial state, the areas 1 to 4 are the encoder PC3A, the areas 5 to 8 are the encoder PC3B, the areas 9 to 12 are the encoder PC3C, and the areas 13 to 16 are Assigned to each encoder PC3D. At this time, the encoding levels of the areas 1 to 16 are all the initial level 3, and the processing load level of each encoder PC3 is “1”.

そして、この期間T1において表示した映像に対し、ユーザPC4Aはエリア12を、ユーザPC4Bはエリア4を、ユーザPC4Cはエリア2を、ユーザPC4Dはエリア5を、ユーザPC4Eはエリア13をそれぞれ関心領域として抽出した。サーバPC2はこの関心領域の抽出結果を反映して、次の期間T2における符号化レベル及びアサインの変更を行う。   Then, for the video displayed during this period T1, user PC 4A uses area 12, user PC 4B uses area 4, user PC 4C uses area 2, user PC 4D uses area 5, and user PC 4E uses area 13. Extracted. The server PC2 reflects the extraction result of the region of interest and changes the encoding level and assignment in the next period T2.

すなわちこの期間T2において、サーバPC2は関心領域であるエリア2、4、5、12及び13を符号化レベル2に設定した。   That is, in this period T2, the server PC 2 sets the areas 2, 4, 5, 12, and 13 that are the regions of interest to the encoding level 2.

この期間T2における、各ユーザPC4A〜4Eの表示映像の符号化レベルを、図11及び図12に示す。各ユーザPC4A〜4Eにおいては、個別の関心領域のみが符号化レベルが高くなっており、関心領域以外の領域は符号化レベル3になっている。   The encoding level of the display video of each user PC 4A-4E in this period T2 is shown in FIG.11 and FIG.12. In each of the user PCs 4 </ b> A to 4 </ b> E, only the individual region of interest has a high encoding level, and the region other than the region of interest has the encoding level 3.

また、期間T4において、エリア3及びエリア4に対して符号化レベル1が設定されている。初期状態においてはユーザPC4Aに対してエリア3及びエリア4の双方がアサインされており、このままでは当該ユーザPC4Aの処理負荷が過大になる。   In addition, the encoding level 1 is set for the areas 3 and 4 in the period T4. In the initial state, both the area 3 and the area 4 are assigned to the user PC 4A, and the processing load on the user PC 4A becomes excessive as it is.

このためサーバPC2は期間T4において、ユーザPC4Bに対してエリア4をアサインするとともに、この代わりにユーザPC4Aに対してエリア5をアサインすることにより、符号化負荷を分散している。   For this reason, the server PC 2 assigns the area 4 to the user PC 4B in the period T4, and instead assigns the area 5 to the user PC 4A to distribute the encoding load.

(5)動作及び効果
以上の構成において、動画像クラスタ処理システム1のサーバPC2は、ディジタル映像信号D1の1フレーム分の画像データを16枚のエリアに分割して4台のエンコーダPC3A〜3Dに適宜割り当て分割ディジタル映像データD2A〜D2Dを生成し、それぞれ対応するエンコーダPC3A〜3Dに供給する。
(5) Operation and Effect In the configuration described above, the server PC2 of the moving image cluster processing system 1 divides the image data for one frame of the digital video signal D1 into 16 areas and supplies them to the four encoders PC3A to 3D. Appropriately assigned divided digital video data D2A to D2D are generated and supplied to the corresponding encoders PC3A to 3D, respectively.

エンコーダPC3A〜3Dは、分割ディジタル映像データD2A〜D2Dをそれぞれ符号化して分割符号化データD3A〜D3Dを生成し、このときの処理負荷情報とともにサーバPC2に送信する。サーバPC2は分割符号化データD3A〜D3Dを合成して1フレーム分のデータでなる符号化映像データD4A〜D4Eを生成し、対応するユーザPC4A〜4Eに配信する。   The encoders PC3A to 3D respectively encode the divided digital video data D2A to D2D to generate divided encoded data D3A to D3D, and transmit them to the server PC2 together with the processing load information at this time. The server PC2 synthesizes the divided encoded data D3A to D3D to generate encoded video data D4A to D4E consisting of data for one frame, and distributes it to the corresponding user PCs 4A to 4E.

各ユーザPC4A〜4Eはそれぞれ符号化映像データD4A〜D4Eを復号して表示する。このとき各ユーザPC4A〜4Eは、表示した配信映像においてユーザが注視している関心領域を検出し、これを関心領域情報D5A〜D5Eとしてサーバ2に通知する。   Each of the user PCs 4A to 4E decodes and displays the encoded video data D4A to D4E, respectively. At this time, each of the user PCs 4A to 4E detects a region of interest in which the user is gazing in the displayed distribution video, and notifies the server 2 of this as region-of-interest information D5A to D5E.

サーバ2は、関心領域情報D5A〜D5Eに基づいて関心領域の符号化レベルを上げるとともに、処理負荷情報を参考にして、各エンコーダPC3A〜3Dの符号化処理が1フレーム期間内に終了するように、各エンコーダPC3A〜3Dに対するエリアのアサインを適宜変更する。   The server 2 increases the encoding level of the region of interest based on the region-of-interest information D5A to D5E, and refers to the processing load information so that the encoding process of each encoder PC3A to 3D is completed within one frame period. The area assignments for the encoders PC3A to 3D are appropriately changed.

さらにサーバ2は、符号化映像データD4A〜D4EをユーザPC4A〜4Eに配信する際、関心領域情報D5A〜D5Eに基づいて、各ユーザPC4A〜4E個別の関心領域についてはすべてのレベルの符号化データを伝送するのに対し、他のユーザPC4の関心領域及び関心領域以外のエリアについては、初期値のレベル3までの符号化データのみを伝送する。   Further, when the server 2 distributes the encoded video data D4A to D4E to the user PCs 4A to 4E, the encoded data of all the levels for each user PC 4A to 4E based on the region of interest information D5A to D5E. On the other hand, only the encoded data up to the initial level 3 is transmitted for the area of interest of the other user PC 4 and the area other than the area of interest.

以上の構成によれば、各ユーザPC4A〜4Eにおいて配信映像におけるユーザが注視している関心領域を検出し、当該関心領域の符号化品質を上げて符号化することにより、各ユーザが注視している領域の画質をのみを選択的に向上させ、これによりシステム全体の伝送データ量を抑えつつ、各ユーザの関心領域の画像を鮮明に伝送することができる。   According to the above configuration, each user PC 4A to 4E detects the region of interest that the user is watching in the distribution video, and performs encoding by increasing the encoding quality of the region of interest, so that each user can watch. Thus, it is possible to selectively improve only the image quality of a certain area, and thereby to clearly transmit the image of the area of interest of each user while suppressing the transmission data amount of the entire system.

また、符号化映像データD4A〜D4EをユーザPC4A〜4Eに配信する際、各ユーザPC4A〜4E個別の関心領域についてのみ、すべてのレベルの符号化データを伝送することにより、他ユーザの関心領域については標準的な画質で伝送して、システム全体の伝送データ量をさらに抑えつつ、各ユーザの関心領域の画像を鮮明に伝送することができる。   In addition, when the encoded video data D4A to D4E are distributed to the user PCs 4A to 4E, the encoded data of all levels is transmitted only for the individual regions of interest of the respective user PCs 4A to 4E. Can be transmitted with standard image quality, and the image of the area of interest of each user can be transmitted clearly while further reducing the amount of transmission data of the entire system.

また、関心領域情報D5A〜D5E及び処理負荷情報に基づいて、各エンコーダPC3A〜3Dに対するエリアのアサインを適宜変更することにより、各エンコーダPC3A〜3Dの処理能力を有効に活用して、動画像クラスタ処理のリアルタイム性を確保しつつ、可能な限り高い画質で動画像の圧縮符号化を行うことができる。   In addition, by appropriately changing the area assignment for each encoder PC3A-3D based on the region-of-interest information D5A-D5E and the processing load information, the processing capability of each encoder PC3A-3D can be effectively utilized, and a moving image cluster It is possible to compress and encode a moving image with as high image quality as possible while ensuring real-time processing.

(6)他の実施の形態
なお上述の実施の形態においては、動画像クラスタ処理システム1がJPEG2000方式による動画像圧縮伸張処理を実行する場合について述べたが、本発明はこれに限らず、例えばMPEG(Moving Picture Experts Group)2方式等、様々な符号化方式を本発明に適用することができる。
(6) Other Embodiments In the above-described embodiment, the case where the moving image cluster processing system 1 executes the moving image compression / decompression processing according to the JPEG 2000 method has been described. However, the present invention is not limited to this, and for example, Various encoding methods such as MPEG (Moving Picture Experts Group) 2 method can be applied to the present invention.

また上述の実施の形態においては、サーバPC2、エンコーダPC3及びユーザPC4それぞれのCPU11、21及び31が、それぞれのハードディスクドライブ14、24及び34に格納されている動画像クラスタ処理プログラム、動画像符号化処理プログラム及び動画像表示プログラムを実行するようにしたが、本発明はこれに限らず、これらのプログラムが格納されているプログラム格納媒体をインストールすることにより、上述した処理を実行するようにしてもよい。   In the above-described embodiment, the CPUs 11, 21, and 31 of the server PC 2, the encoder PC 3, and the user PC 4 have the moving image cluster processing program and the moving image encoding stored in the hard disk drives 14, 24, and 34, respectively. The processing program and the moving image display program are executed. However, the present invention is not limited to this, and the above-described processing may be executed by installing a program storage medium storing these programs. Good.

この場合、サーバPC2、エンコーダPC3及びユーザPC4にプログラムをインストールするためのプログラム格納媒体としては、例えばCD−ROM(Compact Disk-Read Only Memory)やDVD(Digital Versatile Disk)等のパッケージメディアのみならず、プログラムが一時的又は永続的に格納される半導体メモリや磁気ディスク等で実現してもよい。また、これらプログラム格納媒体にプログラムを格納する手段としては、ローカルエリアネットワークやインターネット、ディジタル衛星放送等の有線及び無線通信媒体を用いても良い。   In this case, the program storage medium for installing the program in the server PC 2, the encoder PC 3 and the user PC 4 is not only a package medium such as a CD-ROM (Compact Disk-Read Only Memory) or a DVD (Digital Versatile Disk). The program may be realized by a semiconductor memory or a magnetic disk in which the program is stored temporarily or permanently. Further, as means for storing the programs in these program storage media, wired and wireless communication media such as a local area network, the Internet, and digital satellite broadcasting may be used.

また上述の実施の形態においては、ユーザの関心領域を抽出する方法として、当該ユーザの顔面を2台のカメラで撮影し、右側顔面映像及び左側顔面映像に対してテンプレートマッチング処理を行うことによりユーザの顔面の指向方向を検出し、当該検出した指向方向に基づいて、配信映像上の関心領域を抽出するようにしたが、本発明はこれに限らず、例えばユーザが装着したヘッドセットによって頭部の指向方向を検出し、当該検出した指向方向に基づいて関心領域を抽出する等、種々の方法で関心領域を抽出してもよい。   In the above-described embodiment, as a method of extracting the user's region of interest, the user's face is photographed with two cameras, and the template matching process is performed on the right face image and the left face image. However, the present invention is not limited to this, and for example, the head is mounted by a headset worn by the user. The region of interest may be extracted by various methods, for example, by detecting the directivity direction and extracting the region of interest based on the detected directivity direction.

複数台のパーソナルコンピュータ、ワークステーション、パソコン等を用いて動画像処理を行う場合に適用できる。   The present invention can be applied when moving image processing is performed using a plurality of personal computers, workstations, personal computers, and the like.

動画像クラスタ処理システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of a moving image cluster processing system. フレームの分割状態を示す略線図である。It is a basic diagram which shows the division | segmentation state of a flame | frame. 視線検出部の構成を示すブロック図である。It is a block diagram which shows the structure of a gaze detection part. SNRスケーラビリティの説明に供する略線図である。It is a basic diagram with which it uses for description of SNR scalability. エンコードレベルと標準符号化処理時間の関係を示す表である。It is a table | surface which shows the relationship between an encoding level and a standard encoding process time. サーバPCのクラスタ符号化準備処理手順を示すフローチャートである。It is a flowchart which shows the cluster encoding preparation process procedure of server PC. サーバPCのクラスタ符号化処理手順を示すフローチャートである。It is a flowchart which shows the cluster encoding process sequence of server PC. エンコーダPCの符号化処理手順を示すフローチャートである。It is a flowchart which shows the encoding process sequence of encoder PC. ユーザPCの表示処理手順を示すフローチャートである。It is a flowchart which shows the display processing procedure of user PC. 関心領域とエンコード符号化レベルの説明に供する略線図である。It is a basic diagram with which it uses for description of a region of interest and an encoding encoding level. 各ユーザPCに対する符号化レベルを示す略線図である。It is a basic diagram which shows the encoding level with respect to each user PC. 各ユーザPCに対する符号化レベルを示す略線図である。It is a basic diagram which shows the encoding level with respect to each user PC.

符号の説明Explanation of symbols

1……動画像クラスタ処理システム、2……サーバPC、3A〜3D……エンコーダPC、4A〜4E……ユーザPC、5……ネットワーク、11、21、31……CPU、12、22、32……メモリ、13、23、33……表示部、14、24、34……ハードディスクドライブ、15、25、35……ネットワークインターフェース、16……ビデオキャプチャ回路、17、27、37……バス、36……視線検出部。   DESCRIPTION OF SYMBOLS 1 ... Moving image cluster processing system, 2 ... Server PC, 3A-3D ... Encoder PC, 4A-4E ... User PC, 5 ... Network, 11, 21, 31 ... CPU, 12, 22, 32 ... Memory, 13, 23, 33 ... Display section, 14, 24, 34 ... Hard disk drive, 15, 25, 35 ... Network interface, 16 ... Video capture circuit, 17, 27, 37 ... Bus, 36: Line-of-sight detection unit.

Claims (10)

映像を配信する映像配信装置と、上記配信された映像を表示する映像表示装置とからなる映像配信システムにおいて、
上記映像配信装置は、
入力された映像データを複数の映像領域に対応して分割し、複数の分割映像データを生成する映像分割手段と、
複数の情報処理装置で構成され、上記複数の分割映像データをそれぞれ符号化して複数の分割符号化データを生成する符号化手段と、
上記符号化手段を制御する符号化制御手段と、
複数の上記分割符号化データを合成して符号化映像データを生成する合成手段と、
上記符号化映像データを上記映像表示装置に配信する配信手段とを具え、
上記映像表示装置は、
上記配信された符号化映像データを受信する受信手段と、
上記符号化映像データを復号して映像を表示する復号表示手段と、
上記復号表示手段が表示する上記映像に対する視聴者の注視領域を検出する注視領域検出手段とを有し
上記符号化制御手段は、上記注視領域検出手段が検出した上記注視領域に対応する上記映像領域の上記分割映像データに対する符号化品質を向上させると共に、上記複数の情報処理装置それぞれから通知される符号化処理の処理負荷情報と、上記注視領域検出手段が検出した上記注視領域の情報とに応じて、上記複数の情報処理装置それぞれに対する上記分割映像データの符号化処理を割り当てる
映像配信システム。
In a video distribution system comprising a video distribution device for distributing video and a video display device for displaying the distributed video,
The video distribution device
Video dividing means for dividing the input video data corresponding to a plurality of video areas and generating a plurality of divided video data;
An encoding unit configured by a plurality of information processing devices, each encoding the plurality of divided video data to generate a plurality of divided encoded data;
Encoding control means for controlling the encoding means;
A synthesizing means for synthesizing a plurality of the divided encoded data to generate encoded video data;
Distribution means for distributing the encoded video data to the video display device;
The video display device
Receiving means for receiving the distributed encoded video data;
Decoding display means for decoding the encoded video data and displaying the video;
And a fixation region detecting means for detecting a fixation region of the viewer with respect to the image which the decoding display means displays,
The encoding control means is notified from the region of interest detector to improve the coding quality for said divided image data in the image area corresponding to the gaze area detected is Rutotomoni, each of the plurality of information processing apparatuses A video distribution system for allocating encoding processing of the divided video data to each of the plurality of information processing devices according to processing load information of encoding processing and information on the gaze region detected by the gaze region detecting unit .
入力された映像データを複数の映像領域に対応して分割し、複数の分割映像データを生成する映像分割手段と、
上記複数の分割映像データをそれぞれ符号化して複数の分割符号化データを生成する複数の情報処理装置に対し、上記複数の分割映像データを割り当てて供給する符号制御部と、
複数の上記分割符号化データを合成して符号化映像データを生成する合成手段と、
上記符号化映像データを映像表示装置に配信する配信手段と、
上記映像表示装置から送信される、上記配信した符号化映像データを復号して表示した映像に対する視聴者の注視領域を示す注視領域情報を受信する注視領域情報受信手段と
有し、
上記符号化制御手段は、
受信した上記注視領域情報が示す上記注視領域に対応する上記映像領域の上記分割映像データの符号化品質を向上させると共に、上記複数の情報処理装置それぞれから通知される符号化処理の処理負荷情報と、上記注視領域検出手段が検出した上記注視領域の情報とに応じて、上記複数の情報処理装置それぞれに対する上記分割映像データの符号化処理を割り当てる
映像配信装置。
Video dividing means for dividing the input video data corresponding to a plurality of video areas and generating a plurality of divided video data;
A code control unit that allocates and supplies the plurality of divided video data to a plurality of information processing apparatuses that respectively encode the plurality of divided video data to generate a plurality of divided encoded data ;
A synthesizing means for synthesizing a plurality of the divided encoded data to generate encoded video data;
Distribution means for distributing the encoded video data to a video display device;
Gaze area information receiving means for receiving gaze area information indicating a viewer's gaze area for the video that is transmitted from the video display device and decoded and displayed from the distributed encoded video data , and
The encoding control means includes
The processing load information of the encoding process notified from each of the plurality of information processing devices, while improving the encoding quality of the divided video data of the video area corresponding to the gaze area indicated by the received gaze area information, A video distribution device that assigns the encoding processing of the divided video data to each of the plurality of information processing devices in accordance with the information of the gaze region detected by the gaze region detection means .
上記符号化制御手段は、複数の上記映像表示装置それぞれで検出した複数の上記注視領域に対応する上記映像領域の上記分割映像データに対する符号化品質を向上させる
請求項2に記載の映像配信装置。
The video distribution device according to claim 2, wherein the encoding control means improves the encoding quality for the divided video data of the video region corresponding to the plurality of gaze regions detected by the plurality of video display devices.
上記配信手段は、複数の上記映像表示装置それぞれに対し、当該映像表示装置個別の上記注視領域に対応する上記分割映像データのみを上記向上させた符号化品質のまま配信し、他の上記映像表示装置の上記注視領域に対応する上記分割映像データは標準的な符号化品質で配信する
請求項3に記載の映像配信装置。
The distribution means distributes only the divided video data corresponding to the gaze area of each video display device to each of the plurality of video display devices with the improved encoding quality, and displays the other video displays. The video distribution device according to claim 3, wherein the divided video data corresponding to the gaze area of the device is distributed with a standard encoding quality.
上記符号化制御手段は、
上記複数の情報処理装置の処理能力を有効に活用するよう上記複数の情報処理装置それぞれに対する上記分割映像データの符号化処理を割り当てる
請求項2に記載の映像配信装置。
The encoding control means includes
The video distribution apparatus according to claim 2, wherein encoding processing of the divided video data is assigned to each of the plurality of information processing apparatuses so as to effectively utilize the processing capabilities of the plurality of information processing apparatuses.
上記符号化制御手段は、
上記注視領域に対応する上記映像領域の上記分割映像データの符号化品質を最高レベルに設定し、上記処理負荷情報に基づいて全ての上記分割映像データを割り当てできないと判別した場合には、上記注視領域に対応する上記映像領域の上記分割映像データの符号化品質のレベルを1つ下げる
請求項5に記載の映像配信装置。
The encoding control means includes
When the encoding quality of the divided video data of the video area corresponding to the gaze area is set to the highest level and it is determined that all the divided video data cannot be allocated based on the processing load information, the gaze 6. The video distribution apparatus according to claim 5, wherein the level of encoding quality of the divided video data in the video area corresponding to the area is lowered by one .
上記符号化制御手段は、
上記注視領域に対応する上記映像領域の上記分割映像データの符号化品質のレベルが上記注視領域に対応しない分割映像データよりも低い場合には、上記処理負荷情報に基づいて全ての上記分割映像データの割り当てを再度実行する
請求項6に記載の映像配信装置。
The encoding control means includes
If the level of encoding quality of the divided video data of the video area corresponding to the gaze area is lower than that of the divided video data not corresponding to the gaze area, all the divided video data based on the processing load information The video distribution apparatus according to claim 6, wherein the allocation is performed again .
上記配信手段は、
複数の上記映像表示装置に対して上記符号化映像データを配信し、
上記符号化制御手段は、
上記複数の上記映像表示装置から供給される上記注視領域の情報とに応じて、上記複数の情報処理装置それぞれに対する上記分割映像データの符号化処理を割り当てるよう上記複数の情報処理装置を制御する
請求項2に記載の映像配信装置。
The delivery means is
Delivering the encoded video data to a plurality of the video display devices;
The encoding control means includes
The plurality of information processing devices are controlled so as to assign the encoding processing of the divided video data to each of the plurality of information processing devices according to the information on the gaze area supplied from the plurality of the video display devices.
The video distribution apparatus according to claim 2 .
映像分割手段によって入力された映像データを複数の映像領域に対応して分割し、複数の分割映像データを生成する映像分割ステップと、
上記複数の分割映像データをそれぞれ符号化して複数の分割符号化データを生成する複数の情報処理装置に対し、符号化制御手段によって上記分割映像データを割り当てて供給する符号化制御ステップと、
合成手段によって複数の上記分割符号化データを合成して符号化映像データを生成する合成ステップと、
配信手段によって上記符号化映像データを映像表示装置に配信する配信ステップと、
注視領域情報受信手段によって上記映像表示装置から送信される、上記配信した符号化映像データを復号して表示した映像に対する視聴者の注視領域を示す注視領域情報を受信する注視領域情報受信ステップと
を有し、
上記符号化制御ステップでは、
上記注視領域検出手段が検出した上記注視領域に対応する上記映像領域の上記分割映像データに対する符号化品質を向上させると共に、上記複数の情報処理装置それぞれから通知される符号化処理の処理負荷情報と、上記注視領域検出手段が検出した上記注視領域の情報とに応じて、上記複数の情報処理装置それぞれに対する上記分割映像データの符号化処理を割り当てる
映像配信方法。
A video dividing step for dividing the video data input by the video dividing means in correspondence with a plurality of video regions, and generating a plurality of divided video data;
An encoding control step of allocating and supplying the divided video data by an encoding control means to a plurality of information processing devices that respectively encode the plurality of divided video data to generate a plurality of divided encoded data;
A synthesizing step of synthesizing a plurality of the divided encoded data by a synthesizing unit to generate encoded video data;
A distribution step of distributing the encoded video data to a video display device by a distribution means ;
A gaze area information receiving step for receiving gaze area information indicating a gaze area of the viewer with respect to the video displayed by decoding the distributed encoded video data transmitted from the video display device by the gaze area information receiving means ;
Have
In the encoding control step,
Rutotomoni improve coding quality for said divided image data in the image area corresponding to the region of interest where the watch area detected by the detecting means, processing load information of the encoding process is notified from each of the plurality of information processing apparatuses And a video distribution method for allocating encoding processing of the divided video data to each of the plurality of information processing devices according to the gaze area information detected by the gaze area detection unit .
コンピュータに対し、
映像分割手段によって入力された映像データを複数の映像領域に対応して分割し、複数の分割映像データを生成する映像分割ステップと、
上記複数の分割映像データをそれぞれ符号化して複数の分割符号化データを生成する複数の情報処理装置に対し、符号化制御手段によって上記分割映像データを割り当てて供給する符号化制御ステップと、
合成手段によって複数の上記分割符号化データを合成して符号化映像データを生成する合成ステップと、
配信手段によって上記符号化映像データを映像表示装置に配信する配信ステップと、
注視領域情報受信手段によって上記映像表示装置から送信される、上記配信した符号化映像データを復号して表示した映像に対する視聴者の注視領域を示す注視領域情報を受信する注視領域情報受信ステップと
を実行させ
上記符号化制御ステップでは、
上記注視領域検出手段が検出した上記注視領域に対応する上記映像領域の上記分割映像データに対する符号化品質を向上させると共に、上記複数の情報処理装置それぞれから通知される符号化処理の処理負荷情報と、上記注視領域検出手段が検出した上記注視領域の情報とに応じて、上記複数の情報処理装置それぞれに対する上記分割映像データの符号化処理を割り当てる
映像配信プログラム。
Against the computer
A video dividing step for dividing the video data input by the video dividing means in correspondence with a plurality of video regions, and generating a plurality of divided video data;
An encoding control step of allocating and supplying the divided video data by an encoding control means to a plurality of information processing devices that respectively encode the plurality of divided video data to generate a plurality of divided encoded data;
A synthesizing step of synthesizing a plurality of the divided encoded data by a synthesizing unit to generate encoded video data;
A distribution step of distributing the encoded video data to a video display device by a distribution means ;
A gaze area information receiving step for receiving gaze area information indicating a gaze area of the viewer with respect to the video displayed by decoding the distributed encoded video data transmitted from the video display device by the gaze area information receiving means ;
And execute
In the encoding control step,
Rutotomoni improve coding quality for said divided image data in the image area corresponding to the region of interest where the watch area detected by the detecting means, processing load information of the encoding process is notified from each of the plurality of information processing apparatuses And a video distribution program for allocating encoding processing of the divided video data to each of the plurality of information processing devices according to the gaze area information detected by the gaze area detection unit .
JP2003364574A 2003-10-24 2003-10-24 VIDEO DISTRIBUTION SYSTEM, VIDEO DISTRIBUTION DEVICE, VIDEO DISTRIBUTION METHOD, AND VIDEO DISTRIBUTION PROGRAM Expired - Fee Related JP4305752B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003364574A JP4305752B2 (en) 2003-10-24 2003-10-24 VIDEO DISTRIBUTION SYSTEM, VIDEO DISTRIBUTION DEVICE, VIDEO DISTRIBUTION METHOD, AND VIDEO DISTRIBUTION PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003364574A JP4305752B2 (en) 2003-10-24 2003-10-24 VIDEO DISTRIBUTION SYSTEM, VIDEO DISTRIBUTION DEVICE, VIDEO DISTRIBUTION METHOD, AND VIDEO DISTRIBUTION PROGRAM

Publications (2)

Publication Number Publication Date
JP2005130251A JP2005130251A (en) 2005-05-19
JP4305752B2 true JP4305752B2 (en) 2009-07-29

Family

ID=34643515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003364574A Expired - Fee Related JP4305752B2 (en) 2003-10-24 2003-10-24 VIDEO DISTRIBUTION SYSTEM, VIDEO DISTRIBUTION DEVICE, VIDEO DISTRIBUTION METHOD, AND VIDEO DISTRIBUTION PROGRAM

Country Status (1)

Country Link
JP (1) JP4305752B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2428153A (en) * 2005-07-08 2007-01-17 Sharp Kk Interactive multiple view display
JP5202448B2 (en) * 2009-06-17 2013-06-05 シャープ株式会社 Image processing system and method
KR101596890B1 (en) 2009-07-29 2016-03-07 삼성전자주식회사 Apparatus and method for navigation digital object using gaze information of user
JP2013055424A (en) * 2011-09-01 2013-03-21 Sony Corp Photographing device, pattern detection device, and electronic apparatus
EP2639674B1 (en) * 2012-03-12 2016-06-01 Alcatel Lucent Method for control of a video interface, face orientation detector, and video conferencing server
CN106464959B (en) * 2014-06-10 2019-07-26 株式会社索思未来 Semiconductor integrated circuit and the display device and control method for having the semiconductor integrated circuit
JP2016178356A (en) * 2015-03-18 2016-10-06 株式会社リコー Communication device, communication system, reception control method and program
JP7056564B2 (en) 2016-08-23 2022-04-19 日本電気株式会社 Video processing equipment, video processing methods and programs
US11303966B2 (en) 2016-09-26 2022-04-12 Dolby Laboratories Licensing Corporation Content based stream splitting of video data
JP7271080B2 (en) 2017-10-11 2023-05-11 エヌ・ティ・ティ・コミュニケーションズ株式会社 Communication device, communication system, communication method, and program
JP7006133B2 (en) * 2017-10-27 2022-01-24 株式会社リコー Communication system and communication method
JP7256491B2 (en) * 2018-09-13 2023-04-12 凸版印刷株式会社 VIDEO TRANSMISSION SYSTEM, VIDEO TRANSMISSION DEVICE, AND VIDEO TRANSMISSION PROGRAM
JP2022113550A (en) * 2021-01-25 2022-08-04 株式会社ソニー・インタラクティブエンタテインメント Image display system and image display method

Also Published As

Publication number Publication date
JP2005130251A (en) 2005-05-19

Similar Documents

Publication Publication Date Title
US11924394B2 (en) Methods and apparatus for receiving and/or using reduced resolution images
US11902493B2 (en) Methods and apparatus for processing content based on viewing information and/or communicating content
JP4305752B2 (en) VIDEO DISTRIBUTION SYSTEM, VIDEO DISTRIBUTION DEVICE, VIDEO DISTRIBUTION METHOD, AND VIDEO DISTRIBUTION PROGRAM
US7983497B2 (en) Coding method for motion-image data, decoding method, terminal equipment executing these, and two-way interactive system
JP5326234B2 (en) Image transmitting apparatus, image transmitting method, and image transmitting system
EP1259080B1 (en) Picture transmission method, picture transmission method program, storage medium which stores picture transmission method program, and picture transmission apparatus
KR20170008725A (en) Methods and apparatus for streaming content
JP2002351438A (en) Image monitor system
JP3803348B2 (en) Image decoding apparatus and image decoding method
JP2005045666A (en) Transcoder
KR20200076529A (en) Indexing of tiles for region of interest in virtual reality video streaming
JP2005341323A (en) Multi-point video conference system, multi-point video conference control method, server apparatus, multi-point video conference control program, and program recording medium thereof
JP2004120779A (en) Multi-point tv conference system
WO2018035383A1 (en) Methods and apparatus for processing content based on viewing information and/or communicating content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090409

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090422

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees