JP2007060531A - Moving picture display device - Google Patents
Moving picture display device Download PDFInfo
- Publication number
- JP2007060531A JP2007060531A JP2005246170A JP2005246170A JP2007060531A JP 2007060531 A JP2007060531 A JP 2007060531A JP 2005246170 A JP2005246170 A JP 2005246170A JP 2005246170 A JP2005246170 A JP 2005246170A JP 2007060531 A JP2007060531 A JP 2007060531A
- Authority
- JP
- Japan
- Prior art keywords
- interpolation
- image data
- interpolation processing
- area
- missing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、ネットワークを介して配信された動画を表示する表示装置に関するものである。 The present invention relates to a display device that displays a moving image distributed via a network.
ネットワークで動画データを配信するシステムでは、ネットワークの経路上で伝送するデータパケットの損失や遅延などが起こり、それによって配信した画像が正しく再生できずに画像劣化が発生していた。 In a system that distributes moving image data over a network, a loss or delay of a data packet transmitted on the network path has occurred, and as a result, the distributed image cannot be reproduced correctly and image degradation has occurred.
特に、リアルタイム性が要求されるシステムでは、配送遅延が起きた場合に表示タイミングに間に合わない遅延パケットは損失データとみなして表示処理を開始しなければならない。その対策として、エラー訂正(FEC)技術などにより、冗長なデータ送信して損失したパケットを復元するなどの手法が知られている。 In particular, in a system that requires real-time performance, when a delivery delay occurs, a delay packet that does not meet the display timing must be regarded as lost data and display processing must be started. As a countermeasure, there is known a technique such as error correction (FEC) technology that restores lost packets by transmitting redundant data.
また、損失や遅延したパケットに対する対策として、ネットワーク上のデータ損失した場合に表示タイミングに間に合わせる様に再送要求を行う機能を有したものがある(例えば、特許文献1参照。)。 In addition, as a countermeasure against lost or delayed packets, there is one having a function of performing a retransmission request in time for display timing when data on the network is lost (see, for example, Patent Document 1).
一方、一部を損失してしまった画像データを表示するために、画像の欠損部を補間する手法がとられる。欠損部を補間する画像補間方式には、前フレームのデータを欠損部のデータとするものや、欠損部の周辺のデータから欠損部のデータを生成するなどの様々な方法がある。 On the other hand, in order to display image data in which a part has been lost, a method of interpolating a missing portion of an image is taken. There are various image interpolation methods for interpolating the missing part, such as using the data of the previous frame as the missing part data and generating the missing part data from the data around the missing part.
例えば、欠損部に対して複数の補間方式を適用し周囲の画像と最も類似性の高いデータを選択して欠損部の補間データとしているものがある(例えば、特許文献2参照)。
しかしながら、再送要求を行うシステムでは、動画データの送信側にも再送要求に応える機能が必要であり、送信側のシステムが限定されてしまう。また、配信する動画データのフレームレートが高いデータの場合には、表示の更新間隔が短いので、再送にかかる時間を考慮すると再送によるパケットロス補償の効果が充分に見込めないことが考えられる。 However, in a system that makes a retransmission request, a function for responding to the retransmission request is also necessary on the moving image data transmission side, and the system on the transmission side is limited. In addition, in the case of data with a high frame rate of moving image data to be distributed, since the display update interval is short, it is considered that the effect of packet loss compensation by retransmission cannot be sufficiently expected in consideration of the time required for retransmission.
また、従来の欠損した画像データを補間する方法では、高画質な補間処理を行った場合に補間処理にかかる時間が長くなってしまう。このため、画像表示タイミングに間に合わせる様に補間処理開始のタイミングを早くする必要があり、その結果、遅延が原因となるパケット損失を増やすことになってしまう。 Also, in the conventional method of interpolating missing image data, the interpolation processing takes a long time when high-quality interpolation processing is performed. For this reason, it is necessary to make the interpolation processing start timing earlier so as to be in time for the image display timing, and as a result, the packet loss caused by the delay is increased.
上記目的を達成するため、請求項第1に記載の発明は、ネットワーク経由で配信される動画像データを受信する受信手段と、圧縮された画像データを復号する復号手段と、動画を表示する表示手段と、前記受信手段により受信した画像データのうち、欠損している領域を検出する欠損領域検出手段と、画像データの欠損した領域を補間する複数の補間方式を有する画像補間手段とを有する動画像表示装置において、前記表示手段の更新タイミングを基準として処理時間の異なる前記補間手段の各補間処理にかかる最大時間にタイミング出力を行うタイミング出力手段と、前記タイミング出力手段の出力タイミングで出力されたタイミングの種類と前記欠損領域検出手段の検出出力とを対応させて補間処理を選択する補間処理選択手段を有するように構成した。 In order to achieve the above object, the first aspect of the invention provides a receiving means for receiving moving image data distributed via a network, a decoding means for decoding compressed image data, and a display for displaying a moving image. Moving image having a plurality of interpolation methods for interpolating a missing area of image data, and a missing area detecting means for detecting a missing area in the image data received by the receiving means In the image display device, timing output means for outputting timing at the maximum time required for each interpolation processing of the interpolation means having different processing times with reference to the update timing of the display means, and output at the output timing of the timing output means Interpolation processing selection means for selecting an interpolation process by associating the timing type with the detection output of the missing area detection means. Sea urchin was constructed.
請求項第2に記載の発明は、請求項1に記載の動画表示装置において、前記欠損領域検出手段は、少なくとも注目領域を検出するように検出領域を分割し、前記補間処理選択手段は、注目領域が欠損している場合に、前記補間処理のうち高画質な補間処理を選択するように構成した。 According to a second aspect of the present invention, in the moving image display device according to the first aspect, the missing region detection means divides the detection region so as to detect at least the attention region, and the interpolation processing selection means When a region is missing, a high-quality interpolation process is selected from the interpolation processes.
請求項第3に記載の発明は、請求項1に記載の動画表示装置において、前記欠損領域検出手段は、1フレーム画像内の欠損割合に対応した出力値を出力する様に構成した。 According to a third aspect of the present invention, in the moving picture display device according to the first aspect, the missing area detecting means outputs an output value corresponding to a missing ratio in one frame image.
請求項第4に記載の発明は、請求項1に記載の動画表示装置において、前記画像補間処理は、動きベクトルを元に補間処理を行う補間処理方式を有し、前記受信手段により受信した動画像データから動きベクトルを検出する動きベクトル検出手段を有するように構成した。 According to a fourth aspect of the present invention, in the moving image display device according to the first aspect, the image interpolation processing has an interpolation processing method for performing interpolation processing based on a motion vector, and the moving image received by the receiving means A motion vector detecting means for detecting a motion vector from the image data is provided.
本発明の動画受信装置では、パケットが遅延、損失した場合でも重要な領域は常に高画質な補間処理を施すことができる。重要度の低い領域には、遅延パケットの受信を長く待つことができるので、遅延による画像データのロスを低減することが可能であり、常に高画質な動画データを表示することが可能となる。 In the moving picture receiving apparatus of the present invention, even when a packet is delayed or lost, an important area can always be subjected to high-quality interpolation processing. Since it is possible to wait for a long time to receive a delayed packet in an area of low importance, it is possible to reduce the loss of image data due to the delay, and it is possible to always display high-quality moving image data.
(第1実施例)
図1は、第1実施例の動画表示装置の概略構成を示すブロック図である。図1において101はCPUであり、第1実施例の動画表示装置の制御はCPU101により制御される。CPU101には、DMAコントローラ(DMAC)102、メモリーコントローラー103、通信部107、デコード部108、画像補間処理部109、表示制御部110がバス106を介して接続されている。また、CPU101には、通信部107から動画データの受信状態を示す信号線122が接続されている。また、画像補間処理部109からは、画像補間処理の動作状態を示す信号線120が接続され補間処理信号が入力される。CPU101からは、重要度により分割された画像領域のうち、重要度が高い領域から画像データを既に受信したかの状態を出力する信号線121が、画像補間処理部109に接続されている。
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of the moving image display apparatus of the first embodiment. In FIG. 1,
メモリーコントローラ103には、ROM104、RAM105が接続されており、CPU101はメモリーコントローラ103を介して、ROM104、RAM105にアクセスする。また、CPU101は、ROM104に格納されている制御プログラムに基づいて各種制御を行う。これらの制御の中には、通信部107が受信した画像データをデコード部108へ転送する制御、デコード部108がデコードした画像データを画像補間処理部109へ転送する制御、画像補間処理部109により補間処理された画像データをVRAM1、2(105a、b)に格納する制御、表示制御部110を動作させVRAM1、2に格納された画像データを表示部110に表示する制御などが含まれる。
A
DMAC102は、CPU101によって行われる設定に従い各モジュール間のデータ転送を実行する。
The DMAC 102 performs data transfer between the modules according to the settings performed by the
RAM105は、105a〜105eの領域に分けられる。105a、105bの領域は、表示制御部110により一定周期で表示部111へ表示する画像データが格納されるVRAM領域である。第1実施例では、ダブルバッファ構成をとりVRAM1(105a)、VRAM2(105b)に格納された画像データを交互に切り換えて表示部111に表示する。105c(バッファ1)の領域は、通信部107が受信したパケットを一時格納するバッファ領域であり、デコード部108がデコードできる様に通信ヘッダーなどの情報を削除した圧縮画像データが格納される。105dの領域は、各種プログラムのワークエリアや各種データを一時退避させる領域として使われる。
The
通信部107は、ネットワークを介して送信される動画データを受信し、データを受信すると、信号線122を介してCPU101にデータの受信を通知する。
The
デコード部108は、圧縮された動画データをデコードし、デコードした画像データを画像補間処理部へ転送する。
The
表示制御部110は、VRAM1(105a)、VRAM2(105b)に格納された画像データをフレーム毎に切り換えて読み出し、表示部111(CRTやLCDなど)に対して一定周期で転送する。また、画像補間処理部109にVsync信号を信号線123により出力する。
The
表示部111は、表示制御部110に接続されており、表示制御部から転送された画像データの表示を行う。
The
画像補間処理部109は、デコードされた画像データの欠損領域を補間してVRAMへ格納する処理を行う。以下、画像補間処理部109の詳細構成、動作について図2を用いて説明する。
The image
図2において、201(フレームバッファ1)は、画像データを1フレーム格納するバッファであり、デコード部108がデコードした画像データ及び、動きベクトル情報、画像デコード情報などがデータ線220を介して格納される。ここで、デコード情報とは、デコード部108がデコードした画像データの領域を示す情報であり、補間処理時に欠損している領域をデコード情報から特定する。第1実施例ではマクロブロック単位のデコード情報である。動きベクトル情報はデコード部108のデコード時にハイブリット符号化方式などによりエンコードされたデータから抽出した値を格納するが、動き検出部を追加しフレーム間の動き情報を検出しても良い。
In FIG. 2, 201 (frame buffer 1) is a buffer for storing one frame of image data. The image data decoded by the
また、205(フレームバッファ2)も、画像データを1フレーム格納するバッファであり、後述する202〜204の補間処理部により欠損部が補間された画像データが格納される。更に、補間処理中は前フレームの画像データ参照のためのバッファとして使われる。また、フレームバッファ2(205)に格納された画像データは、221のデータ線を介してDMAC102によりRAM105のVRAM領域に転送される。
Reference numeral 205 (frame buffer 2) is also a buffer for storing one frame of image data, and stores image data obtained by interpolating missing portions by
202の補間処理部Aは、フレームバッファ1(201)、フレームバッファ2(205)に接続され、フレームバッファ内のデータの読み書きが可能である。更に、補間処理選択部206から動作のオンオフを制御するイネイブル信号(EN)が接続されている。
An interpolation
補間処理部A202は、イネイブル信号(EN)がオンされると、フレームバッファ1(201)内に格納されているデコード情報から欠損領域を検出し、動きベクトル情報を元にして画像データの補間処理を行い、処理後の画像データを含む1フレーム分の画像データをフレームバッファ2(205)に転送する。 When the enable signal (EN) is turned on, the interpolation processing unit A202 detects a missing area from the decode information stored in the frame buffer 1 (201), and interpolates image data based on the motion vector information. The image data for one frame including the processed image data is transferred to the frame buffer 2 (205).
補間処理部A202の補間処理は、動き適応型補間処理であり、欠損したマクロブロックの動きベクトルが残っている場合はそのベクトル値を用いて、残っていない場合は、欠損したマクロブロックの周囲のベクトル値から計算した値を用いて補間処理を行う。この時、フレームバッファ2(205)に格納されている前フレーム画像から、動きベクトル求められる値だけずらした領域の画像をコピーすることで補間を行う。また、高画質化処理のためブロック境界にフィルタ処理を施すなどの処理も行う。 The interpolation process of the interpolation processing unit A202 is a motion adaptive interpolation process. When a motion vector of a missing macroblock remains, the vector value is used. Interpolation processing is performed using values calculated from vector values. At this time, the interpolation is performed by copying the image of the area shifted by the value obtained from the motion vector from the previous frame image stored in the frame buffer 2 (205). In addition, processing such as filtering is performed on the block boundary for high image quality processing.
203の補間処理部Bも、フレームバッファ1(201)、フレームバッファ2(205)に接続され、フレームバッファ内のデータの読み書きが可能である。更に、補間処理選択部206から動作のオンオフを制御するイネイブル信号(EN)が接続されている。
An interpolation
補間処理部B203は、イネイブル信号(EN)がオンされると、フレームバッファ1(201)内に格納されているデコード情報を元にして画像データの補間処理を行い、補間処理後の画像データを含む1フレーム分の画像データをフレームバッファ2(205)に転送する。 When the enable signal (EN) is turned on, the interpolation processing unit B203 performs image data interpolation processing based on the decoding information stored in the frame buffer 1 (201), and the image data after the interpolation processing is processed. The image data for one frame is transferred to the frame buffer 2 (205).
補間処理部B203の補間処理は、フレーム内補間処理であり、欠損したマクロブロックの上下の画像データを参照し補間処理を行う。 The interpolation process of the interpolation processing unit B203 is an intra-frame interpolation process, and performs an interpolation process with reference to upper and lower image data of a missing macroblock.
204の補間処理部Cは、フレームバッファ1(201)、フレームバッファ2(205)に接続され、フレームバッファ内のデータの読み書きが可能である。更に、補間処理選択部206から動作のオンオフを制御するイネイブル信号(EN)が接続されている。
An interpolation
補間処理部C202は、イネイブル信号(EN)がオンされると、フレームバッファ1(201)内に格納されているデコード情報を元にして格納されている画像データの補間処理を行い、補間処理後の画像データを含む1フレーム分の画像データをフレームバッファ2(205)に転送する。 When the enable signal (EN) is turned on, the interpolation processing unit C202 performs an interpolation process on the stored image data based on the decode information stored in the frame buffer 1 (201). One frame of image data including the image data is transferred to the frame buffer 2 (205).
補間処理部C204は、欠損画像領域に対してフレームバッファ2(205)に格納されている前フレームの画像データから同じ領域の画像データを欠損部にコピーすることで補間処理を行う。尚、第1実施例では画像の欠損がない場合には、補間処理部C204を動作させる。この時補間処理部C204は、デコード情報から補間すべき領域無いことを判断すると補間処理を実行せずに画像データをフレームバッファ2(205)に転送する。 The interpolation processing unit C204 performs the interpolation process by copying the image data of the same area from the image data of the previous frame stored in the frame buffer 2 (205) to the missing image area. In the first embodiment, when there is no image loss, the interpolation processing unit C204 is operated. At this time, if the interpolation processing unit C204 determines from the decode information that there is no region to be interpolated, the interpolation processing unit C204 transfers the image data to the frame buffer 2 (205) without executing the interpolation processing.
また、補間処理A、B、Cのそれぞれの処理時間ta、tb、tcは、欠損領域が同じ面積である場合には、次式に示す関係が成り立つ。 In addition, the processing times ta, tb, and tc of the interpolation processes A, B, and C satisfy the relationship shown in the following expression when the defective area has the same area.
「ta > tb > tc」 --- (1)
次に、補間処理選択部206の動作を図3のタイミング図を用いて説明する。
“Ta>tb> tc” (1)
Next, the operation of the interpolation
図3は、表示タイミングVsyncと補間処理開始の関係を示したタイミング図である。 FIG. 3 is a timing chart showing the relationship between the display timing Vsync and the start of interpolation processing.
図3において、第1実施例の表示装置では、30fpsのタイミングで表示制御部110がVRAM1(105a)、VRAM2(105b)に格納された画像データを交互に表示部111へ出力し表示を行う。
In FIG. 3, in the display device of the first embodiment, the
従って、VRAM1(105a)、VRAM2(105b)には、次のVsyncのタイミング(304)までに更新された画像データが格納される必要がある。ここで、補間処理Aにより画像データを補間した場合に補間処理にかかる最大時間(Ta)とすると、タイミング図3の点線301で示された時間は、補間処理Aを行いVRAM領域に画像データを書き込む処理を行った場合の補間処理開始期限を示すタイミングとなる。同様に302で示すタイミングは補間処理Bを施した場合の補間処理を開始する期限であり、303で示すタイミングは補間処理Cを施した場合の補間処理を開始する期限である。
Therefore, the VRAM1 (105a) and VRAM2 (105b) need to store the updated image data by the next Vsync timing (304). Here, assuming that the maximum time (Ta) required for the interpolation process when the image data is interpolated by the interpolation process A, the time indicated by the dotted
また、最大時間Taは、予め設定した欠損領域の割合(マクロブロック数)の最大値に対して補間処理Aを実行した場合(VRAMへの書き込み時間を含む)の処理時間の合計である。同様にTbは補間処理部Bを実行した場合の最大処理時間であり、Tcは補間処理部Cを実行した場合の最大処理時間である。 Further, the maximum time Ta is the total processing time when the interpolation process A is executed on the maximum value of the preset missing area ratio (number of macroblocks) (including the time for writing to the VRAM). Similarly, Tb is the maximum processing time when the interpolation processing unit B is executed, and Tc is the maximum processing time when the interpolation processing unit C is executed.
補間処理選択部206にはタイミング制御部207から図3に示した301、302、303のタイミングで信号が入力される。タイミング制御部207は、表示制御部110から出力されるVsync信号224及びタイマー208の信号出力により301〜303のタイミングを作り出し補間処理選択部206に出力する。
Signals are input from the
補間処理選択部206は、タイミング制御部207からタイミング信号225が入力されるとCPU101から出力される領域情報信号120に基づき補間処理方式を選択した後、補間処理の開始を指示するために各補間処理部(202〜204)に接続されたイネイブル信号(EN)をオンする。補間処理開始の条件が揃っていない場合には、次のタイミングまで補間処理を開始しない。
When the
第1実施例ではタイミング信号225(Ta、Tb、Tcを識別可能な3bitの信号)の入力時に領域情報信号120と合わせて補間処理の開始を決定する。この時、領域情報信号120には、受信した画像データ内の領域毎にデコードが完了したかの情報が出力されている。第1実施例では、受信した画像データを図5(2)に示す領域に分割しており、以下に領域情報の値と図5(2)の関係を示す。
In the first embodiment, when the timing signal 225 (a 3-bit signal that can identify Ta, Tb, and Tc) is input, the start of the interpolation processing is determined together with the
領域情報が0の場合:504領域の画像データ受信が未完了
領域情報が1の場合:503領域の画像データ受信が未完了
領域情報が2の場合:502領域の画像データ受信が未完了
領域情報が3の場合:全画像受信完了
上記意味付けされた、領域情報信号120の値とタイミング信号207の種類により補間処理選択部206の動作は、表1に示すように選択される。表1において「補間処理無し」の場合には、補間処理Cを選択し、補間処理部Cでは、前述した補間処理無しの場合の処理を実行する。
When area information is 0: Image data reception of
また、補間処理選択部206は、補間処理を決定すると選択された補間処理ブロックを動作させるためにイネイブル信号(EN)をオンする。更に、CPU101に補間処理を開始したことを伝えるために補間処理信号102の出力をオンする。補間処理部206は、各イネイブル信号をオンした後に次のVsync224の入力により、イネイブル信号(EN)、及び補間処理信号102をオフする。
Further, when the interpolation
次にCPU101の動作について、図4に示した画像補間処理選択のフローチャートを用いて説明する。
Next, the operation of the
ステップS401から処理を開始し、ステップS402で通信部107がデータを受信したかを信号線122の入力により判断する。ステップS402でデータを受信した場合には、ステップS403で、通信部107からデータを読み出しRAM105のバッファ1(105c)の領域に受信データを書き込む。この時、ネットワーク上の輻輳などにより順番が入れ替わったデータの並び替えなどの処理も行う。また、ステップS402でデータを受信していない場合には、処理をステップS404へ移す。
Processing is started from step S401, and it is determined by input of the
ステップS404では、画像補間処理部109が画像補間処理を実行中かを図2の補間処理信号121の出力を参照することで判断する。補間処理の実行中でない場合には、ステップS409に移行し、バッファ1(105c)内に格納されている圧縮された画像データのヘッダ情報などから受信状況を解析する。受信状況の解析は、画像データのヘッダ情報、通信ヘッダ情報などから判断し、一つのスライス単位でデータが揃っているか、抜けているパケットは無いかなどを確認する。これは、ネットワーク経路にて通信パケットが損失したり、遅延によりパケットが到着していないことで、デコード不可能な状態になっていないかを判断している。尚、MPEG、JPEG圧縮された画像データでは、途中の画像データが損失してる場合でもスライス単位でデータがそろっていればデコード可能であり、また、ヘッダー内にスライスの位置情報が含まれているためフレーム内の位置を特定することができる。例えば、1フレームの画像のスライス構成が図5(1)に示すようにとられている場合に、a〜oの各スライスは単独でデコードが可能である。
In step S404, it is determined by referring to the output of the
ステップS410ではスライス単位でデータが揃っているかをステップS409の解析結果から判断し、データが揃っているスライスが無い場合には、処理をステップS402に戻し、揃っているデータがある場合には、ステップS411に移行する。 In step S410, it is determined from the analysis result in step S409 whether data is prepared in units of slices. If there is no slice in which data is prepared, the process returns to step S402. The process proceeds to step S411.
ステップS411の処理では、DMAC102の設定により該当する圧縮データをデコード部108に転送し、デコード部108で圧縮データは復号される。復号された画像データは、動きベクトルデータと共に画像補間処理部109に転送される。この時デコードした領域の情報をRAM105内の105dの領域に格納する。
In the process of step S411, the corresponding compressed data is transferred to the
次にステップS412の処理では、図5(2)に示すように1フレーム内の画像領域を502、503、504の点線で囲んだ領域に分けた(互いに領域は重複しない)場合に、どの領域のデコードが済んだかを検出する。デコード領域の検出は、ステップS411で格納したデコードした領域の情報をRAM領域105dから読み出し、重要度により分割された領域ごとにデコードが済んでいるかを解析し、処理をステップS413に移す。
Next, in the process of step S412, as shown in FIG. 5 (2), when the image area in one frame is divided into areas surrounded by dotted
ステップS413では、図5(2)の504の領域の画像データが欠損しているかをステップS412の解析結果から判断し、欠損している場合にはステップS414に移行し領域情報として図2に示した補間処理選択部206に対して信号線121を介して「0」を出力し、ステップS402に処理を戻す。ステップS413で504の領域の画像データが欠損していない場合には、ステップS415に処理を移行する。
In step S413, it is determined from the analysis result in step S412 whether the image data in the
ステップS415では、図5(2)の503の領域の画像データが欠損しているかをステップS412の解析結果から判断し、欠損している場合にはステップS416に移行して領域情報に「1」を出力し処理をステップS402に戻す。ステップS415で503の領域の画像データが欠損していない場合には、ステップS417に移行する。
In step S415, it is determined from the analysis result in step S412 whether the image data in the
ステップS417では、図5(2)の502の領域の画像データが欠損しているかをステップS412の解析結果から判断し、欠損している場合にはステップS418に移行して領域情報に「2」を出力し処理をステップS402に戻す。
In step S417, it is determined from the analysis result in step S412 whether the image data in the
ステップS417で502の領域の画像データが欠損していない場合には全ての画像データの復号が終了しているのでステップS419で領域情報に「3」を出力し、処理をステップS406に移行する。
If the image data in the
ステップS404で補間処理が実行中である場合には、ステップS405に移行し、ステップS405では、バッファ1(105c)に格納されている受信データのうち、現在補間処理を開始したフレームと同一フレームの画像データを削除する。次の、ステップS406では、補間処理が完了したかを補間処理信号120を参照して判断し、補間処理が終了していれば処理をステップS07に移行する。ステップS406で補間処理が終了していない場合には、ステップS406を繰り返す。
When the interpolation process is being executed in step S404, the process proceeds to step S405, and in step S405, the received data stored in the buffer 1 (105c) has the same frame as the frame in which the interpolation process is currently started. Delete the image data. In the next step S406, it is determined with reference to the
ステップS407では、動画表示動作を停止するかを判断し、表示動作を継続する場合には、ステップS402に戻し次のフレームの処理を開始する。 In step S407, it is determined whether or not the moving image display operation is to be stopped. If the display operation is to be continued, the process returns to step S402 to start processing the next frame.
また、ステップS407で表示動作を終了する場合には、ステップS415で処理を終了する。 If the display operation is terminated in step S407, the process is terminated in step S415.
尚、本実施例では明示していないが、表示動作の停止は、送信側からのコマンドによる指示や、ユーザーによる表示操作の停止により与えられるものとする。 Although not explicitly shown in the present embodiment, the stop of the display operation is given by an instruction by a command from the transmission side or a stop of the display operation by the user.
以上説明した動作により第1実施例の表示装置では、図5(2)に示した504の注目領域の画像データがネットワーク経路で損失してしまった場合には、高画質な補間処理を行い、503、502などの周辺領域が損失してしまった場合には、簡易な補間処理を施す。この場合に、画質重視の補間処理に比べて補間処理にかかる時間が短いために、遅延したパケットの到着を長く待つことが可能であり、その期限までに遅延パケットが到着すれば正常なデータを表示することもできる。
With the operation described above, the display device of the first embodiment performs high-quality interpolation processing when the image data of the region of
この様に、パケットが遅延、損失した場合でも重要な領域は常に高画質な補間処理を施すことができ、重要度の低い領域は、長く遅延パケットを待つことができるので、遅延による画像データのロスを低減し、かつ、常に高画質が受信画像データの表示が可能となる。 In this way, even when packets are delayed or lost, important areas can always be subjected to high-quality interpolation processing, and less important areas can wait for delayed packets for a long time. It is possible to reduce the loss and display the received image data with always high image quality.
(第2実施例)
第1実施例では、受信画像の欠損領域によって補間方式及び、補間開始タイミングを選択したが、第2実施例では、欠損データの割合により補間処理を選択する様構成した。
(Second embodiment)
In the first embodiment, the interpolation method and the interpolation start timing are selected according to the missing area of the received image. In the second embodiment, the interpolation process is selected based on the ratio of the missing data.
第2実施例では、第1実施例の図4の画像補間処理選択のフローチャートを図6に示すフローチャートに置き換えることで実現する。 In the second embodiment, the image interpolation process selection flowchart of FIG. 4 in the first embodiment is replaced with the flowchart shown in FIG.
以下図6に示した画像補間処理選択のフローチャートの処理について説明する。図6においてステップS601〜S611の処理は、図4のステップS401〜S411の処理と同様である。 The process of the flowchart for selecting the image interpolation process shown in FIG. 6 will be described below. In FIG. 6, the processes in steps S601 to S611 are the same as the processes in steps S401 to S411 in FIG.
S612の処理では、ステップS611で格納したデコードした領域の情報をRAM領域105dから読み出し、受信中のフレームの欠損割合を算出する。
In the process of S612, the information of the decoded area stored in step S611 is read from the
次に、ステップS613の処理では、ステップS612で求めた欠損割合が予め決められた値「A」以上で有れば処理をステップS614へ移し、ステップS614で領域情報に「0」を出力し、ステップS602に処理を戻す。ステップS613で欠損割合が「A」未満である場合には、ステップS614に処理を移行する。 Next, in the process of step S613, if the missing ratio obtained in step S612 is equal to or greater than the predetermined value “A”, the process proceeds to step S614, and “0” is output to the area information in step S614. The process returns to step S602. If the missing rate is less than “A” in step S613, the process proceeds to step S614.
ステップS614の処理では、ステップS612で求めた欠損割合が予め決められた値「B」以上で有れば処理をステップS616へ移し、ステップS616で領域情報に「1」を出力し、ステップS602に処理を戻す。ステップS614で欠損割合が「B」未満である場合には、ステップS617に処理を移行する。 In the process of step S614, if the missing ratio obtained in step S612 is greater than or equal to the predetermined value “B”, the process proceeds to step S616, “1” is output to the area information in step S616, and the process proceeds to step S602. Return processing. If the loss rate is less than “B” in step S614, the process proceeds to step S617.
ステップS617の処理では、ステップS612で求めた欠損割合から欠損領域が無いか判断し、欠損領域がある場合には、処理をステップS618へ移し、ステップS618で領域情報に「2」を出力し、ステップS602に処理を戻す。ステップS617で欠損が無い場合には、ステップS619に処理を移す。 In the process of step S617, it is determined whether or not there is a defect area from the defect ratio obtained in step S612. If there is a defect area, the process proceeds to step S618, and “2” is output to the area information in step S618. The process returns to step S602. If no defect is found in step S617, the process proceeds to step S619.
ステップS619では、領域情報に「3」を出力した後に処理をステップS606に移す。 In step S619, after “3” is output as the area information, the process proceeds to step S606.
尚、第2実施例で欠損値と比較を行う値A、Bには、次式に示す関係が成り立つ。 In addition, the relationship shown in the following equation is established between the values A and B that are compared with the missing values in the second embodiment.
「A > B 」 ---(2)
以上説明した動作により第2実施例の表示装置は、受信した画像データに対して、画像欠損の割合が高い場合には、高画質な補間処理を行い、欠損割合が低くなるとデータ受信を待った上で簡易な補間処理を施す様構成した。
"A>B" --- (2)
With the operation described above, the display device of the second embodiment performs high-quality interpolation processing when the image loss rate is high for the received image data, and waits for data reception when the loss rate is low. The system is configured to perform simple interpolation processing.
(第3実施例)
第1実施例では、受信画像の動きベクトル情報をデコード部が受信した圧縮画像データから抽出して画像補間処理部に送信するよう構成されていたが、第3実施例では、動きベクトル情報を画像補間部で算出することにより得る様に構成した。
(Third embodiment)
In the first embodiment, the motion vector information of the received image is extracted from the compressed image data received by the decoding unit and is transmitted to the image interpolation processing unit. However, in the third embodiment, the motion vector information is displayed as an image. It was configured so as to be obtained by calculation in the interpolation unit.
第3実施例では、第1実施例の図2画像補間処理部109の詳細構成を図7に示す構成に置き換えることで実現する。
The third embodiment is realized by replacing the detailed configuration of the image
図7において、701(フレームバッファ1)は、画像データを1フレーム格納するバッファであり、デコード部108がデコードした画像データ及び、画像デコード情報などがデータ線220を介して格納される。ここで、デコード情報とは、デコード部108がデコードした画像データの領域を示す情報であり、補間処理時に通信上のパケットロス、遅延などで欠損している領域をデコード情報から特定する。第3実施例でも第1実施例と同様にマクロブロック単位のデコード情報である。
In FIG. 7, reference numeral 701 (frame buffer 1) is a buffer for storing one frame of image data, and the image data decoded by the
205(フレームバッファ2)は、画像データを2フレーム格納するバッファであり、202〜204の補間処理部により欠損部が補間された画像データが格納される。205のフレームバッファ2には、前フレームと前々フレーム画像データが画像データ1、2のフレームバッファ領域に格納される。新しいフレーム画像データが送られてくると随時更新を行う。また、フレームバッファ2は、補間処理部A702、補間処理部B703及び動き検出部709により参照される。
205 (frame buffer 2) is a buffer for storing two frames of image data, and stores image data in which missing portions are interpolated by the
フレームバッファ2(205)に格納された画像データは、DMAC102によりデータ線221からVRAM領域に転送される。
The image data stored in the frame buffer 2 (205) is transferred from the
補間処理部A702は、第1実施例の補間処理部A202と同様な動作で補間処理を実行するが動きベクトル情報は、メモリ710に格納されたデータを参照する。
The interpolation processing unit A702 executes the interpolation processing by the same operation as the interpolation processing unit A202 of the first embodiment, but the motion vector information refers to the data stored in the
702の補間処理部Aは、フレームバッファ1(201)、フレームバッファ2(205)に接続され、フレームバッファ内のデータの読み書きが可能である。第3実施例では、メモリ710が新たに接続され、第1実施例と異なり動きベクトル情報をメモリ710から読み出して補間処理を行う。この時、欠損領域と同じ領域の動きベクトル値を読み出して補間処理を行い、動き適応型の補間処理を実行する。
An interpolation
その他の動作は、第1実施例と同様であり、補間処理選択部206から動作のオンオフを制御するイネイブル信号(EN)がオンされるとフレームバッファ1(201)内に格納されているデコード情報から欠損領域を検出し、メモリ710からの動きベクトル情報を元にして画像データの補間処理を行い、処理後の画像データを含む1フレーム分の画像データをフレームバッファ2(205)に転送する。
Other operations are the same as those in the first embodiment. When an enable signal (EN) for controlling on / off of the operation is turned on from the interpolation
補間処理部B、C(703、704)は、第1実施例の補間処理部203、204と同様な動作で補間処理を実行する。
Interpolation processing units B and C (703 and 704) execute interpolation processing by the same operation as the
また、補間処理選択部706、タイミング制御部707、タイマー708の動作は、第1実施例の補間処理選択部206、タイミング制御部207、タイマー208と同じ動作を行う。
The operations of the interpolation
第3実施例では、動き検出部709、メモリ710が追加されている。動き検出部709は、前フレームと前々フレームの画像データから動きベクトルを検出し、求められた動きベクトルの値をメモリ710に格納する。動きベクトル検出部709は、公知の技術であるブロックマッチング法(分割したブロック単位でフレーム間差分の少ない領域を探し出し動きベクトルを計算する)や勾配法(画面輝度の勾配とフレーム間差分から動きベクトルを計算)などにより動きベクトルの検出処理を行う。
In the third embodiment, a
以上説明した動作により第3実施例では、動きベクトル情報を画像補間部で検出する事が可能である。動きベクトル情報が圧縮画像データに含まれていない圧縮方式のデータであっても高画質な補間が可能となる。 With the operation described above, in the third embodiment, motion vector information can be detected by the image interpolation unit. High-quality interpolation is possible even for compression-type data in which motion vector information is not included in the compressed image data.
また、第3実施例では、前フレームと前々フレームの画像から動きベクトルを算出したが、図8に示す構成をとることで、受信中のフレームと前フレームから動き検出を行う事が可能である。図8の構成では、動き検出部は、フレームバッファ1(801)とフレームバッファ2(805)に接続され、動きベクトルの検出する。図8に示す構成では、補間処理部A802は、欠損領域の動きベクトルを周囲の動きベクトルから算出して求める様構成される。 In the third embodiment, the motion vector is calculated from the images of the previous frame and the previous frame. However, by adopting the configuration shown in FIG. 8, it is possible to detect motion from the frame being received and the previous frame. is there. In the configuration of FIG. 8, the motion detection unit is connected to the frame buffer 1 (801) and the frame buffer 2 (805), and detects a motion vector. In the configuration illustrated in FIG. 8, the interpolation processing unit A802 is configured to calculate and obtain a motion vector of a missing region from surrounding motion vectors.
101 CPU
104 ROM
105 RAM
107 通信部
108 デコード部
109 画像補間処理部
110 表示制御部
111 表示部
120 補間処理信号
122 領域情報信号
201、205 フレームバッファ
206 補間処理選択部
202〜204 補間処理部
101 CPU
104 ROM
105 RAM
DESCRIPTION OF
Claims (4)
圧縮された画像データを復号する復号手段と、
動画を表示する表示手段と、
前記受信手段により受信した画像データのうち、欠損している領域を検出する欠損領域検出手段と、
画像データの欠損した領域を補間する複数の補間方式を有する画像補間手段とを有する動画像表示装置において、
前記表示手段の更新タイミングを基準として処理時間の異なる前記補間手段の各補間処理にかかる最大時間にタイミング出力を行うタイミング出力手段と、
前記タイミング出力手段の出力タイミングで出力されたタイミングの種類と前記欠損領域検出手段の検出出力とを対応させて補間処理を選択する補間処理選択手段を有することを特徴とする動画像表示装置。 Receiving means for receiving moving image data distributed via a network;
Decoding means for decoding the compressed image data;
Display means for displaying a video;
Of the image data received by the receiving means, a missing area detecting means for detecting a missing area;
In a moving image display apparatus having an image interpolation means having a plurality of interpolation methods for interpolating a missing area of image data,
Timing output means for performing timing output at the maximum time required for each interpolation processing of the interpolation means having different processing times based on the update timing of the display means;
A moving image display apparatus comprising: an interpolation process selection unit that selects an interpolation process by associating a type of timing output at an output timing of the timing output unit with a detection output of the missing area detection unit.
前記受信手段により受信した動画像データから動きベクトルを検出する動きベクトル検出手段を有することを特徴とする請求項1に記載の動画表示装置。 The image interpolation processing has an interpolation processing method for performing interpolation processing based on a motion vector,
The moving image display apparatus according to claim 1, further comprising a motion vector detection unit that detects a motion vector from the moving image data received by the reception unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005246170A JP2007060531A (en) | 2005-08-26 | 2005-08-26 | Moving picture display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005246170A JP2007060531A (en) | 2005-08-26 | 2005-08-26 | Moving picture display device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007060531A true JP2007060531A (en) | 2007-03-08 |
Family
ID=37923571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005246170A Withdrawn JP2007060531A (en) | 2005-08-26 | 2005-08-26 | Moving picture display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007060531A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9743120B2 (en) | 2007-04-30 | 2017-08-22 | Yahoo Holdings, Inc. | System and method for video conversations |
-
2005
- 2005-08-26 JP JP2005246170A patent/JP2007060531A/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9743120B2 (en) | 2007-04-30 | 2017-08-22 | Yahoo Holdings, Inc. | System and method for video conversations |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8320451B2 (en) | Replacement of frame data in a video stream signal | |
JP4952581B2 (en) | Multipoint conference system, multipoint conference method and program | |
US20110002376A1 (en) | Latency Minimization Via Pipelining of Processing Blocks | |
JP4710887B2 (en) | Image processing apparatus and method for controlling image processing apparatus | |
US8565315B2 (en) | Image decoding device and image decoding method | |
US8184137B2 (en) | System and method for ordering of scaling and capturing in a video system | |
US20070139400A1 (en) | System and method for optimizing display bandwidth | |
US20080192146A1 (en) | Video Signal Processor | |
JP4810088B2 (en) | Image processing apparatus, image processing method, and program thereof | |
JP2007036339A (en) | Image-distributing system | |
JP2007060531A (en) | Moving picture display device | |
US8818180B2 (en) | Video reproducing apparatus, video reproducing method, and program | |
US20110096082A1 (en) | Memory access control device and method thereof | |
JP2007329858A (en) | Moving image display apparatus, moving image display method, and program | |
US8179978B2 (en) | MPEG field data-driven display | |
EP3718101A2 (en) | Managing display data | |
JP2007134792A (en) | Image processing apparatus and method | |
JP2006121578A (en) | Image transmission system, image transmitting apparatus, image receiving apparatus and image transmitting method | |
JP2016122964A (en) | Electronic apparatus and control method | |
JP2009100206A (en) | Image coding and data-decoding device | |
US20140139516A1 (en) | Image processing apparatus with transmission formats and control method thereof | |
JP6490946B2 (en) | Image processing device | |
JP6490945B2 (en) | Image processing device | |
JP4224320B2 (en) | Image compression apparatus and method, and computer software | |
JP3196753B2 (en) | Image display method and image display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20081104 |