JP2007060531A - Moving picture display device - Google Patents

Moving picture display device Download PDF

Info

Publication number
JP2007060531A
JP2007060531A JP2005246170A JP2005246170A JP2007060531A JP 2007060531 A JP2007060531 A JP 2007060531A JP 2005246170 A JP2005246170 A JP 2005246170A JP 2005246170 A JP2005246170 A JP 2005246170A JP 2007060531 A JP2007060531 A JP 2007060531A
Authority
JP
Japan
Prior art keywords
interpolation
image data
interpolation processing
area
missing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005246170A
Other languages
Japanese (ja)
Inventor
Mamoru Ozawa
守 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005246170A priority Critical patent/JP2007060531A/en
Publication of JP2007060531A publication Critical patent/JP2007060531A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving picture receiver capable of applying high-quality image interpolation processing to a significant region at all the time even if a packet is delayed or lost, and waiting long the reception of the delay packet in a region of low significance, thereby reducing the loss of image data caused by delay and displaying high-quality moving picture data at all the time. <P>SOLUTION: If image data in a region of interest are lost in a network route, high-quality image interpolation processing is performed and if image data in a peripheral region such as 503, 502 are lost, simple interpolation processing is applied. When applying the simple interpolation processing, since the interpolation processing is completed in a short time, the delay packet is waited long. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ネットワークを介して配信された動画を表示する表示装置に関するものである。   The present invention relates to a display device that displays a moving image distributed via a network.

ネットワークで動画データを配信するシステムでは、ネットワークの経路上で伝送するデータパケットの損失や遅延などが起こり、それによって配信した画像が正しく再生できずに画像劣化が発生していた。   In a system that distributes moving image data over a network, a loss or delay of a data packet transmitted on the network path has occurred, and as a result, the distributed image cannot be reproduced correctly and image degradation has occurred.

特に、リアルタイム性が要求されるシステムでは、配送遅延が起きた場合に表示タイミングに間に合わない遅延パケットは損失データとみなして表示処理を開始しなければならない。その対策として、エラー訂正(FEC)技術などにより、冗長なデータ送信して損失したパケットを復元するなどの手法が知られている。   In particular, in a system that requires real-time performance, when a delivery delay occurs, a delay packet that does not meet the display timing must be regarded as lost data and display processing must be started. As a countermeasure, there is known a technique such as error correction (FEC) technology that restores lost packets by transmitting redundant data.

また、損失や遅延したパケットに対する対策として、ネットワーク上のデータ損失した場合に表示タイミングに間に合わせる様に再送要求を行う機能を有したものがある(例えば、特許文献1参照。)。   In addition, as a countermeasure against lost or delayed packets, there is one having a function of performing a retransmission request in time for display timing when data on the network is lost (see, for example, Patent Document 1).

一方、一部を損失してしまった画像データを表示するために、画像の欠損部を補間する手法がとられる。欠損部を補間する画像補間方式には、前フレームのデータを欠損部のデータとするものや、欠損部の周辺のデータから欠損部のデータを生成するなどの様々な方法がある。   On the other hand, in order to display image data in which a part has been lost, a method of interpolating a missing portion of an image is taken. There are various image interpolation methods for interpolating the missing part, such as using the data of the previous frame as the missing part data and generating the missing part data from the data around the missing part.

例えば、欠損部に対して複数の補間方式を適用し周囲の画像と最も類似性の高いデータを選択して欠損部の補間データとしているものがある(例えば、特許文献2参照)。
特開2003−169040号公報 特開平7−111654号公報
For example, there is a technique in which a plurality of interpolation methods are applied to a missing portion, and data having the highest similarity with surrounding images is selected as interpolation data for the missing portion (see, for example, Patent Document 2).
JP 2003-169040 A Japanese Unexamined Patent Publication No. 7-111654

しかしながら、再送要求を行うシステムでは、動画データの送信側にも再送要求に応える機能が必要であり、送信側のシステムが限定されてしまう。また、配信する動画データのフレームレートが高いデータの場合には、表示の更新間隔が短いので、再送にかかる時間を考慮すると再送によるパケットロス補償の効果が充分に見込めないことが考えられる。   However, in a system that makes a retransmission request, a function for responding to the retransmission request is also necessary on the moving image data transmission side, and the system on the transmission side is limited. In addition, in the case of data with a high frame rate of moving image data to be distributed, since the display update interval is short, it is considered that the effect of packet loss compensation by retransmission cannot be sufficiently expected in consideration of the time required for retransmission.

また、従来の欠損した画像データを補間する方法では、高画質な補間処理を行った場合に補間処理にかかる時間が長くなってしまう。このため、画像表示タイミングに間に合わせる様に補間処理開始のタイミングを早くする必要があり、その結果、遅延が原因となるパケット損失を増やすことになってしまう。   Also, in the conventional method of interpolating missing image data, the interpolation processing takes a long time when high-quality interpolation processing is performed. For this reason, it is necessary to make the interpolation processing start timing earlier so as to be in time for the image display timing, and as a result, the packet loss caused by the delay is increased.

上記目的を達成するため、請求項第1に記載の発明は、ネットワーク経由で配信される動画像データを受信する受信手段と、圧縮された画像データを復号する復号手段と、動画を表示する表示手段と、前記受信手段により受信した画像データのうち、欠損している領域を検出する欠損領域検出手段と、画像データの欠損した領域を補間する複数の補間方式を有する画像補間手段とを有する動画像表示装置において、前記表示手段の更新タイミングを基準として処理時間の異なる前記補間手段の各補間処理にかかる最大時間にタイミング出力を行うタイミング出力手段と、前記タイミング出力手段の出力タイミングで出力されたタイミングの種類と前記欠損領域検出手段の検出出力とを対応させて補間処理を選択する補間処理選択手段を有するように構成した。   In order to achieve the above object, the first aspect of the invention provides a receiving means for receiving moving image data distributed via a network, a decoding means for decoding compressed image data, and a display for displaying a moving image. Moving image having a plurality of interpolation methods for interpolating a missing area of image data, and a missing area detecting means for detecting a missing area in the image data received by the receiving means In the image display device, timing output means for outputting timing at the maximum time required for each interpolation processing of the interpolation means having different processing times with reference to the update timing of the display means, and output at the output timing of the timing output means Interpolation processing selection means for selecting an interpolation process by associating the timing type with the detection output of the missing area detection means. Sea urchin was constructed.

請求項第2に記載の発明は、請求項1に記載の動画表示装置において、前記欠損領域検出手段は、少なくとも注目領域を検出するように検出領域を分割し、前記補間処理選択手段は、注目領域が欠損している場合に、前記補間処理のうち高画質な補間処理を選択するように構成した。   According to a second aspect of the present invention, in the moving image display device according to the first aspect, the missing region detection means divides the detection region so as to detect at least the attention region, and the interpolation processing selection means When a region is missing, a high-quality interpolation process is selected from the interpolation processes.

請求項第3に記載の発明は、請求項1に記載の動画表示装置において、前記欠損領域検出手段は、1フレーム画像内の欠損割合に対応した出力値を出力する様に構成した。   According to a third aspect of the present invention, in the moving picture display device according to the first aspect, the missing area detecting means outputs an output value corresponding to a missing ratio in one frame image.

請求項第4に記載の発明は、請求項1に記載の動画表示装置において、前記画像補間処理は、動きベクトルを元に補間処理を行う補間処理方式を有し、前記受信手段により受信した動画像データから動きベクトルを検出する動きベクトル検出手段を有するように構成した。   According to a fourth aspect of the present invention, in the moving image display device according to the first aspect, the image interpolation processing has an interpolation processing method for performing interpolation processing based on a motion vector, and the moving image received by the receiving means A motion vector detecting means for detecting a motion vector from the image data is provided.

本発明の動画受信装置では、パケットが遅延、損失した場合でも重要な領域は常に高画質な補間処理を施すことができる。重要度の低い領域には、遅延パケットの受信を長く待つことができるので、遅延による画像データのロスを低減することが可能であり、常に高画質な動画データを表示することが可能となる。   In the moving picture receiving apparatus of the present invention, even when a packet is delayed or lost, an important area can always be subjected to high-quality interpolation processing. Since it is possible to wait for a long time to receive a delayed packet in an area of low importance, it is possible to reduce the loss of image data due to the delay, and it is possible to always display high-quality moving image data.

(第1実施例)
図1は、第1実施例の動画表示装置の概略構成を示すブロック図である。図1において101はCPUであり、第1実施例の動画表示装置の制御はCPU101により制御される。CPU101には、DMAコントローラ(DMAC)102、メモリーコントローラー103、通信部107、デコード部108、画像補間処理部109、表示制御部110がバス106を介して接続されている。また、CPU101には、通信部107から動画データの受信状態を示す信号線122が接続されている。また、画像補間処理部109からは、画像補間処理の動作状態を示す信号線120が接続され補間処理信号が入力される。CPU101からは、重要度により分割された画像領域のうち、重要度が高い領域から画像データを既に受信したかの状態を出力する信号線121が、画像補間処理部109に接続されている。
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of the moving image display apparatus of the first embodiment. In FIG. 1, reference numeral 101 denotes a CPU, and the control of the moving image display apparatus of the first embodiment is controlled by the CPU 101. A DMA controller (DMAC) 102, a memory controller 103, a communication unit 107, a decoding unit 108, an image interpolation processing unit 109, and a display control unit 110 are connected to the CPU 101 via a bus 106. Further, the CPU 101 is connected to a signal line 122 that indicates a reception state of moving image data from the communication unit 107. Further, from the image interpolation processing unit 109, a signal line 120 indicating the operation state of the image interpolation processing is connected and an interpolation processing signal is input. A signal line 121 that outputs a state indicating whether image data has already been received from a region having a high degree of importance among image regions divided by the degree of importance is connected to the image interpolation processing unit 109.

メモリーコントローラ103には、ROM104、RAM105が接続されており、CPU101はメモリーコントローラ103を介して、ROM104、RAM105にアクセスする。また、CPU101は、ROM104に格納されている制御プログラムに基づいて各種制御を行う。これらの制御の中には、通信部107が受信した画像データをデコード部108へ転送する制御、デコード部108がデコードした画像データを画像補間処理部109へ転送する制御、画像補間処理部109により補間処理された画像データをVRAM1、2(105a、b)に格納する制御、表示制御部110を動作させVRAM1、2に格納された画像データを表示部110に表示する制御などが含まれる。   A ROM 104 and a RAM 105 are connected to the memory controller 103, and the CPU 101 accesses the ROM 104 and the RAM 105 via the memory controller 103. Further, the CPU 101 performs various controls based on a control program stored in the ROM 104. Among these controls, there is a control for transferring the image data received by the communication unit 107 to the decoding unit 108, a control for transferring the image data decoded by the decoding unit 108 to the image interpolation processing unit 109, and an image interpolation processing unit 109. This includes control for storing the interpolated image data in the VRAMs 1 and 2 (105a, b), control for operating the display control unit 110 and displaying the image data stored in the VRAMs 1 and 2 on the display unit 110, and the like.

DMAC102は、CPU101によって行われる設定に従い各モジュール間のデータ転送を実行する。   The DMAC 102 performs data transfer between the modules according to the settings performed by the CPU 101.

RAM105は、105a〜105eの領域に分けられる。105a、105bの領域は、表示制御部110により一定周期で表示部111へ表示する画像データが格納されるVRAM領域である。第1実施例では、ダブルバッファ構成をとりVRAM1(105a)、VRAM2(105b)に格納された画像データを交互に切り換えて表示部111に表示する。105c(バッファ1)の領域は、通信部107が受信したパケットを一時格納するバッファ領域であり、デコード部108がデコードできる様に通信ヘッダーなどの情報を削除した圧縮画像データが格納される。105dの領域は、各種プログラムのワークエリアや各種データを一時退避させる領域として使われる。   The RAM 105 is divided into areas 105a to 105e. The areas 105a and 105b are VRAM areas in which image data to be displayed on the display unit 111 by the display control unit 110 at a constant cycle is stored. In the first embodiment, the image data stored in the VRAM 1 (105a) and VRAM 2 (105b) is alternately switched and displayed on the display unit 111 with a double buffer configuration. The area 105c (buffer 1) is a buffer area for temporarily storing a packet received by the communication unit 107, and stores compressed image data from which information such as a communication header has been deleted so that the decoding unit 108 can decode it. The area 105d is used as a work area for various programs and an area for temporarily saving various data.

通信部107は、ネットワークを介して送信される動画データを受信し、データを受信すると、信号線122を介してCPU101にデータの受信を通知する。   The communication unit 107 receives the moving image data transmitted via the network, and when receiving the data, notifies the CPU 101 of the data reception via the signal line 122.

デコード部108は、圧縮された動画データをデコードし、デコードした画像データを画像補間処理部へ転送する。   The decoding unit 108 decodes the compressed moving image data, and transfers the decoded image data to the image interpolation processing unit.

表示制御部110は、VRAM1(105a)、VRAM2(105b)に格納された画像データをフレーム毎に切り換えて読み出し、表示部111(CRTやLCDなど)に対して一定周期で転送する。また、画像補間処理部109にVsync信号を信号線123により出力する。   The display control unit 110 reads out the image data stored in the VRAM 1 (105a) and VRAM 2 (105b) for each frame, and transfers them to the display unit 111 (CRT, LCD, etc.) at a constant cycle. Further, the Vsync signal is output to the image interpolation processing unit 109 through the signal line 123.

表示部111は、表示制御部110に接続されており、表示制御部から転送された画像データの表示を行う。   The display unit 111 is connected to the display control unit 110 and displays the image data transferred from the display control unit.

画像補間処理部109は、デコードされた画像データの欠損領域を補間してVRAMへ格納する処理を行う。以下、画像補間処理部109の詳細構成、動作について図2を用いて説明する。   The image interpolation processing unit 109 performs a process of interpolating the missing area of the decoded image data and storing it in the VRAM. Hereinafter, the detailed configuration and operation of the image interpolation processing unit 109 will be described with reference to FIG.

図2において、201(フレームバッファ1)は、画像データを1フレーム格納するバッファであり、デコード部108がデコードした画像データ及び、動きベクトル情報、画像デコード情報などがデータ線220を介して格納される。ここで、デコード情報とは、デコード部108がデコードした画像データの領域を示す情報であり、補間処理時に欠損している領域をデコード情報から特定する。第1実施例ではマクロブロック単位のデコード情報である。動きベクトル情報はデコード部108のデコード時にハイブリット符号化方式などによりエンコードされたデータから抽出した値を格納するが、動き検出部を追加しフレーム間の動き情報を検出しても良い。   In FIG. 2, 201 (frame buffer 1) is a buffer for storing one frame of image data. The image data decoded by the decoding unit 108, motion vector information, image decoding information, and the like are stored through the data line 220. The Here, the decode information is information indicating an area of the image data decoded by the decoding unit 108, and an area missing during the interpolation process is specified from the decode information. In the first embodiment, the decoding information is in units of macroblocks. As the motion vector information, a value extracted from data encoded by a hybrid encoding method or the like at the time of decoding by the decoding unit 108 is stored. However, a motion detection unit may be added to detect motion information between frames.

また、205(フレームバッファ2)も、画像データを1フレーム格納するバッファであり、後述する202〜204の補間処理部により欠損部が補間された画像データが格納される。更に、補間処理中は前フレームの画像データ参照のためのバッファとして使われる。また、フレームバッファ2(205)に格納された画像データは、221のデータ線を介してDMAC102によりRAM105のVRAM領域に転送される。   Reference numeral 205 (frame buffer 2) is also a buffer for storing one frame of image data, and stores image data obtained by interpolating missing portions by interpolation processing units 202 to 204 described later. Further, during the interpolation process, it is used as a buffer for referring to image data of the previous frame. The image data stored in the frame buffer 2 (205) is transferred to the VRAM area of the RAM 105 by the DMAC 102 via the data line 221.

202の補間処理部Aは、フレームバッファ1(201)、フレームバッファ2(205)に接続され、フレームバッファ内のデータの読み書きが可能である。更に、補間処理選択部206から動作のオンオフを制御するイネイブル信号(EN)が接続されている。   An interpolation processing unit A 202 is connected to the frame buffer 1 (201) and the frame buffer 2 (205), and can read and write data in the frame buffer. Further, an enable signal (EN) for controlling on / off of the operation is connected from the interpolation processing selection unit 206.

補間処理部A202は、イネイブル信号(EN)がオンされると、フレームバッファ1(201)内に格納されているデコード情報から欠損領域を検出し、動きベクトル情報を元にして画像データの補間処理を行い、処理後の画像データを含む1フレーム分の画像データをフレームバッファ2(205)に転送する。   When the enable signal (EN) is turned on, the interpolation processing unit A202 detects a missing area from the decode information stored in the frame buffer 1 (201), and interpolates image data based on the motion vector information. The image data for one frame including the processed image data is transferred to the frame buffer 2 (205).

補間処理部A202の補間処理は、動き適応型補間処理であり、欠損したマクロブロックの動きベクトルが残っている場合はそのベクトル値を用いて、残っていない場合は、欠損したマクロブロックの周囲のベクトル値から計算した値を用いて補間処理を行う。この時、フレームバッファ2(205)に格納されている前フレーム画像から、動きベクトル求められる値だけずらした領域の画像をコピーすることで補間を行う。また、高画質化処理のためブロック境界にフィルタ処理を施すなどの処理も行う。   The interpolation process of the interpolation processing unit A202 is a motion adaptive interpolation process. When a motion vector of a missing macroblock remains, the vector value is used. Interpolation processing is performed using values calculated from vector values. At this time, the interpolation is performed by copying the image of the area shifted by the value obtained from the motion vector from the previous frame image stored in the frame buffer 2 (205). In addition, processing such as filtering is performed on the block boundary for high image quality processing.

203の補間処理部Bも、フレームバッファ1(201)、フレームバッファ2(205)に接続され、フレームバッファ内のデータの読み書きが可能である。更に、補間処理選択部206から動作のオンオフを制御するイネイブル信号(EN)が接続されている。   An interpolation processing unit B 203 is also connected to the frame buffer 1 (201) and the frame buffer 2 (205), and can read and write data in the frame buffer. Further, an enable signal (EN) for controlling on / off of the operation is connected from the interpolation processing selection unit 206.

補間処理部B203は、イネイブル信号(EN)がオンされると、フレームバッファ1(201)内に格納されているデコード情報を元にして画像データの補間処理を行い、補間処理後の画像データを含む1フレーム分の画像データをフレームバッファ2(205)に転送する。   When the enable signal (EN) is turned on, the interpolation processing unit B203 performs image data interpolation processing based on the decoding information stored in the frame buffer 1 (201), and the image data after the interpolation processing is processed. The image data for one frame is transferred to the frame buffer 2 (205).

補間処理部B203の補間処理は、フレーム内補間処理であり、欠損したマクロブロックの上下の画像データを参照し補間処理を行う。   The interpolation process of the interpolation processing unit B203 is an intra-frame interpolation process, and performs an interpolation process with reference to upper and lower image data of a missing macroblock.

204の補間処理部Cは、フレームバッファ1(201)、フレームバッファ2(205)に接続され、フレームバッファ内のデータの読み書きが可能である。更に、補間処理選択部206から動作のオンオフを制御するイネイブル信号(EN)が接続されている。   An interpolation processing unit C 204 is connected to the frame buffer 1 (201) and the frame buffer 2 (205), and can read and write data in the frame buffer. Further, an enable signal (EN) for controlling on / off of the operation is connected from the interpolation processing selection unit 206.

補間処理部C202は、イネイブル信号(EN)がオンされると、フレームバッファ1(201)内に格納されているデコード情報を元にして格納されている画像データの補間処理を行い、補間処理後の画像データを含む1フレーム分の画像データをフレームバッファ2(205)に転送する。   When the enable signal (EN) is turned on, the interpolation processing unit C202 performs an interpolation process on the stored image data based on the decode information stored in the frame buffer 1 (201). One frame of image data including the image data is transferred to the frame buffer 2 (205).

補間処理部C204は、欠損画像領域に対してフレームバッファ2(205)に格納されている前フレームの画像データから同じ領域の画像データを欠損部にコピーすることで補間処理を行う。尚、第1実施例では画像の欠損がない場合には、補間処理部C204を動作させる。この時補間処理部C204は、デコード情報から補間すべき領域無いことを判断すると補間処理を実行せずに画像データをフレームバッファ2(205)に転送する。   The interpolation processing unit C204 performs the interpolation process by copying the image data of the same area from the image data of the previous frame stored in the frame buffer 2 (205) to the missing image area. In the first embodiment, when there is no image loss, the interpolation processing unit C204 is operated. At this time, if the interpolation processing unit C204 determines from the decode information that there is no region to be interpolated, the interpolation processing unit C204 transfers the image data to the frame buffer 2 (205) without executing the interpolation processing.

また、補間処理A、B、Cのそれぞれの処理時間ta、tb、tcは、欠損領域が同じ面積である場合には、次式に示す関係が成り立つ。   In addition, the processing times ta, tb, and tc of the interpolation processes A, B, and C satisfy the relationship shown in the following expression when the defective area has the same area.

「ta > tb > tc」 --- (1)
次に、補間処理選択部206の動作を図3のタイミング図を用いて説明する。
“Ta>tb> tc” (1)
Next, the operation of the interpolation process selection unit 206 will be described with reference to the timing chart of FIG.

図3は、表示タイミングVsyncと補間処理開始の関係を示したタイミング図である。   FIG. 3 is a timing chart showing the relationship between the display timing Vsync and the start of interpolation processing.

図3において、第1実施例の表示装置では、30fpsのタイミングで表示制御部110がVRAM1(105a)、VRAM2(105b)に格納された画像データを交互に表示部111へ出力し表示を行う。   In FIG. 3, in the display device of the first embodiment, the display control unit 110 alternately outputs the image data stored in the VRAM 1 (105a) and VRAM 2 (105b) to the display unit 111 for display at a timing of 30 fps.

従って、VRAM1(105a)、VRAM2(105b)には、次のVsyncのタイミング(304)までに更新された画像データが格納される必要がある。ここで、補間処理Aにより画像データを補間した場合に補間処理にかかる最大時間(Ta)とすると、タイミング図3の点線301で示された時間は、補間処理Aを行いVRAM領域に画像データを書き込む処理を行った場合の補間処理開始期限を示すタイミングとなる。同様に302で示すタイミングは補間処理Bを施した場合の補間処理を開始する期限であり、303で示すタイミングは補間処理Cを施した場合の補間処理を開始する期限である。   Therefore, the VRAM1 (105a) and VRAM2 (105b) need to store the updated image data by the next Vsync timing (304). Here, assuming that the maximum time (Ta) required for the interpolation process when the image data is interpolated by the interpolation process A, the time indicated by the dotted line 301 in the timing chart 3 performs the interpolation process A and the image data is stored in the VRAM area. This is the timing indicating the interpolation process start time limit when the writing process is performed. Similarly, a timing indicated by 302 is a time limit for starting the interpolation processing when the interpolation processing B is performed, and a timing indicated by 303 is a time limit for starting the interpolation processing when the interpolation processing C is performed.

また、最大時間Taは、予め設定した欠損領域の割合(マクロブロック数)の最大値に対して補間処理Aを実行した場合(VRAMへの書き込み時間を含む)の処理時間の合計である。同様にTbは補間処理部Bを実行した場合の最大処理時間であり、Tcは補間処理部Cを実行した場合の最大処理時間である。   Further, the maximum time Ta is the total processing time when the interpolation process A is executed on the maximum value of the preset missing area ratio (number of macroblocks) (including the time for writing to the VRAM). Similarly, Tb is the maximum processing time when the interpolation processing unit B is executed, and Tc is the maximum processing time when the interpolation processing unit C is executed.

補間処理選択部206にはタイミング制御部207から図3に示した301、302、303のタイミングで信号が入力される。タイミング制御部207は、表示制御部110から出力されるVsync信号224及びタイマー208の信号出力により301〜303のタイミングを作り出し補間処理選択部206に出力する。   Signals are input from the timing control unit 207 to the interpolation processing selection unit 206 at the timings 301, 302, and 303 shown in FIG. The timing control unit 207 creates timings 301 to 303 based on the Vsync signal 224 output from the display control unit 110 and the signal output of the timer 208 and outputs the generated timing to the interpolation processing selection unit 206.

補間処理選択部206は、タイミング制御部207からタイミング信号225が入力されるとCPU101から出力される領域情報信号120に基づき補間処理方式を選択した後、補間処理の開始を指示するために各補間処理部(202〜204)に接続されたイネイブル信号(EN)をオンする。補間処理開始の条件が揃っていない場合には、次のタイミングまで補間処理を開始しない。   When the timing signal 225 is input from the timing control unit 207, the interpolation processing selection unit 206 selects an interpolation processing method based on the region information signal 120 output from the CPU 101, and then performs each interpolation to instruct the start of the interpolation processing. The enable signal (EN) connected to the processing units (202 to 204) is turned on. If the conditions for starting the interpolation process are not met, the interpolation process is not started until the next timing.

第1実施例ではタイミング信号225(Ta、Tb、Tcを識別可能な3bitの信号)の入力時に領域情報信号120と合わせて補間処理の開始を決定する。この時、領域情報信号120には、受信した画像データ内の領域毎にデコードが完了したかの情報が出力されている。第1実施例では、受信した画像データを図5(2)に示す領域に分割しており、以下に領域情報の値と図5(2)の関係を示す。   In the first embodiment, when the timing signal 225 (a 3-bit signal that can identify Ta, Tb, and Tc) is input, the start of the interpolation processing is determined together with the region information signal 120. At this time, the region information signal 120 outputs information indicating whether decoding has been completed for each region in the received image data. In the first embodiment, the received image data is divided into the areas shown in FIG. 5B, and the relationship between the area information values and FIG. 5B is shown below.

領域情報が0の場合:504領域の画像データ受信が未完了
領域情報が1の場合:503領域の画像データ受信が未完了
領域情報が2の場合:502領域の画像データ受信が未完了
領域情報が3の場合:全画像受信完了
上記意味付けされた、領域情報信号120の値とタイミング信号207の種類により補間処理選択部206の動作は、表1に示すように選択される。表1において「補間処理無し」の場合には、補間処理Cを選択し、補間処理部Cでは、前述した補間処理無しの場合の処理を実行する。
When area information is 0: Image data reception of area 504 is not completed. When area information is 1: Reception of image data of area 503 is not completed. When area information is 2: Reception of image data of area 502 is not completed. Area information Is: All image reception completed The operation of the interpolation processing selection unit 206 is selected as shown in Table 1 according to the value of the region information signal 120 and the type of the timing signal 207, which are given above. In the case of “No interpolation processing” in Table 1, the interpolation processing C is selected, and the interpolation processing unit C executes the above-described processing without the interpolation processing.

また、補間処理選択部206は、補間処理を決定すると選択された補間処理ブロックを動作させるためにイネイブル信号(EN)をオンする。更に、CPU101に補間処理を開始したことを伝えるために補間処理信号102の出力をオンする。補間処理部206は、各イネイブル信号をオンした後に次のVsync224の入力により、イネイブル信号(EN)、及び補間処理信号102をオフする。   Further, when the interpolation processing selection unit 206 determines the interpolation processing, the interpolation processing selection unit 206 turns on the enable signal (EN) to operate the selected interpolation processing block. Further, the output of the interpolation processing signal 102 is turned on to notify the CPU 101 that the interpolation processing has started. The interpolation processing unit 206 turns off each enable signal and then turns off the enable signal (EN) and the interpolation processing signal 102 in response to the input of the next Vsync 224.

次にCPU101の動作について、図4に示した画像補間処理選択のフローチャートを用いて説明する。   Next, the operation of the CPU 101 will be described using the flowchart of image interpolation processing selection shown in FIG.

ステップS401から処理を開始し、ステップS402で通信部107がデータを受信したかを信号線122の入力により判断する。ステップS402でデータを受信した場合には、ステップS403で、通信部107からデータを読み出しRAM105のバッファ1(105c)の領域に受信データを書き込む。この時、ネットワーク上の輻輳などにより順番が入れ替わったデータの並び替えなどの処理も行う。また、ステップS402でデータを受信していない場合には、処理をステップS404へ移す。   Processing is started from step S401, and it is determined by input of the signal line 122 whether the communication unit 107 has received data in step S402. If data is received in step S402, the data is read from the communication unit 107 and written in the buffer 1 (105c) area of the RAM 105 in step S403. At this time, processing such as rearrangement of data whose order has been changed due to congestion on the network is also performed. If data has not been received in step S402, the process proceeds to step S404.

ステップS404では、画像補間処理部109が画像補間処理を実行中かを図2の補間処理信号121の出力を参照することで判断する。補間処理の実行中でない場合には、ステップS409に移行し、バッファ1(105c)内に格納されている圧縮された画像データのヘッダ情報などから受信状況を解析する。受信状況の解析は、画像データのヘッダ情報、通信ヘッダ情報などから判断し、一つのスライス単位でデータが揃っているか、抜けているパケットは無いかなどを確認する。これは、ネットワーク経路にて通信パケットが損失したり、遅延によりパケットが到着していないことで、デコード不可能な状態になっていないかを判断している。尚、MPEG、JPEG圧縮された画像データでは、途中の画像データが損失してる場合でもスライス単位でデータがそろっていればデコード可能であり、また、ヘッダー内にスライスの位置情報が含まれているためフレーム内の位置を特定することができる。例えば、1フレームの画像のスライス構成が図5(1)に示すようにとられている場合に、a〜oの各スライスは単独でデコードが可能である。   In step S404, it is determined by referring to the output of the interpolation processing signal 121 in FIG. 2 whether the image interpolation processing unit 109 is executing the image interpolation processing. If the interpolation process is not being executed, the process proceeds to step S409, and the reception status is analyzed from the header information of the compressed image data stored in the buffer 1 (105c). The analysis of the reception status is judged from the header information of the image data, the communication header information, and the like, and it is confirmed whether data is prepared in one slice unit or there is no missing packet. This determines whether a communication packet is lost on the network path or whether the packet has not arrived due to a delay, so that it cannot be decoded. Note that MPEG and JPEG-compressed image data can be decoded as long as the data is available in units of slices even when intermediate image data is lost, and the header includes slice position information. Therefore, the position in the frame can be specified. For example, when the slice configuration of an image of one frame is taken as shown in FIG. 5A, each of the slices a to o can be decoded independently.

ステップS410ではスライス単位でデータが揃っているかをステップS409の解析結果から判断し、データが揃っているスライスが無い場合には、処理をステップS402に戻し、揃っているデータがある場合には、ステップS411に移行する。   In step S410, it is determined from the analysis result in step S409 whether data is prepared in units of slices. If there is no slice in which data is prepared, the process returns to step S402. The process proceeds to step S411.

ステップS411の処理では、DMAC102の設定により該当する圧縮データをデコード部108に転送し、デコード部108で圧縮データは復号される。復号された画像データは、動きベクトルデータと共に画像補間処理部109に転送される。この時デコードした領域の情報をRAM105内の105dの領域に格納する。   In the process of step S411, the corresponding compressed data is transferred to the decoding unit 108 according to the setting of the DMAC 102, and the compressed data is decoded by the decoding unit 108. The decoded image data is transferred to the image interpolation processing unit 109 together with the motion vector data. At this time, the decoded area information is stored in the area 105 d in the RAM 105.

次にステップS412の処理では、図5(2)に示すように1フレーム内の画像領域を502、503、504の点線で囲んだ領域に分けた(互いに領域は重複しない)場合に、どの領域のデコードが済んだかを検出する。デコード領域の検出は、ステップS411で格納したデコードした領域の情報をRAM領域105dから読み出し、重要度により分割された領域ごとにデコードが済んでいるかを解析し、処理をステップS413に移す。   Next, in the process of step S412, as shown in FIG. 5 (2), when the image area in one frame is divided into areas surrounded by dotted lines 502, 503, and 504 (the areas do not overlap each other), which area It is detected whether or not decoding has been completed. In the detection of the decoding area, the information of the decoded area stored in step S411 is read from the RAM area 105d, and it is analyzed whether the decoding is completed for each area divided by the importance, and the process proceeds to step S413.

ステップS413では、図5(2)の504の領域の画像データが欠損しているかをステップS412の解析結果から判断し、欠損している場合にはステップS414に移行し領域情報として図2に示した補間処理選択部206に対して信号線121を介して「0」を出力し、ステップS402に処理を戻す。ステップS413で504の領域の画像データが欠損していない場合には、ステップS415に処理を移行する。   In step S413, it is determined from the analysis result in step S412 whether the image data in the area 504 in FIG. 5 (2) is missing. If missing, the process proceeds to step S414 and is shown as area information in FIG. Then, “0” is output to the interpolation process selection unit 206 via the signal line 121, and the process returns to step S402. If the image data in the area 504 is not lost in step S413, the process proceeds to step S415.

ステップS415では、図5(2)の503の領域の画像データが欠損しているかをステップS412の解析結果から判断し、欠損している場合にはステップS416に移行して領域情報に「1」を出力し処理をステップS402に戻す。ステップS415で503の領域の画像データが欠損していない場合には、ステップS417に移行する。   In step S415, it is determined from the analysis result in step S412 whether the image data in the region 503 in FIG. 5B is missing. If it is missing, the process proceeds to step S416 and “1” is added to the region information. And the process returns to step S402. If the image data in the area 503 is not lost in step S415, the process proceeds to step S417.

ステップS417では、図5(2)の502の領域の画像データが欠損しているかをステップS412の解析結果から判断し、欠損している場合にはステップS418に移行して領域情報に「2」を出力し処理をステップS402に戻す。   In step S417, it is determined from the analysis result in step S412 whether the image data in the area 502 in FIG. 5B is missing. If the image data is missing, the process proceeds to step S418 and the area information is “2”. And the process returns to step S402.

ステップS417で502の領域の画像データが欠損していない場合には全ての画像データの復号が終了しているのでステップS419で領域情報に「3」を出力し、処理をステップS406に移行する。   If the image data in the area 502 is not lost in step S417, the decoding of all the image data has been completed, so “3” is output as the area information in step S419, and the process proceeds to step S406.

ステップS404で補間処理が実行中である場合には、ステップS405に移行し、ステップS405では、バッファ1(105c)に格納されている受信データのうち、現在補間処理を開始したフレームと同一フレームの画像データを削除する。次の、ステップS406では、補間処理が完了したかを補間処理信号120を参照して判断し、補間処理が終了していれば処理をステップS07に移行する。ステップS406で補間処理が終了していない場合には、ステップS406を繰り返す。   When the interpolation process is being executed in step S404, the process proceeds to step S405, and in step S405, the received data stored in the buffer 1 (105c) has the same frame as the frame in which the interpolation process is currently started. Delete the image data. In the next step S406, it is determined with reference to the interpolation processing signal 120 whether the interpolation processing has been completed. If the interpolation processing has been completed, the processing proceeds to step S07. If the interpolation process is not completed in step S406, step S406 is repeated.

ステップS407では、動画表示動作を停止するかを判断し、表示動作を継続する場合には、ステップS402に戻し次のフレームの処理を開始する。   In step S407, it is determined whether or not the moving image display operation is to be stopped. If the display operation is to be continued, the process returns to step S402 to start processing the next frame.

また、ステップS407で表示動作を終了する場合には、ステップS415で処理を終了する。   If the display operation is terminated in step S407, the process is terminated in step S415.

尚、本実施例では明示していないが、表示動作の停止は、送信側からのコマンドによる指示や、ユーザーによる表示操作の停止により与えられるものとする。   Although not explicitly shown in the present embodiment, the stop of the display operation is given by an instruction by a command from the transmission side or a stop of the display operation by the user.

以上説明した動作により第1実施例の表示装置では、図5(2)に示した504の注目領域の画像データがネットワーク経路で損失してしまった場合には、高画質な補間処理を行い、503、502などの周辺領域が損失してしまった場合には、簡易な補間処理を施す。この場合に、画質重視の補間処理に比べて補間処理にかかる時間が短いために、遅延したパケットの到着を長く待つことが可能であり、その期限までに遅延パケットが到着すれば正常なデータを表示することもできる。   With the operation described above, the display device of the first embodiment performs high-quality interpolation processing when the image data of the region of interest 504 shown in FIG. When peripheral areas such as 503 and 502 are lost, simple interpolation processing is performed. In this case, since the time required for interpolation processing is shorter than interpolation processing that emphasizes image quality, it is possible to wait for the arrival of a delayed packet for a long time. It can also be displayed.

この様に、パケットが遅延、損失した場合でも重要な領域は常に高画質な補間処理を施すことができ、重要度の低い領域は、長く遅延パケットを待つことができるので、遅延による画像データのロスを低減し、かつ、常に高画質が受信画像データの表示が可能となる。   In this way, even when packets are delayed or lost, important areas can always be subjected to high-quality interpolation processing, and less important areas can wait for delayed packets for a long time. It is possible to reduce the loss and display the received image data with always high image quality.

(第2実施例)
第1実施例では、受信画像の欠損領域によって補間方式及び、補間開始タイミングを選択したが、第2実施例では、欠損データの割合により補間処理を選択する様構成した。
(Second embodiment)
In the first embodiment, the interpolation method and the interpolation start timing are selected according to the missing area of the received image. In the second embodiment, the interpolation process is selected based on the ratio of the missing data.

第2実施例では、第1実施例の図4の画像補間処理選択のフローチャートを図6に示すフローチャートに置き換えることで実現する。   In the second embodiment, the image interpolation process selection flowchart of FIG. 4 in the first embodiment is replaced with the flowchart shown in FIG.

以下図6に示した画像補間処理選択のフローチャートの処理について説明する。図6においてステップS601〜S611の処理は、図4のステップS401〜S411の処理と同様である。   The process of the flowchart for selecting the image interpolation process shown in FIG. 6 will be described below. In FIG. 6, the processes in steps S601 to S611 are the same as the processes in steps S401 to S411 in FIG.

S612の処理では、ステップS611で格納したデコードした領域の情報をRAM領域105dから読み出し、受信中のフレームの欠損割合を算出する。   In the process of S612, the information of the decoded area stored in step S611 is read from the RAM area 105d, and the missing rate of the frame being received is calculated.

次に、ステップS613の処理では、ステップS612で求めた欠損割合が予め決められた値「A」以上で有れば処理をステップS614へ移し、ステップS614で領域情報に「0」を出力し、ステップS602に処理を戻す。ステップS613で欠損割合が「A」未満である場合には、ステップS614に処理を移行する。   Next, in the process of step S613, if the missing ratio obtained in step S612 is equal to or greater than the predetermined value “A”, the process proceeds to step S614, and “0” is output to the area information in step S614. The process returns to step S602. If the missing rate is less than “A” in step S613, the process proceeds to step S614.

ステップS614の処理では、ステップS612で求めた欠損割合が予め決められた値「B」以上で有れば処理をステップS616へ移し、ステップS616で領域情報に「1」を出力し、ステップS602に処理を戻す。ステップS614で欠損割合が「B」未満である場合には、ステップS617に処理を移行する。   In the process of step S614, if the missing ratio obtained in step S612 is greater than or equal to the predetermined value “B”, the process proceeds to step S616, “1” is output to the area information in step S616, and the process proceeds to step S602. Return processing. If the loss rate is less than “B” in step S614, the process proceeds to step S617.

ステップS617の処理では、ステップS612で求めた欠損割合から欠損領域が無いか判断し、欠損領域がある場合には、処理をステップS618へ移し、ステップS618で領域情報に「2」を出力し、ステップS602に処理を戻す。ステップS617で欠損が無い場合には、ステップS619に処理を移す。   In the process of step S617, it is determined whether or not there is a defect area from the defect ratio obtained in step S612. If there is a defect area, the process proceeds to step S618, and “2” is output to the area information in step S618. The process returns to step S602. If no defect is found in step S617, the process proceeds to step S619.

ステップS619では、領域情報に「3」を出力した後に処理をステップS606に移す。   In step S619, after “3” is output as the area information, the process proceeds to step S606.

尚、第2実施例で欠損値と比較を行う値A、Bには、次式に示す関係が成り立つ。   In addition, the relationship shown in the following equation is established between the values A and B that are compared with the missing values in the second embodiment.

「A > B 」 ---(2)
以上説明した動作により第2実施例の表示装置は、受信した画像データに対して、画像欠損の割合が高い場合には、高画質な補間処理を行い、欠損割合が低くなるとデータ受信を待った上で簡易な補間処理を施す様構成した。
"A>B" --- (2)
With the operation described above, the display device of the second embodiment performs high-quality interpolation processing when the image loss rate is high for the received image data, and waits for data reception when the loss rate is low. The system is configured to perform simple interpolation processing.

(第3実施例)
第1実施例では、受信画像の動きベクトル情報をデコード部が受信した圧縮画像データから抽出して画像補間処理部に送信するよう構成されていたが、第3実施例では、動きベクトル情報を画像補間部で算出することにより得る様に構成した。
(Third embodiment)
In the first embodiment, the motion vector information of the received image is extracted from the compressed image data received by the decoding unit and is transmitted to the image interpolation processing unit. However, in the third embodiment, the motion vector information is displayed as an image. It was configured so as to be obtained by calculation in the interpolation unit.

第3実施例では、第1実施例の図2画像補間処理部109の詳細構成を図7に示す構成に置き換えることで実現する。   The third embodiment is realized by replacing the detailed configuration of the image interpolation processing unit 109 of FIG. 2 of the first embodiment with the configuration shown in FIG.

図7において、701(フレームバッファ1)は、画像データを1フレーム格納するバッファであり、デコード部108がデコードした画像データ及び、画像デコード情報などがデータ線220を介して格納される。ここで、デコード情報とは、デコード部108がデコードした画像データの領域を示す情報であり、補間処理時に通信上のパケットロス、遅延などで欠損している領域をデコード情報から特定する。第3実施例でも第1実施例と同様にマクロブロック単位のデコード情報である。   In FIG. 7, reference numeral 701 (frame buffer 1) is a buffer for storing one frame of image data, and the image data decoded by the decoding unit 108, image decoding information, and the like are stored through the data line 220. Here, the decoding information is information indicating the area of the image data decoded by the decoding unit 108, and an area that is missing due to communication packet loss, delay, or the like during the interpolation process is specified from the decoding information. Similarly to the first embodiment, the third embodiment also provides decode information in units of macroblocks.

205(フレームバッファ2)は、画像データを2フレーム格納するバッファであり、202〜204の補間処理部により欠損部が補間された画像データが格納される。205のフレームバッファ2には、前フレームと前々フレーム画像データが画像データ1、2のフレームバッファ領域に格納される。新しいフレーム画像データが送られてくると随時更新を行う。また、フレームバッファ2は、補間処理部A702、補間処理部B703及び動き検出部709により参照される。   205 (frame buffer 2) is a buffer for storing two frames of image data, and stores image data in which missing portions are interpolated by the interpolation processing units 202 to 204. In the frame buffer 2 205, the previous frame and the previous frame image data are stored in the frame buffer areas of the image data 1 and 2. When new frame image data is sent, it is updated as needed. The frame buffer 2 is referred to by the interpolation processing unit A 702, the interpolation processing unit B 703, and the motion detection unit 709.

フレームバッファ2(205)に格納された画像データは、DMAC102によりデータ線221からVRAM領域に転送される。   The image data stored in the frame buffer 2 (205) is transferred from the data line 221 to the VRAM area by the DMAC.

補間処理部A702は、第1実施例の補間処理部A202と同様な動作で補間処理を実行するが動きベクトル情報は、メモリ710に格納されたデータを参照する。   The interpolation processing unit A702 executes the interpolation processing by the same operation as the interpolation processing unit A202 of the first embodiment, but the motion vector information refers to the data stored in the memory 710.

702の補間処理部Aは、フレームバッファ1(201)、フレームバッファ2(205)に接続され、フレームバッファ内のデータの読み書きが可能である。第3実施例では、メモリ710が新たに接続され、第1実施例と異なり動きベクトル情報をメモリ710から読み出して補間処理を行う。この時、欠損領域と同じ領域の動きベクトル値を読み出して補間処理を行い、動き適応型の補間処理を実行する。   An interpolation processing unit A 702 is connected to the frame buffer 1 (201) and the frame buffer 2 (205), and can read and write data in the frame buffer. In the third embodiment, a memory 710 is newly connected, and unlike the first embodiment, the motion vector information is read from the memory 710 and interpolation processing is performed. At this time, a motion vector value in the same area as the missing area is read out, interpolation processing is performed, and motion adaptive interpolation processing is executed.

その他の動作は、第1実施例と同様であり、補間処理選択部206から動作のオンオフを制御するイネイブル信号(EN)がオンされるとフレームバッファ1(201)内に格納されているデコード情報から欠損領域を検出し、メモリ710からの動きベクトル情報を元にして画像データの補間処理を行い、処理後の画像データを含む1フレーム分の画像データをフレームバッファ2(205)に転送する。   Other operations are the same as those in the first embodiment. When an enable signal (EN) for controlling on / off of the operation is turned on from the interpolation processing selection unit 206, the decoding information stored in the frame buffer 1 (201) is stored. A defective area is detected from the image data, image data interpolation processing is performed based on the motion vector information from the memory 710, and image data for one frame including the processed image data is transferred to the frame buffer 2 (205).

補間処理部B、C(703、704)は、第1実施例の補間処理部203、204と同様な動作で補間処理を実行する。   Interpolation processing units B and C (703 and 704) execute interpolation processing by the same operation as the interpolation processing units 203 and 204 of the first embodiment.

また、補間処理選択部706、タイミング制御部707、タイマー708の動作は、第1実施例の補間処理選択部206、タイミング制御部207、タイマー208と同じ動作を行う。   The operations of the interpolation process selection unit 706, the timing control unit 707, and the timer 708 are the same as those of the interpolation process selection unit 206, the timing control unit 207, and the timer 208 of the first embodiment.

第3実施例では、動き検出部709、メモリ710が追加されている。動き検出部709は、前フレームと前々フレームの画像データから動きベクトルを検出し、求められた動きベクトルの値をメモリ710に格納する。動きベクトル検出部709は、公知の技術であるブロックマッチング法(分割したブロック単位でフレーム間差分の少ない領域を探し出し動きベクトルを計算する)や勾配法(画面輝度の勾配とフレーム間差分から動きベクトルを計算)などにより動きベクトルの検出処理を行う。   In the third embodiment, a motion detection unit 709 and a memory 710 are added. The motion detection unit 709 detects a motion vector from the image data of the previous frame and the previous frame, and stores the obtained motion vector value in the memory 710. The motion vector detection unit 709 is a well-known technique such as a block matching method (searches for a region having a small inter-frame difference for each divided block and calculates a motion vector) and a gradient method (a motion vector based on the screen luminance gradient and the inter-frame difference). Motion vector detection processing is performed.

以上説明した動作により第3実施例では、動きベクトル情報を画像補間部で検出する事が可能である。動きベクトル情報が圧縮画像データに含まれていない圧縮方式のデータであっても高画質な補間が可能となる。   With the operation described above, in the third embodiment, motion vector information can be detected by the image interpolation unit. High-quality interpolation is possible even for compression-type data in which motion vector information is not included in the compressed image data.

また、第3実施例では、前フレームと前々フレームの画像から動きベクトルを算出したが、図8に示す構成をとることで、受信中のフレームと前フレームから動き検出を行う事が可能である。図8の構成では、動き検出部は、フレームバッファ1(801)とフレームバッファ2(805)に接続され、動きベクトルの検出する。図8に示す構成では、補間処理部A802は、欠損領域の動きベクトルを周囲の動きベクトルから算出して求める様構成される。   In the third embodiment, the motion vector is calculated from the images of the previous frame and the previous frame. However, by adopting the configuration shown in FIG. 8, it is possible to detect motion from the frame being received and the previous frame. is there. In the configuration of FIG. 8, the motion detection unit is connected to the frame buffer 1 (801) and the frame buffer 2 (805), and detects a motion vector. In the configuration illustrated in FIG. 8, the interpolation processing unit A802 is configured to calculate and obtain a motion vector of a missing region from surrounding motion vectors.

Figure 2007060531
Figure 2007060531

第1実施例の動画表示装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the moving image display apparatus of 1st Example. 第1実施例の画像補間処理部109の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the image interpolation process part 109 of 1st Example. 第1実施例の動画表示装置の表示処理のタイミングを示すタイミングチャートである。It is a timing chart which shows the timing of the display process of the moving image display apparatus of 1st Example. 第1実施例のCPU101のデコード情報出力の動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement of the decoding information output of CPU101 of 1st Example. (1)は第1実施例の動画表示装置における画像のスライス分割例を示す図である。(2)は第1実施例の動画表示装置における画像の注目領域の分割例を示す図である。(1) is a figure which shows the example of a slice division | segmentation of the image in the moving image display apparatus of 1st Example. (2) is a diagram showing an example of dividing an attention area of an image in the moving image display apparatus of the first embodiment. 第2実施例のCPU101のデコード情報出力の動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement of the decoding information output of CPU101 of 2nd Example. 第3実施例の画像補間処理部109の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the image interpolation process part 109 of 3rd Example. 第3実施例の画像補間処理部109の詳細構成において、その他の例を示すブロック図である。It is a block diagram which shows another example in the detailed structure of the image interpolation process part 109 of 3rd Example.

符号の説明Explanation of symbols

101 CPU
104 ROM
105 RAM
107 通信部
108 デコード部
109 画像補間処理部
110 表示制御部
111 表示部
120 補間処理信号
122 領域情報信号
201、205 フレームバッファ
206 補間処理選択部
202〜204 補間処理部
101 CPU
104 ROM
105 RAM
DESCRIPTION OF SYMBOLS 107 Communication part 108 Decoding part 109 Image interpolation process part 110 Display control part 111 Display part 120 Interpolation process signal 122 Area | region information signal 201, 205 Frame buffer 206 Interpolation process selection part 202-204 Interpolation process part

Claims (4)

ネットワーク経由で配信される動画像データを受信する受信手段と、
圧縮された画像データを復号する復号手段と、
動画を表示する表示手段と、
前記受信手段により受信した画像データのうち、欠損している領域を検出する欠損領域検出手段と、
画像データの欠損した領域を補間する複数の補間方式を有する画像補間手段とを有する動画像表示装置において、
前記表示手段の更新タイミングを基準として処理時間の異なる前記補間手段の各補間処理にかかる最大時間にタイミング出力を行うタイミング出力手段と、
前記タイミング出力手段の出力タイミングで出力されたタイミングの種類と前記欠損領域検出手段の検出出力とを対応させて補間処理を選択する補間処理選択手段を有することを特徴とする動画像表示装置。
Receiving means for receiving moving image data distributed via a network;
Decoding means for decoding the compressed image data;
Display means for displaying a video;
Of the image data received by the receiving means, a missing area detecting means for detecting a missing area;
In a moving image display apparatus having an image interpolation means having a plurality of interpolation methods for interpolating a missing area of image data,
Timing output means for performing timing output at the maximum time required for each interpolation processing of the interpolation means having different processing times based on the update timing of the display means;
A moving image display apparatus comprising: an interpolation process selection unit that selects an interpolation process by associating a type of timing output at an output timing of the timing output unit with a detection output of the missing area detection unit.
前記欠損領域検出手段は、少なくとも注目領域を検出するように検出領域を分割し、前記補間処理選択手段は、注目領域が欠損している場合に、前記補間処理のうち高画質な補間処理を選択することを特徴とする請求項1に記載の動画像表示装置。   The missing area detection means divides the detection area so as to detect at least the attention area, and the interpolation process selection means selects a high-quality interpolation process among the interpolation processes when the attention area is missing. The moving image display apparatus according to claim 1, wherein: 前記欠損領域検出手段は、1フレーム画像内の欠損割合に対応した出力値を出力することを特徴とする請求項1に記載の動画表示装置。   The moving image display apparatus according to claim 1, wherein the defect area detection unit outputs an output value corresponding to a defect ratio in one frame image. 前記画像補間処理は、動きベクトルを元に補間処理を行う補間処理方式を有し、
前記受信手段により受信した動画像データから動きベクトルを検出する動きベクトル検出手段を有することを特徴とする請求項1に記載の動画表示装置。
The image interpolation processing has an interpolation processing method for performing interpolation processing based on a motion vector,
The moving image display apparatus according to claim 1, further comprising a motion vector detection unit that detects a motion vector from the moving image data received by the reception unit.
JP2005246170A 2005-08-26 2005-08-26 Moving picture display device Withdrawn JP2007060531A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005246170A JP2007060531A (en) 2005-08-26 2005-08-26 Moving picture display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005246170A JP2007060531A (en) 2005-08-26 2005-08-26 Moving picture display device

Publications (1)

Publication Number Publication Date
JP2007060531A true JP2007060531A (en) 2007-03-08

Family

ID=37923571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005246170A Withdrawn JP2007060531A (en) 2005-08-26 2005-08-26 Moving picture display device

Country Status (1)

Country Link
JP (1) JP2007060531A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9743120B2 (en) 2007-04-30 2017-08-22 Yahoo Holdings, Inc. System and method for video conversations

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9743120B2 (en) 2007-04-30 2017-08-22 Yahoo Holdings, Inc. System and method for video conversations

Similar Documents

Publication Publication Date Title
US8320451B2 (en) Replacement of frame data in a video stream signal
JP4952581B2 (en) Multipoint conference system, multipoint conference method and program
US20110002376A1 (en) Latency Minimization Via Pipelining of Processing Blocks
JP4710887B2 (en) Image processing apparatus and method for controlling image processing apparatus
US8565315B2 (en) Image decoding device and image decoding method
US8184137B2 (en) System and method for ordering of scaling and capturing in a video system
US20070139400A1 (en) System and method for optimizing display bandwidth
US20080192146A1 (en) Video Signal Processor
JP4810088B2 (en) Image processing apparatus, image processing method, and program thereof
JP2007036339A (en) Image-distributing system
JP2007060531A (en) Moving picture display device
US8818180B2 (en) Video reproducing apparatus, video reproducing method, and program
US20110096082A1 (en) Memory access control device and method thereof
JP2007329858A (en) Moving image display apparatus, moving image display method, and program
US8179978B2 (en) MPEG field data-driven display
EP3718101A2 (en) Managing display data
JP2007134792A (en) Image processing apparatus and method
JP2006121578A (en) Image transmission system, image transmitting apparatus, image receiving apparatus and image transmitting method
JP2016122964A (en) Electronic apparatus and control method
JP2009100206A (en) Image coding and data-decoding device
US20140139516A1 (en) Image processing apparatus with transmission formats and control method thereof
JP6490946B2 (en) Image processing device
JP6490945B2 (en) Image processing device
JP4224320B2 (en) Image compression apparatus and method, and computer software
JP3196753B2 (en) Image display method and image display device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081104