JP4412062B2 - Moving picture conversion apparatus, moving picture conversion method, and computer program - Google Patents

Moving picture conversion apparatus, moving picture conversion method, and computer program Download PDF

Info

Publication number
JP4412062B2
JP4412062B2 JP2004168487A JP2004168487A JP4412062B2 JP 4412062 B2 JP4412062 B2 JP 4412062B2 JP 2004168487 A JP2004168487 A JP 2004168487A JP 2004168487 A JP2004168487 A JP 2004168487A JP 4412062 B2 JP4412062 B2 JP 4412062B2
Authority
JP
Japan
Prior art keywords
frame
data
block
moving image
address
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004168487A
Other languages
Japanese (ja)
Other versions
JP2005348320A (en
Inventor
誠司 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004168487A priority Critical patent/JP4412062B2/en
Publication of JP2005348320A publication Critical patent/JP2005348320A/en
Application granted granted Critical
Publication of JP4412062B2 publication Critical patent/JP4412062B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、動画像変換装置、および動画像変換方法、並びにコンピュータ・プログラムに関する。特に画素間引きを伴う圧縮データから高品質な画像データの復元を可能としたものであり、例えば復元画像のスローモーション表示において目立ちやすいジャギー(空間集周波数の折り返し)等の画質劣化を解消し高品質な画像復元を実現する動画像変換装置、および動画像変換方法、並びにコンピュータ・プログラムに関する。   The present invention relates to a moving image conversion apparatus, a moving image conversion method, and a computer program. In particular, it enables high-quality image data restoration from compressed data with pixel thinning, and eliminates image quality degradation such as jaggies (folding of spatial frequency collection) that are conspicuous in slow-motion display of restored images. The present invention relates to a moving image conversion apparatus, a moving image conversion method, and a computer program that realizes accurate image restoration.

動画像データは、ハードディスク、DVDなどの記憶媒体への保存、あるいはネットワークを介した配信などにおいて、データ量を削減するためのデータ変換、すなわち圧縮処理が行なわれる。特に、近年、動画像データの高品質化、例えばHD(High Difinition)データなど、データ品質の改善が進んでおり、このデータの高品質化に伴ってデータ量が急激に増大している。このような状況において、動画像データの圧縮、復元処理における圧縮効率の改善や、復元データの品質劣化防止に関する技術について多くの検討、研究がなされている。   The moving image data is subjected to data conversion for reducing the amount of data, that is, compression processing, when it is stored in a storage medium such as a hard disk or DVD or distributed via a network. In particular, in recent years, the quality of moving image data has been improved, for example, HD (High Definition) data has been improved, and the amount of data has increased rapidly with the improvement of the quality of this data. Under such circumstances, many studies and studies have been made on techniques for improving the compression efficiency in the compression and decompression processing of moving image data and preventing the quality degradation of the decompressed data.

動画像の圧縮処理方法としては、例えば動画像データを構成する画像フレームの構成画素の間引き処理、すなわち空間方向の間引き処理と、フレームレートを間引く処理、すなわち時間方向の間引き処理などが知られている。   As a moving image compression processing method, for example, thinning processing of pixels constituting an image frame constituting moving image data, that is, thinning processing in a spatial direction, thinning processing of a frame rate, that is, thinning processing in a time direction, and the like are known. Yes.

このようなデータ変換によるデータ量削減により記憶媒体への保存やネットワークを介したデータ転送が効率的に行なわれるという利点がある。しかしながら、圧縮されたデータを復元し再生する場合、画質の劣化が発生してしまうという問題がある。特にオリジナルデータが高精細画像である場合には、その品質劣化がより顕著になってしまう。   By reducing the amount of data by such data conversion, there is an advantage that saving to a storage medium and data transfer via a network are efficiently performed. However, when the compressed data is restored and reproduced, there is a problem that the image quality deteriorates. In particular, when the original data is a high-definition image, the quality deterioration becomes more remarkable.

このような画質劣化をいかに低減するかについては様々な検討がなされている。例えば、特許文献1には、画像の明るさの情報に基づくパラメータを設定し、画像の明るさに従って圧縮態様を変更する画像圧縮処理構成を開示している。また、特許文献2には、画面を複数の領域に分割し、領域毎に圧縮態様を変更した圧縮処理構成を開示している。
特開2003−169284号公報 特開2002−27466号公報
Various studies have been made on how to reduce such image quality deterioration. For example, Patent Document 1 discloses an image compression processing configuration in which a parameter based on image brightness information is set and the compression mode is changed according to the image brightness. Patent Document 2 discloses a compression processing configuration in which a screen is divided into a plurality of areas and the compression mode is changed for each area.
JP 2003-169284 A Japanese Patent Laid-Open No. 2002-27466

上述のように、いくつかの従来技術において、処理対象画像から求められる様々な特性に基づいて圧縮態様を変更し、データ品質を高める構成が開示されているが、これまでに開示されている圧縮方法では、圧縮画像データを復元し、再生した場合の画質劣化を十分に抑えるには至っていない。特に、画素間引きを伴う圧縮データを復元した画像のスローモーション表示では、間引き処理によって失われた画素データに基づくジャギー(空間集周波数の折り返し)が目だってしまうという問題がある。   As described above, in some conventional techniques, a configuration is disclosed in which the compression mode is changed based on various characteristics obtained from the processing target image and the data quality is improved. In the method, the compressed image data is restored and reproduced, and image quality deterioration is not sufficiently suppressed. In particular, in slow motion display of an image obtained by restoring compressed data accompanied by pixel thinning, there is a problem that jaggy (folding of spatial frequency collection) based on pixel data lost by the thinning process becomes noticeable.

本発明は、このような問題点に鑑みてなされたものであり、画素間引きを伴う圧縮データから高品質な画像データを復元することを可能としたものであり、特に、画像のスローモーション表示において目立ちやすいジャギー等の画質劣化を解消し、高品質な画像復元を可能とした動画像変換装置、および動画像変換方法、並びにコンピュータ・プログラムを提供することを目的とする。   The present invention has been made in view of such problems, and has made it possible to restore high-quality image data from compressed data with pixel thinning, and particularly in slow-motion display of images. An object of the present invention is to provide a moving image conversion apparatus, a moving image conversion method, and a computer program that can eliminate image quality degradation such as conspicuous jaggy and enable high-quality image restoration.

本発明の第1の側面は、
動画像圧縮データの復元処理を実行する動画像変換装置であり、
動画像を構成するフレームに含まれる領域としてのブロック単位の圧縮データを入力する入力部と、
前記圧縮データに含まれる動き情報、または前記圧縮データから算出される動き情報に基づいて時間軸上の異なるフレームにおけるブロック位置を算出し、該算出位置に対応するアドレスをフレーム対応のフレームバッファアクセス用アドレスとして算出するアドレス変換部と、
前記アドレス変換部の算出したフレーム対応のアドレスによって指定されるメモリ位置に各フレーム対応のブロック圧縮データに含まれる画素値または該画素値に基づく算出値を格納するフレーム対応の複数のフレームバッファと、
前記フレームバッファの格納データに基づいて複数の異なるフレームの標本点データに基づく復元ブロックを生成する補間部と、
前記補間部の生成した復元ブロックによって構成される動画像フレームデータを出力する出力部とを有し、
前記複数のフレームバッファは、復元処理対象フレームと、復元処理対象フレームに時間軸上で先行するフレームまたは後続するフレームの少なくともいずれかの複数フレームに渡る画素値または該画素値に基づく算出値の重複書き込みがなされる構成であることを特徴とする動画像変換装置にある。
The first aspect of the present invention is:
A moving image conversion apparatus that executes a moving image compressed data restoration process,
An input unit for inputting compressed data in units of blocks as an area included in a frame constituting a moving image;
A block position in a different frame on the time axis is calculated based on motion information included in the compressed data or motion information calculated from the compressed data, and an address corresponding to the calculated position is used for frame buffer access corresponding to the frame. An address conversion unit that calculates an address;
A plurality of frame buffers corresponding to frames for storing pixel values included in block compressed data corresponding to each frame or calculated values based on the pixel values at a memory location specified by an address corresponding to the frame calculated by the address conversion unit;
An interpolation unit that generates a restoration block based on sample point data of a plurality of different frames based on data stored in the frame buffer;
An output unit that outputs moving image frame data constituted by the restoration block generated by the interpolation unit ;
The plurality of frame buffers include a restoration processing target frame, a pixel value over at least one of a frame preceding or following the restoration processing target frame on a time axis, or an overlap of calculated values based on the pixel value The moving image conversion apparatus is characterized in that writing is performed.

さらに、本発明の動画像変換装置の一実施態様において、前記動画像変換装置は、さらに、前記アドレス変換部の算出したフレーム対応アドレスによって指定されるフレームバッファのメモリ位置に書き込み済みの画素値データが存在する場合、該画素値データと、処理フレーム対応のブロック圧縮データに含まれる画素値との加算平均値を算出する加算処理部を有し、該加算処理部において算出した加算平均値を前記フレーム対応アドレスによって指定されるメモリ位置に書き込む処理を実行する構成であることを特徴とする。   Furthermore, in one embodiment of the moving image conversion device of the present invention, the moving image conversion device further includes pixel value data already written in a memory location of a frame buffer designated by a frame corresponding address calculated by the address conversion unit. Is present, an addition processing unit that calculates an average value of the pixel value data and a pixel value included in the block compression data corresponding to the processing frame, and the addition average value calculated by the addition processing unit The present invention is characterized in that a process for writing to a memory location specified by a frame correspondence address is executed.

さらに、本発明の動画像変換装置の一実施態様において、前記アドレス変換部は、ブロックの動き情報として、フレーム単位のブロック移動情報を示す動きベクトルを入力し、該動きベクトルに基づいて時間軸上の異なるフレームにおけるブロック位置を算出し、該算出位置に対応するアドレスを各フレーム対応のアドレスとして算出する構成であることを特徴とする。   Furthermore, in one embodiment of the moving image conversion apparatus of the present invention, the address conversion unit inputs a motion vector indicating block movement information in units of frames as the motion information of the block, and on the time axis based on the motion vector. The block positions in different frames are calculated, and an address corresponding to the calculated position is calculated as an address corresponding to each frame.

さらに、本発明の動画像変換装置の一実施態様において、前記補間部は、ブロック構成データ中、前記標本点データの欠落した画素値を、ブロック対応の動き情報に含まれる動き方向と平行な方向の画素値に基づいて補間する処理を実行する構成であることを特徴とする。   Furthermore, in one embodiment of the moving image conversion apparatus of the present invention, the interpolation unit may select a pixel value missing from the sample point data in the block configuration data in a direction parallel to the motion direction included in the motion information corresponding to the block. It is the structure which performs the process which interpolates based on this pixel value.

さらに、本発明の動画像変換装置の一実施態様において、前記補間部は、ブロック構成データ中、前記標本点データの欠落した画素値を、該欠落画素の周囲画素値に基づいて補間する処理を実行する構成であることを特徴とする。   Furthermore, in one embodiment of the moving image conversion apparatus of the present invention, the interpolation unit performs a process of interpolating a pixel value missing from the sample point data in the block configuration data based on a surrounding pixel value of the missing pixel. It is the structure to perform.

さらに、本発明の動画像変換装置の一実施態様において、前記動画像変換装置は、さらに、前記補間部に対する出力データの切り替え処理として、補間部に対する出力データを格納したフレームバッファを順次切り替える処理を実行する選択部を有する構成であることを特徴とする。   Furthermore, in one embodiment of the moving image conversion apparatus of the present invention, the moving image conversion device further performs a process of sequentially switching a frame buffer storing output data for the interpolation unit as a process of switching output data for the interpolation unit. It is the structure which has the selection part to perform.

さらに、本発明の第2の側面は、
動画像圧縮データの復元処理を実行する動画像変換方法であり、
動画像を構成するフレームに含まれる領域としてのブロック単位の圧縮データを入力する入力ステップと、
前記圧縮データに含まれる動き情報、または前記圧縮データから算出される動き情報に基づいて時間軸上の異なるフレームにおけるブロック位置を算出し、該算出位置に対応するアドレスをフレーム対応のフレームバッファアクセス用アドレスとして算出するアドレス変換ステップと、
複数のフレームバッファの各々に対するデータ格納ステップであり、前記アドレス変換ステップにおいて算出したフレーム対応のアドレスによってアクセスされる各フレームバッファのメモリ位置に、各フレーム対応のブロック圧縮データに含まれる画素値または該画素値に基づく算出値を格納するデータ格納ステップと、
前記フレームバッファの格納データに基づいて複数の異なるフレームの標本点データに基づく復元ブロックを生成する補間ステップと、
前記補間ステップにおいて生成した復元ブロックによって構成される動画像フレームデータを出力する出力ステップとを有し、
前記データ格納ステップは、
前記複数のフレームバッファに対して、復元処理対象フレームと、復元処理対象フレームに時間軸上で先行するフレームまたは後続するフレームの少なくともいずれかの複数フレームに渡る画素値または該画素値に基づく算出値の重複書き込みを実行するステップであることを特徴とする動画像変換方法にある。
Furthermore, the second aspect of the present invention provides
It is a moving image conversion method for executing a moving image compressed data restoration process,
An input step for inputting compressed data in units of blocks as an area included in a frame constituting a moving image;
A block position in a different frame on the time axis is calculated based on motion information included in the compressed data or motion information calculated from the compressed data, and an address corresponding to the calculated position is used for frame buffer access corresponding to the frame. An address conversion step to calculate as an address;
A data storage step for each of a plurality of frame buffers, wherein the pixel value included in the block compressed data corresponding to each frame or the memory location of each frame buffer accessed by the address corresponding to the frame calculated in the address conversion step A data storage step for storing a calculated value based on the pixel value;
An interpolation step for generating a restoration block based on sample point data of a plurality of different frames based on the data stored in the frame buffer;
An output step of outputting moving image frame data constituted by the restoration block generated in the interpolation step ;
The data storing step includes
For the plurality of frame buffers, a pixel value over a plurality of frames of at least one of a restoration processing target frame and a frame preceding and following the restoration processing target frame on a time axis, or a calculated value based on the pixel value There is a moving image conversion method characterized in that it is a step of executing the redundant writing .

さらに、本発明の動画像変換方法の一実施態様において、前記動画像変換方法は、さらに、前記アドレス変換ステップにおいて算出したフレーム対応アドレスによって指定されるフレームバッファのメモリ位置に書き込み済みの画素値データが存在する場合、該画素値データと、処理フレーム対応のブロック圧縮データに含まれる画素値との加算平均値を算出する加算処理ステップを有し、前記データ格納ステップは、前記加算処理ステップにおいて算出した加算平均値を前記フレーム対応アドレスによって指定されるメモリ位置に書き込む処理を実行するステップであることを特徴とする。   Furthermore, in one embodiment of the moving image conversion method of the present invention, the moving image conversion method further includes pixel value data already written in a memory location of a frame buffer designated by a frame corresponding address calculated in the address conversion step. Is present, an addition processing step of calculating an average value of the pixel value data and a pixel value included in the block compressed data corresponding to the processing frame is included, and the data storage step is calculated in the addition processing step. It is a step of executing a process of writing the added average value to a memory location designated by the frame corresponding address.

さらに、本発明の動画像変換方法の一実施態様において、前記アドレス変換ステップは、ブロックの動き情報として、フレーム単位のブロック移動情報を示す動きベクトルを入力し、該動きベクトルに基づいて時間軸上の異なるフレームにおけるブロック位置を算出し、該算出位置に対応するアドレスを各フレーム対応のアドレスとして算出するステップであることを特徴とする。   Furthermore, in one embodiment of the moving image conversion method of the present invention, the address conversion step inputs a motion vector indicating block movement information in units of frames as block motion information, and on the time axis based on the motion vector. This is a step of calculating a block position in different frames and calculating an address corresponding to the calculated position as an address corresponding to each frame.

さらに、本発明の動画像変換方法の一実施態様において、前記補間ステップは、ブロック構成データ中、前記標本点データの欠落した画素値を、ブロック対応の動き情報に含まれる動き方向と平行な方向の画素値に基づいて補間する処理を実行するステップを含むことを特徴とする。   Furthermore, in an embodiment of the moving image conversion method of the present invention, the interpolation step may include a pixel value missing from the sample point data in the block configuration data in a direction parallel to the motion direction included in the motion information corresponding to the block. The method includes a step of executing a process of performing interpolation based on the pixel value.

さらに、本発明の動画像変換方法の一実施態様において、前記補間ステップは、ブロック構成データ中、前記標本点データの欠落した画素値を、該欠落画素の周囲画素値に基づいて補間する処理を実行するステップを含むことを特徴とする。   Furthermore, in an embodiment of the moving image conversion method of the present invention, the interpolation step includes a process of interpolating a pixel value missing from the sample point data in block configuration data based on a surrounding pixel value of the missing pixel. Including a step of executing.

さらに、本発明の動画像変換方法の一実施態様において、前記動画像変換方法は、さらに、前記画素値補間処理を実行する補間部に対する出力データの切り替え処理として、フレームバッファを順次切り替えるフレームバッファ選択ステップを有することを特徴とする。   Furthermore, in one embodiment of the moving image conversion method of the present invention, the moving image conversion method further includes frame buffer selection for sequentially switching frame buffers as output data switching processing for an interpolation unit that performs the pixel value interpolation processing. It has a step.

さらに、本発明の第3の側面は、
動画像圧縮データの復元処理を実行するコンピュータ・プログラムであり、
動画像を構成するフレームに含まれる領域としてのブロック単位の圧縮データを入力する入力ステップと、
前記圧縮データに含まれる動き情報、または前記圧縮データから算出される動き情報に基づいて時間軸上の異なるフレームにおけるブロック位置を算出し、該算出位置に対応するアドレスをフレーム対応のフレームバッファアクセス用アドレスとして算出するアドレス変換ステップと、
複数のフレームバッファの各々に対するデータ格納ステップであり、前記アドレス変換ステップにおいて算出したフレーム対応のアドレスによってアクセスされる各フレームバッファのメモリ位置に、各フレーム対応のブロック圧縮データに含まれる画素値または該画素値に基づく算出値を格納するデータ格納ステップと、
前記フレームバッファの格納データに基づいて複数の異なるフレームの標本点データに基づく復元ブロックを生成する補間ステップと、
前記補間ステップにおいて生成した復元ブロックによって構成される動画像フレームデータを出力する出力ステップとを有し、
前記データ格納ステップは、
前記複数のフレームバッファに対して、復元処理対象フレームと、復元処理対象フレームに時間軸上で先行するフレームまたは後続するフレームの少なくともいずれかの複数フレームに渡る画素値または該画素値に基づく算出値の重複書き込みを実行するステップであることを特徴とするコンピュータ・プログラムにある。
Furthermore, the third aspect of the present invention provides
A computer program for executing a decompression process of compressed moving image data,
An input step for inputting compressed data in units of blocks as an area included in a frame constituting a moving image;
A block position in a different frame on the time axis is calculated based on motion information included in the compressed data or motion information calculated from the compressed data, and an address corresponding to the calculated position is used for frame buffer access corresponding to the frame. An address conversion step to calculate as an address;
A data storing step for each of a plurality of frame buffers, wherein a pixel value included in the block compressed data corresponding to each frame or the memory location of each frame buffer accessed by the address corresponding to the frame calculated in the address converting step A data storage step for storing a calculated value based on the pixel value;
An interpolation step for generating a restoration block based on sample point data of a plurality of different frames based on the data stored in the frame buffer;
An output step of outputting moving image frame data constituted by the restoration block generated in the interpolation step ;
The data storing step includes
For the plurality of frame buffers, a pixel value over a plurality of frames of at least one of a restoration processing target frame and a frame preceding or following the restoration processing target frame on a time axis, or a calculated value based on the pixel value There is a computer program characterized in that it is a step of executing the redundant writing .

なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能な汎用コンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、CDやFD、MOなどの記憶媒体、あるいは、ネットワークなどの通信媒体によって提供可能なコンピュータ・プログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。   The computer program of the present invention is, for example, a storage medium or communication medium provided in a computer-readable format to a general-purpose computer system capable of executing various program codes, such as a CD, FD, MO, etc. Or a computer program that can be provided by a communication medium such as a network. By providing such a program in a computer-readable format, processing corresponding to the program is realized on the computer system.

本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づく、より詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Other objects, features, and advantages of the present invention will become apparent from a more detailed description based on embodiments of the present invention described later and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.

本発明の構成によれば、空間方向の間引き処理や時間方向の間引き処理などによって画素データが間引かれた圧縮データの復元処理において、ブロックの動きベクトルなどの動き情報に基づいて算出されるブロックの移動位置を反映させて複数フレームに渡る同一ブロックのデータをフレームバッファに蓄積し、蓄積した複数の異なるフレームの標本点データに基づいてデータ復元を実行する構成としたので、1つのフレームにおいて欠落している画素値を異なるフレームのデータに基づいて取得することが可能となり、各フレームの画素値再現率の向上が可能となる。この結果、より原画像に近い高品質な動画像復元が実現される。   According to the configuration of the present invention, a block calculated based on motion information such as a motion vector of a block in decompression processing of compressed data in which pixel data is thinned out by a thinning process in a spatial direction or a thinning process in a time direction. Since the data of the same block over a plurality of frames is accumulated in the frame buffer reflecting the moving position of the data, and the data restoration is executed based on the accumulated sample point data of a plurality of different frames, missing in one frame It is possible to acquire the pixel values that are being processed based on the data of different frames, and the pixel value reproduction rate of each frame can be improved. As a result, high-quality moving image restoration closer to the original image is realized.

従来の構成においては、復元データの再生時、間引き処理によって失われた画素データに基づくジャギー(空間集周波数の折り返し)が目立つという問題があったが、本発明によれば、各フレームの画素値再現率が向上されるので、例えばスローモーション再生などのようにオリジナル動画像の再生レートと異なるレートでの再生処理においても、ジャギーの発生を抑制することが可能となりオリジナルデータに近い高品質なデータ再生が実現される。   In the conventional configuration, there is a problem that jaggies (folding of spatial collection frequency) based on the pixel data lost by the thinning-out process is conspicuous at the time of reproduction of the restored data. However, according to the present invention, the pixel value of each frame Since the reproducibility is improved, high-quality data close to the original data can be suppressed even in playback processing at a rate different from the playback rate of the original moving image, such as slow motion playback. Playback is realized.

以下、図面を参照しながら、本発明の動画像変換装置、および動画像変換方法、並びにコンピュータ・プログラムの構成について説明する。なお、説明は、以下の項目に従って行なう。
(1)超解像効果を利用した動画像変換装置の基本構成
(2)高品質な復元画像を生成する動画像変換装置および動画像変換方法
Hereinafter, the configuration of a moving image conversion apparatus, a moving image conversion method, and a computer program according to the present invention will be described with reference to the drawings. The description will be made according to the following items.
(1) Basic configuration of moving picture conversion apparatus using super-resolution effect (2) Moving picture conversion apparatus and moving picture conversion method for generating high-quality restored image

[(1)超解像効果を利用した動画像変換装置の基本構成]
まず、本発明のベースとなる超解像効果を利用した動画像圧縮を実行する動画像変換装置の基本構成について説明する。なお、この基本構成は、本出願人が先に出願した特願2003−412501号に詳細を記載しているものであり、画像を小領域(ブロック)に分割し、各領域の移動速度に応じて画素数の間引きや、フレームレートの間引きを適応的に行うことでデータ量の圧縮を実現した構成である。
[(1) Basic configuration of moving image conversion apparatus using super-resolution effect]
First, a basic configuration of a moving image conversion apparatus that performs moving image compression using the super-resolution effect as a base of the present invention will be described. This basic configuration is described in detail in Japanese Patent Application No. 2003-412501 filed earlier by the present applicant, and the image is divided into small areas (blocks), and according to the moving speed of each area. Thus, the amount of data is compressed by adaptively performing the thinning of the number of pixels and the thinning of the frame rate.

図1に特願2003−412501号に記載した動画像変換装置10の構成例を示す。この動画像変換装置10は、超解像効果を利用した動画像変換処理を行うことにより、データ量の削減による画質劣化を観測者が知覚しないようにデータ量の削減を行うことができる構成としたものである。   FIG. 1 shows a configuration example of the moving image conversion apparatus 10 described in Japanese Patent Application No. 2003-412501. The moving image conversion apparatus 10 can reduce the amount of data so that an observer does not perceive image quality deterioration due to the reduction of the data amount by performing a moving image conversion process using the super-resolution effect. It is a thing.

なお、超解像効果とは、観測者が、空間方向に離散的にサンプリングされた移動被写体を追従視する際に、表示画素数以上の解像度を知覚するという視覚的効果である。これは、人間は、ある時間内に呈示された複数の画像が加算されたものを知覚するという視覚特性を持つためである。この特性は、ブロックの法則として知られる視覚の時間的積分機能に起因しており、例えば、"視覚情報ハンドブック,日本視覚学会編,pp.219−220"などに記載されている。ブロックの法則が成り立つ積分時間は、背景光の強度などの呈示条件によって変化するが、およそ25ms乃至100msであるという報告がある。   Note that the super-resolution effect is a visual effect in which the observer perceives a resolution higher than the number of display pixels when following the moving subject discretely sampled in the spatial direction. This is because a human has a visual characteristic of perceiving an addition of a plurality of images presented within a certain time. This characteristic is attributed to a visual temporal integration function known as a block law, and is described in, for example, “Visual Information Handbook, Japanese Visual Society, pp. 219-220”. There is a report that the integration time for which the block law is established varies depending on the presentation conditions such as the intensity of the background light, but is approximately 25 ms to 100 ms.

図1に示す動画像変換装置10は、時間的積分機能によって引き起こされる超解像効果を利用した動画像変換処理を行うことにより、画質劣化を観測者が知覚しないようにデータを削減する圧縮を行う構成としたものである。図1の動画像変換装置10の構成について説明する。   The moving image conversion apparatus 10 shown in FIG. 1 performs compression for reducing data so that the observer does not perceive image quality degradation by performing moving image conversion processing using the super-resolution effect caused by the temporal integration function. It is set as the structure to perform. A configuration of the moving image conversion apparatus 10 in FIG. 1 will be described.

ブロック分割部11は、入力された動画像の各フレームを、所定画素の区分領域としてのブロックに分割し移動量検出部12に供給する。移動量検出部12は、ブロック分割部11から供給された各ブロックについての移動量を検出し、ブロックとその移動量を、ブロック処理部13に送信する。ブロック処理部13は、移動量検出部12から供給されたブロックに対して、その移動量に応じた動画像変換処理、すなわち圧縮処理を施し、データ量を削減する。ブロック処理部13は、その処理の結果得られた、データ量が削減されたブロックについてのデータを、出力部14に供給する。出力部14は、ブロック処理部13から供給された、データ量が削減されたブロックについてのデータを、ストリームデータとしてまとめて出力する。   The block dividing unit 11 divides each frame of the input moving image into blocks as divided areas of predetermined pixels and supplies them to the movement amount detecting unit 12. The movement amount detection unit 12 detects the movement amount for each block supplied from the block division unit 11, and transmits the block and the movement amount to the block processing unit 13. The block processing unit 13 performs a moving image conversion process corresponding to the movement amount, that is, a compression process, on the block supplied from the movement amount detection unit 12 to reduce the data amount. The block processing unit 13 supplies the output unit 14 with data about the block with the reduced data amount obtained as a result of the processing. The output unit 14 collectively outputs, as stream data, the data regarding the blocks with the reduced data amount supplied from the block processing unit 13.

次に、図2を参照して、各部の詳細について説明する。ブロック分割部11の画像蓄積部21には、動画像変換装置10に供給された動画像のフレームが入力される。画像蓄積部21は、入力されたフレームを蓄積する。画像蓄積部21は、蓄積したフレームの数がN枚(Nは正の整数)になる度に、そのN枚のフレームを、ブロック分割部22に供給するとともに、N枚のフレームの中のM番目に記憶したフレーム(以下、M番目のフレームと称する)を、移動量検出部12(移動量検出部31)に供給する。例えば、N=4とする。   Next, details of each unit will be described with reference to FIG. The frame of the moving image supplied to the moving image conversion apparatus 10 is input to the image storage unit 21 of the block dividing unit 11. The image storage unit 21 stores the input frame. Each time the number of accumulated frames reaches N (N is a positive integer), the image accumulating unit 21 supplies the N frames to the block dividing unit 22, and M in the N frames The second stored frame (hereinafter referred to as the Mth frame) is supplied to the movement amount detection unit 12 (movement amount detection unit 31). For example, N = 4.

ブロック分割部22は、画像蓄積部21から供給されたN枚のフレーム(連続するN枚のフレーム)のそれぞれを、ある大きさ(例えば8×8、16×16)のブロックに分割し、移動量検出部12(ブロック分配部32)に出力する。ブロック分割部22はまた、N枚のフレームの中の、画像蓄積部21でP番目に記憶されたフレーム(以下、P番目のフレームと称する)の各ブロックを移動量検出部12(移動量検出部31)に供給する。P番目のフレームは、M番目のフレームと異なるフレームである。   The block dividing unit 22 divides each of the N frames (consecutive N frames) supplied from the image storage unit 21 into blocks of a certain size (for example, 8 × 8, 16 × 16) and moves them. It outputs to the quantity detection part 12 (block distribution part 32). The block dividing unit 22 also converts each block of the Pth frame stored in the image storage unit 21 (hereinafter referred to as the Pth frame) among the N frames to the movement amount detection unit 12 (movement amount detection). Part 31). The Pth frame is a different frame from the Mth frame.

次に、移動量検出部12について説明する。移動量検出部12の移動量検出部31は、ブロック分割部11のブロック分割部22から供給されたP番目のフレームの各ブロックの動きベクトルを、画像蓄積部21から供給されたM番目のフレームを参照して例えばフレーム間のブロックマッチング処理を実行して検出し、検出した動きベクトルをブロック分配部32に供給する。動きベクトルは、フレーム間の水平方向(X軸方向)および垂直方向(Y軸方向)の移動量を表している。なお、移動量検出部31は、移動量検出の精度を向上させるために画像を拡大し、拡大画像を適用した移動量検出を行なう構成としてもよい。   Next, the movement amount detection unit 12 will be described. The movement amount detection unit 31 of the movement amount detection unit 12 uses the motion vector of each block of the Pth frame supplied from the block division unit 22 of the block division unit 11 as the Mth frame supplied from the image storage unit 21. For example, the block matching process between the frames is detected and detected, and the detected motion vector is supplied to the block distributor 32. The motion vector represents the amount of movement between the frames in the horizontal direction (X-axis direction) and in the vertical direction (Y-axis direction). In addition, the movement amount detection unit 31 may be configured to enlarge the image in order to improve the detection accuracy of the movement amount and detect the movement amount using the enlarged image.

移動量検出部12のブロック分配部32には、ブロック分割部22から、N個単位でブロック(N枚のフレームのそれぞれの同一位置にある合計N個のブロック)が供給され、移動量検出部31から、そのN個のブロックの中のP番目のフレームのブロックの移動量が供給される。ブロック分配部32は、供給されたN個のブロックと移動量を、ブロック処理部13の、その移動量に対応する処理を行うブロック処理部51乃至53の中のいずかに供給する。   The block distribution unit 32 of the movement amount detection unit 12 is supplied with blocks (N blocks in total at the same position in each of N frames) from the block division unit 22 in units of N, and the movement amount detection unit From 31, the amount of movement of the block of the P-th frame among the N blocks is supplied. The block distribution unit 32 supplies the supplied N blocks and the movement amount to any of the block processing units 51 to 53 that perform processing corresponding to the movement amount of the block processing unit 13.

具体的にはブロック分配部32は、移動量検出部31から供給された、1フレーム間の水平方向(X軸方向)または垂直方向(Y軸方向)の移動量が2ピクセル(画素)以上である場合、ブロック分割部22から供給されたN個のブロックと移動量検出部31から供給された移動量を、ブロック処理部51に出力する。また、1フレーム間の水平方向と垂直方向の移動量がともに2ピクセル未満で、かつ1ピクセル以上の場合、ブロック分配部32は、N個のブロックと移動量を、ブロック処理部53に出力する。移動量がそのほかの場合には、ブロック分配部32は、N個のブロックと移動量をブロック処理部52に供給する。   Specifically, the block distribution unit 32 is supplied from the movement amount detection unit 31 and has a movement amount in the horizontal direction (X-axis direction) or vertical direction (Y-axis direction) between one frame of 2 pixels (pixels) or more. In some cases, the N blocks supplied from the block dividing unit 22 and the movement amount supplied from the movement amount detection unit 31 are output to the block processing unit 51. If the amount of movement in the horizontal direction and the vertical direction between one frame is less than 2 pixels and more than 1 pixel, the block distribution unit 32 outputs N blocks and the amount of movement to the block processing unit 53. . When the movement amount is other than that, the block distribution unit 32 supplies the N blocks and the movement amount to the block processing unit 52.

すなわちブロック分配部32は、移動量検出部21から供給された移動量に基づき、最適なフレームレートおよび空間解像度を決定し、そのフレームレートおよび空間解像度にしたがって画像データを変換する処理を行うブロック処理部51〜53に、ブロック画像を分配する。   That is, the block distribution unit 32 determines an optimal frame rate and spatial resolution based on the movement amount supplied from the movement amount detection unit 21, and performs block processing for performing processing for converting image data according to the frame rate and spatial resolution. The block images are distributed to the units 51 to 53.

次に、ブロック処理部13の詳細を説明する。ブロック処理部13は、上述したように3個のブロック処理部51乃至53で構成されている。ブロック処理部51は、移動量検出部12のブロック分配部32から供給された、連続するN(例えばN=4)枚のフレームのそれぞれの同一位置にある合計N個のブロック(水平方向または垂直方向の移動量が2ピクセル以上である場合のN個のブロック)に対して、画素数を、同様にブロック分配部32から供給された移動量に応じて間引く処理(空間方向間引き処理)を行う。   Next, details of the block processing unit 13 will be described. The block processing unit 13 is composed of the three block processing units 51 to 53 as described above. The block processing unit 51 supplies a total of N blocks (horizontal or vertical) at the same position in each of consecutive N (for example, N = 4) frames supplied from the block distribution unit 32 of the movement amount detection unit 12. Similarly, a process of thinning out the number of pixels according to the amount of movement supplied from the block distributor 32 (spatial direction thinning process) is performed on N blocks in the case where the amount of movement in the direction is 2 pixels or more. .

具体的には、1フレーム間の水平方向の移動量が2ピクセル(画素)以上である場合、ブロック処理部51は、処理対象のブロックが図3(a)に示すように4×4ピクセルで構成されているとき、水平方向の4画素のうち1つの画素値のみを選択して代表値とする。図3(b)の例では、P00乃至P30の4画素のうちP10のみを代表値(標本点)として有効にする。その他の画素値は無効とする。同様に、P01乃至P31の4画素に対してはP11を代表値(標本点)とし、P02乃至P32の4画素に対してはP12を代表値(標本点)とし、P03乃至P33の4画素に対してはP13を代表値(標本点)とする。 Specifically, when the amount of horizontal movement between one frame is 2 pixels (pixels) or more, the block processing unit 51 determines that the block to be processed is 4 × 4 pixels as shown in FIG. When configured, only one pixel value among the four pixels in the horizontal direction is selected as a representative value. In the example of FIG. 3 (b), to enable only P 10 of four pixels P 00 through P 30 as a representative value (sample point). Other pixel values are invalid. Similarly, for four pixels P 01 to P 31 , P 11 is a representative value (sample point), for four pixels P 02 to P 32 , P 12 is a representative value (sample point), and P representative value P 13 are selected from four pixels 03 through P 33 as (sample point).

1フレーム間の垂直方向の移動量が2ピクセル以上である場合、ブロック処理部51は、ブロックが図3(a)に示すように4×4ピクセルで構成されているとき、垂直方向の4画素のうち1つの画素値を標本点として有効とする。図3(c)の例では、P00乃至P03の4画素のうちP01のみを標本点として有効にする。その他の画素値は無効とする。同様に、P10乃至P13の4画素に対してはP11を標本点とし、P20乃至P23の4画素に対してはP21を標本点とし、P30乃至P33の4画素に対してはP31を標本点とする。 When the amount of movement in the vertical direction between one frame is 2 pixels or more, the block processing unit 51 has four pixels in the vertical direction when the block is composed of 4 × 4 pixels as shown in FIG. One pixel value is valid as a sample point. In the example of FIG. 3 (c), to enable as a sample point only P 01 of four pixels P 00 to P 03. Other pixel values are invalid. Similarly, the sample point P 11 are selected from four pixels P 10 to P 13, and the sampling point P 21 are selected from four pixels P 20 to P 23, the four pixels P 30 through P 33 It is for the sampling point P 31.

ブロック処理部51は、このような空間方向間引き処理を、供給された連続するN(例えばN=4)枚のフレームのそれぞれの同一位置にある合計N=4個のブロックに対してそれぞれ施すので、各ブロックのデータ量が1/4に削減され、4個のブロック全体のデータ量が1/4に削減される。ブロック処理部51は、データ量が1/4に削減された4個のブロックについてのデータを、出力部14に供給する。   The block processing unit 51 performs such spatial thinning processing on a total of N = 4 blocks at the same position in each of the supplied consecutive N (for example, N = 4) frames. The data amount of each block is reduced to ¼, and the data amount of all four blocks is reduced to ¼. The block processing unit 51 supplies data about four blocks whose data amount is reduced to ¼ to the output unit 14.

次に、図2に示すブロック処理部52の実行する処理について説明する。図2に示すブロック処理部52は、移動量検出部12のブロック分配部32から供給された連続するN枚のフレームのそれぞれの同一位置ある合計Nブロック(水平方向と垂直方向の移動量がともに1ピクセル未満である場合のN個のブロック)に対して、フレーム数を間引く処理(時間方向間引き処理)を行う。   Next, processing executed by the block processing unit 52 shown in FIG. 2 will be described. The block processing unit 52 shown in FIG. 2 has a total of N blocks (the amount of movement in both the horizontal direction and the vertical direction is the same) in each of consecutive N frames supplied from the block distribution unit 32 of the movement amount detection unit 12. A process of thinning out the number of frames (time direction thinning process) is performed on N blocks in the case of less than one pixel.

具体的にはブロック処理部52は、図4に示すように、連続する4枚のフレームF1乃至F4のそれぞれの同一位置ある4個のブロックBiを、その中の1つのブロック(この例の場合、フレームF1のブロックBi)にするフレーム数の間引き(4フレーム間のフレーム数の間引き)を行う。ブロック処理部52は、このような時間方向間引き処理により、データ量が1/4に削減された4個のブロックについてのデータ(1個のブロック)を、出力部14に供給する。選択された1つのブロックの画素データが4フレームに対応する標本点データとなる。   Specifically, as shown in FIG. 4, the block processing unit 52 converts four blocks Bi at the same position in four consecutive frames F1 to F4 into one block (in this example, Then, the number of frames to be converted into the block Bi) of the frame F1 is thinned out (thinning of the number of frames between four frames). The block processing unit 52 supplies the output unit 14 with data (one block) for four blocks whose data amount has been reduced to ¼ by such time direction thinning processing. Pixel data of one selected block becomes sample point data corresponding to 4 frames.

ブロック処理部53は、移動量検出部12のブロック分配部32から供給された、連続するN枚のフレームのそれぞれの同一位置にある合計N個のブロック(水平方向と垂直方向の移動量が1ピクセル以上で、2ピクセル未満である場合のN個のブロック)に対して、画素数の間引き処理(空間方向間引き処理)とフレーム数の間引き処理(時間方向間引き処理)をそれぞれ行う。   The block processing unit 53 is supplied from the block distribution unit 32 of the movement amount detection unit 12 and has a total of N blocks (the movement amount in the horizontal direction and the vertical direction is 1 in each of the consecutive N frames). The number of pixels is thinned out (spatial direction thinning process) and the number of frames is thinned out (time direction thinning process) for each of N blocks in the case of more than pixels and less than 2 pixels.

ブロック処理部53は、ブロック処理部51における間引き処理とは異なり、図5に示すように、1フレーム間の水平方向の移動量が1ピクセル以上で、2ピクセル未満である場合、ブロック処理部53は、処理対象のブロックが図5(a)に示すように4×4ピクセルで構成されているとき、水平方向の4画素のうち2つの画素値のみを選択して代表値とする。図5(b)の例では、P00乃至P30の4画素のうちP00とP20のみを代表値(標本点)として有効にする。その他の画素値は無効とする。同様に、P01乃至P31の4画素に対してはP01とP21のみを代表値(標本点)とし、P02乃至P32の4画素に対してはP02とP22のみ代表値(標本点)とし、P03乃至P33の4画素に対してはP03とP23のみ代表値(標本点)とする。 Unlike the thinning-out process in the block processing unit 51, the block processing unit 53, when the amount of horizontal movement between one frame is 1 pixel or more and less than 2 pixels as shown in FIG. When the block to be processed is composed of 4 × 4 pixels as shown in FIG. 5A, only two pixel values of the four pixels in the horizontal direction are selected as representative values. In the example of FIG. 5B, only P 00 and P 20 out of the four pixels P 00 to P 30 are validated as representative values (sample points). Other pixel values are invalid. Similarly, only P 01 and P 21 are representative values (sample points) for the four pixels P 01 to P 31 , and only P 02 and P 22 are the representative values for the four pixels P 02 to P 32. (Sample points), and for the four pixels P 03 to P 33 , only P 03 and P 23 are representative values (sample points).

1フレーム間の垂直方向の移動量が1ピクセル以上で、2ピクセル未満である場合、ブロック処理部53は、処理対象ブロックが図5(a)に示すように4×4ピクセルで構成されているとき、垂直方向の4画素のうち2つの画素値を有効とする。図5(c)の例では、P00乃至P03の4画素のうちP00およびP02を代表値(標本点)として有効にする。その他の画素値は無効とする。同様に、P10乃至P13の4画素に対してはP10およびP12を代表値(標本点)とし、P20乃至P23の4画素に対してはP20およびP22を代表値(標本点)とし、P30乃至P33の4画素に対してはP30およびP32を代表値(標本点)とする。 When the amount of vertical movement between one frame is 1 pixel or more and less than 2 pixels, the block processing unit 53 includes 4 × 4 pixels as a processing target block as shown in FIG. At this time, two pixel values of the four pixels in the vertical direction are validated. In the example of FIG. 5C, P 00 and P 02 out of the four pixels P 00 to P 03 are validated as representative values (sample points). Other pixel values are invalid. Similarly, P 10 and P 12 are representative values (sample points) for the four pixels P 10 to P 13 , and P 20 and P 22 are representative values (sample points) for the four pixels P 20 to P 23. and sample point), with respect to the four pixels P 30 to P 33 to P 30 and P 32 as representative values (sample points).

さらにブロック処理部53は、フレーム数の間引き処理を行う。具体的にはブロック処理部53は、連続する4枚のフレームF1乃至F4のそれぞれの同一位置ある4個のブロックに対して、その中の2つのブロックを有効にするフレーム数の間引き処理を実行する。フレーム数の間引き処理においては、ブロック処理部53は、ブロック処理部52における間引き処理と異なり、図6に示すように、連続する4枚のフレームF1乃至F4のぞれぞれの同一位置にある合計4個のブロックBiを、その中のいずれか2つ(図の例では、フレームF1、F3の2個のブロック)にするフレーム数の間引きを行う(2フレーム間のフレーム数の間引き)を行う。選択された2つのブロックの画素データが4フレームに対応する標本点データとなる。この場合、図5を参照して説明した空間方向の間引きにおいて、すでに1ブロックに8つの標本点選択が実行済みであり、2ブロックから総計16の標本点が選択され、これらが4フレームに対応する標本点データとして設定されることになる。   Furthermore, the block processing unit 53 performs a frame number thinning process. Specifically, the block processing unit 53 performs a thinning process for the number of frames that enable two of the four blocks F1 to F4 in the same position on the four blocks at the same position. To do. In the thinning-out process for the number of frames, the block processing unit 53 is different from the thinning-out process in the block processing unit 52, as shown in FIG. 6, at the same position in each of the four consecutive frames F1 to F4. Decreasing the number of frames to make a total of four blocks Bi any one of them (two blocks of frames F1 and F3 in the example in the figure) (decimating the number of frames between two frames) Do. The pixel data of the two selected blocks becomes sample point data corresponding to 4 frames. In this case, in sampling in the spatial direction described with reference to FIG. 5, eight sampling points have already been selected for one block, and a total of 16 sampling points are selected from two blocks, which correspond to four frames. Is set as sample point data.

ブロック処理部53は、図5を参照して説明したデータ量を1/2とする空間方向間引き処理と、図6を参照して説明したデータ量を1/2とする時間方向間引き処理を、供給された4個のブロックに対して施すので、結果として4個のブロックのデータ量が(1/2)×(1/2)=1/4に削減される。ブロック処理部53は、データ量が1/4に削減された4個のブロックについてのデータを、出力部14に供給する。   The block processing unit 53 performs the spatial direction decimation process for reducing the data amount described with reference to FIG. 5 to 1/2 and the time direction decimation process for reducing the data amount described with reference to FIG. Since it is applied to the four supplied blocks, the data amount of the four blocks is reduced to (1/2) × (1/2) = 1/4 as a result. The block processing unit 53 supplies data about four blocks whose data amount is reduced to ¼ to the output unit 14.

出力部14は、ブロック処理部13のブロック処理部51乃至53のそれぞれから供給された、データ量が削減されたN個のブロックについてのデータからストリームデータを生成する。   The output unit 14 generates stream data from the data for the N blocks with the reduced data amount supplied from each of the block processing units 51 to 53 of the block processing unit 13.

図7を参照して、動画像変換装置10における具体的な処理例について説明する。図7は、動画像変換装置10において処理された連続する5枚のフレームF1乃至F5を示し、各フレームから選択された有効データの配置を表している。動画像変換装置10において選択された有効データが図7に示す空白以外の画素部分であり、空白部は、動画像変換装置10において選択されなかった無効画素部を示している。   A specific processing example in the moving image conversion apparatus 10 will be described with reference to FIG. FIG. 7 shows five consecutive frames F1 to F5 processed in the moving image conversion apparatus 10, and represents the arrangement of valid data selected from each frame. The valid data selected in the moving image conversion apparatus 10 is a pixel portion other than the blank shown in FIG. 7, and the blank portion indicates an invalid pixel portion not selected in the moving image conversion apparatus 10.

各フレームF1〜F5は時系列に沿った同一位置のフレームであり、それぞれ4×4ピクセルのブロック101〜116を持つ。   Each of the frames F1 to F5 is a frame at the same position in time series, and has 4 × 4 pixel blocks 101 to 116, respectively.

ブロック101〜116中、ブロック101および102は、ブロック処理部51により水平方向に空間方向間引き処理が施されるブロックである。ブロック111および112は、ブロック処理部51により垂直方向に空間方向間引き処理が施されるブロックである。ブロック103および104は、ブロック処理部53により水平方向に空間方向間引き処理、および時間方向間引き処理が施されるブロックである。ブロック113および114は、ブロック処理部53により垂直方向に空間方向間引き処理、および時間方向間引き処理が施されるブロックである。ブロック105,106,115,116は、ブロック処理部52により時間方向間引き処理が施されるブロックである。   Among the blocks 101 to 116, the blocks 101 and 102 are blocks that are subjected to spatial direction thinning processing in the horizontal direction by the block processing unit 51. Blocks 111 and 112 are blocks on which spatial direction thinning processing is performed in the vertical direction by the block processing unit 51. Blocks 103 and 104 are blocks that are subjected to spatial direction thinning processing and time direction thinning processing in the horizontal direction by the block processing unit 53. Blocks 113 and 114 are blocks that are subjected to spatial direction thinning processing and time direction thinning processing in the vertical direction by the block processing unit 53. Blocks 105, 106, 115, and 116 are blocks that are subjected to time direction thinning processing by the block processing unit 52.

最初のフレームF1では、ブロック101および102は、ブロック処理部51によって水平方向に1/4に間引き処理されて、有効データはそれぞれ4画素となる。ブロック111および112は、ブロック処理部51によって垂直方向に1/4に間引き処理されて、有効データはそれぞれ4画素となる。ブロック103および104は、ブロック処理部53によって水平方向に1/2に間引き処理されて、有効データはそれぞれ8画素となる。ブロック113および114は、ブロック処理部53によって垂直方向に1/2に間引き処理されて、有効データはそれぞれ8画素となる。ブロック105,106,115,116は、ブロック処理部52によって時間方向間引き処理されるが、最初のフレームでは全画素が有効データとなる。   In the first frame F1, the blocks 101 and 102 are thinned by 1/4 in the horizontal direction by the block processing unit 51, and the effective data becomes 4 pixels each. The blocks 111 and 112 are thinned out to ¼ in the vertical direction by the block processing unit 51, and the effective data becomes 4 pixels each. The blocks 103 and 104 are thinned by half in the horizontal direction by the block processing unit 53, and the effective data becomes 8 pixels each. The blocks 113 and 114 are thinned by half in the vertical direction by the block processing unit 53, and the effective data becomes 8 pixels each. The blocks 105, 106, 115, and 116 are thinned out in the time direction by the block processing unit 52, but all pixels become effective data in the first frame.

第2フレームF2では、ブロック101および102、並びにブロック111および112は、フレームF1と同様の処理により、それぞれ4画素が有効データとなる。ブロック103および104、並びにブロック113および114は、ブロック処理部53によって時間方向間引き処理されて、全画素が無効となる。ブロック105,106,115,116は、ブロック処理部52によって時間方向間引き処理されて、全画素が無効となる。   In the second frame F2, the blocks 101 and 102 and the blocks 111 and 112 each have four pixels as valid data by the same processing as the frame F1. The blocks 103 and 104 and the blocks 113 and 114 are thinned in the time direction by the block processing unit 53, and all the pixels become invalid. Blocks 105, 106, 115, and 116 are thinned out in the time direction by the block processing unit 52, and all pixels become invalid.

第3フレームF3では、ブロック101および102、並びにブロック111および112は、フレームF1と同様の処理により、それぞれ4画素が有効データとなる。ブロック103および104、並びにブロック113および114は、有効なフレームとなり、フレームF1と同様の処理により、それぞれ8画素が有効データとなる。ブロック105,106,115,116は、ブロック処理部52によって時間方向間引き処理されて、全画素が無効となる。   In the third frame F3, the blocks 101 and 102 and the blocks 111 and 112 each have four pixels as effective data by the same processing as the frame F1. The blocks 103 and 104 and the blocks 113 and 114 become effective frames, and 8 pixels become effective data by the same processing as the frame F1. Blocks 105, 106, 115, and 116 are thinned out in the time direction by the block processing unit 52, and all pixels become invalid.

第4フレームF4では、ブロック101および102、並びにブロック111および112は、フレームF1と同様の処理により、それぞれ4画素が有効データとなる。ブロック103および104、並びにブロック113および114は、ブロック処理部53によって時間方向間引き処理されて、全画素が無効となる。ブロック105,106,115,116は、ブロック処理部52によって時間方向間引き処理されて、全画素が無効となる。   In the fourth frame F4, the blocks 101 and 102 and the blocks 111 and 112 each have four pixels as valid data by the same processing as the frame F1. The blocks 103 and 104 and the blocks 113 and 114 are thinned in the time direction by the block processing unit 53, and all the pixels become invalid. Blocks 105, 106, 115, and 116 are thinned out in the time direction by the block processing unit 52, and all pixels become invalid.

ここではN=4としているため、第5フレームF5は、第1フレームF1と同様のデータ配置となる。このようにして、各ブロックのデータは移動速度情報に応じて最適な間引き処理が施され、最終的には1/4のデータ量削減が実現される。   Since N = 4 here, the fifth frame F5 has the same data arrangement as the first frame F1. In this way, the data of each block is subjected to the optimum thinning process according to the moving speed information, and finally a data amount reduction of 1/4 is realized.

このように、図1に示す動画像変換装置10は、入力された動画像を、そのデータ量が削減された動画像(圧縮データ)に変換する処理を行なうものであるが、その際、所定の視覚特性に基づいて実現される超解像効果を利用した動画像変換処理を行うことにより、データ量の削減による画質劣化を観測者に知覚させないようにした装置である。   As described above, the moving image conversion apparatus 10 shown in FIG. 1 performs processing for converting an input moving image into a moving image (compressed data) with a reduced data amount. This is a device that prevents the observer from perceiving image quality degradation due to a reduction in the amount of data by performing moving image conversion processing using the super-resolution effect realized based on the visual characteristics of the image.

具体的には、ブロック分配部32が、移動量検出部21から供給された移動量に基づき、最適なフレームレートおよび空間解像度を決定し、最適なフレームレートおよび空間解像度にしたがった画像データ変換を実行するブロック処理部51〜53に供給して、各ブロック処理部51〜53において異なる態様のデータ変換処理を実行する構成としたものであり、本構成により、画質劣化を観測者に知覚させることのない動画像変換処理を実現している。なお、超解像効果とは、前述したように観測者が、空間方向に離散的にサンプリングされた移動被写体を追従視する際に、表示画素数以上の解像度を知覚するという視覚的効果である。これは、人間の視覚における時間的積分機能に起因しており、図1に示す動画像変換装置10は、時間的積分機能によって引き起こされる超解像効果を利用した動画像変換処理を行う構成を有する。   Specifically, the block distribution unit 32 determines an optimal frame rate and spatial resolution based on the movement amount supplied from the movement amount detection unit 21, and performs image data conversion according to the optimal frame rate and spatial resolution. It supplies to the block processing parts 51-53 to perform, and it is set as the structure which performs the data conversion process of a different aspect in each block processing part 51-53, and makes an observer perceive image quality degradation by this structure. It realizes a moving image conversion process without any problem. The super-resolution effect is a visual effect in which the observer perceives a resolution higher than the number of display pixels when the observer follows the moving subject discretely sampled in the spatial direction. . This is due to the temporal integration function in human vision, and the moving image conversion apparatus 10 shown in FIG. 1 is configured to perform a moving image conversion process using the super-resolution effect caused by the temporal integration function. Have.

なお、人間の視覚特性および超解像効果に関する原理や説明等は、特願2003−412501において詳しく解説がなされている。特願2003−412501に説明されている超解像効果の発生条件の概略について、以下に説明する。   The principles and explanations regarding human visual characteristics and super-resolution effect are described in detail in Japanese Patent Application No. 2003-412501. An outline of conditions for generating the super-resolution effect described in Japanese Patent Application No. 2003-412501 will be described below.

間引き量m(ピクセル)の画素数間引きを行った場合に超解像効果が発生するには、間引きによる1次乃至m−1次の折り返し成分が全て打ち消される必要がある。k(=1、2、・・・、m−1)次の折り返し成分が打ち消される条件は、下記式(式1)、(式2)を満足することである。

Figure 0004412062
In order for the super-resolution effect to occur when the number of pixels of the thinning amount m (pixel) is thinned, it is necessary to cancel all the primary to m−1 order folding components due to the thinning. k (= 1, 2,..., m−1) The condition that the next folding component is canceled is to satisfy the following expressions (Expression 1) and (Expression 2).
Figure 0004412062

上記式において、φは画素数の間引きにおけるサンプリング位置のずれ量であり、時間t(=0、1T、2T、・・・)、信号の移動速度v、時間間隔(フレームレートの逆数)T、を用いて、下記式(式3)によって定義される値である。

Figure 0004412062
In the above equation, φ t is a sampling position shift amount in thinning out the number of pixels, time t (= 0, 1T, 2T,...), Signal moving speed v, time interval (reciprocal of frame rate) T , Is a value defined by the following formula (formula 3).
Figure 0004412062

間引き量m、小領域の移動量vという条件下で上記式(式1)および(式2)が満たされれば超解像効果が発生し、画質の劣化は観測者に知覚されにくい。   If the above equations (Equation 1) and (Equation 2) are satisfied under the conditions of the thinning amount m and the small region movement amount v, the super-resolution effect occurs, and the deterioration of the image quality is hardly perceived by the observer.

これは、入力動画像のフレームレートと同じフレームレートにおいて表示を行う場合、空間方向に間引きされたブロックは、人間の視覚の時間積分機能により前後のフレーム画像との足し合わせが行われ、結果として元画像と同等の画像を知覚するためである。   This is because when the display is performed at the same frame rate as the frame rate of the input moving image, the block thinned out in the spatial direction is added to the previous and next frame images by the time integration function of human vision. This is to perceive an image equivalent to the original image.

しかしながら、入力動画像のフレームレートよりも低いフレームレートで表示する(スローモーション表示)、または、同じフレームを一定時間表示しつづける(一時停止)場合には、前後フレーム画像との足し合わせが成立しなくなり、データ量削減によるジャギー(空間周波数の折り返し)が見えてしまうという問題があった。   However, when displaying at a frame rate lower than the frame rate of the input moving image (slow motion display) or continuing to display the same frame for a certain period of time (pause), the addition with the previous and next frame images is established. There was a problem that jaggy (return of the spatial frequency) due to the reduction of the data amount could be seen.

これを解決するために、空間間引き処理された圧縮画像を線形または非線形なフィルタによって補間処理する方法が考えられる。しかしながら、この方法では元の動画像に含まれる高周波成分を復元することが出来ず、ボケた画像(空間周波数の劣化)になってしまうという問題がある。以下、この問題を解決し入力動画像のフレームレートよりも低いフレームレートで表示する(スローモーション表示)場合にも、元の動画像と同等の動画像表示を可能にする構成について説明する。   In order to solve this, a method of interpolating the compressed image subjected to the spatial thinning process with a linear or non-linear filter can be considered. However, this method has a problem that high-frequency components contained in the original moving image cannot be restored, resulting in a blurred image (deterioration of spatial frequency). Hereinafter, a configuration that enables the same moving image display as the original moving image even when the problem is solved and displayed at a frame rate lower than the frame rate of the input moving image (slow motion display) will be described.

[(2)高品質な復元画像を生成する動画像変換装置および動画像変換方法]
上述したように、空間間引き処理された圧縮画像の復元においては画質劣化が目立ってしまう場合がある。特に、入力動画像のフレームレートよりも低いフレームレートで表示するスローモーション表示において、データ量削減によるジャギー(空間周波数の折り返し)が見えてしまうという問題が存在する。以下では、この問題を解決する構成について説明する。
[(2) Moving Image Conversion Device and Moving Image Conversion Method for Generating High Quality Restored Image]
As described above, image quality degradation may be conspicuous in restoring a compressed image that has undergone spatial thinning processing. In particular, in slow motion display in which the frame rate is lower than the frame rate of the input moving image, there is a problem that jaggy (return of spatial frequency) due to data amount reduction is visible. Below, the structure which solves this problem is demonstrated.

まず、空間方向間引き処理により情報が欠落した動画像から原画像を復元する原理について説明する。図8は、右方向に移動する被写体(車)を撮影した原画像I1乃至I4に対して、水平方向に1/4の空間間引き処理を行った結果画像S1乃至S4を示している。フレームF1において、原画像I1は、右方向に移動する被写体を撮影した画像である。   First, the principle of restoring an original image from a moving image in which information is lost by the spatial direction thinning process will be described. FIG. 8 shows images S1 to S4 obtained by performing 1/4 spatial thinning processing in the horizontal direction on the original images I1 to I4 obtained by photographing the subject (car) moving in the right direction. In the frame F1, the original image I1 is an image obtained by photographing a subject moving in the right direction.

被写体(車)の移動速度が、図2に示す動画像変換装置のブロック分配部32において、ブロック処理部51(空間方向間引き処理)に分配される条件、すなわちフレームあたりの移動量があらかじめ定めた条件に合致している場合、ブロック処理部51において空間方向間引き処理が実行される。この結果、原画像I1は、図8の矢印で示すサンプリング点において水平方向に1/4に間引きされる。ここで、間引き処理におけるサンプリング点(図3の代表画素(標本点)に相当する)の位置は、フレームに対して固定である。間引き処理された画像S1は、原画像I1に対して1/4のデータ量になっている。   A condition in which the moving speed of the subject (car) is distributed to the block processing unit 51 (spatial direction thinning process) in the block distribution unit 32 of the moving image conversion apparatus shown in FIG. 2, that is, the movement amount per frame is predetermined. When the condition is met, the block processing unit 51 executes a spatial direction thinning process. As a result, the original image I1 is thinned out to 1/4 in the horizontal direction at the sampling point indicated by the arrow in FIG. Here, the position of the sampling point (corresponding to the representative pixel (sample point) in FIG. 3) in the thinning-out process is fixed with respect to the frame. The thinned image S1 has a data amount of ¼ that of the original image I1.

フレームF2において、原画像I2は、原画像I1に対して被写体が移動速度v(ピクセル/フレーム)だけ右に移動している。この状態で、フレームF1と同様に間引き処理を行い、間引き画像S2を得る。このとき、サンプリング点(標本点)の位置はフレームF1と同じであるため、間引き画像S2は、間引き画像S1と異なる画像となる。   In the frame F2, in the original image I2, the subject moves to the right by the moving speed v (pixel / frame) with respect to the original image I1. In this state, the thinning process is performed in the same manner as the frame F1 to obtain a thinned image S2. At this time, since the position of the sampling point (sample point) is the same as that of the frame F1, the thinned image S2 is different from the thinned image S1.

同様に、フレームF3、フレームF4において、原画像I3,I4に対して間引き処理を行い、間引き画像S3,S4を得る。この例では、v=1(ピクセル/フレーム)であり、通常表示時に1/4間引き処理において超解像効果が得られるものとする。   Similarly, thinning processing is performed on the original images I3 and I4 in the frames F3 and F4 to obtain thinned images S3 and S4. In this example, it is assumed that v = 1 (pixel / frame), and a super-resolution effect can be obtained in the 1/4 thinning process during normal display.

間引き画像S1乃至S4は、同じ位置のサンプリング点(標本点)で間引き処理された画像であるが、被写体の移動速度vが間引き量(本実施例では4)の整数倍になっていなければ、それぞれ異なる位置でサンプリングされた画像となっている。したがって、各間引き画像S1乃至S4は、原画像に対して情報が欠落しており、それぞれが異なる情報を持つ。これらの複数の画像を、移動速度情報に基づき位置を合わせながら足し合わせることにより原画像の復元が可能である。   The thinned images S1 to S4 are images that have been thinned at sampling points (sample points) at the same position. If the moving speed v of the subject is not an integral multiple of the thinning amount (4 in this embodiment), The images are sampled at different positions. Accordingly, the thinned images S1 to S4 lack information from the original image, and each has different information. The original image can be restored by adding the plurality of images together while aligning the positions based on the moving speed information.

図9は、各フレームに対応する間引き画像S1乃至S4を、移動速度vに従って移動させた画像を示している。この例ではv=1(右方向)であるため、間引き画像S1に対して、間引き画像S2は被写体が右に1画素、間引き画像S3は被写体が右に2画素、間引き画像S4は被写体が右に3画素、それぞれずれている。これを位置合わせするために、間引き画像S2を左に1画素、間引き画像S3を左に2画素、間引き画像S4を左に3画素、それぞれ移動する(図9)。この結果、各間引き画像S1乃至S4の被写体位置は一致し、サンプリング位置が異なるようになる。これらの画像を足し合わせると、復元画像R1が得られる。   FIG. 9 shows an image obtained by moving the thinned images S1 to S4 corresponding to each frame according to the moving speed v. In this example, since v = 1 (rightward), the thinned image S2 is one pixel to the right, the thinned image S3 is two pixels to the right, and the thinned image S4 is right to the thinned image S1. Are shifted by 3 pixels. In order to align them, the thinned image S2 is moved 1 pixel to the left, the thinned image S3 is moved 2 pixels to the left, and the thinned image S4 is moved 3 pixels to the left (FIG. 9). As a result, the subject positions of the thinned images S1 to S4 are the same, and the sampling positions are different. When these images are added together, a restored image R1 is obtained.

この例では、移動速度v=1であり、水平方向に1/4の空間間引き処理を行っているので、4フレームの画像の足し合わせによって原画像を完全に復元することが可能である。このとき、原画像が完全に復元されるためには、以下の条件が成立する必要がある。
(条件1)被写体の形状、色が、積分されるフレームにわたって変化しない。
(条件2)被写体の移動速度がわかっている。
In this example, since the moving speed v = 1 and the spatial thinning process of 1/4 is performed in the horizontal direction, it is possible to completely restore the original image by adding four frames of images. At this time, in order for the original image to be completely restored, the following conditions must be satisfied.
(Condition 1) The shape and color of the subject do not change over the integrated frame.
(Condition 2) The moving speed of the subject is known.

さらに、上記条件1,2に加え、条件3として、移動速度vと間引き量、および積分フレーム数の関係によって、間引き処理によって生じる空間周波数の折り返しが積分処理によって完全に相殺される条件を満足することが必要である。すなわち、前述の超解像効果の発生要件を満足することが必要である。間引き量m(ピクセル)の画素数間引きを行った場合に超解像効果が発生するには、間引きによる1次乃至m−1次の折り返し成分が全て打ち消される必要があるということである。k(=1、2、・・・、m−1)次の折り返し成分が打ち消される条件は、上述した式(式1)、(式2)を満足することが必要となる。   Further, in addition to the above conditions 1 and 2, the condition 3 satisfies the condition that the aliasing of the spatial frequency caused by the thinning process is completely canceled by the integration process due to the relationship between the moving speed v, the thinning amount, and the number of integration frames. It is necessary. That is, it is necessary to satisfy the above-described requirements for generating the super-resolution effect. In order to generate the super-resolution effect when the number of pixels of the thinning-out amount m (pixel) is thinned, it is necessary to cancel all the primary to m−1-order folding components due to the thinning-out. k (= 1, 2,..., m−1) The conditions for canceling the next folding component must satisfy the above-described expressions (Expression 1) and (Expression 2).

実際には、入力動画像において上述の各条件を満たすことは非常に難しい。特に、折り返し成分が完全に相殺される条件を導くためには連立方程式を解かなければならない。仮に、折り返し成分が相殺される条件が求まったとしても、実装上、積分可能なフレーム数は制限される。   Actually, it is very difficult to satisfy the above conditions in the input moving image. In particular, simultaneous equations must be solved in order to derive a condition in which the aliasing component is completely canceled. Even if a condition for canceling the aliasing component is obtained, the number of frames that can be integrated is limited in implementation.

本発明による画像変換装置では、上記条件を満足するか否かに関わらず高品質なデータ復元を可能とするものであり、現実的な回路規模を適用した画像復元を行い、復元出来ない部分については補間処理を行うことにより破綻の無い画像生成を実現する。   The image conversion apparatus according to the present invention enables high-quality data restoration regardless of whether or not the above conditions are satisfied, and performs image restoration using a realistic circuit scale, and cannot be restored. Realizes image generation without failure by performing interpolation processing.

以下、本発明における動画像変換装置、すなわち、画素の間引き処理がなされた圧縮画像データの復元を行う装置であり、例えば入力動画像のフレームレートよりも低いフレームレートで表示するスローモーション表示においても、データ量削減によるジャギー(空間周波数の折り返し)の発生を低減し、高品質な動画像の復元を可能とする装置について説明する。図10は、本実施例における動画像変換装置120の構成を示している。   Hereinafter, a moving image conversion apparatus according to the present invention, that is, an apparatus that restores compressed image data that has undergone pixel thinning processing, for example, in slow motion display that displays at a frame rate lower than the frame rate of an input moving image. An apparatus capable of reducing the occurrence of jaggy (spatial frequency aliasing) due to data amount reduction and restoring a high-quality moving image will be described. FIG. 10 shows a configuration of the moving image conversion apparatus 120 in the present embodiment.

動画像変換装置120の入力部121は、例えば図1の動画像変換装置10によって生成される圧縮データを含むデータストリームを入力する。入力部121は、入力したデータストリームに含まれる圧縮データとしてのブロック対応の変換画像データを加算処理部122−1乃至122−nに出力する。この圧縮データは、空間方向あるいは時間方向間引きにより選択された標本点データを含む圧縮データである。また、データストリームに含まれるブロックの属性データ(間引き処理方法、間引き方向など)と動きベクトルデータをアドレス変換部126に出力する。なお、動画像変換装置10によって生成されるデータストリームに動きベクトルデータが存在しない場合には、入力部121またはアドレス変換部126において、データストリームに含まれる画像データを用いて動きベクトル検出を行い、検出した動きベクトルを用いた処理を実行する。アドレス変換部126において動きベクトル検出を行う場合、アドレス変換部126には圧縮画像データが入力され、圧縮画像データに基づく動きベクトル検出が実行される。   The input unit 121 of the moving image conversion apparatus 120 inputs a data stream including compressed data generated by, for example, the moving image conversion apparatus 10 of FIG. The input unit 121 outputs converted image data corresponding to blocks as compressed data included in the input data stream to the addition processing units 122-1 to 122-n. This compressed data is compressed data including sample point data selected by thinning in the spatial direction or the time direction. In addition, the block attribute data (decimation method, thinning direction, etc.) and motion vector data included in the data stream are output to the address conversion unit 126. When no motion vector data exists in the data stream generated by the moving image conversion apparatus 10, the input unit 121 or the address conversion unit 126 performs motion vector detection using the image data included in the data stream, A process using the detected motion vector is executed. When motion vector detection is performed in the address conversion unit 126, compressed image data is input to the address conversion unit 126, and motion vector detection based on the compressed image data is executed.

加算処理部122−1乃至122−nは、入力部121から与えられる複数のブロック対応の圧縮データを含む現在フレームの画像データを受け取り、さらに、先行する処理においてフレームバッファ1〜n(123−1乃至123−n)に格納済みのデータを読み取り、現在フレームの画像データの画素値とバッファ読み取り値との加算平均処理を行う。フレームバッファ1〜n(123−1乃至123−n)に格納済みのデータとは、先行フレームにおける標本点の画素値、または複数フレームにおける標本点の画素値の加算平均値である。これらの処理の詳細については後述する。   The addition processing units 122-1 to 122-n receive image data of the current frame including compressed data corresponding to a plurality of blocks given from the input unit 121, and further, in the preceding process, the frame buffers 1 to n (123-1). Through 123-n), the data stored in the current frame is read and the pixel value of the image data of the current frame and the buffer read value are added and averaged. The data stored in the frame buffers 1 to n (123-1 to 123-n) is the pixel value of the sample point in the preceding frame or the addition average value of the pixel values of the sample points in a plurality of frames. Details of these processes will be described later.

フレームバッファ1〜n(123−1乃至123−n)は、過去フレームにおける画像データを、位置合わせをして一時記憶するメモリであり、原画像(間引き処理前の画像)の縦横それぞれ2倍の大きさの画素数を有する。フレームバッファ数nは、画像復元に使われるフレームの数に対応する。nが小さいと復元できない領域が多くなり、nが大きくなると復元出来ない領域が減るが、被写体の移動速度の変化や形態の変化による誤差が大きくなるという問題がある。例えばn=8とする。   Frame buffers 1 to n (123-1 to 123-n) are memories that temporarily store image data in past frames after alignment, and are twice as long as the original image (image before thinning processing). It has a large number of pixels. The frame buffer number n corresponds to the number of frames used for image restoration. When n is small, the number of areas that cannot be restored increases. When n is large, the areas that cannot be restored decrease, but there is a problem that errors due to changes in the moving speed of the subject and changes in form increase. For example, n = 8.

アドレス変換部126は、入力部121から与えられるブロックの属性データ(間引き処理方法、間引き方向など)と動きベクトルデータを受け取り、ブロック毎にフレームバッファ123−1乃至123−nに対するアドレスを求める。   The address conversion unit 126 receives block attribute data (a thinning processing method, a thinning direction, etc.) and motion vector data given from the input unit 121, and obtains addresses for the frame buffers 123-1 to 123-n for each block.

選択部127は、フレームバッファFB1〜n(123−1〜n)の出力のうち、いずれかの1つのバッファ出力を選択し、補間部124へ出力する。このとき選択するフレームバッファは、復元処理フレームに対応して選択されるフレームバッファである。   The selection unit 127 selects any one of the outputs of the frame buffers FB1 to n (123-1 to n) and outputs the selected buffer output to the interpolation unit 124. The frame buffer selected at this time is a frame buffer selected corresponding to the restoration processing frame.

第1フレーム(F1)の復元処理時には、選択部127はフレームバッファFB1(123−1)を出力として選択する。このとき、フレームバッファFB2(123−2)乃至FBn(123−n)は、+1フレーム(第2フレーム)乃至+(n−1)フレームに対応する。   During the restoration process of the first frame (F1), the selection unit 127 selects the frame buffer FB1 (123-1) as an output. At this time, the frame buffers FB2 (123-2) to FBn (123-n) correspond to +1 frame (second frame) to + (n-1) frames.

続く第2フレーム(F2)の復元処理時には、選択部127はフレームバッファFB2(123−2)を出力するように切り替えられる。このとき、フレームバッファFB3(123−3)乃至FBn(123−n)が順次シフトして+1フレーム乃至(第3フレーム)+(n−2)フレームに対応するようになる。フレームバッファFB1(123−1)は+(n−1)フレームに対応するように設定される。   During the subsequent restoration process of the second frame (F2), the selection unit 127 is switched to output the frame buffer FB2 (123-2). At this time, the frame buffers FB3 (123-3) to FBn (123-n) sequentially shift to correspond to +1 frame to (third frame) + (n-2) frames. The frame buffer FB1 (123-1) is set to correspond to + (n-1) frames.

同様にして、選択部127は、第3フレーム(F3)の復元処理時には、フレームバッファFB3を出力するように切り替え、第4フレーム(F4)ではフレームバッファFB4、第5フレーム(F5)ではフレームバッファFB5を、それぞれ出力するように切り替える。   Similarly, the selection unit 127 switches to output the frame buffer FB3 during the restoration process of the third frame (F3), and the frame buffer FB4 in the fourth frame (F4) and the frame buffer in the fifth frame (F5). FB5 is switched to output each.

このように、選択部127は、補間部124に対して、フレームバッファFB1〜n(123−1〜n)を循環的に切り替えて出力する。   Thus, the selection unit 127 cyclically switches the frame buffers FB1 to n (123-1 to n) to the interpolation unit 124 and outputs them.

補間部124に出力され復元されるフレームと、その時のフレームバッファFB1〜n(123−1〜n)に格納されるフレームデータの対応を表1に示す。

Figure 0004412062
Table 1 shows the correspondence between the frame output to the interpolation unit 124 and restored, and the frame data stored in the frame buffers FB1 to n (1233-1 to n) at that time.
Figure 0004412062

上記の表1において、例えば処理フレームが第1フレーム(F1)である場合、現フレーム、すなわち、補間部124に出力されるデータは、フレームバッファFB1(123−1)のデータであり、このとき、フレームバッファFB2(123−2)〜フレームバッファFBn(123−n)には第2〜第n−1フレームの各データが格納されていることを示している。処理フレームが第2フレーム(F2)である場合、現フレーム、すなわち、補間部124に出力されるデータは、フレームバッファFB2(123−2)のデータであり、このとき、フレームバッファFB3(123−3)〜フレームバッファFB1(123−1)には第3フレーム以降の各データが格納されていることを示している。   In Table 1 above, for example, when the processing frame is the first frame (F1), the current frame, that is, the data output to the interpolation unit 124 is the data of the frame buffer FB1 (123-1). The frame buffer FB2 (123-2) to the frame buffer FBn (123-n) indicate that the data of the second to (n-1) th frames are stored. When the processing frame is the second frame (F2), the current frame, that is, the data output to the interpolation unit 124 is the data of the frame buffer FB2 (123-2). At this time, the frame buffer FB3 (123-123) 3) to the frame buffer FB1 (123-1) indicate that each data from the third frame is stored.

このように、選択部127は、補間部124に対して、フレームバッファFB1〜n(123−1〜n)を循環的に切り替えて出力し、補間部124では各フレームの補間処理を実行し、フレームデータの復元を実行する。   In this manner, the selection unit 127 cyclically switches and outputs the frame buffers FB1 to n (123-1 to n) to the interpolation unit 124, and the interpolation unit 124 performs interpolation processing of each frame. Perform frame data restoration.

なお、本例では、選択部127を設け、選択部において、フレームバッファFB1〜n(123−1〜n)を循環的に切り替えて補間部124に出力する構成としたが、フレームバッファFB1〜n(123−1〜n)の格納データを循環的にシフトする構成とし、特定のフレームバッファのみを出力バッファとして位置づける構成としてもよい。   In this example, the selection unit 127 is provided, and the selection unit cyclically switches the frame buffers FB1 to n (123-1 to n) and outputs them to the interpolation unit 124. However, the frame buffers FB1 to n The stored data of (123-1 to n) may be cyclically shifted, and only a specific frame buffer may be positioned as an output buffer.

補間部124は、選択部127で選択されたフレームバッファに書き込まれているデータに基づいて複数の異なるフレームの標本点データに基づく復元ブロックを生成する。さらに、標本点データのみでは復元できなかった画素部分(画素抜け)を周囲の画素から補間する。補間方法については後述する。補間部124は、さらにフレームバッファに格納された原画像に対して縦横それぞれ2倍の画像データを縮小処理により原画像と同じ画素数に変換して出力する。   The interpolation unit 124 generates a restoration block based on the sample point data of a plurality of different frames based on the data written in the frame buffer selected by the selection unit 127. Further, a pixel portion (pixel missing) that cannot be restored only by the sample point data is interpolated from surrounding pixels. The interpolation method will be described later. Further, the interpolation unit 124 converts the image data twice as long as the length and width of the original image stored in the frame buffer into the same number of pixels as the original image by the reduction process, and outputs the same.

出力部125は、補間部124から出力される画像データを表示装置で受け取れる画像信号形式に変換して出力する。なお、さらに、図示しない制御部が存在し、制御部は、例えば処理シーケンスを記録したコンピュータ・プログラムに従って各部の制御を行う。   The output unit 125 converts the image data output from the interpolation unit 124 into an image signal format that can be received by the display device, and outputs the image signal format. Furthermore, there is a control unit (not shown), and the control unit controls each unit in accordance with a computer program that records a processing sequence, for example.

本実施例における動画像変換装置120の動作について、図11のフローチャートと、具体処理例を示す図12以下の各図を用いて詳細に説明する。   The operation of the moving image conversion apparatus 120 in the present embodiment will be described in detail with reference to the flowchart of FIG. 11 and FIGS.

ステップS1において、動画像変換装置120は、フレームバッファ1〜n(123−1乃至123−n)をリセット、すなわち初期化する。これと同時に、選択部127を初期化して、出力フレームとしてのフレームバッファをFB1(123−1)に設定する。   In step S1, the moving image conversion apparatus 120 resets, that is, initializes the frame buffers 1 to n (123-1 to 123-n). At the same time, the selection unit 127 is initialized, and the frame buffer as the output frame is set to FB1 (123-1).

ステップS2において、制御部は、フレーム画像の処理対象ブロックを表すブロック番号をゼロに初期化する。なお、ブロック番号は、1つのフレームを構成するブロックに対して設定された0,1,2・・のシーケンス番号である。   In step S2, the control unit initializes the block number representing the processing target block of the frame image to zero. The block number is a sequence number of 0, 1, 2,... Set for the blocks constituting one frame.

ステップS3において、入力部121は、処理フレームの1つのブロック対応の変換画像データを加算処理部122−1乃至122−nに出力する。また、ブロックの属性データ(間引き処理方法、間引き方向など)と動きベクトルデータをアドレス変換部126に出力する。   In step S3, the input unit 121 outputs converted image data corresponding to one block of the processing frame to the addition processing units 122-1 to 122-n. In addition, block attribute data (a thinning processing method, a thinning direction, etc.) and motion vector data are output to the address conversion unit 126.

ステップS4において、アドレス変換部126は、ブロック対応の属性データと動きベクトルデータを受け取り、当ブロックに対して実行された間引き処理態様情報を含む属性データと、ブロックのフレームあたりの移動量および移動方向情報を持つ動きベクトルデータとに基づいて、フレームバッファ1〜n(123−1乃至123−n)に対するアドレスを求める。   In step S4, the address conversion unit 126 receives block-corresponding attribute data and motion vector data, and includes attribute data including decimation processing mode information executed for the block, and the movement amount and movement direction of the block per frame. Addresses for the frame buffers 1 to n (123-1 to 123-n) are obtained based on the motion vector data having information.

アドレス変換部126が求めるアドレスは、処理対象ブロックの有効画素の画素値の各フレームバッファ1〜n(123−1乃至123−n)における書き込み先を示すアドレスであり、処理対象ブロックの有効画素の画素位置の、現在フレームにおける位置、および(n−1)枚の未来フレームにおける処理対象ブロックの有効画素の画素位置に対応する。   The address obtained by the address conversion unit 126 is an address indicating a writing destination in each frame buffer 1 to n (123-1 to 123-n) of the pixel value of the effective pixel of the processing target block, and the effective pixel of the processing target block The pixel position corresponds to the position in the current frame and the pixel position of the effective pixel of the processing target block in the (n−1) future frames.

ブロックは、フレームが1つ進行する毎に、動きベクトルvに対応する移動を行なうと仮定し、アドレス変換部126は、各バッファに対する処理対象ブロックの有効画素の画素位置の書き込みアドレスを、動きベクトルvに相当する画素だけ順次移動させた位置として算出する。   It is assumed that the block moves corresponding to the motion vector v every time one frame advances, and the address conversion unit 126 sets the write address of the pixel position of the effective pixel of the processing target block for each buffer as the motion vector. It is calculated as a position where only pixels corresponding to v are sequentially moved.

例えば、動きベクトルvは1フレームあたりの動き画素数を示す。すなわち(ピクセル/フレーム)の単位を有する。アドレス変換部126は、処理対象フレームに対応して設定されている現フレーム(初期的にはフレームバッファ1(123−1))に対する処理対象ブロックの有効画素の画素値の書き込み先アドレスとして、現在位置に相当するフレームバッファ1(123−1)の位置を算出する。   For example, the motion vector v indicates the number of motion pixels per frame. That is, it has a unit of (pixel / frame). The address conversion unit 126 uses the current address (initially the frame buffer 1 (123-1)) set corresponding to the processing target frame as the write destination address of the pixel value of the effective pixel of the processing target block. The position of the frame buffer 1 (123-1) corresponding to the position is calculated.

さらに、1フレーム進行したフレームデータを書き込むフレームバッファ(初期的にはフレームバッファ2(123−2))の書き込みアドレスとして、現フレーム(初期的にはフレームバッファ1(123−1))に対する書き込みアドレスに動きベクトルvを加算したアドレスを算出する。さらに、2フレーム進行したフレームデータを書き込むフレームバッファ(初期的にはフレームバッファ3(123−3))の書き込みアドレスを、フレームバッファ2(123−2)に対するアドレスに、さらに動きベクトルvを加算して算出する。以下、同様のアドレス算出を行い、すべてのフレームバッファ1〜n(123−1乃至123−n)に対するアドレスを求める。具体的な処理例については後述する。   Furthermore, the write address for the current frame (initially frame buffer 1 (123-1)) is used as the write address of the frame buffer (initially frame buffer 2 (123-2)) for writing frame data that has progressed by one frame. To which the motion vector v is added. Furthermore, the motion vector v is further added to the write address of the frame buffer (initially frame buffer 3 (123-3)) for writing the frame data progressed by two frames to the address for the frame buffer 2 (123-2). To calculate. Thereafter, the same address calculation is performed to obtain addresses for all the frame buffers 1 to n (123-1 to 123-n). A specific processing example will be described later.

ステップS5において、加算処理部122−1乃至122−nは、アドレス変換部126によって算出された各フレームバッファ1〜n(123−1乃至123−n)対応のアドレスに基づいて、各バッファをアクセスし、フレームバッファ123−1乃至123−nのアドレス指定位置に書き込まれた値を読み取る。ステップS6において、フレームバッファ123−1乃至123−nから読み取った画素値と、入力部121から与えられる有効画素値との間で画素値の加算平均処理を行う。フレームバッファ123−1乃至123−nのアドレス指定位置に書き込まれた値は、すでに処理済のフレームの処理時に書き込まれた過去フレームの対応ブロックに設定された有効画素値データまたはその加算平均値である。なお、アドレス変換部126から与えられるアドレスに書き込まれたデータがバッファに存在しない場合は、ステップS5,S6の処理は省略してもよい。   In step S5, the addition processing units 122-1 to 122-n access the buffers based on the addresses corresponding to the frame buffers 1 to n (123-1 to 123-n) calculated by the address conversion unit 126. Then, the value written in the address designation position of the frame buffers 123-1 to 123-n is read. In step S <b> 6, pixel value addition averaging processing is performed between the pixel values read from the frame buffers 123-1 to 123-n and the effective pixel value given from the input unit 121. The value written in the address designation position of the frame buffers 123-1 to 123-n is the effective pixel value data set in the corresponding block of the past frame written at the time of processing of the already processed frame or the average value thereof. is there. If the data written at the address given from the address conversion unit 126 does not exist in the buffer, the processing in steps S5 and S6 may be omitted.

ステップS7において、制御部の制御の下に、加算処理部122−1乃至122−nで加算平均処理された画素値を、フレームバッファ123−1乃至123−nのアドレス変換部126から与えられるアドレスによってアクセスされる位置に書き込む処理を実行する。なお、アドレス変換部126から与えられるアドレスに書き込み済みのデータが存在しない場合は、入力部121から与えられる有効画素値データのみの書き込みが実行され、アドレス変換部126から与えられるアドレスに書き込み済みのデータが存在する場合は、その値と、入力部121から与えられる有効画素値との間で算出した加算平均値の書き込みが実行される。   In step S7, under the control of the control unit, the pixel values subjected to the addition averaging process by the addition processing units 122-1 to 122-n are given from the address conversion unit 126 of the frame buffers 123-1 to 123-n. The process of writing to the location accessed by is executed. If there is no written data at the address given from the address conversion unit 126, only the effective pixel value data given from the input unit 121 is written, and the written data is written to the address given from the address conversion unit 126. If data exists, writing of the average value calculated between the value and the effective pixel value given from the input unit 121 is executed.

ステップS8において、処理対象のブロックが現在フレーム画像の最終ブロックであるかどうかが判断され、最終ブロックで無い場合にはステップS9に進む。   In step S8, it is determined whether or not the block to be processed is the last block of the current frame image. If it is not the last block, the process proceeds to step S9.

ステップS9では、ブロック番号を1インクリメントして、ステップS3のデータ入力に進む。   In step S9, the block number is incremented by 1, and the process proceeds to data input in step S3.

ステップS3からステップS8までの処理が繰り返し実行され、ステップS8において当該ブロックが最終ブロックであると判断された場合にはステップS10に進む。   The processing from step S3 to step S8 is repeatedly executed, and if it is determined in step S8 that the block is the last block, the process proceeds to step S10.

ステップS10において、選択部127を介して補間部124に復元対象フレームの復元に適用されるフレームバッファの格納データが出力され、補間部124においては、フレームバッファの格納データに含まれるブロック構成データ中の欠落画素値を、周囲の画素値に基づいて補間する処理を実行する。さらに、補間部124は、フレームバッファは原画像に対して縦横2倍の画素を持つため、縮小処理により原画像と同じ画素数の画像を生成する。   In step S10, the frame buffer storage data applied to the restoration of the restoration target frame is output to the interpolation unit 124 via the selection unit 127, and the interpolation unit 124 includes the block configuration data included in the frame buffer storage data. A process of interpolating the missing pixel values based on the surrounding pixel values is executed. Further, the interpolation unit 124 generates an image having the same number of pixels as that of the original image by the reduction process because the frame buffer has twice as many pixels as the original image.

ステップS11では、出力部125が、補間部124の処理によって補間、縮小されたフレーム画像データを所定の出力画像信号形式に変換して出力する。   In step S <b> 11, the output unit 125 converts the frame image data interpolated and reduced by the processing of the interpolation unit 124 into a predetermined output image signal format and outputs it.

ステップS12において、現在のフレームが最終フレームであるかどうかが判断される。最終フレームで無い場合には、ステップS13に進む。ステップS13では、選択部127を制御して出力するフレームバッファを切り替え、ステップS14では、前フレーム時点で選択部127において選択されていたフレームバッファをゼロに初期化する。   In step S12, it is determined whether the current frame is the last frame. If it is not the last frame, the process proceeds to step S13. In step S13, the selection unit 127 is controlled to switch the output frame buffer. In step S14, the frame buffer selected in the selection unit 127 at the time of the previous frame is initialized to zero.

例えば、表1を参照して説明すると、処理フレームがフレームF1からフレームF2に切り替わる際、ステップS13では、選択部127において、補間部124に出力するフレームバッファ(現フレーム)をフレームバッファFB2(123−2)に切り替える処理を行い、ステップS14では、前フレーム時点で選択部127において選択されていたフレームバッファ、すなわち、フレームバッファFB1(123−1)をリセットして初期化する。フレームバッファFB1(123−1)にはフレームF2の処理開始時には書き込みデータが存在しない状態にリセットされる。   For example, referring to Table 1, when the processing frame is switched from the frame F1 to the frame F2, in step S13, the selection unit 127 uses the frame buffer FB2 (123) as the frame buffer (current frame) to be output to the interpolation unit 124. -2) is performed, and in step S14, the frame buffer selected by the selection unit 127 at the time of the previous frame, that is, the frame buffer FB1 (123-1) is reset and initialized. The frame buffer FB1 (123-1) is reset to a state in which no write data exists at the start of processing of the frame F2.

ステップS12に戻って、現在のフレームが最終フレームであった場合には、処理を終了する。   Returning to step S12, if the current frame is the last frame, the process ends.

ここで、アドレス変換部126の動作と、フレームバッファ書き込み処理について、図12乃至図27を用いて詳細に説明する。なお、以下に説明する例では、理解を容易にするため水平方向のみの動きベクトルに対応する処理例として説明するが、実際の動画像の処理においては、垂直方向の動きベクトルに対しても以下に説明する処理と同様の処理が可能である。また、水平方向と垂直方向の両方の動きベクトルを適用して2次元処理を実行することで、2次元方向のあらゆる動きベクトルに対応した処理が可能である。   Here, the operation of the address conversion unit 126 and the frame buffer writing process will be described in detail with reference to FIGS. In the example described below, a processing example corresponding to a motion vector only in the horizontal direction will be described for ease of understanding. However, in actual moving image processing, the following processing is also performed for a motion vector in the vertical direction. The same processing as described in (1) is possible. Further, by executing two-dimensional processing by applying both horizontal and vertical motion vectors, processing corresponding to all motion vectors in the two-dimensional direction is possible.

まず、図12乃至図16を参照して、動きベクトルvが右方向に2.5(pixel/frame)であるブロックデータを、図10に示す画像変換装置120において復元する処理例を説明する。図12乃至図16は、復元処理時にフレームバッファFB1(123−1)〜フレームバッファFBn(123−n)に格納されるデータの遷移を説明している図である。 First, referring to FIGS. 12 to 16, the motion vector v 0 is the block data which is 2.5 (pixel / frame) in the right direction, illustrating an example of processing for restoring the image conversion device 120 shown in FIG. 10 . 12 to 16 are diagrams illustrating the transition of data stored in the frame buffer FB1 (123-1) to the frame buffer FBn (123-n) during the restoration process.

図12乃至図16は、復元対象のブロックが水平方向に空間方向間引き処理を施されたブロック(図7のブロック101,102に相当)であるときの処理例である。ここで、各フレームバッファは表1に示したように対応付けられているとする。   12 to 16 are processing examples when the restoration target block is a block that has been subjected to the spatial direction thinning process in the horizontal direction (corresponding to the blocks 101 and 102 in FIG. 7). Here, it is assumed that each frame buffer is associated as shown in Table 1.

図12乃至図16において、各図(a)に示すデータが入力部121から与えられる各フレームの2つの隣り合うブロック、第1ブロック=(x0,y0)〜(x3,y3)、第2ブロック=(x4,y0)〜(x7,y7)の標本点データからなる圧縮画像データであり、
図12=第1フレーム、
図13=第2フレーム、
図14=第3フレーム、
図15=第4フレーム、
図16=第5フレーム、
を示している。
それぞれは、空間方向間引き処理を施されており、図7のブロック101,102と同様、4×4画素のブロックのうち、水平方向に画素数が1/4にされた圧縮データとして設定されている。各フレームにおいて、第1ブロックでは、有効画素(標本点)が(x1,y0)、(x1,y1)、(x1,y2)、(x1,y3)、第2ブロックでは、有効画素が(x5,y0)、(x5,y1)、(x5,y2)、(x5,y3)とされている。
12 to 16, two adjacent blocks of each frame in which the data shown in FIG. 12A is given from the input unit 121, first block = (x0, y0) to (x3, y3), second block = Compressed image data consisting of sample point data of (x4, y0) to (x7, y7),
FIG. 12 = first frame,
FIG. 13 = second frame,
FIG. 14 = third frame,
FIG. 15 = fourth frame,
FIG. 16 = Fifth frame
Is shown.
Each is subjected to spatial direction thinning processing, and is set as compressed data in which the number of pixels in the horizontal direction is ¼ of the 4 × 4 pixel block in the same manner as the blocks 101 and 102 in FIG. 7. Yes. In each frame, the effective pixel (sample point) is (x1, y0), (x1, y1), (x1, y2), (x1, y3) in the first block, and the effective pixel is (x5) in the second block. , Y0), (x5, y1), (x5, y2), (x5, y3).

図12は、ステップS1においてフレームバッファが初期化された後の最初のフレーム(第1フレームと呼ぶ)における処理を示している。図12(a)は、入力部121から与えられる第1フレームの2つの隣り合うブロックの標本点データからなる圧縮画像データを表しており、これらのブロックが空間方向間引き処理を施されている場合には、図7のブロック101,102と同様、4×4画素のブロックのうち、水平方向に画素数が1/4になっており、1ブロック16画素中、それぞれ4画素のみが有効となっている。   FIG. 12 shows processing in the first frame (referred to as the first frame) after the frame buffer is initialized in step S1. FIG. 12A shows compressed image data composed of sample point data of two adjacent blocks of the first frame given from the input unit 121, and these blocks are subjected to spatial direction thinning processing. In the same manner as the blocks 101 and 102 in FIG. 7, the number of pixels in the horizontal direction is ¼ of the 4 × 4 pixel block, and only four pixels are valid in each of the 16 pixels in one block. ing.

図12(b)は、現在フレーム(第1フレーム)に対するフレームバッファのデータを示している。本発明による動画像変換装置では、動きベクトルデータを基にして、フレーム毎に位置合わせを行い、フレームバッファに有効画素値を書き込んでいく。ここで、フレームバッファは、前述のように原画像に対して縦横2倍の画素数を持っている。現在フレームにおいては、ブロック位置は入力画像の位置と同じであるため、入力画像データの有効画素アドレスを縦横共に2倍にしたアドレスに画素値を書き込む。   FIG. 12B shows frame buffer data for the current frame (first frame). In the moving image conversion apparatus according to the present invention, alignment is performed for each frame based on the motion vector data, and the effective pixel value is written in the frame buffer. Here, the frame buffer has twice as many pixels as the original image as described above. Since the block position is the same as the position of the input image in the current frame, the pixel value is written at an address obtained by doubling the effective pixel address of the input image data both vertically and horizontally.

すなわち、図12(a)に示す入力画像データの有効画素アドレスは、(x1,y0)、(x1,y1)、(x1,y2)、(x1,y3)、および(x5,y0)、(x5,y1)、(x5,y2)、(x5,y3)であるので、これらのアドレスを2倍して、(2×x1,2×y0)、(2×x1,2×y1)、(2×x1,2×y2)、(2×x1,2×y3)、および(2×x5,2×y0)、(2×x5,2×y1)、(2×x5,2×y2)、(2×x5,2×y3)に図12(a)に示す入力画像データの有効画素の対応画素値を書き込む。   That is, the effective pixel addresses of the input image data shown in FIG. 12A are (x1, y0), (x1, y1), (x1, y2), (x1, y3), and (x5, y0), ( x5, y1), (x5, y2), and (x5, y3), these addresses are doubled to (2 × x1, 2 × y0), (2 × x1, 2 × y1), ( 2 × x1, 2 × y2), (2 × x1, 2 × y3), and (2 × x5, 2 × y0), (2 × x5, 2 × y1), (2 × x5, 2 × y2), The corresponding pixel value of the effective pixel of the input image data shown in FIG. 12A is written in (2 × x5, 2 × y3).

図12(c)は、図12(b)のフレームバッファの書き込みデータに対して動きベクトルv分の移動を行って算出される[+1フレーム(第2フレーム)]に対応するデータであり、フレームバッファFB2(123−2)に書き込まれるデータを示している。 FIG. 12C shows data corresponding to [+1 frame (second frame)] calculated by moving the motion data v 0 for the write data in the frame buffer of FIG. The data written in the frame buffer FB2 (123-2) is shown.

図12の例では、動きベクトルvは右方向に2.5(pixel/frame)である。したがって、第1フレームのデータに対して動きベクトル分の移動を行い、この位置に図12(a)に示す入力画像データの有効画素の対応画素値を書き込む。 In the example of FIG. 12, the motion vector v 0 is the right direction 2.5 (pixel / frame). Therefore, the movement of the motion vector is performed on the data of the first frame, and the corresponding pixel value of the effective pixel of the input image data shown in FIG. 12A is written at this position.

+1フレームにおける当該ブロックの位置は、現在フレームにおけるブロック位置から動きベクトルvの大きさ=2.5ピクセル右方向に移動した位置であるが、各フレームバッファは、縦横2倍の大きさに設定されているので、2.5×2=5画素分、右に移動した位置に図12(a)に示す入力画像データの有効画素の対応画素値を書き込む。アドレス変換部126は、書き込み位置のアドレスを動きベクトルvの大きさおよび方向に基づいて決定し、決定位置に図12(a)に示す入力画像データの有効画素の対応画素値を書き込む。 The position of the block in the +1 frame is the position moved from the block position in the current frame to the right of the magnitude of the motion vector v 0 = 2.5 pixels, but each frame buffer is set to a size that is twice as long as the length and width. Therefore, the corresponding pixel value of the effective pixel of the input image data shown in FIG. 12A is written at the position moved to the right by 2.5 × 2 = 5 pixels. Address conversion unit 126 determines on the basis of the magnitude and direction of the vector v 0 motion address of the write position, and writes the corresponding pixel value of the effective pixels of the input image data shown in FIG. 12 (a) to determine position.

図12(c)のフレームバッファFB2(123−2)のデータ書き込みアドレスは、フレームバッファFB1(123−1)の書き込みアドレスのx成分に(+5)したアドレスとして設定される。   The data write address of the frame buffer FB2 (123-2) in FIG. 12C is set as an address (+5) in the x component of the write address of the frame buffer FB1 (123-1).

図12(d)は、+2フレーム(第3フレーム)に対するフレームバッファFB3(123−3)のデータを示している。2フレーム後における当該ブロックの位置は、現在フレームにおけるブロック位置から、動きベクトルv×2、すなわち右方向に2vだけ移動した位置である。フレームバッファFB3(123−3)におけるデータ書き込みアドレスは、アドレス変換部126において、現在フレームにおけるフレームバッファのアドレスから右方向に2vだけ移動、すなわち、+1フレームにおけるフレームバッファFB2(123−2)の書き込みアドレスからさらに右方向に5画素移動した位置として算出され、このアドレスに従って、フレームバッファFB3(123−3)に対して図12(a)に示す入力画像データの有効画素の対応画素値を書き込む。 FIG. 12D shows data in the frame buffer FB3 (123-3) for +2 frame (third frame). Position of the block after the 2 frames, the block position in the current frame, the motion vector v 0 × 2, i.e. a position shifted by 2v 0 in the right direction. In the address buffer 126, the data write address in the frame buffer FB3 (123-3) is moved to the right by 2v 0 from the address of the frame buffer in the current frame, that is, in the frame buffer FB2 (123-2) in the +1 frame. It is calculated as a position further shifted by 5 pixels in the right direction from the write address, and according to this address, the corresponding pixel value of the effective pixel of the input image data shown in FIG. 12A is written into the frame buffer FB3 (123-3). .

図12(e)は、+(n−1)フレーム(第nフレーム)に対するフレームバッファFBn(123−n)のデータを示している。n−1フレーム後における当該ブロックの位置は、現在フレームにおけるブロック位置から、動きベクトルv×(n−1)、すなわち右方向に(n−1)vだけ移動した位置である。フレームバッファFBn(123−n)におけるデータ書き込みアドレスは、アドレス変換部126において、現在フレームにおけるフレームバッファのアドレスから右方向に(n−1)×5画素移動した位置として算出され、このアドレスに従って、フレームバッファFBn(123−n)に対して図12(a)に示す入力画像データの有効画素の対応画素値を書き込む。 FIG. 12E shows data in the frame buffer FBn (123-n) for + (n-1) frames (nth frame). The position of the block after n−1 frames is a position moved from the block position in the current frame by a motion vector v 0 × (n−1), that is, (n−1) v 0 in the right direction. The data write address in the frame buffer FBn (123-n) is calculated by the address conversion unit 126 as a position moved (n−1) × 5 pixels rightward from the address of the frame buffer in the current frame. The corresponding pixel value of the effective pixel of the input image data shown in FIG. 12A is written into the frame buffer FBn (123-n).

図13は、第2フレームにおける処理を示している。図13(a)は、入力部121から与えられる第2フレームの2つの隣り合うブロックの画像データを表しており、図12(a)と同様に水平方向の空間間引きデータであり、各ブロックのそれぞれ4画素が有効となっている。   FIG. 13 shows processing in the second frame. FIG. 13A shows the image data of two adjacent blocks of the second frame given from the input unit 121, and is the spatial thinning data in the horizontal direction as in FIG. Each of the four pixels is effective.

図13(b)は、現在フレーム(第2フレーム)処理時のフレームバッファのデータを示している。第2フレーム入力時において、先に表1を参照して説明したように、現フレーム〜+(n−1)フレームの格納バッファは順次シフトされている。従って、図13(b)は、現在フレーム(第2フレーム)処理時の現フレームバッファFB2(123−2)のデータ内容である。フレームバッファFB2〜FBnには、先の図12の処理においてフレームバッファFB2〜FBnに書き込まれた第1フレーム対応のデータが書き込み済みである。   FIG. 13B shows frame buffer data at the time of processing the current frame (second frame). At the time of inputting the second frame, as described above with reference to Table 1, the storage buffers of the current frame to + (n-1) frames are sequentially shifted. Therefore, FIG. 13B shows the data contents of the current frame buffer FB2 (123-2) at the time of processing the current frame (second frame). In the frame buffers FB2 to FBn, the data corresponding to the first frame written in the frame buffers FB2 to FBn in the process of FIG. 12 is already written.

図13(b)に示すフレームバッファFB2(123−2)には、図12(c)のフレームバッファFB2に書き込まれたデータが書き込み済みである。すなわち、第1フレームの処理時に動きベクトル情報に基づいてフレームバッファFB2に書き込まれた第1フレーム対応のデータが書き込まれており、ここに追記する処理として、現在フレーム(第2フレーム)のデータ書き込みが実行される。   In the frame buffer FB2 (123-2) shown in FIG. 13B, the data written in the frame buffer FB2 in FIG. 12C has been written. That is, the data corresponding to the first frame written to the frame buffer FB2 based on the motion vector information at the time of processing the first frame is written, and the data writing of the current frame (second frame) is performed as an additional process. Is executed.

なお、図11のフローにおけるステップS4において、アドレス変換部126によって現在フレームの当該ブロックに対する書き込みアドレスが求められ、ステップS5において、フレームバッファの該アドレスにおけるデータが読み出されるが、この時点では第1フレームの有効画素の記憶位置は、当該書き込みアドレスと異なる位置に書き込まれており、書き込みアドレスの位置に有効なデータは存在しない。従って、この場合には加算平均処理は実行されず、アドレス変換部126によって求められたアドレスに現在フレーム(第2フレーム)の処理ブロックの有効画素値が書き込まれる。   In step S4 in the flow of FIG. 11, the address conversion unit 126 obtains a write address for the current block in the current frame, and in step S5, the data at the address in the frame buffer is read. The effective pixel storage position is written at a position different from the write address, and there is no valid data at the write address position. Therefore, in this case, the averaging process is not executed, and the effective pixel value of the processing block of the current frame (second frame) is written at the address obtained by the address conversion unit 126.

すなわち、図13(b)に示す例では、アドレス変換部126によって現在フレーム(第2フレーム)のブロックに対する書き込みアドレスは、(2x1,2y0)、(2x1,2y1)、(2x1,2y2)・・・であるが、第1フレームの有効画素の記憶位置は、これらの位置とは異なる位置であるので、ステップS5において、フレームバッファの(2x1,2y0)、(2x1,2y1)、(2x1,2y2)・・・からの読み出し処理において有効なデータの読み出しがなされることがなく、アドレス変換部126によって求められたアドレス(2x1,2y0)、(2x1,2y1)、(2x1,2y2)・・・に当該ブロックの有効画素値が書き込まれるのみの処理として実行される。   That is, in the example shown in FIG. 13 (b), the write address for the block of the current frame (second frame) by the address converter 126 is (2x1, 2y0), (2x1, 2y1), (2x1, 2y2),. However, since the effective pixel storage position of the first frame is different from these positions, in step S5, (2x1, 2y0), (2x1, 2y1), (2x1, 2y2) of the frame buffer. )... Is not read out, and the addresses (2 × 1, 2y0), (2 × 1, 2y1), (2 × 1, 2y2),... This is executed as a process in which the effective pixel value of the block is simply written to the block.

図13(c)は、+1フレーム(第3フレーム)に対するフレームバッファFB3(123−3)のデータを示している。フレームバッファFB3(123−3)には、第1フレーム処理後のデータ(図12(d)に相当)が書き込まれている。そして、第1フレームの時と同様に、現在フレームのブロック位置から動きベクトルvだけ右方向に移動したアドレスに有効画素値を書き込む。 FIG. 13C shows data in the frame buffer FB3 (123-3) for +1 frame (third frame). In the frame buffer FB3 (123-3), data after the first frame processing (corresponding to FIG. 12D) is written. Then, as in the case of the first frame, the effective pixel value is written to the address moved to the right by the motion vector v 0 from the block position of the current frame.

図13(d)は、+2フレーム(第4フレーム)に対するフレームバッファのデータを示している。ここでも同様に第1フレーム処理後のデータが書き込まれている。そして、第1フレームの時と同様に、現在フレームのブロック位置から動きベクトル2vだけ右方向に移動したアドレスに有効画素値を書き込む。 FIG. 13D shows frame buffer data for +2 frames (fourth frame). Similarly, the data after the first frame processing is written here. Then, as in the case of the first frame, and writes the valid pixel value from the block position of the current frame address moved rightward motion vector 2v 0.

図13(e)は、+(n−1)フレーム(第n+1フレーム)に対するフレームバッファのデータを示している。動画像変換装置は、n枚分のフレームバッファを有しており、第1フレーム処理後にフレームバッファはシフトされ、前フレーム時点での選択フレームに対するフレームバッファは、ステップS14にて初期化される。つまり、n番目のフレームバッファに対しては前フレームにおけるデータが存在せず、常に現在フレームにおける有効画素のみが書き込まれる。この例では、n番目のフレームバッファは、フレームバッファFB1(123−1)である。   FIG. 13E shows frame buffer data for + (n−1) frames (n + 1th frame). The moving image conversion apparatus has n frame buffers, the frame buffer is shifted after the first frame processing, and the frame buffer for the selected frame at the previous frame is initialized in step S14. That is, no data in the previous frame exists in the nth frame buffer, and only effective pixels in the current frame are always written. In this example, the nth frame buffer is the frame buffer FB1 (123-1).

図14は、第3フレームにおける処理を示している。第3フレームの処理は、第2フレームと同様に処理が行われるが、第3フレームの画像データ入力時点では、リセットされたフレームバッファFB2(123−2)以外のフレームバッファに第1フレームと第2フレームの有効画素データが書き込まれている点が異なる。   FIG. 14 shows processing in the third frame. The third frame is processed in the same manner as the second frame. However, at the time of inputting the image data of the third frame, the first frame and the first frame are stored in the frame buffer other than the reset frame buffer FB2 (123-2). The difference is that two frames of effective pixel data are written.

例えば、図14(b)のフレームバッファFB3(123−3)には、図13(c)に対応する第1、第2フレーム対応データが書き込み済みであり、図14(c)のフレームバッファFB4(123−4)には、図13(d)に対応する第1、第2フレーム対応データが書き込み済みである。   For example, the first and second frame-corresponding data corresponding to FIG. 13C have been written in the frame buffer FB3 (123-3) of FIG. 14B, and the frame buffer FB4 of FIG. In (123-4), the first and second frame correspondence data corresponding to FIG. 13D is already written.

これらの第1、第2フレーム対応データが書き込み済みの各フレームバッファに処理対象の第3フレームのブロックの有効画素値の書き込みが実行される。図12を参照して説明したと同様の各バッファに対するアドレス算出が実行され、書き込み処理が行なわれる。なお、書き込み先(アドレス指定先)に既に書き込みデータが存在する場合は、各バッファ対応の加算処理部122−1〜nにおいて、入力部121から与えられる有効画素値との間で画素値の加算平均処理を行い加算平均値を書き込む。   The effective pixel value of the block of the third frame to be processed is written into each frame buffer in which the data corresponding to the first and second frames has been written. Address calculation for each buffer similar to that described with reference to FIG. 12 is performed, and write processing is performed. If write data already exists at the write destination (address designation destination), the addition processing units 122-1 to 12-n corresponding to each buffer add pixel values to and from the effective pixel value provided from the input unit 121. Averaging processing is performed and the average value is written.

図15は、第4フレームに対する処理を示している。第4フレームの画像データ入力時点では、リセットされたフレームバッファFB3(123−3)以外のフレームバッファに第1フレームと第2フレームと第3フレームの有効画素データが書き込まれている。   FIG. 15 shows processing for the fourth frame. At the time of inputting the image data of the fourth frame, the effective pixel data of the first frame, the second frame, and the third frame are written in the frame buffers other than the reset frame buffer FB3 (123-3).

例えば、図15(b)のフレームバッファFB4(123−4)には、図14(c)に対応する第1、第2、第3フレーム対応データが書き込み済みであり、図15(c)のフレームバッファFB5(123−5)には、図14(d)に対応する第1、第2、第3フレーム対応データが書き込み済みである。   For example, the first, second, and third frame correspondence data corresponding to FIG. 14C has been written in the frame buffer FB4 (123-4) of FIG. 15B, and FIG. In the frame buffer FB5 (123-5), the first, second, and third frame correspondence data corresponding to FIG. 14D has been written.

各フレームバッファFB1〜n(123−1〜n)に対するアドレスの算出処理、必要に応じた画素値加算平均処理の後、各フレームバッファFB1〜n(123−1〜n)に対して、第4フレームのブロックに設定された有効画素の画素値、あるいは加算平均値の書き込み処理が実行される。   After address calculation processing for each frame buffer FB1 to n (123-1 to n) and pixel value addition averaging processing as necessary, the fourth processing is performed on each frame buffer FB1 to n (1233-1 to n). The writing process of the pixel value of the effective pixel set to the block of the frame or the addition average value is executed.

図16は、第5フレームにおける処理を示している。第5フレームの画像データ入力時点では、リセットされたフレームバッファFB4(123−4)以外のフレームバッファに第1〜第4フレームの有効画素データが書き込まれている。   FIG. 16 shows processing in the fifth frame. At the time of inputting the image data of the fifth frame, the effective pixel data of the first to fourth frames are written in the frame buffers other than the reset frame buffer FB4 (123-4).

例えば、図16(b)のフレームバッファFB5(123−5)には、図15(c)に対応する第1、第2、第3、第4フレーム対応データが書き込み済みであり、図16(c)のフレームバッファFB6(123−6)には、図15(d)に対応する第1、第2、第3、第4フレーム対応データが書き込み済みである。   For example, the first, second, third, and fourth frame correspondence data corresponding to FIG. 15C have been written in the frame buffer FB5 (123-5) of FIG. 16B, and FIG. In the frame buffer FB6 (123-6) of c), the first, second, third, and fourth frame correspondence data corresponding to FIG.

各フレームバッファFB1〜n(123−1〜n)に対するアドレスの算出処理、必要に応じた画素値加算平均処理の後、各フレームバッファFB1〜n(123−1〜n)に対して、第5フレームのブロックに設定された有効画素の画素値、あるいは加算平均値の書き込み処理が実行される。   After address calculation processing for each frame buffer FB1 to n (123-1 to n) and pixel value addition averaging processing as necessary, the fifth processing is performed for each frame buffer FB1 to n (1233-1 to n). The writing process of the pixel value of the effective pixel set to the block of the frame or the addition average value is executed.

図16(b)に示すように、第5フレームの処理後では、現在フレームに対するフレームバッファFB5(123−5)には、第1フレームから第5フレームまでの有効画素データが書き込まれ、圧縮によって欠落した画素データが復元されていることがわかる。   As shown in FIG. 16 (b), after the processing of the fifth frame, effective pixel data from the first frame to the fifth frame is written in the frame buffer FB5 (123-5) for the current frame, and compression is performed. It can be seen that the missing pixel data is restored.

続いて、図17乃至図21を参照して、動きベクトルvが右方向に1.5(pixel/frame)であるブロックデータを、図10に示す画像変換装置120において復元する処理について説明する。図17乃至図21は、フレームバッファFB1(123−1)〜フレームバッファFBn(123−n)の格納データの遷移を示している。 Next, with reference to FIG. 17 to FIG. 21, processing for restoring block data whose motion vector v 1 is 1.5 (pixel / frame) in the right direction in the image conversion apparatus 120 shown in FIG. 10 will be described. . FIGS. 17 to 21 show transitions of data stored in the frame buffer FB1 (123-1) to the frame buffer FBn (123-n).

図17乃至図21は、復元対象のブロックが水平方向に空間方向間引き、および時間方向間引き処理を施されたブロック(図7のブロック103,104に相当)であるときの処理を示している。ここで、各フレームバッファは表1に示したように対応付けられているとする。   FIGS. 17 to 21 show processing when the restoration target block is a block that has been subjected to spatial direction thinning and time direction thinning processing in the horizontal direction (corresponding to blocks 103 and 104 in FIG. 7). Here, it is assumed that each frame buffer is associated as shown in Table 1.

図17乃至図21において、各図(a)に示すデータが入力部121から与えられる各フレームの2つの隣り合うブロック、第1ブロック=(x8,y0)〜(x11,y3)、第2ブロック=(x12,y0)〜(x15,y3)の標本点データからなる圧縮画像データであり、
図17=第1フレーム、
図18=第2フレーム、
図19=第3フレーム、
図20=第4フレーム、
図21=第5フレーム、
を示している。
それぞれは、空間方向間引き処理および時間方向間引き処理を施されている。時間方向間引きの結果、第2フレーム(図18(a))と第4フレーム(図20(a))には有効画素(標本点)が存在しない。また、空間間引きの結果、第1フレーム(図17(a))と第3フレーム(図19(a))と第5フレーム(図21(a))は、図7のブロック103,104と同様、4×4画素のブロックのうち、水平方向に画素数が1/2にされた圧縮データとして設定され、各フレームにおいて、第1ブロックでは、有効画素(標本点)が(x8,y0)、(x8,y1)、(x8,y2)、(x8,y3)、(x10,y0)、(x10,y1)、(x10,y2)、(x10,y3)、第2ブロックでは、有効画素が(x12,y0)、(x12,y1)、(x12,y2)、(x12,y3)、(x14,y0)、(x14,y1)、(x14,y2)、(x14,y3)とされている。
In FIG. 17 to FIG. 21, two adjacent blocks of each frame to which the data shown in each figure (a) is given from the input unit 121, first block = (x8, y0) to (x11, y3), second block = Compressed image data consisting of sample point data of (x12, y0) to (x15, y3),
FIG. 17 = first frame,
FIG. 18 = second frame,
FIG. 19 = third frame,
FIG. 20 = fourth frame,
FIG. 21 = fifth frame,
Is shown.
Each is subjected to a spatial direction thinning process and a time direction thinning process. As a result of thinning out in the time direction, there is no effective pixel (sample point) in the second frame (FIG. 18A) and the fourth frame (FIG. 20A). Further, as a result of the spatial thinning, the first frame (FIG. 17A), the third frame (FIG. 19A), and the fifth frame (FIG. 21A) are the same as the blocks 103 and 104 in FIG. Of the 4 × 4 pixel block, it is set as compressed data in which the number of pixels is halved in the horizontal direction. In each frame, in the first block, effective pixels (sample points) are (x8, y0), (X8, y1), (x8, y2), (x8, y3), (x10, y0), (x10, y1), (x10, y2), (x10, y3), in the second block, the effective pixel is (X12, y0), (x12, y1), (x12, y2), (x12, y3), (x14, y0), (x14, y1), (x14, y2), (x14, y3) Yes.

図17は、ステップS1においてフレームバッファが初期化された後の最初のフレーム(第1フレームと呼ぶ)における処理を示している。図17(a)は、入力部121から与えられる2つの隣り合うブロックの標本点データからなる圧縮画像データを表しており、これらのブロックが空間方向間引き、および時間方向間引き処理を施されている場合には、図7に示したように、第1および第3フレーム、第5フレームでは、4×4画素のブロックのうち、水平方向に画素数が1/2になっており、各ブロックそれぞれ8画素のみが有効となっている。   FIG. 17 shows processing in the first frame (referred to as the first frame) after the frame buffer is initialized in step S1. FIG. 17A shows compressed image data composed of sample point data of two adjacent blocks given from the input unit 121, and these blocks are subjected to spatial direction thinning and time direction thinning processing. In this case, as shown in FIG. 7, in the first, third, and fifth frames, among the 4 × 4 pixel blocks, the number of pixels in the horizontal direction is halved. Only 8 pixels are valid.

図17(b)は、現在フレーム(第1フレーム)処理時のフレームバッファFB1(FB123−1)のデータを示している。本発明による動画像変換装置では、動きベクトルデータを基にして、フレーム毎に位置合わせを行い、フレームバッファに有効画素値を書き込んでいく。ここで、フレームバッファは、前述のように原画像に対して縦横2倍の画素数を持っている。現在フレームにおいては、ブロック位置は入力画像の位置と同じであるため、入力画像データの有効画素アドレスを縦横共に2倍にしたアドレスに画素値を書き込む。   FIG. 17B shows data in the frame buffer FB1 (FB123-1) at the time of processing the current frame (first frame). In the moving image conversion apparatus according to the present invention, alignment is performed for each frame based on the motion vector data, and the effective pixel value is written in the frame buffer. Here, the frame buffer has twice as many pixels as the original image as described above. Since the block position is the same as the position of the input image in the current frame, the pixel value is written at an address obtained by doubling the effective pixel address of the input image data both vertically and horizontally.

すなわち、図17(a)に示す入力画像データの有効画素アドレスは、(x8,y0)、(x8,y1)、(x8,y2)、(x8,y3)、(x10,y0)、(x10,y1)、(x10,y2)、(x10,y3)、および(x12,y0)、(x12,y1)、(x12,y2)、(x12,y3)、(x14,y0)、(x14,y1)、(x14,y2)、(x14,y3)であるので、これらのアドレスを2倍して、(2×x8,2×y0)、(2×x8,2×y1)、(2×x8,2×y2)、(2×x8,2×y3)、(2×x10,2×y0)、(2×x10,2×y1)、(2×x10,2×y2)、(2×x10,2×y3)、および(2×x12,2×y0)、(2×x12,2×y1)、(2×x12,2×y2)、(2×x12,2×y3)、(2×x14,2×y0)、(2×x14,2×y1)、(2×x14,2×y2)、(2×x14,2×y3)に図17(a)に示す入力画像データの有効画素の対応画素値を書き込む。   That is, the effective pixel addresses of the input image data shown in FIG. 17A are (x8, y0), (x8, y1), (x8, y2), (x8, y3), (x10, y0), (x10 , Y1), (x10, y2), (x10, y3), and (x12, y0), (x12, y1), (x12, y2), (x12, y3), (x14, y0), (x14, Since y1), (x14, y2), and (x14, y3), these addresses are doubled to (2 × x8, 2 × y0), (2 × x8, 2 × y1), (2 × x8, 2 × y2), (2 × x8, 2 × y3), (2 × x10, 2 × y0), (2 × x10, 2 × y1), (2 × x10, 2 × y2), (2 × x10, 2 × y3), and (2 × x12, 2 × y0), (2 × x12, 2 × y1), (2 × x12, 2 × y2), (2 × x1) 2, 2 × y3), (2 × x14, 2 × y0), (2 × x14, 2 × y1), (2 × x14, 2 × y2), (2 × x14, 2 × y3) in FIG. The corresponding pixel value of the effective pixel of the input image data shown in a) is written.

図17(c)は、図17(b)のフレームバッファFB1(123−1)の書き込みデータに対して動きベクトルv分の移動を行って算出される[+1フレーム(第2フレーム)]に対応するデータであり、フレームバッファFB2(123−2)に書き込まれるデータを示している。図17の例では、動きベクトルvは右方向に1.5(pixel/frame)である。したがって、+1フレームにおける当該ブロックの位置は、現在フレームにおけるブロック位置から右方向に1.5画素だけ移動した位置であり、フレームバッファにおけるアドレスは2倍の3画素分移動した位置である。 FIG. 17 (c) in the frame buffer FB1 [+1 frame (second frame) is calculated by performing a movement of the motion vector v 1 minute for write data (123-1) shown in FIG. 17 (b) The corresponding data is data written to the frame buffer FB2 (123-2). In the example of FIG. 17, the motion vector v 1 is 1.5 in the right direction (pixel / frame). Therefore, the position of the block in the +1 frame is a position moved by 1.5 pixels in the right direction from the block position in the current frame, and the address in the frame buffer is a position moved by 3 times twice.

図17(d)は、+2フレーム(第3フレーム)に対するフレームバッファのデータを示している。2フレーム後における当該ブロックの位置は、現在フレームにおけるブロック位置から、動きベクトルv×2、すなわち右方向に2vだけ移動した位置である。フレームバッファFB3(123−3)におけるデータ書き込みアドレスは、アドレス変換部126において、現在フレームにおけるフレームバッファのアドレスから右方向に2vだけ移動、すなわち、+1フレームにおけるフレームバッファFB2(123−2)の書き込みアドレスからさらに右方向に3画素移動した位置として算出され、このアドレスに従って、フレームバッファFB3(123−3)に対して図17(a)に示す入力画像データの有効画素の対応画素値を書き込む。 FIG. 17D shows frame buffer data for +2 frames (third frame). The position of the block after two frames is a position moved from the block position in the current frame by a motion vector v 1 × 2, that is, 2v 1 in the right direction. Data write address in the frame buffer FB3 (123-3), in the address conversion unit 126, the movement from the address of the frame buffer in the current frame to the right by 2v 1, i.e., the frame buffer FB2 (123-2) in + 1 frame It is calculated as a position shifted three pixels further to the right from the write address, and according to this address, the corresponding pixel value of the effective pixel of the input image data shown in FIG. 17A is written into the frame buffer FB3 (123-3). .

図17(e)は、+(n−1)フレーム(第nフレーム)に対するフレームバッファFBn(123−n)のデータを示している。n−1フレーム後における当該ブロックの位置は、現在フレームにおけるブロック位置から、動きベクトルv×(n−1)、すなわち右方向に(n−1)vだけ移動した位置である。フレームバッファFBn(123−n)におけるデータ書き込みアドレスは、アドレス変換部126において、現在フレームにおけるフレームバッファのアドレスから右方向に(n−1)×3画素移動した位置として算出され、このアドレスに従って、フレームバッファFBn(123−n)に対して図17(a)に示す入力画像データの有効画素の対応画素値を書き込む。 FIG. 17E shows data in the frame buffer FBn (123-n) for + (n-1) frames (nth frame). The position of the block after n-1 frames is a position moved from the block position in the current frame by motion vector v 1 × (n−1), that is, (n−1) v 1 in the right direction. The data write address in the frame buffer FBn (123-n) is calculated by the address conversion unit 126 as a position moved (n−1) × 3 pixels in the right direction from the address of the frame buffer in the current frame. The corresponding pixel value of the effective pixel of the input image data shown in FIG. 17A is written into the frame buffer FBn (123-n).

図18は、第2フレームにおける処理を示している。図17乃至図21の例は、当該ブロックが空間方向間引き、および時間方向間引き処理を施されている場合であるので、図7におけるブロック103,104に相当し、第2フレームでは時間方向間引き処理によって有効画素が存在しない(図18(a))。   FIG. 18 shows processing in the second frame. The example of FIGS. 17 to 21 corresponds to the blocks 103 and 104 in FIG. 7 because the block has been subjected to spatial direction decimation and time direction decimation processing. In the second frame, time direction decimation processing is performed. Therefore, there is no effective pixel (FIG. 18A).

図18(b)は、現在フレーム(第2フレーム)に対するフレームバッファのデータを示している。第2フレーム入力時において、先に表1を参照して説明したように、現フレーム〜+(n−1)フレームの格納バッファは順次シフトされている。従って、図18(b)は、現在フレーム(第2フレーム)処理時の現フレームバッファFB2(123−2)のデータ内容である。フレームバッファFB2〜FBnには、先の図17の処理においてフレームバッファFB2〜FBnに書き込まれた第1フレーム対応のデータが書き込み済みである。ここで、第2フレームには有効画素が存在しないため、フレームバッファには新たにデータは書き込まれない。   FIG. 18B shows frame buffer data for the current frame (second frame). At the time of inputting the second frame, as described above with reference to Table 1, the storage buffers of the current frame to + (n-1) frames are sequentially shifted. Accordingly, FIG. 18B shows the data contents of the current frame buffer FB2 (123-2) at the time of processing the current frame (second frame). In the frame buffers FB2 to FBn, the data corresponding to the first frame written in the frame buffers FB2 to FBn in the process of FIG. 17 is already written. Here, since no effective pixel exists in the second frame, no new data is written in the frame buffer.

図18(c)は、+1フレーム(第3フレーム)に対するフレームバッファFB3(123−3)のデータを示している。フレームバッファFB3(123−3)には、第1フレーム処理後のデータ(図17(d)に相当)が書き込まれている。第2フレームには有効画素が存在しないため、新たなデータは書き込まれない。   FIG. 18C shows data in the frame buffer FB3 (123-3) for +1 frame (third frame). Data after the first frame processing (corresponding to FIG. 17D) is written in the frame buffer FB3 (123-3). Since no effective pixel exists in the second frame, new data is not written.

図18(d)は、+2フレーム(第4フレーム)に対するフレームバッファFB4(123−4)のデータを示している。フレームバッファFB4(123−4)には、第1フレーム処理後のデータが書き込まれている。第2フレームには有効画素が存在しないため、新たなデータは書き込まれない。   FIG. 18D shows data in the frame buffer FB4 (123-4) for +2 frame (fourth frame). Data after the first frame processing is written in the frame buffer FB4 (123-4). Since no effective pixel exists in the second frame, new data is not written.

図18(e)は、+(n−1)フレーム(第n+1フレーム)に対するフレームバッファFB2(123−2)のデータを示している。上述のように、ステップS14において初期化が行われるため、フレームバッファには何もデータが書き込まれていない。さらに、第2フレームには有効画素が存在しないため、新たなデータは書き込まれない。   FIG. 18E shows data in the frame buffer FB2 (123-2) for + (n-1) frames (n + 1th frame). As described above, since initialization is performed in step S14, no data is written in the frame buffer. Further, since no effective pixel exists in the second frame, new data is not written.

図19は、第3フレームにおける処理を示している。第3フレームでは、第1フレームと同様の入力データが与えられ、4×4画素のブロックのうち、水平方向に画素数が1/2になっており、それぞれ8画素のみが有効となっている(図19(a))。   FIG. 19 shows processing in the third frame. In the third frame, the same input data as in the first frame is given, and the number of pixels in the 4 × 4 pixel block is halved in the horizontal direction, and only 8 pixels are valid. (FIG. 19 (a)).

第3フレームの処理は、第2フレーム処理後のデータが書き込まれたフレームバッファに、第3フレームにおける有効画素値が書き込まれる。このとき、上述のとおり、第2フレームには有効画素が存在しないため、フレームバッファには第1フレームにおける有効画素値と、第3フレームにおける有効画素値が書き込まれることになる。   In the process of the third frame, the effective pixel value in the third frame is written into the frame buffer in which the data after the second frame process is written. At this time, as described above, since there is no effective pixel in the second frame, the effective pixel value in the first frame and the effective pixel value in the third frame are written in the frame buffer.

例えば、図19(b)のフレームバッファFB3(123−3)には、図18(c)に対応する第1フレーム対応データが書き込み済みであり、図19(c)のフレームバッファFB4(123−4)には、図18(d)に対応する第1、第2フレーム対応データが書き込み済みである。   For example, the first frame corresponding data corresponding to FIG. 18C has been written in the frame buffer FB3 (123-3) of FIG. 19B, and the frame buffer FB4 (123-123) of FIG. In 4), the first and second frame correspondence data corresponding to FIG. 18D has been written.

この第1フレーム対応データが書き込み済みの各フレームバッファに処理対象の第3フレームのブロックの有効画素値の書き込みが実行される。図12を参照して説明したと同様の各バッファに対するアドレス算出が実行され、書き込み処理が行なわれる。なお、書き込み先(アドレス指定先)に既に書き込みデータが存在する場合は、各バッファ対応の加算処理部122−1〜nにおいて、入力部121から与えられる有効画素値との間で画素値の加算平均処理を行い加算平均値を書き込む。   The effective pixel value of the block of the third frame to be processed is written to each frame buffer in which the first frame correspondence data has been written. Address calculation for each buffer similar to that described with reference to FIG. 12 is performed, and write processing is performed. If write data already exists at the write destination (address designation destination), the addition processing units 122-1 to 12-n corresponding to each buffer add pixel values to and from the effective pixel value provided from the input unit 121. Averaging processing is performed and the average value is written.

図20は、第4フレームにおける処理を示している。第4フレームでは、第2フレームと同様に時間方向間引き処理によって有効画素が存在しない。したがって、図18と同様の処理が行われる。すなわち、第4フレームには有効画素が存在しないため、新たなデータは書き込まれない。   FIG. 20 shows processing in the fourth frame. In the fourth frame, as in the second frame, there is no effective pixel by the time direction thinning process. Therefore, the same processing as in FIG. 18 is performed. That is, since no effective pixel exists in the fourth frame, new data is not written.

図21は、第5フレームにおける処理を示している。第5フレームの画像データ入力時点では、フレームバッファに第1、第3フレームの有効画素データが書き込まれている。   FIG. 21 shows processing in the fifth frame. At the time of inputting the image data of the fifth frame, the effective pixel data of the first and third frames are written in the frame buffer.

例えば、図21(b)のフレームバッファFB5(123−5)には、図20(c)に対応する第1、第3フレーム対応データが書き込み済みであり、図21(c)のフレームバッファFB6(123−6)には、図20(d)に対応する第1、第3フレーム対応データが書き込み済みである。   For example, data corresponding to the first and third frames corresponding to FIG. 20C has been written in the frame buffer FB5 (123-5) of FIG. 21B, and the frame buffer FB6 of FIG. In (123-6), the first and third frame correspondence data corresponding to FIG. 20D is already written.

各フレームバッファFB1〜n(123−1〜n)に対するアドレスの算出処理、必要に応じた画素値加算平均処理の後、各フレームバッファFB1〜n(123−1〜n)に対して、第5フレームのブロックに設定された有効画素の画素値、あるいは加算平均値の書き込み処理が実行される。   After address calculation processing for each frame buffer FB1 to n (123-1 to n) and pixel value addition averaging processing as necessary, the fifth processing is performed for each frame buffer FB1 to n (1233-1 to n). The writing process of the pixel value of the effective pixel set to the block of the frame or the addition average value is executed.

図21(b)は、現在フレーム(第5フレーム)に対するフレームバッファのデータを示している。上述のように、フレームバッファは、第4フレーム処理後のデータが書き込まれているため、すでに第1フレーム、および第3フレームの有効画素値が存在する。アドレス変換部126は、フレームバッファに対する現在フレームの有効画素のアドレスを求め、制御部は、フレームバッファからデータを読み込む。この時点で、x=2x14のアドレスには第1フレームの有効画素値(4画素)が存在する(図20(c))。 FIG. 21B shows frame buffer data for the current frame (fifth frame). As described above, since the data after the fourth frame processing is written in the frame buffer, the effective pixel values of the first frame and the third frame already exist. The address conversion unit 126 obtains the address of the effective pixel of the current frame with respect to the frame buffer, and the control unit reads data from the frame buffer. At this point, the address of x = 2x 14 there is effective pixel value (4 pixels) of the first frame (Fig. 20 (c)).

従って、制御部は、x=2x14のアドレスからデータを読み出し、加算処理部122にデータを送る。加算処理部122は、制御部から受け取るx=2x14のアドレスから読み出されたデータ、すなわち、第1フレームの有効画素値と、入力部から受け取る第5フレームの有効画素値を加算平均し、再び制御部へ送る。制御部は、加算処理部122から受け取るデータをフレームバッファのx=2x14のアドレスに書き込む。このようにして、加算平均処理が成されることにより、過去フレームのデータの重みは小さくなることになる。 Accordingly, the control unit reads the data from the address of x = 2x 14, sends the data to the addition unit 122. Adding processing unit 122, data read out from the address of x = 2x 14 received from the control unit, i.e., the effective pixel values in the first frame, and averaging the effective pixel values of the fifth frame received from the input unit, Send it to the controller again. Control unit writes the data received from the addition unit 122 to the address of the frame buffer x = 2x 14. In this way, the weighting of the data of the past frame is reduced by performing the averaging process.

具体的には、フレームバッファ5(123−5)のx=2x14のアドレスから読み出されるデータ、すなわち、第1フレームの有効画素値が、
アドレス(2x14,2y)の書き込み値=α1、
アドレス(2x14,2y)の書き込み値=α2、
アドレス(2x14,2y)の書き込み値=α3、
アドレス(2x14,2y)の書き込み値=α4、
であり、入力部から受け取る対応する位置の第5フレームの有効画素値(図21(a))が、それぞれ
(x14,y)の値=β1、
(x14,y)の値=β2、
(x14,y)の値=β3、
(x14,y)の値=β4、
であった場合、フレームバッファ5(123−5)のx=2x14のアドレス位置に書き込むデータは、
アドレス(2x14,2y)の書き込み値=(α1+β1)/2、
アドレス(2x14,2y)の書き込み値=(α2+β2)/2、
アドレス(2x14,2y)の書き込み値=(α3+β3)/2、
アドレス(2x14,2y)の書き込み値=(α4+β4)/2、
として、加算処理部122−5において、加算平均値が算出され、フレームバッファFB5(123−5)のx=2x14のアドレス位置に上記の値:(α1+β1)/2〜(α4+β4)/2の書き込み処理が実行される。
Specifically, data read from the address of x = 2x 14 framebuffer 5 (123-5), i.e., the effective pixel values in the first frame,
Write value of address (2x 14 , 2y 0 ) = α1,
Write value of address (2x 14 , 2y 1 ) = α2,
Write value of address (2x 14 , 2y 2 ) = α3,
Write value of address (2x 14 , 2y 3 ) = α4,
And the effective pixel value (FIG. 21A) of the fifth frame at the corresponding position received from the input unit is the value of (x 14 , y 0 ) = β1,
Value of (x 14 , y 1 ) = β2,
Value of (x 14 , y 2 ) = β3,
Value of (x 14 , y 3 ) = β4,
If it was in, the data to be written into the address position x = 2x 14 framebuffer 5 (123-5),
Write value of the address (2x 14, 2y 0) = (α1 + β1) / 2,
Write value of address (2x 14 , 2y 1 ) = (α2 + β2) / 2,
Write value of address (2x 14 , 2y 2 ) = (α3 + β3) / 2,
Write value of address (2x 14 , 2y 3 ) = (α4 + β4) / 2,
As, in the addition processing unit 122-5, the arithmetic mean value is calculated, x = 2x 14 address location to the value of the frame buffer FB5 (123-5): (α1 + β1) / 2~ the (α4 + β4) / 2 Write processing is executed.

なお、本実施例では、フレームバッファに書き込まれているデータと、入力されるデータを単純加算平均処理しているが、たとえば、重み付け加算平均処理を行っても構わないし、単に入力データで上書き処理をしても構わない。   In this embodiment, the data written in the frame buffer and the input data are subjected to the simple addition averaging process. However, for example, the weighted addition averaging process may be performed, or the input data is simply overwritten. It does not matter.

図21(c)は、+1フレーム(第6フレーム)に対するフレームバッファFB6(123−6)のデータを示しており、図21(d)は、+2フレーム(第7フレーム)に対するフレームバッファFB7(123−7)のデータを示している。これらの各バッファに対しても、第1、第3フレーム対応データが書き込み済みであり、上述した図21(b)のフレームバッファFB5(123−5)に対する処理と同様、アドレスに従ったデータ読み込み処理および加算平均算出処理が実行され、データ書き込みが行なわれる。   FIG. 21C shows data in the frame buffer FB6 (123-6) for +1 frame (sixth frame), and FIG. 21D shows the frame buffer FB7 (123 in FIG. 21 for +2 frame (seventh frame). The data of -7) is shown. The data corresponding to the first and third frames has already been written in each of these buffers, and data reading according to the address is performed in the same manner as the processing for the frame buffer FB5 (123-5) in FIG. Processing and addition average calculation processing are executed, and data writing is performed.

図21(e)は、+(n−1)フレーム(第n+4フレーム)のフレームバッファのデータを示しており、第5フレームデータのみの書き込みが実行される。   FIG. 21E shows frame buffer data of + (n−1) frames (n + 4th frame), and only the fifth frame data is written.

続いて、図22乃至図26を参照して、動きベクトルvが右方向に0.5(pixel/frame)であるブロックデータを、図10に示す画像変換装置120において復元する処理について説明する。図17乃至図21は、フレームバッファFB1(123−1)〜フレームバッファFBn(123−n)の格納データの遷移を示している。 Subsequently, with reference to FIGS. 22 to 26, the motion vector v 2 is the block data which is 0.5 (pixel / frame) to the right, a description will be given of a process of restoring the image conversion device 120 shown in FIG. 10 . FIGS. 17 to 21 show transitions of data stored in the frame buffer FB1 (123-1) to the frame buffer FBn (123-n).

図22乃至図26は、ブロックが時間方向間引き処理を施されたブロック(図7のブロック105,106に相当)である場合のブロックデータを、図10に示す画像変換装置120において復元する処理について説明する。図22乃至図26は、フレームバッファFB1(123−1)〜フレームバッファFBn(123−n)の格納データの遷移を示している。ここで、各フレームバッファは表1に示したように対応付けられているとする。   FIGS. 22 to 26 show processing for restoring block data in the image conversion apparatus 120 shown in FIG. 10 when the block is a block that has been subjected to thinning processing in the time direction (corresponding to the blocks 105 and 106 in FIG. 7). explain. 22 to 26 show transitions of data stored in the frame buffer FB1 (123-1) to the frame buffer FBn (123-n). Here, it is assumed that each frame buffer is associated as shown in Table 1.

図22乃至図26において、各図(a)に示すデータが入力部121から与えられる各フレームの2つの隣り合うブロック、第1ブロック=(x16,y0)〜(x19,y3)、第2ブロック=(x20,y0)〜(x23,y3)の標本点データからなる圧縮画像データであり、
図22=第1フレーム、
図23=第2フレーム、
図24=第3フレーム、
図25=第4フレーム、
図26=第5フレーム、
を示している。
それぞれは、時間方向間引き処理を施されている。時間方向間引きの結果、第2フレーム(図23(a))〜第4フレーム(図25(a))には有効画素(標本点)が存在しない。第1フレーム(図22(a))と、第5フレーム(図26(a))はブロック内画素がすべて有効画素として設定されている。
22 to 26, two adjacent blocks of each frame in which the data shown in each figure (a) is given from the input unit 121, first block = (x16, y0) to (x19, y3), second block = Compressed image data consisting of sample point data of (x20, y0) to (x23, y3),
FIG. 22 = first frame,
FIG. 23 = second frame,
FIG. 24 = third frame,
FIG. 25 = fourth frame,
FIG. 26 = fifth frame,
Is shown.
Each is thinned in the time direction. As a result of thinning out in the time direction, there is no effective pixel (sample point) in the second frame (FIG. 23A) to the fourth frame (FIG. 25A). In the first frame (FIG. 22A) and the fifth frame (FIG. 26A), all the pixels in the block are set as effective pixels.

図22は、ステップS1においてフレームバッファが初期化された後の最初のフレーム(第1フレームと呼ぶ)における処理を示している。図22(a)は、入力部121から与えられる2つの隣り合うブロックの標本点データからなる圧縮画像データを表しており、これらのブロックが時間方向間引き処理を施されている場合には、図7に示したように、第1フレームの4×4画素のブロックの全画素が有効となっている。   FIG. 22 shows processing in the first frame (referred to as the first frame) after the frame buffer is initialized in step S1. FIG. 22A shows compressed image data composed of sample point data of two adjacent blocks given from the input unit 121, and when these blocks have been subjected to time direction decimation processing, FIG. As shown in FIG. 7, all the pixels of the 4 × 4 pixel block in the first frame are valid.

図22(b)は、現在フレーム(第1フレーム)処理時のフレームバッファFB1(FB123−1)のデータを示している。フレームバッファは、前述のように原画像に対して縦横2倍の画素数を持っている。現在フレームにおいては、ブロック位置は入力画像の位置と同じであるため、入力画像データの有効画素アドレスを縦横共に2倍にしたアドレスに画素値を書き込む。   FIG. 22B shows data in the frame buffer FB1 (FB123-1) at the time of processing the current frame (first frame). As described above, the frame buffer has twice as many pixels as the original image. Since the block position is the same as the position of the input image in the current frame, the pixel value is written at an address obtained by doubling the effective pixel address of the input image data both vertically and horizontally.

図22(c)は、+1フレーム(第2フレーム)に対するフレームバッファFB2(123−2)に書き込まれるデータを示している。図22の例では、動きベクトルvは右方向に0.5(pixel/frame)である。したがって、次フレームにおける当該ブロックの位置は、現在フレームにおけるブロック位置から右方向に0.5画素だけ移動した位置であり、フレームバッファFB1(123−1)の書き込みデータに対して動きベクトルv分の(0.5×2)画素移動を行って算出されるアドレスに従って、フレームバッファFB2(123−2)に対して図17(a)に示す入力画像データの有効画素の対応画素値を書き込む。 FIG. 22C shows data written to the frame buffer FB2 (123-2) for +1 frame (second frame). In the example of FIG. 22, the motion vector v 2 is 0.5 (pixel / frame) in the right direction. Therefore, the position of the block in the next frame is a position shifted by 0.5 pixels in the right direction from the block position in the current frame, and the motion vector v 2 minutes with respect to the write data in the frame buffer FB1 (123-1). The corresponding pixel value of the effective pixel of the input image data shown in FIG. 17A is written in the frame buffer FB2 (123-2) according to the address calculated by performing the (0.5 × 2) pixel movement.

図22(d)は、+2フレーム(第3フレーム)に対するフレームバッファのデータを示している。2フレーム後における当該ブロックの位置は、現在フレームにおけるブロック位置から、右方向に2vだけ移動した位置である。フレームバッファにおけるアドレスは、+1フレームにおけるフレームバッファのアドレスからさらに右方向に1画素移動した位置であり、この算出アドレスに従って、フレームバッファFB3(123−3)に対して図22(a)に示す入力画像データの有効画素の対応画素値を書き込む。 FIG. 22D shows frame buffer data for +2 frames (third frame). The position of the block after two frames is a position moved by 2v 2 in the right direction from the block position in the current frame. The address in the frame buffer is a position moved by one pixel further to the right from the address of the frame buffer in the +1 frame. According to this calculated address, the input shown in FIG. 22A is input to the frame buffer FB3 (123-3). The corresponding pixel value of the effective pixel of the image data is written.

図22(e)は、+(n−1)フレーム(第nフレーム)に対するフレームバッファのデータを示している。n−1フレーム後における当該ブロックの位置は、現在フレームにおけるブロック位置から、右方向に(n−1)vだけ移動した位置である。フレームバッファにおけるアドレスは、現在フレームにおけるフレームバッファのアドレスから右方向に(n−1)×1画素移動した位置であり、この算出アドレスに従って、フレームバッファFBn(123−n)に対して図22(a)に示す入力画像データの有効画素の対応画素値を書き込む。 FIG. 22 (e) shows frame buffer data for + (n-1) frames (nth frame). The position of the block after n−1 frames is a position moved by (n−1) v 2 in the right direction from the block position in the current frame. The address in the frame buffer is a position shifted by (n−1) × 1 pixel in the right direction from the address of the frame buffer in the current frame. According to this calculated address, the frame buffer FBn (123-n) is moved as shown in FIG. The corresponding pixel value of the effective pixel of the input image data shown in a) is written.

図23は、第2フレームにおける処理を示している。また、図24は、第3フレームにおける処理、図25は、第4フレームにおける処理を示している。図22乃至図26の例は、当該ブロックが時間方向間引き処理を施されている場合であるので、第2フレーム乃至第4フレームでは時間方向間引き処理によって有効画素が存在しない(図23(a),図24(a),図25(a))。従って、これらのフレームにおいては、上述の図18と同様にフレームバッファの現フレームシフト処理(表1参照)だけが行われ、新たなデータは書き込まれない。   FIG. 23 shows processing in the second frame. FIG. 24 shows processing in the third frame, and FIG. 25 shows processing in the fourth frame. Since the example of FIGS. 22 to 26 is a case where the block is subjected to the time direction thinning process, there is no effective pixel in the second frame to the fourth frame by the time direction thinning process (FIG. 23A). , FIG. 24 (a), FIG. 25 (a)). Accordingly, in these frames, only the current frame shift processing (see Table 1) of the frame buffer is performed as in FIG. 18 described above, and new data is not written.

図26は、第5フレームにおける処理を示している。第5フレームでは、第1フレームと同様に入力部121から与えられるブロックの全画素が有効となっている。   FIG. 26 shows processing in the fifth frame. In the fifth frame, as in the first frame, all the pixels of the block provided from the input unit 121 are valid.

図26(b)は、現在フレーム(第5フレーム)に対するフレームバッファFB5(123−5)のデータを示している。ここで、フレームバッファは、第4フレーム処理後のデータが書き込まれている。第2〜第4フレームには、有効画素が存在しないため第1フレームの有効画素データのみが書き込まれている。4フレーム分のシフト処理(1画素/フレーム)が実行されているので、第1フレームのデータは、フレームバッファFB1(123−1)のアドレスx=2x18、2x19、2x20、2x21、2x22、2x23、2x24、2x25、の各列に存在する。 FIG. 26B shows data in the frame buffer FB5 (123-5) for the current frame (fifth frame). Here, data after the fourth frame processing is written in the frame buffer. Since there are no effective pixels in the second to fourth frames, only the effective pixel data of the first frame is written. Since the shift process (1 pixel / frame) for 4 frames is executed, the data of the first frame is the address x = 2x 18 , 2x 19 , 2x 20 , 2x 21 , of the frame buffer FB1 (123-1), 2x 22 , 2x 23 , 2x 24 and 2x 25 .

一方、現在フレーム(第5フレーム)のフレームバッファFB5(123−5)に対する書き込みアドレスは、x=2x16、2x17、2x18、2x19、2x20、2x21、2x22、2x23の各列となる。 On the other hand, the write address for the frame buffer FB5 (123-5) of the current frame (fifth frame), each of x = 2x 16, 2x 17, 2x 18, 2x 19, 2x 20, 2x 21, 2x 22, 2x 23 It becomes a column.

従って、x=2x18、2x19、2x20、2x21、2x22、2x23の各列に対するデータ書き込みに際しては、加算処理部122−1において、既に書き込み済みの第1フレームのデータの画素値と、現在フレーム(第5フレーム)の画素値との加算平均処理を実行した後、加算平均値の書き込みが実行されることになる。x=2x16、2x17、の各列には、現在フレーム(第5フレーム)の画素値が書き込まれる。 Therefore, when data is written to each column of x = 2x 18 , 2x 19 , 2x 20 , 2x 21 , 2x 22 , 2x 23 , the pixel value of the first frame data that has already been written in the addition processing unit 122-1. Then, after the addition average processing with the pixel value of the current frame (fifth frame) is executed, the addition average value is written. The pixel value of the current frame (fifth frame) is written in each column of x = 2x 16 and 2x 17 .

図26(c)は、+1フレーム(第6フレーム)に対するフレームバッファのデータを示しており、図26(d)は、+2フレーム(第7フレーム)に対するフレームバッファのデータを示している。これらは、図26(b)のフレームバッファと同様の処理、すなわち、書き込みアドレスの位置に書き込み済みデータが存在する場合は、その値と現在フレーム(第5フレーム)の画素値との加算平均処理を実行した後、加算平均値の書き込みを実行する。書き込みアドレスの位置に書き込み済みデータが存在しない場合には、現在フレーム(第5フレーム)の画素値書き込みを行う。   FIG. 26C shows the frame buffer data for the +1 frame (sixth frame), and FIG. 26D shows the frame buffer data for the +2 frame (seventh frame). These are the same processes as the frame buffer of FIG. 26B, that is, when written data exists at the position of the write address, the averaging process of the value and the pixel value of the current frame (fifth frame) After executing, write the addition average value. When there is no written data at the position of the write address, the pixel value is written in the current frame (fifth frame).

図26(e)は、+(n−1)フレーム(第n+4フレーム)のフレームバッファのデータを示しており、ここには、書き込み済みデータがないので、動きベクトルvに基づいて算出したアドレス位置に現在フレーム(第5フレーム)の画素値書き込みを行う。 FIG. 26 (e) shows frame buffer data of + (n−1) frames (n + 4th frame). Since there is no written data, the address calculated based on the motion vector v 2 is shown here. The pixel value of the current frame (fifth frame) is written at the position.

次に、補間部124の動作について、図27乃至図29を用いて説明する。図27は、空間方向間引き処理を施されたブロック(図12乃至図16の実施例)において、第5フレームの画像を復元する補間処理を示している。図27(a)は、第5フレームにおける入力画像データ(図16(a)と同じ)であり、図27(b)は、第5フレームの処理後(ステップS9後)における選択部127で選択されたフレームバッファのデータ(図16(b)と同じ)を示している。   Next, the operation of the interpolation unit 124 will be described with reference to FIGS. FIG. 27 shows an interpolation process for restoring the image of the fifth frame in the block subjected to the spatial direction thinning process (the embodiment in FIGS. 12 to 16). FIG. 27A shows the input image data in the fifth frame (the same as FIG. 16A), and FIG. 27B shows the selection by the selection unit 127 after the processing of the fifth frame (after step S9). The frame buffer data (same as FIG. 16B) is shown.

図27(b)に示す第5フレームの処理後(ステップS9後)における選択部127で選択されたフレームバッファのデータ(図16(b)と同じ)には、第1〜第5フレームの有効画素値データに基づいて記録されたデータが格納されている。なお、適用バッファ数nに応じてフレームバッファに格納されているデータ量は異なることになるが、ここでは、5フレーム分のデータがバッファに格納されているものとして説明する。   In the data of the frame buffer selected by the selection unit 127 after processing the fifth frame (after step S9) shown in FIG. 27B (same as FIG. 16B), the first to fifth frames are valid. Data recorded based on the pixel value data is stored. Although the amount of data stored in the frame buffer differs depending on the number of applied buffers n, here, description will be made assuming that data for five frames is stored in the buffer.

補間部124は、フレームバッファの格納データに基づいて、標本点データの欠落した画素値を周囲画素値に基づいて補間する処理を実行する。図27(c)は、(b)図のフレームバッファを縦横1/2に縮小したものである。前述したように、フレームバッファ1〜n(121−1〜n)は、入力画素データの縦横2倍の画素数の記憶領域を有し、補間部124は、この記憶領域の画素データを本来の入力画素データ対応の大きさに縮小する処理を実行する。図27(b)に示す4画素領域を図27(c)の1画素領域に縮小する。   The interpolation unit 124 executes a process of interpolating the pixel value lacking the sample point data based on the surrounding pixel values based on the data stored in the frame buffer. FIG. 27C shows the frame buffer shown in FIG. As described above, the frame buffers 1 to n (121-1 to n) have a storage area having twice as many pixels as the input pixel data, and the interpolation unit 124 converts the pixel data of the storage area into the original pixel data. A process of reducing to a size corresponding to the input pixel data is executed. The 4-pixel area shown in FIG. 27B is reduced to the 1-pixel area shown in FIG.

図27に示す例では、(c)に示す縮小画像の1画素に相当する(b)フレームバッファの4画素において、複数の有効データが存在する部分がないが、4画素中に複数の有効データがある場合には、それらの加算平均値を縮小画像の画素値とする。   In the example shown in FIG. 27, there is no portion where a plurality of valid data exists in four pixels of the frame buffer corresponding to one pixel of the reduced image shown in (c), but a plurality of valid data in four pixels. If there is, the added average value is used as the pixel value of the reduced image.

図27(c)では、x=x,x,x,x,x13,x14の各アドレスにおいて画素欠落が生じている。補間部124は、これらの欠落画素を動きベクトルの方向に従って補間処理を行う。具体的には、当該ブロックの動きベクトルは水平方向であるため、たとえばx=xの列については、x=xとx=xの各画素を用いて水平方向のみの補間処理を行う。 In FIG. 27C, pixel loss occurs at each address of x = x 0 , x 2 , x 4 , x 9 , x 13 , x 14 . The interpolation unit 124 performs interpolation processing on these missing pixels according to the direction of the motion vector. Specifically, since the motion vector of the block is the horizontal direction, for example x = x 2 columns, performs interpolation processing in the horizontal direction only by using each pixel of x = x 1 and x = x 3 .

具体的には、図27(c)において、x=xとx=xの各画素の画素値が、それぞれ、
(x,y)の画素値=α1、
(x,y)の画素値=α2、
(x,y)の画素値=α3、
(x,y)の画素値=α4、
(x,y)の画素値=β1、
(x,y)の画素値=β2、
(x,y)の画素値=β3、
(x,y)の画素値=β4、
であるとき、x=2xの画素値は、
(x,y)の画素値=(α1+β1)/2、
(x,y)の画素値=(α2+β2)/2、
(x,y)の画素値=(α3+β3)/2、
(x,y)の画素値=(α4+β4)/2、
として、補間部124において、加算平均値が算出され、x=2xの画素値を設定する。
Specifically, in FIG. 27C, the pixel values of each pixel of x = x 1 and x = x 3 are respectively
Pixel value of (x 1 , y 0 ) = α1,
Pixel value of (x 1 , y 1 ) = α2,
Pixel value of (x 1 , y 2 ) = α3,
Pixel value of (x 1 , y 3 ) = α4,
Pixel value of (x 3 , y 0 ) = β1,
Pixel value of (x 3 , y 1 ) = β2,
Pixel value of (x 3 , y 2 ) = β3,
Pixel value of (x 3 , y 3 ) = β4,
When it is, the pixel values of x = 2x 2 is
Pixel value of (x 1 , y 0 ) = (α1 + β1) / 2,
Pixel value of (x 1 , y 1 ) = (α2 + β2) / 2,
(X 1, y 2) of the pixel value = (α3 + β3) / 2 ,
Pixel value of (x 1 , y 3 ) = (α4 + β4) / 2,
As, in the interpolation section 124, arithmetic mean value is calculated, the pixel value of a x = 2x 2.

また、欠落画素が2画素以上連続する場合(例えばx=x13,x14の列)には、動き方向の両端の画素を用いて線形補間する。また、欠落画素の片側にしか画素値が無い場合(例えばx=xの列)には、動き方向の画素値がある端の画素値ですべての欠落画素を埋める。図27(d)は補間処理後のデータを示しており、すべての画素値が揃った画像が生成される。 Further, if the missing pixels are continuous two pixels or more (e.g., columns of x = x 13, x 14) , linear interpolation using the two ends of the pixels of the motion direction. Further, if there is no pixel value only on one side of the missing pixel (e.g. x = column of x 0), fill all the missing pixel in the pixel values of the edge with the pixel value of the motion direction. FIG. 27D shows data after interpolation processing, and an image in which all pixel values are aligned is generated.

図27(d)において、
x=xの列の画素値は、x=xの列の画素値によって決定され、
x=xの列の画素値は、x=xとx=xの列の画素値によって決定され、
x=xの列の画素値は、x=xとx=xの列の画素値によって決定され、
x=x13とx=x14の列の画素値は、x=x12とx=x15の列の画素値によって決定される。
In FIG. 27 (d),
The pixel value of the column of x = x 0 is determined by the pixel value of the column of x = x 1
pixel values of a column of x = x 2 is determined by x = x 1 and x = pixel value of a column of x 3,
pixel values of a column of x = x 4 is determined by x = x 3 and x = pixel value of a column of x 5,
pixel values of a column of x = x 13 and x = x 14 is determined by the pixel values of a column of x = x 12 and x = x 15.

なお、本実施例では、入力の隣り合う2つのブロックについてのみ説明しているが、実際には、その周囲には異なるブロックが存在するため、フレームバッファにはそれらのブロックの有効画素値も書き込まれる。   In this embodiment, only two blocks adjacent to each other are described. However, since there are actually different blocks around them, the effective pixel values of those blocks are also written in the frame buffer. It is.

図28は、空間方向間引き、および時間方向間引き処理を施されたブロック(図17乃至図21の実施例)において、第5フレームにおける画像を復元するための補間処理を示している。図28(a)は、第5フレームにおける入力画像データ(図21(a)と同じ)であり、図27(b)は、第5フレームの処理後(ステップS9後)における選択部127で選択されたフレームバッファのデータ(図21(b)と同じ)を示している。   FIG. 28 shows an interpolation process for restoring an image in the fifth frame in the block subjected to the spatial direction thinning process and the time direction thinning process (the embodiment in FIGS. 17 to 21). FIG. 28A shows the input image data in the fifth frame (same as FIG. 21A), and FIG. 27B shows the selection by the selection unit 127 after the processing of the fifth frame (after step S9). The frame buffer data (same as FIG. 21B) is shown.

図27の場合と同様に、図28(c)はフレームバッファのデータを縦横1/2に縮小したデータであり、図28(d)は、(c)図における欠落画素を水平方向の補間処理により補間した結果を示している。   As in the case of FIG. 27, FIG. 28C shows data obtained by reducing the frame buffer data to ½ in the vertical and horizontal directions, and FIG. 28D shows an interpolation process in the horizontal direction for the missing pixels in FIG. Shows the result of interpolation.

図28(c)では、x=x,x19,x21,x22,x23の各アドレスにおいて画素欠落が生じている。補間部124は、これらの欠落画素を動きベクトルの方向に従って補間処理を行う。具体的には、当該ブロックの動きベクトルは水平方向であるため、たとえばx=xの列については、x=xとx=x30の各画素を用いて水平方向のみの補間処理を行う。x=x19の列については、x=x18とx=x20の各画素を用いて水平方向のみの補間処理を行う。x=x21〜x23の列については、x=x20の画素を用いて水平方向のみの補間処理を行う。 In FIG. 28C, pixel loss occurs at each address of x = x 9 , x 19 , x 21 , x 22 , x 23 . The interpolation unit 124 performs interpolation processing on these missing pixels according to the direction of the motion vector. Specifically, since the motion vector of the block is in the horizontal direction, for example, for the column of x = x 9 , interpolation processing only in the horizontal direction is performed using each pixel of x = x 8 and x = x 30. . For the column of x = x 19 , interpolation processing only in the horizontal direction is performed using each pixel of x = x 18 and x = x 20 . For the column of x = x 21 to x 23 , interpolation processing only in the horizontal direction is performed using pixels of x = x 20 .

図29は、時間方向間引き処理を施されたブロック(図22乃至図26の実施例)において、第5フレームにおける画像を復元するための補間処理を示している。図29(a)は、第5フレームにおける入力画像データ(図26(a)と同じ)であり、図29(b)は、第5フレームの処理後(ステップS9後)における選択部127で選択されたフレームバッファのデータ(図26(b)と同じ)を示している。図27の場合と同様に、図29(c)はフレームバッファのデータを縦横1/2に縮小したデータであり、図29(d)は、(c)図における欠落画素を水平方向の補間処理により補間した結果を示している。   FIG. 29 shows an interpolation process for restoring an image in the fifth frame in the block subjected to the time direction thinning process (the embodiment in FIGS. 22 to 26). FIG. 29A shows input image data in the fifth frame (same as FIG. 26A), and FIG. 29B shows selection by the selection unit 127 after processing the fifth frame (after step S9). The frame buffer data (same as FIG. 26B) is shown. As in the case of FIG. 27, FIG. 29 (c) shows data obtained by reducing the frame buffer data to 1/2 in the vertical and horizontal directions, and FIG. 29 (d) shows a horizontal interpolation process for the missing pixels in FIG. Shows the result of interpolation.

図29(c)では、x=x26〜x31の各アドレスにおいて画素欠落が生じている。補間部124は、これらの欠落画素を動きベクトルの方向に従って補間処理を行う。具体的には、当該ブロックの動きベクトルは水平方向であるため、x=x26〜x31の列については、x=x25の画素を用いて水平方向のみの補間処理を行う。 In FIG. 29 (c), pixel missing occurs in the address of x = x 26 ~x 31. The interpolation unit 124 performs interpolation processing on these missing pixels according to the direction of the motion vector. Specifically, since the motion vector of the block is the horizontal direction, the columns of x = x 26 ~x 31, performs an interpolation process only in the horizontal direction by using the pixels of x = x 25.

なお、上述の例では、補間部124は、動き方向に並行な方向にある画素値を適用した補間処理例を示したが、欠落画素の上下左右の4画素、あるいは周囲7画素にある有効画素値を適用した補間処理を行なう構成としてもよい。   In the above-described example, the interpolation unit 124 has shown an example of interpolation processing in which pixel values in a direction parallel to the motion direction are applied. However, effective pixels in four pixels above, below, left, and right of the missing pixel, or in the surrounding seven pixels. A configuration may be adopted in which interpolation processing using values is performed.

図30は、補間部124における補間処理の詳細を説明する図である。図30(a)は、処理ブロックが水平方向の動きベクトルを有している場合の欠落画素の補間処理を示している。この場合には、補間部124は、欠落画素の左右の最近傍画素を用いて線形補間処理を行う例である。x=x,xの列の画素値は、x=x,xの列の画素値に基づいて線形補間される。 FIG. 30 is a diagram for explaining the details of the interpolation processing in the interpolation unit 124. FIG. 30A shows interpolation processing of missing pixels when the processing block has a horizontal motion vector. In this case, the interpolation unit 124 is an example in which linear interpolation processing is performed using the nearest pixels on the left and right of the missing pixel. The pixel values of the columns x = x 1 and x 2 are linearly interpolated based on the pixel values of the columns x = x 0 and x 3 .

図30(b)は、処理ブロックが垂直方向の動きベクトルを有している場合の欠落画素の補間処理を示している。この場合には、補間部124は、欠落画素の上下の最近傍画素を用いて線形補間処理を行う例である。y=y,yの行の画素値は、y=y,yの列の画素値に基づいて線形補間される。 FIG. 30B shows a missing pixel interpolation process when the processing block has a vertical motion vector. In this case, the interpolation unit 124 is an example in which linear interpolation processing is performed using the nearest neighboring pixels above and below the missing pixel. The pixel values in the row of y = y 1 , y 2 are linearly interpolated based on the pixel values in the column of y = y 0 , y 3 .

図30(c)は、処理ブロックが全く動いていない場合の欠落画素の補間処理を示している。この場合には、補間部124は、欠落画素の上下左右の最近傍画素を用いて、それぞれの方向で、線形補間を実行し、その2つの結果をさらに平均化する。   FIG. 30C shows the interpolation processing of missing pixels when the processing block is not moving at all. In this case, the interpolation unit 124 performs linear interpolation in each direction using the nearest pixels above, below, left, and right of the missing pixel, and further averages the two results.

図30(d)は、処理ブロックが水平方向の動きベクトルを有しており、欠落画素の左側に有効画素が無い場合の補間処理を示している。この場合には、補間部124は、欠落画素の右側の最近傍画素の値をそのまま欠落画素の値とする。x=x〜xの列の画素値は、x=xの列の画素値に設定される。なお、欠落画素の右側に有効画素が無い場合には、左側の最近傍画素値を欠落画素の値とする。また、当該ブロックが垂直方向の動きベクトルを有しており、欠落画素の上側に有効画素が無い場合には、下側の最近傍画素を欠落画素の値とする。同様に下側に有効画素がない場合には、上側の最近傍画素を欠落画素の値とする。 FIG. 30D shows the interpolation processing when the processing block has a horizontal motion vector and there is no effective pixel on the left side of the missing pixel. In this case, the interpolation unit 124 uses the value of the nearest pixel on the right side of the missing pixel as the missing pixel value as it is. The pixel value of the column of x = x 0 to x 2 is set to the pixel value of the column of x = x 3 . When there is no effective pixel on the right side of the missing pixel, the nearest pixel value on the left side is set as the missing pixel value. If the block has a vertical motion vector and there is no effective pixel above the missing pixel, the lower nearest pixel is set as the missing pixel value. Similarly, when there is no effective pixel on the lower side, the uppermost nearest pixel is set as the missing pixel value.

なお、上述の実施例では、動画像変換装置120のフレームバッファFB1〜n(123−1〜n)に過去フレームの有効画素値を書き込んで、現在フレームの画素値算出処理を実行する例として説明したが、現在フレームの未来フレームにおける有効画素値を適用する構成としてもよい。   In the above-described embodiment, an example in which the effective pixel values of the past frame are written in the frame buffers FB1 to n (123-1 to n) of the moving image conversion apparatus 120 and the pixel value calculation process of the current frame is executed will be described. However, the effective pixel value in the future frame of the current frame may be applied.

図10に示した動画像変換装置120におけるフレームバッファ数n中、過去のフレームに対するデータを格納するフレームバッファ数をb、未来のフレームのデータを格納するフレームバッファ数をf、現在の処理フレーム対応のフレームバッファ数1として設定する。すなわち、
n=b+f+1
となる。
Of the number n of frame buffers in the moving image conversion apparatus 120 shown in FIG. 10, b represents the number of frame buffers for storing data for past frames, f represents the number of frame buffers for storing data for future frames, and corresponds to the current processing frame. The number of frame buffers is set as 1. That is,
n = b + f + 1
It becomes.

このような設定例では、アドレス変換部126は、処理対象ブロックに対応する動きベクトルを加算することにより未来のフレームに対する有効画素のアドレスを求めると同時に、当該ブロックの動きベクトルを減算することにより過去のフレームに対する有効画素のアドレスを求める。以下に示す表2はフレームバッファの切り替え動作を説明した表である。

Figure 0004412062
In such a setting example, the address conversion unit 126 obtains an effective pixel address for the future frame by adding the motion vector corresponding to the processing target block, and at the same time, subtracts the motion vector of the block. The effective pixel address for the frame is obtained. Table 2 shown below is a table explaining the switching operation of the frame buffer.
Figure 0004412062

第1フレームの処理時において、現在フレームにおける画素値は、フレームバッファFB(b+1)に書き込まれる。未来のフレームに対する画素値は、フレームバッファFB(b+2)乃至フレームバッファFB(f+b+1)に書き込まれる。一方、過去のフレームに対する画素値は、フレームバッファFB1乃至フレームバッファFB(b)に書き込まれる。このとき、未来の+1フレームから+fフレームまでの書き込みの動作は、図12乃至図26と同様である。一方、過去の−1フレームから−bフレームまでの書き込みは、図12乃至図26の動作において動きベクトルをx方向、y方向共に反転した場合と同様である。   During the processing of the first frame, the pixel value in the current frame is written into the frame buffer FB (b + 1). Pixel values for future frames are written in the frame buffer FB (b + 2) to the frame buffer FB (f + b + 1). On the other hand, pixel values for past frames are written in the frame buffers FB1 to FB (b). At this time, the writing operation from the future +1 frame to the + f frame is the same as in FIGS. On the other hand, the writing from the past -1 frame to the -b frame is the same as the case where the motion vector is reversed in both the x direction and the y direction in the operation of FIGS.

選択部127は、必ず最も古いフレームに対するフレームバッファを選択するように制御される。表2の例では、−bフレームが選択フレームとなる。選択部127において選択されたフレームバッファのデータが、補間部124にて補間処理され、出力部125から出力されるため、本実施例においては、出力画像は入力画像に対してbフレームだけ遅延することになる。   The selection unit 127 is controlled to select the frame buffer for the oldest frame without fail. In the example of Table 2, the −b frame is the selected frame. Since the data in the frame buffer selected by the selection unit 127 is interpolated by the interpolation unit 124 and output from the output unit 125, the output image is delayed by b frames with respect to the input image in this embodiment. It will be.

なお、上述した処理例では、理解を容易にするため水平方向のみの動きベクトルに対応する処理例として説明したが、前述したように、実際の動画像の処理においては、垂直方向の動きベクトルに対しても上述した処理と同様の処理が可能である。また、水平方向と垂直方向の両方の動きベクトルを適用して2次元処理を実行することで、2次元方向のあらゆる動きベクトルに対応した処理が可能である。   In the processing example described above, the processing example corresponding to the motion vector only in the horizontal direction has been described for easy understanding. However, as described above, in the actual moving image processing, the motion vector in the vertical direction is converted to the motion vector in the vertical direction. In contrast, the same processing as described above can be performed. Further, by executing two-dimensional processing by applying both horizontal and vertical motion vectors, processing corresponding to all motion vectors in the two-dimensional direction is possible.

以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。   The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present invention. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims should be taken into consideration.

また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。   The series of processing described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.

例えば、プログラムは記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することができる。   For example, the program can be recorded in advance on a hard disk or ROM (Read Only Memory) as a recording medium. Alternatively, the program is temporarily or permanently stored on a removable recording medium such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. It can be stored (recorded). Such a removable recording medium can be provided as so-called package software.

なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。   The program is installed on the computer from the removable recording medium as described above, or is wirelessly transferred from the download site to the computer, or is wired to the computer via a network such as a LAN (Local Area Network) or the Internet. The computer can receive the program transferred in this manner and install it on a recording medium such as a built-in hard disk.

なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Note that the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary. Further, in this specification, the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.

以上、説明したように、本発明の構成によれば、空間方向の間引き処理や時間方向の間引き処理などによって画素データが間引かれた圧縮データの復元処理において、ブロックの動きベクトルなどの動き情報に基づいて算出されるブロックの移動位置を反映させて複数フレームに渡る同一ブロックのデータをフレームバッファに蓄積し、蓄積した複数の異なるフレームの標本点データに基づいてデータ復元を実行する構成としたので、1つのフレームにおいて欠落している画素値を異なるフレームのデータに基づいて取得することが可能となり、各フレームの画素値再現率の向上が可能となる。この結果、より原画像に近い高品質な動画像復元が実現される。   As described above, according to the configuration of the present invention, in decompression processing of compressed data in which pixel data is thinned out by a thinning process in a spatial direction or a thinning process in a time direction, motion information such as a motion vector of a block The data of the same block over a plurality of frames is accumulated in the frame buffer reflecting the movement position of the block calculated based on the data, and the data recovery is executed based on the accumulated sample point data of a plurality of different frames. Therefore, it is possible to acquire pixel values missing in one frame based on data of different frames, and it is possible to improve the pixel value reproduction rate of each frame. As a result, high-quality moving image restoration closer to the original image is realized.

従来の構成においては、復元データの再生字、間引き処理によって失われた画素データに基づくジャギー(空間集周波数の折り返し)が目立つという問題があったが、本発明によれば、各フレームの画素値再現率が向上されるので、例えばスローモーション再生などのようにオリジナル動画像の再生レートと異なるレートでの再生処理においても、ジャギーの発生を抑制することが可能となりオリジナルデータに近い高品質なデータ再生が実現される。   In the conventional configuration, there is a problem that jaggies (folding of the spatial frequency collection) based on the reproduced data of the restored data and the pixel data lost by the thinning process are conspicuous. However, according to the present invention, the pixel value of each frame Since the reproducibility is improved, high-quality data close to the original data can be suppressed even in playback processing at a rate different from the playback rate of the original moving image, such as slow motion playback. Playback is realized.

超解像効果を利用したデータ変換を実行する動画像変換装置の基本構成を示す図である。It is a figure which shows the basic composition of the moving image converter which performs the data conversion using a super-resolution effect. 超解像効果を利用したデータ変換を実行する動画像変換装置の基本構成の詳細を示す図である。It is a figure which shows the detail of the basic composition of the moving image converter which performs the data conversion using a super-resolution effect. 動画像変換装置におけるブロック処理部の処理について説明する図である。It is a figure explaining the process of the block process part in a moving image converter. 動画像変換装置におけるブロック処理部の処理について説明する図である。It is a figure explaining the process of the block process part in a moving image converter. 動画像変換装置におけるブロック処理部の処理について説明する図である。It is a figure explaining the process of the block process part in a moving image converter. 動画像変換装置におけるブロック処理部の処理について説明する図である。It is a figure explaining the process of the block process part in a moving image converter. 動画像変換装置におけるブロック処理部の処理結果の一例について説明する図である。It is a figure explaining an example of the process result of the block process part in a moving image converter. 移動被写体に対する水平方向の空間間引き処理の処理例、および原画像の復元処理について説明する図である。It is a figure explaining the process example of the horizontal space thinning process with respect to a moving subject, and the decompression | restoration process of an original image. 移動被写体に対する水平方向の空間間引き処理を間引き位置をフレーム毎に変更した処理例、および原画像の復元処理について説明する図である。It is a figure explaining the process example which changed the thinning position for every frame, and the restoration process of an original image in the horizontal space thinning process with respect to a moving subject. 動画像圧縮データからの復元処理を実行する画像変換装置の構成を示す図である。It is a figure which shows the structure of the image converter which performs the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理を実行する画像変換処理シーケンスを説明するフロー図である。It is a flowchart explaining the image conversion process sequence which performs the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理におけるフレームバッファ格納データの遷移を説明する図である。It is a figure explaining the transition of the frame buffer storage data in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理におけるフレームバッファ格納データの遷移を説明する図である。It is a figure explaining the transition of the frame buffer storage data in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理におけるフレームバッファ格納データの遷移を説明する図である。It is a figure explaining the transition of the frame buffer storage data in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理におけるフレームバッファ格納データの遷移を説明する図である。It is a figure explaining the transition of the frame buffer storage data in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理におけるフレームバッファ格納データの遷移を説明する図である。It is a figure explaining the transition of the frame buffer storage data in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理におけるフレームバッファ格納データの遷移を説明する図である。It is a figure explaining the transition of the frame buffer storage data in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理におけるフレームバッファ格納データの遷移を説明する図である。It is a figure explaining the transition of the frame buffer storage data in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理におけるフレームバッファ格納データの遷移を説明する図である。It is a figure explaining the transition of the frame buffer storage data in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理におけるフレームバッファ格納データの遷移を説明する図である。It is a figure explaining the transition of the frame buffer storage data in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理におけるフレームバッファ格納データの遷移を説明する図である。It is a figure explaining the transition of the frame buffer storage data in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理におけるフレームバッファ格納データの遷移を説明する図である。It is a figure explaining the transition of the frame buffer storage data in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理におけるフレームバッファ格納データの遷移を説明する図である。It is a figure explaining the transition of the frame buffer storage data in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理におけるフレームバッファ格納データの遷移を説明する図である。It is a figure explaining the transition of the frame buffer storage data in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理におけるフレームバッファ格納データの遷移を説明する図である。It is a figure explaining the transition of the frame buffer storage data in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理におけるフレームバッファ格納データの遷移を説明する図である。It is a figure explaining the transition of the frame buffer storage data in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理における補間処理例を説明する図である。It is a figure explaining the example of the interpolation process in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理における補間処理例を説明する図である。It is a figure explaining the example of the interpolation process in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理における補間処理例を説明する図である。It is a figure explaining the example of the interpolation process in the decompression | restoration process from moving image compression data. 動画像圧縮データからの復元処理における補間処理の態様を説明する図である。It is a figure explaining the aspect of the interpolation process in the decompression | restoration process from moving image compression data.

符号の説明Explanation of symbols

10 画像変換装置
11 ブロック分割部
12 移動量検出部
13 ブロック処理部
14 出力部
21 画像蓄積部
22 ブロック分割部
31 移動量検出部
32 ブロック分配部
51〜53 ブロック処理部
101〜116 ブロック
120 画像変換装置
121 入力部
122 加算処理部
123 フレームバッファ
124 補間部
125 出力部
126 アドレス変換部
127 選択部
DESCRIPTION OF SYMBOLS 10 Image converter 11 Block division part 12 Movement amount detection part 13 Block processing part 14 Output part 21 Image storage part 22 Block division part 31 Movement amount detection part 32 Block distribution part 51-53 Block processing part 101-116 Block 120 Image conversion Device 121 Input unit 122 Addition processing unit 123 Frame buffer 124 Interpolation unit 125 Output unit 126 Address conversion unit 127 Selection unit

Claims (13)

動画像圧縮データの復元処理を実行する動画像変換装置であり、
動画像を構成するフレームに含まれる領域としてのブロック単位の圧縮データを入力する入力部と、
前記圧縮データに含まれる動き情報、または前記圧縮データから算出される動き情報に基づいて時間軸上の異なるフレームにおけるブロック位置を算出し、該算出位置に対応するアドレスをフレーム対応のフレームバッファアクセス用アドレスとして算出するアドレス変換部と、
前記アドレス変換部の算出したフレーム対応のアドレスによって指定されるメモリ位置に各フレーム対応のブロック圧縮データに含まれる画素値または該画素値に基づく算出値を格納するフレーム対応の複数のフレームバッファと、
前記フレームバッファの格納データに基づいて複数の異なるフレームの標本点データに基づく復元ブロックを生成する補間部と、
前記補間部の生成した復元ブロックによって構成される動画像フレームデータを出力する出力部とを有し、
前記複数のフレームバッファは、復元処理対象フレームと、復元処理対象フレームに時間軸上で先行するフレームまたは後続するフレームの少なくともいずれかの複数フレームに渡る画素値または該画素値に基づく算出値の重複書き込みがなされる構成であることを特徴とする動画像変換装置。
A moving image conversion apparatus that executes a moving image compressed data restoration process,
An input unit for inputting compressed data in units of blocks as an area included in a frame constituting a moving image;
A block position in a different frame on the time axis is calculated based on motion information included in the compressed data or motion information calculated from the compressed data, and an address corresponding to the calculated position is used for frame buffer access corresponding to the frame. An address conversion unit that calculates an address;
A plurality of frame buffers corresponding to frames for storing pixel values included in block compressed data corresponding to each frame or calculated values based on the pixel values at a memory location specified by an address corresponding to the frame calculated by the address conversion unit;
An interpolation unit that generates a restoration block based on sample point data of a plurality of different frames based on data stored in the frame buffer;
An output unit that outputs moving image frame data constituted by the restoration block generated by the interpolation unit ;
The plurality of frame buffers include a restoration processing target frame, a pixel value over at least one of a frame preceding or following the restoration processing target frame on a time axis, or an overlap of calculated values based on the pixel value A moving image conversion apparatus having a configuration in which writing is performed .
前記動画像変換装置は、さらに、
前記アドレス変換部の算出したフレーム対応アドレスによって指定されるフレームバッファのメモリ位置に書き込み済みの画素値データが存在する場合、該画素値データと、処理フレーム対応のブロック圧縮データに含まれる画素値との加算平均値を算出する加算処理部を有し、
該加算処理部において算出した加算平均値を前記フレーム対応アドレスによって指定されるメモリ位置に書き込む処理を実行する構成であることを特徴とする請求項1に記載の動画像変換装置。
The moving image conversion device further includes:
When there is already written pixel value data at the memory location of the frame buffer specified by the frame corresponding address calculated by the address conversion unit, the pixel value data and the pixel value included in the block compressed data corresponding to the processing frame An addition processing unit for calculating the addition average value of
The moving image conversion apparatus according to claim 1, wherein the moving image conversion apparatus is configured to execute a process of writing the addition average value calculated by the addition processing unit into a memory location specified by the frame corresponding address.
前記アドレス変換部は、
ブロックの動き情報として、フレーム単位のブロック移動情報を示す動きベクトルを入力し、該動きベクトルに基づいて時間軸上の異なるフレームにおけるブロック位置を算出し、該算出位置に対応するアドレスを各フレーム対応のアドレスとして算出する構成であることを特徴とする請求項1に記載の動画像変換装置。
The address conversion unit
A motion vector indicating block movement information in units of frames is input as the motion information of the block, the block position in a different frame on the time axis is calculated based on the motion vector, and the address corresponding to the calculated position corresponds to each frame The moving image conversion apparatus according to claim 1, wherein the moving image conversion apparatus is configured to calculate the address of the moving image.
前記補間部は、
ブロック構成データ中、前記標本点データの欠落した画素値を、ブロック対応の動き情報に含まれる動き方向と平行な方向の画素値に基づいて補間する処理を実行する構成であることを特徴とする請求項1に記載の動画像変換装置。
The interpolation unit
The block configuration data is configured to execute a process of interpolating a pixel value missing from the sample point data based on a pixel value in a direction parallel to the motion direction included in the motion information corresponding to the block. The moving image conversion apparatus according to claim 1.
前記補間部は、
ブロック構成データ中、前記標本点データの欠落した画素値を、前記フレームバッファの格納データにおけるブロック構成データ中の欠落画素値を、該欠落画素の周囲画素値に基づいて補間する処理を実行する構成であることを特徴とする請求項1に記載の動画像変換装置。
The interpolation unit
A configuration for executing a process of interpolating a missing pixel value of the sample point data in the block configuration data and a missing pixel value in the block configuration data in the data stored in the frame buffer based on a surrounding pixel value of the missing pixel in the block configuration data The moving image conversion apparatus according to claim 1, wherein:
前記動画像変換装置は、さらに、
前記補間部に対する出力データの切り替え処理として、補間部に対する出力データを格納したフレームバッファを順次切り替える処理を実行する選択部を有する構成であることを特徴とする請求項1に記載の動画像変換装置。
The moving image conversion device further includes:
2. The moving image conversion apparatus according to claim 1, further comprising a selection unit that executes a process of sequentially switching a frame buffer storing output data for the interpolation unit as the output data switching process for the interpolation unit. .
動画像圧縮データの復元処理を実行する動画像変換方法であり、
動画像を構成するフレームに含まれる領域としてのブロック単位の圧縮データを入力する入力ステップと、
前記圧縮データに含まれる動き情報、または前記圧縮データから算出される動き情報に基づいて時間軸上の異なるフレームにおけるブロック位置を算出し、該算出位置に対応するアドレスをフレーム対応のフレームバッファアクセス用アドレスとして算出するアドレス変換ステップと、
複数のフレームバッファの各々に対するデータ格納ステップであり、前記アドレス変換ステップにおいて算出したフレーム対応のアドレスによってアクセスされる各フレームバッファのメモリ位置に、各フレーム対応のブロック圧縮データに含まれる画素値または該画素値に基づく算出値を格納するデータ格納ステップと、
前記フレームバッファの格納データに基づいて複数の異なるフレームの標本点データに基づく復元ブロックを生成する補間ステップと、
前記補間ステップにおいて生成した復元ブロックによって構成される動画像フレームデータを出力する出力ステップとを有し、
前記データ格納ステップは、
前記複数のフレームバッファに対して、復元処理対象フレームと、復元処理対象フレームに時間軸上で先行するフレームまたは後続するフレームの少なくともいずれかの複数フレームに渡る画素値または該画素値に基づく算出値の重複書き込みを実行するステップであることを特徴とする動画像変換方法。
It is a moving image conversion method for executing a moving image compressed data restoration process,
An input step for inputting compressed data in units of blocks as an area included in a frame constituting a moving image;
A block position in a different frame on the time axis is calculated based on motion information included in the compressed data or motion information calculated from the compressed data, and an address corresponding to the calculated position is used for frame buffer access corresponding to the frame. An address conversion step to calculate as an address;
A data storing step for each of a plurality of frame buffers, wherein a pixel value included in the block compressed data corresponding to each frame or the memory location of each frame buffer accessed by the address corresponding to the frame calculated in the address converting step A data storage step for storing a calculated value based on the pixel value;
An interpolation step for generating a restoration block based on sample point data of a plurality of different frames based on the data stored in the frame buffer;
An output step of outputting moving image frame data constituted by the restoration block generated in the interpolation step ;
The data storing step includes
For the plurality of frame buffers, a pixel value over a plurality of frames of at least one of a restoration processing target frame and a frame preceding or following the restoration processing target frame on a time axis, or a calculated value based on the pixel value A moving image conversion method characterized in that it is a step of executing redundant writing .
前記動画像変換方法は、さらに、
前記アドレス変換ステップにおいて算出したフレーム対応アドレスによって指定されるフレームバッファのメモリ位置に書き込み済みの画素値データが存在する場合、該画素値データと、処理フレーム対応のブロック圧縮データに含まれる画素値との加算平均値を算出する加算処理ステップを有し、
前記データ格納ステップは、
前記加算処理ステップにおいて算出した加算平均値を前記フレーム対応アドレスによって指定されるメモリ位置に書き込む処理を実行するステップであることを特徴とする請求項に記載の動画像変換方法。
The moving image conversion method further includes:
When written pixel value data exists in the memory location of the frame buffer specified by the frame corresponding address calculated in the address conversion step, the pixel value data and the pixel value included in the block compressed data corresponding to the processing frame An addition processing step for calculating an addition average value of
The data storing step includes
8. The moving image conversion method according to claim 7 , wherein the moving image conversion method is a step of executing a process of writing the addition average value calculated in the addition processing step into a memory location specified by the frame corresponding address.
前記アドレス変換ステップは、
ブロックの動き情報として、フレーム単位のブロック移動情報を示す動きベクトルを入力し、該動きベクトルに基づいて時間軸上の異なるフレームにおけるブロック位置を算出し、該算出位置に対応するアドレスを各フレーム対応のアドレスとして算出するステップであることを特徴とする請求項に記載の動画像変換方法。
The address conversion step includes:
A motion vector indicating block movement information in units of frames is input as the motion information of the block, the block position in a different frame on the time axis is calculated based on the motion vector, and the address corresponding to the calculated position corresponds to each frame The moving image conversion method according to claim 7 , wherein the moving image conversion method is a step of calculating the address of the moving image.
前記補間ステップは、
ブロック構成データ中、前記標本点データの欠落した画素値を、ブロック対応の動き情報に含まれる動き方向と平行な方向の画素値に基づいて補間する処理を実行するステップを含むことを特徴とする請求項に記載の動画像変換方法。
The interpolation step includes
A step of interpolating a pixel value missing from the sample point data in the block configuration data based on a pixel value in a direction parallel to a motion direction included in the motion information corresponding to the block. The moving image conversion method according to claim 7 .
前記補間ステップは、
ブロック構成データ中、前記標本点データの欠落した画素値を、該欠落画素の周囲画素値に基づいて補間する処理を実行するステップを含むことを特徴とする請求項に記載の動画像変換方法。
The interpolation step includes
The moving image conversion method according to claim 7 , further comprising a step of interpolating a missing pixel value of the sample point data in the block configuration data based on a surrounding pixel value of the missing pixel. .
前記動画像変換方法は、さらに、
前記画素値補間処理を実行する補間部に対する出力データの切り替え処理として、フレームバッファを順次切り替えるフレームバッファ選択ステップを有することを特徴とする請求項に記載の動画像変換方法。
The moving image conversion method further includes:
The moving image conversion method according to claim 7 , further comprising: a frame buffer selection step of sequentially switching frame buffers as output data switching processing for an interpolation unit that performs the pixel value interpolation processing.
動画像圧縮データの復元処理を実行するコンピュータ・プログラムであり、
動画像を構成するフレームに含まれる領域としてのブロック単位の圧縮データを入力する入力ステップと、
前記圧縮データに含まれる動き情報、または前記圧縮データから算出される動き情報に基づいて時間軸上の異なるフレームにおけるブロック位置を算出し、該算出位置に対応するアドレスをフレーム対応のフレームバッファアクセス用アドレスとして算出するアドレス変換ステップと、
複数のフレームバッファの各々に対するデータ格納ステップであり、前記アドレス変換ステップにおいて算出したフレーム対応のアドレスによってアクセスされる各フレームバッファのメモリ位置に、各フレーム対応のブロック圧縮データに含まれる画素値または該画素値に基づく算出値を格納するデータ格納ステップと、
前記フレームバッファの格納データに基づいて複数の異なるフレームの標本点データに基づく復元ブロックを生成する補間ステップと、
前記補間ステップにおいて生成した復元ブロックによって構成される動画像フレームデータを出力する出力ステップとを有し、
前記データ格納ステップは、
前記複数のフレームバッファに対して、復元処理対象フレームと、復元処理対象フレームに時間軸上で先行するフレームまたは後続するフレームの少なくともいずれかの複数フレームに渡る画素値または該画素値に基づく算出値の重複書き込みを実行するステップであることを特徴とするコンピュータ・プログラム。
A computer program for executing a decompression process of compressed moving image data,
An input step for inputting compressed data in units of blocks as an area included in a frame constituting a moving image;
A block position in a different frame on the time axis is calculated based on motion information included in the compressed data or motion information calculated from the compressed data, and an address corresponding to the calculated position is used for frame buffer access corresponding to the frame. An address conversion step to calculate as an address;
A data storage step for each of a plurality of frame buffers, wherein the pixel value included in the block compressed data corresponding to each frame or the memory location of each frame buffer accessed by the address corresponding to the frame calculated in the address conversion step A data storage step for storing a calculated value based on the pixel value;
An interpolation step for generating a restoration block based on sample point data of a plurality of different frames based on the data stored in the frame buffer;
An output step of outputting moving image frame data constituted by the restoration block generated in the interpolation step ;
The data storing step includes
For the plurality of frame buffers, a pixel value over a plurality of frames of at least one of a restoration processing target frame and a frame preceding and following the restoration processing target frame on a time axis, or a calculated value based on the pixel value A computer program characterized in that it is a step of executing redundant writing .
JP2004168487A 2004-06-07 2004-06-07 Moving picture conversion apparatus, moving picture conversion method, and computer program Expired - Fee Related JP4412062B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004168487A JP4412062B2 (en) 2004-06-07 2004-06-07 Moving picture conversion apparatus, moving picture conversion method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004168487A JP4412062B2 (en) 2004-06-07 2004-06-07 Moving picture conversion apparatus, moving picture conversion method, and computer program

Publications (2)

Publication Number Publication Date
JP2005348320A JP2005348320A (en) 2005-12-15
JP4412062B2 true JP4412062B2 (en) 2010-02-10

Family

ID=35500237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004168487A Expired - Fee Related JP4412062B2 (en) 2004-06-07 2004-06-07 Moving picture conversion apparatus, moving picture conversion method, and computer program

Country Status (1)

Country Link
JP (1) JP4412062B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101437162A (en) * 2004-11-19 2009-05-20 株式会社Ntt都科摩 Image decoding apparatus, image decoding method, image encoding apparatus, image encoding program, and image encoding method
CN101341507B (en) 2005-12-01 2012-07-04 株式会社资生堂 Face classification method, face classifier, classification map, face classification program and recording medium having recorded program
JP4876048B2 (en) 2007-09-21 2012-02-15 株式会社日立製作所 Video transmission / reception method, reception device, video storage device
US8086073B2 (en) 2008-02-07 2011-12-27 Seiko Epson Corporation Non-uniform image resizer
JP5566931B2 (en) * 2011-03-17 2014-08-06 株式会社東芝 Image processing apparatus, image processing method, program, and storage medium
JP5747378B2 (en) 2011-03-18 2015-07-15 株式会社日立国際電気 Image transfer system, image transfer method, image receiving apparatus, image transmitting apparatus, and image capturing apparatus
WO2013094259A1 (en) * 2011-12-20 2013-06-27 シャープ株式会社 Display device
WO2013191193A1 (en) * 2012-06-20 2013-12-27 株式会社日立国際電気 Video compression and transmission system

Also Published As

Publication number Publication date
JP2005348320A (en) 2005-12-15

Similar Documents

Publication Publication Date Title
KR101498207B1 (en) Frame rate conversion apparatus and method for ultra-high definition video
US8279919B2 (en) Image processing apparatus
JP5133038B2 (en) Image restoration method and image restoration apparatus
EP2161687B1 (en) Video signal processing device, video signal processing method, and video signal processing program
JP5669523B2 (en) Frame interpolation apparatus and method, program, and recording medium
JP4412062B2 (en) Moving picture conversion apparatus, moving picture conversion method, and computer program
US20100277613A1 (en) Image recording device and image reproduction device
JP2006345446A (en) Moving picture conversion apparatus and moving picture conversion method, and computer program
JP5255089B2 (en) Image processing device
JP5585885B2 (en) Image processing apparatus and image processing method
KR100655040B1 (en) Digital video signal scaling method
JP2006345445A (en) Moving picture conversion apparatus and moving picture conversion method, and computer program
JP4552691B2 (en) Moving picture conversion apparatus, moving picture restoration apparatus and method, and computer program
JP3898546B2 (en) Image scanning conversion method and apparatus
JPH1070679A (en) Frame interpolation method for film mode compatibility
JP2011040004A (en) Image processing apparatus and image processing method
JP2009239698A (en) Video image converting device, and video image converting method
JP2009140393A (en) Video processing device, video display device, video processing method and video display method
JP4049087B2 (en) Motion / stillness determination apparatus and determination method, and image signal processing apparatus and processing method
JP4470324B2 (en) Image signal conversion apparatus and method
JP4431973B2 (en) Moving image processing apparatus and method
JP4779424B2 (en) Moving picture conversion apparatus, moving picture conversion method, and computer program
JP4590975B2 (en) Moving picture conversion apparatus, moving picture restoration apparatus and method, and computer program
US8019172B2 (en) Method and apparatus for increasing the resolution of a data sequence
JP2007074307A (en) Method, apparatus and program of expanding time resolution, and computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090811

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091027

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091109

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees