JP4441865B2 - Image processing method, image processing apparatus, program, and program recording medium - Google Patents

Image processing method, image processing apparatus, program, and program recording medium Download PDF

Info

Publication number
JP4441865B2
JP4441865B2 JP2004268303A JP2004268303A JP4441865B2 JP 4441865 B2 JP4441865 B2 JP 4441865B2 JP 2004268303 A JP2004268303 A JP 2004268303A JP 2004268303 A JP2004268303 A JP 2004268303A JP 4441865 B2 JP4441865 B2 JP 4441865B2
Authority
JP
Japan
Prior art keywords
image data
moving image
time
frame rate
principal component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004268303A
Other languages
Japanese (ja)
Other versions
JP2006086705A (en
Inventor
光晴 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004268303A priority Critical patent/JP4441865B2/en
Publication of JP2006086705A publication Critical patent/JP2006086705A/en
Application granted granted Critical
Publication of JP4441865B2 publication Critical patent/JP4441865B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Image Analysis (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce data by taking into account the visual effect of human eyes. <P>SOLUTION: The image processing method includes steps of: filtering moving picture data at a frame rate of 1/t<SB>o</SB>and applying 1/4-down-sampling to the moving picture data in a time direction by using a region R<SB>1101</SB>, extended in a principal component direction of the moving picture data at the frame rate of 1/t<SB>o</SB>and including a particular width 2&pi;/(4t<SB>0</SB>) in a direction of a frequency axis T in the time direction in a frequency domain defined by the frequency axis T in the time direction and frequency axes X, Y in a space direction, for a pass band to obtain moving picture data at a frame rate of 1/(4t<SB>0</SB>); determining the region R<SB>1101</SB>extended in the principal component direction of the moving picture data at the frame rate of 1/(4t<SB>0</SB>) to be the pass band; and applying up-sampling in the time direction to the moving picture data at the frame rate of 1/(4t<SB>0</SB>) while applying filtering with the pass band of R<SB>1101</SB>to the moving picture data to obtain moving picture data at the frame rate of 1/t<SB>0</SB>. The present invention can be applied to processing of moving pictures at a high frame rate. <P>COPYRIGHT: (C)2006,JPO&amp;NCIPI

Description

本発明は、画像処理方法および画像処理装置、並びに、プログラムおよびプログラム記録媒に関し、特に、例えば、人間の目の視覚効果を考慮した動画データの削減を行うことができるようにする画像処理方法および画像処理装置、並びに、プログラムおよびプログラム記録媒に関する。 The present invention relates to an image processing method and image processing apparatus, and a program and a program recording medium thereof, in particular, for example, an image processing method capable of performing reduction of the moving image data in consideration of visual effect of the human eye and an image processing apparatus, and a program and a program recording medium thereof.

従来、動画(動画像)データは、毎秒30乃至60フレーム(30乃至60fps(Frame per second))程度のフレームレートで録画(記録)され、再生される。しかしながら、この程度のフレームレートでは、人間の視覚において、動被写体(動いている被写体)がぼけた画像に知覚されてしまうため、人間にとって、良好な画質が得られているとは言えなかった。   Conventionally, moving image (moving image) data is recorded (recorded) and reproduced at a frame rate of about 30 to 60 frames per second (30 to 60 fps (Frame per second)). However, at such a frame rate, a moving subject (moving subject) is perceived as a blurred image in human vision, and thus it cannot be said that good image quality is obtained for humans.

ところで、動画データを、240fps程度のフレームレートで記録し、再生すると、人間にとって良好な画質が得られることが知られている。   By the way, it is known that when moving image data is recorded and reproduced at a frame rate of about 240 fps, image quality good for human beings can be obtained.

240fpsのフレームレートの動画データは、240fpsの高フレームレートに対応した表示装置によって表示することができ、さらに、例えば、フレームを間引き、フレームレートを低下させることによって、30fpsや60fpsなどの低フレームレートの表示装置で表示することもできる。   Video data with a frame rate of 240 fps can be displayed on a display device that supports a high frame rate of 240 fps, and further, for example, by thinning out frames and reducing the frame rate, a low frame rate such as 30 fps or 60 fps It can also be displayed on the display device.

しかしながら、240fpsのフレームレートの動画データのフレームを単純に間引いた場合には、画像において、動きの滑らかさが損なわれることになる。   However, when the frames of moving image data having a frame rate of 240 fps are simply thinned out, the smoothness of the motion is lost in the image.

そこで、特許文献1には、高フレームレートの動画データの単純に間引くのではなく、高フレームレートの動画データの複数フレームの平均値を、低フレームレートの動画データとする方法が提案されている。さらに、特許文献1では、高フレームレートの動画データを、複数のフレームレートに対応する複数の階層に階層符号化する方法も提案されている。   Therefore, Patent Document 1 proposes a method in which an average value of a plurality of frames of high frame rate moving image data is used as low frame rate moving image data, instead of simply thinning out high frame rate moving image data. . Further, Patent Document 1 proposes a method of hierarchically encoding high frame rate moving image data into a plurality of layers corresponding to a plurality of frame rates.

ここで、例えば、120fpsの階層と、60fpsの階層との2階層の階層符号化が行われる場合には、例えば、120fpsの動画データの、あるフレームのデータD1と、次のフレームのデータD2との平均値(D1+D2)/2が、60fpsの階層の動画データとされ、データD1とD2のうちの一方のうちの、例えば、データD1だけが、120fpsの階層の動画データとされる。この場合、データD2は、60fpsの階層の動画データ(D1+D2)/2と、120fpsの階層の動画データD1とから求めることができる。 Here, for example, when two-layer encoding of a 120 fps layer and a 60 fps layer is performed, for example, data D 1 of a certain frame and data D of the next frame of 120 fps moving image data are used. average of 2 (D 1 + D 2) / 2 is set to the hierarchy of the moving image data of 60 fps, of one of the data D 1 and D 2, and the example, only the data D 1 is 120 fps hierarchy Video data. In this case, the data D 2 is the moving image data of 60fps hierarchy (D 1 + D 2) / 2, it can be obtained from the moving picture data D 1 Metropolitan of 120fps hierarchy.

ところで、上述したように、240fpsなどの高フレームレートの動画データによれば、良好な画質を得ることができるが、240fpsの動画データは、従来の30fpsや60fpsの動画データに比較して、単純には、8倍や4倍の膨大なデータ量になる。このデータ量は、上述の階層符号化を行っても変わらない。そして、動画データのデータ量が膨大であることは、その動画データのデータ処理の負荷を大にし、また、動画データの伝送や記録に好ましいことではない。   As described above, high-frame-rate video data such as 240 fps can provide good image quality, but 240 fps video data is simpler than conventional 30-fps or 60-fps video data. The amount of data is 8 times or 4 times larger. This data amount does not change even when the above-described hierarchical encoding is performed. An enormous amount of moving image data increases the data processing load of the moving image data, and is not preferable for transmission or recording of moving image data.

特開2004-088244号公報。JP 2004-088244 A.

本発明は、このような状況に鑑みてなされたものであり、人間の目の視覚効果を考慮した動画データの削減を行うことができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to reduce moving image data in consideration of the visual effect of the human eye.

本発明の第1の画像処理方法は、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、動画データの第1主成分の方向である主成分方向を検出する主成分方向検出ステップと、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する領域決定ステップと、フィルタの通過帯域を、フィルタ情報として出力する出力ステップとを含む画像処理方法である。 The first image processing method of the present invention detects a principal component direction that is a direction of a first principal component of moving image data on a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction. The principal component direction detection step and the region extending in the principal component direction in the frequency domain and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction are determined as the passband of the filter. This is an image processing method including an area determining step to output and an output step of outputting the pass band of the filter as filter information .

本発明の第1の画像処理装置は、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、動画データの第1主成分の方向である主成分方向を検出する主成分方向検出手段と、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定し、フィルタ情報として出力する領域決定手段とを備える画像処理装置である。 The first image processing apparatus of the present invention detects a principal component direction that is a direction of a first principal component of moving image data on a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction. The principal component direction detection means and the region extending in the principal component direction in the frequency domain and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction are determined as the passband of the filter. And an area determination means for outputting as filter information .

本発明の第1のプログラムは、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、動画データの第1主成分の方向である主成分方向を検出する主成分方向検出ステップと、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する領域決定ステップと、フィルタの通過帯域を、フィルタ情報として出力する出力ステップとを含む画像処理をコンピュータに実行させるプログラムである。 A first program of the present invention is a principal component for detecting a principal component direction which is a direction of a first principal component of moving image data on a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction. A direction detection step and a region that extends in the main component direction in the frequency domain and has a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction as a pass band of the filter A program for causing a computer to execute image processing including a determination step and an output step of outputting the pass band of the filter as filter information .

本発明の第1のプログラム記録媒体に記録されているプログラムは、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、動画データの第1主成分の方向である主成分方向を検出する主成分方向検出ステップと、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する領域決定ステップと、フィルタの通過帯域を、フィルタ情報として出力する出力ステップとを含む画像処理をコンピュータに実行させるプログラムである。 The program recorded on the first program recording medium of the present invention is the direction of the first main component of the moving image data on the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. A principal component direction detection step for detecting a principal component direction, and a region extending in the principal component direction in the frequency domain and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction, A program for causing a computer to execute image processing including an area determining step for determining a pass band of a filter and an output step for outputting the pass band of the filter as filter information .

本発明の第2の画像処理方法は、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、第2のフレームレートの動画データを得るフィルタステップと、フィルタステップで得られた第2のフレームレートの動画データを出力する出力ステップとを含む画像処理方法である。 The second image processing method of the present invention is a principal component that is the direction of the first principal component of the moving image data of the first frame rate in the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. The first frame rate moving image data is filtered using the region extending in the direction and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction, and in the time direction. An image processing method including a filtering step of obtaining moving image data having a second frame rate by down-sampling, and an output step of outputting moving image data having a second frame rate obtained in the filtering step .

本発明の第2の画像処理装置は、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、第2のフレームレートの動画データを得るフィルタ手段を備える画像処理装置である。 The second image processing apparatus of the present invention is a principal component that is the direction of the first principal component of the moving image data of the first frame rate in the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. The first frame rate moving image data is filtered using the region extending in the direction and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction, and in the time direction. The image processing apparatus includes a filter unit that obtains moving image data having a second frame rate by down-sampling .

本発明の第2のプログラムは、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、第2のフレームレートの動画データを得るフィルタステップと、フィルタステップで得られた第2のフレームレートの動画データを出力する出力ステップとを含む画像処理をコンピュータに実行させるプログラムである。 The second program of the present invention is arranged in a principal component direction that is a direction of the first principal component of the moving image data of the first frame rate in the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. The first frame rate video data is filtered and the down-sampling is performed in the time direction using a region extending as a pass band in the direction of the frequency axis in the time direction and having a specific width corresponding to the visual integration function. By doing so, the program causes the computer to execute image processing including a filter step of obtaining moving image data of the second frame rate and an output step of outputting moving image data of the second frame rate obtained in the filtering step. .

本発明の第2のプログラム記録媒体に記録されているプログラムは、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、第2のフレームレートの動画データを得るフィルタステップと、フィルタステップで得られた第2のフレームレートの動画データを出力する出力ステップとを含む画像処理をコンピュータに実行させるプログラムである。 The program recorded on the second program recording medium of the present invention is a first principal component of moving image data having a first frame rate in a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction. The moving image data of the first frame rate is filtered using a region extending in the principal component direction, which is a direction, and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction. In addition, the image processing includes a filter step of obtaining moving image data of the second frame rate by down-sampling in the time direction, and an output step of outputting moving image data of the second frame rate obtained in the filtering step Is a program that causes a computer to execute.

本発明の第3の画像処理方法は、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得ステップと、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定ステップと、第2のフレームレートの動画データに対して、通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、第1のフレームレートの動画データを得るフィルタステップとを含む画像処理方法である。 The third image processing method of the present invention is the direction of the first principal component of the moving image data of the second frame rate on the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. A principal component direction acquisition step for acquiring a principal component direction, and a region extending in the principal component direction in the frequency domain and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction, By performing upsampling in the time direction while applying a passband determining step for determining the passband of the filter and applying a filter that passes the frequency component of the passband to the moving image data of the second frame rate, And a filter step for obtaining moving image data of one frame rate .

本発明の第3の画像処理装置は、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得手段と、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定手段と、第2のフレームレートの動画データに対して、通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、第1のフレームレートの動画データを得るフィルタ手段とを備える画像処理装置である。 The third image processing apparatus of the present invention is the direction of the first main component of the moving image data of the second frame rate on the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. A principal component direction acquisition means for acquiring a principal component direction; and a region extending in the principal component direction in the frequency domain, and having a specific width according to a visual integration function in the direction of the frequency axis in the time direction, By performing upsampling in the time direction while applying a passband determining means that determines the passband of the filter and a filter that passes the frequency component of the passband to the moving image data of the second frame rate, An image processing apparatus comprising: filter means for obtaining moving image data having a frame rate of 1 .

本発明の第3のプログラムは、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得ステップと、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定ステップと、第2のフレームレートの動画データに対して、通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、第1のフレームレートの動画データを得るフィルタステップとを含む画像処理をコンピュータに実行させるプログラムである。 The third program of the present invention is a principal component that is the direction of the first principal component of the moving image data of the second frame rate on the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. A main component direction acquisition step for acquiring a direction, and a region extending in the main component direction in the frequency domain and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction. By performing upsampling in the time direction while applying a passband determination step for determining the passband and a filter that passes the frequency component of the passband to the moving image data of the second frame rate, A program for causing a computer to execute image processing including a filter step for obtaining frame rate moving image data .

本発明の第3のプログラム記録媒体に記録されているプログラムは、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得ステップと、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定ステップと、第2のフレームレートの動画データに対して、通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、第1のフレームレートの動画データを得るフィルタステップとを含む画像処理をコンピュータに実行させるプログラムである。 The program recorded on the third program recording medium of the present invention is the first of the moving image data of the second frame rate on the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction . A principal component direction acquisition step for acquiring a principal component direction, which is a principal component direction, and a region extending in the principal component direction in the frequency domain, and a specific direction corresponding to a visual integration function in the direction of the frequency axis in the time direction Up-sampling in the time direction while applying a pass band determining step for determining a region having a width as a pass band of the filter and a filter that passes the frequency component of the pass band to moving image data of the second frame rate by performing, professional to execute image processing including a filter to obtain a moving picture data of the first frame rate to the computer It is a lamb.

本発明の第1の画像処理方法および画像処理装置、並びにプログラムおよびプログラム記録媒体においては、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、動画データの第1主成分の方向である主成分方向が検出され、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域が、フィルタの通過帯域として決定される。 In the first image processing method, image processing apparatus, program, and program recording medium of the present invention, the first moving image data on the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction . The principal component direction that is the direction of the principal component is detected, and in the frequency domain, a region that extends in the principal component direction and has a specific width according to the visual integration function in the direction of the frequency axis in the time direction, It is determined as the pass band of the filter.

本発明の第2の画像処理方法および画像処理装置、並びにプログラムおよびプログラム記録媒体においては、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、第2のフレームレートの動画データが得られる。 In the second image processing method, image processing apparatus, program, and program recording medium of the present invention, the moving image having the first frame rate in the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. An area extending in the principal component direction, which is the direction of the first principal component of data, and having a specific width in accordance with the visual integration function in the direction of the frequency axis in the time direction is used as the first frame. The moving image data of the second frame rate is obtained by filtering the moving image data of the rate and down-sampling in the time direction.

本発明の第3の画像処理方法および画像処理装置、並びにプログラムおよびプログラム記録媒体においては、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、第2のフレームレートの動画データの第1主成分の方向である主成分方向が取得され、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域が、フィルタの通過帯域として決定される。そして、第2のフレームレートの動画データに対して、通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、第1のフレームレートの動画データが得られる。 In the third image processing method, image processing apparatus, program, and program recording medium of the present invention, the second frame rate on the frequency domain defined by the time axis in the time direction and the frequency axis in the spatial direction. The principal component direction that is the direction of the first principal component of the moving image data is acquired and is a region extending in the principal component direction in the frequency domain, and is specified in accordance with the visual integration function in the direction of the frequency axis in the time direction. A region having a width is determined as the passband of the filter. Then, the moving image data having the first frame rate is obtained by performing upsampling in the time direction while applying the filter that passes the frequency component of the pass band to the moving image data having the second frame rate.

本発明によれば、データを削減することができる。   According to the present invention, data can be reduced.

次に、本発明の実施の形態について説明する前に、動画について、理論的な事柄を述べておく。   Next, before describing the embodiment of the present invention, a theoretical matter will be described for moving images.

図1は、2次元平面(x,y)に時間方向(t)を加えた3次元空間における動画データを示している。   FIG. 1 shows moving image data in a three-dimensional space in which a time direction (t) is added to a two-dimensional plane (x, y).

図1において、画像P101は、ある時刻(フレーム)の画像であり、画像P102は、その次の時刻の画像であり、画像P103は、さらにその次の時刻の画像である。画像P104は、さらにその次の時刻の画像である。図示を省略したが、画像P101の前の時刻と、画像P104の後の時刻にも、画像が存在する。 In FIG. 1, an image P 101 is an image at a certain time (frame), an image P 102 is an image at the next time, and an image P 103 is an image at the next time. The image P 104 is an image at the next time. Although illustration is omitted, there are also images at a time before the image P 101 and a time after the image P 104 .

図1では、画像P101乃至P104には、時間の経過とともに、y方向に移動する物体(被写体)が写っている。 In FIG. 1, the images P 101 to P 104 show an object (subject) that moves in the y direction over time.

以上のような動画(動画データ)を、人間が見た場合、動画のフレームレートが、あるフレームレート以上であるときには、動画の隣接する2つのフレーム(の画像)の違いを認識することは出来ない。実際に被験者に視覚実験を行った結果、人間が、隣接する2つのフレーム(の画像)の違いを認識することができないフレームレートは、240fps程度以上であることが分かっている。   When a movie such as the above (moving image data) is viewed by a human, when the frame rate of the moving image is higher than a certain frame rate, the difference between two adjacent frames (images) of the moving image can be recognized. Absent. As a result of actually conducting a visual experiment on the subject, it has been found that the frame rate at which a human cannot recognize the difference between two adjacent frames (images) is about 240 fps or more.

ここで、隣接する2つのフレームどうしの間の時間(フレーム周期)を、t0と表すこととすると、フレームレートは、1/t0と表すことができる。 Here, if the time (frame period) between two adjacent frames is expressed as t 0 , the frame rate can be expressed as 1 / t 0 .

なお、以下では、フレーム周期t0は、1/240秒程度として説明を行うが、フレーム周期t0は、1/240秒程度でなくても良く、例えば、1/120秒程度であっても良い。但し、フレーム周期t0が、例えば、1/120秒のように、人間が、隣接する2つのフレーム(の画像)の違いを認識することができないフレーム周期(1/240秒程度)より長い場合には、後述する表示装置3(図24)で表示される動画について、その画質の劣化が、多少、知覚される。 In the following description, the frame period t 0 is about 1/240 seconds. However, the frame period t 0 may not be about 1/240 seconds, for example, about 1/120 seconds. good. However, when the frame period t 0 is longer than the frame period (about 1/240 seconds) in which a human cannot recognize the difference between two adjacent frames (images thereof), for example, 1/120 second. The image quality of the moving image displayed on the display device 3 (FIG. 24) described later is somewhat perceived.

次に、人間の空間方向の認識能力、即ち、近接した2つの点を1つの点ではなく2つの点であると認識(知覚)することができる限界の距離を、r0と表す。 Next, r 0 represents a human's recognition ability in the spatial direction, that is, a limit distance at which two adjacent points can be recognized (perceived) as two points instead of one point.

この場合、人間の視覚によって認識(知覚)することができる動画の範囲は、図2のように表すことができる。   In this case, the range of moving images that can be recognized (perceived) by human vision can be expressed as shown in FIG.

即ち、図2は、時間t方向の周波数軸Tと空間方向x,yの周波数軸X,Yとで定義される周波数ドメインを示している。   That is, FIG. 2 shows a frequency domain defined by the frequency axis T in the time t direction and the frequency axes X and Y in the spatial directions x and y.

なお、図が煩雑になるのを避けるため、図2では、空間方向xの周波数軸Xと空間方向yの周波数軸Yとを、1軸で表してある。即ち、図2では、左から右方向に、周波数軸XとYをとってある。また、図2では、上から下方向に、周波数軸Tをとってある。さらに、図2では、周波数軸T(縦方向)は、2π/(4t0)単位で区切ってあり、周波数軸X,Y方向(横方向)は、2π/r0単位で区切ってある。 In order to avoid complication of the figure, in FIG. 2, the frequency axis X in the spatial direction x and the frequency axis Y in the spatial direction y are represented by one axis. That is, in FIG. 2, the frequency axes X and Y are taken from left to right. In FIG. 2, the frequency axis T is taken from the top to the bottom. Further, in FIG. 2, the frequency axis T (vertical direction) is divided in units of 2π / (4t 0 ), and the frequency axes X and Y directions (lateral direction) are divided in units of 2π / r 0 .

ここで、周波数ドメインの、後述する他の図も、図2と同様になっている。   Here, other diagrams of the frequency domain, which will be described later, are the same as those in FIG.

人間は、図2に示す、横が2×2π/(2r0)で、縦が2×2π/(2r0)の、原点を中心とする領域R201の範囲外にある高周波数成分を認識することができない。そこで、すべての動画データは、領域R201内に存在することとして、以下、説明を行う。 Humans, shown in FIG. 2, in the horizontal is 2 × 2π / (2r 0) , the vertical of 2 × 2π / (2r 0) , recognizes the high frequency components are outside the range of the region R 201 centered at the origin Can not do it. Therefore, the following description will be made assuming that all moving image data exists in the region R201 .

なお、図2では、領域R201を、長方形状の領域として図示してあるが、領域R201は、実際には、直方体状の領域である。即ち、領域R201は、X方向が、−(π/r0)乃至+(π/r0)で、Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域である。 In FIG. 2, the region R 201 is illustrated as a rectangular region, but the region R 201 is actually a rectangular parallelepiped region. That is, the region R 201 has an X direction of − (π / r 0 ) to + (π / r 0 ), a Y direction of − (π / r 0 ) to + (π / r 0 ), and T The direction is a region in the range of − (π / t 0 ) to + (π / t 0 ).

次に、動画の各部分のデータの周波数ドメイン上の位置(分布)について説明する。   Next, the position (distribution) on the frequency domain of the data of each part of the moving image will be described.

動画において、ある部分では、そこに投影されている被写体は静止しており、別の部分では、そこに投影されている被写体は動いている。   In a moving image, a subject projected on a certain portion is stationary, and a subject projected on the moving portion is moving in another portion.

まず、静止している動画の部分(静止している被写体が投影されている動画の部分)は、時間方向に対して変化しない。   First, the stationary moving image portion (the moving image portion on which the stationary subject is projected) does not change with respect to the time direction.

図3は、そのような静止している動画の部分のデータが分布する周波数ドメイン上の領域R301を示している。 FIG. 3 shows a region R 301 on the frequency domain in which data of such a still moving image portion is distributed.

領域R301は、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)で、T方向が−2π/(4t0)乃至+2π/(4t0)の領域になっている。 The region R 301 is a region in which the X and Y directions are −2π / (2r 0 ) to + 2π / (2r 0 ) and the T direction is −2π / (4t 0 ) to + 2π / (4t 0 ). .

なお、動画において完全に静止している部分のデータであれば、T=0であるが、つまり、領域R301はT方向の幅が0であるが、ここでは、被写体が多少動いている場合も考慮して、領域R301は、T方向の幅が0ではなく、2π/(2t0)になっている。また、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)の範囲に制限されるのは、図2で説明したように、動画データの周波数成分は、X,Y方向については、−2π/(2r0)乃至+2π/(2r0)の範囲を超える範囲(図2の領域R201の範囲外)には、存在しないからである。 Note that if the data is a completely stationary part of the video, T = 0, that is, the region R 301 has a width in the T direction of 0, but here the subject is moving slightly. In consideration of the above, the region R 301 has a width in the T direction that is not 0 but 2π / (2t 0 ). The X and Y directions are limited to the range of −2π / (2r 0 ) to + 2π / (2r 0 ) as described with reference to FIG. This is because it does not exist in a range exceeding the range of −2π / (2r 0 ) to + 2π / (2r 0 ) (outside the range of the region R 201 in FIG. 2).

ここで、周波数ドメインにおいて、静止している部分のデータは、T=0の直線(平面)の方向に分布するから、この方向は、静止している部分のデータの主成分(例えば、第1主成分)の方向である。   Here, in the frequency domain, the data of the stationary part is distributed in the direction of the straight line (plane) of T = 0, so this direction is the main component (for example, the first data of the stationary part). Main component) direction.

次に、図4は、動画に投影されている被写体が速度(r0/t0)/2程度で動いている部分のデータが分布する周波数ドメイン上の領域R401を示している。 Next, FIG. 4 shows a region R401 on the frequency domain in which data of a portion where a subject projected on a moving image moves at a speed (r 0 / t 0 ) / 2 is distributed.

ここで、以下、適宜、説明を簡単にするために、周波数ドメイン上の点を、X,Y方向の座標Aと、T方向の座標Bとの2つだけを用いて、(A,B)と表す。   Here, in order to simplify the explanation as appropriate, the points on the frequency domain are expressed by using only two coordinates A and B in the X and Y directions, and (A, B). It expresses.

領域R401は、原点(0,0)から点(π/r0,-π/(2t0))の方向に延びる領域であって、T方向に2π/(2t0)の幅を有する領域になっている。   The region R401 extends from the origin (0,0) to the point (π / r0, −π / (2t0)) and has a width of 2π / (2t0) in the T direction. .

なお、被写体が変形することなく、速度(r0/t0)/2で正確に等速直線運動していれば、領域R401は、T方向の幅が0となるが、ここでは、被写体の多少の変形や、移動速度が(r0/t0)/2から多少ぶれること等を考慮して、T方向の幅が0ではなく、2π/(2t0)になっている。 It should be noted that if the subject does not deform and moves accurately at a constant linear velocity at a speed (r 0 / t 0 ) / 2, the region R401 has a width in the T direction of 0. The width in the T direction is not 0 but 2π / (2t0) in consideration of some deformation and the movement speed slightly deviating from (r 0 / t 0 ) / 2.

また、領域R401は、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)の範囲に制限されているが、これは、領域R301のX,Y方向の範囲が制限されているのと同一の理由による。 In the region R401, the X and Y directions are limited to the range of −2π / (2r 0 ) to + 2π / (2r 0 ), but this is limited to the range of the region R 301 in the X and Y directions. For the same reason that has been done.

ここで、動画に投影されている被写体が速度(r0/t0)/2程度で動いている部分のデータが、原点(0,0)から点(π/r0,-π/(2t0))の方向上に分布するのは、次の理由による。 Here, the data of the portion where the subject projected on the moving image moves at a speed (r 0 / t 0 ) / 2 is obtained from the origin (0,0) to the point (π / r0, −π / (2t0) ) Is distributed for the following reason.

即ち、図5の波形R501は、ある時刻t1における被写体の空間方向xの分布を示している。 That is, the waveform R 501 in FIG. 5 shows the distribution of the subject in the spatial direction x at a certain time t 1 .

被写体が、例えば、速度(r0/t0)/2で、例えば、空間方向xに移動しているとき、その移動している被写体は、波形R501,R502,R503,R504,R505,R506,・・・で表すことができる。 For example, when the subject is moving at a speed (r 0 / t 0 ) / 2, for example, in the spatial direction x, the moving subjects are waveform R 501 , R 502 , R 503 , R 504 , R 505 , R 506 ,...

ここで、波形R501は、ある時刻(フレーム)t1における被写体を表している。波形R502は、波形R501の時刻t1の次の時刻(フレーム)t1+t0における被写体を表しており、波形R501の位置から、r0/2だけ、x方向に移動している。以下、同様に、波形R503,R504,R505,R506は、それぞれ、時刻t1+2t0,t1+3t0,t1+4t0,t1+5t0における被写体を表している。 Here, the waveform R 501 represents the subject at a certain time (frame) t 1 . Waveform R 502 represents a subject at the next time (frame) t 1 + t 0 of time t 1 of the waveform R 501, from the position of the waveform R 501, only r 0/2, moves in the x-direction Yes. Hereinafter, similarly, waveforms R 503 , R 504 , R 505 , and R 506 represent subjects at times t 1 + 2t 0 , t 1 + 3t 0 , t 1 + 4t 0 , and t 1 + 5t 0, respectively . Yes.

図5における波形を空間位置xと時間tの関数と考え、この波形をFunc(x,t)と定義する。図5の波形R501,R502,R503,R504,R505,R506,・・・から明らかなように、Func(x,t)=Func(x-((r0/t0)/2)×t,0)という関係がある。 The waveform in FIG. 5 is considered as a function of the spatial position x and time t, and this waveform is defined as Func (x, t). As is clear from the waveforms R 501 , R 502 , R 503 , R 504 , R 505 , R 506 ,..., Func (x, t) = Func (x − ((r 0 / t 0 ) / 2) × t, 0).

さて、xとtという2つの変数による関数Funcを2次元フーリエ変換した周波数ドメイン上のデータを(X,T)とすると、この(X,T)の成分は、フーリエ変換の定義から明らかなように、空間方向xの周期がXであり、時間方向tの周期がTである成分を表している。 Assuming that the data on the frequency domain obtained by two-dimensional Fourier transform of the function Func with two variables x and t is (X, T), the component of (X, T) is apparent from the definition of Fourier transform. In addition, a component in which the period in the spatial direction x is X and the period in the time direction t is T is represented.

Func(x,t)=Func(x-((r0/t0)/2)×t,0)という関係より、(X,T)は、2次元ベクトル(r0/2, t0)に直交することが言える。 From the relationship Func (x, t) = Func (x − ((r 0 / t 0 ) / 2) × t, 0), (X, T) is a two-dimensional vector (r 0/2 , t 0 ) Can be said to be orthogonal.

今、図5を用いて説明したが、実際には、空間方向は2次元であり、時間軸も加えると3次元となり、3次元フーリエ変換を考えないといけない。そこで、図6を用いて再度説明する。図6では、図1と同様に、3次元上での説明を行うための図である。   Although described with reference to FIG. 5, the spatial direction is actually two-dimensional, and when the time axis is added, it becomes three-dimensional, and a three-dimensional Fourier transform must be considered. Then, it demonstrates again using FIG. FIG. 6 is a diagram for explaining three-dimensionally as in FIG. 1.

図6の2次元空間(x,y)上の波形R601は、ある時刻t1における被写体の空間方向(x,y)の分布を示している。 A waveform R 601 on the two-dimensional space (x, y) in FIG. 6 shows the distribution in the spatial direction (x, y) of the subject at a certain time t 1 .

被写体が、例えば、速度(r0/t0)/2で、移動しているとき、その移動している被写体は、波形R601,R602,R603,R604,・・・で表すことができる。なお、r0は、図5の説明とは違い、2次元空間(x,y)上の2次元ベクトルである。 For example, when the subject is moving at a speed (r 0 / t 0 ) / 2, the moving subject is represented by waveforms R 601 , R 602 , R 603 , R 604,. Can do. Note that r 0 is a two-dimensional vector on a two-dimensional space (x, y) unlike the description of FIG.

ここで、波形R601は、ある時刻(フレーム)t1における被写体を表している。波形R602は、波形R601の時刻t1の次の時刻(フレーム)t1+t0における被写体を表しており、波形R601の位置から、r0/2だけ移動している。以下、同様に、波形R603,R604は、それぞれ、時刻t1+2t0,t1+3t0における被写体を表している。 Here, the waveform R 601 represents the subject at a certain time (frame) t 1 . Waveform R 602 represents a subject at the next time (frame) t 1 + t 0 of time t 1 of the waveform R 601, from the position of the waveform R 601, is moved by r 0/2. Hereinafter, similarly, waveforms R 603 and R 604 represent subjects at times t 1 + 2t 0 and t 1 + 3t 0, respectively.

図6における波形を空間位置(x,y)と時間tの関数と考え、この波形をFunc((x,y),t)と定義する。図6の波形R601,R602,R603,R604,・・・から明らかなように、Func((x,y),t)=Func((x,y)-((r0/t0)/2)×t,0)という関係がある。 The waveform in FIG. 6 is considered as a function of the spatial position (x, y) and time t, and this waveform is defined as Func ((x, y), t). As apparent from the waveforms R 601 , R 602 , R 603 , R 604 ,... In FIG. 6, Func ((x, y), t) = Func ((x, y) − ((r 0 / t 0 ) / 2) × t, 0).

さて、xとyとtという3つの変数による関数Funcを3次元フーリエ変換した周波数ドメイン上のデータを(X,Y,T)とすると、この(X,Y,T)の成分は、フーリエ変換の定義から明らかなように、空間方向xの周期がXであり、空間方向yの周期がYであり、時間方向tの周期がTである成分を表している。   Now, if the data on the frequency domain obtained by three-dimensional Fourier transform of the function Func with three variables x, y and t is (X, Y, T), the component of (X, Y, T) is Fourier transform. As is clear from the definition of FIG. 4, a component in which the period in the spatial direction x is X, the period in the spatial direction y is Y, and the period in the time direction t is T is represented.

Func((x,y),t)=Func((x,y)-((r0/t0)/2)×t,0)という関係より、(X,Y,T)は、3次元ベクトル(r0/2, t0)に直交することが言える。 From the relationship Func ((x, y), t) = Func ((x, y)-((r 0 / t 0 ) / 2) × t, 0), (X, Y, T) is three-dimensional It can be said that it is orthogonal to the vector (r 0/2 , t 0 ).

図5および図6に示したように、(X,T)あるいは(X,Y,T)は、ベクトル(r0/2, t0)に直交するので、例えば、図7に示すように、周波数ドメイン上の点(2π/(2r0),−2π/(4t0))(図7において○印で示す位置)にデータが存在したり、点(2π/(4r0),−2π/(8t0))(図7において△印で示す位置)上にデータが存在する。 As shown in FIGS. 5 and 6, since (X, T) or (X, Y, T) is orthogonal to the vector (r 0/2 , t 0 ), for example, as shown in FIG. There is data at a point (2π / (2r 0 ), −2π / (4t 0 )) (position indicated by a circle in FIG. 7) on the frequency domain, or a point (2π / (4r 0 ), −2π / There is data on (8t 0 )) (the position indicated by Δ in FIG. 7).

即ち、速度(r0/t0)/2で移動している波形は、いずれも原点(0,0)と点(π/r0,-π/(2t0))とを通る直線(平面)R701上に分布する。 That is, each waveform moving at a speed (r 0 / t 0 ) / 2 is a straight line (plane) R passing through the origin (0,0) and the point (π / r0, -π / (2t0)). Distributed on 701 .

速度(r0/t0)/2で動いている部分の、他の周波数成分Xのデータ(波形)も、同様に、直線R701上に分布する。 Similarly, the data (waveform) of the other frequency component X of the portion moving at the speed (r 0 / t 0 ) / 2 is also distributed on the straight line R 701 .

速度(r0/t0)/2で動いている部分は、時間がt0だけ進むと、r0/2だけ空間方向の位置がずれるので、上述のように、周波数ドメイン上において、原点(0,0)と点(π/r0,-π/(2t0))とを通る直線R701上に分布する。 The moving parts at a rate (r 0 / t 0) / 2 , when the time advances by t 0, since r 0/2 only spatial directions position shifts, as described above, in a frequency domain, the origin ( 0,0) and the point (π / r0, -π / ( 2t0) distributed on a straight line R 701 through a).

なお、周波数ドメインにおいて、速度(r0/t0)/2で動いている部分のデータは、直線(平面)R701の方向(π/r0,-π/(2t0))に分布するから、この方向(π/r0,-π/(2t0))は、速度(r0/t0)/2で動いている部分のデータの主成分の方向である。 In the frequency domain, the data of the portion moving at the speed (r 0 / t 0 ) / 2 is distributed in the direction of the straight line (plane) R 701 (π / r0, −π / (2t0)). This direction (π / r0, −π / (2t0)) is the direction of the principal component of the data of the portion moving at the speed (r 0 / t 0 ) / 2.

次に、図8は、動画に投影されている被写体が速度r0/t0程度で動いている部分のデータが分布する周波数ドメイン上の領域R801を示している。 Next, FIG. 8 shows a region R 8 01 on the frequency domain in which data of a portion in which a subject projected on a moving image moves at a speed r 0 / t 0 is distributed.

領域R801は、原点(0,0)から点(π/r0,-π/t0)の方向に延びる領域であって、T方向に2π/(2t0)の幅を有する領域になっている。 The region R 8 01 is a region extending in the direction from the origin (0,0) to the point (π / r0, −π / t0) and having a width of 2π / (2t0) in the T direction. .

即ち、速度r0/t0で動いている部分は、時間がt0だけ進むと、r0だけ空間方向の位置がずれるので、周波数ドメイン上において、原点(0,0)と点(π/r0,-π/t0)とを通る直線上に分布する。 That is, the portion moving at the speed r 0 / t 0 is shifted in position in the spatial direction by r 0 when the time advances by t 0, so that the origin (0,0) and the point (π / r0, -π / t0).

なお、被写体が変形することなく、速度r0/t0で正確に等速直線運動していれば、領域R801は、T方向の幅が0となるが、ここでは、被写体の多少の変形や、移動速度がr0/t0から多少ぶれること等を考慮して、T方向の幅が0ではなく、2π/(2t0)になっている。 Note that if the subject does not deform and moves accurately linearly at a constant velocity r 0 / t 0 , the region R 8 01 has a width of 0 in the T direction. In consideration of deformation and the movement speed slightly deviating from r 0 / t 0 , the width in the T direction is not 0 but 2π / (2t 0).

また、領域R801は、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)の範囲に制限されているが、これは、図3の領域R301のX,Y方向の範囲が制限されているのと同一の理由による。 In the region R 8 01, the X and Y directions are limited to the range of −2π / (2r 0 ) to + 2π / (2r 0 ), which is the same as the region R 301 in FIG. For the same reason that the range of directions is limited.

さらに、領域R801は、T方向が、−2π/(2t0)乃至+2π/(2t0)の範囲に制限されているが、これは、図2で説明したように、動画データの周波数成分は、T方向については、−2π/(2t0)乃至+2π/(2t0)の範囲を超える範囲(図2の領域R201の範囲外)には、存在しないからである。 Further, in the region R 8 01, the T direction is limited to a range of −2π / (2t 0 ) to + 2π / (2t 0 ), which is the frequency of the moving image data as described with reference to FIG. This is because the component does not exist in the T direction beyond the range of −2π / (2t 0 ) to + 2π / (2t 0 ) (outside the range of the region R 201 in FIG. 2).

ここで、周波数ドメインにおいて、速度r0/t0で動いている部分のデータは、原点(0,0)と、点(π/r0,-π/t0)とを通る直線の方向(π/r0,-π/t0)に分布するから、この方向(π/r0,-π/t0)は、速度r0/t0で動いている部分のデータの主成分の方向である。 Here, in the frequency domain, the data of the portion moving at the velocity r 0 / t 0 is the direction of the straight line (π / t) passing through the origin (0,0) and the point (π / r0, −π / t0). r0, -π / t0), this direction (π / r0, -π / t0) is the direction of the main component of the data of the portion moving at the speed r 0 / t 0 .

次に、図9は、動画に投影されている被写体が速度2r0/t0程度で動いている部分のデータが分布する周波数ドメイン上の領域R901を示している。 Next, FIG. 9 shows a region R 9 01 on the frequency domain data of the part object is projected onto a video is moving at about the speed 2r 0 / t 0 is distributed.

領域R901は、原点(0,0)から点(π/r0,-2π/t0)の方向に延びる領域であって、T方向に2π/(2t0)の幅を有する領域になっている。 Region R 9 01 is the point from the origin (0,0) (π / r0, -2π / t0) an area extending in the direction of, and is a region having a width of 2π / (2t0) in the T direction .

即ち、速度2r0/t0で動いている部分は、時間がt0だけ進むと、2r0だけ空間方向の位置がずれるので、周波数ドメイン上において、原点(0,0)と点(π/r0,-2π/t0)とを通る直線上に分布する。 That is, the portion moving at the speed 2r 0 / t 0 is shifted in the spatial direction by 2r 0 when the time advances by t 0, so that the origin (0,0) and the point (π / r0, -2π / t0).

なお、被写体が変形することなく、速度2r0/t0で正確に等速直線運動していれば、領域R901は、T方向の幅が0となるが、ここでは、被写体の多少の変形や、移動速度がr0/t0から多少ぶれること等を考慮して、T方向の幅が0ではなく、2π/(2t0)になっている。 Incidentally, without the subject is deformed, if exactly uniform linear motion at a speed 2r 0 / t 0, the region R 9 01, although the width of the T direction is 0, here, some of the subject In consideration of deformation and the movement speed slightly deviating from r 0 / t 0 , the width in the T direction is not 0 but 2π / (2t 0).

また、領域R901は、T方向が、−2π/(2t0)乃至+2π/(2t0)の範囲に制限されているが、これは、図2で説明したように、動画データの周波数成分は、T方向については、−2π/(2t0)乃至+2π/(2t0)の範囲を超える範囲(図2の領域R201の範囲外)には、存在しないからである。 In the region R 9 01, the T direction is limited to the range of −2π / (2t 0 ) to + 2π / (2t 0 ). This is because the frequency of the moving image data is as described with reference to FIG. This is because the component does not exist in the T direction beyond the range of −2π / (2t 0 ) to + 2π / (2t 0 ) (outside the range of the region R 201 in FIG. 2).

ここで、周波数ドメインにおいて、速度2r0/t0で動いている部分のデータは、原点(0,0)と、点(π/r0,-2π/t0)とを通る直線の方向(π/r0,-2π/t0)に分布するから、この方向(π/r0,-2π/t0)は、速度2r0/t0で動いている部分のデータの主成分の方向である。 Here, in the frequency domain, the data of the portion moving at the speed 2r 0 / t 0 is the direction of the straight line (π / 0) passing through the origin (0,0) and the point (π / r0, -2π / t0). r0, -2π / t0), this direction (π / r0, -2π / t0) is the direction of the main component of the data of the portion moving at the speed 2r 0 / t 0 .

以上、被写体が静止している場合と、被写体が速度(r0/t0)/2,r0/t0,2r0/t0程度で移動している場合それぞれについて、そのような被写体が投影されている動画の部分のデータの、周波数ドメイン上の分布について説明したが、他の速度で移動している部分のデータも、周波数ドメインにおいて、同様に分布する。 As described above, when the subject is stationary, and when the subject is moving at a speed (r 0 / t 0 ) / 2, r 0 / t 0 , 2r 0 / t 0 , such a subject is The distribution on the frequency domain of the data of the portion of the moving image being projected has been described, but the data of the portion moving at other speeds is similarly distributed in the frequency domain.

次に、人間の視覚効果について説明する。   Next, human visual effects will be described.

人間の目は、物体から発せられる光を時間方向に積分して認識している。この人間の目における積分機能(視覚の積分機能)は、ブロックの法則(Bloch’s Law)と言われている。人間の目における光の積分時間は、環境によって異なるが、大体1/60秒程度である。   The human eye recognizes the light emitted from the object by integrating it in the time direction. This integration function (visual integration function) in the human eye is called the Block's Law. The integration time of light in the human eye is approximately 1/60 seconds, although it varies depending on the environment.

ここで、t0を、上述のように、1/240秒程度とすると、人間の目における光の積分時間は、4×t0秒と表すことができる。 Here, if t 0 is about 1/240 seconds as described above, the integration time of light in the human eye can be expressed as 4 × t 0 seconds.

動画の中で静止している被写体が投影されている部分を、人間が視線を動かさずに注視して認識する画像は、視覚の積分機能により、静止している部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 An image in which a stationary subject is projected in a moving image is recognized by a human gaze without moving the line of sight. This is equivalent to an image obtained by filtering with a low-pass filter of about “4 × t 0 ” seconds.

このローパスフィルタの通過帯域は、周波数ドメイン上において、図10に示す領域R1001として表すことができる。 The pass band of this low-pass filter can be represented as a region R 1001 shown in FIG. 10 on the frequency domain.

図10の領域R1001は、X,Y方向の範囲が、図2の領域R201と同一の−2π/(2r0)乃至+2π/(2r0)であり、T方向の範囲が、-(2π/(4t0))/2乃至(2π/(4t0))/2の領域である。この領域R1001のT方向の幅は、2π/(4t0)であるが、これが、4t0の時間の積分を表す。 In the region R 1001 in FIG. 10, the range in the X and Y directions is −2π / (2r 0 ) to + 2π / (2r 0 ), which is the same as the region R 201 in FIG. 2, and the range in the T direction is − ( The region is 2π / (4t 0 )) / 2 to (2π / (4t 0 )) / 2. The width in the T direction of this region R 1001 is 2π / (4t 0 ), which represents the integration of the time of 4t 0 .

動画の静止している部分のデータは、図3に示したように、領域R301内に存在するが、人間は、その領域R301のうちの、領域R1001内の情報(データ)しか認識することができない。従って、領域R301のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 As shown in FIG. 3, the data of the still part of the moving image exists in the region R 301 , but the human recognizes only the information (data) in the region R 1001 in the region R 301. Can not do it. Therefore, information outside the region R 1001 in the region R 301 is useless information for humans.

次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分を、人間が、その被写体が移動する方向に視線を動かしながら注視して認識する画像、即ち、人間が追従視により認識する画像は、視覚の積分機能により、速度「(r0/t0)/2」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, while moving the line of sight in the direction in which the subject moves in the part of the moving image where the subject being projected is moving at a speed of “(r 0 / t 0 ) / 2” An image that is recognized by gazing, that is, an image that a human recognizes by following vision, uses data of a portion moving at a speed of “(r 0 / t 0 ) / 2” in the time direction by a visual integration function. This is equivalent to an image obtained by filtering with a low-pass filter of about “4 × t 0 ” seconds.

但し、いまの場合の追従視では、時間の経過とともに、注視点が速度「(r0/t0)/2」程度で移動するので、ローパスフィルタの通過帯域は、周波数ドメイン上において、図11に示す領域R1101として表すことができる。 However, in the following tracking in this case, the gazing point moves at a speed of about “(r 0 / t 0 ) / 2” with the passage of time. Therefore, the pass band of the low-pass filter is as shown in FIG. Can be represented as a region R 1101 shown in FIG.

図11の領域R1101は、図4の領域R401と同様に、原点(0,0)から点(π/r0,-π/(2t0))の方向に延びる領域である。さらに、領域R1101は、T方向に2π/(4t0)の幅を有する領域であり、これが、4t0の時間の積分を表す。なお、領域R1101は、図2に示した、動画データが存在する領域R201内に制限されている。 A region R 1101 in FIG. 11 is a region extending in the direction from the origin (0,0) to the point (π / r0, −π / (2t0)), similarly to the region R401 in FIG. Further, a region R 1101 is a region having a width of 2π / (4t0) in the T direction, and this represents an integration of time of 4t 0 . Note that the area R 1101 is limited to the area R 201 where the moving image data exists, as shown in FIG.

速度「(r0/t0)/2」程度で移動している部分のデータは、図4に示したように、領域R401内に存在するが、人間は、その領域R401のうちの、領域R1101内の情報しか認識することができない。従って、領域R401のうちの、領域R1101外の情報は、人間にとって無駄な情報である。 Speed "(r 0 / t 0) / 2 " data of the portion moving at a degree, as shown in FIG. 4, are present in the region R 401, human, of its region R 401 Only the information in the region R 1101 can be recognized. Therefore, information outside the region R 1101 in the region R 401 is useless information for humans.

次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分を、人間が追従視を行うことにより認識する画像は、やはり、視覚の積分機能により、速度「r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, the image in which the subject projected on the moving image moves at a speed of about “r 0 / t 0 ” by human follow-up is still the visual integration. This function is equivalent to an image obtained by filtering data of a portion moving at a speed of about “r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.

但し、いまの場合の追従視では、時間の経過とともに、注視点が速度「r0/t0」程度で移動するので、ローパスフィルタの通過帯域は、周波数ドメイン上において、図12に示す領域R1201として表すことができる。 However, in the following tracking in this case, the gazing point moves at a speed of about “r 0 / t 0 ” with the passage of time, so the pass band of the low-pass filter is the region R shown in FIG. 12 on the frequency domain. Can be represented as 1201 .

図12の領域R1201は、図8の領域R801と同様に、原点(0,0)から点(π/r0,-π/t0)の方向に延びる領域である。さらに、領域R1201は、T方向に2π/(4t0)の幅を有する領域であり、これが、4t0の時間の積分を表す。なお、領域R1201は、図2に示した、動画データが存在する領域R201内に制限されている。 Region R 1201 in FIG. 12 is a region extending in the direction from the origin (0, 0) to the point (π / r 0, −π / t 0), similarly to the region R 8 01 in FIG. Further, the region R 1201 is a region having a width of 2π / (4t0) in the T direction, and this represents the integration of time of 4t 0 . Note that the region R 1201 is limited to the region R 201 where the moving image data exists as shown in FIG.

速度「r0/t0」程度で移動している部分のデータは、図8に示したように、領域R801内に存在するが、人間は、その領域R801のうちの、領域R1201内の情報しか認識することができない。従って、領域R801のうちの、領域R1201外の情報は、人間にとって無駄な情報である。 As shown in FIG. 8, the data of the portion moving at the speed “r 0 / t 0 ” is present in the region R 801 , but the human is the region R 1201 in the region R 801. Only the information inside can be recognized. Therefore, information outside the region R 1201 in the region R 801 is useless information for humans.

次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分を、人間が追従視を行うことにより認識する画像は、やはり、視覚の積分機能により、速度「2r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, an image that is recognized by humans following the moving part of the moving subject at a speed of about “2r 0 / t 0 ” in the moving image is still a visual integral. This function is equivalent to an image obtained by filtering data of a portion moving at a speed of about “2r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.

但し、いまの場合の追従視では、時間の経過とともに、注視点が速度「2r0/t0」程度で移動するので、ローパスフィルタの通過帯域は、周波数ドメイン上において、図13に示す領域R1301として表すことができる。 However, in the follow-up view in this case, since the gazing point moves at a speed of about “2r 0 / t 0 ” with time, the pass band of the low-pass filter is the region R shown in FIG. 13 on the frequency domain. Can be represented as 1301 .

図13の領域R1301は、図9の領域R901と同様に、原点(0,0)から点(π/r0,-2π/t0)の方向に延びる領域である。さらに、領域R1301は、T方向に2π/(4t0)の幅を有する領域であり、これが、4t0の時間の積分を表す。なお、領域R1301は、図2に示した、動画データが存在する領域R201内に制限されている。 A region R 1301 in FIG. 13 is a region extending in the direction from the origin (0,0) to the point (π / r0, −2π / t0), similarly to the region R 901 in FIG. Further, the region R 1301 is a region having a width of 2π / (4t0) in the T direction, and this represents the integration of time of 4t 0 . Note that the region R 1301 is limited to the region R 201 where the moving image data exists as shown in FIG.

速度「2r0/t0」程度で移動している部分のデータは、図9に示したように、領域R901内に存在するが、人間は、その領域R901のうちの、領域R1301内の情報しか認識することができない。従って、領域R901のうちの、領域R1301外の情報は、人間にとって無駄な情報である。 As shown in FIG. 9, the data of the portion moving at the speed “2r 0 / t 0 ” exists in the region R 901 , but the human is the region R 1301 in the region R 901. Only the information inside can be recognized. Therefore, information outside the region R 1301 in the region R 901 is useless information for humans.

次に、人間が固定視を行う場合について説明する。ここで、固定視とは、追従視とは違い、被写体の移動とは別の視線移動をする場合で、例えば、人間が視線を動かさないで(見ている方向を常に一定に保って)、動画を見る場合が該当する。   Next, a case where a human performs fixed vision will be described. Here, fixed vision is different from follow-up vision in the case of moving the line of sight different from the movement of the subject. For example, humans do not move the line of sight (keep the viewing direction constant) Applicable when watching a video.

動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分を、人間が固定視することにより認識する画像は、視覚の積分機能により、速度「(r0/t0)/2」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 An image that is recognized by a human fixed view of a moving part of a moving image at a speed of about “(r 0 / t 0 ) / 2” in a moving image is obtained by a visual integration function. This is equivalent to an image obtained by filtering data in a portion moving at a speed of “(r 0 / t 0 ) / 2” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.

このローパスフィルタの通過帯域は、周波数ドメイン上において、静止している部分を注視する場合と同一の領域、即ち、図10の領域R1001で表すことができる。 The pass band of this low-pass filter can be represented by the same region on the frequency domain as the case where a stationary portion is watched, that is, a region R 1001 in FIG.

ここで、図14は、周波数ドメインにおいて、速度「(r0/t0)/2」程度で動いている部分のデータが分布する領域R401(図4)と、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001(図10)とを示している。 Here, FIG. 14 shows a region R 401 (FIG. 4) in which data of a portion moving at a speed of “(r 0 / t 0 ) / 2” in the frequency domain is distributed, and a case where a human performs fixed vision. FIG. 10 shows a region R 1001 (FIG. 10) as a pass band of the low-pass filter.

人間は、領域R401のうちの、領域R1001内の情報、つまり、領域R401とR1001とが重複する部分の領域R1401内の情報しか認識することができない。従って、領域R401のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 Humans, of area R 401, information in the region R 1001, that is, can not be a region R 401 and R 1001 are only recognized information in the region R 1401 of the portions overlapping. Therefore, information outside the region R 1001 in the region R 401 is useless information for humans.

なお、図14において、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001には、動画データが存在する領域R401とは重複しない部分の領域R1402とR1403(図中斜線を付して示す)が存在するが、いまの場合、この領域R1402とR1403には、動画データは存在しない。 In FIG. 14, a region R 1001 as a pass band of the low-pass filter when a human performs fixed vision is a region R 1402 and R 1403 (parts R 1402 and R 1403 in the figure) that do not overlap with the region R 401 where the moving image data exists. In this case, there is no moving image data in the regions R 1402 and R 1403 .

また、上述のように、速度「(r0/t0)/2」程度で動いている部分を、人間が固定視する場合には、人間の視線方向は、動被写体(動いている被写体)の動きとは別の動きをしているので、多少ぼけた画像であっても良好な動画として認識される。 Further, as described above, when a human is fixedly viewing a portion that is moving at a speed of about “(r 0 / t 0 ) / 2”, the human gaze direction is the moving subject (moving subject). Therefore, even a slightly blurred image is recognized as a good moving image.

従って、図14の領域R1401内のデータを、注視点が速度「(r0/t0)/2」程度で移動する場合のローパスフィルタ、即ち、図11の領域R1101を通過帯域として有するローパスフィルタでフィルタリングしても、良好な画質の動画として認識される。 Therefore, the data in the region R 1401 in FIG. 14 has a low-pass filter when the gazing point moves at a speed of “(r 0 / t 0 ) / 2”, that is, the region R 1101 in FIG. Even if it is filtered with a low-pass filter, it is recognized as a moving image with good image quality.

以上から、図15に示すように、領域R1401のうちの、領域R1101と重複する部分の領域R1501(図中黒色で塗りつぶして示す)内のデータがあれば、速度「(r0/t0)/2」程度で動いている部分は、良好な画質の動画として認識される。 From the above, as shown in FIG. 15, if there is data in a region R 1501 of the region R 1401 that overlaps the region R 1101 (shown in black in the drawing), the speed “(r 0 / A portion moving at about t 0 ) / 2 ”is recognized as a moving image with good image quality.

従って、動画において、速度「(r0/t0)/2」程度で動いている部分を、人間が固定視する場合には、その部分のデータ、即ち、領域R401内のデータから、固定視が行われている場合のローパスフィルタの通過帯域としての領域R1001と、注視点が速度「(r0/t0)/2」程度で移動する場合のローパスフィルタの通過帯域としての領域R1101との重複部分の領域R1501を除いた領域のデータは、無駄である(なくても、人間が認識する画質に、ほとんど影響しない)。 Therefore, in the case where a portion of a moving image moving at a speed of “(r 0 / t 0 ) / 2” is fixedly viewed by a human, the data of that portion, that is, the data in the region R 401 is fixed. Region R 1001 as the pass band of the low-pass filter when viewing is performed, and region R as the pass band of the low-pass filter when the gazing point moves at a speed of “(r 0 / t 0 ) / 2” The data in the area excluding the area R 1501 that overlaps the area 1101 is useless (even if it does not, it hardly affects the image quality recognized by humans).

次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分を、人間が固定視することにより認識する画像は、視覚の積分機能により、速度「r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, an image that is recognized by a human fixed view of a moving part of a moving image at a speed of about “r 0 / t 0 ” in a moving image is obtained by a visual integration function, This is equivalent to an image obtained by filtering data in a portion moving at a speed of about “r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.

このローパスフィルタの通過帯域は、周波数ドメイン上において、静止している部分を注視する場合と同一の領域、即ち、図10の領域R1001で表すことができる。 The pass band of this low-pass filter can be represented by the same region on the frequency domain as the case where a stationary portion is watched, that is, a region R 1001 in FIG.

ここで、図16は、周波数ドメインにおいて、速度「r0/t0」程度で動いている部分のデータが分布する領域R801(図8)と、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001(図10)とを示している。 Here, FIG. 16 shows a region R 801 (FIG. 8) in which data of a portion moving at a speed of “r 0 / t 0 ” in the frequency domain is distributed, and a low-pass filter when a human performs fixed vision. A region R 1001 (FIG. 10) as a pass band is shown.

人間は、領域R801のうちの、領域R1001内の情報、つまり、領域R801とR1001とが重複する部分の領域R1601内の情報しか認識することができない。従って、領域R801のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 Humans, of area R 801, information in the region R 1001, that is, can not be a region R 801 and R 1001 are only recognized information in the region R 1601 of the portions overlapping. Therefore, information outside the region R 1001 in the region R 801 is useless information for humans.

なお、図16において、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001には、動画データが存在する領域R801とは重複しない部分の領域R1602とR1603(図中斜線を付して示す)が存在するが、いまの場合、この領域R1602とR1603には、動画データは存在しない。 In FIG. 16, a region R 1001 as a pass band of the low-pass filter when a human performs fixed vision is a portion of regions R 1602 and R 1603 that do not overlap with the region R 801 where moving image data exists (in the drawing) In this case, there is no moving image data in these areas R 1602 and R 1603 .

また、上述のように、速度「r0/t0」程度で動いている部分を、人間が固定視する場合には、人間の視線方向は、動被写体(動いている被写体)の動きとは別の動きをしているので、多少ぼけた画像であっても良好な動画として認識される。 In addition, as described above, when a human is fixedly viewing a portion that is moving at a speed of about “r 0 / t 0 ”, the direction of the human gaze is the movement of the moving subject (moving subject). Since it moves differently, even a slightly blurred image is recognized as a good moving image.

従って、図16の領域R1601内のデータを、注視点が速度「r0/t0」程度で移動する場合のローパスフィルタ、即ち、図12の領域R1201を通過帯域として有するローパスフィルタでフィルタリングしても、良好な画質の動画として認識される。 Therefore, the data in the region R 1601 in FIG. 16 is filtered by a low-pass filter when the gazing point moves at a speed of “r 0 / t 0 ”, that is, a low-pass filter having the region R 1201 in FIG. Even so, it is recognized as a moving image with good image quality.

以上から、図17に示すように、領域R1601のうちの、領域R1201と重複する部分の領域R1701(図中黒色で塗りつぶして示す)内のデータがあれば、速度「r0/t0」程度で動いている部分は、良好な画質の動画として認識される。 From the above, as shown in FIG. 17, if there is data in a region R 1701 (shown in black in the drawing) that overlaps the region R 1201 in the region R 1601 , the speed “r 0 / t A portion moving at about “ 0 ” is recognized as a moving image with good image quality.

従って、動画において、速度「r0/t0」程度で動いている部分を、人間が固定視する場合には、その部分のデータ、即ち、領域R801内のデータから、固定視が行われている場合のローパスフィルタの通過帯域としての領域R1001と、注視点が速度「r0/t0」程度で移動する場合のローパスフィルタの通過帯域としての領域R1201との重複部分の領域R1701を除いた領域のデータは、無駄である。 Therefore, when a human views a moving part of a moving image at a speed of about “r 0 / t 0 ”, the fixed view is performed from the data of that part, that is, the data in the region R 801 . Region R 1001 as the pass band of the low-pass filter in the case where the gazing point moves and the region R 1201 as the pass band of the low-pass filter when the gazing point moves at a speed of about “r 0 / t 0 ” The data in the area excluding 1701 is useless.

次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分を、人間が固定視することにより認識する画像は、視覚の積分機能により、速度「r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, an image that is recognized by a human fixed view of a moving part of a moving image at a speed of about “2r 0 / t 0 ” in a moving image is obtained by a visual integration function, This is equivalent to an image obtained by filtering data in a portion moving at a speed of about “r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.

このローパスフィルタの通過帯域は、周波数ドメイン上において、静止している部分を注視する場合と同一の領域、即ち、図10の領域R1001で表すことができる。 The pass band of this low-pass filter can be represented by the same region on the frequency domain as the case where a stationary portion is watched, that is, a region R 1001 in FIG.

ここで、図18は、周波数ドメインにおいて、速度「2r0/t0」程度で動いている部分のデータが分布する領域R901(図9)と、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001(図10)とを示している。 Here, FIG. 18 shows a region R 901 (FIG. 9) in which data of a portion moving at a speed of about “2r 0 / t 0 ” is distributed in the frequency domain, and a low-pass filter when a human performs fixed vision. A region R 1001 (FIG. 10) as a pass band is shown.

人間は、領域R901のうちの、領域R1001内の情報、つまり、領域R901とR1001とが重複する部分の領域R1801内の情報しか認識することができない。従って、領域R901のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 Humans, of area R 901, information in the region R 1001, that is, can not be a region R 901 and R 1001 are only recognized information in the region R 1801 of the portions overlapping. Therefore, information outside the region R 1001 in the region R 901 is useless information for humans.

なお、図18において、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001には、動画データが存在する領域R901とは重複しない部分の領域R1802とR1803(図中斜線を付して示す)が存在するが、いまの場合、この領域R1802とR1803には、動画データは存在しない。 In FIG. 18, a region R 1001 as a pass band of the low-pass filter when a human performs fixed vision is a region R 1802 and R 1803 of portions that do not overlap with the region R 901 where moving image data exists (in the drawing) In this case, there is no moving image data in the regions R 1802 and R 1803 .

また、上述のように、速度「2r0/t0」程度で動いている部分を、人間が固定視する場合には、人間の視線方向は、動被写体(動いている被写体)の動きとは別の動きをしているので、多少ぼけた画像であっても良好な動画として認識される。 In addition, as described above, when a human is fixedly viewing a portion that is moving at a speed of about “2r 0 / t 0 ”, the direction of the human line of sight is the movement of the moving subject (moving subject). Since it moves differently, even a slightly blurred image is recognized as a good moving image.

従って、図18の領域R1801内のデータを、注視点が速度「2r0/t0」程度で移動する場合のローパスフィルタ、即ち、図13の領域R1301を通過帯域として有するローパスフィルタでフィルタリングしても、良好な画質の動画として認識される。 Accordingly, the data in the region R 1801 in FIG. 18 is filtered by a low-pass filter when the point of interest moves at a speed of about “2r 0 / t 0 ”, that is, a low-pass filter having the region R 1301 in FIG. Even so, it is recognized as a moving image with good image quality.

以上から、図19に示すように、領域R1801のうちの、領域R1301と重複する部分の領域R1901(図中黒色で塗りつぶして示す)内のデータがあれば、速度「2r0/t0」程度で動いている部分は、良好な画質の動画として認識される。 From the above, as shown in FIG. 19, if there is data in a region R 1901 (shown in black in the drawing) that overlaps the region R 1301 in the region R 1801 , the speed “2r 0 / t A portion moving at about “ 0 ” is recognized as a moving image with good image quality.

従って、動画において、速度「2r0/t0」程度で動いている部分を、人間が固定視する場合には、その部分のデータ、即ち、領域R901内のデータから、固定視が行われている場合のローパスフィルタの通過帯域としての領域R1001と、注視点が速度「2r0/t0」程度で移動する場合のローパスフィルタの通過帯域としての領域R1301との重複部分の領域R1901を除いた領域のデータは、無駄である。 Therefore, when a human views a moving part of a moving image at a speed of about “2r 0 / t 0 ”, the fixed view is performed from the data of that part, that is, the data in the region R 901 . Region R 1001 as the pass band of the low-pass filter when the gazing point moves and the region R 1301 as the pass band of the low-pass filter when the gazing point moves at a speed of about “2r 0 / t 0 ” The data in the area excluding 1901 is useless.

以上の固定視と追従視の場合の、人間が認識することができる周波数ドメイン上の範囲(領域)についてまとめると、図20乃至図23に示すようになる。   The ranges (regions) on the frequency domain that can be recognized by humans in the case of fixed vision and follow-up vision are summarized as shown in FIGS.

即ち、図20は、動画の中で静止している物体(被写体)が投影されている部分について、人間が認識することができるデータが存在する領域を示している。   That is, FIG. 20 shows an area where there is data that can be recognized by humans in a portion where a stationary object (subject) is projected in a moving image.

動画の中で静止している物体が投影されている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図20に示すように、図10に示した領域R1001であり、領域R1001以外にあるデータは、無駄である。 As shown in FIG. 20, the region on the frequency domain of the data that can be recognized by humans for a portion where a stationary object is projected in the moving image is a region R 1001 shown in FIG. The data outside the area R 1001 is useless.

次に、図21は、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分について、人間が認識することができるデータが存在する領域を示している。 Next, FIG. 21 shows data in which a person can recognize a portion of a moving image where a subject projected on the moving image moves at a speed of “(r 0 / t 0 ) / 2”. The area to be shown is shown.

動画の中で速度「(r0/t0)/2」程度で動いている部分について、人間が追従視で認識することができるデータの周波数ドメイン上の領域は、図11に示した領域R1101である。さらに、固定視で認識することができるデータの周波数ドメイン上の領域は、図15に示した領域R1501であり、この領域R1501は、図11に示した領域R1101に含まれる。 A region on the frequency domain of data that can be recognized by humans by following vision for a portion moving at a speed of “(r 0 / t 0 ) / 2” in the moving image is a region R shown in FIG. 1101 . Furthermore, the region on the frequency domain of data that can be recognized by fixed vision is a region R 1501 shown in FIG. 15, and this region R 1501 is included in the region R 1101 shown in FIG.

従って、速度「(r0/t0)/2」程度で動いている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図21に示すように、図11に示した領域R1101であり、領域R1101以外にあるデータは、無駄である。 Therefore, the region on the frequency domain of the data that can be recognized by humans for the portion moving at the speed “(r 0 / t 0 ) / 2” is shown in FIG. 11 as shown in FIG. a region R 1101, data in the region other than the region R 1101 is waste.

次に、図22は、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分について、人間が認識することができるデータが存在する領域を示している。 Next, FIG. 22 shows an area where data that can be recognized by humans exists in a portion of the moving image where the subject projected on the moving image moves at a speed of about “r 0 / t 0 ”. ing.

動画の中で速度「r0/t0」程度で動いている部分について、人間が追従視で認識することができるデータの周波数ドメイン上の領域は、図12に示した領域R1201である。さらに、固定視で認識することができるデータの周波数ドメイン上の領域は、図17に示した領域R1701であり、この領域R1701は、図12に示した領域R1201に含まれる。 A region on the frequency domain of data that can be recognized by a human by tracking vision for a portion moving at a speed of “r 0 / t 0 ” in the moving image is a region R 1201 shown in FIG. Furthermore, the region on the frequency domain of data that can be recognized by fixed vision is a region R 1701 shown in FIG. 17, and this region R 1701 is included in the region R 1201 shown in FIG.

従って、速度「r0/t0」程度で動いている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図22に示すように、図12に示した領域R1201であり、領域R1201以外にあるデータは、無駄である。 Therefore, as shown in FIG. 22, the region on the frequency domain of the data that can be recognized by humans for the portion moving at the speed “r 0 / t 0 ” is a region R 1201 shown in FIG. Yes , the data outside the area R 1201 is useless.

次に、図23は、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分について、人間が認識することができるデータが存在する領域を示している。 Next, FIG. 23 shows an area where data that can be recognized by humans exists in a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”. ing.

動画の中で速度「2r0/t0」程度で動いている部分について、人間が追従視で認識することができるデータの周波数ドメイン上の領域は、図13に示した領域R1301である。さらに、固定視で認識することができるデータの周波数ドメイン上の領域は、図19に示した領域R1901であり、この領域R1901は、図13に示した領域R1301に含まれる。 A region on the frequency domain of the data that can be recognized by humans by following vision for a portion moving at a speed of “2r 0 / t 0 ” in the moving image is a region R 1301 shown in FIG. Furthermore, the region on the frequency domain of data that can be recognized with fixed vision is a region R 1901 shown in FIG. 19, and this region R 1901 is included in the region R 1301 shown in FIG.

従って、速度「2r0/t0」程度で動いている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図23に示すように、図13に示した領域R1301であり、領域R1301以外にあるデータは、無駄である。 Therefore, as shown in FIG. 23, the region on the frequency domain of the data that can be recognized by humans for the portion moving at the speed “2r 0 / t 0 ” is a region R 1301 shown in FIG. Yes , data outside the area R 1301 is useless.

ここで、上述の場合には、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301のT方向の幅を、2π/(4t0)としたが、この幅は、視覚の積分機能による積分の時間に相当する幅であればよく、2π/(4t0)に限定されるものではない。 In the above case, the width in the T direction of the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. 23 is 2π / (4t 0 ). However, this width may be a width corresponding to the integration time by the visual integration function, and is not limited to 2π / (4t 0 ).

動画の中で、他の速度で動いている部分のデータについても、同様のことが言える。   The same can be said for the data of the moving part of the video at other speeds.

以上のように、人間の視覚効果(視覚特性)、即ち、視覚の積分機能を利用して、周波数ドメイン上において、動画データを、人間が認識することができる領域のデータと、それ以外の無駄なデータとに分類することができる。   As described above, by utilizing the human visual effect (visual characteristics), that is, the visual integration function, on the frequency domain, moving image data can be recognized as data in a region that can be recognized by humans and other waste. Data.

そして、周波数ドメイン上において、動画データから、人間が認識することができる領域のデータだけを抽出すれば、即ち、それ以外の無駄なデータを削除すれば、画質を劣化させずに(人間が動画を見たときに認識する画質)、動画データを圧縮することができる。   Then, if only data in a region that can be recognized by humans is extracted from video data on the frequency domain, that is, if unnecessary data other than that is deleted, image quality is not degraded ( The image quality recognized when viewing the video), and the video data can be compressed.

そこで、図24は、動画データを、視覚の積分機能を利用して圧縮し、さらに、そのように圧縮された動画データを復号(伸張)する画像処理システムの構成例を示している。   FIG. 24 shows an example of the configuration of an image processing system that compresses moving image data using a visual integration function and decodes (decompresses) the compressed moving image data.

図24において、送信装置1には、例えば、1/t0=240fpsなどの高フレームレートの動画データが供給される。送信装置1は、そこに供給される動画データを、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301などを通過帯域とするフィルタ(帯域通過フィルタまたは帯域制限フィルタ)でフィルタリングし、その結果得られる、人間が認識することができる周波数ドメイン上の領域のデータを出力する。送信装置1が出力するデータは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどの記録媒体11に記録され、あるいは、電話回線、地上波、衛星回線、インターネット、有線または無線LAN(Local Area Network)などの伝送媒体12を介して伝送される。 In FIG. 24, the transmission apparatus 1 is supplied with moving image data having a high frame rate such as 1 / t 0 = 240 fps. The transmission apparatus 1 filters the moving image data supplied thereto with a pass band in a region R 1001 in FIG. 20, a region R 1101 in FIG. 21, a region R 1201 in FIG. 22, a region R 1301 in FIG. Band-pass filter or band-limiting filter), and outputs the data in the frequency domain that can be recognized by humans. Data output from the transmission device 1 is recorded on a recording medium 11 such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. Alternatively, it is transmitted via a transmission medium 12 such as a telephone line, a terrestrial wave, a satellite line, the Internet, a wired line, or a wireless LAN (Local Area Network).

受信装置2には、記録媒体11から再生されたデータ、あるいは、伝送媒体12を介して伝送されてくるデータが供給される。受信装置2は、そこに供給されるデータを受信して、所定の処理を施し、その結果得られる動画データを、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などで構成される表示装置3に供給して表示させる。   The receiver 2 is supplied with data reproduced from the recording medium 11 or data transmitted via the transmission medium 12. The receiving device 2 receives the data supplied thereto, performs predetermined processing, and the moving image data obtained as a result is composed of, for example, a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), or the like. It is supplied to the display device 3 and displayed.

なお、図24において、送信装置1、受信装置2、表示装置3は、それぞれ物理的に独立の装置として構成することができる。また、送信装置1および受信装置2は、図24において点線で囲んで示すように、全体として、物理的に1つの装置として構成することができる。さらに、送信装置1、受信装置2、および表示装置3の全体や、受信装置2および表示装置3を、物理的に1つの装置として構成することもできる。   In FIG. 24, the transmission device 1, the reception device 2, and the display device 3 can be configured as physically independent devices. Further, the transmitter 1 and the receiver 2 can be physically configured as one device as a whole as shown by being surrounded by a dotted line in FIG. Furthermore, the whole of the transmission device 1, the reception device 2, and the display device 3, or the reception device 2 and the display device 3 can be physically configured as one device.

次に、図25は、図24の送信装置1の第1の構成例を示している。   Next, FIG. 25 illustrates a first configuration example of the transmission device 1 of FIG.

バッファ部21には、送信装置1に供給された高フレームレートの動画データが供給される。バッファ部21は、そこに供給される動画データを順次記憶する。   The buffer unit 21 is supplied with the high frame rate moving image data supplied to the transmission apparatus 1. The buffer unit 21 sequentially stores the moving image data supplied thereto.

フィルタ部22は、バッファ部21に記憶された動画データを適宜読み出し、その動画データを、後述するフィルタ生成部23から供給されるフィルタ情報にしたがってフィルタリングして、そのフィルタリングにより得られる動画データを、エンコード部24に供給する。   The filter unit 22 appropriately reads out the moving image data stored in the buffer unit 21, filters the moving image data according to the filter information supplied from the filter generation unit 23, which will be described later, and obtains the moving image data obtained by the filtering, This is supplied to the encoding unit 24.

フィルタ生成部23は、バッファ部21に記憶された動画データを適宜読み出し、その動画データの各部分をフィルタリングするフィルタの情報であるフィルタ情報を生成して、フィルタ部22に供給する。   The filter generation unit 23 appropriately reads the moving image data stored in the buffer unit 21, generates filter information that is filter information for filtering each part of the moving image data, and supplies the filter information to the filter unit 22.

即ち、フィルタ生成部23は、主成分方向取得部31とフィルタ情報供給部32とから構成される。   That is, the filter generation unit 23 includes a principal component direction acquisition unit 31 and a filter information supply unit 32.

主成分方向取得部31は、バッファ部21から読み出された動画データの各部分について、周波数ドメイン上での主成分の方向である主成分方向を取得し、その主成分方向の情報を、フィルタ情報供給部32に供給する。   The principal component direction acquisition unit 31 acquires the principal component direction which is the direction of the principal component on the frequency domain for each part of the moving image data read from the buffer unit 21, and filters the information on the principal component direction. The information is supplied to the information supply unit 32.

フィルタ情報供給部32は、主成分方向取得部31からの主成分方向の情報にしたがい、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸Tの方向に特定の幅としての、例えば、2π/(4t0)を有する領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、その通過帯域を、フィルタ情報として、フィルタ部22に出力する。 The filter information supply unit 32 is a region extending in the principal component direction in the frequency domain according to the information on the principal component direction from the principal component direction acquisition unit 31, and has a specific width in the direction of the frequency axis T in the time direction. For example, a region having 2π / (4t 0 ), that is, a region R 1001 in FIG. 20, a region R 1101 in FIG. 21, a region R 1201 in FIG. 22, and a region R 1301 in FIG. The pass band is determined, and the pass band is output to the filter unit 22 as filter information.

エンコード部24は、フィルタ部22から供給される動画データを、例えば、MPEG(Moving Picture Experts Group)1や2などの所定のエンコード(符号化)方法によってエンコードし、その結果得られるエンコードデータを出力する。このエンコードデータが、図24の記録媒体11に記録され、あるいは伝送媒体12を介して伝送される。   The encoding unit 24 encodes the moving image data supplied from the filter unit 22 by a predetermined encoding (encoding) method such as MPEG (Moving Picture Experts Group) 1 or 2, and outputs the encoded data obtained as a result. To do. This encoded data is recorded on the recording medium 11 of FIG. 24 or transmitted via the transmission medium 12.

次に、図26のフローチャートを参照して、図25の送信装置1の処理について説明する。   Next, processing of the transmission apparatus 1 in FIG. 25 will be described with reference to the flowchart in FIG.

バッファ部21には、フレームレート1/t0が、例えば、240fpsの高フレームレート(第1のフレームレート)の動画データが供給されて順次記憶される。 The buffer unit 21 is supplied with moving image data having a high frame rate (first frame rate) of 240 fps, for example, at a frame rate 1 / t 0 and sequentially stored.

そして、ステップS1において、フィルタ生成部23は、バッファ部21に記憶された動画データを読み出して、自身(フィルタ生成部23)に入力し、ステップS2に進む。   In step S1, the filter generation unit 23 reads the moving image data stored in the buffer unit 21, inputs the moving image data to itself (filter generation unit 23), and proceeds to step S2.

ステップS2では、フィルタ生成部23(の主成分方向取得部31およびフィルタ情報供給部32)が、ステップS1で入力された動画データの各部分について、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部22に供給する、後述する図31で説明する「必要な情報の通過帯域を求める処理」を行い、ステップS3に進む。 In step S2, a region in which the filter generation unit 23 (its principal component direction acquisition unit 31 and filter information supply unit 32) can recognize each part of the moving image data input in step S1 on the frequency domain. That is, for example, the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. 23 are obtained as filter passbands, and the passbands are used as filter information. The “processing for obtaining a pass band of necessary information” described later with reference to FIG.

ステップS3では、フィルタ部22が、バッファ部21から、ステップS2でフィルタ生成部23から供給されたフィルタ情報のフィルタによるフィルタリングに用いるデータを読み出し、そのデータに対して、ステップS2でフィルタ生成部23から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を1/4に間引くダウンサンプリングを行う。   In step S3, the filter unit 22 reads data used for filtering by the filter of the filter information supplied from the filter generation unit 23 in step S2 from the buffer unit 21, and the filter generation unit 23 in step S2 for the data. Downsampling is performed by thinning out the number of samples in the time direction to 1/4 while applying the filter of the passband represented by the filter information supplied from.

即ち、フィルタ部22は、バッファ部21から読み出したデータを、ステップS2でフィルタ生成部23から供給されたフィルタ情報が表す通過帯域のフィルタでフィルタリングしながら、時間方向のサンプリング間隔、即ち、フレーム周期が、元の動画データの4倍である4t0の低フレームレートの動画データを得て、エンコード部24に出力し、ステップS4に進む。 In other words, the filter unit 22 filters the data read from the buffer unit 21 with a filter in the passband represented by the filter information supplied from the filter generation unit 23 in step S2, while sampling in the time direction, that is, the frame period. However, moving image data having a low frame rate of 4t 0 , which is four times the original moving image data, is output to the encoding unit 24, and the process proceeds to step S4.

ステップS4では、エンコード部24が、フィルタ部22からの動画データをエンコードし、その結果得られるエンコードを出力する。   In step S4, the encoding unit 24 encodes the moving image data from the filter unit 22, and outputs the resulting encoding.

なお、ステップS1乃至S4の処理は、バッファ部21に記憶された動画の各部分のデータすべてについて行われる。   Note that the processing in steps S1 to S4 is performed for all the data of each part of the moving image stored in the buffer unit 21.

また、ステップS3におけるダウンサンプリングは、バッファ部21に記憶された動画データの4フレームごとに、1フレームのフィルタリング結果を出力する処理である。従って、バッファ部21に記憶された動画データの4フレームごとに、その4つのフレームのうちの1フレームついて、フィルタ生成部23から供給されたフィルタ情報が表す通過帯域のフィルタによるフィルタリングを行えば良い。   Further, the downsampling in step S3 is a process of outputting a filtering result of one frame for every four frames of moving image data stored in the buffer unit 21. Accordingly, for every four frames of the moving image data stored in the buffer unit 21, one frame out of the four frames may be filtered by a passband filter represented by the filter information supplied from the filter generation unit 23. .

以上のように、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、動画データをフィルタリングし、さらに、ダウンサンプリングを行うようにしたので、人間の目の視覚効果を考慮した動画データの削減を行うことができる。 As described above, regions that can be recognized by humans on the frequency domain, that is, for example, region R 1001 in FIG. 20, region R 1101 in FIG. 21, region R 1201 in FIG. 22, region R 1301 in FIG. Since the moving image data is filtered by a filter having a pass band and further down-sampling is performed, the moving image data can be reduced in consideration of the visual effect of the human eye.

即ち、人間が視覚によって認識することができる周波数ドメイン上の領域が、図2に示したように、X,Y方向が2×2π/(2r0)で、T方向が2×2π/(2t0)の、原点を中心とする領域R201であるとすると、人間が認識することができる最高の画質の動画は、フレームレートが1/t0で、空間方向の画素ピッチがr0の動画である。 That is, as shown in FIG. 2, the regions on the frequency domain that humans can visually recognize are 2 × 2π / (2r 0 ) in the X and Y directions and 2 × 2π / (2t in the T direction. 0 ) of the region R 201 centered on the origin, the highest quality video that can be recognized by humans is the video with a frame rate of 1 / t 0 and a pixel pitch r 0 in the spatial direction. It is.

そして、図10乃至図23で説明した視覚効果を考慮しない場合には、例えば、動画を時間方向にダウンサンプリングすることにより、そのフレームレートを1/t0よりも低下させると、そのフレームレートが低下した動画を表示した場合に、その動画を見た人間は、画質の劣化を認識する。 If the visual effects described with reference to FIGS. 10 to 23 are not considered, for example, if the frame rate is reduced below 1 / t 0 by down-sampling the moving image in the time direction, the frame rate is reduced. When a reduced moving image is displayed, a person who views the moving image recognizes the deterioration of the image quality.

これに対して、送信装置1では、図10乃至図23で説明した視覚効果を考慮した処理、即ち、周波数ドメイン上で人間が認識することができる領域である、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、動画データをフィルタリングするので、動画のフレームレートを1/(4t0)に低下させても、即ち、動画データのデータ量を1/4に削減しても、人間が画質の劣化を感じない動画を表示することができる。 On the other hand, in the transmission apparatus 1, the processing in consideration of the visual effect described with reference to FIGS. 10 to 23, that is, an area that can be recognized by a human on the frequency domain, for example, an area R 1001 in FIG. In addition, since the moving image data is filtered by a filter having the region R 1101 in FIG. 21, the region R 1201 in FIG. 22 and the region R 1301 in FIG. 23 as a pass band, the frame rate of the moving image is reduced to 1 / (4t 0 ). Even if it is reduced, that is, even if the data amount of the moving image data is reduced to ¼, it is possible to display a moving image in which humans do not feel deterioration in image quality.

即ち、図27乃至図30は、それぞれ、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、高フレームレートの動画(フレームレートが1/t0の動画)のデータをフィルタリングしながら、時間方向に1/4のダウンサンプリングを行って得られる低フレームレートの動画(フレームレートが1/(4t0)の動画)のデータの周波数ドメイン上の分布を示している。 That is, FIG. 27 to FIG. 30 show a high frame rate by a filter in which the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. videos while filtering data (frame rate video 1 / t 0), low frame rate video obtained by performing 1/4 down-sampling in the time direction (frame rate 1 / (4t 0) Video) distribution on the frequency domain.

まず、動画の中の静止している部分のデータは、フィルタ部22において、図20の領域R1001を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1001内にのみ存在する。 First, the data of the stationary part in the moving image is filtered by the filter unit 22 with a filter having a region R 1001 in FIG. 20 as a pass band. Therefore, the moving image data after filtering exists only in the region R 1001 .

領域R1001内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1001 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 in the spatial direction x, y and 4 × in the time direction t. t Data sampled at 0 intervals.

このため、図27に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 For this reason, as shown in FIG. 27, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.

但し、領域R1001は、図10で説明したことから、X,Y方向が2π/r0で、T方向が2π/(4t0)の領域であるため、折り返し成分どうしは重ならない。 However, since the region R 1001 is a region in which the X and Y directions are 2π / r 0 and the T direction is 2π / (4t 0 ) as described with reference to FIG. 10, the aliasing components do not overlap.

なお、図27において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。   In FIG. 27, the shaded part is the part where the down-sampled video data exists.

次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分のデータは、フィルタ部22において、図21の領域R1101を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1101内にのみ存在する。 Next, the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2” is stored in the region R 1101 of FIG. Filtered by a filter as a pass band. Therefore, the moving image data after filtering exists only in the region R 1101 .

領域R1101内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1101 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 in the spatial direction x, y and 4 × in the time direction t. t Data sampled at 0 intervals.

このため、図28に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 28, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.

但し、領域R1101は、図11で説明したことから、原点(0,0)と点(π/r0,-π/(2t0))とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、折り返し成分どうしは重ならない。 However, the region R 1101 has a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, −π / (2t0)), as described in FIG. And the X and Y directions are-(π / r 0 ) to + (π / r 0 ) and the T direction is-(π / t 0 ) to + (π / t 0 ). Since it is a range area, the aliasing components do not overlap.

なお、図28において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。   In FIG. 28, the shaded part is the part where the down-sampled moving image data exists.

次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分のデータは、フィルタ部22において、図22の領域R1201を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1201内にのみ存在する。 Next, the data of the portion of the moving image where the subject projected on the moving image is moving at a speed of about “r 0 / t 0 ” has a region R 1201 in FIG. Filtered by the filter. Therefore, the moving image data after filtering exists only in the region R 1201 .

領域R1201内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1201 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 with respect to the spatial directions x and y, and 4 × with respect to the time direction t. t Data sampled at 0 intervals.

このため、図29に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 29, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.

但し、領域R1201は、図12で説明したことから、原点(0,0)と点(π/r0,-2π/(2t0))とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、折り返し成分どうしは重ならない。 However, the region R 1201 has a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, -2π / (2t0)), as described in FIG. And the X and Y directions are-(π / r 0 ) to + (π / r 0 ) and the T direction is-(π / t 0 ) to + (π / t 0 ). Since it is a range area, the aliasing components do not overlap.

なお、図29において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。   In FIG. 29, the shaded portion is the portion where the down-sampled moving image data exists.

次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分のデータは、フィルタ部22において、図23の領域R1301を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1301内にのみ存在する。 Next, the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ” has a region R 1301 in FIG. Filtered by the filter. Therefore, the moving image data after filtering exists only in the region R 1301 .

領域R1301内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1301 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 in the spatial direction x, y and 4 × in the time direction t. t Data sampled at 0 intervals.

このため、図30に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 30, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.

但し、領域R1301は、図13で説明したことから、原点(0,0)と点(π/r0,-2π/t0)とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、折り返し成分どうしは重ならない。 However, the region R 1301 has a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, −2π / t0), as described in FIG. area, and, X, Y direction, - at (π / r 0) to + (π / r 0), T direction, - the range of (π / t 0) to + (π / t 0) Since it is a region, the aliasing components do not overlap.

なお、図30において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。   In FIG. 30, the shaded part is the part where the down-sampled moving image data exists.

以上の図27乃至図30に示したように、周波数ドメインにおいて、ダウンサンプリング後の動画データの折り返し成分どうしは重ならないということは、そのダウンサンプリング後の動画データから、元のデータ、即ち、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301内のデータを抽出することができることを意味し、換言すれば、ダウンサンプリング後の動画データが、人間の視覚特性を考慮した必要な情報(人間が認識することができる情報)を、正確に保持していることを意味する。 As shown in FIGS. 27 to 30 above, the fact that the aliasing components of the downsampled video data do not overlap in the frequency domain means that the original data, that is, 20 area R 1001 , area R 1101 in FIG. 21, area R 1201 in FIG. 22, and area R 1301 in FIG. 23 can be extracted. This means that necessary information (information that can be recognized by humans) taking into consideration human visual characteristics is accurately held.

なお、ダウンサンプリング後の動画データを、ダウンサンプリング前の動画データに復号(復元)するためには、動画の各部分のデータに、どのようなフィルタを適用したかの情報が必要となる。   Note that in order to decode (restore) the moving image data after downsampling into moving image data before downsampling, information on what kind of filter is applied to the data of each part of the moving image is required.

そこで、図25の送信装置1では、フィルタ情報供給部32からエンコード部24に対して、動画の各部分のデータに適用したフィルタのフィルタ情報としての通過帯域である、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301の情報や、その領域R1001,R1101,R1201,R1301の主成分方向の情報を供給し、エンコード部24では、その情報を、エンコードデータに多重化して出力するようにすることができる。 Therefore, in the transmission device 1 in FIG. 25, the filter information supply unit 32 transmits to the encoding unit 24 the passband as the filter information of the filter applied to the data of each part of the moving image, for example, the region R in FIG. 1001 , information on the area R 1101 in FIG. 21, area R 1201 in FIG. 22, area R 1301 in FIG. 23, and information on the principal component directions of the areas R 1001 , R 1101 , R 1201 , and R 1301 , In the encoding unit 24, the information can be multiplexed with the encoded data and output.

次に、図31のフローチャートを参照して、図26のステップS2でフィルタ生成部23が行う「必要な情報の通過帯域を求める処理」について説明する。   Next, with reference to the flowchart of FIG. 31, the “process for obtaining the passband of necessary information” performed by the filter generation unit 23 in step S2 of FIG. 26 will be described.

まず最初に、ステップS11において、フィルタ生成部23(図25)の主成分方向取得部31は、図26のステップS1で入力された動画データの各部分について、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部32に供給して、ステップS12に進む。なお、主成分方向は、例えば、空間方向x,yと、時間方向tとの3次元の方向について、フーリエ変換(3次元フーリエ変換)を行うことにより求めることができる。   First, in step S11, the principal component direction acquisition unit 31 of the filter generation unit 23 (FIG. 25) performs the frequency axis X in the spatial directions x and y for each part of the moving image data input in step S1 of FIG. , Y, and the principal component direction in the frequency domain defined by the frequency axis T in the time direction t are acquired, supplied to the filter information supply unit 32, and the process proceeds to step S12. The principal component direction can be obtained, for example, by performing Fourier transform (three-dimensional Fourier transform) on the three-dimensional direction of the spatial direction x, y and the time direction t.

ステップS12では、フィルタ情報供給部32は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部31からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、ステップS13に進む。 In step S12, the filter information supply unit 32 is a region extending in the principal component direction from the principal component direction acquisition unit 31 from the origin (0,0) in the frequency domain, and 2π / (4 × t in the T direction. 0 ), the X and Y directions are-(π / r 0 ) to + (π / r 0 ), and the T direction is-(π / t 0 ) to + (π / t 0 ). a range of area, i.e., and a region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. 23, determined as the pass band of the filter, the flow proceeds to step S13.

ステップS13では、フィルタ情報供給部32は、ステップS12で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部22に供給し、「必要な情報の通過帯域を求める処理」を終了する。   In step S13, the filter information supply unit 32 supplies the filter pass band (information representing) obtained in step S12 to the filter unit 22 as filter information, and performs a “process for obtaining the pass band of necessary information”. finish.

以上のような「必要な情報の通過帯域を求める処理」によれば、例えば、動画像において静止している被写体が投影されている部分に対しては、図20の領域R1001をフィルタ情報として求めることができる。また、動画において投影されている被写体が速度「(r0/t0)/2」程度で動いている部分に対しては、図21の領域R1101をフィルタ情報として求めることができる。さらに、動画において投影されている被写体が速度「r0/t0」程度で動いている部分に対しては、図22の領域R1201をフィルタ情報として求めることができる。また、動画において投影されている被写体が速度「2r0/t0」程度で動いている部分に対しては、図23の領域R1301をフィルタ情報として求めることができる。動画においてその他の速度で被写体が移動している部分に対しても、人間が認識することができる周波数ドメイン上の範囲の領域をフィルタ情報として求めることができる。 According to the “process for obtaining the pass band of necessary information” as described above, for example, the region R 1001 in FIG. 20 is used as filter information for a portion where a stationary subject is projected in a moving image. Can be sought. Further, for a portion where the subject projected in the moving image moves at a speed of “(r 0 / t 0 ) / 2”, the region R 1101 in FIG. 21 can be obtained as filter information. Furthermore, the region R 1201 in FIG. 22 can be obtained as filter information for a portion where the subject projected in the moving image moves at a speed of about “r 0 / t 0 ”. Further, for a portion where the subject projected in the moving image moves at a speed of about “2r 0 / t 0 ”, the region R 1301 in FIG. 23 can be obtained as filter information. Even in a portion of the moving image where the subject is moving at other speeds, a region in the frequency domain that can be recognized by humans can be obtained as filter information.

なお、本実施の形態では、フィルタ生成部23(図25)のフィルタ情報供給部32において、主成分方向取得部31から供給される主成分方向に延びる周波数ドメイン上の領域を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部22に供給するようにしたが、フィルタ情報供給部32では、複数の主成分方向それぞれに対する上述のような通過帯域としてのフィルタ情報をあらかじめ求めて記憶しておき、その記憶しているフィルタ情報の中から、主成分方向取得部31から供給される主成分方向に対応するものを選択して、フィルタ部22に供給するようにしても良い。   In the present embodiment, in the filter information supply unit 32 of the filter generation unit 23 (FIG. 25), the region on the frequency domain extending in the main component direction supplied from the main component direction acquisition unit 31 is defined as the passband of the filter. Although the pass band is supplied to the filter unit 22 as filter information, the filter information supply unit 32 obtains filter information as the pass band as described above for each of a plurality of principal component directions in advance. It may be stored and the filter information corresponding to the principal component direction supplied from the principal component direction acquisition unit 31 may be selected from the stored filter information and supplied to the filter unit 22.

また、フィルタ生成部23は、送信装置1とは別の、フィルタ情報を出力する独立の装置として構成することができる。   Further, the filter generation unit 23 can be configured as an independent device that outputs filter information different from the transmission device 1.

ところで、図31のステップS11では、3次元フーリエ変換によって、動画データの各部分の主成分方向を求めるようにしたが、3次元フーリエ変換の計算量は膨大であるため、ステップS11における、主成分方向を取得する処理に要する計算量も膨大となる。   By the way, in step S11 of FIG. 31, the principal component direction of each part of the moving image data is obtained by the three-dimensional Fourier transform. However, since the calculation amount of the three-dimensional Fourier transform is enormous, the principal component in step S11 The amount of calculation required for the process of acquiring the direction is enormous.

そこで、図32のフローチャートを参照して、図31のステップS11において、3次元フーリエ変換を行う場合よりも少ない計算量で主成分方向を取得する方法について説明する。   A method for acquiring the principal component direction with a smaller amount of calculation than in the case of performing the three-dimensional Fourier transform in step S11 of FIG. 31 will be described with reference to the flowchart of FIG.

まず最初に、ステップS21において、フィルタ生成部23(図25)の主成分方向取得部31は、バッファ部21に記憶された動画データの各フレームのデータを、例えば、横×縦が16×16画素などのブロックに分割し、ステップS22に進む。なお、ここでは、各ブロックの画像データが、上述の動画データの各部分のデータとなる。   First, in step S21, the principal component direction acquisition unit 31 of the filter generation unit 23 (FIG. 25) stores the data of each frame of the moving image data stored in the buffer unit 21, for example, horizontal × vertical is 16 × 16. Dividing into blocks such as pixels, the process proceeds to step S22. Here, the image data of each block is the data of each part of the above-described moving image data.

ここで、ブロックは、複数の画素で構成されている必要はなく、1画素であっても良い。   Here, the block does not need to be composed of a plurality of pixels, and may be one pixel.

ステップS22では、主成分方向取得部31は、ステップS21で得られた各ブロックを、順次、注目ブロックとし、注目ブロックについて、その注目ブロックのフレーム(以下、適宜、注目フレームという)の次のフレームとの相関を表す相関情報を求める。さらに、ステップS22では、主成分方向取得部31は、注目ブロックの相関情報が表す相関が最も高くなる、注目フレームの次のフレーム上の空間方向の位置を求める。即ち、ステップS22では、主成分方向取得部31は、いわゆるブロックマッチング等により、注目ブロックの空間方向x,yの2次元の動きベクトルを検出する。   In step S22, the principal component direction acquisition unit 31 sequentially sets each block obtained in step S21 as a target block, and for the target block, a frame subsequent to the frame of the target block (hereinafter, referred to as a target frame as appropriate). Correlation information representing the correlation with is obtained. Further, in step S22, the principal component direction acquisition unit 31 obtains the position in the spatial direction on the frame next to the frame of interest where the correlation represented by the correlation information of the block of interest is the highest. That is, in step S22, the principal component direction acquisition unit 31 detects a two-dimensional motion vector in the spatial direction x, y of the block of interest by so-called block matching or the like.

ここで、相関情報としては、いわゆる相関係数を採用することができるが、ここでは、計算コストを考慮して、例えば、注目ブロックを、動きベクトルとの探索範囲内で空間方向x,yに、それぞれ、u,vだけずらした位置における、注目ブロックの各画素と、その画素と同一位置にある、注目フレームの次のフレームの画素との画素値の自乗誤差や差分絶対値の総和などを採用する。この場合、相関情報の「値」が最小になる空間方向の位置u,vが、相関情報が表す相関が最も高くなる、注目フレームの次のフレーム上の空間方向の位置となる。   Here, as the correlation information, a so-called correlation coefficient can be adopted. Here, considering the calculation cost, for example, the target block is placed in the spatial direction x, y within the search range with the motion vector. , The square error of the pixel value of each pixel of the target block at the position shifted by u, v and the pixel of the next frame of the target frame at the same position as the pixel, the sum of absolute differences, etc. adopt. In this case, the position u, v in the spatial direction where the “value” of the correlation information is the minimum is the position in the spatial direction on the next frame of the frame of interest where the correlation represented by the correlation information is the highest.

なお、相関情報が表す相関が最大(相関情報の値が最小)になる空間方向の位置u,vを、それぞれ、u0,v0と表し、ステップS22で検出される空間方向x,yの動きベクトルを、(u0,v0)と表す。
す。
Note that the spatial direction positions u and v at which the correlation represented by the correlation information is maximum (correlation information value is minimum) are represented by u 0 and v 0 , respectively, in the spatial directions x and y detected in step S22. The motion vector is represented as (u 0 , v 0 ).
The

その後、ステップS22からS23に進み、主成分方向取得部31は、ステップS22で検出された動きベクトル(u0,v0)に、元の動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトル(u0,v0,t0)の方向と直交する方向を、主成分方向として検出し、フィルタ情報供給部32に供給して、処理を終了する。 Thereafter, the process proceeds from step S22 to S23, and the principal component direction acquisition unit 31 adds the frame period t 0 of the original moving image data to the motion vector (u 0 , v 0 ) detected in step S22 and the component in the time direction t. The direction orthogonal to the direction of the three-dimensional motion vector (u 0 , v 0 , t 0 ) added as is detected as the principal component direction, supplied to the filter information supply unit 32, and the process is terminated.

以上の処理によれば、ブロックの主成分方向が、その動きベクトル(u0,v0,t0)に垂直な平面(の拡がり方向)であるとして検出される。 According to the above processing, the principal component direction of the block is detected as a plane (expansion direction) perpendicular to the motion vector (u 0 , v 0 , t 0 ).

即ち、注目ブロックについて、動きベクトル(u0,v0,t0)が検出された場合、理想的には、空間方向x,yおよび時間方向tで定義される3次元空間において、動きベクトル(u0,v0,t0)の方向に、注目ブロックの画素値が続いているということ、つまり、注目ブロックのある点(x,y,t)における動画データの値は、mを整数として表される、x,y,tの3次元空間上の点(x+mu0,y+mv0,t+mt0)における動画データの値と同一であることになる。 That is, when a motion vector (u 0 , v 0 , t 0 ) is detected for the block of interest, ideally, in a three-dimensional space defined by the spatial direction x, y and the temporal direction t, the motion vector ( u 0 , v 0 , t 0 ) in the direction of the pixel value of the target block, that is, the value of the video data at the point (x, y, t) where the target block is This is the same as the value of the moving image data at the point (x + mu 0 , y + mv 0 , t + mt 0 ) on the three-dimensional space represented by x, y, t.

従って、時空間の注目ブロックのデータの周波数成分、即ち、時空間の注目ブロックのデータを周波数ドメイン上のデータに変換して得られるデータは、動きベクトル(u0,v0,t0)に垂直な平面上にのみ存在することになる。 Therefore, the frequency component of the data of the spatio-temporal block of interest, that is, the data obtained by converting the spatio-temporal block of interest data into the data on the frequency domain is the motion vector (u 0 , v 0 , t 0 ). It exists only on a vertical plane.

図32のフローチャートにしたがった方法では、このことを利用して、動きベクトル(u0,v0,t0)に垂直な平面を、主成分方向として検出している。従って、この場合、主成分方向を取得するためには、動きベクトルを検出すれば良く、3次元フーリエ変換を行う必要がないので、少ない計算量で、主成分方向を検出することができる。 In the method according to the flowchart of FIG. 32, this is used to detect a plane perpendicular to the motion vector (u 0 , v 0 , t 0 ) as the principal component direction. Therefore, in this case, in order to acquire the principal component direction, it is only necessary to detect a motion vector, and it is not necessary to perform a three-dimensional Fourier transform. Therefore, the principal component direction can be detected with a small amount of calculation.

なお、相関情報としては、例えば、相関係数を採用することができる。この場合、相関情報の値(相関係数)が最大の場合が、その相関情報が表す相関が最大の場合となる。   As the correlation information, for example, a correlation coefficient can be adopted. In this case, the correlation information value (correlation coefficient) is the maximum when the correlation represented by the correlation information is the maximum.

また、送信装置1(図25)のエンコード部24では、フィルタ部22からの動画データを、特にエンコードせずに、そのまま出力することもできる。   Further, the encoding unit 24 of the transmission device 1 (FIG. 25) can output the moving image data from the filter unit 22 as it is without encoding.

次に、図33は、図24の受信装置2の構成例を示している。   Next, FIG. 33 illustrates a configuration example of the receiving device 2 of FIG.

図25の送信装置1が出力するエンコードデータは、フレームレートが1/(4t0)の低フレームレートの動画データをエンコードしたものであり、この低フレームレートの動画データを、そのまま、その低フレームレートと同一のフレームレートを有する表示装置に供給して表示させたのでは、本来表示されるべき周波数成分の他、図28乃至図30に示した折り返し成分のうちの一部も表示され、その結果、表示装置で表示される動画の画質が劣化する。 The encoded data output from the transmission apparatus 1 in FIG. 25 is encoded low-frame-rate video data with a frame rate of 1 / (4t 0 ). When the image is supplied and displayed on a display device having the same frame rate as the rate, in addition to the frequency component that should be displayed, a part of the aliasing component shown in FIGS. 28 to 30 is also displayed. As a result, the image quality of the moving image displayed on the display device deteriorates.

そこで、受信装置2では、フレームレートが1/(4t0)の低フレームレートの動画データを、元のフレームレート1/t0にアップサンプリングし、その結果得られる、フレームレートが1/t0の高フレームレートの動画データを、表示装置3(図24)に供給することで、表示装置3に、高画質の(画質の劣化が認識されない)動画データを表示させるようになっている。なお、ここでは、表示装置3は、1/t0のフレームレートで動画を表示するようになっているものとする。 Therefore, the receiving apparatus 2 upsamples the low frame rate moving image data with the frame rate of 1 / (4t 0 ) to the original frame rate 1 / t 0 , and the resulting frame rate is 1 / t 0. The high-frame-rate moving image data is supplied to the display device 3 (FIG. 24), so that the display device 3 displays the high-quality moving image data (the deterioration of the image quality is not recognized). Here, it is assumed that the display device 3 is configured to display a moving image at a frame rate of 1 / t 0 .

受信装置2では、上述のように、表示装置3において高画質の動画を表示するために、送信装置1から供給される、フレームレートが1/(4t0)の低フレームレート(第2のフレームレート)の動画データに対して、所定の通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行う。 In the receiving device 2, as described above, in order to display a high-quality moving image on the display device 3, a low frame rate (second frame) supplied from the transmitting device 1 and having a frame rate of 1 / (4t 0 ). (Rate) up-sampling in the time direction is performed while applying a filter that passes a frequency component of a predetermined pass band.

即ち、デコード部50には、送信装置1(図24)から記録媒体11または伝送媒体12を介して、エンコードデータが供給される。デコード部50は、エンコードデータをデコードし、その結果得られる低フレームレートの動画データを、バッファ部51に供給する。   That is, the decoding unit 50 is supplied with encoded data from the transmission device 1 (FIG. 24) via the recording medium 11 or the transmission medium 12. The decoding unit 50 decodes the encoded data, and supplies the low frame rate moving image data obtained as a result to the buffer unit 51.

バッファ部51は、デコード部50から供給される低フレームレートの動画データを順次記憶する。   The buffer unit 51 sequentially stores the low frame rate moving image data supplied from the decoding unit 50.

フィルタ部52は、バッファ部51に記憶された動画データを適宜読み出し、その動画データを、後述するフィルタ生成部53から供給されるフィルタ情報にしたがってフィルタリングしながらアップサンプリングし、そのフィルタリングおよびアップサンプリングにより得られる高フレームレートの動画データを出力する。フィルタ部52が出力する高フレームレートの動画データは、表示装置3(図24)に供給されて表示される。   The filter unit 52 appropriately reads out the moving image data stored in the buffer unit 51, up-samples the moving image data while filtering according to the filter information supplied from the filter generation unit 53 described later, and performs the filtering and up-sampling. The resulting high frame rate video data is output. The high frame rate moving image data output from the filter unit 52 is supplied to the display device 3 (FIG. 24) and displayed.

フィルタ生成部53は、バッファ部51に記憶された動画データを適宜読み出し、その動画データの各部分を用いてフィルタリングするフィルタの情報であるフィルタ情報を生成して、フィルタ部52に供給する。   The filter generation unit 53 appropriately reads out the moving image data stored in the buffer unit 51, generates filter information that is filter information to be filtered using each portion of the moving image data, and supplies the filter information to the filter unit 52.

即ち、フィルタ生成部53は、主成分方向取得部61とフィルタ情報供給部62とから構成される。   That is, the filter generation unit 53 includes a main component direction acquisition unit 61 and a filter information supply unit 62.

主成分方向取得部61は、バッファ部51から読み出された動画データの各部分について、周波数ドメイン上での主成分の方向である主成分方向を取得し、その主成分方向の情報を、フィルタ情報供給部62に供給する。   The principal component direction acquisition unit 61 acquires, for each part of the moving image data read from the buffer unit 51, a principal component direction that is the direction of the principal component on the frequency domain, and filters the information on the principal component direction. The information is supplied to the information supply unit 62.

フィルタ情報供給部62は、主成分方向取得部61からの主成分方向の情報にしたがい、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸Tの方向に特定の幅としての、例えば、2π/(4t0)を有する領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、その通過帯域を、フィルタ情報として、フィルタ部52に出力する。 The filter information supply unit 62 is an area extending in the principal component direction in the frequency domain according to the information of the principal component direction from the principal component direction acquisition unit 61, and has a specific width in the direction of the frequency axis T in the time direction. For example, a region having 2π / (4t 0 ), that is, a region R 1001 in FIG. 20, a region R 1101 in FIG. 21, a region R 1201 in FIG. 22, and a region R 1301 in FIG. The pass band is determined, and the pass band is output to the filter unit 52 as filter information.

次に、図34のフローチャートを参照して、図33の受信装置2の処理について説明する。   Next, processing of the receiving device 2 in FIG. 33 will be described with reference to the flowchart in FIG.

デコード部50には、エンコードデータが供給される。デコード部50は、そのエンコードデータを、フレームレートが1/(4t0)の低フレームレートの動画データにデコードし、バッファ部51に供給する。バッファ部51では、デコード部50から供給される1/(4t0)のフレームレートの低フレームレートの動画データが順次記憶される。 The decoding unit 50 is supplied with encoded data. The decoding unit 50 decodes the encoded data into moving image data with a frame rate of 1 / (4t 0 ) and a low frame rate, and supplies it to the buffer unit 51. The buffer unit 51 sequentially stores moving image data having a low frame rate of 1 / (4t 0 ) supplied from the decoding unit 50.

そして、ステップS31において、フィルタ生成部53は、バッファ部51に記憶された動画データのうちのある部分のデータ、即ち、例えば、図32のステップS21で説明したような16×16画素のブロックのデータを読み出して、自身(フィルタ生成部53)に入力し、ステップS32乃至S34に順次進む。   In step S31, the filter generation unit 53 generates a certain part of the moving image data stored in the buffer unit 51, that is, for example, a block of 16 × 16 pixels as described in step S21 of FIG. Data is read out and input to itself (filter generation unit 53), and the process proceeds to steps S32 to S34 in sequence.

ステップS32乃至S34では、フィルタ生成部53(の主成分方向取得部61およびフィルタ情報供給部62)が、ステップS31で入力されたデータについて、周波数ドメイン上で人間が認識することができる領域を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部52に供給する処理、即ち、上述した図31の「必要な情報の通過帯域を求める処理」と同様の処理を行う。   In steps S32 to S34, the filter generation unit 53 (the principal component direction acquisition unit 61 and the filter information supply unit 62) can recognize a region that can be recognized by humans on the frequency domain for the data input in step S31. A process for obtaining the pass band of the filter and supplying the pass band as filter information to the filter unit 52, that is, a process similar to the above-described "process for obtaining the pass band of necessary information" in FIG. 31 is performed.

即ち、ステップS32では、フィルタ生成部53の主成分方向取得部61は、ステップS31で入力された動画データについて、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部62に供給して、ステップS33に進む。   That is, in step S32, the principal component direction acquisition unit 61 of the filter generation unit 53 uses the frequency axes X and Y in the spatial directions x and y and the frequency axis T in the time direction t for the moving image data input in step S31. The principal component direction in the defined frequency domain is acquired and supplied to the filter information supply unit 62, and the process proceeds to step S33.

なお、ステップS32において主成分方向は、図31で説明したように、3次元フーリエ変換を行うことにより求めることもできるし、図32で説明したように、動きベクトルを検出することにより求めることもできる。また、上述したように、送信装置1からのエンコードデータに、主成分方向(の情報)が多重化されている場合には、デコード部50において、エンコードデータから主成分方向を分離し、主成分方向取得部61において、デコード部50から、その主成分方向(の情報)の供給を受けることにより、主成分方向を取得することもできる。   In step S32, the principal component direction can be obtained by performing a three-dimensional Fourier transform as described in FIG. 31, or can be obtained by detecting a motion vector as described in FIG. it can. Further, as described above, when the principal component direction (information thereof) is multiplexed in the encoded data from the transmission device 1, the decoding unit 50 separates the principal component direction from the encoded data, In the direction acquisition unit 61, the principal component direction can be acquired by receiving the supply of the principal component direction (information thereof) from the decoding unit 50.

さらに、エンコードデータに空間方向x,yの動きベクトル(u0,v0)が含まれる場合には、その動きベクトル(u0,v0)に、エンコードデータに含まれる動画データのフレーム同期4t0を、時間方向tのコンポーネントとして加えて、空間方向x,yおよび時間方向tの3次元の動きベクトル(u0,v0,4t0)とし、図32で説明したように、その3次元の動きベクトル(u0,v0,4t0)に直交する平面を主成分方向とすることもできる。 Furthermore, encoded data in the spatial direction x, in the case that contains the y motion vector (u 0, v 0) is the motion vector (u 0, v 0), the frame synchronization 4t of the moving image data included in the encoded data 0 is added as a component in the time direction t to obtain a three-dimensional motion vector (u 0 , v 0 , 4t 0 ) in the spatial direction x, y and the time direction t, and as shown in FIG. The plane orthogonal to the motion vector (u 0 , v 0 , 4t 0 ) can be the principal component direction.

即ち、図25の送信装置1のエンコード部24において、動画データが、少なくとも動き補償を利用する、例えば、MPEGなどのエンコード方法によってエンコードされる場合には、エンコードデータには、動き補償に用いられる動きベクトルが含まれる。そこで、デコード部50においてエンコードデータから動きベクトル(の情報)を抽出し、バッファ部51を介して、主成分方向取得部61に、エンコードデータに含まれる動きベクトルを供給するようにし、主成分方向取得部61では、その動きベクトルに直交する平面を、主成分方向として求める(検出する)ようにすることができる。   That is, in the encoding unit 24 of the transmission apparatus 1 of FIG. 25, when moving image data is encoded by an encoding method such as MPEG that uses at least motion compensation, the encoded data is used for motion compensation. Contains motion vectors. Therefore, the decoding unit 50 extracts the motion vector (information thereof) from the encoded data, and supplies the motion vector included in the encoded data to the principal component direction acquisition unit 61 via the buffer unit 51, thereby the principal component direction. The acquisition unit 61 can obtain (detect) a plane orthogonal to the motion vector as the principal component direction.

なお、MPEGでは、Iピクチャのブロック(マクロブロック)には、動きベクトルが存在しないが、Iピクチャの動きベクトルは、例えば、PまたはBピクチャのブロックの動きベクトルから推定するようにすればよい。   In MPEG, a motion vector does not exist in an I picture block (macroblock), but an I picture motion vector may be estimated from a motion vector of a P or B picture block, for example.

ステップS33では、フィルタ情報供給部62は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部61からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、ステップS34に進む。 In step S33, the filter information supply unit 62 is a region extending in the principal component direction from the principal component direction acquisition unit 61 from the origin (0, 0) in the frequency domain, and is 2π / (4 × t in the T direction. 0 ), the X and Y directions are-(π / r 0 ) to + (π / r 0 ), and the T direction is-(π / t 0 ) to + (π / t 0 ). a range of area, i.e., and a region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. 23, determined as the pass band of the filter, the flow proceeds to step S34.

ステップS34では、フィルタ情報供給部62は、ステップS33で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部52に供給し、ステップS35に進む。   In step S34, the filter information supply unit 62 supplies the filter passband (information representing) obtained in step S33 to the filter unit 52 as filter information, and the process proceeds to step S35.

ステップS35では、フィルタ部52が、バッファ部51から動画データを読み出し、その動画データに対して、ステップS34でフィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を4倍にするアップサンプリングを行う。   In step S35, the filter unit 52 reads the moving image data from the buffer unit 51, and applies the filter of the passband represented by the filter information supplied from the filter generation unit 53 in step S34 to the moving image data. Upsampling is performed to quadruple the number of samples in the direction.

即ち、例えば、いま、ステップS31で入力された動画データが、低フレームレートの動画データのあるフレームのブロック(のデータ)であるとして、そのブロックを注目ブロックとするとともに、注目ブロックのフレームを注目フレームとする。   That is, for example, assuming that the moving image data input in step S31 is a block (data) of a certain frame of moving image data at a low frame rate, that block is the attention block, and the frame of the attention block is noted. Frame.

フィルタ部52は、バッファ部51から読み出した動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目ブロックの各画素のデータ(画素値)を求める。 The filter unit 52 converts the moving image data read from the buffer unit 51 into a passband filter represented by the filter information supplied from the filter generation unit 53, for example, the region R 1001 in FIG. 20 or the region R 1101 in FIG. The data (pixel value) of each pixel of the block of interest is obtained by filtering with a filter that uses the region R 1201 in FIG. 22 and the region R 1301 in FIG. 23 as a pass band.

また、フィルタ部52は、バッファ部51から読み出した動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目フレームから次のフレームまでの時間4t0を、時間t0に等分する3つの時刻それぞれにおける画素であって、注目ブロックの各画素を通り、注目ブロックの3次元の動きベクトルの方向に延びる直線上にある画素のデータを求める。なお、注目ブロックの3次元の動きベクトルは、例えば、主成分方向取得部61で求め、フィルタ情報供給部62を介して、フィルタ情報とともに、フィルタ部52に供給することができる。 Further, the filter unit 52 filters the moving image data read from the buffer unit 51 in the passband represented by the filter information supplied from the filter generation unit 53, that is, for example, the region R1001 in FIG. 20 or the region in FIG. By filtering with R 1101 , a region R 1201 in FIG. 22 and a filter having a region R 1301 in FIG. 23 as a pass band, the time 4 t 0 from the frame of interest to the next frame is divided into three equal to the time t 0 . Data of pixels on the straight line extending in the direction of the three-dimensional motion vector of the block of interest through each pixel of the block of interest is obtained at each time. Note that the three-dimensional motion vector of the block of interest can be obtained by, for example, the principal component direction acquisition unit 61 and supplied to the filter unit 52 together with the filter information via the filter information supply unit 62.

フィルタ部52は、以上のようなフィルタリングおよびアップサンプリングを行うことにより、フレームレートが1/t0の高フレームレートの動画データを得て、ステップS35からS36に進む。 The filter unit 52 performs the above filtering and upsampling to obtain high frame rate moving image data with a frame rate of 1 / t 0 , and proceeds from step S35 to step S36.

ステップS36では、フィルタ部52は、ステップS35で得た高フレームレートの動画データを、表示装置3(図24)に出力して、処理を終了する。   In step S36, the filter unit 52 outputs the high frame rate moving image data obtained in step S35 to the display device 3 (FIG. 24), and ends the process.

なお、ステップS31乃至S34の処理は、バッファ部51に記憶された動画データの各部分すべてについて行われる。   Note that the processing in steps S31 to S34 is performed for all portions of the moving image data stored in the buffer unit 51.

以上のように、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、動画データをフィルタリングし、さらに、アップサンプリングを行うようにしたので、人間の目の視覚効果を考慮したデータ量の削減が行われた低フレームレートの動画データから、高画質の動画データ、つまり、元の高フレームレートの動画データと同様の画質の動画データを得て(元の高フレームレートの動画データと同様の画質を認識することができる動画データを復元して)表示することができる。 As described above, regions that can be recognized by humans on the frequency domain, that is, for example, region R 1001 in FIG. 20, region R 1101 in FIG. 21, region R 1201 in FIG. 22, region R 1301 in FIG. Since the video data is filtered by a filter that uses a passband, and further upsampling is performed, the amount of data is reduced in consideration of the visual effects of the human eye. , Obtain high-quality video data, that is, video data with the same image quality as the original high-frame-rate video data (restore video data that can recognize the same image quality as the original high-frame-rate video data Can be displayed).

即ち、図35乃至図38は、それぞれ、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、図27乃至図30の低フレームレートの動画(フレームレートが1/(4t0)の動画)のデータをフィルタリングしながら、時間方向に4倍のアップサンプリングを行って得られる高フレームレートの動画(フレームレートが1/t0の動画)のデータの周波数ドメイン上の分布を示している。 That is, FIGS. 35 to 38, respectively, the regions R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. 23, the filter having a pass band to 27 A high frame rate video (frame rate is obtained by performing upsampling four times in the time direction while filtering the data of the low frame rate video (video with a frame rate of 1 / (4t 0 )) in FIG. 1 / t 0 (moving data) on the frequency domain.

まず、動画の中の静止している部分のデータに対しては、フィルタ部52において、図20の領域R1001を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図20の領域R1001内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。 First, the data of the still portion in the moving image is up-sampled in the filter unit 52 while performing filtering by a filter having the region R 1001 in FIG. 20 as a pass band. Accordingly, the moving image data obtained by the filtering and upsampling has frequency components in the region R 1001 in FIG. 20, and is further sampled at intervals of r 0 with respect to the spatial directions x and y and in the time direction t. On the other hand, the data is sampled at t 0 intervals.

このため、図35に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図27に示した場合の4倍になる。 Therefore, as shown in FIG. 35, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.

なお、図35において、影を付してある部分が、動画データが存在する部分である。   In FIG. 35, the shaded portion is a portion where moving image data exists.

次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分のデータに対しては、フィルタ部52において、図21の領域R1101を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図21の領域R1101内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。 Next, with respect to data of a portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2”, the filter unit 52 uses the area shown in FIG. Upsampling is performed while filtering with a filter having R 1101 as a pass band. Accordingly, the moving image data obtained by the filtering and upsampling has frequency components in the region R 1101 in FIG. 21, and is sampled at intervals of r 0 with respect to the spatial direction x, y, and in the time direction t. On the other hand, the data is sampled at t 0 intervals.

このため、図36に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図28に示した場合の4倍になる。 Therefore, as shown in FIG. 36, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.

なお、図36において、影を付してある部分が、動画データが存在する部分である。   In FIG. 36, the shaded portion is a portion where moving image data exists.

次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分のデータに対しては、フィルタ部52において、図22の領域R1201を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図22の領域R1201内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。 Next, for the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “r 0 / t 0 ”, the filter unit 52 passes the region R 1201 in FIG. Upsampling is performed while filtering with a band filter. Therefore, the moving image data obtained by the filtering and up-sampling has frequency components in the region R 1201 in FIG. 22, and is further sampled at intervals of r 0 with respect to the spatial directions x and y, and in the time direction t. On the other hand, the data is sampled at t 0 intervals.

このため、図37に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図29に示した場合の4倍になる。 Therefore, as shown in FIG. 37, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.

なお、図37において、影を付してある部分が、動画データが存在する部分である。   In FIG. 37, the shaded portion is a portion where moving image data exists.

次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分のデータに対しては、フィルタ部52において、図23の領域R1301を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図23の領域R1301内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。 Next, for the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, the filter unit 52 passes the region R 1301 in FIG. Upsampling is performed while filtering with a band filter. Accordingly, the moving image data obtained by the filtering and upsampling has frequency components in the region R 1301 in FIG. 23, and is further sampled at intervals of r 0 with respect to the spatial directions x and y, and in the time direction t. On the other hand, the data is sampled at t 0 intervals.

このため、図38に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図30に示した場合の4倍になる。 Therefore, as shown in FIG. 38, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.

なお、図38において、影を付してある部分が、動画データが存在する部分である。   In FIG. 38, the shaded portion is a portion where moving image data exists.

図2で説明したように、人間が認識することができるのは、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域R201であり、図35乃至図38において、この領域R201内には、折り返し成分は存在しない。 As described in FIG. 2, humans can recognize that the X and Y directions are − (π / r 0 ) to + (π / r 0 ) and the T direction is − (π / t 0 ) to + (π / t 0 ) range R 201 , and in FIG. 35 to FIG. 38, there is no aliasing component in this region R 201 .

従って、フィルタ部52におけるフィルタリングおよびアップサンプリングにより得られる、1/t0の高フレームレートの動画データが、表示装置3に表示された場合に、その表示された動画に対して、人間は、元の動画(送信装置1に供給された動画)と同様の画質を認識することができる。 Therefore, when moving image data with a high frame rate of 1 / t 0 obtained by filtering and upsampling in the filter unit 52 is displayed on the display device 3, The same image quality as that of the moving image (the moving image supplied to the transmission device 1) can be recognized.

なお、上述したように、図25の送信装置1のエンコード部24では、エンコードデータに、フィルタ部22で用いられたフィルタのフィルタ情報を多重化することができるが、エンコードデータにフィルタ情報が多重化されている場合には、受信装置2(図33)は、フィルタ生成部53なしで構成することができる。この場合、受信装置2は、デコード部50において、エンコードデータからフィルタ情報を分離し、フィルタ部52に供給するように構成すればよい。   As described above, the encoding unit 24 of the transmission device 1 in FIG. 25 can multiplex the filter information of the filter used in the filter unit 22 into the encoded data, but the filter information is multiplexed into the encoded data. If it is configured, the receiving device 2 (FIG. 33) can be configured without the filter generation unit 53. In this case, the receiving device 2 may be configured such that the decoding unit 50 separates the filter information from the encoded data and supplies it to the filter unit 52.

また、上述の場合には、図24の送信装置1において1/t0の高フレームレートの動画データを処理して得られる1/(4t0)の低フレームレートの動画データを、受信装置2に入力し、受信装置2において、その低フレームレートの動画データを、1/t0の高フレームレートの動画データに変換することにより、表示装置3において、高画質(送信装置1に入力される動画と同様の画質)の動画を表示するようにしたが、受信装置2には、元々、1/(4t0)の低フレームレートの動画データを入力しても、表示装置3において、ある程度高画質の動画を表示することが可能である。 In the above case, 1 / (4t 0 ) low frame rate moving image data obtained by processing the high frame rate moving image data of 1 / t 0 in the transmitting device 1 of FIG. And the receiving device 2 converts the low-frame-rate moving image data into high-frame-rate moving image data of 1 / t 0 , so that the display device 3 has high image quality (input to the transmitting device 1). Although a moving image having the same image quality as the moving image is displayed, even if moving image data with a low frame rate of 1 / (4t 0 ) is originally input to the receiving device 2, the display device 3 has a certain amount of high quality. It is possible to display a moving image of image quality.

即ち、動画において、(ほぼ)静止している被写体が投影されている部分では、時間方向の周波数成分はほとんど存在しないから、上述の図10に示した領域R301から領域R1001を除いた領域における周波数成分はほとんど存在しない。 That is, in the moving image, in a portion where a (substantially) stationary subject is projected, there is almost no frequency component in the time direction, and thus the region obtained by removing the region R 1001 from the region R 301 shown in FIG. There are almost no frequency components in.

また、動画において、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分では、その動きの方向(空間方向x,yおよび時間方向tの3次元の動きの方向)に垂直な方向の周波数成分以外はほとんど存在しないから、上述の図11に示した領域R401から領域R1101を除いた領域における周波数成分はほとんど存在しない。 In the moving image, in the part where the subject projected there is moving at a speed of “(r 0 / t 0 ) / 2”, the direction of the movement (spatial direction x, y and time direction t three-dimensional Since there is almost no frequency component other than the frequency component in the direction perpendicular to the direction of the movement of (1), there is almost no frequency component in the region excluding the region R 1101 from the region R 401 shown in FIG.

さらに、動画において、そこに投影されている被写体が速度「r0/t0」程度で動いている部分では、その動きの方向に垂直な方向の周波数成分以外はほとんど存在しないから、上述の図12に示した領域R801から領域R1201を除いた領域における周波数成分はほとんど存在しない。 Further, in the moving image, there is almost no frequency component other than the frequency component in the direction perpendicular to the direction of the movement in the portion where the object projected there is moving at a speed of about “r 0 / t 0 ”. There are almost no frequency components in the region excluding the region R 1201 from the region R 801 shown in FIG.

また、動画において、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分では、その動きの方向に垂直な方向の周波数成分以外はほとんど存在しないから、上述の図13に示した領域R901から領域R1301を除いた領域における周波数成分はほとんど存在しない。 Further, in the moving image, in the portion where the subject projected there is moving at a speed of about “2r 0 / t 0 ”, there is almost no frequency component in the direction perpendicular to the direction of the movement. There are almost no frequency components in the region excluding the region R 1301 from the region R 901 shown in FIG.

但し、実際には、動画においては、被写体の投影像は、時間の経過に伴って複雑に変化するため、動画において静止している部分であっても、図10に示した領域R301から領域R1001を除いた領域に、多少のデータ(周波数成分)が存在する。 However, in actuality, in the moving image, the projected image of the subject changes in a complicated manner with time, so even a portion that is stationary in the moving image is a region from the region R 301 shown in FIG. There is some data (frequency components) in the area excluding R1001 .

同様に、動画において速度「(r0/t0)/2」程度で動いている部分には、図11に示した領域R401から領域R1101を除いた領域に、多少のデータが存在し、また、動画において速度「r0/t0」程度で動いている部分には、図12に示した領域R801から領域R1201を除いた領域に、多少のデータが存在する。さらに、動画において速度「2r0/t0」程度で動いている部分には、図13に示した領域R901から領域R1301を除いた領域に、多少のデータが存在する。 Similarly, in the moving part of the moving image at a speed of “(r 0 / t 0 ) / 2”, there is some data in the area excluding the area R 1101 from the area R 401 shown in FIG. Further, in the moving part of the moving image at the speed “r 0 / t 0 ”, there is some data in the area excluding the area R 1201 from the area R 801 shown in FIG. Furthermore, in the moving part of the moving image at a speed of about “2r 0 / t 0 ”, there is some data in the area excluding the area R 1301 from the area R 901 shown in FIG.

このような領域R1001,R1101,R1201,R1301外に存在するデータを削除するために、送信装置1(図25)のフィルタ部22では、領域R1001,R1101,R1201,R1301を通過帯域とするフィルタによるフィルタリングを行っている。 In order to delete data existing outside the regions R 1001 , R 1101 , R 1201 , and R 1301 , the filter unit 22 of the transmission device 1 (FIG. 25) uses the regions R 1001 , R 1101 , R 1201 , R Filtering is performed by a filter having a pass band of 1301 .

従って、受信装置2に入力される低フレームレートの動画データが、送信装置1の処理の結果得られたものでない場合には、領域R1001,R1101,R1201,R1301外に、多少のデータが存在することがあり得る。そして、領域R1001,R1101,R1201,R1301外に、データが存在する場合、受信装置2(図33)のフィルタ部52におけるフィルタリングおよびアップサンプリングによって得られる動画データについては、図2に示した人間が認識することができる領域R201内に折り返し成分が混入し、その折り返し成分によって、動画の画質は劣化する。 Therefore, when the low frame rate moving image data input to the receiving device 2 is not obtained as a result of the processing of the transmitting device 1, some data outside the regions R 1001 , R 1101 , R 1201 , R 1301 There can be data. Then, when data exists outside the regions R 1001 , R 1101 , R 1201 , and R 1301 , moving image data obtained by filtering and upsampling in the filter unit 52 of the receiving device 2 (FIG. 33) is shown in FIG. The aliasing component is mixed in the region R 201 that can be recognized by the human being, and the image quality of the moving image deteriorates due to the aliasing component.

しかしながら、領域R1001,R1101,R1201,R1301外に存在するデータは僅かであり、そのような僅かなデータによる折り返し成分に起因して生じる画質の劣化も僅かである。従って、受信装置2に対して、元々、1/(4t0)の低フレームレートの動画データを入力する場合には、送信装置1において得られる低フレームレートの動画データを入力する場合に比較して、多少の画質の劣化はあるが、それでも、元々、1/(4t0)の低フレームレートの動画データを、そのまま表示する場合に比較して、画質が改善された動画を表示することができる。 However, the data existing outside the regions R 1001 , R 1101 , R 1201 , and R 1301 is very small, and image quality degradation caused by the aliasing component due to such a small amount of data is also small. Therefore, originally when moving image data with a low frame rate of 1 / (4t 0 ) is originally input to the receiving device 2, it is compared with when inputting moving image data with a low frame rate obtained by the transmitting device 1. Although there is some degradation in image quality, it is still possible to display movies with improved image quality compared to the case of displaying 1 / (4t 0 ) low frame rate movie data as it is. it can.

なお、受信装置2に入力される1/(4t0)の低フレームレートの動画データが、いわゆる電子シャッタを採用する撮像装置で撮像されたものである場合には、受信装置2(図33)のフィルタ情報供給部62において、その低フレームレートの動画データの撮像時の露光時間に対応してT方向の幅が制限された領域を、フィルタの通過帯域として決定することができる。 Note that when the 1 / (4t 0 ) low-frame-rate moving image data input to the receiving device 2 is captured by an imaging device that employs a so-called electronic shutter, the receiving device 2 (FIG. 33). In the filter information supply unit 62, a region in which the width in the T direction is limited corresponding to the exposure time at the time of capturing the moving image data at the low frame rate can be determined as the pass band of the filter.

即ち、1/(4t0)の低フレームレートの動画データの各フレームの撮像時の露光時間が、t0より大で、4t0より小であるt0'である場合には、各フレームに投影されている被写体の画像は、被写体からの光を、時間t0'だけ積分した値(受光量)に等しい。従って、被写体が動いている場合には、各フレームの画像には、時間t0'に対応するボケ(モーションブラー)が生じる。なお、t0が、例えば、1/240秒程度である場合には、t0'は、例えば、1/120秒程度である。 That is, 1 / the (4t 0) exposure time for the imaging of each frame of the moving image data of a low frame rate, with greater than t 0, when it is t 0 'is smaller than 4t 0 is on each frame The projected image of the subject is equal to a value (light reception amount) obtained by integrating light from the subject for a time t 0 ′. Therefore, when the subject is moving, blur (motion blur) corresponding to time t 0 ′ is generated in the image of each frame. When t 0 is about 1/240 seconds, for example, t 0 ′ is about 1/120 seconds, for example.

時間t0'だけの積分は、図39に示すような、周波数ドメインのT方向に、2π/t0'の幅を有する領域R3901を通過帯域とするローパスフィルタによるフィルタリングを行うことと等価であり、従って、電子シャッタにより、露光時間をt0'として撮像された動画の各フレームのデータは、領域R3901を通過帯域とするローパスフィルタを通過したデータであると言うことができる。 The integration of only time t 0 ′ is equivalent to performing filtering by a low-pass filter having a region R 3901 having a width of 2π / t 0 ′ in the frequency domain T direction as shown in FIG. Therefore, it can be said that the data of each frame of the moving image captured with the exposure time t 0 ′ by the electronic shutter is the data that has passed through the low-pass filter having the region R 3901 as the pass band.

なお、領域R3901は、T方向が、-π/t0'乃至π/t0'の範囲の2π/t0'の幅を有し、かつ、X,Y方向が、人間が認識することができる-π/r0乃至π/r0の範囲の2π/r0の幅を有する領域である。上述のように、例えば、t0が1/240秒で、t0'が1/120秒であり、従って、2t0=t0'である場合には、領域R3901は、T方向が、-π/(2t0)乃至π/(2t0)の範囲のπ/t0の幅を有する。 Note that the region R 3901 has a width of 2π / t 0 ′ in the range of −π / t 0 ′ to π / t 0 ′ in the T direction, and a human recognizes the X and Y directions. This is a region having a width of 2π / r 0 in the range of −π / r 0 to π / r 0 . As described above, for example, when t 0 is 1/240 seconds and t 0 ′ is 1/120 seconds, and therefore 2t 0 = t 0 ′, the region R 3901 has the T direction It has a width of π / t 0 in the range of −π / (2t 0 ) to π / (2t 0 ).

以上のように、露光時間をt0'として撮像された動画の各フレームのデータは、領域R3901を通過帯域とするローパスフィルタを通過したデータであるから、周波数ドメインにおいて、領域R3901以外には、データは存在しない。 As described above, the data of each frame of the imaged moving image exposure time as t 0 ', since the data that has passed through the low-pass filter having a pass band region R 3901, in the frequency domain, in addition to regions R 3901 There is no data.

従って、人間が認識することができる、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301内のデータであっても、図39の領域R3901外にあるデータは、ノイズ等の、動画本来のデータでないから、不要なデータとして削除するのが望ましい。 Therefore, for example, even the data in the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. Since the data outside the area R 3901 is not the original data of the moving image such as noise, it is desirable to delete it as unnecessary data.

そこで、受信装置2(図33)のフィルタ情報供給部62では、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301のT方向を図39の領域R3901によって制限した領域を、フィルタの通過帯域として決定することができる。 Therefore, in the filter information supply unit 62 of the receiving device 2 (FIG. 33), the T direction of the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. A region limited by 39 regions R 3901 can be determined as the passband of the filter.

例えば、いま、上述したように、2t0=t0'であるとすると、図20の領域R1001は、図39の領域R3901に含まれるから、フィルタ情報供給部62では、動画において被写体が静止している部分については、図20の領域R1001を、そのまま、フィルタの通過帯域として決定することができる。 For example, as described above, assuming that 2t 0 = t 0 ′, the region R 1001 in FIG. 20 is included in the region R 3901 in FIG. For the stationary part, the region R 1001 in FIG. 20 can be determined as it is as the pass band of the filter.

また、図21の領域R1101は、図40に示すように、その領域R1101のうちの、T方向が、-π/(2t0)乃至π/(2t0)の範囲で、X,Y方向が、-π/r0乃至π/r0の範囲の領域R4001において、図39の領域R3901と重複するから、フィルタ情報供給部62では、動画に投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図40の領域R4001を、フィルタの通過帯域として決定することができる。 In addition, as shown in FIG. 40, the region R 1101 in FIG. 21 has X, Y in the T direction in the region R 1101 in the range of −π / (2t 0 ) to π / (2t 0 ). direction, in the region R 4001 in the range of - [pi] / r 0 to [pi / r 0, since overlapping the region R 3901 in FIG. 39, the filter information supply section 62, the subject being projected video speed "( For a portion moving at about “r 0 / t 0 ) / 2”, the region R 4001 in FIG. 40 can be determined as the passband of the filter.

さらに、図22の領域R1201は、図41に示すように、その領域R1201のうちの、T方向が、-π/(2t0)乃至π/(2t0)の範囲で、X,Y方向が、-π/r0乃至π/r0の範囲の領域R4101において、図39の領域R3901と重複するから、フィルタ情報供給部62では、動画に投影されている被写体が速度「r0/t0」程度で動いている部分については、図41の領域R4101を、フィルタの通過帯域として決定することができる。 Furthermore, as shown in FIG. 41, the region R 1201 in FIG. 22 has X, Y in the T direction in the region R 1201 in the range of −π / (2t 0 ) to π / (2t 0 ). Since the direction R overlaps with the region R 3901 in FIG. 39 in the region R 4101 in the range of −π / r 0 to π / r 0 , the filter information supply unit 62 uses the velocity “r For a portion moving at about “ 0 / t 0 ”, the region R 4101 in FIG. 41 can be determined as the passband of the filter.

また、図23の領域R1301は、図42に示すように、その領域R1301のうちの、T方向が、-π/(2t0)乃至π/(2t0)の範囲で、X,Y方向が、-π/r0乃至π/r0の範囲の領域R4201において、図39の領域R3901と重複するから、フィルタ情報供給部62では、動画に投影されている被写体が速度「2r0/t0」程度で動いている部分については、図42の領域R4201を、フィルタの通過帯域として決定することができる。 In addition, as shown in FIG. 42, the region R 1301 in FIG. 23 has X, Y in the T direction in the region R 1301 in the range of −π / (2t 0 ) to π / (2t 0 ). direction, in the region R 4201 in the range of - [pi] / r 0 to [pi / r 0, since overlapping the region R 3901 in FIG. 39, the filter information supply unit 62, the object being projected video speed "2r For the portion moving at about “ 0 / t 0 ”, the region R 4201 in FIG. 42 can be determined as the passband of the filter.

受信装置2(図33)のフィルタ情報供給部62において、以上のようにフィルタの通過帯域を決定し、フィルタ部52でフィルタリングを行うことにより、領域R3901外にある、ノイズ等の、動画本来のデータでない不要なデータが除去されるので、S/N(Signal to Noise ratio)等が向上した動画データを得ることができる。 In the filter information supply unit 62 of the receiving apparatus 2 (FIG. 33), the pass band of the filter is determined as described above, and filtering is performed by the filter unit 52, so that the original moving image such as noise outside the region R 3901 is obtained. Since unnecessary data other than the above data is removed, moving image data with improved S / N (Signal to Noise ratio) and the like can be obtained.

ここで、受信装置2において、フィルタの通過帯域を、図39の領域R3901で制限する場合には、受信装置2に入力される低フレームレートの動画データの撮像時の露光時間t0'が必要となるが、この露光時間t0'は、例えば、受信装置2に入力される動画データに多重化する等して、受信装置2に入力することができる。 Here, in the receiving apparatus 2, when the pass band of the filter is limited by the region R 3901 in FIG. 39, the exposure time t 0 ′ at the time of capturing the low frame rate moving image data input to the receiving apparatus 2 is Although necessary, the exposure time t 0 ′ can be input to the receiving device 2 by multiplexing the moving image data input to the receiving device 2, for example.

なお、受信装置2に入力されるデータがエンコードされていない場合には、デコード部50は、そのデータをデコードすることなく、バッファ部51に供給する。   When the data input to the receiving device 2 is not encoded, the decoding unit 50 supplies the data to the buffer unit 51 without decoding the data.

ところで、例えば、送信装置1(図25)の主成分方向取得部31では、上述したように、注目ブロックの、注目フレームの次のフレームへの動きベクトル(u0,v0)を検出し、その動きベクトル(u0,v0)から、注目ブロックの周波数ドメインでの主成分方向を求めることができる。即ち、主成分方向取得部31では、注目ブロックの動きベクトル(u0,v0)に、時間方向tのコンポーネントt0を加えた3次元の動きベクトル(u0,v0,t0)と直交する平面を、注目ブロックの周波数ドメインでの主成分方向として求めることができる。 By the way, for example, the principal component direction acquisition unit 31 of the transmission device 1 (FIG. 25) detects the motion vector (u 0 , v 0 ) of the block of interest to the next frame of the frame of interest, as described above. From the motion vector (u 0 , v 0 ), the principal component direction in the frequency domain of the block of interest can be obtained. That is, in the principal component direction acquisition unit 31, a three-dimensional motion vector (u 0 , v 0 , t 0 ) obtained by adding the component t 0 in the time direction t to the motion vector (u 0 , v 0 ) of the block of interest An orthogonal plane can be obtained as the principal component direction in the frequency domain of the block of interest.

この場合、注目ブロックの、注目フレームの次のフレームへの動きベクトル(u0,v0)を、例えば、-2倍、-1倍、2倍、3倍したベクトルが、それぞれ、注目ブロックの、注目フレームの前の前のフレーム、前のフレーム、次の次のフレーム、次の次の次のフレームへの動きベクトルに一致していれば、動きベクトル(u0,v0)から求められる注目ブロックの主成分方向は、正確なものとなる。 In this case, for example, a vector obtained by multiplying the motion vector (u 0 , v 0 ) of the block of interest to the next frame of the frame of interest by, for example, -2, -1, 2 or 3 times, If it matches the motion vector to the previous frame, previous frame, next next frame, next next next frame of the frame of interest, it can be obtained from the motion vector (u 0 , v 0 ) The principal component direction of the block of interest is accurate.

しかしながら、動きベクトル(u0,v0)を、例えば、-2倍や、-1倍、2倍、3倍したベクトルが、注目ブロックの、注目フレームの前の前のフレームや、前のフレーム、次の次のフレーム、次の次の次のフレームへの動きベクトルからずれている場合、そのずれに応じて、動きベクトル(u0,v0)から求められる注目ブロックの主成分方向は、誤差を含み、不正確なものとなる。 However, a vector obtained by multiplying the motion vector (u 0 , v 0 ) by, for example, −2 times, −1 times, 2 times, or 3 times is the frame before the attention frame or the previous frame of the attention block. If the motion vector is shifted from the motion vector to the next next frame, the next next frame, the principal component direction of the target block obtained from the motion vector (u 0 , v 0 ) is It contains errors and is inaccurate.

即ち、図43は、送信装置1に供給される高フレームレートの動画データを示している。   That is, FIG. 43 shows high frame rate moving image data supplied to the transmission apparatus 1.

なお、図43においては、横軸を、空間方向xとして、動画データを示してある。また、動画には動被写体が投影されており、その動被写体は、空間方向xにのみ移動する(空間方向yへの移動はしない)ものとする。図43では、動被写体は、時間の経過とともに、左から右方向に移動している。   In FIG. 43, the moving image data is shown with the horizontal axis as the spatial direction x. In addition, a moving subject is projected on the moving image, and the moving subject moves only in the spatial direction x (does not move in the spatial direction y). In FIG. 43, the moving subject moves from left to right as time passes.

図43には、上から順に、時刻(フレーム)t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける画像データが示されている。 In FIG. 43, in order from the top, time (frames) t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t + 3t 0 , t + Image data in each of 4t 0 is shown.

いま、時刻tの画像データを基準とすると、その時刻tの画像データに対して、時刻t-4t0の画像データはK4だけ、時刻t-3t0の画像データはK3だけ、時刻t-2t0の画像データはK2だけ、時刻t-t0の画像データはK1だけ、時刻t+t0の画像データはH1だけ、時刻t+2t0の画像データはH2だけ、時刻t+3t0の画像データはH3だけ、時刻t+4t0の画像データはH4だけ、それぞれ、空間方向xにずれている。 If the image data at time t is used as a reference, the image data at time t-4t 0 is only K 4 , the image data at time t-3t 0 is only K 3 , and the time t Image data at -2t 0 is K 2 only, image data at time tt 0 is K 1 only, image data at time t + t 0 is H 1 only, image data at time t + 2t 0 is H 2 only, time t The image data at + 3t 0 is shifted by H 3 and the image data at time t + 4t 0 is shifted by H 4 in the spatial direction x.

従って、時刻tの画像データにおけるあるブロックR4300を注目ブロックとすると、その注目ブロックR4300と同一の画像データ(注目ブロックR4300に対応する画像データ)は、時刻t-4t0の画像データでは、注目ブロックR4300から空間方向xにK4だけずれた位置の領域R4314に存在し、時刻t-3t0の画像データでは、注目ブロックR4300から空間方向xにK3だけずれた位置の領域R4313に存在する。同様に、注目ブロックR4300と同一の画像データは、時刻t-2t0の画像データでは、注目ブロックR4300から空間方向xにK2だけずれた位置の領域R4312に、時刻t-t0の画像データでは、注目ブロックR4300から空間方向xにK1だけずれた位置の領域R4311に、時刻t+t0の画像データでは、注目ブロックR4300から空間方向xにH1だけずれた位置の領域R4301に、時刻t+2t0の画像データでは、注目ブロックR4300から空間方向xにH2だけずれた位置のR4302に、時刻t+3t0の画像データでは、注目ブロックR4300から空間方向xにH3だけずれた位置の領域R4303に、時刻t+4t0の画像データでは、注目ブロックR4300から空間方向xにH4だけずれた位置の領域R4304に、それぞれ存在する。 Therefore, when a certain block R 4300 in the image data at time t and the subject block, the same image data and the block of interest R 4300 (image data corresponding to the target block R 4300), the image data at time t-4t 0 is , from the target block R 4300 present in a region R 4314 of the position shifted by K 4 in the spatial direction x, the image data at time t-3t 0, from the target block R 4300 of position shifted in the spatial direction x by K 3 Exists in region R 4313 . Similarly, the same image data as the target block R 4300 is the image data at time tt 0 in the region R 4312 at a position shifted by K 2 in the spatial direction x from the target block R 4300 in the image data at time t−2t 0. In the data, the region R 4311 at a position shifted by K 1 in the spatial direction x from the target block R 4300 , and at the time t + t 0 image data at the position shifted by H 1 in the spatial direction x from the target block R 4300 . In the region R 4301 , in the image data at time t + 2t 0 , the image data at time t + 3t 0 is shifted from the target block R 4300 to R 4302 at a position shifted by H 2 in the spatial direction x from the target block R 4300. In the region R 4303 at a position shifted by H 3 in the spatial direction x, the image data at time t + 4t 0 exists in the region R 4304 at a position shifted by H 4 in the spatial direction x from the target block R 4300 , respectively. .

なお、図43において、動被写体の動きの大きさは一定ではなく、従って、K4からK3への増加率,K3からK2への増加率、K2からK1への増加率、K1から0への増加率、0からH1への増加率、H1からH2への増加率,H2からH3への増加率、H3からH4への増加率も一定にはなっていない。 In FIG. 43, the magnitude of the movement of the moving subject is not constant. Therefore, the rate of increase from K 4 to K 3 , the rate of increase from K 3 to K 2 , the rate of increase from K 2 to K 1 , The rate of increase from K 1 to 0, the rate of increase from 0 to H 1 , the rate of increase from H 1 to H 2 , the rate of increase from H 2 to H 3 and the rate of increase from H 3 to H 4 are also constant. It is not.

図43に示したように、被写体が移動している場合、注目ブロックR4300の動きベクトル(u0,v0)は、図44に示すように、ベクトル(H1,0)が求められる。従って、送信装置1(図25)の主成分方向取得部31では、この注目ブロックR4300の動きベクトル(H1,0)から、注目ブロックR4300の主成分方向が求められる。 As shown in FIG. 43, when the subject is moving, the motion vector (u 0 , v 0 ) of the block of interest R 4300 is obtained as shown in FIG. 44 as a vector (H 1 , 0). Therefore, the principal component direction acquisition unit 31 of the transmission device 1 (FIG. 25) obtains the principal component direction of the target block R 4300 from the motion vector (H 1 , 0) of the target block R 4300 .

そして、送信装置1のフィルタ情報供給部32では、その主成分方向から、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301などが、フィルタ部22におけるフィルタリングを行うフィルタの通過帯域として決定される。 Then, in the filter information supply unit 32 of the transmission apparatus 1, for example, the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. Is determined as the pass band of the filter that performs filtering in the filter unit 22.

フィルタの通過帯域としての、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301などは、上述したように、T方向に、2π/(4t0)の幅を有するため、このような通過帯域のフィルタによるフィルタリングでは、注目ブロックR4300のフレーム(注目フレーム)の前後4フレーム程度の画像データ、即ち、例えば、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0の9フレームの範囲の画像データや、時刻t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0の7フレームの範囲の画像データなどを用いた演算(送信装置1のフィルタ部22にて行われる演算)によって、フィルタリング結果としての注目ブロックR4300の画像データが求められる。 As the pass band of the filter, for example, the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. / (4t 0 ), therefore, filtering by such a passband filter, image data of about 4 frames before and after the frame of the block of interest R 4300 (frame of interest), that is, for example, time t-4t 0 , T-3t 0 , t-2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t + 3t 0 , t + 4t 0 range of image data or time t-3t 0 , T−2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t + 3t 0 and other operations using image data in a range of 7 frames (performed by the filter unit 22 of the transmission apparatus 1) By calculation), the image data of the target block R 4300 as the filtering result is obtained.

即ち、注目ブロックR4300のある位置(x,y)の画素の、フィルタリング結果としての画素値は、例えば、時刻t+t0の画像データにおける位置(x,y)から動きベクトル(H1,0)だけずれた位置付近の画素値、時刻t+2t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の2倍のベクトル(2H1,0)だけずれた位置付近の画素値、時刻t+3t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の3倍のベクトル(3H1,0)だけずれた位置付近の画素値、時刻t+4t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の4倍のベクトル(4H1,0)だけずれた位置付近の画素値、時刻t-t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−1倍のベクトル(-H1,0)だけずれた位置付近の画素値、時刻t-2t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−2倍のベクトル(-2H1,0)だけずれた位置付近の画素値、時刻t-3t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−3倍のベクトル(-3H1,0)だけずれた位置付近の画素値、時刻t-4t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−4倍のベクトル(-4H1,0)だけずれた位置付近の画素値を用いて求められる。 That is, the block of interest position with R 4300 of pixels (x, y), the pixel value as a filtering result, for example, the position in the image data at time t + t 0 (x, y ) a motion vector (H 1 from Pixel value near the position shifted by 0), position shifted by the vector (2H 1 , 0) twice the motion vector (H 1 , 0) from the position (x, y) in the image data at time t + 2t 0 Near pixel value, pixel value near the position shifted by the vector (3H 1 , 0) three times the motion vector (H 1 , 0) from the position (x, y) in the image data at time t + 3t 0 A pixel value in the vicinity of a position shifted by a vector (4H 1 , 0) four times the motion vector (H 1 , 0) from the position (x, y) in the image data at t + 4t 0, in the image data at time tt 0 position (x, y) -1 times the vector (-H 1, 0) shifted by the pixel value of the vicinity of the position of the motion vector from the (H 1, 0), the position in the image data at time t-2t 0 (x, -2 times the motion vector (H 1, 0) from y) Vector (-2H 1, 0) only the pixel values of the shifted around position, the position in the image data at time t-3t 0 (x, y ) a motion vector (H 1, 0) from -3 fold vector (-3H 1, 0) -4 times the vector of pixel values around a position shifted by a position in the image data at time t-4t 0 (x, y ) from the motion vector (H 1, 0) (-4H 1, 0) It is obtained by using pixel values in the vicinity of the position shifted by a distance.

ここで、動きベクトル(H1,0)は、図44に示したように、注目ブロックR4300から、時刻t+t0の画像データにおける、注目ブロックR4300に対応する(注目ブロックR4300と同一の画像データが存在する)領域R4301の位置へのベクトルであるから、注目ブロックR4300から動きベクトル(H1,0)だけずれた時刻t+t0の画像データ上の位置は、注目ブロックR4300に対応する領域R4301の位置に一致する。 Here, the motion vector (H 1, 0), as shown in FIG. 44, from the target block R 4300, the image data at time t + t 0, corresponding to the target block R 4300 and (attention block R 4300 Since this is a vector to the position of the region R 4301 (where the same image data exists), the position on the image data at time t + t 0 shifted by the motion vector (H 1 , 0) from the block of interest R 4300 It matches the position of the region R 4301 corresponding to the block R 4300 .

しかしながら、ベクトル(2H1,0)は、図45に示すように、動きベクトル(H1,0)を2倍したベクトルであるから、注目ブロックR4300からベクトル(2H1,0)だけずれた時刻t+2t0の画像データ上の位置は、注目ブロックR4300に対応する領域R4302の位置に一致するとは限らない。 However, since the vector (2H 1 , 0) is a vector obtained by doubling the motion vector (H 1 , 0) as shown in FIG. 45, the vector (2H 1 , 0) is shifted from the target block R 4300 by the vector (2H 1 , 0). The position on the image data at time t + 2t 0 does not necessarily match the position of the region R 4302 corresponding to the block of interest R 4300 .

また、ベクトル(3H1,0)は、図46に示すように、動きベクトル(H1,0)を3倍したベクトルであるから、注目ブロックR4300からベクトル(3H1,0)だけずれた時刻t+3t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4303の位置に一致するとは限らない。 Further, as shown in FIG. 46, the vector (3H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by three, so that it is shifted from the target block R 4300 by the vector (3H 1 , 0). The position on the image data at time t + 3t 0 does not always match the position of the region R 4303 corresponding to the block of interest R 4300 .

さらに、ベクトル(4H1,0)は、図47に示すように、動きベクトル(H1,0)を4倍したベクトルであるから、注目ブロックR4300からベクトル(4H1,0)だけずれた時刻t+4t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4304の位置に一致するとは限らない。 Furthermore, since the vector (4H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by 4 as shown in FIG. 47, the vector (4H 1 , 0) is shifted from the target block R 4300 by the vector (4H 1 , 0). The position on the image data at time t + 4t 0 does not necessarily match the position of the region R 4304 corresponding to the target block R 4300 .

また、ベクトル(-H1,0)は、図48に示すように、動きベクトル(H1,0)を−1倍したベクトルであるから、注目ブロックR4300からベクトル(-H1,0)だけずれた時刻t-t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4311の位置に一致するとは限らない。 Further, as shown in FIG. 48, the vector (−H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by −1. Therefore, the vector (−H 1 , 0) from the target block R 4300 The position on the image data at time tt 0 that is shifted by a certain amount does not necessarily match the position of the region R 4311 corresponding to the block of interest R 4300 .

さらに、ベクトル(-2H1,0)は、図49に示すように、動きベクトル(H1,0)を−2倍したベクトルであるから、注目ブロックR4300からベクトル(-2H1,0)だけずれた時刻t-2t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4312の位置に一致するとは限らない。 Furthermore, since the vector (-2H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by -2 as shown in FIG. 49, the vector (-2H 1 , 0) from the target block R 4300 The position on the image data at time t−2t 0 that is shifted by a certain amount does not always match the position of the region R 4312 corresponding to the block of interest R 4300 .

また、ベクトル(-3H1,0)は、図50に示すように、動きベクトル(H1,0)を−3倍したベクトルであるから、注目ブロックR4300からベクトル(-3H1,0)だけずれた時刻t-3t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4313の位置に一致するとは限らない。 Further, since the vector (−3H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by −3 as shown in FIG. 50, the vector (−3H 1 , 0) from the target block R 4300 The position on the image data at time t-3t 0 that is shifted by a certain amount does not necessarily match the position of the region R 4313 corresponding to the block of interest R 4300 .

さらに、ベクトル(-4H1,0)は、図51に示すように、動きベクトル(H1,0)を−4倍したベクトルであるから、注目ブロックR4300からベクトル(-4H1,0)だけずれた時刻t-4t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4314の位置に一致するとは限らない。 Furthermore, since the vector (−4H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by −4 as shown in FIG. 51, the vector (−4H 1 , 0) from the target block R 4300 The position on the image data at time t-4t 0 that is shifted by a certain amount does not necessarily match the position of the region R 4314 corresponding to the block of interest R 4300 .

このため、注目ブロックR4300に注目したフィルタリングにあたり、時刻t-4t0,t-3t0,t-2t0,t-t0,t+2t0,t+3t0,t+4t0それぞれの画像データについては、注目ブロックR4300に対応する領域R4314,R4313,R4312,R4311,R4302,R4303,R4304からずれた位置の領域の画素値が用いられ、その結果、真の主成分方向に延びる周波数ドメイン上の領域(例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301)内の周波数成分のみのデータを、正確に得ることが困難な場合が生じ得る。 For this reason, in filtering focused on the target block R 4300 , the image data at times t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + 2t 0 , t + 3t 0 , t + 4t 0 , The pixel values of the regions shifted from the regions R 4314 , R 4313 , R 4312 , R 4311 , R 4302 , R 4303 , R 4304 corresponding to the target block R 4300 are used, and as a result, the true main Data of only frequency components in a region on the frequency domain extending in the component direction (for example, region R 1001 in FIG. 20, region R 1101 in FIG. 21, region R 1201 in FIG. 22, region R 1301 in FIG. 23), There may be cases where it is difficult to obtain accurately.

これは、注目ブロックから次のフレームへの動きベクトルを用いて主成分方向を求めることが、注目ブロックから次のフレームへの動きベクトルの単純な倍数によって、注目ブロックからその他のフレームへの動きベクトルを近似することに相当し、従って、被写体が一定速度で移動していないにもかかわらず、注目ブロックから次のフレームへの動きベクトルを用いて主成分方向を求めると、不正確な主成分方向が得られることに起因する。   This is because the motion vector from the target block to the next frame can be determined by using the motion vector from the target block to the next frame. Therefore, when the principal component direction is calculated using the motion vector from the block of interest to the next frame even though the subject is not moving at a constant speed, an incorrect principal component direction is obtained. This is due to the fact that

そこで、送信装置1(図25)の主成分方向取得部31では、上述したように、注目ブロックと次のフレームとの相関を表す相関情報だけではなく、注目ブロックとその前後の複数のフレームそれぞれとの相関を表す複数の相関情報を用いることによって、注目ブロックから複数のフレームそれぞれへの、いわば平均的な動きを表すベクトル(以下、適宜、平均動きベクトルという)を求め、その平均動きベクトルから、注目ブロックについて、精度の高い主成分方向を求めることができる。   Therefore, in the principal component direction acquisition unit 31 of the transmission device 1 (FIG. 25), as described above, not only the correlation information indicating the correlation between the block of interest and the next frame, but also the block of interest and a plurality of frames before and after the block. By using a plurality of pieces of correlation information representing the correlation between the target block and each of the plurality of frames, a so-called average motion vector (hereinafter referred to as an average motion vector as appropriate) is obtained. The principal component direction with high accuracy can be obtained for the target block.

図52は、図25の主成分方向取得部31において、平均動きベクトルから主成分方向を求める場合の、その主成分方向取得部31の構成例を示している。   FIG. 52 shows a configuration example of the principal component direction acquisition unit 31 in the case where the principal component direction acquisition unit 31 in FIG. 25 obtains the principal component direction from the average motion vector.

バッファ部101には、バッファ部21(図25)から読み出された1/t0の高フレームレートの動画データが供給され、バッファ部101は、その動画データを一時記憶する。 The buffer unit 101 is supplied with the 1 / t 0 high frame rate moving image data read from the buffer unit 21 (FIG. 25), and the buffer unit 101 temporarily stores the moving image data.

ブロック抽出部102は、バッファ部101に記憶された動画データを、例えば、上述した16×16画素のブロックに分割し、順次、注目ブロックとして選択して、相関演算部103に供給する。   The block extraction unit 102 divides the moving image data stored in the buffer unit 101 into, for example, the above-described 16 × 16 pixel blocks, sequentially selects the target block, and supplies the selected block to the correlation calculation unit 103.

相関演算部103は、ブロック抽出部102から供給される注目ブロックのフレーム(注目フレーム)に対して時間的に前後の複数のフレーム(のデータ)を、バッファ部101から読み出し、注目ブロックと、複数のフレームそれぞれとの相関を表す相関情報を演算して、スケーリング合成部104に供給する。   The correlation calculation unit 103 reads, from the buffer unit 101, a plurality of frames (data) before and after the frame of the block of interest (the frame of interest) supplied from the block extraction unit 102. The correlation information representing the correlation with each of the frames is calculated and supplied to the scaling synthesis unit 104.

ここで、相関情報としては、例えば、図32のステップS22で説明した場合と同様に、注目ブロックを、空間方向x,yに、それぞれ、u,vだけずらした位置における、注目ブロックの各画素と、その画素と同一位置にある他のフレームの画素との画素値の差分絶対値の総和を採用することとする。この場合、上述したように、相関情報の「値」が最小になる空間方向の位置u,vが、相関情報が表す相関が最も高くなる、他のフレーム上の空間方向の位置となる。   Here, as the correlation information, for example, as in the case described in step S22 of FIG. 32, each pixel of the target block at a position where the target block is shifted by u and v in the spatial directions x and y, respectively. And the sum of absolute difference values of pixel values from pixels in other frames at the same position as the pixel. In this case, as described above, the position u, v in the spatial direction where the “value” of the correlation information is the minimum is the position in the spatial direction on the other frame where the correlation represented by the correlation information is the highest.

なお、相関演算部103において、注目ブロックとの相関情報を演算する対象のフレームの範囲は、フィルタ部22(図25)でのフィルタリングに用いられるフレームの範囲に対応した範囲とすることができる。   Note that in the correlation calculation unit 103, the range of the frame for which the correlation information with the target block is calculated can be a range corresponding to the frame range used for filtering in the filter unit 22 (FIG. 25).

即ち、図43で説明したように、時刻tの画像データを基準とすると(時刻tを注目フレームとすると)、フィルタ部22でのフィルタリングでは、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0の9フレームの画像データや、時刻t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0の7フレームの画像データなどが用いられる。相関演算部103において、相関情報を演算するフレームは、この9フレームや7フレームの画像データとほぼ同様の範囲の画像データ、即ち、例えば、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0それぞれの画像データとすることができる。 That is, as described with reference to FIG. 43, when the image data at time t is used as a reference (when time t is the frame of interest), the filtering in the filter unit 22 performs time t-4t 0 , t-3t 0 , t− 9 frames of image data of 2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t + 3t 0 , t + 4t 0 , time t-3t 0 , t-2t 0 , tt 0 , t , T + t 0 , t + 2t 0 , t + 3t 0 , and the like are used. In the correlation calculation unit 103, the frame for calculating the correlation information is image data in a range almost similar to the image data of 9 frames or 7 frames, that is, for example, time t-4t 0 , t-3t 0 , t-2t. 0, tt 0, t, can be t + t 0, t + 2t 0, t + 3t 0, t + 4t 0 each image data.

なお、時刻tの画像データは、注目ブロックのフレーム(注目フレーム)であるから、その時刻tについては、相関情報を演算する必要はない。即ち、相関演算部103において、注目ブロックとの相関情報を演算する対象は、時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれの画像データである。 Note that since the image data at time t is a frame of the block of interest (frame of interest), there is no need to calculate correlation information for that time t. That is, the correlation calculation unit 103 calculates the correlation information with the block of interest at times t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t The image data is + 3t 0 and t + 4t 0 respectively.

ここで、注目ブロックとの相関情報を演算する対象のフレームを、以下、適宜、相関演算対象フレームという。   Here, the frame for which the correlation information with the block of interest is calculated is hereinafter referred to as a correlation calculation target frame as appropriate.

スケーリング合成部104は、相関演算部103から供給される、複数の相関演算対象フレームそれぞれについて求められた相関情報を、後述するように、空間方向x,yにスケーリングし、さらに、そのスケーリング後の相関情報を合成して、合成相関情報を求める。そして、スケーリング合成部104は、その合成相関情報を、最小値検出部105に供給する。   The scaling synthesis unit 104 scales the correlation information obtained from each of the plurality of correlation calculation target frames supplied from the correlation calculation unit 103 in the spatial directions x and y as described later, and further, after the scaling. The correlation information is synthesized to obtain synthesized correlation information. Then, the scaling combining unit 104 supplies the combined correlation information to the minimum value detecting unit 105.

最小値検出部105は、スケーリング合成部104からの合成相関情報が表す相関が最大となる空間方向の位置である最大相関位置を検出し、その最大相関位置へのベクトルを、注目ブロックの平均動きベクトルとして求める。そして、最小値検出部105は、その平均動きベクトルに、バッファ部21(図25)から読み出された動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトルの方向と直交する方向を、主成分方向として検出して出力する。 The minimum value detecting unit 105 detects a maximum correlation position that is a position in the spatial direction where the correlation represented by the combined correlation information from the scaling combining unit 104 is maximum, and calculates a vector to the maximum correlation position as an average motion of the target block. Ask as a vector. Then, the minimum value detection unit 105 adds the frame period t 0 of the moving image data read from the buffer unit 21 (FIG. 25) to the average motion vector as a component in the time direction t. A direction orthogonal to the direction is detected and output as the principal component direction.

次に、図53は、図43に示した注目ブロックR4300と、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0それぞれの画像データ(フレーム)との相関情報を示している。 Next, FIG. 53 shows the block of interest R 4300 shown in FIG. 43 and the times t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t. Correlation information with each image data (frame) of + 3t 0 and t + 4t 0 is shown.

なお、図53に示した相関情報は、図52の相関演算部103で求められる。但し、上述したように、注目ブロックR4300と、注目フレームである時刻tの画像データとの相関情報は、演算する必要はない。 Note that the correlation information shown in FIG. 53 is obtained by the correlation calculation unit 103 in FIG. However, as described above, the correlation information between the block of interest R 4300 and the image data at time t, which is the frame of interest, does not need to be calculated.

また、図53において、相関情報としては、上述したように、画素値の差分絶対値の総和が採用されており、従って、相関情報は、下に凸の関数となり、相関情報の「値」が最小になる空間方向の位置が、相関情報が表す相関が最も高くなる空間方向の位置である。そして、注目ブロックから、その位置へのベクトルが、動きベクトルを表す。   In FIG. 53, as described above, the sum of the absolute differences of the pixel values is used as the correlation information. Therefore, the correlation information is a downward convex function, and the “value” of the correlation information is The position in the spatial direction that becomes the minimum is the position in the spatial direction where the correlation represented by the correlation information is the highest. A vector from the target block to that position represents a motion vector.

図43で説明したように、注目ブロックR4300と同一の画像データは、時刻t-4t0では、注目ブロックR4300から空間方向xにK4だけずれた位置の領域R4314に存在し、時刻t-3t0では、注目ブロックR4300から空間方向xにK3だけずれた位置の領域R4313に存在する。同様に、注目ブロックR4300と同一の画像データは、時刻t-2t0では、注目ブロックR4300から空間方向xにK2だけずれた位置の領域R4312に、時刻t-t0では、注目ブロックR4300から空間方向xにK1だけずれた位置の領域R4311に、時刻t+t0では、注目ブロックR4300から空間方向xにH1だけずれた位置の領域R4301に、時刻t+2t0では、注目ブロックR4300から空間方向xにH2だけずれた位置のR4302に、時刻t+3t0では、注目ブロックR4300から空間方向xにH3だけずれた位置の領域R4303に、時刻t+4t0では、注目ブロックR4300から空間方向xにH4だけずれた位置の領域R4304に、それぞれ存在する。 As described in FIG. 43, the same image data and the block of interest R 4300 is at time t-4t 0, present in the block of interest R 4300 position of the region R 4314 shifted by K 4 in the spatial direction x from the time At t−3t 0 , it exists in a region R 4313 at a position shifted from the target block R 4300 by K 3 in the spatial direction x. Similarly, the same image data as the target block R 4300 is displayed at the time t-2t 0 in the region R 4312 at a position shifted by K 2 from the target block R 4300 in the spatial direction x, and at the time tt 0 , the target block R At time t + t 0 at a region R 4311 at a position shifted by K 1 in the spatial direction x from 4300 , at time t + 2t at a region R 4301 at a position shifted by H 1 in the spatial direction x from the target block R 4300 At 0 , it moves to R 4302 at a position shifted by H 2 in the spatial direction x from the target block R 4300 , and at time t + 3t 0 , it enters a region R 4303 at a position shifted by H 3 from the target block R 4300 in the spatial direction x. At time t + 4t 0 , each exists in a region R 4304 at a position displaced from the target block R 4300 by H 4 in the spatial direction x.

従って、時刻t-4t0における相関情報は、位置x=K4において最小となり、時刻t-3t0における相関情報は、位置x=K3において最小となる。同様に、時刻t-2t0における相関情報は、位置x=K2において、時刻t-t0における相関情報は、x=K1において、時刻t+t0における相関情報は、位置x=H1において、時刻t+2t0における相関情報は、位置x=H2において、時刻t+3t0における相関情報は、位置x=H3において、時刻t+4t0における相関情報は、位置x=H4において、それぞれ最小となる。 Accordingly, the correlation information at time t-4t 0 is minimum at position x = K 4 , and the correlation information at time t-3t 0 is minimum at position x = K 3 . Similarly, the correlation information at time t-2t 0 is at position x = K 2 , the correlation information at time tt 0 is at x = K 1 , and the correlation information at time t + t 0 is at position x = H 1 . The correlation information at time t + 2t 0 is at position x = H 2 , the correlation information at time t + 3t 0 is at position x = H 3 , and the correlation information at time t + 4t 0 is at position x = H 4 In each, it becomes the minimum.

図52の主成分方向取得部31では、注目ブロックR4300の動きが、時刻t-4t0乃至t+4t0の時間において一定であると近似し、その一定の動きを表すベクトルが、平均動きベクトルとして求められる。 In the principal component direction acquisition unit 31 in FIG. 52, the motion of the target block R 4300 is approximated to be constant at the time from time t-4t 0 to t + 4t 0 , and the vector representing the constant motion is the average motion. Required as a vector.

そのため、主成分方向取得部31のスケーリング合成部104は、時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける相関情報を、空間方向x,yにスケーリングし、さらに、そのスケーリング後の相関情報を合成して、合成相関情報を求める。 Therefore, the scaling synthesis unit 104 of the principal component direction acquisition unit 31 performs the times t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0 , t Correlation information at each of + 4t 0 is scaled in the spatial directions x and y, and the correlation information after the scaling is combined to obtain combined correlation information.

即ち、注目ブロックR4300の動きが、時刻t-4t0乃至t+4t0の時間において一定であると近似した場合、例えば、時刻t+t0における相関情報を基準とすると、時刻t-4t0における相関情報は、時刻t+t0における相関情報に対し、位置(空間方向x,y)に関して−4倍のずれがある。時刻t-3t0における相関情報は、時刻t+t0における相関情報に対し、位置に関して−3倍のずれがある。以下、同様に、時刻t+t0における相関情報に対し、時刻t-2t0における相関情報は、位置に関して−2倍のずれが、時刻t-t0における相関情報は、位置に関して−1倍のずれが、時刻t+2t0における相関情報は、位置に関して2倍のずれが、時刻t+3t0における相関情報は、位置に関して3倍のずれが、時刻t+4t0における相関情報は、位置に関して4倍のずれが、それぞれある。 That is, when it is approximated that the motion of the target block R 4300 is constant at the time from time t-4t 0 to time t + 4t 0 , for example, when the correlation information at time t + t 0 is used as a reference, time t-4t The correlation information at 0 has a difference of −4 times with respect to the position (spatial direction x, y) with respect to the correlation information at time t + t 0 . The correlation information at time t-3t 0 is shifted by -3 times with respect to the correlation information at time t + t 0 . Similarly, the correlation information at time t-2t 0 is shifted by -2 times with respect to the position, and the correlation information at time tt 0 is shifted by -1 times with respect to the correlation information at time t + t 0 . However, the correlation information at time t + 2t 0 is twice as much as the position, the correlation information at time t + 3t 0 is three times as much as the position, and the correlation information at time t + 4t 0 is about the position. There is a 4x shift.

そこで、スケーリング合成部104は、時刻t-4t0における相関情報の位置のスケールを−1/4倍にする(反転縮小する)スケーリングを行う。同様に、スケーリング合成部104は、時刻t-3t0における相関情報の位置のスケールを−1/3倍にするスケーリングを、時刻t-2t0における相関情報の位置のスケールを−1/2倍にするスケーリングを、時刻t-t0における相関情報の位置のスケールを−1倍にする(反転する)スケーリングを、時刻t+2t0における相関情報の位置のスケールを1/2倍にする(縮小する)スケーリングを、時刻t+3t0における相関情報の位置のスケールを1/3倍にするスケーリングを、時刻t+4t0における相関情報の位置のスケールを1/4倍にするスケーリングを、それぞれ行う。 Therefore, the scaling synthesis unit 104 performs scaling by multiplying the scale of the position of the correlation information at time t-4t 0 by −1/4 (reversing and reducing). Similarly, the scaling composition unit 104 performs scaling to increase the scale of the position of the correlation information at time t-3t 0 by −1/3, and scales the position of the position of the correlation information at time t−2t 0 by −1/2. The scaling of the correlation information position at time tt 0 is multiplied by -1 (reversed), and the scaling of the correlation information position at time t + 2t 0 is halved (reduced). ) Scaling is performed so that the scale of the position of the correlation information at time t + 3t 0 is 3 times, and the scaling is performed to increase the scale of the position of the correlation information at time t + 4t 0 to ¼. .

なお、時刻t+t0における相関情報については、スケーリング合成部104は、何らスケーリングを行わないが、スケーリングを行わないことは、位置のスケールを1倍にするスケーリングを行っていると見ることもできる。 For the correlation information at time t + t 0 , the scaling composition unit 104 does not perform any scaling, but it may be seen that the fact that the scaling is not performed means that the position is scaled to 1 time. it can.

ここで、図54は、時刻t+t0における相関情報を基準として、時刻t-4t0,t-3t0,t-2t0,t-t0,t+2t0,t+3t0,t+4t0それぞれにおける相関情報をスケーリングした場合の、そのスケーリング後の相関情報を示している。 Here, FIG. 54 shows time t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + 2t 0 , t + 3t 0 , t + based on the correlation information at time t + t 0 . The correlation information after scaling when the correlation information at 4t 0 is scaled is shown.

スケーリングにより、時刻t-4t0における相関情報は、位置x=-K4/4において最小となり、時刻t-3t0における相関情報は、位置x=-K3/3において最小となる。同様に、時刻t-2t0における相関情報は、位置x=-K2/2において、時刻t-t0における相関情報は、x=-K1において、時刻t+2t0における相関情報は、位置x=H2/2において、時刻t+3t0における相関情報は、位置x=H3/3において、時刻t+4t0における相関情報は、位置x=H4/4において、それぞれ最小となる。 Scaling, correlation information at time t-4t 0 is becomes minimum at the position x = -K 4/4, the correlation information at time t-3t 0 is at the minimum position x = -K 3/3. Similarly, the correlation information at time t-2t 0, at the position x = -K 2/2, correlation information at time tt 0, at x = -K 1, the correlation information at time t + 2t 0, the position x in = H 2/2, correlation information at time t + 3t 0, at the position x = H 3/3, correlation information at time t + 4t 0, at position x = H 4/4, respectively become minimum.

なお、スケーリングは、時刻t+t0における相関情報を基準として行われるので、時刻t+t0における相関情報は、スケーリングの前でも後でも、位置x=H1において最小となる。 Since scaling is performed with reference to correlation information at time t + t 0, the correlation information at time t + t 0 is minimum at position x = H 1 before and after scaling.

図52の主成分方向取得部31では、スケーリング合成部104が、時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける、スケーリング後の相関情報を合成して、合成相関情報を求める。 In the principal component direction acquisition unit 31 in FIG. 52, the scaling synthesis unit 104 performs the time t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0. , T + 4t 0 , the correlation information after scaling is synthesized to obtain synthesized correlation information.

図55は、図54の相関情報を合成することにより得られる合成相関情報を示している。   FIG. 55 shows combined correlation information obtained by combining the correlation information of FIG.

図55の合成相関情報は、図54に示した時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける、スケーリング後の相関情報を加算する合成を行うことにより求めることができる。 The combined correlation information of FIG. 55 is the time t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0 , t + 4t shown in FIG. It can be obtained by performing a synthesis of adding the correlation information after scaling in each of 0 .

図52の主成分方向取得部31の最小値検出部105では、図55の合成相関情報が最小になる位置x=L1((x,y)=(L1,0))が、平均動きベクトル(L1,0)として求められる。 In the minimum value detection unit 105 of the principal component direction acquisition unit 31 in FIG. 52, the position x = L 1 ((x, y) = (L 1 , 0)) at which the composite correlation information in FIG. It is obtained as a vector (L 1 , 0).

なお、合成相関情報は、スケーリング後の相関情報を単純に加算する他、重み付け加算することにより求めることもできる。即ち、合成相関情報は、相関情報に対して、注目ブロックの時刻tから近い時刻の相関情報ほど大きな重みを付して加算することにより求めることができる。この場合、注目ブロックの時刻tから近い時刻の画像を重要視した平均動きベクトルが求められることになる。   Note that the combined correlation information can be obtained by adding the weighted addition in addition to simply adding the correlation information after scaling. In other words, the combined correlation information can be obtained by adding to the correlation information the correlation information closer to the time t of the block of interest with a greater weight. In this case, an average motion vector in which an image at a time close to the time t of the block of interest is regarded as important is obtained.

最小値検出部105では、以上のようにして求められる平均動きベクトル(L1,0)から、注目ブロックの主成分方向が求められる。従って、注目ブロックについて、比較的精度の高い主成分方向を求めることができる。 The minimum value detection unit 105 obtains the principal component direction of the block of interest from the average motion vector (L 1 , 0) obtained as described above. Therefore, it is possible to obtain the principal component direction with relatively high accuracy for the block of interest.

即ち、上述のような平均動きベクトル(L1,0)から求められる主成分方向(つまり、(L1,0,t0)に垂直な平面)によれば、図25のフィルタ部22では、例えば、注目ブロックR4300のある位置(x,y)の画素の、フィルタリング結果としての画素値が、時刻t+t0の画像データにおける位置(x,y)から動きベクトル(L1,0)だけずれた位置付近の画素値、時刻t+2t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の2倍のベクトル(2L1,0)だけずれた位置付近の画素値、時刻t+3t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の3倍のベクトル(3L1,0)だけずれた位置付近の画素値、時刻t+4t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の4倍のベクトル(4L1,0)だけずれた位置付近の画素値、時刻t-t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−1倍のベクトル(-L1,0)だけずれた位置付近の画素値、時刻t-2t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−2倍のベクトル(-2L1,0)だけずれた位置付近の画素値、時刻t-3t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−3倍のベクトル(-3L1,0)だけずれた位置付近の画素値、時刻t-4t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−4倍のベクトル(-4L1,0)だけずれた位置付近の画素値を、それぞれ用いて求められる。 That is, according to the principal component direction (that is, a plane perpendicular to (L 1 , 0, t 0 )) obtained from the average motion vector (L 1 , 0) as described above, the filter unit 22 in FIG. For example, the pixel value as a filtering result of a pixel at a certain position (x, y) of the target block R 4300 is a motion vector (L 1 , 0) from the position (x, y) in the image data at time t + t 0 The pixel value near the position shifted by a certain amount, the position near the position shifted by a vector (2L 1 , 0) twice the motion vector (L 1 , 0) from the position (x, y) in the image data at time t + 2t 0 Pixel value, pixel value near time t + 3t 0 position in image data at position (x, y), pixel value near position shifted by vector (3L 1 , 0) three times motion vector (L 1 , 0), time t + A pixel value in the vicinity of a position shifted by a vector (4L 1 , 0) that is four times the motion vector (L 1 , 0) from the position (x, y) in the image data at 4t 0 , and a position in the image data at time tt 0 ( x, y) Torr (L 1, 0) -1 times the vector (-L 1, 0) pixel values around a position shifted by a position in the image data at time t-2t 0 (x, y ) from the motion vector (L 1 , 0), the pixel value in the vicinity of the position shifted by -2 times the vector (−2L 1 , 0), the position of the motion vector (L 1 , 0) from the position (x, y) in the image data at time t-3t 0 -3 times the pixel value in the vicinity of the position shifted by the vector (-3L 1 , 0), from the position (x, y) in the image data at time t-4t 0 to -4 times the motion vector (L 1 , 0) Pixel values in the vicinity of the position shifted by the vector (−4L 1 , 0) are respectively obtained.

ここで、図56は、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)だけずれた時刻t+t0の画像データにおける位置を示している。同様に、図57乃至図63は、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の2倍のベクトル(2L1,0)だけずれた時刻t+2t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の3倍のベクトル(3L1,0)だけずれた時刻t+3t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の4倍のベクトル(4L1,0)だけずれた時刻t+4t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−1倍のベクトル(-L1,0)だけずれた時刻t-t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−2倍のベクトル(-2L1,0)だけずれた時刻t-2t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−3倍のベクトル(-3L1,0)だけずれた時刻t-3t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−4倍のベクトル(-4L1,0)だけずれた時刻t-4t0の画像データにおける位置を、それぞれ示している。 Here, FIG. 56 shows the position in the image data at time t + t 0 that is shifted from the position (x, y) of the target block R 4300 by the motion vector (L 1 , 0). Similarly, FIG. 57 to FIG. 63 show that at time t + 2t 0 shifted from the position (x, y) of the target block R 4300 by a vector (2L 1 , 0) that is twice the motion vector (L 1 , 0). Position in the image data at time t + 3t 0 where the position in the image data is shifted from the position (x, y) of the target block R 4300 by a vector (3L 1 , 0) that is three times the motion vector (L 1 , 0) Is shifted from the position (x, y) of the target block R 4300 by a vector (4L 1 , 0) four times the motion vector (L 1 , 0) to the position in the image data at time t + 4t 0 The position in the image data at time tt 0 that is shifted from the position (x, y) of R 4300 by a vector (−L 1 , 0) that is −1 times the motion vector (L 1 , 0) is the position of the target block R 4300 . (x, y) position in the -2 times the vector (-2L 1, 0) image data at time t-2t 0 shifted by the motion vector (L 1, 0) from the position of the target block R 4300 (x , -3 times the vector of the motion vector from y) (L 1, 0) Le (-3L 1, 0) position in the image data at time t-3t 0 shifted by -4 times the vector of position (x, y) from the motion vector of the target block R 4300 (L 1, 0) ( The positions in the image data at time t-4t 0 shifted by −4L 1 , 0) are shown respectively.

図56乃至図63それぞれと、上述した図44乃至図51それぞれとを比較することにより、図56乃至図63における場合の方が、図44乃至図51における場合よりも、全体として、注目ブロックR4300に対応する領域R4301,R4302,R4303,R4304,R4311,R4312,R4313,R4314に近い位置の画素値を用いて、注目ブロックR4300のフィルタリングが行われることが分かる。 56 to 63 and FIG. 44 to 51 described above are compared with each other, and in the case of FIGS. 56 to 63, the attention block R as a whole is more than the case of FIGS. 4300 using the pixel values of the position close to the corresponding region R 4301, R 4302, R 4303 , R 4304, R 4311, R 4312, R 4313, R 4314 , a is understood that the filtering of the block of interest R 4300 is performed .

次に、図64乃至図67のフローチャートを参照して、図52の主成分方向取得部31が行う処理について説明する。   Next, processing performed by the principal component direction acquisition unit 31 in FIG. 52 will be described with reference to the flowcharts in FIGS.

なお、図64乃至図67のフローチャートにしたがった処理は、図31のステップS11の処理に対応する。   Note that the processing according to the flowcharts of FIGS. 64 to 67 corresponds to the processing of step S11 of FIG.

図52の主成分方向取得部31において、バッファ部101には、バッファ部21(図25)から読み出された動画データが供給され、バッファ部101は、その動画データを一時記憶する。   52, the moving image data read from the buffer unit 21 (FIG. 25) is supplied to the buffer unit 101, and the buffer unit 101 temporarily stores the moving image data.

そして、図64のステップS101において、ブロック抽出部102は、バッファ部101に記憶された動画データを、図32のステップS21における場合と同様に、例えば16×16画素のブロックに分割し、相関演算部103に供給する。なお、以降の処理は、ブロック抽出部102で得られたブロックを、順次、注目ブロックとして行われる。   64, the block extraction unit 102 divides the moving image data stored in the buffer unit 101 into blocks of 16 × 16 pixels, for example, as in step S21 of FIG. To the unit 103. In the subsequent processing, the blocks obtained by the block extraction unit 102 are sequentially performed as the target block.

ここで、注目ブロックの位置(例えば、注目ブロックの左上の画素の位置)を、(x0,y0)と表す。また、注目ブロックのフレーム(注目フレーム)は、時刻tのフレームであるとする。 Here, the position of the block of interest (for example, the position of the upper left pixel of the block of interest) is represented as (x 0 , y 0 ). The frame of the block of interest (frame of interest) is assumed to be a frame at time t.

ステップS101の処理後は、図65のステップS102に進み、相関演算部103は、注目フレームの次のフレームの画像データである時刻t+t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E1(u1,v1)を、注目ブロックを対応させる時刻t+t0の画像データの位置(x0+u1,y0+v1)を変えながら求め((u1,v1)を変えながら求め)、その関数E1(u1,v1)を、時刻t+t0における相関情報として、スケーリング合成部104に供給して、ステップS103に進む。 After the processing in step S101, the process proceeds to step S102 in FIG. 65, in which the correlation calculation unit 103 reads out the image data at time t + t 0 that is the image data of the frame next to the frame of interest from the buffer unit 101, and If, with the image data at time t + t 0, the function E 1 representing the sum of the absolute differences of each other corresponding pixel (u 1, v 1), the image data at time t + t 0 to correspond to the block of interest (X 0 + u 1 , y 0 + v 1 ) while changing the position (determined while changing (u 1 , v 1 )), and the function E 1 (u 1 , v 1 ) is obtained at time t + t The correlation information at 0 is supplied to the scaling synthesis unit 104, and the process proceeds to step S103.

ステップS103では、相関演算部103は、注目フレームの次の次のフレームの画像データである時刻t+2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E2(u2,v2)を、注目ブロックを対応させる時刻t+2t0の画像データの位置(x0+u2,y0+v2)を変えながら求め、その関数E2(u2,v2)を、時刻t+2t0における相関情報として、スケーリング合成部104に供給して、ステップS104に進む。 In step S103, the correlation calculation unit 103 reads out the image data at time t + 2t 0 that is image data of the next frame after the frame of interest from the buffer unit 101, and reads the block of interest and the image at time t + 2t 0 . The function E 2 (u 2 , v 2 ) representing the sum of absolute differences between corresponding pixels with the data is expressed as the position of the image data at the time t + 2t 0 (x 0 + u 2 , y 0 + v 2 ) is changed and the function E 2 (u 2 , v 2 ) is supplied as correlation information at time t + 2t 0 to the scaling synthesis unit 104, and the process proceeds to step S104.

ステップS104では、相関演算部103は、注目フレームの3フレームだけ時間的に先の画像データである時刻t+3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E3(u3,v3)を、注目ブロックを対応させる時刻t+3t0の画像データの位置(x0+u3,y0+v3)を変えながら求め、その関数E3(u3,v3)を、時刻t+3t0における相関情報として、スケーリング合成部104に供給して、ステップS105に進む。 In step S104, the correlation calculation unit 103 reads out the image data at time t + 3t 0 that is temporally previous image data by 3 frames of the frame of interest from the buffer unit 101, and the block of interest and time t + 3t 0. The function E 3 (u 3 , v 3 ) representing the sum of absolute differences between corresponding pixels with the image data of the image data position of the image data at time t + 3t 0 (x 0 + u 3 , y 0 + v 3 ), and the function E 3 (u 3 , v 3 ) is supplied as correlation information at time t + 3t 0 to the scaling synthesis unit 104, and the process proceeds to step S105.

ステップS105では、注目フレームの4フレームだけ時間的に先の画像データである時刻t+4t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+4t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E4(u4,v4)を、注目ブロックを対応させる時刻t+4t0の画像データの位置(x0+u4,y0+v4)を変えながら求め、その関数E4(u4,v4)を、時刻t+4t0における相関情報として、スケーリング合成部104に供給して、図66のステップS106に進む。 In step S105, image data at time t + 4t 0 that is temporally preceding image data by four frames of the target frame is read from the buffer unit 101, and the target block and the image data at time t + 4t 0 are The function E 4 (u 4 , v 4 ) representing the sum of absolute differences between corresponding pixels is set to the position (x 0 + u 4 , y 0 + v) of the image data at time t + 4t 0 to which the target block is associated. 4 ), and the function E 4 (u 4 , v 4 ) is supplied to the scaling synthesis unit 104 as correlation information at time t + 4t 0 , and the process proceeds to step S106 in FIG.

ステップS106では、相関演算部103は、注目フレームの前のフレームの画像データである時刻t-t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F1(r1,s1)を、注目ブロックを対応させる時刻t-t0の画像データの位置(x0+r1,y0+s1)を変えながら求め、その関数F1(r1,s1)を、時刻t-t0における相関情報として、スケーリング合成部104に供給して、ステップS107に進む。 In step S106, correlation calculation section 103, the image data at time tt 0 is image data of a previous frame of the frame of interest, from the buffer unit 101, and the block of interest, the image data at time tt 0, the corresponding The function F 1 (r 1 , s 1 ) that represents the sum of absolute differences between pixels is changed by changing the position (x 0 + r 1 , y 0 + s 1 ) of the image data at time tt 0 to which the block of interest is associated. The function F 1 (r 1 , s 1 ) is obtained as correlation information at time tt 0 and supplied to the scaling synthesizer 104, and the process proceeds to step S107.

ステップS107では、相関演算部103は、注目フレームの前の前のフレームの画像データである時刻t-2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F2(r2,s2)を、注目ブロックを対応させる時刻t-2t0の画像データの位置(x0+r2,y0+s2)を変えながら求め、その関数F2(r2,s2)を、時刻t-2t0における相関情報として、スケーリング合成部104に供給して、ステップS108に進む。 In step S107, the correlation calculation unit 103 reads out the image data at time t-2t 0 that is image data of the previous frame before the frame of interest from the buffer unit 101, and reads the block of interest and the image at time t-2t 0 . The function F 2 (r 2 , s 2 ) representing the sum of absolute differences between corresponding pixels with the data is expressed as the position of the image data at the time t-2t 0 (x 0 + r 2 , y 0 + s 2 ) is changed and the function F 2 (r 2 , s 2 ) is supplied as correlation information at time t−2t 0 to the scaling synthesis unit 104, and the process proceeds to step S108.

ステップS108では、相関演算部103は、注目フレームの3フレームだけ時間的に前の画像データである時刻t-3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F3(r3,s3)を、注目ブロックを対応させる時刻t-3t0の画像データの位置(x0+r3,y0+s3)を変えながら求め、その関数F3(r3,s3)を、時刻t-3t0における相関情報として、スケーリング合成部104に供給して、ステップS109に進む。 In step S108, the correlation calculating unit 103, the image data at time t-3t 0 is image data before in time by three frames of the frame of interest, from the buffer unit 101, and the block of interest, the time t-3t 0 The function F 3 (r 3 , s 3 ) representing the sum of absolute differences between corresponding pixels with the image data of the image data position of the image data at time t-3t 0 (x 0 + r 3 , y 0 + s 3 ), and the function F 3 (r 3 , s 3 ) is supplied to the scaling combiner 104 as correlation information at time t-3t 0 , and the process proceeds to step S109.

ステップS109では、相関演算部103は、注目フレームの4フレームだけ時間的に前の画像データである時刻t-4t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-4t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F4(r4,s4)を、注目ブロックを対応させる時刻t-4t0の画像データの位置(x0+r4,y0+s4)を変えながら求め、その関数F4(r4,s4)を、時刻t-4t0における相関情報として、スケーリング合成部104に供給して、図67のステップS110に進む。 In step S109, the correlation calculation unit 103 reads out the image data at time t-4t 0 that is temporally previous image data by four frames of the target frame from the buffer unit 101, reads the target block, and the time t-4t 0. The function F 4 (r 4 , s 4 ) representing the sum of absolute differences between corresponding pixels with the image data of the image data at the time t-4t 0 corresponding to the block of interest (x 0 + r 4 , y 0 + s 4 ), and the function F 4 (r 4 , s 4 ) is supplied to the scaling synthesis unit 104 as correlation information at time t-4t 0 , and step S110 in FIG. Proceed to

ステップS110では、スケーリング合成部104は、相関演算部103から供給された相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),E4(u4,v4),F1(r1,s1),F2(r2,s2),F3(r3,s3),F4(r4,s4)を、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準として、上述したようなスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部104は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(u4/4,v4/4)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)=(-r4/4,-s4/4)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),E4(4p,4q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q),F4(-4p,-4q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+E4(4p,4q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)+F4(-4p,-4q))を求める。 In step S <b> 110, the scaling composition unit 104 receives the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), supplied from the correlation calculation unit 103. E 4 (u 4 , v 4 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), F 4 (r 4 , s 4 ) Based on the scale of the position (u 1 , v 1 ) of the correlation information E 1 (u 1 , v 1 ), the above-described scaling is performed, and the correlation information after the scaling is further synthesized to produce a combined correlation Find information E (p, q). That is, the scaling combining unit 104, the position (p, q) = (u 1, v 1) = (u 2/2, v 2/2) = (u 3/3, v 3/3) = (u 4 / 4, v 4/4) = (- r 1, -s 1) = (- r 2/2, -s 2/2) = (- r 3/3, -s 3/3) = (- r 4/4 , -s 4/4 ), and further scaling correlation information E 1 (p, q), E 2 (2p, 2q), E 3 (3p, 3q), Add E 4 (4p, 4q), F 1 (-p, -q), F 2 (-2p, -2q), F 3 (-3p, -3q), F 4 (-4p, -4q) Therefore, the combined correlation information E (p, q) (= E 1 (p, q) + E 2 (2p, 2q) + E 3 (3p, 3q) + E 4 (4p, 4q) + F 1 (- p, -q) + F 2 (-2p, -2q) + F 3 (-3p, -3q) + F 4 (-4p, -4q)).

なお、合成相関情報E(p,q)は、スケーリング後の相関情報を単純に加算する他、上述したように、重み付け加算することにより求めることもできる。即ち、合成相関情報E(p,q)は、例えば、注目ブロックの時刻tから近い時刻の相関情報ほど大きな重みを付して加算する式8×E1(p,q)+4×E2(2p,2q)+2×E3(3p,3q)+1×E4(4p,4q)+8×F1(-p,-q)+4×F2(-2p,-2q)+2×F3(-3p,-3q)+1×F4(-4p,-4q)を演算することにより求めることができる。 Note that the combined correlation information E (p, q) can be obtained by simply adding the correlation information after scaling, or by weighted addition as described above. That is, the combined correlation information E (p, q) is, for example, an expression 8 × E 1 (p, q) + 4 × E 2 in which correlation information at a time closer to the time t of the block of interest is added with a greater weight. (2p, 2q) + 2 × E 3 (3p, 3q) + 1 × E 4 (4p, 4q) + 8 × F 1 (-p, -q) + 4 × F 2 (-2p, -2q) + It can be obtained by calculating 2 × F 3 (−3p, −3q) + 1 × F 4 (−4p, −4q).

スケーリング合成部104は、ステップS110において、合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を、最小値検出部105に供給して、ステップS111に進む。   The scaling combining unit 104 obtains the combined correlation information E (p, q) in step S110, supplies the combined correlation information E (p, q) to the minimum value detecting unit 105, and proceeds to step S111. .

ステップS111では、最小値検出部105は、スケーリング合成部104からの合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(注目ブロックからの相対的な位置)(p,q)を、最大相関位置(p0,q0)として検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)を、最大相関位置(p0,q0)として検出し、その最大相関位置(p0,q0)へのベクトルを、平均動きベクトル(p0,q0)として、ステップS112に進む。 In step S111, the minimum value detection unit 105 has a position (relative position from the target block) in the spatial direction where the correlation represented by the combined correlation information E (p, q) from the scaling combining unit 104 is maximum (p, q) is detected as the maximum correlation position (p 0 , q 0 ), that is, the position (p, q) that minimizes the `` value '' of the combined correlation information E (p, q) is the maximum correlation position (p 0 , q 0 ), and the vector to the maximum correlation position (p 0 , q 0 ) is set as the average motion vector (p 0 , q 0 ), and the process proceeds to step S112.

ステップS112では、最小値検出部105は、ステップS111で検出された平均動きベクトル(p0,q0)に、元の動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトル(p0,q0,t0)の方向と直交する方向が、主成分方向であるとして、3次元の動きベクトル(p0,q0,t0)を、フィルタ情報供給部32(図25)に供給して、処理を終了する。 In step S112, the minimum value detecting section 105, the average motion vector detected at step S111 (p 0, q 0) , 3 -dimensional frame period t 0 of the original video data was added as a component in the time direction t The direction orthogonal to the direction of the motion vector (p 0 , q 0 , t 0 ) is the principal component direction, and the three-dimensional motion vector (p 0 , q 0 , t 0 ) (FIG. 25) is supplied and the process is terminated.

この場合、フィルタ情報供給部32は、例えば、主成分方向取得部31の最小値検出部105から供給される3次元の動きベクトル(p0,q0,t0)を、そのままフィルタ情報として、フィルタ部22(図25)に供給する。 In this case, for example, the filter information supply unit 32 directly uses the three-dimensional motion vector (p 0 , q 0 , t 0 ) supplied from the minimum value detection unit 105 of the principal component direction acquisition unit 31 as filter information. It supplies to the filter part 22 (FIG. 25).

フィルタ部22では、図68に示すフローチャートにしたがった処理が、図26のステップS3の処理として行われる。   In the filter unit 22, the process according to the flowchart shown in FIG. 68 is performed as the process of step S3 in FIG.

即ち、ステップS131において、フィルタ部22は、フィルタ情報供給部32からフィルタ情報として供給される3次元の動きベクトル(p0,q0,t0)を受信することにより取得し、ステップS132に進む。 That is, in step S131, the filter unit 22 receives the three-dimensional motion vector (p 0 , q 0 , t 0 ) supplied as filter information from the filter information supply unit 32, and proceeds to step S132. .

ステップS132では、フィルタ部22は、時刻tのフレームの注目ブロック内の位置(x,y)における画素の画素値C(t,x,y)を、例えば、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)を演算することにより求めるフィルタリングを行う。なお、D(t,x,y)は、フィルタリングに用いる動画データの時刻tの位置(x,y)における画素値を表す。 In step S132, the filter unit 22 calculates the pixel value C (t, x, y) of the pixel at the position (x, y) in the target block of the frame at time t, for example, the equation (1/16) × D ( t-3t 0 , x-3p 0 , y-3q 0 ) + (2/16) × D (t-2t 0 , x-2p 0 , y-2q 0 ) + (3/16) × D (tt 0 , xp 0 , yq 0 ) + (4/16) × D (t, x, y) + (3/16) × D (t + t 0 , x + p 0 , y + q 0 ) + (2 / 16) × D (t + 2t 0 , x + 2p 0 , y + 2q 0 ) + (1/16) × D (t + 3t 0 , x + 3p 0 , y + 3q 0 ) Perform filtering. Note that D (t, x, y) represents a pixel value at a position (x, y) at time t of moving image data used for filtering.

ここで、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)の演算は、いわゆるタップ係数を、1/16,2/16,3/16,4/16,3/16,2/16,1/16とし、時間方向に7タップを有する(7フレームの画像データを用いたフィルタリングを行う)FIR(Finite Impulse Response)フィルタによるフィルタリングを行うことに等価である。このようなタップ係数のFIRフィルタは、ローパスフィルタである。 Here, equation (1/16) × D (t- 3t 0, x-3p 0, y-3q 0) + (2/16) × D (t-2t 0, x-2p 0, y-2q 0 ) + (3/16) × D (tt 0 , xp 0 , yq 0 ) + (4/16) × D (t, x, y) + (3/16) × D (t + t 0 , x + p 0 , y + q 0 ) + (2/16) × D (t + 2t 0 , x + 2p 0 , y + 2q 0 ) + (1/16) × D (t + 3t 0 , x + 3p 0 , y + 3q 0 ), the so-called tap coefficients are 1/16, 2/16, 3/16, 4/16, 3/16, 2/16, 1/16, and 7 taps in the time direction It is equivalent to performing filtering by a FIR (Finite Impulse Response) filter having (filtering using image data of 7 frames). Such a tap coefficient FIR filter is a low-pass filter.

なお、ステップS132において、画素値C(t,x,y)の演算としてのフィルタリングは、時間方向のサンプル数を1/4に間引くダウンサンプリングを行いながら、即ち、4フレームごとに1フレームの割合で行われる。つまり、tは、例えば、4×t0の倍数である。 In step S132, the filtering as the calculation of the pixel value C (t, x, y) is performed while down-sampling is performed in which the number of samples in the time direction is reduced to 1/4, that is, the ratio of one frame every four frames. Done in That is, t is a multiple of 4 × t 0 , for example.

ステップS132の処理後は、ステップS133に進み、フィルタ部22は、フィルタリング結果、即ち、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)を演算することにより求めた画素値C(t,x,y)を、時刻tの位置(x,y)における画素値として、エンコード部24に出力する。 After the process of step S132, the process proceeds to step S133, and the filter unit 22 performs the filtering result, that is, the expression (1/16) × D (t−3t 0 , x−3p 0 , y−3q 0 ) + (2 / 16) × D (t-2t 0 , x-2p 0 , y-2q 0 ) + (3/16) × D (tt 0 , xp 0 , yq 0 ) + (4/16) × D (t, x , y) + (3/16) × D (t + t 0 , x + p 0 , y + q 0 ) + (2/16) × D (t + 2t 0 , x + 2p 0 , y + 2q 0 ) + (1/16) × D (t + 3t 0 , x + 3p 0 , y + 3q 0 ), the pixel value C (t, x, y) obtained by calculating the position (x , y) is output to the encoding unit 24 as a pixel value.

なお、図68では、時間方向に7タップを有するFIRフィルタによるフィルタリングを行うようにしたが、その他、例えば、時間方向に9タップを有するFIRフィルタによるフィルタリングを行うようにしても良い。   In FIG. 68, the filtering is performed by the FIR filter having 7 taps in the time direction. However, for example, the filtering may be performed by the FIR filter having 9 taps in the time direction.

また、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)の演算は、ローパスフィルタによるフィルタリングに等価であるが、注目ブロックのフレームに近いほど大きな重みを付した重み付け加算と見ることもできる。 Also, the expression (1/16) × D (t-3t 0 , x-3p 0 , y-3q 0 ) + (2/16) × D (t-2t 0 , x-2p 0 , y-2q 0 ) + (3/16) × D (tt 0 , xp 0 , yq 0 ) + (4/16) × D (t, x, y) + (3/16) × D (t + t 0 , x + p 0 , y + q 0 ) + (2/16) × D (t + 2t 0 , x + 2p 0 , y + 2q 0 ) + (1/16) × D (t + 3t 0 , x + 3p 0 , The calculation of y + 3q 0 ) is equivalent to filtering by a low-pass filter, but it can also be regarded as weighted addition with a larger weight as it is closer to the frame of the target block.

このように、注目ブロックのフレームに近いほど大きな重みを付した重み付け加算を行うことによって、フィルタリング結果としての画素値C(t,x,y)を求める場合には、合成相関情報E(p,q)を求めるための合成も、上述したように、注目ブロックの時刻tから近い時刻の相関情報ほど大きな重みを付して加算する式8×E1(p,q)+4×E2(2p,2q)+2×E3(3p,3q)+1×E4(4p,4q)+8×F1(-p,-q)+4×F2(-2p,-2q)+2×F3(-3p,-3q)+1×F4(-4p,-4q)の演算によって行うのが望ましい。 In this way, when the pixel value C (t, x, y) as a filtering result is obtained by performing weighted addition with a larger weight as it is closer to the frame of the target block, the combined correlation information E (p, In the synthesis for obtaining q), as described above, the correlation information at the time closer to the time t of the block of interest is added with a larger weight and is added. 8 × E 1 (p, q) + 4 × E 2 ( 2p, 2q) + 2 × E 3 (3p, 3q) + 1 × E 4 (4p, 4q) + 8 × F 1 (-p, -q) + 4 × F 2 (-2p, -2q) +2 It is desirable to perform the calculation by × F 3 (−3p, −3q) + 1 × F 4 (−4p, −4q).

以上のように、注目ブロックと次のフレームとの相関を表す相関情報だけではなく、注目ブロックとその前後の複数のフレームそれぞれとの相関を表す複数の相関情報を用いることによって、注目ブロックから複数のフレームそれぞれへの、いわば平均的な動きを表す平均動きベクトルを求めるようにしたので、その平均動きベクトルから、注目ブロックについて、精度の高い主成分方向を求めることができる。   As described above, not only the correlation information indicating the correlation between the block of interest and the next frame, but also the plurality of pieces of correlation information indicating the correlation between the block of interest and each of a plurality of frames before and after the block, Since an average motion vector representing an average motion for each of the frames is obtained, a highly accurate principal component direction can be obtained for the target block from the average motion vector.

さらに、平均動きベクトルを求めるときに用いる複数のフレームの範囲は、フィルタ部22(図25)でのフィルタリングに用いられるフレームの範囲に対応した範囲、即ち、フィルタリングに用いられるフレーム(図68では、注目ブロックのフレームを中心とする7フレーム)とほぼ同様の範囲(図64乃至図67では、注目ブロックのフレームを中心とする9フレーム)であるので、フィルタ部22(図25)において、正確なフィルタリング結果(本来通過させるべき周波数成分だけのフィルタリング結果)を得ることが可能となる。   Further, the range of the plurality of frames used when obtaining the average motion vector is a range corresponding to the range of frames used for filtering in the filter unit 22 (FIG. 25), that is, a frame used for filtering (in FIG. 68, Since the range is almost the same as (7 frames centered on the frame of the target block) (9 frames centering on the frame of the target block in FIGS. 64 to 67), the filter unit 22 (FIG. 25) It is possible to obtain a filtering result (a filtering result of only frequency components that should be passed through).

なお、図68では、注目ブロックのフレームを中心とする7フレームを用いてフィルタリングを行い、図64乃至図67では、注目ブロックのフレームを中心とする9フレームを用いて平均動きベクトルを求めるようにしたが、その他、例えば、フィルタリングも平均動きベクトルの算出も、注目ブロックのフレームを中心とする7フレームまたは9フレームを用いて行うことが可能である。また、フィルタリングは、注目ブロックのフレームを中心とする9フレームを用いて行い、平均動きベクトルの算出は、注目ブロックのフレームを中心とする7フレームを用いて行うことも可能である。つまり、フィルタリングに用いるフレームの範囲と、平均動きベクトルの算出に用いるフレームの範囲とは、完全に一致していても良いし、異なっていても、ほぼ一致していれば良い。   In FIG. 68, filtering is performed using 7 frames centered on the frame of the target block, and in FIGS. 64 to 67, the average motion vector is obtained using 9 frames centered on the frame of the target block. However, for example, filtering and calculation of the average motion vector can be performed using 7 frames or 9 frames centering on the frame of the target block. Filtering can also be performed using 9 frames centered on the frame of the target block, and the average motion vector can be calculated using 7 frames centered on the frame of the target block. That is, the frame range used for filtering and the frame range used for calculating the average motion vector may be completely coincident with each other or may be almost coincident with each other.

以上のように、フィルタ部22(図25)でのフィルタリングに用いられるフレームの範囲とほぼ同様の範囲の複数のフレームを用いて、平均動きベクトルを求めることにより、その平均動きベクトルから、複数のフレームの範囲において比較的正確な主成分方向を求めることができる。   As described above, by obtaining an average motion vector using a plurality of frames in a range substantially similar to the range of frames used for filtering in the filter unit 22 (FIG. 25), a plurality of average motion vectors are obtained from the average motion vector. A relatively accurate principal component direction can be obtained in the frame range.

次に、上述のように、平均動きベクトルによれば、基本的には、比較的正確な主成分方向を求めることができる。   Next, as described above, according to the average motion vector, a relatively accurate principal component direction can be basically obtained.

しかしながら、常時、複数のフレームすべてを用いて、平均動きベクトルを求めると、誤差の大きな平均動きベクトルが得られる場合があり、この場合、主成分方向の精度も劣化し、その結果、フィルタ22でのフィルタリング結果も、適切でない動画(受信装置2において、人間が画質の劣化を認識しない動画に復元することができない画像)となる。   However, if the average motion vector is always obtained using all of a plurality of frames, an average motion vector having a large error may be obtained. In this case, the accuracy in the principal component direction is also deteriorated. This filtering result is also an inappropriate moving image (an image that cannot be restored to a moving image in which a human does not recognize the deterioration in image quality in the receiving device 2).

即ち、例えば、動画データにおいて、静止している被写体を背景として、その背景の手前側に、動いている被写体が前景として存在する場合、注目ブロックが背景のみを含むときには、他のフレーム(注目フレーム以外のフレーム)では、注目ブロックに対応する背景部分が、前景に隠れて見えない状態となっていることがある。この場合、注目ブロックに対応する背景部分が前景に隠れて見えない状態となっているフレームにおける、注目ブロックとの相関情報の値は、注目ブロックに対応する背景部分の位置で最小になるとは限らず、そのような相関情報を用いて、合成相関情報を算出し、さらに平均動きベクトルを求めると、誤差の大きな平均動きベクトルが得られることがある。   That is, for example, in moving image data, when a stationary object is used as a background and a moving object exists as a foreground on the front side of the background, when the block of interest includes only the background, another frame (frame of interest In other frames, the background portion corresponding to the block of interest may be hidden behind the foreground and invisible. In this case, the value of the correlation information with the block of interest in the frame in which the background portion corresponding to the block of interest is hidden behind the foreground is not always the minimum at the position of the background portion corresponding to the block of interest. First, when the composite correlation information is calculated using such correlation information and the average motion vector is obtained, an average motion vector with a large error may be obtained.

具体的には、送信装置1に入力された動画データが、例えば、図69に示す被写体が投影された動画データであったとする。   Specifically, it is assumed that the moving image data input to the transmission device 1 is, for example, moving image data on which a subject shown in FIG. 69 is projected.

ここで、図69における横軸は、空間方向の位置xを表している。そして、図69上側は、背景である被写体P6901の波形を示しており、図69下側は、前景である被写体P6902の波形を示している。 Here, the horizontal axis in FIG. 69 represents the position x in the spatial direction. 69 shows the waveform of the subject P 6901 as the background, and the lower side of FIG. 69 shows the waveform of the subject P 6902 as the foreground.

図69上側に示した被写体P6901は静止しており、図69下側に示した被写体P6902は、g/t0[m/s]の速さで、空間方向xに移動している。 The subject P 6901 shown on the upper side of FIG. 69 is stationary, and the subject P 6902 shown on the lower side of FIG. 69 is moving in the spatial direction x at a speed of g / t 0 [m / s].

なお、上述の場合には、平均動きベクトルの算出にあたり、時刻t-4t0乃至t+4t0の9時刻(9フレーム)の画像データを用いたが、以下では、時刻t-3t0乃至t+3t0の7時刻(7フレーム)の画像データを用いることとする。時刻t-3t0乃至t+3t0の時間は、6t0という短い時間なので、その時間における被写体P6902の速さは一定であるとみなす(近似する)ことができ、上述したg/t0は、その一定の速さを表す。 Incidentally, in the above case, in the calculation of the average motion vector, but using the image data at time t-4t 0 to 9 times t + 4t 0 (9 frames), in the following, the time t-3t 0 to t Image data at 7 times (7 frames) of + 3t 0 is used. Since the time from time t-3t 0 to t + 3t 0 is as short as 6t 0 , the speed of the subject P 6902 at that time can be regarded as being constant (approximate), and the above-described g / t 0 Represents the constant speed.

図70および図71は、図69に示した被写体P6901とP6902とが投影された、時刻t-3t0乃至t+3t0の7時刻(7フレーム)それぞれの画像データを示している。 70 and 71 show image data at seven times (7 frames) from time t-3t 0 to t + 3t 0 on which the subjects P 6901 and P 6902 shown in FIG. 69 are projected.

なお、図70および図71には、上から順に、時刻t-3t0乃至t+3t0の7時刻それぞれの画像データを図示してある。図70および図71は、符号が付してある部分が異なることを除いて、同一の図である。 In FIG. 70 and FIG. 71, image data at seven times from time t-3t 0 to t + 3t 0 are illustrated in order from the top. FIG. 70 and FIG. 71 are the same figures except that the parts to which the reference numerals are attached are different.

上述した図64乃至図67のフローチャートにしたがった処理(以下、適宜、第1の動き検出処理という)によれば、例えば、時刻tにおける画像データが、ブロックに分割される(図64におけるステップS101)。図70および図71では、時刻tにおける画像データが、ブロックB1乃至B16の16のブロックに分割されている。 According to the processing according to the flowcharts of FIGS. 64 to 67 described above (hereinafter, referred to as first motion detection processing as appropriate), for example, the image data at time t is divided into blocks (step S101 in FIG. 64). ). 70 and 71, the image data at time t is divided into 16 blocks B 1 to B 16 .

例えば、いま、背景である被写体P6901のみが含まれるブロックB3が注目ブロックであるとして、第1の動き検出処理を行うと、図70に示すように、時刻t+t0における画像データにおいて、注目ブロックB3と対応する領域は、注目ブロックB3と同一位置の領域B101であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(0,0)のときである。 For example, if the first motion detection process is performed on the assumption that the block B 3 including only the subject P 6901 that is the background is the block of interest, as shown in FIG. 70, the image data at time t + t 0 , a region corresponding to the target block B 3 is because it is the block of interest B 3 and the region B 101 in the same position is determined at step S102 of FIG. 65, the correlation information at time t + t 0 E 1 (u 1, v The value of 1 ) is minimized when the position (u 1 , v 1 ) = (0,0).

同様に、時刻t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データにおいて、注目ブロックB3と対応する領域は、それぞれ、注目ブロックB3と同一位置の領域B201,B301,B-101,B-201,B-301である。従って、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、いずれも、位置(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)が、(0,0)のときである。 Similarly, in the image data at times t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 , the region corresponding to the target block B 3 is the same position as the target block B 3 , respectively. region B 201, B 301, B -101 , B -201, a B -301. Therefore, the correlation at time t + 2t 0 Info E 2 (u 2, v 2 ), the correlation information E 3 at time t + 3t 0 (u 3, v 3), the correlation at time tt 0 information F 1 (r 1, s 1 ), correlation information F 2 (r 2 , s 2 ) at time t-2t 0 , and correlation information F 3 (r 3 , s 3 ) at time t-3t 0 are all minimized. , (U 2 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 ) are (0,0) It is.

従って、第1の動き検出処理によれば、図67のステップS111において求められる、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)は、(0,0)であり、その結果、注目ブロックB3については、3次元の動きベクトルとして、(0,0,t0)が求められる。 Therefore, according to the first motion detection process, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u) after scaling obtained in step S111 of FIG. 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), and F 3 (r 3 , s 3 ), the combined correlation information E (p, q) The minimum (p, q), that is, the average motion vector (p 0 , q 0 ) is (0,0). As a result, for the block of interest B 3 , (0, 0, t 0 ) is obtained.

この場合、図68では、注目ブロックB3の各画素について、領域B-301,B-201,B-101,B3,B101,B201,B301それぞれの対応する画素の画素値に対し、重み1/16,2/16,3/16,4/16,3/16,2/16,1/16を付した重み付け加算を行うフィルタリングが行われる。領域B-301,B-201,B-101,B3,B101,B201,B301は、いずれも、注目ブロックB3に対応した領域であり、従って、領域B-301,B-201,B-101,B3,B101,B201,B301を用いたフィルタリングにより、人間の視覚で認識することができる周波数成分のみのデータ、即ち、いまの場合、(0,0,t0)に直交する方向(注目ブロックB3のデータの主成分方向)に延びる、T方向の幅が2π/(4t0)の領域R1001(図20)内の周波数成分のみの適正なデータを得ることができる。 In this case, in FIG. 68, for each pixel of the block of interest B 3, area B -301, B -201, B -101 , to B 3, B 101, B 201 , B 301 pixel values of respective corresponding pixels Filtering for performing weighted addition with weights 1/16, 2/16, 3/16, 4/16, 3/16, 2/16, 1/16 is performed. Region B -301, B -201, B -101 , B 3, B 101, B 201, B 301 are both an area corresponding to the target block B 3, therefore, the region B -301, B -201 , B -101 , B 3 , B 101 , B 201 , B 301 , data of only frequency components that can be recognized by human vision, that is, (0,0, t 0 in this case) ) To obtain appropriate data of only the frequency component in the region R 1001 (FIG. 20) extending in the direction orthogonal to (the principal component direction of the data of the target block B 3 ) and having a width in the T direction of 2π / (4t 0 ). be able to.

次に、例えば、前景である被写体P6902のみが含まれるブロックB10が注目ブロックであるとして、第1の動き検出処理を行うと、図70に示すように、時刻t+t0における画像データにおいて、注目ブロックB10と対応する領域は、注目ブロックB10からx方向にgだけずれた位置の領域B102であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(g,0)のときである。 Next, for example, if the first motion detection process is performed assuming that the block B 10 including only the subject P 6902 which is the foreground is the target block, as shown in FIG. 70, the image data at time t + t 0 is displayed. in the region corresponding to the block of interest B 10 it is because it is the region B 102 of position shifted by g in the x-direction from the target block B 10, obtained in the step S102 of FIG. 65, the correlation information at time t + t 0 The value of E 1 (u 1 , v 1 ) is minimized when the position (u 1 , v 1 ) = (g, 0).

同様に、時刻t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データにおいて、注目ブロックB10と対応する領域は、それぞれ、注目ブロックB10からx方向に2gだけずれた位置の領域B202、注目ブロックB10からx方向に3gだけずれた位置の領域B302、注目ブロックB10からx方向に-gだけずれた位置の領域B-102、注目ブロックB10からx方向に-2gだけずれた位置の領域B-202、注目ブロックB10からx方向に-3gだけずれた位置の領域B-302である。 Similarly, in the image data at times t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 , the regions corresponding to the target block B 10 are respectively in the x direction from the target block B 10. the position of the region B 202 shifted by 2g, the block of interest B 10 position of the region B 302 shifted by 3g in the x direction from the block of interest B 10 position of the region B -102 shifted in the x direction by -g from attention area at a position shifted by -2g from the block B 10 in the x direction B -202, a region B -302 position shifted by -3g in the x direction from the target block B 10.

従って、時刻t+2t0における相関情報E2(u2,v2)の値が最小になるのは、位置(u2,v2)が(2g,0)のときであり、時刻t+3t0における相関情報E3(u3,v3)の値が最小になるのは、位置(u3,v3)が(3g,0)のときであり、時刻t-t0における相関情報F1(r1,s1)の値が最小になるのは、位置(r1,s1)が(-g,0)のときであり、時刻t-2t0における相関情報F2(r2,s2)の値が最小になるのは、位置(r2,s2)が(-2g,0)のときであり、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、位置(r3,s3)が、(-3g,0)のときである。 Therefore, the value of the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is minimized when the position (u 2 , v 2 ) is (2g, 0) and the time t + The value of the correlation information E 3 (u 3 , v 3 ) at 3t 0 is minimized when the position (u 3 , v 3 ) is (3g, 0), and the correlation information F 1 at time tt 0 (r 1, s 1) the value of the is minimized, positions (r 1, s 1) is (-g, 0) is when the correlation at time t-2t 0 information F 2 (r 2, The value of s 2 ) is minimized when the position (r 2 , s 2 ) is (-2g, 0), and the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 The value is minimized when the position (r 3 , s 3 ) is ( −3 g, 0).

以上から、第1の動き検出処理によれば、図67のステップS111において求められる、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)は、(g,0)であり、その結果、注目ブロックB10については、3次元の動きベクトルとして、(g,0,t0)が求められる。 From the above, according to the first motion detection process, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (after scaling) obtained in step S111 of FIG. composite correlation information E (p, q) that is a composite result of u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) (P, q), that is, the average motion vector (p 0 , q 0 ) is (g, 0). As a result, for the target block B 10 , (g , 0, t 0 ).

この場合、図68では、注目ブロックB10の各画素について、領域B-302,B-202,B-102,B10,B102,B202,B302それぞれの対応する画素の画素値に対し、重み1/16,2/16,3/16,4/16,3/16,2/16,1/16を付した重み付け加算を行うフィルタリングが行われる。領域B-302,B-202,B-102,B10,B102,B202,B302は、いずれも、注目ブロックB10に対応した領域であり、従って、領域B-302,B-202,B-102,B10,B102,B202,B302を用いたフィルタリングにより、人間の視覚で認識することができる周波数成分のみのデータ、即ち、いまの場合、(g,0,t0)に直交する方向(注目ブロックB10のデータの主成分方向)に延びる、T方向の幅が2π/(4t0)の領域内の周波数成分のみの適正なデータを得ることができる。 In this case, in FIG. 68, for each pixel of the block of interest B 10, region B -302, B -202, B -102 , relative to B 10, B 102, B 202 , B 302 pixel values of respective corresponding pixels Filtering for performing weighted addition with weights 1/16, 2/16, 3/16, 4/16, 3/16, 2/16, 1/16 is performed. Region B -302, B -202, B -102 , B 10, B 102, B 202, B 302 are both an area corresponding to the target block B 10, therefore, the region B -302, B -202 , B -102 , B 10 , B 102 , B 202 , B 302 , data of only frequency components that can be recognized by human vision, that is, (g, 0, t 0 in this case) ) Proper data of only frequency components in a region extending in a direction orthogonal to (a principal component direction of data of the target block B 10 ) and having a width in the T direction of 2π / (4t 0 ) can be obtained.

以上のように、注目ブロック、および他のフレームの注目ブロックに対応する領域のすべてが、背景である被写体P6901のみを含む場合や、前景である被写体P6902のみを含む場合には、注目ブロックのデータの主成分方向を正確に求め、その主成分方向に基づくフィルタリングによって、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることができる。 As described above, when all of the regions corresponding to the target block and the target block of other frames include only the subject P 6901 that is the background or only the subject P 6902 that is the foreground, the target block By accurately obtaining the principal component direction of the data and filtering based on the principal component direction, it is possible to obtain appropriate data of only frequency components that can be recognized by human vision.

これに対して、注目ブロック、または他のフレームの注目ブロックに対応する領域が、速度が異なる複数の被写体を含む場合、つまり、速度が異なる複数の被写体の境界部分を含む場合には、誤差の大きな平均動きベクトルが求められることがある。この場合、そのような平均動きベクトルからは、注目ブロックのデータの主成分方向を正確に求められず、その結果、主成分方向に基づくフィルタリングによって、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることができないことがある。   On the other hand, if the area corresponding to the target block or the target block in another frame includes a plurality of subjects with different speeds, that is, includes a boundary portion of a plurality of subjects with different speeds, A large average motion vector may be required. In this case, from such an average motion vector, the principal component direction of the data of the block of interest cannot be accurately determined, and as a result, only frequency components that can be recognized by human vision by filtering based on the principal component direction. It may not be possible to obtain appropriate data.

即ち、例えば、図71において、背景である被写体P6901のみを含むブロックB7が注目ブロックであるとして、第1の動き検出処理を行うと、時刻t+t0における画像データにおいて、注目ブロックB7と対応する領域は、注目ブロックB7と同一位置の領域B111であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(0,0)のときである。 That is, for example, in FIG. 71, if the first motion detection process is performed assuming that the block B 7 including only the subject P 6901 as the background is the target block, the target block B in the image data at time t + t 0 is performed. Since the area corresponding to 7 is the area B 111 at the same position as the target block B 7 , the value of the correlation information E 1 (u 1 , v 1 ) at time t + t 0 obtained in step S102 of FIG. Is minimized when the position (u 1 , v 1 ) = (0,0).

同様に、時刻t+2t0,t+3t0,t-t0,t-2t0における画像データにおいて、注目ブロックB7と対応する領域は、それぞれ、注目ブロックB7と同一位置の領域B211,B311,B-111,B-211である。従って、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)の値が最小になるのは、いずれも、位置(u2,v2),(u3,v3),(r1,s1),(r2,s2)が、(0,0)のときである。 Similarly, in the image data at time t + 2t 0, t + 3t 0, tt 0, t-2t 0, a region corresponding to the block of interest B 7, which may each focus block B 7 in the same position of the region B 211, B 311, B -111, is a B -211. Therefore, the correlation at time t + 2t 0 Info E 2 (u 2, v 2 ), the correlation information E 3 at time t + 3t 0 (u 3, v 3), the correlation at time tt 0 information F 1 (r 1, s 1 ) and the value of the correlation information F 2 (r 2 , s 2 ) at the time t-2t 0 are minimized because the positions (u 2 , v 2 ), (u 3 , v 3 ), This is when (r 1 , s 1 ) and (r 2 , s 2 ) are (0,0).

しかしながら、時刻t-3t0における画像データにおいて、注目ブロックB7と対応する領域は、本来は、注目ブロックB7と同一位置の領域B-311であるはずであるが、図71では、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、位置(r3,s3)が(0,0)のときであって欲しいが、相関情報F3(r3,s3)の値が、位置(r3,s3)が(0,0)のときに最小になるとは限らない。 However, in the image data at time t-3t 0, a region corresponding to the block of interest B 7, which may Originally, it should be region B -311 at the same position as the block of interest B 7, FIG. 71, moving Hidden behind the subject P 6902 , and does not exist. Therefore, the value of the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 is minimized when the position (r 3 , s 3 ) is (0,0). The value of the correlation information F 3 (r 3 , s 3 ) is not always the minimum when the position (r 3 , s 3 ) is (0,0).

そして、第1の動き検出処理によれば、図67のステップS111において、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)が求められ、さらに、3次元の動きベクトルとして、(p0,q0,t0)が求められる。 Then, according to the first motion detection process, in step S111 in FIG. 67, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) (P, q), that is, an average motion vector (p 0 , q 0 ) is obtained, and (p 0 , q 0 , t 0 ) is obtained as a three-dimensional motion vector.

この3次元の動きベクトル(p0,q0,t0)は、位置(r3,s3)が(0,0)のときに値が最小になるとは限らない相関情報F3(r3,s3)を用いて求められた合成相関情報E(p,q)を最小にする(p,q)である平均動きベクトル(p0,q0)から得られるため、その3次元の動きベクトル(p0,q0,t0)に直交する方向が、注目ブロックB7のデータの主成分方向を正確に表しているとは限らない。 The three-dimensional motion vector (p 0 , q 0 , t 0 ) is not always the minimum value when the position (r 3 , s 3 ) is (0,0). The correlation information F 3 (r 3 , s 3 ) is obtained from the average motion vector (p 0 , q 0 ) that is (p, q) that minimizes the composite correlation information E (p, q) obtained using The direction orthogonal to the vector (p 0 , q 0 , t 0 ) does not always accurately represent the principal component direction of the data of the block of interest B 7 .

そして、そのような3次元の動きベクトル(p0,q0,t0)に直交する方向に基づくフィルタリングでは、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となる。 In such filtering based on a direction orthogonal to the three-dimensional motion vector (p 0 , q 0 , t 0 ), it is difficult to obtain appropriate data of only frequency components that can be recognized by human vision. It becomes.

次に、例えば、図71において、背景である被写体P6901のみを含むブロックB14が注目ブロックであるとして、第1の動き検出処理を行うと、時刻t+t0における画像データにおいて、注目ブロックB14と対応する領域は、注目ブロックB14と同一位置の領域B112であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(0,0)のときである。 Next, for example, in FIG. 71, if the first motion detection process is performed assuming that the block B 14 including only the subject P 6901 as the background is the target block, the target block is included in the image data at time t + t 0 . a region corresponding to the B 14 is because it is the region B 112 of the block of interest B 14 at the same position is determined at step S102 of FIG. 65, the correlation information at time t + t 0 E 1 of (u 1, v 1) The value is minimized when the position (u 1 , v 1 ) = (0,0).

同様に、時刻t-t0,t-2t0,t-3t0における画像データにおいて、注目ブロックB14と対応する領域は、それぞれ、注目ブロックB14と同一位置の領域B-112,B-212,B-312である。従って、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、いずれも、位置(r1,s1),(r2,s2),(r3,s3)が、(0,0)のときである。 Similarly, in the image data at time tt 0, t-2t 0, t-3t 0, a region corresponding to the block of interest B 14, respectively, the block of interest B 14 at the same position in the region B -112, B -212, B- 312 . Therefore, correlation information F 1 (r 1 , s 1 ) at time tt 0, correlation information F 2 (r 2 , s 2 ) at time t-2t 0 , and correlation information F 3 (r 3 , r at time t-3t 0 The value of s 3 ) is minimized when the positions (r 1 , s 1 ), (r 2 , s 2 ), and (r 3 , s 3 ) are (0, 0). .

しかしながら、時刻t+2t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B212であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+2t0における相関情報E2(u2,v2)の値が最小になるのは、位置(u2,v2)が(0,0)のときであって欲しいが、相関情報E2(u2,v2)の値が、位置(u2,v2)が(0,0)のときに最小になるとは限らない。 However, in the image data at time t + 2t 0, a region corresponding to the block of interest B 14 is originally, but it should be region B 212 of the block of interest B 14 at the same position, moving the subject P 6902 are It is hidden behind and does not exist. Therefore, the value of the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is minimized when the position (u 2 , v 2 ) is (0,0). The value of the correlation information E 2 (u 2 , v 2 ) is not necessarily the minimum when the position (u 2 , v 2 ) is (0,0).

同様に、時刻t+3t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B312であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+3t0における相関情報E3(u3,v3)の値が最小になるのは、位置(u3,v3)が(0,0)のときであって欲しいが、相関情報E3(u3,v3)の値が、位置(u3,v3)が(0,0)のときに最小になるとは限らない。 Similarly, in the image data at time t + 3t 0, a region corresponding to the block of interest B 14 are originally of interest but block B 14 and it should be region B 312 in the same position, a moving subject P 6902 It is hidden behind and does not exist. Therefore, the value of the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is minimized when the position (u 3 , v 3 ) is (0,0). The value of the correlation information E 3 (u 3 , v 3 ) is not necessarily the minimum when the position (u 3 , v 3 ) is (0,0).

そして、第1の動き検出処理によれば、図67のステップS111において、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)が求められ、さらに、3次元の動きベクトルとして、(p0,q0,t0)が求められる。 Then, according to the first motion detection process, in step S111 in FIG. 67, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) (P, q), that is, an average motion vector (p 0 , q 0 ) is obtained, and (p 0 , q 0 , t 0 ) is obtained as a three-dimensional motion vector.

この3次元の動きベクトル(p0,q0,t0)は、位置(u2,v2)が(0,0)のときに値が最小になるとは限らない相関情報F2(u2,v2)と、位置(u3,v3)が(0,0)のときに値が最小になるとは限らない相関情報F3(u3,v3)を用いて求められた合成相関情報E(p,q)を最小にする(p,q)である平均動きベクトル(p0,q0)から得られるため、その3次元の動きベクトル(p0,q0,t0)に直交する方向が、注目ブロックB14のデータの主成分方向を正確に表しているとは限らない。 The three-dimensional motion vector (p 0 , q 0 , t 0 ) is not always the minimum when the position (u 2 , v 2 ) is (0,0). The correlation information F 2 (u 2 , v 2 ) and the correlation information F 3 (u 3 , v 3 ), the value of which is not necessarily minimized when the position (u 3 , v 3 ) is (0,0) Since it is obtained from the average motion vector (p 0 , q 0 ) that is (p, q) that minimizes the information E (p, q), the three-dimensional motion vector (p 0 , q 0 , t 0 ) the direction perpendicular, not necessarily the main ingredient direction of the data block of interest B 14 accurately represents.

そして、そのような3次元の動きベクトル(p0,q0,t0)に直交する方向に基づくフィルタリングでは、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となる。 In such filtering based on a direction orthogonal to the three-dimensional motion vector (p 0 , q 0 , t 0 ), it is difficult to obtain appropriate data of only frequency components that can be recognized by human vision. It becomes.

次に、例えば、図71において、背景である被写体P6901と前景である被写体P6902とを含むブロックB9が注目ブロックであるとして、第1の動き検出処理を行うと、注目ブロックB9は、静止している被写体P6901と、動いている被写体P6902との両方を含むため、即ち、静止している被写体P6901のある位置において、動いている被写体P6902が、静止している被写体P6901を隠した状態となっているため、そのような注目ブロックB9に対応する領域は、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データのいずれにも存在しない。 Next, for example, in FIG. 71, if the block B 9 including the subject P 6901 that is the background and the subject P 6902 that is the foreground is the target block, and the first motion detection process is performed, the target block B 9 is Since both the stationary subject P 6901 and the moving subject P 6902 are included, that is, at a position of the stationary subject P 6901 , the moving subject P 6902 is a stationary subject. Since P 6901 is hidden, the areas corresponding to such a target block B 9 are time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t−2t 0 , t It does not exist in any of the image data at -3t 0 .

このため、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の値は、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データにおける、注目ブロックB9と最も類似する位置(u1,v1),(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)で、それぞれ最小となる For this reason, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , t at time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) Positions (u 1 , v 1 ), (u 2 ) most similar to the block of interest B 9 in the image data at t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 )

そして、第1の動き検出処理によれば、図67のステップS111において、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)が求められ、さらに、3次元の動きベクトルとして、(p0,q0,t0)が求められる。 Then, according to the first motion detection process, in step S111 in FIG. 67, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) (P, q), that is, an average motion vector (p 0 , q 0 ) is obtained, and (p 0 , q 0 , t 0 ) is obtained as a three-dimensional motion vector.

この3次元の動きベクトル(p0,q0,t0)は、注目ブロックB9と最も類似する位置において最小になる相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)を用いて求められた合成相関情報E(p,q)を最小にする(p,q)である平均動きベクトル(p0,q0)から得られるため、その3次元の動きベクトル(p0,q0,t0)に直交する方向が、注目ブロックB9のデータの主成分方向を正確に表しているとは限らない。 This three-dimensional motion vector (p 0 , q 0 , t 0 ) has the minimum correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v) at the position most similar to the target block B 9. 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) Since it is obtained from the average motion vector (p 0 , q 0 ) that is (p, q) that minimizes the information E (p, q), the three-dimensional motion vector (p 0 , q 0 , t 0 ) the direction perpendicular, not necessarily the main ingredient direction of the data block of interest B 9 accurately represents.

そして、そのような3次元の動きベクトル(p0,q0,t0)に直交する方向に基づくフィルタリングでは、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となる。 In such filtering based on a direction orthogonal to the three-dimensional motion vector (p 0 , q 0 , t 0 ), it is difficult to obtain appropriate data of only frequency components that can be recognized by human vision. It becomes.

以上のように、注目ブロック、または他のフレームの注目ブロックに対応する領域が、速度が異なる複数の被写体を含む場合、つまり、速度が異なる複数の被写体の境界部分を含む場合には、第1の動き検出処理では、平均動きベクトル、ひいては、注目ブロックのデータの主成分方向を正確に求めることができず、そのような主成分方向に基づくフィルタリングが行われることによって、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となることがあった。   As described above, when the region corresponding to the block of interest or the block of interest in another frame includes a plurality of subjects having different speeds, that is, if the region includes boundary portions of a plurality of subjects having different speeds, the first In this motion detection processing, the average motion vector, and thus the principal component direction of the data of the block of interest, cannot be obtained accurately, and the filtering based on such principal component direction is performed, so that it is recognized by human vision. It may be difficult to obtain appropriate data of only frequency components that can be obtained.

そこで、図72は、注目ブロック、または他のフレームの注目ブロックに対応する領域が、速度が異なる複数の被写体を含む場合であっても、平均動きベクトル、ひいては、注目ブロックのデータの主成分方向を正確に求める処理(以下、適宜、第2の動き検出処理という)を行う図25の主成分方向取得部31の構成例を示している。   Therefore, FIG. 72 shows the average motion vector, and thus the principal component direction of the data of the target block, even when the region corresponding to the target block or the target block of another frame includes a plurality of subjects having different velocities. 25 shows an example of the configuration of the principal component direction acquisition unit 31 in FIG. 25 that performs a process for accurately obtaining (hereinafter referred to as a second motion detection process as appropriate).

なお、図中、図52における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図72の主成分方向取得部31は、スケーリング合成部104と最小値検出部105に代えて、それぞれスケーリング合成部124と最小値検出部125が設けられている他は、図52における場合と同様に構成されている。   In the figure, portions corresponding to those in FIG. 52 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the principal component direction acquisition unit 31 in FIG. 72 is different from the scaling synthesis unit 104 and the minimum value detection unit 105 in that the scaling synthesis unit 124 and the minimum value detection unit 125 are provided in the case of FIG. It is configured in the same way.

スケーリング合成部124は、図52のスケーリング合成部104と同様に、相関演算部103から供給される、複数の相関演算対象フレームそれぞれについて求められた相関情報を、空間方向x,yにスケーリングし、さらに、そのスケーリング後の相関情報を合成して、合成相関情報を求める。但し、スケーリング合成部124では、スケーリング後の相関情報を合成する数(合成する相関情報の数)を変えて、複数の合成相関情報が求められる。そして、スケーリング合成部124は、複数の合成相関情報を、最小値検出部125に供給する。   Similar to the scaling synthesis unit 104 in FIG. 52, the scaling synthesis unit 124 scales the correlation information obtained from each of the correlation calculation target frames supplied from the correlation calculation unit 103 in the spatial directions x and y, Further, the correlation information after scaling is synthesized to obtain synthesized correlation information. However, the scaling combining unit 124 obtains a plurality of pieces of combined correlation information by changing the number of pieces of correlation information after scaling (the number of pieces of correlation information to be combined). Then, the scaling synthesis unit 124 supplies the plurality of synthesis correlation information to the minimum value detection unit 125.

最小値検出部125は、スケーリング合成部124からの複数の合成相関情報のうちの、相関が最大の合成相関情報である最大合成相関情報を求める。即ち、最小値検出部125は、スケーリング合成部124からの複数の合成相関情報それぞれの「値」の最小値を求める。さらに、最小値検出部125は、複数の合成相関情報から、最小値が最小の合成相関情報を、最大合成相関情報として求める。   The minimum value detecting unit 125 obtains maximum combined correlation information that is the combined correlation information having the maximum correlation among the plurality of combined correlation information from the scaling combining unit 124. That is, the minimum value detection unit 125 obtains the minimum value of “value” of each of the plurality of combined correlation information from the scaling combining unit 124. Further, the minimum value detection unit 125 obtains the composite correlation information having the minimum minimum value as the maximum composite correlation information from the plurality of composite correlation information.

さらに、最小値検出部125は、最大合成相関情報が表す相関が最大となる空間方向の位置を、即ち、最大合成相関情報の「値」を最小にする空間方向の位置を、最大相関位置として検出し、その最大相関位置へのベクトルを、平均動きベクトルとして求める。そして、最小値検出部125は、平均動きベクトルに、バッファ部21(図25)に記憶されている動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトルを求め、その3次元の動きベクトルの方向と直交する方向を、注目ブロックの主成分方向として検出して出力する。 Further, the minimum value detection unit 125 sets the position in the spatial direction where the correlation represented by the maximum combined correlation information is maximum, that is, the position in the spatial direction that minimizes the “value” of the maximum combined correlation information as the maximum correlation position. The vector to the maximum correlation position is detected as an average motion vector. Then, the minimum value detection unit 125 obtains a three-dimensional motion vector obtained by adding the frame period t 0 of the moving image data stored in the buffer unit 21 (FIG. 25) to the average motion vector as a component in the time direction t. The direction orthogonal to the direction of the three-dimensional motion vector is detected and output as the principal component direction of the block of interest.

また、最小値検出部125は、合成相関情報を求めるのに用いられた複数のフレームのうちの、最大合成相関情報を求めるのに合成した相関情報の演算に用いられたフレームの範囲を表す後述するカーネルサイズを、注目ブロックの動きベクトル(平均動きベクトル)の有効範囲、つまり、注目ブロックの主成分方向の有効範囲として、さらに求め、注目ブロックの主成分方向とともに出力する。   Further, the minimum value detection unit 125 represents a range of frames used for calculating the correlation information synthesized to obtain the maximum synthesized correlation information among a plurality of frames used to obtain the synthesized correlation information. The kernel size to be calculated is further obtained as the effective range of the motion vector (average motion vector) of the target block, that is, the effective range of the main component direction of the target block, and is output together with the main component direction of the target block.

次に、図73乃至図77のフローチャートを参照して、主成分方向取得部31が図72に示したように構成される場合の図25のフィルタ生成部23の処理について説明する。   Next, the processing of the filter generation unit 23 in FIG. 25 when the principal component direction acquisition unit 31 is configured as shown in FIG. 72 will be described with reference to the flowcharts in FIGS. 73 to 77.

なお、図73乃至図77のフローチャートにしたがったステップS151乃至S176の処理のうちの、ステップS151乃至S172の処理は、第2の動き検出処理であり、図31のステップS11の処理に対応する。また、ステップS173乃至S175の処理は、図31のステップS12の処理に対応し、ステップS176の処理は、図31のステップS13の処理に対応する。   Of the processes of steps S151 to S176 according to the flowcharts of FIGS. 73 to 77, the processes of steps S151 to S172 are second motion detection processes and correspond to the process of step S11 of FIG. Further, the processing in steps S173 to S175 corresponds to the processing in step S12 in FIG. 31, and the processing in step S176 corresponds to the processing in step S13 in FIG.

第2の動き検出処理では、速度が異なる複数の被写体が投影された動画の、いわば性質を利用して、注目ブロックとの相関情報を演算する複数のフレームのうちの、注目ブロックと対応する領域を有するフレームについて求められた相関情報だけを合成して合成相関情報を得て、その合成相関情報を用いて、注目ブロックの正確な主成分方向を得ることができる平均動きベクトルを求める。   In the second motion detection process, an area corresponding to the target block among a plurality of frames for calculating correlation information with the target block using the so-called property of a moving image on which a plurality of subjects with different speeds are projected. Only the correlation information obtained for a frame having a frame is combined to obtain combined correlation information, and an average motion vector capable of obtaining an accurate principal component direction of the block of interest is obtained using the combined correlation information.

即ち、例えば、図69乃至図71に示したように、静止している被写体P6901の手前側に、動いている被写体P6902が存在する時刻t-3t0乃至t+3t0の7フレームの間の時間は、6t0という短い時間であるので、動いている被写体P6902の速度は、一定であると近似することができる。 That is, for example, as shown in FIG. 69 to FIG. 71, seven frames from time t-3t 0 to t + 3t 0 where the moving subject P 6902 exists on the front side of the stationary subject P 6901 are shown. Since the time between them is as short as 6t 0 , it can be approximated that the speed of the moving subject P 6902 is constant.

そして、時刻tの画像データのあるブロックを注目ブロックとした場合に、その注目ブロックに対して、動いている被写体P6902が、遠ざかっていくケースでは、時刻tよりも時間的に後の時刻(未来の時刻)の画像データにおいて、注目ブロックと対応する領域が存在する。即ち、例えば、図71において、ブロックB7が注目ブロックである場合には、その注目ブロックB7に対して、被写体P6902が遠ざかっていくが、この場合、時刻tよりも時間的に後の時刻t+t0,t+2t0,t+3t0それぞれにおいて、注目ブロックB7に対応する領域B111,B211,B311が存在する。 Then, when a block having image data at time t is set as a target block, in the case where the moving subject P 6902 moves away from the target block, a time later than time t ( In the image data of (future time), there is an area corresponding to the block of interest. That is, for example, in FIG. 71, when the block B 7 is the target block, the subject P 6902 moves away from the target block B 7 , but in this case, the time later than the time t. At times t + t 0 , t + 2t 0 , and t + 3t 0 , areas B 111 , B 211 , and B 311 corresponding to the block of interest B 7 exist.

また、注目ブロックに対して、動いている被写体P6902が、近づいてくるケースでは、時刻tよりも時間的に前の時刻(過去の時刻)の画像データにおいて、注目ブロックと対応する領域が存在する。即ち、例えば、図71において、ブロックB14が注目ブロックである場合には、その注目ブロックB14に対して、被写体P6902が近づいてくるが、この場合、時刻tよりも時間的に前の時刻t-t0,t-2t0,t-3t0それぞれにおいて、注目ブロックB14に対応する領域B-112,B-212,B-312が存在する。 In addition, in the case where the moving subject P 6902 approaches the block of interest, there is an area corresponding to the block of interest in the image data at a time prior to the time t (past time). To do. That is, for example, in FIG. 71, when the block B 14 is the target block, the subject P 6902 approaches the target block B 14 , but in this case, the time before the time t At times tt 0 , t-2t 0 , and t-3t 0 , there are regions B −112 , B −212 , and B −312 corresponding to the block of interest B 14 .

なお、注目ブロックに、静止している被写体P6901と、動いている被写体P6902とが存在するケースでは、時刻tの前後の時刻の画像データにおいて、注目ブロックと対応する領域は存在しない。即ち、例えば、図71において、ブロックB9が注目ブロックである場合には、注目ブロックB9には、静止している被写体P6901と、動いている被写体P6902とが存在するが、この場合、時刻tよりも前の時刻t-t0,t-2t0,t-3t0と、後の時刻t+t0,t+2t0,t+3t0のうちのいずれにも、注目ブロックB9と対応する領域は存在しない。 In the case where the stationary block includes the stationary subject P 6901 and the moving subject P 6902 , there is no region corresponding to the focused block in the image data at times before and after the time t. That is, for example, in FIG. 71, when the block B 9 is the target block, the target block B 9 includes a stationary subject P 6901 and a moving subject P 6902. In this case, , The block of interest B 9 at any of the times tt 0 , t-2t 0 , t-3t 0 before the time t and the times t + t 0 , t + 2t 0 , t + 3t 0 after the time t There is no corresponding area.

第2の動き検出処理では、以上のような、速度が異なる複数の被写体が投影された動画の性質を利用した処理が行われる。   In the second motion detection process, a process using the nature of a moving image in which a plurality of subjects with different speeds is projected as described above is performed.

即ち、図72の主成分方向取得部31において、バッファ部101には、バッファ部21(図25)から読み出された動画データが供給され、バッファ部101は、その動画データを一時記憶する。   That is, in the principal component direction acquisition unit 31 in FIG. 72, the moving image data read from the buffer unit 21 (FIG. 25) is supplied to the buffer unit 101, and the buffer unit 101 temporarily stores the moving image data.

そして、図73のステップS151において、ブロック抽出部102は、バッファ部101に記憶された動画データを、図64のステップS101における場合と同様に、例えば16×16画素のブロックに分割し、相関演算部103に供給する。なお、以降の処理は、ブロック抽出部102で得られたブロックを、順次、注目ブロックとして行われる。   In step S151 in FIG. 73, the block extraction unit 102 divides the moving image data stored in the buffer unit 101 into, for example, blocks of 16 × 16 pixels, as in step S101 in FIG. To the unit 103. In the subsequent processing, the blocks obtained by the block extraction unit 102 are sequentially performed as the target block.

ここで、図64乃至図67における場合と同様に、注目ブロックの位置(例えば、注目ブロックの左上の画素の位置)を、(x0,y0)と表す。また、注目ブロックのフレーム(注目フレーム)は、時刻tのフレームであるとする。 Here, as in FIGS. 64 to 67, the position of the block of interest (for example, the position of the upper left pixel of the block of interest) is represented as (x 0 , y 0 ). The frame of the block of interest (frame of interest) is assumed to be a frame at time t.

ステップS151の処理後は、ステップS152に進み、相関演算部103は、注目フレームの次のフレームの画像データである時刻t+t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E1(u1,v1)を、注目ブロックを対応させる時刻t+t0の画像データの位置(x0+u1,y0+v1)を変えながら求め、その関数E1(u1,v1)を、時刻t+t0における相関情報として、スケーリング合成部124に供給して、ステップS153に進む。 After the process of step S151, the process proceeds to step S152, and the correlation calculation unit 103 reads out the image data at time t + t 0 that is the image data of the frame next to the frame of interest from the buffer unit 101, The function E 1 (u 1 , v 1 ) representing the sum of absolute differences between corresponding pixels with the image data at t + t 0 is expressed as the position of the image data at time t + t 0 ( x 0 + u 1 , y 0 + v 1 ), and the function E 1 (u 1 , v 1 ) is supplied to the scaling synthesis unit 124 as correlation information at time t + t 0 . The process proceeds to S153.

ステップS153では、相関演算部103は、注目フレームの次の次のフレームの画像データである時刻t+2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E2(u2,v2)を、注目ブロックを対応させる時刻t+2t0の画像データの位置(x0+u2,y0+v2)を変えながら求め、その関数E2(u2,v2)を、時刻t+2t0における相関情報として、スケーリング合成部124に供給して、ステップS154に進む。 In step S153, the correlation calculation unit 103 reads the image data at time t + 2t 0 that is the image data of the next frame after the frame of interest from the buffer unit 101, and reads the block of interest and the image at time t + 2t 0 . The function E 2 (u 2 , v 2 ) representing the sum of absolute differences between corresponding pixels with the data is expressed as the position of the image data at the time t + 2t 0 (x 0 + u 2 , y 0 + v 2 ) is changed and the function E 2 (u 2 , v 2 ) is supplied as correlation information at time t + 2t 0 to the scaling synthesis unit 124, and the process proceeds to step S154.

ステップS154では、相関演算部103は、注目フレームの3フレームだけ時間的に先の画像データである時刻t+3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E3(u3,v3)を、注目ブロックを対応させる時刻t+3t0の画像データの位置(x0+u3,y0+v3)を変えながら求め、その関数E3(u3,v3)を、時刻t+3t0における相関情報として、スケーリング合成部124に供給して、図74のステップS155に進む。 In step S154, the correlation calculation unit 103 reads out the image data at time t + 3t 0 that is temporally preceding image data by three frames of the target frame from the buffer unit 101, and sets the target block and time t + 3t 0. The function E 3 (u 3 , v 3 ) representing the sum of absolute differences between corresponding pixels with the image data of the image data position of the image data at time t + 3t 0 (x 0 + u 3 , y 0 + v 3 ), and the function E 3 (u 3 , v 3 ) is supplied to the scaling combiner 124 as correlation information at time t + 3t 0 , and step S155 in FIG. Proceed to

ステップS155では、相関演算部103は、注目フレームの前のフレームの画像データである時刻t-t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F1(r1,s1)を、注目ブロックを対応させる時刻t-t0の画像データの位置(x0+r1,y0+s1)を変えながら求め、その関数F1(r1,s1)を、時刻t-t0における相関情報として、スケーリング合成部124に供給して、ステップS156に進む。 In step S155, the correlation calculation unit 103 reads the image data at time tt 0 that is the image data of the frame before the frame of interest from the buffer unit 101, and corresponds the block of interest to the image data at time tt 0. Change the position (x 0 + r 1 , y 0 + s 1 ) of the image data at the time tt 0 to associate the block of interest with the function F 1 (r 1 , s 1 ) that represents the sum of absolute differences between pixels. The function F 1 (r 1 , s 1 ) is obtained as correlation information at time tt 0 and supplied to the scaling synthesizer 124, and the process proceeds to step S156.

ステップS156では、相関演算部103は、注目フレームの前の前のフレームの画像データである時刻t-2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F2(r2,s2)を、注目ブロックを対応させる時刻t-2t0の画像データの位置(x0+r2,y0+s2)を変えながら求め、その関数F2(r2,s2)を、時刻t-2t0における相関情報として、スケーリング合成部124に供給して、ステップS157に進む。 In step S156, the correlation calculation unit 103 reads the image data at the time t-2t 0 that is the image data of the previous frame before the target frame from the buffer unit 101, and reads the target block and the image at the time t-2t 0 . The function F 2 (r 2 , s 2 ) representing the sum of absolute differences between corresponding pixels with the data is expressed as the position of the image data at the time t-2t 0 (x 0 + r 2 , y 0 + s 2 ) is changed, and the function F 2 (r 2 , s 2 ) is supplied as the correlation information at time t-2t 0 to the scaling combiner 124, and the process proceeds to step S157.

ステップS157では、相関演算部103は、注目フレームの3フレームだけ時間的に前の画像データである時刻t-3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F3(r3,s3)を、注目ブロックを対応させる時刻t-3t0の画像データの位置(x0+r3,y0+s3)を変えながら求め、その関数F3(r3,s3)を、時刻t-3t0における相関情報として、スケーリング合成部124に供給して、ステップS158に進む。 In step S157, the correlation calculation unit 103 reads out the image data at time t-3t 0 that is temporally previous image data by three frames of the frame of interest from the buffer unit 101, reads the block of interest, and time t-3t 0. The function F 3 (r 3 , s 3 ) representing the sum of absolute differences between corresponding pixels with the image data of the image data position of the image data at time t-3t 0 (x 0 + r 3 , y 0 + s 3 ), and the function F 3 (r 3 , s 3 ) is supplied to the scaling combiner 124 as correlation information at time t-3t 0 , and the process proceeds to step S158.

ステップS158では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちのすべてについて、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。 In step S <b> 158, the scaling synthesis unit 124 includes six pieces of correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ) supplied from the correlation calculation unit 103. ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), the position of the correlation information E 1 (u 1 , v 1 ) Scaling is performed with the scale of (u 1 , v 1 ) as a reference, and further, the correlation information after the scaling is synthesized to obtain synthesized correlation information E (p, q). That is, the scaling synthesizer 124, the position (p, q) = (u 1, v 1) = (u 2/2, v 2/2) = (u 3/3, v 3/3) = (- r 1, -s 1) = (- r 2/2, -s 2/2) = (- r 3/3, performs scaling with -s 3/3), further, the correlation information after the scaling E 1 (p, q), E 2 (2p, 2q), E 3 (3p, 3q), F 1 (-p, -q), F 2 (-2p, -2q), F 3 (-3p, -3q), the combined correlation information E (p, q) (= E 1 (p, q) + E 2 (2p, 2q) + E 3 (3p, 3q) + F 1 (-p, -q) + F 2 (-2p, -2q) + F 3 (-3p, -3q)).

なお、合成相関情報E(p,q)は、スケーリング後の相関情報を単純に加算する他、上述したように、重み付け加算することにより求めることもできる。   Note that the combined correlation information E (p, q) can be obtained by simply adding the correlation information after scaling, or by weighted addition as described above.

以上のように、スケーリング合成部124は、ステップS158において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)のすべてを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の3フレームのそれぞれについての、合計で6つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である6によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L33を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/6+L33)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS158からS159に進む。 As described above, the scaling synthesizer 124, in step S158, the correlation information E 1 at time t + t 0 (u 1, v 1), the correlation information E 2 at time t + 2t 0 (u 2, v 2) , Correlation information E 3 (u 3 , v 3 ) at time t + 3t 0, correlation information F 1 (r 1 , s 1 ) at time tt 0 , correlation information F 2 (r 2 , s at time t-2t 0 2 ), combined correlation information E (p, q) that combines all of the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 , that is, later in time with respect to time t of the frame of interest After obtaining the combined correlation information E (p, q), which is a total of 6 correlation information for each of the 3 frames and the previous 3 frames in time, the combined correlation information E (p, q) is obtained. The obtained correlation information is normalized by dividing the combined correlation information E (p, q) by 6, which is the number of correlation information combined, and further, a predetermined offset is added to the normalized combined correlation information E (p, q). It is added to the value L 33 By the final synthesized correlation information E (p, q) (= {E 1 (p, q) + E 2 (2p, 2q) + E 3 (3p, 3q) + F 1 (-p, -q ) + F 2 (-2p, -2q ) + F 3 (-3p, -3q)} / 6 + L 33) obtained. Then, the scaling combining unit 124 supplies the final combined correlation information E (p, q) to the minimum value detecting unit 125, and proceeds from step S158 to S159.

ステップS159では、最小値検出部125は、ステップS158でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p33,q33)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p33,q33)を検出し、位置(p,q)が最大相関位置(p33,q33)である場合の合成相関情報E(p33,q33)の「値」、即ち、最小値E33とともに記憶して、図75のステップS160に進む。 In step S159, the minimum value detecting unit 125 supplies each of the three frames that are temporally subsequent to the time t of the frame of interest and the three frames that are temporally previous supplied from the scaling composition unit 124 in step S158. (P 33 , q 33 ), which is the position (p, q) in the spatial direction at which the correlation represented by the combined correlation information E (p, q) that is obtained by combining the correlation information of Detect (p 33 , q 33 ), which is the position (p, q) that minimizes the `` value '' of (p, q), and position (p, q) is the maximum correlation position (p 33 , q 33 ) Stored together with the “value” of the combined correlation information E (p 33 , q 33 ) in some cases, that is, the minimum value E 33 , proceeds to step S 160 in FIG.

ステップS160では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、5つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(-r1,-s1)=(-r2/2,-s2/2)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),F1(-p,-q),F2(-2p,-2q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q))を求める。 In step S <b> 160, the scaling synthesis unit 124 includes six pieces of correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ) supplied from the correlation calculation unit 103. ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), five correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), correlation information E 1 (u 1 , v 1 ) Is scaled with reference to the scale of the position (u 1 , v 1 ), and the correlation information after the scaling is synthesized to obtain synthesized correlation information E (p, q). That is, the scaling synthesizer 124, the position (p, q) = (u 1, v 1) = (u 2/2, v 2/2) = (u 3/3, v 3/3) = (- r 1, -s 1) = (- r 2/2, performs scaling with -s 2/2), further, the correlation information E 1 after the scaling (p, q), E 2 (2p, 2q ), E 3 (3p, 3q), F 1 (-p, -q), and F 2 (-2p, -2q) are added to obtain the combined correlation information E (p, q) (= E 1 (p , q) + E 2 (2p, 2q) + E 3 (3p, 3q) + F 1 (−p, −q) + F 2 (−2p, −2q)).

以上のように、スケーリング合成部124は、ステップS160において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)の5つを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の2フレームのそれぞれについての、合計で5つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である5によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L23を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q)}/5+L23)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS160からS161に進む。 As described above, the scaling synthesizer 124, in step S160, the correlation information E 1 at time t + t 0 (u 1, v 1), the correlation information E 2 at time t + 2t 0 (u 2, v 2) , Correlation information E 3 (u 3 , v 3 ) at time t + 3t 0, correlation information F 1 (r 1 , s 1 ) at time tt 0 , correlation information F 2 (r 2 , s at time t-2t 0 2 ), the combined correlation information E (p, q), that is, the sum of the three frames after the time t and the two frames before the time t of the frame of interest. The composite correlation information E (p, q) obtained by synthesizing the five correlation information in the above is obtained, and then the composite correlation information E is obtained by five, which is the number of correlation information synthesized in obtaining the composite correlation information E (p, q). Normalization is performed by dividing (p, q) .Further, by adding a predetermined offset value L 23 to the normalized combined correlation information E (p, q), the final combined correlation information E ( p, q) (= {E 1 (p, q) + E 2 (2p, 2q) + E 3 (3p, 3q) + F 1 (-p, -q) + F 2 (-2p, -2q)} / 5 + L 23 ) Then, the scaling synthesis unit 124 supplies the final synthesis correlation information E (p, q) to the minimum value detection unit 125, and proceeds from step S160 to S161.

ステップS161では、最小値検出部125は、ステップS160でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の2フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p23,q23)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p23,q23)を検出し、位置(p,q)が最大相関位置(p23,q23)である場合の合成相関情報E(p23,q23)の「値」、即ち、最小値E23とともに記憶して、ステップS162に進む。 In step S161, the minimum value detector 125 supplies each of the three frames that are temporally subsequent to the time t of the frame of interest and the two frames that are temporally previous, supplied from the scaling composition unit 124 in step S160. (P 23 , q 23 ), which is the position (p, q) in the spatial direction where the correlation represented by the combined correlation information E (p, q), which is obtained by synthesizing the correlation information, is detected, that is, the combined correlation information E (p 23 , q 23 ), which is the position (p, q) that minimizes the (value) of (p, q), is detected, and the position (p, q) is the maximum correlation position (p 23 , q 23 ) Stored together with the “value” of the composite correlation information E (p 23 , q 23 ) in some cases, that is, the minimum value E 23 , proceeds to step S162.

ステップS162では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、4つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(-r1,-s1)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),F1(-p,-q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q))を求める。 In step S <b> 162, the scaling synthesis unit 124 includes six pieces of correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ) supplied from the correlation calculation unit 103. ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), four correlation information E 1 (u 1 , v 1 ), E 2 (u 2, v 2) , E 3 (u 3, v 3), the F 1 (r 1, s 1 ), the position of the correlation information E 1 (u 1, v 1 ) (u 1, v 1) Is scaled with reference to the scale, and the correlation information after the scaling is synthesized to obtain synthesized correlation information E (p, q). That is, the scaling synthesizer 124, the position (p, q) = (u 1, v 1) = (u 2/2, v 2/2) = (u 3/3, v 3/3) = (- r 1 , -s 1 ), and the correlation information E 1 (p, q), E 2 (2p, 2q), E 3 (3p, 3q), F 1 (- By adding (p, -q), the combined correlation information E (p, q) (= E 1 (p, q) + E 2 (2p, 2q) + E 3 (3p, 3q) + F 1 (- p, -q)).

以上のように、スケーリング合成部124は、ステップS162において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)の4つを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の1フレームのそれぞれについての、合計で4つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である4によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L13を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)}/4+L13)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS162からS163に進む。 As described above, the scaling synthesizer 124, in step S162, the correlation information E 1 at time t + t 0 (u 1, v 1), the correlation information E 2 at time t + 2t 0 (u 2, v 2) , Combined correlation information E (p, q) obtained by combining four pieces of correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 and correlation information F 1 (r 1 , s 1 ) at time tt 0 , That is, the combined correlation information E (p, q) obtained by synthesizing a total of four pieces of correlation information for each of the three frames later in time with respect to the time t of the frame of interest and the one frame earlier in time. After obtaining, the composite correlation information E (p, q) is normalized by dividing the composite correlation information E (p, q) by 4 which is the number of correlation information synthesized in obtaining the composite correlation information E (p, q). By adding a predetermined offset value L 13 to the composite correlation information E (p, q) of the final composite correlation information E (p, q) (= {E 1 (p, q) + E 2 ( 2p, 2q) + E 3 (3p, 3q) + F 1 (-p, -q)} / 4 + L 13 ) Then, the scaling combining unit 124 supplies the final combined correlation information E (p, q) to the minimum value detecting unit 125, and proceeds from step S162 to S163.

ステップS163では、最小値検出部125は、ステップS162でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の1フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p13,q13)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p13,q13)を検出し、位置(p,q)が最大相関位置(p13,q13)である場合の合成相関情報E(p13,q13)の「値」、即ち、最小値E13とともに記憶して、ステップS164に進む。 In step S163, the minimum value detector 125 supplies each of the three frames later in time with respect to the time t of the frame of interest and the first frame temporally supplied from the scaling composition unit 124 in step S162. (P 13 , q 13 ), which is the position (p, q) in the spatial direction where the correlation represented by the combined correlation information E (p, q), which is obtained by synthesizing the correlation information, is maximized, that is, the combined correlation information E (p 13 , q 13 ), which is the position (p, q) that minimizes the (value) of (p, q), is detected, and the position (p, q) is the maximum correlation position (p 13 , q 13 ) The value is stored together with the “value” of the composite correlation information E (p 13 , q 13 ) in some cases, that is, the minimum value E 13 , and the process proceeds to step S164.

ステップS164では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、3つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q))を求める。 In step S164, the scaling synthesis unit 124 receives the six pieces of correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ) supplied from the correlation calculation unit 103. ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), three correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ) and E 3 (u 3 , v 3 ) are scaled based on the scale of the position (u 1 , v 1 ) of the correlation information E 1 (u 1 , v 1 ), and Then, the scaled correlation information is synthesized to obtain synthesized correlation information E (p, q). That is, the scaling synthesizer 124, the position (p, q) = (u 1, v 1) = (u 2/2, v 2/2) = With (u 3/3, v 3 /3) By performing scaling and further adding the correlation information E 1 (p, q), E 2 (2p, 2q), E 3 (3p, 3q) after the scaling, the combined correlation information E (p, q) (= E 1 (p, q) + E 2 (2p, 2q) + E 3 (3p, 3q)) is obtained.

以上のように、スケーリング合成部124は、ステップS164において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)の3つを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームのそれぞれについての、合計で3つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である3によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L03を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)}/3+L03)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS164からS165に進む。 As described above, the scaling synthesizer 124, in step S164, the correlation information E 1 at time t + t 0 (u 1, v 1), the correlation information E 2 at time t + 2t 0 (u 2, v 2) , Combined correlation information E (p, q) obtained by combining three pieces of correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 , that is, 3 later in time with respect to time t of the target frame This is the number of pieces of correlation information synthesized for obtaining the combined correlation information E (p, q) after obtaining the combined correlation information E (p, q) obtained by combining a total of three pieces of correlation information for each frame. 3 is normalized by dividing the composite correlation information E (p, q) by 3 and, further, by adding a predetermined offset value L 03 to the composite correlation information E (p, q) after normalization, Synthetic correlation information E (p, q) (= {E 1 (p, q) + E 2 (2p, 2q) + E 3 (3p, 3q)} / 3 + L 03 ) is obtained. Then, the scaling combining unit 124 supplies the final combined correlation information E (p, q) to the minimum value detecting unit 125, and proceeds from step S164 to S165.

ステップS165では、最小値検出部125は、ステップS164でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p03,q03)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p03,q03)を検出し、位置(p,q)が最大相関位置(p03,q03)である場合の合成相関情報E(p03,q03)の「値」、即ち、最小値E03とともに記憶して、図76のステップS166に進む。 In step S165, the minimum value detection unit 125 synthesizes the correlation information supplied from the scaling synthesis unit 124 in step S164 and synthesizes the correlation information for each of the three frames after the time t of the frame of interest. (P 03 , q 03 ), which is the position (p, q) in the spatial direction where the correlation represented by E (p, q) is maximum, is detected, that is, the “value” of the combined correlation information E (p, q) (P 03 , q 03 ), which is a position (p, q) that minimizes the position of the signal, is detected, and the combined correlation information E (p (p, q) is the maximum correlation position (p 03 , q 03 ) 03 , q 03 ), ie, the minimum value E 03 , and the process proceeds to step S166 in FIG.

ステップS166では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、5つの相関情報E1(u1,v1),E2(u2,v2),F1(r1,s1),F2(r2,s2),F3(r3,s3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。 In step S <b> 166, the scaling synthesis unit 124 includes the six pieces of correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ) supplied from the correlation calculation unit 103. ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), five correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), correlation information E 1 (u 1 , v 1 ) Is scaled with reference to the scale of the position (u 1 , v 1 ), and the correlation information after the scaling is synthesized to obtain synthesized correlation information E (p, q). That is, the scaling synthesizer 124, the position (p, q) = (u 1, v 1) = (u 2/2, v 2/2) = (- r 1, -s 1) = (- r 2 / 2, -s 2/2) = (- r 3/3, performs scaling with -s 3/3), further, the correlation information E 1 after the scaling (p, q), E 2 (2p , 2q), F 1 (−p, −q), F 2 (−2p, −2q), and F 3 (−3p, −3q), the combined correlation information E (p, q) (= E 1 (p, q) + E 2 (2p, 2q) + F 1 (−p, −q) + F 2 (−2p, −2q) + F 3 (−3p, −3q)) is obtained.

以上のように、スケーリング合成部124は、ステップS166において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)を合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の2フレームと、時間的に前の3フレームのそれぞれについての、合計で5つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である5によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L32を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/5+L32)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS166からS167に進む。 As described above, the scaling synthesizer 124, in step S166, the correlation information E 1 at time t + t 0 (u 1, v 1), the correlation information E 2 at time t + 2t 0 (u 2, v 2) , Correlation information F 1 (r 1 , s 1 ) at time tt 0, correlation information F 2 (r 2 , s 2 ) at time t-2t 0 , correlation information F 3 (r 3 , s at time t-3t 0 3 ) combined correlation information E (p, q), that is, 5 frames in total for each of the two frames later in time and the previous three frames in time with respect to the time t of the frame of interest. After obtaining the combined correlation information E (p, q) obtained by combining the correlation information, the combined correlation information E (p, q) is obtained by 5 which is the number of the correlation information combined in obtaining the combined correlation information E (p, q). q) is divided by normalization, and the final combined correlation information E (p, q is added by adding a predetermined offset value L 32 to the normalized combined correlation information E (p, q). ) (= {E 1 (p, q ) + E 2 (2p, 2q) + F 1 (−p, −q) + F 2 (−2p, −2q) + F 3 (−3p, −3q)} / 5 + L 32 ). Then, the scaling combining unit 124 supplies the final combined correlation information E (p, q) to the minimum value detecting unit 125, and proceeds from step S166 to S167.

ステップS167では、最小値検出部125は、ステップS166でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の2フレームと、時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p32,q32)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p32,q32)を検出し、位置(p,q)が最大相関位置(p32,q32)である場合の合成相関情報E(p32,q32)の「値」、即ち、最小値E32とともに記憶して、ステップS168に進む。 In step S167, the minimum value detection unit 125 supplies each of the two frames that are temporally subsequent to the time t of the frame of interest and the three frames that are temporally previous supplied from the scaling composition unit 124 in step S166. (P 32 , q 32 ), which is the position (p, q) in the spatial direction where the correlation represented by the combined correlation information E (p, q), which is obtained by combining the correlation information of (p 32 , q 32 ), which is the position (p, q) that minimizes the (value) of (p, q), is detected, and the position (p, q) is the maximum correlation position (p 32 , q 32 ) Stored together with the “value” of the composite correlation information E (p 32 , q 32 ) in some cases, that is, the minimum value E 32 , proceeds to step S168.

ステップS168では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、4つの相関情報E1(u1,v1),F1(r1,s1),F2(r2,s2),F3(r3,s3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。 In step S168, the scaling synthesis unit 124 receives the six pieces of correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ) supplied from the correlation calculation unit 103. ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), four correlation information E 1 (u 1 , v 1 ), F 1 (r 1, s 1) , F 2 (r 2, s 2), F 3 (r 3, s 3) for the correlation information E 1 (u 1, v 1) the position of the (u 1, v 1) Is scaled with reference to the scale, and the correlation information after the scaling is synthesized to obtain synthesized correlation information E (p, q). That is, the scaling synthesizer 124, the position (p, q) = (u 1, v 1) = (- r 1, -s 1) = (- r 2/2, -s 2/2) = (- r 3/3 performs scaling with -s 3/3), further, its the scaled correlation information E 1 (p, q), F 1 (-p, -q), F 2 (-2p, -2q) and F 3 (-3p, -3q) are added to obtain the combined correlation information E (p, q) (= E 1 (p, q) + F 1 (-p, -q) + F 2 Find (-2p, -2q) + F 3 (-3p, -3q)).

以上のように、スケーリング合成部124は、ステップS168において、時刻t+t0における相関情報E1(u1,v1)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)を合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の1フレームと、時間的に前の3フレームのそれぞれについての、合計で4つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である4によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L31を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/4+L31)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS168からS169に進む。 As described above, the scaling synthesizer 124, in step S168, the correlation at time t + t 0 information E 1 (u 1, v 1 ), the correlation information at time tt 0 F 1 (r 1, s 1), the time Synthetic correlation information E (p, q) obtained by synthesizing correlation information F 2 (r 2 , s 2 ) at t-2t 0 and correlation information F 3 (r 3 , s 3 ) at time t-3t 0 , that is, attention After obtaining the combined correlation information E (p, q), which is a total of four pieces of correlation information for one frame later in time with respect to time t of the frame and three frames earlier in time. Then, the composite correlation information E (p, q) is normalized by dividing the composite correlation information E (p, q) by 4 which is the number of correlation information synthesized in obtaining the composite correlation information E (p, q). By adding a predetermined offset value L 31 to the information E (p, q), the final combined correlation information E (p, q) (= {E 1 (p, q) + F 1 (−p, -q) + F 2 (-2p, -2q) + F 3 (-3p, -3q)} / 4 + L 31 ) obtain. Then, the scaling combining unit 124 supplies the final combined correlation information E (p, q) to the minimum value detecting unit 125, and proceeds from step S168 to S169.

ステップS169では、最小値検出部125は、ステップS168でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の1フレームと、時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p31,q31)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p31,q31)を検出し、位置(p,q)が最大相関位置(p31,q31)である場合の合成相関情報E(p31,q31)の「値」、即ち、最小値E31とともに記憶して、ステップS170に進む。 In step S169, the minimum value detecting unit 125 supplies each of one frame later in time with respect to time t of the target frame and three frames earlier in time supplied from the scaling composition unit 124 in step S168. (P 31 , q 31 ), which is the position (p, q) in the spatial direction where the correlation represented by the combined correlation information E (p, q), which is obtained by combining the correlation information, is maximized, that is, the combined correlation information E (p 31 , q 31 ), which is the position (p, q) that minimizes the (value) of (p, q), is detected, and the position (p, q) is the maximum correlation position (p 31 , q 31 ) Stored together with the “value” of the composite correlation information E (p 31 , q 31 ) in some cases, that is, the minimum value E 31 , proceeds to step S170.

ステップS170では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、3つの相関情報F1(r1,s1),F2(r2,s2),F3(r3,s3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。 In step S <b> 170, the scaling synthesis unit 124 includes the six pieces of correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ) supplied from the correlation calculation unit 103. ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), three correlation information F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ) and F 3 (r 3 , s 3 ) are scaled with reference to the scale of the position (u 1 , v 1 ) of the correlation information E 1 (u 1 , v 1 ), and Then, the scaled correlation information is synthesized to obtain synthesized correlation information E (p, q). That is, the scaling synthesizer 124, the position (p, q) = (- r 1, -s 1) = (- r 2/2, -s 2/2) = (- r 3/3, -s 3 / Scaling is performed by setting 3), and the correlation information F 1 (-p, -q), F 2 (-2p, -2q), and F 3 (-3p, -3q) after the scaling are added. Thus, the composite correlation information E (p, q) (= F 1 (−p, −q) + F 2 (−2p, −2q) + F 3 (−3p, −3q)) is obtained.

以上のように、スケーリング合成部124は、ステップS170において、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)を合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に前の3フレームのそれぞれについての、合計で3つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である3によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L30を加算することにより、最終的な合成相関情報E(p,q)(={F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/3+L30)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS170からS171に進む。 As described above, in step S170, the scaling composition unit 124 calculates the correlation information F 1 (r 1 , s 1 ) at time tt 0 , the correlation information F 2 (r 2 , s 2 ) at time t-2t 0 , and the time The combined correlation information E (p, q) obtained by synthesizing the correlation information F 3 (r 3 , s 3 ) at t-3t 0 , that is, for each of the three frames temporally prior to the time t of the frame of interest After obtaining the combined correlation information E (p, q) obtained by combining the three pieces of correlation information in total, the number of the correlation information combined in determining the combined correlation information E (p, q) is 3 to determine the combined correlation. normalized by dividing the information E (p, q), further synthesized correlation information E after the normalization (p, q) in, by adding a predetermined offset value L 30, final synthesized correlation information E (p, q) (= {F 1 (−p, −q) + F 2 (−2p, −2q) + F 3 (−3p, −3q)} / 3 + L 30 ) is obtained. Then, the scaling combining unit 124 supplies the final combined correlation information E (p, q) to the minimum value detecting unit 125, and proceeds from step S170 to S171.

ステップS171では、最小値検出部125は、ステップS170でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p30,q30)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p30,q30)を検出し、位置(p,q)が最大相関位置(p30,q30)である場合の合成相関情報E(p30,q30)の「値」、即ち、最小値E30とともに記憶して、図77のステップS172に進む。 In step S171, the minimum value detection unit 125 synthesizes the correlation information that is supplied from the scaling synthesis unit 124 in step S170 and synthesizes the correlation information for each of the previous three frames with respect to the time t of the frame of interest. (P 30 , q 30 ) is detected as a position (p, q) in the spatial direction where the correlation represented by E (p, q) is maximum, that is, the `` value '' of the combined correlation information E (p, q) (P 30 , q 30 ), which is the position (p, q) that minimizes, is detected, and the combined correlation information E (p (p, q) is the maximum correlation position (p 30 , q 30 ) 30 , q 30 ), ie, the minimum value E 30 , and the process proceeds to step S 172 in FIG. 77.

ステップS172では、最小値検出部125は、スケーリング合成部124からの複数の合成相関情報のうちの、相関が最大の合成相関情報である最大合成相関情報を求める。即ち、最小値検出部125は、注目フレームの時刻tに対して時間的に後の3フレームと時間的に前の3フレームの6つの相関情報を合成した合成相関情報E(p,q)の最小値E33(ステップS159)、注目フレームの時刻tに対して時間的に後の3フレームと時間的に前の2フレームの5つの相関情報を合成した合成相関情報E(p,q)の最小値E23(ステップS161)、注目フレームの時刻tに対して時間的に後の3フレームと時間的に前の1フレームの4つの相関情報を合成した合成相関情報E(p,q)の最小値E13(ステップS163)、注目フレームの時刻tに対して時間的に後の3フレームの3つの相関情報を合成した合成相関情報E(p,q)の最小値E03(ステップS165)、注目フレームの時刻tに対して時間的に後の2フレームと時間的に前の3フレームの5つの相関情報を合成した合成相関情報E(p,q)の最小値E32(ステップS167)、注目フレームの時刻tに対して時間的に後の1フレームと時間的に前の3フレームの4つの相関情報を合成した合成相関情報E(p,q)の最小値E31(ステップS169)、注目フレームの時刻tに対して時間的に前の3フレームの3つの相関情報を合成した合成相関情報E(p,q)の最小値E30(ステップS171)のうちの最小のものを与える合成相関情報を、最大合成相関情報として求める。 In step S <b> 172, the minimum value detection unit 125 obtains the maximum combined correlation information that is the combined correlation information with the maximum correlation among the plurality of combined correlation information from the scaling combining unit 124. In other words, the minimum value detection unit 125 synthesizes the combined correlation information E (p, q) obtained by synthesizing the six correlation information of the three frames later in time and the previous three frames with respect to the time t of the frame of interest. The minimum value E 33 (step S159), the combined correlation information E (p, q) obtained by synthesizing the five correlation information of the temporally subsequent three frames and the temporally previous two frames with respect to the time t of the frame of interest. The minimum value E 23 (step S161), the combined correlation information E (p, q) obtained by synthesizing the four correlation information of the temporally subsequent three frames and the temporally previous one frame with respect to the time t of the frame of interest. Minimum value E 13 (step S163), minimum value E 03 of combined correlation information E (p, q) obtained by synthesizing three correlation information of three frames that are temporally subsequent to time t of the frame of interest (step S165) , 2 frames later in time and 3 frames earlier in time with respect to time t of the frame of interest The minimum value E 32 (step S167) of the combined correlation information E (p, q) obtained by synthesizing the five pieces of correlation information of the first frame, one frame later in time with respect to the time t of the frame of interest, and the previous three in time The minimum value E 31 of the combined correlation information E (p, q) obtained by combining the four pieces of correlation information of the frame (step S169), and the three correlation information of the previous three frames with respect to the time t of the target frame are combined. The combined correlation information that gives the minimum value of the minimum values E 30 (step S171) of the combined correlation information E (p, q) is obtained as the maximum combined correlation information.

ここで、最大合成相関情報となった合成相関情報を求めるのに、注目フレームの時刻tに対して時間的に後のkフレームと時間的に前のhフレームの相関情報の、合計でk+hの相関情報を合成したとすると(ここでは、k,h=0,1,2,3)、最小値E33,E23,E13,E03,E32,E31,E30のうちの最小のものは、Ehkで表すことができる。 Here, in order to obtain the combined correlation information that has become the maximum combined correlation information, k + If the correlation information of h is synthesized (here, k, h = 0,1,2,3), among the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 Can be expressed as E hk .

ステップS172では、さらに、最小値検出部125は、最大合成相関情報の「値」を最小にする空間方向の位置、即ち、最大合成相関情報の最小値Ehkを与える空間方向の位置(phk,qhk)を、最小値E33,E23,E13,E03,E32,E31,E30それぞれとともに記憶した位置(p33,q33),(p23,q23),(p13,q13),(p03,q03),(p32,q32),(p31,q31),(p30,q30)の中から選択することにより検出し、最大相関位置(p0,q0)とする。 In step S172, the minimum value detecting unit 125 further minimizes the “value” of the maximum combined correlation information, that is, the position in the spatial direction that gives the minimum value E hk of the maximum combined correlation information (p hk , q hk ), together with the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 , the stored positions (p 33 , q 33 ), (p 23 , q 23 ), ( p 13 , q 13 ), (p 03 , q 03 ), (p 32 , q 32 ), (p 31 , q 31 ), (p 30 , q 30 ) Let it be the position (p 0 , q 0 ).

そして、最小値検出部125は、最大相関位置(p0,q0)を、平均動きベクトル(p0,q0)として、その平均動きベクトル(p0,q0)に、元の動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトル(p0,q0,t0)を求め、その3次元の動きベクトル(p0,q0,t0)の方向と直交する方向が、主成分方向であるとして、3次元の動きベクトル(p0,q0,t0)を、フィルタ情報供給部32(図25)に供給するとともに、最大合成相関情報の最小値Ehkを、フィルタ情報供給部32に供給する。さらに、最小値検出部125は、最大合成相関情報の最小値Ehkのサフィックスである(h,k)を、最大合成相関情報を求めるのに合成した相関情報の演算に用いられたフレームの範囲を表すカーネルサイズとして、フィルタ情報供給部32に供給して、ステップS172からS173に進む。 Then, the minimum value detection unit 125 sets the maximum correlation position (p 0 , q 0 ) as the average motion vector (p 0 , q 0 ), and uses the original motion picture data as the average motion vector (p 0 , q 0 ). A three-dimensional motion vector (p 0 , q 0 , t 0 ) obtained by adding the frame period t 0 of the above as a component in the time direction t is obtained, and the three-dimensional motion vector (p 0 , q 0 , t 0 ) Assuming that the direction orthogonal to the direction is the principal component direction, a three-dimensional motion vector (p 0 , q 0 , t 0 ) is supplied to the filter information supply unit 32 (FIG. 25), and the maximum combined correlation information The minimum value E hk is supplied to the filter information supply unit 32. Further, the minimum value detection unit 125 uses (h, k), which is the suffix of the minimum value E hk of the maximum combined correlation information, and the range of frames used for the calculation of the correlation information combined to obtain the maximum combined correlation information. Is supplied to the filter information supply unit 32, and the process proceeds from step S172 to S173.

ここで、上述したオフセット値L33(ステップS158),L23(ステップS160),L13(ステップS162),L03(ステップS164),L32(ステップS166),L31(ステップS168),L30(ステップS170)は、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たす小さな定数である。 Here, the offset values L 33 (step S158), L 23 (step S160), L 13 (step S162), L 03 (step S164), L 32 (step S166), L 31 (step S168), L described above. 30 (step S170), the formula L 33 ≦ L 32 ≦ L 31 ≦ L 30, and a small constant satisfying the formula L 33 ≦ L 23 ≦ L 13 ≦ L 03.

ステップS173では、フィルタ情報供給部32(図25)は、図72の主成分方向取得部31(の最小値検出部125)からの最大合成相関情報の最小値Ehkが、所定の閾値ε以下(未満)であるかどうかを判定する。ここで、ステップS173で用いられる閾値εは、オフセット値L33,L23,L13,L03,L32,L31,L30よりも大きな値で、例えば、シミュレーションなどによって決定することができる。また、閾値εは、ユーザの操作に応じて設定することも可能である。 In step S173, the filter information supply unit 32 (FIG. 25) determines that the minimum value E hk of the maximum combined correlation information from the principal component direction acquisition unit 31 (the minimum value detection unit 125 thereof) in FIG. It is determined whether (less than). Here, the threshold value ε used in step S173 is larger than the offset values L 33 , L 23 , L 13 , L 03 , L 32 , L 31 , and L 30 and can be determined by, for example, simulation. . In addition, the threshold value ε can be set according to a user operation.

ステップS173において、最大合成相関情報の最小値Ehkが、所定の閾値ε以下であると判定された場合、即ち、最大合成相関情報の最小値Ehkがある程度小さく、従って、注目ブロックと対応する領域が、時刻tの前または後のフレームに存在する場合、ステップS174に進み、フィルタ情報供給部32は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部31からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定するとともに、図72の主成分方向取得部31(の最小値検出部125)からの(h,k)を、そのままカーネルサイズとして決定し、ステップS176に進む。 If it is determined in step S173 that the minimum value E hk of the maximum combined correlation information is equal to or smaller than the predetermined threshold ε, that is, the minimum value E hk of the maximum combined correlation information is small to some extent, and therefore corresponds to the block of interest. When the region exists in the frame before or after time t, the process proceeds to step S174, and the filter information supply unit 32 performs the principal component from the principal component direction acquisition unit 31 from the origin (0, 0) in the frequency domain. A region extending in the direction, having a width of 2π / (4 × t 0 ) in the T direction, and the X and Y directions being − (π / r 0 ) to + (π / r 0 ), and the T direction Are in the range of − (π / t 0 ) to + (π / t 0 ), that is, the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region in FIG. R 1301 is determined as the pass band of the filter, and the minimum value detection of the principal component direction acquisition unit 31 in FIG. (H, k) from the unit 125) is directly determined as the kernel size, and the process proceeds to step S176.

一方、ステップS173において、最大合成相関情報の最小値Ehkが、所定の閾値ε以下でないと判定された場合、即ち、最大合成相関情報の最小値Ehkが大きく、従って、注目ブロックと対応する領域が、時刻tの前および後のフレームのいずれにも存在しない場合、ステップS175に進み、フィルタ情報供給部32は、ステップS174における場合と同様に、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部31からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域を、フィルタの通過帯域として決定する。さらに、ステップS175では、フィルタ情報供給部32は、図72の主成分方向取得部31(の最小値検出部125)からの(h,k)に代えて、(h,k)=(0,0)を、カーネルサイズとして決定し、ステップS176に進む。 On the other hand, if it is determined in step S173 that the minimum value E hk of the maximum combined correlation information is not less than or equal to the predetermined threshold ε, that is, the minimum value E hk of the maximum combined correlation information is large, and therefore corresponds to the block of interest. When the region does not exist in any of the frames before and after time t, the process proceeds to step S175, and the filter information supply unit 32 starts from the origin (0, 0) in the frequency domain as in step S174. , A region extending in the principal component direction from the principal component direction acquisition unit 31 and having a width of 2π / (4 × t 0 ) in the T direction, and the X and Y directions being − (π / r 0 ) to A region where + (π / r 0 ) and the T direction is in the range of − (π / t 0 ) to + (π / t 0 ) is determined as the passband of the filter. Further, in step S175, the filter information supply unit 32 replaces (h, k) from the principal component direction acquisition unit 31 (the minimum value detection unit 125 thereof) in FIG. 72 with (h, k) = (0, 0) is determined as the kernel size, and the process proceeds to step S176.

ステップS176では、フィルタ情報供給部32は、ステップS174またはS175で決定したフィルタの通過帯域を表すフィルタ情報として、例えば、3次元の動きベクトル(p0,q0,t0)を、フィルタ部22(図25)に供給するとともに、カーネルサイズ(h,k)を、フィルタ部22に供給し、処理を終了する。 In step S176, the filter information supply unit 32 uses, for example, a three-dimensional motion vector (p 0 , q 0 , t 0 ) as filter information indicating the pass band of the filter determined in step S174 or S175, and the filter unit 22. (FIG. 25) and the kernel size (h, k) are supplied to the filter unit 22 and the process is terminated.

図73乃至図77に示したフローチャートにしたがった処理によれば、注目ブロックについて、次のようなフィルタ情報としての3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)を求めることができる。 According to the process in accordance with the flowchart shown in FIG. 73 to FIG. 77, the block of interest, and three-dimensional motion vectors as filter information such as: (p 0, q 0, t 0), the kernel size (h , k).

例えば、図70に示した動画データにおいて、ブロックB3が注目ブロックである場合には、上述したように、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データそれぞれにおいて、注目ブロックB3と対応する領域B101,B201,B301,B-101,B-201,B-301が存在し、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)の値は、いずれも、位置(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)が(0,0)のときに最小になり、ほぼ0となる。 For example, in the moving image data shown in FIG. 70, when the block B 3 is the target block, as described above, the times t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t−2t at 0, respectively image data in t-3t 0, block of interest B 3 with the corresponding region B 101, B 201, B 301 , B -101, B -201, B -301 is present, the time t + t 0 Correlation information E 1 (u 1 , v 1 ), correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 , correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 , time tt correlation information in 0 F 1 of (r 1, s 1), the correlation information F 2 at time t-2t 0 (r 2, s 2), the correlation information F 3 at time t-3t 0 (r 3, s 3) The values for all are (u 2 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 ) are (0, 0) is the smallest and almost zero.

この場合、図74のステップS159で求められる、合成相関関数E(p,q)の最小値E33を与える位置(p33,q33)は(0,0)となり、最小値E33は、ほぼオフセット値L33に等しくなる。同様に、図75のステップS161で求められる、合成相関関数E(p,q)の最小値E23を与える位置(p23,q23)は(0,0)となり、最小値E23は、ほぼオフセット値L23に等しくなる。また、図75のステップS163で求められる、合成相関関数E(p,q)の最小値E13を与える位置(p13,q13)は(0,0)となり、最小値E13は、ほぼオフセット値L13に等しくなる。さらに、図75のステップS165で求められる、合成相関関数E(p,q)の最小値E03を与える位置(p03,q03)は(0,0)となり、最小値E03は、ほぼオフセット値L03に等しくなる。また、図76のステップS167で求められる、合成相関関数E(p,q)の最小値E32を与える位置(p32,q32)は(0,0)となり、最小値E32は、ほぼオフセット値L32に等しくなる。さらに、図76のステップS169で求められる、合成相関関数E(p,q)の最小値E31を与える位置(p31,q31)は(0,0)となり、最小値E31は、ほぼオフセット値L31に等しくなる。また、図76のステップS171で求められる、合成相関関数E(p,q)の最小値E30を与える位置(p30,q30)は(0,0)となり、最小値E30は、ほぼオフセット値L30に等しくなる。 In this case, the position (p 33 , q 33 ) that gives the minimum value E 33 of the combined correlation function E (p, q) obtained in step S159 of FIG. 74 is (0,0), and the minimum value E 33 is approximately equal to the offset value L 33. Similarly, the position (p 23 , q 23 ) that gives the minimum value E 23 of the combined correlation function E (p, q) obtained in step S161 in FIG. 75 is (0,0), and the minimum value E 23 is approximately equal to the offset value L 23. In addition, the position (p 13 , q 13 ) that gives the minimum value E 13 of the combined correlation function E (p, q) obtained in step S163 in FIG. 75 is (0,0), and the minimum value E 13 is almost equal to equal to the offset value L 13. Further, the position (p 03 , q 03 ) that gives the minimum value E 03 of the combined correlation function E (p, q), which is obtained in step S165 of FIG. 75, is (0, 0), and the minimum value E 03 is almost equal to equal to the offset value L 03. In addition, the position (p 32 , q 32 ) that gives the minimum value E 32 of the combined correlation function E (p, q) obtained in step S167 of FIG. 76 is (0,0), and the minimum value E 32 is almost equal to equal to the offset value L 32. Further, the position (p 31 , q 31 ) that gives the minimum value E 31 of the combined correlation function E (p, q) obtained in step S169 in FIG. 76 is (0,0), and the minimum value E 31 is almost equal to equal to the offset value L 31. In addition, the position (p 30 , q 30 ) that gives the minimum value E 30 of the combined correlation function E (p, q) obtained in step S171 in FIG. 76 is (0, 0), and the minimum value E 30 is almost equal to equal to the offset value L 30.

オフセット値L33,L23,L13,L03,L32,L31,L30は、上述したように、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たすので、注目ブロックB3については、図77のステップS172において、基本的に、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(0,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が求められ、カーネルサイズ(h,k)として(3,3)が求められる。 As described above, the offset values L 33 , L 23 , L 13 , L 03 , L 32 , L 31 , and L 30 are the expressions L 33 ≦ L 32 ≦ L 31 ≦ L 30 and the expressions L 33 ≦ L 23. Since ≦ L 13 ≦ L 03 is satisfied, for the target block B 3 , the minimum value E 33 that is substantially the offset value L 33 is basically the minimum value E 33 , E 23 , E in step S172 of FIG. 13 , E 03 , E 32 , E 31 , E 30 are detected as the smallest one, and ( 0 , 0) is obtained as the average motion vector (p 0 , q 0 ). Further, in step S172, (0,0, t 0 ) is obtained as the three-dimensional motion vector (p 0 , q 0 , t 0 ), and (3,3) is obtained as the kernel size (h, k). .

さらに、オフセット値L33は、上述したように、ステップS173における閾値εより小さい(以下である)ので、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB3については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が得られるとともに、カーネルサイズ(h,k)として(3,3)が得られる。 Further, the offset value L 33, as described above, since the smaller the threshold ε in step S173 (or less is), the minimum value E 33 of substantially the offset value L 33 is the minimum value E 33, E 23, E 13 , E 03 , E 32 , E 31 , E 30 regarding the target block B 3 detected as the smallest one in step S 174 of FIG. 77, the three-dimensional motion vector (p 0 , q 0, t 0) as (0, 0, with t 0) is obtained, the kernel size (h, k) as the (3,3) is obtained.

これは、時刻t-ht0からt+kt0、つまり、時刻t-3t0からt+3t0の間は、注目ブロックB3は、(0,0,t0)という速度(時間t0の間に、空間方向に(0,0)だけ移動する速度)で移動しているということを示している。 This time t-ht 0 from t + kt 0, that is, between time t-3t 0 of t + 3t 0, the block of interest B 3 is (0,0, t 0) of the speed (time t 0 It is shown that it is moving at a speed of (0,0) moving in the spatial direction.

従って、カーネルサイズ(h,k)は、3次元の動きベクトル(p0,q0,t0)、ひいては、その3次元の動きベクトル(p0,q0,t0)から求められる注目ブロックの主成分方向の有効範囲を表しているということができる。 Accordingly, the kernel size (h, k) is determined from the three-dimensional motion vector (p 0 , q 0 , t 0 ), and thus the target block obtained from the three-dimensional motion vector (p 0 , q 0 , t 0 ). It can be said that it represents the effective range of the principal component direction.

次に、例えば、図70に示した動画データにおいて、ブロックB10が注目ブロックである場合には、上述したように、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データそれぞれにおいて、注目ブロックB3と対応する領域B102,B202,B302,B-102,B-202,B-302が存在し、時刻t+t0における相関情報E1(u1,v1)の値は、位置(u1,v1)が(g,0)のときに、時刻t+2t0における相関情報E2(u2,v2)の値は、位置(u2,v2)が(2g,0)のときに、時刻t+3t0における相関情報E3(u3,v3)の値は、位置(u3,v3)が(3g,0)のときに、時刻t-t0における相関情報F1(r1,s1)の値は、位置(r1,s1)が(-g,0)のときに、時刻t-2t0における相関情報F2(r2,s2)の値は、位置(r2,s2)が(-2g,0)のときに、時刻t-3t0における相関情報F3(r3,s3)の値は、位置(r3,s3)が、(-3g,0)のときに、それぞれ最小になり、ほぼ0となる。 Then, for example, in the moving image data shown in FIG. 70, when the block B 10 is the target block, as described above, the time t + t 0, t + 2t 0, t + 3t 0, tt 0, in each image data in the t-2t 0, t-3t 0, region B 102 corresponding to a target block B 3, B 202, B 302 , B -102, B -202, is B -302 exist, time t + The value of the correlation information E 1 (u 1 , v 1 ) at t 0 is the correlation information E 2 (u 2 , u at time t + 2t 0 when the position (u 1 , v 1 ) is (g, 0). v is the value of 2), the value of the position (u 2, v 2) is (2 g, 0 when), correlation information at time t + 3t 0 E 3 (u 3, v 3) , the position (u 3 , v 3 ) is (3g, 0), the value of correlation information F 1 (r 1 , s 1 ) at time tt 0 is when position (r 1 , s 1 ) is (-g, 0) Further, the value of the correlation information F 2 (r 2 , s 2 ) at time t-2t 0 is the correlation information at time t-3t 0 when the position (r 2 , s 2 ) is (-2g, 0). the value of F 3 (r 3, s 3 ) , the position (r 3, s 3), - when the (3 g, 0) , Each becomes a minimum, it is substantially zero.

この場合、図74のステップS159で求められる、合成相関関数E(p,q)の最小値E33を与える位置(p33,q33)は(g,0)となり、最小値E33は、ほぼオフセット値L33に等しくなる。同様に、図75のステップS161で求められる、合成相関関数E(p,q)の最小値E23を与える位置(p23,q23)は(g,0)となり、最小値E23は、ほぼオフセット値L23に等しくなる。また、図75のステップS163で求められる、合成相関関数E(p,q)の最小値E13を与える位置(p13,q13)は(g,0)となり、最小値E13は、ほぼオフセット値L13に等しくなる。さらに、図75のステップS165で求められる、合成相関関数E(p,q)の最小値E03を与える位置(p03,q03)は(g,0)となり、最小値E03は、ほぼオフセット値L03に等しくなる。また、図76のステップS167で求められる、合成相関関数E(p,q)の最小値E32を与える位置(p32,q32)は(g,0)となり、最小値E32は、ほぼオフセット値L32に等しくなる。さらに、図76のステップS169で求められる、合成相関関数E(p,q)の最小値E31を与える位置(p31,q31)は(g,0)となり、最小値E31は、ほぼオフセット値L31に等しくなる。また、図76のステップS171で求められる、合成相関関数E(p,q)の最小値E30を与える位置(p30,q30)は(g,0)となり、最小値E30は、ほぼオフセット値L30に等しくなる。 In this case, the position (p 33 , q 33 ) that gives the minimum value E 33 of the combined correlation function E (p, q) obtained in step S159 of FIG. 74 is (g, 0), and the minimum value E 33 is approximately equal to the offset value L 33. Similarly, the position (p 23 , q 23 ) that gives the minimum value E 23 of the combined correlation function E (p, q) obtained in step S161 in FIG. 75 is (g, 0), and the minimum value E 23 is approximately equal to the offset value L 23. In addition, the position (p 13 , q 13 ) that gives the minimum value E 13 of the combined correlation function E (p, q) obtained in step S163 in FIG. 75 is (g, 0), and the minimum value E 13 is almost equal to equal to the offset value L 13. Further, the position (p 03 , q 03 ) that gives the minimum value E 03 of the combined correlation function E (p, q), which is obtained in step S165 of FIG. 75, is (g, 0), and the minimum value E 03 is almost equal to equal to the offset value L 03. In addition, the position (p 32 , q 32 ) that gives the minimum value E 32 of the combined correlation function E (p, q) obtained in step S167 in FIG. 76 is (g, 0), and the minimum value E 32 is almost equal to equal to the offset value L 32. Further, the position (p 31 , q 31 ) that gives the minimum value E 31 of the combined correlation function E (p, q) obtained in step S169 in FIG. 76 is (g, 0), and the minimum value E 31 is almost equal to equal to the offset value L 31. In addition, the position (p 30 , q 30 ) that gives the minimum value E 30 of the combined correlation function E (p, q) obtained in step S171 of FIG. 76 is (g, 0), and the minimum value E 30 is almost equal to the offset value L 30.

オフセット値L33,L23,L13,L03,L32,L31,L30は、上述したように、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たすので、注目ブロックB10については、図77のステップS172において、基本的に、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(g,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(g,0,t0)が求められ、カーネルサイズ(h,k)として(3,3)が求められる。 As described above, the offset values L 33 , L 23 , L 13 , L 03 , L 32 , L 31 , and L 30 are the expressions L 33 ≦ L 32 ≦ L 31 ≦ L 30 and the expressions L 33 ≦ L 23. Since ≦ L 13 ≦ L 03 is satisfied, for the target block B 10 , the minimum value E 33 that is substantially the offset value L 33 is basically the minimum value E 33 , E 23 , E in step S172 of FIG. 13 , E 03 , E 32 , E 31 , E 30 are detected as the smallest one, and (g, 0) is obtained as the average motion vector (p 0 , q 0 ). In step S172, (g, 0, t 0 ) is obtained as a three-dimensional motion vector (p 0 , q 0 , t 0 ), and (3, 3) is obtained as a kernel size (h, k). .

さらに、オフセット値L33は、上述したように、ステップS173における閾値εより小さいので、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB10については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(g,0,t0)が得られるとともに、カーネルサイズ(h,k)として(3,3)が得られる。 Further, as described above, since the offset value L 33 is smaller than the threshold value ε in step S173, the minimum value E 33 that is substantially the offset value L 33 becomes the minimum value E 33 , E 23 , E 13 , E 03 , E With respect to the target block B 10 detected as the smallest of 32 , E 31 , and E 30 , in step S174 in FIG. 77, the three-dimensional motion vector (p 0 , q 0 , t 0 ) serving as filter information is obtained. (G, 0, t 0 ) is obtained, and (3, 3) is obtained as the kernel size (h, k).

これは、時刻t-ht0からt+kt0、つまり、時刻t-3t0からt+3t0の間は、注目ブロックB10は、(g,0,t0)という速度(時間t0の間に、空間方向に(g,0)だけ移動する速度)で移動しているということを示している。 This time t-ht 0 from t + kt 0, that is, between time t-3t 0 of t + 3t 0, the block of interest B 10 is (g, 0, t 0) of the speed (time t 0 It is shown that it is moving at a speed (moving by (g, 0)) in the spatial direction.

次に、例えば、図71に示した動画データにおいて、ブロックB7が注目ブロックである場合には、上述したように、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0における画像データそれぞれにおいて、注目ブロックB7と対応する領域B111,B211,B311,B-111,B-211が存在し、時刻t+t0における相関情報E1(u1,v1)の値は、位置(u1,v1)が(0,0)のときに、時刻t+2t0における相関情報E2(u2,v2)の値は、位置(u2,v2)が(0,0)のときに、時刻t+3t0における相関情報E3(u3,v3)の値は、位置(u3,v3)が(0,0)のときに、時刻t-t0における相関情報F1(r1,s1)の値は、位置(r1,s1)が(0,0)のときに、時刻t-2t0における相関情報F2(r2,s2)の値は、位置(r2,s2)が(0,0)のときに、それぞれ最小になり、ほぼ0となる。 Next, for example, in the moving image data shown in FIG. 71, when the block B 7 is the target block, as described above, the times t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , in each image data in the t-2t 0, region B 111, B 211 corresponding to a target block B 7, B 311, B -111 , and B -211 is present, the correlation information at time t + t 0 E 1 (u 1 , v 1 ) is the position (u 1 , v 1 ) is (0,0) and the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is the position ( When u 2 , v 2 ) is (0,0), the value of the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is the position (u 3 , v 3 ) at (0,0 ), The value of the correlation information F 1 (r 1 , s 1 ) at time tt 0 is the correlation information at time t-2t 0 when the position (r 1 , s 1 ) is (0,0). The value of F 2 (r 2 , s 2 ) is minimized when the position (r 2 , s 2 ) is (0, 0), and is almost zero.

しかしながら、時刻t-3t0における画像データにおいて、注目ブロックB7と対応する領域は、本来は、注目ブロックB7と同一位置の領域B-311であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、位置(r3,s3)が(0,0)のときであって欲しいが、相関情報F3(r3,s3)の値は、位置(r3,s3)が(0,0)のときに最小になるとは限らない。即ち、相関情報F3(r3,s3)の値は、(0,0)とは限らないある位置(r3,s3)において最小になり、さらに、その値は、ある程度大きな値となる。 However, in the image data at time t-3t 0, a region corresponding to the block of interest B 7, which may originally, but it should be region B -311 at the same position as the block of interest B 7, a moving subject P 6902 It is hidden behind and does not exist. Therefore, the value of the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 is minimized when the position (r 3 , s 3 ) is (0,0). The value of the correlation information F 3 (r 3 , s 3 ) is not always the minimum when the position (r 3 , s 3 ) is (0,0). That is, the value of the correlation information F 3 (r 3 , s 3 ) is minimum at a certain position (r 3 , s 3 ) that is not necessarily (0, 0). Become.

この場合、図74のステップS158において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)については、その最小値E33を与える位置(p33,q33)は、(0,0)とは限らないある位置となり、最小値E33は、オフセット値L33よりかなり大きな値になる。同様に、図76のステップS166において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E32を与える位置(p32,q32)は、(0,0)とは限らないある位置となり、最小値E32は、オフセット値L32よりかなり大きな値になる。さらに、図76のステップS168において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E31を与える位置(p31,q31)は、(0,0)とは限らないある位置となり、最小値E31は、オフセット値L31よりかなり大きな値になる。また、図76のステップS170において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E30を与える位置(p30,q30)は、(0,0)とは限らないある位置となり、最小値E30は、オフセット値L30よりかなり大きな値になる。 In this case, the minimum value E 33 of the combined correlation function E (p, q) obtained using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 in step S158 in FIG. The position (p 33 , q 33 ) that gives is a position that is not necessarily (0, 0), and the minimum value E 33 is considerably larger than the offset value L 33 . Similarly, the minimum value E 32 of the combined correlation function E (p, q) obtained using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 in step S166 of FIG. The position (p 32 , q 32 ) that gives is a position that is not necessarily (0, 0), and the minimum value E 32 is considerably larger than the offset value L 32 . Further, in step S168 of FIG. 76, the minimum value E 31 is also set for the combined correlation function E (p, q) obtained using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 as well. The given position (p 31 , q 31 ) is a position that is not necessarily (0,0), and the minimum value E 31 is considerably larger than the offset value L 31 . Further, in step S170 of FIG. 76, the time t-3t 0 correlation information F 3 in (r 3, s 3) is also a synthetic correlation function E obtained (p, q) for even the minimum value E 30 The given position (p 30 , q 30 ) is a certain position that is not necessarily (0, 0), and the minimum value E 30 is considerably larger than the offset value L 30 .

一方、図75のステップS160において、時刻t-3t0における相関情報F3(r3,s3)を用いずに求められる合成相関関数E(p,q)については、その最小値E23を与える位置(p23,q23)は(0,0)となり、最小値E23は、ほぼオフセット値L23に等しくなる。同様に、図75のステップS162において、時刻t-3t0における相関情報F3(r3,s3)を用いずに求められる合成相関関数E(p,q)についても、その最小値E13を与える位置(p13,q13)は(0,0)となり、最小値E13は、ほぼオフセット値L13に等しくなる。さらに、図75のステップS164において、時刻t-3t0における相関情報F3(r3,s3)を用いずに求められる合成相関関数E(p,q)についても、その最小値E03を与える位置(p03,q03)は(0,0)となり、最小値E03は、ほぼオフセット値L03に等しくなる。 On the other hand, in step S160 of FIG. 75, for a time t-3t correlation in 0 information F 3 (r 3, s 3 ) determined without using the synthesized correlation function E (p, q), the minimum value E 23 The given position (p 23 , q 23 ) is (0, 0), and the minimum value E 23 is substantially equal to the offset value L 23 . Similarly, the minimum value E 13 of the combined correlation function E (p, q) obtained without using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 in step S162 in FIG. The position (p 13 , q 13 ) that gives is (0,0), and the minimum value E 13 is substantially equal to the offset value L 13 . Further, in step S164 of FIG. 75, the minimum value E03 is also set for the combined correlation function E (p, q) obtained without using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 . The given position (p 03 , q 03 ) is (0, 0), and the minimum value E 03 is substantially equal to the offset value L 03 .

オフセット値L23,L13,L03は、上述したことから、式L23≦L13≦L03を満たすので、注目ブロックB7については、図77のステップS172において、基本的に、ほぼオフセット値L23となる最小値E23が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(0,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が求められ、カーネルサイズ(h,k)として(2,3)が求められる。 Since the offset values L 23 , L 13 , and L 03 satisfy the formula L 23 ≦ L 13 ≦ L 03 from the above description, the target block B 7 is basically substantially offset in step S172 of FIG. The minimum value E 23 having the value L 23 is detected as the minimum of the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 and the average motion vector (p 0 , (0,0) is obtained as q 0 ). Further, in step S172, (0,0, t 0 ) is obtained as the three-dimensional motion vector (p 0 , q 0 , t 0 ), and (2,3) is obtained as the kernel size (h, k). .

さらに、オフセット値L23は、上述したように、ステップS173における閾値εより小さいので、ほぼオフセット値L23となる最小値E23が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB7については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が得られるとともに、カーネルサイズ(h,k)として(2,3)が得られる。 Further, the offset value L 23, as described above, is smaller than the threshold value ε in step S173, the minimum value E 23, which is substantially offset value L 23 is the minimum value E 33, E 23, E 13 , E 03, E With respect to the target block B 7 detected as the smallest of 32 , E 31 , and E 30, the three-dimensional motion vector (p 0 , q 0 , t 0 ) that becomes the filter information in step S174 of FIG. (0,0, t 0 ) is obtained, and (2,3) is obtained as the kernel size (h, k).

これは、時刻t-ht0からt+kt0、つまり、時刻t-2t0からt+3t0の間は、注目ブロックB7は、(0,0,t0)という速度で移動しているということを示している。 This is because the target block B 7 moves at a speed of (0,0, t 0 ) from time t-ht 0 to t + kt 0 , that is, from time t-2t 0 to t + 3t 0. It shows that there is.

次に、例えば、図71に示した動画データにおいて、ブロックB14が注目ブロックである場合には、上述したように、時刻t+t0,t-t0,t-2t0,t-3t0における画像データそれぞれにおいて、注目ブロックB14と対応する領域B112,B-112,B-212,B-312が存在し、時刻t+t0における相関情報E1(u1,v1)の値は、位置(u1,v1)が(0,0)のときに、時刻t-t0における相関情報F1(r1,s1)の値は、位置(r1,s1)が(0,0)のときに、時刻t-2t0における相関情報F2(r2,s2)の値は、位置(r2,s2)が(0,0)のときに、時刻t-3t0における相関情報F3(r3,s3)の値は、位置(r3,s3)が(0,0)のときに、それぞれ最小になり、ほぼ0となる。 Then, for example, in the moving image data shown in FIG. 71, when the block B 14 is the target block, as described above, at time t + t 0, tt 0, t-2t 0, t-3t 0 In each image data, there are regions B 112 , B −112 , B −212 , and B −312 corresponding to the block of interest B 14, and the value of the correlation information E 1 (u 1 , v 1 ) at time t + t 0 When the position (u 1 , v 1 ) is (0,0), the value of the correlation information F 1 (r 1 , s 1 ) at time tt 0 is the position (r 1 , s 1 ) is (0 , 0), the value of the correlation information F 2 (r 2 , s 2 ) at time t-2t 0 is the time t-3t when the position (r 2 , s 2 ) is (0,0). The value of the correlation information F 3 (r 3 , s 3 ) at 0 is minimum and almost 0 when the position (r 3 , s 3 ) is (0,0).

しかしながら、時刻t+2t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B212であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+2t0における相関情報E2(u2,v2)の値が最小になるのは、位置(u2,v2)が(0,0)のときであって欲しいが、相関情報E2(u2,v2)の値は、位置(u2,v2)が(0,0)のときに最小になるとは限らない。即ち、相関情報E2(u2,v2)の値は、(0,0)とは限らないある位置(u2,v2)において最小になり、さらに、その値は、ある程度大きな値となる。 However, in the image data at time t + 2t 0, a region corresponding to the block of interest B 14 is originally, but it should be region B 212 of the block of interest B 14 at the same position, moving the subject P 6902 are It is hidden behind and does not exist. For this reason, the value of the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is minimized when the position (u 2 , v 2 ) is (0,0). The value of the correlation information E 2 (u 2 , v 2 ) is not always the minimum when the position (u 2 , v 2 ) is (0,0). That is, the value of the correlation information E 2 (u 2 , v 2 ) is minimum at a certain position (u 2 , v 2 ) that is not necessarily (0,0). Become.

さらに、時刻t+3t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B312であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+3t0における相関情報E3(u3,v3)の値が最小になるのは、位置(u3,v3)が(0,0)のときであって欲しいが、相関情報E3(u3,v3)の値は、位置(u3,v3)が(0,0)のときに最小になるとは限らない。即ち、相関情報E3(u3,v3)の値は、(0,0)とは限らないある位置(u3,v3)において最小になり、さらに、その値は、ある程度大きな値となる。 Further, in the image data at time t + 3t 0, a region corresponding to the block of interest B 14 is originally but should a region B 312 of the block of interest B 14 at the same position, moving the subject P 6902 are It is hidden behind and does not exist. Therefore, the value of the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is minimized when the position (u 3 , v 3 ) is (0,0). The value of the correlation information E 3 (u 3 , v 3 ) is not always the minimum when the position (u 3 , v 3 ) is (0,0). That is, the value of the correlation information E 3 (u 3 , v 3 ) is minimum at a certain position (u 3 , v 3 ) that is not necessarily (0,0). Become.

この場合、図74のステップS158において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)については、その最小値E33を与える位置(p33,q33)は、(0,0)とは限らないある位置となり、最小値E33は、オフセット値L33よりかなり大きな値になる。同様に、図75のステップS160において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E23を与える位置(p23,q23)は(0,0)とは限らないある位置となり、最小値E23は、オフセット値L23よりかなり大きな値となる。また、図75のステップS162において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E13を与える位置(p13,q13)は、(0,0)とは限らないある位置となり、最小値E13は、オフセット値L13よりかなり大きな値となる。さらに、図75のステップS164において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E03を与える位置(p03,q03)は、(0,0)とは限らないある位置となり、最小値E03は、オフセット値L03よりかなり大きな値となる。 In this case, in step S158 in FIG. 74, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also obtained. For the resultant correlation function E (p, q), the position (p 33 , q 33 ) giving the minimum value E 33 is not necessarily (0,0), and the minimum value E 33 is offset. The value is much larger than the value L 33 Similarly, in step S160 in FIG. 75, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also used. The position (p 23 , q 23 ) that gives the minimum value E 23 is also a position that is not necessarily (0,0), and the minimum value E 23 is an offset value. It becomes a much larger value than L 23. 75, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also obtained. Also for the composite correlation function E (p, q), the position (p 13 , q 13 ) giving the minimum value E 13 is not always (0,0), and the minimum value E 13 is an offset value. It becomes a much larger value than L 13. Further, in step S164 of FIG. 75, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also obtained. Also for the composite correlation function E (p, q), the position (p 03 , q 03 ) giving the minimum value E 03 is not always (0,0), and the minimum value E 03 is an offset value. It is considerably larger than L 03 .

また、図76のステップS166において、時刻t+3t0における相関情報E3(u3,v3)は用いられないが、時刻t+2t0における相関情報E2(u2,v2)を用いて求められる合成相関関数E(p,q)についても、その最小値E32を与える位置(p32,q32)は、(0,0)とは限らないある位置となり、最小値E32は、オフセット値L32よりかなり大きな値になる。 In step S166 of FIG. 76, the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is not used, but the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is used. The position (p 32 , q 32 ) that gives the minimum value E 32 of the composite correlation function E (p, q) obtained by using the position is not always (0,0), and the minimum value E 32 becomes considerably larger than the offset value L 32.

一方、図76のステップS168において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)のいずれも用いられずに求められる合成相関関数E(p,q)については、その最小値E31を与える位置(p31,q31)は(0,0)となり、最小値E31は、ほぼオフセット値L31に等しくなる。同様に、図76のステップS170において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)のいずれも用いられずに求められる合成相関関数E(p,q)についても、その最小値E30を与える位置(p30,q30)は(0,0)となり、最小値E30は、ほぼオフセット値L30に等しくなる。 On the other hand, in step S168 in FIG. 76, neither correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 nor correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is used. The position (p 31 , q 31 ) giving the minimum value E 31 is (0,0), and the minimum value E 31 is almost equal to the offset value L 31 . Will be equal. Similarly, in step S170 of FIG. 76, both correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are used. The position (p 30 , q 30 ) that gives the minimum value E 30 of the composite correlation function E (p, q) obtained without any change is (0, 0), and the minimum value E 30 is almost equal to the offset value L 30. Is equal to

オフセット値L31,L30は、上述したことから、式L31≦L30を満たすので、注目ブロックB14については、図77のステップS172において、基本的に、ほぼオフセット値L31となる最小値E31が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(0,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が求められ、カーネルサイズ(h,k)として(3,1)が求められる。 Since the offset values L 31 and L 30 satisfy the expression L 31 ≦ L 30 from the above description, the block B 14 of interest is basically the minimum that substantially becomes the offset value L 31 in step S172 of FIG. value E 31 is detected as the smallest ones within the minimum E 33, E 23, E 13 , E 03, E 32, E 31, E 30, average motion vector (p 0, q 0) as (0 , 0) is required. Further, in step S172, (0,0, t 0 ) is obtained as the three-dimensional motion vector (p 0 , q 0 , t 0 ), and (3,1) is obtained as the kernel size (h, k). .

さらに、オフセット値L31は、上述したように、ステップS173における閾値εより小さいので、ほぼオフセット値L31となる最小値E31が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB14については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が得られるとともに、カーネルサイズ(h,k)として(3,1)が得られる。 Further, the offset value L 31, as described above, is smaller than the threshold value ε in step S173, the minimum value E 31, which is substantially offset value L 31 is the minimum value E 33, E 23, E 13 , E 03, E For the block of interest B 14 detected as the smallest of 32 , E 31 , and E 30 , in step S174 of FIG. 77, the three-dimensional motion vector (p 0 , q 0 , t 0 ) serving as filter information is obtained. (0,0, t 0 ) is obtained, and (3,1) is obtained as the kernel size (h, k).

これは、時刻t-ht0からt+kt0、つまり、時刻t-3t0からt+t0の間は、注目ブロックB14は、(0,0,t0)という速度で移動しているということを示している。 This is because the target block B 14 moves at a speed of (0,0, t 0 ) from time t-ht 0 to t + kt 0 , that is, from time t-3t 0 to t + t 0. It shows that there is.

次に、例えば、図71に示した動画データにおいて、ブロックB9が注目ブロックである場合には、上述したように、注目ブロックB9では、静止している被写体P6901のある位置において、動いている被写体P6902が、静止している被写体P6901を隠した状態となっているため、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データのいずれにも、注目ブロックB9と対応する領域は存在しない。 Next, for example, in the moving image data shown in FIG. 71, when the block B 9 is the target block, as described above, the target block B 9 moves at a position where the subject P 6901 is stationary. Since the stationary subject P 6902 hides the stationary subject P 6901 , the time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t−2t 0 , t− There is no region corresponding to the target block B 9 in any of the image data at 3t 0 .

このため、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の値は、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データの、注目ブロックB9と最も類似する位置(u1,v1),(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)で、それぞれ最小となるが、その値は、ある程度大きな値となる。 For this reason, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , t at time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) The position (u 1 , v 1 ), (u 2 ) of the image data at t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 that is most similar to the target block B 9 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 ) are the smallest, but the value is somewhat large Value.

この場合、図74のステップS158において求められる合成相関関数E(p,q)については、その最小値E33を与える位置(p33,q33)は、ある位置となり、最小値E33は、オフセット値L33よりかなり大きな値になる。同様に、図75のステップS160において求められる合成相関関数E(p,q)についても、その最小値E23を与える位置(p23,q23)はある位置となり、最小値E23は、オフセット値L23よりかなり大きな値となる。また、図75のステップS162において求められる合成相関関数E(p,q)についても、その最小値E13を与える位置(p13,q13)はある位置となり、最小値E13は、オフセット値L13よりかなり大きな値となる。さらに、図75のステップS164において求められる合成相関関数E(p,q)についても、その最小値E03を与える位置(p03,q03)はある位置となり、最小値E03は、オフセット値L03よりかなり大きな値となる。また、図76のステップS166において求められる合成相関関数E(p,q)についても、その最小値E32を与える位置(p32,q32)はある位置となり、最小値E32は、オフセット値L32よりかなり大きな値になる。さらに、図76のステップS168において求められる合成相関関数E(p,q)についても、その最小値E31を与える位置(p31,q31)はある位置となり、最小値E31は、オフセット値L31よりかなり大きな値になる。また、図76のステップS170において求められる合成相関関数E(p,q)についても、その最小値E30を与える位置(p30,q30)はある位置となり、最小値E30は、オフセット値L30よりかなり大きな値になる。 In this case, for the combined correlation function E (p, q) obtained in step S158 of FIG. 74, the position (p 33 , q 33 ) giving the minimum value E 33 is a certain position, and the minimum value E 33 is It becomes considerably larger than the offset value L 33. Similarly, for the combined correlation function E (p, q) obtained in step S160 of FIG. 75, the position (p 23 , q 23 ) giving the minimum value E 23 is a certain position, and the minimum value E 23 is an offset. It becomes a much larger value than the value L 23. Also, with respect to the composite correlation function E (p, q) obtained in step S162 in FIG. 75, the position (p 13 , q 13 ) giving the minimum value E 13 is a certain position, and the minimum value E 13 is the offset value. It becomes a much larger value than L 13. Further, with respect to the composite correlation function E (p, q) obtained in step S164 of FIG. 75, the position (p 03 , q 03 ) giving the minimum value E 03 is a certain position, and the minimum value E 03 is an offset value. It is considerably larger than L 03 . Also, for the combined correlation function E (p, q) obtained in step S166 of FIG. 76, the position (p 32 , q 32 ) giving the minimum value E 32 is a certain position, and the minimum value E 32 is the offset value. It becomes considerably to a value greater than L 32. Further, with respect to the composite correlation function E (p, q) obtained in step S168 of FIG. 76, the position (p 31 , q 31 ) giving the minimum value E 31 is a certain position, and the minimum value E 31 is an offset value. Much larger than L 31 . Also, for the combined correlation function E (p, q) obtained in step S170 of FIG. 76, the position (p 30 , q 30 ) giving the minimum value E 30 is a certain position, and the minimum value E 30 is the offset value. It becomes considerably to a value greater than L 30.

従って、最小値E33,E23,E13,E03,E32,E31,E30は、いずれもかなり大きな値となり、図77のステップS172において、その中のいずれが最小のものとして選択されたとしても、ステップS173における閾値εより大きくなり(以上となり)、注目ブロックB9については、図77のステップS175において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(p0',q0',t0)が得られるとともに、カーネルサイズ(h,k)として(0,0)が得られる。 Accordingly, the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , and E 30 are all large values, and any of them is selected as the minimum in step S172 of FIG. even if they are, larger than the threshold ε in step S173 (becomes higher), for the block of interest B 9, in step S175 of FIG. 77, three-dimensional motion vectors, which are filter information (p 0, q 0, t 0 ) Is obtained as (p 0 ′, q 0 ′, t 0 ), and (0,0) is obtained as the kernel size (h, k).

これは、時刻t-ht0からt+kt0、つまり、時刻tのタイミングだけにおいて、注目ブロックB9は、(p0',q0',t0)という速度で移動しているということを示している。換言すれば、カーネルサイズ(h,k)が(0,0)ということは、注目ブロックB9に対応する領域が、他のどの時刻における画像データ内にも存在しないということである。 This means that the target block B 9 is moving at a speed of (p 0 ′, q 0 ′, t 0 ) only from time t-ht 0 to t + kt 0 , that is, at the timing of time t. Is shown. In other words, the kernel size (h, k) being (0, 0) means that the area corresponding to the target block B 9 does not exist in the image data at any other time.

なお、(p0',q0')は、最小値E33,E23,E13,E03,E32,E31,E30のうちの最小のものを与える位置(p,q)を表す。また、カーネルサイズ(h,k)が(0,0)のときの(p,q)はダミーデータであり、使用されることはない。 Note that (p 0 ', q 0 ') is a position (p, q) that gives the smallest one of the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30. To express. Further, (p, q) when the kernel size (h, k) is (0,0) is dummy data and is not used.

以上のように、図73乃至図77に示したフローチャートにしたがった処理によれば、注目ブロックについて、フィルタ情報としての3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)が求められ、これにより、注目ブロックについて、「時刻t-ht0からt+kt0の間は、注目ブロックは(p0,q0,t0)という速度で移動している」という結果を得ることが出来る。 As described above, according to the processing according to the flowcharts shown in FIGS. 73 to 77, the three-dimensional motion vector (p 0 , q 0 , t 0 ) as the filter information and the kernel size ( h, k) is obtained, and as a result, for the block of interest, the block of interest is moving at a speed of (p 0 , q 0 , t 0 ) from time t-ht 0 to t + kt 0 Can be obtained.

なお、オフセット値L33,L23,L13,L03,L32,L31,L30が、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たすことにより、基本的には、図77のステップS172において、最小値E33,E23,E13,E03,E32,E31,E30のうちの、hやkの大きい最小値Ehkが選択されやすくなる。これにより、動画データにノイズが含まれ、注目ブロックと、他のフレームの注目ブロックに対応する領域との間に、多少の画素値の違いがあっても、注目ブロックが(p0,q0,t0)という速度で移動しているという範囲(時間)を、過小評価してしまうことを防止することができる。 The offset values L 33 , L 23 , L 13 , L 03 , L 32 , L 31 , and L 30 are the expressions L 33 ≦ L 32 ≦ L 31 ≦ L 30 and the expressions L 33 ≦ L 23 ≦ L 13. By satisfying ≦ L 03 , basically, in step S 172 of FIG. 77, h or k of the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 A large minimum value E hk is easily selected. As a result, even if there is a slight difference in pixel values between the block of interest and the region corresponding to the block of interest in another frame, the block of interest will be (p 0 , q 0 , t 0 ) can be prevented from underestimating the range (time) of moving at a speed of (t 0 ).

次に、図25の主成分方向取得部31が図72に示したように構成されるフィルタ生成部23が、図73乃至図77にしたがった処理を行うことにより、フィルタ生成部23(のフィルタ情報供給部32)からフィルタ部22に対して、フィルタ情報としての3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)が供給される場合、フィルタ部22では、図78に示すフローチャートにしたがった処理が、図26のステップS3の処理として行われる。 Next, the filter generation unit 23 in which the principal component direction acquisition unit 31 of FIG. 25 is configured as shown in FIG. 72 performs the processing according to FIGS. When the three-dimensional motion vector (p 0 , q 0 , t 0 ) and the kernel size (h, k) as filter information are supplied from the information supply unit 32) to the filter unit 22, the filter unit 22 Then, the process according to the flowchart shown in FIG. 78 is performed as the process of step S3 of FIG.

即ち、ステップS191において、フィルタ部22は、フィルタ情報供給部32からフィルタ情報として供給される3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)を受信することにより取得し、ステップS192に進む。 That is, in step S191, the filter unit 22 receives the three-dimensional motion vector (p 0 , q 0 , t 0 ) and the kernel size (h, k) supplied as filter information from the filter information supply unit 32. The process proceeds to step S192.

ステップS192では、フィルタ部22は、時刻tのフレームの注目ブロック内の位置(x,y)における画素の画素値C(t,x,y)を、例えば、時刻t-3t0乃至t+3t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)のうちの、カーネルサイズ(h,k)に応じた時刻(フレーム)の範囲の画素値を用いた演算により求めるフィルタリングを行う。なお、D(t,x,y)は、フィルタリングに用いる動画データの時刻tの位置(x,y)における画素値を表す。 In step S192, the filter unit 22 calculates the pixel value C (t, x, y) of the pixel at the position (x, y) in the target block of the frame at time t, for example, from time t-3t 0 to t + 3t. pixel values of the pixels in the 0 D (t-3t 0, x-3p 0, y-3q 0), D (t-2t 0, x-2p 0, y-2q 0), D (tt 0, xp 0, yq 0 ), D (t, x, y), D (t + t 0 , x + p 0 , y + q 0 ), D (t + 2t 0 , x + 2p 0 , y + 2q 0 ), D Of (t + 3t 0 , x + 3p 0 , y + 3q 0 ), filtering is performed by calculation using pixel values in a time (frame) range corresponding to the kernel size (h, k). Note that D (t, x, y) represents a pixel value at a position (x, y) at time t of moving image data used for filtering.

即ち、ステップS192では、フィルタ部22は、フィルタリング、つまり、注目ブロック内の位置(x,y)における画素の画素値C(t,x,y)の演算を、カーネルサイズ(h,k)によって表される、動きベクトル(p0,q0,t0)の有効範囲内のフレームの画素値のみを用いて行う。 That is, in step S192, the filter unit 22 performs the filtering, that is, the calculation of the pixel value C (t, x, y) of the pixel at the position (x, y) in the target block according to the kernel size (h, k). This is performed using only the pixel values of the frame within the effective range of the motion vector (p 0 , q 0 , t 0 ) represented.

具体的には、ステップS192では、フィルタ部22は、カーネルサイズ(h,k)が(3,3)である場合、時刻t-3t0乃至t+3t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(1)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。この場合、図68のステップS132における場合と同様にして、注目ブロックの主成分方向に延びる、T方向の幅が2π/(4t0)の領域を通過帯域とするフィルタによるフィルタリングが行われる。 Specifically, in step S192, when the kernel size (h, k) is (3, 3), the filter unit 22 determines the pixel value D (t−t) of the pixels at times t−3t 0 to t + 3t 0 . 3t 0 , x-3p 0 , y-3q 0 ), D (t-2t 0 , x-2p 0 , y-2q 0 ), D (tt 0 , xp 0 , yq 0 ), D (t, x, y), D (t + t 0 , x + p 0 , y + q 0 ), D (t + 2t 0 , x + 2p 0 , y + 2q 0 ), D (t + 3t 0 , x + 3p 0 , y + 3q 0 ), for example, the pixel value C (t, x, y) of the block of interest is calculated according to equation (1). In this case, in the same manner as in step S132 of FIG. 68, filtering is performed using a filter that extends in the principal component direction of the block of interest and has a region in the T direction with a width of 2π / (4t 0 ).

Figure 0004441865
・・・(1)
Figure 0004441865
... (1)

また、フィルタ部22は、カーネルサイズ(h,k)が(2,3)である場合、時刻t-3t0における画素の画素値D(t-3t0,x-3p0,y-3q0)は用いずに、時刻t-2t0乃至t+3t0における画素の画素値D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(2)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。 In addition, when the kernel size (h, k) is (2,3), the filter unit 22 has a pixel value D (t-3t 0 , x-3p 0 , y-3q 0 ) at time t-3t 0 . ) Without using the pixel values D (t-2t 0 , x-2p 0 , y-2q 0 ), D (tt 0 , xp 0 , yq 0 ) at times t-2t 0 to t + 3t 0 , D (t, x, y), D (t + t 0 , x + p 0 , y + q 0 ), D (t + 2t 0 , x + 2p 0 , y + 2q 0 ), D (t + 3t 0 , x + 3p 0 , y + 3q 0 ), for example, the pixel value C (t, x, y) of the block of interest is calculated according to equation (2).

Figure 0004441865
・・・(2)
Figure 0004441865
... (2)

さらに、フィルタ部22は、カーネルサイズ(h,k)が(1,3)である場合、時刻t-3t0における画素の画素値D(t-3t0,x-3p0,y-3q0)、および時刻t-2t0における画素の画素値D(t-2t0,x-2p0,y-2q0)は用いずに、時刻t-t0乃至t+3t0における画素の画素値D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(3)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。 Further, when the kernel size (h, k) is (1,3), the filter unit 22 outputs the pixel value D (t-3t 0 , x-3p 0 , y-3q 0 ) of the pixel at time t-3t 0 . ), and time t-2t pixel value of the pixel at 0 D (t-2t 0, x-2p 0, y-2q 0) is not used, the time tt 0 to t + 3t pixel value of the pixel at 0 D ( tt 0 , xp 0 , yq 0 ), D (t, x, y), D (t + t 0 , x + p 0 , y + q 0 ), D (t + 2t 0 , x + 2p 0 , y + 2q 0 ), D (t + 3t 0 , x + 3p 0 , y + 3q 0 ), for example, according to equation (3), the pixel value C (t, x, y) of the block of interest is calculated Do.

Figure 0004441865
・・・(3)
Figure 0004441865
... (3)

また、フィルタ部22は、カーネルサイズ(h,k)が(0,3)である場合、時刻t-3t0における画素の画素値D(t-3t0,x-3p0,y-3q0)、時刻t-2t0における画素の画素値D(t-2t0,x-2p0,y-2q0)、および時刻t-t0における画素の画素値D(t-t0,x-p0,y-q0)は用いずに、時刻t乃至t+3t0における画素の画素値D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(4)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。 In addition, when the kernel size (h, k) is (0,3), the filter unit 22 has a pixel value D (t-3t 0 , x-3p 0 , y-3q 0 ) at time t-3t 0 . ), Pixel value D (t-2t 0 , x-2p 0 , y-2q 0 ) of the pixel at time t-2t 0 , and pixel value D (tt 0 , xp 0 , yq 0 ) of the pixel at time tt 0 Is not used, and the pixel values D (t, x, y), D (t + t 0 , x + p 0 , y + q 0 ), D (t + 2t 0 ) at times t to t + 3t 0 are used. , x + 2p 0 , y + 2q 0 ), D (t + 3t 0 , x + 3p 0 , y + 3q 0 ), for example, according to equation (4), the pixel value C (t, Calculate x, y).

Figure 0004441865
・・・(4)
Figure 0004441865
... (4)

同様に、フィルタ部22は、カーネルサイズ(h,k)が(3,2)である場合、時刻t+3t0における画素の画素値D(t+3t0,x+3p0,y+3q0)は用いずに、時刻t-3t0乃至t+2t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0)を用い、例えば、式(5)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。 Similarly, when the kernel size (h, k) is (3, 2), the filter unit 22 uses the pixel value D (t + 3t 0 , x + 3p 0 , y + 3q) at the time t + 3t 0 . 0 ) is not used, and pixel values D (t-3t 0 , x-3p 0 , y-3q 0 ), D (t-2t 0 , x-2p 0 ) at times t-3t 0 to t + 2t 0 0 , y-2q 0 ), D (tt 0 , xp 0 , yq 0 ), D (t, x, y), D (t + t 0 , x + p 0 , y + q 0 ), D (t + 2t 0 , x + 2p 0 , y + 2q 0 ), for example, the pixel value C (t, x, y) of the block of interest is calculated according to equation (5).

Figure 0004441865
・・・(5)
Figure 0004441865
... (5)

さらに、フィルタ部22は、カーネルサイズ(h,k)が(3,1)である場合、時刻t+3t0における画素の画素値D(t+3t0,x+3p0,y+3q0)、および時刻t+2t0における画素の画素値D(t+2t0,x+2p0,y+2q0)は用いずに、時刻t-3t0乃至t+t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0)を用い、例えば、式(6)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。 Further, when the kernel size (h, k) is (3, 1), the filter unit 22 uses the pixel value D (t + 3t 0 , x + 3p 0 , y + 3q 0 ) at time t + 3t 0 . ), And the pixel value D (t + 2t 0 , x + 2p 0 , y + 2q 0 ) of the pixel at time t + 2t 0 , and the pixel value of the pixel at time t-3t 0 to t + t 0 D (t-3t 0 , x-3p 0 , y-3q 0 ), D (t-2t 0 , x-2p 0 , y-2q 0 ), D (tt 0 , xp 0 , yq 0 ), D ( t, x, y), D (t + t 0 , x + p 0 , y + q 0 ), for example, according to equation (6), the pixel value C (t, x, y) of the block of interest Perform the operation.

Figure 0004441865
・・・(6)
Figure 0004441865
... (6)

また、フィルタ部22は、カーネルサイズ(h,k)が(3,0)である場合、時刻t+3t0における画素の画素値D(t+3t0,x+3p0,y+3q0)、時刻t+2t0における画素の画素値D(t+2t0,x+2p0,y+2q0)、および時刻t+t0における画素の画素値D(t+t0,x+p0,y+q0)は用いずに、時刻t-3t0乃至tにおける画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y)を用い、例えば、式(7)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。 In addition, when the kernel size (h, k) is (3,0), the filter unit 22 has a pixel value D (t + 3t 0 , x + 3p 0 , y + 3q 0 ) at time t + 3t 0 . ), The pixel value D (t + 2t 0 , x + 2p 0 , y + 2q 0 ) of the pixel at time t + 2t 0 , and the pixel value D (t + t 0 , x + of the pixel at time t + t 0 p 0, y + q 0) without the pixel value D of the pixel at time t-3t 0 to t (t-3t 0, x -3p 0, y-3q 0), D (t-2t 0, x-2p 0 , y-2q 0 ), D (tt 0 , xp 0 , yq 0 ), D (t, x, y), for example, according to the equation (7), the pixel value C ( t, x, y) is calculated.

Figure 0004441865
・・・(7)
Figure 0004441865
... (7)

一方、カーネルサイズ(h,k)が(0,0)である場合は、注目ブロックと同一の(画像の)領域(注目ブロックに対応する領域)が、他の時刻t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0の画像に存在しない場合であり、この場合、時間方向のフィルタリングは、画質の劣化をもたらすので、注目ブロックのフレーム(注目フレーム)、即ち、時刻tにおける画素の画素値D(t,x,y)のみを用い、例えば、式(8)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。なお、式(8)は、フィルタリングを行わないことと等価である。 On the other hand, when the kernel size (h, k) is (0,0), the same area (image area) as the target block (area corresponding to the target block) is set to other times t-3t 0 , t- 2t 0 , tt 0 , t + t 0 , t + 2t 0 , and t + 3t 0 are not present in this case. In this case, temporal filtering results in degradation of image quality. (Frame of interest), that is, using only the pixel value D (t, x, y) of the pixel at time t, for example, the pixel value C (t, x, y) of the block of interest is calculated according to equation (8). Do. Equation (8) is equivalent to not performing filtering.

Figure 0004441865
・・・(8)
Figure 0004441865
... (8)

ここで、注目ブロックに対応する領域が、他の時刻t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0の画像に存在しない場合としては、例えば、注目ブロック内に投影されている被写体の移動速度が、人間が認識することができないほど高速である場合や、注目ブロック内に投影されている被写体が、時刻tのフレーム(注目フレーム)にだけ突然現れた場合などがある。 Here, as a case where the region corresponding to the block of interest does not exist in the images at other times t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0 , For example, when the moving speed of the subject projected in the block of interest is so high that humans cannot recognize it, or the subject projected in the block of interest is in the frame at time t (frame of interest). There are cases where it only appears suddenly.

また、相関情報や合成相関情報の最小値を求めることは、いわゆるブロックマッチングにより動きベクトルを検出することに相当するが、注目ブロック内に投影されている被写体が、ブロックマッチングにおける探索範囲を超えて移動してしまっている場合も、注目ブロックに対応する領域が、他の時刻t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0の画像に存在しない場合に該当する。 Finding the minimum value of correlation information or composite correlation information is equivalent to detecting a motion vector by so-called block matching, but the subject projected in the target block exceeds the search range in block matching. Even if it has moved, the area corresponding to the block of interest is displayed in the images at other times t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0 . Applicable when it does not exist.

なお、ステップS192において、画素値C(t,x,y)の演算としてのフィルタリングは、時間方向のサンプル数を1/4に間引くダウンサンプリングを行いながら、即ち、4フレームごとに1フレームの割合で行われる。   In step S192, the filtering as the calculation of the pixel value C (t, x, y) is performed while down-sampling that thins out the number of samples in the time direction to 1/4, that is, the ratio of one frame every four frames. Done in

ステップS192の処理後は、ステップS193に進み、フィルタ部22は、フィルタリング結果、即ち、ステップS192におけるフィルタリング結果(式(1)乃至(8)のうちのいずれかの演算結果)である画素値C(t,x,y)を、時刻tの位置(x,y)における画素値として、エンコード部24に出力する。   After the process of step S192, the process proceeds to step S193, and the filter unit 22 outputs the pixel value C that is the filtering result, that is, the filtering result in step S192 (the calculation result of any one of the expressions (1) to (8)). (t, x, y) is output to the encoding unit 24 as a pixel value at the position (x, y) at time t.

以上のように、第2の動き検出処理(図73乃至図77のステップS151乃至S176の処理のうちの、ステップS151乃至S172の処理)では、第1の動き検出処理と同様に、フィルタの通過帯域のT方向の幅である2π/(4t0)に相当する複数のフレームそれぞれとの相関を表す複数の相関情報を用いることによって、注目ブロックから複数のフレームへの、いわば平均的な動きを表す平均動きベクトルを求めるが、その際に、注目ブロックに対応する領域が存在しないフレームについての相関情報を用いないようにしたので、注目ブロックの平均的な動きを正確に表す平均動きベクトルを求めることができ、さらに、注目ブロックについて、正確な主成分方向を求めることができる。 As described above, in the second motion detection process (the processes in steps S151 to S172 of the processes in steps S151 to S176 in FIGS. 73 to 77), the filter passes as in the first motion detection process. By using multiple pieces of correlation information representing the correlation with each of multiple frames corresponding to the width in the T direction of the band, 2π / (4t 0 ), the average movement from the target block to multiple frames can be said. The average motion vector that represents the average motion of the target block is calculated because the correlation information is not used for the frame in which the region corresponding to the target block does not exist. Furthermore, an accurate principal component direction can be obtained for the block of interest.

また、第2の動き検出処理では、カーネルサイズ(h,k)を出力し、フィルタ部22でのフィルタリングにおいては、そのカーネルサイズ(h,k)に対応した範囲のフレームの画素だけを用いるようにしたので、即ち、注目ブロックに対応する領域が存在しないフレームの画素を用いないようにしたので、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることができる。   In the second motion detection process, the kernel size (h, k) is output, and only the pixels of the frame in the range corresponding to the kernel size (h, k) are used for filtering in the filter unit 22. In other words, since the pixel of the frame in which the region corresponding to the block of interest does not exist is not used, appropriate data of only frequency components that can be recognized by human vision can be obtained.

次に、図24の画像処理システムにおいて、表示装置3が1/t0のフレームレートを有する場合には、受信装置2が出力する1/t0のフレームレートの動画を表示することができるが、表示装置3が、1/t0以外のフレームレートを有する場合には、受信装置2が出力する1/t0のフレームレートの動画を表示することが困難となる。 Then, in the image processing system of FIG. 24, when the display device 3 has a frame rate of 1 / t 0 is capable of displaying a video frame rate of 1 / t 0 where the receiving apparatus 2 outputs , the display device 3, 1 / if t has a non-zero frame rate, it is difficult to view the video frame rate of 1 / t 0 where the receiving apparatus 2 outputs.

そこで、図79は、表示装置3において、それが有するフレームレートに応じた動画を表示することができるエンコードデータを出力する図24の送信装置1の構成例を示している。   Therefore, FIG. 79 shows a configuration example of the transmission apparatus 1 of FIG. 24 that outputs encoded data that can display a moving image corresponding to the frame rate of the display apparatus 3.

なお、図79において、図25における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図79の送信装置1は、フィルタ部22に代えて、フィルタ部202が設けられている他は、図25における場合と同様に構成されている。   79, parts corresponding to those in FIG. 25 are denoted by the same reference numerals, and description thereof will be omitted as appropriate. That is, the transmission apparatus 1 in FIG. 79 is configured in the same manner as in FIG. 25 except that the filter unit 202 is provided instead of the filter unit 22.

フィルタ部202は、周波数ドメインにおいて、フレームレート1/t0の動画データの各部分(各ブロック)の主成分方向に延びる領域であって、T方向に幅2π/(4t0)を有する領域を通過帯域として、フレームレート1/t0の動画データをフィルタリングするとともに、時間方向に1/4のダウンサンプリングすることにより、複数の周波数成分に分割された、フレームレート1/(4t0)の動画データを得て、エンコード部24に出力する。従って、フィルタ部202でのフィルタリングは、複数の周波数成分に分割された動画データが得られる点で、そのような複数の周波数成分に分割されていない動画データが得られる図25のフィルタ部22でのフィルタリングと異なる。 The filter unit 202 is an area extending in the principal component direction of each part (each block) of moving image data having a frame rate of 1 / t 0 in the frequency domain and having a width of 2π / (4t 0 ) in the T direction. As the passband, the video with frame rate 1 / t 0 is filtered, and the video with frame rate 1 / (4t 0 ) is divided into multiple frequency components by downsampling 1/4 in the time direction. Data is obtained and output to the encoding unit 24. Therefore, the filtering in the filter unit 202 is that the moving image data divided into a plurality of frequency components is obtained, and the moving image data not divided into the plurality of frequency components is obtained in the filter unit 22 of FIG. Different from filtering.

次に、フィルタ部202でのフィルタリングの詳細について説明するが、その前に、表示装置3があるフレームレートを有する場合の、その表示装置3の表示能力について説明する。   Next, the details of filtering in the filter unit 202 will be described. Before that, the display capability of the display device 3 when the display device 3 has a certain frame rate will be described.

図80は、表示装置3が、例えば、1/t0のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の表示能力としての領域R8001を表している。 FIG. 80 shows a region R as a display capability when the display device 3 has a frame rate of 1 / t 0 and can display one pixel per pixel at intervals of r 0 in the spatial direction. Represents 8001 .

領域R8001は、周波数ドメイン上において、X,Y方向がそれぞれ−π/r0から+π/r0の範囲で、T方向が−π/t0から+π/t0の範囲の直方体状の領域である。表示装置3が、1/t0のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合においては、領域R8001内の周波数成分のデータを表示することができる。 Region R 8001 is a rectangular parallelepiped region in which the X and Y directions are in the range of −π / r 0 to + π / r 0 and the T direction is in the range of −π / t 0 to + π / t 0 on the frequency domain. It is. When the display device 3 has a frame rate of 1 / t 0 and can display one pixel per pixel at intervals of r 0 , the frequency component data in the region R 8001 is stored. Can be displayed.

図81は、表示装置3が、例えば、1/(4t0/3)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の表示能力としての領域R8101を表している。 Figure 81 is a display device 3, for example, a frame rate of 1 / (4t 0/3) , and display capability if one pixel 1 pixel can be displayed at intervals of r 0 in the spatial direction As a region R 8101 .

領域R8101は、周波数ドメイン上において、X,Y方向がそれぞれ−π/r0から+π/r0の範囲で、T方向が−π/(4t0/3)から+π/(4t0/3)の範囲の直方体状の領域である。表示装置3が、1/(4t0/3)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合においては、領域R8101内の周波数成分のデータを表示することができる。 Region R 8101, in a frequency domain, X, in the range in the Y direction, respectively - [pi] / r 0 from the + π / r 0, T direction -π / (4t 0/3) from + π / (4t 0/3 ) Is a rectangular parallelepiped region. The display device 3 has a frame rate of 1 / (4t 0/3) , and, in the case where one pixel 1 pixel can be displayed at intervals of r 0 in the spatial direction, the frequency of the region R 8101 The component data can be displayed.

図82は、表示装置3が、例えば、1/(2t0)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の表示能力としての領域R8201を表している。 FIG. 82 shows the display capability when the display device 3 has a frame rate of 1 / (2t 0 ), for example, and can display one pixel per pixel at intervals of r 0 . Region R 8201 is represented.

領域R8201は、周波数ドメイン上において、X,Y方向がそれぞれ−π/r0から+π/r0の範囲で、T方向が−π/(2t0)から+π/(2t0)の範囲の直方体状の領域である。表示装置3が、1/(2t0)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合においては、領域R8201内の周波数成分のデータを表示することができる。 The region R 8201 has, on the frequency domain, the X and Y directions are in the range of −π / r 0 to + π / r 0 and the T direction is in the range of −π / (2t 0 ) to + π / (2t 0 ). It is a rectangular parallelepiped area. When the display device 3 has a frame rate of 1 / (2t 0 ) and can display one pixel per pixel at intervals of r 0 , the frequency components in the region R 8201 Data can be displayed.

図83は、表示装置3が、例えば、1/(4t0)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の表示能力としての領域R8301を表している。 FIG. 83 shows the display capability when the display device 3 has a frame rate of 1 / (4t 0 ) and can display one pixel per pixel at intervals of r 0 in the spatial direction. Region R 8301 is represented.

領域R8301は、周波数ドメイン上において、X,Y方向がそれぞれ−π/r0から+π/r0の範囲で、T方向が−π/(4t0)から+π/(4t0)の範囲の直方体状の領域である。表示装置3が、1/(4t0)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合においては、領域R8301内の周波数成分のデータを表示することができる。 The region R 8301 has, on the frequency domain, the X and Y directions are in the range of −π / r 0 to + π / r 0 , and the T direction is in the range of −π / (4t 0 ) to + π / (4t 0 ). It is a rectangular parallelepiped area. When the display device 3 has a frame rate of 1 / (4t 0 ) and can display one pixel per pixel at intervals of r 0 , the frequency component in the region R 8301 Data can be displayed.

図79の送信装置1のフィルタ部202では、フレームレート1/t0の動画データをフィルタリングすることにより、表示装置3(図24)が、例えば、図80乃至図83それぞれで説明したいずれの表示能力を有する場合であっても、その表示能力の範囲で最適な表示を行うことができるように、複数の周波数成分に適切(最適に)に分割されたフレームレート1/(4t0)の動画データを得る。 79 filters the moving image data of the frame rate 1 / t 0 so that the display device 3 (FIG. 24) can display any of the displays described in FIG. 80 to FIG. 83, for example. Even if you have the capability, the video with the frame rate 1 / (4t 0 ) divided appropriately (optimally) into multiple frequency components so that you can perform optimal display within the range of the display capability Get the data.

ところで、上述したように、動画の中で静止している被写体が投影されている部分については、人間は、図20に示した領域R1001内のデータしか認識しない。また、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、人間は、図21に示した領域R1101内のデータしか認識しない。さらに、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、人間は、図22に示した領域R1201内のデータしか認識しない。また、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、人間は、図23に示した領域R1301内のデータしか認識しない。動画において、この他の速度で移動している動被写体についても、同様である。 By the way, as described above, the human recognizes only the data in the region R 1001 shown in FIG. 20 for the portion where the stationary subject is projected in the moving image. Further, regarding a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 ) / 2”, the human being has the data in the region R 1101 shown in FIG. Only recognize. Furthermore, for a portion of the moving image where the subject projected on the moving image moves at a speed of about “r 0 / t 0 ”, a human recognizes only the data in the region R 1201 shown in FIG. Further, for a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, a human recognizes only data in the region R 1301 shown in FIG. The same applies to moving subjects moving at other speeds in moving images.

従って、動画を表示するにあたり、その動画における被写体の移動速度に応じて、例えば、図20の領域R1001内のデータや、図21の領域R1101内のデータ、図22の領域R1201内のデータ、図23に示した領域R1301内のデータが存在すれば、人間は、動画の画質の劣化を認識しないので、そのような領域内のデータがあれば十分である。 Accordingly, when displaying a moving image, depending on the moving speed of the subject in the moving image, for example, data in the region R 1001 in FIG. 20, data in the region R 1101 in FIG. 21, and data in the region R 1201 in FIG. If there is data, data in the region R 1301 shown in FIG. 23, humans do not recognize the degradation of the image quality of the moving image, so it is sufficient that there is data in such a region.

一方、表示装置3が、図80の領域R8001内の周波数成分のデータを表示することができる表示能力を有する場合には、その領域R8001外の(周波数成分)のデータは不要であり、領域R8001内のデータがあれば十分である。 On the other hand, when the display device 3 has a display capability capable of displaying the frequency component data in the region R 8001 of FIG. 80, the (frequency component) data outside the region R 8001 is unnecessary. It is sufficient if there is data in region R 8001 .

同様に、表示装置3が、図81の領域R8101内の周波数成分のデータを表示することができる表示能力を有する場合には、その領域R8101外のデータは不要であり、領域R8101内のデータがあれば十分である。 Similarly, the display device 3, when having a display capability may display data of the frequency components in the region R 8101 in FIG. 81, data outside the region R 8101 is unnecessary, the area R 8101 Is sufficient.

さらに、表示装置3が、図82の領域R8201内の周波数成分のデータを表示することができる表示能力を有する場合には、その領域R8201外のデータは不要であり、領域R8201内のデータがあれば十分である。 Further, the display device 3, when having a display capability may display data of the frequency components in the region R 8201 in FIG. 82, data outside the region R 8201 is unnecessary, the area R 8201 of the Data is enough.

また、表示装置3が、図83の領域R8301内の周波数成分のデータを表示することができる表示能力を有する場合には、その領域8301外のデータは不要であり、領域8301内のデータがあれば十分である。 Further, in the case where the display device 3 has a display capability capable of displaying the frequency component data in the region R 8301 in FIG. 83, the data outside the region 8301 is unnecessary, and the data in the region 8301 is If there is enough.

そこで、図79のフィルタ部202は、図80乃至図83で説明した表示能力それぞれを有する表示装置3に対処するために、図25のフィルタ部22と同様のフィルタリングを行う他、さらに、図83の領域R8301内の周波数成分、図83の領域R8301外であって図82の領域R8201内の周波数成分、図82の領域R8201外であって図81のR8101内の周波数成分、および図81のR8101外であって図80の領域R8001内の周波数成分の4つの周波数成分のデータに分割するフィルタリングを行う。 Therefore, the filter unit 202 in FIG. 79 performs the same filtering as the filter unit 22 in FIG. 25 in order to deal with the display device 3 having the display capabilities described in FIGS. Frequency component in region R 8301 , frequency component outside region R 8301 in FIG. 83 and within region R 8201 in FIG. 82, frequency component outside region R 8201 in FIG. 82 and within R 8101 in FIG. Further, filtering is performed to divide the data into four frequency component data of the frequency components outside the R 8101 in FIG. 81 and in the region R 8001 in FIG.

ここで、以下、適宜、上述の4つの周波数成分のデータのうちの、図83の領域R8301内の周波数成分のデータを、「低域成分動画データ」という。また、図83の領域R8301外であって図82の領域R8201内の周波数成分のデータを、「中低域成分動画データ」といい、図82の領域R8201外であって図81の領域R8101内の周波数成分のデータを、「中高域成分動画データ」という。さらに、図81の領域R8101外であって図80の領域R8001内の周波数成分のデータを、「高域成分動画データ」という。 Here, the frequency component data in the region R 8301 in FIG. 83 among the above-described four frequency component data will be referred to as “low-frequency component moving image data”. Also, the frequency component data outside the region R 8301 in FIG. 83 and within the region R 8201 in FIG. 82 is referred to as “middle low frequency component moving image data”, and outside the region R 8201 in FIG. The frequency component data in the region R 8101 is referred to as “middle and high frequency component moving image data”. Further, the frequency component data outside the region R 8101 in FIG. 81 and within the region R 8001 in FIG. 80 is referred to as “high frequency component moving image data”.

次に、動画データの各部分における「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」について説明する。   Next, “low frequency component video data”, “middle low frequency component video data”, “middle and high frequency component video data”, and “high frequency component video data” in each part of the video data will be described.

動画の中で静止している被写体が投影されている部分については、図20の領域R1001内のデータがあれば十分である。そして、図20の領域R1001は、図83の領域R8301に等しく、従って、図20の領域R1001のデータは、図83の領域R8301外には存在しない。従って、動画の中で静止している被写体が投影されている部分については、図20の領域R1001のデータのすべてが、「低域成分動画データ」であり、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」は、いずれも存在しない(0である)。 For the portion of the moving image where a stationary subject is projected, it is sufficient if there is data in the region R 1001 in FIG. The area R 1001 in FIG. 20 is equal to the area R 8301 in FIG. 83, and therefore the data of the area R 1001 in FIG. 20 does not exist outside the area R 8301 in FIG. Therefore, for the portion of the moving image where the stationary subject is projected, all of the data in the region R 1001 in FIG. 20 is “low-frequency component moving image data”, and “middle-low-frequency component moving image data”. , “Middle and high frequency component moving image data” and “high frequency component moving image data” do not exist (is 0).

次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図21の領域R1101内のデータがあれば十分である。そして、図21の領域R1101は、T方向が、図82の領域R8201からはみ出すが、図81の領域R8101には含まれる。 Next, with respect to a portion of the moving image where the subject projected on the moving image is moving at a speed of “(r 0 / t 0 ) / 2”, it is sufficient that there is data in the region R 1101 in FIG. It is. In addition, the region R 1101 in FIG. 21 has a T direction that protrudes from the region R 8201 in FIG. 82, but is included in the region R 8101 in FIG.

従って、速度「(r0/t0)/2」程度で動いている部分については、図84に示すように、図21の領域R1101内のデータのうちの、図83の領域R8301内のデータである領域R8401のデータが、「低域成分動画データ」である。 Accordingly, as shown in FIG. 84, the portion moving at a speed of “(r 0 / t 0 ) / 2” is within the region R 8301 in FIG. 83 of the data in the region R 1101 in FIG. The data of the region R 8401 that is the data is “low-frequency component moving image data”.

また、図85に示すように、図21の領域R1101内のデータのうちの、図83の領域R8301外であって図82の領域R8201内のデータである領域R8501のデータが、「中低域成分動画データ」である。 Also, as shown in FIG. 85, of the data in the region R 1101 in FIG. 21, the data in the region R 8501 that is outside the region R 8301 in FIG. 83 and is in the region R 8201 in FIG. “Middle and low range moving image data”.

さらに、図86に示すように、図21の領域R1101内のデータのうちの、図82の領域R8201外(であって図81の領域R8101内)のデータである領域R8601のデータが、「中高域成分動画データ」である。 Further, as shown in FIG. 86, the data in the region R 8601 which is the data outside the region R 8201 in FIG. 82 (and in the region R 8101 in FIG. 81) among the data in the region R 1101 in FIG. Is “middle and high frequency component moving image data”.

なお、図21の領域R1101は、T方向が、図81の領域R8101に含まれ、従って、図81の領域R8101外のデータは存在しないので、速度「(r0/t0)/2」程度で動いている部分については、「高域成分動画データ」は存在しない。 Note that the region R 1101 in FIG. 21 includes the direction T in the region R 8101 in FIG. 81, and therefore there is no data outside the region R 8101 in FIG. 81, so the speed “(r 0 / t 0 ) / There is no “high-frequency component moving image data” for a portion that moves at about “2”.

次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)」程度で動いている部分については、図22の領域R1201内のデータがあれば十分である。そして、図22の領域R1201は、T方向が、図80の領域R8001の境界まで存在する。 Next, with respect to a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 )”, it is sufficient if there is data in the region R 1201 in FIG. . In the region R 1201 in FIG. 22, the T direction exists up to the boundary of the region R 8001 in FIG.

従って、速度「(r0/t0)」程度で動いている部分については、図87に示すように、図22の領域R1201内のデータのうちの、図83の領域R8301内のデータである領域R8701のデータが、「低域成分動画データ」である。 Accordingly, as shown in FIG. 87, the portion moving at the speed “(r 0 / t 0 )” is the data in the region R 8301 in FIG. 83 among the data in the region R 1201 in FIG. The data of the region R 8701 is “low-frequency component moving image data”.

また、図88に示すように、図22の領域R1201内のデータのうちの、図83の領域R8301外であって図82の領域R8201内のデータである領域R8801のデータが、「中低域成分動画データ」である。 As shown in FIG. 88, the data in the region R 8801 outside the region R 8301 in FIG. 83 and the data in the region R 8201 in FIG. 82 out of the data in the region R 1201 in FIG. “Middle and low range moving image data”.

さらに、図89に示すように、図22の領域R1201内のデータのうちの、図82の領域R8201外であって図81の領域R8101内のデータである領域R8901のデータが、「中高域成分動画データ」である。 Further, as shown in FIG. 89, the data in the region R 8901 outside the region R 8201 in FIG. 82 and within the region R 8101 in FIG. 81 out of the data in the region R 1201 in FIG. “Middle and high frequency component moving image data”.

また、図90に示すように、図22の領域R1201内のデータのうちの、図81の領域R8101外(であって図80の領域R8001内)のデータである領域R9001のデータが、「高域成分動画データ」である。 Also, as shown in FIG. 90, among the data in the region R 1201 in FIG. 22, the data in the region R 9001 that is the data outside the region R 8101 in FIG. 81 (and in the region R 8001 in FIG. 80). Is “high-frequency component moving image data”.

次に、動画の中で、そこに投影されている被写体が速度「(2r0/t0)」程度で動いている部分については、図23の領域R1301内のデータがあれば十分である。そして、図23の領域R1301は、T方向が、図80の領域R8001の境界まで存在する。 Next, with respect to the portion of the moving image where the subject projected on the moving image moves at a speed of “(2r 0 / t 0 )”, it is sufficient if there is data in the region R 1301 in FIG. . In the region R 1301 in FIG. 23, the T direction exists up to the boundary of the region R 8001 in FIG.

従って、速度「(2r0/t0)」程度で動いている部分については、図91に示すように、図23の領域R1301内のデータのうちの、図83の領域R8301内のデータである領域R9101のデータが、「低域成分動画データ」である。 Accordingly, as shown in FIG. 91, the data in the region R 8301 in FIG. 83 among the data in the region R 1301 in FIG. 83 is shown for the portion moving at the speed “(2r 0 / t 0 )”. The data of the region R 9101 is “low-frequency component moving image data”.

また、図92に示すように、図23の領域R1301内のデータのうちの、図83の領域R8301外であって図82の領域R8201内のデータである領域R9201のデータが、「中低域成分動画データ」である。 Also, as shown in FIG. 92, the data in the area R 9201 outside the area R 8301 in FIG. 83 and the data in the area R 8201 in FIG. 82 out of the data in the area R 1301 in FIG. “Middle and low range moving image data”.

さらに、図93に示すように、図23の領域R1301内のデータのうちの、図82の領域R8201外であって図81の領域R8101内のデータである領域R9301のデータが、「中高域成分動画データ」である。 Further, as shown in FIG. 93, of the data in the region R 1301 in FIG. 23, the data in the region R 9301 outside the region R 8201 in FIG. 82 and in the region R 8101 in FIG. “Middle and high frequency component moving image data”.

また、図94に示すように、図23の領域R1301内のデータのうちの、図81の領域R8101外(であって図80の領域R8001内)のデータである領域R9401のデータが、「高域成分動画データ」である。 Further, as shown in FIG. 94, the data in the region R 9401 which is the data outside the region R 8101 in FIG. 81 (and in the region R 8001 in FIG. 80) among the data in the region R 1301 in FIG. Is “high-frequency component moving image data”.

次に、図95乃至図97のフローチャートを参照して、図79の送信装置1の処理について説明する。   Next, processing of the transmission apparatus 1 in FIG. 79 will be described with reference to the flowcharts in FIGS. 95 to 97.

バッファ部21には、フレームレート1/t0が、例えば、240fpsの高フレームレートの動画データが供給されて順次記憶される。 The buffer unit 21 is supplied with moving image data having a high frame rate of 240 fps, for example, at a frame rate of 1 / t 0 and sequentially stored.

そして、ステップS201とS202において、図26のステップS1とS2における場合とそれぞれ同様の処理が行われる。   In steps S201 and S202, the same processing as in steps S1 and S2 of FIG. 26 is performed.

即ち、ステップS201において、フィルタ生成部23は、バッファ部21に記憶された動画データを読み出して、自身(フィルタ生成部23)に入力し、ステップS202に進む。   That is, in step S201, the filter generation unit 23 reads out the moving image data stored in the buffer unit 21, inputs it to itself (filter generation unit 23), and proceeds to step S202.

ステップS202では、フィルタ生成部23(の主成分方向取得部31およびフィルタ情報供給部32)が、ステップS201で入力された動画データの各部分(例えば、各ブロック)について、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部202に供給する、上述の図31などで説明した「必要な情報の通過帯域を求める処理」を行い、ステップS203に進む。 In step S202, the filter generation unit 23 (the principal component direction acquisition unit 31 and the filter information supply unit 32) performs a human operation on the frequency domain for each part (for example, each block) of the moving image data input in step S201. The regions that can be recognized, for example, the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. The “processing for obtaining a pass band of necessary information” described with reference to FIG. 31 and the like described above with reference to FIG.

ここで、ステップS202で求められるフィルタの通過帯域を、以下、適宜、基本帯域という。   Here, the pass band of the filter obtained in step S202 is hereinafter referred to as a basic band as appropriate.

ステップS203では、フィルタ部202が、バッファ部21から、ステップS202でフィルタ生成部23から供給されたフィルタ情報のフィルタによるフィルタリングに用いるデータを読み出し、そのデータに対して、ステップS202でフィルタ生成部23から供給されたフィルタ情報が表す基本帯域の周波数成分を通過させ、かつ、図83の領域R8301の周波数成分を通過させるフィルタを適用しながら、時間方向のサンプル数を1/4に間引くダウンサンプリングを行う。 In step S203, the filter unit 202 reads from the buffer unit 21 data used for filtering by the filter of the filter information supplied from the filter generation unit 23 in step S202, and the filter generation unit 23 performs step S202 on the data. Downsampling that thins out the number of samples in the time direction to 1/4 while applying a filter that passes the frequency component of the basic band represented by the filter information supplied from and passes the frequency component of the region R 8301 in FIG. I do.

そして、ステップS203からS204に進み、フィルタ部202は、ステップS203のフィルタリングおよびダウンサンプリングによって得られるデータ、即ち、フレームレート1/(4t0)の「低域成分動画データ」を、エンコード部24に出力して、図96のステップS205に進む。 Then, the process proceeds from step S203 to S204, and the filter unit 202 supplies the data obtained by the filtering and downsampling in step S203, that is, the “low frequency component moving image data” of the frame rate 1 / (4t 0 ) to the encoding unit 24. The process proceeds to step S205 in FIG.

ステップS205では、フィルタ部202が、ステップS203でバッファ部21から読み出したデータに対して、ステップS202でフィルタ生成部23から供給されたフィルタ情報が表す基本帯域の周波数成分を通過させるとともに、図82の領域R8201の周波数成分を通過させるが、図83の領域R8301の周波数成分は通過させないフィルタ(帯域制限フィルタ)を適用しながら、時間方向のサンプル数を1/4に間引くダウンサンプリングを行う。 In step S205, the filter unit 202 allows the data read from the buffer unit 21 in step S203 to pass the frequency component of the base band represented by the filter information supplied from the filter generation unit 23 in step S202, and FIG. Down-sampling is performed to reduce the number of samples in the time direction to 1/4 while applying a filter (band limiting filter) that passes the frequency component of region R 8201 of FIG. 83 but does not pass the frequency component of region R 8301 of FIG. .

そして、ステップS205からS206に進み、フィルタ部202は、ステップS205のフィルタリングおよびダウンサンプリングによって得られるデータ、即ち、フレームレート1/(4t0)の「中低域成分動画データ」を、エンコード部24に出力して、ステップS207に進む。 Then, the process proceeds from step S205 to S206, and the filter unit 202 encodes the data obtained by the filtering and downsampling in step S205, that is, the “middle and low frequency range moving image data” having the frame rate 1 / (4t 0 ). And the process proceeds to step S207.

ステップS207では、フィルタ部202が、ステップS203でバッファ部21から読み出したデータに対して、ステップS202でフィルタ生成部23から供給されたフィルタ情報が表す基本帯域の周波数成分を通過させるとともに、図81の領域R8101の周波数成分を通過させるが、図82の領域R8201の周波数成分は通過させないフィルタを適用しながら、時間方向のサンプル数を1/4に間引くダウンサンプリングを行う。 In step S207, the filter unit 202 passes the frequency component of the base band represented by the filter information supplied from the filter generation unit 23 in step S202 to the data read from the buffer unit 21 in step S203. Downsampling is performed to thin out the number of samples in the time direction to 1/4 while applying a filter that passes the frequency component of the region R 8101 of FIG. 82 but does not pass the frequency component of the region R 8201 of FIG.

そして、ステップS207からS208に進み、フィルタ部202は、ステップS207のフィルタリングおよびダウンサンプリングによって得られるデータ、即ち、フレームレート1/(4t0)の「中高域成分動画データ」を、エンコード部24に出力して、図97のステップS209に進む。 Then, the process proceeds from step S207 to S208, and the filter unit 202 supplies the data obtained by the filtering and downsampling in step S207, that is, the “middle and high frequency component moving image data” of the frame rate 1 / (4t 0 ) to the encoding unit 24. The process proceeds to step S209 in FIG.

ステップS209では、フィルタ部202が、ステップS203でバッファ部21から読み出したデータに対して、ステップS202でフィルタ生成部23から供給されたフィルタ情報が表す基本帯域の周波数成分を通過させるとともに、図80の領域R8001の周波数成分を通過させるが、図81の領域R8101の周波数成分は通過させないフィルタを適用しながら、時間方向のサンプル数を1/4に間引くダウンサンプリングを行う。 In step S209, the filter unit 202 passes the frequency component of the base band represented by the filter information supplied from the filter generation unit 23 in step S202 to the data read from the buffer unit 21 in step S203. Down-sampling is performed to thin out the number of samples in the time direction to 1/4 while applying a filter that passes the frequency component of the region R 8001 of FIG. 81 but does not pass the frequency component of the region R 8101 of FIG.

そして、ステップS209からS210に進み、フィルタ部202は、ステップS209のフィルタリングおよびダウンサンプリングによって得られるデータ、即ち、フレームレート1/(4t0)の「高域成分動画データ」を、エンコード部24に出力する。 Then, the process proceeds from step S209 to step S210. The filter unit 202 supplies the data obtained by the filtering and downsampling in step S209, that is, the “high frequency component moving image data” having the frame rate 1 / (4t 0 ) to the encoding unit 24. Output.

エンコード部24では、フィルタ部202からの、4つの周波数成分に分割されたフレームレート1/(4t0)の動画データ、即ち、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」それぞれが必要に応じてエンコードされ、さらに多重化されて、エンコードデータとして出力される。このエンコードデータは、図24で説明したように、記録媒体11に記録され、あるいは、伝送媒体12を介して伝送される。 In the encoding unit 24, the moving image data of the frame rate 1 / (4t 0 ) divided into four frequency components from the filter unit 202, that is, “low frequency component moving image data”, “middle low frequency component moving image data”, Each of “middle and high frequency component moving image data” and “high frequency component moving image data” is encoded as necessary, further multiplexed, and output as encoded data. The encoded data is recorded on the recording medium 11 or transmitted via the transmission medium 12 as described with reference to FIG.

なお、ステップS202乃至S210の処理は、バッファ部21に記憶された動画の各部分(各ブロック)のデータすべてについて行われる。   Note that the processing in steps S202 to S210 is performed for all data of each part (each block) of the moving image stored in the buffer unit 21.

また、ステップS203,S205,S207,S209におけるダウンサンプリングは、バッファ部21に記憶された動画データの4フレームごとに、1フレームのフィルタリング結果を出力する処理である。従って、フィルタ部202では、バッファ部21に記憶された動画データの4フレームごとに、その4フレームのうちの1フレームついてフィルタリングを行えば良い。   Further, the downsampling in steps S203, S205, S207, and S209 is a process of outputting a filtering result of one frame for every four frames of moving image data stored in the buffer unit 21. Accordingly, the filter unit 202 may perform filtering for one frame out of the four frames of the moving image data stored in the buffer unit 21.

さらに、図79の送信装置1のエンコード部24においては、図25における場合と同様に、動画の各部分のデータに適用したフィルタのフィルタ情報としての基本帯域を表す、例えば、図20の領域R1001や、図21の領域R1301、図22の領域R1301、図23の領域R1301の情報や、その領域R1001,R1301,R1301,R1301の主成分方向の情報を、エンコードデータに多重化して出力するようにすることができる。 Further, in the encoding unit 24 of the transmission apparatus 1 in FIG. 79, as in the case in FIG. 25, for example, the region R in FIG. 20 represents the basic band as the filter information of the filter applied to the data of each part of the moving image. 1001 and, region R 1301 in FIG. 21, the region R 1301 in FIG. 22, and information of the region R 1301 in FIG. 23, the main component direction information of the region R 1001, R 1301, R 1301 , R 1301, encoded data Can be multiplexed and output.

以上のように、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301等の基本帯域を、表示装置3の表示能力を表す図80の領域R8001や、図81の領域R8101、図82の領域R8201、図83の領域R8301で制限した帯域を通過帯域として、動画データをフィルタリングするとともに、ダウンサンプリングを行うようにしたので、人間の目の視覚効果を考慮した動画データの削減を行うことができ、さらに、図80の領域R8001や、図81の領域R8101、図82の領域R8201、図83の領域R8301によって表される表示能力を有する表示装置3にとって適切に分割された動画データを得ることができる。 As described above, regions that can be recognized by humans on the frequency domain, that is, for example, region R 1001 in FIG. 20, region R 1101 in FIG. 21, region R 1201 in FIG. 22, region R 1301 in FIG. 80, a band limited by a region R 8001 in FIG. 80, a region R 8101 in FIG. 81, a region R 8201 in FIG. 82, and a region R 8301 in FIG. Since the moving image data is filtered and downsampling is performed, the moving image data can be reduced in consideration of the visual effect of the human eye. Further, the region R 8001 in FIG. 80 and the region in FIG. Moving image data appropriately divided for the display device 3 having the display capability represented by R 8101 , region R 8201 in FIG. 82, and region R 8301 in FIG. 83 can be obtained.

次に、図98乃至図109は、図95乃至図97のフローチャートにしたがった処理によって得られる「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」それぞれの周波数ドメイン上の分布を示している。   Next, FIGS. 98 to 109 show “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, “ The distribution on the frequency domain of each “high frequency component moving image data” is shown.

まず、動画の中で静止している被写体が投影されている部分については、図20の領域R1001が基本帯域である。そして、図20の領域R1001のデータについては、上述したように、そのすべてが、「低域成分動画データ」であり、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」は、いずれも存在しない。即ち、フィルタリング後の動画データは、領域R1001の「低域成分動画データ」のみである。 First, for a portion of a moving image where a stationary subject is projected, a region R 1001 in FIG. 20 is a basic band. As described above, all of the data in the region R 1001 in FIG. 20 is “low frequency component video data”, “middle low frequency component video data”, “middle high frequency component video data”, and None of the “high frequency component moving image data” exists. That is, the moving image data after filtering is only “low-frequency component moving image data” in the region R 1001 .

領域R1001のデータである「低域成分動画データ」を、時間方向に1/4にダウンサンプリングすると、そのダウンサンプリング後のデータは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the “low-range component video data” that is the data of region R 1001 is downsampled to 1/4 in the time direction, the data after downsampling is sampled at r 0 intervals in the spatial direction x, y In the time direction t, the data is sampled at 4 × t 0 intervals.

このため、図98に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 For this reason, as shown in FIG. 98, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.

但し、領域R1001は、図10で説明したことから、X,Y方向が2π/r0で、T方向が2π/(4t0)の、原点を中心とする長方形(直方体)状の領域であるため、折り返し成分どうしは重ならない。 However, since the region R 1001 has been described with reference to FIG. 10, the region R 1001 is a rectangular (cuboid) region centered at the origin, in which the X and Y directions are 2π / r 0 and the T direction is 2π / (4t 0 ). Therefore, the folding components do not overlap.

なお、図98において、影を付してある部分が、ダウンサンプリング後の「低域成分動画データ」が存在する部分である。   In FIG. 98, the shaded portion is the portion where the “low-frequency component moving image data” after down-sampling exists.

次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図21の領域R1101が基本帯域である。そして、図21の領域R1101のデータについては、上述したように、そのうちの、図84の領域R8401のデータが、「低域成分動画データ」であり、図85の領域R8501のデータが、「中低域成分動画データ」であり、図86の領域R8601のデータが、「中高域成分動画データ」である。また、図21の領域R1101のデータについては、「高域成分動画データ」は存在しない。 Next, for a portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2”, a region R 1101 in FIG. 21 is a basic band. As for the data in the region R 1101 in FIG. 21, as described above, the data in the region R 8401 in FIG. 84 is “low-frequency component moving image data”, and the data in the region R 8501 in FIG. , “Middle and low range component moving image data”, and the data in region R 8601 in FIG. 86 is “middle and high range component moving image data”. Further, “high-frequency component moving image data” does not exist for the data in the region R 1101 in FIG.

図84の領域R8401のデータである「低域成分動画データ」、図85の領域R8501のデータである「中低域成分動画データ」、図86の領域R8601のデータである「中高域成分動画データ」を、時間方向に1/4にダウンサンプリングすると、そのダウンサンプリング後のデータは、いずれも、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 84. “Low-frequency component moving image data” that is data in region R 8401 in FIG. 84, “Middle and low-frequency component moving image data” that is data in region R 8501 in FIG. 85, and “Middle and high-frequency data that is data in region R 8601 in FIG. When `` component video data '' is downsampled to 1/4 in the time direction, the data after the downsampling is sampled at intervals of r 0 in the spatial direction x, y, and in the time direction t Becomes data sampled at intervals of 4 × t 0 .

このため、図84の領域R8401のデータである「低域成分動画データ」については、図99に示すように、図85の領域R8501のデータである「中低域成分動画データ」については、図100に示すように、図86の領域R8601のデータである「中高域成分動画データ」については、図101に示すように、それぞれ、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, with regard to “low frequency component moving image data” that is data of region R 8401 in FIG. 84, as shown in FIG. 99, about “middle low frequency component moving image data” that is data of region R 8501 in FIG. As shown in FIG. 100, the “middle and high frequency component moving image data” that is the data of the region R 8601 in FIG. 86 is 2π in the X and Y directions on the frequency domain, respectively, as shown in FIG. Folding components occur at intervals of / r 0 , and folding components occur at intervals of 2π / (4t 0 ) in the T direction.

但し、図84の領域R8401、図85の領域R8501、図86の領域R8601は、図21の領域R1101を分割した領域であり、その領域R1101は、図21で説明したことから、原点(0,0)と点(π/r0,-π/(2t0))とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、図28に示したように、時間方向に4×t0間隔でサンプリングされても、折り返し成分どうしは重ならない。従って、図21の領域R1101を分割して得られる図84の領域R8401の「低域成分動画データ」(図99)、図85の領域R8501の「中低域成分動画データ」(図100)、図86の領域R8601の「中高域成分動画データ」(図101)についても、折り返し成分どうしは重ならない。 However, the region R 8401 in FIG. 84, the region R 8501 in FIG. 85, and the region R 8601 in FIG. 86 are regions obtained by dividing the region R 1101 in FIG. 21, and the region R 1101 is described with reference to FIG. , A region having a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, −π / (2t0)), and the X and Y directions are − Since (π / r 0 ) to + (π / r 0 ) and the T direction is in the range of − (π / t 0 ) to + (π / t 0 ), as shown in FIG. Even if sampling is performed at 4 × t 0 intervals in the time direction, the aliasing components do not overlap. Accordingly, the “low-frequency component moving image data” (FIG. 99) in the region R 8401 in FIG. 84 obtained by dividing the region R 1101 in FIG. 21 and the “middle low-frequency component moving image data” in the region R 8501 in FIG. 100), and the “middle / high range component moving image data” (FIG. 101) in the region R 8601 in FIG. 86 does not overlap the aliasing components.

なお、図99乃至図101において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。   In FIG. 99 to FIG. 101, the shaded portion is a portion where the down-sampled moving image data exists.

次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、図22の領域R1201が基本帯域である。そして、図22の領域R1201のデータについては、上述したように、そのうちの、図87の領域R8701のデータが、「低域成分動画データ」であり、図88の領域R8801のデータが、「中低域成分動画データ」であり、図89の領域R8901のデータが、「中高域成分動画データ」であり、図90の領域R9001のデータが、「高域成分動画データ」である。 Next, for a portion of the moving image where the subject projected thereon moves at a speed of about “r 0 / t 0 ”, a region R 1201 in FIG. 22 is the basic band. As for the data in the region R 1201 in FIG. 22, as described above, the data in the region R 8701 in FIG. 87 is “low-frequency component moving image data”, and the data in the region R 8801 in FIG. 89, the data in region R 8901 in FIG. 89 is “middle and high frequency component video data”, and the data in region R 9001 in FIG. 90 is “high frequency component video data”. is there.

図87の領域R8701のデータである「低域成分動画データ」、図88の領域R8801のデータである「中低域成分動画データ」、図89の領域R8901のデータである「中高域成分動画データ」、図90の領域R9001のデータである「高域成分動画データ」を、時間方向に1/4にダウンサンプリングすると、そのダウンサンプリング後のデータは、いずれも、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 A data area R 8701 in FIG. 87, "low-frequency component video data" is data area R 8801 of FIG. 88 "medium low-frequency component video data" is data area R 8901 in FIG. 89, "high range When the “high-frequency component moving image data”, which is the data of the component moving image data ”and the region R 9001 in FIG. 90, is down-sampled to ¼ in the time direction, Data is sampled at intervals of r 0 for y and sampled at intervals of 4 × t 0 for time direction t.

このため、図87の領域R8701のデータである「低域成分動画データ」については、図102に示すように、図88の領域R8801のデータである「中低域成分動画データ」については、図103に示すように、図89の領域R8901のデータである「中高域成分動画データ」については、図104に示すように、図90の領域R9001のデータである「高域成分動画データ」については、図105に示すように、それぞれ、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, as for “low-frequency component moving image data” that is data of region R 8701 in FIG. 87, as shown in FIG. 102, “middle and low-frequency component moving image data” that is data of region R 8801 in FIG. 103, “middle and high frequency component moving image data” that is data of region R 8901 in FIG. 89 is “high frequency component moving image data that is data of region R 9001 in FIG. 90”, as shown in FIG. As for “data”, as shown in FIG. 105, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and 2π / (4t 0 ) intervals in the T direction. Thus, a folding component is generated.

但し、図87の領域R8701、図88の領域R8801、図89の領域R8901、図90の領域R9001は、図22の領域R1201を分割した領域であり、その領域R1201は、図12で説明したことから、原点(0,0)と点(π/r0,-π/t0)とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、図29に示したように、時間方向に4×t0間隔でサンプリングされても、折り返し成分どうしは重ならない。従って、図22の領域R1201を分割して得られる図87の領域R8701の「低域成分動画データ」(図102)、図88の領域R8801の「中低域成分動画データ」(図103)、図89の領域R8901の「中高域成分動画データ」(図104)、図90の領域R9001の「高域成分動画データ」(図105)についても、折り返し成分どうしは重ならない。 However, the region R 8701 in FIG. 87, the region R 8801 in FIG. 88, the region R 8901 in FIG. 89, the region R 9001 in FIG. 90 is an area obtained by dividing the area R 1201 in FIG. 22, the region R 1201 is As described in FIG. 12, the region having a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, −π / t0), and X, Since the Y direction is a region in the range of − (π / r 0 ) to + (π / r 0 ) and the T direction is in the range of − (π / t 0 ) to + (π / t 0 ), FIG. As shown in FIG. 4, even if sampling is performed at 4 × t 0 intervals in the time direction, the aliasing components do not overlap. Therefore, “low-frequency component moving image data” (FIG. 102) in the region R 8701 in FIG. 87 obtained by dividing the region R 1201 in FIG. 22 and “middle low-frequency component moving image data” in the region R 8801 in FIG. 103), the “mid-high frequency component moving image data” (FIG. 104) in the region R 8901 in FIG. 89 and the “high frequency component moving image data” (FIG. 105) in the region R 9001 in FIG. 90 do not overlap.

なお、図102乃至図105において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。   In FIGS. 102 to 105, the shaded portion is the portion where the down-sampled moving image data exists.

次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、図23の領域R1301が基本帯域である。そして、図23の領域R1301のデータについては、上述したように、そのうちの、図91の領域R9101のデータが、「低域成分動画データ」であり、図92の領域R9201のデータが、「中低域成分動画データ」であり、図93の領域R9301のデータが、「中高域成分動画データ」であり、図94の領域R9401のデータが、「高域成分動画データ」である。 Next, for a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, a region R 1301 in FIG. 23 is a basic band. 23, the data in the region R 9101 in FIG. 91 is “low-frequency component moving image data”, and the data in the region R 9201 in FIG. 92 is the data in the region R 1301 in FIG. , The data in the region R 9301 in FIG. 93 is “middle and high frequency component video data”, and the data in the region R 9401 in FIG. 94 is “high frequency component video data”. is there.

図91の領域R9101のデータである「低域成分動画データ」、図92の領域R9201のデータである「中低域成分動画データ」、図93の領域R9301のデータである「中高域成分動画データ」、図94の領域R9401のデータである「高域成分動画データ」を、時間方向に1/4にダウンサンプリングすると、そのダウンサンプリング後のデータは、いずれも、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 “Low-frequency component moving image data” that is data of region R 9101 in FIG. 91, “Middle and low-frequency component moving image data” that is data of region R 9201 in FIG. 92, and “Middle and high-frequency region” that is data of region R 9301 in FIG. When the “high-frequency component moving image data”, which is the data of the region R 9401 in FIG. 94, is down-sampled to 1/4 in the time direction, the data after the down-sampling are all in the spatial direction x, Data is sampled at intervals of r 0 for y and sampled at intervals of 4 × t 0 for time direction t.

このため、図91の領域R9101のデータである「低域成分動画データ」については、図106に示すように、図92の領域R9201のデータである「中低域成分動画データ」については、図107に示すように、図93の領域R9301のデータである「中高域成分動画データ」については、図108に示すように、図94の領域R9401のデータである「高域成分動画データ」については、図109に示すように、それぞれ、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 For this reason, with regard to “low-frequency component moving image data” that is data of region R 9101 in FIG. 91, as shown in FIG. 106, “middle and low-frequency component moving image data” that is data of region R 9201 in FIG. As shown in FIG. 107, “middle and high frequency component moving image data” that is the data of region R 9301 in FIG. 93 is “high frequency component moving image” that is the data of region R 9401 in FIG. With respect to “data”, as shown in FIG. 109, aliasing components occur at intervals of 2π / r 0 in the X and Y directions on the frequency domain, and 2π / (4t 0 ) intervals in the T direction. Thus, a folding component is generated.

但し、図91の領域R9101、図92の領域R9201、図93の領域R9301、図94の領域R9401は、図23の領域R1301を分割した領域であり、その領域R1301は、図13で説明したことから、原点(0,0)と点(π/r0,-2π/t0)とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、図30に示したように、時間方向に4×t0間隔でサンプリングされても、折り返し成分どうしは重ならない。従って、図23の領域R1301を分割して得られる図91の領域R9101の「低域成分動画データ」(図106)、図92の領域R9201の「中低域成分動画データ」(図107)、図93の領域R9301の「中高域成分動画データ」(図108)、図94の領域R9401の「高域成分動画データ」(図109)についても、折り返し成分どうしは重ならない。 However, the region R 9101 in FIG. 91, the region R 9201 in FIG. 92, the region in FIG. 93 R 9301, region R 9401 in FIG. 94 is an area obtained by dividing the area R 1301 in FIG. 23, the region R 1301 is As described in FIG. 13, the region having a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, −2π / t0), and X, Since the Y direction is a region in the range of − (π / r 0 ) to + (π / r 0 ) and the T direction is in the range of − (π / t 0 ) to + (π / t 0 ), FIG. As shown in FIG. 4, even if sampling is performed at 4 × t 0 intervals in the time direction, the aliasing components do not overlap. Accordingly, the “low-frequency component moving image data” (FIG. 106) in the region R 9101 in FIG. 91 obtained by dividing the region R 1301 in FIG. 23 and the “middle low-frequency component moving image data” in the region R 9201 in FIG. 107), “middle / high-frequency component moving image data” (FIG. 108) in region R 9301 in FIG. 93 and “high-frequency component moving image data” (FIG. 109) in region R 9401 in FIG. 94 do not overlap.

なお、図106乃至図109において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。   In FIGS. 106 to 109, the shaded portion is the portion where the down-sampled moving image data exists.

以上の図98乃至図109に示したように、周波数ドメインにおいて、ダウンサンプリング後の動画データの折り返し成分どうしは重ならないということは、そのダウンサンプリング後の動画データから、元のデータ、即ち、図20の領域R1001の「低域成分動画データ」、図84の領域R8401の「低域成分動画データ」、図85の領域R8501の「中低域成分動画データ」、図86の領域R8601の「中高域成分動画データ」、図87の領域R8701の「低域成分動画データ」、図88の領域R8801の「中低域成分動画データ」、図89の領域R8901の「中高域成分動画データ」、図90の領域R9001の「高域成分動画データ」、図91の領域R9101の「低域成分動画データ」、図92の領域R9201の「中低域成分動画データ」、図93の領域R9301の「中高域成分動画データ」、図94の領域R9401の「高域成分動画データ」を抽出することができることを意味し、換言すれば、ダウンサンプリング後の動画データが、人間の視覚特性を考慮した必要な情報(人間が認識することができる情報)を、正確に保持していることを意味する。 As shown in FIGS. 98 to 109, in the frequency domain, the aliasing components of the down-sampled video data do not overlap with each other from the down-sampled video data. “Low-frequency component moving image data” in 20 regions R 1001 , “Low-frequency component moving image data” in region R 8401 in FIG. 84, “Middle and low-frequency component moving image data” in region R 8501 in FIG. 85, and Region R in FIG. "intermediate and high frequency components moving data" 8601, "the low-frequency component video data" of the region R 8701 in FIG. 87, "medium low-frequency component video data" of the region R 8801 in FIG. 88, "crowned area R 8901 in FIG. 89 90 ”,“ High-frequency component video data ”in region R 9001 in FIG. 90,“ Low-frequency component video data ”in region R 9101 in FIG. 91,“ Middle-low-frequency component video data ”in region R 9201 in FIG. "," middle-to-high-frequency component video region R 9301 in FIG. 93 Over data "means that it is possible to extract the" high-frequency component video data "of the region R 9401 in FIG. 94, in other words, necessary information video data after downsampling, in consideration of human visual characteristics (Information that can be recognized by humans) is accurately held.

次に、以上のようなフレームレート1/(4t0)の「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」が多重化されたエンコードデータが、記録媒体11または伝送媒体12(図24)を介して受信装置2に供給される場合の、その受信装置2の構成と処理について説明する。 Next, “Low-frequency component video data”, “Middle-low frequency component video data”, “Middle-high frequency component video data” and “High-frequency component video data” with the frame rate 1 / (4t 0 ) as described above are multiplexed. The configuration and processing of the receiving apparatus 2 when the encoded data is supplied to the receiving apparatus 2 via the recording medium 11 or the transmission medium 12 (FIG. 24) will be described.

図110は、表示装置3が、図83の領域R8301で表される表示能力を有する場合、即ち、1/(4t0)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の図24の受信装置2の構成例を示している。 FIG. 110 shows a case where the display device 3 has the display capability represented by the region R 8301 in FIG. 83, that is, a frame rate of 1 / (4t 0 ), and one pixel per pixel in the spatial direction. It shows an exemplary configuration of a receiving apparatus 2 in FIG. 24 in the case where it is possible to display at intervals of r 0.

なお、図110において、図33における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図110の受信装置2は、フィルタ生成部53が設けられておらず、フィルタ部52に代えて、抽出部211が設けられている他は、図33における場合と同様に構成されている。   In FIG. 110, portions corresponding to those in FIG. 33 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the receiving apparatus 2 in FIG. 110 is configured in the same manner as in FIG. 33 except that the filter generation unit 53 is not provided and an extraction unit 211 is provided instead of the filter unit 52. .

抽出部211は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから「低域成分動画データ」を抽出し、表示装置3(図24)に供給する。 The extraction unit 211 extracts “low-frequency component moving image data” from the moving image data of the frame rate 1 / (4t 0 ) stored in the buffer unit 51 and supplies the extracted data to the display device 3 (FIG. 24).

次に、図111のフローチャートを参照して、図110の受信装置2の処理について説明する。   Next, processing of the receiving device 2 in FIG. 110 will be described with reference to the flowchart in FIG.

デコード部50には、エンコードデータが供給される。デコード部50は、そのエンコードデータを、フレームレートが1/(4t0)の低フレームレートの動画データにデコードし、バッファ部51に供給する。バッファ部51では、デコード部50から供給される1/(4t0)のフレームレートの低フレームレートの動画データが順次記憶される。 The decoding unit 50 is supplied with encoded data. The decoding unit 50 decodes the encoded data into moving image data with a frame rate of 1 / (4t 0 ) and a low frame rate, and supplies it to the buffer unit 51. The buffer unit 51 sequentially stores moving image data having a low frame rate of 1 / (4t 0 ) supplied from the decoding unit 50.

そして、ステップS231において、抽出部211は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「低域成分動画データ」を抽出し、ステップS232に進む。 In step S231, the extracting unit 211 extracts “low-frequency component moving image data” from the moving image data of the frame rate 1 / (4t 0 ) stored in the buffer unit 51, and the process proceeds to step S232.

ステップS232では、抽出部211は、ステップS231で抽出した「低域成分動画データ」を、表示装置3(図24)に出力する。   In step S232, the extraction unit 211 outputs the “low frequency component moving image data” extracted in step S231 to the display device 3 (FIG. 24).

この場合、図83の領域R8301で表される表示能力を有する表示装置3には、フレームレート1/(4t0)の「低域成分動画データ」が供給されて表示される。 In this case, “low-frequency component moving image data” having a frame rate of 1 / (4t 0 ) is supplied and displayed on the display device 3 having the display capability represented by the region R 8301 in FIG.

即ち、例えば、動画の中で静止している被写体が投影されている部分については、フレームレート1/(4t0)の「低域成分動画データ」は、図98に示した周波数成分のデータであり、表示装置3では、図112に影を付して示すように、図98に示した周波数成分のデータのうちの、図83の領域R8301内のデータだけが表示される。そして、図98に示した折り返し成分は表示されない。 That is, for example, for a portion of a moving image where a stationary subject is projected, the “low frequency component moving image data” of the frame rate 1 / (4t 0 ) is the frequency component data shown in FIG. Yes, as shown in FIG. 112 with a shadow, the display device 3 displays only the data in the region R 8301 in FIG. 83 out of the frequency component data shown in FIG. Then, the aliasing component shown in FIG. 98 is not displayed.

次に、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、「低域成分動画データ」は、図99に示した周波数成分のデータであり、表示装置3では、図113に影を付して示すように、図99に示した周波数成分のデータのうちの、図83の領域R8301内のデータである図84の領域R8401内のデータだけが表示される。そして、表示装置3では、図99に示した折り返し成分は表示されない。 Next, for example, for a portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2”, “low-frequency component moving image data” is shown in FIG. In the display device 3, as shown in FIG. 113 with a shadow, the data in the region R 8301 in FIG. Only data in an area R 8401 in FIG. 84 is displayed. The display device 3 does not display the aliasing component shown in FIG.

次に、例えば、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、「低域成分動画データ」は、図102に示した周波数成分のデータであり、表示装置3では、図114に影を付して示すように、図102に示した周波数成分のデータのうちの、図83の領域R8301内のデータである図87の領域R8701内のデータだけが表示される。そして、図102に示した折り返し成分は表示されない。 Next, for example, in a portion of the moving image where the subject projected on the moving object moves at a speed of about “r 0 / t 0 ”, the “low frequency component moving image data” has the frequency shown in FIG. In the display device 3, as shown in FIG. 114 with a shadow, in the frequency component data shown in FIG. 102, the data in the region R 8301 in FIG. Only the data in area R 8701 is displayed. The aliasing component shown in FIG. 102 is not displayed.

次に、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、「低域成分動画データ」は、図106に示した周波数成分のデータであり、表示装置3では、図115に影を付して示すように、図106に示した周波数成分のデータのうちの、図83の領域R8301内のデータである図91の領域R9101内のデータだけが表示される。そして、図106に示した折り返し成分は表示されない。 Next, for example, for a portion of the moving image where the subject projected thereon moves at a speed of about “2r 0 / t 0 ”, the “low frequency component moving image data” has the frequency shown in FIG. In the display device 3, as shown in FIG. 115 with a shadow, in the frequency component data shown in FIG. 106, the data in the region R 8301 in FIG. Only the data in area R 9101 is displayed. The aliasing component shown in FIG. 106 is not displayed.

以上のように、表示装置3が、1/(4t0)のフレームレートを有する場合には、「低域成分動画データ」だけを表示装置3に供給することにより、表示装置3では、その表示能力で表示することができる周波数成分のデータを、折り返し成分の影響を受けずに、適切に(最適に)表示することができる。 As described above, when the display device 3 has a frame rate of 1 / (4t 0 ), only the “low frequency component moving image data” is supplied to the display device 3. The frequency component data that can be displayed by the capability can be appropriately (optimally) displayed without being affected by the aliasing component.

なお、上述の説明から分かるように、実際にバッファ部51以降で使用される動画データは、「低域成分動画データ」と「中低域成分動画データ」と「中高域成分動画データ」と「高域成分動画データ」の4つのデータのうち、「低域成分動画データ」の1つのデータのみである。従って、図110におけるデコード部50では、送信装置1から送られてくる4つのデータのうち「中低域成分動画データ」と「中高域成分動画データ」と「高域成分動画データ」は、デコードしなくても良い。   As can be seen from the above description, the moving image data actually used after the buffer unit 51 is “low frequency component moving image data”, “middle low frequency component moving image data”, “middle and high frequency component moving image data”, and “ Of the four data of “high frequency component moving image data”, only one data of “low frequency component moving image data” is provided. Therefore, the decoding unit 50 in FIG. 110 decodes “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” among the four data transmitted from the transmission device 1. You don't have to.

次に、図116は、表示装置3が、図82の領域R8201で表される表示能力を有する場合、即ち、1/(2t0)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の図24の受信装置2の構成例を示している。 Next, FIG. 116 illustrates a case where the display device 3 has the display capability represented by the region R 8201 in FIG. 82, that is, has a frame rate of 1 / (2t 0 ), and 1 pixel per pixel. 25 shows a configuration example of the receiving device 2 in FIG. 24 when it can be displayed at intervals of r 0 in the spatial direction.

なお、図116において、図33における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図116の受信装置2は、抽出部221および合成部222が新たに設けられているとともに、フィルタ部52に代えてフィルタ部223が設けられている他は、図33における場合と同様に構成されている。   116, portions corresponding to those in FIG. 33 are denoted by the same reference numerals, and description thereof will be omitted as appropriate. That is, the receiving apparatus 2 in FIG. 116 is the same as in FIG. 33 except that an extracting unit 221 and a combining unit 222 are newly provided, and a filter unit 223 is provided instead of the filter unit 52. It is configured.

抽出部221は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから「低域成分動画データ」と「中低域成分動画データ」を抽出し、合成部222に供給する。 The extraction unit 221 extracts “low frequency component video data” and “middle low frequency component video data” from the video data of the frame rate 1 / (4t 0 ) stored in the buffer unit 51, and supplies it to the synthesis unit 222. .

合成部222は、抽出部221からの、フレームレート1/(4t0)の「低域成分動画データ」と「中低域成分動画データ」を合成し、フレームレート1/(4t0)の合成動画データを、フィルタ部223に供給する。 Combining unit 222, the synthesis of the extraction unit 221, a frame rate 1 / (4t 0) of synthesizing the "low-frequency component video data" and "medium low-frequency component video data", the frame rate 1 / (4t 0) The moving image data is supplied to the filter unit 223.

フィルタ部223は、合成部222から供給されるフレームレート1/(4t0)の合成動画データを用いて、図33のフィルタ部52における場合と同様に、フィルタ情報供給部62からのフィルタ情報に対応したフィルタリングとアップサンプリングを行う。但し、図33のフィルタ部52では、4倍のアップサンプリングが行われたが、フィルタ部223は、2倍のアップサンプリングを行う。 The filter unit 223 uses the combined moving image data of the frame rate 1 / (4t 0 ) supplied from the combining unit 222 to filter information from the filter information supply unit 62 as in the filter unit 52 of FIG. Perform corresponding filtering and upsampling. However, the filter unit 52 in FIG. 33 performs upsampling four times, but the filter unit 223 performs upsampling twice.

次に、図117のフローチャートを参照して、図116の受信装置2の処理について説明する。   Next, processing of the receiving device 2 in FIG. 116 will be described with reference to the flowchart in FIG. 117.

デコード部50には、エンコードデータが供給される。デコード部50は、そのエンコードデータを、フレームレートが1/(4t0)の低フレームレートの動画データにデコードし、バッファ部51に供給する。バッファ部51では、デコード部50から供給される1/(4t0)のフレームレートの低フレームレートの動画データが順次記憶される。 The decoding unit 50 is supplied with encoded data. The decoding unit 50 decodes the encoded data into moving image data with a frame rate of 1 / (4t 0 ) and a low frame rate, and supplies it to the buffer unit 51. The buffer unit 51 sequentially stores moving image data having a low frame rate of 1 / (4t 0 ) supplied from the decoding unit 50.

そして、ステップS241において、抽出部221は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「低域成分動画データ」を抽出し、合成部222に供給して、ステップS242に進む。ステップS242では、抽出部221は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「中低域成分動画データ」を抽出し、合成部222に供給して、ステップS243に進む。 In step S241, the extracting unit 221 extracts “low-frequency component moving image data” from the moving image data at the frame rate 1 / (4t 0 ) stored in the buffer unit 51, and supplies the extracted low-frequency component moving image data to the combining unit 222. Proceed to step S242. In step S242, the extraction unit 221 extracts “middle and low frequency component moving image data” from the moving image data of the frame rate 1 / (4t 0 ) stored in the buffer unit 51, and supplies it to the synthesizing unit 222. The process proceeds to S243.

ステップS243では、合成部222は、抽出部211から供給された「低域成分動画データ」と「中低域成分動画データ」とを合成し、即ち、例えば、「低域成分動画データ」と「中低域成分動画データ」を加算し、その結果得られるフレームレート1/(4t0)の合成動画データを、フィルタ部223に供給する。 In step S243, the synthesizing unit 222 synthesizes the “low frequency component moving image data” and the “middle low frequency component moving image data” supplied from the extracting unit 211, that is, for example, “low frequency component moving image data” and “ “Middle-low frequency component moving image data” is added, and the resultant combined moving image data of the frame rate 1 / (4t 0 ) is supplied to the filter unit 223.

その後、ステップS244乃至S246では、フィルタ生成部53(の主成分方向取得部61およびフィルタ情報供給部62)が、合成動画データの各部分(例えば、上述したような16×16画素のブロック)について、周波数ドメイン上で人間が認識することができる領域を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部223に供給する処理、即ち、上述した図31の「必要な情報の通過帯域を求める処理」と同様の処理を行う。   After that, in steps S244 to S246, the filter generation unit 53 (the principal component direction acquisition unit 61 and the filter information supply unit 62) applies to each portion of the synthesized moving image data (for example, a block of 16 × 16 pixels as described above). , A region that can be recognized by humans on the frequency domain is obtained as a pass band of the filter, and the process of supplying the pass band as filter information to the filter unit 223, that is, the “required information of FIG. The same processing as “processing for obtaining passband” is performed.

即ち、ステップS244では、フィルタ生成部53の主成分方向取得部61は、合成動画データの各部分のデータについて、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部62に供給して、ステップS245に進む。   That is, in step S244, the principal component direction acquisition unit 61 of the filter generation unit 53 uses the frequency axes X and Y in the spatial directions x and y and the frequency axis T in the time direction t for the data of each part of the synthesized moving image data. The principal component direction in the defined frequency domain is acquired and supplied to the filter information supply unit 62, and the process proceeds to step S245.

なお、ステップS244において主成分方向は、図31で説明したように、合成動画データ(または「低域成分動画データ」)を対象とした3次元フーリエ変換を行うことにより求めることもできるし、図32で説明したように、動きベクトルを検出することにより求めることもできる。また、上述したように、送信装置1からのエンコードデータに、主成分方向(の情報)が多重化されている場合には、デコード部50において、エンコードデータから主成分方向を分離し、主成分方向取得部61において、デコード部50から、その主成分方向の供給を受けることにより、主成分方向を取得することもできる。   Note that in step S244, the principal component direction can be obtained by performing a three-dimensional Fourier transform on synthetic moving image data (or “low-frequency component moving image data”) as described with reference to FIG. As described in FIG. 32, it can also be obtained by detecting a motion vector. Further, as described above, when the principal component direction (information thereof) is multiplexed in the encoded data from the transmission device 1, the decoding unit 50 separates the principal component direction from the encoded data, The direction acquisition unit 61 can also acquire the principal component direction by receiving the supply of the principal component direction from the decoding unit 50.

さらに、図34のステップS32で説明したように、エンコードデータに空間方向x,yの動きベクトル(u0,v0)が含まれる場合には、その動きベクトル(u0,v0)を、時間方向のコンポーネントt(ここでは、t=4t0)を加えて、空間方向x,yおよび時間方向tの3次元の動きベクトル(u0,v0,t)とし、図32で説明したように、その3次元の動きベクトル(u0,v0,t)に直交する平面を主成分方向とすることもできる。 Further, as described in step S32 in FIG. 34, encoded data in the spatial direction x, in the case that contains the y motion vector (u 0, v 0), the motion vector (u 0, v 0), The time direction component t (here, t = 4t 0 ) is added to obtain a three-dimensional motion vector (u 0 , v 0 , t) in the spatial direction x, y and time direction t, as described in FIG. In addition, a plane orthogonal to the three-dimensional motion vector (u 0 , v 0 , t) can be set as the principal component direction.

即ち、送信装置1のエンコード部24において、「低域成分動画データ」が、少なくとも動き補償を利用する、例えば、MPEGなどのエンコード方法によってエンコードされる場合には、エンコードデータには、動き補償に用いられる動きベクトルが含まれる。そこで、デコード部50において、バッファ部51を介して、主成分方向取得部61に、エンコードデータに含まれる動きベクトルを供給するようにし、主成分方向取得部61では、その動きベクトルに直交する平面を、主成分方向として求める(検出する)ようにすることができる。   That is, in the encoding unit 24 of the transmission device 1, when “low-frequency component moving image data” is encoded by an encoding method such as MPEG that uses at least motion compensation, the encoded data includes motion compensation. Contains the motion vector to be used. Therefore, in the decoding unit 50, the motion vector included in the encoded data is supplied to the principal component direction acquisition unit 61 via the buffer unit 51. In the principal component direction acquisition unit 61, a plane orthogonal to the motion vector is supplied. Can be obtained (detected) as the principal component direction.

ステップS245では、フィルタ情報供給部62は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部61からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、ステップS246に進む。 In step S245, the filter information supply unit 62 is an area extending in the principal component direction from the principal component direction acquisition unit 61 from the origin (0, 0) in the frequency domain, and 2π / (4 × t in the T direction. 0 ), the X and Y directions are-(π / r 0 ) to + (π / r 0 ), and the T direction is-(π / t 0 ) to + (π / t 0 ). , Ie, the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. 23 are determined as the passband of the filter, and the process proceeds to step S246.

ステップS246では、フィルタ情報供給部62は、ステップS245で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部223に供給し、ステップS247に進む。   In step S246, the filter information supply unit 62 supplies the filter passband obtained in step S245 (information indicating) to the filter unit 223 as filter information, and the process proceeds to step S247.

ステップS247では、フィルタ部223が、合成部222からの合成動画データに対して、ステップS246でフィルタ生成部53(のフィルタ情報供給部62)から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を2倍にするアップサンプリングを行う。   In step S247, the filter unit 223 applies the passband filter represented by the filter information supplied from the filter generation unit 53 (the filter information supply unit 62) in step S246 to the synthesized moving image data from the synthesis unit 222. However, upsampling is performed to double the number of samples in the time direction.

即ち、例えば、いま、ステップS244で主成分方向が取得された合成動画データの部分としてのブロックを、注目ブロックとするとともに、注目ブロックのフレームを注目フレームとする。   That is, for example, a block as a portion of the combined moving image data whose principal component direction has been acquired in step S244 is set as a target block, and a frame of the target block is set as a target frame.

フィルタ部223は、合成部222からの合成動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目ブロックの各画素のデータ(画素値)を求める。 The filter unit 223 uses the passband filter represented by the filter information supplied from the filter generation unit 53, for example, the region R 1001 in FIG. 20 or the region R 1101 in FIG. The data (pixel value) of each pixel of the block of interest is obtained by filtering with a filter that uses the region R 1201 in FIG. 22 and the region R 1301 in FIG. 23 as a pass band.

また、フィルタ部223は、合成部222からの合成動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目フレームから次のフレームまでの時間4t0を、時間2t0に等分する1つの時刻における画素であって、注目ブロックの各画素を通り、注目ブロックの3次元の動きベクトルの方向に延びる直線上にある画素のデータを求める。なお、注目ブロックの3次元の動きベクトルは、例えば、主成分方向取得部61で求め、フィルタ情報供給部62を介して、フィルタ情報とともに、フィルタ部223に供給することができる。 Further, the filter unit 223 filters the synthesized moving image data from the synthesis unit 222 in the passband represented by the filter information supplied from the filter generation unit 53, for example, the region R 1001 in FIG. 20 or the region in FIG. R 1101 , a region R 1201 in FIG. 22 and a filter having a region R 1301 in FIG. 23 as a passband are used to filter the time 4t 0 from the frame of interest to the next frame into time 2t 0 . Data of pixels on a straight line extending at the time and passing through each pixel of the block of interest and extending in the direction of the three-dimensional motion vector of the block of interest is obtained. Note that the three-dimensional motion vector of the block of interest can be obtained by, for example, the principal component direction acquisition unit 61 and supplied to the filter unit 223 together with the filter information via the filter information supply unit 62.

フィルタ部223は、フレームレートが1/(4t0)の合成動画データを対象に、以上のようなフィルタリングおよびアップサンプリングを行うことにより、フレームレートが1/(2t0)の合成動画データを得て、ステップS247からS248に進む。 The filter unit 223 obtains composite video data having a frame rate of 1 / (2t 0 ) by performing the above filtering and upsampling on the composite video data having a frame rate of 1 / (4t 0 ). The process proceeds from step S247 to S248.

ステップS248では、フィルタ部223は、ステップS247で得たフレームレート1/(2t0)の合成動画データを、表示装置3(図24)に出力する。 In step S248, the filter unit 223 outputs the combined moving image data of the frame rate 1 / (2t 0 ) obtained in step S247 to the display device 3 (FIG. 24).

この場合、図82の領域R8201で表される表示能力を有する表示装置3には、フレームレート1/(2t0)の合成動画データが供給されて表示される。 In this case, the composite moving image data having the frame rate 1 / (2t 0 ) is supplied and displayed on the display device 3 having the display capability represented by the region R 8201 in FIG.

即ち、いまの場合、合成動画データは、「低域成分動画データ」と「中低域成分動画データ」とを合成したデータである。   That is, in this case, the combined moving image data is data obtained by combining “low-frequency component moving image data” and “middle-low frequency component moving image data”.

そして、例えば、動画の中で静止している被写体が投影されている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図98に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は存在しない。 For example, as for the portion of the moving image where the stationary subject is projected, as described above, the “low frequency component moving image data” of the frame rate 1 / (4t 0 ) is shown in FIG. This is frequency component data, and there is no “middle and low frequency component moving image data” with a frame rate of 1 / (4t 0 ).

従って、図98に示した周波数成分の「低域成分動画データ」と、存在しない「中低域成分動画データ」とを合成して得られるフレームレート1/(4t0)の合成動画データは、図98に示した周波数成分のデータとなる。 Therefore, the combined moving image data of the frame rate 1 / (4t 0 ) obtained by combining the “low frequency component moving image data” of the frequency component shown in FIG. 98 and the “middle low frequency component moving image data” that does not exist is The frequency component data shown in FIG. 98 is obtained.

そして、図98のフレームレート1/(4t0)の合成動画データ(動画の中の静止している部分のデータ)については、フィルタ部223において、図20の領域R1001を通過帯域とするフィルタによるフィルタリングと、2倍のアップサンプリングが行われる(図117のステップS247)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図20の領域R1001内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては2t0間隔でサンプリングされたデータとなる。 Then, with respect to the composite moving image data (frame portion data in the moving image) with the frame rate 1 / (4t 0 ) in FIG. 98, the filter unit 223 uses the filter having the region R 1001 in FIG. Filtering by 2 and upsampling of 2 times are performed (step S247 in FIG. 117). Therefore, the synthesized moving image data obtained by the filtering and upsampling has frequency components in the region R 1001 in FIG. 20, and is further sampled at intervals of r 0 with respect to the spatial directions x and y, and the time direction t Is data sampled at 2t 0 intervals.

このため、図118に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(2t0)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 118, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / (2t 0 ) in the T direction. Occurs.

なお、図118において、影を付してある部分が、フレームレート1/(2t0)の合成動画データのうちの静止している部分のデータが存在する部分である。 In FIG. 118, the shaded portion is a portion where the stationary portion of the combined moving image data having the frame rate 1 / (2t 0 ) exists.

表示装置3では、図118に示したフレームレート1/(2t0)の合成動画データのうちの、図82の領域R8201内のデータだけが表示される。つまり、図82の領域R8201で表される表示能力を有する表示装置3では、図119に影を付して示す領域内のデータだけが表示され、図118に示した折り返し成分は表示されない。 In the display device 3, only the data in the area R 8201 in FIG. 82 of the combined moving image data at the frame rate 1 / (2t 0 ) shown in FIG. 118 is displayed. That is, in the display device 3 having the display capability represented by the region R 8201 in FIG. 82, only the data in the region indicated by the shadow in FIG. 119 is displayed, and the aliasing component shown in FIG. 118 is not displayed.

次に、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図99に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図100に示した周波数成分のデータである。 Next, for example, in the portion of the moving image where the subject projected on the moving image is moving at a speed of “(r 0 / t 0 ) / 2”, as described above, the frame rate 1 / (4t "low-frequency component video data" 0) is the data of the frequency components shown in FIG. 99, the frame rate 1 / (4t 0) "medium low-frequency component video data", the frequency components shown in FIG. 100 It is data of.

従って、図99に示した周波数成分の「低域成分動画データ」と、図100に示した周波数成分の「中低域成分動画データ」とを合成して得られるフレームレート1/(4t0)の合成動画データは、図120に示す周波数成分のデータとなる。 Therefore, the frame rate 1 / (4t 0 ) obtained by synthesizing the “low frequency component moving image data” of the frequency component shown in FIG. 99 and the “middle low frequency component moving image data” of the frequency component shown in FIG. The combined moving image data is frequency component data shown in FIG.

そして、図120のフレームレート1/(4t0)の合成動画データ(速度「(r0/t0)/2」程度で動いている部分のデータ)については、フィルタ部223において、図21の領域R1101を通過帯域とするフィルタによるフィルタリングと、2倍のアップサンプリングが行われる(図117のステップS247)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図121に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては2t0間隔でサンプリングされたデータとなる。 Then, with respect to the composite moving image data (the data moving at the speed “(r 0 / t 0 ) / 2”) at the frame rate 1 / (4t 0 ) in FIG. Filtering by a filter having the region R 1101 as a pass band and up-sampling twice are performed (step S247 in FIG. 117). Therefore, as shown in FIG. 121, the synthesized moving image data obtained by the filtering and upsampling is sampled at intervals of r 0 for the spatial direction x, y and sampled at intervals of 2t 0 for the time direction t. Data.

即ち、図121に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(2t0)間隔で、折り返し成分が生じる。 That is, as shown in FIG. 121, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / (2t 0 ) in the T direction. Arise.

なお、図121において、影を付してある部分が、フレームレート1/(2t0)の合成動画データのうちの速度「(r0/t0)/2」程度で動いている部分のデータが存在する部分である。 In FIG. 121, the shaded portion is the data of the portion moving at a speed of about “(r 0 / t 0 ) / 2” in the combined moving image data of the frame rate 1 / (2t 0 ). Is the part that exists.

表示装置3では、図121に示したフレームレート1/(2t0)の合成動画データのうちの、図82の領域R8201内のデータだけが表示される。つまり、図82の領域R8201で表される表示能力を有する表示装置3では、図122に影を付して示す領域内のデータだけが表示され、図121に示した折り返し成分は表示されない。 In the display device 3, only the data in the region R 8201 in FIG. 82 of the combined moving image data at the frame rate 1 / (2t 0 ) shown in FIG. 121 is displayed. That is, in the display device 3 having the display capability represented by the region R 8201 in FIG. 82, only the data in the region indicated by the shadow in FIG. 122 is displayed, and the aliasing component shown in FIG. 121 is not displayed.

次に、例えば、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図102に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図103に示した周波数成分のデータである。 Next, for example, in the portion of the moving image where the subject projected on the moving object moves at a speed of about “r 0 / t 0 ”, as described above, “1” of the frame rate 1 / (4t 0 ) The “low frequency component moving image data” is the frequency component data shown in FIG. 102, and the “middle low frequency component moving image data” at the frame rate 1 / (4t 0 ) is the frequency component data shown in FIG. .

従って、図102に示した周波数成分の「低域成分動画データ」と、図103に示した周波数成分の「中低域成分動画データ」とを合成して得られるフレームレート1/(4t0)の合成動画データは、図123に示す周波数成分のデータとなる。 Therefore, the frame rate 1 / (4t 0 ) obtained by combining the “low frequency component moving image data” of the frequency component shown in FIG. 102 and the “middle low frequency component moving image data” of the frequency component shown in FIG. The synthesized moving image data is the data of the frequency component shown in FIG.

そして、図123のフレームレート1/(4t0)の合成動画データ(速度「r0/t0」程度で動いている部分のデータ)については、フィルタ部223において、図22の領域R1201を通過帯域とするフィルタによるフィルタリングと、2倍のアップサンプリングが行われる(図117のステップS247)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図124に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては2t0間隔でサンプリングされたデータとなる。 Then, with respect to the synthetic moving image data (the data moving at the speed “r 0 / t 0 ”) at the frame rate 1 / (4t 0 ) in FIG. 123, the filter unit 223 uses the region R 1201 in FIG. Filtering using a filter as a pass band and upsampling of 2 times are performed (step S247 in FIG. 117). Therefore, as shown in FIG. 124, the synthesized moving image data obtained by the filtering and upsampling is sampled at intervals of r 0 for the spatial directions x and y, and sampled at intervals of 2t 0 for the time direction t. Data.

即ち、図124に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(2t0)間隔で、折り返し成分が生じる。 That is, as shown in FIG. 124, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / (2t 0 ) in the T direction. Arise.

なお、図124において、影を付してある部分が、フレームレート1/(2t0)の合成動画データのうちの速度「r0/t0」程度で動いている部分のデータが存在する部分である。 In FIG. 124, the shaded portion is the portion where the data of the portion moving at the speed “r 0 / t 0 ” of the combined moving image data of the frame rate 1 / (2t 0 ) exists. It is.

表示装置3では、図124に示したフレームレート1/(2t0)の合成動画データのうちの、図82の領域R8201内のデータだけが表示される。つまり、図82の領域R8201で表される表示能力を有する表示装置3では、図125に影を付して示す領域内のデータだけが表示され、図124に示した折り返し成分は表示されない。 In the display device 3, only the data in the region R 8201 in FIG. 82 of the combined moving image data at the frame rate 1 / (2t 0 ) shown in FIG. 124 is displayed. That is, in the display device 3 having the display capability represented by the region R 8201 in FIG. 82, only the data in the region indicated by the shadow in FIG. 125 is displayed, and the aliasing component shown in FIG. 124 is not displayed.

次に、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図106に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図107に示した周波数成分のデータである。 Next, for example, in the portion of the moving image where the subject projected on the moving image is moving at a speed of about “2r 0 / t 0 ”, as described above, the frame rate 1 / (4t 0 ) “ The “low frequency component moving image data” is the frequency component data shown in FIG. 106, and the “middle low frequency component moving image data” at the frame rate 1 / (4t 0 ) is the frequency component data shown in FIG. .

従って、図106に示した周波数成分の「低域成分動画データ」と、図107に示した周波数成分の「中低域成分動画データ」とを合成して得られるフレームレート1/(4t0)の合成動画データは、図126に示す周波数成分のデータとなる。 Therefore, the frame rate 1 / (4t 0 ) obtained by synthesizing the “low frequency component moving image data” of the frequency component shown in FIG. 106 and the “middle low frequency component moving image data” of the frequency component shown in FIG. The combined moving image data is frequency component data shown in FIG.

そして、図126のフレームレート1/(4t0)の合成動画データ(速度「2r0/t0」程度で動いている部分のデータ)については、フィルタ部223において、図23の領域R1301を通過帯域とするフィルタによるフィルタリングと、2倍のアップサンプリングが行われる(図117のステップS247)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図127に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては2t0間隔でサンプリングされたデータとなる。 Then, with respect to the synthetic moving image data (the data moving at the speed “2r 0 / t 0 ”) at the frame rate 1 / (4t 0 ) in FIG. 126, the filter unit 223 uses the region R 1301 in FIG. Filtering using a filter as a pass band and upsampling of 2 times are performed (step S247 in FIG. 117). Therefore, the synthesized moving image data obtained by the filtering and upsampling is sampled at intervals of r 0 in the spatial direction x, y and sampled at intervals of 2t 0 in the time direction t, as shown in FIG. Data.

即ち、図127に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(2t0)間隔で、折り返し成分が生じる。 That is, as shown in FIG. 127, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / (2t 0 ) in the T direction. Arise.

なお、図127において、影を付してある部分が、フレームレート1/(2t0)の合成動画データのうちの速度「2r0/t0」程度で動いている部分のデータが存在する部分である。 In FIG. 127, the shaded portion is the portion where the data of the portion moving at a speed of about “2r 0 / t 0 ” in the combined moving image data of the frame rate 1 / (2t 0 ) exists. It is.

表示装置3では、図127に示したフレームレート1/(2t0)の合成動画データのうちの、図82の領域R8201内のデータだけが表示される。つまり、図82の領域R8201で表される表示能力を有する表示装置3では、図128に影を付して示す領域内のデータだけが表示され、図127に示した折り返し成分は表示されない。 In the display device 3, only the data in the region R 8201 in FIG. 82 of the combined moving image data at the frame rate 1 / (2t 0 ) shown in FIG. 127 is displayed. That is, in the display device 3 having the display capability represented by the region R 8201 in FIG. 82, only the data in the region indicated by the shadow in FIG. 128 is displayed, and the aliasing component shown in FIG. 127 is not displayed.

以上のように、表示装置3が、1/(2t0)のフレームレートを有する場合には、「低域成分動画データ」と「中低域成分動画データ」とを合成して、1/(4t0)のフレームレートの合成動画データを得て、主成分方向に基づくフィルタリングを行いながら2倍のアップサンプルを行い、その結果得られる1/(2t0)のフレームレートの合成動画データを表示装置3に供給することにより、表示装置3では、その表示能力で表示することができる周波数成分のデータを、折り返し成分の影響を受けずに、適切に表示することができる。 As described above, when the display device 3 has a frame rate of 1 / (2t 0 ), the “low frequency component moving image data” and the “middle low frequency component moving image data” are combined to generate 1 / ( 4t 0 ) frame rate composite video data is obtained, up-sampling is performed twice while filtering based on the principal component direction, and the resulting 1 / (2t 0 ) frame rate composite video data is displayed. By supplying to the device 3, the display device 3 can appropriately display the data of the frequency component that can be displayed with the display capability without being influenced by the aliasing component.

なお、上述の説明から分かるように、実際にバッファ部51以降で使用される動画データは、「低域成分動画データ」と「中低域成分動画データ」と「中高域成分動画データ」と「高域成分動画データ」の4つのデータのうち、「低域成分動画データ」と「中低域成分動画データ」の2つのデータのみである。従って、図116におけるデコード部50では、送信装置1から送られてくる4つのデータのうち「中高域成分動画データ」と「高域成分動画データ」は、デコードしなくても良い。   As can be seen from the above description, the moving image data actually used after the buffer unit 51 is “low frequency component moving image data”, “middle low frequency component moving image data”, “middle and high frequency component moving image data”, and “ Of the four data of “high frequency component moving image data”, there are only two data of “low frequency component moving image data” and “middle low frequency component moving image data”. Therefore, the decoding unit 50 in FIG. 116 does not need to decode “middle / high-frequency component moving image data” and “high-frequency component moving image data” among the four data transmitted from the transmission device 1.

次に、図129は、表示装置3が、図81の領域R8101で表される表示能力を有する場合、即ち、1/(4t0/3)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の図24の受信装置2の構成例を示している。 Next, FIG. 129, the display unit 3, if having a display capability represented by region R 8101 in FIG. 81, i.e., having a frame rate of 1 / (4t 0/3) , and 1 pixel 1 25 shows a configuration example of the receiving device 2 in FIG. 24 in a case where pixels can be displayed at intervals of r 0 in the spatial direction.

なお、図129において、図33における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図129の受信装置2は、抽出部231および合成部232が新たに設けられているとともに、フィルタ部52に代えてフィルタ部233が設けられている他は、図33における場合と同様に構成されている。   In FIG. 129, portions corresponding to those in FIG. 33 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the receiving apparatus 2 in FIG. 129 is the same as in FIG. 33 except that an extracting unit 231 and a combining unit 232 are newly provided, and a filter unit 233 is provided instead of the filter unit 52. It is configured.

抽出部231は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を抽出し、合成部232に供給する。 The extraction unit 231 obtains “low frequency component video data”, “middle low frequency component video data”, and “middle high frequency component video data” from the video data of the frame rate 1 / (4t 0 ) stored in the buffer unit 51. Extracted and supplied to the synthesis unit 232.

合成部232は、抽出部231からの、フレームレート1/(4t0)の「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を合成し、フレームレート1/(4t0)の合成動画データを、フィルタ部233に供給する。 The synthesizing unit 232 synthesizes the “low frequency component moving image data”, “middle and low frequency component moving image data”, and “middle and high frequency component moving image data” of the frame rate 1 / (4t 0 ) from the extracting unit 231, The combined moving image data of the rate 1 / (4t 0 ) is supplied to the filter unit 233.

フィルタ部233は、合成部232から供給されるフレームレート1/(4t0)の合成動画データを用いて、図33のフィルタ部52における場合と同様に、フィルタ情報供給部62からのフィルタ情報に対応したフィルタリングとアップサンプリングを行う。但し、図33のフィルタ部52では、4倍のアップサンプリングが行われたが、フィルタ部233は、3倍のアップサンプリングを行う。 The filter unit 233 uses the combined moving image data of the frame rate 1 / (4t 0 ) supplied from the combining unit 232 to filter information from the filter information supply unit 62 as in the filter unit 52 of FIG. Perform corresponding filtering and upsampling. However, although the filter unit 52 in FIG. 33 performs upsampling four times, the filter unit 233 performs upsampling three times.

次に、図130および図131のフローチャートを参照して、図129の受信装置2の処理について説明する。   Next, processing of the reception device 2 in FIG. 129 will be described with reference to the flowcharts in FIGS. 130 and 131.

デコード部50には、エンコードデータが供給される。デコード部50は、そのエンコードデータを、フレームレートが1/(4t0)の低フレームレートの動画データにデコードし、バッファ部51に供給する。バッファ部51では、デコード部50から供給される1/(4t0)のフレームレートの低フレームレートの動画データが順次記憶される。 The decoding unit 50 is supplied with encoded data. The decoding unit 50 decodes the encoded data into moving image data with a frame rate of 1 / (4t 0 ) and a low frame rate, and supplies it to the buffer unit 51. The buffer unit 51 sequentially stores moving image data having a low frame rate of 1 / (4t 0 ) supplied from the decoding unit 50.

そして、ステップS251において、抽出部231は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「低域成分動画データ」を抽出し、合成部232に供給して、ステップS252に進む。ステップS252では、抽出部231は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「中低域成分動画データ」を抽出し、合成部232に供給して、ステップS253に進む。ステップS253では、抽出部231は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「中高域成分動画データ」を抽出し、合成部232に供給して、図131のステップS254に進む。 In step S251, the extracting unit 231 extracts “low-frequency component moving image data” from the moving image data having the frame rate 1 / (4t 0 ) stored in the buffer unit 51, and supplies the extracted low-frequency component moving image data to the combining unit 232. Proceed to step S252. In step S252, the extracting unit 231 extracts “middle and low frequency component moving image data” from the moving image data of the frame rate 1 / (4t 0 ) stored in the buffer unit 51, and supplies the extracted “middle and low frequency component moving image data” to the combining unit 232. The process proceeds to S253. In step S253, the extraction unit 231 extracts “middle and high frequency component moving image data” from the moving image data of the frame rate 1 / (4t 0 ) stored in the buffer unit 51, and supplies the extracted “middle and high frequency component moving image data” to the combining unit 232 as shown in FIG. The process proceeds to step S254.

ステップS254では、合成部232は、抽出部211から供給された「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を合成し、即ち、例えば、「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を加算し、その結果得られるフレームレート1/(4t0)の合成動画データを、フィルタ部233に供給する。 In step S254, the synthesizing unit 232 synthesizes the “low frequency component moving image data”, “middle and low frequency component moving image data”, and “middle and high frequency component moving image data” supplied from the extracting unit 211, that is, for example, “ The low-frequency component moving image data ”, the“ middle-low-frequency component moving image data ”, and the“ middle-high frequency component moving image data ”are added, and the resultant moving image data having the frame rate 1 / (4t 0 ) is added to the filter unit 233. Supply.

その後、ステップS255乃至S257において、フィルタ生成部53(の主成分方向取得部61およびフィルタ情報供給部62)が、図117のステップS244乃至S246それぞれにおける場合と同様の処理を行い、これにより、合成動画データの各部分(例えば、上述したような16×16画素のブロック)について、周波数ドメイン上で人間が認識することができる領域を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部233に供給する。   Thereafter, in steps S255 to S257, the filter generation unit 53 (the principal component direction acquisition unit 61 and the filter information supply unit 62) performs the same processing as in steps S244 to S246 of FIG. For each part of the video data (for example, a block of 16 × 16 pixels as described above), an area that can be recognized by humans on the frequency domain is obtained as a filter passband, and the passband is used as filter information. This is supplied to the filter unit 233.

即ち、ステップS255では、フィルタ生成部53の主成分方向取得部61は、合成動画データの各部分のデータについて、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部62に供給して、ステップS256に進む。ステップS256では、フィルタ情報供給部62は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部61からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、ステップS257に進む。ステップS257では、フィルタ情報供給部62は、ステップS256で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部233に供給し、ステップS258に進む。 That is, in step S255, the principal component direction acquisition unit 61 of the filter generation unit 53 uses the frequency axes X and Y in the spatial directions x and y and the frequency axis T in the time direction t for the data of each part of the synthesized moving image data. The principal component direction in the defined frequency domain is acquired, supplied to the filter information supply unit 62, and the process proceeds to step S256. In step S256, the filter information supply unit 62 is a region extending in the principal component direction from the principal component direction acquisition unit 61 from the origin (0, 0) in the frequency domain, and 2π / (4 × t in the T direction. 0 ), the X and Y directions are-(π / r 0 ) to + (π / r 0 ), and the T direction is-(π / t 0 ) to + (π / t 0 ). , Ie, the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. 23 are determined as the passband of the filter, and the process proceeds to step S257. In step S257, the filter information supply unit 62 supplies the filter passband obtained in step S256 (information indicating) to the filter unit 233 as filter information, and the process proceeds to step S258.

ステップS258では、フィルタ部233が、合成部232からの合成動画データに対して、ステップS257でフィルタ生成部53(のフィルタ情報供給部62)から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を3倍にするアップサンプリングを行う。   In step S258, the filter unit 233 applies the passband filter represented by the filter information supplied from the filter generation unit 53 (the filter information supply unit 62) in step S257 to the synthesized moving image data from the synthesis unit 232. However, upsampling is performed to triple the number of samples in the time direction.

即ち、例えば、いま、ステップS255で主成分方向が取得された合成動画データの部分としてのブロックを、注目ブロックとするとともに、注目ブロックのフレームを注目フレームとする。   That is, for example, a block as a portion of the composite moving image data whose principal component direction has been acquired in step S255 is set as a target block, and a frame of the target block is set as a target frame.

フィルタ部233は、合成部232からの合成動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目ブロックの各画素のデータ(画素値)を求める。 The filter unit 233 uses the passband filter represented by the filter information supplied from the filter generation unit 53, for example, the region R 1001 in FIG. 20 or the region R 1101 in FIG. The data (pixel value) of each pixel of the block of interest is obtained by filtering with a filter that uses the region R 1201 in FIG. 22 and the region R 1301 in FIG. 23 as a pass band.

また、フィルタ部233は、合成部232からの合成動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目フレームから次のフレームまでの時間4t0を、時間4t0/3に等分する2つの時刻それぞれにおける画素であって、注目ブロックの各画素を通り、注目ブロックの3次元の動きベクトルの方向に延びる直線上にある画素のデータを求める。なお、注目ブロックの3次元の動きベクトルは、例えば、主成分方向取得部61で求め、フィルタ情報供給部62を介して、フィルタ情報とともに、フィルタ部233に供給することができる。 Further, the filter unit 233 filters the synthesized moving image data from the synthesis unit 232 in the passband represented by the filter information supplied from the filter generation unit 53, for example, the region R 1001 in FIG. 20 or the region in FIG. R 1101, a region R 1201 in FIG. 22, by filtering by a filter to pass band region R 1301 in FIG. 23, a time 4t 0 from the target frame to the next, aliquoted into time 4t 0/3 Data of pixels on two straight lines that extend in the direction of the three-dimensional motion vector of the block of interest through the pixels of the block of interest at each of the two times is obtained. Note that the three-dimensional motion vector of the block of interest can be obtained by the principal component direction acquisition unit 61 and supplied to the filter unit 233 along with the filter information via the filter information supply unit 62, for example.

フィルタ部233は、フレームレートが1/(4t0)の合成動画データを対象に、以上のようなフィルタリングおよびアップサンプリングを行うことにより、フレームレートが1/(4t0/3)の合成動画データを得て、ステップS258からS259に進む。 Filter unit 233, the subject composite video data of the frame rate is 1 / (4t 0), by performing filtering and upsampling as described above, synthetic moving image data frame rate 1 / (4t 0/3) And proceeds from step S258 to S259.

ステップS259では、フィルタ部233は、ステップS258で得たフレームレート1/(4t0/3)の合成動画データを、表示装置3(図24)に出力する。 In step S259, the filter unit 233, the synthetic moving image data obtained frame rate 1 / (4t 0/3) in step S258, and outputs to the display device 3 (FIG. 24).

この場合、図81の領域R8101で表される表示能力を有する表示装置3には、フレームレート1/(4t0/3)の合成動画データが供給されて表示される。 In this case, the display device 3 having a display capability represented by region R 8101 in FIG. 81, synthetic moving image data of a frame rate of 1 / (4t 0/3) is displayed is supplied.

即ち、いまの場合、合成動画データは、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」を合成したデータである。   In other words, in this case, the combined moving image data is data obtained by combining “low frequency component moving image data”, “middle low frequency component moving image data”, and “middle and high frequency component moving image data”.

そして、例えば、動画の中で静止している被写体が投影されている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図98に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」および「中高域成分動画データ」は存在しない。 For example, as for the portion of the moving image where the stationary subject is projected, as described above, the “low frequency component moving image data” of the frame rate 1 / (4t 0 ) is shown in FIG. This is frequency component data, and there is no “middle low frequency component moving image data” and “middle high frequency component moving image data” with a frame rate of 1 / (4t 0 ).

従って、図98に示した周波数成分の「低域成分動画データ」と、存在しない「中低域成分動画データ」および「中高域成分動画データ」とを合成して得られるフレームレート1/(4t0)の合成動画データは、図98に示した周波数成分のデータとなる。 Accordingly, the frame rate 1 / (4t obtained by synthesizing the “low frequency component moving image data” of the frequency component shown in FIG. 98 with the “middle low frequency component moving image data” and “middle high frequency component moving image data” that do not exist. 0 ) is the frequency component data shown in FIG.

そして、図98のフレームレート1/(4t0)の合成動画データ(動画の中の静止している部分のデータ)については、フィルタ部233において、図20の領域R1001を通過帯域とするフィルタによるフィルタリングと、3倍のアップサンプリングが行われる(図131のステップS258)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図20の領域R1001内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4t0/3間隔でサンプリングされたデータとなる。 Then, with respect to the composite moving image data (data of the stationary portion in the moving image) having the frame rate 1 / (4t 0 ) in FIG. 98, the filter unit 233 uses the filter with the region R 1001 in FIG. And the upsampling of 3 times is performed (step S258 in FIG. 131). Therefore, the synthesized moving image data obtained by the filtering and upsampling has frequency components in the region R 1001 in FIG. 20, and is further sampled at intervals of r 0 with respect to the spatial directions x and y, and the time direction t the sampled data 4t 0/3 interval for.

このため、図132に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0/3)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 132, on the frequency domain, X, the Y-direction, at 2 [pi / r 0 interval, cause aliasing components, in the T direction at 2π / (4t 0/3) interval, A folding component is generated.

なお、図132において、影を付してある部分が、フレームレート1/(4t0/3)の合成動画データのうちの静止している部分のデータが存在する部分である。 Note that in FIG. 132, the portion that is shaded is a portion in which the data exists in the still to have part of the composite moving data frame rate 1 / (4t 0/3) .

表示装置3では、図132に示したフレームレート1/(4t0/3)の合成動画データのうちの、図81の領域R8101内のデータだけが表示される。つまり、図81の領域R8101で表される表示能力を有する表示装置3では、図133に影を付して示す領域内のデータだけが表示され、図132に示した折り返し成分は表示されない。 In the display device 3, of the synthetic moving image data of the frame rate 1 / shown in FIG. 132 (4t 0/3), only the data in the region R 8101 in FIG. 81 is displayed. That is, in the display device 3 having the display capability represented by the region R 8101 in FIG. 81, only the data in the region indicated by the shadow in FIG. 133 is displayed, and the aliasing component shown in FIG. 132 is not displayed.

次に、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図99に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図100に示した周波数成分のデータである。さらに、フレームレート1/(4t0)の「中高域成分動画データ」は、図101に示した周波数成分のデータである。 Next, for example, in the portion of the moving image where the subject projected on the moving image is moving at a speed of “(r 0 / t 0 ) / 2”, as described above, the frame rate 1 / (4t "low-frequency component video data" 0) is the data of the frequency components shown in FIG. 99, the frame rate 1 / (4t 0) "medium low-frequency component video data", the frequency components shown in FIG. 100 It is data of. Further, the “middle and high frequency component moving image data” at the frame rate 1 / (4t 0 ) is the data of the frequency component shown in FIG.

従って、図99に示した周波数成分の「低域成分動画データ」、図100に示した周波数成分の「中低域成分動画データ」、および図101に示した周波数成分の「中高域成分動画データ」を合成して得られるフレームレート1/(4t0)の合成動画データは、図134に示す周波数成分のデータとなる。 Therefore, the “low frequency component moving image data” of the frequency component shown in FIG. 99, the “middle low frequency component moving image data” of the frequency component shown in FIG. 100, and the “middle high frequency component moving image data of the frequency component shown in FIG. The synthesized moving image data of the frame rate 1 / (4t 0 ) obtained by synthesizing “” is the frequency component data shown in FIG.

そして、図134のフレームレート1/(4t0)の合成動画データ(速度「(r0/t0)/2」程度で動いている部分のデータ)については、フィルタ部233において、図21の領域R1101を通過帯域とするフィルタによるフィルタリングと、3倍のアップサンプリングが行われる(図131のステップS258)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図135に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4t0/3間隔でサンプリングされたデータとなる。 Then, with respect to the composite moving image data (the data moving at the speed “(r 0 / t 0 ) / 2”) at the frame rate 1 / (4t 0 ) in FIG. Filtering by a filter having the region R 1101 as a pass band and upsampling three times are performed (step S258 in FIG. 131). Accordingly, the synthetic moving image data obtained by the filtering and upsampling as shown in Figure 135, the spatial direction x, with respect to the y is sampled at r 0 intervals, 4t 0/3 intervals for the time direction t The data sampled at.

即ち、図135に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0/3)間隔で、折り返し成分が生じる。 That is, as shown in FIG. 135, on the frequency domain, X, the Y-direction, at 2 [pi / r 0 interval, cause aliasing components, in the T direction at 2π / (4t 0/3) interval, folded Ingredients are produced.

なお、図135において、影を付してある部分が、フレームレート1/(4t0/3)の合成動画データのうちの速度「(r0/t0)/2」程度で動いている部分のデータが存在する部分である。 The portion in FIG. 135, the portion that is shaded is in motion at a speed "(r 0 / t 0) / 2 " degree of synthesized moving data frame rate 1 / (4t 0/3) This is the part where data exists.

表示装置3では、図135に示したフレームレート1/(4t0/3)の合成動画データのうちの、図81の領域R8101内のデータだけが表示される。つまり、図81の領域R8101で表される表示能力を有する表示装置3では、図136に影を付して示す領域内のデータだけが表示され、図135に示した折り返し成分は表示されない。 In the display device 3, of the synthetic moving image data of the frame rate 1 / shown (4t 0/3) in FIG. 135, only the data in the region R 8101 in FIG. 81 is displayed. That is, in the display device 3 having the display capability represented by the region R 8101 in FIG. 81, only the data in the region indicated by the shadow in FIG. 136 is displayed, and the aliasing component shown in FIG. 135 is not displayed.

次に、例えば、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図102に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図103に示した周波数成分のデータである。さらに、フレームレート1/(4t0)の「中高域成分動画データ」は、図104に示した周波数成分のデータである。 Next, for example, in the portion of the moving image where the subject projected on the moving object moves at a speed of about “r 0 / t 0 ”, as described above, “1” of the frame rate 1 / (4t 0 ) The “low frequency component moving image data” is the frequency component data shown in FIG. 102, and the “middle low frequency component moving image data” at the frame rate 1 / (4t 0 ) is the frequency component data shown in FIG. . Further, the “middle and high frequency component moving image data” at the frame rate 1 / (4t 0 ) is the data of the frequency component shown in FIG.

従って、図102に示した周波数成分の「低域成分動画データ」、図103に示した周波数成分の「中低域成分動画データ」、および図104に示した周波数成分の「中高域成分動画データ」を合成して得られるフレームレート1/(4t0)の合成動画データは、図137に示す周波数成分のデータとなる。 Therefore, the “low frequency component moving image data” of the frequency component shown in FIG. 102, the “middle low frequency component moving image data” of the frequency component shown in FIG. 103, and the “middle high frequency component moving image data of the frequency component shown in FIG. synthesis moving image data "frame rate 1 / obtained by combining (4t 0) becomes the data of the frequency components shown in Figure 137.

そして、図137のフレームレート1/(4t0)の合成動画データ(速度「r0/t0」程度で動いている部分のデータ)については、フィルタ部233において、図22の領域R1201を通過帯域とするフィルタによるフィルタリングと、3倍のアップサンプリングが行われる(図131のステップS258)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図138に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4t0/3間隔でサンプリングされたデータとなる。 Then, with respect to the synthetic moving image data (the data moving at the speed “r 0 / t 0 ”) at the frame rate 1 / (4t 0 ) in FIG. 137, the filter unit 233 uses the region R 1201 in FIG. Filtering by a filter as a pass band and upsampling three times are performed (step S258 in FIG. 131). Accordingly, the synthetic moving image data obtained by the filtering and upsampling as shown in Figure 138, the spatial direction x, with respect to the y is sampled at r 0 intervals, 4t 0/3 intervals for the time direction t The data sampled at.

即ち、図138に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0/3)間隔で、折り返し成分が生じる。 That is, as shown in FIG. 138, on the frequency domain, X, the Y-direction, at 2 [pi / r 0 interval, cause aliasing components, in the T direction at 2π / (4t 0/3) interval, folded Ingredients are produced.

なお、図138において、影を付してある部分が、フレームレート1/(4t0/3)の合成動画データのうちの速度「r0/t0」程度で動いている部分のデータが存在する部分である。 Note that in FIG. 138, the portion that is shaded is the presence data of the moving parts at a degree rate "r 0 / t 0" of the synthetic moving image data of a frame rate of 1 / (4t 0/3) is It is a part to do.

表示装置3では、図138に示したフレームレート1/(4t0/3)の合成動画データのうちの、図81の領域R8101内のデータだけが表示される。つまり、図81の領域R8101で表される表示能力を有する表示装置3では、図139に影を付して示す領域内のデータだけが表示され、図138に示した折り返し成分は表示されない。 In the display device 3, of the synthetic moving image data of the frame rate 1 / shown in FIG. 138 (4t 0/3), only the data in the region R 8101 in FIG. 81 is displayed. That is, in the display device 3 having the display capability represented by the region R 8101 in FIG. 81, only the data in the region indicated by the shadow in FIG. 139 is displayed, and the aliasing component shown in FIG. 138 is not displayed.

次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図106に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図107に示した周波数成分のデータである。さらに、フレームレート1/(4t0)の「中高域成分動画データ」は、図108に示した周波数成分のデータである。 Next, as described above, the portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ” is set to “low range” of the frame rate 1 / (4t 0 ). The “component moving image data” is the frequency component data shown in FIG. 106, and the “middle low frequency component moving image data” at the frame rate 1 / (4t 0 ) is the frequency component data shown in FIG. Further, the “middle and high frequency component moving image data” at the frame rate 1 / (4t 0 ) is the data of the frequency component shown in FIG.

従って、図106に示した周波数成分の「低域成分動画データ」、図107に示した周波数成分の「中低域成分動画データ」、および図108に示した周波数成分の「中高域成分動画データ」を合成して得られるフレームレート1/(4t0)の合成動画データは、図140に示す周波数成分のデータとなる。 Therefore, the “low frequency component moving image data” of the frequency component shown in FIG. 106, the “middle low frequency component moving image data” of the frequency component shown in FIG. 107, and the “middle high frequency component moving image data of the frequency component shown in FIG. The combined moving image data of the frame rate 1 / (4t 0 ) obtained by combining “” is the frequency component data shown in FIG.

そして、図140のフレームレート1/(4t0)の合成動画データ(速度「2r0/t0」程度で動いている部分のデータ)については、フィルタ部233において、図23の領域R1301を通過帯域とするフィルタによるフィルタリングと、3倍のアップサンプリングが行われる(図131のステップS258)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図141に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4t0/3間隔でサンプリングされたデータとなる。 Then, with respect to the synthetic moving image data (the data moving at the speed “2r 0 / t 0 ”) at the frame rate 1 / (4t 0 ) in FIG. 140, the filter unit 233 uses the region R 1301 in FIG. Filtering by a filter as a pass band and upsampling three times are performed (step S258 in FIG. 131). Accordingly, the synthetic moving image data obtained by the filtering and upsampling as shown in Figure 141, the spatial direction x, with respect to the y is sampled at r 0 intervals, 4t 0/3 intervals for the time direction t The data sampled at.

このため、図141に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0/3)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 141, on the frequency domain, X, the Y-direction, at 2 [pi / r 0 interval, cause aliasing components, in the T direction at 2π / (4t 0/3) interval, A folding component is generated.

即ち、図141において、影を付してある部分が、フレームレート1/(4t0/3)の合成動画データのうちの速度「r0/t0」程度で動いている部分のデータが存在する部分である。 That is, in FIG. 141, the portion that is shaded is the presence data of the moving parts at a degree rate "r 0 / t 0" of the synthetic moving image data of a frame rate of 1 / (4t 0/3) is It is a part to do.

表示装置3では、図141に示したフレームレート1/(4t0/3)の合成動画データのうちの、図81の領域R8101内のデータだけが表示される。つまり、図81の領域R8101で表される表示能力を有する表示装置3では、図142に影を付して示す領域内のデータだけが表示され、図141に示した折り返し成分は表示されない。 In the display device 3, of the synthetic moving image data of the frame rate 1 / shown in FIG. 141 (4t 0/3), only the data in the region R 8101 in FIG. 81 is displayed. That is, in the display device 3 having the display capability represented by the region R 8101 in FIG. 81, only the data in the region indicated by the shadow in FIG. 142 is displayed, and the aliasing component shown in FIG. 141 is not displayed.

以上のように、表示装置3が、1/(4t0/3)のフレームレートを有する場合には、「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を合成して、1/(4t0)のフレームレートの合成動画データを得て、主成分方向に基づくフィルタリングを行いながら3倍のアップサンプルを行い、その結果得られる1/(4t0/3)のフレームレートの合成動画データを表示装置3に供給することにより、表示装置3では、その表示能力で表示することができる周波数成分のデータを、折り返し成分の影響を受けずに、適切に表示することができる。 As described above, the display device 3, 1 / if having a frame rate of (4t 0/3), the "low-frequency component video data", "medium low-frequency component video data" and "high range component video Data ”to obtain composite video data with a frame rate of 1 / (4t 0 ), upsampling three times while performing filtering based on the principal component direction, and the resulting 1 / (4t 0 / 3) frame rate composite video data is supplied to the display device 3 so that the display device 3 can appropriately display the frequency component data that can be displayed with the display capability without being affected by the aliasing component. Can be displayed.

なお、上述の説明から分かるように、実際にバッファ部51以降で使用される動画データは、「低域成分動画データ」と「中低域成分動画データ」と「中高域成分動画データ」と「高域成分動画データ」の4つのデータのうち、「低域成分動画データ」と「中低域成分動画データ」と「中高域成分動画データ」の3つのデータのみである。従って、図129におけるデコード部50では、送信装置1から送られてくる4つのデータのうち「高域成分動画データ」は、デコードしなくても良い。   As can be seen from the above description, the moving image data actually used after the buffer unit 51 is “low frequency component moving image data”, “middle low frequency component moving image data”, “middle and high frequency component moving image data”, and “ Of the four data of “high frequency component moving image data”, there are only three data of “low frequency component moving image data”, “middle and low frequency component moving image data”, and “middle and high frequency component moving image data”. Therefore, the decoding unit 50 in FIG. 129 does not need to decode “high frequency component moving image data” among the four data transmitted from the transmission device 1.

次に、図143は、表示装置3が、図80の領域R8001で表される表示能力を有する場合、即ち、1/t0のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の図24の受信装置2の構成例を示している。 Next, FIG. 143 shows a case where the display device 3 has the display capability represented by the region R 8001 in FIG. 80, that is, has a frame rate of 1 / t 0 and one pixel per pixel in the spatial direction. FIG. 24 shows a configuration example of the receiving apparatus 2 in FIG. 24 when it can be displayed at intervals of r 0 .

なお、図143において、図33における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図143の受信装置2は、抽出部241および合成部242が新たに設けられている他は、図33における場合と同様に構成されている。   In FIG. 143, portions corresponding to those in FIG. 33 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the receiving apparatus 2 in FIG. 143 is configured in the same manner as in FIG. 33 except that an extracting unit 241 and a combining unit 242 are newly provided.

抽出部241は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、すべての周波数成分のデータ、即ち、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、およ「高域成分動画データ」を抽出し、合成部242に供給する。 The extraction unit 241 extracts data of all frequency components from the moving image data of the frame rate 1 / (4t 0 ) stored in the buffer unit 51, that is, “low frequency component moving image data” and “middle low frequency component moving image data”. , “Middle and high frequency component moving image data” and “high frequency component moving image data” are extracted and supplied to the synthesis unit 242.

合成部242は、抽出部241からの、フレームレート1/(4t0)の「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」を合成し、フレームレート1/(4t0)の合成動画データを、フィルタ部52に供給する。 The synthesizing unit 242 outputs the “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component” of the frame rate 1 / (4t 0 ) from the extracting unit 241. The moving image data ”is combined, and the combined moving image data having the frame rate 1 / (4t 0 ) is supplied to the filter unit 52.

次に、図144および図145のフローチャートを参照して、図143の受信装置2の処理について説明する。   Next, processing of the receiving apparatus 2 in FIG. 143 will be described with reference to the flowcharts in FIGS. 144 and 145.

デコード部50には、エンコードデータが供給される。デコード部50は、そのエンコードデータを、フレームレートが1/(4t0)の低フレームレートの動画データにデコードし、バッファ部51に供給する。バッファ部51では、デコード部50から供給される1/(4t0)のフレームレートの低フレームレートの動画データが順次記憶される。 The decoding unit 50 is supplied with encoded data. The decoding unit 50 decodes the encoded data into moving image data with a frame rate of 1 / (4t 0 ) and a low frame rate, and supplies it to the buffer unit 51. The buffer unit 51 sequentially stores moving image data having a low frame rate of 1 / (4t 0 ) supplied from the decoding unit 50.

そして、ステップS261において、抽出部241は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「低域成分動画データ」を抽出し、合成部242に供給して、ステップS262に進む。ステップS262では、抽出部241は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「中低域成分動画データ」を抽出し、合成部242に供給して、ステップS263に進む。ステップS263では、抽出部241は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「中高域成分動画データ」を抽出し、合成部242に供給して、ステップS264に進む。ステップS264では、抽出部241は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「高域成分動画データ」を抽出し、合成部242に供給して、図145のステップS265に進む。 In step S261, the extracting unit 241 extracts “low-frequency component moving image data” from the moving image data with the frame rate 1 / (4t 0 ) stored in the buffer unit 51, and supplies the extracted low-frequency component moving image data to the combining unit 242. Proceed to step S262. In step S262, the extracting unit 241 extracts “middle and low frequency component moving image data” from the moving image data of the frame rate 1 / (4t 0 ) stored in the buffer unit 51, and supplies the extracted “middle low frequency component moving image data” to the combining unit 242. The process proceeds to S263. In step S263, the extraction unit 241 extracts “middle and high frequency component moving image data” from the moving image data of the frame rate 1 / (4t 0 ) stored in the buffer unit 51, and supplies the extracted “middle and high frequency component moving image data” to the combining unit 242. Proceed to In step S264, the extraction unit 241 extracts “high frequency component moving image data” from the moving image data of the frame rate 1 / (4t 0 ) stored in the buffer unit 51, and supplies the high frequency component moving image data to the combining unit 242. The process proceeds to step S265.

ステップS265では、合成部242は、抽出部211から供給された「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」を合成し、即ち、例えば、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」を加算し、その結果得られるフレームレート1/(4t0)の合成動画データを、フィルタ部52に供給する。 In step S265, the synthesizing unit 242 receives the “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” supplied from the extracting unit 211. Combining, that is, for example, adding “low frequency component video data”, “middle low frequency component video data”, “middle and high frequency component video data”, and “high frequency component video data”, and the resulting frame rate The 1 / (4t 0 ) composite video data is supplied to the filter unit 52.

その後、ステップS266乃至S268において、フィルタ生成部53(の主成分方向取得部61およびフィルタ情報供給部62)が、図117のステップS244乃至S246それぞれにおける場合と同様の処理を行い、これにより、合成動画データの各部分(例えば、上述したような16×16画素のブロック)について、周波数ドメイン上で人間が認識することができる領域を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部52に供給する。   Thereafter, in steps S266 to S268, the filter generation unit 53 (the principal component direction acquisition unit 61 and the filter information supply unit 62) performs the same processing as in steps S244 to S246 in FIG. For each part of the video data (for example, a block of 16 × 16 pixels as described above), an area that can be recognized by humans on the frequency domain is obtained as a filter passband, and the passband is used as filter information. This is supplied to the filter unit 52.

即ち、ステップS266では、フィルタ生成部53の主成分方向取得部61は、合成動画データの各部分のデータについて、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部62に供給して、ステップS267に進む。ステップS267では、フィルタ情報供給部62は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部61からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、ステップS268に進む。ステップS268では、フィルタ情報供給部62は、ステップS267で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部52に供給し、ステップS269に進む。 That is, in step S266, the principal component direction acquisition unit 61 of the filter generation unit 53 uses the frequency axes X and Y in the spatial directions x and y and the frequency axis T in the time direction t for the data of each part of the synthesized moving image data. The principal component direction in the defined frequency domain is acquired and supplied to the filter information supply unit 62, and the process proceeds to step S267. In step S267, the filter information supply unit 62 is a region extending in the principal component direction from the principal component direction acquisition unit 61 from the origin (0, 0) in the frequency domain, and 2π / (4 × t in the T direction. 0 ), the X and Y directions are-(π / r 0 ) to + (π / r 0 ), and the T direction is-(π / t 0 ) to + (π / t 0 ). , That is, for example, the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. move on. In step S268, the filter information supply unit 62 supplies the filter passband (information indicating) obtained in step S267 to the filter unit 52 as filter information, and the process proceeds to step S269.

ステップS269では、フィルタ部52が、合成部242からの合成動画データに対して、図34のステップS35における場合と同様の処理、即ち、ステップS268でフィルタ生成部53(のフィルタ情報供給部62)から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を4倍にするアップサンプリングを行う。   In step S269, the filter unit 52 performs the same processing as in step S35 of FIG. 34 on the synthesized moving image data from the synthesis unit 242, that is, the filter generation unit 53 (the filter information supply unit 62) in step S268. Upsampling is performed to increase the number of samples in the time direction by four times while applying a filter in the passband represented by the filter information supplied from.

即ち、例えば、いま、ステップS266で主成分方向が取得された合成動画データの部分としてのブロックを、注目ブロックとするとともに、注目ブロックのフレームを注目フレームとする。   That is, for example, a block as a portion of the composite moving image data whose principal component direction has been acquired in step S266 is a target block, and a frame of the target block is a target frame.

フィルタ部52は、合成部242からの合成動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目ブロックの各画素のデータ(画素値)を求める。 The filter unit 52 uses the passband filter represented by the filter information supplied from the filter generation unit 53, for example, the region R 1001 in FIG. 20 or the region R 1101 in FIG. The data (pixel value) of each pixel of the block of interest is obtained by filtering with a filter that uses the region R 1201 in FIG. 22 and the region R 1301 in FIG. 23 as a pass band.

また、フィルタ部52は、合成部242からの合成動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目フレームから次のフレームまでの時間4t0を、時間t0に等分する3つの時刻それぞれにおける画素であって、注目ブロックの各画素を通り、注目ブロックの3次元の動きベクトルの方向に延びる直線上にある画素のデータを求める。なお、注目ブロックの3次元の動きベクトルは、例えば、主成分方向取得部61で求め、フィルタ情報供給部62を介して、フィルタ情報とともに、フィルタ部52に供給することができる。 Further, the filter unit 52 filters the synthesized moving image data from the synthesis unit 242 with a passband filter represented by the filter information supplied from the filter generation unit 53, for example, the region R 1001 in FIG. 20 or the region in FIG. By filtering with R 1101 , a region R 1201 in FIG. 22 and a filter having a region R 1301 in FIG. 23 as a pass band, the time 4 t 0 from the frame of interest to the next frame is divided into three equal to the time t 0 . Data of pixels on the straight line extending in the direction of the three-dimensional motion vector of the block of interest through each pixel of the block of interest is obtained at each time. Note that the three-dimensional motion vector of the block of interest can be obtained by, for example, the principal component direction acquisition unit 61 and supplied to the filter unit 52 together with the filter information via the filter information supply unit 62.

フィルタ部52は、フレームレートが1/(4t0)の合成動画データを対象に、以上のようなフィルタリングおよびアップサンプリングを行うことにより、フレームレートが1/t0の合成動画データを得て、ステップS269からS270に進む。 The filter unit 52 performs the above filtering and upsampling on the composite video data with the frame rate of 1 / (4t 0 ), thereby obtaining the composite video data with the frame rate of 1 / t 0 , The process proceeds from step S269 to S270.

ステップS270では、フィルタ部52は、ステップS269で得たフレームレート1/t0の合成動画データを、表示装置3(図24)に出力する。 In step S270, the filter unit 52 outputs the combined moving image data of the frame rate 1 / t 0 obtained in step S269 to the display device 3 (FIG. 24).

この場合、図80の領域R8001で表される表示能力を有する表示装置3には、フレームレート1/t0の合成動画データが供給されて表示される。 In this case, the composite moving image data having the frame rate 1 / t 0 is supplied and displayed on the display device 3 having the display capability represented by the region R 8001 in FIG.

即ち、いまの場合、合成動画データは、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」のすべてを合成したデータである。   In other words, in this case, the composite video data is data obtained by combining all of the “low frequency component video data”, “middle low frequency component video data”, “mid / high frequency component video data”, and “high frequency component video data”. is there.

そして、例えば、動画の中で静止している被写体が投影されている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図98に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」は存在しない。 For example, as for the portion of the moving image where the stationary subject is projected, as described above, the “low frequency component moving image data” of the frame rate 1 / (4t 0 ) is shown in FIG. This is frequency component data, and there is no “middle low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” with a frame rate of 1 / (4t 0 ).

従って、図98に示した周波数成分の「低域成分動画データ」と、存在しない「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」とを合成して得られるフレームレート1/(4t0)の合成動画データは、図98に示した周波数成分のデータとなる。 Therefore, the “low frequency component moving image data” of the frequency component shown in FIG. 98 is synthesized with the “middle low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” that do not exist. The synthesized moving image data of the frame rate 1 / (4t 0 ) obtained as described above is the frequency component data shown in FIG.

そして、図98のフレームレート1/(4t0)の合成動画データ(動画の中の静止している部分のデータ)については、フィルタ部52において、図10の領域R1001を通過帯域とするフィルタによるフィルタリングと、4倍のアップサンプリングが行われる(図145のステップS269)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図20の領域R1001内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。 Then, for the composite moving image data (data of a stationary portion in the moving image) with the frame rate 1 / (4t 0 ) in FIG. 98, the filter unit 52 uses the region R 1001 in FIG. And the upsampling of 4 times is performed (step S269 in FIG. 145). Therefore, the synthesized moving image data obtained by the filtering and upsampling has frequency components in the region R 1001 in FIG. 20, and is further sampled at intervals of r 0 with respect to the spatial directions x and y, and the time direction t the sampled data at t 0 interval for.

このため、図146に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 146, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction. .

なお、図146において、影を付してある部分が、フレームレート1/t0の合成動画データのうちの静止している部分のデータが存在する部分である。 In FIG. 146, the shaded portion is the portion where the stationary portion of the combined moving image data with the frame rate 1 / t 0 exists.

表示装置3では、図146に示したフレームレート1/t0の合成動画データのうちの、図80の領域R8001内のデータだけが表示される。つまり、図80の領域R8001で表される表示能力を有する表示装置3では、図147に影を付して示す領域内のデータだけが表示され、図146に示した折り返し成分は表示されない。 In the display device 3, only the data in the area R 8001 in FIG. 80 of the combined moving image data with the frame rate 1 / t 0 shown in FIG. 146 is displayed. That is, in the display device 3 having the display capability represented by the region R 8001 in FIG. 80, only the data in the region indicated by the shadow in FIG. 147 is displayed, and the aliasing component shown in FIG. 146 is not displayed.

次に、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図99に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図100に示した周波数成分のデータである。さらに、フレームレート1/(4t0)の「中高域成分動画データ」は、図101に示した周波数成分のデータであり、フレームレート1/(4t0)の「高域成分動画データ」は存在しない。 Next, for example, in the portion of the moving image where the subject projected on the moving image is moving at a speed of “(r 0 / t 0 ) / 2”, as described above, the frame rate 1 / (4t "low-frequency component video data" 0) is the data of the frequency components shown in FIG. 99, the frame rate 1 / (4t 0) "medium low-frequency component video data", the frequency components shown in FIG. 100 It is data of. Further, the frame rate 1 / a (4t 0) "intermediate and high frequency components moving image data" is data of the frequency components shown in FIG. 101, "high-frequency component video data" frame rate 1 / (4t 0) is present do not do.

従って、図99に示した周波数成分の「低域成分動画データ」、図100に示した周波数成分の「中低域成分動画データ」、および図101に示した周波数成分の「中高域成分動画データ」と、存在しない「高域成分動画データ」とを合成して得られるフレームレート1/(4t0)の合成動画データは、図148に示す周波数成分のデータとなる。 Therefore, the “low frequency component moving image data” of the frequency component shown in FIG. 99, the “middle low frequency component moving image data” of the frequency component shown in FIG. 100, and the “middle high frequency component moving image data of the frequency component shown in FIG. ”And the non-existing“ high frequency component moving image data ”, the combined moving image data of the frame rate 1 / (4t 0 ) is the data of the frequency component shown in FIG.

そして、図148のフレームレート1/(4t0)の合成動画データ(速度「(r0/t0)/2」程度で動いている部分のデータ)については、フィルタ部52において、図21の領域R1101を通過帯域とするフィルタによるフィルタリングと、4倍のアップサンプリングが行われる(図145のステップS269)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図149に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。 Then, the combined moving image data (data of the portion moving at the speed “(r 0 / t 0 ) / 2)” at the frame rate 1 / (4t 0 ) in FIG. Filtering using a filter having the region R 1101 as a pass band and upsampling four times are performed (step S269 in FIG. 145). Therefore, as shown in FIG. 149, the synthesized moving image data obtained by the filtering and upsampling is sampled at intervals of r 0 in the spatial direction x, y and sampled at intervals of t 0 in the time direction t. Data.

即ち、図149に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。 That is, as shown in FIG. 149, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction.

なお、図149において、影を付してある部分が、フレームレート1/t0の合成動画データのうちの速度「(r0/t0)/2」程度で動いている部分のデータが存在する部分である。 In FIG. 149, the shaded part is the data of the part moving at a speed of about “(r 0 / t 0 ) / 2” in the composite video data with the frame rate 1 / t 0. It is a part to do.

表示装置3では、図149に示したフレームレート1/t0の合成動画データのうちの、図80の領域R8001内のデータだけが表示される。つまり、図80の領域R8001で表される表示能力を有する表示装置3では、図150に影を付して示す領域内のデータだけが表示され、図149に示した折り返し成分は表示されない。 In the display device 3, only the data in the region R 8001 in FIG. 80 of the combined moving image data with the frame rate 1 / t 0 shown in FIG. 149 is displayed. That is, in the display device 3 having the display capability represented by the region R 8001 in FIG. 80, only the data in the region indicated by the shadow in FIG. 150 is displayed, and the aliasing component shown in FIG. 149 is not displayed.

次に、例えば、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図102に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図103に示した周波数成分のデータである。さらに、フレームレート1/(4t0)の「中高域成分動画データ」は、図104に示した周波数成分のデータであり、フレームレート1/(4t0)の「高域成分動画データ」は、図105に示した周波数成分のデータである。 Next, for example, in the portion of the moving image where the subject projected on the moving object moves at a speed of about “r 0 / t 0 ”, as described above, “1” of the frame rate 1 / (4t 0 ) The “low frequency component moving image data” is the frequency component data shown in FIG. 102, and the “middle low frequency component moving image data” at the frame rate 1 / (4t 0 ) is the frequency component data shown in FIG. . Further, the frame rate 1 / a (4t 0) "intermediate and high frequency components moving image data" is data of the frequency components shown in FIG. 104, the frame rate 1 / a (4t 0) "high-frequency component video data" It is the data of the frequency component shown in FIG.

従って、図102に示した周波数成分の「低域成分動画データ」、図103に示した周波数成分の「中低域成分動画データ」、図104に示した周波数成分の「中高域成分動画データ」、および図105に示した周波数成分の「高域成分動画データ」を合成して得られるフレームレート1/(4t0)の合成動画データは、図151に示す周波数成分のデータとなる。 Accordingly, the “low frequency component moving image data” of the frequency component shown in FIG. 102, the “middle low frequency component moving image data” of the frequency component shown in FIG. 103, and the “middle high frequency component moving image data” of the frequency component shown in FIG. The synthesized moving image data of the frame rate 1 / (4t 0 ) obtained by synthesizing the “high frequency component moving image data” of the frequency component shown in FIG. 105 becomes the data of the frequency component shown in FIG.

そして、図151のフレームレート1/(4t0)の合成動画データ(速度「r0/t0」程度で動いている部分のデータ)については、フィルタ部52において、図22の領域R1201を通過帯域とするフィルタによるフィルタリングと、4倍のアップサンプリングが行われる(図145のステップS269)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図152に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。 Then, with respect to the composite moving image data (the data moving at the speed “r 0 / t 0 ”) at the frame rate 1 / (4t 0 ) in FIG. 151, the filter unit 52 uses the region R 1201 in FIG. Filtering by a filter to be a pass band and upsampling four times are performed (step S269 in FIG. 145). Therefore, as shown in FIG. 152, the synthesized moving image data obtained by the filtering and upsampling is sampled at intervals of r 0 for the spatial directions x and y, and sampled at intervals of t 0 for the time direction t. Data.

即ち、図152に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。 That is, as shown in FIG. 152, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction.

なお、図152において、影を付してある部分が、フレームレート1/t0の合成動画データのうちの速度「r0/t0」程度で動いている部分のデータが存在する部分である。 In FIG. 152, the shaded portion is a portion where there is data of a portion moving at a speed of about “r 0 / t 0 ” in the combined moving image data of the frame rate 1 / t 0. .

表示装置3では、図152に示したフレームレート1/t0の合成動画データのうちの、図80の領域R8001内のデータだけが表示される。つまり、図80の領域R8001で表される表示能力を有する表示装置3では、図153に影を付して示す領域内のデータだけが表示され、図152に示した折り返し成分は表示されない。 In the display device 3, only the data in the area R 8001 in FIG. 80 of the combined moving image data with the frame rate 1 / t 0 shown in FIG. 152 is displayed. That is, in the display device 3 having the display capability represented by the region R 8001 in FIG. 80, only the data in the region indicated by the shadow in FIG. 153 is displayed, and the aliasing component shown in FIG. 152 is not displayed.

次に、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図106に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図107に示した周波数成分のデータである。さらに、フレームレート1/(4t0)の「中高域成分動画データ」は、図108に示した周波数成分のデータであり、フレームレート1/(4t0)の「高域成分動画データ」は、図109に示した周波数成分のデータである。 Next, for example, in the portion of the moving image where the subject projected on the moving image is moving at a speed of about “2r 0 / t 0 ”, as described above, the frame rate 1 / (4t 0 ) “ The “low frequency component moving image data” is the frequency component data shown in FIG. 106, and the “middle low frequency component moving image data” at the frame rate 1 / (4t 0 ) is the frequency component data shown in FIG. . Further, the frame rate 1 / a (4t 0) "intermediate and high frequency components moving image data" is data of the frequency components shown in FIG. 108, the frame rate 1 / a (4t 0) "high-frequency component video data" It is the data of the frequency component shown in FIG.

従って、図106に示した周波数成分の「低域成分動画データ」、図107に示した周波数成分の「中低域成分動画データ」、図108に示した周波数成分の「中高域成分動画データ」、および図109に示した周波数成分の「高域成分動画データ」を合成して得られるフレームレート1/(4t0)の合成動画データは、図154に示す周波数成分のデータとなる。 Therefore, the “low frequency component moving image data” of the frequency component shown in FIG. 106, the “middle low frequency component moving image data” of the frequency component shown in FIG. 107, and the “middle high frequency component moving image data” of the frequency component shown in FIG. , And the combined moving image data of the frame rate 1 / (4t 0 ) obtained by combining the “high frequency component moving image data” of the frequency component shown in FIG. 109 is the data of the frequency component shown in FIG.

そして、図154のフレームレート1/(4t0)の合成動画データ(速度「2r0/t0」程度で動いている部分のデータ)については、フィルタ部52において、図23の領域R1301を通過帯域とするフィルタによるフィルタリングと、4倍のアップサンプリングが行われる(図145のステップS269)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図155に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。 Then, with respect to the synthesized moving image data (the data moving at the speed “2r 0 / t 0 ”) at the frame rate 1 / (4t 0 ) in FIG. 154, the filter unit 52 uses the region R 1301 in FIG. Filtering by a filter to be a pass band and upsampling four times are performed (step S269 in FIG. 145). Therefore, as shown in FIG. 155, the synthesized moving image data obtained by the filtering and upsampling is sampled at intervals of r 0 for the spatial directions x and y, and sampled at intervals of t 0 for the time direction t. Data.

即ち、図155に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。 That is, as shown in FIG. 155, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / t 0 in the T direction.

なお、図155において、影を付してある部分が、フレームレート1/t0の合成動画データのうちの速度「r0/t0」程度で動いている部分のデータが存在する部分である。 In FIG. 155, the shaded portion is a portion where there is data of a portion moving at a speed of about “r 0 / t 0 ” in the combined moving image data of the frame rate 1 / t 0. .

表示装置3では、図155に示したフレームレート1/t0の合成動画データのうちの、図80の領域R8001内のデータだけが表示される。つまり、図80の領域R8001で表される表示能力を有する表示装置3では、図156に影を付して示す領域内のデータだけが表示され、図155に示した折り返し成分は表示されない。 In the display device 3, only the data in the region R 8001 in FIG. 80 of the combined moving image data with the frame rate 1 / t 0 shown in FIG. 155 is displayed. That is, in the display device 3 having the display capability represented by the region R 8001 in FIG. 80, only the data in the region indicated by the shadow in FIG. 156 is displayed, and the aliasing component shown in FIG. 155 is not displayed.

以上のように、表示装置3が、1/t0のフレームレートを有する場合には、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」を合成して、1/(4t0)のフレームレートの合成動画データを得て、主成分方向に基づくフィルタリングを行いながら4倍のアップサンプルを行い、その結果得られる1/t0のフレームレートの合成動画データを表示装置3に供給することにより、表示装置3では、その表示能力で表示することができる周波数成分のデータを、折り返し成分の影響を受けずに、適切に表示することができる。 As described above, when the display device 3 has a frame rate of 1 / t 0 , “low frequency component moving image data”, “middle low frequency component moving image data”, “middle and high frequency component moving image data”, and “ High-frequency component video data "is synthesized to obtain 1 / (4t 0 ) frame rate composite video data, and upsampling is performed 4 times while filtering based on the principal component direction. By supplying the composite moving image data with the frame rate of / t 0 to the display device 3, the display device 3 can appropriately display the frequency component data that can be displayed with the display capability without being affected by the aliasing component. Can be displayed.

なお、図146、図149、図152、図155は、それぞれ、上述した図35乃至図38と同様の図であり、従って、図35乃至図38で説明した場合と同様に、図143の受信装置2が出力する1/t0のフレームレートの動画データが、表示装置3に表示された場合には、その表示された動画に対して、人間は、元の動画(送信装置1に供給された動画)と同様の画質を認識することができる。 146, 149, 152, and 155 are the same as FIGS. 35 to 38 described above, and therefore, the reception of FIG. 143 is the same as the case described in FIGS. When moving image data with a frame rate of 1 / t 0 output by the device 2 is displayed on the display device 3, a human is supplied to the original moving image (supplied to the transmitting device 1) with respect to the displayed moving image. Image quality similar to that of a video).

次に、図24の受信装置2は、表示装置3が、図80の領域R8001、図81の領域R8101、図82の領域R8201、図83の領域R8301のうちのいずれで表される表示能力を有する場合であっても対処することができるように構成することができる。 Next, in the receiving device 2 in FIG. 24, the display device 3 is represented by any of the region R 8001 in FIG. 80, the region R 8101 in FIG. 81, the region R 8201 in FIG. 82, and the region R 8301 in FIG. Even if it has a display capability, it can be configured so that it can be dealt with.

図157は、そのような受信装置2の構成例を示している。なお、図157において、図33における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図157の受信装置2は、抽出部251および合成部252が新たに設けられているとともに、フィルタ部52に代えてフィルタ部253が設けられている他は、図33における場合と同様に構成されている。   FIG. 157 shows a configuration example of such a receiving apparatus 2. In FIG. 157, portions corresponding to those in FIG. 33 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the receiving apparatus 2 in FIG. 157 is the same as in FIG. 33 except that an extracting unit 251 and a combining unit 252 are newly provided and a filter unit 253 is provided instead of the filter unit 52. It is configured.

図157の受信装置2においては、抽出部251、合成部252、およびフィルタ部253に対して、表示装置3の表示能力(を表す情報)が供給されるようになっている。ここで、表示装置3が表示能力を供給する機能を有する場合には、表示装置3の表示能力は、例えば、表示装置3から、抽出部251、合成部252、およびフィルタ部253に対して供給させるようにすることができる。また、表示装置3の表示能力は、例えば、受信装置2の図示せずに操作部をユーザに操作してもらうことによって、その操作部から、抽出部251、合成部252、およびフィルタ部253に対して供給するようにすることも可能である。   In the receiving device 2 of FIG. 157, the display capability (information indicating) of the display device 3 is supplied to the extracting unit 251, the combining unit 252, and the filter unit 253. Here, when the display device 3 has a function of supplying display capability, the display capability of the display device 3 is supplied from the display device 3 to the extraction unit 251, the synthesis unit 252, and the filter unit 253, for example. You can make it. In addition, the display capability of the display device 3 is, for example, from the operation unit to the extraction unit 251, the synthesis unit 252, and the filter unit 253 when the user operates the operation unit (not shown) of the reception device 2. It is also possible to supply them.

抽出部251は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、表示装置3の表示能力に応じた周波数成分を選択、抽出し、合成部252に供給する。 The extraction unit 251 selects and extracts a frequency component corresponding to the display capability of the display device 3 from the moving image data of the frame rate 1 / (4t 0 ) stored in the buffer unit 51, and supplies the frequency component to the synthesis unit 252.

即ち、表示装置3が、図83の領域R8301で表される表示能力を有する場合、抽出部251は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから「低域成分動画データ」を抽出して、合成部252に供給する。 That is, when the display device 3 has the display capability represented by the region R 8301 in FIG. 83, the extraction unit 251 extracts the “low frequency range” from the moving image data with the frame rate 1 / (4t 0 ) stored in the buffer unit 51. “Component moving image data” is extracted and supplied to the synthesis unit 252.

また、表示装置3が、図82の領域R8201で表される表示能力を有する場合、抽出部251は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから「低域成分動画データ」および「中低域成分動画データ」を抽出して、合成部252に供給する。 When the display device 3 has the display capability represented by the region R 8201 in FIG. 82, the extraction unit 251 extracts the “low frequency” from the moving image data of the frame rate 1 / (4t 0 ) stored in the buffer unit 51. “Component moving image data” and “middle and low range component moving image data” are extracted and supplied to the combining unit 252.

さらに、表示装置3が、図81の領域R8101で表される表示能力を有する場合、抽出部251は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を抽出して、合成部252に供給する。 Furthermore, when the display device 3 has the display capability represented by the region R 8101 in FIG. 81, the extraction unit 251 extracts the “low frequency range” from the moving image data having the frame rate 1 / (4t 0 ) stored in the buffer unit 51. “Component moving image data”, “middle and low range component moving image data”, and “middle and high range component moving image data” are extracted and supplied to the synthesis unit 252.

また、表示装置3が、図80の領域R8001で表される表示能力を有する場合、抽出部251は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」のすべてを抽出して、合成部252に供給する。 When the display device 3 has the display capability represented by the region R 8001 in FIG. 80, the extraction unit 251 extracts the “low frequency range” from the moving image data of the frame rate 1 / (4t 0 ) stored in the buffer unit 51. All of “component moving image data”, “middle and low range component moving image data”, “middle and high range component moving image data”, and “high range component moving image data” are extracted and supplied to the synthesis unit 252.

合成部252は、表示装置3の表示能力に応じて、抽出部251から供給される周波数成分を合成し、合成動画データを、フィルタ部253に供給する。   The combining unit 252 combines the frequency components supplied from the extraction unit 251 according to the display capability of the display device 3, and supplies the combined moving image data to the filter unit 253.

即ち、表示装置3が、図83の領域R8301で表される表示能力を有する場合、抽出部251から合成部252には、フレームレート1/(4t0)の「低域成分動画データ」が供給されるので、合成部252は、その「低域成分動画データ」を、そのまま、合成画像データとして、フィルタ部253に供給する。 That is, when the display device 3 has the display capability represented by the region R 8301 in FIG. 83, the “low frequency component moving image data” having the frame rate 1 / (4t 0 ) is transmitted from the extraction unit 251 to the synthesis unit 252. Since the image data is supplied, the synthesis unit 252 supplies the “low-frequency component moving image data” as it is to the filter unit 253 as synthesized image data.

また、表示装置3が、図82の領域R8201で表される表示能力を有する場合、抽出部251から合成部252には、フレームレート1/(4t0)の「低域成分動画データ」および「中低域成分動画データ」が供給されるので、合成部252は、その「低域成分動画データ」および「中低域成分動画データ」を合成し、その結果得られる合成画像データを、フィルタ部253に供給する。 If the display device 3 has the display capability represented by the region R 8201 in FIG. 82, the extraction unit 251 to the synthesis unit 252 send “low-frequency component moving image data” having a frame rate of 1 / (4t 0 ) and Since “middle low-frequency component video data” is supplied, the synthesis unit 252 synthesizes the “low-frequency component video data” and “middle-low frequency component video data”, and filters the resultant synthesized image data as a filter. Supplied to the unit 253.

さらに、表示装置3が、図81の領域R8101で表される表示能力を有する場合、抽出部251から合成部252には、フレームレート1/(4t0)の「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」が供給されるので、合成部252は、「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を合成し、その結果得られる合成画像データを、フィルタ部253に供給する。 Further, when the display device 3 has the display capability represented by the region R 8101 in FIG. 81, the extraction unit 251 to the synthesis unit 252 send “low-frequency component moving image data” having a frame rate of 1 / (4t 0 ), Since “middle low frequency component moving image data” and “middle high frequency component moving image data” are supplied, the synthesis unit 252 performs “low frequency component moving image data”, “middle low frequency component moving image data”, and “middle high frequency component video data”. The moving image data ”is synthesized, and the resultant synthesized image data is supplied to the filter unit 253.

また、表示装置3が、図80の領域R8001で表される表示能力を有する場合、抽出部251から合成部252には、フレームレート1/(4t0)の「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」が供給されるので、合成部252は、その「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」を合成し、その結果得られる合成画像データを、フィルタ部253に供給する。 Further, when the display device 3 has the display capability represented by the region R 8001 in FIG. 80, the “low frequency component moving image data” having the frame rate 1 / (4t 0 ) is sent from the extraction unit 251 to the synthesis unit 252. Since “middle low frequency component video data”, “middle high frequency component video data”, and “high frequency component video data” are supplied, the synthesizer 252 performs the “low frequency component video data”, “middle low frequency component data”, The “moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” are combined, and the resultant combined image data is supplied to the filter unit 253.

フィルタ部253は、合成部232から供給されるフレームレート1/(4t0)の合成動画データを用いて、図33のフィルタ部52における場合と同様に、フィルタ情報供給部62からのフィルタ情報に対応したフィルタリングとアップサンプリングを行う。但し、フィルタ部253は、表示装置3の表示能力に応じた倍数のアップサンプリングを行う。 The filter unit 253 uses the combined moving image data with the frame rate 1 / (4t 0 ) supplied from the combining unit 232 to filter information from the filter information supply unit 62 in the same manner as in the filter unit 52 of FIG. Perform corresponding filtering and upsampling. However, the filter unit 253 performs multiple upsampling according to the display capability of the display device 3.

即ち、表示装置3が、図83の領域R8301で表される表示能力を有する場合、フィルタ部253は、1倍のアップサンプリングを行い、即ち、合成部252からのフレームレート1/(4t0)の合成動画データをアップサンプリングせずに、表示装置3に出力する。 That is, when the display device 3 has the display capability represented by the region R 8301 in FIG. 83, the filter unit 253 performs upsampling by one time, that is, the frame rate 1 / (4t 0 from the synthesis unit 252. ) Is output to the display device 3 without upsampling.

また、表示装置3が、図82の領域R8201で表される表示能力を有する場合、フィルタ部253は、2倍のアップサンプリングを行い、その結果得られるフレームレート1/(2t0)の合成動画データを、表示装置3に出力する。 When the display device 3 has the display capability represented by the region R 8201 in FIG. 82, the filter unit 253 performs upsampling twice, and synthesizes the frame rate 1 / (2t 0 ) obtained as a result. The moving image data is output to the display device 3.

さらに、表示装置3が、図81の領域R8101で表される表示能力を有する場合、フィルタ部253は、3倍のアップサンプリングを行い、その結果得られるフレームレート1/(4t0/3)の合成動画データを、表示装置3に出力する。 Further, the display device 3, if having a display capability represented by region R 8101 in FIG. 81, the filter unit 253 performs the triple upsampling, the frame rate 1 / (4t 0/3) the resulting Are output to the display device 3.

また、表示装置3が、図80の領域R8001で表される表示能力を有する場合、フィルタ部253は、4倍のアップサンプリングを行い、その結果得られるフレームレート1/t0の合成動画データを、表示装置3に出力する。 Further, when the display device 3 has the display capability represented by the region R 8001 in FIG. 80, the filter unit 253 performs upsampling four times, and the resultant moving image data having the frame rate 1 / t 0 obtained as a result. Is output to the display device 3.

以上のようにして、図157の受信装置2では、表示装置3が、図80の領域R8001、図81の領域R8101、図82の領域R8201、図83の領域R8301のうちのいずれで表される表示能力を有する場合であっても、その表示能力に応じた適切な合成動画データを、表示装置3に出力することができる。 As described above, in the receiving device 2 in FIG. 157, the display device 3 is any one of the region R 8001 in FIG. 80, the region R 8101 in FIG. 81, the region R 8201 in FIG. 82, and the region R 8301 in FIG. Even if it has the display capability represented by this, the suitable synthetic | combination moving image data according to the display capability can be output to the display apparatus 3. FIG.

次に、図79の送信装置1では、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301等の基本帯域を、表示装置3の表示能力を表す図80の領域R8001や、図81の領域R8101、図82の領域R8201、図83の領域R8301で制限した帯域を通過帯域として、動画データをフィルタリングすることにより、図84乃至図94で説明したような「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」に分割するようにしたが、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」は、その他、例えば、次のような周波数成分のデータとすることもできる。 Next, in the transmission device 1 in FIG. 79, for example, the basic band such as the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. By filtering the moving image data using the band limited by the area R 8001 in FIG. 80, the area R 8101 in FIG. 81, the area R 8201 in FIG. 82, and the area R 8301 in FIG. Although divided into “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” as described in FIGS. “Low-frequency component video data”, “Middle-low frequency component video data”, “Middle-high frequency component video data”, “High-frequency component video data” may also be data of the following frequency components, for example: it can.

即ち、例えば、動画の中で静止している被写体が投影されている部分の動画データ、つまり、図20の領域R1001のデータについては、上述した場合と同様に、図20の領域R1001のデータを、「低域成分動画データ」とし、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」は、いずれも0とすることができる。 That is, for example, moving image data of the portion stationary subjects in the moving image is being projected, that is, the data region R 1001 in FIG. 20, as in the case described above, the region R 1001 in FIG. 20 The data is “low frequency component video data”, and “middle low frequency component video data”, “middle and high frequency component video data”, and “high frequency component video data” can all be zero.

また、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分の動画データ、つまり、図21の領域R1101のデータについては、図84の領域R8401の「低域成分動画データ」、図85の領域R8501の「中低域成分動画データ」、図86の領域R8601の「中高域成分動画データ」、存在しない(0の)「高域成分動画データ」に代えて、例えば、次のような周波数成分のデータを、それぞれ、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」とすることができる。 Further, for example, moving image data of a portion in which a subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2”, that is, data of region R 1101 in FIG. 84, “Low-frequency component moving image data” in region R 8401 in FIG. 84, “Middle and low-frequency component moving image data” in region R 8501 in FIG. 85, “Middle and high-frequency component moving image data” in region R 8601 in FIG. In place of “high frequency component moving image data” (0), for example, the following frequency component data are respectively converted into “low frequency component moving image data”, “middle low frequency component moving image data”, and “middle high frequency component data”. "Video data" and "high frequency component video data".

即ち、図158に示すように、周波数ドメインにおいて、原点を通り、図21の領域R1101のデータの主成分方向に延びる直線(平面)をL1101とし、その直線L1101と、1/(4t0)のフレームレートの表示能力を表す図83の領域R8301との2つの交点を、P15801とP15802とする。 That is, as shown in FIG. 158, in the frequency domain, a straight line (plane) passing through the origin and extending in the principal component direction of the data in the region R 1101 in FIG. 21 is defined as L 1101 , and the straight line L 1101 and 1 / (4t the two intersections between the region R 8301 of Figure 83 that represents the display capability of a frame rate of 0), and P 15801 and P 15 802.

また、図159に示すように、周波数ドメインにおいて、直線L1101と、1/(2t0)のフレームレートの表示能力を表す図82の領域R8201との2つの交点を、P15901とP15902とする。 Further, as shown in FIG. 159, two intersection points of a straight line L 1101 and a region R 8201 of FIG. 82 representing the display capability of the frame rate of 1 / (2t 0 ) are represented by P 15901 and P 15902 in the frequency domain. And

そして、図160に示すように、図158の点P15801,P15802、図159の点P15901,P15902をそれぞれ通り、T方向に平行な直線(平面)を、それぞれ、L15801,L15802,L15901,L15902とする。 As shown in FIG. 160, straight lines (planes) passing through points P 15801 and P 15802 in FIG. 158 and points P 15901 and P 15902 in FIG. 159 and parallel to the T direction are respectively shown in L 15801 and L 15802. , L 15901 and L 15902 .

この場合、図21の領域R1101のデータについては、図161に示すように、領域R1101のうちの、直線L15801とL15802とで挟まれる領域R16101のデータを、「低域成分動画データ」とすることができる。 In this case, as shown in FIG. 161, the data in the region R 1101 in FIG. 21 includes the data in the region R 16101 sandwiched between the straight lines L 15801 and L 15802 in the region R 1101. Data ".

さらに、領域R1101のデータについては、図162に示すように、領域R1101のうちの、直線L15901とL15902とで挟まれる領域から、直線L15801とL15802とで挟まれる領域を除いた領域R16201のデータを、「中低域成分動画データ」とし、「中高域成分動画データ」および「高域成分動画データ」は、いずれも0とすることができる。 Further, as for the data of the region R 1101 , as shown in FIG. 162, the region sandwiched between the straight lines L 15801 and L 15802 is excluded from the region sandwiched between the straight lines L 15901 and L 15902 in the region R 1101. The data of the region R 16201 is “middle low-frequency component video data”, and “middle high-frequency component video data” and “high-frequency component video data” can both be zero.

この場合、図84の領域R8401の「低域成分動画データ」は、図161の領域R16101のデータで、図85の領域R8501の「中低域成分動画データ」は、図162の領域R16201のデータで、図86の領域R8601の「中高域成分動画データ」は、0で、それぞれ近似される。 In this case, the “low frequency component moving image data” in the region R 8401 in FIG. 84 is the data in the region R 16101 in FIG. 161, and the “middle low frequency component moving image data” in the region R 8501 in FIG. 85 is the region in FIG. In the data of R 16201 , “middle and high range component moving image data” in the region R 8601 in FIG.

次に、例えば、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分の動画データ、つまり、図22の領域R1201のデータについては、図87の領域R8701の「低域成分動画データ」、図88の領域R8801の「中低域成分動画データ」、図89の領域R8901の「中高域成分動画データ」、図90の領域R9001の「高域成分動画データ」に代えて、例えば、次のような周波数成分のデータを、それぞれ、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」とすることができる。 Next, for example, moving image data of a portion of the moving image in which a subject projected on the moving image moves at a speed of about “r 0 / t 0 ”, that is, data of the region R 1201 in FIG. “Low-frequency component moving image data” in 87 region R 8701 , “Middle and low-frequency component moving image data” in region R 8801 in FIG. 88, “Middle and high-frequency component moving image data” in region R 8901 in FIG. 89, and region R in FIG. Instead of 9001 "High-frequency component video data", for example, the following frequency component data are respectively "Low-frequency component video data", "Middle-low frequency component video data", "Middle-high frequency component video data""," High-frequency component moving image data ".

即ち、図163に示すように、周波数ドメインにおいて、原点を通り、図22の領域R1201のデータの主成分方向に延びる直線(平面)をL1201とし、その直線L1201と、1/(4t0)のフレームレートの表示能力を表す図83の領域R8301との2つの交点を、P16301とP16302とする。 That is, as shown in FIG. 163, in the frequency domain, a straight line (plane) passing through the origin and extending in the principal component direction of the data in the region R 1201 in FIG. 22 is L 1201 , and the straight line L 1201 and 1 / (4t Two intersection points with the region R 8301 in FIG. 83 representing the display capability of the frame rate of 0 ) are P 16301 and P 16302 .

また、図164に示すように、周波数ドメインにおいて、直線L1201と、1/(2t0)のフレームレートの表示能力を表す図82の領域R8201との2つの交点を、P16401とP16402とする。 Further, as shown in FIG. 164, in the frequency domain, two intersection points of the straight line L 1201 and the region R 8201 of FIG. 82 representing the display capability of the frame rate of 1 / (2t 0 ) are represented by P 16401 and P 16402. And

さらに、図165に示すように、周波数ドメインにおいて、直線L1201と、1/(4t0/3)のフレームレートの表示能力を表す図81の領域R8101との2つの交点を、P16501とP16502とする。 Furthermore, as shown in FIG. 165, in the frequency domain, the straight line L 1201, the two intersections between the region R 8101 of Figure 81 that represents the display capability of a frame rate of 1 / (4t 0/3) , and P 16501 P 16502 .

また、図166に示すように、周波数ドメインにおいて、直線L1201と、1/t0のフレームレートの表示能力を表す図80の領域R8001との2つの交点を、P16601とP16602とする。 Also, as shown in FIG. 166, in the frequency domain, two intersections of the straight line L 1201 and the region R 8001 in FIG. 80 representing the display capability of the 1 / t 0 frame rate are P 16601 and P 16602 . .

そして、図167に示すように、図163の点P16301,P16302、図164の点P16401,P16402、図165の点P16501,P16502、図166の点P16601,P16602をそれぞれ通り、T方向に平行な直線(平面)を、それぞれ、L16301,L16302,L16401,L16402,L16501,L16502,L16601,L16602とする。 Then, as shown in FIG. 167, point P 16301, P 16302 in FIG 163, the point P 16401, P 16402 in FIG 164, the point P 16501, P 16502 in FIG 165, the point P 16601, P 16602 in FIG 166 respectively The straight lines (planes) parallel to the T direction are L 16301 , L 16302 , L 16401 , L 16402 , L 16501 , L 16502 , L 16601 , and L 16602 , respectively.

この場合、図22の領域R1201のデータについては、図168に示すように、領域R1201のうちの、直線L16301とL16302とで挟まれる領域R16801のデータを、「低域成分動画データ」とすることができる。 In this case, as shown in FIG. 168, for the data in the region R 1201 in FIG. 22, the data in the region R 16801 between the straight lines L 16301 and L 16302 in the region R 1201 Data ".

さらに、領域R1201のデータについては、図169に示すように、領域R1201のうちの、直線L16401とL16402とで挟まれる領域から、直線L16301とL16302とで挟まれる領域を除いた領域R16901のデータを、「中低域成分動画データ」とすることができる。 Further, for the data of the area R 1201, except as shown in Figure 169, of the region R 1201, a region sandwiched by the straight line L 16401 and L 16402, the region sandwiched by the straight line L 16301 and L 16302 The data in the region R 16901 can be “middle and low range component moving image data”.

また、領域R1201のデータについては、図170に示すように、領域R1201のうちの、直線L16501とL16502とで挟まれる領域から、直線L16401とL16402とで挟まれる領域を除いた領域R17001のデータを、「中高域成分動画データ」とすることができる。 Also, the data of the area R 1201, except as shown in Figure 170, of the region R 1201, a region sandwiched by the straight line L 16501 and L 16502, the region sandwiched by the straight line L 16401 and L 16402 The data in the region R 17001 can be “middle and high range component moving image data”.

さらに、領域R1201のデータについては、図171に示すように、領域R1201のうちの、直線L16601とL16602とで挟まれる領域から、直線L16501とL16502とで挟まれる領域を除いた領域R17101のデータを、「高域成分動画データ」とすることができる。 Furthermore, as for the data of the region R 1201 , as shown in FIG. 171, the region sandwiched between the straight lines L 16501 and L 16502 is excluded from the region sandwiched between the straight lines L 16601 and L 16602 in the region R 1201. The data in the region R 17101 can be “high frequency component moving image data”.

この場合、図87の領域R8701の「低域成分動画データ」は、図168の領域R16801のデータで、図88の領域R8801の「中低域成分動画データ」は、図169の領域R16901のデータで、図89の領域R8901の「中高域成分動画データ」は、図170の領域R17001のデータで、図90の領域R9001の「高域成分動画データ」は、図171の領域R17101のデータで、それぞれ近似される。 In this case, the “low frequency component moving image data” in the region R 8701 in FIG. 87 is the data in the region R 16801 in FIG. 168, and the “middle low frequency component moving image data” in the region R 8801 in FIG. 88 is the region in FIG. In the data of R 16901 , the “middle and high frequency component moving image data” in the region R 8901 in FIG. 89 is the data in the region R 17001 in FIG. 170, and the “high frequency component moving image data” in the region R 9001 in FIG. Are approximated with the data of the region R 17101 .

次に、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分の動画データ、つまり、図23の領域R1301のデータについては、図91の領域R9101の「低域成分動画データ」、図92の領域R9201の「中低域成分動画データ」、図93の領域R9301の「中高域成分動画データ」、図94の領域R9401の「高域成分動画データ」に代えて、例えば、次のような周波数成分のデータを、それぞれ、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」とすることができる。 Next, for example, moving image data of a portion of the moving image in which a subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, that is, data in the region R 1301 in FIG. 91, “Low-frequency component moving image data” in region R 9101 , “Middle and low-frequency component moving image data” in region R 9201 in FIG. 92, “Middle and high-frequency component moving image data” in region R 9301 in FIG. 93, and region R in FIG. Instead of 9401 “high-frequency component video data”, for example, the following frequency component data are respectively “low-frequency component video data”, “middle-low-frequency component video data”, and “middle-high-frequency component video data”. "," High-frequency component moving image data ".

即ち、図172に示すように、周波数ドメインにおいて、原点を通り、図23の領域R1301のデータの主成分方向に延びる直線(平面)をL1301とし、その直線L1301と、1/(4t0)のフレームレートの表示能力を表す図83の領域R8301との2つの交点を、P17201とP17202とする。 That is, as shown in FIG. 172, in the frequency domain, a straight line (plane) passing through the origin and extending in the principal component direction of the data in the region R 1301 in FIG. 23 is L 1301 , and the straight line L 1301 and 1 / (4t Two intersection points with the region R 8301 in FIG. 83 representing the display capability of the frame rate of 0 ) are P 17201 and P 17202 .

また、図173に示すように、周波数ドメインにおいて、直線L1301と、1/(2t0)のフレームレートの表示能力を表す図82の領域R8201との2つの交点を、P17301とP17302とする。 Further, as shown in FIG. 173, in the frequency domain, two intersection points of a straight line L 1301 and a region R 8201 of FIG. 82 representing the display capability of the frame rate of 1 / (2t 0 ) are represented by P 17301 and P 17302. And

さらに、図174に示すように、周波数ドメインにおいて、直線L1301と、1/(4t0/3)のフレームレートの表示能力を表す図81の領域R8101との2つの交点を、P17401とP17402とする。 Furthermore, as shown in FIG. 174, in the frequency domain, the straight line L 1301, the two intersections between the region R 8101 of Figure 81 that represents the display capability of a frame rate of 1 / (4t 0/3) , and P 17401 P 17402 .

また、図175に示すように、周波数ドメインにおいて、直線L1301と、1/t0のフレームレートの表示能力を表す図80の領域R8001との2つの交点を、P17501とP17502とする。 Also, as shown in FIG. 175, in the frequency domain, two intersections of the straight line L 1301 and the region R 8001 in FIG. 80 representing the display capability of the frame rate of 1 / t 0 are designated as P 17501 and P 17502 . .

そして、図176に示すように、図172の点P17201,P17202、図173の点P17301,P17302、図174の点P17401,P17402、図175の点P17501,P17502をそれぞれ通り、T方向に平行な直線(平面)を、それぞれ、L17201,L17202,L17301,L17302,L17401,L17402,L17501,L17502とする。 Then, as shown in FIG. 176, point P 17201, P 17202 in FIG 172, the point P 17301, P 17302 in FIG 173, the point P 17401, P 17402 in FIG 174, the point P 17501, P 17502 in FIG 175 respectively The straight lines (planes) parallel to the T direction are denoted by L 17201 , L 17202 , L 17301 , L 17302 , L 17401 , L 17402 , L 17501 , and L 17502 , respectively.

この場合、図23の領域R1301のデータについては、図177に示すように、領域R1301のうちの、直線L17201とL17202とで挟まれる領域R17701のデータを、「低域成分動画データ」とすることができる。 In this case, as shown in FIG. 177, for the data in the region R 1301 in FIG. 23, the data in the region R 17701 between the straight lines L 17201 and L 17202 in the region R 1301 Data ".

さらに、領域R1301のデータについては、図178に示すように、領域R1301のうちの、直線L17301とL17302とで挟まれる領域から、直線L17201とL17202とで挟まれる領域を除いた領域R17801のデータを、「中低域成分動画データ」とすることができる。 Furthermore, as for the data of region R 1301 , as shown in FIG. 178, the region sandwiched between straight lines L 17201 and L 17202 is excluded from the region sandwiched between straight lines L 17301 and L 17302 in region R 1301. The data of the region R 17801 can be “middle and low range component moving image data”.

また、領域R1301のデータについては、図179に示すように、領域R1301のうちの、直線L17401とL17402とで挟まれる領域から、直線L17301とL17302とで挟まれる領域を除いた領域R17901のデータを、「中高域成分動画データ」とすることができる。 As for the data of the region R 1301 , as shown in FIG. 179, the region sandwiched between the straight lines L 17301 and L 17302 is excluded from the region sandwiched between the straight lines L 17401 and L 17402 in the region R 1301. The data in the region R 17901 can be “middle and high range component moving image data”.

さらに、領域R1301のデータについては、図180に示すように、領域R1301のうちの、直線L17501とL17502とで挟まれる領域から、直線L17401とL17402とで挟まれる領域を除いた領域RR18001のデータに着目する。そして、この場合、領域R1301のうちの、直線L17501とL17502とで挟まれる領域を除いた領域RRR18001にもデータが存在しているので、「高域成分動画データ」は、領域RR18001と領域RRR18001の2つの領域を合わせた領域R18001とする。換言すれば、いずれの場合においても、「高域成分動画データ」は、基本帯域のうち、「低域成分動画データ」と「中低域成分動画データ」と「中高域成分動画データ」の3つのデータを除いた領域のデータであると言っても良い。 Furthermore, for the data of region R 1301 , as shown in FIG. 180, the region sandwiched between straight lines L 17501 and L 17502 in the region R 1301 is excluded from the region sandwiched between straight lines L 17401 and L 17402. Focus on the data in the region RR 18001 . In this case, since data also exists in the region RRR 18001 excluding the region sandwiched between the straight lines L 17501 and L 17502 in the region R 1301 , the “high frequency component moving image data” is the region RR. The region R 18001 is a combination of the two regions 18001 and RRR 18001 . In other words, in any case, the “high-frequency component video data” includes three of the basic bands, “low-frequency component video data”, “middle-low frequency component video data”, and “middle-high frequency component video data”. It may be said that it is the data of the area excluding one data.

この場合、図91の領域R9101の「低域成分動画データ」は、図177の領域R17701のデータで、図92の領域R9201の「中低域成分動画データ」は、図178の領域R17801のデータで、図93の領域R9301の「中高域成分動画データ」は、図179の領域R17901のデータで、図94の領域R9401の「高域成分動画データ」は、図180の領域R18001のデータで、それぞれ近似される。 In this case, the “low frequency component moving image data” in the region R 9101 in FIG. 91 is the data in the region R 17701 in FIG. 177, and the “middle low frequency component moving image data” in the region R 9201 in FIG. 92 is the region in FIG. In the data of R 17801 , the “middle and high frequency component moving image data” in the region R 9301 in FIG. 93 is the data in the region R 17901 in FIG. 179, and the “high frequency component moving image data” in the region R 9401 in FIG. Are approximated by the data of the region R 18001 .

図158乃至図180で説明した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」を採用した場合、受信装置2から表示装置3に供給される動画データ(合成動画データ)には、折り返し成分が含まれることがあるが、折り返し成分が含まれているとしても、僅かであり、それほどの画質の劣化は生じない。   When the “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” described with reference to FIGS. The moving image data (synthetic moving image data) supplied to the apparatus 3 may include a folding component, but even if the folding component is included, the image quality is not so much deteriorated.

さらに、図158乃至図180で説明した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」を採用した場合には、図84乃至図94で説明した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」を採用する場合に比較して、メモリ容量を少なくし、あるいは回路規模を小型化することができる。   Further, when the “low frequency component video data”, “middle low frequency component video data”, “middle high frequency component video data”, and “high frequency component video data” described with reference to FIGS. Compared with the case where “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” described in FIGS. Can be reduced or the circuit scale can be reduced.

即ち、図84乃至図94で説明した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」を採用した場合には、図21の領域R1101や、図22の領域R1201、図23の領域R1301を、図84乃至図94に示したような、T方向に直交する方向に分割する領域の通過帯域のフィルタリングを行う必要があり、そのようなフィルタリングには、注目ブロックのフレーム(注目フレーム)の他、注目フレーム以外のフレームが対象となる。従って、この場合、注目フレーム以外のフレーム(例えば、注目ブロックの前後1フレーム以上)を記憶しておく必要があり、そのためのフレームメモリが必要となる。つまり、時間方向に関するフィルタリングが必要であり、それは即ち、注目フレーム以外のフレームを使用したフィルタリング処理が必要となることを意味する。 That is, when “low frequency component moving image data”, “middle low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” described in FIGS. The region R 1101 shown in FIG. 21, the region R 1201 shown in FIG. 22, and the region R 1301 shown in FIG. 23 are filtered in the pass band of the region divided in the direction orthogonal to the T direction as shown in FIGS. It is necessary to perform such filtering on a frame other than the frame of interest in addition to the frame of the block of interest (frame of interest). Therefore, in this case, it is necessary to store frames other than the target frame (for example, one or more frames before and after the target block), and a frame memory for that purpose is required. That is, filtering in the time direction is necessary, which means that filtering processing using a frame other than the frame of interest is necessary.

これに対して、図158乃至図180で説明した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」を採用した場合には、図21の領域R1101や、図22の領域R1201、図23の領域R1301を、図161や、図162、図168乃至図171、図177乃至図180に示したような、T方向に平行な方向に分割する領域の通過帯域のフィルタリングを行えば良く、そのフィルタリングは、注目フレームだけを対象とすれば済む。従って、この場合、注目フレーム以外のフレームを記憶しておく必要はなく、そのためのフレームメモリも不要となる。その結果、メモリ容量を少なくし、あるいは回路規模を小型化することができる。つまり、空間方向に関するフィルタリングを行えば良く、それは即ち、注目フレーム内の画素のみを使用したフィルタリング処理となるので、フレーム間をまたがる処理は不要である。 On the other hand, when the “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” described in FIGS. 21 corresponds to the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. 23 as shown in FIG. 161, FIGS. 162, 168 to 171 and 177 to 180, respectively. It is only necessary to filter the passband of the region divided in the direction parallel to the direction, and the filtering need only be performed on the frame of interest. Therefore, in this case, it is not necessary to store frames other than the frame of interest, and a frame memory for that purpose is also unnecessary. As a result, the memory capacity can be reduced or the circuit scale can be reduced. That is, it is only necessary to perform filtering in the spatial direction, that is, filtering processing using only the pixels in the frame of interest, so that processing that spans between frames is unnecessary.

なお、動画データを、図84乃至図94で説明した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」に分割し、あるいは、図158乃至図180で説明した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」に分割する場合、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」それぞれが分布する周波数ドメイン上の領域は、動画データにおける被写体の動きの大きさ(速さ)に依存する。   The video data is divided into “low frequency component video data”, “middle and low frequency component video data”, “middle and high frequency component video data”, and “high frequency component video data” described with reference to FIGS. Alternatively, when dividing into “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” described in FIGS. The region on the frequency domain where each of the “component video data”, “middle and low frequency component video data”, “middle and high frequency component video data”, and “high frequency component video data” is distributed is the magnitude of movement of the subject in the video data ( Speed).

即ち、動画データにおいて、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」に分割しようとする部分としての、例えば、注目ブロックの動きベクトルが小さい場合には、その注目ブロックのデータが分布する周波数ドメイン上の領域のほとんどが、「低域成分動画データ」の領域になり、「高域成分動画データ」の領域はほとんど0となる。そして、注目ブロックの動きベクトルが大きければ大きいほど、「高域成分動画データ」の領域が増える。   That is, in the video data, for example, as a part to be divided into “low frequency component video data”, “middle low frequency component video data”, “middle high frequency component video data”, “high frequency component video data” When the motion vector of a block is small, most of the region on the frequency domain where the data of the block of interest is distributed is the region of “low-frequency component video data”, and almost the region of “high-frequency component video data” 0. Then, the larger the motion vector of the block of interest is, the more “high-frequency component moving image data” area is.

具体的には、例えば、注目ブロックの、次のフレームに対する動きベクトルがほぼ0である場合には、即ち、注目ブロックに、動画の中で静止している被写体が投影されている場合には、その注目ブロックのデータが分布する周波数ドメイン上の領域、即ち、例えば、図20の領域R1001のすべてが「低域成分動画データ」の領域となる。 Specifically, for example, when the motion vector of the block of interest with respect to the next frame is approximately 0, that is, when a stationary object in the moving image is projected onto the block of interest, A region on the frequency domain in which the data of the block of interest is distributed, that is, for example, all of the region R 1001 in FIG. 20 is a region of “low-frequency component moving image data”.

また、例えば、注目ブロックの、次のフレームに対する動きベクトルの大きさがr0/2程度である場合、即ち、注目ブロックにおいて、被写体が速度「(r0/t0)/2」程度で動いている場合には、その注目ブロックのデータが分布する周波数ドメイン上の領域、即ち、例えば、図21の領域R1101のうちの、図84の領域R8401や図161の領域R16101などのほとんどの領域が、「低域成分動画データ」の領域となり、図85の領域R8501や図162の領域R16201などが、「中低域成分動画データ」の領域となる。そして、図86の領域R8601などの僅かな領域が、「中高域成分動画データ」の領域となる。 Further, for example, the block of interest, if the magnitude of the motion vector for the next frame is about r 0/2, i.e., in the block of interest, subject velocity "(r 0 / t 0) / 2 " moves to the extent If it is, the region on the frequency domain data of the block of interest is distributed, i.e., for example, of the region R 1101 in FIG. 21, most of such regions R 16101 in the region R 8401 and Figure 161 in Figure 84 Is the “low-frequency component moving image data” region, and the region R 8501 in FIG. 85, the region R 16201 in FIG. 162, etc. is the “middle low-frequency component moving image data” region. Then, a slight region such as the region R 8601 in FIG. 86 becomes the region of “middle and high range component moving image data”.

さらに、例えば、注目ブロックの、次のフレームに対する動きベクトルの大きさがr0程度である場合、即ち、注目ブロックにおいて、被写体が速度「r0/t0」程度で動いている場合には、その注目ブロックのデータが分布する周波数ドメイン上の領域、即ち、例えば、図22の領域R1201のうちの、図87の領域R8701や図168の領域R16801などが、「低域成分動画データ」の領域となり、図88の領域R8801や図169の領域R16901などが、「中低域成分動画データ」となる。そして、図89の領域R8901や図170の領域R17001などが、「中高域成分動画データ」の領域となり、図90の領域R9001や図171の領域R17101などが、「高域成分動画データ」の領域となる。 Further, for example, when the size of the motion vector of the block of interest for the next frame is about r 0, that is, when the subject is moving at a speed of about “r 0 / t 0 ” in the block of interest, A region on the frequency domain in which the data of the block of interest is distributed, that is, for example, region R 8701 in FIG. 87 and region R 16801 in FIG. 168 in region R 1201 in FIG. The region R 8801 in FIG. 88, the region R 16901 in FIG. 169, and the like become “middle and low range component moving image data”. The region R 8901 in FIG. 89, the region R 17001 in FIG. 170, and the like become the “middle and high frequency component moving image data” region, and the region R 9001 in FIG. 90 and the region R 17101 in FIG. Data "area.

また、例えば、注目ブロックの、次のフレームに対する動きベクトルの大きさが、より大きい、例えば2r0程度である場合、即ち、注目ブロックにおいて、被写体が速度「2r0/t0」程度で動いている場合には、その注目ブロックのデータが分布する周波数ドメイン上の領域、即ち、例えば、図23の領域R1301のうちの、図91の領域R9101や図177の領域R17701などが、「低域成分動画データ」の領域となり、図92の領域R9201や図178の領域R17801などが、「中低域成分動画データ」となる。そして、図93の領域R9301や図179の領域R17901などが、「中高域成分動画データ」の領域となり、図94の領域R9401や図180の領域R18001などが、「高域成分動画データ」の領域となる。 Further, for example, when the size of the motion vector of the block of interest for the next frame is larger, for example, about 2r 0, that is, the subject moves at a speed of about “2r 0 / t 0 ” in the block of interest. If you are at a region on the frequency domain data of the block of interest is distributed, i.e., for example, of the region R 1301 in FIG. 23, and a region R 17701 in the region R 9101 and Figure 177 in FIG. 91, " The region R 9201 in FIG. 92, the region R 17801 in FIG. 178, and the like become “middle and low range component moving image data”. Then, the region R 9301 in FIG. 93 and the region R 17901 in FIG. 179 become the “middle and high frequency component moving image data” region, and the region R 9401 in FIG. 94 and the region R 18001 in FIG. Data "area.

なお、上述の場合には、図80乃至図83で説明した4つの表示能力に応じて、動画データを分割するようにしたが、動画データの分割は、その他の表示能力に応じて行うことも可能である。   In the above case, the moving image data is divided according to the four display capabilities described with reference to FIGS. 80 to 83. However, the moving image data may be divided according to other display capabilities. Is possible.

さらに、動画のデータの分割数は、上述した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」の4つに限定されるものではなく、2つまたは3つ、あるいは5つ以上であっても良い。   Furthermore, the number of divisions of moving image data is limited to the above-mentioned “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data”. It may be two, three, or five or more.

また、動画データの分割数や、動画データの分割をどのような表示能力に応じて行うかは、例えば、あらかじめ固定の値を設定しておくこともできるし、ユーザの操作に応じて設定することもできる。   In addition, the number of divisions of the moving image data and the display capability for dividing the moving image data can be set in advance according to the user's operation, for example. You can also.

さらに、図95乃至図97では、動画データのうちの、基本帯域内の周波数成分を通過させるフィルタリングと、動画データから「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、または「高域成分動画データ」を分割するフィルタリングとを、同時に行うようにしたが、即ち、例えば、図95のステップS203では、フィルタ部202において、フィルタ情報が表す基本帯域の周波数成分を通過させ、かつ、図83の領域R8301の周波数成分を通過させるフィルタを適用することで、「低域成分動画データ」を得るようにしたが、動画データのうちの、基本帯域内の周波数成分を通過させるフィルタリングと、動画データから「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、または「高域成分動画データ」を分割するフィルタリングとは、別々に行うことが可能である。即ち、まず、動画データのうちの、基本帯域内の周波数成分を通過させるフィルタリングを行い、そのフィルタリング結果を対象に、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、または「高域成分動画データ」を分割するフィルタリングを行うことが可能である。 Further, in FIGS. 95 to 97, filtering that passes frequency components in the basic band of the moving image data, and “low frequency component moving image data”, “middle low frequency component moving image data”, “middle and high frequencies” from the moving image data. The component moving image data "or the filtering for dividing the" high frequency component moving image data "is performed at the same time. That is, for example, in step S203 of FIG. “Low frequency component moving image data” is obtained by applying a filter that allows the frequency component to pass and the frequency component of region R 8301 in FIG. 83 to pass. However, within the basic band of the moving image data, Filtering to pass the frequency component of the video, and from the video data "low frequency component video data", "middle low frequency component video data", "middle high frequency component video data Or filtering to split the "high-frequency component video data" may be performed separately. That is, first, filtering is performed to pass the frequency component in the basic band of the moving image data, and the filtering result is set as “low frequency component moving image data”, “middle low frequency component moving image data”, “middle high frequency range”. It is possible to perform filtering that divides “component moving image data” or “high frequency component moving image data”.

次に、図79の送信装置1では、図80乃至図83で説明した4つの表示能力に応じて、動画データを、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」の4つに分割するので、表示装置3(図24)が、図80乃至図83で説明した4つの表示能力のうちのいずれかの表示能力を有する場合には、受信装置2(図24)において、表示装置3の表示能力に応じて、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」を合成することにより、表示装置3において、上述したように、動画データを適切に表示することができる。   Next, in the transmission device 1 of FIG. 79, the moving image data is converted into “low frequency component moving image data”, “middle low frequency component moving image data”, “medium / high frequency” according to the four display capabilities described in FIGS. Since the display device 3 (FIG. 24) is divided into four display capabilities described with reference to FIGS. In the receiving device 2 (FIG. 24), “low frequency component moving image data”, “middle low frequency component moving image data”, “middle and high frequency component moving image data”, according to the display capability of the display device 3, By synthesizing the “high frequency component moving image data”, the display device 3 can appropriately display the moving image data as described above.

しかしながら、表示装置3(図24)が、図80乃至図83で説明した4つの表示能力のうちのいずれの表示能力を有するものでもない場合、そのような表示装置3においては、動画データを適切に表示することが困難となる。   However, when the display device 3 (FIG. 24) does not have any of the four display capabilities described with reference to FIGS. 80 to 83, the display device 3 appropriately displays the moving image data. It becomes difficult to display.

また、図79の送信装置1のように、複数の周波数成分に分割して動画データを送信してくれるとは限らない。そのような場合、1/t0というフレームレートよりも低いフレームレートの表示能力しかない表示装置3では、適切な表示をすることが困難となる。即ち、送信装置1が動画データを分割して送信してくれない限り、受信装置2では表示装置3の表示能力に応じた適切な動画データを生成することが出来ない。 Further, unlike the transmission device 1 of FIG. 79, the moving image data is not necessarily divided into a plurality of frequency components. In such a case, it becomes difficult for the display device 3 that has only a display capability of a frame rate lower than the frame rate of 1 / t 0 to perform appropriate display. In other words, unless the transmission device 1 divides and transmits the moving image data, the receiving device 2 cannot generate appropriate moving image data according to the display capability of the display device 3.

そこで、受信装置2(図24)では、表示装置3の表示能力に応じた動画データを生成して、表示装置3に供給するようにすることができるように改良する必要がある。   Therefore, the receiving device 2 (FIG. 24) needs to be improved so that moving image data corresponding to the display capability of the display device 3 can be generated and supplied to the display device 3.

以下、そのような受信装置2について説明するが、その前に、表示装置3の表示能力に応じた動画データについて説明する。ここで、受信装置2には、例えば、図25の送信装置1が出力するフレームレートが1/(4t0)の低フレームレートの動画データ(エンコードデータ)が、記録媒体11(図24)または伝送媒体12を介して供給されるものとする。なお、受信装置2には、上述したような「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」などの複数の周波数成分に分割された動画データが供給されてもよいが、その場合、受信装置2では、その複数の周波数成分が合成され、その合成の結果得られる動画データを対象として処理が行われる。 Hereinafter, such a receiving device 2 will be described, but before that, moving image data corresponding to the display capability of the display device 3 will be described. Here, for example, in the receiving device 2, moving image data (encoded data) having a frame rate of 1 / (4t 0 ) output from the transmitting device 1 in FIG. 25 is recorded on the recording medium 11 (FIG. 24) or It is assumed that it is supplied via the transmission medium 12. The receiving device 2 includes a plurality of frequency components such as “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” as described above. However, in this case, the receiving device 2 combines the plurality of frequency components and performs processing on the moving image data obtained as a result of the combination.

例えば、表示装置3が、図83で説明した表示能力を有する場合、即ち、1/(4t0)のフレームレートを有する場合においては、表示装置3では、図83の領域R8301内のデータを表示することができる。 For example, when the display device 3 has the display capability described in FIG. 83, that is, when the display device 3 has a frame rate of 1 / (4t 0 ), the display device 3 stores the data in the region R 8301 in FIG. Can be displayed.

そして、送信装置1からの動画データの中で、例えば、静止している被写体が投影されている部分については、図20の領域R1001にデータが存在するから、図181に示すように、その領域R1001と、図83の領域R8301とが重複する領域R18101のデータを、表示装置3に供給すればよい。 Then, for example, in the moving image data from the transmission apparatus 1, for a portion where a stationary subject is projected, the data exists in the region R 1001 in FIG. 20, as shown in FIG. Data in a region R 18101 in which the region R 1001 and the region R 8301 in FIG. 83 overlap may be supplied to the display device 3.

また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図21の領域R1101にデータが存在するから、図182に示すように、その領域R1101と、図83の領域R8301とが重複する領域R18201のデータを、表示装置3に供給すればよい。 Further, for example, in the moving image data from the transmission apparatus 1, for a portion where the subject projected thereon is moving at a speed of about “(r 0 / t 0 ) / 2”, an area R 1101 in FIG. Therefore, as shown in FIG. 182, the data of the region R 18201 where the region R 1101 and the region R 8301 of FIG. 83 overlap may be supplied to the display device 3.

さらに、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、図22の領域R1201にデータが存在するから、図183に示すように、その領域R1201と、図83の領域R8301とが重複する領域R18301のデータを、表示装置3に供給すればよい。 Further, in the moving image data from the transmission apparatus 1, for example, for a portion where the subject projected thereon moves at a speed of about “r 0 / t 0 ”, the data exists in the region R 1201 in FIG. Therefore, as shown in FIG. 183, the data of the region R 18301 in which the region R 1201 and the region R 8301 in FIG. 83 overlap may be supplied to the display device 3.

また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、図23の領域R1301にデータが存在するから、図184に示すように、その領域R1301と、図83の領域R8301とが重複する領域R18401のデータを、表示装置3に供給すればよい。 Further, for example, in the moving image data from the transmission apparatus 1, data exists in the region R 1301 in FIG. 23 for a portion where the subject projected thereon moves at a speed of about “2r 0 / t 0 ”. Therefore, as shown in FIG. 184, data in a region R 18401 in which the region R 1301 and the region R 8301 in FIG. 83 overlap may be supplied to the display device 3.

以下、送信装置1からの動画データの中で、他の速度で移動する被写体の部分についても同様である。   Hereinafter, the same applies to the portion of the subject moving at other speeds in the moving image data from the transmission device 1.

次に、例えば、表示装置3が、図82で説明した表示能力を有する場合、即ち、1/(2t0)のフレームレートを有する場合においては、表示装置3では、図82の領域R8201内のデータを表示することができる。 Next, for example, when the display device 3 has the display capability described with reference to FIG. 82, that is, when the display device 3 has a frame rate of 1 / (2t 0 ), the display device 3 includes the region R 8201 in FIG. Can be displayed.

そして、送信装置1からの動画データの中で、例えば、静止している被写体が投影されている部分については、図20の領域R1001にデータが存在するから、図185に示すように、その領域R1001と、図82の領域R8201とが重複する領域R18501のデータを、表示装置3に供給すればよい。 Then, for example, in the moving image data from the transmission apparatus 1, for a portion where a stationary subject is projected, data exists in the region R 1001 in FIG. 20, as shown in FIG. 185, Data in a region R 18501 in which the region R 1001 and the region R 8201 in FIG. 82 overlap may be supplied to the display device 3.

また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図21の領域R1101にデータが存在するから、図186に示すように、その領域R1101と、図82の領域R8201とが重複する領域R18601のデータを、表示装置3に供給すればよい。 Further, for example, in the moving image data from the transmission apparatus 1, for a portion where the subject projected thereon is moving at a speed of about “(r 0 / t 0 ) / 2”, an area R 1101 in FIG. Therefore, as shown in FIG. 186, the data of the region R 18601 where the region R 1101 overlaps the region R 8201 of FIG. 82 may be supplied to the display device 3.

さらに、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、図22の領域R1201にデータが存在するから、図187に示すように、その領域R1201と、図82の領域R8201とが重複する領域R18701のデータを、表示装置3に供給すればよい。 Further, in the moving image data from the transmission apparatus 1, for example, for a portion where the subject projected thereon moves at a speed of about “r 0 / t 0 ”, the data exists in the region R 1201 in FIG. Therefore, as shown in FIG. 187, data in a region R 18701 in which the region R 1201 and the region R 8201 in FIG. 82 overlap may be supplied to the display device 3.

また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、図23の領域R1301にデータが存在するから、図188に示すように、その領域R1301と、図82の領域R8201とが重複する領域R18801のデータを、表示装置3に供給すればよい。 Further, for example, in the moving image data from the transmission apparatus 1, data exists in the region R 1301 in FIG. 23 for a portion where the subject projected thereon moves at a speed of about “2r 0 / t 0 ”. Therefore, as shown in FIG. 188, data in a region R 18801 in which the region R 1301 and the region R 8201 in FIG. 82 overlap may be supplied to the display device 3.

以下、送信装置1からの動画データの中で、他の速度で移動する被写体の部分についても同様である。   Hereinafter, the same applies to the portion of the subject moving at other speeds in the moving image data from the transmission device 1.

次に、例えば、表示装置3が、図81で説明した表示能力を有する場合、即ち、1/(4t0/3)のフレームレートを有する場合においては、表示装置3では、図81の領域R8101内のデータを表示することができる。 Then, for example, the display device 3, if having a display capability described in FIG. 81, i.e., in a case having a frame rate of 1 / (4t 0/3) is, in the display device 3, a region in FIG. 81 R Data in 8101 can be displayed.

そして、送信装置1からの動画データの中で、例えば、静止している被写体が投影されている部分については、図20の領域R1001にデータが存在するから、図189に示すように、その領域R1001と、図81の領域R8101とが重複する領域R18901のデータを、表示装置3に供給すればよい。 Then, for example, in the moving image data from the transmission apparatus 1, for a portion where a stationary subject is projected, data exists in the region R 1001 in FIG. 20, as shown in FIG. Data in a region R 18901 in which the region R 1001 and the region R 8101 in FIG. 81 overlap may be supplied to the display device 3.

また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図21の領域R1101にデータが存在するから、図190に示すように、その領域R1101と、図81の領域R8101とが重複する領域R19001のデータを、表示装置3に供給すればよい。 Further, for example, in the moving image data from the transmission apparatus 1, for a portion where the subject projected thereon is moving at a speed of about “(r 0 / t 0 ) / 2”, an area R 1101 in FIG. Therefore, as shown in FIG. 190, data in a region R 19001 in which the region R 1101 and the region R 8101 in FIG. 81 overlap may be supplied to the display device 3.

さらに、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、図22の領域R1201にデータが存在するから、図191に示すように、その領域R1201と、図81の領域R8101とが重複する領域R19101のデータを、表示装置3に供給すればよい。 Further, in the moving image data from the transmission apparatus 1, for example, for a portion where the subject projected thereon moves at a speed of about “r 0 / t 0 ”, the data exists in the region R 1201 in FIG. Therefore, as shown in FIG. 191, the data of a region R 19101 in which the region R 1201 and the region R 8101 in FIG.

また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、図23の領域R1301にデータが存在するから、図192に示すように、その領域R1301と、図81の領域R8101とが重複する領域R19201のデータを、表示装置3に供給すればよい。 Further, for example, in the moving image data from the transmission apparatus 1, data exists in the region R 1301 in FIG. 23 for a portion where the subject projected thereon moves at a speed of about “2r 0 / t 0 ”. Therefore, as shown in FIG. 192, data of a region R 19201 in which the region R 1301 and the region R 8101 in FIG. 81 overlap may be supplied to the display device 3.

以下、送信装置1からの動画データの中で、他の速度で移動する被写体の部分についても同様である。   Hereinafter, the same applies to the portion of the subject moving at other speeds in the moving image data from the transmission device 1.

次に、例えば、表示装置3が、図80で説明した表示能力を有する場合、即ち、1/t0のフレームレートを有する場合においては、表示装置3では、図80の領域R8001内のデータを表示することができる。 Next, for example, when the display device 3 has the display capability described in FIG. 80, that is, when the display device 3 has a frame rate of 1 / t 0 , the display device 3 uses the data in the region R 8001 in FIG. Can be displayed.

そして、送信装置1からの動画データの中で、例えば、静止している被写体が投影されている部分については、図20の領域R1001にデータが存在するから、図193に示すように、その領域R1001と、図80の領域R8001とが重複する領域R19301のデータを、表示装置3に供給すればよい。 Then, for example, in the moving image data from the transmission apparatus 1, for a portion where a stationary subject is projected, data exists in the region R 1001 in FIG. 20, as shown in FIG. 193, Data in a region R 19301 in which the region R 1001 and the region R 8001 in FIG. 80 overlap may be supplied to the display device 3.

また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図21の領域R1101にデータが存在するから、図194に示すように、その領域R1101と、図80の領域R8001とが重複する領域R19401のデータを、表示装置3に供給すればよい。 Further, for example, in the moving image data from the transmission apparatus 1, for a portion where the subject projected thereon is moving at a speed of about “(r 0 / t 0 ) / 2”, an area R 1101 in FIG. Therefore, as shown in FIG. 194, the data of the region R 19401 where the region R 1101 overlaps the region R 8001 of FIG. 80 may be supplied to the display device 3.

さらに、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、図22の領域R1201にデータが存在するから、図195に示すように、その領域R1201と、図80の領域R8001とが重複する領域R19501のデータを、表示装置3に供給すればよい。 Further, in the moving image data from the transmission apparatus 1, for example, for a portion where the subject projected thereon moves at a speed of about “r 0 / t 0 ”, the data exists in the region R 1201 in FIG. Therefore, as shown in FIG. 195, the data of a region R 19501 in which the region R 1201 and the region R 8001 of FIG.

また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、図23の領域R1301にデータが存在するから、図196に示すように、その領域R1301と、図80の領域R8001とが重複する領域R19601のデータを、表示装置3に供給すればよい。 Further, for example, in the moving image data from the transmission apparatus 1, data exists in the region R 1301 in FIG. 23 for a portion where the subject projected thereon moves at a speed of about “2r 0 / t 0 ”. Therefore, as shown in FIG. 196, the data of a region R 19601 in which the region R 1301 and the region R 8001 of FIG.

以下、送信装置1からの動画データの中で、他の速度で移動する被写体の部分についても同様である。   Hereinafter, the same applies to the portion of the subject moving at other speeds in the moving image data from the transmission device 1.

以上から、表示装置3に対しては、その表示能力に応じて、次のような動画データを供給すれば良い。   From the above, the following moving image data may be supplied to the display device 3 according to the display capability.

即ち、表示装置3の表示能力としてのフレームレートを、変数dを用いて、1/(d×t0と表すと、その表示能力は、周波数ドメイン上において、次のような領域RBで表される。 That is, when the frame rate as the display capability of the display device 3 is expressed as 1 / (d × t 0 ) using the variable d, the display capability is expressed in the following region R B on the frequency domain. Is done.

領域RB={(X,Y,T)|−π/r0≦X≦π/r0、かつ、−π/r0≦Y≦π/r0
かつ、−π/(d×t0)≦T≦π/(d×t0)}
Region R B = {(X, Y, T) | −π / r 0 ≦ X ≦ π / r 0 , and −π / r 0 ≦ Y ≦ π / r 0 ,
And −π / (d × t 0 ) ≦ T ≦ π / (d × t 0 )}

また、送信装置1からの動画データの各部分のデータが存在する周波数ドメイン上の領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301は、上述したように、動画データの各部分のデータの主成分方向に延びる、T方向の幅が2π/(4t0)の領域である。そして、データの主成分方向は、上述したように、そのデータの空間方向x,yの動きベクトル(2次元の動きベクトル)に対して、フレーム周期を、時間方向tのコンポーネントとして加えた3次元の動きベクトルと直交する。 Further, regions on the frequency domain where data of each part of the moving image data from the transmission apparatus 1 exists, that is, for example, region R 1001 in FIG. 20, region R 1101 in FIG. 21, region R 1201 in FIG. As described above, the region R 1301 of 23 is a region having a width in the T direction of 2π / (4t 0 ) extending in the main component direction of the data of each part of the moving image data. As described above, the principal component direction of the data is a three-dimensional data obtained by adding the frame period as a component in the time direction t to the motion vector (two-dimensional motion vector) in the spatial direction x, y of the data. Orthogonal to the motion vector.

いま、データの空間方向x,yの動きベクトルを、(u0,v0)とすると、送信装置1からの動画データのフレーム周期は4t0であるから、3次元の動きベクトルは、(u0,v0,4t0)と表すことができる。主成分方向は、この動きベクトル(u0,v0,4t0)に直交する。 Now, assuming that the motion vector in the spatial direction x, y of the data is (u 0 , v 0 ), the frame period of the moving image data from the transmission apparatus 1 is 4t 0 , so the three-dimensional motion vector is (u 0 , v 0 , 4t 0 ). The principal component direction is orthogonal to the motion vector (u 0 , v 0 , 4t 0 ).

従って、送信装置1からの動画データの各部分のデータが存在する周波数ドメイン上の領域(正確には、原点を通り、主成分方向に延びる直線(平面)から、T方向に±π/(4t0)の範囲の領域)は、次のような領域RCで表される。 Therefore, the region on the frequency domain where the data of each part of the moving image data from the transmission device 1 exists (exactly, ± π / (4t in the T direction from the straight line (plane) passing through the origin and extending in the principal component direction). The region in the range of 0 ) is represented by the following region R C.

領域RC={点(0,0,-π/(4t0))を通り、
動きベクトル(u0,v0,4t0)に垂直な平面と、
点(0,0,π/(4t0))を通り、
動きベクトル(u0,v0,4t0)に垂直な平面とに囲まれる領域}
Through the region R C = {point (0,0, -π / (4t 0 ))
A plane perpendicular to the motion vector (u 0 , v 0 , 4t 0 ),
Through the point (0,0, π / (4t 0 ))
Region surrounded by a plane perpendicular to the motion vector (u 0 , v 0 , 4t 0 )}

表示装置3に対しては、領域RBとRCとが重なる領域RA(=RB∩RC)の動画データを供給すれば良い。ここで、表示装置3に対して供給すべき動画データの周波数ドメイン上の領域を、以下、適宜、供給領域という。領域RAは、供給領域である。 The display device 3 may be supplied with moving image data in a region R A (= R B ∩R C ) where the regions R B and R C overlap. Here, the region on the frequency domain of the moving image data to be supplied to the display device 3 is hereinafter referred to as a supply region as appropriate. Region RA is a supply region.

図197は、供給領域RAの動画データを得て表示装置3に供給する図24の受信装置2の構成例を示している。 FIG. 197 shows a configuration example of the receiving device 2 of FIG. 24 that obtains moving image data in the supply region RA and supplies the moving image data to the display device 3.

なお、図197において、図33における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図197の受信装置2は、フィルタ部52とフィルタ情報供給部62に代えて、フィルタ部301とフィルタ情報供給部302がそれぞれ設けられている他は、図33における場合と同様に構成されている。   In FIG. 197, portions corresponding to those in FIG. 33 are denoted by the same reference numerals, and description thereof will be omitted as appropriate. That is, the receiving apparatus 2 in FIG. 197 is configured in the same manner as in FIG. 33 except that a filter unit 301 and a filter information supply unit 302 are provided instead of the filter unit 52 and the filter information supply unit 62, respectively. ing.

図197においては、フィルタ部301とフィルタ情報供給部302に対して、表示装置3の表示能力(を表す情報)が供給されるようになっている。ここで、表示装置3が表示能力を供給する機能を有する場合には、表示装置3の表示能力は、例えば、表示装置3から、フィルタ部301とフィルタ情報供給部302に対して供給させるようにすることができる。また、表示装置3の表示能力は、例えば、受信装置2の図示せずに操作部をユーザに操作してもらうことによって、その操作部から、フィルタ部301とフィルタ情報供給部302に対して供給するようにすることも可能である。   In FIG. 197, the display capability (information indicating) of the display device 3 is supplied to the filter unit 301 and the filter information supply unit 302. Here, when the display device 3 has a function of supplying display capability, the display capability of the display device 3 is supplied from the display device 3 to the filter unit 301 and the filter information supply unit 302, for example. can do. The display capability of the display device 3 is supplied from the operation unit to the filter unit 301 and the filter information supply unit 302 by, for example, having the user operate the operation unit (not shown) of the reception device 2. It is also possible to do so.

フィルタ情報供給部302は、主成分方向取得部61からの主成分方向と、表示装置3の表示能力とから、供給領域RAを求める。 The filter information supply unit 302 obtains the supply region RA from the principal component direction from the principal component direction acquisition unit 61 and the display capability of the display device 3.

即ち、フィルタ情報供給部302は、図33のフィルタ情報供給部62と同様に、主成分方向取得部61からの主成分方向の情報に基づき、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸Tの方向に特定の幅としての、例えば、2π/(4t0)を有する、上述の領域RC(例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301などの主成分方向が制限されない領域)を求める。 That is, the filter information supply unit 302 is an area extending in the principal component direction in the frequency domain based on the information on the principal component direction from the principal component direction acquisition unit 61, similarly to the filter information supply unit 62 in FIG. The above-mentioned region R C (for example, the region R 1001 in FIG. 20 or the region R 1101 in FIG. 21) having a specific width in the direction of the frequency axis T in the time direction, for example, 2π / (4t 0 ). A region in which the principal component direction is not limited, such as a region R 1201 in FIG. 22 and a region R 1301 in FIG.

ここで、領域RCを求めるには、動きベクトル(u0,v0)が必要であるが、動きベクトル(u0,v0)は、主成分方向取得部61からの主成分方向から認識することができる。なお、主成分方向取得部61では、上述したように、主成分方向を、動きベクトルから求めることができるが、この場合、主成分方向を求めることなく、動きベクトル(2次元または3次元の動きベクトル)を、そのまま、フィルタ情報供給部302に供給することができる。 Here, in order to determine the region R C, it is necessary motion vector (u 0, v 0), the motion vector (u 0, v 0), recognizing the major component direction from the main component direction acquisition unit 61 can do. As described above, the principal component direction acquisition unit 61 can obtain the principal component direction from the motion vector. In this case, the motion vector (two-dimensional or three-dimensional motion is obtained without obtaining the principal component direction. Vector) can be supplied to the filter information supply unit 302 as it is.

フィルタ情報供給部302は、さらに、表示装置3の表示能力を表す領域RBを求め、その領域RBと、先に求めた領域RCとが重複する領域を、供給領域RAとして求める。なお、領域RBは、表示装置3の表示能力としての、例えば、表示装置3のフレームレート1/(d×t0)から求めることができる。 Filter information supply section 302 further determines the region R B representing the display capability of the display device 3, and the region R B, a region where the region R C obtained previously overlapped, obtains a supply region R A. The region R B is, as a display capability of the display device 3, for example, it can be obtained from the display device 3 of the frame rate 1 / (d × t 0) .

フィルタ情報供給部302は、以上のようにして供給領域RAを求めると、その供給領域RAを、フィルタの通過帯域として決定し、その通過帯域を、フィルタ情報として、フィルタ部301に出力する。 Filter information supply unit 302, when obtaining the feed region R A As described above, the supply region R A, was determined as the passing band of the filter, the passband as the filter information, and outputs to the filter section 301 .

フィルタ部301は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データを用いて、図33のフィルタ部52における場合と同様に、フィルタ情報供給部302からのフィルタ情報に対応したフィルタリングとアップサンプリングを行う。但し、フィルタ部301は、表示装置3の表示能力に応じた倍数のアップサンプリングを行う。 The filter unit 301 uses the moving image data of the frame rate 1 / (4t 0 ) stored in the buffer unit 51 and corresponds to the filter information from the filter information supply unit 302 as in the filter unit 52 of FIG. Filtering and upsampling. However, the filter unit 301 performs multiple upsampling according to the display capability of the display device 3.

即ち、フィルタ部301は、表示装置3の表示能力としての、例えば、表示装置3のフレームレート1/(d×t0)に応じて、4/d倍のアップサンプリングを行う。これにより、フィルタ部301は、フレームレート1/(4t0)の動画データから、フレームレート1/(d×t0)の動画データを得て、表示装置3に供給する。 That is, the filter unit 301 performs upsampling of 4 / d times in accordance with, for example, the frame rate 1 / (d × t 0 ) of the display device 3 as the display capability of the display device 3. Accordingly, the filter unit 301 obtains moving image data having a frame rate of 1 / (d × t 0 ) from moving image data having a frame rate of 1 / (4t 0 ) and supplies the moving image data to the display device 3.

次に、図198のフローチャートを参照して、図197の受信装置2の処理について説明する。   Next, processing of the receiving device 2 in FIG. 197 will be described with reference to the flowchart in FIG. 198.

デコード部50には、エンコードデータが供給される。デコード部50は、そのエンコードデータを、フレームレートが1/(4t0)の低フレームレートの動画データにデコードし、バッファ部51に供給する。バッファ部51では、デコード部50から供給される1/(4t0)のフレームレートの低フレームレートの動画データが順次記憶される。 The decoding unit 50 is supplied with encoded data. The decoding unit 50 decodes the encoded data into moving image data with a frame rate of 1 / (4t 0 ) and a low frame rate, and supplies it to the buffer unit 51. The buffer unit 51 sequentially stores moving image data having a low frame rate of 1 / (4t 0 ) supplied from the decoding unit 50.

そして、ステップS301において、フィルタ生成部53は、バッファ部51に記憶された動画データのうちのある部分のデータ、即ち、例えば、図32のステップS21で説明したような16×16画素のブロックのデータを読み出して、自身(フィルタ生成部53)に入力し、ステップS302乃至S304に順次進む。   In step S301, the filter generation unit 53 selects a certain portion of the moving image data stored in the buffer unit 51, that is, a block of 16 × 16 pixels as described in step S21 in FIG. Data is read out and input to itself (filter generation unit 53), and the process proceeds to steps S302 to S304 in sequence.

ステップS302乃至S304では、フィルタ生成部53(の主成分方向取得部61およびフィルタ情報供給部302)が、ステップS301で入力されたデータについて、周波数ドメイン上で人間が認識することができ、かつ、表示装置3で表示することができるデータの領域である供給領域RAを、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部301に供給する。 In steps S302 to S304, the filter generation unit 53 (the principal component direction acquisition unit 61 and the filter information supply unit 302) can recognize the data input in step S301 on the frequency domain, and A supply area RA that is an area of data that can be displayed on the display device 3 is obtained as a filter pass band, and the pass band is supplied to the filter unit 301 as filter information.

即ち、ステップS302では、フィルタ生成部53の主成分方向取得部61は、ステップS301で入力された部分のデータについて、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部302に供給して、ステップS303に進む。   That is, in step S302, the principal component direction acquisition unit 61 of the filter generation unit 53 performs the frequency axes X and Y in the spatial directions x and y and the frequency axis T in the time direction t for the data of the part input in step S301. The principal component direction in the frequency domain defined by is acquired, supplied to the filter information supply unit 302, and the process proceeds to step S303.

なお、ステップS302において主成分方向は、図31で説明したように、3次元フーリエ変換を行うことにより求めることもできるし、図32で説明したように、動きベクトルを検出することにより求めることもできる。また、上述したように、送信装置1からのエンコードデータに、主成分方向(の情報)が多重化されている場合には、デコード部50において、エンコードデータから主成分方向を分離し、主成分方向取得部61において、デコード部50から、その主成分方向の供給を受けることにより、主成分方向を取得することもできる。   In step S302, the principal component direction can be obtained by performing a three-dimensional Fourier transform as described in FIG. 31, or can be obtained by detecting a motion vector as described in FIG. it can. Further, as described above, when the principal component direction (information thereof) is multiplexed in the encoded data from the transmission device 1, the decoding unit 50 separates the principal component direction from the encoded data, The direction acquisition unit 61 can also acquire the principal component direction by receiving the supply of the principal component direction from the decoding unit 50.

さらに、図34のステップS32で説明したように、エンコードデータに空間方向x,yの動きベクトル(u0,v0)が含まれる場合には、その動きベクトル(u0,v0)を、時間方向のコンポーネントt(ここではt=4t0)を加えて、空間方向x,yおよび時間方向tの3次元の動きベクトル(u0,v0,t)とし、その3次元の動きベクトル(u0,v0,t)に直交する方向を主成分方向とすることもできる。 Further, as described in step S32 in FIG. 34, encoded data in the spatial direction x, in the case that contains the y motion vector (u 0, v 0), the motion vector (u 0, v 0), A component t in the time direction (here, t = 4t 0 ) is added to obtain a three-dimensional motion vector (u 0 , v 0 , t) in the spatial direction x, y and the time direction t, and the three-dimensional motion vector ( The direction orthogonal to u 0 , v 0 , t) can be the principal component direction.

ここで、ステップS302では、主成分方向取得部61は、主成分方向ではなく、動きベクトルを、フィルタ情報供給部302に供給しても良い。   Here, in step S302, the principal component direction acquisition unit 61 may supply a motion vector instead of the principal component direction to the filter information supply unit 302.

ステップS303では、フィルタ情報供給部302は、主成分方向取得部61から供給される動きベクトル、または主成分方向から得られる動きベクトルに基づき、人間が認識することができるデータの領域RC、つまり、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301(などの主成分方向が制限されない領域)を求める。さらに、フィルタ情報供給部302は、表示装置3の表示能力としてのフレームレート1/(d×t0)に基づき、その表示能力を表す領域RBを求める。そして、フィルタ情報供給部302は、領域RBとRCとが重なる領域を、供給領域RAとして求め、その供給領域RAを、フィルタの通過帯域として決定して、ステップS303からS304に進む。 In step S303, the filter information supply unit 302 is based on the motion vector supplied from the principal component direction acquisition unit 61 or the motion vector obtained from the principal component direction, that is, a data region R C that can be recognized by humans, that is, For example, the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. 23 (regions in which the principal component direction is not limited) are obtained. Furthermore, filter information supply section 302, based on the frame rate 1 / (d × t 0) as the display capability of the display device 3, obtains the region R B representing the display capability. Then, the filter information supply unit 302 obtains a region where the regions R B and R C overlap as the supply region R A , determines the supply region R A as a pass band of the filter, and proceeds from step S303 to S304. .

ステップS304では、フィルタ情報供給部302は、ステップS303で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部301に供給し、ステップS305に進む。   In step S304, the filter information supply unit 302 supplies the filter passband (information indicating) obtained in step S303 to the filter unit 301 as filter information, and the process proceeds to step S305.

ステップS305では、フィルタ部301が、バッファ部51から動画データを読み出し、そのデータに対して、ステップS304でフィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を4/d倍にするアップサンプリングを行う。   In step S305, the filter unit 301 reads the moving image data from the buffer unit 51, and applies the filter of the passband represented by the filter information supplied from the filter generation unit 53 in step S304 to the data while moving in the time direction. Perform upsampling to increase the number of samples to 4 / d times.

フィルタ部301は、フィルタリングおよびアップサンプリングを行うことにより、フレームレートが1/(d×t0)の動画データを得て、ステップS305からS306に進む。 The filter unit 301 obtains moving image data with a frame rate of 1 / (d × t 0 ) by performing filtering and upsampling, and proceeds from step S305 to S306.

ステップS306では、フィルタ部301は、ステップS305で得たフレームレート1/(d×t0)の動画データを、フレームレートが1/(d×t0)の表示装置3(図24)に出力する。 In step S306, the filter unit 301 outputs the video data of the frame rate 1 / afford (d × t 0) at step S305, the frame rate to 1 / (d × t 0) of the display device 3 (FIG. 24) To do.

以上のように、周波数ドメイン上で人間が認識することができる領域RCと、表示装置3の表示能力を表す領域RBとが重なる供給領域RAを通過帯域とするフィルタによって、動画データをフィルタリングし、さらに、表示装置3の表示能力に応じたアップサンプリングを行うようにしたので、人間の目の視覚効果を考慮したデータ量の削減が行われた低フレームレートの動画データから、表示装置3の表示能力に適した動画データを得て表示することができる。 As described above, the moving image data is obtained by the filter using the supply region R A in which the region R C that can be recognized by humans on the frequency domain and the region R B representing the display capability of the display device 3 overlap each other. Since filtering and further upsampling according to the display capability of the display device 3 are performed, the display device is obtained from the low frame rate moving image data in which the data amount is reduced in consideration of the visual effect of the human eye. Thus, moving image data suitable for the display capability 3 can be obtained and displayed.

このように図181乃至図198を用いて説明したような受信側の構成を採用することで、図79乃至109を用いて説明したような複数の周波数成分に分割された動画データ(例えば、「低域成分動画データ」「中低域成分動画データ」「中高域成分動画データ」および「高域成分動画データ」という4つの動画データ)が、送信装置1から送信されて来ない場合においても、受信装置2(図197に示した装置)で最適な周波数成分のみを復元することで、表示装置3における最適な動画データを表示することが出来る。   In this way, by adopting the configuration on the receiving side as described with reference to FIGS. 181 to 198, moving image data divided into a plurality of frequency components as described with reference to FIGS. 79 to 109 (for example, “ Even when the low-frequency component moving image data, “middle and low-frequency component moving image data”, “middle and high-frequency component moving image data” and “high-frequency component moving image data” are not transmitted from the transmission device 1, By restoring only the optimum frequency component with the receiving device 2 (the device shown in FIG. 197), it is possible to display the optimum moving image data on the display device 3.

次に、図199は、供給領域RAの動画データを得て表示装置3に供給する図24の受信装置2の他の構成例を示している。 Next, FIG. 199 shows another configuration example of the receiving device 2 of FIG. 24 that obtains moving image data in the supply region RA and supplies the moving image data to the display device 3.

なお、図199において、図197における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図199の受信装置2は、デコード部50が、MPEGデコーダ311とフィルタ情報供給部312とで構成されており、フィルタ生成部53が設けられていない他は、図197における場合と同様に構成されている。   In FIG. 199, portions corresponding to those in FIG. 197 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, in the receiving apparatus 2 of FIG. 199, the decoding unit 50 is configured by the MPEG decoder 311 and the filter information supply unit 312, and the filter generation unit 53 is not provided, as in FIG. 197. It is configured.

図199の受信装置2のデコード部50には、図25の送信装置1のエンコード部24においてフレームレート1/(4t0)の動画データが、例えば、MPEGエンコードされることによって得られるエンコードデータが、記録媒体11(図24)または伝送媒体12を介して供給されるようになっている。 In the decoding unit 50 of the receiving device 2 in FIG. 199, encoded data obtained by MPEG encoding the moving image data of the frame rate 1 / (4t 0 ) in the encoding unit 24 of the transmitting device 1 in FIG. 25, for example. The recording medium 11 (FIG. 24) or the transmission medium 12 is supplied.

デコード部50では、MPEGデコーダ311が、デコード部50に供給されるエンコードデータを、フィルタ情報供給部312から供給されるフィルタ情報に基づいてMPEGデコードし、その結果得られるフレームレート1/(4t0)の動画データを、バッファ部51に供給する。 In the decoding unit 50, the MPEG decoder 311 performs MPEG decoding on the encoded data supplied to the decoding unit 50 based on the filter information supplied from the filter information supply unit 312, and the frame rate 1 / (4t 0) obtained as a result. ) Is supplied to the buffer unit 51.

フィルタ情報供給部312には、表示装置3の表示能力としての表示装置3のフレームレート1/(d×t0)が供給されるようになっている。ここで、表示装置3が表示能力を供給する機能を有する場合には、表示装置3の表示能力は、例えば、表示装置3から、フィルタ情報供給部312に対して供給させるようにすることができる。また、表示装置3の表示能力は、例えば、受信装置2の図示せずに操作部をユーザに操作してもらうことによって、その操作部から、フィルタ情報供給部312に対して供給するようにすることも可能である。なお、表示装置3の表示能力は、フィルタ情報供給部312の他、フィルタ部301にも供給されるようになっている。 The filter information supply unit 312 is supplied with the frame rate 1 / (d × t 0 ) of the display device 3 as the display capability of the display device 3. Here, when the display device 3 has a function of supplying display capability, the display capability of the display device 3 can be supplied from the display device 3 to the filter information supply unit 312, for example. . Further, the display capability of the display device 3 is supplied from the operation unit to the filter information supply unit 312 when the user operates the operation unit (not shown) of the reception device 2, for example. It is also possible. The display capability of the display device 3 is supplied not only to the filter information supply unit 312 but also to the filter unit 301.

フィルタ情報供給部312は、表示装置3の表示能力としての表示装置3のフレームレート1/(d×t0)に基づき、領域RBを求める。さらに、フィルタ情報供給部312は、MPEGデコーダ311がエンコードデータをMPEGデコードするのに用いる動きベクトルを取得し、その動きベクトルに基づき、領域RCを求める。そして、フィルタ情報供給部312は、領域RBとRCとが重複する領域である供給領域RAを求め、その供給領域RAを、フィルタの通過帯域として決定し、その通過帯域を、フィルタ情報として、フィルタ部301に出力する。 Filter information supply section 312, based on the frame rate 1 / display device 3 as the display capability of the display device 3 (d × t 0), obtains the region R B. Further, the filter information supply unit 312 acquires a motion vector used by the MPEG decoder 311 to MPEG-decode encoded data, and obtains a region RC based on the motion vector. The filter information supply section 312 obtains a supply region R A is a region where the region R B and R C are overlapped, the supply region R A, was determined as the passing band of the filter, the pass band filter Information is output to the filter unit 301.

さらに、フィルタ情報供給部312は、フィルタ情報を、MPEGデコーダ311にも供給し、これにより、MPEGデコーダ311を制御する。   Further, the filter information supply unit 312 also supplies the filter information to the MPEG decoder 311, thereby controlling the MPEG decoder 311.

次に、図200のフローチャートを参照して、図199の受信装置2の処理について説明する。   Next, processing of the reception device 2 in FIG. 199 will be described with reference to the flowchart in FIG.

デコード部50には、エンコードデータが供給される。デコード部50は、ステップS311において、そのエンコードデータを、MPEGデコーダ311に入力し、ステップS312に進む。   The decoding unit 50 is supplied with encoded data. In step S311, the decoding unit 50 inputs the encoded data to the MPEG decoder 311 and proceeds to step S312.

ステップS312では、MPEGデコーダ311は、エンコードデータから動きベクトルを取り出し(抽出し)、フィルタ情報供給部312に供給して、ステップS313に進む。   In step S312, the MPEG decoder 311 extracts (extracts) a motion vector from the encoded data, supplies it to the filter information supply unit 312, and proceeds to step S313.

ステップS313では、フィルタ情報供給部312は、MPEGデコーダ311から供給された動きベクトルを用い、エンコードデータに動きベクトルが含まれていないマクロブロックの動きベクトルを推測し、これにより、エンコードデータにMPEGエンコードされたフレームレート1/(4t0)の動画データのマクロブロックすべてについて、動きベクトルを得る。 In step S313, the filter information supply unit 312 uses the motion vector supplied from the MPEG decoder 311 to infer a motion vector of a macroblock that does not include the motion vector in the encoded data, and thereby encodes the encoded data into the MPEG encoded data. Motion vectors are obtained for all the macroblocks of the moving image data having the frame rate 1 / (4t 0 ).

即ち、動画データがMPEGエンコードされる場合、動画データの各ピクチャ(フレームまたはフィールド)は、例えば、I(Intra),P(Predictive),B(Bidirectionally Predictive )ピクチャのうちのいずれかに分類される。そして、Iピクチャは、動き補償を利用することなくエンコードされるため、Iピクチャのマクロブロックには、動きベクトルが存在しない。そこで、ステップS313では、このように動きベクトルがないマクロブロックの動きベクトルが、例えば、前後のフレームのマクロブロックの動きベクトルを用いた内挿や外挿等によって推測される。   That is, when the moving image data is MPEG-encoded, each picture (frame or field) of the moving image data is classified into, for example, one of I (Intra), P (Predictive), and B (Bidirectionally Predictive) pictures. . Since the I picture is encoded without using motion compensation, no motion vector exists in the macroblock of the I picture. Therefore, in step S313, the motion vector of the macroblock having no motion vector is estimated by, for example, interpolation or extrapolation using the motion vector of the macroblock of the preceding and succeeding frames.

その後、ステップS313からS314に進み、フィルタ情報供給部312は、例えば、マクロブロックについて、周波数ドメイン上で人間が認識することができ、かつ、表示装置3で表示することができるデータの領域である供給領域RAを、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部301とMPEGデコーダ311に供給する。 Thereafter, the process proceeds from step S313 to S314, and the filter information supply unit 312 is an area of data that can be recognized by a human on the frequency domain and displayed on the display device 3, for example, for a macroblock. The supply area RA is obtained as a filter pass band, and the pass band is supplied to the filter unit 301 and the MPEG decoder 311 as filter information.

即ち、ステップS314では、図198のステップS303における場合と同様に、フィルタ情報供給部312は、マクロブロックの動きベクトルに基づき、人間が認識することができるデータの領域RCを求める。さらに、フィルタ情報供給部312は、表示装置3の表示能力としてのフレームレート1/(d×t0)に基づき、その表示能力を表す領域RBを求める。そして、フィルタ情報供給部312は、領域RBとRCとが重なる領域を、供給領域RAとして求め、その供給領域RAを、フィルタの通過帯域として決定して、その通過帯域(を表す情報)を、フィルタ情報として、フィルタ部301とMPEGデコーダ311に供給する。 That is, in step S314, as in step S303 in FIG. 198, the filter information supply unit 312 obtains a data area RC that can be recognized by humans based on the motion vector of the macroblock. Furthermore, filter information supply section 312, based on the frame rate 1 / (d × t 0) as the display capability of the display device 3, obtains the region R B representing the display capability. The filter information supply section 312, a region overlapping and a region R B and R C, determined as the supply region R A, the supply region R A, determined as the passband of the filter, represents the passband ( Information) is supplied to the filter unit 301 and the MPEG decoder 311 as filter information.

その後、ステップS314からS315に進み、MPEGデコーダ311は、フィルタ情報供給部312からのフィルタ情報が表す通過帯域内のデータのみを通過する帯域制限フィルタを適用しながら、そのフィルタ情報を求めるときに用いられた動きベクトルを有するマクロブロックをMPEGデコード(解凍)し、その結果得られるフレームレート1/(4t0)の動画データを、バッファ部51に供給して記憶させる。 Thereafter, the process proceeds from step S314 to step S315, and the MPEG decoder 311 is used when obtaining filter information while applying a band limiting filter that passes only data in the passband represented by the filter information from the filter information supply unit 312. The macroblock having the motion vector thus obtained is MPEG-decoded (decompressed), and the resulting frame rate 1 / (4t 0 ) moving image data is supplied to the buffer unit 51 for storage.

即ち、ここでは、エンコードデータは、動画データをMPEGエンコードしたものであるから、動画データは、周波数軸上のデータであるDCT(Discrete Cosine Transform)係数に変換されている。ステップS315では、MPEGデコーダ311は、フィルタ情報が表す通過帯域外の周波数成分に対応するDCT係数を、強制的に0にしてからMPEGデコードを行うことで、等価的に、フィルタ情報が表す通過帯域内のデータのみを通過する帯域制限フィルタを適用しながら、エンコードデータをMPEGデコードすることができる。   That is, here, since the encoded data is obtained by MPEG encoding moving image data, the moving image data is converted into DCT (Discrete Cosine Transform) coefficients that are data on the frequency axis. In step S315, the MPEG decoder 311 forcibly sets the DCT coefficient corresponding to the frequency component outside the passband represented by the filter information to 0 and then performs MPEG decoding, so that the passband represented by the filter information is equivalent. The encoded data can be MPEG-decoded while applying a band-limiting filter that passes only the data inside.

そして、ステップS315からS316に進み、フィルタ部301が、バッファ部51からMPEGデコード後の動画データを読み出し、そのデータに対して、ステップS314でフィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を4/d倍にするアップサンプリングを行う。   Then, the process proceeds from step S315 to S316, and the filter unit 301 reads the moving picture data after MPEG decoding from the buffer unit 51, and the passband represented by the filter information supplied from the filter generation unit 53 in step S314 for the data. While applying this filter, up-sampling is performed to increase the number of samples in the time direction by 4 / d times.

フィルタ部301は、フィルタリングおよびアップサンプリングを行うことにより、フレームレートが1/(d×t0)の動画データを得て、ステップS316からS317に進む。 The filter unit 301 obtains moving image data having a frame rate of 1 / (d × t 0 ) by performing filtering and upsampling, and proceeds from step S316 to S317.

ステップS317では、フィルタ部301は、ステップS316で得たフレームレート1/(d×t0)の動画データを、フレームレートが1/(d×t0)の表示装置3(図24)に出力する。 In step S317, the filter unit 301 outputs the video data of the frame rate 1 / afford (d × t 0) at step S316, the frame rate to 1 / (d × t 0) of the display device 3 (FIG. 24) To do.

以上のように、周波数ドメイン上で人間が認識することができる領域RCと、表示装置3の表示能力を表す領域RBとが重なる供給領域RAを通過帯域とするフィルタによって、動画データをフィルタリングし、さらに、表示装置3の表示能力に応じたアップサンプリングを行うようにしたので、人間の目の視覚効果を考慮したデータ量の削減が行われた低フレームレートの動画データから、表示装置3の表示能力に適した動画データを得て表示することができる。 As described above, the moving image data is obtained by the filter using the supply region R A in which the region R C that can be recognized by humans on the frequency domain and the region R B representing the display capability of the display device 3 overlap each other. Since filtering and further upsampling according to the display capability of the display device 3 are performed, the display device is obtained from the low frame rate moving image data in which the data amount is reduced in consideration of the visual effect of the human eye. Thus, moving image data suitable for the display capability 3 can be obtained and displayed.

なお、供給領域RAを求めるにあたっては、領域RCに代えて、次のような領域RC'を採用することが可能である。 Incidentally, when obtaining the feed region R A, instead of the region R C, it is possible to adopt an area R C 'as follows.

領域RC'={(X,Y,T)|XとYは、-4π/d≦(u0×X+v0×Y)≦4π/dを満たし、
さらに、-π/r0≦X≦π/r0、かつ、-π/r0≦Y≦π/r0を満たす。}∩RC
Region R C '= {(X, Y, T) | X and Y satisfy −4π / d ≦ (u 0 × X + v 0 × Y) ≦ 4π / d,
Further, −π / r 0 ≦ X ≦ π / r 0 and −π / r 0 ≦ Y ≦ π / r 0 are satisfied. } ∩R C

ここで、(u0,v0)は、マクロブロックの動きベクトルである。 Here, (u 0 , v 0 ) is a macroblock motion vector.

なお、領域RC'の定義によれば、動きベクトル、つまり、u0またはv0が大であるほど、周波数ドメイン上のXとYが小さな値に制限される。従って、領域RC'は、動きベクトルが小であるほど、空間方向の周波数X,Yが高くなるように拡がり、動きベクトルが大であるほど、空間方向の周波数X,Yが低くなるように狭まる。 According to the definition of the region R C ′, X and Y on the frequency domain are limited to small values as the motion vector, that is, u 0 or v 0 is larger. Therefore, the region R C ′ expands so that the smaller the motion vector, the higher the spatial direction frequency X, Y, and the larger the motion vector, the lower the spatial direction frequency X, Y. It narrows.

領域RCに代えて、領域RC'を採用した場合の供給領域をRA'と表すこととすると、供給領域RA'は、以下のような領域となる。 Instead of the region R C, when 'the supply area in the case of adopting the R A' region R C and is represented as the supply region R A 'is equal to or less than the above region.

即ち、例えば、表示装置3が、1/(4t0)のフレームレートを有する場合においては、供給領域RA'は、以下のような領域となる。 That is, for example, when the display device 3 has a frame rate of 1 / (4t 0 ), the supply region R A ′ is the following region.

例えば、動画の中で、静止している被写体が投影されている部分については、領域RA'は、図201に示すように、図20の領域R1001と同一の領域R20101となる。 For example, for a portion of a moving image where a stationary subject is projected, the region R A ′ is the same region R 20101 as the region R 1001 in FIG. 20, as shown in FIG.

また、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、領域RA'は、図202に示すように、図21の領域R1101のうちの、図160に示した直線L15801とL15802とで挟まれる領域R20201となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 ) / 2”, the region R A ′ is as shown in FIG. , of the region R 1101 in FIG. 21, a region R 20201 sandwiched by the straight line L 15801 and L 15802 shown in FIG 160.

さらに、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)」程度で動いている部分については、領域RA'は、図203に示すように、図22の領域R1201のうちの、図167に示した直線L16301とL16302とで挟まれる領域R20301となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 )”, the region R A ′ is shown in FIG. Of the 22 regions R 1201, the region R 20301 is sandwiched between the straight lines L 16301 and L 16302 shown in FIG. 167.

また、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、領域RA'は、図204に示すように、図23の領域R1301のうちの、図176に示した直線L17201とL17202とで挟まれる領域R20401となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, the region R A ′ is shown in FIG. Of the region R 1301, the region R 20401 is sandwiched between the straight lines L 17201 and L 17202 shown in FIG. 176.

次に、例えば、表示装置3が、1/(2t0)のフレームレートを有する場合においては、供給領域RA'は、以下のような領域となる。 Next, for example, when the display device 3 has a frame rate of 1 / (2t 0 ), the supply region R A ′ is the following region.

例えば、動画の中で、静止している被写体が投影されている部分については、領域RA'は、図205に示すように、図20の領域R1001と同一の領域R20501となる。 For example, for a portion of a moving image where a stationary subject is projected, the region R A ′ is the same region R 20501 as the region R 1001 in FIG. 20, as shown in FIG.

また、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、領域RA'は、図206に示すように、図21の領域R1101のうちの、図160に示した直線L15901とL15902とで挟まれる領域R20601、即ち、領域R1101と同一の領域R20601となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2”, the region R A ′ is as shown in FIG. , of the region R 1101 in FIG. 21, the region R 20601 sandwiched by the straight line L 15901 and L 15902 shown in FIG 160, i.e., the same region R 20601 and the region R 1101.

さらに、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)」程度で動いている部分については、領域RA'は、図207に示すように、図22の領域R1201のうちの、図167に示した直線L16401とL16402とで挟まれる領域R20701となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 )”, the region R A ′ is shown in FIG. Of the 22 regions R 1201, the region R 20701 is sandwiched between the straight lines L 16401 and L 16402 shown in FIG. 167.

また、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、領域RA'は、図208に示すように、図23の領域R1301のうちの、図176に示した直線L17301とL17302とで挟まれる領域R20801となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, the region R A ′ is shown in FIG. Of the region R 1301, the region R 20801 is sandwiched between the straight lines L 17301 and L 17302 shown in FIG. 176.

次に、例えば、表示装置3が、1/(4t0/3)のフレームレートを有する場合においては、供給領域RA'は、以下のような領域となる。 Then, for example, the display device 3, in the case where a frame rate of 1 / (4t 0/3), the supply region R A 'is equal to or less than the above region.

例えば、動画の中で、静止している被写体が投影されている部分については、領域RA'は、図209に示すように、図20の領域R1001と同一の領域R20901となる。 For example, for a portion of a moving image where a stationary subject is projected, the region R A ′ is the same region R 20901 as the region R 1001 in FIG. 20, as shown in FIG.

また、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、領域RA'は、図210に示すように、図21の領域R1101と同一の領域R21001となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 ) / 2”, the region R A ′ is as shown in FIG. The region R 21001 is the same as the region R 1101 in FIG.

さらに、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)」程度で動いている部分については、領域RA'は、図211に示すように、図22の領域R1201のうちの、図167に示した直線L16501とL16502とで挟まれる領域R21101となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 )”, the region R A ′ is shown in FIG. Of the 22 regions R 1201, the region R 21101 is sandwiched between the straight lines L 16501 and L 16502 shown in FIG. 167.

また、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、領域RA'は、図212に示すように、図23の領域R1301のうちの、図176に示した直線L17401とL17402とで挟まれる領域R21201となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, the region R A ′ is shown in FIG. Of the region R 1301, the region R 21201 is sandwiched between the straight lines L 17401 and L 17402 shown in FIG.

次に、例えば、表示装置3が、1/t0のフレームレートを有する場合においては、供給領域RA'は、以下のような領域となる。 Next, for example, when the display device 3 has a frame rate of 1 / t 0 , the supply region R A ′ is the following region.

例えば、動画の中で、静止している被写体が投影されている部分については、領域RA'は、図213に示すように、図20の領域R1001と同一の領域R21301となる。 For example, in a portion of the moving image where a stationary subject is projected, the region R A ′ is the same region R 21301 as the region R 1001 in FIG. 20, as shown in FIG.

また、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、領域RA'は、図214に示すように、図21の領域R1101と同一の領域R21401となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2”, the region R A ′ is as shown in FIG. The region R 21401 is the same as the region R 1101 in FIG.

さらに、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)」程度で動いている部分については、領域RA'は、図215に示すように、図22の領域R1201と同一の領域R21501となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 )”, the region R A ′ is shown in FIG. The region R 21501 is the same as the 22 region R 1201 .

また、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、領域RA'は、図216に示すように、図23の領域R1301と同一の領域R21601となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, the region R A ′ is shown in FIG. The region R 21601 is the same as the region R 1301 .

領域RAは、例えば、図181乃至図196に示した領域であり、領域RA'は、例えば、図201乃至図216に示した領域である。図181乃至図196に示した領域RAそれぞれと、図201乃至図216に示した領域RA'それぞれとは、ほぼ同様の領域でる。 The region R A is, for example, the region illustrated in FIGS. 181 to 196, and the region R A ′ is, for example, the region illustrated in FIGS. 201 to 216. Each of the regions R A shown in FIGS. 181 to 196 and each of the regions R A ′ shown in FIGS. 201 to 216 are substantially the same regions.

従って、受信装置2では、領域RAを通過帯域とするフィルタリングに代えて、領域RA'を通過帯域とするフィルタリングを行うようにすることができる。 Accordingly, the receiving apparatus 2, instead of filtering the pass band region R A, it is possible to perform filtering to pass band region R A '.

また、表示装置3が、1/(d×t0)のフレームレートを有する場合、表示装置3では、時間方向に、領域RBを通過帯域とするフィルタリングが(等価的に)行われる。従って、受信装置2では、送信装置1からのフレームレート1/(4t0)の動画データに対して、領域RA'ではなく、領域RC'を通過帯域とするフィルタリングを施せば、表示装置3では、実質的に、領域RA'、ひいては領域RAを通過帯域とするフィルタリングを行った場合と同様の表示を行うことができる。 Further, the display device 3, if having a frame rate of 1 / (d × t 0) , the display device 3, in the time direction, filtering the pass band region R B is performed (equivalently). Therefore, in the receiving apparatus 2, if the moving image data having the frame rate 1 / (4t 0 ) from the transmitting apparatus 1 is filtered using the area R C ′ instead of the area R A ′, the display apparatus 3, substantially the same display can be performed as when filtering is performed with the region R A ′ and thus the region R A as the pass band.

この場合、メモリ容量を少なくし、あるいは回路規模を小型化することができる。   In this case, the memory capacity can be reduced or the circuit scale can be reduced.

即ち、図181乃至図196に示したような領域RAは、T方向に直交する方向に、領域RCを制限した領域となるので、そのような領域RAを通過帯域とするフィルタリングには、注目ブロックのフレーム(注目フレーム)の他、注目フレーム以外のフレームが対象となる。従って、この場合、注目フレーム以外のフレーム(例えば、注目ブロックの前後1フレーム以上)を記憶しておく必要があり、そのためのフレームメモリが必要となる。つまり、時間方向に関するフィルタリングが必要であり、それは即ち、注目フレーム以外のフレームを使用したフィルタリング処理が必要となることを意味する。 That is, the region R A, as shown in FIGS. 181 to Fig. 196, in a direction perpendicular to the T direction, since the region with a limited region R C, the filtering of such regions R A and passband In addition to the frame of the block of interest (frame of interest), the frame other than the frame of interest is the target. Therefore, in this case, it is necessary to store frames other than the target frame (for example, one or more frames before and after the target block), and a frame memory for that purpose is required. That is, filtering in the time direction is necessary, which means that filtering processing using a frame other than the frame of interest is necessary.

これに対して、領域RC'は、T方向と直交する方向に制限されていないので、即ち、T方向と平行な方向にのみ制限されるので、そのフィルタリングは、注目フレームだけを対象とすれば済む。従って、この場合、注目フレーム以外のフレームを記憶しておく必要はなく、そのためのフレームメモリも不要となる。その結果、メモリ容量を少なくし、あるいは回路規模を小型化することができる。つまり、空間方向に関するフィルタリングを行えば良く、それは即ち、注目フレーム内の画素のみを使用したフィルタリング処理となるので、フレーム間をまたがる処理は不要である。 On the other hand, since the region R C ′ is not limited to a direction orthogonal to the T direction, that is, limited to a direction parallel to the T direction, the filtering is performed only on the target frame. I'll do it. Therefore, in this case, it is not necessary to store frames other than the frame of interest, and a frame memory for that purpose is also unnecessary. As a result, the memory capacity can be reduced or the circuit scale can be reduced. That is, it is only necessary to perform filtering in the spatial direction, that is, filtering processing using only the pixels in the frame of interest, so that processing that spans between frames is unnecessary.

なお、上述の場合には、図197や図199の受信装置2に、図24の送信装置1において1/t0の高フレームレートの動画データを処理して得られる1/(4t0)の低フレームレートの動画データを入力し、受信装置2において、その動画データを、表示装置3のフレームレートに応じたフレームレートの動画データに変換するようにしたが、図197や図199の受信装置2には、元々、1/(4t0)のフレームレートの動画データを入力しても良い。また、図197や図199の受信装置2には、1/(4t0)以外のフレームレートの動画データを入力しても良い。 In the above-described case, 1 / (4t 0 ) of 1 / t 4 obtained by processing the high-frame-rate moving image data of 1 / t 0 in the transmission device 1 of FIG. The moving image data with a low frame rate is input, and the receiving device 2 converts the moving image data into moving image data with a frame rate corresponding to the frame rate of the display device 3, but the receiving devices in FIG. 197 and FIG. 2 may be originally input video data having a frame rate of 1 / (4t 0 ). In addition, moving image data having a frame rate other than 1 / (4t 0 ) may be input to the receiving device 2 in FIGS. 197 and 199.

次に、上述した一連の処理は、専用のハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。   Next, the series of processes described above can be performed by dedicated hardware or by software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer or the like.

そこで、図217は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。   Therefore, FIG. 217 shows a configuration example of an embodiment of a computer in which a program for executing the series of processes described above is installed.

コンピュータのメイン・コントローラであるCPU(Central Processing Unit)401は、バス408を介して、各部に接続されており、オペレーティング・システム(OS)の制御下で、アプリケーションプログラムを実行することにより、上述した一連の処理を行う。CPU401が実行するアプリケーションプログラムには、上述した一連の処理を行うためのものが含まれており、CPU401は、例えば、VTR(Video Tape Recorder)410から、VTRインターフェース409、バス408、および外部機器インターフェース407を介して、HDD(Hard disk Drive)414へダウンロードされた動画データを処理する。   A CPU (Central Processing Unit) 401, which is a main controller of the computer, is connected to each unit via a bus 408, and executes the application program under the control of the operating system (OS) to thereby execute the above-described operation. Perform a series of processing. The application program executed by the CPU 401 includes a program for performing the above-described series of processing. For example, the CPU 401 starts from a VTR (Video Tape Recorder) 410, a VTR interface 409, a bus 408, and an external device interface. The moving image data downloaded to the HDD (Hard disk Drive) 414 via 407 is processed.

メモリ402は、CPU401において実行されるプログラム・コードを格納したり、実行中の作業データを一時保管するために使用される記憶装置である。なお、メモリ402には、ROM(Read Only Memory)などの不揮発性メモリ及びDRAM(Dynamic Random Access Memory)などの揮発性メモリの双方が含まれる。   The memory 402 is a storage device used for storing program codes executed by the CPU 401 and temporarily storing work data being executed. The memory 402 includes both a nonvolatile memory such as a ROM (Read Only Memory) and a volatile memory such as a DRAM (Dynamic Random Access Memory).

ディスプレイコントローラ403は、CPU401が発行する描画命令を実際に処理するための専用コントローラである。ディスプレイ・コントローラ403において処理された描画データは、例えばフレーム・バッファ(図示しない)に一旦書き込まれた後、ディスプレイ411によって画面出力される。例えば、HDD414から再生された動画は、上述したように、ディスプレイ411で画面表示される。   The display controller 403 is a dedicated controller for actually processing a drawing command issued by the CPU 401. The drawing data processed in the display controller 403 is temporarily written in a frame buffer (not shown), for example, and then output on the screen by the display 411. For example, the moving image reproduced from the HDD 414 is displayed on the screen of the display 411 as described above.

入力機器インターフェース404は、キーボード412やマウス413などのユーザ入力機器をコンピュータに接続するための装置である。ユーザは、キーボード412やマウス413を介して、動画を再生するためのコマンドなどを入力することができる。   The input device interface 404 is a device for connecting user input devices such as a keyboard 412 and a mouse 413 to a computer. A user can input a command or the like for playing back a moving image via the keyboard 412 or the mouse 413.

ネットワークインターフェース405は、Ethernet(登録商標)などの所定の通信プロトコルに従って、コンピュータをLAN(Local Area Network)などの局所的ネットワーク、さらにはインターネットのような広域ネットワークに接続することができる。なお、ネットワーク上では、複数のホスト端末やサーバ(図示しない)がトランスペアレントな状態で接続され、分散コンピューティング環境が構築されている。ネットワーク上では、上述した一連の処理を実行するためのアプリケーションプログラムを含むソフトウェア・プログラムや、エンコードデータを含むデータ・コンテンツなどの配信サービスを行うことができる。また、コンピュータでは、例えば、他人が撮影した動画等が保存されているサーバから、動画データやエンコードデータを、ネットワークを経由してネットワークインターフェース405で受信し、HDD414へダウンロードすることができる。   The network interface 405 can connect the computer to a local network such as a LAN (Local Area Network) and further to a wide area network such as the Internet according to a predetermined communication protocol such as Ethernet (registered trademark). On the network, a plurality of host terminals and servers (not shown) are connected in a transparent state, and a distributed computing environment is constructed. On the network, it is possible to provide a distribution service such as a software program including an application program for executing the above-described series of processing and data / content including encoded data. Further, the computer can receive moving image data and encoded data from a server storing moving images taken by others by the network interface 405 via the network and download them to the HDD 414.

外部機器インターフェース407は、HDD414やメディア・ドライブ415などの外部装置をコンピュータに接続するための装置である。   The external device interface 407 is a device for connecting external devices such as the HDD 414 and the media drive 415 to the computer.

HDD414は、記憶媒体としての磁気ディスクを固定的に搭載したランダムアクセス可能な外部記憶装置であり、記憶容量やデータ転送速度などの点で他の外部記憶装置よりも優れている。HDD414には、上述した一連の処理を実行するアプリケーションプログラム等がインストールされる。ここで、「インストール」とは、ソフトウェア・プログラムを実行可能な状態でHDD414上に置くことを意味する。HDD414には、CPU401が実行すべきオペレーティング・システムのプログラム・コードや、アプリケーション・プログラム、デバイス・ドライバなどが不揮発的に格納される。なお、アプリケーションプログラムは、可搬形メディア416から、あるいは、ネットワークインターフェース405を介してダウンロードして、HDD414にインストールすることができる。また、アプリケーションプログラムは、あらかじめHDD414にインストールしておくことができる。   The HDD 414 is a random-accessible external storage device in which a magnetic disk as a storage medium is fixedly mounted, and is superior to other external storage devices in terms of storage capacity and data transfer speed. The HDD 414 is installed with an application program that executes the above-described series of processing. Here, “install” means placing the software program on the HDD 414 in an executable state. The HDD 414 stores the operating system program code to be executed by the CPU 401, application programs, device drivers, and the like in a nonvolatile manner. Note that the application program can be downloaded from the portable medium 416 or via the network interface 405 and installed in the HDD 414. The application program can be installed in the HDD 414 in advance.

メディア・ドライブ415は、CD(Compact Disc)やMO(Magneto-Optical disc)、DVD(Digital Versatile Disc)などの可搬型メディア416を装填して、そのデータ記録面にアクセスするための装置である。   The media drive 415 is a device for loading portable media 416 such as CD (Compact Disc), MO (Magneto-Optical disc), DVD (Digital Versatile Disc), etc., and accessing the data recording surface.

可搬型メディア416は、主として、ソフトウェア・プログラムやデータ・ファイルなどをコンピュータ可読形式のデータとしてバックアップすることや、これらをシステム間で移動(すなわち販売・流通・配布を含む)する目的で使用される。上述した一連の処理を実行するアプリケーションプログラムや、そのアプリケーションプログラムを実行することにより得られるエンコードデータは、可搬型メディア416を利用して複数の機器間で物理的に流通・配布することができる。また、エンコードデータは、ネットワークインターフェース405を介して配信することもできる。   The portable media 416 is used mainly for the purpose of backing up software programs, data files, and the like as data in a computer-readable format, and for moving them between systems (that is, including sales, distribution, and distribution). . The application program for executing the above-described series of processing and the encoded data obtained by executing the application program can be physically distributed and distributed among a plurality of devices using the portable medium 416. The encoded data can also be distributed via the network interface 405.

VTRインターフェース409は、VTR410から再生される動画をコンピュータ内に取り込むための装置である。   The VTR interface 409 is a device for taking a moving image reproduced from the VTR 410 into the computer.

なお、図217に示すコンピュータとしては、米IBM社のパーソナル・コンピュータ"PC/AT(Personal Computer/Advanced Technology)"の互換機又は後継機を採用することができる。勿論、他のアーキテクチャを備えたコンピュータを採用しても良い。   As the computer shown in FIG. 217, a compatible computer or a successor of IBM's personal computer “PC / AT (Personal Computer / Advanced Technology)” can be employed. Of course, you may employ | adopt the computer provided with the other architecture.

また、上述した実施の形態では、送信装置1において、人間が認識することができる周波数ドメイン上の領域を通過帯域とするフィルタリングを行いながら、ダウンサンプリングを行うことにより、1/t0のフレームレートの動画データを、1/(4t0)のフレームレートの動画データとするようにしたが、ダウンサンプリングは、必ずしも行う必要はない。ダウンサンプリングを行わない場合には、フィルタリング後の動画データのフレーム数は、フィルタリング前と変わらないが、その周波数成分は、人間が認識することができる周波数ドメイン上の領域内に制限されるので、即ち、その領域外の周波数成分は除去されるので、(フィルタリング後の動画データに周波数軸上への変換を施すエンコードを適用することにより)その除去された周波数成分の分だけのデータ量の削減を行うことができる。 In the embodiment described above, the frame rate of 1 / t 0 is obtained by performing downsampling while performing filtering using the region on the frequency domain that can be recognized by humans as the passband in the transmission device 1. the video data, 1 / has been set as the moving picture data of the frame rate (4t 0), downsampling is not necessarily performed. When downsampling is not performed, the number of frames of video data after filtering is the same as that before filtering, but the frequency component is limited to a region on the frequency domain that can be recognized by humans. That is, since the frequency component outside the region is removed, the data amount is reduced by the amount of the removed frequency component (by applying an encoding that performs conversion on the frequency axis to the moving image data after filtering). It can be performed.

2次元平面(x,y)に時間方向(t)を加えた3次元空間における動画データを示す図である。It is a figure which shows the moving image data in the three-dimensional space which added the time direction (t) to the two-dimensional plane (x, y). 人間の視覚によって認識することができる動画の周波数ドメイン上の範囲を示す図である。It is a figure which shows the range on the frequency domain of the moving image which can be recognized by human vision. 静止している動画の部分のデータが分布する周波数ドメイン上の領域を示す図である。It is a figure which shows the area | region on the frequency domain where the data of the part of the moving image which are still are distributed. 被写体が速度(r0/t0)/2程度で動いている部分のデータが分布する周波数ドメイン上の領域を示す図である。Subject is a diagram showing a region on the frequency domain data is distributed in the moving parts at a rate (r 0 / t 0) / 2 approximately. 速度(r0/t0)/2で動いている被写体を示す波形図である。It is a waveform diagram showing a moving subject at a rate (r 0 / t 0) / 2. 速度(r0/t0)/2で動いている被写体を示す図である。It is a diagram showing a moving subject at a rate (r 0 / t 0) / 2. 速度(r0/t0)/2程度で動いている部分のデータの周波数ドメイン上の部分を説明するための図である。It is a diagram for explaining a portion of a frequency domain data of the moving parts at a rate (r 0 / t 0) / 2 approximately. 被写体が速度r0/t0程度で動いている部分のデータが分布する周波数ドメイン上の領域を示す図である。Subject is a diagram showing a region on the frequency domain data is distributed in the moving parts in the order rate r 0 / t 0. 被写体が速度2r0/t0程度で動いている部分のデータが分布する周波数ドメイン上の領域を示す図である。Subject is a diagram showing a region on the frequency domain data is distributed in the moving parts in the order rate 2r 0 / t 0. 動画の静止している部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。It is a figure explaining the area | region on the frequency domain which a human can recognize about the still part of a moving image. 被写体が速度(r0/t0)/2程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。It is a diagram for explaining a region of the frequency domain that can recognize human the portion where the subject is moving at a speed (r 0 / t 0) / 2 approximately. 被写体が速度r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate r 0 / t 0. 被写体が速度2r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate 2r 0 / t 0. 被写体が速度(r0/t0)/2程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。It is a diagram for explaining a region of the frequency domain that can recognize human the portion where the subject is moving at a speed (r 0 / t 0) / 2 approximately. 被写体が速度(r0/t0)/2程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。It is a diagram for explaining a region of the frequency domain that can recognize human the portion where the subject is moving at a speed (r 0 / t 0) / 2 approximately. 被写体が速度r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate r 0 / t 0. 被写体が速度r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate r 0 / t 0. 被写体が速度2r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate 2r 0 / t 0. 被写体が速度2r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate 2r 0 / t 0. 動画の静止している部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。It is a figure explaining the area | region on the frequency domain which a human can recognize about the still part of a moving image. 被写体が速度(r0/t0)/2程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。It is a diagram for explaining a region of the frequency domain that can recognize human the portion where the subject is moving at a speed (r 0 / t 0) / 2 approximately. 被写体が速度r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate r 0 / t 0. 被写体が速度2r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate 2r 0 / t 0. 本発明が適用される画像処理システムの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the image processing system to which this invention is applied. 送信装置1の第1の構成例を示すブロック図である。3 is a block diagram illustrating a first configuration example of a transmission apparatus 1. FIG. 送信装置1の処理を説明するフローチャートである。4 is a flowchart for explaining processing of the transmission device 1. 送信装置1が出力する動画データを説明する図である。It is a figure explaining the moving image data which the transmitter 1 outputs. 送信装置1が出力する動画データを説明する図である。It is a figure explaining the moving image data which the transmitter 1 outputs. 送信装置1が出力する動画データを説明する図である。It is a figure explaining the moving image data which the transmitter 1 outputs. 送信装置1が出力する動画データを説明する図である。It is a figure explaining the moving image data which the transmitter 1 outputs. フィルタ生成部23の処理を説明するフローチャートである。5 is a flowchart for explaining processing of a filter generation unit 23. 主成分方向を取得する方法を説明するフローチャートである。It is a flowchart explaining the method of acquiring a principal component direction. 受信装置2の第1の構成例を示すブロック図である。3 is a block diagram illustrating a first configuration example of a receiving device 2. FIG. 受信装置2の処理を説明するフローチャートである。5 is a flowchart for explaining processing of the reception device 2. 受信装置2でのアップサンプリング後の動画データを説明する図である。6 is a diagram for explaining moving image data after up-sampling in the receiving device 2; 受信装置2でのアップサンプリング後の動画データを説明する図である。6 is a diagram for explaining moving image data after up-sampling in the receiving device 2; 受信装置2でのアップサンプリング後の動画データを説明する図である。6 is a diagram for explaining moving image data after up-sampling in the receiving device 2; 受信装置2でのアップサンプリング後の動画データを説明する図である。6 is a diagram for explaining moving image data after up-sampling in the receiving device 2; 電子シャッタによる積分を説明する図である。It is a figure explaining the integration by an electronic shutter. フィルタの通過帯域を説明する図である。It is a figure explaining the pass band of a filter. フィルタの通過帯域を説明する図である。It is a figure explaining the pass band of a filter. フィルタの通過帯域を説明する図である。It is a figure explaining the pass band of a filter. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 主成分方向取得部31の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a principal component direction acquisition unit 31. FIG. 相関情報を示す図である。It is a figure which shows correlation information. スケーリング後の相関情報を示す図である。It is a figure which shows the correlation information after scaling. 合成相関情報を示す図である。It is a figure which shows synthetic | combination correlation information. 動きベクトルを示す図である。It is a figure which shows a motion vector. 動きベクトルを示す図である。It is a figure which shows a motion vector. 動きベクトルを示す図である。It is a figure which shows a motion vector. 動きベクトルを示す図である。It is a figure which shows a motion vector. 動きベクトルを示す図である。It is a figure which shows a motion vector. 動きベクトルを示す図である。It is a figure which shows a motion vector. 動きベクトルを示す図である。It is a figure which shows a motion vector. 動きベクトルを示す図である。It is a figure which shows a motion vector. 主成分方向取得部31の処理を説明するフローチャートである。5 is a flowchart illustrating processing of a principal component direction acquisition unit 31. 主成分方向取得部31の処理を説明するフローチャートである。5 is a flowchart illustrating processing of a principal component direction acquisition unit 31. 主成分方向取得部31の処理を説明するフローチャートである。5 is a flowchart illustrating processing of a principal component direction acquisition unit 31. 主成分方向取得部31の処理を説明するフローチャートである。5 is a flowchart illustrating processing of a principal component direction acquisition unit 31. フィルタ部22の処理を説明するフローチャートである。4 is a flowchart for explaining processing of a filter unit 22; 静止している被写体と動いている被写体を示す図である。It is a figure which shows the to-be-photographed subject and the to-be-moved subject. 静止している被写体と動いている被写体とが投影された動画データを示す波形図である。FIG. 6 is a waveform diagram showing moving image data in which a stationary subject and a moving subject are projected. 静止している被写体と動いている被写体とが投影された動画データを示す波形図である。FIG. 6 is a waveform diagram showing moving image data in which a stationary subject and a moving subject are projected. 主成分方向取得部31の他の構成例を示すブロック図である。10 is a block diagram illustrating another configuration example of the principal component direction acquisition unit 31. FIG. フィルタ生成部23の処理を説明するフローチャートである。5 is a flowchart for explaining processing of a filter generation unit 23. フィルタ生成部23の処理を説明するフローチャートである。5 is a flowchart for explaining processing of a filter generation unit 23. フィルタ生成部23の処理を説明するフローチャートである。5 is a flowchart for explaining processing of a filter generation unit 23. フィルタ生成部23の処理を説明するフローチャートである。5 is a flowchart for explaining processing of a filter generation unit 23. フィルタ生成部23の処理を説明するフローチャートである。5 is a flowchart for explaining processing of a filter generation unit 23. フィルタ部22の処理を説明するフローチャートである。4 is a flowchart for explaining processing of a filter unit 22; 送信装置1の第2の構成例を示すブロック図である。6 is a block diagram illustrating a second configuration example of the transmission device 1. FIG. 表示装置3の表示能力を表す領域を示す図である。FIG. 3 is a diagram showing an area representing display capability of the display device 3. 表示装置3の表示能力を表す領域を示す図である。FIG. 3 is a diagram showing an area representing display capability of the display device 3. 表示装置3の表示能力を表す領域を示す図である。FIG. 3 is a diagram showing an area representing display capability of the display device 3. 表示装置3の表示能力を表す領域を示す図である。FIG. 3 is a diagram showing an area representing display capability of the display device 3. 「低域成分動画データ」を示す図である。It is a figure which shows "low-frequency component moving image data". 「中低域成分動画データ」を示す図である。It is a figure which shows "medium-low-range component moving image data." 「中高域成分動画データ」を示す図である。It is a figure which shows "mid-high range component moving image data." 「低域成分動画データ」を示す図である。It is a figure which shows "low-frequency component moving image data". 「中低域成分動画データ」を示す図である。It is a figure which shows "medium-low-range component moving image data." 「中高域成分動画データ」を示す図である。It is a figure which shows "mid-high range component moving image data." 「高域成分動画データ」を示す図である。It is a figure which shows "high region component moving image data." 「低域成分動画データ」を示す図である。It is a figure which shows "low-frequency component moving image data". 「中低域成分動画データ」を示す図である。It is a figure which shows "medium-low-range component moving image data." 「中高域成分動画データ」を示す図である。It is a figure which shows "mid-high range component moving image data." 「高域成分動画データ」を示す図である。It is a figure which shows "high region component moving image data." 送信装置1の処理を説明するフローチャートである。4 is a flowchart for explaining processing of the transmission device 1. 送信装置1の処理を説明するフローチャートである。4 is a flowchart for explaining processing of the transmission device 1. 送信装置1の処理を説明するフローチャートである。4 is a flowchart for explaining processing of the transmission device 1. 「低域成分動画データ」を示す図である。It is a figure which shows "low-frequency component moving image data". 「低域成分動画データ」を示す図である。It is a figure which shows "low-frequency component moving image data". 「中低域成分動画データ」を示す図である。It is a figure which shows "medium-low-range component moving image data." 「中高域成分動画データ」を示す図である。It is a figure which shows "mid-high range component moving image data." 「低域成分動画データ」を示す図である。It is a figure which shows "low-frequency component moving image data". 「中低域成分動画データ」を示す図である。It is a figure which shows "medium-low-range component moving image data." 「中高域成分動画データ」を示す図である。It is a figure which shows "mid-high range component moving image data." 「高域成分動画データ」を示す図である。It is a figure which shows "high region component moving image data." 「低域成分動画データ」を示す図である。It is a figure which shows "low-frequency component moving image data". 「中低域成分動画データ」を示す図である。It is a figure which shows "medium-low-range component moving image data." 「中高域成分動画データ」を示す図である。It is a figure which shows "mid-high range component moving image data." 「高域成分動画データ」を示す図である。It is a figure which shows "high region component moving image data." 受信装置2の第2の構成例を示すブロック図である。6 is a block diagram illustrating a second configuration example of the reception device 2. FIG. 受信装置2の処理を説明するフローチャートである。5 is a flowchart for explaining processing of the reception device 2. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 受信装置2の第3の構成例を示すブロック図である。11 is a block diagram illustrating a third configuration example of the reception device 2. FIG. 受信装置2の処理を説明するフローチャートである。5 is a flowchart for explaining processing of the reception device 2. アップサンプリング後の動画データを示す図である。It is a figure which shows the moving image data after upsampling. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 「低域成分動画データ」と「中低域成分動画データ」を合成して得られる動画データを示す図である。It is a figure which shows the moving image data obtained by synthesize | combining "low frequency component moving image data" and "medium low frequency component moving image data". アップサンプリング後の動画データを示す図である。It is a figure which shows the moving image data after upsampling. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 「低域成分動画データ」と「中低域成分動画データ」を合成して得られる動画データを示す図である。It is a figure which shows the moving image data obtained by synthesize | combining "low frequency component moving image data" and "medium low frequency component moving image data". アップサンプリング後の動画データを示す図である。It is a figure which shows the moving image data after upsampling. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 「低域成分動画データ」と「中低域成分動画データ」を合成して得られる動画データを示す図である。It is a figure which shows the moving image data obtained by synthesize | combining "low frequency component moving image data" and "medium low frequency component moving image data". アップサンプリング後の動画データを示す図である。It is a figure which shows the moving image data after upsampling. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 受信装置2の第4の構成例を示すブロック図である。10 is a block diagram illustrating a fourth configuration example of the reception device 2. FIG. 受信装置2の処理を説明するフローチャートである。5 is a flowchart for explaining processing of the reception device 2. 受信装置2の処理を説明するフローチャートである。5 is a flowchart for explaining processing of the reception device 2. アップサンプリング後の動画データを示す図である。It is a figure which shows the moving image data after upsampling. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を合成して得られる動画データを示す図である。It is a figure which shows the moving image data obtained by synthesize | combining "low region component moving image data", "middle low region component moving image data", and "middle and high region component moving image data". アップサンプリング後の動画データを示す図である。It is a figure which shows the moving image data after upsampling. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を合成して得られる動画データを示す図である。It is a figure which shows the moving image data obtained by synthesize | combining "low region component moving image data", "middle low region component moving image data", and "middle and high region component moving image data". アップサンプリング後の動画データを示す図である。It is a figure which shows the moving image data after upsampling. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を合成して得られる動画データを示す図である。It is a figure which shows the moving image data obtained by synthesize | combining "low region component moving image data", "middle low region component moving image data", and "middle and high region component moving image data". アップサンプリング後の動画データを示す図である。It is a figure which shows the moving image data after upsampling. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 受信装置2の第5の構成例を示すブロック図である。10 is a block diagram illustrating a fifth configuration example of the receiving device 2. FIG. 受信装置2の処理を説明するフローチャートである。5 is a flowchart for explaining processing of the reception device 2. 受信装置2の処理を説明するフローチャートである。5 is a flowchart for explaining processing of the reception device 2. アップサンプリング後の動画データを示す図である。It is a figure which shows the moving image data after upsampling. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」を合成して得られる動画データを示す図である。It is a figure which shows the moving image data obtained by synthesize | combining "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". アップサンプリング後の動画データを示す図である。It is a figure which shows the moving image data after upsampling. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」を合成して得られる動画データを示す図である。It is a figure which shows the moving image data obtained by synthesize | combining "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". アップサンプリング後の動画データを示す図である。It is a figure which shows the moving image data after upsampling. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」を合成して得られる動画データを示す図である。It is a figure which shows the moving image data obtained by synthesize | combining "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". アップサンプリング後の動画データを示す図である。It is a figure which shows the moving image data after upsampling. 表示装置3で表示される動画データを示す図である。4 is a diagram showing moving image data displayed on the display device 3. FIG. 受信装置2の第6の構成例を示すブロック図である。11 is a block diagram illustrating a sixth configuration example of the receiving device 2. FIG. 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」への分割方法を説明する図である。It is a figure explaining the division | segmentation method into "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」への分割方法を説明する図である。It is a figure explaining the division | segmentation method into "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」への分割方法を説明する図である。It is a figure explaining the division | segmentation method into "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". 「低域成分動画データ」を示す図である。It is a figure which shows "low-frequency component moving image data". 「中低域成分動画データ」を示す図である。It is a figure which shows "medium-low-range component moving image data." 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」への分割方法を説明する図である。It is a figure explaining the division | segmentation method into "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」への分割方法を説明する図である。It is a figure explaining the division | segmentation method into "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」への分割方法を説明する図である。It is a figure explaining the division | segmentation method into "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」への分割方法を説明する図である。It is a figure explaining the division | segmentation method into "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」への分割方法を説明する図である。It is a figure explaining the division | segmentation method into "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". 「低域成分動画データ」を示す図である。It is a figure which shows "low-frequency component moving image data". 「中低域成分動画データ」を示す図である。It is a figure which shows "medium-low-range component moving image data." 「中高域成分動画データ」を示す図である。It is a figure which shows "mid-high range component moving image data." 「高域成分動画データ」を示す図である。It is a figure which shows "high region component moving image data." 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」への分割方法を説明する図である。It is a figure explaining the division | segmentation method into "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」への分割方法を説明する図である。It is a figure explaining the division | segmentation method into "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」への分割方法を説明する図である。It is a figure explaining the division | segmentation method into "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」への分割方法を説明する図である。It is a figure explaining the division | segmentation method into "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". 「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」への分割方法を説明する図である。It is a figure explaining the division | segmentation method into "low frequency component moving image data", "middle low frequency component moving image data", "middle and high frequency component moving image data", and "high frequency component moving image data". 「低域成分動画データ」を示す図である。It is a figure which shows "low-frequency component moving image data". 「中低域成分動画データ」を示す図である。It is a figure which shows "medium-low-range component moving image data." 「中高域成分動画データ」を示す図である。It is a figure which shows "mid-high range component moving image data." 「高域成分動画データ」を示す図である。It is a figure which shows "high region component moving image data." 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 受信装置2の第7の構成例を示すブロック図である。11 is a block diagram illustrating a seventh configuration example of the receiving device 2. FIG. 受信装置2の処理を説明するフローチャートである。5 is a flowchart for explaining processing of the reception device 2. 受信装置2の第8の構成例を示すブロック図である。FIG. 20 is a block diagram illustrating an eighth configuration example of the receiving device 2. 受信装置2の処理を説明するフローチャートである。5 is a flowchart for explaining processing of the reception device 2. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 表示装置3に供給すべき動画データを示す図である。It is a figure which shows the moving image data which should be supplied to the display apparatus. 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the computer to which this invention is applied.

符号の説明Explanation of symbols

1 送信装置, 2 受信装置, 3 表示装置, 11 記録媒体, 12 伝送媒体, 21 バッファ部, 22 フィルタ部, 23 フィルタ生成部, 24 エンコード部, 31 主成分方向取得部, 32 フィルタ情報供給部, 50 デコード部, 51 バッファ部, 52 フィルタ部, 53 フィルタ生成部, 61 主成分方向取得部, 62 フィルタ情報供給部, 101 バッファ部, 102 ブロック抽出部, 103 相関演算部, 104 スケーリング合成部, 105 最小値検出部, 124 合成部, 125 最小値検出部, 202 フィルタ部, 211 抽出部, 221 抽出部, 222 合成部, 223 フィルタ部, 231 抽出部, 232 合成部, 233 フィルタ部, 241 抽出部, 242 合成部, 251 抽出部, 252 合成部, 253 フィルタ部, 301 フィルタ部, 302 フィルタ情報供給部, 311 MPEGデコーダ, 312 フィルタ情報供給部, 401 CPU, 402 メモリ, 403 ディスプレイコントローラ, 404 入力機器インターフェース, 405 ネットワークインターフェース, 407 外部機器インターフェース, 409 VTRインターフェース, 410 VTR, 411 ディスプレイ, 412 キーボード, 413 マウス, 414 HDD, 415 メディアドライブ, 416 可搬型メディア   DESCRIPTION OF SYMBOLS 1 Transmission apparatus, 2 Reception apparatus, 3 Display apparatus, 11 Recording medium, 12 Transmission medium, 21 Buffer part, 22 Filter part, 23 Filter production | generation part, 24 Encoding part, 31 Main component direction acquisition part, 32 Filter information supply part, 50 Decoding section, 51 Buffer section, 52 Filter section, 53 Filter generation section, 61 Principal component direction acquisition section, 62 Filter information supply section, 101 Buffer section, 102 Block extraction section, 103 Correlation calculation section, 104 Scaling composition section, 105 Minimum value detection unit, 124 synthesis unit, 125 minimum value detection unit, 202 filter unit, 211 extraction unit, 221 extraction unit, 222 synthesis unit, 223 filter unit, 231 extraction unit, 232 synthesis unit, 233 filter unit, 241 extraction unit , 242 Generation unit, 251 extraction unit, 252 synthesis unit, 253 filter unit, 301 filter unit, 302 filter information supply unit, 311 MPEG decoder, 312 filter information supply unit, 401 CPU, 402 memory, 403 display controller, 404 input device interface, 405 network interface, 407 external device interface, 409 VTR interface, 410 VTR, 411 display, 412 keyboard, 413 mouse, 414 HDD, 415 media drive, 416 portable media

Claims (30)

動画データをフィルタリングするフィルタの情報であるフィルタ情報を求める画像処理方法において、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記動画データの第1主成分の方向である主成分方向を検出する主成分方向検出ステップと、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、前記フィルタの通過帯域として決定する領域決定ステップと、
前記フィルタの通過帯域を、前記フィルタ情報として出力する出力ステップと
を含む像処理方法。
In an image processing method for obtaining filter information, which is filter information for filtering video data,
A principal component direction detection step of detecting a principal component direction which is a direction of the first principal component of the moving image data on a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction;
In the frequency domain, a region that extends in the principal component direction and has a specific width corresponding to a visual integration function in the direction of the frequency axis in the time direction is determined as a passband of the filter Steps,
Images processing method and an output step of outputting the passband of the filter, as the filter information.
前記主成分方向検出ステップでは、前記動画データにおける1以上の画素からなるブロックの動きを表すベクトルと同一コンポーネントの、前記周波数ドメイン上のベクトルの方向と直交する方向を、前記主成分方向として検出する
求項1に記載の画像処理方法。
In the principal component direction detection step, a direction orthogonal to the direction of the vector on the frequency domain, which is the same component as the vector representing the motion of the block composed of one or more pixels in the moving image data, is detected as the principal component direction.
The image processing method according to Motomeko 1.
前記主成分方向検出ステップは、
前記動画データにおいて注目している注目フレームの前記ブロックと、前記注目フレームに対して時間的に前後の複数のフレームそれぞれとの相関を表す相関情報を演算する相関情報演算ステップと、
前記ブロックと前記複数のフレームそれぞれとの相関情報を空間方向にスケーリングして合成した合成相関情報を求めるスケーリング合成ステップと、
前記合成相関情報が表す相関が最大となる空間方向の位置である最大相関位置を検出し、前記最大相関位置へのベクトルを、前記ブロックの動きベクトルとして求める位置検出ステップと
を含み、
前記ブロックの動きベクトルと同一コンポーネントの、前記周波数ドメイン上のベクトルの方向と直交する方向を、前記主成分方向として検出する
求項2に記載の画像処理方法。
The principal component direction detection step includes:
A correlation information calculation step of calculating correlation information indicating a correlation between the block of the target frame of interest in the moving image data and each of a plurality of frames temporally preceding and following the target frame;
A scaling and combining step for obtaining combined correlation information obtained by scaling and combining correlation information between the block and each of the plurality of frames in a spatial direction;
A position detecting step of detecting a maximum correlation position that is a position in a spatial direction where the correlation represented by the combined correlation information is maximum, and obtaining a vector to the maximum correlation position as a motion vector of the block, and
A direction orthogonal to the direction of the vector on the frequency domain of the same component as the motion vector of the block is detected as the principal component direction.
The image processing method according to Motomeko 2.
前記複数のフレームの範囲は、前記フィルタによるフィルタリングに用いられるフレームの範囲に対応した範囲である
求項3に記載の画像処理方法。
The range of the plurality of frames is a range corresponding to a range of frames used for filtering by the filter.
The image processing method according to Motomeko 3.
前記主成分方向検出ステップは、
前記動画データにおいて注目している注目フレームの前記ブロックと、前記注目フレームに対して時間的に前後の複数のフレームそれぞれとの相関を表す相関情報を演算する相関情報演算ステップと、
前記ブロックと前記複数のフレームそれぞれとの相関情報を空間方向にスケーリングして合成した合成相関情報を、前記相関情報を合成する数を変えて複数求めるスケーリング合成ステップと、
複数の前記合成相関情報のうちの、相関が最大の合成相関情報である最大合成相関情報を求め、その最大合成相関情報が表す相関が最大となる空間方向の位置である最大相関位置を検出し、前記最大相関位置へのベクトルを、前記ブロックの動きベクトルとして求める位置検出ステップと
を含み、
前記ブロックの動きベクトルと同一コンポーネントの、前記周波数ドメイン上のベクトルの方向と直交する方向を、前記主成分方向として検出する
求項2に記載の画像処理方法。
The principal component direction detection step includes:
A correlation information calculation step of calculating correlation information indicating a correlation between the block of the target frame of interest in the moving image data and each of a plurality of frames temporally preceding and following the target frame;
A scaling combining step of obtaining a plurality of combined correlation information obtained by scaling and combining the correlation information between the block and each of the plurality of frames in a spatial direction, by changing the number of the correlation information to be combined;
Among the plurality of composite correlation information, the maximum composite correlation information which is the maximum correlation information is obtained, and the maximum correlation position which is the position in the spatial direction where the correlation represented by the maximum composite correlation information is maximum is detected. And a position detecting step for obtaining a vector to the maximum correlation position as a motion vector of the block,
A direction orthogonal to the direction of the vector on the frequency domain of the same component as the motion vector of the block is detected as the principal component direction.
The image processing method according to Motomeko 2.
前記位置検出ステップでは、前記複数のフレームのうちの、前記最大合成相関情報を求めるのに合成した前記相関情報の演算に用いられたフレームの範囲を、前記動きベクトルの有効範囲として、さらに求める
求項5に記載の画像処理方法。
In the position detection step, a frame range used for calculating the correlation information synthesized to obtain the maximum synthesized correlation information among the plurality of frames is further obtained as an effective range of the motion vector.
The image processing method according to Motomeko 5.
前記フィルタによるフィルタリングは、前記有効範囲のフレームの画素を用いて行われる
求項6に記載の画像処理方法。
Filtering by the filter is performed using pixels in the frame in the effective range.
The image processing method according to Motomeko 6.
動画データをフィルタリングするフィルタの情報であるフィルタ情報を求める画像処理装置において、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記動画データの第1主成分の方向である主成分方向を検出する主成分方向検出手段と、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、前記フィルタの通過帯域として決定し、前記フィルタ情報として出力する領域決定手段と
を備える像処理装置。
In an image processing apparatus that obtains filter information that is filter information for filtering video data,
Principal component direction detection means for detecting a principal component direction which is a direction of the first principal component of the moving image data on a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction;
In the frequency domain, a region extending in the principal component direction and having a specific width corresponding to a visual integration function in the direction of the frequency axis in the time direction is determined as a passband of the filter, images processing device and a region determination unit that outputs a filter information.
動画データをフィルタリングするフィルタの情報であるフィルタ情報を求める画像処理を、コンピュータに実行させるプログラムにおいて、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記動画データの第1主成分の方向である主成分方向を検出する主成分方向検出ステップと、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、前記フィルタの通過帯域として決定する領域決定ステップと、
前記フィルタの通過帯域を、前記フィルタ情報として出力する出力ステップと
を含む画像処理をコンピュータに実行させるプログラム。
In a program for causing a computer to execute image processing for obtaining filter information, which is filter information for filtering moving image data,
A principal component direction detection step of detecting a principal component direction which is a direction of the first principal component of the moving image data on a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction;
In the frequency domain, a region that extends in the principal component direction and has a specific width corresponding to a visual integration function in the direction of the frequency axis in the time direction is determined as a passband of the filter Steps,
A program for causing a computer to execute image processing including an output step of outputting the pass band of the filter as the filter information.
動画データをフィルタリングするフィルタの情報であるフィルタ情報を求める画像処理を、コンピュータに実行させるプログラムが記録されているプログラム記録媒体において、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記動画データの第1主成分の方向である主成分方向を検出する主成分方向検出ステップと、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、前記フィルタの通過帯域として決定する領域決定ステップと、
前記フィルタの通過帯域を、前記フィルタ情報として出力する出力ステップと
を含む画像処理をコンピュータに実行させるプログラムが記録されているプログラム記録媒体。
In a program recording medium in which a program for causing a computer to execute image processing for obtaining filter information that is filter information for filtering moving image data is recorded.
A principal component direction detection step of detecting a principal component direction which is a direction of the first principal component of the moving image data on a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction;
In the frequency domain, a region that extends in the principal component direction and has a specific width corresponding to a visual integration function in the direction of the frequency axis in the time direction is determined as a passband of the filter Steps,
A program recording medium in which a program for causing a computer to execute image processing including an output step of outputting the pass band of the filter as the filter information is recorded.
第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングして、前記第1のフレームレートよりも低い第2のフレームレートの動画データを出力する画像処理方法において、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、前記第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、前記第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、前記第2のフレームレートの動画データを得るフィルタステップと、
前記フィルタステップで得られた前記第2のフレームレートの動画データを出力する出力ステップと
を含む像処理方法。
In the image processing method of filtering moving image data having a first frame rate, down-sampling in the time direction, and outputting moving image data having a second frame rate lower than the first frame rate,
In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, a region extending in the principal component direction that is the direction of the first principal component of the moving image data at the first frame rate, the time By filtering the moving image data of the first frame rate with a region having a specific width corresponding to the visual integration function in the direction of the frequency axis of the direction as a pass band, and down-sampling in the time direction, the first A filter step for obtaining video data having a frame rate of 2;
Images processing method and an output step of outputting the video data of the second frame rate obtained by the filter step.
前記周波数ドメイン上での、前記第1のフレームレートの動画データの第1主成分の方向である主成分方向を検出し、前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に前記特定の幅を有する領域を、前記通過帯域として決定する通過帯域算出ステップをさらに含む
求項11に記載の画像処理方法。
A principal component direction that is a direction of a first principal component of the moving image data at the first frame rate on the frequency domain is detected, and an area extending in the principal component direction in the frequency domain, the time domain an area with a specified width in the direction of the frequency axis direction, further comprising a pass band calculating step of determining as said pass band
The image processing method according to Motomeko 11.
前記出力ステップでは、前記第2のフレームレートの動画データを、前記主成分方向とともに出力する
求項11に記載の画像処理方法。
In the output step, the moving image data of the second frame rate is output together with the principal component direction.
The image processing method according to Motomeko 11.
前記通過帯域算出ステップでは、前記第1のフレームレートの動画データにおける1以上の画素からなるブロックの動きを表すベクトルと同一コンポーネントの、前記周波数ドメイン上のベクトルの方向と直交する方向を、前記主成分方向として検出する
求項12に記載の画像処理方法。
In the passband calculation step, a direction orthogonal to the direction of the vector on the frequency domain of the same component as the vector representing the motion of the block composed of one or more pixels in the moving image data of the first frame rate is set to the main domain. Detect as component direction
The image processing method according to Motomeko 12.
前記通過帯域算出ステップは、
前記第1のフレームレートの動画データにおいて注目している注目フレームの前記ブロックと、前記注目フレームに対して時間的に前後の複数のフレームそれぞれとの相関を表す相関情報を演算する相関情報演算ステップと、
前記ブロックと前記複数のフレームそれぞれとの相関情報を空間方向にスケーリングして合成した合成相関情報を求めるスケーリング合成ステップと、
前記合成相関情報が表す相関が最大となる空間方向の位置である最大相関位置を検出し、前記最大相関位置へのベクトルを、前記ブロックの動きベクトルとして求める位置検出ステップと
を含み、
前記ブロックの動きベクトルと同一コンポーネントの、前記周波数ドメイン上のベクトルの方向と直交する方向を、前記主成分方向として検出する
求項14に記載の画像処理方法。
The passband calculation step includes
Correlation information calculation step for calculating correlation information indicating the correlation between the block of the target frame of interest in the moving image data of the first frame rate and each of a plurality of frames temporally preceding and following the target frame. When,
A scaling and combining step for obtaining combined correlation information obtained by scaling and combining correlation information between the block and each of the plurality of frames in a spatial direction;
A position detecting step of detecting a maximum correlation position that is a position in a spatial direction where the correlation represented by the combined correlation information is maximum, and obtaining a vector to the maximum correlation position as a motion vector of the block, and
A direction orthogonal to the direction of the vector on the frequency domain of the same component as the motion vector of the block is detected as the principal component direction.
The image processing method according to Motomeko 14.
前記複数のフレームの範囲は、前記第1のフレームレートの動画データをフィルタリングするときに用いられるフレームの範囲に対応した範囲である
求項15に記載の画像処理方法。
The range of the plurality of frames is a range corresponding to a range of frames used when filtering moving image data having the first frame rate.
The image processing method according to Motomeko 15.
前記通過帯域算出ステップは、
前記第1のフレームレートの動画データにおいて注目している注目フレームの前記ブロックと、前記注目フレームに対して時間的に前後の複数のフレームそれぞれとの相関を表す相関情報を演算する相関情報演算ステップと、
前記ブロックと前記複数のフレームそれぞれとの相関情報を空間方向にスケーリングして合成した合成相関情報を、前記相関情報を合成する数を変えて複数求めるスケーリング合成ステップと、
複数の前記合成相関情報のうちの、相関が最大の合成相関情報である最大合成相関情報を求め、その最大合成相関情報が表す相関が最大となる空間方向の位置である最大相関位置を検出し、前記最大相関位置へのベクトルを、前記ブロックの動きベクトルとして求める位置検出ステップと
を含み、
前記ブロックの動きベクトルと同一コンポーネントの、前記周波数ドメイン上のベクトルの方向と直交する方向を、前記主成分方向として検出する
求項14に記載の画像処理方法。
The passband calculation step includes
Correlation information calculation step for calculating correlation information indicating the correlation between the block of the target frame of interest in the moving image data of the first frame rate and each of a plurality of frames temporally preceding and following the target frame. When,
A scaling combining step of obtaining a plurality of combined correlation information obtained by scaling and combining the correlation information between the block and each of the plurality of frames in a spatial direction, by changing the number of the correlation information to be combined;
Among the plurality of composite correlation information, the maximum composite correlation information which is the maximum correlation information is obtained, and the maximum correlation position which is the position in the spatial direction where the correlation represented by the maximum composite correlation information is maximum is detected. And a position detecting step for obtaining a vector to the maximum correlation position as a motion vector of the block,
A direction orthogonal to the direction of the vector on the frequency domain of the same component as the motion vector of the block is detected as the principal component direction.
The image processing method according to Motomeko 14.
前記位置検出ステップでは、前記複数のフレームのうちの、前記最大合成相関情報を求めるのに合成した前記相関情報の演算に用いられたフレームの範囲を、前記動きベクトルの有効範囲として、さらに求める
求項17に記載の画像処理方法。
In the position detection step, a frame range used for calculating the correlation information synthesized to obtain the maximum synthesized correlation information among the plurality of frames is further obtained as an effective range of the motion vector.
The image processing method according to Motomeko 17.
前記第1のフレームレートの動画データのフィルタリングは、前記有効範囲のフレームの画素を用いて行われる
求項18に記載の画像処理方法。
The filtering of the moving image data at the first frame rate is performed using pixels of the frames in the effective range.
The image processing method according to Motomeko 18.
第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングして、前記第1のフレームレートよりも低い第2のフレームレートの動画データを出力する画像処理装置において、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、前記第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、前記第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、前記第2のフレームレートの動画データを得るフィルタ手段を備える
像処理装置。
In the image processing apparatus that filters moving image data having a first frame rate and down-samples the moving image data in a time direction to output moving image data having a second frame rate lower than the first frame rate.
In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, a region extending in the principal component direction that is the direction of the first principal component of the moving image data at the first frame rate, the time By filtering the moving image data of the first frame rate with a region having a specific width corresponding to the visual integration function in the direction of the frequency axis of the direction as a pass band, and down-sampling in the time direction, the first Filter means for obtaining moving image data of frame rate 2
Images processing device.
第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングして、前記第1のフレームレートよりも低い第2のフレームレートの動画データを出力する画像処理を、コンピュータに実行させるプログラムにおいて、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、前記第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、前記第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、前記第2のフレームレートの動画データを得るフィルタステップと、
前記フィルタステップで得られた前記第2のフレームレートの動画データを出力する出力ステップと
を含む画像処理をコンピュータに実行させるプログラム。
A program for causing a computer to execute image processing for filtering moving image data having a first frame rate and down-sampling the moving image data in a time direction to output moving image data having a second frame rate lower than the first frame rate In
In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, a region extending in the principal component direction that is the direction of the first principal component of the moving image data at the first frame rate, the time By filtering the moving image data of the first frame rate with a region having a specific width corresponding to the visual integration function in the direction of the frequency axis of the direction as a pass band, and down-sampling in the time direction, the first A filter step for obtaining video data having a frame rate of 2;
A program that causes a computer to execute image processing including an output step of outputting moving image data of the second frame rate obtained in the filtering step.
第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングして、前記第1のフレームレートよりも低い第2のフレームレートの動画データを出力する画像処理を、コンピュータに実行させるプログラムが記録されているプログラム記録媒体において、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、前記第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、前記第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、前記第2のフレームレートの動画データを得るフィルタステップと、
前記フィルタステップで得られた前記第2のフレームレートの動画データを出力する出力ステップと
を含む画像処理をコンピュータに実行させるプログラムが記録されているプログラム記録媒体。
A program for causing a computer to execute image processing for filtering moving image data having a first frame rate and down-sampling the moving image data in a time direction to output moving image data having a second frame rate lower than the first frame rate In a program recording medium on which is recorded,
In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, a region extending in the principal component direction that is the direction of the first principal component of the moving image data at the first frame rate, the time By filtering the moving image data of the first frame rate with a region having a specific width corresponding to the visual integration function in the direction of the frequency axis of the direction as a pass band, and down-sampling in the time direction, the first A filter step for obtaining video data having a frame rate of 2;
A program recording medium on which a program for causing a computer to execute image processing including an output step of outputting moving image data of the second frame rate obtained in the filter step is recorded.
第1のフレームレートの動画データの前記第1のフレームレートよりも低い第2のフレームレートの動画データをフィルタリングしながら、時間方向にアップサンプリングして、前記第1のフレームレートの動画データを出力する画像処理方法において、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得ステップと、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定ステップと、
前記第2のフレームレートの動画データに対して、前記通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、前記第1のフレームレートの動画データを得るフィルタステップと
を含む像処理方法。
While moving image data having a second frame rate lower than the first frame rate of moving image data having a first frame rate, up-sampling is performed in the time direction, and moving image data having the first frame rate is output. In the image processing method to
Acquisition of principal component direction for acquiring a principal component direction which is a direction of the first principal component of the moving image data of the second frame rate on a frequency domain defined by a frequency axis in the time direction and a frequency axis in the spatial direction. Steps,
In the frequency domain, a region that extends in the principal component direction and has a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction is determined as a passband for the filter. Steps,
A filter that obtains moving image data of the first frame rate by performing upsampling in the time direction while applying a filter that passes the frequency component of the pass band to the moving image data of the second frame rate. images processing method comprising the steps.
前記主成分方向取得ステップでは、前記第2のフレームレートの動画データから、前記主成分方向を検出することにより取得する
請求項23に記載の画像処理方法。
In the principal component direction obtaining step, the principal component direction is obtained by detecting the principal component direction from the moving image data of the second frame rate.
The image processing method according to claim 23 .
前記主成分方向取得ステップでは、前記第2のフレームレートの動画データにおける1以上の画素からなるブロックの動きを表すベクトルと同一コンポーネントの、前記周波数ドメイン上のベクトルの方向と直交する方向を、前記主成分方向として検出する
請求項24に記載の画像処理方法。
In the principal component direction acquisition step, a direction orthogonal to the direction of the vector on the frequency domain of the same component as the vector representing the motion of the block composed of one or more pixels in the moving image data of the second frame rate is Detect as principal component direction
The image processing method according to claim 24 .
前記第2のフレームレートの動画データが、少なくとも動き補償を利用する符号化方法によって符号化されている場合において、
前記主成分方向取得ステップでは、前記動き補償に用いられる動きベクトルと同一コンポーネントの、前記周波数ドメイン上のベクトルの方向と直交する方向を、前記主成分方向として取得する
請求項23に記載の画像処理方法。
In the case where the moving image data of the second frame rate is encoded by an encoding method using at least motion compensation,
In the principal component direction acquisition step, a direction orthogonal to the direction of the vector on the frequency domain of the same component as the motion vector used for the motion compensation is acquired as the principal component direction.
The image processing method according to claim 23 .
前記通過帯域決定ステップでは、前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域の、前記時間方向の周波数軸の方向の幅を、前記第2のフレームレートの動画データの撮像時の露光時間に対応して制限した領域を、フィルタの通過帯域として決定する
請求項23に記載の画像処理方法。
In the passband determining step, the time direction of the region extending in the principal component direction in the frequency domain and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction A region in which the width in the direction of the frequency axis is limited corresponding to the exposure time at the time of capturing the moving image data at the second frame rate is determined as the pass band of the filter.
The image processing method according to claim 23 .
第1のフレームレートの動画データの前記第1のフレームレートよりも低い第2のフレームレートの動画データをフィルタリングしながら、時間方向にアップサンプリングして、前記第1のフレームレートの動画データを出力する画像処理装置において、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得手段と、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定手段と、
前記第2のフレームレートの動画データに対して、前記通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、前記第1のフレームレートの動画データを得るフィルタ手段と
を備える像処理装置。
While moving image data having a second frame rate lower than the first frame rate of moving image data having a first frame rate, up-sampling is performed in the time direction, and moving image data having the first frame rate is output. In the image processing apparatus to
Acquisition of principal component direction for acquiring a principal component direction which is a direction of the first principal component of the moving image data of the second frame rate on a frequency domain defined by a frequency axis in the time direction and a frequency axis in the spatial direction. Means,
In the frequency domain, a region that extends in the principal component direction and has a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction is determined as a passband for the filter. Means,
A filter that obtains moving image data of the first frame rate by performing upsampling in the time direction while applying a filter that passes the frequency component of the pass band to the moving image data of the second frame rate. images processing and means.
第1のフレームレートの動画データの前記第1のフレームレートよりも低い第2のフレームレートの動画データをフィルタリングしながら、時間方向にアップサンプリングして、前記第1のフレームレートの動画データを出力する画像処理を、コンピュータに実行させるプログラムにおいて、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得ステップと、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定ステップと、
前記第2のフレームレートの動画データに対して、前記通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、前記第1のフレームレートの動画データを得るフィルタステップと
を含む画像処理をコンピュータに実行させるプログラム。
While moving image data having a second frame rate lower than the first frame rate of moving image data having a first frame rate, up-sampling is performed in the time direction, and moving image data having the first frame rate is output. In a program for causing a computer to execute image processing to be performed,
Acquisition of principal component direction for acquiring a principal component direction which is a direction of the first principal component of the moving image data of the second frame rate on a frequency domain defined by a frequency axis in the time direction and a frequency axis in the spatial direction. Steps,
In the frequency domain, a region that extends in the principal component direction and has a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction is determined as a passband for the filter. Steps,
A filter that obtains moving image data of the first frame rate by performing upsampling in the time direction while applying a filter that passes the frequency component of the pass band to the moving image data of the second frame rate. A program for causing a computer to execute image processing including steps.
第1のフレームレートの動画データの前記第1のフレームレートよりも低い第2のフレームレートの動画データをフィルタリングしながら、時間方向にアップサンプリングして、前記第1のフレームレートの動画データを出力する画像処理を、コンピュータに実行させるプログラムが記録されているプログラム記録媒体において、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得ステップと、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定ステップと、
前記第2のフレームレートの動画データに対して、前記通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、前記第1のフレームレートの動画データを得るフィルタステップと
を含む画像処理をコンピュータに実行させるプログラムが記録されているプログラム記録媒体。
While moving image data having a second frame rate lower than the first frame rate of moving image data having a first frame rate, up-sampling is performed in the time direction, and moving image data having the first frame rate is output. In a program recording medium on which a program for causing a computer to execute image processing is recorded,
Acquisition of principal component direction for acquiring a principal component direction which is a direction of the first principal component of the moving image data of the second frame rate on a frequency domain defined by a frequency axis in the time direction and a frequency axis in the spatial direction. Steps,
In the frequency domain, a region that extends in the principal component direction and has a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction is determined as a passband for the filter. Steps,
A filter that obtains moving image data of the first frame rate by performing upsampling in the time direction while applying a filter that passes the frequency component of the pass band to the moving image data of the second frame rate. A program recording medium on which a program for causing a computer to execute image processing including steps is recorded.
JP2004268303A 2004-09-15 2004-09-15 Image processing method, image processing apparatus, program, and program recording medium Expired - Fee Related JP4441865B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004268303A JP4441865B2 (en) 2004-09-15 2004-09-15 Image processing method, image processing apparatus, program, and program recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004268303A JP4441865B2 (en) 2004-09-15 2004-09-15 Image processing method, image processing apparatus, program, and program recording medium

Publications (2)

Publication Number Publication Date
JP2006086705A JP2006086705A (en) 2006-03-30
JP4441865B2 true JP4441865B2 (en) 2010-03-31

Family

ID=36164864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004268303A Expired - Fee Related JP4441865B2 (en) 2004-09-15 2004-09-15 Image processing method, image processing apparatus, program, and program recording medium

Country Status (1)

Country Link
JP (1) JP4441865B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2050073A4 (en) * 2006-08-11 2009-12-30 Thomson Licensing Accurate motion portrayal for display and digital projectors
JP6399517B2 (en) * 2014-12-16 2018-10-03 東洋ゴム工業株式会社 Fluid measurement method, fluid measurement device, fluid measurement data generation method, fluid measurement data generation device, and computer program

Also Published As

Publication number Publication date
JP2006086705A (en) 2006-03-30

Similar Documents

Publication Publication Date Title
EP3793205B1 (en) Content based stream splitting of video data
EP2214137B1 (en) A method and apparatus for frame interpolation
JP4780046B2 (en) Image processing method, image processing apparatus, and image processing program
US20100002948A1 (en) Image enhancement
JP2004504736A (en) Three-dimensional image generation method and apparatus
JP2004104656A (en) Motion vector detection method, frame interpolation image creation method, and image display system
US20050259740A1 (en) Method and apparatus for converting motion image data, method and apparatus for reproducing motion image data, computer program for converting motion image data, and computer program for reproducing motion image data
JP2001086507A (en) Image coder, image coding method, image decoder, image decoding method, medium and image processor
JP4882948B2 (en) Image processing apparatus and method, and program
JP2019537913A (en) Video frame rate conversion using streamed metadata
US20100013988A1 (en) Method and apparatus for transmitting and using picture descriptive information in a frame rate conversion processor
WO2007141693A2 (en) Scaling an image based on a motion vector
US8724912B2 (en) Method, apparatus, and program for compressing images, and method, apparatus, and program for decompressing images
JP2011505756A (en) Temporal image detection
JP2008091979A (en) Image quality improving device, method thereof, and image display device
JP2006504175A (en) Image processing apparatus using fallback
US8149913B2 (en) Moving picture converting apparatus and method, and computer program
Croci et al. Visual attention-aware quality estimation framework for omnidirectional video using spherical Voronoi diagram
JP6134267B2 (en) Image processing apparatus, image processing method, and recording medium
JP4441865B2 (en) Image processing method, image processing apparatus, program, and program recording medium
US20070076978A1 (en) Moving image generating apparatus, moving image generating method and program therefor
JP4441866B2 (en) Image processing method, image processing apparatus, program, and program recording medium
JP2008182347A (en) Video processing system
CN114897681A (en) Multi-user free visual angle video method and system based on real-time virtual visual angle interpolation
JP5140637B2 (en) Spatiotemporal downsampling processing device, spatiotemporal upsampling processing device, encoding device, decoding device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091217

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091230

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees