JP4441865B2 - Image processing method, image processing apparatus, program, and program recording medium - Google Patents
Image processing method, image processing apparatus, program, and program recording medium Download PDFInfo
- Publication number
- JP4441865B2 JP4441865B2 JP2004268303A JP2004268303A JP4441865B2 JP 4441865 B2 JP4441865 B2 JP 4441865B2 JP 2004268303 A JP2004268303 A JP 2004268303A JP 2004268303 A JP2004268303 A JP 2004268303A JP 4441865 B2 JP4441865 B2 JP 4441865B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- moving image
- time
- frame rate
- principal component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Image Analysis (AREA)
- Television Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、画像処理方法および画像処理装置、並びに、プログラムおよびプログラム記録媒体に関し、特に、例えば、人間の目の視覚効果を考慮した動画データの削減を行うことができるようにする画像処理方法および画像処理装置、並びに、プログラムおよびプログラム記録媒体に関する。 The present invention relates to an image processing method and image processing apparatus, and a program and a program recording medium thereof, in particular, for example, an image processing method capable of performing reduction of the moving image data in consideration of visual effect of the human eye and an image processing apparatus, and a program and a program recording medium thereof.
従来、動画(動画像)データは、毎秒30乃至60フレーム(30乃至60fps(Frame per second))程度のフレームレートで録画(記録)され、再生される。しかしながら、この程度のフレームレートでは、人間の視覚において、動被写体(動いている被写体)がぼけた画像に知覚されてしまうため、人間にとって、良好な画質が得られているとは言えなかった。 Conventionally, moving image (moving image) data is recorded (recorded) and reproduced at a frame rate of about 30 to 60 frames per second (30 to 60 fps (Frame per second)). However, at such a frame rate, a moving subject (moving subject) is perceived as a blurred image in human vision, and thus it cannot be said that good image quality is obtained for humans.
ところで、動画データを、240fps程度のフレームレートで記録し、再生すると、人間にとって良好な画質が得られることが知られている。 By the way, it is known that when moving image data is recorded and reproduced at a frame rate of about 240 fps, image quality good for human beings can be obtained.
240fpsのフレームレートの動画データは、240fpsの高フレームレートに対応した表示装置によって表示することができ、さらに、例えば、フレームを間引き、フレームレートを低下させることによって、30fpsや60fpsなどの低フレームレートの表示装置で表示することもできる。 Video data with a frame rate of 240 fps can be displayed on a display device that supports a high frame rate of 240 fps, and further, for example, by thinning out frames and reducing the frame rate, a low frame rate such as 30 fps or 60 fps It can also be displayed on the display device.
しかしながら、240fpsのフレームレートの動画データのフレームを単純に間引いた場合には、画像において、動きの滑らかさが損なわれることになる。 However, when the frames of moving image data having a frame rate of 240 fps are simply thinned out, the smoothness of the motion is lost in the image.
そこで、特許文献1には、高フレームレートの動画データの単純に間引くのではなく、高フレームレートの動画データの複数フレームの平均値を、低フレームレートの動画データとする方法が提案されている。さらに、特許文献1では、高フレームレートの動画データを、複数のフレームレートに対応する複数の階層に階層符号化する方法も提案されている。
Therefore,
ここで、例えば、120fpsの階層と、60fpsの階層との2階層の階層符号化が行われる場合には、例えば、120fpsの動画データの、あるフレームのデータD1と、次のフレームのデータD2との平均値(D1+D2)/2が、60fpsの階層の動画データとされ、データD1とD2のうちの一方のうちの、例えば、データD1だけが、120fpsの階層の動画データとされる。この場合、データD2は、60fpsの階層の動画データ(D1+D2)/2と、120fpsの階層の動画データD1とから求めることができる。
Here, for example, when two-layer encoding of a 120 fps layer and a 60 fps layer is performed, for example, data D 1 of a certain frame and data D of the next frame of 120 fps moving image data are used. average of 2 (D 1 + D 2) / 2 is set to the hierarchy of the moving image data of 60 fps, of one of the data D 1 and D 2, and the example, only the data D 1 is 120 fps hierarchy Video data. In this case, the data D 2 is the moving image data of
ところで、上述したように、240fpsなどの高フレームレートの動画データによれば、良好な画質を得ることができるが、240fpsの動画データは、従来の30fpsや60fpsの動画データに比較して、単純には、8倍や4倍の膨大なデータ量になる。このデータ量は、上述の階層符号化を行っても変わらない。そして、動画データのデータ量が膨大であることは、その動画データのデータ処理の負荷を大にし、また、動画データの伝送や記録に好ましいことではない。 As described above, high-frame-rate video data such as 240 fps can provide good image quality, but 240 fps video data is simpler than conventional 30-fps or 60-fps video data. The amount of data is 8 times or 4 times larger. This data amount does not change even when the above-described hierarchical encoding is performed. An enormous amount of moving image data increases the data processing load of the moving image data, and is not preferable for transmission or recording of moving image data.
本発明は、このような状況に鑑みてなされたものであり、人間の目の視覚効果を考慮した動画データの削減を行うことができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to reduce moving image data in consideration of the visual effect of the human eye.
本発明の第1の画像処理方法は、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、動画データの第1主成分の方向である主成分方向を検出する主成分方向検出ステップと、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する領域決定ステップと、フィルタの通過帯域を、フィルタ情報として出力する出力ステップとを含む画像処理方法である。 The first image processing method of the present invention detects a principal component direction that is a direction of a first principal component of moving image data on a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction. The principal component direction detection step and the region extending in the principal component direction in the frequency domain and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction are determined as the passband of the filter. This is an image processing method including an area determining step to output and an output step of outputting the pass band of the filter as filter information .
本発明の第1の画像処理装置は、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、動画データの第1主成分の方向である主成分方向を検出する主成分方向検出手段と、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定し、フィルタ情報として出力する領域決定手段とを備える画像処理装置である。 The first image processing apparatus of the present invention detects a principal component direction that is a direction of a first principal component of moving image data on a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction. The principal component direction detection means and the region extending in the principal component direction in the frequency domain and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction are determined as the passband of the filter. And an area determination means for outputting as filter information .
本発明の第1のプログラムは、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、動画データの第1主成分の方向である主成分方向を検出する主成分方向検出ステップと、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する領域決定ステップと、フィルタの通過帯域を、フィルタ情報として出力する出力ステップとを含む画像処理をコンピュータに実行させるプログラムである。 A first program of the present invention is a principal component for detecting a principal component direction which is a direction of a first principal component of moving image data on a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction. A direction detection step and a region that extends in the main component direction in the frequency domain and has a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction as a pass band of the filter A program for causing a computer to execute image processing including a determination step and an output step of outputting the pass band of the filter as filter information .
本発明の第1のプログラム記録媒体に記録されているプログラムは、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、動画データの第1主成分の方向である主成分方向を検出する主成分方向検出ステップと、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する領域決定ステップと、フィルタの通過帯域を、フィルタ情報として出力する出力ステップとを含む画像処理をコンピュータに実行させるプログラムである。 The program recorded on the first program recording medium of the present invention is the direction of the first main component of the moving image data on the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. A principal component direction detection step for detecting a principal component direction, and a region extending in the principal component direction in the frequency domain and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction, A program for causing a computer to execute image processing including an area determining step for determining a pass band of a filter and an output step for outputting the pass band of the filter as filter information .
本発明の第2の画像処理方法は、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、第2のフレームレートの動画データを得るフィルタステップと、フィルタステップで得られた第2のフレームレートの動画データを出力する出力ステップとを含む画像処理方法である。 The second image processing method of the present invention is a principal component that is the direction of the first principal component of the moving image data of the first frame rate in the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. The first frame rate moving image data is filtered using the region extending in the direction and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction, and in the time direction. An image processing method including a filtering step of obtaining moving image data having a second frame rate by down-sampling, and an output step of outputting moving image data having a second frame rate obtained in the filtering step .
本発明の第2の画像処理装置は、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、第2のフレームレートの動画データを得るフィルタ手段を備える画像処理装置である。 The second image processing apparatus of the present invention is a principal component that is the direction of the first principal component of the moving image data of the first frame rate in the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. The first frame rate moving image data is filtered using the region extending in the direction and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction, and in the time direction. The image processing apparatus includes a filter unit that obtains moving image data having a second frame rate by down-sampling .
本発明の第2のプログラムは、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、第2のフレームレートの動画データを得るフィルタステップと、フィルタステップで得られた第2のフレームレートの動画データを出力する出力ステップとを含む画像処理をコンピュータに実行させるプログラムである。 The second program of the present invention is arranged in a principal component direction that is a direction of the first principal component of the moving image data of the first frame rate in the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. The first frame rate video data is filtered and the down-sampling is performed in the time direction using a region extending as a pass band in the direction of the frequency axis in the time direction and having a specific width corresponding to the visual integration function. By doing so, the program causes the computer to execute image processing including a filter step of obtaining moving image data of the second frame rate and an output step of outputting moving image data of the second frame rate obtained in the filtering step. .
本発明の第2のプログラム記録媒体に記録されているプログラムは、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、第2のフレームレートの動画データを得るフィルタステップと、フィルタステップで得られた第2のフレームレートの動画データを出力する出力ステップとを含む画像処理をコンピュータに実行させるプログラムである。 The program recorded on the second program recording medium of the present invention is a first principal component of moving image data having a first frame rate in a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction. The moving image data of the first frame rate is filtered using a region extending in the principal component direction, which is a direction, and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction. In addition, the image processing includes a filter step of obtaining moving image data of the second frame rate by down-sampling in the time direction, and an output step of outputting moving image data of the second frame rate obtained in the filtering step Is a program that causes a computer to execute.
本発明の第3の画像処理方法は、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得ステップと、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定ステップと、第2のフレームレートの動画データに対して、通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、第1のフレームレートの動画データを得るフィルタステップとを含む画像処理方法である。 The third image processing method of the present invention is the direction of the first principal component of the moving image data of the second frame rate on the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. A principal component direction acquisition step for acquiring a principal component direction, and a region extending in the principal component direction in the frequency domain and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction, By performing upsampling in the time direction while applying a passband determining step for determining the passband of the filter and applying a filter that passes the frequency component of the passband to the moving image data of the second frame rate, And a filter step for obtaining moving image data of one frame rate .
本発明の第3の画像処理装置は、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得手段と、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定手段と、第2のフレームレートの動画データに対して、通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、第1のフレームレートの動画データを得るフィルタ手段とを備える画像処理装置である。 The third image processing apparatus of the present invention is the direction of the first main component of the moving image data of the second frame rate on the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. A principal component direction acquisition means for acquiring a principal component direction; and a region extending in the principal component direction in the frequency domain, and having a specific width according to a visual integration function in the direction of the frequency axis in the time direction, By performing upsampling in the time direction while applying a passband determining means that determines the passband of the filter and a filter that passes the frequency component of the passband to the moving image data of the second frame rate, An image processing apparatus comprising: filter means for obtaining moving image data having a frame rate of 1 .
本発明の第3のプログラムは、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得ステップと、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定ステップと、第2のフレームレートの動画データに対して、通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、第1のフレームレートの動画データを得るフィルタステップとを含む画像処理をコンピュータに実行させるプログラムである。 The third program of the present invention is a principal component that is the direction of the first principal component of the moving image data of the second frame rate on the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. A main component direction acquisition step for acquiring a direction, and a region extending in the main component direction in the frequency domain and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction. By performing upsampling in the time direction while applying a passband determination step for determining the passband and a filter that passes the frequency component of the passband to the moving image data of the second frame rate, A program for causing a computer to execute image processing including a filter step for obtaining frame rate moving image data .
本発明の第3のプログラム記録媒体に記録されているプログラムは、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得ステップと、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定ステップと、第2のフレームレートの動画データに対して、通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、第1のフレームレートの動画データを得るフィルタステップとを含む画像処理をコンピュータに実行させるプログラムである。 The program recorded on the third program recording medium of the present invention is the first of the moving image data of the second frame rate on the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction . A principal component direction acquisition step for acquiring a principal component direction, which is a principal component direction, and a region extending in the principal component direction in the frequency domain, and a specific direction corresponding to a visual integration function in the direction of the frequency axis in the time direction Up-sampling in the time direction while applying a pass band determining step for determining a region having a width as a pass band of the filter and a filter that passes the frequency component of the pass band to moving image data of the second frame rate by performing, professional to execute image processing including a filter to obtain a moving picture data of the first frame rate to the computer It is a lamb.
本発明の第1の画像処理方法および画像処理装置、並びにプログラムおよびプログラム記録媒体においては、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、動画データの第1主成分の方向である主成分方向が検出され、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域が、フィルタの通過帯域として決定される。 In the first image processing method, image processing apparatus, program, and program recording medium of the present invention, the first moving image data on the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction . The principal component direction that is the direction of the principal component is detected, and in the frequency domain, a region that extends in the principal component direction and has a specific width according to the visual integration function in the direction of the frequency axis in the time direction, It is determined as the pass band of the filter.
本発明の第2の画像処理方法および画像処理装置、並びにプログラムおよびプログラム記録媒体においては、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、第2のフレームレートの動画データが得られる。 In the second image processing method, image processing apparatus, program, and program recording medium of the present invention, the moving image having the first frame rate in the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction. An area extending in the principal component direction, which is the direction of the first principal component of data, and having a specific width in accordance with the visual integration function in the direction of the frequency axis in the time direction is used as the first frame. The moving image data of the second frame rate is obtained by filtering the moving image data of the rate and down-sampling in the time direction.
本発明の第3の画像処理方法および画像処理装置、並びにプログラムおよびプログラム記録媒体においては、時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、第2のフレームレートの動画データの第1主成分の方向である主成分方向が取得され、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域が、フィルタの通過帯域として決定される。そして、第2のフレームレートの動画データに対して、通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、第1のフレームレートの動画データが得られる。 In the third image processing method, image processing apparatus, program, and program recording medium of the present invention, the second frame rate on the frequency domain defined by the time axis in the time direction and the frequency axis in the spatial direction. The principal component direction that is the direction of the first principal component of the moving image data is acquired and is a region extending in the principal component direction in the frequency domain, and is specified in accordance with the visual integration function in the direction of the frequency axis in the time direction. A region having a width is determined as the passband of the filter. Then, the moving image data having the first frame rate is obtained by performing upsampling in the time direction while applying the filter that passes the frequency component of the pass band to the moving image data having the second frame rate.
本発明によれば、データを削減することができる。 According to the present invention, data can be reduced.
次に、本発明の実施の形態について説明する前に、動画について、理論的な事柄を述べておく。 Next, before describing the embodiment of the present invention, a theoretical matter will be described for moving images.
図1は、2次元平面(x,y)に時間方向(t)を加えた3次元空間における動画データを示している。 FIG. 1 shows moving image data in a three-dimensional space in which a time direction (t) is added to a two-dimensional plane (x, y).
図1において、画像P101は、ある時刻(フレーム)の画像であり、画像P102は、その次の時刻の画像であり、画像P103は、さらにその次の時刻の画像である。画像P104は、さらにその次の時刻の画像である。図示を省略したが、画像P101の前の時刻と、画像P104の後の時刻にも、画像が存在する。 In FIG. 1, an image P 101 is an image at a certain time (frame), an image P 102 is an image at the next time, and an image P 103 is an image at the next time. The image P 104 is an image at the next time. Although illustration is omitted, there are also images at a time before the image P 101 and a time after the image P 104 .
図1では、画像P101乃至P104には、時間の経過とともに、y方向に移動する物体(被写体)が写っている。 In FIG. 1, the images P 101 to P 104 show an object (subject) that moves in the y direction over time.
以上のような動画(動画データ)を、人間が見た場合、動画のフレームレートが、あるフレームレート以上であるときには、動画の隣接する2つのフレーム(の画像)の違いを認識することは出来ない。実際に被験者に視覚実験を行った結果、人間が、隣接する2つのフレーム(の画像)の違いを認識することができないフレームレートは、240fps程度以上であることが分かっている。 When a movie such as the above (moving image data) is viewed by a human, when the frame rate of the moving image is higher than a certain frame rate, the difference between two adjacent frames (images) of the moving image can be recognized. Absent. As a result of actually conducting a visual experiment on the subject, it has been found that the frame rate at which a human cannot recognize the difference between two adjacent frames (images) is about 240 fps or more.
ここで、隣接する2つのフレームどうしの間の時間(フレーム周期)を、t0と表すこととすると、フレームレートは、1/t0と表すことができる。 Here, if the time (frame period) between two adjacent frames is expressed as t 0 , the frame rate can be expressed as 1 / t 0 .
なお、以下では、フレーム周期t0は、1/240秒程度として説明を行うが、フレーム周期t0は、1/240秒程度でなくても良く、例えば、1/120秒程度であっても良い。但し、フレーム周期t0が、例えば、1/120秒のように、人間が、隣接する2つのフレーム(の画像)の違いを認識することができないフレーム周期(1/240秒程度)より長い場合には、後述する表示装置3(図24)で表示される動画について、その画質の劣化が、多少、知覚される。 In the following description, the frame period t 0 is about 1/240 seconds. However, the frame period t 0 may not be about 1/240 seconds, for example, about 1/120 seconds. good. However, when the frame period t 0 is longer than the frame period (about 1/240 seconds) in which a human cannot recognize the difference between two adjacent frames (images thereof), for example, 1/120 second. The image quality of the moving image displayed on the display device 3 (FIG. 24) described later is somewhat perceived.
次に、人間の空間方向の認識能力、即ち、近接した2つの点を1つの点ではなく2つの点であると認識(知覚)することができる限界の距離を、r0と表す。 Next, r 0 represents a human's recognition ability in the spatial direction, that is, a limit distance at which two adjacent points can be recognized (perceived) as two points instead of one point.
この場合、人間の視覚によって認識(知覚)することができる動画の範囲は、図2のように表すことができる。 In this case, the range of moving images that can be recognized (perceived) by human vision can be expressed as shown in FIG.
即ち、図2は、時間t方向の周波数軸Tと空間方向x,yの周波数軸X,Yとで定義される周波数ドメインを示している。 That is, FIG. 2 shows a frequency domain defined by the frequency axis T in the time t direction and the frequency axes X and Y in the spatial directions x and y.
なお、図が煩雑になるのを避けるため、図2では、空間方向xの周波数軸Xと空間方向yの周波数軸Yとを、1軸で表してある。即ち、図2では、左から右方向に、周波数軸XとYをとってある。また、図2では、上から下方向に、周波数軸Tをとってある。さらに、図2では、周波数軸T(縦方向)は、2π/(4t0)単位で区切ってあり、周波数軸X,Y方向(横方向)は、2π/r0単位で区切ってある。 In order to avoid complication of the figure, in FIG. 2, the frequency axis X in the spatial direction x and the frequency axis Y in the spatial direction y are represented by one axis. That is, in FIG. 2, the frequency axes X and Y are taken from left to right. In FIG. 2, the frequency axis T is taken from the top to the bottom. Further, in FIG. 2, the frequency axis T (vertical direction) is divided in units of 2π / (4t 0 ), and the frequency axes X and Y directions (lateral direction) are divided in units of 2π / r 0 .
ここで、周波数ドメインの、後述する他の図も、図2と同様になっている。 Here, other diagrams of the frequency domain, which will be described later, are the same as those in FIG.
人間は、図2に示す、横が2×2π/(2r0)で、縦が2×2π/(2r0)の、原点を中心とする領域R201の範囲外にある高周波数成分を認識することができない。そこで、すべての動画データは、領域R201内に存在することとして、以下、説明を行う。 Humans, shown in FIG. 2, in the horizontal is 2 × 2π / (2r 0) , the vertical of 2 × 2π / (2r 0) , recognizes the high frequency components are outside the range of the region R 201 centered at the origin Can not do it. Therefore, the following description will be made assuming that all moving image data exists in the region R201 .
なお、図2では、領域R201を、長方形状の領域として図示してあるが、領域R201は、実際には、直方体状の領域である。即ち、領域R201は、X方向が、−(π/r0)乃至+(π/r0)で、Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域である。 In FIG. 2, the region R 201 is illustrated as a rectangular region, but the region R 201 is actually a rectangular parallelepiped region. That is, the region R 201 has an X direction of − (π / r 0 ) to + (π / r 0 ), a Y direction of − (π / r 0 ) to + (π / r 0 ), and T The direction is a region in the range of − (π / t 0 ) to + (π / t 0 ).
次に、動画の各部分のデータの周波数ドメイン上の位置(分布)について説明する。 Next, the position (distribution) on the frequency domain of the data of each part of the moving image will be described.
動画において、ある部分では、そこに投影されている被写体は静止しており、別の部分では、そこに投影されている被写体は動いている。 In a moving image, a subject projected on a certain portion is stationary, and a subject projected on the moving portion is moving in another portion.
まず、静止している動画の部分(静止している被写体が投影されている動画の部分)は、時間方向に対して変化しない。 First, the stationary moving image portion (the moving image portion on which the stationary subject is projected) does not change with respect to the time direction.
図3は、そのような静止している動画の部分のデータが分布する周波数ドメイン上の領域R301を示している。 FIG. 3 shows a region R 301 on the frequency domain in which data of such a still moving image portion is distributed.
領域R301は、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)で、T方向が−2π/(4t0)乃至+2π/(4t0)の領域になっている。 The region R 301 is a region in which the X and Y directions are −2π / (2r 0 ) to + 2π / (2r 0 ) and the T direction is −2π / (4t 0 ) to + 2π / (4t 0 ). .
なお、動画において完全に静止している部分のデータであれば、T=0であるが、つまり、領域R301はT方向の幅が0であるが、ここでは、被写体が多少動いている場合も考慮して、領域R301は、T方向の幅が0ではなく、2π/(2t0)になっている。また、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)の範囲に制限されるのは、図2で説明したように、動画データの周波数成分は、X,Y方向については、−2π/(2r0)乃至+2π/(2r0)の範囲を超える範囲(図2の領域R201の範囲外)には、存在しないからである。 Note that if the data is a completely stationary part of the video, T = 0, that is, the region R 301 has a width in the T direction of 0, but here the subject is moving slightly. In consideration of the above, the region R 301 has a width in the T direction that is not 0 but 2π / (2t 0 ). The X and Y directions are limited to the range of −2π / (2r 0 ) to + 2π / (2r 0 ) as described with reference to FIG. This is because it does not exist in a range exceeding the range of −2π / (2r 0 ) to + 2π / (2r 0 ) (outside the range of the region R 201 in FIG. 2).
ここで、周波数ドメインにおいて、静止している部分のデータは、T=0の直線(平面)の方向に分布するから、この方向は、静止している部分のデータの主成分(例えば、第1主成分)の方向である。 Here, in the frequency domain, the data of the stationary part is distributed in the direction of the straight line (plane) of T = 0, so this direction is the main component (for example, the first data of the stationary part). Main component) direction.
次に、図4は、動画に投影されている被写体が速度(r0/t0)/2程度で動いている部分のデータが分布する周波数ドメイン上の領域R401を示している。 Next, FIG. 4 shows a region R401 on the frequency domain in which data of a portion where a subject projected on a moving image moves at a speed (r 0 / t 0 ) / 2 is distributed.
ここで、以下、適宜、説明を簡単にするために、周波数ドメイン上の点を、X,Y方向の座標Aと、T方向の座標Bとの2つだけを用いて、(A,B)と表す。 Here, in order to simplify the explanation as appropriate, the points on the frequency domain are expressed by using only two coordinates A and B in the X and Y directions, and (A, B). It expresses.
領域R401は、原点(0,0)から点(π/r0,-π/(2t0))の方向に延びる領域であって、T方向に2π/(2t0)の幅を有する領域になっている。 The region R401 extends from the origin (0,0) to the point (π / r0, −π / (2t0)) and has a width of 2π / (2t0) in the T direction. .
なお、被写体が変形することなく、速度(r0/t0)/2で正確に等速直線運動していれば、領域R401は、T方向の幅が0となるが、ここでは、被写体の多少の変形や、移動速度が(r0/t0)/2から多少ぶれること等を考慮して、T方向の幅が0ではなく、2π/(2t0)になっている。 It should be noted that if the subject does not deform and moves accurately at a constant linear velocity at a speed (r 0 / t 0 ) / 2, the region R401 has a width in the T direction of 0. The width in the T direction is not 0 but 2π / (2t0) in consideration of some deformation and the movement speed slightly deviating from (r 0 / t 0 ) / 2.
また、領域R401は、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)の範囲に制限されているが、これは、領域R301のX,Y方向の範囲が制限されているのと同一の理由による。 In the region R401, the X and Y directions are limited to the range of −2π / (2r 0 ) to + 2π / (2r 0 ), but this is limited to the range of the region R 301 in the X and Y directions. For the same reason that has been done.
ここで、動画に投影されている被写体が速度(r0/t0)/2程度で動いている部分のデータが、原点(0,0)から点(π/r0,-π/(2t0))の方向上に分布するのは、次の理由による。 Here, the data of the portion where the subject projected on the moving image moves at a speed (r 0 / t 0 ) / 2 is obtained from the origin (0,0) to the point (π / r0, −π / (2t0) ) Is distributed for the following reason.
即ち、図5の波形R501は、ある時刻t1における被写体の空間方向xの分布を示している。 That is, the waveform R 501 in FIG. 5 shows the distribution of the subject in the spatial direction x at a certain time t 1 .
被写体が、例えば、速度(r0/t0)/2で、例えば、空間方向xに移動しているとき、その移動している被写体は、波形R501,R502,R503,R504,R505,R506,・・・で表すことができる。 For example, when the subject is moving at a speed (r 0 / t 0 ) / 2, for example, in the spatial direction x, the moving subjects are waveform R 501 , R 502 , R 503 , R 504 , R 505 , R 506 ,...
ここで、波形R501は、ある時刻(フレーム)t1における被写体を表している。波形R502は、波形R501の時刻t1の次の時刻(フレーム)t1+t0における被写体を表しており、波形R501の位置から、r0/2だけ、x方向に移動している。以下、同様に、波形R503,R504,R505,R506は、それぞれ、時刻t1+2t0,t1+3t0,t1+4t0,t1+5t0における被写体を表している。 Here, the waveform R 501 represents the subject at a certain time (frame) t 1 . Waveform R 502 represents a subject at the next time (frame) t 1 + t 0 of time t 1 of the waveform R 501, from the position of the waveform R 501, only r 0/2, moves in the x-direction Yes. Hereinafter, similarly, waveforms R 503 , R 504 , R 505 , and R 506 represent subjects at times t 1 + 2t 0 , t 1 + 3t 0 , t 1 + 4t 0 , and t 1 + 5t 0, respectively . Yes.
図5における波形を空間位置xと時間tの関数と考え、この波形をFunc(x,t)と定義する。図5の波形R501,R502,R503,R504,R505,R506,・・・から明らかなように、Func(x,t)=Func(x-((r0/t0)/2)×t,0)という関係がある。 The waveform in FIG. 5 is considered as a function of the spatial position x and time t, and this waveform is defined as Func (x, t). As is clear from the waveforms R 501 , R 502 , R 503 , R 504 , R 505 , R 506 ,..., Func (x, t) = Func (x − ((r 0 / t 0 ) / 2) × t, 0).
さて、xとtという2つの変数による関数Funcを2次元フーリエ変換した周波数ドメイン上のデータを(X,T)とすると、この(X,T)の成分は、フーリエ変換の定義から明らかなように、空間方向xの周期がXであり、時間方向tの周期がTである成分を表している。 Assuming that the data on the frequency domain obtained by two-dimensional Fourier transform of the function Func with two variables x and t is (X, T), the component of (X, T) is apparent from the definition of Fourier transform. In addition, a component in which the period in the spatial direction x is X and the period in the time direction t is T is represented.
Func(x,t)=Func(x-((r0/t0)/2)×t,0)という関係より、(X,T)は、2次元ベクトル(r0/2, t0)に直交することが言える。 From the relationship Func (x, t) = Func (x − ((r 0 / t 0 ) / 2) × t, 0), (X, T) is a two-dimensional vector (r 0/2 , t 0 ) Can be said to be orthogonal.
今、図5を用いて説明したが、実際には、空間方向は2次元であり、時間軸も加えると3次元となり、3次元フーリエ変換を考えないといけない。そこで、図6を用いて再度説明する。図6では、図1と同様に、3次元上での説明を行うための図である。 Although described with reference to FIG. 5, the spatial direction is actually two-dimensional, and when the time axis is added, it becomes three-dimensional, and a three-dimensional Fourier transform must be considered. Then, it demonstrates again using FIG. FIG. 6 is a diagram for explaining three-dimensionally as in FIG. 1.
図6の2次元空間(x,y)上の波形R601は、ある時刻t1における被写体の空間方向(x,y)の分布を示している。 A waveform R 601 on the two-dimensional space (x, y) in FIG. 6 shows the distribution in the spatial direction (x, y) of the subject at a certain time t 1 .
被写体が、例えば、速度(r0/t0)/2で、移動しているとき、その移動している被写体は、波形R601,R602,R603,R604,・・・で表すことができる。なお、r0は、図5の説明とは違い、2次元空間(x,y)上の2次元ベクトルである。 For example, when the subject is moving at a speed (r 0 / t 0 ) / 2, the moving subject is represented by waveforms R 601 , R 602 , R 603 , R 604,. Can do. Note that r 0 is a two-dimensional vector on a two-dimensional space (x, y) unlike the description of FIG.
ここで、波形R601は、ある時刻(フレーム)t1における被写体を表している。波形R602は、波形R601の時刻t1の次の時刻(フレーム)t1+t0における被写体を表しており、波形R601の位置から、r0/2だけ移動している。以下、同様に、波形R603,R604は、それぞれ、時刻t1+2t0,t1+3t0における被写体を表している。 Here, the waveform R 601 represents the subject at a certain time (frame) t 1 . Waveform R 602 represents a subject at the next time (frame) t 1 + t 0 of time t 1 of the waveform R 601, from the position of the waveform R 601, is moved by r 0/2. Hereinafter, similarly, waveforms R 603 and R 604 represent subjects at times t 1 + 2t 0 and t 1 + 3t 0, respectively.
図6における波形を空間位置(x,y)と時間tの関数と考え、この波形をFunc((x,y),t)と定義する。図6の波形R601,R602,R603,R604,・・・から明らかなように、Func((x,y),t)=Func((x,y)-((r0/t0)/2)×t,0)という関係がある。 The waveform in FIG. 6 is considered as a function of the spatial position (x, y) and time t, and this waveform is defined as Func ((x, y), t). As apparent from the waveforms R 601 , R 602 , R 603 , R 604 ,... In FIG. 6, Func ((x, y), t) = Func ((x, y) − ((r 0 / t 0 ) / 2) × t, 0).
さて、xとyとtという3つの変数による関数Funcを3次元フーリエ変換した周波数ドメイン上のデータを(X,Y,T)とすると、この(X,Y,T)の成分は、フーリエ変換の定義から明らかなように、空間方向xの周期がXであり、空間方向yの周期がYであり、時間方向tの周期がTである成分を表している。 Now, if the data on the frequency domain obtained by three-dimensional Fourier transform of the function Func with three variables x, y and t is (X, Y, T), the component of (X, Y, T) is Fourier transform. As is clear from the definition of FIG. 4, a component in which the period in the spatial direction x is X, the period in the spatial direction y is Y, and the period in the time direction t is T is represented.
Func((x,y),t)=Func((x,y)-((r0/t0)/2)×t,0)という関係より、(X,Y,T)は、3次元ベクトル(r0/2, t0)に直交することが言える。 From the relationship Func ((x, y), t) = Func ((x, y)-((r 0 / t 0 ) / 2) × t, 0), (X, Y, T) is three-dimensional It can be said that it is orthogonal to the vector (r 0/2 , t 0 ).
図5および図6に示したように、(X,T)あるいは(X,Y,T)は、ベクトル(r0/2, t0)に直交するので、例えば、図7に示すように、周波数ドメイン上の点(2π/(2r0),−2π/(4t0))(図7において○印で示す位置)にデータが存在したり、点(2π/(4r0),−2π/(8t0))(図7において△印で示す位置)上にデータが存在する。 As shown in FIGS. 5 and 6, since (X, T) or (X, Y, T) is orthogonal to the vector (r 0/2 , t 0 ), for example, as shown in FIG. There is data at a point (2π / (2r 0 ), −2π / (4t 0 )) (position indicated by a circle in FIG. 7) on the frequency domain, or a point (2π / (4r 0 ), −2π / There is data on (8t 0 )) (the position indicated by Δ in FIG. 7).
即ち、速度(r0/t0)/2で移動している波形は、いずれも原点(0,0)と点(π/r0,-π/(2t0))とを通る直線(平面)R701上に分布する。 That is, each waveform moving at a speed (r 0 / t 0 ) / 2 is a straight line (plane) R passing through the origin (0,0) and the point (π / r0, -π / (2t0)). Distributed on 701 .
速度(r0/t0)/2で動いている部分の、他の周波数成分Xのデータ(波形)も、同様に、直線R701上に分布する。 Similarly, the data (waveform) of the other frequency component X of the portion moving at the speed (r 0 / t 0 ) / 2 is also distributed on the straight line R 701 .
速度(r0/t0)/2で動いている部分は、時間がt0だけ進むと、r0/2だけ空間方向の位置がずれるので、上述のように、周波数ドメイン上において、原点(0,0)と点(π/r0,-π/(2t0))とを通る直線R701上に分布する。
The moving parts at a
なお、周波数ドメインにおいて、速度(r0/t0)/2で動いている部分のデータは、直線(平面)R701の方向(π/r0,-π/(2t0))に分布するから、この方向(π/r0,-π/(2t0))は、速度(r0/t0)/2で動いている部分のデータの主成分の方向である。 In the frequency domain, the data of the portion moving at the speed (r 0 / t 0 ) / 2 is distributed in the direction of the straight line (plane) R 701 (π / r0, −π / (2t0)). This direction (π / r0, −π / (2t0)) is the direction of the principal component of the data of the portion moving at the speed (r 0 / t 0 ) / 2.
次に、図8は、動画に投影されている被写体が速度r0/t0程度で動いている部分のデータが分布する周波数ドメイン上の領域R801を示している。
Next, FIG. 8 shows a
領域R801は、原点(0,0)から点(π/r0,-π/t0)の方向に延びる領域であって、T方向に2π/(2t0)の幅を有する領域になっている。
The
即ち、速度r0/t0で動いている部分は、時間がt0だけ進むと、r0だけ空間方向の位置がずれるので、周波数ドメイン上において、原点(0,0)と点(π/r0,-π/t0)とを通る直線上に分布する。 That is, the portion moving at the speed r 0 / t 0 is shifted in position in the spatial direction by r 0 when the time advances by t 0, so that the origin (0,0) and the point (π / r0, -π / t0).
なお、被写体が変形することなく、速度r0/t0で正確に等速直線運動していれば、領域R801は、T方向の幅が0となるが、ここでは、被写体の多少の変形や、移動速度がr0/t0から多少ぶれること等を考慮して、T方向の幅が0ではなく、2π/(2t0)になっている。
Note that if the subject does not deform and moves accurately linearly at a constant velocity r 0 / t 0 , the
また、領域R801は、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)の範囲に制限されているが、これは、図3の領域R301のX,Y方向の範囲が制限されているのと同一の理由による。
In the
さらに、領域R801は、T方向が、−2π/(2t0)乃至+2π/(2t0)の範囲に制限されているが、これは、図2で説明したように、動画データの周波数成分は、T方向については、−2π/(2t0)乃至+2π/(2t0)の範囲を超える範囲(図2の領域R201の範囲外)には、存在しないからである。
Further, in the
ここで、周波数ドメインにおいて、速度r0/t0で動いている部分のデータは、原点(0,0)と、点(π/r0,-π/t0)とを通る直線の方向(π/r0,-π/t0)に分布するから、この方向(π/r0,-π/t0)は、速度r0/t0で動いている部分のデータの主成分の方向である。 Here, in the frequency domain, the data of the portion moving at the velocity r 0 / t 0 is the direction of the straight line (π / t) passing through the origin (0,0) and the point (π / r0, −π / t0). r0, -π / t0), this direction (π / r0, -π / t0) is the direction of the main component of the data of the portion moving at the speed r 0 / t 0 .
次に、図9は、動画に投影されている被写体が速度2r0/t0程度で動いている部分のデータが分布する周波数ドメイン上の領域R901を示している。
Next, FIG. 9 shows a
領域R901は、原点(0,0)から点(π/r0,-2π/t0)の方向に延びる領域であって、T方向に2π/(2t0)の幅を有する領域になっている。
即ち、速度2r0/t0で動いている部分は、時間がt0だけ進むと、2r0だけ空間方向の位置がずれるので、周波数ドメイン上において、原点(0,0)と点(π/r0,-2π/t0)とを通る直線上に分布する。 That is, the portion moving at the speed 2r 0 / t 0 is shifted in the spatial direction by 2r 0 when the time advances by t 0, so that the origin (0,0) and the point (π / r0, -2π / t0).
なお、被写体が変形することなく、速度2r0/t0で正確に等速直線運動していれば、領域R901は、T方向の幅が0となるが、ここでは、被写体の多少の変形や、移動速度がr0/t0から多少ぶれること等を考慮して、T方向の幅が0ではなく、2π/(2t0)になっている。
Incidentally, without the subject is deformed, if exactly uniform linear motion at a speed 2r 0 / t 0, the
また、領域R901は、T方向が、−2π/(2t0)乃至+2π/(2t0)の範囲に制限されているが、これは、図2で説明したように、動画データの周波数成分は、T方向については、−2π/(2t0)乃至+2π/(2t0)の範囲を超える範囲(図2の領域R201の範囲外)には、存在しないからである。
In the
ここで、周波数ドメインにおいて、速度2r0/t0で動いている部分のデータは、原点(0,0)と、点(π/r0,-2π/t0)とを通る直線の方向(π/r0,-2π/t0)に分布するから、この方向(π/r0,-2π/t0)は、速度2r0/t0で動いている部分のデータの主成分の方向である。 Here, in the frequency domain, the data of the portion moving at the speed 2r 0 / t 0 is the direction of the straight line (π / 0) passing through the origin (0,0) and the point (π / r0, -2π / t0). r0, -2π / t0), this direction (π / r0, -2π / t0) is the direction of the main component of the data of the portion moving at the speed 2r 0 / t 0 .
以上、被写体が静止している場合と、被写体が速度(r0/t0)/2,r0/t0,2r0/t0程度で移動している場合それぞれについて、そのような被写体が投影されている動画の部分のデータの、周波数ドメイン上の分布について説明したが、他の速度で移動している部分のデータも、周波数ドメインにおいて、同様に分布する。 As described above, when the subject is stationary, and when the subject is moving at a speed (r 0 / t 0 ) / 2, r 0 / t 0 , 2r 0 / t 0 , such a subject is The distribution on the frequency domain of the data of the portion of the moving image being projected has been described, but the data of the portion moving at other speeds is similarly distributed in the frequency domain.
次に、人間の視覚効果について説明する。 Next, human visual effects will be described.
人間の目は、物体から発せられる光を時間方向に積分して認識している。この人間の目における積分機能(視覚の積分機能)は、ブロックの法則(Bloch’s Law)と言われている。人間の目における光の積分時間は、環境によって異なるが、大体1/60秒程度である。 The human eye recognizes the light emitted from the object by integrating it in the time direction. This integration function (visual integration function) in the human eye is called the Block's Law. The integration time of light in the human eye is approximately 1/60 seconds, although it varies depending on the environment.
ここで、t0を、上述のように、1/240秒程度とすると、人間の目における光の積分時間は、4×t0秒と表すことができる。 Here, if t 0 is about 1/240 seconds as described above, the integration time of light in the human eye can be expressed as 4 × t 0 seconds.
動画の中で静止している被写体が投影されている部分を、人間が視線を動かさずに注視して認識する画像は、視覚の積分機能により、静止している部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 An image in which a stationary subject is projected in a moving image is recognized by a human gaze without moving the line of sight. This is equivalent to an image obtained by filtering with a low-pass filter of about “4 × t 0 ” seconds.
このローパスフィルタの通過帯域は、周波数ドメイン上において、図10に示す領域R1001として表すことができる。 The pass band of this low-pass filter can be represented as a region R 1001 shown in FIG. 10 on the frequency domain.
図10の領域R1001は、X,Y方向の範囲が、図2の領域R201と同一の−2π/(2r0)乃至+2π/(2r0)であり、T方向の範囲が、-(2π/(4t0))/2乃至(2π/(4t0))/2の領域である。この領域R1001のT方向の幅は、2π/(4t0)であるが、これが、4t0の時間の積分を表す。 In the region R 1001 in FIG. 10, the range in the X and Y directions is −2π / (2r 0 ) to + 2π / (2r 0 ), which is the same as the region R 201 in FIG. 2, and the range in the T direction is − ( The region is 2π / (4t 0 )) / 2 to (2π / (4t 0 )) / 2. The width in the T direction of this region R 1001 is 2π / (4t 0 ), which represents the integration of the time of 4t 0 .
動画の静止している部分のデータは、図3に示したように、領域R301内に存在するが、人間は、その領域R301のうちの、領域R1001内の情報(データ)しか認識することができない。従って、領域R301のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 As shown in FIG. 3, the data of the still part of the moving image exists in the region R 301 , but the human recognizes only the information (data) in the region R 1001 in the region R 301. Can not do it. Therefore, information outside the region R 1001 in the region R 301 is useless information for humans.
次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分を、人間が、その被写体が移動する方向に視線を動かしながら注視して認識する画像、即ち、人間が追従視により認識する画像は、視覚の積分機能により、速度「(r0/t0)/2」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, while moving the line of sight in the direction in which the subject moves in the part of the moving image where the subject being projected is moving at a speed of “(r 0 / t 0 ) / 2” An image that is recognized by gazing, that is, an image that a human recognizes by following vision, uses data of a portion moving at a speed of “(r 0 / t 0 ) / 2” in the time direction by a visual integration function. This is equivalent to an image obtained by filtering with a low-pass filter of about “4 × t 0 ” seconds.
但し、いまの場合の追従視では、時間の経過とともに、注視点が速度「(r0/t0)/2」程度で移動するので、ローパスフィルタの通過帯域は、周波数ドメイン上において、図11に示す領域R1101として表すことができる。 However, in the following tracking in this case, the gazing point moves at a speed of about “(r 0 / t 0 ) / 2” with the passage of time. Therefore, the pass band of the low-pass filter is as shown in FIG. Can be represented as a region R 1101 shown in FIG.
図11の領域R1101は、図4の領域R401と同様に、原点(0,0)から点(π/r0,-π/(2t0))の方向に延びる領域である。さらに、領域R1101は、T方向に2π/(4t0)の幅を有する領域であり、これが、4t0の時間の積分を表す。なお、領域R1101は、図2に示した、動画データが存在する領域R201内に制限されている。 A region R 1101 in FIG. 11 is a region extending in the direction from the origin (0,0) to the point (π / r0, −π / (2t0)), similarly to the region R401 in FIG. Further, a region R 1101 is a region having a width of 2π / (4t0) in the T direction, and this represents an integration of time of 4t 0 . Note that the area R 1101 is limited to the area R 201 where the moving image data exists, as shown in FIG.
速度「(r0/t0)/2」程度で移動している部分のデータは、図4に示したように、領域R401内に存在するが、人間は、その領域R401のうちの、領域R1101内の情報しか認識することができない。従って、領域R401のうちの、領域R1101外の情報は、人間にとって無駄な情報である。
次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分を、人間が追従視を行うことにより認識する画像は、やはり、視覚の積分機能により、速度「r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, the image in which the subject projected on the moving image moves at a speed of about “r 0 / t 0 ” by human follow-up is still the visual integration. This function is equivalent to an image obtained by filtering data of a portion moving at a speed of about “r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.
但し、いまの場合の追従視では、時間の経過とともに、注視点が速度「r0/t0」程度で移動するので、ローパスフィルタの通過帯域は、周波数ドメイン上において、図12に示す領域R1201として表すことができる。 However, in the following tracking in this case, the gazing point moves at a speed of about “r 0 / t 0 ” with the passage of time, so the pass band of the low-pass filter is the region R shown in FIG. 12 on the frequency domain. Can be represented as 1201 .
図12の領域R1201は、図8の領域R801と同様に、原点(0,0)から点(π/r0,-π/t0)の方向に延びる領域である。さらに、領域R1201は、T方向に2π/(4t0)の幅を有する領域であり、これが、4t0の時間の積分を表す。なお、領域R1201は、図2に示した、動画データが存在する領域R201内に制限されている。
Region R 1201 in FIG. 12 is a region extending in the direction from the origin (0, 0) to the point (π /
速度「r0/t0」程度で移動している部分のデータは、図8に示したように、領域R801内に存在するが、人間は、その領域R801のうちの、領域R1201内の情報しか認識することができない。従って、領域R801のうちの、領域R1201外の情報は、人間にとって無駄な情報である。 As shown in FIG. 8, the data of the portion moving at the speed “r 0 / t 0 ” is present in the region R 801 , but the human is the region R 1201 in the region R 801. Only the information inside can be recognized. Therefore, information outside the region R 1201 in the region R 801 is useless information for humans.
次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分を、人間が追従視を行うことにより認識する画像は、やはり、視覚の積分機能により、速度「2r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, an image that is recognized by humans following the moving part of the moving subject at a speed of about “2r 0 / t 0 ” in the moving image is still a visual integral. This function is equivalent to an image obtained by filtering data of a portion moving at a speed of about “2r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.
但し、いまの場合の追従視では、時間の経過とともに、注視点が速度「2r0/t0」程度で移動するので、ローパスフィルタの通過帯域は、周波数ドメイン上において、図13に示す領域R1301として表すことができる。 However, in the follow-up view in this case, since the gazing point moves at a speed of about “2r 0 / t 0 ” with time, the pass band of the low-pass filter is the region R shown in FIG. 13 on the frequency domain. Can be represented as 1301 .
図13の領域R1301は、図9の領域R901と同様に、原点(0,0)から点(π/r0,-2π/t0)の方向に延びる領域である。さらに、領域R1301は、T方向に2π/(4t0)の幅を有する領域であり、これが、4t0の時間の積分を表す。なお、領域R1301は、図2に示した、動画データが存在する領域R201内に制限されている。 A region R 1301 in FIG. 13 is a region extending in the direction from the origin (0,0) to the point (π / r0, −2π / t0), similarly to the region R 901 in FIG. Further, the region R 1301 is a region having a width of 2π / (4t0) in the T direction, and this represents the integration of time of 4t 0 . Note that the region R 1301 is limited to the region R 201 where the moving image data exists as shown in FIG.
速度「2r0/t0」程度で移動している部分のデータは、図9に示したように、領域R901内に存在するが、人間は、その領域R901のうちの、領域R1301内の情報しか認識することができない。従って、領域R901のうちの、領域R1301外の情報は、人間にとって無駄な情報である。 As shown in FIG. 9, the data of the portion moving at the speed “2r 0 / t 0 ” exists in the region R 901 , but the human is the region R 1301 in the region R 901. Only the information inside can be recognized. Therefore, information outside the region R 1301 in the region R 901 is useless information for humans.
次に、人間が固定視を行う場合について説明する。ここで、固定視とは、追従視とは違い、被写体の移動とは別の視線移動をする場合で、例えば、人間が視線を動かさないで(見ている方向を常に一定に保って)、動画を見る場合が該当する。 Next, a case where a human performs fixed vision will be described. Here, fixed vision is different from follow-up vision in the case of moving the line of sight different from the movement of the subject. For example, humans do not move the line of sight (keep the viewing direction constant) Applicable when watching a video.
動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分を、人間が固定視することにより認識する画像は、視覚の積分機能により、速度「(r0/t0)/2」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 An image that is recognized by a human fixed view of a moving part of a moving image at a speed of about “(r 0 / t 0 ) / 2” in a moving image is obtained by a visual integration function. This is equivalent to an image obtained by filtering data in a portion moving at a speed of “(r 0 / t 0 ) / 2” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.
このローパスフィルタの通過帯域は、周波数ドメイン上において、静止している部分を注視する場合と同一の領域、即ち、図10の領域R1001で表すことができる。 The pass band of this low-pass filter can be represented by the same region on the frequency domain as the case where a stationary portion is watched, that is, a region R 1001 in FIG.
ここで、図14は、周波数ドメインにおいて、速度「(r0/t0)/2」程度で動いている部分のデータが分布する領域R401(図4)と、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001(図10)とを示している。 Here, FIG. 14 shows a region R 401 (FIG. 4) in which data of a portion moving at a speed of “(r 0 / t 0 ) / 2” in the frequency domain is distributed, and a case where a human performs fixed vision. FIG. 10 shows a region R 1001 (FIG. 10) as a pass band of the low-pass filter.
人間は、領域R401のうちの、領域R1001内の情報、つまり、領域R401とR1001とが重複する部分の領域R1401内の情報しか認識することができない。従って、領域R401のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 Humans, of area R 401, information in the region R 1001, that is, can not be a region R 401 and R 1001 are only recognized information in the region R 1401 of the portions overlapping. Therefore, information outside the region R 1001 in the region R 401 is useless information for humans.
なお、図14において、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001には、動画データが存在する領域R401とは重複しない部分の領域R1402とR1403(図中斜線を付して示す)が存在するが、いまの場合、この領域R1402とR1403には、動画データは存在しない。 In FIG. 14, a region R 1001 as a pass band of the low-pass filter when a human performs fixed vision is a region R 1402 and R 1403 (parts R 1402 and R 1403 in the figure) that do not overlap with the region R 401 where the moving image data exists. In this case, there is no moving image data in the regions R 1402 and R 1403 .
また、上述のように、速度「(r0/t0)/2」程度で動いている部分を、人間が固定視する場合には、人間の視線方向は、動被写体(動いている被写体)の動きとは別の動きをしているので、多少ぼけた画像であっても良好な動画として認識される。 Further, as described above, when a human is fixedly viewing a portion that is moving at a speed of about “(r 0 / t 0 ) / 2”, the human gaze direction is the moving subject (moving subject). Therefore, even a slightly blurred image is recognized as a good moving image.
従って、図14の領域R1401内のデータを、注視点が速度「(r0/t0)/2」程度で移動する場合のローパスフィルタ、即ち、図11の領域R1101を通過帯域として有するローパスフィルタでフィルタリングしても、良好な画質の動画として認識される。 Therefore, the data in the region R 1401 in FIG. 14 has a low-pass filter when the gazing point moves at a speed of “(r 0 / t 0 ) / 2”, that is, the region R 1101 in FIG. Even if it is filtered with a low-pass filter, it is recognized as a moving image with good image quality.
以上から、図15に示すように、領域R1401のうちの、領域R1101と重複する部分の領域R1501(図中黒色で塗りつぶして示す)内のデータがあれば、速度「(r0/t0)/2」程度で動いている部分は、良好な画質の動画として認識される。 From the above, as shown in FIG. 15, if there is data in a region R 1501 of the region R 1401 that overlaps the region R 1101 (shown in black in the drawing), the speed “(r 0 / A portion moving at about t 0 ) / 2 ”is recognized as a moving image with good image quality.
従って、動画において、速度「(r0/t0)/2」程度で動いている部分を、人間が固定視する場合には、その部分のデータ、即ち、領域R401内のデータから、固定視が行われている場合のローパスフィルタの通過帯域としての領域R1001と、注視点が速度「(r0/t0)/2」程度で移動する場合のローパスフィルタの通過帯域としての領域R1101との重複部分の領域R1501を除いた領域のデータは、無駄である(なくても、人間が認識する画質に、ほとんど影響しない)。 Therefore, in the case where a portion of a moving image moving at a speed of “(r 0 / t 0 ) / 2” is fixedly viewed by a human, the data of that portion, that is, the data in the region R 401 is fixed. Region R 1001 as the pass band of the low-pass filter when viewing is performed, and region R as the pass band of the low-pass filter when the gazing point moves at a speed of “(r 0 / t 0 ) / 2” The data in the area excluding the area R 1501 that overlaps the area 1101 is useless (even if it does not, it hardly affects the image quality recognized by humans).
次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分を、人間が固定視することにより認識する画像は、視覚の積分機能により、速度「r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, an image that is recognized by a human fixed view of a moving part of a moving image at a speed of about “r 0 / t 0 ” in a moving image is obtained by a visual integration function, This is equivalent to an image obtained by filtering data in a portion moving at a speed of about “r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.
このローパスフィルタの通過帯域は、周波数ドメイン上において、静止している部分を注視する場合と同一の領域、即ち、図10の領域R1001で表すことができる。 The pass band of this low-pass filter can be represented by the same region on the frequency domain as the case where a stationary portion is watched, that is, a region R 1001 in FIG.
ここで、図16は、周波数ドメインにおいて、速度「r0/t0」程度で動いている部分のデータが分布する領域R801(図8)と、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001(図10)とを示している。 Here, FIG. 16 shows a region R 801 (FIG. 8) in which data of a portion moving at a speed of “r 0 / t 0 ” in the frequency domain is distributed, and a low-pass filter when a human performs fixed vision. A region R 1001 (FIG. 10) as a pass band is shown.
人間は、領域R801のうちの、領域R1001内の情報、つまり、領域R801とR1001とが重複する部分の領域R1601内の情報しか認識することができない。従って、領域R801のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 Humans, of area R 801, information in the region R 1001, that is, can not be a region R 801 and R 1001 are only recognized information in the region R 1601 of the portions overlapping. Therefore, information outside the region R 1001 in the region R 801 is useless information for humans.
なお、図16において、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001には、動画データが存在する領域R801とは重複しない部分の領域R1602とR1603(図中斜線を付して示す)が存在するが、いまの場合、この領域R1602とR1603には、動画データは存在しない。 In FIG. 16, a region R 1001 as a pass band of the low-pass filter when a human performs fixed vision is a portion of regions R 1602 and R 1603 that do not overlap with the region R 801 where moving image data exists (in the drawing) In this case, there is no moving image data in these areas R 1602 and R 1603 .
また、上述のように、速度「r0/t0」程度で動いている部分を、人間が固定視する場合には、人間の視線方向は、動被写体(動いている被写体)の動きとは別の動きをしているので、多少ぼけた画像であっても良好な動画として認識される。 In addition, as described above, when a human is fixedly viewing a portion that is moving at a speed of about “r 0 / t 0 ”, the direction of the human gaze is the movement of the moving subject (moving subject). Since it moves differently, even a slightly blurred image is recognized as a good moving image.
従って、図16の領域R1601内のデータを、注視点が速度「r0/t0」程度で移動する場合のローパスフィルタ、即ち、図12の領域R1201を通過帯域として有するローパスフィルタでフィルタリングしても、良好な画質の動画として認識される。 Therefore, the data in the region R 1601 in FIG. 16 is filtered by a low-pass filter when the gazing point moves at a speed of “r 0 / t 0 ”, that is, a low-pass filter having the region R 1201 in FIG. Even so, it is recognized as a moving image with good image quality.
以上から、図17に示すように、領域R1601のうちの、領域R1201と重複する部分の領域R1701(図中黒色で塗りつぶして示す)内のデータがあれば、速度「r0/t0」程度で動いている部分は、良好な画質の動画として認識される。 From the above, as shown in FIG. 17, if there is data in a region R 1701 (shown in black in the drawing) that overlaps the region R 1201 in the region R 1601 , the speed “r 0 / t A portion moving at about “ 0 ” is recognized as a moving image with good image quality.
従って、動画において、速度「r0/t0」程度で動いている部分を、人間が固定視する場合には、その部分のデータ、即ち、領域R801内のデータから、固定視が行われている場合のローパスフィルタの通過帯域としての領域R1001と、注視点が速度「r0/t0」程度で移動する場合のローパスフィルタの通過帯域としての領域R1201との重複部分の領域R1701を除いた領域のデータは、無駄である。 Therefore, when a human views a moving part of a moving image at a speed of about “r 0 / t 0 ”, the fixed view is performed from the data of that part, that is, the data in the region R 801 . Region R 1001 as the pass band of the low-pass filter in the case where the gazing point moves and the region R 1201 as the pass band of the low-pass filter when the gazing point moves at a speed of about “r 0 / t 0 ” The data in the area excluding 1701 is useless.
次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分を、人間が固定視することにより認識する画像は、視覚の積分機能により、速度「r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, an image that is recognized by a human fixed view of a moving part of a moving image at a speed of about “2r 0 / t 0 ” in a moving image is obtained by a visual integration function, This is equivalent to an image obtained by filtering data in a portion moving at a speed of about “r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.
このローパスフィルタの通過帯域は、周波数ドメイン上において、静止している部分を注視する場合と同一の領域、即ち、図10の領域R1001で表すことができる。 The pass band of this low-pass filter can be represented by the same region on the frequency domain as the case where a stationary portion is watched, that is, a region R 1001 in FIG.
ここで、図18は、周波数ドメインにおいて、速度「2r0/t0」程度で動いている部分のデータが分布する領域R901(図9)と、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001(図10)とを示している。 Here, FIG. 18 shows a region R 901 (FIG. 9) in which data of a portion moving at a speed of about “2r 0 / t 0 ” is distributed in the frequency domain, and a low-pass filter when a human performs fixed vision. A region R 1001 (FIG. 10) as a pass band is shown.
人間は、領域R901のうちの、領域R1001内の情報、つまり、領域R901とR1001とが重複する部分の領域R1801内の情報しか認識することができない。従って、領域R901のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 Humans, of area R 901, information in the region R 1001, that is, can not be a region R 901 and R 1001 are only recognized information in the region R 1801 of the portions overlapping. Therefore, information outside the region R 1001 in the region R 901 is useless information for humans.
なお、図18において、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001には、動画データが存在する領域R901とは重複しない部分の領域R1802とR1803(図中斜線を付して示す)が存在するが、いまの場合、この領域R1802とR1803には、動画データは存在しない。 In FIG. 18, a region R 1001 as a pass band of the low-pass filter when a human performs fixed vision is a region R 1802 and R 1803 of portions that do not overlap with the region R 901 where moving image data exists (in the drawing) In this case, there is no moving image data in the regions R 1802 and R 1803 .
また、上述のように、速度「2r0/t0」程度で動いている部分を、人間が固定視する場合には、人間の視線方向は、動被写体(動いている被写体)の動きとは別の動きをしているので、多少ぼけた画像であっても良好な動画として認識される。 In addition, as described above, when a human is fixedly viewing a portion that is moving at a speed of about “2r 0 / t 0 ”, the direction of the human line of sight is the movement of the moving subject (moving subject). Since it moves differently, even a slightly blurred image is recognized as a good moving image.
従って、図18の領域R1801内のデータを、注視点が速度「2r0/t0」程度で移動する場合のローパスフィルタ、即ち、図13の領域R1301を通過帯域として有するローパスフィルタでフィルタリングしても、良好な画質の動画として認識される。 Accordingly, the data in the region R 1801 in FIG. 18 is filtered by a low-pass filter when the point of interest moves at a speed of about “2r 0 / t 0 ”, that is, a low-pass filter having the region R 1301 in FIG. Even so, it is recognized as a moving image with good image quality.
以上から、図19に示すように、領域R1801のうちの、領域R1301と重複する部分の領域R1901(図中黒色で塗りつぶして示す)内のデータがあれば、速度「2r0/t0」程度で動いている部分は、良好な画質の動画として認識される。 From the above, as shown in FIG. 19, if there is data in a region R 1901 (shown in black in the drawing) that overlaps the region R 1301 in the region R 1801 , the speed “2r 0 / t A portion moving at about “ 0 ” is recognized as a moving image with good image quality.
従って、動画において、速度「2r0/t0」程度で動いている部分を、人間が固定視する場合には、その部分のデータ、即ち、領域R901内のデータから、固定視が行われている場合のローパスフィルタの通過帯域としての領域R1001と、注視点が速度「2r0/t0」程度で移動する場合のローパスフィルタの通過帯域としての領域R1301との重複部分の領域R1901を除いた領域のデータは、無駄である。 Therefore, when a human views a moving part of a moving image at a speed of about “2r 0 / t 0 ”, the fixed view is performed from the data of that part, that is, the data in the region R 901 . Region R 1001 as the pass band of the low-pass filter when the gazing point moves and the region R 1301 as the pass band of the low-pass filter when the gazing point moves at a speed of about “2r 0 / t 0 ” The data in the area excluding 1901 is useless.
以上の固定視と追従視の場合の、人間が認識することができる周波数ドメイン上の範囲(領域)についてまとめると、図20乃至図23に示すようになる。 The ranges (regions) on the frequency domain that can be recognized by humans in the case of fixed vision and follow-up vision are summarized as shown in FIGS.
即ち、図20は、動画の中で静止している物体(被写体)が投影されている部分について、人間が認識することができるデータが存在する領域を示している。 That is, FIG. 20 shows an area where there is data that can be recognized by humans in a portion where a stationary object (subject) is projected in a moving image.
動画の中で静止している物体が投影されている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図20に示すように、図10に示した領域R1001であり、領域R1001以外にあるデータは、無駄である。 As shown in FIG. 20, the region on the frequency domain of the data that can be recognized by humans for a portion where a stationary object is projected in the moving image is a region R 1001 shown in FIG. The data outside the area R 1001 is useless.
次に、図21は、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分について、人間が認識することができるデータが存在する領域を示している。 Next, FIG. 21 shows data in which a person can recognize a portion of a moving image where a subject projected on the moving image moves at a speed of “(r 0 / t 0 ) / 2”. The area to be shown is shown.
動画の中で速度「(r0/t0)/2」程度で動いている部分について、人間が追従視で認識することができるデータの周波数ドメイン上の領域は、図11に示した領域R1101である。さらに、固定視で認識することができるデータの周波数ドメイン上の領域は、図15に示した領域R1501であり、この領域R1501は、図11に示した領域R1101に含まれる。 A region on the frequency domain of data that can be recognized by humans by following vision for a portion moving at a speed of “(r 0 / t 0 ) / 2” in the moving image is a region R shown in FIG. 1101 . Furthermore, the region on the frequency domain of data that can be recognized by fixed vision is a region R 1501 shown in FIG. 15, and this region R 1501 is included in the region R 1101 shown in FIG.
従って、速度「(r0/t0)/2」程度で動いている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図21に示すように、図11に示した領域R1101であり、領域R1101以外にあるデータは、無駄である。 Therefore, the region on the frequency domain of the data that can be recognized by humans for the portion moving at the speed “(r 0 / t 0 ) / 2” is shown in FIG. 11 as shown in FIG. a region R 1101, data in the region other than the region R 1101 is waste.
次に、図22は、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分について、人間が認識することができるデータが存在する領域を示している。 Next, FIG. 22 shows an area where data that can be recognized by humans exists in a portion of the moving image where the subject projected on the moving image moves at a speed of about “r 0 / t 0 ”. ing.
動画の中で速度「r0/t0」程度で動いている部分について、人間が追従視で認識することができるデータの周波数ドメイン上の領域は、図12に示した領域R1201である。さらに、固定視で認識することができるデータの周波数ドメイン上の領域は、図17に示した領域R1701であり、この領域R1701は、図12に示した領域R1201に含まれる。 A region on the frequency domain of data that can be recognized by a human by tracking vision for a portion moving at a speed of “r 0 / t 0 ” in the moving image is a region R 1201 shown in FIG. Furthermore, the region on the frequency domain of data that can be recognized by fixed vision is a region R 1701 shown in FIG. 17, and this region R 1701 is included in the region R 1201 shown in FIG.
従って、速度「r0/t0」程度で動いている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図22に示すように、図12に示した領域R1201であり、領域R1201以外にあるデータは、無駄である。 Therefore, as shown in FIG. 22, the region on the frequency domain of the data that can be recognized by humans for the portion moving at the speed “r 0 / t 0 ” is a region R 1201 shown in FIG. Yes , the data outside the area R 1201 is useless.
次に、図23は、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分について、人間が認識することができるデータが存在する領域を示している。 Next, FIG. 23 shows an area where data that can be recognized by humans exists in a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”. ing.
動画の中で速度「2r0/t0」程度で動いている部分について、人間が追従視で認識することができるデータの周波数ドメイン上の領域は、図13に示した領域R1301である。さらに、固定視で認識することができるデータの周波数ドメイン上の領域は、図19に示した領域R1901であり、この領域R1901は、図13に示した領域R1301に含まれる。 A region on the frequency domain of the data that can be recognized by humans by following vision for a portion moving at a speed of “2r 0 / t 0 ” in the moving image is a region R 1301 shown in FIG. Furthermore, the region on the frequency domain of data that can be recognized with fixed vision is a region R 1901 shown in FIG. 19, and this region R 1901 is included in the region R 1301 shown in FIG.
従って、速度「2r0/t0」程度で動いている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図23に示すように、図13に示した領域R1301であり、領域R1301以外にあるデータは、無駄である。 Therefore, as shown in FIG. 23, the region on the frequency domain of the data that can be recognized by humans for the portion moving at the speed “2r 0 / t 0 ” is a region R 1301 shown in FIG. Yes , data outside the area R 1301 is useless.
ここで、上述の場合には、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301のT方向の幅を、2π/(4t0)としたが、この幅は、視覚の積分機能による積分の時間に相当する幅であればよく、2π/(4t0)に限定されるものではない。 In the above case, the width in the T direction of the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. 23 is 2π / (4t 0 ). However, this width may be a width corresponding to the integration time by the visual integration function, and is not limited to 2π / (4t 0 ).
動画の中で、他の速度で動いている部分のデータについても、同様のことが言える。 The same can be said for the data of the moving part of the video at other speeds.
以上のように、人間の視覚効果(視覚特性)、即ち、視覚の積分機能を利用して、周波数ドメイン上において、動画データを、人間が認識することができる領域のデータと、それ以外の無駄なデータとに分類することができる。 As described above, by utilizing the human visual effect (visual characteristics), that is, the visual integration function, on the frequency domain, moving image data can be recognized as data in a region that can be recognized by humans and other waste. Data.
そして、周波数ドメイン上において、動画データから、人間が認識することができる領域のデータだけを抽出すれば、即ち、それ以外の無駄なデータを削除すれば、画質を劣化させずに(人間が動画を見たときに認識する画質)、動画データを圧縮することができる。 Then, if only data in a region that can be recognized by humans is extracted from video data on the frequency domain, that is, if unnecessary data other than that is deleted, image quality is not degraded ( The image quality recognized when viewing the video), and the video data can be compressed.
そこで、図24は、動画データを、視覚の積分機能を利用して圧縮し、さらに、そのように圧縮された動画データを復号(伸張)する画像処理システムの構成例を示している。 FIG. 24 shows an example of the configuration of an image processing system that compresses moving image data using a visual integration function and decodes (decompresses) the compressed moving image data.
図24において、送信装置1には、例えば、1/t0=240fpsなどの高フレームレートの動画データが供給される。送信装置1は、そこに供給される動画データを、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301などを通過帯域とするフィルタ(帯域通過フィルタまたは帯域制限フィルタ)でフィルタリングし、その結果得られる、人間が認識することができる周波数ドメイン上の領域のデータを出力する。送信装置1が出力するデータは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどの記録媒体11に記録され、あるいは、電話回線、地上波、衛星回線、インターネット、有線または無線LAN(Local Area Network)などの伝送媒体12を介して伝送される。
In FIG. 24, the
受信装置2には、記録媒体11から再生されたデータ、あるいは、伝送媒体12を介して伝送されてくるデータが供給される。受信装置2は、そこに供給されるデータを受信して、所定の処理を施し、その結果得られる動画データを、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などで構成される表示装置3に供給して表示させる。
The
なお、図24において、送信装置1、受信装置2、表示装置3は、それぞれ物理的に独立の装置として構成することができる。また、送信装置1および受信装置2は、図24において点線で囲んで示すように、全体として、物理的に1つの装置として構成することができる。さらに、送信装置1、受信装置2、および表示装置3の全体や、受信装置2および表示装置3を、物理的に1つの装置として構成することもできる。
In FIG. 24, the
次に、図25は、図24の送信装置1の第1の構成例を示している。
Next, FIG. 25 illustrates a first configuration example of the
バッファ部21には、送信装置1に供給された高フレームレートの動画データが供給される。バッファ部21は、そこに供給される動画データを順次記憶する。
The
フィルタ部22は、バッファ部21に記憶された動画データを適宜読み出し、その動画データを、後述するフィルタ生成部23から供給されるフィルタ情報にしたがってフィルタリングして、そのフィルタリングにより得られる動画データを、エンコード部24に供給する。
The
フィルタ生成部23は、バッファ部21に記憶された動画データを適宜読み出し、その動画データの各部分をフィルタリングするフィルタの情報であるフィルタ情報を生成して、フィルタ部22に供給する。
The filter generation unit 23 appropriately reads the moving image data stored in the
即ち、フィルタ生成部23は、主成分方向取得部31とフィルタ情報供給部32とから構成される。
That is, the filter generation unit 23 includes a principal component
主成分方向取得部31は、バッファ部21から読み出された動画データの各部分について、周波数ドメイン上での主成分の方向である主成分方向を取得し、その主成分方向の情報を、フィルタ情報供給部32に供給する。
The principal component
フィルタ情報供給部32は、主成分方向取得部31からの主成分方向の情報にしたがい、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸Tの方向に特定の幅としての、例えば、2π/(4t0)を有する領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、その通過帯域を、フィルタ情報として、フィルタ部22に出力する。
The filter
エンコード部24は、フィルタ部22から供給される動画データを、例えば、MPEG(Moving Picture Experts Group)1や2などの所定のエンコード(符号化)方法によってエンコードし、その結果得られるエンコードデータを出力する。このエンコードデータが、図24の記録媒体11に記録され、あるいは伝送媒体12を介して伝送される。
The
次に、図26のフローチャートを参照して、図25の送信装置1の処理について説明する。
Next, processing of the
バッファ部21には、フレームレート1/t0が、例えば、240fpsの高フレームレート(第1のフレームレート)の動画データが供給されて順次記憶される。
The
そして、ステップS1において、フィルタ生成部23は、バッファ部21に記憶された動画データを読み出して、自身(フィルタ生成部23)に入力し、ステップS2に進む。
In step S1, the filter generation unit 23 reads the moving image data stored in the
ステップS2では、フィルタ生成部23(の主成分方向取得部31およびフィルタ情報供給部32)が、ステップS1で入力された動画データの各部分について、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部22に供給する、後述する図31で説明する「必要な情報の通過帯域を求める処理」を行い、ステップS3に進む。
In step S2, a region in which the filter generation unit 23 (its principal component
ステップS3では、フィルタ部22が、バッファ部21から、ステップS2でフィルタ生成部23から供給されたフィルタ情報のフィルタによるフィルタリングに用いるデータを読み出し、そのデータに対して、ステップS2でフィルタ生成部23から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を1/4に間引くダウンサンプリングを行う。
In step S3, the
即ち、フィルタ部22は、バッファ部21から読み出したデータを、ステップS2でフィルタ生成部23から供給されたフィルタ情報が表す通過帯域のフィルタでフィルタリングしながら、時間方向のサンプリング間隔、即ち、フレーム周期が、元の動画データの4倍である4t0の低フレームレートの動画データを得て、エンコード部24に出力し、ステップS4に進む。
In other words, the
ステップS4では、エンコード部24が、フィルタ部22からの動画データをエンコードし、その結果得られるエンコードを出力する。
In step S4, the
なお、ステップS1乃至S4の処理は、バッファ部21に記憶された動画の各部分のデータすべてについて行われる。
Note that the processing in steps S1 to S4 is performed for all the data of each part of the moving image stored in the
また、ステップS3におけるダウンサンプリングは、バッファ部21に記憶された動画データの4フレームごとに、1フレームのフィルタリング結果を出力する処理である。従って、バッファ部21に記憶された動画データの4フレームごとに、その4つのフレームのうちの1フレームついて、フィルタ生成部23から供給されたフィルタ情報が表す通過帯域のフィルタによるフィルタリングを行えば良い。
Further, the downsampling in step S3 is a process of outputting a filtering result of one frame for every four frames of moving image data stored in the
以上のように、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、動画データをフィルタリングし、さらに、ダウンサンプリングを行うようにしたので、人間の目の視覚効果を考慮した動画データの削減を行うことができる。 As described above, regions that can be recognized by humans on the frequency domain, that is, for example, region R 1001 in FIG. 20, region R 1101 in FIG. 21, region R 1201 in FIG. 22, region R 1301 in FIG. Since the moving image data is filtered by a filter having a pass band and further down-sampling is performed, the moving image data can be reduced in consideration of the visual effect of the human eye.
即ち、人間が視覚によって認識することができる周波数ドメイン上の領域が、図2に示したように、X,Y方向が2×2π/(2r0)で、T方向が2×2π/(2t0)の、原点を中心とする領域R201であるとすると、人間が認識することができる最高の画質の動画は、フレームレートが1/t0で、空間方向の画素ピッチがr0の動画である。 That is, as shown in FIG. 2, the regions on the frequency domain that humans can visually recognize are 2 × 2π / (2r 0 ) in the X and Y directions and 2 × 2π / (2t in the T direction. 0 ) of the region R 201 centered on the origin, the highest quality video that can be recognized by humans is the video with a frame rate of 1 / t 0 and a pixel pitch r 0 in the spatial direction. It is.
そして、図10乃至図23で説明した視覚効果を考慮しない場合には、例えば、動画を時間方向にダウンサンプリングすることにより、そのフレームレートを1/t0よりも低下させると、そのフレームレートが低下した動画を表示した場合に、その動画を見た人間は、画質の劣化を認識する。 If the visual effects described with reference to FIGS. 10 to 23 are not considered, for example, if the frame rate is reduced below 1 / t 0 by down-sampling the moving image in the time direction, the frame rate is reduced. When a reduced moving image is displayed, a person who views the moving image recognizes the deterioration of the image quality.
これに対して、送信装置1では、図10乃至図23で説明した視覚効果を考慮した処理、即ち、周波数ドメイン上で人間が認識することができる領域である、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、動画データをフィルタリングするので、動画のフレームレートを1/(4t0)に低下させても、即ち、動画データのデータ量を1/4に削減しても、人間が画質の劣化を感じない動画を表示することができる。
On the other hand, in the
即ち、図27乃至図30は、それぞれ、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、高フレームレートの動画(フレームレートが1/t0の動画)のデータをフィルタリングしながら、時間方向に1/4のダウンサンプリングを行って得られる低フレームレートの動画(フレームレートが1/(4t0)の動画)のデータの周波数ドメイン上の分布を示している。
That is, FIG. 27 to FIG. 30 show a high frame rate by a filter in which the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. videos while filtering data (
まず、動画の中の静止している部分のデータは、フィルタ部22において、図20の領域R1001を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1001内にのみ存在する。
First, the data of the stationary part in the moving image is filtered by the
領域R1001内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1001 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 in the spatial direction x, y and 4 × in the time direction t. t Data sampled at 0 intervals.
このため、図27に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 For this reason, as shown in FIG. 27, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.
但し、領域R1001は、図10で説明したことから、X,Y方向が2π/r0で、T方向が2π/(4t0)の領域であるため、折り返し成分どうしは重ならない。 However, since the region R 1001 is a region in which the X and Y directions are 2π / r 0 and the T direction is 2π / (4t 0 ) as described with reference to FIG. 10, the aliasing components do not overlap.
なお、図27において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。 In FIG. 27, the shaded part is the part where the down-sampled video data exists.
次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分のデータは、フィルタ部22において、図21の領域R1101を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1101内にのみ存在する。 Next, the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2” is stored in the region R 1101 of FIG. Filtered by a filter as a pass band. Therefore, the moving image data after filtering exists only in the region R 1101 .
領域R1101内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1101 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 in the spatial direction x, y and 4 × in the time direction t. t Data sampled at 0 intervals.
このため、図28に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 28, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.
但し、領域R1101は、図11で説明したことから、原点(0,0)と点(π/r0,-π/(2t0))とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、折り返し成分どうしは重ならない。 However, the region R 1101 has a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, −π / (2t0)), as described in FIG. And the X and Y directions are-(π / r 0 ) to + (π / r 0 ) and the T direction is-(π / t 0 ) to + (π / t 0 ). Since it is a range area, the aliasing components do not overlap.
なお、図28において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。 In FIG. 28, the shaded part is the part where the down-sampled moving image data exists.
次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分のデータは、フィルタ部22において、図22の領域R1201を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1201内にのみ存在する。 Next, the data of the portion of the moving image where the subject projected on the moving image is moving at a speed of about “r 0 / t 0 ” has a region R 1201 in FIG. Filtered by the filter. Therefore, the moving image data after filtering exists only in the region R 1201 .
領域R1201内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1201 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 with respect to the spatial directions x and y, and 4 × with respect to the time direction t. t Data sampled at 0 intervals.
このため、図29に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 29, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.
但し、領域R1201は、図12で説明したことから、原点(0,0)と点(π/r0,-2π/(2t0))とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、折り返し成分どうしは重ならない。 However, the region R 1201 has a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, -2π / (2t0)), as described in FIG. And the X and Y directions are-(π / r 0 ) to + (π / r 0 ) and the T direction is-(π / t 0 ) to + (π / t 0 ). Since it is a range area, the aliasing components do not overlap.
なお、図29において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。 In FIG. 29, the shaded portion is the portion where the down-sampled moving image data exists.
次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分のデータは、フィルタ部22において、図23の領域R1301を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1301内にのみ存在する。 Next, the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ” has a region R 1301 in FIG. Filtered by the filter. Therefore, the moving image data after filtering exists only in the region R 1301 .
領域R1301内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1301 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 in the spatial direction x, y and 4 × in the time direction t. t Data sampled at 0 intervals.
このため、図30に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 30, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.
但し、領域R1301は、図13で説明したことから、原点(0,0)と点(π/r0,-2π/t0)とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、折り返し成分どうしは重ならない。 However, the region R 1301 has a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, −2π / t0), as described in FIG. area, and, X, Y direction, - at (π / r 0) to + (π / r 0), T direction, - the range of (π / t 0) to + (π / t 0) Since it is a region, the aliasing components do not overlap.
なお、図30において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。 In FIG. 30, the shaded part is the part where the down-sampled moving image data exists.
以上の図27乃至図30に示したように、周波数ドメインにおいて、ダウンサンプリング後の動画データの折り返し成分どうしは重ならないということは、そのダウンサンプリング後の動画データから、元のデータ、即ち、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301内のデータを抽出することができることを意味し、換言すれば、ダウンサンプリング後の動画データが、人間の視覚特性を考慮した必要な情報(人間が認識することができる情報)を、正確に保持していることを意味する。 As shown in FIGS. 27 to 30 above, the fact that the aliasing components of the downsampled video data do not overlap in the frequency domain means that the original data, that is, 20 area R 1001 , area R 1101 in FIG. 21, area R 1201 in FIG. 22, and area R 1301 in FIG. 23 can be extracted. This means that necessary information (information that can be recognized by humans) taking into consideration human visual characteristics is accurately held.
なお、ダウンサンプリング後の動画データを、ダウンサンプリング前の動画データに復号(復元)するためには、動画の各部分のデータに、どのようなフィルタを適用したかの情報が必要となる。 Note that in order to decode (restore) the moving image data after downsampling into moving image data before downsampling, information on what kind of filter is applied to the data of each part of the moving image is required.
そこで、図25の送信装置1では、フィルタ情報供給部32からエンコード部24に対して、動画の各部分のデータに適用したフィルタのフィルタ情報としての通過帯域である、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301の情報や、その領域R1001,R1101,R1201,R1301の主成分方向の情報を供給し、エンコード部24では、その情報を、エンコードデータに多重化して出力するようにすることができる。
Therefore, in the
次に、図31のフローチャートを参照して、図26のステップS2でフィルタ生成部23が行う「必要な情報の通過帯域を求める処理」について説明する。 Next, with reference to the flowchart of FIG. 31, the “process for obtaining the passband of necessary information” performed by the filter generation unit 23 in step S2 of FIG. 26 will be described.
まず最初に、ステップS11において、フィルタ生成部23(図25)の主成分方向取得部31は、図26のステップS1で入力された動画データの各部分について、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部32に供給して、ステップS12に進む。なお、主成分方向は、例えば、空間方向x,yと、時間方向tとの3次元の方向について、フーリエ変換(3次元フーリエ変換)を行うことにより求めることができる。
First, in step S11, the principal component
ステップS12では、フィルタ情報供給部32は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部31からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、ステップS13に進む。
In step S12, the filter
ステップS13では、フィルタ情報供給部32は、ステップS12で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部22に供給し、「必要な情報の通過帯域を求める処理」を終了する。
In step S13, the filter
以上のような「必要な情報の通過帯域を求める処理」によれば、例えば、動画像において静止している被写体が投影されている部分に対しては、図20の領域R1001をフィルタ情報として求めることができる。また、動画において投影されている被写体が速度「(r0/t0)/2」程度で動いている部分に対しては、図21の領域R1101をフィルタ情報として求めることができる。さらに、動画において投影されている被写体が速度「r0/t0」程度で動いている部分に対しては、図22の領域R1201をフィルタ情報として求めることができる。また、動画において投影されている被写体が速度「2r0/t0」程度で動いている部分に対しては、図23の領域R1301をフィルタ情報として求めることができる。動画においてその他の速度で被写体が移動している部分に対しても、人間が認識することができる周波数ドメイン上の範囲の領域をフィルタ情報として求めることができる。 According to the “process for obtaining the pass band of necessary information” as described above, for example, the region R 1001 in FIG. 20 is used as filter information for a portion where a stationary subject is projected in a moving image. Can be sought. Further, for a portion where the subject projected in the moving image moves at a speed of “(r 0 / t 0 ) / 2”, the region R 1101 in FIG. 21 can be obtained as filter information. Furthermore, the region R 1201 in FIG. 22 can be obtained as filter information for a portion where the subject projected in the moving image moves at a speed of about “r 0 / t 0 ”. Further, for a portion where the subject projected in the moving image moves at a speed of about “2r 0 / t 0 ”, the region R 1301 in FIG. 23 can be obtained as filter information. Even in a portion of the moving image where the subject is moving at other speeds, a region in the frequency domain that can be recognized by humans can be obtained as filter information.
なお、本実施の形態では、フィルタ生成部23(図25)のフィルタ情報供給部32において、主成分方向取得部31から供給される主成分方向に延びる周波数ドメイン上の領域を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部22に供給するようにしたが、フィルタ情報供給部32では、複数の主成分方向それぞれに対する上述のような通過帯域としてのフィルタ情報をあらかじめ求めて記憶しておき、その記憶しているフィルタ情報の中から、主成分方向取得部31から供給される主成分方向に対応するものを選択して、フィルタ部22に供給するようにしても良い。
In the present embodiment, in the filter
また、フィルタ生成部23は、送信装置1とは別の、フィルタ情報を出力する独立の装置として構成することができる。
Further, the filter generation unit 23 can be configured as an independent device that outputs filter information different from the
ところで、図31のステップS11では、3次元フーリエ変換によって、動画データの各部分の主成分方向を求めるようにしたが、3次元フーリエ変換の計算量は膨大であるため、ステップS11における、主成分方向を取得する処理に要する計算量も膨大となる。 By the way, in step S11 of FIG. 31, the principal component direction of each part of the moving image data is obtained by the three-dimensional Fourier transform. However, since the calculation amount of the three-dimensional Fourier transform is enormous, the principal component in step S11 The amount of calculation required for the process of acquiring the direction is enormous.
そこで、図32のフローチャートを参照して、図31のステップS11において、3次元フーリエ変換を行う場合よりも少ない計算量で主成分方向を取得する方法について説明する。 A method for acquiring the principal component direction with a smaller amount of calculation than in the case of performing the three-dimensional Fourier transform in step S11 of FIG. 31 will be described with reference to the flowchart of FIG.
まず最初に、ステップS21において、フィルタ生成部23(図25)の主成分方向取得部31は、バッファ部21に記憶された動画データの各フレームのデータを、例えば、横×縦が16×16画素などのブロックに分割し、ステップS22に進む。なお、ここでは、各ブロックの画像データが、上述の動画データの各部分のデータとなる。
First, in step S21, the principal component
ここで、ブロックは、複数の画素で構成されている必要はなく、1画素であっても良い。 Here, the block does not need to be composed of a plurality of pixels, and may be one pixel.
ステップS22では、主成分方向取得部31は、ステップS21で得られた各ブロックを、順次、注目ブロックとし、注目ブロックについて、その注目ブロックのフレーム(以下、適宜、注目フレームという)の次のフレームとの相関を表す相関情報を求める。さらに、ステップS22では、主成分方向取得部31は、注目ブロックの相関情報が表す相関が最も高くなる、注目フレームの次のフレーム上の空間方向の位置を求める。即ち、ステップS22では、主成分方向取得部31は、いわゆるブロックマッチング等により、注目ブロックの空間方向x,yの2次元の動きベクトルを検出する。
In step S22, the principal component
ここで、相関情報としては、いわゆる相関係数を採用することができるが、ここでは、計算コストを考慮して、例えば、注目ブロックを、動きベクトルとの探索範囲内で空間方向x,yに、それぞれ、u,vだけずらした位置における、注目ブロックの各画素と、その画素と同一位置にある、注目フレームの次のフレームの画素との画素値の自乗誤差や差分絶対値の総和などを採用する。この場合、相関情報の「値」が最小になる空間方向の位置u,vが、相関情報が表す相関が最も高くなる、注目フレームの次のフレーム上の空間方向の位置となる。 Here, as the correlation information, a so-called correlation coefficient can be adopted. Here, considering the calculation cost, for example, the target block is placed in the spatial direction x, y within the search range with the motion vector. , The square error of the pixel value of each pixel of the target block at the position shifted by u, v and the pixel of the next frame of the target frame at the same position as the pixel, the sum of absolute differences, etc. adopt. In this case, the position u, v in the spatial direction where the “value” of the correlation information is the minimum is the position in the spatial direction on the next frame of the frame of interest where the correlation represented by the correlation information is the highest.
なお、相関情報が表す相関が最大(相関情報の値が最小)になる空間方向の位置u,vを、それぞれ、u0,v0と表し、ステップS22で検出される空間方向x,yの動きベクトルを、(u0,v0)と表す。
す。
Note that the spatial direction positions u and v at which the correlation represented by the correlation information is maximum (correlation information value is minimum) are represented by u 0 and v 0 , respectively, in the spatial directions x and y detected in step S22. The motion vector is represented as (u 0 , v 0 ).
The
その後、ステップS22からS23に進み、主成分方向取得部31は、ステップS22で検出された動きベクトル(u0,v0)に、元の動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトル(u0,v0,t0)の方向と直交する方向を、主成分方向として検出し、フィルタ情報供給部32に供給して、処理を終了する。
Thereafter, the process proceeds from step S22 to S23, and the principal component
以上の処理によれば、ブロックの主成分方向が、その動きベクトル(u0,v0,t0)に垂直な平面(の拡がり方向)であるとして検出される。 According to the above processing, the principal component direction of the block is detected as a plane (expansion direction) perpendicular to the motion vector (u 0 , v 0 , t 0 ).
即ち、注目ブロックについて、動きベクトル(u0,v0,t0)が検出された場合、理想的には、空間方向x,yおよび時間方向tで定義される3次元空間において、動きベクトル(u0,v0,t0)の方向に、注目ブロックの画素値が続いているということ、つまり、注目ブロックのある点(x,y,t)における動画データの値は、mを整数として表される、x,y,tの3次元空間上の点(x+mu0,y+mv0,t+mt0)における動画データの値と同一であることになる。 That is, when a motion vector (u 0 , v 0 , t 0 ) is detected for the block of interest, ideally, in a three-dimensional space defined by the spatial direction x, y and the temporal direction t, the motion vector ( u 0 , v 0 , t 0 ) in the direction of the pixel value of the target block, that is, the value of the video data at the point (x, y, t) where the target block is This is the same as the value of the moving image data at the point (x + mu 0 , y + mv 0 , t + mt 0 ) on the three-dimensional space represented by x, y, t.
従って、時空間の注目ブロックのデータの周波数成分、即ち、時空間の注目ブロックのデータを周波数ドメイン上のデータに変換して得られるデータは、動きベクトル(u0,v0,t0)に垂直な平面上にのみ存在することになる。 Therefore, the frequency component of the data of the spatio-temporal block of interest, that is, the data obtained by converting the spatio-temporal block of interest data into the data on the frequency domain is the motion vector (u 0 , v 0 , t 0 ). It exists only on a vertical plane.
図32のフローチャートにしたがった方法では、このことを利用して、動きベクトル(u0,v0,t0)に垂直な平面を、主成分方向として検出している。従って、この場合、主成分方向を取得するためには、動きベクトルを検出すれば良く、3次元フーリエ変換を行う必要がないので、少ない計算量で、主成分方向を検出することができる。 In the method according to the flowchart of FIG. 32, this is used to detect a plane perpendicular to the motion vector (u 0 , v 0 , t 0 ) as the principal component direction. Therefore, in this case, in order to acquire the principal component direction, it is only necessary to detect a motion vector, and it is not necessary to perform a three-dimensional Fourier transform. Therefore, the principal component direction can be detected with a small amount of calculation.
なお、相関情報としては、例えば、相関係数を採用することができる。この場合、相関情報の値(相関係数)が最大の場合が、その相関情報が表す相関が最大の場合となる。 As the correlation information, for example, a correlation coefficient can be adopted. In this case, the correlation information value (correlation coefficient) is the maximum when the correlation represented by the correlation information is the maximum.
また、送信装置1(図25)のエンコード部24では、フィルタ部22からの動画データを、特にエンコードせずに、そのまま出力することもできる。
Further, the
次に、図33は、図24の受信装置2の構成例を示している。
Next, FIG. 33 illustrates a configuration example of the receiving
図25の送信装置1が出力するエンコードデータは、フレームレートが1/(4t0)の低フレームレートの動画データをエンコードしたものであり、この低フレームレートの動画データを、そのまま、その低フレームレートと同一のフレームレートを有する表示装置に供給して表示させたのでは、本来表示されるべき周波数成分の他、図28乃至図30に示した折り返し成分のうちの一部も表示され、その結果、表示装置で表示される動画の画質が劣化する。
The encoded data output from the
そこで、受信装置2では、フレームレートが1/(4t0)の低フレームレートの動画データを、元のフレームレート1/t0にアップサンプリングし、その結果得られる、フレームレートが1/t0の高フレームレートの動画データを、表示装置3(図24)に供給することで、表示装置3に、高画質の(画質の劣化が認識されない)動画データを表示させるようになっている。なお、ここでは、表示装置3は、1/t0のフレームレートで動画を表示するようになっているものとする。
Therefore, the receiving
受信装置2では、上述のように、表示装置3において高画質の動画を表示するために、送信装置1から供給される、フレームレートが1/(4t0)の低フレームレート(第2のフレームレート)の動画データに対して、所定の通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行う。
In the receiving
即ち、デコード部50には、送信装置1(図24)から記録媒体11または伝送媒体12を介して、エンコードデータが供給される。デコード部50は、エンコードデータをデコードし、その結果得られる低フレームレートの動画データを、バッファ部51に供給する。
That is, the
バッファ部51は、デコード部50から供給される低フレームレートの動画データを順次記憶する。
The
フィルタ部52は、バッファ部51に記憶された動画データを適宜読み出し、その動画データを、後述するフィルタ生成部53から供給されるフィルタ情報にしたがってフィルタリングしながらアップサンプリングし、そのフィルタリングおよびアップサンプリングにより得られる高フレームレートの動画データを出力する。フィルタ部52が出力する高フレームレートの動画データは、表示装置3(図24)に供給されて表示される。
The
フィルタ生成部53は、バッファ部51に記憶された動画データを適宜読み出し、その動画データの各部分を用いてフィルタリングするフィルタの情報であるフィルタ情報を生成して、フィルタ部52に供給する。
The filter generation unit 53 appropriately reads out the moving image data stored in the
即ち、フィルタ生成部53は、主成分方向取得部61とフィルタ情報供給部62とから構成される。
That is, the filter generation unit 53 includes a main component
主成分方向取得部61は、バッファ部51から読み出された動画データの各部分について、周波数ドメイン上での主成分の方向である主成分方向を取得し、その主成分方向の情報を、フィルタ情報供給部62に供給する。
The principal component
フィルタ情報供給部62は、主成分方向取得部61からの主成分方向の情報にしたがい、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸Tの方向に特定の幅としての、例えば、2π/(4t0)を有する領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、その通過帯域を、フィルタ情報として、フィルタ部52に出力する。
The filter
次に、図34のフローチャートを参照して、図33の受信装置2の処理について説明する。
Next, processing of the receiving
デコード部50には、エンコードデータが供給される。デコード部50は、そのエンコードデータを、フレームレートが1/(4t0)の低フレームレートの動画データにデコードし、バッファ部51に供給する。バッファ部51では、デコード部50から供給される1/(4t0)のフレームレートの低フレームレートの動画データが順次記憶される。
The
そして、ステップS31において、フィルタ生成部53は、バッファ部51に記憶された動画データのうちのある部分のデータ、即ち、例えば、図32のステップS21で説明したような16×16画素のブロックのデータを読み出して、自身(フィルタ生成部53)に入力し、ステップS32乃至S34に順次進む。
In step S31, the filter generation unit 53 generates a certain part of the moving image data stored in the
ステップS32乃至S34では、フィルタ生成部53(の主成分方向取得部61およびフィルタ情報供給部62)が、ステップS31で入力されたデータについて、周波数ドメイン上で人間が認識することができる領域を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部52に供給する処理、即ち、上述した図31の「必要な情報の通過帯域を求める処理」と同様の処理を行う。
In steps S32 to S34, the filter generation unit 53 (the principal component
即ち、ステップS32では、フィルタ生成部53の主成分方向取得部61は、ステップS31で入力された動画データについて、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部62に供給して、ステップS33に進む。
That is, in step S32, the principal component
なお、ステップS32において主成分方向は、図31で説明したように、3次元フーリエ変換を行うことにより求めることもできるし、図32で説明したように、動きベクトルを検出することにより求めることもできる。また、上述したように、送信装置1からのエンコードデータに、主成分方向(の情報)が多重化されている場合には、デコード部50において、エンコードデータから主成分方向を分離し、主成分方向取得部61において、デコード部50から、その主成分方向(の情報)の供給を受けることにより、主成分方向を取得することもできる。
In step S32, the principal component direction can be obtained by performing a three-dimensional Fourier transform as described in FIG. 31, or can be obtained by detecting a motion vector as described in FIG. it can. Further, as described above, when the principal component direction (information thereof) is multiplexed in the encoded data from the
さらに、エンコードデータに空間方向x,yの動きベクトル(u0,v0)が含まれる場合には、その動きベクトル(u0,v0)に、エンコードデータに含まれる動画データのフレーム同期4t0を、時間方向tのコンポーネントとして加えて、空間方向x,yおよび時間方向tの3次元の動きベクトル(u0,v0,4t0)とし、図32で説明したように、その3次元の動きベクトル(u0,v0,4t0)に直交する平面を主成分方向とすることもできる。 Furthermore, encoded data in the spatial direction x, in the case that contains the y motion vector (u 0, v 0) is the motion vector (u 0, v 0), the frame synchronization 4t of the moving image data included in the encoded data 0 is added as a component in the time direction t to obtain a three-dimensional motion vector (u 0 , v 0 , 4t 0 ) in the spatial direction x, y and the time direction t, and as shown in FIG. The plane orthogonal to the motion vector (u 0 , v 0 , 4t 0 ) can be the principal component direction.
即ち、図25の送信装置1のエンコード部24において、動画データが、少なくとも動き補償を利用する、例えば、MPEGなどのエンコード方法によってエンコードされる場合には、エンコードデータには、動き補償に用いられる動きベクトルが含まれる。そこで、デコード部50においてエンコードデータから動きベクトル(の情報)を抽出し、バッファ部51を介して、主成分方向取得部61に、エンコードデータに含まれる動きベクトルを供給するようにし、主成分方向取得部61では、その動きベクトルに直交する平面を、主成分方向として求める(検出する)ようにすることができる。
That is, in the
なお、MPEGでは、Iピクチャのブロック(マクロブロック)には、動きベクトルが存在しないが、Iピクチャの動きベクトルは、例えば、PまたはBピクチャのブロックの動きベクトルから推定するようにすればよい。 In MPEG, a motion vector does not exist in an I picture block (macroblock), but an I picture motion vector may be estimated from a motion vector of a P or B picture block, for example.
ステップS33では、フィルタ情報供給部62は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部61からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、ステップS34に進む。
In step S33, the filter
ステップS34では、フィルタ情報供給部62は、ステップS33で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部52に供給し、ステップS35に進む。
In step S34, the filter
ステップS35では、フィルタ部52が、バッファ部51から動画データを読み出し、その動画データに対して、ステップS34でフィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を4倍にするアップサンプリングを行う。
In step S35, the
即ち、例えば、いま、ステップS31で入力された動画データが、低フレームレートの動画データのあるフレームのブロック(のデータ)であるとして、そのブロックを注目ブロックとするとともに、注目ブロックのフレームを注目フレームとする。 That is, for example, assuming that the moving image data input in step S31 is a block (data) of a certain frame of moving image data at a low frame rate, that block is the attention block, and the frame of the attention block is noted. Frame.
フィルタ部52は、バッファ部51から読み出した動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目ブロックの各画素のデータ(画素値)を求める。
The
また、フィルタ部52は、バッファ部51から読み出した動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目フレームから次のフレームまでの時間4t0を、時間t0に等分する3つの時刻それぞれにおける画素であって、注目ブロックの各画素を通り、注目ブロックの3次元の動きベクトルの方向に延びる直線上にある画素のデータを求める。なお、注目ブロックの3次元の動きベクトルは、例えば、主成分方向取得部61で求め、フィルタ情報供給部62を介して、フィルタ情報とともに、フィルタ部52に供給することができる。
Further, the
フィルタ部52は、以上のようなフィルタリングおよびアップサンプリングを行うことにより、フレームレートが1/t0の高フレームレートの動画データを得て、ステップS35からS36に進む。
The
ステップS36では、フィルタ部52は、ステップS35で得た高フレームレートの動画データを、表示装置3(図24)に出力して、処理を終了する。
In step S36, the
なお、ステップS31乃至S34の処理は、バッファ部51に記憶された動画データの各部分すべてについて行われる。
Note that the processing in steps S31 to S34 is performed for all portions of the moving image data stored in the
以上のように、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、動画データをフィルタリングし、さらに、アップサンプリングを行うようにしたので、人間の目の視覚効果を考慮したデータ量の削減が行われた低フレームレートの動画データから、高画質の動画データ、つまり、元の高フレームレートの動画データと同様の画質の動画データを得て(元の高フレームレートの動画データと同様の画質を認識することができる動画データを復元して)表示することができる。 As described above, regions that can be recognized by humans on the frequency domain, that is, for example, region R 1001 in FIG. 20, region R 1101 in FIG. 21, region R 1201 in FIG. 22, region R 1301 in FIG. Since the video data is filtered by a filter that uses a passband, and further upsampling is performed, the amount of data is reduced in consideration of the visual effects of the human eye. , Obtain high-quality video data, that is, video data with the same image quality as the original high-frame-rate video data (restore video data that can recognize the same image quality as the original high-frame-rate video data Can be displayed).
即ち、図35乃至図38は、それぞれ、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、図27乃至図30の低フレームレートの動画(フレームレートが1/(4t0)の動画)のデータをフィルタリングしながら、時間方向に4倍のアップサンプリングを行って得られる高フレームレートの動画(フレームレートが1/t0の動画)のデータの周波数ドメイン上の分布を示している。 That is, FIGS. 35 to 38, respectively, the regions R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. 23, the filter having a pass band to 27 A high frame rate video (frame rate is obtained by performing upsampling four times in the time direction while filtering the data of the low frame rate video (video with a frame rate of 1 / (4t 0 )) in FIG. 1 / t 0 (moving data) on the frequency domain.
まず、動画の中の静止している部分のデータに対しては、フィルタ部52において、図20の領域R1001を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図20の領域R1001内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。
First, the data of the still portion in the moving image is up-sampled in the
このため、図35に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図27に示した場合の4倍になる。 Therefore, as shown in FIG. 35, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.
なお、図35において、影を付してある部分が、動画データが存在する部分である。 In FIG. 35, the shaded portion is a portion where moving image data exists.
次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分のデータに対しては、フィルタ部52において、図21の領域R1101を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図21の領域R1101内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。
Next, with respect to data of a portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2”, the
このため、図36に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図28に示した場合の4倍になる。 Therefore, as shown in FIG. 36, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.
なお、図36において、影を付してある部分が、動画データが存在する部分である。 In FIG. 36, the shaded portion is a portion where moving image data exists.
次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分のデータに対しては、フィルタ部52において、図22の領域R1201を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図22の領域R1201内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。
Next, for the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “r 0 / t 0 ”, the
このため、図37に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図29に示した場合の4倍になる。 Therefore, as shown in FIG. 37, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.
なお、図37において、影を付してある部分が、動画データが存在する部分である。 In FIG. 37, the shaded portion is a portion where moving image data exists.
次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分のデータに対しては、フィルタ部52において、図23の領域R1301を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図23の領域R1301内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。
Next, for the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, the
このため、図38に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図30に示した場合の4倍になる。 Therefore, as shown in FIG. 38, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.
なお、図38において、影を付してある部分が、動画データが存在する部分である。 In FIG. 38, the shaded portion is a portion where moving image data exists.
図2で説明したように、人間が認識することができるのは、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域R201であり、図35乃至図38において、この領域R201内には、折り返し成分は存在しない。 As described in FIG. 2, humans can recognize that the X and Y directions are − (π / r 0 ) to + (π / r 0 ) and the T direction is − (π / t 0 ) to + (π / t 0 ) range R 201 , and in FIG. 35 to FIG. 38, there is no aliasing component in this region R 201 .
従って、フィルタ部52におけるフィルタリングおよびアップサンプリングにより得られる、1/t0の高フレームレートの動画データが、表示装置3に表示された場合に、その表示された動画に対して、人間は、元の動画(送信装置1に供給された動画)と同様の画質を認識することができる。
Therefore, when moving image data with a high frame rate of 1 / t 0 obtained by filtering and upsampling in the
なお、上述したように、図25の送信装置1のエンコード部24では、エンコードデータに、フィルタ部22で用いられたフィルタのフィルタ情報を多重化することができるが、エンコードデータにフィルタ情報が多重化されている場合には、受信装置2(図33)は、フィルタ生成部53なしで構成することができる。この場合、受信装置2は、デコード部50において、エンコードデータからフィルタ情報を分離し、フィルタ部52に供給するように構成すればよい。
As described above, the
また、上述の場合には、図24の送信装置1において1/t0の高フレームレートの動画データを処理して得られる1/(4t0)の低フレームレートの動画データを、受信装置2に入力し、受信装置2において、その低フレームレートの動画データを、1/t0の高フレームレートの動画データに変換することにより、表示装置3において、高画質(送信装置1に入力される動画と同様の画質)の動画を表示するようにしたが、受信装置2には、元々、1/(4t0)の低フレームレートの動画データを入力しても、表示装置3において、ある程度高画質の動画を表示することが可能である。
In the above case, 1 / (4t 0 ) low frame rate moving image data obtained by processing the high frame rate moving image data of 1 / t 0 in the transmitting
即ち、動画において、(ほぼ)静止している被写体が投影されている部分では、時間方向の周波数成分はほとんど存在しないから、上述の図10に示した領域R301から領域R1001を除いた領域における周波数成分はほとんど存在しない。 That is, in the moving image, in a portion where a (substantially) stationary subject is projected, there is almost no frequency component in the time direction, and thus the region obtained by removing the region R 1001 from the region R 301 shown in FIG. There are almost no frequency components in.
また、動画において、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分では、その動きの方向(空間方向x,yおよび時間方向tの3次元の動きの方向)に垂直な方向の周波数成分以外はほとんど存在しないから、上述の図11に示した領域R401から領域R1101を除いた領域における周波数成分はほとんど存在しない。 In the moving image, in the part where the subject projected there is moving at a speed of “(r 0 / t 0 ) / 2”, the direction of the movement (spatial direction x, y and time direction t three-dimensional Since there is almost no frequency component other than the frequency component in the direction perpendicular to the direction of the movement of (1), there is almost no frequency component in the region excluding the region R 1101 from the region R 401 shown in FIG.
さらに、動画において、そこに投影されている被写体が速度「r0/t0」程度で動いている部分では、その動きの方向に垂直な方向の周波数成分以外はほとんど存在しないから、上述の図12に示した領域R801から領域R1201を除いた領域における周波数成分はほとんど存在しない。 Further, in the moving image, there is almost no frequency component other than the frequency component in the direction perpendicular to the direction of the movement in the portion where the object projected there is moving at a speed of about “r 0 / t 0 ”. There are almost no frequency components in the region excluding the region R 1201 from the region R 801 shown in FIG.
また、動画において、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分では、その動きの方向に垂直な方向の周波数成分以外はほとんど存在しないから、上述の図13に示した領域R901から領域R1301を除いた領域における周波数成分はほとんど存在しない。 Further, in the moving image, in the portion where the subject projected there is moving at a speed of about “2r 0 / t 0 ”, there is almost no frequency component in the direction perpendicular to the direction of the movement. There are almost no frequency components in the region excluding the region R 1301 from the region R 901 shown in FIG.
但し、実際には、動画においては、被写体の投影像は、時間の経過に伴って複雑に変化するため、動画において静止している部分であっても、図10に示した領域R301から領域R1001を除いた領域に、多少のデータ(周波数成分)が存在する。 However, in actuality, in the moving image, the projected image of the subject changes in a complicated manner with time, so even a portion that is stationary in the moving image is a region from the region R 301 shown in FIG. There is some data (frequency components) in the area excluding R1001 .
同様に、動画において速度「(r0/t0)/2」程度で動いている部分には、図11に示した領域R401から領域R1101を除いた領域に、多少のデータが存在し、また、動画において速度「r0/t0」程度で動いている部分には、図12に示した領域R801から領域R1201を除いた領域に、多少のデータが存在する。さらに、動画において速度「2r0/t0」程度で動いている部分には、図13に示した領域R901から領域R1301を除いた領域に、多少のデータが存在する。 Similarly, in the moving part of the moving image at a speed of “(r 0 / t 0 ) / 2”, there is some data in the area excluding the area R 1101 from the area R 401 shown in FIG. Further, in the moving part of the moving image at the speed “r 0 / t 0 ”, there is some data in the area excluding the area R 1201 from the area R 801 shown in FIG. Furthermore, in the moving part of the moving image at a speed of about “2r 0 / t 0 ”, there is some data in the area excluding the area R 1301 from the area R 901 shown in FIG.
このような領域R1001,R1101,R1201,R1301外に存在するデータを削除するために、送信装置1(図25)のフィルタ部22では、領域R1001,R1101,R1201,R1301を通過帯域とするフィルタによるフィルタリングを行っている。
In order to delete data existing outside the regions R 1001 , R 1101 , R 1201 , and R 1301 , the
従って、受信装置2に入力される低フレームレートの動画データが、送信装置1の処理の結果得られたものでない場合には、領域R1001,R1101,R1201,R1301外に、多少のデータが存在することがあり得る。そして、領域R1001,R1101,R1201,R1301外に、データが存在する場合、受信装置2(図33)のフィルタ部52におけるフィルタリングおよびアップサンプリングによって得られる動画データについては、図2に示した人間が認識することができる領域R201内に折り返し成分が混入し、その折り返し成分によって、動画の画質は劣化する。
Therefore, when the low frame rate moving image data input to the receiving
しかしながら、領域R1001,R1101,R1201,R1301外に存在するデータは僅かであり、そのような僅かなデータによる折り返し成分に起因して生じる画質の劣化も僅かである。従って、受信装置2に対して、元々、1/(4t0)の低フレームレートの動画データを入力する場合には、送信装置1において得られる低フレームレートの動画データを入力する場合に比較して、多少の画質の劣化はあるが、それでも、元々、1/(4t0)の低フレームレートの動画データを、そのまま表示する場合に比較して、画質が改善された動画を表示することができる。
However, the data existing outside the regions R 1001 , R 1101 , R 1201 , and R 1301 is very small, and image quality degradation caused by the aliasing component due to such a small amount of data is also small. Therefore, originally when moving image data with a low frame rate of 1 / (4t 0 ) is originally input to the receiving
なお、受信装置2に入力される1/(4t0)の低フレームレートの動画データが、いわゆる電子シャッタを採用する撮像装置で撮像されたものである場合には、受信装置2(図33)のフィルタ情報供給部62において、その低フレームレートの動画データの撮像時の露光時間に対応してT方向の幅が制限された領域を、フィルタの通過帯域として決定することができる。
Note that when the 1 / (4t 0 ) low-frame-rate moving image data input to the receiving
即ち、1/(4t0)の低フレームレートの動画データの各フレームの撮像時の露光時間が、t0より大で、4t0より小であるt0'である場合には、各フレームに投影されている被写体の画像は、被写体からの光を、時間t0'だけ積分した値(受光量)に等しい。従って、被写体が動いている場合には、各フレームの画像には、時間t0'に対応するボケ(モーションブラー)が生じる。なお、t0が、例えば、1/240秒程度である場合には、t0'は、例えば、1/120秒程度である。 That is, 1 / the (4t 0) exposure time for the imaging of each frame of the moving image data of a low frame rate, with greater than t 0, when it is t 0 'is smaller than 4t 0 is on each frame The projected image of the subject is equal to a value (light reception amount) obtained by integrating light from the subject for a time t 0 ′. Therefore, when the subject is moving, blur (motion blur) corresponding to time t 0 ′ is generated in the image of each frame. When t 0 is about 1/240 seconds, for example, t 0 ′ is about 1/120 seconds, for example.
時間t0'だけの積分は、図39に示すような、周波数ドメインのT方向に、2π/t0'の幅を有する領域R3901を通過帯域とするローパスフィルタによるフィルタリングを行うことと等価であり、従って、電子シャッタにより、露光時間をt0'として撮像された動画の各フレームのデータは、領域R3901を通過帯域とするローパスフィルタを通過したデータであると言うことができる。 The integration of only time t 0 ′ is equivalent to performing filtering by a low-pass filter having a region R 3901 having a width of 2π / t 0 ′ in the frequency domain T direction as shown in FIG. Therefore, it can be said that the data of each frame of the moving image captured with the exposure time t 0 ′ by the electronic shutter is the data that has passed through the low-pass filter having the region R 3901 as the pass band.
なお、領域R3901は、T方向が、-π/t0'乃至π/t0'の範囲の2π/t0'の幅を有し、かつ、X,Y方向が、人間が認識することができる-π/r0乃至π/r0の範囲の2π/r0の幅を有する領域である。上述のように、例えば、t0が1/240秒で、t0'が1/120秒であり、従って、2t0=t0'である場合には、領域R3901は、T方向が、-π/(2t0)乃至π/(2t0)の範囲のπ/t0の幅を有する。 Note that the region R 3901 has a width of 2π / t 0 ′ in the range of −π / t 0 ′ to π / t 0 ′ in the T direction, and a human recognizes the X and Y directions. This is a region having a width of 2π / r 0 in the range of −π / r 0 to π / r 0 . As described above, for example, when t 0 is 1/240 seconds and t 0 ′ is 1/120 seconds, and therefore 2t 0 = t 0 ′, the region R 3901 has the T direction It has a width of π / t 0 in the range of −π / (2t 0 ) to π / (2t 0 ).
以上のように、露光時間をt0'として撮像された動画の各フレームのデータは、領域R3901を通過帯域とするローパスフィルタを通過したデータであるから、周波数ドメインにおいて、領域R3901以外には、データは存在しない。 As described above, the data of each frame of the imaged moving image exposure time as t 0 ', since the data that has passed through the low-pass filter having a pass band region R 3901, in the frequency domain, in addition to regions R 3901 There is no data.
従って、人間が認識することができる、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301内のデータであっても、図39の領域R3901外にあるデータは、ノイズ等の、動画本来のデータでないから、不要なデータとして削除するのが望ましい。 Therefore, for example, even the data in the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. Since the data outside the area R 3901 is not the original data of the moving image such as noise, it is desirable to delete it as unnecessary data.
そこで、受信装置2(図33)のフィルタ情報供給部62では、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301のT方向を図39の領域R3901によって制限した領域を、フィルタの通過帯域として決定することができる。
Therefore, in the filter
例えば、いま、上述したように、2t0=t0'であるとすると、図20の領域R1001は、図39の領域R3901に含まれるから、フィルタ情報供給部62では、動画において被写体が静止している部分については、図20の領域R1001を、そのまま、フィルタの通過帯域として決定することができる。 For example, as described above, assuming that 2t 0 = t 0 ′, the region R 1001 in FIG. 20 is included in the region R 3901 in FIG. For the stationary part, the region R 1001 in FIG. 20 can be determined as it is as the pass band of the filter.
また、図21の領域R1101は、図40に示すように、その領域R1101のうちの、T方向が、-π/(2t0)乃至π/(2t0)の範囲で、X,Y方向が、-π/r0乃至π/r0の範囲の領域R4001において、図39の領域R3901と重複するから、フィルタ情報供給部62では、動画に投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図40の領域R4001を、フィルタの通過帯域として決定することができる。
In addition, as shown in FIG. 40, the region R 1101 in FIG. 21 has X, Y in the T direction in the region R 1101 in the range of −π / (2t 0 ) to π / (2t 0 ). direction, in the region R 4001 in the range of - [pi] / r 0 to [pi / r 0, since overlapping the region R 3901 in FIG. 39, the filter
さらに、図22の領域R1201は、図41に示すように、その領域R1201のうちの、T方向が、-π/(2t0)乃至π/(2t0)の範囲で、X,Y方向が、-π/r0乃至π/r0の範囲の領域R4101において、図39の領域R3901と重複するから、フィルタ情報供給部62では、動画に投影されている被写体が速度「r0/t0」程度で動いている部分については、図41の領域R4101を、フィルタの通過帯域として決定することができる。
Furthermore, as shown in FIG. 41, the region R 1201 in FIG. 22 has X, Y in the T direction in the region R 1201 in the range of −π / (2t 0 ) to π / (2t 0 ). Since the direction R overlaps with the region R 3901 in FIG. 39 in the region R 4101 in the range of −π / r 0 to π / r 0 , the filter
また、図23の領域R1301は、図42に示すように、その領域R1301のうちの、T方向が、-π/(2t0)乃至π/(2t0)の範囲で、X,Y方向が、-π/r0乃至π/r0の範囲の領域R4201において、図39の領域R3901と重複するから、フィルタ情報供給部62では、動画に投影されている被写体が速度「2r0/t0」程度で動いている部分については、図42の領域R4201を、フィルタの通過帯域として決定することができる。
In addition, as shown in FIG. 42, the region R 1301 in FIG. 23 has X, Y in the T direction in the region R 1301 in the range of −π / (2t 0 ) to π / (2t 0 ). direction, in the region R 4201 in the range of - [pi] / r 0 to [pi / r 0, since overlapping the region R 3901 in FIG. 39, the filter
受信装置2(図33)のフィルタ情報供給部62において、以上のようにフィルタの通過帯域を決定し、フィルタ部52でフィルタリングを行うことにより、領域R3901外にある、ノイズ等の、動画本来のデータでない不要なデータが除去されるので、S/N(Signal to Noise ratio)等が向上した動画データを得ることができる。
In the filter
ここで、受信装置2において、フィルタの通過帯域を、図39の領域R3901で制限する場合には、受信装置2に入力される低フレームレートの動画データの撮像時の露光時間t0'が必要となるが、この露光時間t0'は、例えば、受信装置2に入力される動画データに多重化する等して、受信装置2に入力することができる。
Here, in the receiving
なお、受信装置2に入力されるデータがエンコードされていない場合には、デコード部50は、そのデータをデコードすることなく、バッファ部51に供給する。
When the data input to the receiving
ところで、例えば、送信装置1(図25)の主成分方向取得部31では、上述したように、注目ブロックの、注目フレームの次のフレームへの動きベクトル(u0,v0)を検出し、その動きベクトル(u0,v0)から、注目ブロックの周波数ドメインでの主成分方向を求めることができる。即ち、主成分方向取得部31では、注目ブロックの動きベクトル(u0,v0)に、時間方向tのコンポーネントt0を加えた3次元の動きベクトル(u0,v0,t0)と直交する平面を、注目ブロックの周波数ドメインでの主成分方向として求めることができる。
By the way, for example, the principal component
この場合、注目ブロックの、注目フレームの次のフレームへの動きベクトル(u0,v0)を、例えば、-2倍、-1倍、2倍、3倍したベクトルが、それぞれ、注目ブロックの、注目フレームの前の前のフレーム、前のフレーム、次の次のフレーム、次の次の次のフレームへの動きベクトルに一致していれば、動きベクトル(u0,v0)から求められる注目ブロックの主成分方向は、正確なものとなる。 In this case, for example, a vector obtained by multiplying the motion vector (u 0 , v 0 ) of the block of interest to the next frame of the frame of interest by, for example, -2, -1, 2 or 3 times, If it matches the motion vector to the previous frame, previous frame, next next frame, next next next frame of the frame of interest, it can be obtained from the motion vector (u 0 , v 0 ) The principal component direction of the block of interest is accurate.
しかしながら、動きベクトル(u0,v0)を、例えば、-2倍や、-1倍、2倍、3倍したベクトルが、注目ブロックの、注目フレームの前の前のフレームや、前のフレーム、次の次のフレーム、次の次の次のフレームへの動きベクトルからずれている場合、そのずれに応じて、動きベクトル(u0,v0)から求められる注目ブロックの主成分方向は、誤差を含み、不正確なものとなる。 However, a vector obtained by multiplying the motion vector (u 0 , v 0 ) by, for example, −2 times, −1 times, 2 times, or 3 times is the frame before the attention frame or the previous frame of the attention block. If the motion vector is shifted from the motion vector to the next next frame, the next next frame, the principal component direction of the target block obtained from the motion vector (u 0 , v 0 ) is It contains errors and is inaccurate.
即ち、図43は、送信装置1に供給される高フレームレートの動画データを示している。
That is, FIG. 43 shows high frame rate moving image data supplied to the
なお、図43においては、横軸を、空間方向xとして、動画データを示してある。また、動画には動被写体が投影されており、その動被写体は、空間方向xにのみ移動する(空間方向yへの移動はしない)ものとする。図43では、動被写体は、時間の経過とともに、左から右方向に移動している。 In FIG. 43, the moving image data is shown with the horizontal axis as the spatial direction x. In addition, a moving subject is projected on the moving image, and the moving subject moves only in the spatial direction x (does not move in the spatial direction y). In FIG. 43, the moving subject moves from left to right as time passes.
図43には、上から順に、時刻(フレーム)t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける画像データが示されている。 In FIG. 43, in order from the top, time (frames) t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t + 3t 0 , t + Image data in each of 4t 0 is shown.
いま、時刻tの画像データを基準とすると、その時刻tの画像データに対して、時刻t-4t0の画像データはK4だけ、時刻t-3t0の画像データはK3だけ、時刻t-2t0の画像データはK2だけ、時刻t-t0の画像データはK1だけ、時刻t+t0の画像データはH1だけ、時刻t+2t0の画像データはH2だけ、時刻t+3t0の画像データはH3だけ、時刻t+4t0の画像データはH4だけ、それぞれ、空間方向xにずれている。 If the image data at time t is used as a reference, the image data at time t-4t 0 is only K 4 , the image data at time t-3t 0 is only K 3 , and the time t Image data at -2t 0 is K 2 only, image data at time tt 0 is K 1 only, image data at time t + t 0 is H 1 only, image data at time t + 2t 0 is H 2 only, time t The image data at + 3t 0 is shifted by H 3 and the image data at time t + 4t 0 is shifted by H 4 in the spatial direction x.
従って、時刻tの画像データにおけるあるブロックR4300を注目ブロックとすると、その注目ブロックR4300と同一の画像データ(注目ブロックR4300に対応する画像データ)は、時刻t-4t0の画像データでは、注目ブロックR4300から空間方向xにK4だけずれた位置の領域R4314に存在し、時刻t-3t0の画像データでは、注目ブロックR4300から空間方向xにK3だけずれた位置の領域R4313に存在する。同様に、注目ブロックR4300と同一の画像データは、時刻t-2t0の画像データでは、注目ブロックR4300から空間方向xにK2だけずれた位置の領域R4312に、時刻t-t0の画像データでは、注目ブロックR4300から空間方向xにK1だけずれた位置の領域R4311に、時刻t+t0の画像データでは、注目ブロックR4300から空間方向xにH1だけずれた位置の領域R4301に、時刻t+2t0の画像データでは、注目ブロックR4300から空間方向xにH2だけずれた位置のR4302に、時刻t+3t0の画像データでは、注目ブロックR4300から空間方向xにH3だけずれた位置の領域R4303に、時刻t+4t0の画像データでは、注目ブロックR4300から空間方向xにH4だけずれた位置の領域R4304に、それぞれ存在する。 Therefore, when a certain block R 4300 in the image data at time t and the subject block, the same image data and the block of interest R 4300 (image data corresponding to the target block R 4300), the image data at time t-4t 0 is , from the target block R 4300 present in a region R 4314 of the position shifted by K 4 in the spatial direction x, the image data at time t-3t 0, from the target block R 4300 of position shifted in the spatial direction x by K 3 Exists in region R 4313 . Similarly, the same image data as the target block R 4300 is the image data at time tt 0 in the region R 4312 at a position shifted by K 2 in the spatial direction x from the target block R 4300 in the image data at time t−2t 0. In the data, the region R 4311 at a position shifted by K 1 in the spatial direction x from the target block R 4300 , and at the time t + t 0 image data at the position shifted by H 1 in the spatial direction x from the target block R 4300 . In the region R 4301 , in the image data at time t + 2t 0 , the image data at time t + 3t 0 is shifted from the target block R 4300 to R 4302 at a position shifted by H 2 in the spatial direction x from the target block R 4300. In the region R 4303 at a position shifted by H 3 in the spatial direction x, the image data at time t + 4t 0 exists in the region R 4304 at a position shifted by H 4 in the spatial direction x from the target block R 4300 , respectively. .
なお、図43において、動被写体の動きの大きさは一定ではなく、従って、K4からK3への増加率,K3からK2への増加率、K2からK1への増加率、K1から0への増加率、0からH1への増加率、H1からH2への増加率,H2からH3への増加率、H3からH4への増加率も一定にはなっていない。 In FIG. 43, the magnitude of the movement of the moving subject is not constant. Therefore, the rate of increase from K 4 to K 3 , the rate of increase from K 3 to K 2 , the rate of increase from K 2 to K 1 , The rate of increase from K 1 to 0, the rate of increase from 0 to H 1 , the rate of increase from H 1 to H 2 , the rate of increase from H 2 to H 3 and the rate of increase from H 3 to H 4 are also constant. It is not.
図43に示したように、被写体が移動している場合、注目ブロックR4300の動きベクトル(u0,v0)は、図44に示すように、ベクトル(H1,0)が求められる。従って、送信装置1(図25)の主成分方向取得部31では、この注目ブロックR4300の動きベクトル(H1,0)から、注目ブロックR4300の主成分方向が求められる。
As shown in FIG. 43, when the subject is moving, the motion vector (u 0 , v 0 ) of the block of interest R 4300 is obtained as shown in FIG. 44 as a vector (H 1 , 0). Therefore, the principal component
そして、送信装置1のフィルタ情報供給部32では、その主成分方向から、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301などが、フィルタ部22におけるフィルタリングを行うフィルタの通過帯域として決定される。
Then, in the filter
フィルタの通過帯域としての、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301などは、上述したように、T方向に、2π/(4t0)の幅を有するため、このような通過帯域のフィルタによるフィルタリングでは、注目ブロックR4300のフレーム(注目フレーム)の前後4フレーム程度の画像データ、即ち、例えば、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0の9フレームの範囲の画像データや、時刻t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0の7フレームの範囲の画像データなどを用いた演算(送信装置1のフィルタ部22にて行われる演算)によって、フィルタリング結果としての注目ブロックR4300の画像データが求められる。
As the pass band of the filter, for example, the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. / (4t 0 ), therefore, filtering by such a passband filter, image data of about 4 frames before and after the frame of the block of interest R 4300 (frame of interest), that is, for example, time t-4t 0 , T-3t 0 , t-2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t + 3t 0 , t + 4t 0 range of image data or time t-3t 0 , T−2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t + 3t 0 and other operations using image data in a range of 7 frames (performed by the
即ち、注目ブロックR4300のある位置(x,y)の画素の、フィルタリング結果としての画素値は、例えば、時刻t+t0の画像データにおける位置(x,y)から動きベクトル(H1,0)だけずれた位置付近の画素値、時刻t+2t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の2倍のベクトル(2H1,0)だけずれた位置付近の画素値、時刻t+3t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の3倍のベクトル(3H1,0)だけずれた位置付近の画素値、時刻t+4t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の4倍のベクトル(4H1,0)だけずれた位置付近の画素値、時刻t-t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−1倍のベクトル(-H1,0)だけずれた位置付近の画素値、時刻t-2t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−2倍のベクトル(-2H1,0)だけずれた位置付近の画素値、時刻t-3t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−3倍のベクトル(-3H1,0)だけずれた位置付近の画素値、時刻t-4t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−4倍のベクトル(-4H1,0)だけずれた位置付近の画素値を用いて求められる。 That is, the block of interest position with R 4300 of pixels (x, y), the pixel value as a filtering result, for example, the position in the image data at time t + t 0 (x, y ) a motion vector (H 1 from Pixel value near the position shifted by 0), position shifted by the vector (2H 1 , 0) twice the motion vector (H 1 , 0) from the position (x, y) in the image data at time t + 2t 0 Near pixel value, pixel value near the position shifted by the vector (3H 1 , 0) three times the motion vector (H 1 , 0) from the position (x, y) in the image data at time t + 3t 0 A pixel value in the vicinity of a position shifted by a vector (4H 1 , 0) four times the motion vector (H 1 , 0) from the position (x, y) in the image data at t + 4t 0, in the image data at time tt 0 position (x, y) -1 times the vector (-H 1, 0) shifted by the pixel value of the vicinity of the position of the motion vector from the (H 1, 0), the position in the image data at time t-2t 0 (x, -2 times the motion vector (H 1, 0) from y) Vector (-2H 1, 0) only the pixel values of the shifted around position, the position in the image data at time t-3t 0 (x, y ) a motion vector (H 1, 0) from -3 fold vector (-3H 1, 0) -4 times the vector of pixel values around a position shifted by a position in the image data at time t-4t 0 (x, y ) from the motion vector (H 1, 0) (-4H 1, 0) It is obtained by using pixel values in the vicinity of the position shifted by a distance.
ここで、動きベクトル(H1,0)は、図44に示したように、注目ブロックR4300から、時刻t+t0の画像データにおける、注目ブロックR4300に対応する(注目ブロックR4300と同一の画像データが存在する)領域R4301の位置へのベクトルであるから、注目ブロックR4300から動きベクトル(H1,0)だけずれた時刻t+t0の画像データ上の位置は、注目ブロックR4300に対応する領域R4301の位置に一致する。 Here, the motion vector (H 1, 0), as shown in FIG. 44, from the target block R 4300, the image data at time t + t 0, corresponding to the target block R 4300 and (attention block R 4300 Since this is a vector to the position of the region R 4301 (where the same image data exists), the position on the image data at time t + t 0 shifted by the motion vector (H 1 , 0) from the block of interest R 4300 It matches the position of the region R 4301 corresponding to the block R 4300 .
しかしながら、ベクトル(2H1,0)は、図45に示すように、動きベクトル(H1,0)を2倍したベクトルであるから、注目ブロックR4300からベクトル(2H1,0)だけずれた時刻t+2t0の画像データ上の位置は、注目ブロックR4300に対応する領域R4302の位置に一致するとは限らない。 However, since the vector (2H 1 , 0) is a vector obtained by doubling the motion vector (H 1 , 0) as shown in FIG. 45, the vector (2H 1 , 0) is shifted from the target block R 4300 by the vector (2H 1 , 0). The position on the image data at time t + 2t 0 does not necessarily match the position of the region R 4302 corresponding to the block of interest R 4300 .
また、ベクトル(3H1,0)は、図46に示すように、動きベクトル(H1,0)を3倍したベクトルであるから、注目ブロックR4300からベクトル(3H1,0)だけずれた時刻t+3t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4303の位置に一致するとは限らない。 Further, as shown in FIG. 46, the vector (3H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by three, so that it is shifted from the target block R 4300 by the vector (3H 1 , 0). The position on the image data at time t + 3t 0 does not always match the position of the region R 4303 corresponding to the block of interest R 4300 .
さらに、ベクトル(4H1,0)は、図47に示すように、動きベクトル(H1,0)を4倍したベクトルであるから、注目ブロックR4300からベクトル(4H1,0)だけずれた時刻t+4t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4304の位置に一致するとは限らない。 Furthermore, since the vector (4H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by 4 as shown in FIG. 47, the vector (4H 1 , 0) is shifted from the target block R 4300 by the vector (4H 1 , 0). The position on the image data at time t + 4t 0 does not necessarily match the position of the region R 4304 corresponding to the target block R 4300 .
また、ベクトル(-H1,0)は、図48に示すように、動きベクトル(H1,0)を−1倍したベクトルであるから、注目ブロックR4300からベクトル(-H1,0)だけずれた時刻t-t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4311の位置に一致するとは限らない。 Further, as shown in FIG. 48, the vector (−H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by −1. Therefore, the vector (−H 1 , 0) from the target block R 4300 The position on the image data at time tt 0 that is shifted by a certain amount does not necessarily match the position of the region R 4311 corresponding to the block of interest R 4300 .
さらに、ベクトル(-2H1,0)は、図49に示すように、動きベクトル(H1,0)を−2倍したベクトルであるから、注目ブロックR4300からベクトル(-2H1,0)だけずれた時刻t-2t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4312の位置に一致するとは限らない。 Furthermore, since the vector (-2H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by -2 as shown in FIG. 49, the vector (-2H 1 , 0) from the target block R 4300 The position on the image data at time t−2t 0 that is shifted by a certain amount does not always match the position of the region R 4312 corresponding to the block of interest R 4300 .
また、ベクトル(-3H1,0)は、図50に示すように、動きベクトル(H1,0)を−3倍したベクトルであるから、注目ブロックR4300からベクトル(-3H1,0)だけずれた時刻t-3t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4313の位置に一致するとは限らない。 Further, since the vector (−3H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by −3 as shown in FIG. 50, the vector (−3H 1 , 0) from the target block R 4300 The position on the image data at time t-3t 0 that is shifted by a certain amount does not necessarily match the position of the region R 4313 corresponding to the block of interest R 4300 .
さらに、ベクトル(-4H1,0)は、図51に示すように、動きベクトル(H1,0)を−4倍したベクトルであるから、注目ブロックR4300からベクトル(-4H1,0)だけずれた時刻t-4t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4314の位置に一致するとは限らない。 Furthermore, since the vector (−4H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by −4 as shown in FIG. 51, the vector (−4H 1 , 0) from the target block R 4300 The position on the image data at time t-4t 0 that is shifted by a certain amount does not necessarily match the position of the region R 4314 corresponding to the block of interest R 4300 .
このため、注目ブロックR4300に注目したフィルタリングにあたり、時刻t-4t0,t-3t0,t-2t0,t-t0,t+2t0,t+3t0,t+4t0それぞれの画像データについては、注目ブロックR4300に対応する領域R4314,R4313,R4312,R4311,R4302,R4303,R4304からずれた位置の領域の画素値が用いられ、その結果、真の主成分方向に延びる周波数ドメイン上の領域(例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301)内の周波数成分のみのデータを、正確に得ることが困難な場合が生じ得る。 For this reason, in filtering focused on the target block R 4300 , the image data at times t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + 2t 0 , t + 3t 0 , t + 4t 0 , The pixel values of the regions shifted from the regions R 4314 , R 4313 , R 4312 , R 4311 , R 4302 , R 4303 , R 4304 corresponding to the target block R 4300 are used, and as a result, the true main Data of only frequency components in a region on the frequency domain extending in the component direction (for example, region R 1001 in FIG. 20, region R 1101 in FIG. 21, region R 1201 in FIG. 22, region R 1301 in FIG. 23), There may be cases where it is difficult to obtain accurately.
これは、注目ブロックから次のフレームへの動きベクトルを用いて主成分方向を求めることが、注目ブロックから次のフレームへの動きベクトルの単純な倍数によって、注目ブロックからその他のフレームへの動きベクトルを近似することに相当し、従って、被写体が一定速度で移動していないにもかかわらず、注目ブロックから次のフレームへの動きベクトルを用いて主成分方向を求めると、不正確な主成分方向が得られることに起因する。 This is because the motion vector from the target block to the next frame can be determined by using the motion vector from the target block to the next frame. Therefore, when the principal component direction is calculated using the motion vector from the block of interest to the next frame even though the subject is not moving at a constant speed, an incorrect principal component direction is obtained. This is due to the fact that
そこで、送信装置1(図25)の主成分方向取得部31では、上述したように、注目ブロックと次のフレームとの相関を表す相関情報だけではなく、注目ブロックとその前後の複数のフレームそれぞれとの相関を表す複数の相関情報を用いることによって、注目ブロックから複数のフレームそれぞれへの、いわば平均的な動きを表すベクトル(以下、適宜、平均動きベクトルという)を求め、その平均動きベクトルから、注目ブロックについて、精度の高い主成分方向を求めることができる。
Therefore, in the principal component
図52は、図25の主成分方向取得部31において、平均動きベクトルから主成分方向を求める場合の、その主成分方向取得部31の構成例を示している。
FIG. 52 shows a configuration example of the principal component
バッファ部101には、バッファ部21(図25)から読み出された1/t0の高フレームレートの動画データが供給され、バッファ部101は、その動画データを一時記憶する。
The
ブロック抽出部102は、バッファ部101に記憶された動画データを、例えば、上述した16×16画素のブロックに分割し、順次、注目ブロックとして選択して、相関演算部103に供給する。
The
相関演算部103は、ブロック抽出部102から供給される注目ブロックのフレーム(注目フレーム)に対して時間的に前後の複数のフレーム(のデータ)を、バッファ部101から読み出し、注目ブロックと、複数のフレームそれぞれとの相関を表す相関情報を演算して、スケーリング合成部104に供給する。
The
ここで、相関情報としては、例えば、図32のステップS22で説明した場合と同様に、注目ブロックを、空間方向x,yに、それぞれ、u,vだけずらした位置における、注目ブロックの各画素と、その画素と同一位置にある他のフレームの画素との画素値の差分絶対値の総和を採用することとする。この場合、上述したように、相関情報の「値」が最小になる空間方向の位置u,vが、相関情報が表す相関が最も高くなる、他のフレーム上の空間方向の位置となる。 Here, as the correlation information, for example, as in the case described in step S22 of FIG. 32, each pixel of the target block at a position where the target block is shifted by u and v in the spatial directions x and y, respectively. And the sum of absolute difference values of pixel values from pixels in other frames at the same position as the pixel. In this case, as described above, the position u, v in the spatial direction where the “value” of the correlation information is the minimum is the position in the spatial direction on the other frame where the correlation represented by the correlation information is the highest.
なお、相関演算部103において、注目ブロックとの相関情報を演算する対象のフレームの範囲は、フィルタ部22(図25)でのフィルタリングに用いられるフレームの範囲に対応した範囲とすることができる。
Note that in the
即ち、図43で説明したように、時刻tの画像データを基準とすると(時刻tを注目フレームとすると)、フィルタ部22でのフィルタリングでは、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0の9フレームの画像データや、時刻t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0の7フレームの画像データなどが用いられる。相関演算部103において、相関情報を演算するフレームは、この9フレームや7フレームの画像データとほぼ同様の範囲の画像データ、即ち、例えば、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0それぞれの画像データとすることができる。
That is, as described with reference to FIG. 43, when the image data at time t is used as a reference (when time t is the frame of interest), the filtering in the
なお、時刻tの画像データは、注目ブロックのフレーム(注目フレーム)であるから、その時刻tについては、相関情報を演算する必要はない。即ち、相関演算部103において、注目ブロックとの相関情報を演算する対象は、時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれの画像データである。
Note that since the image data at time t is a frame of the block of interest (frame of interest), there is no need to calculate correlation information for that time t. That is, the
ここで、注目ブロックとの相関情報を演算する対象のフレームを、以下、適宜、相関演算対象フレームという。 Here, the frame for which the correlation information with the block of interest is calculated is hereinafter referred to as a correlation calculation target frame as appropriate.
スケーリング合成部104は、相関演算部103から供給される、複数の相関演算対象フレームそれぞれについて求められた相関情報を、後述するように、空間方向x,yにスケーリングし、さらに、そのスケーリング後の相関情報を合成して、合成相関情報を求める。そして、スケーリング合成部104は、その合成相関情報を、最小値検出部105に供給する。
The scaling
最小値検出部105は、スケーリング合成部104からの合成相関情報が表す相関が最大となる空間方向の位置である最大相関位置を検出し、その最大相関位置へのベクトルを、注目ブロックの平均動きベクトルとして求める。そして、最小値検出部105は、その平均動きベクトルに、バッファ部21(図25)から読み出された動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトルの方向と直交する方向を、主成分方向として検出して出力する。
The minimum
次に、図53は、図43に示した注目ブロックR4300と、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0それぞれの画像データ(フレーム)との相関情報を示している。 Next, FIG. 53 shows the block of interest R 4300 shown in FIG. 43 and the times t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t. Correlation information with each image data (frame) of + 3t 0 and t + 4t 0 is shown.
なお、図53に示した相関情報は、図52の相関演算部103で求められる。但し、上述したように、注目ブロックR4300と、注目フレームである時刻tの画像データとの相関情報は、演算する必要はない。
Note that the correlation information shown in FIG. 53 is obtained by the
また、図53において、相関情報としては、上述したように、画素値の差分絶対値の総和が採用されており、従って、相関情報は、下に凸の関数となり、相関情報の「値」が最小になる空間方向の位置が、相関情報が表す相関が最も高くなる空間方向の位置である。そして、注目ブロックから、その位置へのベクトルが、動きベクトルを表す。 In FIG. 53, as described above, the sum of the absolute differences of the pixel values is used as the correlation information. Therefore, the correlation information is a downward convex function, and the “value” of the correlation information is The position in the spatial direction that becomes the minimum is the position in the spatial direction where the correlation represented by the correlation information is the highest. A vector from the target block to that position represents a motion vector.
図43で説明したように、注目ブロックR4300と同一の画像データは、時刻t-4t0では、注目ブロックR4300から空間方向xにK4だけずれた位置の領域R4314に存在し、時刻t-3t0では、注目ブロックR4300から空間方向xにK3だけずれた位置の領域R4313に存在する。同様に、注目ブロックR4300と同一の画像データは、時刻t-2t0では、注目ブロックR4300から空間方向xにK2だけずれた位置の領域R4312に、時刻t-t0では、注目ブロックR4300から空間方向xにK1だけずれた位置の領域R4311に、時刻t+t0では、注目ブロックR4300から空間方向xにH1だけずれた位置の領域R4301に、時刻t+2t0では、注目ブロックR4300から空間方向xにH2だけずれた位置のR4302に、時刻t+3t0では、注目ブロックR4300から空間方向xにH3だけずれた位置の領域R4303に、時刻t+4t0では、注目ブロックR4300から空間方向xにH4だけずれた位置の領域R4304に、それぞれ存在する。 As described in FIG. 43, the same image data and the block of interest R 4300 is at time t-4t 0, present in the block of interest R 4300 position of the region R 4314 shifted by K 4 in the spatial direction x from the time At t−3t 0 , it exists in a region R 4313 at a position shifted from the target block R 4300 by K 3 in the spatial direction x. Similarly, the same image data as the target block R 4300 is displayed at the time t-2t 0 in the region R 4312 at a position shifted by K 2 from the target block R 4300 in the spatial direction x, and at the time tt 0 , the target block R At time t + t 0 at a region R 4311 at a position shifted by K 1 in the spatial direction x from 4300 , at time t + 2t at a region R 4301 at a position shifted by H 1 in the spatial direction x from the target block R 4300 At 0 , it moves to R 4302 at a position shifted by H 2 in the spatial direction x from the target block R 4300 , and at time t + 3t 0 , it enters a region R 4303 at a position shifted by H 3 from the target block R 4300 in the spatial direction x. At time t + 4t 0 , each exists in a region R 4304 at a position displaced from the target block R 4300 by H 4 in the spatial direction x.
従って、時刻t-4t0における相関情報は、位置x=K4において最小となり、時刻t-3t0における相関情報は、位置x=K3において最小となる。同様に、時刻t-2t0における相関情報は、位置x=K2において、時刻t-t0における相関情報は、x=K1において、時刻t+t0における相関情報は、位置x=H1において、時刻t+2t0における相関情報は、位置x=H2において、時刻t+3t0における相関情報は、位置x=H3において、時刻t+4t0における相関情報は、位置x=H4において、それぞれ最小となる。 Accordingly, the correlation information at time t-4t 0 is minimum at position x = K 4 , and the correlation information at time t-3t 0 is minimum at position x = K 3 . Similarly, the correlation information at time t-2t 0 is at position x = K 2 , the correlation information at time tt 0 is at x = K 1 , and the correlation information at time t + t 0 is at position x = H 1 . The correlation information at time t + 2t 0 is at position x = H 2 , the correlation information at time t + 3t 0 is at position x = H 3 , and the correlation information at time t + 4t 0 is at position x = H 4 In each, it becomes the minimum.
図52の主成分方向取得部31では、注目ブロックR4300の動きが、時刻t-4t0乃至t+4t0の時間において一定であると近似し、その一定の動きを表すベクトルが、平均動きベクトルとして求められる。
In the principal component
そのため、主成分方向取得部31のスケーリング合成部104は、時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける相関情報を、空間方向x,yにスケーリングし、さらに、そのスケーリング後の相関情報を合成して、合成相関情報を求める。
Therefore, the scaling
即ち、注目ブロックR4300の動きが、時刻t-4t0乃至t+4t0の時間において一定であると近似した場合、例えば、時刻t+t0における相関情報を基準とすると、時刻t-4t0における相関情報は、時刻t+t0における相関情報に対し、位置(空間方向x,y)に関して−4倍のずれがある。時刻t-3t0における相関情報は、時刻t+t0における相関情報に対し、位置に関して−3倍のずれがある。以下、同様に、時刻t+t0における相関情報に対し、時刻t-2t0における相関情報は、位置に関して−2倍のずれが、時刻t-t0における相関情報は、位置に関して−1倍のずれが、時刻t+2t0における相関情報は、位置に関して2倍のずれが、時刻t+3t0における相関情報は、位置に関して3倍のずれが、時刻t+4t0における相関情報は、位置に関して4倍のずれが、それぞれある。 That is, when it is approximated that the motion of the target block R 4300 is constant at the time from time t-4t 0 to time t + 4t 0 , for example, when the correlation information at time t + t 0 is used as a reference, time t-4t The correlation information at 0 has a difference of −4 times with respect to the position (spatial direction x, y) with respect to the correlation information at time t + t 0 . The correlation information at time t-3t 0 is shifted by -3 times with respect to the correlation information at time t + t 0 . Similarly, the correlation information at time t-2t 0 is shifted by -2 times with respect to the position, and the correlation information at time tt 0 is shifted by -1 times with respect to the correlation information at time t + t 0 . However, the correlation information at time t + 2t 0 is twice as much as the position, the correlation information at time t + 3t 0 is three times as much as the position, and the correlation information at time t + 4t 0 is about the position. There is a 4x shift.
そこで、スケーリング合成部104は、時刻t-4t0における相関情報の位置のスケールを−1/4倍にする(反転縮小する)スケーリングを行う。同様に、スケーリング合成部104は、時刻t-3t0における相関情報の位置のスケールを−1/3倍にするスケーリングを、時刻t-2t0における相関情報の位置のスケールを−1/2倍にするスケーリングを、時刻t-t0における相関情報の位置のスケールを−1倍にする(反転する)スケーリングを、時刻t+2t0における相関情報の位置のスケールを1/2倍にする(縮小する)スケーリングを、時刻t+3t0における相関情報の位置のスケールを1/3倍にするスケーリングを、時刻t+4t0における相関情報の位置のスケールを1/4倍にするスケーリングを、それぞれ行う。
Therefore, the scaling
なお、時刻t+t0における相関情報については、スケーリング合成部104は、何らスケーリングを行わないが、スケーリングを行わないことは、位置のスケールを1倍にするスケーリングを行っていると見ることもできる。
For the correlation information at time t + t 0 , the scaling
ここで、図54は、時刻t+t0における相関情報を基準として、時刻t-4t0,t-3t0,t-2t0,t-t0,t+2t0,t+3t0,t+4t0それぞれにおける相関情報をスケーリングした場合の、そのスケーリング後の相関情報を示している。 Here, FIG. 54 shows time t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + 2t 0 , t + 3t 0 , t + based on the correlation information at time t + t 0 . The correlation information after scaling when the correlation information at 4t 0 is scaled is shown.
スケーリングにより、時刻t-4t0における相関情報は、位置x=-K4/4において最小となり、時刻t-3t0における相関情報は、位置x=-K3/3において最小となる。同様に、時刻t-2t0における相関情報は、位置x=-K2/2において、時刻t-t0における相関情報は、x=-K1において、時刻t+2t0における相関情報は、位置x=H2/2において、時刻t+3t0における相関情報は、位置x=H3/3において、時刻t+4t0における相関情報は、位置x=H4/4において、それぞれ最小となる。 Scaling, correlation information at time t-4t 0 is becomes minimum at the position x = -K 4/4, the correlation information at time t-3t 0 is at the minimum position x = -K 3/3. Similarly, the correlation information at time t-2t 0, at the position x = -K 2/2, correlation information at time tt 0, at x = -K 1, the correlation information at time t + 2t 0, the position x in = H 2/2, correlation information at time t + 3t 0, at the position x = H 3/3, correlation information at time t + 4t 0, at position x = H 4/4, respectively become minimum.
なお、スケーリングは、時刻t+t0における相関情報を基準として行われるので、時刻t+t0における相関情報は、スケーリングの前でも後でも、位置x=H1において最小となる。 Since scaling is performed with reference to correlation information at time t + t 0, the correlation information at time t + t 0 is minimum at position x = H 1 before and after scaling.
図52の主成分方向取得部31では、スケーリング合成部104が、時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける、スケーリング後の相関情報を合成して、合成相関情報を求める。
In the principal component
図55は、図54の相関情報を合成することにより得られる合成相関情報を示している。 FIG. 55 shows combined correlation information obtained by combining the correlation information of FIG.
図55の合成相関情報は、図54に示した時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける、スケーリング後の相関情報を加算する合成を行うことにより求めることができる。 The combined correlation information of FIG. 55 is the time t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0 , t + 4t shown in FIG. It can be obtained by performing a synthesis of adding the correlation information after scaling in each of 0 .
図52の主成分方向取得部31の最小値検出部105では、図55の合成相関情報が最小になる位置x=L1((x,y)=(L1,0))が、平均動きベクトル(L1,0)として求められる。
In the minimum
なお、合成相関情報は、スケーリング後の相関情報を単純に加算する他、重み付け加算することにより求めることもできる。即ち、合成相関情報は、相関情報に対して、注目ブロックの時刻tから近い時刻の相関情報ほど大きな重みを付して加算することにより求めることができる。この場合、注目ブロックの時刻tから近い時刻の画像を重要視した平均動きベクトルが求められることになる。 Note that the combined correlation information can be obtained by adding the weighted addition in addition to simply adding the correlation information after scaling. In other words, the combined correlation information can be obtained by adding to the correlation information the correlation information closer to the time t of the block of interest with a greater weight. In this case, an average motion vector in which an image at a time close to the time t of the block of interest is regarded as important is obtained.
最小値検出部105では、以上のようにして求められる平均動きベクトル(L1,0)から、注目ブロックの主成分方向が求められる。従って、注目ブロックについて、比較的精度の高い主成分方向を求めることができる。
The minimum
即ち、上述のような平均動きベクトル(L1,0)から求められる主成分方向(つまり、(L1,0,t0)に垂直な平面)によれば、図25のフィルタ部22では、例えば、注目ブロックR4300のある位置(x,y)の画素の、フィルタリング結果としての画素値が、時刻t+t0の画像データにおける位置(x,y)から動きベクトル(L1,0)だけずれた位置付近の画素値、時刻t+2t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の2倍のベクトル(2L1,0)だけずれた位置付近の画素値、時刻t+3t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の3倍のベクトル(3L1,0)だけずれた位置付近の画素値、時刻t+4t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の4倍のベクトル(4L1,0)だけずれた位置付近の画素値、時刻t-t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−1倍のベクトル(-L1,0)だけずれた位置付近の画素値、時刻t-2t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−2倍のベクトル(-2L1,0)だけずれた位置付近の画素値、時刻t-3t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−3倍のベクトル(-3L1,0)だけずれた位置付近の画素値、時刻t-4t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−4倍のベクトル(-4L1,0)だけずれた位置付近の画素値を、それぞれ用いて求められる。
That is, according to the principal component direction (that is, a plane perpendicular to (L 1 , 0, t 0 )) obtained from the average motion vector (L 1 , 0) as described above, the
ここで、図56は、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)だけずれた時刻t+t0の画像データにおける位置を示している。同様に、図57乃至図63は、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の2倍のベクトル(2L1,0)だけずれた時刻t+2t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の3倍のベクトル(3L1,0)だけずれた時刻t+3t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の4倍のベクトル(4L1,0)だけずれた時刻t+4t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−1倍のベクトル(-L1,0)だけずれた時刻t-t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−2倍のベクトル(-2L1,0)だけずれた時刻t-2t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−3倍のベクトル(-3L1,0)だけずれた時刻t-3t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−4倍のベクトル(-4L1,0)だけずれた時刻t-4t0の画像データにおける位置を、それぞれ示している。 Here, FIG. 56 shows the position in the image data at time t + t 0 that is shifted from the position (x, y) of the target block R 4300 by the motion vector (L 1 , 0). Similarly, FIG. 57 to FIG. 63 show that at time t + 2t 0 shifted from the position (x, y) of the target block R 4300 by a vector (2L 1 , 0) that is twice the motion vector (L 1 , 0). Position in the image data at time t + 3t 0 where the position in the image data is shifted from the position (x, y) of the target block R 4300 by a vector (3L 1 , 0) that is three times the motion vector (L 1 , 0) Is shifted from the position (x, y) of the target block R 4300 by a vector (4L 1 , 0) four times the motion vector (L 1 , 0) to the position in the image data at time t + 4t 0 The position in the image data at time tt 0 that is shifted from the position (x, y) of R 4300 by a vector (−L 1 , 0) that is −1 times the motion vector (L 1 , 0) is the position of the target block R 4300 . (x, y) position in the -2 times the vector (-2L 1, 0) image data at time t-2t 0 shifted by the motion vector (L 1, 0) from the position of the target block R 4300 (x , -3 times the vector of the motion vector from y) (L 1, 0) Le (-3L 1, 0) position in the image data at time t-3t 0 shifted by -4 times the vector of position (x, y) from the motion vector of the target block R 4300 (L 1, 0) ( The positions in the image data at time t-4t 0 shifted by −4L 1 , 0) are shown respectively.
図56乃至図63それぞれと、上述した図44乃至図51それぞれとを比較することにより、図56乃至図63における場合の方が、図44乃至図51における場合よりも、全体として、注目ブロックR4300に対応する領域R4301,R4302,R4303,R4304,R4311,R4312,R4313,R4314に近い位置の画素値を用いて、注目ブロックR4300のフィルタリングが行われることが分かる。 56 to 63 and FIG. 44 to 51 described above are compared with each other, and in the case of FIGS. 56 to 63, the attention block R as a whole is more than the case of FIGS. 4300 using the pixel values of the position close to the corresponding region R 4301, R 4302, R 4303 , R 4304, R 4311, R 4312, R 4313, R 4314 , a is understood that the filtering of the block of interest R 4300 is performed .
次に、図64乃至図67のフローチャートを参照して、図52の主成分方向取得部31が行う処理について説明する。
Next, processing performed by the principal component
なお、図64乃至図67のフローチャートにしたがった処理は、図31のステップS11の処理に対応する。 Note that the processing according to the flowcharts of FIGS. 64 to 67 corresponds to the processing of step S11 of FIG.
図52の主成分方向取得部31において、バッファ部101には、バッファ部21(図25)から読み出された動画データが供給され、バッファ部101は、その動画データを一時記憶する。
52, the moving image data read from the buffer unit 21 (FIG. 25) is supplied to the
そして、図64のステップS101において、ブロック抽出部102は、バッファ部101に記憶された動画データを、図32のステップS21における場合と同様に、例えば16×16画素のブロックに分割し、相関演算部103に供給する。なお、以降の処理は、ブロック抽出部102で得られたブロックを、順次、注目ブロックとして行われる。
64, the
ここで、注目ブロックの位置(例えば、注目ブロックの左上の画素の位置)を、(x0,y0)と表す。また、注目ブロックのフレーム(注目フレーム)は、時刻tのフレームであるとする。 Here, the position of the block of interest (for example, the position of the upper left pixel of the block of interest) is represented as (x 0 , y 0 ). The frame of the block of interest (frame of interest) is assumed to be a frame at time t.
ステップS101の処理後は、図65のステップS102に進み、相関演算部103は、注目フレームの次のフレームの画像データである時刻t+t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E1(u1,v1)を、注目ブロックを対応させる時刻t+t0の画像データの位置(x0+u1,y0+v1)を変えながら求め((u1,v1)を変えながら求め)、その関数E1(u1,v1)を、時刻t+t0における相関情報として、スケーリング合成部104に供給して、ステップS103に進む。
After the processing in step S101, the process proceeds to step S102 in FIG. 65, in which the
ステップS103では、相関演算部103は、注目フレームの次の次のフレームの画像データである時刻t+2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E2(u2,v2)を、注目ブロックを対応させる時刻t+2t0の画像データの位置(x0+u2,y0+v2)を変えながら求め、その関数E2(u2,v2)を、時刻t+2t0における相関情報として、スケーリング合成部104に供給して、ステップS104に進む。
In step S103, the
ステップS104では、相関演算部103は、注目フレームの3フレームだけ時間的に先の画像データである時刻t+3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E3(u3,v3)を、注目ブロックを対応させる時刻t+3t0の画像データの位置(x0+u3,y0+v3)を変えながら求め、その関数E3(u3,v3)を、時刻t+3t0における相関情報として、スケーリング合成部104に供給して、ステップS105に進む。
In step S104, the
ステップS105では、注目フレームの4フレームだけ時間的に先の画像データである時刻t+4t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+4t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E4(u4,v4)を、注目ブロックを対応させる時刻t+4t0の画像データの位置(x0+u4,y0+v4)を変えながら求め、その関数E4(u4,v4)を、時刻t+4t0における相関情報として、スケーリング合成部104に供給して、図66のステップS106に進む。
In step S105, image data at time t + 4t 0 that is temporally preceding image data by four frames of the target frame is read from the
ステップS106では、相関演算部103は、注目フレームの前のフレームの画像データである時刻t-t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F1(r1,s1)を、注目ブロックを対応させる時刻t-t0の画像データの位置(x0+r1,y0+s1)を変えながら求め、その関数F1(r1,s1)を、時刻t-t0における相関情報として、スケーリング合成部104に供給して、ステップS107に進む。
In step S106,
ステップS107では、相関演算部103は、注目フレームの前の前のフレームの画像データである時刻t-2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F2(r2,s2)を、注目ブロックを対応させる時刻t-2t0の画像データの位置(x0+r2,y0+s2)を変えながら求め、その関数F2(r2,s2)を、時刻t-2t0における相関情報として、スケーリング合成部104に供給して、ステップS108に進む。
In step S107, the
ステップS108では、相関演算部103は、注目フレームの3フレームだけ時間的に前の画像データである時刻t-3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F3(r3,s3)を、注目ブロックを対応させる時刻t-3t0の画像データの位置(x0+r3,y0+s3)を変えながら求め、その関数F3(r3,s3)を、時刻t-3t0における相関情報として、スケーリング合成部104に供給して、ステップS109に進む。
In step S108, the
ステップS109では、相関演算部103は、注目フレームの4フレームだけ時間的に前の画像データである時刻t-4t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-4t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F4(r4,s4)を、注目ブロックを対応させる時刻t-4t0の画像データの位置(x0+r4,y0+s4)を変えながら求め、その関数F4(r4,s4)を、時刻t-4t0における相関情報として、スケーリング合成部104に供給して、図67のステップS110に進む。
In step S109, the
ステップS110では、スケーリング合成部104は、相関演算部103から供給された相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),E4(u4,v4),F1(r1,s1),F2(r2,s2),F3(r3,s3),F4(r4,s4)を、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準として、上述したようなスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部104は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(u4/4,v4/4)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)=(-r4/4,-s4/4)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),E4(4p,4q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q),F4(-4p,-4q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+E4(4p,4q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)+F4(-4p,-4q))を求める。
In step S <b> 110, the scaling
なお、合成相関情報E(p,q)は、スケーリング後の相関情報を単純に加算する他、上述したように、重み付け加算することにより求めることもできる。即ち、合成相関情報E(p,q)は、例えば、注目ブロックの時刻tから近い時刻の相関情報ほど大きな重みを付して加算する式8×E1(p,q)+4×E2(2p,2q)+2×E3(3p,3q)+1×E4(4p,4q)+8×F1(-p,-q)+4×F2(-2p,-2q)+2×F3(-3p,-3q)+1×F4(-4p,-4q)を演算することにより求めることができる。 Note that the combined correlation information E (p, q) can be obtained by simply adding the correlation information after scaling, or by weighted addition as described above. That is, the combined correlation information E (p, q) is, for example, an expression 8 × E 1 (p, q) + 4 × E 2 in which correlation information at a time closer to the time t of the block of interest is added with a greater weight. (2p, 2q) + 2 × E 3 (3p, 3q) + 1 × E 4 (4p, 4q) + 8 × F 1 (-p, -q) + 4 × F 2 (-2p, -2q) + It can be obtained by calculating 2 × F 3 (−3p, −3q) + 1 × F 4 (−4p, −4q).
スケーリング合成部104は、ステップS110において、合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を、最小値検出部105に供給して、ステップS111に進む。
The
ステップS111では、最小値検出部105は、スケーリング合成部104からの合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(注目ブロックからの相対的な位置)(p,q)を、最大相関位置(p0,q0)として検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)を、最大相関位置(p0,q0)として検出し、その最大相関位置(p0,q0)へのベクトルを、平均動きベクトル(p0,q0)として、ステップS112に進む。
In step S111, the minimum
ステップS112では、最小値検出部105は、ステップS111で検出された平均動きベクトル(p0,q0)に、元の動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトル(p0,q0,t0)の方向と直交する方向が、主成分方向であるとして、3次元の動きベクトル(p0,q0,t0)を、フィルタ情報供給部32(図25)に供給して、処理を終了する。
In step S112, the minimum
この場合、フィルタ情報供給部32は、例えば、主成分方向取得部31の最小値検出部105から供給される3次元の動きベクトル(p0,q0,t0)を、そのままフィルタ情報として、フィルタ部22(図25)に供給する。
In this case, for example, the filter
フィルタ部22では、図68に示すフローチャートにしたがった処理が、図26のステップS3の処理として行われる。
In the
即ち、ステップS131において、フィルタ部22は、フィルタ情報供給部32からフィルタ情報として供給される3次元の動きベクトル(p0,q0,t0)を受信することにより取得し、ステップS132に進む。
That is, in step S131, the
ステップS132では、フィルタ部22は、時刻tのフレームの注目ブロック内の位置(x,y)における画素の画素値C(t,x,y)を、例えば、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)を演算することにより求めるフィルタリングを行う。なお、D(t,x,y)は、フィルタリングに用いる動画データの時刻tの位置(x,y)における画素値を表す。
In step S132, the
ここで、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)の演算は、いわゆるタップ係数を、1/16,2/16,3/16,4/16,3/16,2/16,1/16とし、時間方向に7タップを有する(7フレームの画像データを用いたフィルタリングを行う)FIR(Finite Impulse Response)フィルタによるフィルタリングを行うことに等価である。このようなタップ係数のFIRフィルタは、ローパスフィルタである。
Here, equation (1/16) × D (t-
なお、ステップS132において、画素値C(t,x,y)の演算としてのフィルタリングは、時間方向のサンプル数を1/4に間引くダウンサンプリングを行いながら、即ち、4フレームごとに1フレームの割合で行われる。つまり、tは、例えば、4×t0の倍数である。 In step S132, the filtering as the calculation of the pixel value C (t, x, y) is performed while down-sampling is performed in which the number of samples in the time direction is reduced to 1/4, that is, the ratio of one frame every four frames. Done in That is, t is a multiple of 4 × t 0 , for example.
ステップS132の処理後は、ステップS133に進み、フィルタ部22は、フィルタリング結果、即ち、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)を演算することにより求めた画素値C(t,x,y)を、時刻tの位置(x,y)における画素値として、エンコード部24に出力する。
After the process of step S132, the process proceeds to step S133, and the
なお、図68では、時間方向に7タップを有するFIRフィルタによるフィルタリングを行うようにしたが、その他、例えば、時間方向に9タップを有するFIRフィルタによるフィルタリングを行うようにしても良い。 In FIG. 68, the filtering is performed by the FIR filter having 7 taps in the time direction. However, for example, the filtering may be performed by the FIR filter having 9 taps in the time direction.
また、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)の演算は、ローパスフィルタによるフィルタリングに等価であるが、注目ブロックのフレームに近いほど大きな重みを付した重み付け加算と見ることもできる。 Also, the expression (1/16) × D (t-3t 0 , x-3p 0 , y-3q 0 ) + (2/16) × D (t-2t 0 , x-2p 0 , y-2q 0 ) + (3/16) × D (tt 0 , xp 0 , yq 0 ) + (4/16) × D (t, x, y) + (3/16) × D (t + t 0 , x + p 0 , y + q 0 ) + (2/16) × D (t + 2t 0 , x + 2p 0 , y + 2q 0 ) + (1/16) × D (t + 3t 0 , x + 3p 0 , The calculation of y + 3q 0 ) is equivalent to filtering by a low-pass filter, but it can also be regarded as weighted addition with a larger weight as it is closer to the frame of the target block.
このように、注目ブロックのフレームに近いほど大きな重みを付した重み付け加算を行うことによって、フィルタリング結果としての画素値C(t,x,y)を求める場合には、合成相関情報E(p,q)を求めるための合成も、上述したように、注目ブロックの時刻tから近い時刻の相関情報ほど大きな重みを付して加算する式8×E1(p,q)+4×E2(2p,2q)+2×E3(3p,3q)+1×E4(4p,4q)+8×F1(-p,-q)+4×F2(-2p,-2q)+2×F3(-3p,-3q)+1×F4(-4p,-4q)の演算によって行うのが望ましい。 In this way, when the pixel value C (t, x, y) as a filtering result is obtained by performing weighted addition with a larger weight as it is closer to the frame of the target block, the combined correlation information E (p, In the synthesis for obtaining q), as described above, the correlation information at the time closer to the time t of the block of interest is added with a larger weight and is added. 8 × E 1 (p, q) + 4 × E 2 ( 2p, 2q) + 2 × E 3 (3p, 3q) + 1 × E 4 (4p, 4q) + 8 × F 1 (-p, -q) + 4 × F 2 (-2p, -2q) +2 It is desirable to perform the calculation by × F 3 (−3p, −3q) + 1 × F 4 (−4p, −4q).
以上のように、注目ブロックと次のフレームとの相関を表す相関情報だけではなく、注目ブロックとその前後の複数のフレームそれぞれとの相関を表す複数の相関情報を用いることによって、注目ブロックから複数のフレームそれぞれへの、いわば平均的な動きを表す平均動きベクトルを求めるようにしたので、その平均動きベクトルから、注目ブロックについて、精度の高い主成分方向を求めることができる。 As described above, not only the correlation information indicating the correlation between the block of interest and the next frame, but also the plurality of pieces of correlation information indicating the correlation between the block of interest and each of a plurality of frames before and after the block, Since an average motion vector representing an average motion for each of the frames is obtained, a highly accurate principal component direction can be obtained for the target block from the average motion vector.
さらに、平均動きベクトルを求めるときに用いる複数のフレームの範囲は、フィルタ部22(図25)でのフィルタリングに用いられるフレームの範囲に対応した範囲、即ち、フィルタリングに用いられるフレーム(図68では、注目ブロックのフレームを中心とする7フレーム)とほぼ同様の範囲(図64乃至図67では、注目ブロックのフレームを中心とする9フレーム)であるので、フィルタ部22(図25)において、正確なフィルタリング結果(本来通過させるべき周波数成分だけのフィルタリング結果)を得ることが可能となる。 Further, the range of the plurality of frames used when obtaining the average motion vector is a range corresponding to the range of frames used for filtering in the filter unit 22 (FIG. 25), that is, a frame used for filtering (in FIG. 68, Since the range is almost the same as (7 frames centered on the frame of the target block) (9 frames centering on the frame of the target block in FIGS. 64 to 67), the filter unit 22 (FIG. 25) It is possible to obtain a filtering result (a filtering result of only frequency components that should be passed through).
なお、図68では、注目ブロックのフレームを中心とする7フレームを用いてフィルタリングを行い、図64乃至図67では、注目ブロックのフレームを中心とする9フレームを用いて平均動きベクトルを求めるようにしたが、その他、例えば、フィルタリングも平均動きベクトルの算出も、注目ブロックのフレームを中心とする7フレームまたは9フレームを用いて行うことが可能である。また、フィルタリングは、注目ブロックのフレームを中心とする9フレームを用いて行い、平均動きベクトルの算出は、注目ブロックのフレームを中心とする7フレームを用いて行うことも可能である。つまり、フィルタリングに用いるフレームの範囲と、平均動きベクトルの算出に用いるフレームの範囲とは、完全に一致していても良いし、異なっていても、ほぼ一致していれば良い。 In FIG. 68, filtering is performed using 7 frames centered on the frame of the target block, and in FIGS. 64 to 67, the average motion vector is obtained using 9 frames centered on the frame of the target block. However, for example, filtering and calculation of the average motion vector can be performed using 7 frames or 9 frames centering on the frame of the target block. Filtering can also be performed using 9 frames centered on the frame of the target block, and the average motion vector can be calculated using 7 frames centered on the frame of the target block. That is, the frame range used for filtering and the frame range used for calculating the average motion vector may be completely coincident with each other or may be almost coincident with each other.
以上のように、フィルタ部22(図25)でのフィルタリングに用いられるフレームの範囲とほぼ同様の範囲の複数のフレームを用いて、平均動きベクトルを求めることにより、その平均動きベクトルから、複数のフレームの範囲において比較的正確な主成分方向を求めることができる。 As described above, by obtaining an average motion vector using a plurality of frames in a range substantially similar to the range of frames used for filtering in the filter unit 22 (FIG. 25), a plurality of average motion vectors are obtained from the average motion vector. A relatively accurate principal component direction can be obtained in the frame range.
次に、上述のように、平均動きベクトルによれば、基本的には、比較的正確な主成分方向を求めることができる。 Next, as described above, according to the average motion vector, a relatively accurate principal component direction can be basically obtained.
しかしながら、常時、複数のフレームすべてを用いて、平均動きベクトルを求めると、誤差の大きな平均動きベクトルが得られる場合があり、この場合、主成分方向の精度も劣化し、その結果、フィルタ22でのフィルタリング結果も、適切でない動画(受信装置2において、人間が画質の劣化を認識しない動画に復元することができない画像)となる。 However, if the average motion vector is always obtained using all of a plurality of frames, an average motion vector having a large error may be obtained. In this case, the accuracy in the principal component direction is also deteriorated. This filtering result is also an inappropriate moving image (an image that cannot be restored to a moving image in which a human does not recognize the deterioration in image quality in the receiving device 2).
即ち、例えば、動画データにおいて、静止している被写体を背景として、その背景の手前側に、動いている被写体が前景として存在する場合、注目ブロックが背景のみを含むときには、他のフレーム(注目フレーム以外のフレーム)では、注目ブロックに対応する背景部分が、前景に隠れて見えない状態となっていることがある。この場合、注目ブロックに対応する背景部分が前景に隠れて見えない状態となっているフレームにおける、注目ブロックとの相関情報の値は、注目ブロックに対応する背景部分の位置で最小になるとは限らず、そのような相関情報を用いて、合成相関情報を算出し、さらに平均動きベクトルを求めると、誤差の大きな平均動きベクトルが得られることがある。 That is, for example, in moving image data, when a stationary object is used as a background and a moving object exists as a foreground on the front side of the background, when the block of interest includes only the background, another frame (frame of interest In other frames, the background portion corresponding to the block of interest may be hidden behind the foreground and invisible. In this case, the value of the correlation information with the block of interest in the frame in which the background portion corresponding to the block of interest is hidden behind the foreground is not always the minimum at the position of the background portion corresponding to the block of interest. First, when the composite correlation information is calculated using such correlation information and the average motion vector is obtained, an average motion vector with a large error may be obtained.
具体的には、送信装置1に入力された動画データが、例えば、図69に示す被写体が投影された動画データであったとする。
Specifically, it is assumed that the moving image data input to the
ここで、図69における横軸は、空間方向の位置xを表している。そして、図69上側は、背景である被写体P6901の波形を示しており、図69下側は、前景である被写体P6902の波形を示している。 Here, the horizontal axis in FIG. 69 represents the position x in the spatial direction. 69 shows the waveform of the subject P 6901 as the background, and the lower side of FIG. 69 shows the waveform of the subject P 6902 as the foreground.
図69上側に示した被写体P6901は静止しており、図69下側に示した被写体P6902は、g/t0[m/s]の速さで、空間方向xに移動している。 The subject P 6901 shown on the upper side of FIG. 69 is stationary, and the subject P 6902 shown on the lower side of FIG. 69 is moving in the spatial direction x at a speed of g / t 0 [m / s].
なお、上述の場合には、平均動きベクトルの算出にあたり、時刻t-4t0乃至t+4t0の9時刻(9フレーム)の画像データを用いたが、以下では、時刻t-3t0乃至t+3t0の7時刻(7フレーム)の画像データを用いることとする。時刻t-3t0乃至t+3t0の時間は、6t0という短い時間なので、その時間における被写体P6902の速さは一定であるとみなす(近似する)ことができ、上述したg/t0は、その一定の速さを表す。 Incidentally, in the above case, in the calculation of the average motion vector, but using the image data at time t-4t 0 to 9 times t + 4t 0 (9 frames), in the following, the time t-3t 0 to t Image data at 7 times (7 frames) of + 3t 0 is used. Since the time from time t-3t 0 to t + 3t 0 is as short as 6t 0 , the speed of the subject P 6902 at that time can be regarded as being constant (approximate), and the above-described g / t 0 Represents the constant speed.
図70および図71は、図69に示した被写体P6901とP6902とが投影された、時刻t-3t0乃至t+3t0の7時刻(7フレーム)それぞれの画像データを示している。 70 and 71 show image data at seven times (7 frames) from time t-3t 0 to t + 3t 0 on which the subjects P 6901 and P 6902 shown in FIG. 69 are projected.
なお、図70および図71には、上から順に、時刻t-3t0乃至t+3t0の7時刻それぞれの画像データを図示してある。図70および図71は、符号が付してある部分が異なることを除いて、同一の図である。 In FIG. 70 and FIG. 71, image data at seven times from time t-3t 0 to t + 3t 0 are illustrated in order from the top. FIG. 70 and FIG. 71 are the same figures except that the parts to which the reference numerals are attached are different.
上述した図64乃至図67のフローチャートにしたがった処理(以下、適宜、第1の動き検出処理という)によれば、例えば、時刻tにおける画像データが、ブロックに分割される(図64におけるステップS101)。図70および図71では、時刻tにおける画像データが、ブロックB1乃至B16の16のブロックに分割されている。 According to the processing according to the flowcharts of FIGS. 64 to 67 described above (hereinafter, referred to as first motion detection processing as appropriate), for example, the image data at time t is divided into blocks (step S101 in FIG. 64). ). 70 and 71, the image data at time t is divided into 16 blocks B 1 to B 16 .
例えば、いま、背景である被写体P6901のみが含まれるブロックB3が注目ブロックであるとして、第1の動き検出処理を行うと、図70に示すように、時刻t+t0における画像データにおいて、注目ブロックB3と対応する領域は、注目ブロックB3と同一位置の領域B101であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(0,0)のときである。
For example, if the first motion detection process is performed on the assumption that the block B 3 including only the subject P 6901 that is the background is the block of interest, as shown in FIG. 70, the image data at time t + t 0 , a region corresponding to the target block B 3 is because it is the block of interest B 3 and the region B 101 in the same position is determined at step S102 of FIG. 65, the correlation information at
同様に、時刻t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データにおいて、注目ブロックB3と対応する領域は、それぞれ、注目ブロックB3と同一位置の領域B201,B301,B-101,B-201,B-301である。従って、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、いずれも、位置(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)が、(0,0)のときである。 Similarly, in the image data at times t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 , the region corresponding to the target block B 3 is the same position as the target block B 3 , respectively. region B 201, B 301, B -101 , B -201, a B -301. Therefore, the correlation at time t + 2t 0 Info E 2 (u 2, v 2 ), the correlation information E 3 at time t + 3t 0 (u 3, v 3), the correlation at time tt 0 information F 1 (r 1, s 1 ), correlation information F 2 (r 2 , s 2 ) at time t-2t 0 , and correlation information F 3 (r 3 , s 3 ) at time t-3t 0 are all minimized. , (U 2 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 ) are (0,0) It is.
従って、第1の動き検出処理によれば、図67のステップS111において求められる、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)は、(0,0)であり、その結果、注目ブロックB3については、3次元の動きベクトルとして、(0,0,t0)が求められる。 Therefore, according to the first motion detection process, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u) after scaling obtained in step S111 of FIG. 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), and F 3 (r 3 , s 3 ), the combined correlation information E (p, q) The minimum (p, q), that is, the average motion vector (p 0 , q 0 ) is (0,0). As a result, for the block of interest B 3 , (0, 0, t 0 ) is obtained.
この場合、図68では、注目ブロックB3の各画素について、領域B-301,B-201,B-101,B3,B101,B201,B301それぞれの対応する画素の画素値に対し、重み1/16,2/16,3/16,4/16,3/16,2/16,1/16を付した重み付け加算を行うフィルタリングが行われる。領域B-301,B-201,B-101,B3,B101,B201,B301は、いずれも、注目ブロックB3に対応した領域であり、従って、領域B-301,B-201,B-101,B3,B101,B201,B301を用いたフィルタリングにより、人間の視覚で認識することができる周波数成分のみのデータ、即ち、いまの場合、(0,0,t0)に直交する方向(注目ブロックB3のデータの主成分方向)に延びる、T方向の幅が2π/(4t0)の領域R1001(図20)内の周波数成分のみの適正なデータを得ることができる。
In this case, in FIG. 68, for each pixel of the block of interest B 3, area B -301, B -201, B -101 , to B 3, B 101, B 201 ,
次に、例えば、前景である被写体P6902のみが含まれるブロックB10が注目ブロックであるとして、第1の動き検出処理を行うと、図70に示すように、時刻t+t0における画像データにおいて、注目ブロックB10と対応する領域は、注目ブロックB10からx方向にgだけずれた位置の領域B102であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(g,0)のときである。 Next, for example, if the first motion detection process is performed assuming that the block B 10 including only the subject P 6902 which is the foreground is the target block, as shown in FIG. 70, the image data at time t + t 0 is displayed. in the region corresponding to the block of interest B 10 it is because it is the region B 102 of position shifted by g in the x-direction from the target block B 10, obtained in the step S102 of FIG. 65, the correlation information at time t + t 0 The value of E 1 (u 1 , v 1 ) is minimized when the position (u 1 , v 1 ) = (g, 0).
同様に、時刻t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データにおいて、注目ブロックB10と対応する領域は、それぞれ、注目ブロックB10からx方向に2gだけずれた位置の領域B202、注目ブロックB10からx方向に3gだけずれた位置の領域B302、注目ブロックB10からx方向に-gだけずれた位置の領域B-102、注目ブロックB10からx方向に-2gだけずれた位置の領域B-202、注目ブロックB10からx方向に-3gだけずれた位置の領域B-302である。 Similarly, in the image data at times t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 , the regions corresponding to the target block B 10 are respectively in the x direction from the target block B 10. the position of the region B 202 shifted by 2g, the block of interest B 10 position of the region B 302 shifted by 3g in the x direction from the block of interest B 10 position of the region B -102 shifted in the x direction by -g from attention area at a position shifted by -2g from the block B 10 in the x direction B -202, a region B -302 position shifted by -3g in the x direction from the target block B 10.
従って、時刻t+2t0における相関情報E2(u2,v2)の値が最小になるのは、位置(u2,v2)が(2g,0)のときであり、時刻t+3t0における相関情報E3(u3,v3)の値が最小になるのは、位置(u3,v3)が(3g,0)のときであり、時刻t-t0における相関情報F1(r1,s1)の値が最小になるのは、位置(r1,s1)が(-g,0)のときであり、時刻t-2t0における相関情報F2(r2,s2)の値が最小になるのは、位置(r2,s2)が(-2g,0)のときであり、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、位置(r3,s3)が、(-3g,0)のときである。 Therefore, the value of the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is minimized when the position (u 2 , v 2 ) is (2g, 0) and the time t + The value of the correlation information E 3 (u 3 , v 3 ) at 3t 0 is minimized when the position (u 3 , v 3 ) is (3g, 0), and the correlation information F 1 at time tt 0 (r 1, s 1) the value of the is minimized, positions (r 1, s 1) is (-g, 0) is when the correlation at time t-2t 0 information F 2 (r 2, The value of s 2 ) is minimized when the position (r 2 , s 2 ) is (-2g, 0), and the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 The value is minimized when the position (r 3 , s 3 ) is ( −3 g, 0).
以上から、第1の動き検出処理によれば、図67のステップS111において求められる、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)は、(g,0)であり、その結果、注目ブロックB10については、3次元の動きベクトルとして、(g,0,t0)が求められる。 From the above, according to the first motion detection process, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (after scaling) obtained in step S111 of FIG. composite correlation information E (p, q) that is a composite result of u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) (P, q), that is, the average motion vector (p 0 , q 0 ) is (g, 0). As a result, for the target block B 10 , (g , 0, t 0 ).
この場合、図68では、注目ブロックB10の各画素について、領域B-302,B-202,B-102,B10,B102,B202,B302それぞれの対応する画素の画素値に対し、重み1/16,2/16,3/16,4/16,3/16,2/16,1/16を付した重み付け加算を行うフィルタリングが行われる。領域B-302,B-202,B-102,B10,B102,B202,B302は、いずれも、注目ブロックB10に対応した領域であり、従って、領域B-302,B-202,B-102,B10,B102,B202,B302を用いたフィルタリングにより、人間の視覚で認識することができる周波数成分のみのデータ、即ち、いまの場合、(g,0,t0)に直交する方向(注目ブロックB10のデータの主成分方向)に延びる、T方向の幅が2π/(4t0)の領域内の周波数成分のみの適正なデータを得ることができる。
In this case, in FIG. 68, for each pixel of the block of interest B 10, region B -302, B -202, B -102 , relative to B 10, B 102, B 202 ,
以上のように、注目ブロック、および他のフレームの注目ブロックに対応する領域のすべてが、背景である被写体P6901のみを含む場合や、前景である被写体P6902のみを含む場合には、注目ブロックのデータの主成分方向を正確に求め、その主成分方向に基づくフィルタリングによって、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることができる。 As described above, when all of the regions corresponding to the target block and the target block of other frames include only the subject P 6901 that is the background or only the subject P 6902 that is the foreground, the target block By accurately obtaining the principal component direction of the data and filtering based on the principal component direction, it is possible to obtain appropriate data of only frequency components that can be recognized by human vision.
これに対して、注目ブロック、または他のフレームの注目ブロックに対応する領域が、速度が異なる複数の被写体を含む場合、つまり、速度が異なる複数の被写体の境界部分を含む場合には、誤差の大きな平均動きベクトルが求められることがある。この場合、そのような平均動きベクトルからは、注目ブロックのデータの主成分方向を正確に求められず、その結果、主成分方向に基づくフィルタリングによって、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることができないことがある。 On the other hand, if the area corresponding to the target block or the target block in another frame includes a plurality of subjects with different speeds, that is, includes a boundary portion of a plurality of subjects with different speeds, A large average motion vector may be required. In this case, from such an average motion vector, the principal component direction of the data of the block of interest cannot be accurately determined, and as a result, only frequency components that can be recognized by human vision by filtering based on the principal component direction. It may not be possible to obtain appropriate data.
即ち、例えば、図71において、背景である被写体P6901のみを含むブロックB7が注目ブロックであるとして、第1の動き検出処理を行うと、時刻t+t0における画像データにおいて、注目ブロックB7と対応する領域は、注目ブロックB7と同一位置の領域B111であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(0,0)のときである。 That is, for example, in FIG. 71, if the first motion detection process is performed assuming that the block B 7 including only the subject P 6901 as the background is the target block, the target block B in the image data at time t + t 0 is performed. Since the area corresponding to 7 is the area B 111 at the same position as the target block B 7 , the value of the correlation information E 1 (u 1 , v 1 ) at time t + t 0 obtained in step S102 of FIG. Is minimized when the position (u 1 , v 1 ) = (0,0).
同様に、時刻t+2t0,t+3t0,t-t0,t-2t0における画像データにおいて、注目ブロックB7と対応する領域は、それぞれ、注目ブロックB7と同一位置の領域B211,B311,B-111,B-211である。従って、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)の値が最小になるのは、いずれも、位置(u2,v2),(u3,v3),(r1,s1),(r2,s2)が、(0,0)のときである。
Similarly, in the image data at
しかしながら、時刻t-3t0における画像データにおいて、注目ブロックB7と対応する領域は、本来は、注目ブロックB7と同一位置の領域B-311であるはずであるが、図71では、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、位置(r3,s3)が(0,0)のときであって欲しいが、相関情報F3(r3,s3)の値が、位置(r3,s3)が(0,0)のときに最小になるとは限らない。 However, in the image data at time t-3t 0, a region corresponding to the block of interest B 7, which may Originally, it should be region B -311 at the same position as the block of interest B 7, FIG. 71, moving Hidden behind the subject P 6902 , and does not exist. Therefore, the value of the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 is minimized when the position (r 3 , s 3 ) is (0,0). The value of the correlation information F 3 (r 3 , s 3 ) is not always the minimum when the position (r 3 , s 3 ) is (0,0).
そして、第1の動き検出処理によれば、図67のステップS111において、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)が求められ、さらに、3次元の動きベクトルとして、(p0,q0,t0)が求められる。 Then, according to the first motion detection process, in step S111 in FIG. 67, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) (P, q), that is, an average motion vector (p 0 , q 0 ) is obtained, and (p 0 , q 0 , t 0 ) is obtained as a three-dimensional motion vector.
この3次元の動きベクトル(p0,q0,t0)は、位置(r3,s3)が(0,0)のときに値が最小になるとは限らない相関情報F3(r3,s3)を用いて求められた合成相関情報E(p,q)を最小にする(p,q)である平均動きベクトル(p0,q0)から得られるため、その3次元の動きベクトル(p0,q0,t0)に直交する方向が、注目ブロックB7のデータの主成分方向を正確に表しているとは限らない。 The three-dimensional motion vector (p 0 , q 0 , t 0 ) is not always the minimum value when the position (r 3 , s 3 ) is (0,0). The correlation information F 3 (r 3 , s 3 ) is obtained from the average motion vector (p 0 , q 0 ) that is (p, q) that minimizes the composite correlation information E (p, q) obtained using The direction orthogonal to the vector (p 0 , q 0 , t 0 ) does not always accurately represent the principal component direction of the data of the block of interest B 7 .
そして、そのような3次元の動きベクトル(p0,q0,t0)に直交する方向に基づくフィルタリングでは、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となる。 In such filtering based on a direction orthogonal to the three-dimensional motion vector (p 0 , q 0 , t 0 ), it is difficult to obtain appropriate data of only frequency components that can be recognized by human vision. It becomes.
次に、例えば、図71において、背景である被写体P6901のみを含むブロックB14が注目ブロックであるとして、第1の動き検出処理を行うと、時刻t+t0における画像データにおいて、注目ブロックB14と対応する領域は、注目ブロックB14と同一位置の領域B112であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(0,0)のときである。 Next, for example, in FIG. 71, if the first motion detection process is performed assuming that the block B 14 including only the subject P 6901 as the background is the target block, the target block is included in the image data at time t + t 0 . a region corresponding to the B 14 is because it is the region B 112 of the block of interest B 14 at the same position is determined at step S102 of FIG. 65, the correlation information at time t + t 0 E 1 of (u 1, v 1) The value is minimized when the position (u 1 , v 1 ) = (0,0).
同様に、時刻t-t0,t-2t0,t-3t0における画像データにおいて、注目ブロックB14と対応する領域は、それぞれ、注目ブロックB14と同一位置の領域B-112,B-212,B-312である。従って、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、いずれも、位置(r1,s1),(r2,s2),(r3,s3)が、(0,0)のときである。
Similarly, in the image data at time tt 0, t-2t 0, t-
しかしながら、時刻t+2t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B212であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+2t0における相関情報E2(u2,v2)の値が最小になるのは、位置(u2,v2)が(0,0)のときであって欲しいが、相関情報E2(u2,v2)の値が、位置(u2,v2)が(0,0)のときに最小になるとは限らない。 However, in the image data at time t + 2t 0, a region corresponding to the block of interest B 14 is originally, but it should be region B 212 of the block of interest B 14 at the same position, moving the subject P 6902 are It is hidden behind and does not exist. Therefore, the value of the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is minimized when the position (u 2 , v 2 ) is (0,0). The value of the correlation information E 2 (u 2 , v 2 ) is not necessarily the minimum when the position (u 2 , v 2 ) is (0,0).
同様に、時刻t+3t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B312であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+3t0における相関情報E3(u3,v3)の値が最小になるのは、位置(u3,v3)が(0,0)のときであって欲しいが、相関情報E3(u3,v3)の値が、位置(u3,v3)が(0,0)のときに最小になるとは限らない。 Similarly, in the image data at time t + 3t 0, a region corresponding to the block of interest B 14 are originally of interest but block B 14 and it should be region B 312 in the same position, a moving subject P 6902 It is hidden behind and does not exist. Therefore, the value of the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is minimized when the position (u 3 , v 3 ) is (0,0). The value of the correlation information E 3 (u 3 , v 3 ) is not necessarily the minimum when the position (u 3 , v 3 ) is (0,0).
そして、第1の動き検出処理によれば、図67のステップS111において、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)が求められ、さらに、3次元の動きベクトルとして、(p0,q0,t0)が求められる。 Then, according to the first motion detection process, in step S111 in FIG. 67, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) (P, q), that is, an average motion vector (p 0 , q 0 ) is obtained, and (p 0 , q 0 , t 0 ) is obtained as a three-dimensional motion vector.
この3次元の動きベクトル(p0,q0,t0)は、位置(u2,v2)が(0,0)のときに値が最小になるとは限らない相関情報F2(u2,v2)と、位置(u3,v3)が(0,0)のときに値が最小になるとは限らない相関情報F3(u3,v3)を用いて求められた合成相関情報E(p,q)を最小にする(p,q)である平均動きベクトル(p0,q0)から得られるため、その3次元の動きベクトル(p0,q0,t0)に直交する方向が、注目ブロックB14のデータの主成分方向を正確に表しているとは限らない。 The three-dimensional motion vector (p 0 , q 0 , t 0 ) is not always the minimum when the position (u 2 , v 2 ) is (0,0). The correlation information F 2 (u 2 , v 2 ) and the correlation information F 3 (u 3 , v 3 ), the value of which is not necessarily minimized when the position (u 3 , v 3 ) is (0,0) Since it is obtained from the average motion vector (p 0 , q 0 ) that is (p, q) that minimizes the information E (p, q), the three-dimensional motion vector (p 0 , q 0 , t 0 ) the direction perpendicular, not necessarily the main ingredient direction of the data block of interest B 14 accurately represents.
そして、そのような3次元の動きベクトル(p0,q0,t0)に直交する方向に基づくフィルタリングでは、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となる。 In such filtering based on a direction orthogonal to the three-dimensional motion vector (p 0 , q 0 , t 0 ), it is difficult to obtain appropriate data of only frequency components that can be recognized by human vision. It becomes.
次に、例えば、図71において、背景である被写体P6901と前景である被写体P6902とを含むブロックB9が注目ブロックであるとして、第1の動き検出処理を行うと、注目ブロックB9は、静止している被写体P6901と、動いている被写体P6902との両方を含むため、即ち、静止している被写体P6901のある位置において、動いている被写体P6902が、静止している被写体P6901を隠した状態となっているため、そのような注目ブロックB9に対応する領域は、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データのいずれにも存在しない。 Next, for example, in FIG. 71, if the block B 9 including the subject P 6901 that is the background and the subject P 6902 that is the foreground is the target block, and the first motion detection process is performed, the target block B 9 is Since both the stationary subject P 6901 and the moving subject P 6902 are included, that is, at a position of the stationary subject P 6901 , the moving subject P 6902 is a stationary subject. Since P 6901 is hidden, the areas corresponding to such a target block B 9 are time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t−2t 0 , t It does not exist in any of the image data at -3t 0 .
このため、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の値は、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データにおける、注目ブロックB9と最も類似する位置(u1,v1),(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)で、それぞれ最小となる For this reason, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , t at time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) Positions (u 1 , v 1 ), (u 2 ) most similar to the block of interest B 9 in the image data at t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 )
そして、第1の動き検出処理によれば、図67のステップS111において、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)が求められ、さらに、3次元の動きベクトルとして、(p0,q0,t0)が求められる。 Then, according to the first motion detection process, in step S111 in FIG. 67, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) (P, q), that is, an average motion vector (p 0 , q 0 ) is obtained, and (p 0 , q 0 , t 0 ) is obtained as a three-dimensional motion vector.
この3次元の動きベクトル(p0,q0,t0)は、注目ブロックB9と最も類似する位置において最小になる相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)を用いて求められた合成相関情報E(p,q)を最小にする(p,q)である平均動きベクトル(p0,q0)から得られるため、その3次元の動きベクトル(p0,q0,t0)に直交する方向が、注目ブロックB9のデータの主成分方向を正確に表しているとは限らない。 This three-dimensional motion vector (p 0 , q 0 , t 0 ) has the minimum correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v) at the position most similar to the target block B 9. 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) Since it is obtained from the average motion vector (p 0 , q 0 ) that is (p, q) that minimizes the information E (p, q), the three-dimensional motion vector (p 0 , q 0 , t 0 ) the direction perpendicular, not necessarily the main ingredient direction of the data block of interest B 9 accurately represents.
そして、そのような3次元の動きベクトル(p0,q0,t0)に直交する方向に基づくフィルタリングでは、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となる。 In such filtering based on a direction orthogonal to the three-dimensional motion vector (p 0 , q 0 , t 0 ), it is difficult to obtain appropriate data of only frequency components that can be recognized by human vision. It becomes.
以上のように、注目ブロック、または他のフレームの注目ブロックに対応する領域が、速度が異なる複数の被写体を含む場合、つまり、速度が異なる複数の被写体の境界部分を含む場合には、第1の動き検出処理では、平均動きベクトル、ひいては、注目ブロックのデータの主成分方向を正確に求めることができず、そのような主成分方向に基づくフィルタリングが行われることによって、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となることがあった。 As described above, when the region corresponding to the block of interest or the block of interest in another frame includes a plurality of subjects having different speeds, that is, if the region includes boundary portions of a plurality of subjects having different speeds, the first In this motion detection processing, the average motion vector, and thus the principal component direction of the data of the block of interest, cannot be obtained accurately, and the filtering based on such principal component direction is performed, so that it is recognized by human vision. It may be difficult to obtain appropriate data of only frequency components that can be obtained.
そこで、図72は、注目ブロック、または他のフレームの注目ブロックに対応する領域が、速度が異なる複数の被写体を含む場合であっても、平均動きベクトル、ひいては、注目ブロックのデータの主成分方向を正確に求める処理(以下、適宜、第2の動き検出処理という)を行う図25の主成分方向取得部31の構成例を示している。
Therefore, FIG. 72 shows the average motion vector, and thus the principal component direction of the data of the target block, even when the region corresponding to the target block or the target block of another frame includes a plurality of subjects having different velocities. 25 shows an example of the configuration of the principal component
なお、図中、図52における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図72の主成分方向取得部31は、スケーリング合成部104と最小値検出部105に代えて、それぞれスケーリング合成部124と最小値検出部125が設けられている他は、図52における場合と同様に構成されている。
In the figure, portions corresponding to those in FIG. 52 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the principal component
スケーリング合成部124は、図52のスケーリング合成部104と同様に、相関演算部103から供給される、複数の相関演算対象フレームそれぞれについて求められた相関情報を、空間方向x,yにスケーリングし、さらに、そのスケーリング後の相関情報を合成して、合成相関情報を求める。但し、スケーリング合成部124では、スケーリング後の相関情報を合成する数(合成する相関情報の数)を変えて、複数の合成相関情報が求められる。そして、スケーリング合成部124は、複数の合成相関情報を、最小値検出部125に供給する。
Similar to the scaling
最小値検出部125は、スケーリング合成部124からの複数の合成相関情報のうちの、相関が最大の合成相関情報である最大合成相関情報を求める。即ち、最小値検出部125は、スケーリング合成部124からの複数の合成相関情報それぞれの「値」の最小値を求める。さらに、最小値検出部125は、複数の合成相関情報から、最小値が最小の合成相関情報を、最大合成相関情報として求める。
The minimum
さらに、最小値検出部125は、最大合成相関情報が表す相関が最大となる空間方向の位置を、即ち、最大合成相関情報の「値」を最小にする空間方向の位置を、最大相関位置として検出し、その最大相関位置へのベクトルを、平均動きベクトルとして求める。そして、最小値検出部125は、平均動きベクトルに、バッファ部21(図25)に記憶されている動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトルを求め、その3次元の動きベクトルの方向と直交する方向を、注目ブロックの主成分方向として検出して出力する。
Further, the minimum
また、最小値検出部125は、合成相関情報を求めるのに用いられた複数のフレームのうちの、最大合成相関情報を求めるのに合成した相関情報の演算に用いられたフレームの範囲を表す後述するカーネルサイズを、注目ブロックの動きベクトル(平均動きベクトル)の有効範囲、つまり、注目ブロックの主成分方向の有効範囲として、さらに求め、注目ブロックの主成分方向とともに出力する。
Further, the minimum
次に、図73乃至図77のフローチャートを参照して、主成分方向取得部31が図72に示したように構成される場合の図25のフィルタ生成部23の処理について説明する。
Next, the processing of the filter generation unit 23 in FIG. 25 when the principal component
なお、図73乃至図77のフローチャートにしたがったステップS151乃至S176の処理のうちの、ステップS151乃至S172の処理は、第2の動き検出処理であり、図31のステップS11の処理に対応する。また、ステップS173乃至S175の処理は、図31のステップS12の処理に対応し、ステップS176の処理は、図31のステップS13の処理に対応する。 Of the processes of steps S151 to S176 according to the flowcharts of FIGS. 73 to 77, the processes of steps S151 to S172 are second motion detection processes and correspond to the process of step S11 of FIG. Further, the processing in steps S173 to S175 corresponds to the processing in step S12 in FIG. 31, and the processing in step S176 corresponds to the processing in step S13 in FIG.
第2の動き検出処理では、速度が異なる複数の被写体が投影された動画の、いわば性質を利用して、注目ブロックとの相関情報を演算する複数のフレームのうちの、注目ブロックと対応する領域を有するフレームについて求められた相関情報だけを合成して合成相関情報を得て、その合成相関情報を用いて、注目ブロックの正確な主成分方向を得ることができる平均動きベクトルを求める。 In the second motion detection process, an area corresponding to the target block among a plurality of frames for calculating correlation information with the target block using the so-called property of a moving image on which a plurality of subjects with different speeds are projected. Only the correlation information obtained for a frame having a frame is combined to obtain combined correlation information, and an average motion vector capable of obtaining an accurate principal component direction of the block of interest is obtained using the combined correlation information.
即ち、例えば、図69乃至図71に示したように、静止している被写体P6901の手前側に、動いている被写体P6902が存在する時刻t-3t0乃至t+3t0の7フレームの間の時間は、6t0という短い時間であるので、動いている被写体P6902の速度は、一定であると近似することができる。 That is, for example, as shown in FIG. 69 to FIG. 71, seven frames from time t-3t 0 to t + 3t 0 where the moving subject P 6902 exists on the front side of the stationary subject P 6901 are shown. Since the time between them is as short as 6t 0 , it can be approximated that the speed of the moving subject P 6902 is constant.
そして、時刻tの画像データのあるブロックを注目ブロックとした場合に、その注目ブロックに対して、動いている被写体P6902が、遠ざかっていくケースでは、時刻tよりも時間的に後の時刻(未来の時刻)の画像データにおいて、注目ブロックと対応する領域が存在する。即ち、例えば、図71において、ブロックB7が注目ブロックである場合には、その注目ブロックB7に対して、被写体P6902が遠ざかっていくが、この場合、時刻tよりも時間的に後の時刻t+t0,t+2t0,t+3t0それぞれにおいて、注目ブロックB7に対応する領域B111,B211,B311が存在する。 Then, when a block having image data at time t is set as a target block, in the case where the moving subject P 6902 moves away from the target block, a time later than time t ( In the image data of (future time), there is an area corresponding to the block of interest. That is, for example, in FIG. 71, when the block B 7 is the target block, the subject P 6902 moves away from the target block B 7 , but in this case, the time later than the time t. At times t + t 0 , t + 2t 0 , and t + 3t 0 , areas B 111 , B 211 , and B 311 corresponding to the block of interest B 7 exist.
また、注目ブロックに対して、動いている被写体P6902が、近づいてくるケースでは、時刻tよりも時間的に前の時刻(過去の時刻)の画像データにおいて、注目ブロックと対応する領域が存在する。即ち、例えば、図71において、ブロックB14が注目ブロックである場合には、その注目ブロックB14に対して、被写体P6902が近づいてくるが、この場合、時刻tよりも時間的に前の時刻t-t0,t-2t0,t-3t0それぞれにおいて、注目ブロックB14に対応する領域B-112,B-212,B-312が存在する。 In addition, in the case where the moving subject P 6902 approaches the block of interest, there is an area corresponding to the block of interest in the image data at a time prior to the time t (past time). To do. That is, for example, in FIG. 71, when the block B 14 is the target block, the subject P 6902 approaches the target block B 14 , but in this case, the time before the time t At times tt 0 , t-2t 0 , and t-3t 0 , there are regions B −112 , B −212 , and B −312 corresponding to the block of interest B 14 .
なお、注目ブロックに、静止している被写体P6901と、動いている被写体P6902とが存在するケースでは、時刻tの前後の時刻の画像データにおいて、注目ブロックと対応する領域は存在しない。即ち、例えば、図71において、ブロックB9が注目ブロックである場合には、注目ブロックB9には、静止している被写体P6901と、動いている被写体P6902とが存在するが、この場合、時刻tよりも前の時刻t-t0,t-2t0,t-3t0と、後の時刻t+t0,t+2t0,t+3t0のうちのいずれにも、注目ブロックB9と対応する領域は存在しない。 In the case where the stationary block includes the stationary subject P 6901 and the moving subject P 6902 , there is no region corresponding to the focused block in the image data at times before and after the time t. That is, for example, in FIG. 71, when the block B 9 is the target block, the target block B 9 includes a stationary subject P 6901 and a moving subject P 6902. In this case, , The block of interest B 9 at any of the times tt 0 , t-2t 0 , t-3t 0 before the time t and the times t + t 0 , t + 2t 0 , t + 3t 0 after the time t There is no corresponding area.
第2の動き検出処理では、以上のような、速度が異なる複数の被写体が投影された動画の性質を利用した処理が行われる。 In the second motion detection process, a process using the nature of a moving image in which a plurality of subjects with different speeds is projected as described above is performed.
即ち、図72の主成分方向取得部31において、バッファ部101には、バッファ部21(図25)から読み出された動画データが供給され、バッファ部101は、その動画データを一時記憶する。
That is, in the principal component
そして、図73のステップS151において、ブロック抽出部102は、バッファ部101に記憶された動画データを、図64のステップS101における場合と同様に、例えば16×16画素のブロックに分割し、相関演算部103に供給する。なお、以降の処理は、ブロック抽出部102で得られたブロックを、順次、注目ブロックとして行われる。
In step S151 in FIG. 73, the
ここで、図64乃至図67における場合と同様に、注目ブロックの位置(例えば、注目ブロックの左上の画素の位置)を、(x0,y0)と表す。また、注目ブロックのフレーム(注目フレーム)は、時刻tのフレームであるとする。 Here, as in FIGS. 64 to 67, the position of the block of interest (for example, the position of the upper left pixel of the block of interest) is represented as (x 0 , y 0 ). The frame of the block of interest (frame of interest) is assumed to be a frame at time t.
ステップS151の処理後は、ステップS152に進み、相関演算部103は、注目フレームの次のフレームの画像データである時刻t+t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E1(u1,v1)を、注目ブロックを対応させる時刻t+t0の画像データの位置(x0+u1,y0+v1)を変えながら求め、その関数E1(u1,v1)を、時刻t+t0における相関情報として、スケーリング合成部124に供給して、ステップS153に進む。
After the process of step S151, the process proceeds to step S152, and the
ステップS153では、相関演算部103は、注目フレームの次の次のフレームの画像データである時刻t+2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E2(u2,v2)を、注目ブロックを対応させる時刻t+2t0の画像データの位置(x0+u2,y0+v2)を変えながら求め、その関数E2(u2,v2)を、時刻t+2t0における相関情報として、スケーリング合成部124に供給して、ステップS154に進む。
In step S153, the
ステップS154では、相関演算部103は、注目フレームの3フレームだけ時間的に先の画像データである時刻t+3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E3(u3,v3)を、注目ブロックを対応させる時刻t+3t0の画像データの位置(x0+u3,y0+v3)を変えながら求め、その関数E3(u3,v3)を、時刻t+3t0における相関情報として、スケーリング合成部124に供給して、図74のステップS155に進む。
In step S154, the
ステップS155では、相関演算部103は、注目フレームの前のフレームの画像データである時刻t-t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F1(r1,s1)を、注目ブロックを対応させる時刻t-t0の画像データの位置(x0+r1,y0+s1)を変えながら求め、その関数F1(r1,s1)を、時刻t-t0における相関情報として、スケーリング合成部124に供給して、ステップS156に進む。
In step S155, the
ステップS156では、相関演算部103は、注目フレームの前の前のフレームの画像データである時刻t-2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F2(r2,s2)を、注目ブロックを対応させる時刻t-2t0の画像データの位置(x0+r2,y0+s2)を変えながら求め、その関数F2(r2,s2)を、時刻t-2t0における相関情報として、スケーリング合成部124に供給して、ステップS157に進む。
In step S156, the
ステップS157では、相関演算部103は、注目フレームの3フレームだけ時間的に前の画像データである時刻t-3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F3(r3,s3)を、注目ブロックを対応させる時刻t-3t0の画像データの位置(x0+r3,y0+s3)を変えながら求め、その関数F3(r3,s3)を、時刻t-3t0における相関情報として、スケーリング合成部124に供給して、ステップS158に進む。
In step S157, the
ステップS158では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちのすべてについて、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。
In step S <b> 158, the scaling
なお、合成相関情報E(p,q)は、スケーリング後の相関情報を単純に加算する他、上述したように、重み付け加算することにより求めることもできる。 Note that the combined correlation information E (p, q) can be obtained by simply adding the correlation information after scaling, or by weighted addition as described above.
以上のように、スケーリング合成部124は、ステップS158において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)のすべてを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の3フレームのそれぞれについての、合計で6つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である6によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L33を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/6+L33)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS158からS159に進む。
As described above, the scaling
ステップS159では、最小値検出部125は、ステップS158でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p33,q33)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p33,q33)を検出し、位置(p,q)が最大相関位置(p33,q33)である場合の合成相関情報E(p33,q33)の「値」、即ち、最小値E33とともに記憶して、図75のステップS160に進む。
In step S159, the minimum
ステップS160では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、5つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(-r1,-s1)=(-r2/2,-s2/2)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),F1(-p,-q),F2(-2p,-2q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q))を求める。
In step S <b> 160, the scaling
以上のように、スケーリング合成部124は、ステップS160において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)の5つを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の2フレームのそれぞれについての、合計で5つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である5によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L23を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q)}/5+L23)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS160からS161に進む。
As described above, the scaling
ステップS161では、最小値検出部125は、ステップS160でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の2フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p23,q23)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p23,q23)を検出し、位置(p,q)が最大相関位置(p23,q23)である場合の合成相関情報E(p23,q23)の「値」、即ち、最小値E23とともに記憶して、ステップS162に進む。
In step S161, the
ステップS162では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、4つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(-r1,-s1)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),F1(-p,-q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q))を求める。
In step S <b> 162, the scaling
以上のように、スケーリング合成部124は、ステップS162において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)の4つを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の1フレームのそれぞれについての、合計で4つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である4によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L13を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)}/4+L13)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS162からS163に進む。
As described above, the scaling
ステップS163では、最小値検出部125は、ステップS162でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の1フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p13,q13)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p13,q13)を検出し、位置(p,q)が最大相関位置(p13,q13)である場合の合成相関情報E(p13,q13)の「値」、即ち、最小値E13とともに記憶して、ステップS164に進む。
In step S163, the
ステップS164では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、3つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q))を求める。
In step S164, the scaling
以上のように、スケーリング合成部124は、ステップS164において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)の3つを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームのそれぞれについての、合計で3つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である3によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L03を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)}/3+L03)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS164からS165に進む。
As described above, the scaling
ステップS165では、最小値検出部125は、ステップS164でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p03,q03)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p03,q03)を検出し、位置(p,q)が最大相関位置(p03,q03)である場合の合成相関情報E(p03,q03)の「値」、即ち、最小値E03とともに記憶して、図76のステップS166に進む。
In step S165, the minimum
ステップS166では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、5つの相関情報E1(u1,v1),E2(u2,v2),F1(r1,s1),F2(r2,s2),F3(r3,s3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。
In step S <b> 166, the scaling
以上のように、スケーリング合成部124は、ステップS166において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)を合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の2フレームと、時間的に前の3フレームのそれぞれについての、合計で5つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である5によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L32を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/5+L32)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS166からS167に進む。
As described above, the scaling
ステップS167では、最小値検出部125は、ステップS166でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の2フレームと、時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p32,q32)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p32,q32)を検出し、位置(p,q)が最大相関位置(p32,q32)である場合の合成相関情報E(p32,q32)の「値」、即ち、最小値E32とともに記憶して、ステップS168に進む。
In step S167, the minimum
ステップS168では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、4つの相関情報E1(u1,v1),F1(r1,s1),F2(r2,s2),F3(r3,s3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。
In step S168, the scaling
以上のように、スケーリング合成部124は、ステップS168において、時刻t+t0における相関情報E1(u1,v1)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)を合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の1フレームと、時間的に前の3フレームのそれぞれについての、合計で4つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である4によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L31を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/4+L31)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS168からS169に進む。
As described above, the scaling
ステップS169では、最小値検出部125は、ステップS168でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の1フレームと、時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p31,q31)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p31,q31)を検出し、位置(p,q)が最大相関位置(p31,q31)である場合の合成相関情報E(p31,q31)の「値」、即ち、最小値E31とともに記憶して、ステップS170に進む。
In step S169, the minimum
ステップS170では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、3つの相関情報F1(r1,s1),F2(r2,s2),F3(r3,s3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。
In step S <b> 170, the scaling
以上のように、スケーリング合成部124は、ステップS170において、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)を合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に前の3フレームのそれぞれについての、合計で3つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である3によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L30を加算することにより、最終的な合成相関情報E(p,q)(={F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/3+L30)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS170からS171に進む。
As described above, in step S170, the scaling
ステップS171では、最小値検出部125は、ステップS170でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p30,q30)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p30,q30)を検出し、位置(p,q)が最大相関位置(p30,q30)である場合の合成相関情報E(p30,q30)の「値」、即ち、最小値E30とともに記憶して、図77のステップS172に進む。
In step S171, the minimum
ステップS172では、最小値検出部125は、スケーリング合成部124からの複数の合成相関情報のうちの、相関が最大の合成相関情報である最大合成相関情報を求める。即ち、最小値検出部125は、注目フレームの時刻tに対して時間的に後の3フレームと時間的に前の3フレームの6つの相関情報を合成した合成相関情報E(p,q)の最小値E33(ステップS159)、注目フレームの時刻tに対して時間的に後の3フレームと時間的に前の2フレームの5つの相関情報を合成した合成相関情報E(p,q)の最小値E23(ステップS161)、注目フレームの時刻tに対して時間的に後の3フレームと時間的に前の1フレームの4つの相関情報を合成した合成相関情報E(p,q)の最小値E13(ステップS163)、注目フレームの時刻tに対して時間的に後の3フレームの3つの相関情報を合成した合成相関情報E(p,q)の最小値E03(ステップS165)、注目フレームの時刻tに対して時間的に後の2フレームと時間的に前の3フレームの5つの相関情報を合成した合成相関情報E(p,q)の最小値E32(ステップS167)、注目フレームの時刻tに対して時間的に後の1フレームと時間的に前の3フレームの4つの相関情報を合成した合成相関情報E(p,q)の最小値E31(ステップS169)、注目フレームの時刻tに対して時間的に前の3フレームの3つの相関情報を合成した合成相関情報E(p,q)の最小値E30(ステップS171)のうちの最小のものを与える合成相関情報を、最大合成相関情報として求める。
In step S <b> 172, the minimum
ここで、最大合成相関情報となった合成相関情報を求めるのに、注目フレームの時刻tに対して時間的に後のkフレームと時間的に前のhフレームの相関情報の、合計でk+hの相関情報を合成したとすると(ここでは、k,h=0,1,2,3)、最小値E33,E23,E13,E03,E32,E31,E30のうちの最小のものは、Ehkで表すことができる。 Here, in order to obtain the combined correlation information that has become the maximum combined correlation information, k + If the correlation information of h is synthesized (here, k, h = 0,1,2,3), among the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 Can be expressed as E hk .
ステップS172では、さらに、最小値検出部125は、最大合成相関情報の「値」を最小にする空間方向の位置、即ち、最大合成相関情報の最小値Ehkを与える空間方向の位置(phk,qhk)を、最小値E33,E23,E13,E03,E32,E31,E30それぞれとともに記憶した位置(p33,q33),(p23,q23),(p13,q13),(p03,q03),(p32,q32),(p31,q31),(p30,q30)の中から選択することにより検出し、最大相関位置(p0,q0)とする。
In step S172, the minimum
そして、最小値検出部125は、最大相関位置(p0,q0)を、平均動きベクトル(p0,q0)として、その平均動きベクトル(p0,q0)に、元の動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトル(p0,q0,t0)を求め、その3次元の動きベクトル(p0,q0,t0)の方向と直交する方向が、主成分方向であるとして、3次元の動きベクトル(p0,q0,t0)を、フィルタ情報供給部32(図25)に供給するとともに、最大合成相関情報の最小値Ehkを、フィルタ情報供給部32に供給する。さらに、最小値検出部125は、最大合成相関情報の最小値Ehkのサフィックスである(h,k)を、最大合成相関情報を求めるのに合成した相関情報の演算に用いられたフレームの範囲を表すカーネルサイズとして、フィルタ情報供給部32に供給して、ステップS172からS173に進む。
Then, the minimum
ここで、上述したオフセット値L33(ステップS158),L23(ステップS160),L13(ステップS162),L03(ステップS164),L32(ステップS166),L31(ステップS168),L30(ステップS170)は、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たす小さな定数である。 Here, the offset values L 33 (step S158), L 23 (step S160), L 13 (step S162), L 03 (step S164), L 32 (step S166), L 31 (step S168), L described above. 30 (step S170), the formula L 33 ≦ L 32 ≦ L 31 ≦ L 30, and a small constant satisfying the formula L 33 ≦ L 23 ≦ L 13 ≦ L 03.
ステップS173では、フィルタ情報供給部32(図25)は、図72の主成分方向取得部31(の最小値検出部125)からの最大合成相関情報の最小値Ehkが、所定の閾値ε以下(未満)であるかどうかを判定する。ここで、ステップS173で用いられる閾値εは、オフセット値L33,L23,L13,L03,L32,L31,L30よりも大きな値で、例えば、シミュレーションなどによって決定することができる。また、閾値εは、ユーザの操作に応じて設定することも可能である。
In step S173, the filter information supply unit 32 (FIG. 25) determines that the minimum value E hk of the maximum combined correlation information from the principal component direction acquisition unit 31 (the minimum
ステップS173において、最大合成相関情報の最小値Ehkが、所定の閾値ε以下であると判定された場合、即ち、最大合成相関情報の最小値Ehkがある程度小さく、従って、注目ブロックと対応する領域が、時刻tの前または後のフレームに存在する場合、ステップS174に進み、フィルタ情報供給部32は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部31からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定するとともに、図72の主成分方向取得部31(の最小値検出部125)からの(h,k)を、そのままカーネルサイズとして決定し、ステップS176に進む。
If it is determined in step S173 that the minimum value E hk of the maximum combined correlation information is equal to or smaller than the predetermined threshold ε, that is, the minimum value E hk of the maximum combined correlation information is small to some extent, and therefore corresponds to the block of interest. When the region exists in the frame before or after time t, the process proceeds to step S174, and the filter
一方、ステップS173において、最大合成相関情報の最小値Ehkが、所定の閾値ε以下でないと判定された場合、即ち、最大合成相関情報の最小値Ehkが大きく、従って、注目ブロックと対応する領域が、時刻tの前および後のフレームのいずれにも存在しない場合、ステップS175に進み、フィルタ情報供給部32は、ステップS174における場合と同様に、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部31からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域を、フィルタの通過帯域として決定する。さらに、ステップS175では、フィルタ情報供給部32は、図72の主成分方向取得部31(の最小値検出部125)からの(h,k)に代えて、(h,k)=(0,0)を、カーネルサイズとして決定し、ステップS176に進む。
On the other hand, if it is determined in step S173 that the minimum value E hk of the maximum combined correlation information is not less than or equal to the predetermined threshold ε, that is, the minimum value E hk of the maximum combined correlation information is large, and therefore corresponds to the block of interest. When the region does not exist in any of the frames before and after time t, the process proceeds to step S175, and the filter
ステップS176では、フィルタ情報供給部32は、ステップS174またはS175で決定したフィルタの通過帯域を表すフィルタ情報として、例えば、3次元の動きベクトル(p0,q0,t0)を、フィルタ部22(図25)に供給するとともに、カーネルサイズ(h,k)を、フィルタ部22に供給し、処理を終了する。
In step S176, the filter
図73乃至図77に示したフローチャートにしたがった処理によれば、注目ブロックについて、次のようなフィルタ情報としての3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)を求めることができる。 According to the process in accordance with the flowchart shown in FIG. 73 to FIG. 77, the block of interest, and three-dimensional motion vectors as filter information such as: (p 0, q 0, t 0), the kernel size (h , k).
例えば、図70に示した動画データにおいて、ブロックB3が注目ブロックである場合には、上述したように、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データそれぞれにおいて、注目ブロックB3と対応する領域B101,B201,B301,B-101,B-201,B-301が存在し、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)の値は、いずれも、位置(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)が(0,0)のときに最小になり、ほぼ0となる。 For example, in the moving image data shown in FIG. 70, when the block B 3 is the target block, as described above, the times t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t−2t at 0, respectively image data in t-3t 0, block of interest B 3 with the corresponding region B 101, B 201, B 301 , B -101, B -201, B -301 is present, the time t + t 0 Correlation information E 1 (u 1 , v 1 ), correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 , correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 , time tt correlation information in 0 F 1 of (r 1, s 1), the correlation information F 2 at time t-2t 0 (r 2, s 2), the correlation information F 3 at time t-3t 0 (r 3, s 3) The values for all are (u 2 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 ) are (0, 0) is the smallest and almost zero.
この場合、図74のステップS159で求められる、合成相関関数E(p,q)の最小値E33を与える位置(p33,q33)は(0,0)となり、最小値E33は、ほぼオフセット値L33に等しくなる。同様に、図75のステップS161で求められる、合成相関関数E(p,q)の最小値E23を与える位置(p23,q23)は(0,0)となり、最小値E23は、ほぼオフセット値L23に等しくなる。また、図75のステップS163で求められる、合成相関関数E(p,q)の最小値E13を与える位置(p13,q13)は(0,0)となり、最小値E13は、ほぼオフセット値L13に等しくなる。さらに、図75のステップS165で求められる、合成相関関数E(p,q)の最小値E03を与える位置(p03,q03)は(0,0)となり、最小値E03は、ほぼオフセット値L03に等しくなる。また、図76のステップS167で求められる、合成相関関数E(p,q)の最小値E32を与える位置(p32,q32)は(0,0)となり、最小値E32は、ほぼオフセット値L32に等しくなる。さらに、図76のステップS169で求められる、合成相関関数E(p,q)の最小値E31を与える位置(p31,q31)は(0,0)となり、最小値E31は、ほぼオフセット値L31に等しくなる。また、図76のステップS171で求められる、合成相関関数E(p,q)の最小値E30を与える位置(p30,q30)は(0,0)となり、最小値E30は、ほぼオフセット値L30に等しくなる。 In this case, the position (p 33 , q 33 ) that gives the minimum value E 33 of the combined correlation function E (p, q) obtained in step S159 of FIG. 74 is (0,0), and the minimum value E 33 is approximately equal to the offset value L 33. Similarly, the position (p 23 , q 23 ) that gives the minimum value E 23 of the combined correlation function E (p, q) obtained in step S161 in FIG. 75 is (0,0), and the minimum value E 23 is approximately equal to the offset value L 23. In addition, the position (p 13 , q 13 ) that gives the minimum value E 13 of the combined correlation function E (p, q) obtained in step S163 in FIG. 75 is (0,0), and the minimum value E 13 is almost equal to equal to the offset value L 13. Further, the position (p 03 , q 03 ) that gives the minimum value E 03 of the combined correlation function E (p, q), which is obtained in step S165 of FIG. 75, is (0, 0), and the minimum value E 03 is almost equal to equal to the offset value L 03. In addition, the position (p 32 , q 32 ) that gives the minimum value E 32 of the combined correlation function E (p, q) obtained in step S167 of FIG. 76 is (0,0), and the minimum value E 32 is almost equal to equal to the offset value L 32. Further, the position (p 31 , q 31 ) that gives the minimum value E 31 of the combined correlation function E (p, q) obtained in step S169 in FIG. 76 is (0,0), and the minimum value E 31 is almost equal to equal to the offset value L 31. In addition, the position (p 30 , q 30 ) that gives the minimum value E 30 of the combined correlation function E (p, q) obtained in step S171 in FIG. 76 is (0, 0), and the minimum value E 30 is almost equal to equal to the offset value L 30.
オフセット値L33,L23,L13,L03,L32,L31,L30は、上述したように、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たすので、注目ブロックB3については、図77のステップS172において、基本的に、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(0,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が求められ、カーネルサイズ(h,k)として(3,3)が求められる。 As described above, the offset values L 33 , L 23 , L 13 , L 03 , L 32 , L 31 , and L 30 are the expressions L 33 ≦ L 32 ≦ L 31 ≦ L 30 and the expressions L 33 ≦ L 23. Since ≦ L 13 ≦ L 03 is satisfied, for the target block B 3 , the minimum value E 33 that is substantially the offset value L 33 is basically the minimum value E 33 , E 23 , E in step S172 of FIG. 13 , E 03 , E 32 , E 31 , E 30 are detected as the smallest one, and ( 0 , 0) is obtained as the average motion vector (p 0 , q 0 ). Further, in step S172, (0,0, t 0 ) is obtained as the three-dimensional motion vector (p 0 , q 0 , t 0 ), and (3,3) is obtained as the kernel size (h, k). .
さらに、オフセット値L33は、上述したように、ステップS173における閾値εより小さい(以下である)ので、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB3については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が得られるとともに、カーネルサイズ(h,k)として(3,3)が得られる。 Further, the offset value L 33, as described above, since the smaller the threshold ε in step S173 (or less is), the minimum value E 33 of substantially the offset value L 33 is the minimum value E 33, E 23, E 13 , E 03 , E 32 , E 31 , E 30 regarding the target block B 3 detected as the smallest one in step S 174 of FIG. 77, the three-dimensional motion vector (p 0 , q 0, t 0) as (0, 0, with t 0) is obtained, the kernel size (h, k) as the (3,3) is obtained.
これは、時刻t-ht0からt+kt0、つまり、時刻t-3t0からt+3t0の間は、注目ブロックB3は、(0,0,t0)という速度(時間t0の間に、空間方向に(0,0)だけ移動する速度)で移動しているということを示している。 This time t-ht 0 from t + kt 0, that is, between time t-3t 0 of t + 3t 0, the block of interest B 3 is (0,0, t 0) of the speed (time t 0 It is shown that it is moving at a speed of (0,0) moving in the spatial direction.
従って、カーネルサイズ(h,k)は、3次元の動きベクトル(p0,q0,t0)、ひいては、その3次元の動きベクトル(p0,q0,t0)から求められる注目ブロックの主成分方向の有効範囲を表しているということができる。 Accordingly, the kernel size (h, k) is determined from the three-dimensional motion vector (p 0 , q 0 , t 0 ), and thus the target block obtained from the three-dimensional motion vector (p 0 , q 0 , t 0 ). It can be said that it represents the effective range of the principal component direction.
次に、例えば、図70に示した動画データにおいて、ブロックB10が注目ブロックである場合には、上述したように、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データそれぞれにおいて、注目ブロックB3と対応する領域B102,B202,B302,B-102,B-202,B-302が存在し、時刻t+t0における相関情報E1(u1,v1)の値は、位置(u1,v1)が(g,0)のときに、時刻t+2t0における相関情報E2(u2,v2)の値は、位置(u2,v2)が(2g,0)のときに、時刻t+3t0における相関情報E3(u3,v3)の値は、位置(u3,v3)が(3g,0)のときに、時刻t-t0における相関情報F1(r1,s1)の値は、位置(r1,s1)が(-g,0)のときに、時刻t-2t0における相関情報F2(r2,s2)の値は、位置(r2,s2)が(-2g,0)のときに、時刻t-3t0における相関情報F3(r3,s3)の値は、位置(r3,s3)が、(-3g,0)のときに、それぞれ最小になり、ほぼ0となる。
Then, for example, in the moving image data shown in FIG. 70, when the block B 10 is the target block, as described above, the
この場合、図74のステップS159で求められる、合成相関関数E(p,q)の最小値E33を与える位置(p33,q33)は(g,0)となり、最小値E33は、ほぼオフセット値L33に等しくなる。同様に、図75のステップS161で求められる、合成相関関数E(p,q)の最小値E23を与える位置(p23,q23)は(g,0)となり、最小値E23は、ほぼオフセット値L23に等しくなる。また、図75のステップS163で求められる、合成相関関数E(p,q)の最小値E13を与える位置(p13,q13)は(g,0)となり、最小値E13は、ほぼオフセット値L13に等しくなる。さらに、図75のステップS165で求められる、合成相関関数E(p,q)の最小値E03を与える位置(p03,q03)は(g,0)となり、最小値E03は、ほぼオフセット値L03に等しくなる。また、図76のステップS167で求められる、合成相関関数E(p,q)の最小値E32を与える位置(p32,q32)は(g,0)となり、最小値E32は、ほぼオフセット値L32に等しくなる。さらに、図76のステップS169で求められる、合成相関関数E(p,q)の最小値E31を与える位置(p31,q31)は(g,0)となり、最小値E31は、ほぼオフセット値L31に等しくなる。また、図76のステップS171で求められる、合成相関関数E(p,q)の最小値E30を与える位置(p30,q30)は(g,0)となり、最小値E30は、ほぼオフセット値L30に等しくなる。 In this case, the position (p 33 , q 33 ) that gives the minimum value E 33 of the combined correlation function E (p, q) obtained in step S159 of FIG. 74 is (g, 0), and the minimum value E 33 is approximately equal to the offset value L 33. Similarly, the position (p 23 , q 23 ) that gives the minimum value E 23 of the combined correlation function E (p, q) obtained in step S161 in FIG. 75 is (g, 0), and the minimum value E 23 is approximately equal to the offset value L 23. In addition, the position (p 13 , q 13 ) that gives the minimum value E 13 of the combined correlation function E (p, q) obtained in step S163 in FIG. 75 is (g, 0), and the minimum value E 13 is almost equal to equal to the offset value L 13. Further, the position (p 03 , q 03 ) that gives the minimum value E 03 of the combined correlation function E (p, q), which is obtained in step S165 of FIG. 75, is (g, 0), and the minimum value E 03 is almost equal to equal to the offset value L 03. In addition, the position (p 32 , q 32 ) that gives the minimum value E 32 of the combined correlation function E (p, q) obtained in step S167 in FIG. 76 is (g, 0), and the minimum value E 32 is almost equal to equal to the offset value L 32. Further, the position (p 31 , q 31 ) that gives the minimum value E 31 of the combined correlation function E (p, q) obtained in step S169 in FIG. 76 is (g, 0), and the minimum value E 31 is almost equal to equal to the offset value L 31. In addition, the position (p 30 , q 30 ) that gives the minimum value E 30 of the combined correlation function E (p, q) obtained in step S171 of FIG. 76 is (g, 0), and the minimum value E 30 is almost equal to the offset value L 30.
オフセット値L33,L23,L13,L03,L32,L31,L30は、上述したように、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たすので、注目ブロックB10については、図77のステップS172において、基本的に、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(g,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(g,0,t0)が求められ、カーネルサイズ(h,k)として(3,3)が求められる。 As described above, the offset values L 33 , L 23 , L 13 , L 03 , L 32 , L 31 , and L 30 are the expressions L 33 ≦ L 32 ≦ L 31 ≦ L 30 and the expressions L 33 ≦ L 23. Since ≦ L 13 ≦ L 03 is satisfied, for the target block B 10 , the minimum value E 33 that is substantially the offset value L 33 is basically the minimum value E 33 , E 23 , E in step S172 of FIG. 13 , E 03 , E 32 , E 31 , E 30 are detected as the smallest one, and (g, 0) is obtained as the average motion vector (p 0 , q 0 ). In step S172, (g, 0, t 0 ) is obtained as a three-dimensional motion vector (p 0 , q 0 , t 0 ), and (3, 3) is obtained as a kernel size (h, k). .
さらに、オフセット値L33は、上述したように、ステップS173における閾値εより小さいので、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB10については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(g,0,t0)が得られるとともに、カーネルサイズ(h,k)として(3,3)が得られる。 Further, as described above, since the offset value L 33 is smaller than the threshold value ε in step S173, the minimum value E 33 that is substantially the offset value L 33 becomes the minimum value E 33 , E 23 , E 13 , E 03 , E With respect to the target block B 10 detected as the smallest of 32 , E 31 , and E 30 , in step S174 in FIG. 77, the three-dimensional motion vector (p 0 , q 0 , t 0 ) serving as filter information is obtained. (G, 0, t 0 ) is obtained, and (3, 3) is obtained as the kernel size (h, k).
これは、時刻t-ht0からt+kt0、つまり、時刻t-3t0からt+3t0の間は、注目ブロックB10は、(g,0,t0)という速度(時間t0の間に、空間方向に(g,0)だけ移動する速度)で移動しているということを示している。 This time t-ht 0 from t + kt 0, that is, between time t-3t 0 of t + 3t 0, the block of interest B 10 is (g, 0, t 0) of the speed (time t 0 It is shown that it is moving at a speed (moving by (g, 0)) in the spatial direction.
次に、例えば、図71に示した動画データにおいて、ブロックB7が注目ブロックである場合には、上述したように、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0における画像データそれぞれにおいて、注目ブロックB7と対応する領域B111,B211,B311,B-111,B-211が存在し、時刻t+t0における相関情報E1(u1,v1)の値は、位置(u1,v1)が(0,0)のときに、時刻t+2t0における相関情報E2(u2,v2)の値は、位置(u2,v2)が(0,0)のときに、時刻t+3t0における相関情報E3(u3,v3)の値は、位置(u3,v3)が(0,0)のときに、時刻t-t0における相関情報F1(r1,s1)の値は、位置(r1,s1)が(0,0)のときに、時刻t-2t0における相関情報F2(r2,s2)の値は、位置(r2,s2)が(0,0)のときに、それぞれ最小になり、ほぼ0となる。 Next, for example, in the moving image data shown in FIG. 71, when the block B 7 is the target block, as described above, the times t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , in each image data in the t-2t 0, region B 111, B 211 corresponding to a target block B 7, B 311, B -111 , and B -211 is present, the correlation information at time t + t 0 E 1 (u 1 , v 1 ) is the position (u 1 , v 1 ) is (0,0) and the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is the position ( When u 2 , v 2 ) is (0,0), the value of the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is the position (u 3 , v 3 ) at (0,0 ), The value of the correlation information F 1 (r 1 , s 1 ) at time tt 0 is the correlation information at time t-2t 0 when the position (r 1 , s 1 ) is (0,0). The value of F 2 (r 2 , s 2 ) is minimized when the position (r 2 , s 2 ) is (0, 0), and is almost zero.
しかしながら、時刻t-3t0における画像データにおいて、注目ブロックB7と対応する領域は、本来は、注目ブロックB7と同一位置の領域B-311であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、位置(r3,s3)が(0,0)のときであって欲しいが、相関情報F3(r3,s3)の値は、位置(r3,s3)が(0,0)のときに最小になるとは限らない。即ち、相関情報F3(r3,s3)の値は、(0,0)とは限らないある位置(r3,s3)において最小になり、さらに、その値は、ある程度大きな値となる。 However, in the image data at time t-3t 0, a region corresponding to the block of interest B 7, which may originally, but it should be region B -311 at the same position as the block of interest B 7, a moving subject P 6902 It is hidden behind and does not exist. Therefore, the value of the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 is minimized when the position (r 3 , s 3 ) is (0,0). The value of the correlation information F 3 (r 3 , s 3 ) is not always the minimum when the position (r 3 , s 3 ) is (0,0). That is, the value of the correlation information F 3 (r 3 , s 3 ) is minimum at a certain position (r 3 , s 3 ) that is not necessarily (0, 0). Become.
この場合、図74のステップS158において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)については、その最小値E33を与える位置(p33,q33)は、(0,0)とは限らないある位置となり、最小値E33は、オフセット値L33よりかなり大きな値になる。同様に、図76のステップS166において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E32を与える位置(p32,q32)は、(0,0)とは限らないある位置となり、最小値E32は、オフセット値L32よりかなり大きな値になる。さらに、図76のステップS168において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E31を与える位置(p31,q31)は、(0,0)とは限らないある位置となり、最小値E31は、オフセット値L31よりかなり大きな値になる。また、図76のステップS170において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E30を与える位置(p30,q30)は、(0,0)とは限らないある位置となり、最小値E30は、オフセット値L30よりかなり大きな値になる。 In this case, the minimum value E 33 of the combined correlation function E (p, q) obtained using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 in step S158 in FIG. The position (p 33 , q 33 ) that gives is a position that is not necessarily (0, 0), and the minimum value E 33 is considerably larger than the offset value L 33 . Similarly, the minimum value E 32 of the combined correlation function E (p, q) obtained using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 in step S166 of FIG. The position (p 32 , q 32 ) that gives is a position that is not necessarily (0, 0), and the minimum value E 32 is considerably larger than the offset value L 32 . Further, in step S168 of FIG. 76, the minimum value E 31 is also set for the combined correlation function E (p, q) obtained using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 as well. The given position (p 31 , q 31 ) is a position that is not necessarily (0,0), and the minimum value E 31 is considerably larger than the offset value L 31 . Further, in step S170 of FIG. 76, the time t-3t 0 correlation information F 3 in (r 3, s 3) is also a synthetic correlation function E obtained (p, q) for even the minimum value E 30 The given position (p 30 , q 30 ) is a certain position that is not necessarily (0, 0), and the minimum value E 30 is considerably larger than the offset value L 30 .
一方、図75のステップS160において、時刻t-3t0における相関情報F3(r3,s3)を用いずに求められる合成相関関数E(p,q)については、その最小値E23を与える位置(p23,q23)は(0,0)となり、最小値E23は、ほぼオフセット値L23に等しくなる。同様に、図75のステップS162において、時刻t-3t0における相関情報F3(r3,s3)を用いずに求められる合成相関関数E(p,q)についても、その最小値E13を与える位置(p13,q13)は(0,0)となり、最小値E13は、ほぼオフセット値L13に等しくなる。さらに、図75のステップS164において、時刻t-3t0における相関情報F3(r3,s3)を用いずに求められる合成相関関数E(p,q)についても、その最小値E03を与える位置(p03,q03)は(0,0)となり、最小値E03は、ほぼオフセット値L03に等しくなる。 On the other hand, in step S160 of FIG. 75, for a time t-3t correlation in 0 information F 3 (r 3, s 3 ) determined without using the synthesized correlation function E (p, q), the minimum value E 23 The given position (p 23 , q 23 ) is (0, 0), and the minimum value E 23 is substantially equal to the offset value L 23 . Similarly, the minimum value E 13 of the combined correlation function E (p, q) obtained without using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 in step S162 in FIG. The position (p 13 , q 13 ) that gives is (0,0), and the minimum value E 13 is substantially equal to the offset value L 13 . Further, in step S164 of FIG. 75, the minimum value E03 is also set for the combined correlation function E (p, q) obtained without using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 . The given position (p 03 , q 03 ) is (0, 0), and the minimum value E 03 is substantially equal to the offset value L 03 .
オフセット値L23,L13,L03は、上述したことから、式L23≦L13≦L03を満たすので、注目ブロックB7については、図77のステップS172において、基本的に、ほぼオフセット値L23となる最小値E23が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(0,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が求められ、カーネルサイズ(h,k)として(2,3)が求められる。 Since the offset values L 23 , L 13 , and L 03 satisfy the formula L 23 ≦ L 13 ≦ L 03 from the above description, the target block B 7 is basically substantially offset in step S172 of FIG. The minimum value E 23 having the value L 23 is detected as the minimum of the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 and the average motion vector (p 0 , (0,0) is obtained as q 0 ). Further, in step S172, (0,0, t 0 ) is obtained as the three-dimensional motion vector (p 0 , q 0 , t 0 ), and (2,3) is obtained as the kernel size (h, k). .
さらに、オフセット値L23は、上述したように、ステップS173における閾値εより小さいので、ほぼオフセット値L23となる最小値E23が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB7については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が得られるとともに、カーネルサイズ(h,k)として(2,3)が得られる。 Further, the offset value L 23, as described above, is smaller than the threshold value ε in step S173, the minimum value E 23, which is substantially offset value L 23 is the minimum value E 33, E 23, E 13 , E 03, E With respect to the target block B 7 detected as the smallest of 32 , E 31 , and E 30, the three-dimensional motion vector (p 0 , q 0 , t 0 ) that becomes the filter information in step S174 of FIG. (0,0, t 0 ) is obtained, and (2,3) is obtained as the kernel size (h, k).
これは、時刻t-ht0からt+kt0、つまり、時刻t-2t0からt+3t0の間は、注目ブロックB7は、(0,0,t0)という速度で移動しているということを示している。 This is because the target block B 7 moves at a speed of (0,0, t 0 ) from time t-ht 0 to t + kt 0 , that is, from time t-2t 0 to t + 3t 0. It shows that there is.
次に、例えば、図71に示した動画データにおいて、ブロックB14が注目ブロックである場合には、上述したように、時刻t+t0,t-t0,t-2t0,t-3t0における画像データそれぞれにおいて、注目ブロックB14と対応する領域B112,B-112,B-212,B-312が存在し、時刻t+t0における相関情報E1(u1,v1)の値は、位置(u1,v1)が(0,0)のときに、時刻t-t0における相関情報F1(r1,s1)の値は、位置(r1,s1)が(0,0)のときに、時刻t-2t0における相関情報F2(r2,s2)の値は、位置(r2,s2)が(0,0)のときに、時刻t-3t0における相関情報F3(r3,s3)の値は、位置(r3,s3)が(0,0)のときに、それぞれ最小になり、ほぼ0となる。
Then, for example, in the moving image data shown in FIG. 71, when the block B 14 is the target block, as described above, at time t + t 0, tt 0, t-
しかしながら、時刻t+2t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B212であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+2t0における相関情報E2(u2,v2)の値が最小になるのは、位置(u2,v2)が(0,0)のときであって欲しいが、相関情報E2(u2,v2)の値は、位置(u2,v2)が(0,0)のときに最小になるとは限らない。即ち、相関情報E2(u2,v2)の値は、(0,0)とは限らないある位置(u2,v2)において最小になり、さらに、その値は、ある程度大きな値となる。 However, in the image data at time t + 2t 0, a region corresponding to the block of interest B 14 is originally, but it should be region B 212 of the block of interest B 14 at the same position, moving the subject P 6902 are It is hidden behind and does not exist. For this reason, the value of the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is minimized when the position (u 2 , v 2 ) is (0,0). The value of the correlation information E 2 (u 2 , v 2 ) is not always the minimum when the position (u 2 , v 2 ) is (0,0). That is, the value of the correlation information E 2 (u 2 , v 2 ) is minimum at a certain position (u 2 , v 2 ) that is not necessarily (0,0). Become.
さらに、時刻t+3t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B312であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+3t0における相関情報E3(u3,v3)の値が最小になるのは、位置(u3,v3)が(0,0)のときであって欲しいが、相関情報E3(u3,v3)の値は、位置(u3,v3)が(0,0)のときに最小になるとは限らない。即ち、相関情報E3(u3,v3)の値は、(0,0)とは限らないある位置(u3,v3)において最小になり、さらに、その値は、ある程度大きな値となる。 Further, in the image data at time t + 3t 0, a region corresponding to the block of interest B 14 is originally but should a region B 312 of the block of interest B 14 at the same position, moving the subject P 6902 are It is hidden behind and does not exist. Therefore, the value of the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is minimized when the position (u 3 , v 3 ) is (0,0). The value of the correlation information E 3 (u 3 , v 3 ) is not always the minimum when the position (u 3 , v 3 ) is (0,0). That is, the value of the correlation information E 3 (u 3 , v 3 ) is minimum at a certain position (u 3 , v 3 ) that is not necessarily (0,0). Become.
この場合、図74のステップS158において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)については、その最小値E33を与える位置(p33,q33)は、(0,0)とは限らないある位置となり、最小値E33は、オフセット値L33よりかなり大きな値になる。同様に、図75のステップS160において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E23を与える位置(p23,q23)は(0,0)とは限らないある位置となり、最小値E23は、オフセット値L23よりかなり大きな値となる。また、図75のステップS162において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E13を与える位置(p13,q13)は、(0,0)とは限らないある位置となり、最小値E13は、オフセット値L13よりかなり大きな値となる。さらに、図75のステップS164において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E03を与える位置(p03,q03)は、(0,0)とは限らないある位置となり、最小値E03は、オフセット値L03よりかなり大きな値となる。 In this case, in step S158 in FIG. 74, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also obtained. For the resultant correlation function E (p, q), the position (p 33 , q 33 ) giving the minimum value E 33 is not necessarily (0,0), and the minimum value E 33 is offset. The value is much larger than the value L 33 Similarly, in step S160 in FIG. 75, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also used. The position (p 23 , q 23 ) that gives the minimum value E 23 is also a position that is not necessarily (0,0), and the minimum value E 23 is an offset value. It becomes a much larger value than L 23. 75, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also obtained. Also for the composite correlation function E (p, q), the position (p 13 , q 13 ) giving the minimum value E 13 is not always (0,0), and the minimum value E 13 is an offset value. It becomes a much larger value than L 13. Further, in step S164 of FIG. 75, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also obtained. Also for the composite correlation function E (p, q), the position (p 03 , q 03 ) giving the minimum value E 03 is not always (0,0), and the minimum value E 03 is an offset value. It is considerably larger than L 03 .
また、図76のステップS166において、時刻t+3t0における相関情報E3(u3,v3)は用いられないが、時刻t+2t0における相関情報E2(u2,v2)を用いて求められる合成相関関数E(p,q)についても、その最小値E32を与える位置(p32,q32)は、(0,0)とは限らないある位置となり、最小値E32は、オフセット値L32よりかなり大きな値になる。 In step S166 of FIG. 76, the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is not used, but the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is used. The position (p 32 , q 32 ) that gives the minimum value E 32 of the composite correlation function E (p, q) obtained by using the position is not always (0,0), and the minimum value E 32 becomes considerably larger than the offset value L 32.
一方、図76のステップS168において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)のいずれも用いられずに求められる合成相関関数E(p,q)については、その最小値E31を与える位置(p31,q31)は(0,0)となり、最小値E31は、ほぼオフセット値L31に等しくなる。同様に、図76のステップS170において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)のいずれも用いられずに求められる合成相関関数E(p,q)についても、その最小値E30を与える位置(p30,q30)は(0,0)となり、最小値E30は、ほぼオフセット値L30に等しくなる。 On the other hand, in step S168 in FIG. 76, neither correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 nor correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is used. The position (p 31 , q 31 ) giving the minimum value E 31 is (0,0), and the minimum value E 31 is almost equal to the offset value L 31 . Will be equal. Similarly, in step S170 of FIG. 76, both correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are used. The position (p 30 , q 30 ) that gives the minimum value E 30 of the composite correlation function E (p, q) obtained without any change is (0, 0), and the minimum value E 30 is almost equal to the offset value L 30. Is equal to
オフセット値L31,L30は、上述したことから、式L31≦L30を満たすので、注目ブロックB14については、図77のステップS172において、基本的に、ほぼオフセット値L31となる最小値E31が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(0,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が求められ、カーネルサイズ(h,k)として(3,1)が求められる。
Since the offset values L 31 and L 30 satisfy the expression L 31 ≦ L 30 from the above description, the block B 14 of interest is basically the minimum that substantially becomes the offset value L 31 in step S172 of FIG. value E 31 is detected as the smallest ones within the minimum E 33, E 23, E 13 , E 03,
さらに、オフセット値L31は、上述したように、ステップS173における閾値εより小さいので、ほぼオフセット値L31となる最小値E31が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB14については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が得られるとともに、カーネルサイズ(h,k)として(3,1)が得られる。 Further, the offset value L 31, as described above, is smaller than the threshold value ε in step S173, the minimum value E 31, which is substantially offset value L 31 is the minimum value E 33, E 23, E 13 , E 03, E For the block of interest B 14 detected as the smallest of 32 , E 31 , and E 30 , in step S174 of FIG. 77, the three-dimensional motion vector (p 0 , q 0 , t 0 ) serving as filter information is obtained. (0,0, t 0 ) is obtained, and (3,1) is obtained as the kernel size (h, k).
これは、時刻t-ht0からt+kt0、つまり、時刻t-3t0からt+t0の間は、注目ブロックB14は、(0,0,t0)という速度で移動しているということを示している。 This is because the target block B 14 moves at a speed of (0,0, t 0 ) from time t-ht 0 to t + kt 0 , that is, from time t-3t 0 to t + t 0. It shows that there is.
次に、例えば、図71に示した動画データにおいて、ブロックB9が注目ブロックである場合には、上述したように、注目ブロックB9では、静止している被写体P6901のある位置において、動いている被写体P6902が、静止している被写体P6901を隠した状態となっているため、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データのいずれにも、注目ブロックB9と対応する領域は存在しない。 Next, for example, in the moving image data shown in FIG. 71, when the block B 9 is the target block, as described above, the target block B 9 moves at a position where the subject P 6901 is stationary. Since the stationary subject P 6902 hides the stationary subject P 6901 , the time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t−2t 0 , t− There is no region corresponding to the target block B 9 in any of the image data at 3t 0 .
このため、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の値は、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データの、注目ブロックB9と最も類似する位置(u1,v1),(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)で、それぞれ最小となるが、その値は、ある程度大きな値となる。 For this reason, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , t at time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) The position (u 1 , v 1 ), (u 2 ) of the image data at t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 that is most similar to the target block B 9 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 ) are the smallest, but the value is somewhat large Value.
この場合、図74のステップS158において求められる合成相関関数E(p,q)については、その最小値E33を与える位置(p33,q33)は、ある位置となり、最小値E33は、オフセット値L33よりかなり大きな値になる。同様に、図75のステップS160において求められる合成相関関数E(p,q)についても、その最小値E23を与える位置(p23,q23)はある位置となり、最小値E23は、オフセット値L23よりかなり大きな値となる。また、図75のステップS162において求められる合成相関関数E(p,q)についても、その最小値E13を与える位置(p13,q13)はある位置となり、最小値E13は、オフセット値L13よりかなり大きな値となる。さらに、図75のステップS164において求められる合成相関関数E(p,q)についても、その最小値E03を与える位置(p03,q03)はある位置となり、最小値E03は、オフセット値L03よりかなり大きな値となる。また、図76のステップS166において求められる合成相関関数E(p,q)についても、その最小値E32を与える位置(p32,q32)はある位置となり、最小値E32は、オフセット値L32よりかなり大きな値になる。さらに、図76のステップS168において求められる合成相関関数E(p,q)についても、その最小値E31を与える位置(p31,q31)はある位置となり、最小値E31は、オフセット値L31よりかなり大きな値になる。また、図76のステップS170において求められる合成相関関数E(p,q)についても、その最小値E30を与える位置(p30,q30)はある位置となり、最小値E30は、オフセット値L30よりかなり大きな値になる。 In this case, for the combined correlation function E (p, q) obtained in step S158 of FIG. 74, the position (p 33 , q 33 ) giving the minimum value E 33 is a certain position, and the minimum value E 33 is It becomes considerably larger than the offset value L 33. Similarly, for the combined correlation function E (p, q) obtained in step S160 of FIG. 75, the position (p 23 , q 23 ) giving the minimum value E 23 is a certain position, and the minimum value E 23 is an offset. It becomes a much larger value than the value L 23. Also, with respect to the composite correlation function E (p, q) obtained in step S162 in FIG. 75, the position (p 13 , q 13 ) giving the minimum value E 13 is a certain position, and the minimum value E 13 is the offset value. It becomes a much larger value than L 13. Further, with respect to the composite correlation function E (p, q) obtained in step S164 of FIG. 75, the position (p 03 , q 03 ) giving the minimum value E 03 is a certain position, and the minimum value E 03 is an offset value. It is considerably larger than L 03 . Also, for the combined correlation function E (p, q) obtained in step S166 of FIG. 76, the position (p 32 , q 32 ) giving the minimum value E 32 is a certain position, and the minimum value E 32 is the offset value. It becomes considerably to a value greater than L 32. Further, with respect to the composite correlation function E (p, q) obtained in step S168 of FIG. 76, the position (p 31 , q 31 ) giving the minimum value E 31 is a certain position, and the minimum value E 31 is an offset value. Much larger than L 31 . Also, for the combined correlation function E (p, q) obtained in step S170 of FIG. 76, the position (p 30 , q 30 ) giving the minimum value E 30 is a certain position, and the minimum value E 30 is the offset value. It becomes considerably to a value greater than L 30.
従って、最小値E33,E23,E13,E03,E32,E31,E30は、いずれもかなり大きな値となり、図77のステップS172において、その中のいずれが最小のものとして選択されたとしても、ステップS173における閾値εより大きくなり(以上となり)、注目ブロックB9については、図77のステップS175において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(p0',q0',t0)が得られるとともに、カーネルサイズ(h,k)として(0,0)が得られる。 Accordingly, the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , and E 30 are all large values, and any of them is selected as the minimum in step S172 of FIG. even if they are, larger than the threshold ε in step S173 (becomes higher), for the block of interest B 9, in step S175 of FIG. 77, three-dimensional motion vectors, which are filter information (p 0, q 0, t 0 ) Is obtained as (p 0 ′, q 0 ′, t 0 ), and (0,0) is obtained as the kernel size (h, k).
これは、時刻t-ht0からt+kt0、つまり、時刻tのタイミングだけにおいて、注目ブロックB9は、(p0',q0',t0)という速度で移動しているということを示している。換言すれば、カーネルサイズ(h,k)が(0,0)ということは、注目ブロックB9に対応する領域が、他のどの時刻における画像データ内にも存在しないということである。 This means that the target block B 9 is moving at a speed of (p 0 ′, q 0 ′, t 0 ) only from time t-ht 0 to t + kt 0 , that is, at the timing of time t. Is shown. In other words, the kernel size (h, k) being (0, 0) means that the area corresponding to the target block B 9 does not exist in the image data at any other time.
なお、(p0',q0')は、最小値E33,E23,E13,E03,E32,E31,E30のうちの最小のものを与える位置(p,q)を表す。また、カーネルサイズ(h,k)が(0,0)のときの(p,q)はダミーデータであり、使用されることはない。 Note that (p 0 ', q 0 ') is a position (p, q) that gives the smallest one of the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30. To express. Further, (p, q) when the kernel size (h, k) is (0,0) is dummy data and is not used.
以上のように、図73乃至図77に示したフローチャートにしたがった処理によれば、注目ブロックについて、フィルタ情報としての3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)が求められ、これにより、注目ブロックについて、「時刻t-ht0からt+kt0の間は、注目ブロックは(p0,q0,t0)という速度で移動している」という結果を得ることが出来る。 As described above, according to the processing according to the flowcharts shown in FIGS. 73 to 77, the three-dimensional motion vector (p 0 , q 0 , t 0 ) as the filter information and the kernel size ( h, k) is obtained, and as a result, for the block of interest, the block of interest is moving at a speed of (p 0 , q 0 , t 0 ) from time t-ht 0 to t + kt 0 Can be obtained.
なお、オフセット値L33,L23,L13,L03,L32,L31,L30が、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たすことにより、基本的には、図77のステップS172において、最小値E33,E23,E13,E03,E32,E31,E30のうちの、hやkの大きい最小値Ehkが選択されやすくなる。これにより、動画データにノイズが含まれ、注目ブロックと、他のフレームの注目ブロックに対応する領域との間に、多少の画素値の違いがあっても、注目ブロックが(p0,q0,t0)という速度で移動しているという範囲(時間)を、過小評価してしまうことを防止することができる。 The offset values L 33 , L 23 , L 13 , L 03 , L 32 , L 31 , and L 30 are the expressions L 33 ≦ L 32 ≦ L 31 ≦ L 30 and the expressions L 33 ≦ L 23 ≦ L 13. By satisfying ≦ L 03 , basically, in step S 172 of FIG. 77, h or k of the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 A large minimum value E hk is easily selected. As a result, even if there is a slight difference in pixel values between the block of interest and the region corresponding to the block of interest in another frame, the block of interest will be (p 0 , q 0 , t 0 ) can be prevented from underestimating the range (time) of moving at a speed of (t 0 ).
次に、図25の主成分方向取得部31が図72に示したように構成されるフィルタ生成部23が、図73乃至図77にしたがった処理を行うことにより、フィルタ生成部23(のフィルタ情報供給部32)からフィルタ部22に対して、フィルタ情報としての3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)が供給される場合、フィルタ部22では、図78に示すフローチャートにしたがった処理が、図26のステップS3の処理として行われる。
Next, the filter generation unit 23 in which the principal component
即ち、ステップS191において、フィルタ部22は、フィルタ情報供給部32からフィルタ情報として供給される3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)を受信することにより取得し、ステップS192に進む。
That is, in step S191, the
ステップS192では、フィルタ部22は、時刻tのフレームの注目ブロック内の位置(x,y)における画素の画素値C(t,x,y)を、例えば、時刻t-3t0乃至t+3t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)のうちの、カーネルサイズ(h,k)に応じた時刻(フレーム)の範囲の画素値を用いた演算により求めるフィルタリングを行う。なお、D(t,x,y)は、フィルタリングに用いる動画データの時刻tの位置(x,y)における画素値を表す。
In step S192, the
即ち、ステップS192では、フィルタ部22は、フィルタリング、つまり、注目ブロック内の位置(x,y)における画素の画素値C(t,x,y)の演算を、カーネルサイズ(h,k)によって表される、動きベクトル(p0,q0,t0)の有効範囲内のフレームの画素値のみを用いて行う。
That is, in step S192, the
具体的には、ステップS192では、フィルタ部22は、カーネルサイズ(h,k)が(3,3)である場合、時刻t-3t0乃至t+3t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(1)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。この場合、図68のステップS132における場合と同様にして、注目ブロックの主成分方向に延びる、T方向の幅が2π/(4t0)の領域を通過帯域とするフィルタによるフィルタリングが行われる。
Specifically, in step S192, when the kernel size (h, k) is (3, 3), the
また、フィルタ部22は、カーネルサイズ(h,k)が(2,3)である場合、時刻t-3t0における画素の画素値D(t-3t0,x-3p0,y-3q0)は用いずに、時刻t-2t0乃至t+3t0における画素の画素値D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(2)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。
In addition, when the kernel size (h, k) is (2,3), the
さらに、フィルタ部22は、カーネルサイズ(h,k)が(1,3)である場合、時刻t-3t0における画素の画素値D(t-3t0,x-3p0,y-3q0)、および時刻t-2t0における画素の画素値D(t-2t0,x-2p0,y-2q0)は用いずに、時刻t-t0乃至t+3t0における画素の画素値D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(3)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。
Further, when the kernel size (h, k) is (1,3), the
また、フィルタ部22は、カーネルサイズ(h,k)が(0,3)である場合、時刻t-3t0における画素の画素値D(t-3t0,x-3p0,y-3q0)、時刻t-2t0における画素の画素値D(t-2t0,x-2p0,y-2q0)、および時刻t-t0における画素の画素値D(t-t0,x-p0,y-q0)は用いずに、時刻t乃至t+3t0における画素の画素値D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(4)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。
In addition, when the kernel size (h, k) is (0,3), the
同様に、フィルタ部22は、カーネルサイズ(h,k)が(3,2)である場合、時刻t+3t0における画素の画素値D(t+3t0,x+3p0,y+3q0)は用いずに、時刻t-3t0乃至t+2t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0)を用い、例えば、式(5)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。
Similarly, when the kernel size (h, k) is (3, 2), the
さらに、フィルタ部22は、カーネルサイズ(h,k)が(3,1)である場合、時刻t+3t0における画素の画素値D(t+3t0,x+3p0,y+3q0)、および時刻t+2t0における画素の画素値D(t+2t0,x+2p0,y+2q0)は用いずに、時刻t-3t0乃至t+t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0)を用い、例えば、式(6)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。
Further, when the kernel size (h, k) is (3, 1), the
また、フィルタ部22は、カーネルサイズ(h,k)が(3,0)である場合、時刻t+3t0における画素の画素値D(t+3t0,x+3p0,y+3q0)、時刻t+2t0における画素の画素値D(t+2t0,x+2p0,y+2q0)、および時刻t+t0における画素の画素値D(t+t0,x+p0,y+q0)は用いずに、時刻t-3t0乃至tにおける画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y)を用い、例えば、式(7)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。
In addition, when the kernel size (h, k) is (3,0), the
一方、カーネルサイズ(h,k)が(0,0)である場合は、注目ブロックと同一の(画像の)領域(注目ブロックに対応する領域)が、他の時刻t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0の画像に存在しない場合であり、この場合、時間方向のフィルタリングは、画質の劣化をもたらすので、注目ブロックのフレーム(注目フレーム)、即ち、時刻tにおける画素の画素値D(t,x,y)のみを用い、例えば、式(8)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。なお、式(8)は、フィルタリングを行わないことと等価である。 On the other hand, when the kernel size (h, k) is (0,0), the same area (image area) as the target block (area corresponding to the target block) is set to other times t-3t 0 , t- 2t 0 , tt 0 , t + t 0 , t + 2t 0 , and t + 3t 0 are not present in this case. In this case, temporal filtering results in degradation of image quality. (Frame of interest), that is, using only the pixel value D (t, x, y) of the pixel at time t, for example, the pixel value C (t, x, y) of the block of interest is calculated according to equation (8). Do. Equation (8) is equivalent to not performing filtering.
ここで、注目ブロックに対応する領域が、他の時刻t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0の画像に存在しない場合としては、例えば、注目ブロック内に投影されている被写体の移動速度が、人間が認識することができないほど高速である場合や、注目ブロック内に投影されている被写体が、時刻tのフレーム(注目フレーム)にだけ突然現れた場合などがある。 Here, as a case where the region corresponding to the block of interest does not exist in the images at other times t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0 , For example, when the moving speed of the subject projected in the block of interest is so high that humans cannot recognize it, or the subject projected in the block of interest is in the frame at time t (frame of interest). There are cases where it only appears suddenly.
また、相関情報や合成相関情報の最小値を求めることは、いわゆるブロックマッチングにより動きベクトルを検出することに相当するが、注目ブロック内に投影されている被写体が、ブロックマッチングにおける探索範囲を超えて移動してしまっている場合も、注目ブロックに対応する領域が、他の時刻t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0の画像に存在しない場合に該当する。 Finding the minimum value of correlation information or composite correlation information is equivalent to detecting a motion vector by so-called block matching, but the subject projected in the target block exceeds the search range in block matching. Even if it has moved, the area corresponding to the block of interest is displayed in the images at other times t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0 . Applicable when it does not exist.
なお、ステップS192において、画素値C(t,x,y)の演算としてのフィルタリングは、時間方向のサンプル数を1/4に間引くダウンサンプリングを行いながら、即ち、4フレームごとに1フレームの割合で行われる。 In step S192, the filtering as the calculation of the pixel value C (t, x, y) is performed while down-sampling that thins out the number of samples in the time direction to 1/4, that is, the ratio of one frame every four frames. Done in
ステップS192の処理後は、ステップS193に進み、フィルタ部22は、フィルタリング結果、即ち、ステップS192におけるフィルタリング結果(式(1)乃至(8)のうちのいずれかの演算結果)である画素値C(t,x,y)を、時刻tの位置(x,y)における画素値として、エンコード部24に出力する。
After the process of step S192, the process proceeds to step S193, and the
以上のように、第2の動き検出処理(図73乃至図77のステップS151乃至S176の処理のうちの、ステップS151乃至S172の処理)では、第1の動き検出処理と同様に、フィルタの通過帯域のT方向の幅である2π/(4t0)に相当する複数のフレームそれぞれとの相関を表す複数の相関情報を用いることによって、注目ブロックから複数のフレームへの、いわば平均的な動きを表す平均動きベクトルを求めるが、その際に、注目ブロックに対応する領域が存在しないフレームについての相関情報を用いないようにしたので、注目ブロックの平均的な動きを正確に表す平均動きベクトルを求めることができ、さらに、注目ブロックについて、正確な主成分方向を求めることができる。 As described above, in the second motion detection process (the processes in steps S151 to S172 of the processes in steps S151 to S176 in FIGS. 73 to 77), the filter passes as in the first motion detection process. By using multiple pieces of correlation information representing the correlation with each of multiple frames corresponding to the width in the T direction of the band, 2π / (4t 0 ), the average movement from the target block to multiple frames can be said. The average motion vector that represents the average motion of the target block is calculated because the correlation information is not used for the frame in which the region corresponding to the target block does not exist. Furthermore, an accurate principal component direction can be obtained for the block of interest.
また、第2の動き検出処理では、カーネルサイズ(h,k)を出力し、フィルタ部22でのフィルタリングにおいては、そのカーネルサイズ(h,k)に対応した範囲のフレームの画素だけを用いるようにしたので、即ち、注目ブロックに対応する領域が存在しないフレームの画素を用いないようにしたので、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることができる。
In the second motion detection process, the kernel size (h, k) is output, and only the pixels of the frame in the range corresponding to the kernel size (h, k) are used for filtering in the
次に、図24の画像処理システムにおいて、表示装置3が1/t0のフレームレートを有する場合には、受信装置2が出力する1/t0のフレームレートの動画を表示することができるが、表示装置3が、1/t0以外のフレームレートを有する場合には、受信装置2が出力する1/t0のフレームレートの動画を表示することが困難となる。
Then, in the image processing system of FIG. 24, when the
そこで、図79は、表示装置3において、それが有するフレームレートに応じた動画を表示することができるエンコードデータを出力する図24の送信装置1の構成例を示している。
Therefore, FIG. 79 shows a configuration example of the
なお、図79において、図25における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図79の送信装置1は、フィルタ部22に代えて、フィルタ部202が設けられている他は、図25における場合と同様に構成されている。
79, parts corresponding to those in FIG. 25 are denoted by the same reference numerals, and description thereof will be omitted as appropriate. That is, the
フィルタ部202は、周波数ドメインにおいて、フレームレート1/t0の動画データの各部分(各ブロック)の主成分方向に延びる領域であって、T方向に幅2π/(4t0)を有する領域を通過帯域として、フレームレート1/t0の動画データをフィルタリングするとともに、時間方向に1/4のダウンサンプリングすることにより、複数の周波数成分に分割された、フレームレート1/(4t0)の動画データを得て、エンコード部24に出力する。従って、フィルタ部202でのフィルタリングは、複数の周波数成分に分割された動画データが得られる点で、そのような複数の周波数成分に分割されていない動画データが得られる図25のフィルタ部22でのフィルタリングと異なる。
The
次に、フィルタ部202でのフィルタリングの詳細について説明するが、その前に、表示装置3があるフレームレートを有する場合の、その表示装置3の表示能力について説明する。
Next, the details of filtering in the
図80は、表示装置3が、例えば、1/t0のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の表示能力としての領域R8001を表している。
FIG. 80 shows a region R as a display capability when the
領域R8001は、周波数ドメイン上において、X,Y方向がそれぞれ−π/r0から+π/r0の範囲で、T方向が−π/t0から+π/t0の範囲の直方体状の領域である。表示装置3が、1/t0のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合においては、領域R8001内の周波数成分のデータを表示することができる。
Region R 8001 is a rectangular parallelepiped region in which the X and Y directions are in the range of −π / r 0 to + π / r 0 and the T direction is in the range of −π / t 0 to + π / t 0 on the frequency domain. It is. When the
図81は、表示装置3が、例えば、1/(4t0/3)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の表示能力としての領域R8101を表している。
Figure 81 is a
領域R8101は、周波数ドメイン上において、X,Y方向がそれぞれ−π/r0から+π/r0の範囲で、T方向が−π/(4t0/3)から+π/(4t0/3)の範囲の直方体状の領域である。表示装置3が、1/(4t0/3)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合においては、領域R8101内の周波数成分のデータを表示することができる。
Region R 8101, in a frequency domain, X, in the range in the Y direction, respectively - [pi] / r 0 from the + π / r 0, T direction -π / (4t 0/3) from + π / (4t 0/3 ) Is a rectangular parallelepiped region. The
図82は、表示装置3が、例えば、1/(2t0)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の表示能力としての領域R8201を表している。
FIG. 82 shows the display capability when the
領域R8201は、周波数ドメイン上において、X,Y方向がそれぞれ−π/r0から+π/r0の範囲で、T方向が−π/(2t0)から+π/(2t0)の範囲の直方体状の領域である。表示装置3が、1/(2t0)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合においては、領域R8201内の周波数成分のデータを表示することができる。
The region R 8201 has, on the frequency domain, the X and Y directions are in the range of −π / r 0 to + π / r 0 and the T direction is in the range of −π / (2t 0 ) to + π / (2t 0 ). It is a rectangular parallelepiped area. When the
図83は、表示装置3が、例えば、1/(4t0)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の表示能力としての領域R8301を表している。
FIG. 83 shows the display capability when the
領域R8301は、周波数ドメイン上において、X,Y方向がそれぞれ−π/r0から+π/r0の範囲で、T方向が−π/(4t0)から+π/(4t0)の範囲の直方体状の領域である。表示装置3が、1/(4t0)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合においては、領域R8301内の周波数成分のデータを表示することができる。
The region R 8301 has, on the frequency domain, the X and Y directions are in the range of −π / r 0 to + π / r 0 , and the T direction is in the range of −π / (4t 0 ) to + π / (4t 0 ). It is a rectangular parallelepiped area. When the
図79の送信装置1のフィルタ部202では、フレームレート1/t0の動画データをフィルタリングすることにより、表示装置3(図24)が、例えば、図80乃至図83それぞれで説明したいずれの表示能力を有する場合であっても、その表示能力の範囲で最適な表示を行うことができるように、複数の周波数成分に適切(最適に)に分割されたフレームレート1/(4t0)の動画データを得る。
79 filters the moving image data of the
ところで、上述したように、動画の中で静止している被写体が投影されている部分については、人間は、図20に示した領域R1001内のデータしか認識しない。また、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、人間は、図21に示した領域R1101内のデータしか認識しない。さらに、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、人間は、図22に示した領域R1201内のデータしか認識しない。また、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、人間は、図23に示した領域R1301内のデータしか認識しない。動画において、この他の速度で移動している動被写体についても、同様である。 By the way, as described above, the human recognizes only the data in the region R 1001 shown in FIG. 20 for the portion where the stationary subject is projected in the moving image. Further, regarding a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 ) / 2”, the human being has the data in the region R 1101 shown in FIG. Only recognize. Furthermore, for a portion of the moving image where the subject projected on the moving image moves at a speed of about “r 0 / t 0 ”, a human recognizes only the data in the region R 1201 shown in FIG. Further, for a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, a human recognizes only data in the region R 1301 shown in FIG. The same applies to moving subjects moving at other speeds in moving images.
従って、動画を表示するにあたり、その動画における被写体の移動速度に応じて、例えば、図20の領域R1001内のデータや、図21の領域R1101内のデータ、図22の領域R1201内のデータ、図23に示した領域R1301内のデータが存在すれば、人間は、動画の画質の劣化を認識しないので、そのような領域内のデータがあれば十分である。 Accordingly, when displaying a moving image, depending on the moving speed of the subject in the moving image, for example, data in the region R 1001 in FIG. 20, data in the region R 1101 in FIG. 21, and data in the region R 1201 in FIG. If there is data, data in the region R 1301 shown in FIG. 23, humans do not recognize the degradation of the image quality of the moving image, so it is sufficient that there is data in such a region.
一方、表示装置3が、図80の領域R8001内の周波数成分のデータを表示することができる表示能力を有する場合には、その領域R8001外の(周波数成分)のデータは不要であり、領域R8001内のデータがあれば十分である。
On the other hand, when the
同様に、表示装置3が、図81の領域R8101内の周波数成分のデータを表示することができる表示能力を有する場合には、その領域R8101外のデータは不要であり、領域R8101内のデータがあれば十分である。
Similarly, the
さらに、表示装置3が、図82の領域R8201内の周波数成分のデータを表示することができる表示能力を有する場合には、その領域R8201外のデータは不要であり、領域R8201内のデータがあれば十分である。
Further, the
また、表示装置3が、図83の領域R8301内の周波数成分のデータを表示することができる表示能力を有する場合には、その領域8301外のデータは不要であり、領域8301内のデータがあれば十分である。
Further, in the case where the
そこで、図79のフィルタ部202は、図80乃至図83で説明した表示能力それぞれを有する表示装置3に対処するために、図25のフィルタ部22と同様のフィルタリングを行う他、さらに、図83の領域R8301内の周波数成分、図83の領域R8301外であって図82の領域R8201内の周波数成分、図82の領域R8201外であって図81のR8101内の周波数成分、および図81のR8101外であって図80の領域R8001内の周波数成分の4つの周波数成分のデータに分割するフィルタリングを行う。
Therefore, the
ここで、以下、適宜、上述の4つの周波数成分のデータのうちの、図83の領域R8301内の周波数成分のデータを、「低域成分動画データ」という。また、図83の領域R8301外であって図82の領域R8201内の周波数成分のデータを、「中低域成分動画データ」といい、図82の領域R8201外であって図81の領域R8101内の周波数成分のデータを、「中高域成分動画データ」という。さらに、図81の領域R8101外であって図80の領域R8001内の周波数成分のデータを、「高域成分動画データ」という。 Here, the frequency component data in the region R 8301 in FIG. 83 among the above-described four frequency component data will be referred to as “low-frequency component moving image data”. Also, the frequency component data outside the region R 8301 in FIG. 83 and within the region R 8201 in FIG. 82 is referred to as “middle low frequency component moving image data”, and outside the region R 8201 in FIG. The frequency component data in the region R 8101 is referred to as “middle and high frequency component moving image data”. Further, the frequency component data outside the region R 8101 in FIG. 81 and within the region R 8001 in FIG. 80 is referred to as “high frequency component moving image data”.
次に、動画データの各部分における「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」について説明する。 Next, “low frequency component video data”, “middle low frequency component video data”, “middle and high frequency component video data”, and “high frequency component video data” in each part of the video data will be described.
動画の中で静止している被写体が投影されている部分については、図20の領域R1001内のデータがあれば十分である。そして、図20の領域R1001は、図83の領域R8301に等しく、従って、図20の領域R1001のデータは、図83の領域R8301外には存在しない。従って、動画の中で静止している被写体が投影されている部分については、図20の領域R1001のデータのすべてが、「低域成分動画データ」であり、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」は、いずれも存在しない(0である)。 For the portion of the moving image where a stationary subject is projected, it is sufficient if there is data in the region R 1001 in FIG. The area R 1001 in FIG. 20 is equal to the area R 8301 in FIG. 83, and therefore the data of the area R 1001 in FIG. 20 does not exist outside the area R 8301 in FIG. Therefore, for the portion of the moving image where the stationary subject is projected, all of the data in the region R 1001 in FIG. 20 is “low-frequency component moving image data”, and “middle-low-frequency component moving image data”. , “Middle and high frequency component moving image data” and “high frequency component moving image data” do not exist (is 0).
次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図21の領域R1101内のデータがあれば十分である。そして、図21の領域R1101は、T方向が、図82の領域R8201からはみ出すが、図81の領域R8101には含まれる。 Next, with respect to a portion of the moving image where the subject projected on the moving image is moving at a speed of “(r 0 / t 0 ) / 2”, it is sufficient that there is data in the region R 1101 in FIG. It is. In addition, the region R 1101 in FIG. 21 has a T direction that protrudes from the region R 8201 in FIG. 82, but is included in the region R 8101 in FIG.
従って、速度「(r0/t0)/2」程度で動いている部分については、図84に示すように、図21の領域R1101内のデータのうちの、図83の領域R8301内のデータである領域R8401のデータが、「低域成分動画データ」である。 Accordingly, as shown in FIG. 84, the portion moving at a speed of “(r 0 / t 0 ) / 2” is within the region R 8301 in FIG. 83 of the data in the region R 1101 in FIG. The data of the region R 8401 that is the data is “low-frequency component moving image data”.
また、図85に示すように、図21の領域R1101内のデータのうちの、図83の領域R8301外であって図82の領域R8201内のデータである領域R8501のデータが、「中低域成分動画データ」である。 Also, as shown in FIG. 85, of the data in the region R 1101 in FIG. 21, the data in the region R 8501 that is outside the region R 8301 in FIG. 83 and is in the region R 8201 in FIG. “Middle and low range moving image data”.
さらに、図86に示すように、図21の領域R1101内のデータのうちの、図82の領域R8201外(であって図81の領域R8101内)のデータである領域R8601のデータが、「中高域成分動画データ」である。 Further, as shown in FIG. 86, the data in the region R 8601 which is the data outside the region R 8201 in FIG. 82 (and in the region R 8101 in FIG. 81) among the data in the region R 1101 in FIG. Is “middle and high frequency component moving image data”.
なお、図21の領域R1101は、T方向が、図81の領域R8101に含まれ、従って、図81の領域R8101外のデータは存在しないので、速度「(r0/t0)/2」程度で動いている部分については、「高域成分動画データ」は存在しない。 Note that the region R 1101 in FIG. 21 includes the direction T in the region R 8101 in FIG. 81, and therefore there is no data outside the region R 8101 in FIG. 81, so the speed “(r 0 / t 0 ) / There is no “high-frequency component moving image data” for a portion that moves at about “2”.
次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)」程度で動いている部分については、図22の領域R1201内のデータがあれば十分である。そして、図22の領域R1201は、T方向が、図80の領域R8001の境界まで存在する。 Next, with respect to a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 )”, it is sufficient if there is data in the region R 1201 in FIG. . In the region R 1201 in FIG. 22, the T direction exists up to the boundary of the region R 8001 in FIG.
従って、速度「(r0/t0)」程度で動いている部分については、図87に示すように、図22の領域R1201内のデータのうちの、図83の領域R8301内のデータである領域R8701のデータが、「低域成分動画データ」である。 Accordingly, as shown in FIG. 87, the portion moving at the speed “(r 0 / t 0 )” is the data in the region R 8301 in FIG. 83 among the data in the region R 1201 in FIG. The data of the region R 8701 is “low-frequency component moving image data”.
また、図88に示すように、図22の領域R1201内のデータのうちの、図83の領域R8301外であって図82の領域R8201内のデータである領域R8801のデータが、「中低域成分動画データ」である。 As shown in FIG. 88, the data in the region R 8801 outside the region R 8301 in FIG. 83 and the data in the region R 8201 in FIG. 82 out of the data in the region R 1201 in FIG. “Middle and low range moving image data”.
さらに、図89に示すように、図22の領域R1201内のデータのうちの、図82の領域R8201外であって図81の領域R8101内のデータである領域R8901のデータが、「中高域成分動画データ」である。 Further, as shown in FIG. 89, the data in the region R 8901 outside the region R 8201 in FIG. 82 and within the region R 8101 in FIG. 81 out of the data in the region R 1201 in FIG. “Middle and high frequency component moving image data”.
また、図90に示すように、図22の領域R1201内のデータのうちの、図81の領域R8101外(であって図80の領域R8001内)のデータである領域R9001のデータが、「高域成分動画データ」である。 Also, as shown in FIG. 90, among the data in the region R 1201 in FIG. 22, the data in the region R 9001 that is the data outside the region R 8101 in FIG. 81 (and in the region R 8001 in FIG. 80). Is “high-frequency component moving image data”.
次に、動画の中で、そこに投影されている被写体が速度「(2r0/t0)」程度で動いている部分については、図23の領域R1301内のデータがあれば十分である。そして、図23の領域R1301は、T方向が、図80の領域R8001の境界まで存在する。 Next, with respect to the portion of the moving image where the subject projected on the moving image moves at a speed of “(2r 0 / t 0 )”, it is sufficient if there is data in the region R 1301 in FIG. . In the region R 1301 in FIG. 23, the T direction exists up to the boundary of the region R 8001 in FIG.
従って、速度「(2r0/t0)」程度で動いている部分については、図91に示すように、図23の領域R1301内のデータのうちの、図83の領域R8301内のデータである領域R9101のデータが、「低域成分動画データ」である。 Accordingly, as shown in FIG. 91, the data in the region R 8301 in FIG. 83 among the data in the region R 1301 in FIG. 83 is shown for the portion moving at the speed “(2r 0 / t 0 )”. The data of the region R 9101 is “low-frequency component moving image data”.
また、図92に示すように、図23の領域R1301内のデータのうちの、図83の領域R8301外であって図82の領域R8201内のデータである領域R9201のデータが、「中低域成分動画データ」である。 Also, as shown in FIG. 92, the data in the area R 9201 outside the area R 8301 in FIG. 83 and the data in the area R 8201 in FIG. 82 out of the data in the area R 1301 in FIG. “Middle and low range moving image data”.
さらに、図93に示すように、図23の領域R1301内のデータのうちの、図82の領域R8201外であって図81の領域R8101内のデータである領域R9301のデータが、「中高域成分動画データ」である。 Further, as shown in FIG. 93, of the data in the region R 1301 in FIG. 23, the data in the region R 9301 outside the region R 8201 in FIG. 82 and in the region R 8101 in FIG. “Middle and high frequency component moving image data”.
また、図94に示すように、図23の領域R1301内のデータのうちの、図81の領域R8101外(であって図80の領域R8001内)のデータである領域R9401のデータが、「高域成分動画データ」である。 Further, as shown in FIG. 94, the data in the region R 9401 which is the data outside the region R 8101 in FIG. 81 (and in the region R 8001 in FIG. 80) among the data in the region R 1301 in FIG. Is “high-frequency component moving image data”.
次に、図95乃至図97のフローチャートを参照して、図79の送信装置1の処理について説明する。
Next, processing of the
バッファ部21には、フレームレート1/t0が、例えば、240fpsの高フレームレートの動画データが供給されて順次記憶される。
The
そして、ステップS201とS202において、図26のステップS1とS2における場合とそれぞれ同様の処理が行われる。 In steps S201 and S202, the same processing as in steps S1 and S2 of FIG. 26 is performed.
即ち、ステップS201において、フィルタ生成部23は、バッファ部21に記憶された動画データを読み出して、自身(フィルタ生成部23)に入力し、ステップS202に進む。
That is, in step S201, the filter generation unit 23 reads out the moving image data stored in the
ステップS202では、フィルタ生成部23(の主成分方向取得部31およびフィルタ情報供給部32)が、ステップS201で入力された動画データの各部分(例えば、各ブロック)について、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部202に供給する、上述の図31などで説明した「必要な情報の通過帯域を求める処理」を行い、ステップS203に進む。
In step S202, the filter generation unit 23 (the principal component
ここで、ステップS202で求められるフィルタの通過帯域を、以下、適宜、基本帯域という。 Here, the pass band of the filter obtained in step S202 is hereinafter referred to as a basic band as appropriate.
ステップS203では、フィルタ部202が、バッファ部21から、ステップS202でフィルタ生成部23から供給されたフィルタ情報のフィルタによるフィルタリングに用いるデータを読み出し、そのデータに対して、ステップS202でフィルタ生成部23から供給されたフィルタ情報が表す基本帯域の周波数成分を通過させ、かつ、図83の領域R8301の周波数成分を通過させるフィルタを適用しながら、時間方向のサンプル数を1/4に間引くダウンサンプリングを行う。
In step S203, the
そして、ステップS203からS204に進み、フィルタ部202は、ステップS203のフィルタリングおよびダウンサンプリングによって得られるデータ、即ち、フレームレート1/(4t0)の「低域成分動画データ」を、エンコード部24に出力して、図96のステップS205に進む。
Then, the process proceeds from step S203 to S204, and the
ステップS205では、フィルタ部202が、ステップS203でバッファ部21から読み出したデータに対して、ステップS202でフィルタ生成部23から供給されたフィルタ情報が表す基本帯域の周波数成分を通過させるとともに、図82の領域R8201の周波数成分を通過させるが、図83の領域R8301の周波数成分は通過させないフィルタ(帯域制限フィルタ)を適用しながら、時間方向のサンプル数を1/4に間引くダウンサンプリングを行う。
In step S205, the
そして、ステップS205からS206に進み、フィルタ部202は、ステップS205のフィルタリングおよびダウンサンプリングによって得られるデータ、即ち、フレームレート1/(4t0)の「中低域成分動画データ」を、エンコード部24に出力して、ステップS207に進む。
Then, the process proceeds from step S205 to S206, and the
ステップS207では、フィルタ部202が、ステップS203でバッファ部21から読み出したデータに対して、ステップS202でフィルタ生成部23から供給されたフィルタ情報が表す基本帯域の周波数成分を通過させるとともに、図81の領域R8101の周波数成分を通過させるが、図82の領域R8201の周波数成分は通過させないフィルタを適用しながら、時間方向のサンプル数を1/4に間引くダウンサンプリングを行う。
In step S207, the
そして、ステップS207からS208に進み、フィルタ部202は、ステップS207のフィルタリングおよびダウンサンプリングによって得られるデータ、即ち、フレームレート1/(4t0)の「中高域成分動画データ」を、エンコード部24に出力して、図97のステップS209に進む。
Then, the process proceeds from step S207 to S208, and the
ステップS209では、フィルタ部202が、ステップS203でバッファ部21から読み出したデータに対して、ステップS202でフィルタ生成部23から供給されたフィルタ情報が表す基本帯域の周波数成分を通過させるとともに、図80の領域R8001の周波数成分を通過させるが、図81の領域R8101の周波数成分は通過させないフィルタを適用しながら、時間方向のサンプル数を1/4に間引くダウンサンプリングを行う。
In step S209, the
そして、ステップS209からS210に進み、フィルタ部202は、ステップS209のフィルタリングおよびダウンサンプリングによって得られるデータ、即ち、フレームレート1/(4t0)の「高域成分動画データ」を、エンコード部24に出力する。
Then, the process proceeds from step S209 to step S210. The
エンコード部24では、フィルタ部202からの、4つの周波数成分に分割されたフレームレート1/(4t0)の動画データ、即ち、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」それぞれが必要に応じてエンコードされ、さらに多重化されて、エンコードデータとして出力される。このエンコードデータは、図24で説明したように、記録媒体11に記録され、あるいは、伝送媒体12を介して伝送される。
In the
なお、ステップS202乃至S210の処理は、バッファ部21に記憶された動画の各部分(各ブロック)のデータすべてについて行われる。
Note that the processing in steps S202 to S210 is performed for all data of each part (each block) of the moving image stored in the
また、ステップS203,S205,S207,S209におけるダウンサンプリングは、バッファ部21に記憶された動画データの4フレームごとに、1フレームのフィルタリング結果を出力する処理である。従って、フィルタ部202では、バッファ部21に記憶された動画データの4フレームごとに、その4フレームのうちの1フレームついてフィルタリングを行えば良い。
Further, the downsampling in steps S203, S205, S207, and S209 is a process of outputting a filtering result of one frame for every four frames of moving image data stored in the
さらに、図79の送信装置1のエンコード部24においては、図25における場合と同様に、動画の各部分のデータに適用したフィルタのフィルタ情報としての基本帯域を表す、例えば、図20の領域R1001や、図21の領域R1301、図22の領域R1301、図23の領域R1301の情報や、その領域R1001,R1301,R1301,R1301の主成分方向の情報を、エンコードデータに多重化して出力するようにすることができる。
Further, in the
以上のように、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301等の基本帯域を、表示装置3の表示能力を表す図80の領域R8001や、図81の領域R8101、図82の領域R8201、図83の領域R8301で制限した帯域を通過帯域として、動画データをフィルタリングするとともに、ダウンサンプリングを行うようにしたので、人間の目の視覚効果を考慮した動画データの削減を行うことができ、さらに、図80の領域R8001や、図81の領域R8101、図82の領域R8201、図83の領域R8301によって表される表示能力を有する表示装置3にとって適切に分割された動画データを得ることができる。
As described above, regions that can be recognized by humans on the frequency domain, that is, for example, region R 1001 in FIG. 20, region R 1101 in FIG. 21, region R 1201 in FIG. 22, region R 1301 in FIG. 80, a band limited by a region R 8001 in FIG. 80, a region R 8101 in FIG. 81, a region R 8201 in FIG. 82, and a region R 8301 in FIG. Since the moving image data is filtered and downsampling is performed, the moving image data can be reduced in consideration of the visual effect of the human eye. Further, the region R 8001 in FIG. 80 and the region in FIG. Moving image data appropriately divided for the
次に、図98乃至図109は、図95乃至図97のフローチャートにしたがった処理によって得られる「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」それぞれの周波数ドメイン上の分布を示している。 Next, FIGS. 98 to 109 show “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, “ The distribution on the frequency domain of each “high frequency component moving image data” is shown.
まず、動画の中で静止している被写体が投影されている部分については、図20の領域R1001が基本帯域である。そして、図20の領域R1001のデータについては、上述したように、そのすべてが、「低域成分動画データ」であり、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」は、いずれも存在しない。即ち、フィルタリング後の動画データは、領域R1001の「低域成分動画データ」のみである。 First, for a portion of a moving image where a stationary subject is projected, a region R 1001 in FIG. 20 is a basic band. As described above, all of the data in the region R 1001 in FIG. 20 is “low frequency component video data”, “middle low frequency component video data”, “middle high frequency component video data”, and None of the “high frequency component moving image data” exists. That is, the moving image data after filtering is only “low-frequency component moving image data” in the region R 1001 .
領域R1001のデータである「低域成分動画データ」を、時間方向に1/4にダウンサンプリングすると、そのダウンサンプリング後のデータは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the “low-range component video data” that is the data of region R 1001 is downsampled to 1/4 in the time direction, the data after downsampling is sampled at r 0 intervals in the spatial direction x, y In the time direction t, the data is sampled at 4 × t 0 intervals.
このため、図98に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 For this reason, as shown in FIG. 98, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.
但し、領域R1001は、図10で説明したことから、X,Y方向が2π/r0で、T方向が2π/(4t0)の、原点を中心とする長方形(直方体)状の領域であるため、折り返し成分どうしは重ならない。 However, since the region R 1001 has been described with reference to FIG. 10, the region R 1001 is a rectangular (cuboid) region centered at the origin, in which the X and Y directions are 2π / r 0 and the T direction is 2π / (4t 0 ). Therefore, the folding components do not overlap.
なお、図98において、影を付してある部分が、ダウンサンプリング後の「低域成分動画データ」が存在する部分である。 In FIG. 98, the shaded portion is the portion where the “low-frequency component moving image data” after down-sampling exists.
次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図21の領域R1101が基本帯域である。そして、図21の領域R1101のデータについては、上述したように、そのうちの、図84の領域R8401のデータが、「低域成分動画データ」であり、図85の領域R8501のデータが、「中低域成分動画データ」であり、図86の領域R8601のデータが、「中高域成分動画データ」である。また、図21の領域R1101のデータについては、「高域成分動画データ」は存在しない。 Next, for a portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2”, a region R 1101 in FIG. 21 is a basic band. As for the data in the region R 1101 in FIG. 21, as described above, the data in the region R 8401 in FIG. 84 is “low-frequency component moving image data”, and the data in the region R 8501 in FIG. , “Middle and low range component moving image data”, and the data in region R 8601 in FIG. 86 is “middle and high range component moving image data”. Further, “high-frequency component moving image data” does not exist for the data in the region R 1101 in FIG.
図84の領域R8401のデータである「低域成分動画データ」、図85の領域R8501のデータである「中低域成分動画データ」、図86の領域R8601のデータである「中高域成分動画データ」を、時間方向に1/4にダウンサンプリングすると、そのダウンサンプリング後のデータは、いずれも、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 84. “Low-frequency component moving image data” that is data in region R 8401 in FIG. 84, “Middle and low-frequency component moving image data” that is data in region R 8501 in FIG. 85, and “Middle and high-frequency data that is data in region R 8601 in FIG. When `` component video data '' is downsampled to 1/4 in the time direction, the data after the downsampling is sampled at intervals of r 0 in the spatial direction x, y, and in the time direction t Becomes data sampled at intervals of 4 × t 0 .
このため、図84の領域R8401のデータである「低域成分動画データ」については、図99に示すように、図85の領域R8501のデータである「中低域成分動画データ」については、図100に示すように、図86の領域R8601のデータである「中高域成分動画データ」については、図101に示すように、それぞれ、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, with regard to “low frequency component moving image data” that is data of region R 8401 in FIG. 84, as shown in FIG. 99, about “middle low frequency component moving image data” that is data of region R 8501 in FIG. As shown in FIG. 100, the “middle and high frequency component moving image data” that is the data of the region R 8601 in FIG. 86 is 2π in the X and Y directions on the frequency domain, respectively, as shown in FIG. Folding components occur at intervals of / r 0 , and folding components occur at intervals of 2π / (4t 0 ) in the T direction.
但し、図84の領域R8401、図85の領域R8501、図86の領域R8601は、図21の領域R1101を分割した領域であり、その領域R1101は、図21で説明したことから、原点(0,0)と点(π/r0,-π/(2t0))とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、図28に示したように、時間方向に4×t0間隔でサンプリングされても、折り返し成分どうしは重ならない。従って、図21の領域R1101を分割して得られる図84の領域R8401の「低域成分動画データ」(図99)、図85の領域R8501の「中低域成分動画データ」(図100)、図86の領域R8601の「中高域成分動画データ」(図101)についても、折り返し成分どうしは重ならない。 However, the region R 8401 in FIG. 84, the region R 8501 in FIG. 85, and the region R 8601 in FIG. 86 are regions obtained by dividing the region R 1101 in FIG. 21, and the region R 1101 is described with reference to FIG. , A region having a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, −π / (2t0)), and the X and Y directions are − Since (π / r 0 ) to + (π / r 0 ) and the T direction is in the range of − (π / t 0 ) to + (π / t 0 ), as shown in FIG. Even if sampling is performed at 4 × t 0 intervals in the time direction, the aliasing components do not overlap. Accordingly, the “low-frequency component moving image data” (FIG. 99) in the region R 8401 in FIG. 84 obtained by dividing the region R 1101 in FIG. 21 and the “middle low-frequency component moving image data” in the region R 8501 in FIG. 100), and the “middle / high range component moving image data” (FIG. 101) in the region R 8601 in FIG. 86 does not overlap the aliasing components.
なお、図99乃至図101において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。 In FIG. 99 to FIG. 101, the shaded portion is a portion where the down-sampled moving image data exists.
次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、図22の領域R1201が基本帯域である。そして、図22の領域R1201のデータについては、上述したように、そのうちの、図87の領域R8701のデータが、「低域成分動画データ」であり、図88の領域R8801のデータが、「中低域成分動画データ」であり、図89の領域R8901のデータが、「中高域成分動画データ」であり、図90の領域R9001のデータが、「高域成分動画データ」である。 Next, for a portion of the moving image where the subject projected thereon moves at a speed of about “r 0 / t 0 ”, a region R 1201 in FIG. 22 is the basic band. As for the data in the region R 1201 in FIG. 22, as described above, the data in the region R 8701 in FIG. 87 is “low-frequency component moving image data”, and the data in the region R 8801 in FIG. 89, the data in region R 8901 in FIG. 89 is “middle and high frequency component video data”, and the data in region R 9001 in FIG. 90 is “high frequency component video data”. is there.
図87の領域R8701のデータである「低域成分動画データ」、図88の領域R8801のデータである「中低域成分動画データ」、図89の領域R8901のデータである「中高域成分動画データ」、図90の領域R9001のデータである「高域成分動画データ」を、時間方向に1/4にダウンサンプリングすると、そのダウンサンプリング後のデータは、いずれも、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 A data area R 8701 in FIG. 87, "low-frequency component video data" is data area R 8801 of FIG. 88 "medium low-frequency component video data" is data area R 8901 in FIG. 89, "high range When the “high-frequency component moving image data”, which is the data of the component moving image data ”and the region R 9001 in FIG. 90, is down-sampled to ¼ in the time direction, Data is sampled at intervals of r 0 for y and sampled at intervals of 4 × t 0 for time direction t.
このため、図87の領域R8701のデータである「低域成分動画データ」については、図102に示すように、図88の領域R8801のデータである「中低域成分動画データ」については、図103に示すように、図89の領域R8901のデータである「中高域成分動画データ」については、図104に示すように、図90の領域R9001のデータである「高域成分動画データ」については、図105に示すように、それぞれ、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, as for “low-frequency component moving image data” that is data of region R 8701 in FIG. 87, as shown in FIG. 102, “middle and low-frequency component moving image data” that is data of region R 8801 in FIG. 103, “middle and high frequency component moving image data” that is data of region R 8901 in FIG. 89 is “high frequency component moving image data that is data of region R 9001 in FIG. 90”, as shown in FIG. As for “data”, as shown in FIG. 105, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and 2π / (4t 0 ) intervals in the T direction. Thus, a folding component is generated.
但し、図87の領域R8701、図88の領域R8801、図89の領域R8901、図90の領域R9001は、図22の領域R1201を分割した領域であり、その領域R1201は、図12で説明したことから、原点(0,0)と点(π/r0,-π/t0)とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、図29に示したように、時間方向に4×t0間隔でサンプリングされても、折り返し成分どうしは重ならない。従って、図22の領域R1201を分割して得られる図87の領域R8701の「低域成分動画データ」(図102)、図88の領域R8801の「中低域成分動画データ」(図103)、図89の領域R8901の「中高域成分動画データ」(図104)、図90の領域R9001の「高域成分動画データ」(図105)についても、折り返し成分どうしは重ならない。 However, the region R 8701 in FIG. 87, the region R 8801 in FIG. 88, the region R 8901 in FIG. 89, the region R 9001 in FIG. 90 is an area obtained by dividing the area R 1201 in FIG. 22, the region R 1201 is As described in FIG. 12, the region having a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, −π / t0), and X, Since the Y direction is a region in the range of − (π / r 0 ) to + (π / r 0 ) and the T direction is in the range of − (π / t 0 ) to + (π / t 0 ), FIG. As shown in FIG. 4, even if sampling is performed at 4 × t 0 intervals in the time direction, the aliasing components do not overlap. Therefore, “low-frequency component moving image data” (FIG. 102) in the region R 8701 in FIG. 87 obtained by dividing the region R 1201 in FIG. 22 and “middle low-frequency component moving image data” in the region R 8801 in FIG. 103), the “mid-high frequency component moving image data” (FIG. 104) in the region R 8901 in FIG. 89 and the “high frequency component moving image data” (FIG. 105) in the region R 9001 in FIG. 90 do not overlap.
なお、図102乃至図105において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。 In FIGS. 102 to 105, the shaded portion is the portion where the down-sampled moving image data exists.
次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、図23の領域R1301が基本帯域である。そして、図23の領域R1301のデータについては、上述したように、そのうちの、図91の領域R9101のデータが、「低域成分動画データ」であり、図92の領域R9201のデータが、「中低域成分動画データ」であり、図93の領域R9301のデータが、「中高域成分動画データ」であり、図94の領域R9401のデータが、「高域成分動画データ」である。 Next, for a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, a region R 1301 in FIG. 23 is a basic band. 23, the data in the region R 9101 in FIG. 91 is “low-frequency component moving image data”, and the data in the region R 9201 in FIG. 92 is the data in the region R 1301 in FIG. , The data in the region R 9301 in FIG. 93 is “middle and high frequency component video data”, and the data in the region R 9401 in FIG. 94 is “high frequency component video data”. is there.
図91の領域R9101のデータである「低域成分動画データ」、図92の領域R9201のデータである「中低域成分動画データ」、図93の領域R9301のデータである「中高域成分動画データ」、図94の領域R9401のデータである「高域成分動画データ」を、時間方向に1/4にダウンサンプリングすると、そのダウンサンプリング後のデータは、いずれも、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 “Low-frequency component moving image data” that is data of region R 9101 in FIG. 91, “Middle and low-frequency component moving image data” that is data of region R 9201 in FIG. 92, and “Middle and high-frequency region” that is data of region R 9301 in FIG. When the “high-frequency component moving image data”, which is the data of the region R 9401 in FIG. 94, is down-sampled to 1/4 in the time direction, the data after the down-sampling are all in the spatial direction x, Data is sampled at intervals of r 0 for y and sampled at intervals of 4 × t 0 for time direction t.
このため、図91の領域R9101のデータである「低域成分動画データ」については、図106に示すように、図92の領域R9201のデータである「中低域成分動画データ」については、図107に示すように、図93の領域R9301のデータである「中高域成分動画データ」については、図108に示すように、図94の領域R9401のデータである「高域成分動画データ」については、図109に示すように、それぞれ、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 For this reason, with regard to “low-frequency component moving image data” that is data of region R 9101 in FIG. 91, as shown in FIG. 106, “middle and low-frequency component moving image data” that is data of region R 9201 in FIG. As shown in FIG. 107, “middle and high frequency component moving image data” that is the data of region R 9301 in FIG. 93 is “high frequency component moving image” that is the data of region R 9401 in FIG. With respect to “data”, as shown in FIG. 109, aliasing components occur at intervals of 2π / r 0 in the X and Y directions on the frequency domain, and 2π / (4t 0 ) intervals in the T direction. Thus, a folding component is generated.
但し、図91の領域R9101、図92の領域R9201、図93の領域R9301、図94の領域R9401は、図23の領域R1301を分割した領域であり、その領域R1301は、図13で説明したことから、原点(0,0)と点(π/r0,-2π/t0)とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、図30に示したように、時間方向に4×t0間隔でサンプリングされても、折り返し成分どうしは重ならない。従って、図23の領域R1301を分割して得られる図91の領域R9101の「低域成分動画データ」(図106)、図92の領域R9201の「中低域成分動画データ」(図107)、図93の領域R9301の「中高域成分動画データ」(図108)、図94の領域R9401の「高域成分動画データ」(図109)についても、折り返し成分どうしは重ならない。 However, the region R 9101 in FIG. 91, the region R 9201 in FIG. 92, the region in FIG. 93 R 9301, region R 9401 in FIG. 94 is an area obtained by dividing the area R 1301 in FIG. 23, the region R 1301 is As described in FIG. 13, the region having a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, −2π / t0), and X, Since the Y direction is a region in the range of − (π / r 0 ) to + (π / r 0 ) and the T direction is in the range of − (π / t 0 ) to + (π / t 0 ), FIG. As shown in FIG. 4, even if sampling is performed at 4 × t 0 intervals in the time direction, the aliasing components do not overlap. Accordingly, the “low-frequency component moving image data” (FIG. 106) in the region R 9101 in FIG. 91 obtained by dividing the region R 1301 in FIG. 23 and the “middle low-frequency component moving image data” in the region R 9201 in FIG. 107), “middle / high-frequency component moving image data” (FIG. 108) in region R 9301 in FIG. 93 and “high-frequency component moving image data” (FIG. 109) in region R 9401 in FIG. 94 do not overlap.
なお、図106乃至図109において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。 In FIGS. 106 to 109, the shaded portion is the portion where the down-sampled moving image data exists.
以上の図98乃至図109に示したように、周波数ドメインにおいて、ダウンサンプリング後の動画データの折り返し成分どうしは重ならないということは、そのダウンサンプリング後の動画データから、元のデータ、即ち、図20の領域R1001の「低域成分動画データ」、図84の領域R8401の「低域成分動画データ」、図85の領域R8501の「中低域成分動画データ」、図86の領域R8601の「中高域成分動画データ」、図87の領域R8701の「低域成分動画データ」、図88の領域R8801の「中低域成分動画データ」、図89の領域R8901の「中高域成分動画データ」、図90の領域R9001の「高域成分動画データ」、図91の領域R9101の「低域成分動画データ」、図92の領域R9201の「中低域成分動画データ」、図93の領域R9301の「中高域成分動画データ」、図94の領域R9401の「高域成分動画データ」を抽出することができることを意味し、換言すれば、ダウンサンプリング後の動画データが、人間の視覚特性を考慮した必要な情報(人間が認識することができる情報)を、正確に保持していることを意味する。 As shown in FIGS. 98 to 109, in the frequency domain, the aliasing components of the down-sampled video data do not overlap with each other from the down-sampled video data. “Low-frequency component moving image data” in 20 regions R 1001 , “Low-frequency component moving image data” in region R 8401 in FIG. 84, “Middle and low-frequency component moving image data” in region R 8501 in FIG. 85, and Region R in FIG. "intermediate and high frequency components moving data" 8601, "the low-frequency component video data" of the region R 8701 in FIG. 87, "medium low-frequency component video data" of the region R 8801 in FIG. 88, "crowned area R 8901 in FIG. 89 90 ”,“ High-frequency component video data ”in region R 9001 in FIG. 90,“ Low-frequency component video data ”in region R 9101 in FIG. 91,“ Middle-low-frequency component video data ”in region R 9201 in FIG. "," middle-to-high-frequency component video region R 9301 in FIG. 93 Over data "means that it is possible to extract the" high-frequency component video data "of the region R 9401 in FIG. 94, in other words, necessary information video data after downsampling, in consideration of human visual characteristics (Information that can be recognized by humans) is accurately held.
次に、以上のようなフレームレート1/(4t0)の「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」が多重化されたエンコードデータが、記録媒体11または伝送媒体12(図24)を介して受信装置2に供給される場合の、その受信装置2の構成と処理について説明する。
Next, “Low-frequency component video data”, “Middle-low frequency component video data”, “Middle-high frequency component video data” and “High-frequency component video data” with the
図110は、表示装置3が、図83の領域R8301で表される表示能力を有する場合、即ち、1/(4t0)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の図24の受信装置2の構成例を示している。
FIG. 110 shows a case where the
なお、図110において、図33における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図110の受信装置2は、フィルタ生成部53が設けられておらず、フィルタ部52に代えて、抽出部211が設けられている他は、図33における場合と同様に構成されている。
In FIG. 110, portions corresponding to those in FIG. 33 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the receiving
抽出部211は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから「低域成分動画データ」を抽出し、表示装置3(図24)に供給する。
The
次に、図111のフローチャートを参照して、図110の受信装置2の処理について説明する。
Next, processing of the receiving
デコード部50には、エンコードデータが供給される。デコード部50は、そのエンコードデータを、フレームレートが1/(4t0)の低フレームレートの動画データにデコードし、バッファ部51に供給する。バッファ部51では、デコード部50から供給される1/(4t0)のフレームレートの低フレームレートの動画データが順次記憶される。
The
そして、ステップS231において、抽出部211は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「低域成分動画データ」を抽出し、ステップS232に進む。
In step S231, the extracting
ステップS232では、抽出部211は、ステップS231で抽出した「低域成分動画データ」を、表示装置3(図24)に出力する。
In step S232, the
この場合、図83の領域R8301で表される表示能力を有する表示装置3には、フレームレート1/(4t0)の「低域成分動画データ」が供給されて表示される。
In this case, “low-frequency component moving image data” having a frame rate of 1 / (4t 0 ) is supplied and displayed on the
即ち、例えば、動画の中で静止している被写体が投影されている部分については、フレームレート1/(4t0)の「低域成分動画データ」は、図98に示した周波数成分のデータであり、表示装置3では、図112に影を付して示すように、図98に示した周波数成分のデータのうちの、図83の領域R8301内のデータだけが表示される。そして、図98に示した折り返し成分は表示されない。
That is, for example, for a portion of a moving image where a stationary subject is projected, the “low frequency component moving image data” of the
次に、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、「低域成分動画データ」は、図99に示した周波数成分のデータであり、表示装置3では、図113に影を付して示すように、図99に示した周波数成分のデータのうちの、図83の領域R8301内のデータである図84の領域R8401内のデータだけが表示される。そして、表示装置3では、図99に示した折り返し成分は表示されない。
Next, for example, for a portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2”, “low-frequency component moving image data” is shown in FIG. In the
次に、例えば、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、「低域成分動画データ」は、図102に示した周波数成分のデータであり、表示装置3では、図114に影を付して示すように、図102に示した周波数成分のデータのうちの、図83の領域R8301内のデータである図87の領域R8701内のデータだけが表示される。そして、図102に示した折り返し成分は表示されない。
Next, for example, in a portion of the moving image where the subject projected on the moving object moves at a speed of about “r 0 / t 0 ”, the “low frequency component moving image data” has the frequency shown in FIG. In the
次に、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、「低域成分動画データ」は、図106に示した周波数成分のデータであり、表示装置3では、図115に影を付して示すように、図106に示した周波数成分のデータのうちの、図83の領域R8301内のデータである図91の領域R9101内のデータだけが表示される。そして、図106に示した折り返し成分は表示されない。
Next, for example, for a portion of the moving image where the subject projected thereon moves at a speed of about “2r 0 / t 0 ”, the “low frequency component moving image data” has the frequency shown in FIG. In the
以上のように、表示装置3が、1/(4t0)のフレームレートを有する場合には、「低域成分動画データ」だけを表示装置3に供給することにより、表示装置3では、その表示能力で表示することができる周波数成分のデータを、折り返し成分の影響を受けずに、適切に(最適に)表示することができる。
As described above, when the
なお、上述の説明から分かるように、実際にバッファ部51以降で使用される動画データは、「低域成分動画データ」と「中低域成分動画データ」と「中高域成分動画データ」と「高域成分動画データ」の4つのデータのうち、「低域成分動画データ」の1つのデータのみである。従って、図110におけるデコード部50では、送信装置1から送られてくる4つのデータのうち「中低域成分動画データ」と「中高域成分動画データ」と「高域成分動画データ」は、デコードしなくても良い。
As can be seen from the above description, the moving image data actually used after the
次に、図116は、表示装置3が、図82の領域R8201で表される表示能力を有する場合、即ち、1/(2t0)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の図24の受信装置2の構成例を示している。
Next, FIG. 116 illustrates a case where the
なお、図116において、図33における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図116の受信装置2は、抽出部221および合成部222が新たに設けられているとともに、フィルタ部52に代えてフィルタ部223が設けられている他は、図33における場合と同様に構成されている。
116, portions corresponding to those in FIG. 33 are denoted by the same reference numerals, and description thereof will be omitted as appropriate. That is, the receiving
抽出部221は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから「低域成分動画データ」と「中低域成分動画データ」を抽出し、合成部222に供給する。
The
合成部222は、抽出部221からの、フレームレート1/(4t0)の「低域成分動画データ」と「中低域成分動画データ」を合成し、フレームレート1/(4t0)の合成動画データを、フィルタ部223に供給する。
Combining
フィルタ部223は、合成部222から供給されるフレームレート1/(4t0)の合成動画データを用いて、図33のフィルタ部52における場合と同様に、フィルタ情報供給部62からのフィルタ情報に対応したフィルタリングとアップサンプリングを行う。但し、図33のフィルタ部52では、4倍のアップサンプリングが行われたが、フィルタ部223は、2倍のアップサンプリングを行う。
The
次に、図117のフローチャートを参照して、図116の受信装置2の処理について説明する。
Next, processing of the receiving
デコード部50には、エンコードデータが供給される。デコード部50は、そのエンコードデータを、フレームレートが1/(4t0)の低フレームレートの動画データにデコードし、バッファ部51に供給する。バッファ部51では、デコード部50から供給される1/(4t0)のフレームレートの低フレームレートの動画データが順次記憶される。
The
そして、ステップS241において、抽出部221は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「低域成分動画データ」を抽出し、合成部222に供給して、ステップS242に進む。ステップS242では、抽出部221は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「中低域成分動画データ」を抽出し、合成部222に供給して、ステップS243に進む。
In step S241, the extracting
ステップS243では、合成部222は、抽出部211から供給された「低域成分動画データ」と「中低域成分動画データ」とを合成し、即ち、例えば、「低域成分動画データ」と「中低域成分動画データ」を加算し、その結果得られるフレームレート1/(4t0)の合成動画データを、フィルタ部223に供給する。
In step S243, the synthesizing
その後、ステップS244乃至S246では、フィルタ生成部53(の主成分方向取得部61およびフィルタ情報供給部62)が、合成動画データの各部分(例えば、上述したような16×16画素のブロック)について、周波数ドメイン上で人間が認識することができる領域を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部223に供給する処理、即ち、上述した図31の「必要な情報の通過帯域を求める処理」と同様の処理を行う。
After that, in steps S244 to S246, the filter generation unit 53 (the principal component
即ち、ステップS244では、フィルタ生成部53の主成分方向取得部61は、合成動画データの各部分のデータについて、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部62に供給して、ステップS245に進む。
That is, in step S244, the principal component
なお、ステップS244において主成分方向は、図31で説明したように、合成動画データ(または「低域成分動画データ」)を対象とした3次元フーリエ変換を行うことにより求めることもできるし、図32で説明したように、動きベクトルを検出することにより求めることもできる。また、上述したように、送信装置1からのエンコードデータに、主成分方向(の情報)が多重化されている場合には、デコード部50において、エンコードデータから主成分方向を分離し、主成分方向取得部61において、デコード部50から、その主成分方向の供給を受けることにより、主成分方向を取得することもできる。
Note that in step S244, the principal component direction can be obtained by performing a three-dimensional Fourier transform on synthetic moving image data (or “low-frequency component moving image data”) as described with reference to FIG. As described in FIG. 32, it can also be obtained by detecting a motion vector. Further, as described above, when the principal component direction (information thereof) is multiplexed in the encoded data from the
さらに、図34のステップS32で説明したように、エンコードデータに空間方向x,yの動きベクトル(u0,v0)が含まれる場合には、その動きベクトル(u0,v0)を、時間方向のコンポーネントt(ここでは、t=4t0)を加えて、空間方向x,yおよび時間方向tの3次元の動きベクトル(u0,v0,t)とし、図32で説明したように、その3次元の動きベクトル(u0,v0,t)に直交する平面を主成分方向とすることもできる。 Further, as described in step S32 in FIG. 34, encoded data in the spatial direction x, in the case that contains the y motion vector (u 0, v 0), the motion vector (u 0, v 0), The time direction component t (here, t = 4t 0 ) is added to obtain a three-dimensional motion vector (u 0 , v 0 , t) in the spatial direction x, y and time direction t, as described in FIG. In addition, a plane orthogonal to the three-dimensional motion vector (u 0 , v 0 , t) can be set as the principal component direction.
即ち、送信装置1のエンコード部24において、「低域成分動画データ」が、少なくとも動き補償を利用する、例えば、MPEGなどのエンコード方法によってエンコードされる場合には、エンコードデータには、動き補償に用いられる動きベクトルが含まれる。そこで、デコード部50において、バッファ部51を介して、主成分方向取得部61に、エンコードデータに含まれる動きベクトルを供給するようにし、主成分方向取得部61では、その動きベクトルに直交する平面を、主成分方向として求める(検出する)ようにすることができる。
That is, in the
ステップS245では、フィルタ情報供給部62は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部61からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、ステップS246に進む。
In step S245, the filter
ステップS246では、フィルタ情報供給部62は、ステップS245で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部223に供給し、ステップS247に進む。
In step S246, the filter
ステップS247では、フィルタ部223が、合成部222からの合成動画データに対して、ステップS246でフィルタ生成部53(のフィルタ情報供給部62)から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を2倍にするアップサンプリングを行う。
In step S247, the
即ち、例えば、いま、ステップS244で主成分方向が取得された合成動画データの部分としてのブロックを、注目ブロックとするとともに、注目ブロックのフレームを注目フレームとする。 That is, for example, a block as a portion of the combined moving image data whose principal component direction has been acquired in step S244 is set as a target block, and a frame of the target block is set as a target frame.
フィルタ部223は、合成部222からの合成動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目ブロックの各画素のデータ(画素値)を求める。
The
また、フィルタ部223は、合成部222からの合成動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目フレームから次のフレームまでの時間4t0を、時間2t0に等分する1つの時刻における画素であって、注目ブロックの各画素を通り、注目ブロックの3次元の動きベクトルの方向に延びる直線上にある画素のデータを求める。なお、注目ブロックの3次元の動きベクトルは、例えば、主成分方向取得部61で求め、フィルタ情報供給部62を介して、フィルタ情報とともに、フィルタ部223に供給することができる。
Further, the
フィルタ部223は、フレームレートが1/(4t0)の合成動画データを対象に、以上のようなフィルタリングおよびアップサンプリングを行うことにより、フレームレートが1/(2t0)の合成動画データを得て、ステップS247からS248に進む。
The
ステップS248では、フィルタ部223は、ステップS247で得たフレームレート1/(2t0)の合成動画データを、表示装置3(図24)に出力する。
In step S248, the
この場合、図82の領域R8201で表される表示能力を有する表示装置3には、フレームレート1/(2t0)の合成動画データが供給されて表示される。
In this case, the composite moving image data having the
即ち、いまの場合、合成動画データは、「低域成分動画データ」と「中低域成分動画データ」とを合成したデータである。 That is, in this case, the combined moving image data is data obtained by combining “low-frequency component moving image data” and “middle-low frequency component moving image data”.
そして、例えば、動画の中で静止している被写体が投影されている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図98に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は存在しない。
For example, as for the portion of the moving image where the stationary subject is projected, as described above, the “low frequency component moving image data” of the
従って、図98に示した周波数成分の「低域成分動画データ」と、存在しない「中低域成分動画データ」とを合成して得られるフレームレート1/(4t0)の合成動画データは、図98に示した周波数成分のデータとなる。
Therefore, the combined moving image data of the
そして、図98のフレームレート1/(4t0)の合成動画データ(動画の中の静止している部分のデータ)については、フィルタ部223において、図20の領域R1001を通過帯域とするフィルタによるフィルタリングと、2倍のアップサンプリングが行われる(図117のステップS247)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図20の領域R1001内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては2t0間隔でサンプリングされたデータとなる。
Then, with respect to the composite moving image data (frame portion data in the moving image) with the
このため、図118に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(2t0)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 118, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / (2t 0 ) in the T direction. Occurs.
なお、図118において、影を付してある部分が、フレームレート1/(2t0)の合成動画データのうちの静止している部分のデータが存在する部分である。
In FIG. 118, the shaded portion is a portion where the stationary portion of the combined moving image data having the
表示装置3では、図118に示したフレームレート1/(2t0)の合成動画データのうちの、図82の領域R8201内のデータだけが表示される。つまり、図82の領域R8201で表される表示能力を有する表示装置3では、図119に影を付して示す領域内のデータだけが表示され、図118に示した折り返し成分は表示されない。
In the
次に、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図99に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図100に示した周波数成分のデータである。
Next, for example, in the portion of the moving image where the subject projected on the moving image is moving at a speed of “(r 0 / t 0 ) / 2”, as described above, the
従って、図99に示した周波数成分の「低域成分動画データ」と、図100に示した周波数成分の「中低域成分動画データ」とを合成して得られるフレームレート1/(4t0)の合成動画データは、図120に示す周波数成分のデータとなる。
Therefore, the
そして、図120のフレームレート1/(4t0)の合成動画データ(速度「(r0/t0)/2」程度で動いている部分のデータ)については、フィルタ部223において、図21の領域R1101を通過帯域とするフィルタによるフィルタリングと、2倍のアップサンプリングが行われる(図117のステップS247)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図121に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては2t0間隔でサンプリングされたデータとなる。
Then, with respect to the composite moving image data (the data moving at the speed “(r 0 / t 0 ) / 2”) at the
即ち、図121に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(2t0)間隔で、折り返し成分が生じる。 That is, as shown in FIG. 121, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / (2t 0 ) in the T direction. Arise.
なお、図121において、影を付してある部分が、フレームレート1/(2t0)の合成動画データのうちの速度「(r0/t0)/2」程度で動いている部分のデータが存在する部分である。
In FIG. 121, the shaded portion is the data of the portion moving at a speed of about “(r 0 / t 0 ) / 2” in the combined moving image data of the
表示装置3では、図121に示したフレームレート1/(2t0)の合成動画データのうちの、図82の領域R8201内のデータだけが表示される。つまり、図82の領域R8201で表される表示能力を有する表示装置3では、図122に影を付して示す領域内のデータだけが表示され、図121に示した折り返し成分は表示されない。
In the
次に、例えば、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図102に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図103に示した周波数成分のデータである。
Next, for example, in the portion of the moving image where the subject projected on the moving object moves at a speed of about “r 0 / t 0 ”, as described above, “1” of the
従って、図102に示した周波数成分の「低域成分動画データ」と、図103に示した周波数成分の「中低域成分動画データ」とを合成して得られるフレームレート1/(4t0)の合成動画データは、図123に示す周波数成分のデータとなる。
Therefore, the
そして、図123のフレームレート1/(4t0)の合成動画データ(速度「r0/t0」程度で動いている部分のデータ)については、フィルタ部223において、図22の領域R1201を通過帯域とするフィルタによるフィルタリングと、2倍のアップサンプリングが行われる(図117のステップS247)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図124に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては2t0間隔でサンプリングされたデータとなる。
Then, with respect to the synthetic moving image data (the data moving at the speed “r 0 / t 0 ”) at the
即ち、図124に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(2t0)間隔で、折り返し成分が生じる。 That is, as shown in FIG. 124, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / (2t 0 ) in the T direction. Arise.
なお、図124において、影を付してある部分が、フレームレート1/(2t0)の合成動画データのうちの速度「r0/t0」程度で動いている部分のデータが存在する部分である。
In FIG. 124, the shaded portion is the portion where the data of the portion moving at the speed “r 0 / t 0 ” of the combined moving image data of the
表示装置3では、図124に示したフレームレート1/(2t0)の合成動画データのうちの、図82の領域R8201内のデータだけが表示される。つまり、図82の領域R8201で表される表示能力を有する表示装置3では、図125に影を付して示す領域内のデータだけが表示され、図124に示した折り返し成分は表示されない。
In the
次に、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図106に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図107に示した周波数成分のデータである。
Next, for example, in the portion of the moving image where the subject projected on the moving image is moving at a speed of about “2r 0 / t 0 ”, as described above, the
従って、図106に示した周波数成分の「低域成分動画データ」と、図107に示した周波数成分の「中低域成分動画データ」とを合成して得られるフレームレート1/(4t0)の合成動画データは、図126に示す周波数成分のデータとなる。
Therefore, the
そして、図126のフレームレート1/(4t0)の合成動画データ(速度「2r0/t0」程度で動いている部分のデータ)については、フィルタ部223において、図23の領域R1301を通過帯域とするフィルタによるフィルタリングと、2倍のアップサンプリングが行われる(図117のステップS247)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図127に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては2t0間隔でサンプリングされたデータとなる。
Then, with respect to the synthetic moving image data (the data moving at the speed “2r 0 / t 0 ”) at the
即ち、図127に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(2t0)間隔で、折り返し成分が生じる。 That is, as shown in FIG. 127, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / (2t 0 ) in the T direction. Arise.
なお、図127において、影を付してある部分が、フレームレート1/(2t0)の合成動画データのうちの速度「2r0/t0」程度で動いている部分のデータが存在する部分である。
In FIG. 127, the shaded portion is the portion where the data of the portion moving at a speed of about “2r 0 / t 0 ” in the combined moving image data of the
表示装置3では、図127に示したフレームレート1/(2t0)の合成動画データのうちの、図82の領域R8201内のデータだけが表示される。つまり、図82の領域R8201で表される表示能力を有する表示装置3では、図128に影を付して示す領域内のデータだけが表示され、図127に示した折り返し成分は表示されない。
In the
以上のように、表示装置3が、1/(2t0)のフレームレートを有する場合には、「低域成分動画データ」と「中低域成分動画データ」とを合成して、1/(4t0)のフレームレートの合成動画データを得て、主成分方向に基づくフィルタリングを行いながら2倍のアップサンプルを行い、その結果得られる1/(2t0)のフレームレートの合成動画データを表示装置3に供給することにより、表示装置3では、その表示能力で表示することができる周波数成分のデータを、折り返し成分の影響を受けずに、適切に表示することができる。
As described above, when the
なお、上述の説明から分かるように、実際にバッファ部51以降で使用される動画データは、「低域成分動画データ」と「中低域成分動画データ」と「中高域成分動画データ」と「高域成分動画データ」の4つのデータのうち、「低域成分動画データ」と「中低域成分動画データ」の2つのデータのみである。従って、図116におけるデコード部50では、送信装置1から送られてくる4つのデータのうち「中高域成分動画データ」と「高域成分動画データ」は、デコードしなくても良い。
As can be seen from the above description, the moving image data actually used after the
次に、図129は、表示装置3が、図81の領域R8101で表される表示能力を有する場合、即ち、1/(4t0/3)のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の図24の受信装置2の構成例を示している。
Next, FIG. 129, the
なお、図129において、図33における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図129の受信装置2は、抽出部231および合成部232が新たに設けられているとともに、フィルタ部52に代えてフィルタ部233が設けられている他は、図33における場合と同様に構成されている。
In FIG. 129, portions corresponding to those in FIG. 33 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the receiving
抽出部231は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を抽出し、合成部232に供給する。
The
合成部232は、抽出部231からの、フレームレート1/(4t0)の「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を合成し、フレームレート1/(4t0)の合成動画データを、フィルタ部233に供給する。
The synthesizing
フィルタ部233は、合成部232から供給されるフレームレート1/(4t0)の合成動画データを用いて、図33のフィルタ部52における場合と同様に、フィルタ情報供給部62からのフィルタ情報に対応したフィルタリングとアップサンプリングを行う。但し、図33のフィルタ部52では、4倍のアップサンプリングが行われたが、フィルタ部233は、3倍のアップサンプリングを行う。
The
次に、図130および図131のフローチャートを参照して、図129の受信装置2の処理について説明する。
Next, processing of the
デコード部50には、エンコードデータが供給される。デコード部50は、そのエンコードデータを、フレームレートが1/(4t0)の低フレームレートの動画データにデコードし、バッファ部51に供給する。バッファ部51では、デコード部50から供給される1/(4t0)のフレームレートの低フレームレートの動画データが順次記憶される。
The
そして、ステップS251において、抽出部231は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「低域成分動画データ」を抽出し、合成部232に供給して、ステップS252に進む。ステップS252では、抽出部231は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「中低域成分動画データ」を抽出し、合成部232に供給して、ステップS253に進む。ステップS253では、抽出部231は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「中高域成分動画データ」を抽出し、合成部232に供給して、図131のステップS254に進む。
In step S251, the extracting
ステップS254では、合成部232は、抽出部211から供給された「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を合成し、即ち、例えば、「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を加算し、その結果得られるフレームレート1/(4t0)の合成動画データを、フィルタ部233に供給する。
In step S254, the synthesizing
その後、ステップS255乃至S257において、フィルタ生成部53(の主成分方向取得部61およびフィルタ情報供給部62)が、図117のステップS244乃至S246それぞれにおける場合と同様の処理を行い、これにより、合成動画データの各部分(例えば、上述したような16×16画素のブロック)について、周波数ドメイン上で人間が認識することができる領域を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部233に供給する。
Thereafter, in steps S255 to S257, the filter generation unit 53 (the principal component
即ち、ステップS255では、フィルタ生成部53の主成分方向取得部61は、合成動画データの各部分のデータについて、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部62に供給して、ステップS256に進む。ステップS256では、フィルタ情報供給部62は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部61からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、ステップS257に進む。ステップS257では、フィルタ情報供給部62は、ステップS256で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部233に供給し、ステップS258に進む。
That is, in step S255, the principal component
ステップS258では、フィルタ部233が、合成部232からの合成動画データに対して、ステップS257でフィルタ生成部53(のフィルタ情報供給部62)から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を3倍にするアップサンプリングを行う。
In step S258, the
即ち、例えば、いま、ステップS255で主成分方向が取得された合成動画データの部分としてのブロックを、注目ブロックとするとともに、注目ブロックのフレームを注目フレームとする。 That is, for example, a block as a portion of the composite moving image data whose principal component direction has been acquired in step S255 is set as a target block, and a frame of the target block is set as a target frame.
フィルタ部233は、合成部232からの合成動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目ブロックの各画素のデータ(画素値)を求める。
The
また、フィルタ部233は、合成部232からの合成動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目フレームから次のフレームまでの時間4t0を、時間4t0/3に等分する2つの時刻それぞれにおける画素であって、注目ブロックの各画素を通り、注目ブロックの3次元の動きベクトルの方向に延びる直線上にある画素のデータを求める。なお、注目ブロックの3次元の動きベクトルは、例えば、主成分方向取得部61で求め、フィルタ情報供給部62を介して、フィルタ情報とともに、フィルタ部233に供給することができる。
Further, the
フィルタ部233は、フレームレートが1/(4t0)の合成動画データを対象に、以上のようなフィルタリングおよびアップサンプリングを行うことにより、フレームレートが1/(4t0/3)の合成動画データを得て、ステップS258からS259に進む。
ステップS259では、フィルタ部233は、ステップS258で得たフレームレート1/(4t0/3)の合成動画データを、表示装置3(図24)に出力する。
In step S259, the
この場合、図81の領域R8101で表される表示能力を有する表示装置3には、フレームレート1/(4t0/3)の合成動画データが供給されて表示される。
In this case, the
即ち、いまの場合、合成動画データは、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」を合成したデータである。 In other words, in this case, the combined moving image data is data obtained by combining “low frequency component moving image data”, “middle low frequency component moving image data”, and “middle and high frequency component moving image data”.
そして、例えば、動画の中で静止している被写体が投影されている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図98に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」および「中高域成分動画データ」は存在しない。
For example, as for the portion of the moving image where the stationary subject is projected, as described above, the “low frequency component moving image data” of the
従って、図98に示した周波数成分の「低域成分動画データ」と、存在しない「中低域成分動画データ」および「中高域成分動画データ」とを合成して得られるフレームレート1/(4t0)の合成動画データは、図98に示した周波数成分のデータとなる。
Accordingly, the
そして、図98のフレームレート1/(4t0)の合成動画データ(動画の中の静止している部分のデータ)については、フィルタ部233において、図20の領域R1001を通過帯域とするフィルタによるフィルタリングと、3倍のアップサンプリングが行われる(図131のステップS258)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図20の領域R1001内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4t0/3間隔でサンプリングされたデータとなる。
Then, with respect to the composite moving image data (data of the stationary portion in the moving image) having the
このため、図132に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0/3)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 132, on the frequency domain, X, the Y-direction, at 2 [pi / r 0 interval, cause aliasing components, in the T direction at 2π / (4t 0/3) interval, A folding component is generated.
なお、図132において、影を付してある部分が、フレームレート1/(4t0/3)の合成動画データのうちの静止している部分のデータが存在する部分である。 Note that in FIG. 132, the portion that is shaded is a portion in which the data exists in the still to have part of the composite moving data frame rate 1 / (4t 0/3) .
表示装置3では、図132に示したフレームレート1/(4t0/3)の合成動画データのうちの、図81の領域R8101内のデータだけが表示される。つまり、図81の領域R8101で表される表示能力を有する表示装置3では、図133に影を付して示す領域内のデータだけが表示され、図132に示した折り返し成分は表示されない。
In the
次に、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図99に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図100に示した周波数成分のデータである。さらに、フレームレート1/(4t0)の「中高域成分動画データ」は、図101に示した周波数成分のデータである。
Next, for example, in the portion of the moving image where the subject projected on the moving image is moving at a speed of “(r 0 / t 0 ) / 2”, as described above, the
従って、図99に示した周波数成分の「低域成分動画データ」、図100に示した周波数成分の「中低域成分動画データ」、および図101に示した周波数成分の「中高域成分動画データ」を合成して得られるフレームレート1/(4t0)の合成動画データは、図134に示す周波数成分のデータとなる。
Therefore, the “low frequency component moving image data” of the frequency component shown in FIG. 99, the “middle low frequency component moving image data” of the frequency component shown in FIG. 100, and the “middle high frequency component moving image data of the frequency component shown in FIG. The synthesized moving image data of the
そして、図134のフレームレート1/(4t0)の合成動画データ(速度「(r0/t0)/2」程度で動いている部分のデータ)については、フィルタ部233において、図21の領域R1101を通過帯域とするフィルタによるフィルタリングと、3倍のアップサンプリングが行われる(図131のステップS258)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図135に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4t0/3間隔でサンプリングされたデータとなる。
Then, with respect to the composite moving image data (the data moving at the speed “(r 0 / t 0 ) / 2”) at the
即ち、図135に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0/3)間隔で、折り返し成分が生じる。 That is, as shown in FIG. 135, on the frequency domain, X, the Y-direction, at 2 [pi / r 0 interval, cause aliasing components, in the T direction at 2π / (4t 0/3) interval, folded Ingredients are produced.
なお、図135において、影を付してある部分が、フレームレート1/(4t0/3)の合成動画データのうちの速度「(r0/t0)/2」程度で動いている部分のデータが存在する部分である。
The portion in FIG. 135, the portion that is shaded is in motion at a
表示装置3では、図135に示したフレームレート1/(4t0/3)の合成動画データのうちの、図81の領域R8101内のデータだけが表示される。つまり、図81の領域R8101で表される表示能力を有する表示装置3では、図136に影を付して示す領域内のデータだけが表示され、図135に示した折り返し成分は表示されない。
In the
次に、例えば、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図102に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図103に示した周波数成分のデータである。さらに、フレームレート1/(4t0)の「中高域成分動画データ」は、図104に示した周波数成分のデータである。
Next, for example, in the portion of the moving image where the subject projected on the moving object moves at a speed of about “r 0 / t 0 ”, as described above, “1” of the
従って、図102に示した周波数成分の「低域成分動画データ」、図103に示した周波数成分の「中低域成分動画データ」、および図104に示した周波数成分の「中高域成分動画データ」を合成して得られるフレームレート1/(4t0)の合成動画データは、図137に示す周波数成分のデータとなる。
Therefore, the “low frequency component moving image data” of the frequency component shown in FIG. 102, the “middle low frequency component moving image data” of the frequency component shown in FIG. 103, and the “middle high frequency component moving image data of the frequency component shown in FIG. synthesis moving image data "
そして、図137のフレームレート1/(4t0)の合成動画データ(速度「r0/t0」程度で動いている部分のデータ)については、フィルタ部233において、図22の領域R1201を通過帯域とするフィルタによるフィルタリングと、3倍のアップサンプリングが行われる(図131のステップS258)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図138に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4t0/3間隔でサンプリングされたデータとなる。
Then, with respect to the synthetic moving image data (the data moving at the speed “r 0 / t 0 ”) at the
即ち、図138に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0/3)間隔で、折り返し成分が生じる。 That is, as shown in FIG. 138, on the frequency domain, X, the Y-direction, at 2 [pi / r 0 interval, cause aliasing components, in the T direction at 2π / (4t 0/3) interval, folded Ingredients are produced.
なお、図138において、影を付してある部分が、フレームレート1/(4t0/3)の合成動画データのうちの速度「r0/t0」程度で動いている部分のデータが存在する部分である。 Note that in FIG. 138, the portion that is shaded is the presence data of the moving parts at a degree rate "r 0 / t 0" of the synthetic moving image data of a frame rate of 1 / (4t 0/3) is It is a part to do.
表示装置3では、図138に示したフレームレート1/(4t0/3)の合成動画データのうちの、図81の領域R8101内のデータだけが表示される。つまり、図81の領域R8101で表される表示能力を有する表示装置3では、図139に影を付して示す領域内のデータだけが表示され、図138に示した折り返し成分は表示されない。
In the
次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図106に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図107に示した周波数成分のデータである。さらに、フレームレート1/(4t0)の「中高域成分動画データ」は、図108に示した周波数成分のデータである。
Next, as described above, the portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ” is set to “low range” of the
従って、図106に示した周波数成分の「低域成分動画データ」、図107に示した周波数成分の「中低域成分動画データ」、および図108に示した周波数成分の「中高域成分動画データ」を合成して得られるフレームレート1/(4t0)の合成動画データは、図140に示す周波数成分のデータとなる。
Therefore, the “low frequency component moving image data” of the frequency component shown in FIG. 106, the “middle low frequency component moving image data” of the frequency component shown in FIG. 107, and the “middle high frequency component moving image data of the frequency component shown in FIG. The combined moving image data of the
そして、図140のフレームレート1/(4t0)の合成動画データ(速度「2r0/t0」程度で動いている部分のデータ)については、フィルタ部233において、図23の領域R1301を通過帯域とするフィルタによるフィルタリングと、3倍のアップサンプリングが行われる(図131のステップS258)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図141に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4t0/3間隔でサンプリングされたデータとなる。
Then, with respect to the synthetic moving image data (the data moving at the speed “2r 0 / t 0 ”) at the
このため、図141に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0/3)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 141, on the frequency domain, X, the Y-direction, at 2 [pi / r 0 interval, cause aliasing components, in the T direction at 2π / (4t 0/3) interval, A folding component is generated.
即ち、図141において、影を付してある部分が、フレームレート1/(4t0/3)の合成動画データのうちの速度「r0/t0」程度で動いている部分のデータが存在する部分である。 That is, in FIG. 141, the portion that is shaded is the presence data of the moving parts at a degree rate "r 0 / t 0" of the synthetic moving image data of a frame rate of 1 / (4t 0/3) is It is a part to do.
表示装置3では、図141に示したフレームレート1/(4t0/3)の合成動画データのうちの、図81の領域R8101内のデータだけが表示される。つまり、図81の領域R8101で表される表示能力を有する表示装置3では、図142に影を付して示す領域内のデータだけが表示され、図141に示した折り返し成分は表示されない。
In the
以上のように、表示装置3が、1/(4t0/3)のフレームレートを有する場合には、「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を合成して、1/(4t0)のフレームレートの合成動画データを得て、主成分方向に基づくフィルタリングを行いながら3倍のアップサンプルを行い、その結果得られる1/(4t0/3)のフレームレートの合成動画データを表示装置3に供給することにより、表示装置3では、その表示能力で表示することができる周波数成分のデータを、折り返し成分の影響を受けずに、適切に表示することができる。
As described above, the
なお、上述の説明から分かるように、実際にバッファ部51以降で使用される動画データは、「低域成分動画データ」と「中低域成分動画データ」と「中高域成分動画データ」と「高域成分動画データ」の4つのデータのうち、「低域成分動画データ」と「中低域成分動画データ」と「中高域成分動画データ」の3つのデータのみである。従って、図129におけるデコード部50では、送信装置1から送られてくる4つのデータのうち「高域成分動画データ」は、デコードしなくても良い。
As can be seen from the above description, the moving image data actually used after the
次に、図143は、表示装置3が、図80の領域R8001で表される表示能力を有する場合、即ち、1/t0のフレームレートを有し、かつ、1画素1画素を空間方向にr0の間隔で表示することができる場合の図24の受信装置2の構成例を示している。
Next, FIG. 143 shows a case where the
なお、図143において、図33における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図143の受信装置2は、抽出部241および合成部242が新たに設けられている他は、図33における場合と同様に構成されている。
In FIG. 143, portions corresponding to those in FIG. 33 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the receiving
抽出部241は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、すべての周波数成分のデータ、即ち、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、およ「高域成分動画データ」を抽出し、合成部242に供給する。
The
合成部242は、抽出部241からの、フレームレート1/(4t0)の「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」を合成し、フレームレート1/(4t0)の合成動画データを、フィルタ部52に供給する。
The synthesizing
次に、図144および図145のフローチャートを参照して、図143の受信装置2の処理について説明する。
Next, processing of the receiving
デコード部50には、エンコードデータが供給される。デコード部50は、そのエンコードデータを、フレームレートが1/(4t0)の低フレームレートの動画データにデコードし、バッファ部51に供給する。バッファ部51では、デコード部50から供給される1/(4t0)のフレームレートの低フレームレートの動画データが順次記憶される。
The
そして、ステップS261において、抽出部241は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「低域成分動画データ」を抽出し、合成部242に供給して、ステップS262に進む。ステップS262では、抽出部241は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「中低域成分動画データ」を抽出し、合成部242に供給して、ステップS263に進む。ステップS263では、抽出部241は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「中高域成分動画データ」を抽出し、合成部242に供給して、ステップS264に進む。ステップS264では、抽出部241は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、「高域成分動画データ」を抽出し、合成部242に供給して、図145のステップS265に進む。
In step S261, the extracting
ステップS265では、合成部242は、抽出部211から供給された「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」を合成し、即ち、例えば、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」を加算し、その結果得られるフレームレート1/(4t0)の合成動画データを、フィルタ部52に供給する。
In step S265, the synthesizing
その後、ステップS266乃至S268において、フィルタ生成部53(の主成分方向取得部61およびフィルタ情報供給部62)が、図117のステップS244乃至S246それぞれにおける場合と同様の処理を行い、これにより、合成動画データの各部分(例えば、上述したような16×16画素のブロック)について、周波数ドメイン上で人間が認識することができる領域を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部52に供給する。
Thereafter, in steps S266 to S268, the filter generation unit 53 (the principal component
即ち、ステップS266では、フィルタ生成部53の主成分方向取得部61は、合成動画データの各部分のデータについて、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部62に供給して、ステップS267に進む。ステップS267では、フィルタ情報供給部62は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部61からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、ステップS268に進む。ステップS268では、フィルタ情報供給部62は、ステップS267で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部52に供給し、ステップS269に進む。
That is, in step S266, the principal component
ステップS269では、フィルタ部52が、合成部242からの合成動画データに対して、図34のステップS35における場合と同様の処理、即ち、ステップS268でフィルタ生成部53(のフィルタ情報供給部62)から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を4倍にするアップサンプリングを行う。
In step S269, the
即ち、例えば、いま、ステップS266で主成分方向が取得された合成動画データの部分としてのブロックを、注目ブロックとするとともに、注目ブロックのフレームを注目フレームとする。 That is, for example, a block as a portion of the composite moving image data whose principal component direction has been acquired in step S266 is a target block, and a frame of the target block is a target frame.
フィルタ部52は、合成部242からの合成動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目ブロックの各画素のデータ(画素値)を求める。
The
また、フィルタ部52は、合成部242からの合成動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目フレームから次のフレームまでの時間4t0を、時間t0に等分する3つの時刻それぞれにおける画素であって、注目ブロックの各画素を通り、注目ブロックの3次元の動きベクトルの方向に延びる直線上にある画素のデータを求める。なお、注目ブロックの3次元の動きベクトルは、例えば、主成分方向取得部61で求め、フィルタ情報供給部62を介して、フィルタ情報とともに、フィルタ部52に供給することができる。
Further, the
フィルタ部52は、フレームレートが1/(4t0)の合成動画データを対象に、以上のようなフィルタリングおよびアップサンプリングを行うことにより、フレームレートが1/t0の合成動画データを得て、ステップS269からS270に進む。
The
ステップS270では、フィルタ部52は、ステップS269で得たフレームレート1/t0の合成動画データを、表示装置3(図24)に出力する。
In step S270, the
この場合、図80の領域R8001で表される表示能力を有する表示装置3には、フレームレート1/t0の合成動画データが供給されて表示される。
In this case, the composite moving image data having the
即ち、いまの場合、合成動画データは、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」のすべてを合成したデータである。 In other words, in this case, the composite video data is data obtained by combining all of the “low frequency component video data”, “middle low frequency component video data”, “mid / high frequency component video data”, and “high frequency component video data”. is there.
そして、例えば、動画の中で静止している被写体が投影されている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図98に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」は存在しない。
For example, as for the portion of the moving image where the stationary subject is projected, as described above, the “low frequency component moving image data” of the
従って、図98に示した周波数成分の「低域成分動画データ」と、存在しない「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」とを合成して得られるフレームレート1/(4t0)の合成動画データは、図98に示した周波数成分のデータとなる。
Therefore, the “low frequency component moving image data” of the frequency component shown in FIG. 98 is synthesized with the “middle low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” that do not exist. The synthesized moving image data of the
そして、図98のフレームレート1/(4t0)の合成動画データ(動画の中の静止している部分のデータ)については、フィルタ部52において、図10の領域R1001を通過帯域とするフィルタによるフィルタリングと、4倍のアップサンプリングが行われる(図145のステップS269)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図20の領域R1001内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。
Then, for the composite moving image data (data of a stationary portion in the moving image) with the
このため、図146に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 146, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction. .
なお、図146において、影を付してある部分が、フレームレート1/t0の合成動画データのうちの静止している部分のデータが存在する部分である。
In FIG. 146, the shaded portion is the portion where the stationary portion of the combined moving image data with the
表示装置3では、図146に示したフレームレート1/t0の合成動画データのうちの、図80の領域R8001内のデータだけが表示される。つまり、図80の領域R8001で表される表示能力を有する表示装置3では、図147に影を付して示す領域内のデータだけが表示され、図146に示した折り返し成分は表示されない。
In the
次に、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図99に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図100に示した周波数成分のデータである。さらに、フレームレート1/(4t0)の「中高域成分動画データ」は、図101に示した周波数成分のデータであり、フレームレート1/(4t0)の「高域成分動画データ」は存在しない。
Next, for example, in the portion of the moving image where the subject projected on the moving image is moving at a speed of “(r 0 / t 0 ) / 2”, as described above, the
従って、図99に示した周波数成分の「低域成分動画データ」、図100に示した周波数成分の「中低域成分動画データ」、および図101に示した周波数成分の「中高域成分動画データ」と、存在しない「高域成分動画データ」とを合成して得られるフレームレート1/(4t0)の合成動画データは、図148に示す周波数成分のデータとなる。
Therefore, the “low frequency component moving image data” of the frequency component shown in FIG. 99, the “middle low frequency component moving image data” of the frequency component shown in FIG. 100, and the “middle high frequency component moving image data of the frequency component shown in FIG. ”And the non-existing“ high frequency component moving image data ”, the combined moving image data of the
そして、図148のフレームレート1/(4t0)の合成動画データ(速度「(r0/t0)/2」程度で動いている部分のデータ)については、フィルタ部52において、図21の領域R1101を通過帯域とするフィルタによるフィルタリングと、4倍のアップサンプリングが行われる(図145のステップS269)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図149に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。
Then, the combined moving image data (data of the portion moving at the speed “(r 0 / t 0 ) / 2)” at the
即ち、図149に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。 That is, as shown in FIG. 149, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction.
なお、図149において、影を付してある部分が、フレームレート1/t0の合成動画データのうちの速度「(r0/t0)/2」程度で動いている部分のデータが存在する部分である。
In FIG. 149, the shaded part is the data of the part moving at a speed of about “(r 0 / t 0 ) / 2” in the composite video data with the
表示装置3では、図149に示したフレームレート1/t0の合成動画データのうちの、図80の領域R8001内のデータだけが表示される。つまり、図80の領域R8001で表される表示能力を有する表示装置3では、図150に影を付して示す領域内のデータだけが表示され、図149に示した折り返し成分は表示されない。
In the
次に、例えば、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図102に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図103に示した周波数成分のデータである。さらに、フレームレート1/(4t0)の「中高域成分動画データ」は、図104に示した周波数成分のデータであり、フレームレート1/(4t0)の「高域成分動画データ」は、図105に示した周波数成分のデータである。
Next, for example, in the portion of the moving image where the subject projected on the moving object moves at a speed of about “r 0 / t 0 ”, as described above, “1” of the
従って、図102に示した周波数成分の「低域成分動画データ」、図103に示した周波数成分の「中低域成分動画データ」、図104に示した周波数成分の「中高域成分動画データ」、および図105に示した周波数成分の「高域成分動画データ」を合成して得られるフレームレート1/(4t0)の合成動画データは、図151に示す周波数成分のデータとなる。
Accordingly, the “low frequency component moving image data” of the frequency component shown in FIG. 102, the “middle low frequency component moving image data” of the frequency component shown in FIG. 103, and the “middle high frequency component moving image data” of the frequency component shown in FIG. The synthesized moving image data of the
そして、図151のフレームレート1/(4t0)の合成動画データ(速度「r0/t0」程度で動いている部分のデータ)については、フィルタ部52において、図22の領域R1201を通過帯域とするフィルタによるフィルタリングと、4倍のアップサンプリングが行われる(図145のステップS269)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図152に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。
Then, with respect to the composite moving image data (the data moving at the speed “r 0 / t 0 ”) at the
即ち、図152に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。 That is, as shown in FIG. 152, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction.
なお、図152において、影を付してある部分が、フレームレート1/t0の合成動画データのうちの速度「r0/t0」程度で動いている部分のデータが存在する部分である。
In FIG. 152, the shaded portion is a portion where there is data of a portion moving at a speed of about “r 0 / t 0 ” in the combined moving image data of the
表示装置3では、図152に示したフレームレート1/t0の合成動画データのうちの、図80の領域R8001内のデータだけが表示される。つまり、図80の領域R8001で表される表示能力を有する表示装置3では、図153に影を付して示す領域内のデータだけが表示され、図152に示した折り返し成分は表示されない。
In the
次に、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、上述したように、フレームレート1/(4t0)の「低域成分動画データ」は、図106に示した周波数成分のデータであり、フレームレート1/(4t0)の「中低域成分動画データ」は、図107に示した周波数成分のデータである。さらに、フレームレート1/(4t0)の「中高域成分動画データ」は、図108に示した周波数成分のデータであり、フレームレート1/(4t0)の「高域成分動画データ」は、図109に示した周波数成分のデータである。
Next, for example, in the portion of the moving image where the subject projected on the moving image is moving at a speed of about “2r 0 / t 0 ”, as described above, the
従って、図106に示した周波数成分の「低域成分動画データ」、図107に示した周波数成分の「中低域成分動画データ」、図108に示した周波数成分の「中高域成分動画データ」、および図109に示した周波数成分の「高域成分動画データ」を合成して得られるフレームレート1/(4t0)の合成動画データは、図154に示す周波数成分のデータとなる。
Therefore, the “low frequency component moving image data” of the frequency component shown in FIG. 106, the “middle low frequency component moving image data” of the frequency component shown in FIG. 107, and the “middle high frequency component moving image data” of the frequency component shown in FIG. , And the combined moving image data of the
そして、図154のフレームレート1/(4t0)の合成動画データ(速度「2r0/t0」程度で動いている部分のデータ)については、フィルタ部52において、図23の領域R1301を通過帯域とするフィルタによるフィルタリングと、4倍のアップサンプリングが行われる(図145のステップS269)。従って、そのフィルタリングおよびアップサンプリングによって得られる合成動画データは、図155に示すように、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。
Then, with respect to the synthesized moving image data (the data moving at the speed “2r 0 / t 0 ”) at the
即ち、図155に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。 That is, as shown in FIG. 155, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / t 0 in the T direction.
なお、図155において、影を付してある部分が、フレームレート1/t0の合成動画データのうちの速度「r0/t0」程度で動いている部分のデータが存在する部分である。
In FIG. 155, the shaded portion is a portion where there is data of a portion moving at a speed of about “r 0 / t 0 ” in the combined moving image data of the
表示装置3では、図155に示したフレームレート1/t0の合成動画データのうちの、図80の領域R8001内のデータだけが表示される。つまり、図80の領域R8001で表される表示能力を有する表示装置3では、図156に影を付して示す領域内のデータだけが表示され、図155に示した折り返し成分は表示されない。
In the
以上のように、表示装置3が、1/t0のフレームレートを有する場合には、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」を合成して、1/(4t0)のフレームレートの合成動画データを得て、主成分方向に基づくフィルタリングを行いながら4倍のアップサンプルを行い、その結果得られる1/t0のフレームレートの合成動画データを表示装置3に供給することにより、表示装置3では、その表示能力で表示することができる周波数成分のデータを、折り返し成分の影響を受けずに、適切に表示することができる。
As described above, when the
なお、図146、図149、図152、図155は、それぞれ、上述した図35乃至図38と同様の図であり、従って、図35乃至図38で説明した場合と同様に、図143の受信装置2が出力する1/t0のフレームレートの動画データが、表示装置3に表示された場合には、その表示された動画に対して、人間は、元の動画(送信装置1に供給された動画)と同様の画質を認識することができる。
146, 149, 152, and 155 are the same as FIGS. 35 to 38 described above, and therefore, the reception of FIG. 143 is the same as the case described in FIGS. When moving image data with a frame rate of 1 / t 0 output by the
次に、図24の受信装置2は、表示装置3が、図80の領域R8001、図81の領域R8101、図82の領域R8201、図83の領域R8301のうちのいずれで表される表示能力を有する場合であっても対処することができるように構成することができる。
Next, in the receiving
図157は、そのような受信装置2の構成例を示している。なお、図157において、図33における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図157の受信装置2は、抽出部251および合成部252が新たに設けられているとともに、フィルタ部52に代えてフィルタ部253が設けられている他は、図33における場合と同様に構成されている。
FIG. 157 shows a configuration example of such a
図157の受信装置2においては、抽出部251、合成部252、およびフィルタ部253に対して、表示装置3の表示能力(を表す情報)が供給されるようになっている。ここで、表示装置3が表示能力を供給する機能を有する場合には、表示装置3の表示能力は、例えば、表示装置3から、抽出部251、合成部252、およびフィルタ部253に対して供給させるようにすることができる。また、表示装置3の表示能力は、例えば、受信装置2の図示せずに操作部をユーザに操作してもらうことによって、その操作部から、抽出部251、合成部252、およびフィルタ部253に対して供給するようにすることも可能である。
In the receiving
抽出部251は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから、表示装置3の表示能力に応じた周波数成分を選択、抽出し、合成部252に供給する。
The
即ち、表示装置3が、図83の領域R8301で表される表示能力を有する場合、抽出部251は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから「低域成分動画データ」を抽出して、合成部252に供給する。
That is, when the
また、表示装置3が、図82の領域R8201で表される表示能力を有する場合、抽出部251は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから「低域成分動画データ」および「中低域成分動画データ」を抽出して、合成部252に供給する。
When the
さらに、表示装置3が、図81の領域R8101で表される表示能力を有する場合、抽出部251は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を抽出して、合成部252に供給する。
Furthermore, when the
また、表示装置3が、図80の領域R8001で表される表示能力を有する場合、抽出部251は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データから「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」のすべてを抽出して、合成部252に供給する。
When the
合成部252は、表示装置3の表示能力に応じて、抽出部251から供給される周波数成分を合成し、合成動画データを、フィルタ部253に供給する。
The combining
即ち、表示装置3が、図83の領域R8301で表される表示能力を有する場合、抽出部251から合成部252には、フレームレート1/(4t0)の「低域成分動画データ」が供給されるので、合成部252は、その「低域成分動画データ」を、そのまま、合成画像データとして、フィルタ部253に供給する。
That is, when the
また、表示装置3が、図82の領域R8201で表される表示能力を有する場合、抽出部251から合成部252には、フレームレート1/(4t0)の「低域成分動画データ」および「中低域成分動画データ」が供給されるので、合成部252は、その「低域成分動画データ」および「中低域成分動画データ」を合成し、その結果得られる合成画像データを、フィルタ部253に供給する。
If the
さらに、表示装置3が、図81の領域R8101で表される表示能力を有する場合、抽出部251から合成部252には、フレームレート1/(4t0)の「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」が供給されるので、合成部252は、「低域成分動画データ」、「中低域成分動画データ」、および「中高域成分動画データ」を合成し、その結果得られる合成画像データを、フィルタ部253に供給する。
Further, when the
また、表示装置3が、図80の領域R8001で表される表示能力を有する場合、抽出部251から合成部252には、フレームレート1/(4t0)の「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」が供給されるので、合成部252は、その「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」を合成し、その結果得られる合成画像データを、フィルタ部253に供給する。
Further, when the
フィルタ部253は、合成部232から供給されるフレームレート1/(4t0)の合成動画データを用いて、図33のフィルタ部52における場合と同様に、フィルタ情報供給部62からのフィルタ情報に対応したフィルタリングとアップサンプリングを行う。但し、フィルタ部253は、表示装置3の表示能力に応じた倍数のアップサンプリングを行う。
The
即ち、表示装置3が、図83の領域R8301で表される表示能力を有する場合、フィルタ部253は、1倍のアップサンプリングを行い、即ち、合成部252からのフレームレート1/(4t0)の合成動画データをアップサンプリングせずに、表示装置3に出力する。
That is, when the
また、表示装置3が、図82の領域R8201で表される表示能力を有する場合、フィルタ部253は、2倍のアップサンプリングを行い、その結果得られるフレームレート1/(2t0)の合成動画データを、表示装置3に出力する。
When the
さらに、表示装置3が、図81の領域R8101で表される表示能力を有する場合、フィルタ部253は、3倍のアップサンプリングを行い、その結果得られるフレームレート1/(4t0/3)の合成動画データを、表示装置3に出力する。
Further, the
また、表示装置3が、図80の領域R8001で表される表示能力を有する場合、フィルタ部253は、4倍のアップサンプリングを行い、その結果得られるフレームレート1/t0の合成動画データを、表示装置3に出力する。
Further, when the
以上のようにして、図157の受信装置2では、表示装置3が、図80の領域R8001、図81の領域R8101、図82の領域R8201、図83の領域R8301のうちのいずれで表される表示能力を有する場合であっても、その表示能力に応じた適切な合成動画データを、表示装置3に出力することができる。
As described above, in the receiving
次に、図79の送信装置1では、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301等の基本帯域を、表示装置3の表示能力を表す図80の領域R8001や、図81の領域R8101、図82の領域R8201、図83の領域R8301で制限した帯域を通過帯域として、動画データをフィルタリングすることにより、図84乃至図94で説明したような「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」に分割するようにしたが、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」は、その他、例えば、次のような周波数成分のデータとすることもできる。
Next, in the
即ち、例えば、動画の中で静止している被写体が投影されている部分の動画データ、つまり、図20の領域R1001のデータについては、上述した場合と同様に、図20の領域R1001のデータを、「低域成分動画データ」とし、「中低域成分動画データ」、「中高域成分動画データ」、および「高域成分動画データ」は、いずれも0とすることができる。 That is, for example, moving image data of the portion stationary subjects in the moving image is being projected, that is, the data region R 1001 in FIG. 20, as in the case described above, the region R 1001 in FIG. 20 The data is “low frequency component video data”, and “middle low frequency component video data”, “middle and high frequency component video data”, and “high frequency component video data” can all be zero.
また、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分の動画データ、つまり、図21の領域R1101のデータについては、図84の領域R8401の「低域成分動画データ」、図85の領域R8501の「中低域成分動画データ」、図86の領域R8601の「中高域成分動画データ」、存在しない(0の)「高域成分動画データ」に代えて、例えば、次のような周波数成分のデータを、それぞれ、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」とすることができる。 Further, for example, moving image data of a portion in which a subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2”, that is, data of region R 1101 in FIG. 84, “Low-frequency component moving image data” in region R 8401 in FIG. 84, “Middle and low-frequency component moving image data” in region R 8501 in FIG. 85, “Middle and high-frequency component moving image data” in region R 8601 in FIG. In place of “high frequency component moving image data” (0), for example, the following frequency component data are respectively converted into “low frequency component moving image data”, “middle low frequency component moving image data”, and “middle high frequency component data”. "Video data" and "high frequency component video data".
即ち、図158に示すように、周波数ドメインにおいて、原点を通り、図21の領域R1101のデータの主成分方向に延びる直線(平面)をL1101とし、その直線L1101と、1/(4t0)のフレームレートの表示能力を表す図83の領域R8301との2つの交点を、P15801とP15802とする。 That is, as shown in FIG. 158, in the frequency domain, a straight line (plane) passing through the origin and extending in the principal component direction of the data in the region R 1101 in FIG. 21 is defined as L 1101 , and the straight line L 1101 and 1 / (4t the two intersections between the region R 8301 of Figure 83 that represents the display capability of a frame rate of 0), and P 15801 and P 15 802.
また、図159に示すように、周波数ドメインにおいて、直線L1101と、1/(2t0)のフレームレートの表示能力を表す図82の領域R8201との2つの交点を、P15901とP15902とする。 Further, as shown in FIG. 159, two intersection points of a straight line L 1101 and a region R 8201 of FIG. 82 representing the display capability of the frame rate of 1 / (2t 0 ) are represented by P 15901 and P 15902 in the frequency domain. And
そして、図160に示すように、図158の点P15801,P15802、図159の点P15901,P15902をそれぞれ通り、T方向に平行な直線(平面)を、それぞれ、L15801,L15802,L15901,L15902とする。 As shown in FIG. 160, straight lines (planes) passing through points P 15801 and P 15802 in FIG. 158 and points P 15901 and P 15902 in FIG. 159 and parallel to the T direction are respectively shown in L 15801 and L 15802. , L 15901 and L 15902 .
この場合、図21の領域R1101のデータについては、図161に示すように、領域R1101のうちの、直線L15801とL15802とで挟まれる領域R16101のデータを、「低域成分動画データ」とすることができる。 In this case, as shown in FIG. 161, the data in the region R 1101 in FIG. 21 includes the data in the region R 16101 sandwiched between the straight lines L 15801 and L 15802 in the region R 1101. Data ".
さらに、領域R1101のデータについては、図162に示すように、領域R1101のうちの、直線L15901とL15902とで挟まれる領域から、直線L15801とL15802とで挟まれる領域を除いた領域R16201のデータを、「中低域成分動画データ」とし、「中高域成分動画データ」および「高域成分動画データ」は、いずれも0とすることができる。 Further, as for the data of the region R 1101 , as shown in FIG. 162, the region sandwiched between the straight lines L 15801 and L 15802 is excluded from the region sandwiched between the straight lines L 15901 and L 15902 in the region R 1101. The data of the region R 16201 is “middle low-frequency component video data”, and “middle high-frequency component video data” and “high-frequency component video data” can both be zero.
この場合、図84の領域R8401の「低域成分動画データ」は、図161の領域R16101のデータで、図85の領域R8501の「中低域成分動画データ」は、図162の領域R16201のデータで、図86の領域R8601の「中高域成分動画データ」は、0で、それぞれ近似される。 In this case, the “low frequency component moving image data” in the region R 8401 in FIG. 84 is the data in the region R 16101 in FIG. 161, and the “middle low frequency component moving image data” in the region R 8501 in FIG. 85 is the region in FIG. In the data of R 16201 , “middle and high range component moving image data” in the region R 8601 in FIG.
次に、例えば、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分の動画データ、つまり、図22の領域R1201のデータについては、図87の領域R8701の「低域成分動画データ」、図88の領域R8801の「中低域成分動画データ」、図89の領域R8901の「中高域成分動画データ」、図90の領域R9001の「高域成分動画データ」に代えて、例えば、次のような周波数成分のデータを、それぞれ、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」とすることができる。 Next, for example, moving image data of a portion of the moving image in which a subject projected on the moving image moves at a speed of about “r 0 / t 0 ”, that is, data of the region R 1201 in FIG. “Low-frequency component moving image data” in 87 region R 8701 , “Middle and low-frequency component moving image data” in region R 8801 in FIG. 88, “Middle and high-frequency component moving image data” in region R 8901 in FIG. 89, and region R in FIG. Instead of 9001 "High-frequency component video data", for example, the following frequency component data are respectively "Low-frequency component video data", "Middle-low frequency component video data", "Middle-high frequency component video data""," High-frequency component moving image data ".
即ち、図163に示すように、周波数ドメインにおいて、原点を通り、図22の領域R1201のデータの主成分方向に延びる直線(平面)をL1201とし、その直線L1201と、1/(4t0)のフレームレートの表示能力を表す図83の領域R8301との2つの交点を、P16301とP16302とする。 That is, as shown in FIG. 163, in the frequency domain, a straight line (plane) passing through the origin and extending in the principal component direction of the data in the region R 1201 in FIG. 22 is L 1201 , and the straight line L 1201 and 1 / (4t Two intersection points with the region R 8301 in FIG. 83 representing the display capability of the frame rate of 0 ) are P 16301 and P 16302 .
また、図164に示すように、周波数ドメインにおいて、直線L1201と、1/(2t0)のフレームレートの表示能力を表す図82の領域R8201との2つの交点を、P16401とP16402とする。 Further, as shown in FIG. 164, in the frequency domain, two intersection points of the straight line L 1201 and the region R 8201 of FIG. 82 representing the display capability of the frame rate of 1 / (2t 0 ) are represented by P 16401 and P 16402. And
さらに、図165に示すように、周波数ドメインにおいて、直線L1201と、1/(4t0/3)のフレームレートの表示能力を表す図81の領域R8101との2つの交点を、P16501とP16502とする。 Furthermore, as shown in FIG. 165, in the frequency domain, the straight line L 1201, the two intersections between the region R 8101 of Figure 81 that represents the display capability of a frame rate of 1 / (4t 0/3) , and P 16501 P 16502 .
また、図166に示すように、周波数ドメインにおいて、直線L1201と、1/t0のフレームレートの表示能力を表す図80の領域R8001との2つの交点を、P16601とP16602とする。 Also, as shown in FIG. 166, in the frequency domain, two intersections of the straight line L 1201 and the region R 8001 in FIG. 80 representing the display capability of the 1 / t 0 frame rate are P 16601 and P 16602 . .
そして、図167に示すように、図163の点P16301,P16302、図164の点P16401,P16402、図165の点P16501,P16502、図166の点P16601,P16602をそれぞれ通り、T方向に平行な直線(平面)を、それぞれ、L16301,L16302,L16401,L16402,L16501,L16502,L16601,L16602とする。 Then, as shown in FIG. 167, point P 16301, P 16302 in FIG 163, the point P 16401, P 16402 in FIG 164, the point P 16501, P 16502 in FIG 165, the point P 16601, P 16602 in FIG 166 respectively The straight lines (planes) parallel to the T direction are L 16301 , L 16302 , L 16401 , L 16402 , L 16501 , L 16502 , L 16601 , and L 16602 , respectively.
この場合、図22の領域R1201のデータについては、図168に示すように、領域R1201のうちの、直線L16301とL16302とで挟まれる領域R16801のデータを、「低域成分動画データ」とすることができる。 In this case, as shown in FIG. 168, for the data in the region R 1201 in FIG. 22, the data in the region R 16801 between the straight lines L 16301 and L 16302 in the region R 1201 Data ".
さらに、領域R1201のデータについては、図169に示すように、領域R1201のうちの、直線L16401とL16402とで挟まれる領域から、直線L16301とL16302とで挟まれる領域を除いた領域R16901のデータを、「中低域成分動画データ」とすることができる。 Further, for the data of the area R 1201, except as shown in Figure 169, of the region R 1201, a region sandwiched by the straight line L 16401 and L 16402, the region sandwiched by the straight line L 16301 and L 16302 The data in the region R 16901 can be “middle and low range component moving image data”.
また、領域R1201のデータについては、図170に示すように、領域R1201のうちの、直線L16501とL16502とで挟まれる領域から、直線L16401とL16402とで挟まれる領域を除いた領域R17001のデータを、「中高域成分動画データ」とすることができる。 Also, the data of the area R 1201, except as shown in Figure 170, of the region R 1201, a region sandwiched by the straight line L 16501 and L 16502, the region sandwiched by the straight line L 16401 and L 16402 The data in the region R 17001 can be “middle and high range component moving image data”.
さらに、領域R1201のデータについては、図171に示すように、領域R1201のうちの、直線L16601とL16602とで挟まれる領域から、直線L16501とL16502とで挟まれる領域を除いた領域R17101のデータを、「高域成分動画データ」とすることができる。 Furthermore, as for the data of the region R 1201 , as shown in FIG. 171, the region sandwiched between the straight lines L 16501 and L 16502 is excluded from the region sandwiched between the straight lines L 16601 and L 16602 in the region R 1201. The data in the region R 17101 can be “high frequency component moving image data”.
この場合、図87の領域R8701の「低域成分動画データ」は、図168の領域R16801のデータで、図88の領域R8801の「中低域成分動画データ」は、図169の領域R16901のデータで、図89の領域R8901の「中高域成分動画データ」は、図170の領域R17001のデータで、図90の領域R9001の「高域成分動画データ」は、図171の領域R17101のデータで、それぞれ近似される。 In this case, the “low frequency component moving image data” in the region R 8701 in FIG. 87 is the data in the region R 16801 in FIG. 168, and the “middle low frequency component moving image data” in the region R 8801 in FIG. 88 is the region in FIG. In the data of R 16901 , the “middle and high frequency component moving image data” in the region R 8901 in FIG. 89 is the data in the region R 17001 in FIG. 170, and the “high frequency component moving image data” in the region R 9001 in FIG. Are approximated with the data of the region R 17101 .
次に、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分の動画データ、つまり、図23の領域R1301のデータについては、図91の領域R9101の「低域成分動画データ」、図92の領域R9201の「中低域成分動画データ」、図93の領域R9301の「中高域成分動画データ」、図94の領域R9401の「高域成分動画データ」に代えて、例えば、次のような周波数成分のデータを、それぞれ、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」とすることができる。 Next, for example, moving image data of a portion of the moving image in which a subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, that is, data in the region R 1301 in FIG. 91, “Low-frequency component moving image data” in region R 9101 , “Middle and low-frequency component moving image data” in region R 9201 in FIG. 92, “Middle and high-frequency component moving image data” in region R 9301 in FIG. 93, and region R in FIG. Instead of 9401 “high-frequency component video data”, for example, the following frequency component data are respectively “low-frequency component video data”, “middle-low-frequency component video data”, and “middle-high-frequency component video data”. "," High-frequency component moving image data ".
即ち、図172に示すように、周波数ドメインにおいて、原点を通り、図23の領域R1301のデータの主成分方向に延びる直線(平面)をL1301とし、その直線L1301と、1/(4t0)のフレームレートの表示能力を表す図83の領域R8301との2つの交点を、P17201とP17202とする。 That is, as shown in FIG. 172, in the frequency domain, a straight line (plane) passing through the origin and extending in the principal component direction of the data in the region R 1301 in FIG. 23 is L 1301 , and the straight line L 1301 and 1 / (4t Two intersection points with the region R 8301 in FIG. 83 representing the display capability of the frame rate of 0 ) are P 17201 and P 17202 .
また、図173に示すように、周波数ドメインにおいて、直線L1301と、1/(2t0)のフレームレートの表示能力を表す図82の領域R8201との2つの交点を、P17301とP17302とする。 Further, as shown in FIG. 173, in the frequency domain, two intersection points of a straight line L 1301 and a region R 8201 of FIG. 82 representing the display capability of the frame rate of 1 / (2t 0 ) are represented by P 17301 and P 17302. And
さらに、図174に示すように、周波数ドメインにおいて、直線L1301と、1/(4t0/3)のフレームレートの表示能力を表す図81の領域R8101との2つの交点を、P17401とP17402とする。 Furthermore, as shown in FIG. 174, in the frequency domain, the straight line L 1301, the two intersections between the region R 8101 of Figure 81 that represents the display capability of a frame rate of 1 / (4t 0/3) , and P 17401 P 17402 .
また、図175に示すように、周波数ドメインにおいて、直線L1301と、1/t0のフレームレートの表示能力を表す図80の領域R8001との2つの交点を、P17501とP17502とする。 Also, as shown in FIG. 175, in the frequency domain, two intersections of the straight line L 1301 and the region R 8001 in FIG. 80 representing the display capability of the frame rate of 1 / t 0 are designated as P 17501 and P 17502 . .
そして、図176に示すように、図172の点P17201,P17202、図173の点P17301,P17302、図174の点P17401,P17402、図175の点P17501,P17502をそれぞれ通り、T方向に平行な直線(平面)を、それぞれ、L17201,L17202,L17301,L17302,L17401,L17402,L17501,L17502とする。 Then, as shown in FIG. 176, point P 17201, P 17202 in FIG 172, the point P 17301, P 17302 in FIG 173, the point P 17401, P 17402 in FIG 174, the point P 17501, P 17502 in FIG 175 respectively The straight lines (planes) parallel to the T direction are denoted by L 17201 , L 17202 , L 17301 , L 17302 , L 17401 , L 17402 , L 17501 , and L 17502 , respectively.
この場合、図23の領域R1301のデータについては、図177に示すように、領域R1301のうちの、直線L17201とL17202とで挟まれる領域R17701のデータを、「低域成分動画データ」とすることができる。 In this case, as shown in FIG. 177, for the data in the region R 1301 in FIG. 23, the data in the region R 17701 between the straight lines L 17201 and L 17202 in the region R 1301 Data ".
さらに、領域R1301のデータについては、図178に示すように、領域R1301のうちの、直線L17301とL17302とで挟まれる領域から、直線L17201とL17202とで挟まれる領域を除いた領域R17801のデータを、「中低域成分動画データ」とすることができる。 Furthermore, as for the data of region R 1301 , as shown in FIG. 178, the region sandwiched between straight lines L 17201 and L 17202 is excluded from the region sandwiched between straight lines L 17301 and L 17302 in region R 1301. The data of the region R 17801 can be “middle and low range component moving image data”.
また、領域R1301のデータについては、図179に示すように、領域R1301のうちの、直線L17401とL17402とで挟まれる領域から、直線L17301とL17302とで挟まれる領域を除いた領域R17901のデータを、「中高域成分動画データ」とすることができる。 As for the data of the region R 1301 , as shown in FIG. 179, the region sandwiched between the straight lines L 17301 and L 17302 is excluded from the region sandwiched between the straight lines L 17401 and L 17402 in the region R 1301. The data in the region R 17901 can be “middle and high range component moving image data”.
さらに、領域R1301のデータについては、図180に示すように、領域R1301のうちの、直線L17501とL17502とで挟まれる領域から、直線L17401とL17402とで挟まれる領域を除いた領域RR18001のデータに着目する。そして、この場合、領域R1301のうちの、直線L17501とL17502とで挟まれる領域を除いた領域RRR18001にもデータが存在しているので、「高域成分動画データ」は、領域RR18001と領域RRR18001の2つの領域を合わせた領域R18001とする。換言すれば、いずれの場合においても、「高域成分動画データ」は、基本帯域のうち、「低域成分動画データ」と「中低域成分動画データ」と「中高域成分動画データ」の3つのデータを除いた領域のデータであると言っても良い。 Furthermore, for the data of region R 1301 , as shown in FIG. 180, the region sandwiched between straight lines L 17501 and L 17502 in the region R 1301 is excluded from the region sandwiched between straight lines L 17401 and L 17402. Focus on the data in the region RR 18001 . In this case, since data also exists in the region RRR 18001 excluding the region sandwiched between the straight lines L 17501 and L 17502 in the region R 1301 , the “high frequency component moving image data” is the region RR. The region R 18001 is a combination of the two regions 18001 and RRR 18001 . In other words, in any case, the “high-frequency component video data” includes three of the basic bands, “low-frequency component video data”, “middle-low frequency component video data”, and “middle-high frequency component video data”. It may be said that it is the data of the area excluding one data.
この場合、図91の領域R9101の「低域成分動画データ」は、図177の領域R17701のデータで、図92の領域R9201の「中低域成分動画データ」は、図178の領域R17801のデータで、図93の領域R9301の「中高域成分動画データ」は、図179の領域R17901のデータで、図94の領域R9401の「高域成分動画データ」は、図180の領域R18001のデータで、それぞれ近似される。 In this case, the “low frequency component moving image data” in the region R 9101 in FIG. 91 is the data in the region R 17701 in FIG. 177, and the “middle low frequency component moving image data” in the region R 9201 in FIG. 92 is the region in FIG. In the data of R 17801 , the “middle and high frequency component moving image data” in the region R 9301 in FIG. 93 is the data in the region R 17901 in FIG. 179, and the “high frequency component moving image data” in the region R 9401 in FIG. Are approximated by the data of the region R 18001 .
図158乃至図180で説明した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」を採用した場合、受信装置2から表示装置3に供給される動画データ(合成動画データ)には、折り返し成分が含まれることがあるが、折り返し成分が含まれているとしても、僅かであり、それほどの画質の劣化は生じない。
When the “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” described with reference to FIGS. The moving image data (synthetic moving image data) supplied to the
さらに、図158乃至図180で説明した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」を採用した場合には、図84乃至図94で説明した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」を採用する場合に比較して、メモリ容量を少なくし、あるいは回路規模を小型化することができる。 Further, when the “low frequency component video data”, “middle low frequency component video data”, “middle high frequency component video data”, and “high frequency component video data” described with reference to FIGS. Compared with the case where “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” described in FIGS. Can be reduced or the circuit scale can be reduced.
即ち、図84乃至図94で説明した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」を採用した場合には、図21の領域R1101や、図22の領域R1201、図23の領域R1301を、図84乃至図94に示したような、T方向に直交する方向に分割する領域の通過帯域のフィルタリングを行う必要があり、そのようなフィルタリングには、注目ブロックのフレーム(注目フレーム)の他、注目フレーム以外のフレームが対象となる。従って、この場合、注目フレーム以外のフレーム(例えば、注目ブロックの前後1フレーム以上)を記憶しておく必要があり、そのためのフレームメモリが必要となる。つまり、時間方向に関するフィルタリングが必要であり、それは即ち、注目フレーム以外のフレームを使用したフィルタリング処理が必要となることを意味する。 That is, when “low frequency component moving image data”, “middle low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” described in FIGS. The region R 1101 shown in FIG. 21, the region R 1201 shown in FIG. 22, and the region R 1301 shown in FIG. 23 are filtered in the pass band of the region divided in the direction orthogonal to the T direction as shown in FIGS. It is necessary to perform such filtering on a frame other than the frame of interest in addition to the frame of the block of interest (frame of interest). Therefore, in this case, it is necessary to store frames other than the target frame (for example, one or more frames before and after the target block), and a frame memory for that purpose is required. That is, filtering in the time direction is necessary, which means that filtering processing using a frame other than the frame of interest is necessary.
これに対して、図158乃至図180で説明した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」を採用した場合には、図21の領域R1101や、図22の領域R1201、図23の領域R1301を、図161や、図162、図168乃至図171、図177乃至図180に示したような、T方向に平行な方向に分割する領域の通過帯域のフィルタリングを行えば良く、そのフィルタリングは、注目フレームだけを対象とすれば済む。従って、この場合、注目フレーム以外のフレームを記憶しておく必要はなく、そのためのフレームメモリも不要となる。その結果、メモリ容量を少なくし、あるいは回路規模を小型化することができる。つまり、空間方向に関するフィルタリングを行えば良く、それは即ち、注目フレーム内の画素のみを使用したフィルタリング処理となるので、フレーム間をまたがる処理は不要である。 On the other hand, when the “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” described in FIGS. 21 corresponds to the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. 23 as shown in FIG. 161, FIGS. 162, 168 to 171 and 177 to 180, respectively. It is only necessary to filter the passband of the region divided in the direction parallel to the direction, and the filtering need only be performed on the frame of interest. Therefore, in this case, it is not necessary to store frames other than the frame of interest, and a frame memory for that purpose is also unnecessary. As a result, the memory capacity can be reduced or the circuit scale can be reduced. That is, it is only necessary to perform filtering in the spatial direction, that is, filtering processing using only the pixels in the frame of interest, so that processing that spans between frames is unnecessary.
なお、動画データを、図84乃至図94で説明した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」に分割し、あるいは、図158乃至図180で説明した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」に分割する場合、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」それぞれが分布する周波数ドメイン上の領域は、動画データにおける被写体の動きの大きさ(速さ)に依存する。 The video data is divided into “low frequency component video data”, “middle and low frequency component video data”, “middle and high frequency component video data”, and “high frequency component video data” described with reference to FIGS. Alternatively, when dividing into “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data” described in FIGS. The region on the frequency domain where each of the “component video data”, “middle and low frequency component video data”, “middle and high frequency component video data”, and “high frequency component video data” is distributed is the magnitude of movement of the subject in the video data ( Speed).
即ち、動画データにおいて、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」に分割しようとする部分としての、例えば、注目ブロックの動きベクトルが小さい場合には、その注目ブロックのデータが分布する周波数ドメイン上の領域のほとんどが、「低域成分動画データ」の領域になり、「高域成分動画データ」の領域はほとんど0となる。そして、注目ブロックの動きベクトルが大きければ大きいほど、「高域成分動画データ」の領域が増える。 That is, in the video data, for example, as a part to be divided into “low frequency component video data”, “middle low frequency component video data”, “middle high frequency component video data”, “high frequency component video data” When the motion vector of a block is small, most of the region on the frequency domain where the data of the block of interest is distributed is the region of “low-frequency component video data”, and almost the region of “high-frequency component video data” 0. Then, the larger the motion vector of the block of interest is, the more “high-frequency component moving image data” area is.
具体的には、例えば、注目ブロックの、次のフレームに対する動きベクトルがほぼ0である場合には、即ち、注目ブロックに、動画の中で静止している被写体が投影されている場合には、その注目ブロックのデータが分布する周波数ドメイン上の領域、即ち、例えば、図20の領域R1001のすべてが「低域成分動画データ」の領域となる。 Specifically, for example, when the motion vector of the block of interest with respect to the next frame is approximately 0, that is, when a stationary object in the moving image is projected onto the block of interest, A region on the frequency domain in which the data of the block of interest is distributed, that is, for example, all of the region R 1001 in FIG. 20 is a region of “low-frequency component moving image data”.
また、例えば、注目ブロックの、次のフレームに対する動きベクトルの大きさがr0/2程度である場合、即ち、注目ブロックにおいて、被写体が速度「(r0/t0)/2」程度で動いている場合には、その注目ブロックのデータが分布する周波数ドメイン上の領域、即ち、例えば、図21の領域R1101のうちの、図84の領域R8401や図161の領域R16101などのほとんどの領域が、「低域成分動画データ」の領域となり、図85の領域R8501や図162の領域R16201などが、「中低域成分動画データ」の領域となる。そして、図86の領域R8601などの僅かな領域が、「中高域成分動画データ」の領域となる。
Further, for example, the block of interest, if the magnitude of the motion vector for the next frame is about r 0/2, i.e., in the block of interest,
さらに、例えば、注目ブロックの、次のフレームに対する動きベクトルの大きさがr0程度である場合、即ち、注目ブロックにおいて、被写体が速度「r0/t0」程度で動いている場合には、その注目ブロックのデータが分布する周波数ドメイン上の領域、即ち、例えば、図22の領域R1201のうちの、図87の領域R8701や図168の領域R16801などが、「低域成分動画データ」の領域となり、図88の領域R8801や図169の領域R16901などが、「中低域成分動画データ」となる。そして、図89の領域R8901や図170の領域R17001などが、「中高域成分動画データ」の領域となり、図90の領域R9001や図171の領域R17101などが、「高域成分動画データ」の領域となる。 Further, for example, when the size of the motion vector of the block of interest for the next frame is about r 0, that is, when the subject is moving at a speed of about “r 0 / t 0 ” in the block of interest, A region on the frequency domain in which the data of the block of interest is distributed, that is, for example, region R 8701 in FIG. 87 and region R 16801 in FIG. 168 in region R 1201 in FIG. The region R 8801 in FIG. 88, the region R 16901 in FIG. 169, and the like become “middle and low range component moving image data”. The region R 8901 in FIG. 89, the region R 17001 in FIG. 170, and the like become the “middle and high frequency component moving image data” region, and the region R 9001 in FIG. 90 and the region R 17101 in FIG. Data "area.
また、例えば、注目ブロックの、次のフレームに対する動きベクトルの大きさが、より大きい、例えば2r0程度である場合、即ち、注目ブロックにおいて、被写体が速度「2r0/t0」程度で動いている場合には、その注目ブロックのデータが分布する周波数ドメイン上の領域、即ち、例えば、図23の領域R1301のうちの、図91の領域R9101や図177の領域R17701などが、「低域成分動画データ」の領域となり、図92の領域R9201や図178の領域R17801などが、「中低域成分動画データ」となる。そして、図93の領域R9301や図179の領域R17901などが、「中高域成分動画データ」の領域となり、図94の領域R9401や図180の領域R18001などが、「高域成分動画データ」の領域となる。 Further, for example, when the size of the motion vector of the block of interest for the next frame is larger, for example, about 2r 0, that is, the subject moves at a speed of about “2r 0 / t 0 ” in the block of interest. If you are at a region on the frequency domain data of the block of interest is distributed, i.e., for example, of the region R 1301 in FIG. 23, and a region R 17701 in the region R 9101 and Figure 177 in FIG. 91, " The region R 9201 in FIG. 92, the region R 17801 in FIG. 178, and the like become “middle and low range component moving image data”. Then, the region R 9301 in FIG. 93 and the region R 17901 in FIG. 179 become the “middle and high frequency component moving image data” region, and the region R 9401 in FIG. 94 and the region R 18001 in FIG. Data "area.
なお、上述の場合には、図80乃至図83で説明した4つの表示能力に応じて、動画データを分割するようにしたが、動画データの分割は、その他の表示能力に応じて行うことも可能である。 In the above case, the moving image data is divided according to the four display capabilities described with reference to FIGS. 80 to 83. However, the moving image data may be divided according to other display capabilities. Is possible.
さらに、動画のデータの分割数は、上述した「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」の4つに限定されるものではなく、2つまたは3つ、あるいは5つ以上であっても良い。 Furthermore, the number of divisions of moving image data is limited to the above-mentioned “low frequency component moving image data”, “middle and low frequency component moving image data”, “middle and high frequency component moving image data”, and “high frequency component moving image data”. It may be two, three, or five or more.
また、動画データの分割数や、動画データの分割をどのような表示能力に応じて行うかは、例えば、あらかじめ固定の値を設定しておくこともできるし、ユーザの操作に応じて設定することもできる。 In addition, the number of divisions of the moving image data and the display capability for dividing the moving image data can be set in advance according to the user's operation, for example. You can also.
さらに、図95乃至図97では、動画データのうちの、基本帯域内の周波数成分を通過させるフィルタリングと、動画データから「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、または「高域成分動画データ」を分割するフィルタリングとを、同時に行うようにしたが、即ち、例えば、図95のステップS203では、フィルタ部202において、フィルタ情報が表す基本帯域の周波数成分を通過させ、かつ、図83の領域R8301の周波数成分を通過させるフィルタを適用することで、「低域成分動画データ」を得るようにしたが、動画データのうちの、基本帯域内の周波数成分を通過させるフィルタリングと、動画データから「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、または「高域成分動画データ」を分割するフィルタリングとは、別々に行うことが可能である。即ち、まず、動画データのうちの、基本帯域内の周波数成分を通過させるフィルタリングを行い、そのフィルタリング結果を対象に、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、または「高域成分動画データ」を分割するフィルタリングを行うことが可能である。 Further, in FIGS. 95 to 97, filtering that passes frequency components in the basic band of the moving image data, and “low frequency component moving image data”, “middle low frequency component moving image data”, “middle and high frequencies” from the moving image data. The component moving image data "or the filtering for dividing the" high frequency component moving image data "is performed at the same time. That is, for example, in step S203 of FIG. “Low frequency component moving image data” is obtained by applying a filter that allows the frequency component to pass and the frequency component of region R 8301 in FIG. 83 to pass. However, within the basic band of the moving image data, Filtering to pass the frequency component of the video, and from the video data "low frequency component video data", "middle low frequency component video data", "middle high frequency component video data Or filtering to split the "high-frequency component video data" may be performed separately. That is, first, filtering is performed to pass the frequency component in the basic band of the moving image data, and the filtering result is set as “low frequency component moving image data”, “middle low frequency component moving image data”, “middle high frequency range”. It is possible to perform filtering that divides “component moving image data” or “high frequency component moving image data”.
次に、図79の送信装置1では、図80乃至図83で説明した4つの表示能力に応じて、動画データを、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」の4つに分割するので、表示装置3(図24)が、図80乃至図83で説明した4つの表示能力のうちのいずれかの表示能力を有する場合には、受信装置2(図24)において、表示装置3の表示能力に応じて、「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」を合成することにより、表示装置3において、上述したように、動画データを適切に表示することができる。
Next, in the
しかしながら、表示装置3(図24)が、図80乃至図83で説明した4つの表示能力のうちのいずれの表示能力を有するものでもない場合、そのような表示装置3においては、動画データを適切に表示することが困難となる。
However, when the display device 3 (FIG. 24) does not have any of the four display capabilities described with reference to FIGS. 80 to 83, the
また、図79の送信装置1のように、複数の周波数成分に分割して動画データを送信してくれるとは限らない。そのような場合、1/t0というフレームレートよりも低いフレームレートの表示能力しかない表示装置3では、適切な表示をすることが困難となる。即ち、送信装置1が動画データを分割して送信してくれない限り、受信装置2では表示装置3の表示能力に応じた適切な動画データを生成することが出来ない。
Further, unlike the
そこで、受信装置2(図24)では、表示装置3の表示能力に応じた動画データを生成して、表示装置3に供給するようにすることができるように改良する必要がある。
Therefore, the receiving device 2 (FIG. 24) needs to be improved so that moving image data corresponding to the display capability of the
以下、そのような受信装置2について説明するが、その前に、表示装置3の表示能力に応じた動画データについて説明する。ここで、受信装置2には、例えば、図25の送信装置1が出力するフレームレートが1/(4t0)の低フレームレートの動画データ(エンコードデータ)が、記録媒体11(図24)または伝送媒体12を介して供給されるものとする。なお、受信装置2には、上述したような「低域成分動画データ」、「中低域成分動画データ」、「中高域成分動画データ」、「高域成分動画データ」などの複数の周波数成分に分割された動画データが供給されてもよいが、その場合、受信装置2では、その複数の周波数成分が合成され、その合成の結果得られる動画データを対象として処理が行われる。
Hereinafter, such a
例えば、表示装置3が、図83で説明した表示能力を有する場合、即ち、1/(4t0)のフレームレートを有する場合においては、表示装置3では、図83の領域R8301内のデータを表示することができる。
For example, when the
そして、送信装置1からの動画データの中で、例えば、静止している被写体が投影されている部分については、図20の領域R1001にデータが存在するから、図181に示すように、その領域R1001と、図83の領域R8301とが重複する領域R18101のデータを、表示装置3に供給すればよい。
Then, for example, in the moving image data from the
また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図21の領域R1101にデータが存在するから、図182に示すように、その領域R1101と、図83の領域R8301とが重複する領域R18201のデータを、表示装置3に供給すればよい。
Further, for example, in the moving image data from the
さらに、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、図22の領域R1201にデータが存在するから、図183に示すように、その領域R1201と、図83の領域R8301とが重複する領域R18301のデータを、表示装置3に供給すればよい。
Further, in the moving image data from the
また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、図23の領域R1301にデータが存在するから、図184に示すように、その領域R1301と、図83の領域R8301とが重複する領域R18401のデータを、表示装置3に供給すればよい。
Further, for example, in the moving image data from the
以下、送信装置1からの動画データの中で、他の速度で移動する被写体の部分についても同様である。
Hereinafter, the same applies to the portion of the subject moving at other speeds in the moving image data from the
次に、例えば、表示装置3が、図82で説明した表示能力を有する場合、即ち、1/(2t0)のフレームレートを有する場合においては、表示装置3では、図82の領域R8201内のデータを表示することができる。
Next, for example, when the
そして、送信装置1からの動画データの中で、例えば、静止している被写体が投影されている部分については、図20の領域R1001にデータが存在するから、図185に示すように、その領域R1001と、図82の領域R8201とが重複する領域R18501のデータを、表示装置3に供給すればよい。
Then, for example, in the moving image data from the
また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図21の領域R1101にデータが存在するから、図186に示すように、その領域R1101と、図82の領域R8201とが重複する領域R18601のデータを、表示装置3に供給すればよい。
Further, for example, in the moving image data from the
さらに、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、図22の領域R1201にデータが存在するから、図187に示すように、その領域R1201と、図82の領域R8201とが重複する領域R18701のデータを、表示装置3に供給すればよい。
Further, in the moving image data from the
また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、図23の領域R1301にデータが存在するから、図188に示すように、その領域R1301と、図82の領域R8201とが重複する領域R18801のデータを、表示装置3に供給すればよい。
Further, for example, in the moving image data from the
以下、送信装置1からの動画データの中で、他の速度で移動する被写体の部分についても同様である。
Hereinafter, the same applies to the portion of the subject moving at other speeds in the moving image data from the
次に、例えば、表示装置3が、図81で説明した表示能力を有する場合、即ち、1/(4t0/3)のフレームレートを有する場合においては、表示装置3では、図81の領域R8101内のデータを表示することができる。
Then, for example, the
そして、送信装置1からの動画データの中で、例えば、静止している被写体が投影されている部分については、図20の領域R1001にデータが存在するから、図189に示すように、その領域R1001と、図81の領域R8101とが重複する領域R18901のデータを、表示装置3に供給すればよい。
Then, for example, in the moving image data from the
また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図21の領域R1101にデータが存在するから、図190に示すように、その領域R1101と、図81の領域R8101とが重複する領域R19001のデータを、表示装置3に供給すればよい。
Further, for example, in the moving image data from the
さらに、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、図22の領域R1201にデータが存在するから、図191に示すように、その領域R1201と、図81の領域R8101とが重複する領域R19101のデータを、表示装置3に供給すればよい。
Further, in the moving image data from the
また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、図23の領域R1301にデータが存在するから、図192に示すように、その領域R1301と、図81の領域R8101とが重複する領域R19201のデータを、表示装置3に供給すればよい。
Further, for example, in the moving image data from the
以下、送信装置1からの動画データの中で、他の速度で移動する被写体の部分についても同様である。
Hereinafter, the same applies to the portion of the subject moving at other speeds in the moving image data from the
次に、例えば、表示装置3が、図80で説明した表示能力を有する場合、即ち、1/t0のフレームレートを有する場合においては、表示装置3では、図80の領域R8001内のデータを表示することができる。
Next, for example, when the
そして、送信装置1からの動画データの中で、例えば、静止している被写体が投影されている部分については、図20の領域R1001にデータが存在するから、図193に示すように、その領域R1001と、図80の領域R8001とが重複する領域R19301のデータを、表示装置3に供給すればよい。
Then, for example, in the moving image data from the
また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図21の領域R1101にデータが存在するから、図194に示すように、その領域R1101と、図80の領域R8001とが重複する領域R19401のデータを、表示装置3に供給すればよい。
Further, for example, in the moving image data from the
さらに、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「r0/t0」程度で動いている部分については、図22の領域R1201にデータが存在するから、図195に示すように、その領域R1201と、図80の領域R8001とが重複する領域R19501のデータを、表示装置3に供給すればよい。
Further, in the moving image data from the
また、送信装置1からの動画データの中で、例えば、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、図23の領域R1301にデータが存在するから、図196に示すように、その領域R1301と、図80の領域R8001とが重複する領域R19601のデータを、表示装置3に供給すればよい。
Further, for example, in the moving image data from the
以下、送信装置1からの動画データの中で、他の速度で移動する被写体の部分についても同様である。
Hereinafter, the same applies to the portion of the subject moving at other speeds in the moving image data from the
以上から、表示装置3に対しては、その表示能力に応じて、次のような動画データを供給すれば良い。
From the above, the following moving image data may be supplied to the
即ち、表示装置3の表示能力としてのフレームレートを、変数dを用いて、1/(d×t0と表すと、その表示能力は、周波数ドメイン上において、次のような領域RBで表される。
That is, when the frame rate as the display capability of the
領域RB={(X,Y,T)|−π/r0≦X≦π/r0、かつ、−π/r0≦Y≦π/r0、
かつ、−π/(d×t0)≦T≦π/(d×t0)}
Region R B = {(X, Y, T) | −π / r 0 ≦ X ≦ π / r 0 , and −π / r 0 ≦ Y ≦ π / r 0 ,
And −π / (d × t 0 ) ≦ T ≦ π / (d × t 0 )}
また、送信装置1からの動画データの各部分のデータが存在する周波数ドメイン上の領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301は、上述したように、動画データの各部分のデータの主成分方向に延びる、T方向の幅が2π/(4t0)の領域である。そして、データの主成分方向は、上述したように、そのデータの空間方向x,yの動きベクトル(2次元の動きベクトル)に対して、フレーム周期を、時間方向tのコンポーネントとして加えた3次元の動きベクトルと直交する。
Further, regions on the frequency domain where data of each part of the moving image data from the
いま、データの空間方向x,yの動きベクトルを、(u0,v0)とすると、送信装置1からの動画データのフレーム周期は4t0であるから、3次元の動きベクトルは、(u0,v0,4t0)と表すことができる。主成分方向は、この動きベクトル(u0,v0,4t0)に直交する。
Now, assuming that the motion vector in the spatial direction x, y of the data is (u 0 , v 0 ), the frame period of the moving image data from the
従って、送信装置1からの動画データの各部分のデータが存在する周波数ドメイン上の領域(正確には、原点を通り、主成分方向に延びる直線(平面)から、T方向に±π/(4t0)の範囲の領域)は、次のような領域RCで表される。
Therefore, the region on the frequency domain where the data of each part of the moving image data from the
領域RC={点(0,0,-π/(4t0))を通り、
動きベクトル(u0,v0,4t0)に垂直な平面と、
点(0,0,π/(4t0))を通り、
動きベクトル(u0,v0,4t0)に垂直な平面とに囲まれる領域}
Through the region R C = {point (0,0, -π / (4t 0 ))
A plane perpendicular to the motion vector (u 0 , v 0 , 4t 0 ),
Through the point (0,0, π / (4t 0 ))
Region surrounded by a plane perpendicular to the motion vector (u 0 , v 0 , 4t 0 )}
表示装置3に対しては、領域RBとRCとが重なる領域RA(=RB∩RC)の動画データを供給すれば良い。ここで、表示装置3に対して供給すべき動画データの周波数ドメイン上の領域を、以下、適宜、供給領域という。領域RAは、供給領域である。
The
図197は、供給領域RAの動画データを得て表示装置3に供給する図24の受信装置2の構成例を示している。
FIG. 197 shows a configuration example of the receiving
なお、図197において、図33における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図197の受信装置2は、フィルタ部52とフィルタ情報供給部62に代えて、フィルタ部301とフィルタ情報供給部302がそれぞれ設けられている他は、図33における場合と同様に構成されている。
In FIG. 197, portions corresponding to those in FIG. 33 are denoted by the same reference numerals, and description thereof will be omitted as appropriate. That is, the receiving
図197においては、フィルタ部301とフィルタ情報供給部302に対して、表示装置3の表示能力(を表す情報)が供給されるようになっている。ここで、表示装置3が表示能力を供給する機能を有する場合には、表示装置3の表示能力は、例えば、表示装置3から、フィルタ部301とフィルタ情報供給部302に対して供給させるようにすることができる。また、表示装置3の表示能力は、例えば、受信装置2の図示せずに操作部をユーザに操作してもらうことによって、その操作部から、フィルタ部301とフィルタ情報供給部302に対して供給するようにすることも可能である。
In FIG. 197, the display capability (information indicating) of the
フィルタ情報供給部302は、主成分方向取得部61からの主成分方向と、表示装置3の表示能力とから、供給領域RAを求める。
The filter
即ち、フィルタ情報供給部302は、図33のフィルタ情報供給部62と同様に、主成分方向取得部61からの主成分方向の情報に基づき、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸Tの方向に特定の幅としての、例えば、2π/(4t0)を有する、上述の領域RC(例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301などの主成分方向が制限されない領域)を求める。
That is, the filter
ここで、領域RCを求めるには、動きベクトル(u0,v0)が必要であるが、動きベクトル(u0,v0)は、主成分方向取得部61からの主成分方向から認識することができる。なお、主成分方向取得部61では、上述したように、主成分方向を、動きベクトルから求めることができるが、この場合、主成分方向を求めることなく、動きベクトル(2次元または3次元の動きベクトル)を、そのまま、フィルタ情報供給部302に供給することができる。
Here, in order to determine the region R C, it is necessary motion vector (u 0, v 0), the motion vector (u 0, v 0), recognizing the major component direction from the main component
フィルタ情報供給部302は、さらに、表示装置3の表示能力を表す領域RBを求め、その領域RBと、先に求めた領域RCとが重複する領域を、供給領域RAとして求める。なお、領域RBは、表示装置3の表示能力としての、例えば、表示装置3のフレームレート1/(d×t0)から求めることができる。
Filter
フィルタ情報供給部302は、以上のようにして供給領域RAを求めると、その供給領域RAを、フィルタの通過帯域として決定し、その通過帯域を、フィルタ情報として、フィルタ部301に出力する。
Filter
フィルタ部301は、バッファ部51に記憶されたフレームレート1/(4t0)の動画データを用いて、図33のフィルタ部52における場合と同様に、フィルタ情報供給部302からのフィルタ情報に対応したフィルタリングとアップサンプリングを行う。但し、フィルタ部301は、表示装置3の表示能力に応じた倍数のアップサンプリングを行う。
The
即ち、フィルタ部301は、表示装置3の表示能力としての、例えば、表示装置3のフレームレート1/(d×t0)に応じて、4/d倍のアップサンプリングを行う。これにより、フィルタ部301は、フレームレート1/(4t0)の動画データから、フレームレート1/(d×t0)の動画データを得て、表示装置3に供給する。
That is, the
次に、図198のフローチャートを参照して、図197の受信装置2の処理について説明する。
Next, processing of the receiving
デコード部50には、エンコードデータが供給される。デコード部50は、そのエンコードデータを、フレームレートが1/(4t0)の低フレームレートの動画データにデコードし、バッファ部51に供給する。バッファ部51では、デコード部50から供給される1/(4t0)のフレームレートの低フレームレートの動画データが順次記憶される。
The
そして、ステップS301において、フィルタ生成部53は、バッファ部51に記憶された動画データのうちのある部分のデータ、即ち、例えば、図32のステップS21で説明したような16×16画素のブロックのデータを読み出して、自身(フィルタ生成部53)に入力し、ステップS302乃至S304に順次進む。
In step S301, the filter generation unit 53 selects a certain portion of the moving image data stored in the
ステップS302乃至S304では、フィルタ生成部53(の主成分方向取得部61およびフィルタ情報供給部302)が、ステップS301で入力されたデータについて、周波数ドメイン上で人間が認識することができ、かつ、表示装置3で表示することができるデータの領域である供給領域RAを、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部301に供給する。
In steps S302 to S304, the filter generation unit 53 (the principal component
即ち、ステップS302では、フィルタ生成部53の主成分方向取得部61は、ステップS301で入力された部分のデータについて、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部302に供給して、ステップS303に進む。
That is, in step S302, the principal component
なお、ステップS302において主成分方向は、図31で説明したように、3次元フーリエ変換を行うことにより求めることもできるし、図32で説明したように、動きベクトルを検出することにより求めることもできる。また、上述したように、送信装置1からのエンコードデータに、主成分方向(の情報)が多重化されている場合には、デコード部50において、エンコードデータから主成分方向を分離し、主成分方向取得部61において、デコード部50から、その主成分方向の供給を受けることにより、主成分方向を取得することもできる。
In step S302, the principal component direction can be obtained by performing a three-dimensional Fourier transform as described in FIG. 31, or can be obtained by detecting a motion vector as described in FIG. it can. Further, as described above, when the principal component direction (information thereof) is multiplexed in the encoded data from the
さらに、図34のステップS32で説明したように、エンコードデータに空間方向x,yの動きベクトル(u0,v0)が含まれる場合には、その動きベクトル(u0,v0)を、時間方向のコンポーネントt(ここではt=4t0)を加えて、空間方向x,yおよび時間方向tの3次元の動きベクトル(u0,v0,t)とし、その3次元の動きベクトル(u0,v0,t)に直交する方向を主成分方向とすることもできる。 Further, as described in step S32 in FIG. 34, encoded data in the spatial direction x, in the case that contains the y motion vector (u 0, v 0), the motion vector (u 0, v 0), A component t in the time direction (here, t = 4t 0 ) is added to obtain a three-dimensional motion vector (u 0 , v 0 , t) in the spatial direction x, y and the time direction t, and the three-dimensional motion vector ( The direction orthogonal to u 0 , v 0 , t) can be the principal component direction.
ここで、ステップS302では、主成分方向取得部61は、主成分方向ではなく、動きベクトルを、フィルタ情報供給部302に供給しても良い。
Here, in step S302, the principal component
ステップS303では、フィルタ情報供給部302は、主成分方向取得部61から供給される動きベクトル、または主成分方向から得られる動きベクトルに基づき、人間が認識することができるデータの領域RC、つまり、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301(などの主成分方向が制限されない領域)を求める。さらに、フィルタ情報供給部302は、表示装置3の表示能力としてのフレームレート1/(d×t0)に基づき、その表示能力を表す領域RBを求める。そして、フィルタ情報供給部302は、領域RBとRCとが重なる領域を、供給領域RAとして求め、その供給領域RAを、フィルタの通過帯域として決定して、ステップS303からS304に進む。
In step S303, the filter
ステップS304では、フィルタ情報供給部302は、ステップS303で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部301に供給し、ステップS305に進む。
In step S304, the filter
ステップS305では、フィルタ部301が、バッファ部51から動画データを読み出し、そのデータに対して、ステップS304でフィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を4/d倍にするアップサンプリングを行う。
In step S305, the
フィルタ部301は、フィルタリングおよびアップサンプリングを行うことにより、フレームレートが1/(d×t0)の動画データを得て、ステップS305からS306に進む。
The
ステップS306では、フィルタ部301は、ステップS305で得たフレームレート1/(d×t0)の動画データを、フレームレートが1/(d×t0)の表示装置3(図24)に出力する。
In step S306, the
以上のように、周波数ドメイン上で人間が認識することができる領域RCと、表示装置3の表示能力を表す領域RBとが重なる供給領域RAを通過帯域とするフィルタによって、動画データをフィルタリングし、さらに、表示装置3の表示能力に応じたアップサンプリングを行うようにしたので、人間の目の視覚効果を考慮したデータ量の削減が行われた低フレームレートの動画データから、表示装置3の表示能力に適した動画データを得て表示することができる。
As described above, the moving image data is obtained by the filter using the supply region R A in which the region R C that can be recognized by humans on the frequency domain and the region R B representing the display capability of the
このように図181乃至図198を用いて説明したような受信側の構成を採用することで、図79乃至109を用いて説明したような複数の周波数成分に分割された動画データ(例えば、「低域成分動画データ」「中低域成分動画データ」「中高域成分動画データ」および「高域成分動画データ」という4つの動画データ)が、送信装置1から送信されて来ない場合においても、受信装置2(図197に示した装置)で最適な周波数成分のみを復元することで、表示装置3における最適な動画データを表示することが出来る。
In this way, by adopting the configuration on the receiving side as described with reference to FIGS. 181 to 198, moving image data divided into a plurality of frequency components as described with reference to FIGS. 79 to 109 (for example, “ Even when the low-frequency component moving image data, “middle and low-frequency component moving image data”, “middle and high-frequency component moving image data” and “high-frequency component moving image data” are not transmitted from the
次に、図199は、供給領域RAの動画データを得て表示装置3に供給する図24の受信装置2の他の構成例を示している。
Next, FIG. 199 shows another configuration example of the receiving
なお、図199において、図197における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図199の受信装置2は、デコード部50が、MPEGデコーダ311とフィルタ情報供給部312とで構成されており、フィルタ生成部53が設けられていない他は、図197における場合と同様に構成されている。
In FIG. 199, portions corresponding to those in FIG. 197 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, in the
図199の受信装置2のデコード部50には、図25の送信装置1のエンコード部24においてフレームレート1/(4t0)の動画データが、例えば、MPEGエンコードされることによって得られるエンコードデータが、記録媒体11(図24)または伝送媒体12を介して供給されるようになっている。
In the
デコード部50では、MPEGデコーダ311が、デコード部50に供給されるエンコードデータを、フィルタ情報供給部312から供給されるフィルタ情報に基づいてMPEGデコードし、その結果得られるフレームレート1/(4t0)の動画データを、バッファ部51に供給する。
In the
フィルタ情報供給部312には、表示装置3の表示能力としての表示装置3のフレームレート1/(d×t0)が供給されるようになっている。ここで、表示装置3が表示能力を供給する機能を有する場合には、表示装置3の表示能力は、例えば、表示装置3から、フィルタ情報供給部312に対して供給させるようにすることができる。また、表示装置3の表示能力は、例えば、受信装置2の図示せずに操作部をユーザに操作してもらうことによって、その操作部から、フィルタ情報供給部312に対して供給するようにすることも可能である。なお、表示装置3の表示能力は、フィルタ情報供給部312の他、フィルタ部301にも供給されるようになっている。
The filter
フィルタ情報供給部312は、表示装置3の表示能力としての表示装置3のフレームレート1/(d×t0)に基づき、領域RBを求める。さらに、フィルタ情報供給部312は、MPEGデコーダ311がエンコードデータをMPEGデコードするのに用いる動きベクトルを取得し、その動きベクトルに基づき、領域RCを求める。そして、フィルタ情報供給部312は、領域RBとRCとが重複する領域である供給領域RAを求め、その供給領域RAを、フィルタの通過帯域として決定し、その通過帯域を、フィルタ情報として、フィルタ部301に出力する。
Filter
さらに、フィルタ情報供給部312は、フィルタ情報を、MPEGデコーダ311にも供給し、これにより、MPEGデコーダ311を制御する。
Further, the filter
次に、図200のフローチャートを参照して、図199の受信装置2の処理について説明する。
Next, processing of the
デコード部50には、エンコードデータが供給される。デコード部50は、ステップS311において、そのエンコードデータを、MPEGデコーダ311に入力し、ステップS312に進む。
The
ステップS312では、MPEGデコーダ311は、エンコードデータから動きベクトルを取り出し(抽出し)、フィルタ情報供給部312に供給して、ステップS313に進む。
In step S312, the
ステップS313では、フィルタ情報供給部312は、MPEGデコーダ311から供給された動きベクトルを用い、エンコードデータに動きベクトルが含まれていないマクロブロックの動きベクトルを推測し、これにより、エンコードデータにMPEGエンコードされたフレームレート1/(4t0)の動画データのマクロブロックすべてについて、動きベクトルを得る。
In step S313, the filter
即ち、動画データがMPEGエンコードされる場合、動画データの各ピクチャ(フレームまたはフィールド)は、例えば、I(Intra),P(Predictive),B(Bidirectionally Predictive )ピクチャのうちのいずれかに分類される。そして、Iピクチャは、動き補償を利用することなくエンコードされるため、Iピクチャのマクロブロックには、動きベクトルが存在しない。そこで、ステップS313では、このように動きベクトルがないマクロブロックの動きベクトルが、例えば、前後のフレームのマクロブロックの動きベクトルを用いた内挿や外挿等によって推測される。 That is, when the moving image data is MPEG-encoded, each picture (frame or field) of the moving image data is classified into, for example, one of I (Intra), P (Predictive), and B (Bidirectionally Predictive) pictures. . Since the I picture is encoded without using motion compensation, no motion vector exists in the macroblock of the I picture. Therefore, in step S313, the motion vector of the macroblock having no motion vector is estimated by, for example, interpolation or extrapolation using the motion vector of the macroblock of the preceding and succeeding frames.
その後、ステップS313からS314に進み、フィルタ情報供給部312は、例えば、マクロブロックについて、周波数ドメイン上で人間が認識することができ、かつ、表示装置3で表示することができるデータの領域である供給領域RAを、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部301とMPEGデコーダ311に供給する。
Thereafter, the process proceeds from step S313 to S314, and the filter
即ち、ステップS314では、図198のステップS303における場合と同様に、フィルタ情報供給部312は、マクロブロックの動きベクトルに基づき、人間が認識することができるデータの領域RCを求める。さらに、フィルタ情報供給部312は、表示装置3の表示能力としてのフレームレート1/(d×t0)に基づき、その表示能力を表す領域RBを求める。そして、フィルタ情報供給部312は、領域RBとRCとが重なる領域を、供給領域RAとして求め、その供給領域RAを、フィルタの通過帯域として決定して、その通過帯域(を表す情報)を、フィルタ情報として、フィルタ部301とMPEGデコーダ311に供給する。
That is, in step S314, as in step S303 in FIG. 198, the filter
その後、ステップS314からS315に進み、MPEGデコーダ311は、フィルタ情報供給部312からのフィルタ情報が表す通過帯域内のデータのみを通過する帯域制限フィルタを適用しながら、そのフィルタ情報を求めるときに用いられた動きベクトルを有するマクロブロックをMPEGデコード(解凍)し、その結果得られるフレームレート1/(4t0)の動画データを、バッファ部51に供給して記憶させる。
Thereafter, the process proceeds from step S314 to step S315, and the
即ち、ここでは、エンコードデータは、動画データをMPEGエンコードしたものであるから、動画データは、周波数軸上のデータであるDCT(Discrete Cosine Transform)係数に変換されている。ステップS315では、MPEGデコーダ311は、フィルタ情報が表す通過帯域外の周波数成分に対応するDCT係数を、強制的に0にしてからMPEGデコードを行うことで、等価的に、フィルタ情報が表す通過帯域内のデータのみを通過する帯域制限フィルタを適用しながら、エンコードデータをMPEGデコードすることができる。
That is, here, since the encoded data is obtained by MPEG encoding moving image data, the moving image data is converted into DCT (Discrete Cosine Transform) coefficients that are data on the frequency axis. In step S315, the
そして、ステップS315からS316に進み、フィルタ部301が、バッファ部51からMPEGデコード後の動画データを読み出し、そのデータに対して、ステップS314でフィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を4/d倍にするアップサンプリングを行う。
Then, the process proceeds from step S315 to S316, and the
フィルタ部301は、フィルタリングおよびアップサンプリングを行うことにより、フレームレートが1/(d×t0)の動画データを得て、ステップS316からS317に進む。
The
ステップS317では、フィルタ部301は、ステップS316で得たフレームレート1/(d×t0)の動画データを、フレームレートが1/(d×t0)の表示装置3(図24)に出力する。
In step S317, the
以上のように、周波数ドメイン上で人間が認識することができる領域RCと、表示装置3の表示能力を表す領域RBとが重なる供給領域RAを通過帯域とするフィルタによって、動画データをフィルタリングし、さらに、表示装置3の表示能力に応じたアップサンプリングを行うようにしたので、人間の目の視覚効果を考慮したデータ量の削減が行われた低フレームレートの動画データから、表示装置3の表示能力に適した動画データを得て表示することができる。
As described above, the moving image data is obtained by the filter using the supply region R A in which the region R C that can be recognized by humans on the frequency domain and the region R B representing the display capability of the
なお、供給領域RAを求めるにあたっては、領域RCに代えて、次のような領域RC'を採用することが可能である。 Incidentally, when obtaining the feed region R A, instead of the region R C, it is possible to adopt an area R C 'as follows.
領域RC'={(X,Y,T)|XとYは、-4π/d≦(u0×X+v0×Y)≦4π/dを満たし、
さらに、-π/r0≦X≦π/r0、かつ、-π/r0≦Y≦π/r0を満たす。}∩RC
Region R C '= {(X, Y, T) | X and Y satisfy −4π / d ≦ (u 0 × X + v 0 × Y) ≦ 4π / d,
Further, −π / r 0 ≦ X ≦ π / r 0 and −π / r 0 ≦ Y ≦ π / r 0 are satisfied. } ∩R C
ここで、(u0,v0)は、マクロブロックの動きベクトルである。 Here, (u 0 , v 0 ) is a macroblock motion vector.
なお、領域RC'の定義によれば、動きベクトル、つまり、u0またはv0が大であるほど、周波数ドメイン上のXとYが小さな値に制限される。従って、領域RC'は、動きベクトルが小であるほど、空間方向の周波数X,Yが高くなるように拡がり、動きベクトルが大であるほど、空間方向の周波数X,Yが低くなるように狭まる。 According to the definition of the region R C ′, X and Y on the frequency domain are limited to small values as the motion vector, that is, u 0 or v 0 is larger. Therefore, the region R C ′ expands so that the smaller the motion vector, the higher the spatial direction frequency X, Y, and the larger the motion vector, the lower the spatial direction frequency X, Y. It narrows.
領域RCに代えて、領域RC'を採用した場合の供給領域をRA'と表すこととすると、供給領域RA'は、以下のような領域となる。 Instead of the region R C, when 'the supply area in the case of adopting the R A' region R C and is represented as the supply region R A 'is equal to or less than the above region.
即ち、例えば、表示装置3が、1/(4t0)のフレームレートを有する場合においては、供給領域RA'は、以下のような領域となる。
That is, for example, when the
例えば、動画の中で、静止している被写体が投影されている部分については、領域RA'は、図201に示すように、図20の領域R1001と同一の領域R20101となる。 For example, for a portion of a moving image where a stationary subject is projected, the region R A ′ is the same region R 20101 as the region R 1001 in FIG. 20, as shown in FIG.
また、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、領域RA'は、図202に示すように、図21の領域R1101のうちの、図160に示した直線L15801とL15802とで挟まれる領域R20201となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 ) / 2”, the region R A ′ is as shown in FIG. , of the region R 1101 in FIG. 21, a region R 20201 sandwiched by the straight line L 15801 and L 15802 shown in FIG 160.
さらに、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)」程度で動いている部分については、領域RA'は、図203に示すように、図22の領域R1201のうちの、図167に示した直線L16301とL16302とで挟まれる領域R20301となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 )”, the region R A ′ is shown in FIG. Of the 22 regions R 1201, the region R 20301 is sandwiched between the straight lines L 16301 and L 16302 shown in FIG. 167.
また、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、領域RA'は、図204に示すように、図23の領域R1301のうちの、図176に示した直線L17201とL17202とで挟まれる領域R20401となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, the region R A ′ is shown in FIG. Of the region R 1301, the region R 20401 is sandwiched between the straight lines L 17201 and L 17202 shown in FIG. 176.
次に、例えば、表示装置3が、1/(2t0)のフレームレートを有する場合においては、供給領域RA'は、以下のような領域となる。
Next, for example, when the
例えば、動画の中で、静止している被写体が投影されている部分については、領域RA'は、図205に示すように、図20の領域R1001と同一の領域R20501となる。 For example, for a portion of a moving image where a stationary subject is projected, the region R A ′ is the same region R 20501 as the region R 1001 in FIG. 20, as shown in FIG.
また、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、領域RA'は、図206に示すように、図21の領域R1101のうちの、図160に示した直線L15901とL15902とで挟まれる領域R20601、即ち、領域R1101と同一の領域R20601となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2”, the region R A ′ is as shown in FIG. , of the region R 1101 in FIG. 21, the region R 20601 sandwiched by the straight line L 15901 and L 15902 shown in FIG 160, i.e., the same region R 20601 and the region R 1101.
さらに、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)」程度で動いている部分については、領域RA'は、図207に示すように、図22の領域R1201のうちの、図167に示した直線L16401とL16402とで挟まれる領域R20701となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 )”, the region R A ′ is shown in FIG. Of the 22 regions R 1201, the region R 20701 is sandwiched between the straight lines L 16401 and L 16402 shown in FIG. 167.
また、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、領域RA'は、図208に示すように、図23の領域R1301のうちの、図176に示した直線L17301とL17302とで挟まれる領域R20801となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, the region R A ′ is shown in FIG. Of the region R 1301, the region R 20801 is sandwiched between the straight lines L 17301 and L 17302 shown in FIG. 176.
次に、例えば、表示装置3が、1/(4t0/3)のフレームレートを有する場合においては、供給領域RA'は、以下のような領域となる。
Then, for example, the
例えば、動画の中で、静止している被写体が投影されている部分については、領域RA'は、図209に示すように、図20の領域R1001と同一の領域R20901となる。 For example, for a portion of a moving image where a stationary subject is projected, the region R A ′ is the same region R 20901 as the region R 1001 in FIG. 20, as shown in FIG.
また、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、領域RA'は、図210に示すように、図21の領域R1101と同一の領域R21001となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 ) / 2”, the region R A ′ is as shown in FIG. The region R 21001 is the same as the region R 1101 in FIG.
さらに、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)」程度で動いている部分については、領域RA'は、図211に示すように、図22の領域R1201のうちの、図167に示した直線L16501とL16502とで挟まれる領域R21101となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 )”, the region R A ′ is shown in FIG. Of the 22 regions R 1201, the region R 21101 is sandwiched between the straight lines L 16501 and L 16502 shown in FIG. 167.
また、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、領域RA'は、図212に示すように、図23の領域R1301のうちの、図176に示した直線L17401とL17402とで挟まれる領域R21201となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, the region R A ′ is shown in FIG. Of the region R 1301, the region R 21201 is sandwiched between the straight lines L 17401 and L 17402 shown in FIG.
次に、例えば、表示装置3が、1/t0のフレームレートを有する場合においては、供給領域RA'は、以下のような領域となる。
Next, for example, when the
例えば、動画の中で、静止している被写体が投影されている部分については、領域RA'は、図213に示すように、図20の領域R1001と同一の領域R21301となる。 For example, in a portion of the moving image where a stationary subject is projected, the region R A ′ is the same region R 21301 as the region R 1001 in FIG. 20, as shown in FIG.
また、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、領域RA'は、図214に示すように、図21の領域R1101と同一の領域R21401となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2”, the region R A ′ is as shown in FIG. The region R 21401 is the same as the region R 1101 in FIG.
さらに、例えば、動画の中で、そこに投影されている被写体が速度「(r0/t0)」程度で動いている部分については、領域RA'は、図215に示すように、図22の領域R1201と同一の領域R21501となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of “(r 0 / t 0 )”, the region R A ′ is shown in FIG. The region R 21501 is the same as the 22 region R 1201 .
また、例えば、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分については、領域RA'は、図216に示すように、図23の領域R1301と同一の領域R21601となる。 Further, for example, in a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, the region R A ′ is shown in FIG. The region R 21601 is the same as the region R 1301 .
領域RAは、例えば、図181乃至図196に示した領域であり、領域RA'は、例えば、図201乃至図216に示した領域である。図181乃至図196に示した領域RAそれぞれと、図201乃至図216に示した領域RA'それぞれとは、ほぼ同様の領域でる。 The region R A is, for example, the region illustrated in FIGS. 181 to 196, and the region R A ′ is, for example, the region illustrated in FIGS. 201 to 216. Each of the regions R A shown in FIGS. 181 to 196 and each of the regions R A ′ shown in FIGS. 201 to 216 are substantially the same regions.
従って、受信装置2では、領域RAを通過帯域とするフィルタリングに代えて、領域RA'を通過帯域とするフィルタリングを行うようにすることができる。
Accordingly, the receiving
また、表示装置3が、1/(d×t0)のフレームレートを有する場合、表示装置3では、時間方向に、領域RBを通過帯域とするフィルタリングが(等価的に)行われる。従って、受信装置2では、送信装置1からのフレームレート1/(4t0)の動画データに対して、領域RA'ではなく、領域RC'を通過帯域とするフィルタリングを施せば、表示装置3では、実質的に、領域RA'、ひいては領域RAを通過帯域とするフィルタリングを行った場合と同様の表示を行うことができる。
Further, the
この場合、メモリ容量を少なくし、あるいは回路規模を小型化することができる。 In this case, the memory capacity can be reduced or the circuit scale can be reduced.
即ち、図181乃至図196に示したような領域RAは、T方向に直交する方向に、領域RCを制限した領域となるので、そのような領域RAを通過帯域とするフィルタリングには、注目ブロックのフレーム(注目フレーム)の他、注目フレーム以外のフレームが対象となる。従って、この場合、注目フレーム以外のフレーム(例えば、注目ブロックの前後1フレーム以上)を記憶しておく必要があり、そのためのフレームメモリが必要となる。つまり、時間方向に関するフィルタリングが必要であり、それは即ち、注目フレーム以外のフレームを使用したフィルタリング処理が必要となることを意味する。 That is, the region R A, as shown in FIGS. 181 to Fig. 196, in a direction perpendicular to the T direction, since the region with a limited region R C, the filtering of such regions R A and passband In addition to the frame of the block of interest (frame of interest), the frame other than the frame of interest is the target. Therefore, in this case, it is necessary to store frames other than the target frame (for example, one or more frames before and after the target block), and a frame memory for that purpose is required. That is, filtering in the time direction is necessary, which means that filtering processing using a frame other than the frame of interest is necessary.
これに対して、領域RC'は、T方向と直交する方向に制限されていないので、即ち、T方向と平行な方向にのみ制限されるので、そのフィルタリングは、注目フレームだけを対象とすれば済む。従って、この場合、注目フレーム以外のフレームを記憶しておく必要はなく、そのためのフレームメモリも不要となる。その結果、メモリ容量を少なくし、あるいは回路規模を小型化することができる。つまり、空間方向に関するフィルタリングを行えば良く、それは即ち、注目フレーム内の画素のみを使用したフィルタリング処理となるので、フレーム間をまたがる処理は不要である。 On the other hand, since the region R C ′ is not limited to a direction orthogonal to the T direction, that is, limited to a direction parallel to the T direction, the filtering is performed only on the target frame. I'll do it. Therefore, in this case, it is not necessary to store frames other than the frame of interest, and a frame memory for that purpose is also unnecessary. As a result, the memory capacity can be reduced or the circuit scale can be reduced. That is, it is only necessary to perform filtering in the spatial direction, that is, filtering processing using only the pixels in the frame of interest, so that processing that spans between frames is unnecessary.
なお、上述の場合には、図197や図199の受信装置2に、図24の送信装置1において1/t0の高フレームレートの動画データを処理して得られる1/(4t0)の低フレームレートの動画データを入力し、受信装置2において、その動画データを、表示装置3のフレームレートに応じたフレームレートの動画データに変換するようにしたが、図197や図199の受信装置2には、元々、1/(4t0)のフレームレートの動画データを入力しても良い。また、図197や図199の受信装置2には、1/(4t0)以外のフレームレートの動画データを入力しても良い。
In the above-described case, 1 / (4t 0 ) of 1 /
次に、上述した一連の処理は、専用のハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。 Next, the series of processes described above can be performed by dedicated hardware or by software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer or the like.
そこで、図217は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。 Therefore, FIG. 217 shows a configuration example of an embodiment of a computer in which a program for executing the series of processes described above is installed.
コンピュータのメイン・コントローラであるCPU(Central Processing Unit)401は、バス408を介して、各部に接続されており、オペレーティング・システム(OS)の制御下で、アプリケーションプログラムを実行することにより、上述した一連の処理を行う。CPU401が実行するアプリケーションプログラムには、上述した一連の処理を行うためのものが含まれており、CPU401は、例えば、VTR(Video Tape Recorder)410から、VTRインターフェース409、バス408、および外部機器インターフェース407を介して、HDD(Hard disk Drive)414へダウンロードされた動画データを処理する。
A CPU (Central Processing Unit) 401, which is a main controller of the computer, is connected to each unit via a
メモリ402は、CPU401において実行されるプログラム・コードを格納したり、実行中の作業データを一時保管するために使用される記憶装置である。なお、メモリ402には、ROM(Read Only Memory)などの不揮発性メモリ及びDRAM(Dynamic Random Access Memory)などの揮発性メモリの双方が含まれる。
The
ディスプレイコントローラ403は、CPU401が発行する描画命令を実際に処理するための専用コントローラである。ディスプレイ・コントローラ403において処理された描画データは、例えばフレーム・バッファ(図示しない)に一旦書き込まれた後、ディスプレイ411によって画面出力される。例えば、HDD414から再生された動画は、上述したように、ディスプレイ411で画面表示される。
The
入力機器インターフェース404は、キーボード412やマウス413などのユーザ入力機器をコンピュータに接続するための装置である。ユーザは、キーボード412やマウス413を介して、動画を再生するためのコマンドなどを入力することができる。
The
ネットワークインターフェース405は、Ethernet(登録商標)などの所定の通信プロトコルに従って、コンピュータをLAN(Local Area Network)などの局所的ネットワーク、さらにはインターネットのような広域ネットワークに接続することができる。なお、ネットワーク上では、複数のホスト端末やサーバ(図示しない)がトランスペアレントな状態で接続され、分散コンピューティング環境が構築されている。ネットワーク上では、上述した一連の処理を実行するためのアプリケーションプログラムを含むソフトウェア・プログラムや、エンコードデータを含むデータ・コンテンツなどの配信サービスを行うことができる。また、コンピュータでは、例えば、他人が撮影した動画等が保存されているサーバから、動画データやエンコードデータを、ネットワークを経由してネットワークインターフェース405で受信し、HDD414へダウンロードすることができる。
The
外部機器インターフェース407は、HDD414やメディア・ドライブ415などの外部装置をコンピュータに接続するための装置である。
The
HDD414は、記憶媒体としての磁気ディスクを固定的に搭載したランダムアクセス可能な外部記憶装置であり、記憶容量やデータ転送速度などの点で他の外部記憶装置よりも優れている。HDD414には、上述した一連の処理を実行するアプリケーションプログラム等がインストールされる。ここで、「インストール」とは、ソフトウェア・プログラムを実行可能な状態でHDD414上に置くことを意味する。HDD414には、CPU401が実行すべきオペレーティング・システムのプログラム・コードや、アプリケーション・プログラム、デバイス・ドライバなどが不揮発的に格納される。なお、アプリケーションプログラムは、可搬形メディア416から、あるいは、ネットワークインターフェース405を介してダウンロードして、HDD414にインストールすることができる。また、アプリケーションプログラムは、あらかじめHDD414にインストールしておくことができる。
The
メディア・ドライブ415は、CD(Compact Disc)やMO(Magneto-Optical disc)、DVD(Digital Versatile Disc)などの可搬型メディア416を装填して、そのデータ記録面にアクセスするための装置である。 The media drive 415 is a device for loading portable media 416 such as CD (Compact Disc), MO (Magneto-Optical disc), DVD (Digital Versatile Disc), etc., and accessing the data recording surface.
可搬型メディア416は、主として、ソフトウェア・プログラムやデータ・ファイルなどをコンピュータ可読形式のデータとしてバックアップすることや、これらをシステム間で移動(すなわち販売・流通・配布を含む)する目的で使用される。上述した一連の処理を実行するアプリケーションプログラムや、そのアプリケーションプログラムを実行することにより得られるエンコードデータは、可搬型メディア416を利用して複数の機器間で物理的に流通・配布することができる。また、エンコードデータは、ネットワークインターフェース405を介して配信することもできる。
The portable media 416 is used mainly for the purpose of backing up software programs, data files, and the like as data in a computer-readable format, and for moving them between systems (that is, including sales, distribution, and distribution). . The application program for executing the above-described series of processing and the encoded data obtained by executing the application program can be physically distributed and distributed among a plurality of devices using the portable medium 416. The encoded data can also be distributed via the
VTRインターフェース409は、VTR410から再生される動画をコンピュータ内に取り込むための装置である。
The
なお、図217に示すコンピュータとしては、米IBM社のパーソナル・コンピュータ"PC/AT(Personal Computer/Advanced Technology)"の互換機又は後継機を採用することができる。勿論、他のアーキテクチャを備えたコンピュータを採用しても良い。 As the computer shown in FIG. 217, a compatible computer or a successor of IBM's personal computer “PC / AT (Personal Computer / Advanced Technology)” can be employed. Of course, you may employ | adopt the computer provided with the other architecture.
また、上述した実施の形態では、送信装置1において、人間が認識することができる周波数ドメイン上の領域を通過帯域とするフィルタリングを行いながら、ダウンサンプリングを行うことにより、1/t0のフレームレートの動画データを、1/(4t0)のフレームレートの動画データとするようにしたが、ダウンサンプリングは、必ずしも行う必要はない。ダウンサンプリングを行わない場合には、フィルタリング後の動画データのフレーム数は、フィルタリング前と変わらないが、その周波数成分は、人間が認識することができる周波数ドメイン上の領域内に制限されるので、即ち、その領域外の周波数成分は除去されるので、(フィルタリング後の動画データに周波数軸上への変換を施すエンコードを適用することにより)その除去された周波数成分の分だけのデータ量の削減を行うことができる。
In the embodiment described above, the frame rate of 1 / t 0 is obtained by performing downsampling while performing filtering using the region on the frequency domain that can be recognized by humans as the passband in the
1 送信装置, 2 受信装置, 3 表示装置, 11 記録媒体, 12 伝送媒体, 21 バッファ部, 22 フィルタ部, 23 フィルタ生成部, 24 エンコード部, 31 主成分方向取得部, 32 フィルタ情報供給部, 50 デコード部, 51 バッファ部, 52 フィルタ部, 53 フィルタ生成部, 61 主成分方向取得部, 62 フィルタ情報供給部, 101 バッファ部, 102 ブロック抽出部, 103 相関演算部, 104 スケーリング合成部, 105 最小値検出部, 124 合成部, 125 最小値検出部, 202 フィルタ部, 211 抽出部, 221 抽出部, 222 合成部, 223 フィルタ部, 231 抽出部, 232 合成部, 233 フィルタ部, 241 抽出部, 242 合成部, 251 抽出部, 252 合成部, 253 フィルタ部, 301 フィルタ部, 302 フィルタ情報供給部, 311 MPEGデコーダ, 312 フィルタ情報供給部, 401 CPU, 402 メモリ, 403 ディスプレイコントローラ, 404 入力機器インターフェース, 405 ネットワークインターフェース, 407 外部機器インターフェース, 409 VTRインターフェース, 410 VTR, 411 ディスプレイ, 412 キーボード, 413 マウス, 414 HDD, 415 メディアドライブ, 416 可搬型メディア
DESCRIPTION OF
Claims (30)
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記動画データの第1主成分の方向である主成分方向を検出する主成分方向検出ステップと、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、前記フィルタの通過帯域として決定する領域決定ステップと、
前記フィルタの通過帯域を、前記フィルタ情報として出力する出力ステップと
を含む画像処理方法。 In an image processing method for obtaining filter information, which is filter information for filtering video data,
A principal component direction detection step of detecting a principal component direction which is a direction of the first principal component of the moving image data on a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction;
In the frequency domain, a region that extends in the principal component direction and has a specific width corresponding to a visual integration function in the direction of the frequency axis in the time direction is determined as a passband of the filter Steps,
Images processing method and an output step of outputting the passband of the filter, as the filter information.
請求項1に記載の画像処理方法。 In the principal component direction detection step, a direction orthogonal to the direction of the vector on the frequency domain, which is the same component as the vector representing the motion of the block composed of one or more pixels in the moving image data, is detected as the principal component direction.
The image processing method according to 請 Motomeko 1.
前記動画データにおいて注目している注目フレームの前記ブロックと、前記注目フレームに対して時間的に前後の複数のフレームそれぞれとの相関を表す相関情報を演算する相関情報演算ステップと、
前記ブロックと前記複数のフレームそれぞれとの相関情報を空間方向にスケーリングして合成した合成相関情報を求めるスケーリング合成ステップと、
前記合成相関情報が表す相関が最大となる空間方向の位置である最大相関位置を検出し、前記最大相関位置へのベクトルを、前記ブロックの動きベクトルとして求める位置検出ステップと
を含み、
前記ブロックの動きベクトルと同一コンポーネントの、前記周波数ドメイン上のベクトルの方向と直交する方向を、前記主成分方向として検出する
請求項2に記載の画像処理方法。 The principal component direction detection step includes:
A correlation information calculation step of calculating correlation information indicating a correlation between the block of the target frame of interest in the moving image data and each of a plurality of frames temporally preceding and following the target frame;
A scaling and combining step for obtaining combined correlation information obtained by scaling and combining correlation information between the block and each of the plurality of frames in a spatial direction;
A position detecting step of detecting a maximum correlation position that is a position in a spatial direction where the correlation represented by the combined correlation information is maximum, and obtaining a vector to the maximum correlation position as a motion vector of the block, and
A direction orthogonal to the direction of the vector on the frequency domain of the same component as the motion vector of the block is detected as the principal component direction.
The image processing method according to 請 Motomeko 2.
請求項3に記載の画像処理方法。 The range of the plurality of frames is a range corresponding to a range of frames used for filtering by the filter.
The image processing method according to 請 Motomeko 3.
前記動画データにおいて注目している注目フレームの前記ブロックと、前記注目フレームに対して時間的に前後の複数のフレームそれぞれとの相関を表す相関情報を演算する相関情報演算ステップと、
前記ブロックと前記複数のフレームそれぞれとの相関情報を空間方向にスケーリングして合成した合成相関情報を、前記相関情報を合成する数を変えて複数求めるスケーリング合成ステップと、
複数の前記合成相関情報のうちの、相関が最大の合成相関情報である最大合成相関情報を求め、その最大合成相関情報が表す相関が最大となる空間方向の位置である最大相関位置を検出し、前記最大相関位置へのベクトルを、前記ブロックの動きベクトルとして求める位置検出ステップと
を含み、
前記ブロックの動きベクトルと同一コンポーネントの、前記周波数ドメイン上のベクトルの方向と直交する方向を、前記主成分方向として検出する
請求項2に記載の画像処理方法。 The principal component direction detection step includes:
A correlation information calculation step of calculating correlation information indicating a correlation between the block of the target frame of interest in the moving image data and each of a plurality of frames temporally preceding and following the target frame;
A scaling combining step of obtaining a plurality of combined correlation information obtained by scaling and combining the correlation information between the block and each of the plurality of frames in a spatial direction, by changing the number of the correlation information to be combined;
Among the plurality of composite correlation information, the maximum composite correlation information which is the maximum correlation information is obtained, and the maximum correlation position which is the position in the spatial direction where the correlation represented by the maximum composite correlation information is maximum is detected. And a position detecting step for obtaining a vector to the maximum correlation position as a motion vector of the block,
A direction orthogonal to the direction of the vector on the frequency domain of the same component as the motion vector of the block is detected as the principal component direction.
The image processing method according to 請 Motomeko 2.
請求項5に記載の画像処理方法。 In the position detection step, a frame range used for calculating the correlation information synthesized to obtain the maximum synthesized correlation information among the plurality of frames is further obtained as an effective range of the motion vector.
The image processing method according to 請 Motomeko 5.
請求項6に記載の画像処理方法。 Filtering by the filter is performed using pixels in the frame in the effective range.
The image processing method according to 請 Motomeko 6.
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記動画データの第1主成分の方向である主成分方向を検出する主成分方向検出手段と、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、前記フィルタの通過帯域として決定し、前記フィルタ情報として出力する領域決定手段と
を備える画像処理装置。 In an image processing apparatus that obtains filter information that is filter information for filtering video data,
Principal component direction detection means for detecting a principal component direction which is a direction of the first principal component of the moving image data on a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction;
In the frequency domain, a region extending in the principal component direction and having a specific width corresponding to a visual integration function in the direction of the frequency axis in the time direction is determined as a passband of the filter, images processing device and a region determination unit that outputs a filter information.
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記動画データの第1主成分の方向である主成分方向を検出する主成分方向検出ステップと、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、前記フィルタの通過帯域として決定する領域決定ステップと、
前記フィルタの通過帯域を、前記フィルタ情報として出力する出力ステップと
を含む画像処理をコンピュータに実行させるプログラム。 In a program for causing a computer to execute image processing for obtaining filter information, which is filter information for filtering moving image data,
A principal component direction detection step of detecting a principal component direction which is a direction of the first principal component of the moving image data on a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction;
In the frequency domain, a region that extends in the principal component direction and has a specific width corresponding to a visual integration function in the direction of the frequency axis in the time direction is determined as a passband of the filter Steps,
A program for causing a computer to execute image processing including an output step of outputting the pass band of the filter as the filter information.
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記動画データの第1主成分の方向である主成分方向を検出する主成分方向検出ステップと、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、前記フィルタの通過帯域として決定する領域決定ステップと、
前記フィルタの通過帯域を、前記フィルタ情報として出力する出力ステップと
を含む画像処理をコンピュータに実行させるプログラムが記録されているプログラム記録媒体。 In a program recording medium in which a program for causing a computer to execute image processing for obtaining filter information that is filter information for filtering moving image data is recorded.
A principal component direction detection step of detecting a principal component direction which is a direction of the first principal component of the moving image data on a frequency domain defined by a frequency axis in a time direction and a frequency axis in a spatial direction;
In the frequency domain, a region that extends in the principal component direction and has a specific width corresponding to a visual integration function in the direction of the frequency axis in the time direction is determined as a passband of the filter Steps,
A program recording medium in which a program for causing a computer to execute image processing including an output step of outputting the pass band of the filter as the filter information is recorded.
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、前記第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、前記第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、前記第2のフレームレートの動画データを得るフィルタステップと、
前記フィルタステップで得られた前記第2のフレームレートの動画データを出力する出力ステップと
を含む画像処理方法。 In the image processing method of filtering moving image data having a first frame rate, down-sampling in the time direction, and outputting moving image data having a second frame rate lower than the first frame rate,
In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, a region extending in the principal component direction that is the direction of the first principal component of the moving image data at the first frame rate, the time By filtering the moving image data of the first frame rate with a region having a specific width corresponding to the visual integration function in the direction of the frequency axis of the direction as a pass band, and down-sampling in the time direction, the first A filter step for obtaining video data having a frame rate of 2;
Images processing method and an output step of outputting the video data of the second frame rate obtained by the filter step.
請求項11に記載の画像処理方法。 A principal component direction that is a direction of a first principal component of the moving image data at the first frame rate on the frequency domain is detected, and an area extending in the principal component direction in the frequency domain, the time domain an area with a specified width in the direction of the frequency axis direction, further comprising a pass band calculating step of determining as said pass band
The image processing method according to 請 Motomeko 11.
請求項11に記載の画像処理方法。 In the output step, the moving image data of the second frame rate is output together with the principal component direction.
The image processing method according to 請 Motomeko 11.
請求項12に記載の画像処理方法。 In the passband calculation step, a direction orthogonal to the direction of the vector on the frequency domain of the same component as the vector representing the motion of the block composed of one or more pixels in the moving image data of the first frame rate is set to the main domain. Detect as component direction
The image processing method according to 請 Motomeko 12.
前記第1のフレームレートの動画データにおいて注目している注目フレームの前記ブロックと、前記注目フレームに対して時間的に前後の複数のフレームそれぞれとの相関を表す相関情報を演算する相関情報演算ステップと、
前記ブロックと前記複数のフレームそれぞれとの相関情報を空間方向にスケーリングして合成した合成相関情報を求めるスケーリング合成ステップと、
前記合成相関情報が表す相関が最大となる空間方向の位置である最大相関位置を検出し、前記最大相関位置へのベクトルを、前記ブロックの動きベクトルとして求める位置検出ステップと
を含み、
前記ブロックの動きベクトルと同一コンポーネントの、前記周波数ドメイン上のベクトルの方向と直交する方向を、前記主成分方向として検出する
請求項14に記載の画像処理方法。 The passband calculation step includes
Correlation information calculation step for calculating correlation information indicating the correlation between the block of the target frame of interest in the moving image data of the first frame rate and each of a plurality of frames temporally preceding and following the target frame. When,
A scaling and combining step for obtaining combined correlation information obtained by scaling and combining correlation information between the block and each of the plurality of frames in a spatial direction;
A position detecting step of detecting a maximum correlation position that is a position in a spatial direction where the correlation represented by the combined correlation information is maximum, and obtaining a vector to the maximum correlation position as a motion vector of the block, and
A direction orthogonal to the direction of the vector on the frequency domain of the same component as the motion vector of the block is detected as the principal component direction.
The image processing method according to 請 Motomeko 14.
請求項15に記載の画像処理方法。 The range of the plurality of frames is a range corresponding to a range of frames used when filtering moving image data having the first frame rate.
The image processing method according to 請 Motomeko 15.
前記第1のフレームレートの動画データにおいて注目している注目フレームの前記ブロックと、前記注目フレームに対して時間的に前後の複数のフレームそれぞれとの相関を表す相関情報を演算する相関情報演算ステップと、
前記ブロックと前記複数のフレームそれぞれとの相関情報を空間方向にスケーリングして合成した合成相関情報を、前記相関情報を合成する数を変えて複数求めるスケーリング合成ステップと、
複数の前記合成相関情報のうちの、相関が最大の合成相関情報である最大合成相関情報を求め、その最大合成相関情報が表す相関が最大となる空間方向の位置である最大相関位置を検出し、前記最大相関位置へのベクトルを、前記ブロックの動きベクトルとして求める位置検出ステップと
を含み、
前記ブロックの動きベクトルと同一コンポーネントの、前記周波数ドメイン上のベクトルの方向と直交する方向を、前記主成分方向として検出する
請求項14に記載の画像処理方法。 The passband calculation step includes
Correlation information calculation step for calculating correlation information indicating the correlation between the block of the target frame of interest in the moving image data of the first frame rate and each of a plurality of frames temporally preceding and following the target frame. When,
A scaling combining step of obtaining a plurality of combined correlation information obtained by scaling and combining the correlation information between the block and each of the plurality of frames in a spatial direction, by changing the number of the correlation information to be combined;
Among the plurality of composite correlation information, the maximum composite correlation information which is the maximum correlation information is obtained, and the maximum correlation position which is the position in the spatial direction where the correlation represented by the maximum composite correlation information is maximum is detected. And a position detecting step for obtaining a vector to the maximum correlation position as a motion vector of the block,
A direction orthogonal to the direction of the vector on the frequency domain of the same component as the motion vector of the block is detected as the principal component direction.
The image processing method according to 請 Motomeko 14.
請求項17に記載の画像処理方法。 In the position detection step, a frame range used for calculating the correlation information synthesized to obtain the maximum synthesized correlation information among the plurality of frames is further obtained as an effective range of the motion vector.
The image processing method according to 請 Motomeko 17.
請求項18に記載の画像処理方法。 The filtering of the moving image data at the first frame rate is performed using pixels of the frames in the effective range.
The image processing method according to 請 Motomeko 18.
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、前記第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、前記第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、前記第2のフレームレートの動画データを得るフィルタ手段を備える
画像処理装置。 In the image processing apparatus that filters moving image data having a first frame rate and down-samples the moving image data in a time direction to output moving image data having a second frame rate lower than the first frame rate.
In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, a region extending in the principal component direction that is the direction of the first principal component of the moving image data at the first frame rate, the time By filtering the moving image data of the first frame rate with a region having a specific width corresponding to the visual integration function in the direction of the frequency axis of the direction as a pass band, and down-sampling in the time direction, the first Filter means for obtaining moving image data of frame rate 2
Images processing device.
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、前記第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、前記第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、前記第2のフレームレートの動画データを得るフィルタステップと、
前記フィルタステップで得られた前記第2のフレームレートの動画データを出力する出力ステップと
を含む画像処理をコンピュータに実行させるプログラム。 A program for causing a computer to execute image processing for filtering moving image data having a first frame rate and down-sampling the moving image data in a time direction to output moving image data having a second frame rate lower than the first frame rate In
In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, a region extending in the principal component direction that is the direction of the first principal component of the moving image data at the first frame rate, the time By filtering the moving image data of the first frame rate with a region having a specific width corresponding to the visual integration function in the direction of the frequency axis of the direction as a pass band, and down-sampling in the time direction, the first A filter step for obtaining video data having a frame rate of 2;
A program that causes a computer to execute image processing including an output step of outputting moving image data of the second frame rate obtained in the filtering step.
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、前記第1のフレームレートの動画データの第1主成分の方向である主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を通過帯域として、前記第1のフレームレートの動画データをフィルタリングするとともに、時間方向にダウンサンプリングすることにより、前記第2のフレームレートの動画データを得るフィルタステップと、
前記フィルタステップで得られた前記第2のフレームレートの動画データを出力する出力ステップと
を含む画像処理をコンピュータに実行させるプログラムが記録されているプログラム記録媒体。 A program for causing a computer to execute image processing for filtering moving image data having a first frame rate and down-sampling the moving image data in a time direction to output moving image data having a second frame rate lower than the first frame rate In a program recording medium on which is recorded,
In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, a region extending in the principal component direction that is the direction of the first principal component of the moving image data at the first frame rate, the time By filtering the moving image data of the first frame rate with a region having a specific width corresponding to the visual integration function in the direction of the frequency axis of the direction as a pass band, and down-sampling in the time direction, the first A filter step for obtaining video data having a frame rate of 2;
A program recording medium on which a program for causing a computer to execute image processing including an output step of outputting moving image data of the second frame rate obtained in the filter step is recorded.
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得ステップと、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定ステップと、
前記第2のフレームレートの動画データに対して、前記通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、前記第1のフレームレートの動画データを得るフィルタステップと
を含む画像処理方法。 While moving image data having a second frame rate lower than the first frame rate of moving image data having a first frame rate, up-sampling is performed in the time direction, and moving image data having the first frame rate is output. In the image processing method to
Acquisition of principal component direction for acquiring a principal component direction which is a direction of the first principal component of the moving image data of the second frame rate on a frequency domain defined by a frequency axis in the time direction and a frequency axis in the spatial direction. Steps,
In the frequency domain, a region that extends in the principal component direction and has a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction is determined as a passband for the filter. Steps,
A filter that obtains moving image data of the first frame rate by performing upsampling in the time direction while applying a filter that passes the frequency component of the pass band to the moving image data of the second frame rate. images processing method comprising the steps.
請求項23に記載の画像処理方法。 In the principal component direction obtaining step, the principal component direction is obtained by detecting the principal component direction from the moving image data of the second frame rate.
The image processing method according to claim 23 .
請求項24に記載の画像処理方法。 In the principal component direction acquisition step, a direction orthogonal to the direction of the vector on the frequency domain of the same component as the vector representing the motion of the block composed of one or more pixels in the moving image data of the second frame rate is Detect as principal component direction
The image processing method according to claim 24 .
前記主成分方向取得ステップでは、前記動き補償に用いられる動きベクトルと同一コンポーネントの、前記周波数ドメイン上のベクトルの方向と直交する方向を、前記主成分方向として取得する
請求項23に記載の画像処理方法。 In the case where the moving image data of the second frame rate is encoded by an encoding method using at least motion compensation,
In the principal component direction acquisition step, a direction orthogonal to the direction of the vector on the frequency domain of the same component as the motion vector used for the motion compensation is acquired as the principal component direction.
The image processing method according to claim 23 .
請求項23に記載の画像処理方法。 In the passband determining step, the time direction of the region extending in the principal component direction in the frequency domain and having a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction A region in which the width in the direction of the frequency axis is limited corresponding to the exposure time at the time of capturing the moving image data at the second frame rate is determined as the pass band of the filter.
The image processing method according to claim 23 .
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得手段と、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定手段と、
前記第2のフレームレートの動画データに対して、前記通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、前記第1のフレームレートの動画データを得るフィルタ手段と
を備える画像処理装置。 While moving image data having a second frame rate lower than the first frame rate of moving image data having a first frame rate, up-sampling is performed in the time direction, and moving image data having the first frame rate is output. In the image processing apparatus to
Acquisition of principal component direction for acquiring a principal component direction which is a direction of the first principal component of the moving image data of the second frame rate on a frequency domain defined by a frequency axis in the time direction and a frequency axis in the spatial direction. Means,
In the frequency domain, a region that extends in the principal component direction and has a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction is determined as a passband for the filter. Means,
A filter that obtains moving image data of the first frame rate by performing upsampling in the time direction while applying a filter that passes the frequency component of the pass band to the moving image data of the second frame rate. images processing and means.
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得ステップと、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定ステップと、
前記第2のフレームレートの動画データに対して、前記通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、前記第1のフレームレートの動画データを得るフィルタステップと
を含む画像処理をコンピュータに実行させるプログラム。 While moving image data having a second frame rate lower than the first frame rate of moving image data having a first frame rate, up-sampling is performed in the time direction, and moving image data having the first frame rate is output. In a program for causing a computer to execute image processing to be performed,
Acquisition of principal component direction for acquiring a principal component direction which is a direction of the first principal component of the moving image data of the second frame rate on a frequency domain defined by a frequency axis in the time direction and a frequency axis in the spatial direction. Steps,
In the frequency domain, a region that extends in the principal component direction and has a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction is determined as a passband for the filter. Steps,
A filter that obtains moving image data of the first frame rate by performing upsampling in the time direction while applying a filter that passes the frequency component of the pass band to the moving image data of the second frame rate. A program for causing a computer to execute image processing including steps.
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメイン上での、前記第2のフレームレートの動画データの第1主成分の方向である主成分方向を取得する主成分方向取得ステップと、
前記周波数ドメインにおいて、前記主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に視覚の積分機能に応じた特定の幅を有する領域を、フィルタの通過帯域として決定する通過帯域決定ステップと、
前記第2のフレームレートの動画データに対して、前記通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行うことにより、前記第1のフレームレートの動画データを得るフィルタステップと
を含む画像処理をコンピュータに実行させるプログラムが記録されているプログラム記録媒体。 While moving image data having a second frame rate lower than the first frame rate of moving image data having a first frame rate, up-sampling is performed in the time direction, and moving image data having the first frame rate is output. In a program recording medium on which a program for causing a computer to execute image processing is recorded,
Acquisition of principal component direction for acquiring a principal component direction which is a direction of the first principal component of the moving image data of the second frame rate on a frequency domain defined by a frequency axis in the time direction and a frequency axis in the spatial direction. Steps,
In the frequency domain, a region that extends in the principal component direction and has a specific width corresponding to the visual integration function in the direction of the frequency axis in the time direction is determined as a passband for the filter. Steps,
A filter that obtains moving image data of the first frame rate by performing upsampling in the time direction while applying a filter that passes the frequency component of the pass band to the moving image data of the second frame rate. A program recording medium on which a program for causing a computer to execute image processing including steps is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004268303A JP4441865B2 (en) | 2004-09-15 | 2004-09-15 | Image processing method, image processing apparatus, program, and program recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004268303A JP4441865B2 (en) | 2004-09-15 | 2004-09-15 | Image processing method, image processing apparatus, program, and program recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006086705A JP2006086705A (en) | 2006-03-30 |
JP4441865B2 true JP4441865B2 (en) | 2010-03-31 |
Family
ID=36164864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004268303A Expired - Fee Related JP4441865B2 (en) | 2004-09-15 | 2004-09-15 | Image processing method, image processing apparatus, program, and program recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4441865B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2050073A4 (en) * | 2006-08-11 | 2009-12-30 | Thomson Licensing | Accurate motion portrayal for display and digital projectors |
JP6399517B2 (en) * | 2014-12-16 | 2018-10-03 | 東洋ゴム工業株式会社 | Fluid measurement method, fluid measurement device, fluid measurement data generation method, fluid measurement data generation device, and computer program |
-
2004
- 2004-09-15 JP JP2004268303A patent/JP4441865B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006086705A (en) | 2006-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3793205B1 (en) | Content based stream splitting of video data | |
EP2214137B1 (en) | A method and apparatus for frame interpolation | |
JP4780046B2 (en) | Image processing method, image processing apparatus, and image processing program | |
US20100002948A1 (en) | Image enhancement | |
JP2004504736A (en) | Three-dimensional image generation method and apparatus | |
JP2004104656A (en) | Motion vector detection method, frame interpolation image creation method, and image display system | |
US20050259740A1 (en) | Method and apparatus for converting motion image data, method and apparatus for reproducing motion image data, computer program for converting motion image data, and computer program for reproducing motion image data | |
JP2001086507A (en) | Image coder, image coding method, image decoder, image decoding method, medium and image processor | |
JP4882948B2 (en) | Image processing apparatus and method, and program | |
JP2019537913A (en) | Video frame rate conversion using streamed metadata | |
US20100013988A1 (en) | Method and apparatus for transmitting and using picture descriptive information in a frame rate conversion processor | |
WO2007141693A2 (en) | Scaling an image based on a motion vector | |
US8724912B2 (en) | Method, apparatus, and program for compressing images, and method, apparatus, and program for decompressing images | |
JP2011505756A (en) | Temporal image detection | |
JP2008091979A (en) | Image quality improving device, method thereof, and image display device | |
JP2006504175A (en) | Image processing apparatus using fallback | |
US8149913B2 (en) | Moving picture converting apparatus and method, and computer program | |
Croci et al. | Visual attention-aware quality estimation framework for omnidirectional video using spherical Voronoi diagram | |
JP6134267B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JP4441865B2 (en) | Image processing method, image processing apparatus, program, and program recording medium | |
US20070076978A1 (en) | Moving image generating apparatus, moving image generating method and program therefor | |
JP4441866B2 (en) | Image processing method, image processing apparatus, program, and program recording medium | |
JP2008182347A (en) | Video processing system | |
CN114897681A (en) | Multi-user free visual angle video method and system based on real-time virtual visual angle interpolation | |
JP5140637B2 (en) | Spatiotemporal downsampling processing device, spatiotemporal upsampling processing device, encoding device, decoding device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070906 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090818 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091217 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091230 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130122 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |