JPWO2007094329A1 - Moving image processing apparatus, moving image processing method, and moving image processing program - Google Patents

Moving image processing apparatus, moving image processing method, and moving image processing program Download PDF

Info

Publication number
JPWO2007094329A1
JPWO2007094329A1 JP2008500507A JP2008500507A JPWO2007094329A1 JP WO2007094329 A1 JPWO2007094329 A1 JP WO2007094329A1 JP 2008500507 A JP2008500507 A JP 2008500507A JP 2008500507 A JP2008500507 A JP 2008500507A JP WO2007094329 A1 JPWO2007094329 A1 JP WO2007094329A1
Authority
JP
Japan
Prior art keywords
image
video frame
encoding
decoding
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008500507A
Other languages
Japanese (ja)
Other versions
JP5516842B2 (en
Inventor
山田 徹
徹 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2008500507A priority Critical patent/JP5516842B2/en
Publication of JPWO2007094329A1 publication Critical patent/JPWO2007094329A1/en
Application granted granted Critical
Publication of JP5516842B2 publication Critical patent/JP5516842B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ぼかし強度決定装置(301)が、映像フレームごとに、高周波信号を除去するか否かを決定し、高周波信号を除去すると決定した場合に、映像フレームから除去する高周波信号を決定する。画像ぼかし装置(302)が、ぼかし強度決定装置(301)の決定に従って、映像フレームから高周波信号を除去する処理であるぼかし処理を施し、画像をぼかす。ぼかし強度決定装置(301)は、周期的に映像フレームから除去する高周波信号を変化させる。画像符号化装置(303)は、高周波信号が除去された映像フレームを符号化する。The blur intensity determination device (301) determines whether or not to remove the high-frequency signal for each video frame, and when determining to remove the high-frequency signal, determines the high-frequency signal to be removed from the video frame. The image blurring device (302) blurs an image by performing blurring processing, which is processing for removing a high-frequency signal from a video frame, according to the determination of the blur strength determination device (301). The blur intensity determining device (301) periodically changes the high-frequency signal to be removed from the video frame. The image encoding device (303) encodes the video frame from which the high-frequency signal has been removed.

Description

本発明は、入力動画像を符号化して出力する動画像処理装置、動画像処理方法、および動画像処理プログラムに関し、特に、動画像を構成する映像フレームから高周波信号を除去する動画像処理装置、動画像処理方法、および動画像処理プログラムに関する。   The present invention relates to a moving image processing apparatus, a moving image processing method, and a moving image processing program that encode and output an input moving image, and in particular, a moving image processing apparatus that removes a high-frequency signal from a video frame constituting a moving image, The present invention relates to a moving image processing method and a moving image processing program.

DVD(登録商標)への長時間記録や、狭い通信ネットワーク帯域での映像配信を実現するために、低ビットレートでの符号化を実現する必要がある。しかし、低いビットレートでの符号化には画質の劣化を伴うという問題がある。この問題を解決するための方法として、画像に含まれる人間の視覚に検知されにくい高周波信号をあらかじめ除去してから符号化を行うという方法がある。
動画像から高周波信号を除去すると、高周波信号を符号化するための符号量が必要なくなる。従って、高周波信号が除去された動画像を、低ビットレートで符号化することができる。しかし、高周波信号を除去した場合に、画像中のエッジ(形状の輪郭)などの再現性が失われ、画像に、ぼけ(形状の輪郭が明確でないことをいう)が生ずる。特に、高周波信号を除去する割合が大きいと、ぼけによる画質劣化が視聴者に検知されてしまうという問題がある。
また、広く利用されているMPEG(Moving Picture Experts Group)規格などの動画像符号化方式では、映像フレームごとに量子化の粗さを変えて符号化している。
例えば、過去および未来両方の映像フレームからの予測符号化をおこなうBピクチャは、その映像フレームが後続映像フレームの予測参照画像にならないため、他の映像フレームよりも粗く量子化することが一般的である。
映像フレームを粗く量子化する場合に、高周波信号は量子化処理により除去される傾向が強くなる。しかし、同時に低周波信号も粗く量子化されているため、量子化歪みが大きくなる。
量子化歪みが大きいと、例えば、量子化を行う単位である画素ブロックごとの画素値の差が隣接画素ブロック間で大きくなる。この差はブロック歪となり、画質劣化として視聴者に検知されやすくなるという問題がある。
以下の先行技術文献1には、この問題を解決するための装置が記載されている。前記先行技術文献1に記載されている装置は、映像中の動きの大きさに合わせて画像をぼかす量を決定している。この装置は、動きの大きい映像では高周波信号を検知しにくいという人間の視覚特性を利用して、動きの大きい映像を強めにぼかし、動きが小さい映像を弱くぼかす。このような機能によって、映像のぼけが検知されにくくなる。
以下の先行技術文献2には、各映像フレームに、一定周期毎にフィルタ処理を行う装置が記載されている。
・先行技術文献1:特開2003−333370号公報 (段落0021〜0040、図1)
・先行技術文献2:特開平2−288788号公報 (第3−7頁、図1)
In order to realize long-time recording on a DVD (registered trademark) and video distribution in a narrow communication network band, it is necessary to realize encoding at a low bit rate. However, encoding at a low bit rate has a problem that image quality is deteriorated. As a method for solving this problem, there is a method of performing encoding after removing in advance a high-frequency signal that is difficult to be detected by human vision included in an image.
When the high frequency signal is removed from the moving image, the code amount for encoding the high frequency signal is not necessary. Therefore, a moving image from which a high-frequency signal has been removed can be encoded at a low bit rate. However, when the high-frequency signal is removed, reproducibility such as an edge (shape contour) in the image is lost, and the image is blurred (meaning that the shape contour is not clear). In particular, if the rate of removing high-frequency signals is large, there is a problem that image quality degradation due to blur is detected by the viewer.
In addition, in a widely used moving picture encoding system such as MPEG (Moving Picture Experts Group) standard, encoding is performed by changing the roughness of quantization for each video frame.
For example, a B picture that performs predictive encoding from both past and future video frames is generally quantized more coarsely than other video frames because the video frame does not become a prediction reference image of a subsequent video frame. is there.
When a video frame is roughly quantized, high-frequency signals tend to be removed by quantization processing. However, since the low-frequency signal is also roughly quantized at the same time, the quantization distortion increases.
When the quantization distortion is large, for example, a difference in pixel value for each pixel block which is a unit for performing quantization becomes large between adjacent pixel blocks. This difference becomes a block distortion, and there is a problem that it is easily detected by the viewer as image quality deterioration.
The following prior art document 1 describes an apparatus for solving this problem. The apparatus described in the prior art document 1 determines an amount of blurring of an image according to the magnitude of motion in a video. This device uses a human visual characteristic that it is difficult to detect a high-frequency signal in a video with a large amount of motion, and blurs a video with a large amount of motion and weakly blurs a video with a small amount of motion. Such a function makes it difficult to detect blurring of an image.
The following prior art document 2 describes an apparatus that performs filter processing on each video frame at regular intervals.
Prior art document 1: Japanese Patent Application Laid-Open No. 2003-333370 (paragraphs 0021 to 0040, FIG. 1)
Prior art document 2: JP-A-2-288788 (page 3-7, FIG. 1)

しかし、前記先行技術文献1に記載されている装置には、映像の動きが大きい場合に、ぼかしかたが強すぎるとぼけが容易に検知されてしまうという問題がある。また、動きの小さい映像ではぼかしかたを弱くするため、十分に高周波信号を除去できない。このため、符号化の際に発生符号量を大幅に削減することが不可能になる。
また、前記先行技術文献2に記載されている装置は、一定周期毎に各映像フレームにフィルタ処理を行う。映像フレームに行われるフィルタ処理は、段階的に強度を変えて行われることが好ましい。
本発明は上述した問題を鑑みて提案されたものである。すなわち、本発明は、映像フレームの高周波信号を十分に除去することができる動画像処理装置、動画像処理方法および動画像処理プログラムを提供することを目的とする。
However, the apparatus described in the above-mentioned prior art document 1 has a problem that blur is easily detected when the motion of the image is large and the blur is too strong. In addition, the high-frequency signal cannot be sufficiently removed because the blurring is weakened in an image with small motion. For this reason, it is impossible to greatly reduce the amount of generated codes during encoding.
Moreover, the apparatus described in the said prior art document 2 filters each video frame for every fixed period. It is preferable that the filtering process performed on the video frame is performed by changing the intensity stepwise.
The present invention has been proposed in view of the above-described problems. That is, an object of the present invention is to provide a moving image processing apparatus, a moving image processing method, and a moving image processing program that can sufficiently remove a high-frequency signal of a video frame.

本発明の第1の態様に係る動画像処理装置は、映像フレームをぼかす強度を決定する(ぼかさないと決定することも含む。)ぼかし強度決定手段と、ぼかし強度決定手段の決定に従って、映像フレームの高周波信号を除去することによって画像をぼかす画像ぼかし手段とを備え、ぼかし強度決定手段が、映像フレームが所定数(1以上の数)連続するとぼかす強度を変化させることを特徴とする。
ぼかし強度決定手段は、周期的にぼかす強度を変化させる。また、ぼかし強度決定手段は、1フレームおきにぼかす強度を変化させる。
ぼかし強度決定手段は、映像フレーム間の画素値変化に応じてぼかす強度を決定する。
本発明の第1の態様に係る動画像処理装置は、さらに前記画像ぼかし手段が出力した映像フレームを符号化する画像符号化手段を備え、前記ぼかし強度決定手段は、画像符号化手段が映像フレームを符号化する際の符号化方法に応じてぼかす強度を決定する。
本発明の第1の態様に係る動画像処理装置は、さらに画像ぼかし手段が出力した映像フレームを符号化する画像符号化手段を備え、ぼかし強度決定手段は、画像符号化手段が映像フレームを符号化する際の符号化方法と映像フレーム間の画素値変化とに応じてぼかす強度を決定する。
本発明の第1の態様に係る動画像処理装置は、さらに前記画像符号化手段が符号化した映像フレームを復号して予測参照フレームを生成する局所復号手段と、予測参照フレームを記憶する第1の記憶手段と、予測参照フレームの高周波信号を除去する予測参照フレームぼかし手段と、予測参照フレームぼかし手段が高周波信号を除去した予測参照フレームから、動き補償予測の予測画像を生成する予測画像生成手段とを備え、前記予測参照フレームぼかし手段は、ぼかし強度決定手段が映像フレームから除去すると決定した高周波信号を予測参照フレームから除去し、画像符号化手段は、画像ぼかし手段が出力した映像フレームと、予測画像生成手段が生成した予測画像との減算処理の結果を符号化する。
本発明の第1の態様に係る動画像処理装置は、さらに画像符号化手段が符号化した映像フレームを復号する復号手段と、復号手段が復号した映像フレームを記憶する第2の記憶手段と、第2の記憶手段が記憶している映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成手段と、復号手段が復号した映像フレームと、第2の予測画像生成手段が生成した予測画像とを加算して出力する加算手段とを備える。
本発明の第1の態様に係る動画像処理装置は、さらに画像符号化手段が符号化した映像フレームを復号する復号手段と、復号手段が復号した映像フレームを記憶する第2の記憶手段と、第2の記憶手段が記憶している映像フレームから、ぼかし強度決定手段が除去すると決定した高周波信号を除去する第2の予測参照フレームぼかし手段と、第2の予測参照フレームぼかし手段が高周波信号を除去した映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成手段と、復号手段が復号した映像フレームと、第2の予測画像生成手段が生成した予測画像とを加算して出力する加算手段とを備える。
本発明の第2の態様に係る動画像処理装置は、連続する映像フレームからなる動画像を処理する動画像処理装置であって、映像フレームごとに、フィルタ処理を行うか否かを決定し、フィルタ処理を行うと決定した場合に、フィルタ処理を行うループ内フィルタ特性を決定するループ内フィルタ決定手段と、入力された映像フレームに、ループ内フィルタ決定手段が決定した特性のフィルタでフィルタ処理を行う入力画像フィルタ処理手段と、フィルタ処理された映像フレームを符号化する画像符号化手段と、画像符号化手段が符号化した映像フレームを復号した予測参照フレームを生成する局所復号手段と、予測参照フレームを記憶する第1の記憶手段と、ループ内フィルタ決定手段が決定した特性のフィルタで予測参照フレームにフィルタ処理を行うループ内フィルタ処理手段と、ループ内フィルタ処理手段がフィルタ処理を行った予測参照フレームから予測画像を生成する予測画像生成手段とを備え、入力画像フィルタ処理手段と、ループ内フィルタ処理手段とは、同様の特性のフィルタでフィルタ処理を行い、画像符号化手段は、入力画像フィルタ処理手段が出力した映像フレームと、予測画像生成手段が生成した予測画像との減算処理の結果を符号化することを特徴とする。
本発明の第2の態様に係る動画像処理装置は、さらに符号化された映像フレームを復号する復号手段と、復号手段が復号した映像フレームを記憶する第2の記憶手段と、第2の記憶手段が記憶している映像フレームに、ループ内フィルタ決定手段が決定した特性のフィルタでフィルタ処理を行う第2のループ内フィルタ処理手段と、第2のループ内フィルタ処理手段がフィルタ処理を行った映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成手段と、復号手段が復号した映像フレームと、第2の予測画像生成手段が生成した予測画像とを加算して出力する加算手段とを備える。
本発明の第3の態様に係る動画像処理方法は、連続する映像フレームからなる動画像を処理する動画像処理方法であって、映像フレームをぼかす強度を決定する(ぼかさないと決定することも含む。)ぼかし強度決定ステップと、ぼかし強度決定ステップにおける決定に従って、映像フレームの高周波信号を除去することによって画像をぼかす画像ぼかしステップとを備え、ぼかし強度決定ステップで、映像フレームが所定数(1以上の数)連続するとぼかす強度を変化させることを特徴とする。
前記ぼかし強度決定ステップは周期的にぼかす強度を変化させる。また、前記ぼかし強度決定ステップは、1フレームおきにぼかす強度を変化させる。
前記ぼかし強度決定ステップは、映像フレーム間の画素値変化に応じてぼかす強度を決定する。
本発明の第3の態様に係る動画像処理方法は、さらに前記画像ぼかしステップで出力した映像フレームを符号化する画像符号化ステップを備え、ぼかし強度決定ステップで、画像符号化ステップにおいて映像フレームを符号化する際の符号化方法に応じてぼかす強度を決定する。
本発明の第3の態様に係る動画像処理方法は、さらに前記画像ぼかしステップで出力した映像フレームを符号化する画像符号化ステップを備え、ぼかし強度決定ステップで、画像符号化ステップにおいて映像フレームを符号化する際の符号化方法と映像フレーム間の画素値変化とに応じてぼかす強度を決定する。
本発明の第3の態様に係る動画像処理方法は、さらに画像符号化ステップで符号化した映像フレームを復号して予測参照フレームを生成する局所復号ステップと、予測参照フレームの高周波信号を除去する予測参照フレームぼかしステップと、予測参照フレームぼかしステップで高周波信号を除去した予測参照フレームから、動き補償予測の予測画像を生成する予測画像生成ステップとを備え、予測参照フレームぼかしステップにおいて、ぼかし強度決定ステップで映像フレームから除去すると決定した高周波信号を予測参照フレームから除去し、画像符号化ステップにおいて、画像ぼかしステップで出力した映像フレームと、予測画像生成ステップで生成した予測画像との減算処理の結果を符号化する。
本発明の第3の態様に係る動画像処理方法は、さらに画像符号化ステップで符号化した映像フレームを復号する復号ステップと、復号ステップで復号した映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成ステップと、復号ステップで復号した映像フレームと、第2の予測画像生成ステップで生成した予測画像とを加算して出力する加算ステップとを備える。
本発明の第3の態様に係る動画像処理方法は、さらに画像符号化ステップで符号化した映像フレームを復号する復号ステップと、復号ステップで復号した映像フレームから、ぼかし強度決定ステップで除去すると決定した高周波信号を除去する第2の予測参照フレームぼかしステップと、第2の予測参照フレームぼかしステップで高周波信号を除去した映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成ステップと、復号ステップで復号した映像フレームと、第2の予測画像生成ステップで生成した予測画像とを加算して出力する加算ステップとを備える。
本発明の第4の態様に係る動画像処理方法は、連続する映像フレームからなる動画像を処理する動画像処理方法であって、映像フレームごとに、フィルタ処理を行うか否かを決定し、フィルタ処理を行うと決定した場合に、フィルタ処理を行うループ内フィルタ特性を決定するループ内フィルタ決定ステップと、入力された映像フレームに、ループ内フィルタ決定ステップで決定した特性のフィルタでフィルタ処理を行う入力画像フィルタ処理ステップと、フィルタ処理された映像フレームを符号化する画像符号化ステップと、画像符号化ステップで符号化した映像フレームを復号した予測参照フレームを生成する局所復号ステップと、ループ内フィルタ決定ステップで決定した特性のフィルタで予測参照フレームにフィルタ処理を行うループ内フィルタ処理ステップと、ループ内フィルタ処理ステップがフィルタ処理を行った予測参照フレームから予測画像を生成する予測画像生成ステップとを備え、入力画像フィルタ処理ステップ、およびループ内フィルタ処理ステップで、同様の特性のフィルタでフィルタ処理を行い、画像符号化ステップにおいて、入力画像フィルタ処理ステップで出力した映像フレームと、予測画像生成ステップで生成した予測画像との減算処理の結果を符号化することを特徴とする。
本発明の第4の態様に係る動画像処理方法は、さらに符号化された映像フレームを復号する復号ステップと、復号ステップで復号した映像フレームに、ループ内フィルタ決定ステップで決定した特性のフィルタでフィルタ処理を行う第2のループ内フィルタ処理ステップと、第2のループ内フィルタ処理ステップでフィルタ処理を行った映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成ステップと、復号ステップで復号した映像フレームと、第2の予測画像生成ステップで生成した予測画像とを加算して出力する加算ステップとを備える。
本発明の第5の態様に係る動画像処理プログラムは、コンピュータに、連続する映像フレームからなる動画像を処理させる動画像処理プログラムであって、コンピュータに、映像フレームをぼかす強度を決定する(ぼかさないと決定することも含む。)ぼかし強度決定処理と、ぼかし強度決定処理における決定に従って、映像フレームの高周波信号を除去することによって画像をぼかす画像ぼかし処理とを実行させ、ぼかし強度決定処理で、映像フレームが所定数(1以上の数)連続するとぼかす強度を変化させることを特徴とする。
本発明の第5の態様に係る動画像処理プログラムは、コンピュータに、ぼかし強度決定処理で、周期的にぼかす強度を変化させる。また、コンピュータに、ぼかし強度決定処理で、1フレームおきにぼかす強度を変化させる。
本発明の第5の態様に係る動画像処理プログラムは、コンピュータに、ぼかし強度決定処理で、映像フレーム間の画素値変化に応じてぼかす強度を決定させる。
本発明の第5の態様に係る動画像処理プログラムは、コンピュータに、画像ぼかし処理で出力した映像フレームを符号化する画像符号化処理を実行させ、ぼかし強度決定処理において、画像符号化処理で映像フレームを符号化する際の符号化方法に応じてぼかす強度を決定させる。
本発明の第5の態様に係る動画像処理プログラムは、コンピュータに、画像ぼかし処理で出力した映像フレームを符号化する画像符号化処理を実行させ、ぼかし強度決定処理において、画像符号化処理で映像フレームを符号化する際の符号化方法と映像フレーム間の画素値変化とに応じてぼかす強度を決定させる。
本発明の第5の態様に係る動画像処理プログラムは、コンピュータに、さらに画像符号化処理で符号化した映像フレームを復号して予測参照フレームを生成する局所復号処理と、予測参照フレームの高周波信号を除去する予測参照フレームぼかし処理と、予測参照フレームぼかし処理で高周波信号を除去した予測参照フレームから、動き補償予測の予測画像を生成する予測画像生成処理とを実行させ、予測参照フレームぼかし処理において、ぼかし強度決定処理で映像フレームから除去すると決定した高周波信号を予測参照フレームから除去させ、画像符号化処理において、画像ぼかし処理で出力した映像フレームと、予測画像生成処理で生成した予測画像との減算処理の結果を符号化させる。
本発明の第5の態様に係る動画像処理プログラムは、コンピュータに、さらに画像符号化処理で符号化した映像フレームを復号する復号処理と、復号処理で復号した映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成処理と、復号処理で復号した映像フレームと、第2の予測画像生成処理で生成した予測画像とを加算して出力する加算処理とを実行させる。
本発明の第5の態様に係る動画像処理プログラムは、コンピュータに、画像符号化処理で符号化した映像フレームを復号する復号処理と、復号処理で復号した映像フレームから、ぼかし強度決定処理で除去すると決定した高周波信号を除去する第2の予測参照フレームぼかし処理と、第2の予測参照フレームぼかし処理で高周波信号を除去した映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成処理と、復号処理で復号した映像フレームと、第2の予測画像生成処理で生成した予測画像とを加算して出力する加算処理とを実行させてもよい。
本発明の第6の態様に係る動画像処理プログラムは、コンピュータに、連続する映像フレームからなる動画像を処理させる動画像処理プログラムであって、コンピュータに、映像フレームごとに、フィルタ処理を行うか否かを決定し、フィルタ処理を行うと決定した場合に、フィルタ処理を行うループ内フィルタ特性を決定するループ内フィルタ決定処理と、入力された映像フレームに、ループ内フィルタ決定処理で決定した特性のフィルタでフィルタ処理を行う入力画像フィルタリング実行処理と、フィルタ処理された映像フレームを符号化する画像符号化処理と、画像符号化処理で符号化した映像フレームを復号した予測参照フレームを生成する局所復号処理と、ループ内フィルタ決定処理で決定した特性のフィルタで予測参照フレームにフィルタ処理を行うループ内フィルタリング実行処理と、ループ内フィルタリング実行処理でフィルタ処理を行った予測参照フレームから予測画像を生成する予測画像生成処理とを実行させ、入力画像フィルタリング実行処理、およびループ内フィルタリング実行処理で、同様の特性のフィルタでフィルタ処理を実行させ、画像符号化処理で、入力画像フィルタリング実行処理が出力した映像フレームと、予測画像生成処理で生成した予測画像との減算処理の結果を符号化させることを特徴とする。
本発明の第6の態様に係る動画像処理プログラムは、コンピュータに、さらに符号化された映像フレームを復号する復号処理と、復号処理で復号した映像フレームに、ループ内フィルタ決定処理で決定した特性のフィルタでフィルタ処理を行う第2のループ内フィルタリング実行処理と、第2のループ内フィルタリング実行処理でフィルタ処理を行った映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成処理と、復号処理で復号した映像フレームと、第2の予測画像生成処理で生成した予測画像とを加算して出力する加算処理とを実行させる。
The moving image processing apparatus according to the first aspect of the present invention determines the intensity of blurring a video frame (including determining whether to blur it), the video frame according to the determination of the blur intensity determining means, and the blur intensity determining means. Image blurring means for blurring the image by removing the high-frequency signal, and the blur intensity determining means changes the intensity of blurring when a predetermined number (one or more) of video frames continue.
The blur intensity determining means changes the intensity of blurring periodically. Also, the blur intensity determining means changes the intensity to be blurred every other frame.
The blur intensity determining means determines an intensity to be blurred according to a change in pixel value between video frames.
The moving image processing apparatus according to the first aspect of the present invention further comprises image encoding means for encoding the video frame output by the image blurring means, and the blur strength determining means is configured such that the image encoding means is a video frame. The intensity to be blurred is determined in accordance with the encoding method when encoding.
The moving image processing apparatus according to the first aspect of the present invention further includes an image encoding unit that encodes the video frame output by the image blurring unit, and the blur intensity determining unit encodes the video frame by the image encoding unit. The intensity to be blurred is determined in accordance with the encoding method and the change in pixel value between video frames.
The moving image processing apparatus according to the first aspect of the present invention further includes a local decoding unit that decodes the video frame encoded by the image encoding unit to generate a predicted reference frame, and a first that stores the predicted reference frame. Storage means, prediction reference frame blurring means for removing the high frequency signal of the prediction reference frame, and prediction image generation means for generating a prediction image of motion compensation prediction from the prediction reference frame from which the prediction reference frame blurring means has removed the high frequency signal The prediction reference frame blurring unit removes the high frequency signal determined to be removed from the video frame by the blur intensity determination unit from the prediction reference frame, and the image encoding unit includes the video frame output by the image blurring unit; The result of the subtraction process with the predicted image generated by the predicted image generation means is encoded.
The moving image processing apparatus according to the first aspect of the present invention further includes a decoding unit that decodes the video frame encoded by the image encoding unit, a second storage unit that stores the video frame decoded by the decoding unit, Second predicted image generating means for generating a motion compensated prediction predicted image, a video frame decoded by the decoding means, and a second predicted image generating means from the video frame stored in the second storage means Adding means for adding and outputting the predicted image.
The moving image processing apparatus according to the first aspect of the present invention further includes a decoding unit that decodes the video frame encoded by the image encoding unit, a second storage unit that stores the video frame decoded by the decoding unit, The second prediction reference frame blurring means for removing the high frequency signal determined to be removed by the blur intensity determination means from the video frame stored in the second storage means, and the second prediction reference frame blurring means for converting the high frequency signal. From the removed video frame, a second predicted image generating unit that generates a motion compensated prediction image, a video frame decoded by the decoding unit, and a predicted image generated by the second predicted image generating unit are added. Adding means for outputting.
The moving image processing apparatus according to the second aspect of the present invention is a moving image processing apparatus that processes a moving image composed of continuous video frames, and determines whether or not to perform filter processing for each video frame, When it is determined that the filter processing is to be performed, the in-loop filter determining means for determining the in-loop filter characteristics for performing the filter processing, and the input video frame are subjected to the filter processing with the filter having the characteristics determined by the in-loop filter determining means. Input image filter processing means for performing, image encoding means for encoding the filtered video frame, local decoding means for generating a prediction reference frame obtained by decoding the video frame encoded by the image encoding means, and prediction reference Fill the predicted reference frame with the first storage means for storing the frame and the filter having the characteristics determined by the in-loop filter determination means. In-loop filter processing means for performing processing, and predicted image generation means for generating a predicted image from a prediction reference frame that has been subjected to filter processing by the in-loop filter processing means, input image filter processing means, and in-loop filter processing means The image encoding means encodes the result of the subtraction process between the video frame output from the input image filter processing means and the prediction image generated by the prediction image generation means. It is characterized by doing.
The moving image processing apparatus according to the second aspect of the present invention further includes a decoding means for decoding the encoded video frame, a second storage means for storing the video frame decoded by the decoding means, and a second storage. The second in-loop filter processing means for performing filter processing on the video frame stored in the means with the filter having the characteristic determined by the in-loop filter determining means, and the second in-loop filter processing means performed the filter processing. From the video frame, a second predicted image generation unit that generates a prediction image for motion compensation prediction, the video frame decoded by the decoding unit, and the predicted image generated by the second predicted image generation unit are added and output. Adding means.
The moving image processing method according to the third aspect of the present invention is a moving image processing method for processing a moving image composed of continuous video frames, and determines the intensity at which the video frame is blurred (it is also determined not to blur). A blur intensity determining step, and an image blur step for blurring the image by removing a high-frequency signal of the video frame in accordance with the determination in the blur intensity determining step. In the blur intensity determining step, a predetermined number (1 The above number) is characterized by changing the intensity of blurring when continuous.
The blur intensity determining step periodically changes the intensity of blurring. The blur intensity determining step changes the intensity to be blurred every other frame.
The blur intensity determining step determines an intensity to be blurred according to a change in pixel value between video frames.
The moving image processing method according to the third aspect of the present invention further includes an image encoding step for encoding the video frame output in the image blurring step, and the video frame is detected in the image encoding step in the blur strength determination step. The intensity to be blurred is determined according to the encoding method at the time of encoding.
The moving image processing method according to the third aspect of the present invention further includes an image encoding step for encoding the video frame output in the image blurring step, and the video frame is detected in the image encoding step in the blur strength determination step. The intensity to be blurred is determined according to the encoding method at the time of encoding and the pixel value change between video frames.
The moving image processing method according to the third aspect of the present invention further includes a local decoding step of generating a prediction reference frame by decoding the video frame encoded in the image encoding step, and removing a high-frequency signal of the prediction reference frame A prediction reference frame blurring step, and a prediction image generation step of generating a prediction image of motion compensation prediction from the prediction reference frame from which a high-frequency signal has been removed in the prediction reference frame blurring step. The high-frequency signal determined to be removed from the video frame in the step is removed from the prediction reference frame, and the result of the subtraction process between the video frame output in the image blurring step and the prediction image generated in the prediction image generation step in the image encoding step Is encoded.
The moving image processing method according to the third aspect of the present invention further includes a decoding step for decoding the video frame encoded in the image encoding step, and a motion compensated prediction predicted image from the video frame decoded in the decoding step. A second predicted image generation step, an addition step of adding and outputting the video frame decoded in the decoding step and the predicted image generated in the second predicted image generation step.
The moving image processing method according to the third aspect of the present invention further includes a decoding step for decoding the video frame encoded in the image encoding step, and a decision to remove from the video frame decoded in the decoding step in the blur intensity determination step. Second prediction reference frame blurring step for removing the high-frequency signal, and second prediction image generation step for generating a prediction image for motion compensation prediction from the video frame from which the high-frequency signal has been removed in the second prediction reference frame blurring step And an addition step of adding and outputting the video frame decoded in the decoding step and the prediction image generated in the second prediction image generation step.
A moving image processing method according to a fourth aspect of the present invention is a moving image processing method for processing a moving image composed of continuous video frames, and determines whether or not to perform filter processing for each video frame, When it is determined that the filter processing is to be performed, the in-loop filter determination step for determining the in-loop filter characteristics for performing the filter processing, and the input video frame are subjected to the filter processing with the filter having the characteristics determined in the in-loop filter determination step. An input image filtering step to be performed; an image encoding step for encoding the filtered video frame; a local decoding step for generating a prediction reference frame obtained by decoding the video frame encoded in the image encoding step; A loop that filters the predicted reference frame with the filter of the characteristic determined in the filter determination step. An inner filter processing step, and a predicted image generation step for generating a predicted image from the prediction reference frame in which the in-loop filter processing step has performed the filter processing. In the input image filter processing step and the in-loop filter processing step, the same The filter processing is performed with a characteristic filter, and the image encoding step encodes the result of the subtraction process between the video frame output in the input image filter processing step and the prediction image generated in the prediction image generation step. To do.
The moving image processing method according to the fourth aspect of the present invention further includes a decoding step for decoding an encoded video frame, and a filter having the characteristics determined in the in-loop filter determination step on the video frame decoded in the decoding step. A second intra-loop filter processing step for performing filter processing; a second predicted image generation step for generating a motion compensated prediction image from the video frame subjected to the filter processing in the second in-loop filter processing step; An addition step of adding and outputting the video frame decoded in the decoding step and the prediction image generated in the second prediction image generation step.
A moving image processing program according to a fifth aspect of the present invention is a moving image processing program for causing a computer to process a moving image composed of continuous video frames, and for determining the strength of blurring the video frames. And determining whether the image is blurred according to the determination in the blur intensity determination process and the blur intensity determination process, and blurring the image by removing the high-frequency signal of the video frame. The intensity of blurring is changed when a predetermined number (one or more) of video frames continues.
The moving image processing program according to the fifth aspect of the present invention causes the computer to change the intensity of blurring periodically in the blur intensity determination process. Further, the computer changes the intensity to be blurred every other frame in the blur intensity determination process.
The moving image processing program according to the fifth aspect of the present invention causes the computer to determine the intensity to be blurred according to the change in the pixel value between the video frames in the blur intensity determination process.
The moving image processing program according to the fifth aspect of the present invention causes a computer to execute an image encoding process for encoding a video frame output by the image blurring process, and in the blurring intensity determination process, the video is processed by the image encoding process. The intensity to be blurred is determined according to the encoding method when encoding the frame.
The moving image processing program according to the fifth aspect of the present invention causes a computer to execute an image encoding process for encoding a video frame output by the image blurring process, and in the blurring intensity determination process, the video is processed by the image encoding process. The intensity to be blurred is determined according to the encoding method used when encoding the frame and the change in the pixel value between the video frames.
The moving image processing program according to the fifth aspect of the present invention includes a computer that further decodes a video frame encoded by the image encoding process to generate a predicted reference frame, and a high-frequency signal of the predicted reference frame In the prediction reference frame blurring process, the prediction reference frame blurring process is executed, and the prediction reference frame blurring process is performed, and the prediction reference frame blurring process is performed to generate a prediction image of motion compensated prediction from the prediction reference frame from which the high frequency signal is removed by the prediction reference frame blurring process The high-frequency signal determined to be removed from the video frame by the blur intensity determination process is removed from the prediction reference frame, and the video frame output by the image blur process and the predicted image generated by the prediction image generation process in the image encoding process The result of the subtraction process is encoded.
The moving image processing program according to the fifth aspect of the present invention is a computer that further decodes a video frame encoded by the image encoding process, and predicts motion compensation prediction from the video frame decoded by the decoding process. A second predicted image generation process for generating an image, a video frame decoded by the decoding process, and an addition process for adding and outputting the predicted image generated by the second predicted image generation process are executed.
The moving image processing program according to the fifth aspect of the present invention is a computer that decodes a video frame encoded by the image encoding process, and removes the video frame decoded by the decoding process by the blur intensity determination process. Then, the second prediction reference frame blurring process for removing the determined high-frequency signal, and the second prediction image for generating a prediction image for motion compensation prediction from the video frame from which the high-frequency signal has been removed by the second prediction reference frame blurring process You may perform a production | generation process and the addition process which adds and outputs the video frame decoded by the decoding process, and the prediction image produced | generated by the 2nd prediction image production | generation process.
A moving image processing program according to a sixth aspect of the present invention is a moving image processing program that causes a computer to process a moving image composed of continuous video frames, and that performs filtering processing for each video frame on the computer. If it is determined whether or not to perform the filter process, the filter determination process in the loop for determining the filter characteristic in the loop to perform the filter process, and the characteristics determined by the filter determination process in the loop for the input video frame An input image filtering execution process for performing a filtering process with a filter, an image encoding process for encoding the filtered video frame, and a local reference frame for decoding a video frame encoded by the image encoding process Prediction reference frame with filter of characteristics determined by decoding process and in-loop filter determination process In-loop filtering execution processing for performing filtering processing, and predicted image generation processing for generating a prediction image from a prediction reference frame subjected to filtering processing in the in-loop filtering execution processing are executed, and input image filtering execution processing and in-loop filtering are executed. In the execution process, the filter process is executed with a filter having the same characteristics, and in the image encoding process, the result of the subtraction process between the video frame output from the input image filtering execution process and the predicted image generated in the predicted image generation process is obtained. It is encoded.
The moving image processing program according to the sixth aspect of the present invention includes a computer that further decodes an encoded video frame, and the characteristics determined by the in-loop filter determination process for the decoded video frame. Second prediction image generation for generating a prediction image of motion compensated prediction from the second intra-loop filtering execution process for performing the filtering process with the first filter and the video frame subjected to the filtering process in the second in-loop filtering execution process A process and an addition process for adding and outputting the video frame decoded by the decoding process and the predicted image generated by the second predicted image generation process are executed.

本発明の第1の効果は、映像フレームごとにぼかす強度を制御するので、視聴者に、ぼかす処理が施されているか否かを容易には検知されずに、動画像の高周波信号を除去することができることである。
特に、ぼかす処理が施されている映像フレームとぼかす処理が施されていない映像フレームとが周期的になるように構成されている場合には、視聴者には、ぼかす処理が施されているか否かについてより容易には検知されずに、動画像の高周波信号を除去することができる。
本発明の第2の効果は、ぼかす処理が施されていることが検知されにくく、かつ動画像を符号化した際に主観画質を向上できることである。
その理由は、第1にぼかす処理が施されている映像フレームとぼかす処理が施されていない映像フレームとで動画像を構成することにより、再生時にぼけが検知されにくいからである。第2に、ぼかす処理が施されている映像フレームでは高周波信号が除去されているので、発生符号量を削減でき、小さい量子化ステップで量子化できるようになり、量子化誤差を削減できるからである。
装置が、映像フレームから除去する高周波信号を、映像フレーム間の画素値変化や、映像フレームを符号化する際の符号化方法に応じて決定するように構成されている場合には、人間の視覚特性を活かして、ぼかす処理を施したことを視聴者に検知されにくくすることができる。
装置が、符号化された映像フレームを復号した予測参照フレームから高周波信号を除去する際に、符号化時のぼかす処理と同様に高周波信号を除去して予測画像を生成するように構成されている場合には、ぼかす処理が施された映像フレームを、正しく復号することができる。
装置が、高周波信号が除去されて符号化された映像フレームを復号した映像フレームから、動き補償予測の予測画像を生成するように構成されている場合には、MPEG−2などの符号化方式で符号化された動画像データを復号する動画復号化装置と同様な構成で、ぼかす処理が施された映像フレームを復号することができる。
The first effect of the present invention is to control the intensity of blurring for each video frame, so that the viewer does not easily detect whether or not the blurring process has been performed, and removes high-frequency signals from moving images. Be able to.
In particular, in the case where the video frame that has been subjected to the blurring process and the video frame that has not been subjected to the blurring process are configured to be periodic, the viewer is asked whether or not the blurring process has been performed. It is possible to remove the high-frequency signal of the moving image without being detected more easily.
The second effect of the present invention is that it is difficult to detect that the blurring process has been performed, and the subjective image quality can be improved when a moving image is encoded.
The reason is that blur is hardly detected at the time of reproduction by forming a moving image with a video frame that is first subjected to the blur process and a video frame that is not subjected to the blur process. Second, since the high-frequency signal is removed from the video frame that has been subjected to the blurring process, the amount of generated codes can be reduced, quantization can be performed with a small quantization step, and the quantization error can be reduced. is there.
If the device is configured to determine the high-frequency signal to be removed from the video frame according to the pixel value change between the video frames and the encoding method when encoding the video frame, Utilizing the characteristics, it is possible to make it difficult for the viewer to detect that the blurring process has been performed.
When the apparatus removes the high-frequency signal from the prediction reference frame obtained by decoding the encoded video frame, the apparatus is configured to remove the high-frequency signal and generate a predicted image in the same manner as the blurring process at the time of encoding. In this case, the video frame that has been subjected to the blurring process can be correctly decoded.
When the apparatus is configured to generate a prediction image for motion compensation prediction from a video frame obtained by decoding a video frame encoded with high-frequency signals removed, an encoding scheme such as MPEG-2 is used. A video frame that has been subjected to the blurring process can be decoded with a configuration similar to that of a moving image decoding apparatus that decodes encoded moving image data.

図1は、動画像処理装置の第1の実施例を示すブロック図である。
図2は、ぼかす映像フレームとぼかさない映像フレームとが交互になっている映像の構成を示す説明図である。
図3は、動画像処理装置の第2の実施例を示すブロック図である。
図4は、第2の実施例の動画像処理装置の動作を模式的に示すフローチャートである。
図5は、復号装置の構成例を示すブロック図である。
図6は、復号装置の動作を模式的に示すフローチャートである。
図7は、第3の実施例における復号装置の構成を示すブロック図である。
図8は、動画像処理装置の第4の実施例を示すブロック図である。
図9は、第4の実施例の動画像処理装置の動作を模式的に示すフローチャートである。
図10は、第4の実施例における復号装置の構成を示すブロック図である。
図11は、第4の実施例における復号装置の動作を模式的に示すフローチャートである。
図12は、動画像処理装置がコンピュータシステムで実現される場合の構成例を示すブロック図である。
FIG. 1 is a block diagram showing a first embodiment of a moving image processing apparatus.
FIG. 2 is an explanatory diagram illustrating a configuration of a video in which a video frame to be blurred and a video frame to be blurred are alternated.
FIG. 3 is a block diagram showing a second embodiment of the moving image processing apparatus.
FIG. 4 is a flowchart schematically showing the operation of the moving image processing apparatus of the second embodiment.
FIG. 5 is a block diagram illustrating a configuration example of a decoding device.
FIG. 6 is a flowchart schematically showing the operation of the decoding apparatus.
FIG. 7 is a block diagram showing the configuration of the decoding apparatus in the third embodiment.
FIG. 8 is a block diagram showing a fourth embodiment of the moving image processing apparatus.
FIG. 9 is a flowchart schematically showing the operation of the moving image processing apparatus of the fourth embodiment.
FIG. 10 is a block diagram showing the configuration of the decoding apparatus in the fourth embodiment.
FIG. 11 is a flowchart schematically showing the operation of the decoding apparatus in the fourth embodiment.
FIG. 12 is a block diagram illustrating a configuration example when the moving image processing apparatus is realized by a computer system.

本発明の第1の実施例について、図面を参照して説明する。図1は、本発明による動画像処理装置の第1の実施例を示すブロック図である。
図1に示す動画像処理装置は、映像フレームをぼかす強度を決定するぼかし強度決定装置201と、映像フレームの高周波信号を除去して画像にぼかす処理を施す画像ぼかし装置202とを含む。
ぼかし強度決定装置201は、入力画像が入力された場合に、各映像フレームにぼかす処理を施すか否か、および映像フレームにぼかす処理を施す場合のぼかす強度を決定する。なお、本実施例および以下の実施例では、ぼかす強度は、映像フレームから除去される高周波信号の周波数に相当する。
ぼかす強度は連続する映像フレーム間で一定ではない。ぼかし強度決定装置201は、例えば、ぼかす処理を施す映像フレームとぼかす処理を施さない映像フレームとが交互になるようにぼかし強度を決定し、強くぼかす映像フレームと弱くぼかす映像フレームとが交互になるようにぼかし強度を決定する。すなわち、ぼかし強度決定装置201は、映像フレームに施すぼかす処理の強度を、周期的に変化させる。また、ぼかし強度決定装置201がぼかす強度を変化させる周期は一定であってもよいし、一定でなくてもよい。つまり、非周期的にぼかす強度を変化させてもよい。
図2は、ぼかす映像フレームとぼかさない映像フレームとが交互になっている映像の構成を示す説明図である。
なお、ぼかし強度決定装置201は、図2に示すように、1つの映像フレームごとにぼかす強度を変化させなくてもよい。例えば、ぼかし強度決定装置201は、2つの映像フレームごとにぼかす強度を変化させてもよい。
ぼかし強度決定装置201は、ぼかす強度を、輝度値の変化量など映像フレーム自体の特徴を考慮して決定する。具体的には、ぼかし強度決定装置201は、例えば、映像の平均移動量(動きベクトル量)が16画素で、その動き量が考慮された輝度値の変化量が1画素あたり2の場合に、強くぼかすと決定する。
また、ぼかし強度決定装置201は、入力画像が符号化される際の符号化方法を考慮してぼかす強度を決定してもよい。ぼかし強度決定装置201は、例えば、フレーム間予測を採用している映像フレームと、そうでない映像フレームとでぼかす強度を変化させてもよい。
ぼかし強度決定装置201は、各映像フレームをぼかす強度を、例えば、10段階のうちのいずれかに決定する。
ぼかし強度決定装置201は、各映像フレームにぼかす処理を施すか否かを決定し、および前記ぼかす処理を施すよう決定した場合、映像フレームぼかし処理におけるぼかす強度を決定する。この場合、画像ぼかし装置202は、ぼかす処理を施すと決定された映像フレームの高周波信号をぼかす強度に応じて除去して出力する。画像ぼかし装置202は、ぼかす処理を施さないと決定された映像フレームには、ぼかす処理を施さずに出力する。高周波信号を除去するために、例えば、低域通過フィルタが用いられる。
具体的には、ぼかし強度決定装置201は、映像フレームを強くぼかす場合には、例えば、最大周波数(例えば、4.2MHz)の50%程度の周波数以上の高周波信号(例えば、2.1MHz以上の信号)を除去する。
また、ぼかし強度決定装置201は、映像フレームを弱くぼかす場合には、例えば、最大周波数(例えば、4.2MHz)の90%程度の周波数以上の高周波信号(例えば、3.8MHz以上の信号)を除去する。
なお、本明細書では、映像フレームから高周波信号を除去することを、ぼかす処理を施すという。
以上に述べたように、本実施例によれば、映像フレームごとにぼかす強度を制御し、ぼかす処理が施されている映像フレームとぼかす処理が施されていない映像フレームとが交互に構成されている映像を出力するので、視聴者に、ぼかす処理が施されているか否かを容易には検知されずに、動画像(映像フレーム)の高周波信号を除去することができる。
そのため、視聴者にぼけが検知されないようにしつつ、映像フレームを符号化するための符号量を減らし、低ビットレートでの符号化を実現することができる。
また、高周波信号を全く除去しなかった場合、すなわち、ぼかす処理を全く行わなかった場合には、発生符号量が増える。その場合、低ビットレートで符号化するために、量子化ステップを大きくする必要がある。その結果、量子化誤差が生じて画質が低下する。
しかし、本実施例では、ぼかす処理が施された映像フレームでは高周波信号が除去されているため、全体として発生符号量が削減される。従って、低ビットレートで符号化する場合でも、小さい量子化ステップで量子化できるようになり、量子化誤差を削減することができる。そのため、量子化誤差による画質の低下を検知されにくくすることができる。
つまり、視聴者にぼかす処理が施されたことを検知されにくく、かつ動画像(映像フレーム)を符号化した際の量子化誤差を削減するため、全ての映像フレームの高周波信号を除去した場合や、全く高周波信号を除去しない場合に比べ、主観画質(視聴者が感じる画質)を向上させることができる。
次に、本発明の第2の実施例について、図面を参照して説明する。図3は、本発明による動画像処理装置の第2の実施例を示すブロック図である。
第2の実施例に係る動画像処理装置は、図3に示すように映像フレームのぼかす強度を決定するぼかし強度決定装置(ぼかし強度決定手段)301と、映像フレームの高周波信号を除去して画像をぼかす画像ぼかし装置(画像ぼかし手段)302と、入力画像を符号化する画像符号化装置(画像符号化手段)303と、符号化される画像の予測参照フレームを生成する局所復号化装置(局所復号手段)304と、予測参照フレームを格納(記憶)するフレームメモリ(第1の記憶手段)305と、予測参照フレームを符号化中の入力画像と同じ強度でぼかす予測参照フレームぼかし装置(予測参照フレームぼかし手段)306と、予測参照フレームから動き補償予測の予測画像を生成する予測画像生成装置(予測画像生成手段)307とを有する。
なお、本実施例では、動画像処理装置として、MPEG符号化方式による符号化を行う装置を想定する。しかし、本発明による動画像処理装置は、MPEG符号化方式による符号化を行うものに限られない。
ぼかし強度決定装置301は、入力画像が入力された場合に、各映像フレームにぼかす処理を施すか否かを決定し、および映像フレームにぼかす処理を施す場合にはぼかす強度(映像フレームから除去する信号の周波数)を決定する。
ぼかす強度は一定ではない。ぼかし強度決定装置301は、例えば、ぼかす処理を施す映像フレームとぼかす処理を施さない映像フレームとが交互になるように決定し、強くぼかす映像フレームと弱くぼかす映像フレームとが交互になるように決定する。
ぼかし強度決定装置301は、ぼかす強度を、画像符号化装置303が出力した情報にもとづいて決定する。例えば、符号化方法にもとづいてぼかす強度を決定し、画像の映像フレーム間での画素値の変化などにもとづいてぼかす強度を決定し、符号化方法と画像の映像フレーム間での画素値の変化との組合せにもとづいて、ぼかす強度を決定する
ぼかし強度決定装置301は、映像フレームをぼかした強度や、どのようなぼかす処理が施されたのかを示すぼかし強度情報を、画像符号化装置303および予測参照フレームぼかし装置306に出力する。
画像ぼかし装置302は、入力画像のうち、ぼかし強度決定装置301がぼかす処理を施すと決定した映像フレームを、ぼかし強度決定装置301が決定したぼかし強度でぼかして(ぼかす処理を施して)、画像符号化装置303に出力する。ぼかす処理を施すために、例えば、低域通過フィルタが用いられる。
また、画像ぼかし装置302は、入力画像のうち、ぼかし強度決定装置301がぼかす処理を施さないと決定した映像フレームを、ぼかさずに画像符号化装置303に出力する。
画像符号化装置303は、画像ぼかし装置302が出力した映像フレームを符号化して出力する。画像符号化装置303は、ぼかし強度情報もあわせて符号化し、符号化した動画像データ(映像フレーム)がぼかし強度情報を含むように符号化する。
局所復号化装置304は、後に符号化される映像フレームの動き補償予測のための予測参照フレームとして用いるために、画像符号化装置303が符号化した映像フレームを復号する。フレームメモリ305は、局所復号化装置304が復号した映像フレームを記憶する。
予測参照フレームぼかし装置306は、フレームメモリ305が記憶している映像フレーム(予測参照フレーム)にぼかす処理を施す。予測参照フレームぼかし装置306は、ぼかし強度決定装置301が出力したぼかし強度情報にもとづいて、ぼかし強度情報が示す方法と同様な方法でぼかす処理を施す。
予測画像生成装置307は、ぼかす処理が施された予測参照フレームを用いて、予測画像を生成する。
画像ぼかし装置302が出力した映像フレームから、予測画像生成装置307が生成した予測画像が減算され、減算結果が画像符号化装置303に入力される。また、予測画像生成装置307が生成した予測画像は、局所復号化装置304が復号した映像フレームに加算処理されてフレームメモリ305に記憶される。減算処理は、例えば、減算器によって行われ、加算処理は、例えば、加算器によって行われる。
次に、第2の実施例の動画像処理装置の動作について、図面を参照して説明する。図4は、第2の実施例の動画像処理装置の動作を模式的に示すフローチャートである。図4に示す処理は、まず、予測参照フレームを用いないで符号化された映像フレームが出力され、次に、予測参照フレームを用いて符号化された映像フレームが出力されるまでの過程における処理である。
ぼかし強度決定装置301は、入力画像が入力された場合に、各映像フレームにぼかす処理を施すか否かを決定し、および映像フレームにぼかす処理を施す場合のぼかす強度(映像から除去する信号の周波数)を決定する(ステップS101、S102)。
画像ぼかし装置302は、入力画像のうち、ぼかし強度決定装置301がぼかすと決定した映像フレームを、ぼかし強度決定装置301が決定したぼかし強度でぼかして(ぼかす処理を施して)、画像符号化装置303に出力する(ステップS103)。
画像符号化装置303は、画像ぼかし装置302が出力した映像フレームを符号化して最初のフレームに関するデータとして出力する(ステップS104)。
画像符号化装置303が出力した映像フレームは後に符号化される映像フレームの予測参照フレームとして用いられるので、局所復号化装置304は、画像符号化装置303が出力した映像フレームを復号する(ステップS105)。予測参照フレームぼかし装置306は、フレームメモリ305が記憶している映像フレーム(予測参照フレーム)にぼかす処理(フィルタ処理)を施す(ステップS106)。
予測画像生成装置307は、ぼかす処理(フィルタ処理)が施された予測参照フレームを用いて、予測画像を生成する(ステップS107)。予測画像生成装置607が生成した予測画像は、減算器によって画像ぼかし装置302が出力した映像フレームから減算される(ステップS108)。
画像符号化装置303は、減算器の出力を符号化して、2番目のフレームに関するデータとして出力する(ステップS109、S110)。
次に、符号化された動画像の復号について説明する。図5は、復号装置の構成例を示すブロック図である。
図5に示す復号装置は、符号化された動画像を復号する画像復号化装置(復号手段)401と、復号された映像フレームを予測参照フレームとして使用するために格納(記憶)するフレームメモリ(第2の記憶手段)402と、予測参照フレームにぼかす処理を施す予測参照フレームぼかし装置(第2の予測参照フレームぼかし手段)403と、予測参照フレームから動き補償予測の予測画像を生成する予測画像生成装置(第2の予測画像生成手段)404とを含む。
動画像処理装置は、図5に例示したような復号装置の機能を含んでいてもよい。
画像復号化装置401は、符号化された映像フレームを復号する。なお、画像復号化装置401は、符号化されたぼかし強度情報も同時に復号する。そして、画像復号化装置401は、復号したぼかし強度情報を予測参照フレームぼかし装置403に出力する。
フレームメモリ402は、画像復号化装置401が復号した映像フレームを予測参照フレームとして用いるために、画像復号化装置401が復号した映像フレーム(予測参照フレーム)を記憶する。
予測参照フレームぼかし装置403は、画像復号化装置401が復号したぼかし強度情報にもとづいて、フレームメモリ402が記憶している予測参照フレームに、符号化時と同じ方法および同じ強度でぼかす処理を施す。
予測画像生成装置404は、予測参照フレームぼかし装置403がぼかす処理を施した予測参照フレームを用いて予測画像を生成する。予測画像生成装置404が生成した予測画像は、画像復号化装置401が復号した映像フレームに加算処理されて出力される。加算処理は、例えば、加算器(加算手段)によって行われる。
次に、復号装置の動作について、図面を参照して説明する。図6は、復号装置の動作を模式的に示すフローチャートである。図6に示す処理は、予測参照フレームを用いて復号を行う場合を例にした処理である。
画像復号化装置401は、予測参照フレームを用いないで符号化された映像フレームが入力された場合に、符号化された映像フレームを復号する(ステップS201)。
予測参照フレームぼかし装置403は、予測参照フレームに、符号化時と同じ処理および同じ強度でぼかす処理(フィルタ処理)を施す(ステップS202)。予測画像生成装置404は、予測参照フレームぼかし装置403がぼかす処理(フィルタ処理)を施した予測参照フレームを用いて、予測画像を生成する(ステップS203)。
予測画像生成装置404が生成した予測画像は、加算器で、画像復号化装置701が復号した映像フレームに加算処理される。そして、加算器から加算結果が出力される(ステップS204、S205)。
動画像処理装置が含む各装置の動作は、プログラム制御にしたがって処理を実行するCPUによって行われてもよい。具体的には、動画像処理装置が、コンピュータに、連続する映像フレームからなる動画像を処理させる動画像処理プログラムであって、コンピュータに、映像フレームをぼかす強度を決定する(ぼかさないと決定することも含む。)ぼかし強度決定処理と、ぼかし強度決定処理における決定に従って、映像フレームの高周波信号を除去することによって画像をぼかす画像ぼかし処理とを実行させ、前記ぼかし強度決定処理で、映像フレームが所定数(1以上の数)連続するとぼかす強度を変化させることを特徴とする動画像処理プログラムを搭載する。CPUが前記各処理を実行してもよい。
本実施例によれば、ぼかし強度決定装置301の決定にもとづいて、映像フレームごとにぼかす処理を施すか否か、およびぼかす処理を施す際のぼかす強度を変化させて、映像フレームの符号化および復号を行うことができる。
従って、第1の実施例と同様に、視聴者に、ぼかす処理が施されているか否かを容易には検知されずに動画像の高周波信号を除去し、主観画質を向上させることができる。
次に、本発明の第3の実施例について説明する。動画像処理装置の構成は、図3に示された第2の実施例の動画像処理装置の構成と同じである。ただし、第3の実施例では、復号装置は図7に示すように構成される。すなわち、予測参照フレームぼかし装置403に相当するものを備えていない。
なお、符号化処理を行う動画像処理装置が、図7に例示したような復号装置の機能を含んでいてもよい。
図7に示す復号装置は、符号化された映像データを復号する画像復号化装置501と、復号された映像フレームを予測参照フレームとして使用するために格納(記憶)するフレームメモリ502と、予測参照フレームから動き補償予測の予測画像を生成する予測画像生成装置503とを含む。
図7に示す復号装置は、図5に示す復号装置から、予測参照フレームぼかし装置403を除いた構成である。図7に示す復号装置は、例えば、MPEG−2などの符号化方式で符号化された動画像データを復号する動画復号化装置の構成と同様の構成である。
入力画像は、図3に示す動画像処理装置で符号化されている。従って、動き補償予測に用いられる予測参照フレームは、それぞれ映像フレームごとに異なる強度でぼかされている。
一方、符号化された映像フレームは、図7に示す復号装置が復号する。図7に示す復号装置は、予測参照フレームをぼかす手段を備えていない。従って、図7に示す復号装置は、符号化時に用いた予測参照フレームと合致する予測参照フレームを生成することができないので、図3に示す動画像処理装置で符号化された映像フレームを正しく復号することができない。
そのため、復号された映像フレームは、図3に示す動画像処理装置が符号化する前の映像フレームとは異なる。動き補償予測による予測残差は、符号化時にぼけた予測参照フレームと、ぼけた入力映像フレームとの差分から構成されている。映像フレームを復号する際、この予測残差はぼけていない予測参照フレームに加算される。
通常のMPEG−2方式などで符号化した場合のように、入力画像をぼかさずに符号化した場合の画像データ(映像フレーム)を図7に示す復号装置で復号した場合の画像データ(映像フレーム)と、入力画像をぼかして符号化する図3に示す動画像処理装置で符号化した画像データ(映像フレーム)を図7に示す復号装置で復号した場合の画像データ(映像フレーム)とを比較すると、復号後の画像データ(映像フレーム)の違いは、予測残差の高周波信号の有無である。
そのため、本実施例では、図3に示す動画像処理装置で符号化した動画データを、図7に示す復号装置で復号した場合に、正しく画像データ(映像フレーム)復号することはできない。しかし、高周波信号は人間の視覚特性上検知されにくいため、その差(符号化前の画像データ(映像フレーム)と復号後の画像データ(映像フレーム)との差)を視聴者に検知されにくくすることができる。
また、ぼかす処理を施した映像フレームには高周波信号が少ししか含まれないため、符号化が簡単になる。したがって発生符号量を減少させることができる。そして、減少した符号量を、ぼかす処理を施していない映像フレームに割り当てることができるので、ぼかす処理を施していない映像フレームの画質を向上させることができる。従って、本実施例によれば、映像全体として主観画質を向上させることができる。
次に、本発明の第4の実施例について、図面を参照して説明する。本発明の第4の実施例における動画像処理装置は、H.261方式(ITU−T(International Telecommunication Union Telecommunication Standadization Sector)のH.261勧告にもとづく方式)などのように、ループ内フィルタが採用されている符号化方式において、入力画像をループ内フィルタと同じフィルタ特性でフィルタリングして予測残差を小さくし、発生符号量を少なくする。
本実施例では、映像フレームをH.261方式で符号化する場合、およびH.261方式で符号化された映像フレームを復号する場合を例に説明する。図8は、本発明による動画像処理装置の第4の実施例を示すブロック図である。
図8に示す動画像処理装置は、ループ内フィルタの種類を決定するループ内フィルタ決定装置(ループ内フィルタ決定手段)601と、入力画像に対して、符号化ループ内に備えられているループ内フィルタと等しいフィルタを用いてフィルタ処理を施す入力画像フィルタ処理装置(入力画像フィルタ処理手段)602と、入力画像を符号化する画像符号化装置(画像符号化手段)603と、符号化される画像の予測参照フレームを生成する局所復号化装置(局所復号手段)604と、予測参照フレームを格納(記憶)するフレームメモリ(第1の記憶手段)605と、予測参照フレームの高周波信号を除去するループ内フィルタ処理装置(ループ内フィルタ処理手段)606と、予測参照フレームから動き補償予測の予測画像を生成する予測画像生成装置(予測画像生成手段)607とを含む。
ループ内フィルタ決定装置601は、映像フレームにもとづいて、各映像フレームにぼかす処理(フィルタ処理)を施すか否か、および使用するループ内フィルタの種類を決定する。ループ内フィルタ決定装置601は、画像符号化装置603の出力による発生符号量や、画像データの複雑さなどを考慮してループ内フィルタの種類を決定する。
また、ループ内フィルタ決定装置601は、使用するループ内フィルタの種類を示すフィルタ情報を、画像符号化装置603およびループ内フィルタ処理装置606に出力する。
入力画像フィルタ処理装置602は、映像フレームのうち、ループ内フィルタ決定装置601がぼかす処理を施すと決定した映像フレームを、ループ内フィルタ決定装置601が決定したループ内フィルタでぼかして(ぼかす処理(フィルタ処理)を施して)、画像符号化装置603に出力する。
また、入力画像フィルタ処理装置602は、入力画像のうち、ループ内フィルタ決定装置601がぼかす処理を施さないと決定した映像フレームを、ぼかす処理(フィルタ処理)を施さないで画像符号化装置603に出力する。
画像符号化装置603は、入力画像フィルタ処理装置602が出力した映像フレームと、ループ内フィルタ決定装置601が出力したフィルタ情報とを符号化して出力する。
局所復号化装置604は、後に符号化される映像フレームの動き補償予測のための予測参照フレームとして用いるために、画像符号化装置603が符号化した映像フレームを復号する。フレームメモリ605は、局所復号化装置604が復号した映像フレームを記憶する。
ループ内フィルタ装置606は、フレームメモリ605が記憶している映像フレーム(予測参照フレーム)にぼかす処理を施す。なお、ループ内フィルタ装置606は、ループ内フィルタ決定装置601が出力したフィルタ情報にもとづいて、入力画像フィルタ処理装置602と同様なフィルタを用いて予測参照フレームにぼかす処理(フィルタ処理)を施す。
予測画像生成装置607は、ぼかす処理(フィルタ処理)が施された予測参照フレームを用いて、予測画像を生成する。入力画像フィルタ処理装置602が出力した映像フレームから、予測画像生成装置607が生成した予測画像が減算される。また、予測画像生成装置607が生成した予測画像は、局所復号化装置604が復号した映像フレームに加算処理されてフレームメモリ605に記憶される。フィルタ処理を施すために、例えば、低域通過フィルタが用いられる。
次に、第4の実施例の動画像処理装置の動作について、図面を参照して説明する。図9は、第4の実施例の動画像処理装置の動作を模式的に示すフローチャートである。
ループ内フィルタ決定装置601は、画像データ(映像フレーム)が入力された場合に、各映像フレームにぼかす処理(フィルタ処理)を施すか否か、および使用するループ内フィルタの種類を決定する(ステップS301、S302)。
入力画像フィルタ処理装置602は、映像フレームのうち、ループ内フィルタ決定装置601がぼかす処理を施すと決定した映像フレームを、ループ内フィルタ決定装置601が決定したループ内フィルタでぼかす。すなわち、ぼかす処理(フィルタ処理)が施される。そして、入力画像フィルタ処理装置602は、ぼかし処理が施された映像フレームを画像符号化装置603に出力する(ステップS303)。
画像符号化装置603は、入力画像フィルタ処理装置602が出力した映像フレームを符号化して、最初のフレームに関するデータとして出力する(ステップS304)。
画像符号化装置603が出力した映像フレームは後に符号化される映像フレームの予測参照フレームとして用いられるので、局所復号化装置604は、画像符号化装置603が出力した映像フレームを復号する(ステップS305)。ループ内フィルタ装置606は、フレームメモリ605が記憶している映像フレーム(予測参照フレーム)にぼかす処理(フィルタ処理)を施す(ステップS306)。
予測画像生成装置607は、ぼかす処理(フィルタ処理)が施された予測参照フレームを用いて、予測画像を生成する(ステップS307)。予測画像生成装置607が生成した予測画像は、減算器にて入力画像フィルタ処理装置602が出力した映像フレームから減算される(ステップS308)。
画像符号化装置603は、減算器の出力を符号化して、符号化された映像フレームのデータを出力する(ステップS309、S310)。
次に、符号化された動画像の復号について説明する。第4の実施例では、図10に示す復号装置で復号が行われる。
図10に示す復号装置は、符号化された動画像を復号する画像復号化装置(復号手段)701と、復号された映像フレームを予測参照フレームとして使用するために格納(記憶)しておくフレームメモリ(第2の記憶手段)702と、予測参照フレームの高周波信号を除去するループ内フィルタ処理装置(第2のループ内フィルタ処理手段)703と、予測参照フレームから動き補償予測の予測画像を生成する予測画像生成装置(第2の予測画像生成手段)704とを含む。
なお、動画像処理装置が、図10に例示したような復号装置の機能を含んでいてもよい。
画像復号化装置701は、符号化された映像フレームとフィルタ情報とを復号する。画像復号化装置701は、復号したフィルタ情報を、ループ内フィルタ処理装置703に出力する。フレームメモリ702は、画像復号化装置701が復号した映像フレームを、予測参照フレームとして用いるために記憶する。ループ内フィルタ装置703は、画像復号化装置701が出力したフィルタ情報にもとづいて、フレームメモリ702が記憶している予測参照フレームに、ぼかす処理(フィルタ処理)を施す。
予測画像生成装置704は、フィルタ処理が施された予測参照フレームを用いて、予測画像を生成する。予測画像生成装置704が生成した予測画像は、画像復号化装置701が復号した映像フレームに加算されて出力される。
次に、復号装置の動作について、図面を参照して説明する。図11は、第4の実施例の復号装置の動作を模式的に示すフローチャートである。
画像復号化装置701は、符号化された映像フレームを復号する(ステップS401)。
ループ内フィルタ装置703は、予測参照フレームに、符号化時と同じ処理および同じ強度でぼかす処理(フィルタ処理)を施す(ステップS402)。予測画像生成装置704は、ループ内フィルタ装置703がぼかす処理(フィルタ処理)を施した予測参照フレームを用いて、予測画像を生成する(ステップS403)。
予測画像生成装置704が生成した予測画像は、加算器で、画像復号化装置701が復号した映像フレームに加算処理され、加算器から加算結果が出力される(ステップS404、S405)。
なお、動画像処理装置が含む各装置の動作は、プログラム制御にしたがって処理を実行するCPUに行わせてもよい。具体的には、動画像処理装置が、コンピュータに、映像フレームごとに、フィルタ処理を行うか否かを決定し、フィルタ処理を行うと決定した場合に、フィルタ処理を行うループ内フィルタ特性を決定するループ内フィルタ決定処理と、入力された映像フレームに、ループ内フィルタ決定処理で決定した特性のフィルタでフィルタ処理を行う入力画像フィルタリング実行処理と、フィルタ処理された映像フレームを符号化する画像符号化処理と、画像符号化処理で符号化した映像フレームを復号した予測参照フレームを生成する局所復号処理と、ループ内フィルタ決定処理で決定した特性のフィルタで予測参照フレームにフィルタ処理を行うループ内フィルタリング実行処理と、ループ内フィルタリング実行処理でフィルタ処理を行った予測参照フレームから予測画像を生成する予測画像生成処理とを実行させ、入力画像フィルタリング実行処理、およびループ内フィルタリング実行処理で、同様の特性のフィルタでフィルタ処理を実行させ、画像符号化処理で、入力画像フィルタリング実行処理が出力した映像フレームと、予測画像生成処理で生成した予測画像との減算処理の結果を符号化させることを特徴とする動画像処理プログラムを搭載する。前記動画像処理プログラムはCPUに実行させてもよい。
本実施例によれば、予測参照フレームに対してフィルタ処理を施したループ内フィルタと同じ特性のフィルタを用いて、フィルタ処理を入力画像に施すので、予測参照フレームおよび入力画像から高周波信号が同程度除去され、予測残差を小さくすることができる。そのため、符号化に必要な符号量を削減することができる。
また、本実施例における復号装置は、H.261方式などの符号化方式の復号装置と同様な構成であるので、画像符号化を行う部分のみを変更して本実施例を実現することができる。
図12は、第1の実施例の動画像処理装置がコンピュータシステムで実現される場合の構成例を示すブロック図である。
図12に示す構成例では、コンピュータシステムは、プロセッサ801を有する。プロセッサ801には、入力データバッファ811および出力データバッファ812と、必要なプログラムを格納したプログラムメモリ802が接続されている。
プログラムメモリ802に格納されるプログラムモジュールとして、メインプログラムの他に、ぼかし強度決定処理813および画像ぼかし処理814が含まれている。メインプログラムは、動画像処理を実行する主プログラムである。ぼかし強度決定処理プログラム813は、ぼかし強度決定装置201の機能を実現するためのプログラムである。画像ぼかし処理プログラム814は、画像ぼかし装置202の機能を実現するためのプログラムである。メインプログラムおよび各機能モジュールをプロセッサ801が実行することによって、第1の実施例の動画像処理装置における動画像処理が実行される。
上記した第2から第4の実施例の動画像処理装置も、同様に各ブロックの機能を実現するプログラムモジュールをコンピュータシステムに実装することによって実現される。
次に、本発明による動画像処理装置のより具体的な実施例について説明する。
ここでは、SDTV(Standard Definition Television)サイズ(水平方向:720画素、垂直方向:480画素、1秒あたり29.97フレーム)の動画像を、図3に示す動画像処理装置に入力して、MPEG符号化方式で符号化する場合を例にする。
画像符号化装置303は、映像フレームを、1つの映像フレームを独立に符号化するフレーム(Iピクチャ)、過去の映像フレームから予測を行い予測誤差を符号化するフレーム(Pピクチャ)、および過去と未来の映像フレームから予測をおこない予測誤差を符号化するフレーム(Bピクチャ)の3種類のピクチャのいずれかに符号化する。
ここでは、入力された動画像のうちBピクチャとして符号化される映像フレームのみ画像ぼかし装置302でぼかし処理が施される、IおよびPピクチャとして符号化される映像フレームはぼかし処理が施されることなくそのまま符号化される場合を例にする。ぼかし処理を施すか否かの決定は、ぼかし強度決定装置301にて行われる。
このようにピクチャの種類に応じて異なるぼかし処理が施された入力画像は、画像符号化装置303にて符号化される。画像符号化装置303は、離散コサイン変換、量子化、可変長符号化を用いたMPEG方式と同様の方法の符号化に加え、入力画像をどのようにぼかしたかの情報もあわせて符号化する。符号化された映像フレームは、局所復号化装置304で復号化され、予測参照フレームとして使用するために、フレームメモリ305に格納される。符号化されている映像フレームがBピクチャの場合は、予測参照フレームぼかし装置306は、フレームメモリ305に格納された予測参照フレームにぼかし処理を施す。このとき、画像ぼかし装置302が入力画像をぼかした方法と同様の方法で予測参照フレームをぼかす。
予測画像生成装置307は、ぼかした予測参照フレームを用いて予測画像を生成する。そして、入力画像と予測画像との差分がとられ、差分が符号化される。符号化されている映像フレームがPピクチャの場合は、予測参照フレームぼかし装置306は、ぼかし処理を行わず、予測画像生成装置307で予測画像が生成され、入力画像との差分がとられ差分が符号化される。
符号化された動画像データを復号する際に、図4に示された画像復号化装置401によって、映像フレームが復元される。その際に、符号化時に映像フレームがどのようにぼかされたかの情報も復号される。復号された映像フレームは、予測参照フレームとして用いるためにフレームメモリ402に格納される。
復号されているフレームがBピクチャの場合には、フレームメモリ402に格納された予測参照フレームは、予測参照フレームぼかし装置403において符号化時と同じ方法でぼかされる。予測画像生成装置404は、ぼかされた予測参照フレームから予測画像を生成する。そして、画像復号化装置401の復号結果である予測残差と予測画像と加算され復号が完了する。復号しているフレームがPピクチャの場合は、予測参照フレームぼかし装置403は、予測参照フレームをぼかさない。予測画像生成装置404は、予測画像を生成し、復号された予測残差と予測画像と加算されて復号が完了する。
A first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a first embodiment of a moving image processing apparatus according to the present invention.
The moving image processing apparatus shown in FIG. 1 includes a blur intensity determining apparatus 201 that determines the intensity at which a video frame is blurred, and an image blur apparatus 202 that performs a process of removing a high-frequency signal from the video frame and blurring the image.
The blur intensity determination device 201 determines whether or not to perform the process of blurring each video frame when the input image is input, and the blur intensity when performing the process of blurring the video frame. In the present embodiment and the following embodiments, the blur intensity corresponds to the frequency of the high frequency signal removed from the video frame.
The intensity of blur is not constant between successive video frames. For example, the blur intensity determining apparatus 201 determines the blur intensity so that a video frame subjected to the blur process and a video frame not subjected to the blur process are alternated, and the video frame which is strongly blurred and the video frame which is weakly blurred alternately. Determine the blur intensity. That is, the blur intensity determination device 201 periodically changes the intensity of the blurring process performed on the video frame. Further, the period of changing the intensity to be blurred by the blur intensity determining apparatus 201 may be constant or not constant. That is, the intensity to blur aperiodically may be changed.
FIG. 2 is an explanatory diagram illustrating a configuration of a video in which a video frame to be blurred and a video frame to be blurred are alternated.
Note that the blur intensity determining apparatus 201 does not have to change the intensity to be blurred for each video frame, as shown in FIG. For example, the blur intensity determining apparatus 201 may change the intensity to be blurred every two video frames.
The blur intensity determining apparatus 201 determines the intensity to be blurred in consideration of the characteristics of the video frame itself such as the amount of change in luminance value. Specifically, the blur intensity determination device 201 has, for example, an average moving amount (motion vector amount) of video of 16 pixels and a change amount of the luminance value considering the amount of motion is 2 per pixel. Decide to blur.
Also, the blur intensity determining apparatus 201 may determine the intensity to be blurred in consideration of the encoding method when the input image is encoded. For example, the blur intensity determining apparatus 201 may change the intensity of blurring between a video frame that employs interframe prediction and a video frame that does not.
The blur intensity determining apparatus 201 determines the intensity for blurring each video frame, for example, in one of 10 levels.
The blur intensity determining apparatus 201 determines whether or not to perform the blur process on each video frame, and when determining to perform the blur process, determines the blur intensity in the video frame blur process. In this case, the image blurring device 202 removes and outputs the high-frequency signal of the video frame determined to be blurred according to the strength to be blurred. The image blurring device 202 outputs the video frame determined not to be subjected to the blur process without performing the blur process. In order to remove the high-frequency signal, for example, a low-pass filter is used.
Specifically, the blur intensity determining apparatus 201, for example, when blurring a video frame strongly, for example, a high-frequency signal having a frequency of about 50% or more of the maximum frequency (for example, 4.2 MHz) (for example, 2.1 MHz or more). Signal).
In addition, the blur intensity determining apparatus 201, when blurring a video frame, for example, outputs a high-frequency signal (for example, a signal of 3.8 MHz or more) having a frequency of about 90% or more of the maximum frequency (for example, 4.2 MHz). Remove.
In this specification, removing a high-frequency signal from a video frame is referred to as blurring processing.
As described above, according to the present embodiment, the intensity of blurring is controlled for each video frame, and video frames that are subjected to the blurring process and video frames that are not subjected to the blurring process are alternately configured. Therefore, it is possible to remove the high-frequency signal of the moving image (video frame) without easily detecting whether or not the process of blurring is performed on the viewer.
Therefore, it is possible to reduce the amount of code for encoding a video frame and prevent encoding at a low bit rate while preventing the viewer from detecting blur.
If no high-frequency signal is removed, that is, if no blurring process is performed, the amount of generated code increases. In that case, it is necessary to increase the quantization step in order to encode at a low bit rate. As a result, a quantization error occurs and the image quality is degraded.
However, in this embodiment, since the high-frequency signal is removed from the video frame subjected to the blurring process, the generated code amount is reduced as a whole. Therefore, even when encoding at a low bit rate, quantization can be performed with a small quantization step, and a quantization error can be reduced. For this reason, it is possible to make it difficult to detect a decrease in image quality due to a quantization error.
In other words, in order to reduce the quantization error when encoding a moving image (video frame), it is difficult to detect that the process of blurring the viewer has been performed. The subjective image quality (image quality perceived by the viewer) can be improved compared to the case where no high frequency signal is removed.
Next, a second embodiment of the present invention will be described with reference to the drawings. FIG. 3 is a block diagram showing a second embodiment of the moving image processing apparatus according to the present invention.
As shown in FIG. 3, the moving image processing apparatus according to the second embodiment is a blur intensity determining device (blur intensity determining means) 301 that determines the blur intensity of a video frame, and an image obtained by removing a high-frequency signal from the video frame. An image blurring device (image blurring unit) 302 that blurs an image, an image encoding device (image encoding unit) 303 that encodes an input image, and a local decoding device (locally) that generates a prediction reference frame of an image to be encoded (Decoding means) 304, a frame memory (first storage means) 305 for storing (storing) a prediction reference frame, and a prediction reference frame blurring apparatus (prediction reference) that blurs the prediction reference frame with the same intensity as the input image being encoded. A frame blurring unit) 306, and a predicted image generating device (predicted image generating unit) 307 that generates a predicted image of motion compensation prediction from the predicted reference frame. That.
In the present embodiment, an apparatus that performs encoding by the MPEG encoding method is assumed as the moving image processing apparatus. However, the moving image processing apparatus according to the present invention is not limited to the one that performs encoding by the MPEG encoding method.
The blur intensity determination device 301 determines whether or not to perform the process of blurring each video frame when an input image is input. When the process of blurring the video frame is performed, the blur strength determining apparatus 301 removes the blur intensity (from the video frame). Signal frequency).
The strength to blur is not constant. The blur intensity determination device 301 determines, for example, that video frames that are to be blurred and video frames that are not to be blurred are alternated, and video frames that are strongly blurred and video frames that are weakly blurred are alternately determined. To do.
The blur intensity determination device 301 determines the blur strength based on the information output from the image encoding device 303. For example, the intensity to be blurred is determined based on the encoding method, the intensity to be blurred is determined based on the change in the pixel value between video frames of the image, and the change in the pixel value between the encoding method and the video frame of the image Determine the strength to blur based on the combination of
The blur intensity determination device 301 outputs the blur strength information indicating the blur strength of the video frame and what kind of blur processing has been performed to the image encoding device 303 and the prediction reference frame blur device 306.
The image blurring device 302 blurs the image frame determined to be blurred by the blur strength determining device 301 in the input image with the blur strength determined by the blur strength determining device 301 (performs the blurring process). The data is output to the encoding device 303. In order to perform the blurring process, for example, a low-pass filter is used.
In addition, the image blurring device 302 outputs, to the image coding device 303, the video frame that is determined not to be subjected to the blurring process performed by the blurring intensity determination device 301 among the input images.
The image encoding device 303 encodes and outputs the video frame output from the image blurring device 302. The image encoding device 303 also encodes the blur intensity information and encodes the encoded moving image data (video frame) so as to include the blur intensity information.
The local decoding device 304 decodes the video frame encoded by the image encoding device 303 for use as a prediction reference frame for motion compensation prediction of a video frame to be encoded later. The frame memory 305 stores the video frame decoded by the local decoding device 304.
The prediction reference frame blurring device 306 performs a process of blurring the video frame (prediction reference frame) stored in the frame memory 305. The prediction reference frame blurring device 306 performs a blurring process using a method similar to the method indicated by the blur strength information based on the blur strength information output from the blur strength determination device 301.
The predicted image generation device 307 generates a predicted image using the predicted reference frame that has been subjected to the blurring process.
The predicted image generated by the predicted image generation device 307 is subtracted from the video frame output from the image blurring device 302, and the subtraction result is input to the image encoding device 303. Further, the predicted image generated by the predicted image generation device 307 is added to the video frame decoded by the local decoding device 304 and stored in the frame memory 305. The subtraction process is performed by, for example, a subtracter, and the addition process is performed by, for example, an adder.
Next, the operation of the moving image processing apparatus of the second embodiment will be described with reference to the drawings. FIG. 4 is a flowchart schematically showing the operation of the moving image processing apparatus of the second embodiment. The process shown in FIG. 4 is a process in a process until a video frame encoded without using a prediction reference frame is output first, and then a video frame encoded using a prediction reference frame is output. It is.
The blur intensity determination device 301 determines whether or not to perform the process of blurring each video frame when an input image is input, and the blur intensity (the signal to be removed from the video) when performing the process of blurring the video frame. (Frequency) is determined (steps S101 and S102).
The image blurring apparatus 302 blurs (performs a blurring process) a video frame determined to be blurred by the blurring intensity determination apparatus 301 in the input image with a blurring intensity determined by the blurring intensity determination apparatus 301 and performs an image encoding apparatus. It outputs to 303 (step S103).
The image encoding device 303 encodes the video frame output from the image blurring device 302 and outputs it as data relating to the first frame (step S104).
Since the video frame output from the image encoding device 303 is used as a prediction reference frame of a video frame to be encoded later, the local decoding device 304 decodes the video frame output from the image encoding device 303 (step S105). ). The prediction reference frame blurring device 306 performs a process (filtering process) to blur the video frame (prediction reference frame) stored in the frame memory 305 (step S106).
The predicted image generation device 307 generates a predicted image using the predicted reference frame that has been subjected to the blurring process (filter process) (step S107). The predicted image generated by the predicted image generation device 607 is subtracted from the video frame output from the image blurring device 302 by the subtracter (step S108).
The image encoding device 303 encodes the output of the subtracter and outputs it as data relating to the second frame (steps S109 and S110).
Next, decoding of the encoded moving image will be described. FIG. 5 is a block diagram illustrating a configuration example of a decoding device.
The decoding device shown in FIG. 5 includes an image decoding device (decoding unit) 401 that decodes an encoded moving image, and a frame memory that stores (stores) the decoded video frame for use as a prediction reference frame ( A second storage unit) 402, a prediction reference frame blurring device (second prediction reference frame blurring unit) 403 that performs processing to blur the prediction reference frame, and a prediction image that generates a motion compensation prediction prediction image from the prediction reference frame A generation device (second predicted image generation means) 404.
The moving image processing apparatus may include the function of the decoding apparatus illustrated in FIG.
The image decoding device 401 decodes the encoded video frame. Note that the image decoding apparatus 401 also decodes the encoded blur intensity information at the same time. Then, the image decoding apparatus 401 outputs the decoded blur intensity information to the prediction reference frame blurring apparatus 403.
The frame memory 402 stores the video frame (prediction reference frame) decoded by the image decoding device 401 in order to use the video frame decoded by the image decoding device 401 as a prediction reference frame.
Based on the blur intensity information decoded by the image decoding apparatus 401, the prediction reference frame blurring apparatus 403 performs a blurring process on the prediction reference frame stored in the frame memory 402 with the same method and the same intensity as when encoding. .
The predicted image generation device 404 generates a predicted image using the predicted reference frame that has been subjected to the processing performed by the predicted reference frame blurring device 403. The predicted image generated by the predicted image generation device 404 is added to the video frame decoded by the image decoding device 401 and output. The addition processing is performed by, for example, an adder (adding unit).
Next, the operation of the decoding device will be described with reference to the drawings. FIG. 6 is a flowchart schematically showing the operation of the decoding apparatus. The process illustrated in FIG. 6 is an example of a case where decoding is performed using a prediction reference frame.
The image decoding apparatus 401 decodes the encoded video frame when the encoded video frame is input without using the prediction reference frame (step S201).
The prediction reference frame blurring apparatus 403 performs the same process and the same blur process (filtering process) as those at the time of encoding on the prediction reference frame (step S202). The predicted image generation device 404 generates a predicted image using the predicted reference frame that has been subjected to the processing (filter processing) performed by the predicted reference frame blurring device 403 (step S203).
The predicted image generated by the predicted image generation device 404 is added to the video frame decoded by the image decoding device 701 by an adder. Then, the addition result is output from the adder (steps S204 and S205).
The operation of each device included in the moving image processing device may be performed by a CPU that executes processing according to program control. Specifically, the moving image processing apparatus is a moving image processing program for causing a computer to process a moving image composed of continuous video frames, and determines the strength to blur the video frame to the computer (determines not to blur). In accordance with the determination in the blur intensity determination process and the blur intensity determination process, an image blur process for blurring the image by removing the high-frequency signal of the video frame is executed. A moving image processing program is mounted that changes the intensity of blurring when a predetermined number (one or more) continues. The CPU may execute each process.
According to the present embodiment, based on the determination of the blur intensity determination device 301, whether or not to perform the blurring process for each video frame, and the blurring intensity at the time of performing the blurring process are changed, thereby encoding and encoding the video frame. Decoding can be performed.
Therefore, similarly to the first embodiment, it is possible to remove the high-frequency signal of the moving image without easily detecting whether or not the blurring process has been performed on the viewer, thereby improving the subjective image quality.
Next, a third embodiment of the present invention will be described. The configuration of the moving image processing apparatus is the same as that of the moving image processing apparatus of the second embodiment shown in FIG. However, in the third embodiment, the decoding device is configured as shown in FIG. In other words, a device corresponding to the prediction reference frame blurring device 403 is not provided.
Note that the moving image processing apparatus that performs the encoding process may include the function of the decoding apparatus illustrated in FIG.
7 includes an image decoding device 501 that decodes encoded video data, a frame memory 502 that stores (stores) the decoded video frame for use as a prediction reference frame, and a prediction reference. A prediction image generation device 503 that generates a prediction image of motion compensation prediction from the frame.
The decoding apparatus shown in FIG. 7 has a configuration in which the prediction reference frame blurring apparatus 403 is removed from the decoding apparatus shown in FIG. The decoding device shown in FIG. 7 has the same configuration as that of a moving image decoding device that decodes moving image data encoded by an encoding method such as MPEG-2.
The input image is encoded by the moving image processing apparatus shown in FIG. Therefore, the prediction reference frame used for motion compensation prediction is blurred with different intensity for each video frame.
On the other hand, the encoded video frame is decoded by the decoding device shown in FIG. The decoding apparatus shown in FIG. 7 does not include a means for blurring the prediction reference frame. Accordingly, since the decoding apparatus shown in FIG. 7 cannot generate a prediction reference frame that matches the prediction reference frame used at the time of encoding, the video frame encoded by the moving image processing apparatus shown in FIG. 3 is correctly decoded. Can not do it.
Therefore, the decoded video frame is different from the video frame before being encoded by the moving image processing apparatus shown in FIG. The prediction residual due to motion compensation prediction is composed of a difference between a prediction reference frame blurred at the time of encoding and a blurred input video frame. When decoding a video frame, this prediction residual is added to a prediction reference frame that is not blurred.
The image data (video frame) when the decoding apparatus shown in FIG. 7 decodes the image data (video frame) when the input image is encoded without blurring as in the case of encoding according to the normal MPEG-2 system or the like. ) And the image data (video frame) obtained by decoding the image data (video frame) encoded by the moving image processing apparatus shown in FIG. Then, the difference in the decoded image data (video frame) is the presence or absence of a high frequency signal of the prediction residual.
Therefore, in this embodiment, when the moving image data encoded by the moving image processing apparatus shown in FIG. 3 is decoded by the decoding apparatus shown in FIG. 7, the image data (video frame) cannot be correctly decoded. However, since high-frequency signals are difficult to detect due to human visual characteristics, the difference (difference between image data (video frame) before encoding and image data (video frame) after decoding) is difficult to be detected by the viewer. be able to.
Further, since the video frame subjected to the blurring process includes only a few high-frequency signals, encoding is simplified. Therefore, the generated code amount can be reduced. Since the reduced code amount can be assigned to a video frame that has not been subjected to the blurring process, the image quality of the video frame that has not been subjected to the blurring process can be improved. Therefore, according to the present embodiment, the subjective image quality of the entire video can be improved.
Next, a fourth embodiment of the present invention will be described with reference to the drawings. A moving image processing apparatus according to the fourth embodiment of the present invention is described in H.264. In an encoding method in which an in-loop filter is adopted, such as the H.261 method (method based on the H.261 recommendation of ITU-T (International Telecommunication Union Standardization Sector)), the input image is filtered by the same filter as the in-loop filter. Filter by the characteristics to reduce the prediction residual and reduce the amount of generated code.
In this embodiment, the video frame is H.264. H.261 encoding, and H.264. A case where a video frame encoded by the H.261 system is decoded will be described as an example. FIG. 8 is a block diagram showing a fourth embodiment of the moving image processing apparatus according to the present invention.
The moving image processing apparatus shown in FIG. 8 includes an in-loop filter determining device (in-loop filter determining means) 601 that determines the type of an in-loop filter, and an in-loop provided in an encoding loop for an input image. Input image filter processing apparatus (input image filter processing means) 602 that performs filter processing using a filter equal to the filter, an image encoding apparatus (image encoding means) 603 that encodes an input image, and an image to be encoded A local decoding device (local decoding means) 604 for generating a prediction reference frame, a frame memory (first storage means) 605 for storing (storing) a prediction reference frame, and a loop for removing a high-frequency signal of the prediction reference frame An intra-filter processing device (in-loop filter processing means) 606 and a prediction image for generating a motion compensated prediction image from the prediction reference frame Image generating apparatus and a (predicted image generating means) 607.
The in-loop filter determination device 601 determines whether or not to perform a blurring process (filter process) on each video frame based on the video frame and the type of the in-loop filter to be used. The in-loop filter determination device 601 determines the type of the in-loop filter in consideration of the generated code amount generated by the output of the image encoding device 603, the complexity of the image data, and the like.
Further, the in-loop filter determination device 601 outputs filter information indicating the type of in-loop filter to be used to the image coding device 603 and the in-loop filter processing device 606.
The input image filter processing device 602 blurs a video frame determined to be blurred by the in-loop filter determining device 601 among the video frames with the in-loop filter determined by the in-loop filter determining device 601 (blurring processing ( Filter processing) and output to the image encoding device 603.
Also, the input image filter processing device 602 sends the video frame determined not to be blurred by the in-loop filter determination device 601 to the image coding device 603 without performing the blurring processing (filter processing). Output.
The image encoding device 603 encodes and outputs the video frame output from the input image filter processing device 602 and the filter information output from the in-loop filter determination device 601.
The local decoding device 604 decodes the video frame encoded by the image encoding device 603 for use as a prediction reference frame for motion compensation prediction of a video frame to be encoded later. The frame memory 605 stores the video frame decoded by the local decoding device 604.
The in-loop filter device 606 performs a process of blurring the video frame (predicted reference frame) stored in the frame memory 605. Note that the in-loop filter device 606 performs processing (filter processing) to blur the predicted reference frame using the same filter as the input image filter processing device 602 based on the filter information output by the in-loop filter determination device 601.
The predicted image generation device 607 generates a predicted image using the predicted reference frame that has been subjected to the blurring process (filter process). The predicted image generated by the predicted image generation device 607 is subtracted from the video frame output from the input image filter processing device 602. Further, the predicted image generated by the predicted image generation device 607 is added to the video frame decoded by the local decoding device 604 and stored in the frame memory 605. In order to perform the filtering process, for example, a low-pass filter is used.
Next, the operation of the moving image processing apparatus of the fourth embodiment will be described with reference to the drawings. FIG. 9 is a flowchart schematically showing the operation of the moving image processing apparatus of the fourth embodiment.
The in-loop filter determination device 601 determines whether or not to apply a blurring process (filter process) to each video frame when image data (video frame) is input, and the type of in-loop filter to be used (step). S301, S302).
The input image filter processing device 602 blurs a video frame determined to be blurred by the in-loop filter determination device 601 out of the video frames with the in-loop filter determined by the in-loop filter determination device 601. That is, a blurring process (filtering process) is performed. Then, the input image filter processing device 602 outputs the video frame subjected to the blurring process to the image coding device 603 (step S303).
The image encoding device 603 encodes the video frame output from the input image filter processing device 602 and outputs the encoded video frame as data relating to the first frame (step S304).
Since the video frame output from the image encoding device 603 is used as a prediction reference frame of a video frame to be encoded later, the local decoding device 604 decodes the video frame output from the image encoding device 603 (step S305). ). The in-loop filter device 606 performs a process (filter process) to blur the video frame (predicted reference frame) stored in the frame memory 605 (step S306).
The predicted image generation device 607 generates a predicted image using the predicted reference frame that has been subjected to the blurring process (filter process) (step S307). The predicted image generated by the predicted image generation device 607 is subtracted from the video frame output from the input image filter processing device 602 by a subtracter (step S308).
The image encoding device 603 encodes the output of the subtracter and outputs encoded video frame data (steps S309 and S310).
Next, decoding of the encoded moving image will be described. In the fourth embodiment, decoding is performed by the decoding device shown in FIG.
The decoding apparatus shown in FIG. 10 includes an image decoding apparatus (decoding unit) 701 that decodes an encoded moving image, and a frame that is stored (stored) to use the decoded video frame as a prediction reference frame. A memory (second storage unit) 702, an in-loop filter processing device (second in-loop filter processing unit) 703 that removes a high-frequency signal from the prediction reference frame, and a motion compensated prediction prediction image is generated from the prediction reference frame A predicted image generation apparatus (second predicted image generation means) 704.
Note that the moving image processing apparatus may include the function of the decoding apparatus illustrated in FIG.
The image decoding device 701 decodes the encoded video frame and filter information. The image decoding device 701 outputs the decoded filter information to the in-loop filter processing device 703. The frame memory 702 stores the video frame decoded by the image decoding device 701 for use as a prediction reference frame. The in-loop filter device 703 performs a blurring process (filter processing) on the prediction reference frame stored in the frame memory 702 based on the filter information output from the image decoding device 701.
The predicted image generation device 704 generates a predicted image using the predicted reference frame that has been subjected to the filter processing. The predicted image generated by the predicted image generation device 704 is added to the video frame decoded by the image decoding device 701 and output.
Next, the operation of the decoding device will be described with reference to the drawings. FIG. 11 is a flowchart schematically showing the operation of the decoding apparatus according to the fourth embodiment.
The image decoding device 701 decodes the encoded video frame (step S401).
The in-loop filter device 703 performs the same process and the same blurring process (filtering process) as the encoding process on the prediction reference frame (step S402). The predicted image generation device 704 generates a predicted image using the predicted reference frame that has been subjected to the processing (filter processing) that is blurred by the in-loop filter device 703 (step S403).
The predicted image generated by the predicted image generation device 704 is added to the video frame decoded by the image decoding device 701 by an adder, and the addition result is output from the adder (steps S404 and S405).
The operation of each device included in the moving image processing device may be performed by a CPU that executes processing according to program control. Specifically, when the moving image processing apparatus determines whether or not to perform the filtering process for each video frame, and determines to perform the filtering process, the moving image processing apparatus determines the in-loop filter characteristics for performing the filtering process. In-loop filter determination processing, input image filtering execution processing for filtering the input video frame with a filter having characteristics determined by the in-loop filter determination processing, and image code for encoding the filtered video frame In the loop that performs the filtering process on the prediction reference frame by the local decoding process that generates the prediction reference frame obtained by decoding the video frame encoded by the encoding process, the image encoding process, and the characteristic filter determined by the filter determination process in the loop Prediction that has been filtered by filtering execution processing and in-loop filtering execution processing A prediction image generation process that generates a prediction image from the reference frame, and a filter process with a filter having the same characteristics in the input image filtering execution process and the in-loop filtering execution process, and the input in the image encoding process A moving image processing program is included, which encodes a result of a subtraction process between a video frame output by the image filtering execution process and a predicted image generated by the predicted image generation process. The moving image processing program may be executed by a CPU.
According to the present embodiment, the filtering process is performed on the input image using a filter having the same characteristics as the in-loop filter obtained by performing the filtering process on the predicted reference frame, so that the high-frequency signal is the same from the predicted reference frame and the input image. To some extent, the prediction residual can be reduced. Therefore, the amount of codes necessary for encoding can be reduced.
In addition, the decoding device in this embodiment is H.264. Since the configuration is the same as that of a decoding device of an encoding method such as the H.261 method, it is possible to implement the present embodiment by changing only the part that performs image encoding.
FIG. 12 is a block diagram illustrating a configuration example when the moving image processing apparatus according to the first embodiment is realized by a computer system.
In the configuration example illustrated in FIG. 12, the computer system includes a processor 801. The processor 801 is connected to an input data buffer 811 and an output data buffer 812, and a program memory 802 that stores necessary programs.
As program modules stored in the program memory 802, a blur intensity determination process 813 and an image blur process 814 are included in addition to the main program. The main program is a main program that executes moving image processing. The blur intensity determination processing program 813 is a program for realizing the function of the blur intensity determining apparatus 201. The image blur processing program 814 is a program for realizing the function of the image blurring apparatus 202. When the processor 801 executes the main program and each functional module, the moving image processing in the moving image processing apparatus of the first embodiment is executed.
Similarly, the moving image processing apparatuses according to the second to fourth embodiments described above are realized by mounting program modules for realizing the functions of the respective blocks in the computer system.
Next, a more specific embodiment of the moving image processing apparatus according to the present invention will be described.
Here, a moving image of SDTV (Standard Definition Television) size (horizontal direction: 720 pixels, vertical direction: 480 pixels, 29.97 frames per second) is input to the moving image processing apparatus shown in FIG. The case where it encodes with an encoding system is made into an example.
The image encoding device 303 includes a frame (I picture) that independently encodes one video frame, a frame (P picture) that predicts a past video frame and encodes a prediction error, Prediction is performed from a future video frame, and the prediction error is encoded into one of three types of pictures (B picture).
Here, only the video frame encoded as a B picture among the input moving images is subjected to the blurring process by the image blurring device 302, and the video frame encoded as the I and P pictures is subjected to the blurring process. An example is a case where encoding is performed without any change. The determination as to whether or not to perform the blurring process is performed by the blurring intensity determination device 301.
In this way, the input image that has been subjected to different blurring processing depending on the type of picture is encoded by the image encoding device 303. The image encoding device 303 encodes information on how to blur the input image in addition to encoding by the same method as the MPEG method using discrete cosine transform, quantization, and variable length encoding. The encoded video frame is decoded by the local decoding device 304 and stored in the frame memory 305 for use as a prediction reference frame. When the encoded video frame is a B picture, the prediction reference frame blurring device 306 performs a blurring process on the prediction reference frame stored in the frame memory 305. At this time, the predicted reference frame is blurred by the same method as the method in which the image blurring device 302 blurs the input image.
The predicted image generation device 307 generates a predicted image using the blurred predicted reference frame. Then, the difference between the input image and the predicted image is taken, and the difference is encoded. When the encoded video frame is a P picture, the prediction reference frame blurring device 306 does not perform the blurring process, the prediction image generation device 307 generates a prediction image, takes the difference from the input image, and calculates the difference. Encoded.
When decoding the encoded moving image data, the image frame is restored by the image decoding device 401 shown in FIG. At this time, information on how the video frame was blurred at the time of encoding is also decoded. The decoded video frame is stored in the frame memory 402 for use as a predicted reference frame.
When the decoded frame is a B picture, the prediction reference frame stored in the frame memory 402 is blurred by the prediction reference frame blurring device 403 in the same manner as when encoding. The predicted image generation apparatus 404 generates a predicted image from the blurred predicted reference frame. Then, the prediction residual as the decoding result of the image decoding apparatus 401 and the prediction image are added, and the decoding is completed. When the frame being decoded is a P picture, the prediction reference frame blurring device 403 does not blur the prediction reference frame. The predicted image generation device 404 generates a predicted image, adds the decoded prediction residual and the predicted image, and completes decoding.

本発明は、DVDへの長時間記録や、狭い通信ネットワーク帯域での映像配信を実現するために、低ビットレートでの符号化を実現する動画像処理装置に適用することができる。   The present invention can be applied to a moving image processing apparatus that realizes encoding at a low bit rate in order to realize long-time recording on a DVD and video distribution in a narrow communication network band.

Claims (33)

連続する映像フレームからなる動画像を処理する動画像処理装置において、
映像フレームをぼかす強度を決定するぼかし強度決定手段と、
前記ぼかし強度決定手段の決定に従って、映像フレームの高周波信号を除去することによって画像をぼかす画像ぼかし手段を備え、
前記ぼかし強度決定手段は、映像フレームが所定数連続するとぼかす強度を変化させる
ことを特徴とする動画像処理装置。
In a moving image processing apparatus that processes a moving image composed of continuous video frames,
Blur intensity determining means for determining the intensity of blurring the video frame;
In accordance with the determination of the blur intensity determination means, the image blur means for blurring the image by removing the high-frequency signal of the video frame,
The moving image processing apparatus, wherein the blur intensity determining means changes an intensity of blurring when a predetermined number of video frames continue.
ぼかし強度決定手段は、周期的にぼかす強度を変化させる
ことを特徴とする請求項1記載の動画像処理装置。
The moving image processing apparatus according to claim 1, wherein the blur intensity determination unit changes the intensity of blurring periodically.
ぼかし強度決定手段は、1フレームおきにぼかす強度を変化させる
ことを特徴とする請求項1または請求項2記載の動画像処理装置。
The moving image processing apparatus according to claim 1, wherein the blur intensity determining unit changes the intensity to be blurred every other frame.
ぼかし強度決定手段は、映像フレーム間の画素値変化に応じてぼかす強度を決定する
ことを特徴とする請求項1から請求項3のうちいずれか1項記載の動画像処理装置。
The moving image processing apparatus according to any one of claims 1 to 3, wherein the blur intensity determining unit determines an intensity to be blurred according to a change in a pixel value between video frames.
画像ぼかし手段が出力した映像フレームを符号化する画像符号化手段を備え、
ぼかし強度決定手段は、前記画像符号化手段が映像フレームを符号化する際の符号化方法に応じてぼかす強度を決定する
ことを特徴とする請求項3記載の動画像処理装置。
Image encoding means for encoding the video frame output by the image blurring means,
The moving image processing apparatus according to claim 3, wherein the blur intensity determining unit determines an intensity to be blurred according to an encoding method when the image encoding unit encodes a video frame.
画像ぼかし手段が出力した映像フレームを符号化する画像符号化手段を備え、
ぼかし強度決定手段は、前記画像符号化手段が映像フレームを符号化する際の符号化方法と映像フレーム間の画素値変化とに応じてぼかす強度を決定する
ことを特徴とする請求項3記載の動画像処理装置。
Image encoding means for encoding the video frame output by the image blurring means,
The blur intensity determining means determines an intensity to be blurred according to an encoding method when the image encoding means encodes a video frame and a pixel value change between the video frames. Moving image processing device.
画像符号化手段が符号化した映像フレームを復号して予測参照フレームを生成する局所復号手段と、
前記予測参照フレームを記憶する第1の記憶手段と、
前記予測参照フレームの高周波信号を除去する予測参照フレームぼかし手段と、
前記予測参照フレームぼかし手段が高周波信号を除去した予測参照フレームから、動き補償予測の予測画像を生成する予測画像生成手段を備え、
前記予測参照フレームぼかし手段は、ぼかし強度決定手段が映像フレームから除去すると決定された高周波信号を前記予測参照フレームから除去し、
前記画像符号化手段は、画像ぼかし手段が出力した映像フレームと、前記予測画像生成手段が生成した予測画像との減算処理の結果を符号化する
ことを特徴とする請求項5または請求項6記載の動画像処理装置。
Local decoding means for decoding the video frame encoded by the image encoding means to generate a predicted reference frame;
First storage means for storing the prediction reference frame;
Predicted reference frame blurring means for removing a high-frequency signal of the predicted reference frame;
The prediction reference frame blurring unit includes a prediction image generation unit that generates a prediction image of motion compensation prediction from a prediction reference frame from which a high-frequency signal has been removed,
The prediction reference frame blurring unit removes the high frequency signal determined to be removed from the video frame by the blur intensity determination unit from the prediction reference frame;
The said image encoding means encodes the result of the subtraction process of the image | video frame which the image blurring means output, and the estimated image which the said estimated image generation means produced | generated. The Claim 5 or Claim 6 characterized by the above-mentioned. Moving image processing apparatus.
画像符号化手段が符号化した映像フレームを復号する復号手段と、
前記復号手段が復号した映像フレームを記憶する第2の記憶手段と、
前記第2の記憶手段が記憶している映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成手段と、
前記復号手段が復号した映像フレームと、前記第2の予測画像生成手段が生成した予測画像とを加算して出力する加算手段とを備えた
ことを特徴とする請求項7記載の動画像処理装置。
Decoding means for decoding the video frame encoded by the image encoding means;
Second storage means for storing the video frame decoded by the decoding means;
Second predicted image generation means for generating a predicted image of motion compensated prediction from the video frame stored in the second storage means;
The moving image processing apparatus according to claim 7, further comprising: an adding unit that adds and outputs the video frame decoded by the decoding unit and the predicted image generated by the second predicted image generating unit. .
画像符号化手段が符号化した映像フレームを復号する復号手段と、
前記復号手段が復号した映像フレームを記憶する第2の記憶手段と、
前記第2の記憶手段が記憶している映像フレームから、ぼかし強度決定手段が除去すると決定した高周波信号を除去する第2の予測参照フレームぼかし手段と、
前記第2の予測参照フレームぼかし手段が高周波信号を除去した映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成手段と、
前記復号手段が復号した映像フレームと、前記第2の予測画像生成手段が生成した予測画像とを加算して出力する加算手段とを備えた
ことを特徴とする請求項7記載の動画像処理装置。
Decoding means for decoding the video frame encoded by the image encoding means;
Second storage means for storing the video frame decoded by the decoding means;
Second predictive reference frame blurring means for removing the high-frequency signal determined to be removed by the blur intensity determining means from the video frame stored in the second storage means;
Second predicted image generation means for generating a predicted image of motion compensated prediction from the video frame from which the second predicted reference frame blurring means has removed high-frequency signals;
The moving image processing apparatus according to claim 7, further comprising: an adding unit that adds and outputs the video frame decoded by the decoding unit and the predicted image generated by the second predicted image generating unit. .
連続する映像フレームからなる動画像を処理する動画像処理装置において、
前記映像フレームごとに、フィルタ処理を行うか否かを決定し、前記フィルタ処理を行うと決定した場合に、前記フィルタ処理を行うループ内フィルタ特性を決定するループ内フィルタ決定手段と、
入力された映像フレームに、ループ内フィルタ決定手段が決定した特性のフィルタでフィルタ処理を行う入力画像フィルタ処理手段と、
フィルタ処理された映像フレームを符号化する画像符号化手段と、
前記画像符号化手段が符号化した映像フレームを復号した予測参照フレームを生成する局所復号手段と、
前記予測参照フレームを記憶する第1の記憶手段と、
ループ内フィルタ決定手段が決定した特性のフィルタで前記予測参照フレームにフィルタ処理を行うループ内フィルタ処理手段と、
前記ループ内フィルタ処理手段がフィルタ処理を行った予測参照フレームから予測画像を生成する予測画像生成手段を備え、
前記入力画像フィルタ処理手段及び前記ループ内フィルタ処理手段は、上記同様の特性のフィルタでフィルタ処理を行い、
前記画像符号化手段は、前記入力画像フィルタ処理手段が出力した映像フレームと、前記予測画像生成手段が生成した予測画像との減算処理の結果を符号化する
ことを特徴とする動画像処理装置。
In a moving image processing apparatus that processes a moving image composed of continuous video frames,
For each video frame, it is determined whether to perform filter processing, and when it is determined to perform the filter processing, an in-loop filter determining means for determining an in-loop filter characteristic for performing the filter processing;
Input image filter processing means for performing filter processing on the input video frame with a filter having characteristics determined by the in-loop filter determination means;
Image encoding means for encoding the filtered video frame;
Local decoding means for generating a prediction reference frame obtained by decoding the video frame encoded by the image encoding means;
First storage means for storing the prediction reference frame;
In-loop filter processing means for performing filter processing on the prediction reference frame with a filter having characteristics determined by the in-loop filter determining means;
A predictive image generating means for generating a predictive image from the predictive reference frame subjected to the filter processing by the in-loop filter processing means;
The input image filter processing means and the in-loop filter processing means perform filter processing with a filter having the same characteristics as described above,
The moving image processing apparatus, wherein the image encoding unit encodes a result of a subtraction process between the video frame output from the input image filter processing unit and the predicted image generated by the predicted image generating unit.
符号化された映像フレームを復号する復号手段と、
前記復号手段が復号した映像フレームを記憶する第2の記憶手段と、
前記第2の記憶手段が記憶している映像フレームに、ループ内フィルタ決定手段が決定した特性のフィルタでフィルタ処理を行う第2のループ内フィルタ処理手段と、
前記第2のループ内フィルタ処理手段がフィルタ処理を行った映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成手段と、
前記復号手段が復号した映像フレームと、前記第2の予測画像生成手段が生成した予測画像とを加算して出力する加算手段とを備えた
ことを特徴とする請求項10記載の動画像処理装置。
Decoding means for decoding the encoded video frame;
Second storage means for storing the video frame decoded by the decoding means;
Second in-loop filter processing means for performing filter processing on the video frame stored in the second storage means with a filter having characteristics determined by the in-loop filter determining means;
Second predicted image generation means for generating a prediction image of motion compensated prediction from the video frame on which the second in-loop filter processing means has performed the filter processing;
The moving image processing apparatus according to claim 10, further comprising an adding unit that adds and outputs the video frame decoded by the decoding unit and the predicted image generated by the second predicted image generating unit. .
連続する映像フレームからなる動画像を処理する動画像処理方法において、
映像フレームをぼかす強度を決定するぼかし強度決定ステップと、
前記ぼかし強度決定ステップにおける決定に従って、映像フレームの高周波信号を除去することによって画像をぼかす画像ぼかしステップを備え、
前記ぼかし強度決定ステップは、映像フレームが所定数連続するとぼかす強度を変化させるステップを有する
ことを特徴とする動画像処理方法。
In a moving image processing method for processing a moving image composed of continuous video frames,
A blur intensity determining step for determining the intensity of blurring the video frame;
An image blur step of blurring the image by removing high frequency signals of the video frame according to the determination in the blur intensity determination step;
The blur intensity determining step includes a step of changing an intensity of blurring when a predetermined number of video frames continue.
前記ぼかし強度決定ステップは、周期的にぼかす強度を変化させるステップを有する
ことを特徴とする請求項12記載の動画像処理方法。
The moving image processing method according to claim 12, wherein the blur intensity determination step includes a step of periodically changing an intensity to be blurred.
前記ぼかし強度決定ステップは、1フレームおきにぼかす強度を変化させるステップを有する
ことを特徴とする請求項12または請求項13記載の動画像処理方法。
The moving image processing method according to claim 12 or 13, wherein the blur intensity determining step includes a step of changing an intensity to be blurred every other frame.
前記ぼかし強度決定ステップは、映像フレーム間の画素値変化に応じてぼかす強度を決定するステップを有する
ことを特徴とする請求項14記載の動画像処理方法。
The moving image processing method according to claim 14, wherein the blur intensity determination step includes a step of determining an intensity to be blurred according to a change in a pixel value between video frames.
前記画像ぼかしステップで出力した映像フレームを符号化する画像符号化ステップを備え、
ぼかし強度決定ステップは、前記画像符号化ステップにおいて映像フレームを符号化する際の符号化方法に応じてぼかす強度を決定するステップを有する
ことを特徴とする請求項14記載の動画像処理方法。
An image encoding step for encoding the video frame output in the image blurring step;
The moving image processing method according to claim 14, wherein the blur intensity determining step includes a step of determining an intensity to be blurred according to an encoding method when encoding a video frame in the image encoding step.
前記画像ぼかしステップで出力した映像フレームを符号化する画像符号化ステップを備え、
ぼかし強度決定ステップは、画像符号化ステップにおいて映像フレームを符号化する際の符号化方法と映像フレーム間の画素値変化とに応じてぼかす強度を決定するステップを有する
ことを特徴とする請求項14記載の動画像処理方法。
An image encoding step for encoding the video frame output in the image blurring step;
15. The blur intensity determining step includes a step of determining an intensity to be blurred according to an encoding method when encoding a video frame in the image encoding step and a pixel value change between the video frames. The moving image processing method described.
前記画像符号化ステップで符号化した映像フレームを復号して予測参照フレームを生成する局所復号ステップと、
前記予測参照フレームの高周波信号を除去する予測参照フレームぼかしステップと、
前記予測参照フレームぼかしステップで高周波信号を除去した予測参照フレームから、動き補償予測の予測画像を生成する予測画像生成ステップを備え、
前記予測参照フレームぼかしステップは、
ぼかし強度決定ステップで映像フレームから除去すると決定した高周波信号を前記予測参照フレームから除去するステップと、
前記画像符号化ステップにおいて、画像ぼかしステップで出力した映像フレームと、前記予測画像生成ステップで生成した予測画像との減算処理の結果を符号化するステップを有する
ことを特徴とする請求項16または請求項17記載の動画像処理方法。
A local decoding step of decoding the video frame encoded in the image encoding step to generate a prediction reference frame;
A predicted reference frame blurring step for removing a high-frequency signal of the predicted reference frame;
A prediction image generation step of generating a prediction image of motion compensation prediction from the prediction reference frame from which the high frequency signal has been removed in the prediction reference frame blurring step;
The predicted reference frame blurring step includes:
Removing the high frequency signal determined to be removed from the video frame in the blur intensity determining step from the predicted reference frame;
The encoding step includes encoding a result of a subtraction process between the video frame output in the image blurring step and the prediction image generated in the prediction image generation step. Item 18. A moving image processing method according to Item 17.
画像符号化ステップで符号化した映像フレームを復号する復号ステップと、
前記復号ステップで復号した映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成ステップと、
前記復号ステップで復号した映像フレームと、前記第2の予測画像生成ステップで生成した予測画像とを加算して出力する加算ステップとを備えた
ことを特徴とする請求項18記載の動画像処理方法。
A decoding step of decoding the video frame encoded in the image encoding step;
A second predicted image generation step of generating a motion compensated predicted image from the video frame decoded in the decoding step;
The moving image processing method according to claim 18, further comprising: an adding step of adding and outputting the video frame decoded in the decoding step and the predicted image generated in the second predicted image generating step. .
画像符号化ステップで符号化した映像フレームを復号する復号ステップと、
前記復号ステップで復号した映像フレームから、ぼかし強度決定ステップで除去すると決定した高周波信号を除去する第2の予測参照フレームぼかしステップと、
前記第2の予測参照フレームぼかしステップで高周波信号を除去した映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成ステップと、
前記復号ステップで復号した映像フレームと、前記第2の予測画像生成ステップで生成した予測画像とを加算して出力する加算ステップとを備えた
ことを特徴とする請求項18記載の動画像処理方法。
A decoding step of decoding the video frame encoded in the image encoding step;
A second prediction reference frame blurring step of removing the high-frequency signal determined to be removed in the blur intensity determination step from the video frame decoded in the decoding step;
A second predicted image generating step of generating a predicted image of motion compensated prediction from the video frame from which the high frequency signal has been removed in the second predicted reference frame blurring step;
The moving image processing method according to claim 18, further comprising: an adding step of adding and outputting the video frame decoded in the decoding step and the predicted image generated in the second predicted image generating step. .
連続する映像フレームからなる動画像を処理する動画像処理方法において、
前記映像フレームごとに、フィルタ処理を行うか否かを決定し、前記フィルタ処理を行うと決定した場合に、前記フィルタ処理を行うループ内フィルタ特性を決定するループ内フィルタ決定ステップと、
入力された映像フレームに、ループ内フィルタ決定ステップで決定した特性のフィルタでフィルタ処理を行う入力画像フィルタ処理ステップと、
フィルタ処理された映像フレームを符号化する画像符号化ステップと、
前記画像符号化ステップで符号化した映像フレームを復号した予測参照フレームを生成する局所復号ステップと、
ループ内フィルタ決定ステップで決定した特性のフィルタで前記予測参照フレームにフィルタ処理を行うループ内フィルタ処理ステップと、
前記ループ内フィルタ処理ステップがフィルタ処理を行った予測参照フレームから予測画像を生成する予測画像生成ステップを備え、
前記入力画像フィルタ処理ステップ、および前記ループ内フィルタ処理ステップは、
上記同様の特性のフィルタでフィルタ処理を行うステップと、
前記画像符号化ステップは、前記入力画像フィルタ処理ステップで出力した映像フレームと、前記予測画像生成ステップで生成した予測画像との減算処理の結果を符号化するステップを含む
ことを特徴とする動画像処理方法。
In a moving image processing method for processing a moving image composed of continuous video frames,
For each video frame, it is determined whether to perform filter processing, and when it is determined to perform the filter processing, an in-loop filter determination step for determining an in-loop filter characteristic for performing the filter processing;
An input image filter processing step for performing filter processing on the input video frame with a filter having the characteristics determined in the in-loop filter determination step;
An image encoding step for encoding the filtered video frame;
A local decoding step of generating a prediction reference frame obtained by decoding the video frame encoded in the image encoding step;
An in-loop filter processing step for filtering the prediction reference frame with a filter having the characteristics determined in the in-loop filter determination step;
A prediction image generation step of generating a prediction image from the prediction reference frame in which the in-loop filter processing step has performed the filter processing;
The input image filtering step and the in-loop filtering step include
Filtering with a filter having the same characteristics as above,
The video encoding step includes a step of encoding a result of a subtraction process between the video frame output in the input image filter processing step and the prediction image generated in the prediction image generation step. Processing method.
符号化された映像フレームを復号する復号ステップと、
前記復号ステップで復号した映像フレームに、ループ内フィルタ決定ステップで決定した特性のフィルタでフィルタ処理を行う第2のループ内フィルタ処理ステップと、
前記第2のループ内フィルタ処理ステップでフィルタ処理を行った映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成ステップと、
前記復号ステップで復号した映像フレームと、前記第2の予測画像生成ステップで生成した予測画像とを加算して出力する加算ステップとを備えた
ことを特徴とする請求項21記載の動画像処理方法。
A decoding step of decoding the encoded video frame;
A second in-loop filter processing step of performing filtering on the video frame decoded in the decoding step with a filter having the characteristics determined in the in-loop filter determining step;
A second predicted image generation step of generating a predicted image of motion compensated prediction from the video frame subjected to the filter processing in the second in-loop filter processing step;
The moving image processing method according to claim 21, further comprising: an adding step of adding and outputting the video frame decoded in the decoding step and the predicted image generated in the second predicted image generating step. .
コンピュータに、連続する映像フレームからなる動画像を処理するステップを実行させる動画像処理プログラムにおいて、
前記動画像処理ステップは、
映像フレームをぼかす強度を決定するぼかし強度決定ステップと、
前記ぼかし強度決定ステップにおける決定に従って、映像フレームの高周波信号を除去することによって画像をぼかす画像ぼかしステップを有し、
前記ぼかし強度決定ステップは、映像フレームが所定数連続するとぼかす強度を変化させるステップを含む
ことを特徴とする動画像処理プログラム。
In a moving image processing program for causing a computer to execute a step of processing a moving image composed of continuous video frames,
The moving image processing step includes
A blur intensity determining step for determining the intensity of blurring the video frame;
An image blur step of blurring the image by removing the high frequency signal of the video frame according to the determination in the blur intensity determination step;
The moving image processing program characterized in that the blur intensity determining step includes a step of changing an intensity of blurring when a predetermined number of video frames continue.
前記ぼかし強度決定ステップは、周期的にぼかす強度を変化させるステップを含むことを特徴とする請求項23記載の動画像処理プログラム。 24. The moving image processing program according to claim 23, wherein the blur intensity determination step includes a step of periodically changing an intensity to be blurred. 前記ぼかし強度決定ステップは、1フレームおきにぼかす強度を変化させるステップを有することを特徴とする請求項23または請求項24記載の動画像処理プログラム。 25. The moving image processing program according to claim 23, wherein the blur intensity determining step includes a step of changing an intensity to be blurred every other frame. 前記ぼかし強度決定ステップは、映像フレーム間の画素値変化に応じてぼかす強度を決定するステップを有することを特徴とする請求項25記載の動画像処理プログラム。 26. The moving image processing program according to claim 25, wherein the blur intensity determining step includes a step of determining an intensity to be blurred according to a change in pixel value between video frames. 前記画像ぼかしステップで出力した映像フレームを符号化する画像符号化ステップを備え、
前記ぼかし強度決定ステップは、前記画像符号化ステップにおいて映像フレームを符号化する際の符号化方法に応じてぼかす強度を決定するステップを有する
ことを特徴とする請求項25記載の動画像処理プログラム。
An image encoding step for encoding the video frame output in the image blurring step;
26. The moving image processing program according to claim 25, wherein the blur intensity determining step includes a step of determining an intensity to be blurred according to an encoding method when encoding a video frame in the image encoding step.
前記画像ぼかしステップで出力した映像フレームを符号化する画像符号化ステップを備え、
ぼかし強度決定ステップは、画像符号化ステップにおいて映像フレームを符号化する際の符号化方法と映像フレーム間の画素値変化とに応じてぼかす強度を決定するステップを有する
ことを特徴とする請求項25記載の動画像処理プログラム。
An image encoding step for encoding the video frame output in the image blurring step;
26. The blur intensity determination step includes a step of determining an intensity to be blurred according to an encoding method when encoding a video frame in the image encoding step and a change in pixel value between the video frames. The moving image processing program described.
前記画像符号化ステップで符号化した映像フレームを復号して予測参照フレームを生成する局所復号ステップと、
前記予測参照フレームの高周波信号を除去する予測参照フレームぼかしステップと、
前記予測参照フレームぼかしステップで高周波信号を除去した予測参照フレームから、動き補償予測の予測画像を生成する予測画像生成ステップを備え、
前記予測参照フレームぼかしステップは、
ぼかし強度決定ステップで映像フレームから除去すると決定した高周波信号を前記予測参照フレームから除去するステップと、
前記画像符号化ステップにおいて、画像ぼかしステップで出力した映像フレームと、前記予測画像生成ステップで生成した予測画像との減算処理の結果を符号化するステップを有する
ことを特徴とする請求項27または請求項28記載の動画像処理プログラム。
A local decoding step of decoding the video frame encoded in the image encoding step to generate a prediction reference frame;
A predicted reference frame blurring step for removing a high-frequency signal of the predicted reference frame;
A prediction image generation step of generating a prediction image of motion compensation prediction from the prediction reference frame from which the high frequency signal has been removed in the prediction reference frame blurring step;
The predicted reference frame blurring step includes:
Removing the high frequency signal determined to be removed from the video frame in the blur intensity determining step from the predicted reference frame;
28. The step according to claim 27, wherein the image encoding step includes a step of encoding a result of a subtraction process between the video frame output in the image blurring step and the prediction image generated in the prediction image generation step. Item 28. A moving image processing program according to Item 28.
画像符号化ステップで符号化した映像フレームを復号する復号ステップと、
前記復号ステップで復号した映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成ステップと、
前記復号ステップで復号した映像フレームと、前記第2の予測画像生成ステップで生成した予測画像とを加算して出力する加算ステップとを備えた
ことを特徴とする請求項29記載の動画像処理プログラム。
A decoding step of decoding the video frame encoded in the image encoding step;
A second predicted image generation step of generating a motion compensated predicted image from the video frame decoded in the decoding step;
30. The moving image processing program according to claim 29, further comprising: an adding step of adding and outputting the video frame decoded in the decoding step and the predicted image generated in the second predicted image generating step. .
画像符号化ステップで符号化した映像フレームを復号する復号ステップと、
前記復号ステップで復号した映像フレームから、ぼかし強度決定ステップで除去すると決定した高周波信号を除去する第2の予測参照フレームぼかしステップと、
前記第2の予測参照フレームぼかしステップで高周波信号を除去した映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成ステップと、
前記復号ステップで復号した映像フレームと、前記第2の予測画像生成ステップで生成した予測画像とを加算して出力する加算ステップとを備えた
ことを特徴とする請求項29記載の動画像処理プログラム。
A decoding step of decoding the video frame encoded in the image encoding step;
A second prediction reference frame blurring step of removing the high-frequency signal determined to be removed in the blur intensity determination step from the video frame decoded in the decoding step;
A second predicted image generating step of generating a predicted image of motion compensated prediction from the video frame from which the high frequency signal has been removed in the second predicted reference frame blurring step;
30. The moving image processing program according to claim 29, further comprising: an adding step of adding and outputting the video frame decoded in the decoding step and the predicted image generated in the second predicted image generating step. .
コンピュータに、連続する映像フレームからなる動画像を処理するステップを実行させる動画像処理プログラムにおいて、
前記映像フレームごとに、フィルタ処理を行うか否かを決定し、前記フィルタ処理を行うと決定した場合に、前記フィルタ処理を行うループ内フィルタ特性を決定するループ内フィルタ決定ステップと、
入力された映像フレームに、ループ内フィルタ決定ステップで決定した特性のフィルタでフィルタ処理を行う入力画像フィルタ処理ステップと、
フィルタ処理された映像フレームを符号化する画像符号化ステップと、
前記画像符号化ステップで符号化した映像フレームを復号した予測参照フレームを生成する局所復号ステップと、
ループ内フィルタ決定ステップで決定した特性のフィルタで前記予測参照フレームにフィルタ処理を行うループ内フィルタ処理ステップと、
前記ループ内フィルタ処理ステップがフィルタ処理を行った予測参照フレームから予測画像を生成する予測画像生成ステップを備え、
前記入力画像フィルタ処理ステップ、および前記ループ内フィルタ処理ステップは、
上記同様の特性のフィルタでフィルタ処理を行うステップと、
前記画像符号化ステップは、前記入力画像フィルタ処理ステップで出力した映像フレームと、前記予測画像生成ステップで生成した予測画像との減算処理の結果を符号化するステップを含む
ことを特徴とする動画像処理プログラム。
In a moving image processing program for causing a computer to execute a step of processing a moving image composed of continuous video frames,
For each video frame, it is determined whether to perform filter processing, and when it is determined to perform the filter processing, an in-loop filter determination step for determining an in-loop filter characteristic for performing the filter processing;
An input image filter processing step for performing filter processing on the input video frame with a filter having the characteristics determined in the in-loop filter determination step;
An image encoding step for encoding the filtered video frame;
A local decoding step of generating a prediction reference frame obtained by decoding the video frame encoded in the image encoding step;
An in-loop filter processing step for filtering the prediction reference frame with a filter having the characteristics determined in the in-loop filter determination step;
A prediction image generation step of generating a prediction image from the prediction reference frame in which the in-loop filter processing step has performed the filter processing;
The input image filtering step and the in-loop filtering step include
Filtering with a filter having the same characteristics as above,
The video encoding step includes a step of encoding a result of a subtraction process between the video frame output in the input image filter processing step and the prediction image generated in the prediction image generation step. Processing program.
符号化された映像フレームを復号する復号ステップと、
前記復号ステップで復号した映像フレームに、ループ内フィルタ決定ステップで決定した特性のフィルタでフィルタ処理を行う第2のループ内フィルタ処理ステップと、
前記第2のループ内フィルタ処理ステップでフィルタ処理を行った映像フレームから、動き補償予測の予測画像を生成する第2の予測画像生成ステップと、
前記復号ステップで復号した映像フレームと、前記第2の予測画像生成ステップで生成した予測画像とを加算して出力する加算ステップとを備えた
ことを特徴とする請求項32記載の動画像処理プログラム。
A decoding step of decoding the encoded video frame;
A second in-loop filter processing step of performing filtering on the video frame decoded in the decoding step with a filter having the characteristics determined in the in-loop filter determining step;
A second predicted image generation step of generating a predicted image of motion compensated prediction from the video frame subjected to the filter processing in the second in-loop filter processing step;
The moving image processing program according to claim 32, further comprising an adding step of adding and outputting the video frame decoded in the decoding step and the predicted image generated in the second predicted image generating step. .
JP2008500507A 2006-02-15 2007-02-07 Moving image processing apparatus, moving image processing method, and moving image processing program Active JP5516842B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008500507A JP5516842B2 (en) 2006-02-15 2007-02-07 Moving image processing apparatus, moving image processing method, and moving image processing program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006037695 2006-02-15
JP2006037695 2006-02-15
PCT/JP2007/052547 WO2007094329A1 (en) 2006-02-15 2007-02-07 Moving image processing device, moving image processing method, and moving image program
JP2008500507A JP5516842B2 (en) 2006-02-15 2007-02-07 Moving image processing apparatus, moving image processing method, and moving image processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012203906A Division JP5534261B2 (en) 2006-02-15 2012-09-18 Moving image processing apparatus, moving image processing method, and moving image processing program

Publications (2)

Publication Number Publication Date
JPWO2007094329A1 true JPWO2007094329A1 (en) 2009-07-09
JP5516842B2 JP5516842B2 (en) 2014-06-11

Family

ID=38371507

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008500507A Active JP5516842B2 (en) 2006-02-15 2007-02-07 Moving image processing apparatus, moving image processing method, and moving image processing program
JP2012203906A Active JP5534261B2 (en) 2006-02-15 2012-09-18 Moving image processing apparatus, moving image processing method, and moving image processing program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2012203906A Active JP5534261B2 (en) 2006-02-15 2012-09-18 Moving image processing apparatus, moving image processing method, and moving image processing program

Country Status (2)

Country Link
JP (2) JP5516842B2 (en)
WO (1) WO2007094329A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102057680A (en) * 2008-07-04 2011-05-11 株式会社东芝 Dynamic image encoding/decoding method and device
US20110229049A1 (en) * 2008-12-03 2011-09-22 Sony Corporation Image processing apparatus, image processing method, and program
EP2452499A1 (en) 2009-07-06 2012-05-16 Thomson Licensing Methods and apparatus for spatially varying residue coding
WO2019021930A1 (en) * 2017-07-24 2019-01-31 日本電気硝子株式会社 Chemically strengthened glass and method for manufacturing chemically strengthened glass

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5158014A (en) * 1974-11-18 1976-05-21 Nippon Telegraph & Telephone FUREEMUKAN FUGOKAHOSHIKI
JPS5244512A (en) * 1975-10-06 1977-04-07 Nippon Telegr & Teleph Corp <Ntt> Between-frame coding equipment
JPH0832047B2 (en) * 1989-04-28 1996-03-27 日本ビクター株式会社 Predictive coding device
JPH03212085A (en) * 1990-01-17 1991-09-17 Mitsubishi Electric Corp Moving picture coding transmitter
JP3046379B2 (en) * 1990-03-26 2000-05-29 株式会社東芝 Image coding device
JP2922598B2 (en) * 1990-07-05 1999-07-26 キヤノン株式会社 Image coding method
JPH05236460A (en) * 1992-02-17 1993-09-10 Sony Corp Encoding circuit for video signal
JPH0638197A (en) * 1992-06-30 1994-02-10 Sony Corp Coder, decoder and coding method
JPH07107462A (en) * 1993-09-29 1995-04-21 Oki Electric Ind Co Ltd Moving picture encoding method
JPH0984024A (en) * 1995-09-20 1997-03-28 Matsushita Electric Ind Co Ltd Coder for moving image signal
JP2002077909A (en) * 2000-08-24 2002-03-15 Nippon Telegr & Teleph Corp <Ntt> Image encoder and image encoding method amd medium recording program describing the method
JP3702185B2 (en) * 2001-01-26 2005-10-05 日本電信電話株式会社 Image encoding device, image decoding device, image encoding method, image decoding method, recording medium recording image encoding program, recording medium recording image decoding program, image encoding program, and image decoding program
JP2002247576A (en) * 2001-02-15 2002-08-30 Sharp Corp Method for encoding moving image
CN1968413B (en) * 2001-09-12 2012-05-30 松下电器产业株式会社 Image decoding method

Also Published As

Publication number Publication date
WO2007094329A1 (en) 2007-08-23
JP5516842B2 (en) 2014-06-11
JP5534261B2 (en) 2014-06-25
JP2013017221A (en) 2013-01-24

Similar Documents

Publication Publication Date Title
JP5330647B2 (en) Adaptive reference image generation
US9414086B2 (en) Partial frame utilization in video codecs
US20100254450A1 (en) Video coding method, video decoding method, video coding apparatus, video decoding apparatus, and corresponding program and integrated circuit
US20130028322A1 (en) Moving image prediction encoder, moving image prediction decoder, moving image prediction encoding method, and moving image prediction decoding method
US20110069752A1 (en) Moving image encoding/decoding method and apparatus with filtering function considering edges
WO2009123033A1 (en) Deblocking filter processing device and deblocking filter processing method
JP5133290B2 (en) Video encoding apparatus and decoding apparatus
JP2008283303A (en) Image encoding device, and image encoding method
JP4774315B2 (en) Image decoding apparatus and image decoding method
JP5534261B2 (en) Moving image processing apparatus, moving image processing method, and moving image processing program
JP2009284331A (en) Decoding device and decoding method, and program
JP4592562B2 (en) Image decoding device
JP4643437B2 (en) Information processing device
JP6253406B2 (en) Image encoding apparatus, imaging apparatus, image encoding method, and program
US9930352B2 (en) Reducing noise in an intraframe appearance cycle
KR101345294B1 (en) Method and apparatus for quantizing image
TWI782853B (en) Image encoding device, image encoding method, image decoding device, image decoding method
JP4570081B2 (en) Moving image error concealment method and apparatus
JP5701018B2 (en) Image decoding device
JP4719108B2 (en) VIDEO ENCODING METHOD, VIDEO ENCODING DEVICE, VIDEO ENCODING PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE PROGRAM
JP4223577B2 (en) Image coding apparatus and method thereof, and image decoding apparatus and method thereof
JP4185413B2 (en) Flicker reduction quantizer, flicker reduction quantization method, and program thereof
JP2013115580A (en) Moving image encoding apparatus, control method therefor, and computer program
US20210409744A1 (en) Image decoding device, image decoding method, and program
JP2005260989A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120725

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140318

R150 Certificate of patent or registration of utility model

Ref document number: 5516842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150