JP2000295621A - Device and method for image processing - Google Patents

Device and method for image processing

Info

Publication number
JP2000295621A
JP2000295621A JP10257699A JP10257699A JP2000295621A JP 2000295621 A JP2000295621 A JP 2000295621A JP 10257699 A JP10257699 A JP 10257699A JP 10257699 A JP10257699 A JP 10257699A JP 2000295621 A JP2000295621 A JP 2000295621A
Authority
JP
Japan
Prior art keywords
output
area
image
region
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10257699A
Other languages
Japanese (ja)
Other versions
JP2000295621A5 (en
JP4253909B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Juichi Shiraki
寿一 白木
Hideo Nakaya
秀雄 中屋
Toshihiko Hamamatsu
俊彦 浜松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP10257699A priority Critical patent/JP4253909B2/en
Publication of JP2000295621A publication Critical patent/JP2000295621A/en
Publication of JP2000295621A5 publication Critical patent/JP2000295621A5/ja
Application granted granted Critical
Publication of JP4253909B2 publication Critical patent/JP4253909B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To obtain an image signal whose deterioration is not distinct from input image signals where resolution or a degree of deteriorated image quality is different in the time base direction. SOLUTION: In this image processing unit, a distribution calculation section 14 and a difference generating section 15 respectively receive data of an area segmented by area segmentation sections 11, 12 from a decoded image signal in compliance with the MPEG-1 or the like as an input image signal. The difference generating section 15 takes a difference between an output data of the area segmentation section 12 and data of the area of the image signal segmented by an area segmentation section 18 from a frame memory 17 storing an image signal of one precedence frame with respect to the input image signal. A still/ moving picture discrimination section 16 discriminates whether a picture is a still picture or a moving picture on the basis of the difference. An output pixel decision block 13 compares the variance of output data of an area segmented by an area segmentation section 19 from the signal of the frame memory 17 with the variance of output data from the area segmentation section 11 and applies output processing to the image signal having higher variance when the discrimination section 16 discriminates a still picture.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、例えばMPEG
(Moving Picture Expert Group) の規定に従う符号化方
法によって符号化されたディジタル信号から復号される
画像信号等の、解像度または画質の劣化の程度が時間方
向に異なる画像信号に対して、画質等を向上させる処理
を行う画像処理装置および画像処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention
Improves image quality, etc., for image signals whose resolution or image quality is different in the time direction, such as image signals decoded from digital signals encoded by the encoding method specified by (Moving Picture Expert Group). The present invention relates to an image processing apparatus and an image processing method for performing a process for causing the image processing to be performed.

【0002】[0002]

【従来の技術】MPEG−1,MPEG−2等のMPE
G規定に従う画像符号化方式(以下、MPEG符号化方
式と表記する)においては、ランダムアクセス機能と、
高い符号化効率とを実現するためにIピクチャ、Pピク
チャ、Bピクチャの3つの符号化タイプがある。Iピク
チャ(Intra-Picture) はイントラ符号化の画面であり、
他のフレームと独立して符号化される。これに対して、
Pピクチャ(Predintive-Picture)は予測符号化画面であ
り、図8において各ピクチャの下方の一点鎖線にて示す
ように、時間的に先行するIピクチャまたはPピクチャ
のデータを参照画像とする動き補償予測符号化を行うこ
とによって符号化される。
2. Description of the Related Art MPEs such as MPEG-1 and MPEG-2
In an image coding method (hereinafter, referred to as an MPEG coding method) according to the G rule, a random access function,
There are three coding types of I picture, P picture and B picture in order to realize high coding efficiency. An I picture (Intra-Picture) is a screen for intra coding.
Encoded independently from other frames. On the contrary,
A P-picture (Predintive-Picture) is a predictive coding screen, and as shown by a dashed line below each picture in FIG. 8, motion compensation using temporally preceding I-picture or P-picture data as a reference picture It is encoded by performing predictive encoding.

【0003】また、Bピクチャ(Bidirectionally-Pictu
re) は双方向予測符号化画面である。すなわち、図8に
おいて各ピクチャの上方の実線にて示すように時間的に
先行するIピクチャまたはPピクチャのデータを参照画
像とし、それと共に図8において各ピクチャの上方の点
線にて示すように時間的に後続するIピクチャまたはP
ピクチャのデータを参照画像として、動き補償予測符号
化を行うことによって符号化される。I,P,Bの3種
類のピクチャの組み合わせ方についてはMPEG−1、
MPEG−2においては特に規定されておらず、例えば
データ転送レート、復号される画像の品質等、画像情報
の伝送に際しての要求に応じて、符号化器がピクチャの
組み合わせ方を設定する。
A B-picture (Bidirectionally-Pictu
re) is a bidirectional predictive coding screen. That is, as shown by the solid line above each picture in FIG. 8, the data of the I picture or P picture that precedes in time is used as the reference image, and together with the time as shown by the dotted line above each picture in FIG. Succeeding I picture or P
Encoding is performed by performing motion compensation prediction encoding using picture data as a reference image. MPEG-1 is used for combining three types of pictures, I, P, and B.
There is no particular definition in MPEG-2, and the encoder sets the method of combining pictures according to a request when transmitting image information, such as a data transfer rate and the quality of a decoded image.

【0004】[0004]

【発明が解決しようとする課題】以上のように、MPE
G符号化方式ではピクチャタイプ毎に符号化方式が異な
る。実際の符号化処理においては、原画像における動き
量、ビット配分、レート制御等の条件が変化するので、
これら3種類のピクチャタイプの何れにおいて解像度ま
たは画質の劣化の程度が大きいかは一般的には確定でき
ない。但し、符号化方式が異なる複数種類のピクチャが
用いられることに起因して、例えばブロック歪み等に起
因する解像度または画質の劣化の程度がフレーム毎に異
なることは明らかである。
As described above, the MPE
In the G encoding method, the encoding method differs for each picture type. In the actual encoding process, since the conditions such as the amount of motion, bit allocation, and rate control in the original image change,
It is generally not possible to determine which of these three picture types has the greatest degree of degradation in resolution or image quality. However, it is clear that the degree of degradation in resolution or image quality due to block distortion or the like differs for each frame due to the use of a plurality of types of pictures having different encoding methods.

【0005】ここで、ブロック歪みは、MPEGにおけ
る符号化の単位であるブロックの内の幾つかにおいてア
クティビティが損なわれ、アクティビティが損なわれた
ブロックと、当該ブロックに隣接するブロックとの境界
が目立ってしまう現象であり、MPEG符号化方式に特
有な劣化成分として知られている。
[0005] Here, the block distortion is such that the activity is impaired in some of the blocks which are units of encoding in MPEG, and the boundary between the block whose activity is impaired and the block adjacent to the block is conspicuous. This phenomenon is known as a degradation component peculiar to the MPEG encoding method.

【0006】この発明は、上述したような状況に鑑みて
なされたものであり、従って、この発明の目的は、解像
度または画質の劣化の程度が時間方向に異なる画像信号
に対して、劣化を全体的に低減させることが可能な画像
処理装置および画像処理方法を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described situation, and accordingly, it is an object of the present invention to provide a method for controlling deterioration of an image signal in which the degree of deterioration of resolution or image quality differs in the time direction. It is an object of the present invention to provide an image processing apparatus and an image processing method capable of reducing the number of times.

【0007】[0007]

【課題を解決するための手段】請求項1の発明は、解像
度または画質の劣化の程度が時間方向に異なる画像信号
に対し、注目フレーム中の第1の領域と注目フレームに
対して1フレーム前に出力したフレーム中の第2の領域
との間で差分をとり、差分に基づいて第1の領域が静止
画部分/動画部分の何れであるかを判定する静動判定手
段と、第1の領域内のアクティビティの尺度となる量を
計算する第1の計算手段と、第2の領域内のアクティビ
ティの尺度となる量を計算する第2の計算手段と、静動
判定手段によって第1の領域が動画部分であると判定さ
れる場合に第1の領域内の画像データを出力し、静動判
定手段によって第1の領域が静止画部分であると判定さ
れる場合に、第1の計算手段の出力と第2の計算手段の
出力とを比較し、比較結果に基づいて、第1の領域と第
2の領域との内でアクティビティがより大きいと判定さ
れる領域内の画像データを出力する出力画像決定手段と
を有することを特徴とする画像処理装置である。
According to a first aspect of the present invention, an image signal whose resolution or the degree of deterioration of image quality differs in the time direction is one frame before the first region in the frame of interest and the frame of interest. A still / moving determining means for determining a difference between the first region and the second region in the frame output to the first and second regions based on the difference; First calculating means for calculating an amount serving as a measure of the activity in the area; second calculating means for calculating an amount serving as a measure for the activity in the second area; Outputs image data in the first area when it is determined that the first area is a moving image part, and outputs the first calculation means when the first area is determined to be a still image part by the still / movement determining means. And the output of the second calculating means, An image processing device comprising: output image determination means for outputting image data in an area in which the activity is determined to be larger in the first area and the second area based on the comparison result. It is.

【0008】請求項9の発明は、解像度または画質の劣
化の程度が時間方向に異なる画像信号に対し、注目フレ
ームと注目フレームに対して1フレーム前に出力したフ
レームとの間で動きを検出する動き検出手段と、注目フ
レーム中の第1の領域内のアクティビティの尺度となる
量を計算する第1の計算手段と、動き検出手段の出力に
基づいて、注目フレームに対して1フレーム前に出力し
たフレームに対する画素位置補整処理を施し、画素位置
補整処理が施されてなる画像信号中の第2の領域内のア
クティビティの尺度となる量を計算する第2の計算手段
と、第1の計算手段の出力と第2の計算手段の出力とを
比較し、比較結果に基づいて、第1の領域と第2の領域
との内でアクティビティがより大きいと判定される領域
内の画像データを出力する出力画像決定手段とを有する
ことを特徴とする画像処理装置である。
According to a ninth aspect of the present invention, a motion is detected between a frame of interest and a frame output one frame before the frame of interest with respect to an image signal in which the degree of deterioration of resolution or image quality differs in the time direction. Motion detection means, first calculation means for calculating a measure of activity in the first region in the frame of interest, and output one frame before the frame of interest based on the output of the motion detection means A second calculating means for performing a pixel position correction process on the selected frame, and calculating an amount serving as a measure of an activity in a second region in the image signal to which the pixel position correction process has been performed; Is compared with the output of the second calculating means, and based on the comparison result, the image data in the area where the activity is determined to be larger in the first area and the second area is determined. An image processing apparatus characterized by an output image determination means for force.

【0009】請求項15の発明は、解像度または画質の
劣化の程度が時間方向に異なる画像信号に対し、注目フ
レーム中の第1の領域と注目フレームに対して1フレー
ム前に出力したフレーム中の第2の領域との間で差分を
とり、差分に基づいて第1の領域が静止画部分/動画部
分の何れであるかを判定する静動判定ステップと、第1
の領域内のアクティビティの尺度となる量を計算する第
1の計算ステップと、第2の領域内のアクティビティの
尺度となる量を計算する第2の計算ステップと、静動判
定ステップによって第1の領域が動画部分であると判定
される場合に第1の領域内の画像データを出力し、静動
判定ステップによって第1の領域が静止画部分であると
判定される場合に、第1の計算ステップの結果と第2の
計算ステップの結果とを比較し、比較結果に基づいて、
第1の領域と第2の領域との内でアクティビティがより
大きいと判定される領域内の画像データを出力する出力
画像決定ステップとを有することを特徴とする画像処理
方法である。
According to a fifteenth aspect of the present invention, the first region in the frame of interest and the frame in the frame output one frame before the frame of interest with respect to the image signal in which the degree of degradation of the resolution or image quality differs in the time direction. A still / moving determination step of taking a difference between the second region and the first region to determine whether the first region is a still image portion or a moving image portion based on the difference;
A first calculation step of calculating an amount that is a measure of the activity in the area, a second calculation step of calculating an amount that is a measure of the activity in the second area; If the region is determined to be a moving image portion, image data in the first region is output. If the first region is determined to be a still image portion in the still / moving determination step, a first calculation is performed. Comparing the result of the step with the result of the second calculation step, and based on the comparison result,
An output image determining step of outputting image data in an area in which the activity is determined to be larger in the first area and the second area.

【0010】請求項16の発明は、解像度または画質の
劣化の程度が時間方向に異なる画像信号に対し、注目フ
レームと注目フレームに対して1フレーム前に出力した
フレームとの間で動きを検出する動き検出ステップと、
注目フレーム中の第1の領域内のアクティビティの尺度
となる量を計算する第1の計算ステップと、動き検出ス
テップの結果に基づいて、注目フレームに対して1フレ
ーム前に出力したフレームに対する画素位置補整処理を
施し、画素位置補整処理が施されてなる画像信号中の第
2の領域内のアクティビティの尺度となる量を計算する
第2の計算ステップと、第1の計算ステップの結果と第
2の計算ステップの結果とを比較し、比較結果に基づい
て、第1の領域と第2の領域との内でアクティビティが
より大きいと判定される領域内の画像データを出力する
出力画像決定ステップとを有することを特徴とする画像
処理方法である。
According to a sixteenth aspect of the present invention, a motion is detected between a frame of interest and a frame output one frame before the frame of interest with respect to an image signal in which the degree of degradation in resolution or image quality differs in the time direction. A motion detection step;
A first calculation step of calculating a measure of the activity in the first region in the frame of interest, and a pixel position with respect to the frame output one frame before the frame of interest based on the result of the motion detection step A second calculation step of performing an adjustment process and calculating an amount that is a measure of an activity in a second region in the image signal to which the pixel position adjustment process has been performed; and a result of the first calculation step and a second calculation step. An output image determining step of comparing the result of the calculation step with the output step and outputting image data in an area in which the activity is determined to be larger in the first area and the second area based on the comparison result. An image processing method comprising:

【0011】以上のような発明によれば、解像度または
画質の劣化の程度が時間方向に異なる画像信号から、ア
クティビティがより高い画像データを例えば画素を単位
として選択的に出力することができる。
According to the above invention, it is possible to selectively output image data having higher activity, for example, on a pixel-by-pixel basis, from image signals in which the degree of resolution or image quality deterioration differs in the time direction.

【0012】[0012]

【発明の実施の形態】この発明の一実施形態の構成の一
例を図1に示す。入力画像信号が領域切り出し部11、
12および出力画素決定部13に供給される。ここで、
入力画像信号がシーンチェンジを含まない一連のストリ
ームであること、およびフレーム間で解像度の劣化の程
度が異なることがこの発明の一実施形態が有効に動作す
るための前提とされる。具体的には、MPEG−1,M
PEG−2等のMPEG符号化方式によって符号化され
た伝送用符号を復号化することによって得られる画像信
号であってシーンチェンジを含まないもの等が入力画像
信号として好適である。
FIG. 1 shows an example of the configuration of an embodiment of the present invention. The input image signal is output to the region cutout unit 11,
12 and an output pixel determination unit 13. here,
It is a prerequisite that the embodiment of the present invention operates effectively that the input image signal is a series of streams that do not include a scene change and that the degree of resolution degradation differs between frames. Specifically, MPEG-1, M
An image signal obtained by decoding a transmission code encoded by an MPEG encoding method such as PEG-2, which does not include a scene change, is suitable as the input image signal.

【0013】但し、例えばフレーム間差分の平均値をし
きい値を参照して判定する等の方法でシーンチェンジの
前後のそれぞれ一連をなすストリームに分けて各ストリ
ームを別個の入力画像信号として扱うような処理を行う
構成を付加することにより、シーンチェンジを含む画像
信号に対してもこの発明の一実施形態が有効に動作する
ようにすることができる。
However, the stream is divided into a series of streams before and after the scene change, for example, by determining the average value of the inter-frame differences with reference to a threshold value, and each stream is treated as a separate input image signal. By adding a configuration for performing various processing, the embodiment of the present invention can be effectively operated even for an image signal including a scene change.

【0014】領域切り出し部11は、供給される入力画
像信号から所定の領域を切り出し、切り出した領域のデ
ータを分散計算部14に供給する。分散計算部14は、
供給されるデータに基づいて分散を計算し、計算した分
散値を出力画素決定部13に供給する。また、領域切り
出し部12は、入力画像信号から例えば3×3画素等の
大きさの領域を切り出し、切り出した領域のデータを差
分計算器15に供給する。なお、領域切り出し部11、
12として、同一の領域切り出し部を共用するように構
成しても良い。
The area extracting section 11 extracts a predetermined area from the supplied input image signal, and supplies data of the extracted area to the variance calculating section 14. The variance calculation unit 14
The variance is calculated based on the supplied data, and the calculated variance value is supplied to the output pixel determination unit 13. The area cutout unit 12 cuts out an area having a size of, for example, 3 × 3 pixels from the input image signal, and supplies data of the cutout area to the difference calculator 15. Note that the region cutout unit 11,
As 12, the same region cutout portion may be configured to be shared.

【0015】差分計算器15には、後述する領域切り出
し部18の出力がさらに供給される。差分計算器15
は、領域切り出し部12によって切り出される領域内の
注目画素と、領域切り出し部18によって切り出される
領域内の注目画素と同一位置の画素との差分を計算し、
計算した差分値を静動判定部16に供給する。静動判定
部16は、供給される差分値に基づいて注目画素の周辺
が静止画部分であるか動画部分であるかを判定し、判定
結果を出力画素決定部13に供給する。ここで、判定処
理としては、差分値が所定のしきい値以上となる場合に
動画像であると判定し、それ以外の場合に静止画像であ
ると判定する処理等を用いることができる。
The difference calculator 15 is further supplied with the output of an area cutout unit 18 described later. Difference calculator 15
Calculates the difference between the pixel of interest in the region clipped by the region clipping unit 12 and the pixel at the same position as the pixel of interest in the region clipped by the region clipping unit 18;
The calculated difference value is supplied to the static / movement determination unit 16. The still / movement determination unit 16 determines whether the periphery of the target pixel is a still image portion or a moving image portion based on the supplied difference value, and supplies the determination result to the output pixel determination unit 13. Here, as the determination process, a process of determining a moving image when the difference value is equal to or more than a predetermined threshold value, and a process of determining a still image otherwise can be used.

【0016】出力画素決定部13には、後述するよう
に、フレームメモリ17に保持されている画像信号と分
散計算部20の出力とがさらに供給される。出力画素決
定部13は、静動判定部16が静止画像である旨の判定
結果を出力する場合に次のような処理を行う。すなわ
ち、分散計算部14から供給される分散値と分散計算部
20から供給される分散値とを比較し、比較結果に基づ
いて出力画素を決定する。
The image signal held in the frame memory 17 and the output of the variance calculating unit 20 are further supplied to the output pixel determining unit 13 as described later. The output pixel determination unit 13 performs the following process when the still / movement determination unit 16 outputs a determination result indicating that the image is a still image. That is, the variance value supplied from the variance calculation unit 14 is compared with the variance value supplied from the variance calculation unit 20, and an output pixel is determined based on the comparison result.

【0017】すなわち、分散値をアクティビティの尺度
として用い、領域切り出し部11によって切り出される
領域と領域切り出し部19によって切り出される領域と
の内で分散値がより大きい領域内の注目画素または注目
画素と同一位置の画素を出力画素として選択する。一
方、静動判定部16が動画像である旨の判定結果を出力
する場合には、出力画素決定部13は、領域切り出し部
11によって切り出される領域内の画素を出力する。な
お、領域切り出し部11および19によって切り出され
る領域と、領域切り出し部112および18によって切
り出される領域を互いに同じくらいの大きさとした場合
に動作精度を良好なものとすることができる。
That is, the variance value is used as a measure of the activity, and the same as the target pixel or the target pixel in the region having the larger variance value between the region cut out by the region cutout unit 11 and the region cut out by the region cutout unit 19. The pixel at the position is selected as the output pixel. On the other hand, when the still / moving determination unit 16 outputs a determination result indicating that the image is a moving image, the output pixel determination unit 13 outputs pixels in an area cut out by the area cutout unit 11. The operation accuracy can be improved when the regions cut out by the region cutout units 11 and 19 and the regions cut out by the region cutout units 112 and 18 have the same size.

【0018】出力画素決定部13の出力が最終的な出力
として図示しない表示装置等に供給されると共に、フレ
ームメモリ17に供給され、保持される。領域切り出し
部18は、フレームメモリ17に保持されている画像信
号から差分計算器15による処理に使用される領域を切
り出す。また、領域切り出し部19は、フレームメモリ
17から注目画素同一位置の画素を中心とする、領域切
り出し部11によって切り出される領域と同一の形状お
よび面積を有する領域を切り出す。領域切り出し部19
によって切り出される領域のデータが分散計算部20に
供給される。分散計算部20は、供給されるデータに基
づいて分散を計算し、計算した分散値を出力画素決定部
13に供給する。ここで、領域切り出し部18、19と
して、同一の領域切り出し部を共用するように構成して
も良い。
The output of the output pixel determining section 13 is supplied as a final output to a display device (not shown) or the like, and is also supplied to a frame memory 17 and held. The area cutout unit 18 cuts out an area used for processing by the difference calculator 15 from the image signal held in the frame memory 17. The region cutout unit 19 cuts out a region having the same shape and area as the region cut out by the region cutout unit 11 from the frame memory 17 and centering on the pixel at the same position as the target pixel. Area cutout unit 19
The data of the region cut out by the calculation is supplied to the dispersion calculation unit 20. The variance calculation unit 20 calculates the variance based on the supplied data, and supplies the calculated variance value to the output pixel determination unit 13. Here, as the region cutout units 18 and 19, the same region cutout unit may be configured to be shared.

【0019】この発明の一実施形態における処理の手順
について図2を参照して説明する。ステップS1とし
て、入力画像信号内の画素(注目画素)とフレームメモ
リ内に保持されている画像信号内の画素(注目画素と同
一位置の画素)との差分を計算する。ステップS2とし
て、ステップS1で算出した差分値を所定のしきい値と
比較する。差分値がしきい値より大きいと判定される場
合にはステップS1において処理対象とされた画素の周
囲が動画像であるとの判断の下にステップS8に移行
し、それ以外の場合には、ステップS1において処理対
象とされた画素の周囲が静止画像であるとの判断の下に
ステップS31 およびステップS32 に移行する。
The procedure of the process according to the embodiment of the present invention will be described with reference to FIG. In step S1, a difference between a pixel in the input image signal (pixel of interest) and a pixel in the image signal held in the frame memory (pixel at the same position as the pixel of interest) is calculated. In step S2, the difference value calculated in step S1 is compared with a predetermined threshold. If it is determined that the difference value is larger than the threshold value, the process proceeds to step S8 under the determination that the periphery of the pixel to be processed in step S1 is a moving image. surrounding pixels that are processed moves under the determination that a still image in step S3 1 and step S3 2 in step S1.

【0020】ステップS31 として入力画像信号から注
目画素を中心とする領域を切り出し、ステップS41
移行する。ステップS41 では、ステップS41 で切り
出した領域内の分散(以下、分散1と表記する)を計算
する。また、ステップS32としてフレームメモリに保
持されている画像信号から領域を切り出し、ステップS
2 に移行する。ステップS42 では、ステップS32
で切り出した領域内の分散(以下、分散2と表記する)
を計算する。
The cut out region centered around the target pixel from the input image signal as a Step S3 1, the process proceeds to step S4 1. In step S4 1, dispersed in a region cut out in Step S4 1 (hereinafter referred to as dispersion 1) is calculated. Also, cut out area from the image signal stored in the frame memory in step S3 2, step S
4 to shift 2. In step S4 2, Step S3 2
(Variance 2)
Is calculated.

【0021】ステップS31 およびステップS32 によ
って切り出される領域の形状の一例を図3に示す。かか
る一例は、斜線を付して示す注目画素を中心とする、画
素x00〜xnnを含む矩形の領域である。このような領域
が切り出される場合には、分散Vは以下の式(1)によ
って計算される。
[0021] FIG. 3 shows an example of a shape of the region to be cut by the step S3 1 and Step S3 2. One such example is centered on the pixel of interest indicated by hatching, is a region of rectangular including pixels x 00 ~x nn. When such a region is cut out, the variance V is calculated by the following equation (1).

【0022】[0022]

【数1】 (Equation 1)

【0023】但し、切り出される領域の形状は矩形に限
定されるものではなく、例えばひし形等、種々の形状と
することができる。
However, the shape of the region to be cut is not limited to a rectangle, but may be various shapes such as a diamond.

【0024】ステップS41 、ステップS42 によって
得られる分散1および分散2の大小比較がステップS5
において行われる。分散1が分散2より大きいと判定さ
れる場合には、ステップS31 によって入力画像信号か
ら切り出された領域内のアクティビティの方がステップ
S32 によってフレームメモリから切り出された領域内
のアクティビティよりも大きいと判断される。かかる場
合にはステップS7に移行する。一方、ステップS5に
おいて分散1が分散2より大きくないと判定されるに
は、ステップS32 によってフレームメモリから切り出
された領域内のアクティビティがステップS31 によっ
て入力画像信号から切り出された領域内のアクティビテ
ィ以上であると判断される。かかる場合にはステップS
6に移行する。
[0024] Step S4 1, dispersion obtained in step S4 2 1 and variance 2 of the magnitude comparison step S5
It is performed in. If the variance is determined to be larger than the dispersion 2, towards the activities in the area cut out from the input image signal is greater than the activity in the area cut out from the frame memory in step S3 2 in step S3 1 Is determined. In such a case, the process proceeds to step S7. On the other hand, the dispersion 1 is not greater than the variance 2 in step S5, the activity in the region where the activity in the area cut out from the frame memory in step S3 2 is cut out from the input image signal in step S3 1 It is determined that this is the case. In such a case, step S
Move to 6.

【0025】ステップS7では、ステップS31 によっ
て入力画像信号から切り出された領域内の注目画素を最
終的な出力として表示装置等に供給する処理を行い、さ
らに、ステップS9に移行する。一方、ステップS6で
は、ステップS32 によってフレームメモリから切り出
された領域内の、注目画素と同一位置の画素を最終的な
出力として表示装置等に供給する処理を行い、さらに、
ステップS9に移行する。
[0025] In step S7, performs processing to the display device such as a pixel of interest in the area cut out from the input image signal in step S3 1 as a final output, further, the process proceeds to step S9. On the other hand, in step S6, in the region cut out from the frame memory in step S3 2, the pixel of interest at the same position performs processing supplied to the display device such as a final output, further,
Move to step S9.

【0026】また、ステップS8では、ステップS1の
処理対象である注目画素の周囲が動画像である場合に対
処する処理として、入力画像信号内の画素をそのまま最
終的な出力として表示装置等に供給する処理を行い、さ
らに、ステップS9に移行する。
In step S8, a pixel in the input image signal is supplied as it is as a final output to a display device or the like as a process to cope with the case where the periphery of the target pixel to be processed in step S1 is a moving image. Then, the process proceeds to step S9.

【0027】以上のようなリカーシブ処理によって、静
止画部分について、よりアクティビティの高い領域内の
画素を選択的に出力し、また、そのような画素を後続の
フレームに伝播していくことができる。
By the recursive processing as described above, it is possible to selectively output a pixel in a region having higher activity in a still image portion, and to propagate such a pixel to a subsequent frame.

【0028】上述したこの発明の一実施形態が静止画部
分についてのみ有効な処理を行うのに対して、動画部分
についても有効な処理を行うようにした、この発明の他
の実施形態も可能である。この発明の他の実施形態は、
入力画像信号の動きを検出し、検出した動きに基づく処
理を行うものである。
While the above-described embodiment of the present invention performs an effective process only on a still image portion, an effective embodiment is also performed on a moving image portion. Other embodiments of the present invention are also possible. is there. Another embodiment of the present invention is:
It detects the movement of the input image signal and performs processing based on the detected movement.

【0029】この発明の他の実施形態の構成の一例を図
4に示す。入力画像信号が領域切り出し部41、動きベ
クトル検出部42および出力画素決定部44に供給され
る。領域切り出し部41は、供給される入力画像信号か
ら注目画素位置を中心とする領域を切り出し、切り出し
た領域のデータを分散計算部43に供給する。分散計算
部43は、供給されるデータに基づいて分散を計算し、
計算した分散値を出力画素決定部44に供給する。
FIG. 4 shows an example of the configuration of another embodiment of the present invention. The input image signal is supplied to an area cutout unit 41, a motion vector detection unit 42, and an output pixel determination unit 44. The region cutout unit 41 cuts out a region centered on the target pixel position from the supplied input image signal, and supplies data of the cutout region to the variance calculation unit 43. The variance calculator 43 calculates the variance based on the supplied data,
The calculated variance value is supplied to the output pixel determination unit 44.

【0030】一方、動き検出部42は、供給される入力
画像信号からブロックマッチング等の方法によって動き
ベクトルを検出し、検出した動きベクトルを画素位置補
整および領域切り出し部43に供給する。画素位置補整
および領域切り出し部45は、供給される動きベクトル
を参照して、領域切り出し部41によって切り出される
領域に対応する領域を、フレームメモリ47に保持され
ている画像信号から切り出す。すなわち、画素位置補整
および領域切り出し部45は、動きベクトルを参照して
注目画素の画素位置を補整する処理を行い、さらに、か
かる処理の結果として生成される画像信号から注目画素
と同一位置の画素を中心として領域切り出し部41によ
って切り出される領域と同一の形状および面積を有する
領域を切り出す。
On the other hand, the motion detecting section 42 detects a motion vector from the supplied input image signal by a method such as block matching, and supplies the detected motion vector to the pixel position correcting and area extracting section 43. The pixel position adjusting and area extracting unit 45 extracts an area corresponding to the area extracted by the area extracting unit 41 from the image signal held in the frame memory 47 with reference to the supplied motion vector. In other words, the pixel position correction and area cutout unit 45 performs a process of correcting the pixel position of the target pixel with reference to the motion vector, and further obtains a pixel at the same position as the target pixel from the image signal generated as a result of the process A region having the same shape and area as the region cut out by the region cutout unit 41 is cut out centering on.

【0031】画素位置補整および領域切り出し部45に
よって切り出される領域のデータが分散計算部46に供
給される。分散計算部46は、供給される領域のデータ
に基づいて分散を計算し、計算した分散値を出力画素決
定部44に供給する。出力画素決定部44には、さら
に、フレームメモリ47から前フレームの画像信号が供
給される。出力画素決定部44は、分散計算部43から
供給される分散値と分散計算部46から供給される分散
値とを比較し、比較結果に基づいて出力画素を決定す
る。
The data of the region clipped by the pixel position correction and region clipping unit 45 is supplied to the variance calculation unit 46. The variance calculation unit 46 calculates the variance based on the supplied area data, and supplies the calculated variance value to the output pixel determination unit 44. The output pixel determination unit 44 is further supplied with the image signal of the previous frame from the frame memory 47. The output pixel determination unit 44 compares the variance value supplied from the variance calculation unit 43 with the variance value supplied from the variance calculation unit 46, and determines an output pixel based on the comparison result.

【0032】すなわち、分散値をアクティビティの尺度
として用い、領域切り出し部41によって切り出される
領域と、画素位置補整および領域切り出し部45によっ
て切り出される領域との内で分散値がより大きい領域内
の注目画素または注目画素と同一位置の画素を出力画素
として選択する。出力画素決定部44の出力は、最終的
な出力として図示しない表示装置等に供給されると共に
フレームメモリ47に供給され、保持される。
That is, using the variance value as a measure of the activity, the pixel of interest in the region having a larger variance value between the region cut out by the region cutout unit 41 and the region cut out by the pixel position correction and region cutout unit 45 Alternatively, a pixel at the same position as the target pixel is selected as an output pixel. The output of the output pixel determination unit 44 is supplied as a final output to a display device (not shown) or the like, and is also supplied to the frame memory 47 and held.

【0033】この発明の他の実施形態における処理の手
順について図5を参照して説明する。ステップS50と
して、入力画像信号から領域を切り出す。ステップS5
1として、ステップS50によって入力画像信号から切
り出された領域内の分散(以下、分散1’と表記する)
を計算する。ステップS52として、入力画像信号と、
フレームメモリに保持された1フレーム前に出力した画
像信号との間の動きベクトルをブロックマッチング等の
方法で検出する。
A processing procedure according to another embodiment of the present invention will be described with reference to FIG. In step S50, an area is cut out from the input image signal. Step S5
1, the variance in the region cut out from the input image signal in step S50 (hereinafter, referred to as variance 1 ′)
Is calculated. At step S52, the input image signal and
A motion vector between the image signal output one frame before and held in the frame memory is detected by a method such as block matching.

【0034】ブロックマッチングによる動きベクトルの
検出の概要を説明する。入力画像信号から注目画素を中
心として幾つかの画素を含む所定の形状のブロック(参
照ブロックと称される)を切り出す。一方で、フレーム
メモリ47に保持された画像信号内に設定される探索範
囲内の画素の各々を中心とする、参照ブロックと同形の
ブロックを切り出す。このようにして切り出される各ブ
ロックと参照ブロックとの間で差分絶対値の和を計算す
る。
An outline of detection of a motion vector by block matching will be described. From the input image signal, a block of a predetermined shape (referred to as a reference block) including some pixels around the target pixel is cut out. On the other hand, a block having the same shape as the reference block, centered on each pixel in the search range set in the image signal held in the frame memory 47, is cut out. The sum of absolute difference values between each block cut out in this way and the reference block is calculated.

【0035】そして、各計算値を探索範囲内の画素に対
応させて保持することにより、評価値テーブルを作成す
る。このようにして作成される評価値テーブルから最小
値を探索し、探索される最小値に係る探索範囲内の画素
の位置と注目画素とのずれ量を算出し、算出されるずれ
量に基づいて動きベクトルを検出する。なお、ブロック
マッチングについては、例えば、本願出願人の提案に係
る、例えば特開昭54−124927号公報等に詳細に
開示されている。
Then, an evaluation value table is created by holding the calculated values in correspondence with the pixels within the search range. The minimum value is searched from the evaluation value table created in this way, the shift amount between the position of the pixel in the search range related to the searched minimum value and the target pixel is calculated, and based on the calculated shift amount, Detect a motion vector. The block matching is disclosed in detail in, for example, Japanese Patent Application Laid-Open No. 54-124927 proposed by the present applicant.

【0036】ステップS53として、まず、ステップS
52によって検出された動きベクトルに基づいて、フレ
ームメモリに保持されている画像信号に対して画素位置
を補整する処理を行う。さらに、ステップS53では、
画素位置を補整する処理の結果として得られる画像信号
から、注目画素と同一位置の画素を中心とする、ステッ
プS50によって入力画像信号から切り出される領域と
同一の形状、面積を有する領域を切り出す。ステップS
54として、ステップS53によって切り出される領域
内の分散(以下、分散2’と表記する)を計算する。
As step S53, first, step S53
Based on the motion vector detected by 52, a process for correcting the pixel position is performed on the image signal held in the frame memory. Further, in step S53,
From the image signal obtained as a result of the process of correcting the pixel position, a region centered on the pixel at the same position as the target pixel and having the same shape and area as the region cut out from the input image signal in step S50 is cut out. Step S
As 54, the variance (hereinafter referred to as variance 2 ′) in the region cut out in step S53 is calculated.

【0037】ステップS50およびステップS53によ
って切り出される領域の形状は、例えば図3に示した一
例等を用いることができる。かかる一例を用いる場合
に、分散Vは以下の式(2)によって計算される。
As the shape of the region cut out in steps S50 and S53, for example, the example shown in FIG. 3 can be used. When using such an example, the variance V is calculated by the following equation (2).

【0038】[0038]

【数2】 (Equation 2)

【0039】但し、切り出される領域の形状は矩形に限
定されるものではなく、例えばひし形等、種々の形状と
することができる。
However, the shape of the region to be cut is not limited to a rectangle, but may be various shapes such as a diamond.

【0040】ステップS55では、ステップS51にて
計算された分散1’と、ステップS53にて計算された
分散2’との大小比較を行う。分散1’>分散2’と判
定される場合には、ステップS50によって入力画像信
号から切り出された領域のアクティビティがステップS
53によってフレームメモリから切り出された領域のア
クティビティよりも大きいと判断される。かかる場合に
はステップS56に移行する。一方、ステップS53に
おいて分散1が分散2より大きくないと判定される場合
には、ステップS53によってフレームメモリから切り
出された領域のアクティビティがステップS50によっ
て入力画像信号から切り出された領域のアクティビティ
以上であると判断される。かかる場合にはステップS5
7に移行する。
In step S55, a comparison is made between the variance 1 'calculated in step S51 and the variance 2' calculated in step S53. If it is determined that variance 1 ′> variance 2 ′, the activity of the region cut out from the input image signal in step S50 is determined in step S50.
It is determined by 53 that the activity is larger than the activity of the area cut out from the frame memory. In such a case, the process proceeds to step S56. On the other hand, when it is determined in step S53 that the variance 1 is not larger than the variance 2, the activity of the region cut out from the frame memory in step S53 is equal to or greater than the activity of the region cut out from the input image signal in step S50. Is determined. In such a case, step S5
Move to 7.

【0041】ステップS57では、ステップS53によ
ってフレームメモリから切り出された領域内の注目画素
と同一位置の画素を最終的な出力として表示装置等に供
給する処理を行う。但し、この場合には、動きベクトル
に基づくステップS53と同様な画素位置補整がなされ
た上で画素が出力される。さらに、ステップS58に移
行する。一方、ステップS56では、ステップS50に
よって入力画像信号から切り出された領域内の注目画素
を最終的な出力として表示装置等に供給する処理を行
い、さらに、ステップS58に移行する。
In step S57, a process of supplying a pixel at the same position as the target pixel in the region cut out from the frame memory in step S53 to a display device or the like as a final output is performed. However, in this case, the pixel is output after the same pixel position correction as in step S53 based on the motion vector. Then, control goes to a step S58. On the other hand, in step S56, a process of supplying the pixel of interest in the region cut out from the input image signal in step S50 to a display device or the like as a final output is performed, and further proceeds to step S58.

【0042】以上のようなリカーシブ処理によって、静
止画部分、動画像部分の何れについても、よりアクティ
ビティの高い領域内の画素を選択的に出力し、また、そ
のような画素を後続のフレームに伝播していくことがで
きる。
By the recursive processing as described above, for both the still image portion and the moving image portion, pixels in a region with higher activity are selectively output, and such pixels are propagated to a subsequent frame. I can do it.

【0043】次に、ブロックマッチングによる動きベク
トルの検出に係る構成について図6を参照して説明す
る。動きベクトル検出部42は、ブロック切り出し部6
1、評価値テーブル作成部62、最小評価値探索部63
および動きベクトル推定部64を有する。ブロック切り
出し部61は入力画像信号を供給され、供給される入力
画像信号から参照ブロックを切り出す。参照ブロックの
データが評価値テーブル作成部62に供給される。
Next, a configuration for detecting a motion vector by block matching will be described with reference to FIG. The motion vector detection unit 42 includes the block extraction unit 6
1. Evaluation value table creation unit 62, minimum evaluation value search unit 63
And a motion vector estimating unit 64. The block cutout unit 61 is supplied with an input image signal, and cuts out a reference block from the supplied input image signal. The data of the reference block is supplied to the evaluation value table creation unit 62.

【0044】評価値テーブル作成部62は、フレームメ
モリ47内に保持されている1フレーム前の画像信号上
に探索範囲を設定し、探索範囲内の画素の各々を中心と
する画素、参照ブロックと同形のブロックを切り出す。
さらに、評価値テーブル作成部62は、探索範囲から切
り出される各ブロックと参照ブロックとの間で差分絶対
値の和を計算し、計算値を探索範囲内の画素の各々に対
応して保持することによって評価値テーブルを作成す
る。評価値テーブルのデータが最小評価値探索部63に
供給される。
The evaluation value table creation section 62 sets a search range on the image signal of one frame before stored in the frame memory 47, and sets a pixel centered on each pixel within the search range, a reference block, and Cut out blocks of the same shape.
Furthermore, the evaluation value table creation unit 62 calculates the sum of absolute differences between each block cut out from the search range and the reference block, and holds the calculated value corresponding to each pixel in the search range. Creates an evaluation value table. The data of the evaluation value table is supplied to the minimum evaluation value search unit 63.

【0045】最小評価値探索部63は、供給されるデー
タに基づいて評価値の最小値を探索し、探索結果を示す
データを動きベクトル推定部64に供給する。動きベク
トル推定部64は、供給されるデータに基づいて、最小
値に係る探索範囲内の画素の位置と注目画素とのずれ量
を算出し、算出されるずれ量に基づいて動きベクトルを
推定する。動きベクトル推定部64の出力が動きベクト
ル検出部42の最終的な出力とされる。
The minimum evaluation value search section 63 searches for the minimum evaluation value based on the supplied data, and supplies data indicating the search result to the motion vector estimation section 64. The motion vector estimating unit 64 calculates a shift amount between the position of the pixel in the search range related to the minimum value and the target pixel based on the supplied data, and estimates a motion vector based on the calculated shift amount. . The output of the motion vector estimation unit 64 is used as the final output of the motion vector detection unit 42.

【0046】なお、この発明の他の実施形態においては
動きベクトルをブロックマッチングによって検出するよ
うにしているが、例えば勾配法等、他の方法によって動
きベクトルを検出するようにしても良い。
Although the motion vector is detected by block matching in another embodiment of the present invention, the motion vector may be detected by another method such as a gradient method.

【0047】次に、図5中のステップS53について図
7を参照してより詳細に説明する。参照ブロック71内
の注目画素72の位置に、ステップS52によって検出
される動きベクトル(x,y)を加算することにより、
フレームメモリ47に保持されている画像信号内で注目
画素72に対応する位置にある画素74の位置を算出す
ることができる。このようにして算出される画素位置を
中心として、ステップS50によって切り出される領域
と同一の形状および大きさを有する領域を切り出すこと
により、動きベクトルに基づく画素位置補整を行った上
での領域切り出しを行うことができる。
Next, step S53 in FIG. 5 will be described in more detail with reference to FIG. By adding the motion vector (x, y) detected in step S52 to the position of the pixel of interest 72 in the reference block 71,
The position of the pixel 74 located at the position corresponding to the target pixel 72 in the image signal held in the frame memory 47 can be calculated. By cutting out a region having the same shape and size as the region cut out in step S50 around the pixel position calculated in this way, the region cutout after performing the pixel position correction based on the motion vector is performed. It can be carried out.

【0048】また、上述したこの発明の一実施形態およ
びこの発明の他の実施形態においてはアクティビティの
尺度として分散値を用いているが、アクティビティの尺
度としては、例えばダイナミックレンジ(Dynamic Rang
e 、DRと表記されることがある)を用いることもでき
る。また、この発明の一実施形態およびこの発明の他の
実施形態では最終的な出力の決定を画素を単位として行
っているが、例えば分散を計算するために切り出される
領域を単位として最終的な出力を決定するようにしても
良い。
In one embodiment of the present invention and the other embodiments of the present invention, a variance value is used as a measure of an activity. For example, a dynamic range (Dynamic Range) is used as a measure of an activity.
e, sometimes referred to as DR). In one embodiment of the present invention and another embodiment of the present invention, the final output is determined in units of pixels. However, for example, the final output is determined in units of regions cut out for calculating variance. May be determined.

【0049】この発明は、上述したこの発明の一実施形
態およびこの発明の他の実施形態に限定されるものでは
無く、この発明の主旨を逸脱しない範囲内で様々な変形
や応用が可能である。
The present invention is not limited to one embodiment of the present invention described above and other embodiments of the present invention, and various modifications and applications are possible without departing from the gist of the present invention. .

【0050】[0050]

【発明の効果】この発明によれば、原画像に対して例え
ばMPEG規定に準拠した符号化および復号化がなされ
てなる画像信号等に対して、時間的に隣接するフレーム
の間でよりアクティビティが高いと判定される画像デー
タを選択的に出力し、また、そのような画素を後続のフ
レームにも伝播していくことができる。
According to the present invention, for an image signal or the like obtained by encoding and decoding an original image, for example, in accordance with the MPEG standard, the activity is more increased between temporally adjacent frames. Image data determined to be high can be selectively output and such pixels can be propagated to subsequent frames.

【0051】このため、フレーム間でのブロック歪み等
の劣化に起因してフレーム間に生じる画質の格差を解消
若しくは軽減することができる。従って、画像全体とし
て均質で劣化の目立たない画像信号を出力することがで
きる。
For this reason, it is possible to eliminate or reduce a difference in image quality between frames caused by deterioration such as block distortion between frames. Therefore, it is possible to output an image signal that is uniform and inconspicuous in deterioration of the entire image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施形態の構成の一例を示すブロ
ック図である。
FIG. 1 is a block diagram illustrating an example of a configuration according to an embodiment of the present invention.

【図2】この発明の一実施形態における処理の一例を示
すフローチャートである。
FIG. 2 is a flowchart illustrating an example of a process according to an embodiment of the present invention.

【図3】この発明の一実施形態における領域の切り出し
について説明するための略線図である。
FIG. 3 is a schematic diagram for explaining extraction of an area according to the embodiment of the present invention;

【図4】この発明の他の実施形態の構成の一例を示すブ
ロック図である。
FIG. 4 is a block diagram showing an example of the configuration of another embodiment of the present invention.

【図5】この発明の他の実施形態における処理の一例を
示すフローチャートである。
FIG. 5 is a flowchart illustrating an example of a process according to another embodiment of the present invention.

【図6】この発明の他の実施形態の一部の構成の一例を
示すブロック図である。
FIG. 6 is a block diagram showing an example of a partial configuration of another embodiment of the present invention.

【図7】この発明の他の実施形態における画素位置補整
について説明するための略線図である。
FIG. 7 is a schematic diagram for explaining pixel position compensation in another embodiment of the present invention.

【図8】従来技術における問題点について説明するため
の略線図である。
FIG. 8 is a schematic diagram for explaining a problem in the related art.

【符号の説明】[Explanation of symbols]

13・・・出力画素決定部、16・・・動静判定部、4
2・・・動きベクトル検出部、45・・・画素位置補整
および領域切り出し部、44・・・出力画素決定部
13 ... output pixel determination unit, 16 ... motion judgment unit, 4
2 ... Motion vector detection unit, 45 ... Pixel position correction and area cutout unit, 44 ... Output pixel determination unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中屋 秀雄 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 浜松 俊彦 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C059 KK01 MA00 MA04 MA05 NN01 NN23 NN28 NN43 PP04 TA07 TA80 TB08 TC10 TC13 TD02 TD04 TD11  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Hideo Nakaya 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Toshihiko Hamamatsu 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo No. Sony Corporation F term (reference) 5C059 KK01 MA00 MA04 MA05 NN01 NN23 NN28 NN43 PP04 TA07 TA80 TB08 TC10 TC13 TD02 TD04 TD11

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 解像度または画質の劣化の程度が時間方
向に異なる画像信号に対し、注目フレーム中の第1の領
域と上記注目フレームに対して1フレーム前に出力した
フレーム中の第2の領域との間で差分をとり、上記差分
に基づいて上記第1の領域が静止画部分/動画部分の何
れであるかを判定する静動判定手段と、 上記第1の領域内のアクティビティの尺度となる量を計
算する第1の計算手段と、 上記第2の領域内のアクティビティの尺度となる量を計
算する第2の計算手段と、 上記静動判定手段によって上記第1の領域が動画部分で
あると判定される場合に上記第1の領域内の画像データ
を出力し、上記静動判定手段によって上記第1の領域が
静止画部分であると判定される場合に、上記第1の計算
手段の出力と上記第2の計算手段の出力とを比較し、比
較結果に基づいて、上記第1の領域と上記第2の領域と
の内でアクティビティがより大きいと判定される領域内
の画像データを出力する出力画像決定手段とを有するこ
とを特徴とする画像処理装置。
1. A first area in a frame of interest and a second area in a frame output one frame before the frame of interest with respect to image signals having different degrees of resolution or image quality deterioration in the time direction. And a still / moving determining means for determining whether the first region is a still image portion or a moving image portion based on the difference, and a measure of the activity in the first region. First calculating means for calculating an amount of the second area; second calculating means for calculating an amount that is a measure of the activity in the second area; The image data in the first area is output when it is determined that there is, and when the first area is determined to be a still image portion by the still / moving determining means, the first calculating means is output. And the output of the second calculation means Output image determining means for comparing the output with the output and outputting image data in an area determined to have a higher activity in the first area and the second area based on the comparison result. An image processing apparatus characterized by the above-mentioned.
【請求項2】 請求項1において、 上記画像信号は、 フレーム間相関を利用してなされる符号化方法によって
符号化されたディジタル信号から復号される画像信号で
あることを特徴とする画像処理装置。
2. The image processing apparatus according to claim 1, wherein the image signal is an image signal decoded from a digital signal encoded by an encoding method using inter-frame correlation. .
【請求項3】 請求項1において、 上記第1および第2の計算手段は、 上記アクティビティの尺度となる量として、上記第1お
よび第2の領域内の分散を計算することを特徴とする画
像処理装置。
3. The image according to claim 1, wherein the first and second calculation means calculate a variance in the first and second regions as an amount serving as a measure of the activity. Processing equipment.
【請求項4】 請求項1において、 上記第1のおよび第2の計算手段は、 上記アクティビティの尺度となる量として、上記第1お
よび第2の領域内のダイナミックレンジを計算すること
を特徴とする画像処理装置。
4. The method according to claim 1, wherein the first and second calculation means calculate a dynamic range in the first and second regions as a quantity serving as a measure of the activity. Image processing device.
【請求項5】 請求項1において、 上記出力画像決定手段は、 上記静動判定手段によって上記第1の領域が動画部分で
あると判定される場合に、上記第1の領域内の注目画素
を出力することを特徴とする画像処理装置。
5. The output image determining unit according to claim 1, wherein the output image determining unit determines a target pixel in the first region when the still / moving determining unit determines that the first region is a moving image portion. An image processing device for outputting.
【請求項6】 請求項1において、 上記出力画像決定手段は、 上記静動判定手段によって上記第1の領域が動画部分で
あると判定される場合に、上記第1の領域を出力するこ
とを特徴とする画像処理装置。
6. The output image determining unit according to claim 1, wherein the output region determining unit outputs the first region when the static region determining unit determines that the first region is a moving image portion. Characteristic image processing device.
【請求項7】 請求項1において、 上記出力画像決定手段は、 上記静動判定手段によって上記第1の領域が静止画部分
であると判定される場合に、上記第1の計算手段の出力
と上記第2の計算手段の出力とを比較し、比較結果に基
づいて、上記第1の領域と上記第2の領域の内でアクテ
ィビティがより大きいと判定される領域内の注目画素ま
たは上記注目画素と同一位置の画素を出力することを特
徴とする画像処理装置。
7. The output image determining means according to claim 1, wherein said output image determining means determines an output of said first calculating means when said still and moving determining means determines that said first area is a still image portion. Comparing the output of the second calculating means with the target pixel or the target pixel in a region of the first region and the second region in which the activity is determined to be larger than that of the second region based on the comparison result; An image processing device for outputting a pixel at the same position as that of the image processing device.
【請求項8】 請求項1において、 上記出力画像決定手段は、 上記静動判定手段によって上記第1の領域が静止画部分
であると判定される場合に、上記第1の計算手段の出力
と上記第2の計算手段の出力とを比較し、比較結果に基
づいて、上記第1の領域と上記第2の領域の内でアクテ
ィビティがより大きいと判定される領域を出力すること
を特徴とする画像処理装置。
8. The output image determining unit according to claim 1, wherein the output image determining unit determines an output of the first calculating unit when the static region determining unit determines that the first region is a still image portion. Comparing the output of the second calculation means and outputting, based on the comparison result, an area of the first area and the second area determined to have a higher activity. Image processing device.
【請求項9】 解像度または画質の劣化の程度が時間方
向に異なる画像信号に対し、注目フレームと上記注目フ
レームに対して1フレーム前に出力したフレームとの間
で動きを検出する動き検出手段と、 上記注目フレーム中の第1の領域内のアクティビティの
尺度となる量を計算する第1の計算手段と、 上記動き検出手段の出力に基づいて、上記注目フレーム
に対して1フレーム前に出力したフレームに対する画素
位置補整処理を施し、上記画素位置補整処理が施されて
なる画像信号中の第2の領域内のアクティビティの尺度
となる量を計算する第2の計算手段と、 上記第1の計算手段の出力と上記第2の計算手段の出力
とを比較し、比較結果に基づいて、上記第1の領域と上
記第2の領域との内でアクティビティがより大きいと判
定される領域内の画像データを出力する出力画像決定手
段とを有することを特徴とする画像処理装置。
9. A motion detecting means for detecting a motion between a frame of interest and a frame output immediately before the frame of interest with respect to an image signal having a resolution or a degree of deterioration of image quality different in a time direction. A first calculating means for calculating an amount serving as a measure of an activity in a first area in the frame of interest; and an output one frame before the frame of interest based on an output of the motion detecting means. Second calculating means for performing a pixel position correction process on a frame, and calculating an amount serving as a measure of an activity in a second region in the image signal on which the pixel position correction process has been performed; The output of the means is compared with the output of the second calculation means, and it is determined that the activity is larger in the first area and the second area based on the comparison result. An image processing apparatus comprising: output image determination means for outputting image data in a region.
【請求項10】 請求項9において、 上記画像信号は、 フレーム間相関を利用してなされる符号化方法によって
符号化されたディジタル信号から復号される画像信号で
あることを特徴とする画像処理装置。
10. The image processing apparatus according to claim 9, wherein the image signal is an image signal decoded from a digital signal encoded by an encoding method using inter-frame correlation. .
【請求項11】 請求項9において、 上記第1のおよび第2の計算手段は、 上記アクティビティの尺度となる量として、上記第1お
よび第2の領域内の分散を計算することを特徴とする画
像処理装置。
11. The method according to claim 9, wherein the first and second calculation means calculate a variance in the first and second regions as a quantity serving as a measure of the activity. Image processing device.
【請求項12】 請求項9において、 上記第1のおよび第2の計算手段は、 上記アクティビティの尺度となる量として、上記第1お
よび第2の領域内のダイナミックレンジを計算すること
を特徴とする画像処理装置。
12. The method according to claim 9, wherein the first and second calculation means calculate a dynamic range in the first and second regions as a quantity serving as a measure of the activity. Image processing device.
【請求項13】 請求項9において、 上記出力画像決定手段は、 上記第1の計算手段の出力と上記第2の出力とを比較
し、比較結果に基づいて、上記第1の領域と上記第2の
領域との内でアクティビティがより大きいと判定される
領域内の注目画素または上記注目画素と同一位置の画素
を出力することを特徴とする画像処理装置。
13. The output image determining means according to claim 9, wherein the output image determining means compares an output of the first calculating means with the second output, and, based on a comparison result, the first area and the second area. An image processing apparatus for outputting a target pixel or a pixel at the same position as the target pixel in a region where the activity is determined to be larger among the two regions.
【請求項14】 請求項9において、 上記出力画像決定手段は、 上記第1の計算手段の出力と上記第2の計算手段の出力
とを比較し、比較結果に基づいて、上記第1の領域と上
記第2の領域との内でアクティビティがより大きいと判
定される領域を出力することを特徴とする画像処理装
置。
14. The output image determining unit according to claim 9, wherein the output image determining unit compares an output of the first calculating unit with an output of the second calculating unit, and based on a comparison result, determines the first area. An image processing apparatus that outputs an area determined to have a larger activity among the second area and the second area.
【請求項15】 解像度または画質の劣化の程度が時間
方向に異なる画像信号に対し、注目フレーム中の第1の
領域と上記注目フレームに対して1フレーム前に出力し
たフレーム中の第2の領域との間で差分をとり、上記差
分に基づいて上記第1の領域が静止画部分/動画部分の
何れであるかを判定する静動判定ステップと、 上記第1の領域内のアクティビティの尺度となる量を計
算する第1の計算ステップと、 上記第2の領域内のアクティビティの尺度となる量を計
算する第2の計算ステップと、 上記静動判定ステップによって上記第1の領域が動画部
分であると判定される場合に上記第1の領域内の画像デ
ータを出力し、上記静動判定ステップによって上記第1
の領域が静止画部分であると判定される場合に、上記第
1の計算ステップの結果と上記第2の計算ステップの結
果とを比較し、比較結果に基づいて、上記第1の領域と
上記第2の領域との内でアクティビティがより大きいと
判定される領域内の画像データを出力する出力画像決定
ステップとを有することを特徴とする画像処理方法。
15. A first region in a frame of interest and a second region in a frame output one frame before the frame of interest with respect to image signals having different degrees of resolution or image quality deterioration in the time direction. A still / moving determination step of determining whether the first area is a still image portion or a moving image portion based on the difference; and a measure of activity in the first area. A first calculation step of calculating an amount of the first area; a second calculation step of calculating an amount that is a measure of an activity in the second area; If it is determined that there is, the image data in the first area is output, and the first and second motions are determined by the static / moving determination step.
When the region is determined to be a still image portion, the result of the first calculation step is compared with the result of the second calculation step, and based on the comparison result, the first region and the An output image determining step of outputting image data in an area in which the activity is determined to be larger than the second area.
【請求項16】 解像度または画質の劣化の程度が時間
方向に異なる画像信号に対し、注目フレームと上記注目
フレームに対して1フレーム前に出力したフレームとの
間で動きを検出する動き検出ステップと、 上記注目フレーム中の第1の領域内のアクティビティの
尺度となる量を計算する第1の計算ステップと、 上記動き検出ステップの結果に基づいて、上記注目フレ
ームに対して1フレーム前に出力したフレームに対する
画素位置補整処理を施し、上記画素位置補整処理が施さ
れてなる画像信号中の第2の領域内のアクティビティの
尺度となる量を計算する第2の計算ステップと、 上記第1の計算ステップの結果と上記第2の計算ステッ
プの結果とを比較し、比較結果に基づいて、上記第1の
領域と上記第2の領域との内でアクティビティがより大
きいと判定される領域内の画像データを出力する出力画
像決定ステップとを有することを特徴とする画像処理方
法。
16. A motion detecting step for detecting a motion between a frame of interest and a frame output one frame before the frame of interest with respect to an image signal having a resolution or a degree of deterioration of image quality different in a time direction. A first calculation step of calculating an amount that is a measure of an activity in a first region in the frame of interest; and a frame output before the frame of interest based on a result of the motion detection step. A second calculation step of performing a pixel position correction process on a frame and calculating an amount that is a measure of an activity in a second region in the image signal on which the pixel position correction process is performed; and the first calculation. The result of the step is compared with the result of the second calculation step. Based on the result of the comparison, the activity in the first area and the second area is determined. An output image determining step of outputting image data in an area determined to be larger than the image data.
JP10257699A 1999-04-09 1999-04-09 Image processing apparatus and image processing method Expired - Fee Related JP4253909B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10257699A JP4253909B2 (en) 1999-04-09 1999-04-09 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10257699A JP4253909B2 (en) 1999-04-09 1999-04-09 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2000295621A true JP2000295621A (en) 2000-10-20
JP2000295621A5 JP2000295621A5 (en) 2006-04-06
JP4253909B2 JP4253909B2 (en) 2009-04-15

Family

ID=14331066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10257699A Expired - Fee Related JP4253909B2 (en) 1999-04-09 1999-04-09 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4253909B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7885475B2 (en) 2004-12-30 2011-02-08 Samsung Electronics Co., Ltd Motion adaptive image processing apparatus and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7885475B2 (en) 2004-12-30 2011-02-08 Samsung Electronics Co., Ltd Motion adaptive image processing apparatus and method thereof

Also Published As

Publication number Publication date
JP4253909B2 (en) 2009-04-15

Similar Documents

Publication Publication Date Title
JP4001400B2 (en) Motion vector detection method and motion vector detection device
US6078618A (en) Motion vector estimation system
US8064522B2 (en) Motion-vector detecting device, motion-vector detecting method, and computer program
JP4472986B2 (en) Motion estimation and / or compensation
KR100814424B1 (en) Device for detecting occlusion area and method thereof
JPH0799660A (en) Motion compensation predicting device
KR100657261B1 (en) Method and apparatus for interpolating with adaptive motion compensation
US20080002774A1 (en) Motion vector search method and motion vector search apparatus
JP2000505614A (en) Method and apparatus for detecting scene cuts in block-based video coding systems
JP2006313950A (en) Image coding apparatus, and image coding method
JP2591441B2 (en) Moving vector detection device for moving image signal
US20050265455A1 (en) Apparatus and method for encoding motion vector, and program and medium therefor
JP2005528708A (en) Unit and method for estimating current motion vector
US8804830B2 (en) Method for performing motion estimation
JP2004096752A (en) Method of approximating motion vector, computer program for carrying out the same method, data storage medium for storing the same program, apparatus suitable to carry out the same method, and receiver equipped with the same apparatus
KR20070083993A (en) Method and apparatus for concealing errors in a video decoding process
JPH089379A (en) Motion vector detection method
JP3175914B2 (en) Image encoding method and image encoding device
JP2007142883A (en) Image processing device and image processing method
JP2000295621A (en) Device and method for image processing
JPH05236452A (en) Method and device for detection motion vector
JP2002247584A (en) Method and device for encoding image, program for image encoding processing, and recording medium for the program
US8472787B2 (en) Method and apparatus for detecting a noise value of a video signal
JP2002199398A (en) Variable bit rate moving image encoding device and recording medium
US8179965B2 (en) Moving picture coding method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081007

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130206

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130206

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140206

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees