JP2002077723A - Moving image processor and moving image processing method and recording medium - Google Patents

Moving image processor and moving image processing method and recording medium

Info

Publication number
JP2002077723A
JP2002077723A JP2000265119A JP2000265119A JP2002077723A JP 2002077723 A JP2002077723 A JP 2002077723A JP 2000265119 A JP2000265119 A JP 2000265119A JP 2000265119 A JP2000265119 A JP 2000265119A JP 2002077723 A JP2002077723 A JP 2002077723A
Authority
JP
Japan
Prior art keywords
moving image
correction
scene change
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000265119A
Other languages
Japanese (ja)
Inventor
Yoshio Komaki
由夫 小巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2000265119A priority Critical patent/JP2002077723A/en
Priority to US09/939,592 priority patent/US7474766B2/en
Publication of JP2002077723A publication Critical patent/JP2002077723A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection

Abstract

PROBLEM TO BE SOLVED: To reduce arithmetic quantity necessary for the correction of a moving image. SOLUTION: An encoding unit 100 for encoding a moving image is provided with a correcting part 121, a scene judging part 122, a correction data generating part 123, and a scene change detecting part 124. The scene change detecting part 124 detects the scene change of the moving image based on a different picture at the time of encoding, and inputs the detected result to a scene judging part 122. The scene judging part 122 judges the scene of the picture after the scene change by using a predicted picture from the movement compensating part 116 in detail, and a correction data generating part 123 decides a correcting method based on the result of the scene judgment. The correcting part 121 performs correction by the decided correcting method until the next scene change is detected. Thus, the correcting method is updated only when the scene change is generated so that the correction can be properly performed, and that the arithmetic quantity necessary for the correction can be reduced.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタルデータと
して取得された動画像に対して階調、色相、彩度等の各
種画像特性の補正を行う技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for correcting various image characteristics such as gradation, hue, and saturation of a moving image acquired as digital data.

【0002】[0002]

【従来の技術】従来より、動画像の階調等をリアルタイ
ムにて補正する技術が提案されている。例えば、特開平
5−212620号公報には、簡単な階調補正をリアル
タイムにて行う動画像処理装置が記載されている。しか
しながら、上記文献に記載された装置による動画像の補
正は限定的なものであり、各フレームの画像の特性に応
じた適切な補正は行われない。
2. Description of the Related Art Conventionally, there has been proposed a technique for correcting the gradation and the like of a moving image in real time. For example, Japanese Patent Application Laid-Open No. Hei 5-212620 discloses a moving image processing apparatus that performs simple tone correction in real time. However, the correction of a moving image by the apparatus described in the above-mentioned document is limited, and appropriate correction according to the characteristics of the image of each frame is not performed.

【0003】一方、静止画像に対する補正としては、例
えば、特開2000−57335号公報には、画像の階
調、色相、彩度等の特徴量を求め、これらの特徴量に基
づいて高度な補正を行う技術が記載されている。
On the other hand, as a correction for a still image, for example, Japanese Unexamined Patent Application Publication No. 2000-57335 discloses a method of obtaining characteristic amounts such as gradation, hue, and saturation of an image, and performing advanced correction based on these characteristic amounts. A technique for performing the method is described.

【0004】[0004]

【発明が解決しようとする課題】ところで、動画像の各
フレームの画像を静止画像として扱い、静止画像に対す
る高度な補正を動画像の補正に適用しようとした場合、
補正に要する演算量が多くなってしまう。リアルタイム
にて動画像に処理を行うには、例えば、30fps(1
秒当たり30フレーム)の動画像では1フレームの処理
に要する時間を33ms以下とする必要がある。したが
って、静止画像に対する補正方法を動画像のリアルタイ
ム補正に適用するには高価な装置を開発する必要が生じ
る。
By the way, when an image of each frame of a moving image is treated as a still image and an advanced correction for the still image is applied to the correction of the moving image,
The amount of calculation required for correction increases. To perform processing on a moving image in real time, for example, 30 fps (1
For a moving image of 30 frames per second), the time required for processing one frame needs to be 33 ms or less. Therefore, it is necessary to develop an expensive device to apply the correction method for a still image to real-time correction of a moving image.

【0005】このため、従来より、動画像に対して高度
な補正を行う場合、いわゆるハードディスク等の記録媒
体上に動画像を一度蓄積した後、ノンリアルタイムにて
処理が行われてきた。この場合であっても動画像全体の
補正に要する演算量が膨大となるため、処理には多くの
時間が必要となる。
For this reason, conventionally, when performing advanced correction on a moving image, the moving image has been once stored on a recording medium such as a so-called hard disk, and then processed in a non-real-time manner. Even in this case, since the amount of calculation required for correcting the entire moving image is enormous, the processing requires a lot of time.

【0006】本発明は上記課題に鑑みなされたものであ
り、動画像の補正に要する演算量を削減し、動画像の補
正を迅速に行うことを目的としている。
SUMMARY OF THE INVENTION The present invention has been made in consideration of the above problems, and has as its object to reduce the amount of calculation required for moving image correction and to quickly perform moving image correction.

【0007】[0007]

【課題を解決するための手段】請求項1に記載の発明
は、動画像処理装置であって、動画像におけるシーンチ
ェンジを示すシーンチェンジ情報を取得する手段と、前
記シーンチェンジ情報が取得された際に、次のシーンチ
ェンジ情報が取得されるまでの前記動画像の補正方法を
決定する手段とを備える。
According to a first aspect of the present invention, there is provided a moving image processing apparatus, comprising: means for acquiring scene change information indicating a scene change in a moving image; and acquiring the scene change information. Means for determining a method of correcting the moving image until the next scene change information is obtained.

【0008】請求項2に記載の発明は、請求項1に記載
の動画像処理装置であって、前記次のシーンチェンジ情
報が取得されるまで、前記補正方法に従って前記動画像
の補正を行う手段をさらに備える。
According to a second aspect of the present invention, there is provided the moving image processing apparatus according to the first aspect, wherein the moving image is corrected according to the correction method until the next scene change information is obtained. Is further provided.

【0009】請求項3に記載の発明は、請求項1または
2に記載の動画像処理装置であって、予め代表的な複数
の補正方法を記憶する手段をさらに備え、前記補正方法
を決定する手段が、シーンチェンジ情報取得後の画像に
基づいて前記複数の補正方法から一の補正方法を選択す
る。
According to a third aspect of the present invention, there is provided the moving image processing apparatus according to the first or second aspect, further comprising means for storing a plurality of representative correction methods in advance, and determining the correction method. The means selects one of the plurality of correction methods based on the image after the scene change information is obtained.

【0010】請求項4に記載の発明は、請求項1ないし
3のいずれかに記載の動画像処理装置であって、前記シ
ーンチェンジ情報を取得する手段が、現フレームよりも
前のフレームの画像から導かれる現フレームの予測画像
と現フレームの画像との差分画像に基づいて前記シーン
チェンジ情報を生成する。
According to a fourth aspect of the present invention, in the moving image processing apparatus according to any one of the first to third aspects, the means for acquiring the scene change information includes an image of a frame preceding a current frame. The scene change information is generated based on a difference image between the predicted image of the current frame and the image of the current frame derived from the above.

【0011】請求項5に記載の発明は、請求項4に記載
の動画像処理装置であって、前記補正方法を決定する手
段が、前記予測画像に基づいて前記補正方法を決定す
る。
According to a fifth aspect of the present invention, in the moving picture processing apparatus according to the fourth aspect, the means for determining the correction method determines the correction method based on the predicted image.

【0012】請求項6に記載の発明は、動画像処理装置
であって、動画像におけるシーンチェンジを示すシーン
チェンジ情報を取得する手段と、次のシーンチェンジ情
報が取得されるまでの前記動画像の補正方法を取得する
手段と、前記次のシーンチェンジ情報が取得されるま
で、前記補正方法に従って前記動画像の補正を行う手段
とを備える。
According to a sixth aspect of the present invention, there is provided the moving image processing apparatus, wherein the means for acquiring scene change information indicating a scene change in the moving image, and the moving image until the next scene change information is acquired. And a means for correcting the moving image according to the correction method until the next scene change information is obtained.

【0013】請求項7に記載の発明は、請求項2または
6に記載の動画像処理装置であって、前記動画像の補正
がリアルタイムにて実行される。
According to a seventh aspect of the present invention, in the moving image processing apparatus according to the second or sixth aspect, the correction of the moving image is executed in real time.

【0014】請求項8に記載の発明は、動画像処理方法
であって、動画像におけるシーンチェンジを示すシーン
チェンジ情報を取得する工程と、次のシーンチェンジ情
報が取得されるまでの前記動画像の補正方法を取得する
工程と、前記次のシーンチェンジ情報が取得されるま
で、前記補正方法に従って前記動画像の補正を行う工程
とを有する。
The invention according to claim 8 is a moving image processing method, wherein a step of acquiring scene change information indicating a scene change in a moving image, and a step of acquiring the moving image until the next scene change information is acquired. And a step of correcting the moving image according to the correction method until the next scene change information is obtained.

【0015】請求項9に記載の発明は、コンピュータに
動画像の補正を実行させるプログラムを記録したコンピ
ュータ読み取り可能な記録媒体であって、前記プログラ
ムの前記コンピュータによる実行は、前記コンピュータ
に、動画像におけるシーンチェンジを示すシーンチェン
ジ情報を取得する工程と、次のシーンチェンジ情報が取
得されるまでの前記動画像の補正方法を取得する工程
と、前記次のシーンチェンジ情報が取得されるまで、前
記補正方法に従って前記動画像の補正を行う工程とを実
行させる。
According to a ninth aspect of the present invention, there is provided a computer-readable recording medium having recorded thereon a program for causing a computer to execute a moving image correction, wherein the execution of the program by the computer causes the computer to execute the moving image correction. Acquiring scene change information indicating a scene change in, and acquiring the moving image correction method until the next scene change information is acquired, and acquiring the next scene change information until the next scene change information is acquired. Performing the correction of the moving image according to the correction method.

【0016】[0016]

【発明の実施の形態】<1. 第1の実施の形態>図1
は動画像の取得、補正および再生を行う画像処理システ
ム1の構成を示す図である。画像処理システム1は、動
画像をデジタルデータとして取得するビデオカメラ1
0、ビデオカメラ10にて取得された動画像を磁気テー
プ等の記録媒体91を介して受け取り、動画像の再生を
行う再生装置20、および、再生される動画像を表示す
るディスプレイ30を有する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS <1. First Embodiment> FIG.
1 is a diagram illustrating a configuration of an image processing system 1 that acquires, corrects, and reproduces a moving image. An image processing system 1 includes a video camera 1 that acquires a moving image as digital data.
0, a reproducing apparatus 20 that receives a moving image acquired by the video camera 10 via a recording medium 91 such as a magnetic tape and reproduces the moving image, and a display 30 that displays the reproduced moving image.

【0017】図2は、画像処理システム1における動画
像の処理に係る主要構成を示すブロック図である。画像
処理システム1は、符号化ユニット100および復号化
ユニット200を有し、符号化ユニット100にはビデ
オカメラ10にて取得された動画像が入力画像データ8
1として入力される。入力画像データ81は符号化ユニ
ット100において符号化(すなわち、圧縮処理)さ
れ、符号化データ82が出力される。符号化データ82
は再生時に復号化ユニット200に入力され、復号化
(すなわち、伸張処理)されて出力画像データ83とし
て出力される。
FIG. 2 is a block diagram showing a main configuration relating to processing of a moving image in the image processing system 1. As shown in FIG. The image processing system 1 includes an encoding unit 100 and a decoding unit 200. A moving image acquired by the video camera 10 is input to the encoding unit 100 as input image data 8.
Entered as 1. The input image data 81 is encoded (that is, compressed) in the encoding unit 100, and encoded data 82 is output. Encoded data 82
Are input to the decoding unit 200 at the time of reproduction, decoded (that is, decompressed), and output as output image data 83.

【0018】符号化ユニット100および復号化ユニッ
ト200は、後述するようにビデオカメラ10または再
生装置20のいずれかのみに設けられてもよいが、以下
の説明では、ビデオカメラ10が符号化ユニット100
を有し、再生装置20が復号化ユニット200を有する
ものとして説明する。
The encoding unit 100 and the decoding unit 200 may be provided in either the video camera 10 or the playback device 20 as described later, but in the following description, the video camera 10 is
In the following description, the playback device 20 includes the decoding unit 200.

【0019】図3は動画像をリアルタイムにて補正しつ
つ符号化を行う符号化ユニット100の構成を示すブロ
ック図である。以下、符号化ユニット100の各構成に
ついて説明する。
FIG. 3 is a block diagram showing a configuration of an encoding unit 100 that performs encoding while correcting a moving image in real time. Hereinafter, each configuration of the encoding unit 100 will be described.

【0020】分割部101は、入力画像データ81とし
て入力される動画像の各フレームの画像を複数の部分画
像(以下、「ブロック」という。)に分割する。例え
ば、ラスタスキャンの画像を8×8画素のブロックを単
位とするブロックスキャンの画像へと変換する。
The division unit 101 divides an image of each frame of a moving image input as input image data 81 into a plurality of partial images (hereinafter, referred to as “blocks”). For example, a raster scan image is converted into a block scan image in units of 8 × 8 pixel blocks.

【0021】分割部101にて生成されたブロックは順
次、補正部121に入力されて補正され、減算部102
に入力される。
The blocks generated by the division unit 101 are sequentially input to the correction unit 121 and corrected, and the subtraction unit 102
Is input to

【0022】減算部102は、補正部121からの補正
後のブロックと、後述する動き補償部116からの予測
画像のブロック(以下、「予測ブロック」という。)と
の差分画像(以下、「差分ブロック」という。)を求め
る。
The subtraction unit 102 generates a difference image (hereinafter, referred to as a “difference block”) between a block after correction from the correction unit 121 and a block of a prediction image (hereinafter, referred to as a “prediction block”) from the motion compensation unit 116 described later. Block ").

【0023】減算部102から出力される差分ブロック
は、DCT部103へと入力される。DCT部103
は、差分ブロックに対してDCT(離散コサイン変換)
を行い、時間軸領域の信号を周波数領域のDCT係数へ
と変換する。
The difference block output from the subtraction unit 102 is input to the DCT unit 103. DCT section 103
Is the DCT (Discrete Cosine Transform) for the difference block
To convert the signal in the time domain into DCT coefficients in the frequency domain.

【0024】量子化部104は、DCT部103からの
DCT係数を量子化し、符号化部105は、量子化され
たDCT係数を可変長符号化し、符号化データ82とし
て順次出力する。
The quantizing section 104 quantizes the DCT coefficients from the DCT section 103, and the encoding section 105 performs variable length encoding on the quantized DCT coefficients and sequentially outputs them as encoded data 82.

【0025】また、量子化部104からのDCT係数は
逆量子化部111にも入力され、逆量子化部111は、
DCT係数の復元を行う。逆DCT部112は、DCT
係数から差分ブロックを生成する。
The DCT coefficient from the quantization unit 104 is also input to the inverse quantization unit 111, and the inverse quantization unit 111
The DCT coefficient is restored. The inverse DCT unit 112
Generate a difference block from the coefficients.

【0026】加算部113には、復元された差分ブロッ
クおよび動き補償部116からの予測ブロックが入力さ
れ、加算部113はこれらのブロックを加算する。これ
により、補正部121による補正が反映された画像のブ
ロック(すなわち、復号化されたデータ)が生成され
る。その後、生成された画像のブロックはフレームメモ
リ114に記憶される。
The restored difference block and the prediction block from the motion compensator 116 are input to the adder 113, and the adder 113 adds these blocks. Thereby, a block of the image (that is, decoded data) on which the correction by the correction unit 121 is reflected is generated. Thereafter, the blocks of the generated image are stored in the frame memory 114.

【0027】フレームメモリ114は、1フレーム分の
遅延部としての機能を果たし、補正後の現フレームの画
像のブロックを順次記憶しつつ補正後の前フレームの画
像のブロックを順次出力する。
The frame memory 114 functions as a delay unit for one frame, and sequentially outputs the corrected previous frame image blocks while sequentially storing the corrected current frame image blocks.

【0028】動きベクトル検出部115には、分割部1
01からの現フレームの画像のブロックとフレームメモ
リ114からの前フレームの補正後の画像のブロックが
入力される。動きベクトル検出部115は、これらのブ
ロックから被写体の動きを示す動きベクトル84を検出
する。図2では図示を省略しているが、動きベクトル8
4(のデータ)は符号化データ82とともに記録媒体9
1を介して復号化ユニット200へと転送される。
The motion vector detecting unit 115 includes the dividing unit 1
The block of the image of the current frame from 01 and the block of the image after the correction of the previous frame from the frame memory 114 are input. The motion vector detection unit 115 detects a motion vector 84 indicating the motion of the subject from these blocks. Although not shown in FIG. 2, the motion vector 8
4 (data) together with the encoded data 82
1 to the decoding unit 200.

【0029】動き補償部116は、動きベクトル検出部
115からの動きベクトル84、および、フレームメモ
リ114からの前フレームの補正後の画像のブロックを
用いて現フレームの画像のブロックを予測する。これに
より、動き補償部116では予測ブロックが生成され
る。そして、予測ブロックは、減算部102、加算部1
13およびシーン判定部122に入力される。
The motion compensating unit 116 predicts the current frame image block using the motion vector 84 from the motion vector detecting unit 115 and the image block after correction of the previous frame from the frame memory 114. Accordingly, the motion compensation unit 116 generates a prediction block. Then, the prediction block includes the subtraction unit 102 and the addition unit 1
13 and the scene determination unit 122.

【0030】以上に説明した構成は、通常の動画像圧縮
における構成とほぼ同様である。次に、符号化ユニット
100における動画像補正に係る構成である補正部12
1、シーン判定部122、補正データ生成部123およ
びシーンチェンジ検出部124について説明する。
The configuration described above is almost the same as the configuration in normal moving picture compression. Next, the correction unit 12 which is a configuration related to the moving image correction in the encoding unit 100
1. The scene determination unit 122, the correction data generation unit 123, and the scene change detection unit 124 will be described.

【0031】補正部121は、分割部101から入力さ
れるブロックに対して、予め決定されている補正方法に
従って補正を行う。補正内容は、どのようなものであっ
てもよいが、本実施の形態では、コントラストおよび明
度(すなわち、画素の階調)の補正を行うものとして説
明を行う。
The correction unit 121 corrects the block input from the division unit 101 according to a predetermined correction method. The content of correction may be any, but in the present embodiment, the description will be made assuming that correction of contrast and lightness (that is, gradation of pixels) is performed.

【0032】シーン判定部122は、動き補償部116
からの現フレームの予測画像(1フレーム分の予測ブロ
ック群)に基づいて、撮影された画像の特徴を示すシー
ン情報を生成する。また、シーン情報に基づいて補正の
基準となる補正パラメータを補正データ生成部123に
向けて出力する。
The scene determining section 122 includes a motion compensating section 116
Based on the predicted image of the current frame (a group of predicted blocks for one frame), scene information indicating the characteristics of the captured image is generated. Further, a correction parameter serving as a reference for correction is output to the correction data generation unit 123 based on the scene information.

【0033】補正データ生成部123は、補正パラメー
タに従って補正の特性を示す補正テーブルを決定し、補
正テーブルを補正部121に向けて出力する。そして、
補正部121では、補正テーブルを参照しながら入力さ
れたブロックの画素値変換が行われる。
The correction data generation unit 123 determines a correction table indicating the characteristics of the correction in accordance with the correction parameters, and outputs the correction table to the correction unit 121. And
The correction unit 121 performs pixel value conversion of the input block while referring to the correction table.

【0034】シーンチェンジ検出部124は、減算部1
02から差分ブロックが入力され、1フレーム分の差分
画像(すなわち、1フレーム分の差分ブロック群)に基
づいて動画像におけるシーンチェンジを検出する。そし
て、シーンチェンジが検出された場合、シーンチェンジ
を示すシーンチェンジ情報をシーン判定部122に入力
する。
The scene change detecting section 124 includes the subtracting section 1
02, a difference block is input, and a scene change in a moving image is detected based on a difference image for one frame (that is, a group of difference blocks for one frame). When a scene change is detected, scene change information indicating the scene change is input to the scene determination unit 122.

【0035】シーンチェンジ情報がシーン判定部122
に入力されると、既述のように、シーン判定部122は
予測画像に対するシーン判定を行い、補正パラメータが
補正データ生成部123に入力され、補正データ生成部
123から補正テーブルが補正部121に入力される。
The scene change information is transmitted to the scene determination unit 122
As described above, the scene determination unit 122 performs a scene determination on the predicted image, the correction parameters are input to the correction data generation unit 123, and the correction table is transmitted from the correction data generation unit 123 to the correction unit 121. Is entered.

【0036】すなわち、符号化ユニット100では、動
画像においてシーンチェンジが行われるごとに補正方法
を決定し、次のシーンチェンジまでこの補正方法にて動
画像の補正が行われる。その結果、各フレームの画像に
対して固有の補正を行う場合に比べて、補正に要する演
算量の削減を図ることができる。なお、補正に係る処理
の詳細については後述する。
That is, the encoding unit 100 determines a correction method each time a scene change is performed in a moving image, and corrects the moving image by this correction method until the next scene change. As a result, the amount of calculation required for the correction can be reduced as compared with the case where the unique correction is performed on the image of each frame. The details of the processing related to the correction will be described later.

【0037】以上に説明したように、符号化ユニット1
00はMPEG等の動画像符号化方法と同様に、ブロッ
クごとの動きベクトルを検出し、動き補償をした隣接フ
レームとの差分ブロックを求めた上でハフマン符号化等
の可変長符号化を行うようになっている。そして、符号
化ユニット100では、1フレーム分の差分画像に基づ
いてシーンチェンジが検出され、補正方法が決定され
る。
As described above, the encoding unit 1
00 is similar to a moving picture coding method such as MPEG, in which a motion vector for each block is detected, a difference block from a motion-compensated adjacent frame is obtained, and then variable-length coding such as Huffman coding is performed. It has become. Then, the encoding unit 100 detects a scene change based on the difference image for one frame, and determines a correction method.

【0038】一般に、動画像における隣接フレーム同士
はシーンチェンジが行われない限り相関性が高く、シー
ンチェンジが行われない間は、同一の補正方法を用いて
補正を行っても適切な補正が実現される。そこで、符号
化ユニット100では、シーンチェンジ後のフレームの
画像を詳細に解析して適切な補正方法を導出し、この補
正方法を次のシーンチェンジまで利用することにより、
高度な補正を少ない演算量にて行うことを実現してい
る。
Generally, adjacent frames in a moving image have a high correlation unless a scene change is made, and appropriate correction can be realized even if correction is performed using the same correction method as long as no scene change is made. Is done. Therefore, the encoding unit 100 analyzes the image of the frame after the scene change in detail, derives an appropriate correction method, and uses this correction method until the next scene change.
Advanced correction can be performed with a small amount of calculation.

【0039】図4は、符号化データ82を復号化し、出
力画像データ83を生成する復号化ユニット200の構
成を示すブロック図である。復号化ユニット200は、
通常の復号化装置と同様の構成となっている。
FIG. 4 is a block diagram showing the configuration of a decoding unit 200 for decoding the encoded data 82 and generating the output image data 83. The decoding unit 200
It has the same configuration as a normal decoding device.

【0040】復号化部201は、入力される符号化デー
タ82を可変長復号化し、量子化されたDCT係数を求
める。逆量子化部202は、量子化されたDCT係数か
ら元のDCT係数を求める。そして、逆DCT部203
により、DCT係数から差分ブロックが取得される。
The decoding section 201 performs variable-length decoding on the input coded data 82 to obtain quantized DCT coefficients. The inverse quantization unit 202 obtains an original DCT coefficient from the quantized DCT coefficient. And the inverse DCT section 203
As a result, a difference block is obtained from the DCT coefficients.

【0041】加算部204は、差分ブロックおよび動き
補償部207からの現フレームの予測ブロックが入力さ
れ、これらのブロックを加算することにより現フレーム
の画像のブロックを生成する。
The addition unit 204 receives the difference block and the prediction block of the current frame from the motion compensation unit 207, and adds these blocks to generate an image block of the current frame.

【0042】生成されたブロックは順次合成部205に
入力されて合成され、ブロック単位のブロックスキャン
の画像がラスタスキャンの補正済み画像へと変換され
る。そして、生成された補正済みの画像が出力画像デー
タ83として出力される。
The generated blocks are sequentially input to the synthesizing unit 205 and synthesized, and the block scan image in block units is converted into a raster scan corrected image. Then, the generated corrected image is output as output image data 83.

【0043】一方、加算部204により生成されたブロ
ックはフレームメモリ206にも記憶され、次のフレー
ムの画像を生成する際に動き補償部207にて予測ブロ
ックを生成するために利用される。なお、既述のように
符号化データ82とともに動きベクトル84が復号化ユ
ニット200に入力され、動き補償部207において動
き補償を行う際に利用される。
On the other hand, the block generated by the adder 204 is also stored in the frame memory 206, and is used by the motion compensator 207 to generate a prediction block when generating the image of the next frame. As described above, the motion vector 84 is input to the decoding unit 200 together with the encoded data 82, and is used when the motion compensation unit 207 performs motion compensation.

【0044】次に、符号化ユニット100における補正
部121、シーン判定部122、補正データ生成部12
3およびシーンチェンジ検出部124の動作の詳細につ
いて説明する。図5は、符号化ユニット100における
補正に係る処理の流れを示す流れ図である。
Next, the correction unit 121, the scene determination unit 122, and the correction data generation unit 12 in the encoding unit 100
3 and details of the operation of the scene change detection unit 124 will be described. FIG. 5 is a flowchart showing the flow of processing related to correction in the encoding unit 100.

【0045】まず、シーンチェンジ検出部124にて動
画像におけるシーンチェンジの検出が行われる(ステッ
プS11)。シーンチェンジは動画像における画像の大
幅な変化として捉えることができ、シーンチェンジ検出
部124では1フレーム分の差分画像における画素値の
総和が求められる。具体的には、順次入力される差分ブ
ロックに対して画素値の総和を求め、総和を順次加算す
ることにより1フレーム分の差分画像における画素値の
総和が求められる。
First, the scene change detection section 124 detects a scene change in a moving image (step S11). The scene change can be regarded as a large change in the image in the moving image, and the scene change detection unit 124 calculates the sum of the pixel values in the difference image for one frame. Specifically, the sum of the pixel values is calculated for the sequentially input difference blocks, and the sum is sequentially added to obtain the sum of the pixel values in the difference image for one frame.

【0046】差分画像における画素値の総和は、前フレ
ームの画像と現フレームの画像との相違の程度を示す指
標値であり、差分画像の画素値の総和が所定のしきい値
を超える場合にはシーンチェンジが行われたものとみな
され、シーンチェンジ情報がシーン判定部122へと送
出される。
The sum of the pixel values in the difference image is an index value indicating the degree of difference between the image of the previous frame and the image of the current frame. When the sum of the pixel values of the difference image exceeds a predetermined threshold value, Is regarded as having undergone a scene change, and the scene change information is sent to the scene determination unit 122.

【0047】シーンチェンジが検出された場合、シーン
判定部122にてシーンチェンジ検出後の最初の予測画
像(1フレーム分の予測ブロック群)の画素値のヒスト
グラム(明度ヒストグラム)が求められる(ステップS
12)。なお、画素値に対する処理は、正確には画素値
から導かれる値(本実施の形態では階調)に対して行わ
れるが、以下の説明では単に画素値に対する処理として
説明する。
If a scene change is detected, the scene determination unit 122 obtains a histogram (brightness histogram) of pixel values of the first predicted image (a group of predicted blocks for one frame) after the scene change is detected (step S).
12). Note that the processing on the pixel value is accurately performed on a value derived from the pixel value (gradation in the present embodiment), but in the following description, the processing will be simply described on the pixel value.

【0048】図6は明度ヒストグラム7を例示する図で
ある。明度ヒストグラム7は符号71〜76にて示すよ
うに複数の範囲で分割され、複数の領域における画素値
の頻度の総和や分散値等の組み合わせに基づいて詳細な
シーン判定が行われる(ステップS13)。
FIG. 6 is a view showing an example of the brightness histogram 7. The brightness histogram 7 is divided into a plurality of ranges as indicated by reference numerals 71 to 76, and a detailed scene determination is performed based on a combination of a sum of variances of pixel values in a plurality of regions, a variance, and the like (step S13). .

【0049】シーン判定とは、画像の状態を判定する処
理であり、具体的には、画像の状態が通常の状態(ノー
マル)、コントラストが強すぎる状態(ハイコントラス
ト)、コントラストが弱い状態(ローコントラスト)、
逆光の状態、明るすぎる状態(オーバー)、暗すぎる状
態(アンダー)であるか否かを判定する処理である。
The scene determination is a process of determining the state of the image. Specifically, the state of the image is a normal state (normal), a state where the contrast is too strong (high contrast), and a state where the contrast is low (low contrast). contrast),
This is a process for determining whether or not a backlight state, a too bright state (over), or a too dark state (under).

【0050】シーン判定が完了すると、シーン判定部1
22ではシーン判定の結果に応じて補正に必要なパラメ
ータを取得する。図7はシーン判定部122および補正
データ生成部123に対する各種情報の受け渡しを示す
ブロック図である。シーン判定部122ではパラメータ
テーブル852が予め所定のメモリに記憶されており、
予測画像である予測画像データ851から導かれるシー
ン判定の結果とパラメータテーブル852とを照らし合
わせることにより補正に必要な補正パラメータを取得す
る。
When the scene judgment is completed, the scene judgment unit 1
At 22, the parameters necessary for the correction are acquired according to the result of the scene determination. FIG. 7 is a block diagram showing the transfer of various types of information to the scene determination unit 122 and the correction data generation unit 123. In the scene determination unit 122, the parameter table 852 is stored in a predetermined memory in advance.
By comparing the result of the scene determination derived from the predicted image data 851 that is the predicted image with the parameter table 852, a correction parameter required for correction is obtained.

【0051】パラメータテーブル852は表1にて例示
するように、各種シーン判定の結果と補正に必要なパラ
メータとの対応関係を示すテーブルなっている。そし
て、シーン判定部122から補正データ生成部123へ
とコントラストの補正レベルおよび明るさの補正レベル
が補正パラメータとして入力される(ステップS1
4)。
As exemplified in Table 1, the parameter table 852 is a table showing the correspondence between the results of various scene determinations and the parameters required for correction. Then, the contrast correction level and the brightness correction level are input as correction parameters from the scene determination unit 122 to the correction data generation unit 123 (step S1).
4).

【0052】[0052]

【表1】 [Table 1]

【0053】なお、パラメータテーブル852は、操作
者に情報を表示する表示部152や操作者の入力を受け
付ける操作部153を介して操作者により予め設定され
る。図8はパラメータテーブル852を設定する際の表
示画面を示す図である。すなわち、例えば、図1に示す
ビデオカメラ10のディスプレイである表示部152に
図8に例示する画面を表示し、図8中、符号852aに
て示すように設定対象となるパラメータを強調表示し、
表示内容に従って操作ボタン等の操作部153を操作す
ることによりパラメータ設定部151を介してパラメー
タテーブル852の内容が調整される。これにより、使
用者が各シーンの特性ごとに好みの補正方法を設定する
ことが可能とされ、動画像の補正の質の向上が図られ
る。
The parameter table 852 is set in advance by the operator via the display unit 152 for displaying information to the operator and the operation unit 153 for receiving input from the operator. FIG. 8 is a diagram showing a display screen when the parameter table 852 is set. That is, for example, the screen illustrated in FIG. 8 is displayed on the display unit 152 that is the display of the video camera 10 illustrated in FIG. 1, and the parameters to be set are highlighted in FIG.
By operating the operation unit 153 such as operation buttons according to the displayed contents, the contents of the parameter table 852 are adjusted via the parameter setting unit 151. This allows the user to set a preferred correction method for each scene characteristic, thereby improving the quality of moving image correction.

【0054】補正パラメータを取得した補正データ生成
部123では、図7に示すように、予めメモリ154に
記憶されている複数の代表的な補正テーブル853から
補正パラメータに適合する補正テーブルを選択する(ス
テップS15)。なお、補正テーブルを複数準備するこ
とにより、補正テーブルの決定に要する演算量の削減が
図られる。
As shown in FIG. 7, the correction data generator 123 that has obtained the correction parameters selects a correction table that matches the correction parameters from a plurality of representative correction tables 853 stored in the memory 154 in advance (see FIG. 7). Step S15). By preparing a plurality of correction tables, the amount of calculation required for determining the correction table can be reduced.

【0055】図9は補正テーブルの特性を例示する図で
ある。横軸が補正前の画素値に対応し、縦軸が補正後の
画素値に対応する。図9において、およそ上に凸となっ
ている曲線853aは補正により画像を明るくする場合
(すなわち、判定結果が「アンダー」の場合)に選択さ
れる補正テーブルを示しており、直線853bは実質的
に補正を行わない場合(すなわち、判定結果が「ノーマ
ル」の場合)に選択される補正テーブルを示す。およそ
下に凸となる曲線853cは補正により画像を暗くする
場合(すなわち、判定結果が「オーバー」の場合)に選
択される補正テーブルを示す。図示を省略しているが、
コントラストを強調する場合には中央部の最大傾斜が大
きい曲線が選択され、コントラストを弱める場合には中
央部の傾斜がゆるい曲線が選択される。
FIG. 9 is a diagram illustrating characteristics of the correction table. The horizontal axis corresponds to the pixel value before correction, and the vertical axis corresponds to the pixel value after correction. In FIG. 9, a curve 853 a that is approximately convex upward indicates a correction table that is selected when the image is brightened by correction (that is, when the determination result is “under”), and a straight line 853 b is substantially a line. 9 shows a correction table selected when no correction is performed (that is, when the determination result is “normal”). A curve 853c that is approximately convex downward indicates a correction table selected when the image is darkened by correction (that is, when the determination result is “over”). Although illustration is omitted,
When enhancing the contrast, a curve with a large maximum slope at the center is selected, and when weakening the contrast, a curve with a gentle slope at the center is selected.

【0056】選択された補正テーブル854は補正部1
21へと入力され、補正部121では補正テーブルに従
って入力される画像の画素値変換をブロックごとに行う
(ステップS16)。
The selected correction table 854 is stored in the correction unit 1
Then, the correction unit 121 performs pixel value conversion of the image input according to the correction table for each block (step S16).

【0057】以上の処理により、シーンチェンジ検出部
124において次のシーンチェンジが検出されるまでの
補正方法が補正データ生成部123において決定され、
補正部121は次のシーンチェンジが検出されるまで、
補正データ生成部123において決定された補正テーブ
ルに従って、すなわち、一定の補正方法にて動画像の補
正を行う。その結果、フレームの画像ごとに補正方法を
更新することなく適切な補正を行うことができ、少ない
演算量にて適切な動画像補正が実現される。
By the above processing, the correction method until the next scene change is detected by the scene change detection unit 124 is determined by the correction data generation unit 123.
The correction unit 121 operates until the next scene change is detected.
The moving image is corrected according to the correction table determined by the correction data generation unit 123, that is, by a certain correction method. As a result, appropriate correction can be performed without updating the correction method for each frame image, and appropriate moving image correction can be realized with a small amount of calculation.

【0058】また、演算量の削減により、動画像の符号
化に際してリアルタイムに補正を行うことも実現され
る。
Further, by reducing the amount of calculation, it is also possible to perform correction in real time when encoding a moving image.

【0059】また、図3に示す符号化ユニット100で
は、符号化の際の差分画像をシーンチェンジの検出に利
用しているため、シーンチェンジを検出するために差分
画像を生成する専用の構成を別途設ける必要がない。す
なわち、符号化ユニット100において新たなフレーム
メモリを追加することなく、シーンチェンジの検出が実
現される。さらに、シーン判定に際して補正の対象とな
る画像ではなく予測画像が利用されるため、補正の対象
となる画像を別途記憶しておくフレームメモリも不要と
されている。これにより、符号化ユニット100の低価
格化が実現される。
The encoding unit 100 shown in FIG. 3 uses a differential image at the time of encoding for detecting a scene change. Therefore, a special configuration for generating a differential image for detecting a scene change is provided. There is no need to provide it separately. That is, scene change detection is realized without adding a new frame memory in the encoding unit 100. Furthermore, since a predicted image is used instead of an image to be corrected when determining a scene, a frame memory for separately storing an image to be corrected is not required. As a result, the price of the encoding unit 100 can be reduced.

【0060】なお、以上の処理では、シーンチェンジが
検出された後に補正部121に入力される画像(のブロ
ック)は2フレーム目の画像となることから、シーンチ
ェンジ後の新たな補正方法は2フレーム目から適用され
る。動画像を表示する際には各フレームの画像が短時間
表示されるにすぎないことから、1フレーム目だけ適切
な補正が行われない場合であっても動画像全体としては
適切な補正が行われることとなる。
In the above processing, the image (block) input to the correction unit 121 after the detection of a scene change is the image of the second frame. Applied from the first frame. When displaying a moving image, the image of each frame is displayed only for a short period of time. Therefore, even if appropriate correction is not performed only for the first frame, appropriate correction is performed for the entire moving image. Will be done.

【0061】シーンチェンジ後の1フレーム目から適切
な補正を行う必要がある場合には、補正部121よりも
上流にフレームメモリが別途設けられる。そして、前フ
レームの画像と現フレームの画像との差分画像を補正前
に求め、差分画像に基づいてシーンチェンジの検出を行
うことにより1フレーム目から適切な補正が実現され
る。また、この場合、予測画像ではなくシーンチェンジ
後の1フレーム目の画像をシーン判定部122に入力し
てシーン判定を行うことも可能となる。
If it is necessary to perform appropriate correction from the first frame after the scene change, a frame memory is separately provided upstream of the correction unit 121. Then, a difference image between the image of the previous frame and the image of the current frame is obtained before the correction, and a scene change is detected based on the difference image, whereby appropriate correction is realized from the first frame. In this case, it is also possible to input the image of the first frame after the scene change, instead of the predicted image, to the scene determination unit 122 to perform the scene determination.

【0062】<2. 第2の実施の形態>第1の実施の
形態では符号化ユニット100にて動画像の補正を行う
ようにしているが、動画像の補正は復号化ユニット20
0においても行うことができる。
<2. Second Embodiment> In the first embodiment, the moving image is corrected by the encoding unit 100. However, the moving image is corrected by the decoding unit 20.
0 can also be performed.

【0063】図10および図11はそれぞれ第2の実施
の形態に係る符号化ユニット100および復号化ユニッ
ト200の構成を示すブロック図であり、符号化ユニッ
ト100ではシーンチェンジに呼応した補正パラメータ
の生成を行い、復号化ユニット200では補正パラメー
タに基づく補正がリアルタイムにて行われる。
FIGS. 10 and 11 are block diagrams showing the configurations of an encoding unit 100 and a decoding unit 200 according to the second embodiment, respectively. The encoding unit 100 generates correction parameters corresponding to a scene change. And the decoding unit 200 performs the correction based on the correction parameter in real time.

【0064】符号化ユニット100は、第1の実施の形
態における符号化ユニットから、補正部121および補
正データ生成部123を省いた構成となっており、シー
ン判定部122にて求められた補正パラメータ85は、
符号化データ82や動きベクトル84とともに記録媒体
91を介して復号化ユニット200へと渡される。
The coding unit 100 has a configuration in which the correction unit 121 and the correction data generation unit 123 are omitted from the coding unit in the first embodiment, and the correction parameters obtained by the scene determination unit 122 are used. 85 is
The encoded data 82 and the motion vector 84 are passed to the decoding unit 200 via the recording medium 91.

【0065】復号化ユニット200は、第1の実施の形
態における復号化ユニットの加算部204と合成部20
5との間に補正部211を設け、補正部211には補正
データ生成部213が接続される。そして、補正部21
1と補正データ生成部213とは第1の実施の形態にお
ける対応する構成と同様の処理を行う。すなわち、符号
化ユニット100からの補正パラメータ85が補正デー
タ生成部213に入力され、補正データ生成部213で
は補正テーブルの選択が行われる。選択された補正テー
ブルは補正部211に入力され、補正部211は復号化
により生成されたブロックに対して補正テーブルを参照
しながら画素値の変換を行う。
The decoding unit 200 includes the adding unit 204 and the combining unit 20 of the decoding unit according to the first embodiment.
5, a correction unit 211 is provided, and a correction data generation unit 213 is connected to the correction unit 211. Then, the correction unit 21
1 and the correction data generation unit 213 perform the same processing as the corresponding configuration in the first embodiment. That is, the correction parameter 85 from the encoding unit 100 is input to the correction data generator 213, and the correction data generator 213 selects a correction table. The selected correction table is input to the correction unit 211, and the correction unit 211 converts the pixel value of the block generated by decoding with reference to the correction table.

【0066】なお、補正パラメータ85は符号化データ
82の入力に同期しつつシーンチェンジに合わせて入力
され、補正部211における補正方法の変更は動画像の
シーンチェンジに応じて行われる。
The correction parameter 85 is input in synchronization with the input of the encoded data 82 in accordance with a scene change, and the correction method in the correction unit 211 is changed according to the scene change of the moving image.

【0067】以上のように、動画像に対する補正の判定
を符号化ユニット100にて行い、補正を復号化ユニッ
ト200にて行うことも可能である。この場合であって
も、動画像におけるシーンチェンジに応じて補正方法を
変更することが可能であり、動画像の補正に要する演算
量の削減を図ることができる。
As described above, it is also possible for the coding unit 100 to make a decision on the correction for a moving image and to make a correction in the decoding unit 200. Even in this case, the correction method can be changed according to a scene change in the moving image, and the amount of calculation required for correcting the moving image can be reduced.

【0068】また、演算量の削減により、動画像の復号
化に際してリアルタイムに補正を行うことが実現され
る。その結果、装置の低価格化および小型化も実現され
る。
Further, by reducing the amount of calculation, it is possible to perform correction in real time when decoding a moving image. As a result, the price and size of the device can be reduced.

【0069】また、第2の実施の形態では、補正パラメ
ータ85を符号化データ82とともに復号化ユニット2
00へと転送し、復号化時に補正を行うことから、復号
化の際に必要に応じて補正を行うか否かを選択すること
が容易に実現される。
Further, in the second embodiment, the correction parameter 85 and the encoded data
Since the data is transferred to 00 and the correction is performed at the time of decoding, it is easy to select whether or not to perform the correction as needed at the time of decoding.

【0070】さらに、第1の実施の形態では2フレーム
目の画像から新たな補正方法が適用されるようになって
いるが、第2の実施の形態では、補正パラメータ85の
入力をシーンチェンジに合わせて行うことにより、シー
ンチェンジ後の1フレーム目から新たな補正方法を適用
することが容易に実現される。
Further, in the first embodiment, a new correction method is applied from the image of the second frame, but in the second embodiment, the input of the correction parameter 85 is changed to a scene change. By performing it together, it is easy to apply a new correction method from the first frame after the scene change.

【0071】<3. 第3の実施の形態>次に、補正に
係る全ての処理を復号化ユニット200において行う形
態について説明する。図12および図13はそれぞれ補
正に係る処理を全て復号化ユニットにて行う場合の符号
化ユニット100および復号化ユニット200の構成を
示すブロック図である。
<3. Third Embodiment> Next, an embodiment in which all the processing related to the correction is performed in the decoding unit 200 will be described. FIG. 12 and FIG. 13 are block diagrams showing the configurations of the encoding unit 100 and the decoding unit 200 in the case where all the processing relating to the correction is performed by the decoding unit.

【0072】符号化ユニット100は、第2の実施の形
態における符号化ユニットから、シーン判定部122お
よびシーンチェンジ検出部124をさらに省いた構成と
なっており、動画像の符号化のみを行う。
The encoding unit 100 has a configuration in which the scene determination unit 122 and the scene change detection unit 124 are further omitted from the encoding unit in the second embodiment, and performs only encoding of a moving image.

【0073】復号化ユニット200は、第2の実施の形
態における復号化ユニットに対して、シーン判定部21
2およびシーンチェンジ検出部214をさらに追加した
構成となっており、符号化データ82の復号化とともに
リアルタイムにて動画像の補正を行う。すなわち、シー
ンチェンジ検出部214が、逆DCT部203から出力
される差分画像(1フレーム分の差分ブロック群)に基
づいてシーンチェンジの検出を行い、検出結果がシーン
判定部212に入力される。シーン判定部212では、
動き補償部207からの予測画像(1フレーム分の予測
ブロック群)に基づいてシーン判定を行い、判定結果に
基づいてパラメータテーブルを参照し、補正パラメータ
を求める。
The decoding unit 200 is different from the decoding unit in the second embodiment in that
2 and a scene change detection unit 214 are further added, and corrects a moving image in real time while decoding the encoded data 82. That is, the scene change detection unit 214 detects a scene change based on the difference image (a group of difference blocks for one frame) output from the inverse DCT unit 203, and the detection result is input to the scene determination unit 212. In the scene determination unit 212,
Scene determination is performed based on a predicted image (a predicted block group for one frame) from the motion compensation unit 207, and a correction parameter is obtained by referring to a parameter table based on the determination result.

【0074】その後、補正パラメータを用いて補正デー
タ生成部213が複数の補正テーブルから最も補正に適
した補正テーブルを選択し、選択された補正テーブルを
用いて補正部211によるブロックの補正が行われる。
これにより、合成部205から補正後の動画像が出力画
像データ83として出力される。
Thereafter, the correction data generation unit 213 selects a correction table most suitable for correction from the plurality of correction tables using the correction parameters, and performs block correction by the correction unit 211 using the selected correction table. .
As a result, the corrected moving image is output from the synthesizing unit 205 as the output image data 83.

【0075】以上のように、動画像に対する補正に係る
処理の全てを復号化ユニット200にて行うことも可能
である。この場合であっても、動画像におけるシーンチ
ェンジに応じて補正方法を変更することが可能であり、
動画像の補正に要する演算量の削減を図ることができ
る。
As described above, it is also possible for the decoding unit 200 to perform all of the processing relating to the correction of a moving image. Even in this case, it is possible to change the correction method according to the scene change in the moving image,
The amount of calculation required for correcting a moving image can be reduced.

【0076】また、演算量の削減により、動画像の復号
化に際してリアルタイムに補正を行うことが実現され
る。
Further, by reducing the amount of calculation, it is possible to perform correction in real time when decoding a moving image.

【0077】また、図13に示す復号化ユニット200
では、復号化の際の差分画像をシーンチェンジの検出に
利用することにより、復号化ユニット200における新
たな補正用のフレームメモリの追加を省き、復号化ユニ
ット200の低価格化を実現している。
The decoding unit 200 shown in FIG.
By using the differential image at the time of decoding for detecting a scene change, the addition of a new correction frame memory in the decoding unit 200 is omitted, and the price of the decoding unit 200 is reduced. .

【0078】なお、第3の実施の形態においてもシーン
チェンジ後の2フレーム目から新たな補正方法が適用さ
れるが、動画像全体においては問題とはならない。
In the third embodiment, a new correction method is applied from the second frame after the scene change, but this does not cause a problem in the whole moving image.

【0079】<4. 第4の実施の形態>第1ないし第
3の実施の形態にて説明した符号化ユニット100およ
び/または復号化ユニット200は、コンピュータを用
いてソフトウェア的に実現することも可能である。図1
4はビデオカメラ10とコンピュータ40とを接続し、
動画像の補正をコンピュータ40にて実行するシステム
を示す図である。
<4. Fourth Embodiment> The encoding unit 100 and / or the decoding unit 200 described in the first to third embodiments can be realized by software using a computer. FIG.
4 connects the video camera 10 and the computer 40,
FIG. 2 is a diagram showing a system in which a computer 40 executes moving image correction.

【0080】コンピュータ40は、図15に示すよう
に、各種演算処理を行うCPU401、基本プログラム
を記憶するROM402および各種情報を記憶するRA
M403をバスラインに接続した一般的なコンピュータ
システムの構成となっている。バスラインにはさらに、
大容量の情報記憶を行う固定ディスク404、画像の表
示を行うディスプレイ405、操作者からの入力を受け
付けるキーボード406aおよびマウス406b、光デ
ィスク、磁気ディスク、光磁気ディスク等の記録媒体9
2から情報の読み取りを行う読取装置407、並びに、
ビデオカメラ10からの信号を取り込む通信部408
が、適宜、インターフェイス(I/F)を介する等して
接続される。
As shown in FIG. 15, the computer 40 includes a CPU 401 for performing various arithmetic processing, a ROM 402 for storing a basic program, and an RA for storing various information.
This is a general computer system configuration in which M403 is connected to a bus line. In addition to the bus line,
A fixed disk 404 for storing a large amount of information, a display 405 for displaying images, a keyboard 406a and a mouse 406b for receiving input from an operator, and recording media 9 such as an optical disk, a magnetic disk, and a magneto-optical disk.
A reading device 407 for reading information from 2, and
Communication unit 408 for receiving a signal from video camera 10
Are appropriately connected via an interface (I / F) or the like.

【0081】コンピュータ40により動画像の処理が実
行される際には、事前に、読取装置407を介して記録
媒体92から動画像処理用のプログラム441が読み出
され、固定ディスク404に記憶される。そして、プロ
グラム441がRAM403にコピーされるとともにC
PU401がRAM403内のプログラム441に従っ
て演算処理を実行することにより動画像処理が実現され
る。このとき、ディスプレイ405には必要に応じて各
種情報や動画像が表示される。なお、キーボード406
aやマウス406bはパラメータテーブルの設定に利用
される。
When the moving image processing is executed by the computer 40, the moving image processing program 441 is read from the recording medium 92 via the reading device 407 in advance and stored in the fixed disk 404. . Then, the program 441 is copied to the RAM 403 and C
The moving image processing is realized by the PU 401 executing arithmetic processing according to the program 441 in the RAM 403. At this time, various information and moving images are displayed on the display 405 as necessary. Note that the keyboard 406
a and the mouse 406b are used for setting the parameter table.

【0082】コンピュータ40を第1の実施の形態に係
る符号化ユニット100および復号化ユニット200と
して利用する場合、ビデオカメラ10からの画像信号が
通信部408を介してデジタルデータとして入力され、
コンピュータ40内のCPU401等が図3に示す各種
構成と同様の処理を行うことにより、固定ディスク40
4に補正済みの符号化データ82(および動きベクトル
84)が記憶される。動画像を再生する際には、CPU
401等が図4に示す各種構成と同様の処理を行うこと
によりディスプレイ405に動画像が表示される。
When the computer 40 is used as the encoding unit 100 and the decoding unit 200 according to the first embodiment, an image signal from the video camera 10 is input as digital data via the communication unit 408,
The CPU 401 or the like in the computer 40 performs the same processing as the various configurations shown in FIG.
4 stores the corrected encoded data 82 (and the motion vector 84). When reproducing a moving image, the CPU
The moving image is displayed on the display 405 by performing processing similar to the various configurations illustrated in FIG.

【0083】CPU401等の性能により、リアルタイ
ムにて符号化処理ができない場合には、一旦、動画像の
データを固定ディスク404に格納し、その後、符号化
データ82の生成が行われる。
If the encoding process cannot be performed in real time due to the performance of the CPU 401 or the like, the moving image data is temporarily stored on the fixed disk 404, and then the encoded data 82 is generated.

【0084】第2および第3の実施の形態をコンピュー
タ40にて実現する場合も同様に、コンピュータ40を
図10ないし図13に示す符号化ユニット100および
復号化ユニット200として機能させる。
Similarly, when the second and third embodiments are implemented by a computer 40, the computer 40 is caused to function as the encoding unit 100 and the decoding unit 200 shown in FIGS.

【0085】なお、コンピュータ40は第1ないし第3
の実施の形態に係る符号化ユニット100または復号化
ユニット200のいずれかのみの動作を実現してもよ
い。例えば、第3の実施の形態に係る復号化ユニット2
00のみをコンピュータ40にて実現する際には、ビデ
オカメラ10として通常の符号化処理のみを行う装置が
利用され、コンピュータ40にて復号化する際に動画像
の補正が行われる。
Note that the computer 40 includes first to third
The operation of only one of the encoding unit 100 and the decoding unit 200 according to the embodiment may be realized. For example, the decoding unit 2 according to the third embodiment
When only 00 is realized by the computer 40, a device that performs only normal encoding processing is used as the video camera 10, and a moving image is corrected when the computer 40 performs decoding.

【0086】以上のように、第1ないし第3の実施の形
態はコンピュータを利用しつつ実現することも可能であ
り、この場合であっても演算量を削減することができ、
動画像に対する処理を迅速に行うことが実現される。
As described above, the first to third embodiments can be realized using a computer. Even in this case, the amount of calculation can be reduced.
It is possible to quickly perform processing on a moving image.

【0087】<5. 変形例>以上、本発明の実施の形
態について説明してきたが、本発明は上記実施の形態に
限定されるものではなく様々な変形が可能である。
<5. Modifications> While the preferred embodiments of the present invention have been described above, the present invention is not limited to the above-discussed preferred embodiments, but allows various modifications.

【0088】例えば、上記実施の形態では符号化ユニッ
ト100および/または復号化ユニット200にて動画
像の補正に係る処理を行うようになっているが、動画像
の符号化および復号化の処理とは関係なくシーンチェン
ジの検出が行われ、動画像の補正が行われてもよい。
For example, in the above embodiment, the encoding unit 100 and / or the decoding unit 200 perform the processing related to the correction of the moving image. Regardless, a scene change may be detected and the moving image may be corrected.

【0089】また、上記実施の形態では、符号化ユニッ
ト100の減算部102や復号化ユニット200の逆D
CT部203から差分画像を取得してシーンチェンジを
検出するようにしているが、シーンチェンジの検出は他
の手法により行われてもよい。例えば、単に、前フレー
ムの画像と現フレームの画像との差分画像からシーンチ
ェンジの検出が行われてもよい。また、差分画像の画素
値のヒストグラムや動きベクトルからシーンチェンジが
検出されてもよい。
In the above embodiment, the subtraction unit 102 of the encoding unit 100 and the inverse D
Although a difference image is acquired from the CT unit 203 to detect a scene change, the detection of a scene change may be performed by another method. For example, a scene change may be simply detected from a difference image between the image of the previous frame and the image of the current frame. Further, a scene change may be detected from a histogram of pixel values of a difference image or a motion vector.

【0090】また、シーンチェンジのタイミングを示す
情報は動画像とは別に準備されてもよい。すなわち、シ
ーンチェンジは動画像から検出される必要はなく、シー
ンチェンジを示す情報は別途入力されることにより取得
されてもよい。
The information indicating the timing of the scene change may be prepared separately from the moving image. That is, the scene change does not need to be detected from the moving image, and the information indicating the scene change may be acquired by separately inputting the information.

【0091】さらに、上記実施の形態では、動画像が大
きく変化することをシーンチェンジとして検出している
が、この場合、検出されるシーンチェンジは必ずしも撮
影の際の物理的なシーンチェンジと一致しない。1つの
シーンであっても大きく動画像が変化する場合にはシー
ンチェンジとして検出される。このように、上記説明に
おけるシーンチェンジは物理的なシーンの変更と一致し
ている必要はなく、シーンチェンジに相当する動画像の
変化がシーンチェンジとして検出されることにより、動
画像の適切な補正および演算量の削減が実現される。
Further, in the above embodiment, a large change in a moving image is detected as a scene change. In this case, the detected scene change does not always coincide with a physical scene change at the time of shooting. . If a moving image changes greatly even in one scene, it is detected as a scene change. As described above, the scene change in the above description does not need to coincide with the change of the physical scene, and the change of the moving image corresponding to the scene change is detected as the scene change. In addition, the amount of calculation can be reduced.

【0092】また、上記実施の形態では、各フレームの
画像に対して補正を行っているが、補正は差分画像に対
して行われてもよい。この場合、差分画像用の補正テー
ブルが利用される。そして、差分画像に対して補正を行
う場合には、動画像の補正は符号化ユニット100の減
算部102の後や復号化ユニット200の逆DCT部2
03の後に行うことも可能となる。このように、シーン
チェンジに基づく動画像の補正は任意の段階にて行うこ
とが可能である。
In the above embodiment, the correction is performed on the image of each frame. However, the correction may be performed on the difference image. In this case, a correction table for the difference image is used. When the correction is performed on the difference image, the correction of the moving image is performed after the subtraction unit 102 of the encoding unit 100 or the inverse DCT unit 2 of the decoding unit 200.
03 can also be performed. As described above, the correction of a moving image based on a scene change can be performed at an arbitrary stage.

【0093】また、上記実施の形態では、符号化データ
82が磁気テープを介してビデオカメラ10から再生装
置20へと入力されると説明したが、データの転送手法
としてはどのような手法が利用されてもよい。例えば、
ICメモリや記録用ディスクが転送用の記録媒体として
利用されてもよく、無線通信、あるいは、伝送ケーブル
やコンピュータネットワークを介する有線通信等が利用
されてもよい。なお、第4の実施の形態におけるビデオ
カメラ10とコンピュータ40との間のデータ転送につ
いても同様に様々な手法が利用されてよい。
Further, in the above-described embodiment, it has been described that the encoded data 82 is input from the video camera 10 to the reproducing device 20 via the magnetic tape, but any method can be used as a data transfer method. May be done. For example,
An IC memory or a recording disk may be used as a recording medium for transfer, or wireless communication or wired communication via a transmission cable or a computer network may be used. Note that various techniques may be similarly used for data transfer between the video camera 10 and the computer 40 in the fourth embodiment.

【0094】また、上記第1ないし第3の実施の形態で
は、符号化ユニット100がビデオカメラ10に設けら
れ、復号化ユニット200が再生装置20に設けられる
ものとして説明したが、これらの双方がビデオカメラ1
0に設けられたり、再生装置20に設けられてもよい。
すなわち、上記説明におけるビデオカメラ10や再生装
置20は具体例にすぎず、符号化ユニット100や復号
化ユニット200の各種構成がどのような態様にて設け
られてもよい。
In the first to third embodiments, the encoding unit 100 is provided in the video camera 10 and the decoding unit 200 is provided in the reproducing device 20. Video camera 1
0, or may be provided in the playback device 20.
That is, the video camera 10 and the playback device 20 in the above description are only specific examples, and various configurations of the encoding unit 100 and the decoding unit 200 may be provided in any manner.

【0095】また、上記実施の形態では、ビデオカメラ
10から再生装置20やコンピュータ40に画像に係る
データが入力されると説明したが、ビデオカメラ10に
代えてビデオデッキ等の他の画像出力装置が用いられて
もよい。
Further, in the above-described embodiment, it has been described that image data is input from the video camera 10 to the reproducing device 20 or the computer 40. However, instead of the video camera 10, another image output device such as a video deck is used. May be used.

【0096】また、上記実施の形態では動き補償を行う
ことにより現フレームの予測ブロックを求め、同一シー
ンにおける主被写体の移動がシーンチェンジとして検出
されることを防止し、シーンチェンジの検出頻度を低下
させて演算量の削減を図っている。しかしながら、定点
観測(例えば、監視カメラによる監視)等の動きの少な
い用途以外では、動き補償に係る構成が省略されてもよ
い。この場合、予測画像して前フレームの画像が利用さ
れる。なお、予測画像は動き補償後の画像や前フレーム
の画像に限定されるものではなく、前フレーム以前の画
像から導かれ、現フレームの予測画像として利用するこ
とが可能な画像であればどのようなものが利用されても
よい。
In the above-described embodiment, the motion compensation is performed to obtain the prediction block of the current frame, the movement of the main subject in the same scene is prevented from being detected as a scene change, and the frequency of scene change detection is reduced. In this way, the amount of calculation is reduced. However, the configuration related to the motion compensation may be omitted for applications other than those with little motion such as fixed-point observation (for example, monitoring by a monitoring camera). In this case, the image of the previous frame is used as the predicted image. Note that the predicted image is not limited to the image after the motion compensation or the image of the previous frame, but may be any image that is derived from the image before the previous frame and can be used as the predicted image of the current frame. May be used.

【0097】また、上記実施の形態における補正は輝度
階調の補正に限定されるものではなく、彩度、色相、色
飽和度等の他の画像特徴量、あるいは、複数の画像特徴
量の補正であってもよい。
Further, the correction in the above embodiment is not limited to the correction of the luminance gradation, but the correction of another image characteristic amount such as saturation, hue, color saturation, or a plurality of image characteristic amounts. It may be.

【0098】また、上記実施の形態では、分割部101
にて各フレームの画像をブロックに分割しているが、画
像をブロックに分割することなく、補正、符号化、復号
化等の処理が行われてもよい。逆に、上記実施の形態で
は、1フレームの全ブロックに対して同一の補正を行う
用にしているが、各ブロックごとに異なる補正テーブル
を用いた補正が行われてもよい。この場合、各ブロック
に対応した補正テーブルが補正部にて利用され、シーン
チェンジが検出されるとこれらの補正テーブルの更新が
行われる。
In the above embodiment, the dividing unit 101
Although the image of each frame is divided into blocks in, processing such as correction, encoding, and decoding may be performed without dividing the image into blocks. Conversely, in the above embodiment, the same correction is performed for all the blocks of one frame, but correction using a different correction table may be performed for each block. In this case, a correction table corresponding to each block is used by the correction unit, and when a scene change is detected, these correction tables are updated.

【0099】また、上記実施の形態ではシーンチェンジ
検出部における検出の有無に応じて補正データ生成部等
における処理の有無が決定され、処理時間に変化が生じ
る。したがって、より迅速に処理を行うために補正部に
入力されるデータ量のレートがシーンチェンジの検出の
有無に従って変更されてもよい。例えば、図3において
破線にて示すように、シーンチェンジの検出結果をシー
ンチェンジ検出部124から分割部101に入力させ、
シーンチェンジが検出されない間はデータ転送速度を上
げ、シーンチェンジが検出された際にデータ転送速度を
下げるようにしてもよい。
In the above-described embodiment, the presence or absence of processing in the correction data generation unit or the like is determined according to the presence or absence of detection in the scene change detection unit, and the processing time changes. Therefore, in order to perform processing more quickly, the rate of the data amount input to the correction unit may be changed according to the presence or absence of a scene change. For example, as shown by a broken line in FIG. 3, a scene change detection result is input from the scene change detection unit 124 to the division unit 101,
The data transfer rate may be increased while a scene change is not detected, and may be decreased when a scene change is detected.

【0100】また、上記実施の形態では、予め代表的な
複数の補正テーブルを複数の補正方法として準備すると
説明したが、補正テーブルはシーンチェンジが検出され
るごとに生成されてもよい。例えば、予測画像や復号化
された画像における画素値の累積ヒストグラムから補正
テーブルが生成されてもよい。すなわち、累積ヒストグ
ラムに対して頻度値の正規化、一定以上の値のクリッピ
ング、一定値の加算、黒・白端部の補正等を行って補正
テーブルが生成されてもよい。
Further, in the above embodiment, it has been described that a plurality of representative correction tables are prepared in advance as a plurality of correction methods. However, the correction table may be generated each time a scene change is detected. For example, a correction table may be generated from a cumulative histogram of pixel values in a predicted image or a decoded image. That is, the correction table may be generated by performing normalization of the frequency value, clipping of a value equal to or more than a certain value, addition of a certain value, correction of a black / white edge, and the like for the cumulative histogram.

【0101】また、上記第4の実施の形態では、コンピ
ュータ40を用いることにより符号化ユニット100お
よび/または復号化ユニット200を実現すると説明し
たが、符号化ユニット100の一部および/または復号
化ユニット200の一部分がコンピュータにより実現さ
れてもよい。第1ないし第3の実施の形態における各種
構成もハードウェア的に明瞭に分かれている必要はな
く、ロジック回路やマイクロコンピュータを適宜用いて
実現されてよい。例えば、補正データ生成部における処
理をマイクロコンピュータにより実現し、その他の構成
をロジック回路により実現してもよい。さらに、符号化
ユニット100および/または復号化ユニット200は
複数のコンピュータにより構築されてもよい。
In the fourth embodiment, the encoding unit 100 and / or the decoding unit 200 are realized by using the computer 40. However, a part of the encoding unit 100 and / or the decoding unit A part of the unit 200 may be realized by a computer. The various configurations in the first to third embodiments do not need to be clearly separated from each other in terms of hardware, and may be realized using a logic circuit or a microcomputer as appropriate. For example, the processing in the correction data generation unit may be realized by a microcomputer, and the other configuration may be realized by a logic circuit. Further, the encoding unit 100 and / or the decoding unit 200 may be constructed by a plurality of computers.

【0102】また、上記第1ないし第3の実施の形態に
示したように補正に係る構成は符号化ユニット100や
復号化ユニット200に任意に分けて設けることができ
る。例えば、シーン判定部122のみを符号化ユニット
100に設け、補正に係るその他の構成を復号化ユニッ
ト200に設けることも可能である。
Further, as shown in the first to third embodiments, the configuration relating to the correction can be arbitrarily provided separately in the encoding unit 100 and the decoding unit 200. For example, it is also possible to provide only the scene determination unit 122 in the encoding unit 100 and provide other components related to correction in the decoding unit 200.

【0103】[0103]

【発明の効果】請求項1ないし9の発明では、動画像の
補正に要する演算量の削減を図ることができる。
According to the first to ninth aspects of the present invention, it is possible to reduce the amount of calculation required for correcting a moving image.

【0104】また、請求項3の発明では、補正方法の決
定に要する演算量が削減される。
According to the third aspect of the present invention, the amount of calculation required to determine the correction method is reduced.

【0105】また、請求項4の発明では、シーンチェン
ジ情報を適切に取得することができ、さらに、動画像の
符号化や復号化の際に取得される差分画像を利用するこ
とも可能となる。
According to the fourth aspect of the present invention, scene change information can be appropriately acquired, and further, a difference image acquired at the time of encoding or decoding of a moving image can be used. .

【0106】また、請求項5の発明では、補正の対象と
なる画像ではなく差分画像を求める際の予測画像を用い
て補正方法を決定するため、補正の対象となる画像を別
途記憶しておく手段が不要となる。
According to the fifth aspect of the present invention, the correction method is determined not by using the image to be corrected but by using the predicted image used to obtain the difference image. Therefore, the image to be corrected is separately stored. No means is required.

【0107】また、請求項6の発明では、動画像をリア
ルタイムにて補正することが容易に実現される。
According to the sixth aspect of the present invention, it is easy to correct a moving image in real time.

【図面の簡単な説明】[Brief description of the drawings]

【図1】画像処理システムの構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an image processing system.

【図2】動画像の処理に係る主要構成を示すブロック図
である。
FIG. 2 is a block diagram showing a main configuration relating to processing of a moving image.

【図3】符号化ユニットの構成を示すブロック図であ
る。
FIG. 3 is a block diagram illustrating a configuration of an encoding unit.

【図4】復号化ユニットの構成を示すブロック図であ
る。
FIG. 4 is a block diagram illustrating a configuration of a decoding unit.

【図5】補正に係る処理の流れを示す図である。FIG. 5 is a diagram showing a flow of processing relating to correction.

【図6】予測画像のヒストグラムを例示する図である。FIG. 6 is a diagram illustrating a histogram of a predicted image.

【図7】シーン判定部および補正データ生成部に対する
各種情報の受け渡しを示すブロック図である。
FIG. 7 is a block diagram illustrating transfer of various types of information to a scene determination unit and a correction data generation unit.

【図8】パラメータテーブルを設定する際の表示画面を
示す図である。
FIG. 8 is a diagram showing a display screen when setting a parameter table.

【図9】補正テーブルの特性を例示する図である。FIG. 9 is a diagram illustrating characteristics of a correction table.

【図10】符号化ユニットの構成を示すブロック図であ
る。
FIG. 10 is a block diagram illustrating a configuration of an encoding unit.

【図11】復号化ユニットの構成を示すブロック図であ
る。
FIG. 11 is a block diagram illustrating a configuration of a decoding unit.

【図12】符号化ユニットの構成を示すブロック図であ
る。
FIG. 12 is a block diagram illustrating a configuration of an encoding unit.

【図13】復号化ユニットの構成を示すブロック図であ
る。
FIG. 13 is a block diagram illustrating a configuration of a decoding unit.

【図14】動画像の補正をコンピュータにて実行するシ
ステムを示す図である。
FIG. 14 is a diagram illustrating a system that executes correction of a moving image by a computer.

【図15】コンピュータの構成を示すブロック図であ
る。
FIG. 15 is a block diagram illustrating a configuration of a computer.

【符号の説明】[Explanation of symbols]

10 ビデオカメラ 20 再生装置 40 コンピュータ 92 記録媒体 100 符号化ユニット 121,211 補正部 122,212 シーン判定部 123,213 補正データ生成部 124,214 シーンチェンジ検出部 154 メモリ 200 復号化ユニット 441 プログラム 851 予測画像データ S11〜S16 ステップ Reference Signs List 10 video camera 20 playback device 40 computer 92 recording medium 100 encoding unit 121, 211 correction unit 122, 212 scene determination unit 123, 213 correction data generation unit 124, 214 scene change detection unit 154 memory 200 decoding unit 441 program 851 prediction Image data S11 to S16 Step

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/20 H04N 5/20 5C066 5/222 5/222 Z 5C082 7/32 9/64 A 9/64 9/68 A 9/68 7/137 Z Fターム(参考) 5B057 BA19 CA08 CA17 CB08 CB17 CE11 CE16 DB06 5C021 PA58 PA62 PA66 PA77 PA79 PA80 RA01 RB00 RB06 XA13 XA35 5C022 AC01 AC69 CA00 5C023 AA01 AA32 AA34 AA37 BA01 BA04 BA08 DA04 EA13 5C059 KK01 LA00 MA00 MA05 NN01 NN21 NN43 PP04 PP14 SS14 SS20 TA01 TC14 TD05 TD10 UA38 5C066 AA01 CA08 EA03 EA05 EB01 EC01 EF00 EF16 KD06 KE02 KE09 KG01 KP02 5C082 AA27 BA34 BA35 BA41 BB26 BB44 CA12 CA81 CB01 DA26 DA51 DA87 MM02 MM10 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/20 H04N 5/20 5C066 5/222 5/222 Z 5C082 7/32 9/64 A 9/64 9/68 A 9/68 7/137 ZF term (reference) 5B057 BA19 CA08 CA17 CB08 CB17 CE11 CE16 DB06 5C021 PA58 PA62 PA66 PA77 PA79 PA80 RA01 RB00 RB06 XA13 XA35 5C022 AC01 AC69 CA00 5C023 AA01 AA04 BA08A EA13 5C059 KK01 LA00 MA05 MA05 NN01 NN21 NN43 PP04 PP14 SS14 SS20 TA01 TC14 TD05 TD10 UA38 5C066 AA01 CA08 EA03 EA05 EB01 EC01 EF00 EF16 KD06 KE02 KE09 KG01 KP02 5C082 AA27 BB12 BA35 BA35 BA35 BA35 BA35 BA35 BA35

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 動画像処理装置であって、 動画像におけるシーンチェンジを示すシーンチェンジ情
報を取得する手段と、 前記シーンチェンジ情報が取得された際に、次のシーン
チェンジ情報が取得されるまでの前記動画像の補正方法
を決定する手段と、を備えることを特徴とする動画像処
理装置。
1. A moving image processing apparatus, comprising: means for acquiring scene change information indicating a scene change in a moving image; and when the scene change information is acquired, until the next scene change information is acquired. Means for determining the method of correcting the moving image.
【請求項2】 請求項1に記載の動画像処理装置であっ
て、 前記次のシーンチェンジ情報が取得されるまで、前記補
正方法に従って前記動画像の補正を行う手段をさらに備
えることを特徴とする動画像処理装置。
2. The moving image processing apparatus according to claim 1, further comprising: means for correcting the moving image according to the correction method until the next scene change information is obtained. Moving image processing device.
【請求項3】 請求項1または2に記載の動画像処理装
置であって、 予め代表的な複数の補正方法を記憶する手段をさらに備
え、 前記補正方法を決定する手段が、シーンチェンジ情報取
得後の画像に基づいて前記複数の補正方法から一の補正
方法を選択することを特徴とする動画像処理装置。
3. The moving image processing apparatus according to claim 1, further comprising: means for storing a plurality of representative correction methods in advance, wherein the means for determining the correction method includes acquiring scene change information. A moving image processing apparatus, wherein one of the plurality of correction methods is selected based on a later image.
【請求項4】 請求項1ないし3のいずれかに記載の動
画像処理装置であって、 前記シーンチェンジ情報を取得する手段が、現フレーム
よりも前のフレームの画像から導かれる現フレームの予
測画像と現フレームの画像との差分画像に基づいて前記
シーンチェンジ情報を生成することを特徴とする動画像
処理装置。
4. The moving image processing apparatus according to claim 1, wherein the means for acquiring the scene change information predicts a current frame derived from an image of a frame earlier than a current frame. A moving image processing apparatus, wherein the scene change information is generated based on a difference image between an image and an image of a current frame.
【請求項5】 請求項4に記載の動画像処理装置であっ
て、 前記補正方法を決定する手段が、前記予測画像に基づい
て前記補正方法を決定することを特徴とする動画像処理
装置。
5. The moving image processing apparatus according to claim 4, wherein the means for determining the correction method determines the correction method based on the predicted image.
【請求項6】 動画像処理装置であって、 動画像におけるシーンチェンジを示すシーンチェンジ情
報を取得する手段と、 次のシーンチェンジ情報が取得されるまでの前記動画像
の補正方法を取得する手段と、 前記次のシーンチェンジ情報が取得されるまで、前記補
正方法に従って前記動画像の補正を行う手段と、を備え
ることを特徴とする動画像処理装置。
6. A moving image processing apparatus, comprising: means for acquiring scene change information indicating a scene change in a moving image; and means for acquiring a method for correcting the moving image until the next scene change information is acquired. And a means for correcting the moving image according to the correction method until the next scene change information is obtained.
【請求項7】 請求項2または6に記載の動画像処理装
置であって、 前記動画像の補正がリアルタイムにて実行されることを
特徴とする動画像処理装置。
7. The moving image processing apparatus according to claim 2, wherein the correction of the moving image is performed in real time.
【請求項8】 動画像処理方法であって、 動画像におけるシーンチェンジを示すシーンチェンジ情
報を取得する工程と、 次のシーンチェンジ情報が取得されるまでの前記動画像
の補正方法を取得する工程と、 前記次のシーンチェンジ情報が取得されるまで、前記補
正方法に従って前記動画像の補正を行う工程と、を有す
ることを特徴とする動画像処理方法。
8. A moving image processing method, comprising: obtaining scene change information indicating a scene change in a moving image; and obtaining a moving image correction method until the next scene change information is obtained. And a step of correcting the moving image according to the correction method until the next scene change information is obtained.
【請求項9】 コンピュータに動画像の補正を実行させ
るプログラムを記録したコンピュータ読み取り可能な記
録媒体であって、前記プログラムの前記コンピュータに
よる実行は、前記コンピュータに、 動画像におけるシーンチェンジを示すシーンチェンジ情
報を取得する工程と、 次のシーンチェンジ情報が取得されるまでの前記動画像
の補正方法を取得する工程と、 前記次のシーンチェンジ情報が取得されるまで、前記補
正方法に従って前記動画像の補正を行う工程と、を実行
させることを特徴とする記録媒体。
9. A computer-readable recording medium having recorded thereon a program for causing a computer to execute a moving image correction, wherein the execution of the program by the computer causes the computer to execute a scene change indicating a scene change in a moving image. Obtaining information, and obtaining a correction method of the moving image until the next scene change information is obtained; and until the next scene change information is obtained, obtaining the correction method of the moving image according to the correction method. Performing a correction step.
JP2000265119A 2000-09-01 2000-09-01 Moving image processor and moving image processing method and recording medium Pending JP2002077723A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000265119A JP2002077723A (en) 2000-09-01 2000-09-01 Moving image processor and moving image processing method and recording medium
US09/939,592 US7474766B2 (en) 2000-09-01 2001-08-28 Motion image processor, motion image processing method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000265119A JP2002077723A (en) 2000-09-01 2000-09-01 Moving image processor and moving image processing method and recording medium

Publications (1)

Publication Number Publication Date
JP2002077723A true JP2002077723A (en) 2002-03-15

Family

ID=18752436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000265119A Pending JP2002077723A (en) 2000-09-01 2000-09-01 Moving image processor and moving image processing method and recording medium

Country Status (2)

Country Link
US (1) US7474766B2 (en)
JP (1) JP2002077723A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006518960A (en) * 2003-02-21 2006-08-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Shot break detection
JP2006267140A (en) * 2005-03-22 2006-10-05 Hitachi Ltd Video processing device and portable terminal apparatus
JP2006301675A (en) * 2005-04-15 2006-11-02 Noritsu Koki Co Ltd Image processor and image processing method
JP2006311166A (en) * 2005-04-28 2006-11-09 Hitachi Ltd Video processor and video display apparatus
JP2007094018A (en) * 2005-09-29 2007-04-12 Sony Corp Image display device, method thereof, program, and recording medium
JP2007241172A (en) * 2006-03-13 2007-09-20 Seiko Epson Corp Moving image display device and method
US7304768B2 (en) 2002-03-29 2007-12-04 Fujifilm Corporation Image processing apparatus, computer readable medium storing program, image processing method, method for producing dynamic image and printer
US7313280B2 (en) 2003-03-14 2007-12-25 Seiko Epson Corporation Image processing device, image processing method, and image processing program
JP2008118607A (en) * 2006-10-11 2008-05-22 Victor Co Of Japan Ltd Network decoder apparatus
CN100407783C (en) * 2004-06-07 2008-07-30 精工爱普生株式会社 Image processing apparatus and method, and image processing program
JP2008271594A (en) * 2008-06-09 2008-11-06 Fujifilm Corp Image processing apparatus, program, image processing method, and production method of moving image
US7471343B2 (en) 2003-03-14 2008-12-30 Seiko Epson Corporation Image processing device, image processing method, and image processing program
WO2009087760A1 (en) * 2008-01-08 2009-07-16 Fujitsu Limited Image processing apparatus, image processing method, and image processing program
US7630020B2 (en) 2005-01-27 2009-12-08 Canon Kabushiki Kaisha Image processing apparatus and its method
JP2010055108A (en) * 2005-07-27 2010-03-11 Seiko Epson Corp Image display device and image display method
JP2010256915A (en) * 2010-06-07 2010-11-11 Seiko Epson Corp Apparatus and method for displaying moving image
US7907668B2 (en) 2004-03-26 2011-03-15 Fujitsu Limited Method and apparatus for calculating moving-image correction-coefficient, moving-image correcting apparatus, and computer product
JP2013118002A (en) * 2013-03-06 2013-06-13 Canon Inc Image processing device, image processing method, and program
CN104464688A (en) * 2014-12-15 2015-03-25 昆山工研院新型平板显示技术中心有限公司 Color compensation method and system
JP2022501186A (en) * 2018-09-28 2022-01-06 ポスコPosco Foreign matter collection device and manufacturing equipment for electric steel sheets including it

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4175234B2 (en) * 2003-10-07 2008-11-05 セイコーエプソン株式会社 Display control apparatus, portable information terminal, and display control method
US20070183673A1 (en) * 2004-03-31 2007-08-09 Koninklijke Philips Electronics, N.V. Video processing method and corresponding encoding device
US7751483B1 (en) * 2004-04-16 2010-07-06 Majesco Entertainment Company Video codec for embedded handheld devices
JP4649318B2 (en) * 2004-12-13 2011-03-09 キヤノン株式会社 Image encoding apparatus, image encoding method, program, and storage medium
JP4582411B2 (en) * 2005-08-04 2010-11-17 ソニー株式会社 Information processing apparatus and method, and program
US7873212B2 (en) * 2006-01-24 2011-01-18 Nokia Corporation Compression of images for computer graphics
JP4771540B2 (en) * 2006-07-26 2011-09-14 キヤノン株式会社 Image processing apparatus, control method therefor, image processing method and program
JP4771539B2 (en) * 2006-07-26 2011-09-14 キヤノン株式会社 Image processing apparatus, control method therefor, and program
US20080247665A1 (en) * 2007-04-04 2008-10-09 Silicon Integrated Systems Corp. Method and apparatus for dynamic contrast enhancement
US7859547B2 (en) * 2007-09-25 2010-12-28 Himax Technologies Limited Display parameter adjusting method and apparatus for scene change compensation
JP2009177271A (en) * 2008-01-22 2009-08-06 Sony Corp Imaging apparatus, and control method and program thereof
JP5294956B2 (en) * 2009-04-08 2013-09-18 キヤノン株式会社 Image processing apparatus and image processing apparatus control method
US20110052059A1 (en) * 2009-08-27 2011-03-03 Canon Kabushiki Kaisha Generating image histogram by parallel processing
US10664977B2 (en) 2018-02-28 2020-05-26 General Electric Company Apparatus and method for image-based control of imaging system parameters

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3093499B2 (en) * 1992-03-06 2000-10-03 三菱電機株式会社 Scene change detection device
JPH0778804B2 (en) * 1992-05-28 1995-08-23 日本アイ・ビー・エム株式会社 Scene information input system and method
JP3093494B2 (en) * 1992-11-18 2000-10-03 株式会社東芝 Diversity signal processing device
JPH0738842A (en) 1993-06-29 1995-02-07 Toshiba Corp Dynamic image editing device
JPH07107359A (en) * 1993-09-30 1995-04-21 Canon Inc Image pickup device
JPH07115584A (en) 1993-10-19 1995-05-02 Canon Inc Device for correcting image shake
US5614945A (en) * 1993-10-19 1997-03-25 Canon Kabushiki Kaisha Image processing system modifying image shake correction based on superimposed images
JP2596349B2 (en) 1993-12-03 1997-04-02 日本電気株式会社 Compression rate adjustment method
JPH07212620A (en) 1994-01-11 1995-08-11 Matsushita Electric Ind Co Ltd Image pickup device
US5809201A (en) * 1994-06-24 1998-09-15 Mitsubishi Denki Kabushiki Kaisha Specially formatted optical disk and method of playback
JPH0937277A (en) 1995-07-14 1997-02-07 Matsushita Electric Ind Co Ltd Image correction device
JP3755155B2 (en) 1994-09-30 2006-03-15 ソニー株式会社 Image encoding device
US6037986A (en) * 1996-07-16 2000-03-14 Divicom Inc. Video preprocessing method and apparatus with selective filtering based on motion detection
JPH1066084A (en) 1996-08-16 1998-03-06 Sony Corp Video data compressing device and its method
JPH10126796A (en) * 1996-09-12 1998-05-15 Eastman Kodak Co Digital camera for dynamic and still images using dual mode software processing
US5721427A (en) * 1996-12-19 1998-02-24 Hughes Electronics Scene-based nonuniformity correction processor incorporating motion triggering
US6330344B1 (en) * 1997-02-14 2001-12-11 Sony Corporation Image processing device and method employing motion detection to generate improved quality image from low resolution image
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
US6353683B1 (en) * 1997-12-10 2002-03-05 Matsushita Electric Industrial Co., Ltd. Method and apparatus of image processing, and data storage media
JP4092773B2 (en) 1998-04-14 2008-05-28 株式会社日立製作所 Method and apparatus for converting the number of frames of an image signal
US6694051B1 (en) * 1998-06-24 2004-02-17 Canon Kabushiki Kaisha Image processing method, image processing apparatus and recording medium
JP3791199B2 (en) 1998-08-05 2006-06-28 コニカミノルタビジネステクノロジーズ株式会社 Image processing apparatus, image processing method, and recording medium recording image processing program

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7304768B2 (en) 2002-03-29 2007-12-04 Fujifilm Corporation Image processing apparatus, computer readable medium storing program, image processing method, method for producing dynamic image and printer
EP1351493B1 (en) * 2002-03-29 2012-06-13 FUJIFILM Corporation Image processing apparatus, computer readable medium storing program and image processing method
JP2006518960A (en) * 2003-02-21 2006-08-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Shot break detection
US7471343B2 (en) 2003-03-14 2008-12-30 Seiko Epson Corporation Image processing device, image processing method, and image processing program
US7313280B2 (en) 2003-03-14 2007-12-25 Seiko Epson Corporation Image processing device, image processing method, and image processing program
US7907668B2 (en) 2004-03-26 2011-03-15 Fujitsu Limited Method and apparatus for calculating moving-image correction-coefficient, moving-image correcting apparatus, and computer product
US7663673B2 (en) 2004-06-07 2010-02-16 Seiko Epson Corporation Image processing apparatus and method, and image processing program
CN100407783C (en) * 2004-06-07 2008-07-30 精工爱普生株式会社 Image processing apparatus and method, and image processing program
US7630020B2 (en) 2005-01-27 2009-12-08 Canon Kabushiki Kaisha Image processing apparatus and its method
JP2006267140A (en) * 2005-03-22 2006-10-05 Hitachi Ltd Video processing device and portable terminal apparatus
JP4736487B2 (en) * 2005-03-22 2011-07-27 株式会社日立製作所 Video processing device
JP2006301675A (en) * 2005-04-15 2006-11-02 Noritsu Koki Co Ltd Image processor and image processing method
JP4506548B2 (en) * 2005-04-28 2010-07-21 株式会社日立製作所 Video processing apparatus and video display apparatus
JP2006311166A (en) * 2005-04-28 2006-11-09 Hitachi Ltd Video processor and video display apparatus
JP2010217914A (en) * 2005-07-27 2010-09-30 Seiko Epson Corp Projector and image projecting method
JP2010055108A (en) * 2005-07-27 2010-03-11 Seiko Epson Corp Image display device and image display method
US8212796B2 (en) 2005-09-29 2012-07-03 Sony Corporation Image display apparatus and method, program and recording media
JP2007094018A (en) * 2005-09-29 2007-04-12 Sony Corp Image display device, method thereof, program, and recording medium
JP4687515B2 (en) * 2006-03-13 2011-05-25 セイコーエプソン株式会社 Moving image display device and moving image display method
JP2007241172A (en) * 2006-03-13 2007-09-20 Seiko Epson Corp Moving image display device and method
JP2008118607A (en) * 2006-10-11 2008-05-22 Victor Co Of Japan Ltd Network decoder apparatus
JP4947154B2 (en) * 2008-01-08 2012-06-06 富士通株式会社 Image processing apparatus, image processing method, and image processing program
WO2009087760A1 (en) * 2008-01-08 2009-07-16 Fujitsu Limited Image processing apparatus, image processing method, and image processing program
US8253820B2 (en) 2008-01-08 2012-08-28 Fujitsu Limited Image processing apparatus and image processing method
JP2008271594A (en) * 2008-06-09 2008-11-06 Fujifilm Corp Image processing apparatus, program, image processing method, and production method of moving image
JP4550129B2 (en) * 2008-06-09 2010-09-22 富士フイルム株式会社 Image processing apparatus, program, and image processing method
JP2010256915A (en) * 2010-06-07 2010-11-11 Seiko Epson Corp Apparatus and method for displaying moving image
JP2013118002A (en) * 2013-03-06 2013-06-13 Canon Inc Image processing device, image processing method, and program
CN104464688A (en) * 2014-12-15 2015-03-25 昆山工研院新型平板显示技术中心有限公司 Color compensation method and system
JP2022501186A (en) * 2018-09-28 2022-01-06 ポスコPosco Foreign matter collection device and manufacturing equipment for electric steel sheets including it
JP7291211B2 (en) 2018-09-28 2023-06-14 ポスコ カンパニー リミテッド Contaminant collector and equipment for manufacturing electrical steel sheets including the same

Also Published As

Publication number Publication date
US7474766B2 (en) 2009-01-06
US20020048389A1 (en) 2002-04-25

Similar Documents

Publication Publication Date Title
JP2002077723A (en) Moving image processor and moving image processing method and recording medium
RU2740034C1 (en) Linear encoder for image / video processing
JP2673778B2 (en) Noise reduction device for video decoding
JP4194479B2 (en) Image processing apparatus and method, computer program, and computer-readable storage medium
US20010017887A1 (en) Video encoding apparatus and method
WO2018231968A1 (en) Efficient end-to-end single layer inverse display management coding
US9641838B2 (en) Moving image coding apparatus, method and program
JP2938412B2 (en) Method for compensating luminance change of moving image, moving image encoding device, moving image decoding device, recording medium recording moving image encoding or decoding program, and recording medium recording moving image encoded data
US6101278A (en) System for extracting coding parameters from video data
JPH08251422A (en) Block distortion correction device and image signal expander
KR100561398B1 (en) Apparatus and method for detecting and compensating luminance change of each partition in moving picture
JP4023324B2 (en) Watermark embedding and image compression unit
EP3639238A1 (en) Efficient end-to-end single layer inverse display management coding
JPH0799619A (en) Image processor
JP2004521554A (en) MPEG-2 decoder with embedded contrast enhancement function and method thereof
JP2001251627A (en) Coder, coding method and recording medium recorded with program
JP3736291B2 (en) Image signal decoding apparatus and method
JP2002077798A (en) Apparatus and method for processing moving image as well as recording medium
JP2007110189A (en) Image quality evaluation apparatus and image quality evaluation method
JP2916027B2 (en) Image coding device
JP3202270B2 (en) Video encoding device
JP3535013B2 (en) Video encoding device
JP3254425B2 (en) Image decoding device
JPH10117351A (en) Method and device for compressing signal
KR100205293B1 (en) Block effect removing circuit and method in mpeg video decoder

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050920

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20051018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080528

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080528

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081202