JP2000324365A - Picture processor - Google Patents

Picture processor

Info

Publication number
JP2000324365A
JP2000324365A JP11132335A JP13233599A JP2000324365A JP 2000324365 A JP2000324365 A JP 2000324365A JP 11132335 A JP11132335 A JP 11132335A JP 13233599 A JP13233599 A JP 13233599A JP 2000324365 A JP2000324365 A JP 2000324365A
Authority
JP
Japan
Prior art keywords
image
data
correction
component
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11132335A
Other languages
Japanese (ja)
Inventor
Tokai Morino
東海 森野
Toru Kajiyama
透 梶山
Tomohisa Kohiyama
智久 小檜山
Satoshi Kakizaki
聰 蠣崎
Yuko Okayama
祐孝 岡山
Nobuaki Obinata
宣昭 小日向
Ryuichi Agawa
隆一 阿川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Advanced Digital Inc
Hitachi Solutions Technology Ltd
Original Assignee
Hitachi Ltd
Hitachi ULSI Systems Co Ltd
Hitachi Video and Information System Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi ULSI Systems Co Ltd, Hitachi Video and Information System Inc filed Critical Hitachi Ltd
Priority to JP11132335A priority Critical patent/JP2000324365A/en
Publication of JP2000324365A publication Critical patent/JP2000324365A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a device for outputting picture information in the format of picture data by correcting flicker by detecting correction data from latest input picture components and reference picture components, and correcting a picture to be corrected by using the correction data. SOLUTION: A picture component extracting part 1 extracts latest input picture components 7 by using input picture data 6, and outputs them to a reference picture component generating part 2 and a difference detecting part 3. The reference picture component generating part 2 generates reference picture components 8 by using picture components in several frames inputted before the latest input picture components 7, and outputs them to a difference detecting part 3. The difference detecting part 3 detects correction data 9 from the reference picture components 8 and the latest input picture components 7, and outputs the correction data 9 to an input picture correcting part 5. On the other hand, the input picture data 6 are stored in an input picture storing part 4 until the correction data 9 are prepared, and corrected by an input picture correcting part 5 after the detection of the correction data 9, and picture data 10 to be corrected are outputted to the outside part.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、蛍光燈等の照明に
より発生する画像のフリッカを抑制する画像処理技術に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing technique for suppressing flickering of an image caused by illumination of a fluorescent light or the like.

【0002】[0002]

【従来の技術】近年、テレビ会議システムやテレビ電話
等と呼ばれる画像処理装置は様々な場面で用いられてい
る。しかしながら上記画像処理装置には幾つか問題点が
あり、そのうちの1つに次のようなものがある。
2. Description of the Related Art In recent years, image processing apparatuses called video conference systems and video phones have been used in various situations. However, the image processing apparatus has several problems, one of which is as follows.

【0003】上記の画像処理装置は画像データを転送し
ているため、転送圧縮効率の良い画像データが求められ
ている。ここで述べている圧縮効率が良いものとはフレ
ーム間の相関が高い画像が望ましいという意味である。
しかし、上記装置で用いられる画像は主に室内でのもの
が多い。室内であると、当然蛍光燈等で照らされている
可能性が高く、蛍光燈等の照明により照らされた画像に
はフリッカが発生してしまう。
Since the above-described image processing apparatus transfers image data, image data having high transfer compression efficiency is required. Good compression efficiency described herein means that an image having a high correlation between frames is desirable.
However, the images used in the above apparatuses are mainly indoors. When the room is indoors, there is a high possibility that the image is illuminated by a fluorescent light or the like, and flicker occurs in an image illuminated by the illumination of the fluorescent light or the like.

【0004】原因は画像を構成する1フィールドの周波
数と照明の周波数が異なるためである。この為照明の輝
度がフレームごとに異なってしまい、フリッカとして画
面に現れるのである。これにより画像はフレーム間ごと
に異なった輝度値の画像になってしまい、フレーム間の
相関を低下させる原因になり、結果圧縮効率も悪くす
る。
The reason is that the frequency of one field constituting an image is different from the frequency of illumination. For this reason, the luminance of the illumination differs for each frame, and appears on the screen as flicker. As a result, the image becomes an image having a different luminance value for each frame, which causes a reduction in the correlation between the frames, resulting in poor compression efficiency.

【0005】現在、前記照明等により発生するフリッカ
を除去するために様々な方式が提案されている。代表的
な例としては撮影装置の分野ではビデオカメラ等にある
電子シャッターによってフリッカを除去させるものであ
る。これは電子シャッターを照明に同期させたり、周波
数を数万分の1等に変えるというもので、特開平10−
145669で前記処理を搭載したテレビカメラ装置が
提案されている。
At present, various schemes have been proposed for removing flickers caused by the above-mentioned lighting or the like. As a typical example, in the field of a photographing apparatus, flicker is removed by an electronic shutter provided in a video camera or the like. This involves synchronizing the electronic shutter with the illumination and changing the frequency to several tens of thousands.
145669 proposes a television camera device equipped with the above processing.

【0006】[0006]

【発明が解決しようとする課題】従来、照明等によるフ
リッカが発生していた場合、前述したように電子シャッ
ター等を用いてフリッカを除去していた。しかし、すで
にフリッカを含んだ画像情報が画像データとして入力さ
れた場合に対しては前述した方法ではフリッカ除去でき
ない。尚、前記した画像データとは画像情報を画像信号
として転送する形式の並びになったものを示す。そこ
で、画像情報が画像データとして存在する場合に対して
のフリッカ除去装置を考えた。
Conventionally, when flicker has occurred due to illumination or the like, the flicker has been removed by using an electronic shutter or the like as described above. However, flicker cannot be removed by the above-described method when image information already containing flicker is input as image data. Note that the above-described image data indicates a sequence of a format in which image information is transferred as an image signal. Therefore, a flicker removing device for the case where image information exists as image data has been considered.

【0007】本発明の第1の目的は、前述したように画
像情報が画像データの形式であった場合にフリッカを補
正して画像データの形式で出力する画像処理装置を提案
することにある。
[0007] A first object of the present invention is to propose an image processing apparatus which corrects flicker and outputs the image data in the form of image data when the image information is in the form of image data as described above.

【0008】本発明の第2の目的は、前記画像処理装置
における補正処理時の演算量を低減することである。
A second object of the present invention is to reduce the amount of calculation at the time of correction processing in the image processing apparatus.

【0009】[0009]

【課題を解決するための手段】本発明は、入力画像にお
ける画像成分を抽出する手段と、最新の入力画像以前に
入力された過去数フレーム分の抽出画像成分から参照画
像成分を生成する手段と、最新の入力画像成分と参照画
像成分から差分値すなわち補正データを検出する手段
と、補正データを検出する間入力画像データを格納する
手段と、補正データを用いて前記格納部にて格納されて
いた補正対象画像に補正をかけて出力する手段とを有す
ることを特徴とする画像処理装置を提供するものであ
る。
According to the present invention, there is provided a means for extracting an image component in an input image, and a means for generating a reference image component from extracted image components of past several frames input before the latest input image. Means for detecting a difference value, that is, correction data from the latest input image component and the reference image component; means for storing input image data while detecting the correction data; and storing in the storage unit using the correction data. Means for correcting and outputting the corrected image to be corrected.

【0010】[0010]

【発明の実施の形態】以下に本発明の実施の形態を説明
する。
Embodiments of the present invention will be described below.

【0011】まず、第1の実施例について図1を用いて
説明する。図示するように第1の実施例は画像成分抽出
部1、参照画像成分生成部2、差分検出部3、入力画像
格納部4、入力画像補正部5とで構成される。本発明の
基本的構成である第1の実施例のデータの流れを以下に
説明する。図示するように外部より入力される入力画像
データ6は画像成分抽出部1と入力画像格納部4に接続
されている。まず画像成分抽出部1ではこの画像データ
6を用いて最新の入力画像成分7を抽出し、参照画像成
分生成部2と差分検出部3に出力している。
First, a first embodiment will be described with reference to FIG. As shown, the first embodiment includes an image component extraction unit 1, a reference image component generation unit 2, a difference detection unit 3, an input image storage unit 4, and an input image correction unit 5. The data flow of the first embodiment, which is the basic configuration of the present invention, will be described below. As shown, input image data 6 input from the outside is connected to an image component extraction unit 1 and an input image storage unit 4. First, the image component extraction unit 1 extracts the latest input image component 7 using the image data 6 and outputs the latest input image component 7 to the reference image component generation unit 2 and the difference detection unit 3.

【0012】そして参照画像成分生成部2では前記最新
の入力画像成分7以前に入力された過去数フレームの画
像成分を用いて参照画像成分8を生成し、差分検出部3
に出力している。差分検出部3ではこの参照画像成分8
と画像成分抽出部1より出力された最新の入力画像成分
7から差分値すなわち補正データ9を検出し、入力画像
補正部5に出力している。
The reference image component generation unit 2 generates a reference image component 8 using image components of the past several frames input before the latest input image component 7, and a difference detection unit 3
Output to In the difference detection unit 3, the reference image component 8
Then, a difference value, that is, correction data 9 is detected from the latest input image component 7 output from the image component extraction unit 1 and output to the input image correction unit 5.

【0013】一方、前述の通り、外部より入力される入
力画像データ6は入力画像格納部4に補正データ9が作
成されるまでの間格納されており、補正データ9検出
後、入力画像補正部5において補正処理を行い補正対象
画像データ10を外部に出力する。次に各処理部におけ
る詳細な説明を述べる。
On the other hand, as described above, the input image data 6 input from the outside is stored in the input image storage unit 4 until the correction data 9 is created, and after the correction data 9 is detected, the input image correction unit In step 5, a correction process is performed, and the correction target image data 10 is output to the outside. Next, a detailed description of each processing unit will be described.

【0014】まず画像成分抽出部1は、入力される入力
画像データ6の画素値を画素単位で順次加算し、1画面
分全て入力された時点で1画素当たりの平均画素値を画
像成分として抽出する。ここで抽出した最新の入力画像
成分7は参照画像成分生成部2と差分検出部3へ出力さ
れる。
First, the image component extracting unit 1 sequentially adds the pixel values of the input image data 6 to be input on a pixel-by-pixel basis, and extracts an average pixel value per pixel as an image component when all of one screen is input. I do. The latest input image component 7 extracted here is output to the reference image component generator 2 and the difference detector 3.

【0015】次に参照画像成分生成部2の内部構成例を
図2を用いて説明する。図示するように参照画像成分生
成部2は5個の格納部12〜16と平均化処理部17で
構成される。ここで述べている格納部は、1個の格納部
でも良いし、数十個単位の格納部を用いても良く、参照
画像成分を生成する為に最適な任意の数を用意すればよ
い。同図は5個の格納部を使用した例である。
Next, an example of the internal configuration of the reference image component generator 2 will be described with reference to FIG. As shown in the figure, the reference image component generation unit 2 includes five storage units 12 to 16 and an averaging unit 17. The storage unit described here may be a single storage unit, or a storage unit of several tens of units may be used, and an arbitrary number optimal for generating reference image components may be prepared. FIG. 11 shows an example in which five storage units are used.

【0016】図の格納部12には前記画像成分抽出部1
から出力された最新の入力画像成分7が格納されてお
り、格納部13にはそれよりも1フレーム前の画像成分
が格納されている。同様に格納部14には格納部13の
画像成分よりもさらに1フレーム前の画像成分が格納さ
れており、入力画像データ6の5フレーム前からの画像
成分がそれぞれ格納部16,15,14,13,12の
順に格納されている。平均化処理部17では前記格納部
12〜16に格納されている5フレームの画像成分から
平均値を求め、その平均値を参照画像成分8として差分
検出部3へ出力する。
The image storage unit 12 shown in FIG.
The latest input image component 7 output from is stored, and the storage unit 13 stores an image component one frame before that. Similarly, an image component one frame before the image component of the storage unit 13 is stored in the storage unit 14, and image components from five frames before the input image data 6 are stored in the storage units 16, 15, 14, respectively. 13 and 12 are stored in this order. The averaging unit 17 calculates an average value from the image components of the five frames stored in the storage units 12 to 16, and outputs the average value to the difference detection unit 3 as the reference image component 8.

【0017】尚、参照画像成分生成部2には最新の入力
画像成分7が定期的に入力されているので、最新の入力
画像成分7が入力されると格納部12〜16では次のよ
うにデータが移動する。まず、格納部15の画像成分が
格納部16へ移され、続いて格納部14の画像成分が格
納部15へと移される。同様に格納部13の画像成分が
格納部14へ、というように格納部にある画像成分はそ
れぞれ右隣の格納部へ移される。
Since the latest input image component 7 is periodically input to the reference image component generation unit 2, when the latest input image component 7 is input, the storage units 12 to 16 store data as follows. Data moves. First, the image components of the storage unit 15 are moved to the storage unit 16, and subsequently, the image components of the storage unit 14 are moved to the storage unit 15. Similarly, the image components in the storage unit 13 are moved to the storage unit 14, and so on, and the image components in the storage unit are moved to the storage units on the right side.

【0018】この時格納部16では格納部15の画像成
分が上書きされるので、格納部16にあったそれ以前の
画像成分(格納部にある中で一番過去のフレームにあた
る画像成分)は削除される。格納部12〜16に格納さ
れたデータがそれぞれ移動したら、最新の画像成分7を
格納部12に格納する。
At this time, since the image component in the storage unit 15 is overwritten in the storage unit 16, the previous image component in the storage unit 16 (the image component corresponding to the oldest frame in the storage unit) is deleted. Is done. When the data stored in the storage units 12 to 16 move, the latest image component 7 is stored in the storage unit 12.

【0019】以上で説明したように参照画像生成部2の
格納部12〜16はシフトレジスタと同様の構成をして
いる。格納部12に最新の入力画像成分7が入力される
と参照画像成分8も異なる値になるので、再度参照画像
成分8を生成して差分検出部3に出力する。
As described above, the storage units 12 to 16 of the reference image generation unit 2 have the same configuration as the shift register. When the latest input image component 7 is input to the storage unit 12, the reference image component 8 also has a different value. Therefore, the reference image component 8 is generated again and output to the difference detection unit 3.

【0020】次に参照画像成分生成部2の他の構成例を
図3を用いて説明する。図示するように本構成例は平均
化処理部17、メモリ回路18、メモリ制御部19とで
構成される。尚、同図のメモリ回路18はSRAMやD
RAMと呼ばれる一般的なメモリ回路構成で良く、その
メモリ容量は参照画像成分8を生成する為に必要な最適
フレーム数分の画像成分を書き込める容量があれば良
い。
Next, another example of the configuration of the reference image component generator 2 will be described with reference to FIG. As shown in the figure, this configuration example includes an averaging processing unit 17, a memory circuit 18, and a memory control unit 19. The memory circuit 18 shown in FIG.
A general memory circuit configuration called a RAM may be used, and its memory capacity only needs to be large enough to write image components for the optimum number of frames required to generate the reference image component 8.

【0021】本構成例では、まずメモリ回路18で定期
的に入力される最新の入力画像成分7を順次異なるアド
レスに書き込んでいき、メモリ制御部19でアドレス2
0を指定して前記画像成分データ21を読み出す。読み
出された画像成分データ21は平均化処理部17に入力
され、そこで求めた参照画像成分8を差分検出部3に出
力する。
In this configuration example, first, the latest input image component 7 that is periodically input by the memory circuit 18 is sequentially written to different addresses, and the memory controller 19 controls the address 2
The image component data 21 is read out by designating 0. The read image component data 21 is input to the averaging processing unit 17, and the reference image component 8 obtained there is output to the difference detection unit 3.

【0022】続いて差分検出部3について説明する。前
記差分検出部3は、入力される最新の入力画像成分7と
参照画像成分8とからその差分値を検出する処理部で、
検出した補正データ9を入力画像補正部5へ出力する。
Next, the difference detecting section 3 will be described. The difference detection unit 3 is a processing unit that detects a difference value between the latest input image component 7 and the reference image component 8 that are input,
The detected correction data 9 is output to the input image correction unit 5.

【0023】次に説明する入力画像格納部4は、上記の
補正データ9を検出している期間中、入力画像データ6
を一時格納しておく為の格納部である。入力画像格納部
4はビデオメモリやSRAM、DRAMと呼ばれる一般
的なメモリを用いても良いし、フレームメモリと呼ばれ
るFIFO構成の専用メモリを使用しても良い。本実施
例ではフレームメモリを用いた例を挙げる。一般に画像
データは画面の左上の画素より右下の画素の順に入力さ
れており、フレームメモリの場合を例にとって説明する
と、入出力時ともに左上の画素から右下の画素へ順で格
納、または出力する。
The input image storage unit 4 described below stores the input image data 6 during the detection of the correction data 9 described above.
Is a storage unit for temporarily storing. The input image storage unit 4 may use a general memory called a video memory, an SRAM or a DRAM, or a dedicated memory having a FIFO structure called a frame memory. In this embodiment, an example using a frame memory will be described. Generally, image data is input in the order of the lower right pixel from the upper left pixel of the screen.Taking the case of a frame memory as an example, for input / output, the image data is stored or output in order from the upper left pixel to the lower right pixel. I do.

【0024】第1の実施例の画像データ出力部である入
力画像補正部5では補正データ9と前記入力画像格納部
4より出力される補正対象画像データ10を各画素単位
で加算して補正を行う。入力画像補正部5で補正した前
記画像データは出力画像データ11として外部に出力す
る。
In the input image correction unit 5 which is the image data output unit of the first embodiment, the correction is performed by adding the correction data 9 and the correction target image data 10 output from the input image storage unit 4 for each pixel. Do. The image data corrected by the input image correction unit 5 is output to the outside as output image data 11.

【0025】以上が第1の実施例を実現する為の基本構
成例の説明である。
The above is the description of the basic configuration example for realizing the first embodiment.

【0026】次に本発明での補正処理例(前記記載の入
力画像補正部5における補正処理例)を図4を用いて説
明する。尚、同図では横軸を画素値、縦軸を画素数とし
ている。同図の直線22を図1記載の参照画像成分8、
曲線23を図1記載の補正対象画像データ10のヒスト
グラム曲線とすると、直線24は第1図記載の最新の入
力画像成分7となり、直線22及び直線24の間隔の大
きさ25は補正データ9となる。この補正データ9を各
画素単位で画素値に加算すると、出力画像データ11の
ヒストグラムは曲線26のようになる。
Next, an example of correction processing (an example of correction processing in the input image correction unit 5 described above) according to the present invention will be described with reference to FIG. In the figure, the horizontal axis represents the pixel value, and the vertical axis represents the number of pixels. The straight line 22 in FIG.
Assuming that the curve 23 is a histogram curve of the correction target image data 10 shown in FIG. 1, the straight line 24 is the latest input image component 7 shown in FIG. 1, and the interval 25 between the straight lines 22 and 24 is the correction data 9 Become. When the correction data 9 is added to the pixel value for each pixel, the histogram of the output image data 11 becomes a curve 26.

【0027】以上のように補正処理を行うことで画像デ
ータのヒストグラム曲線は右に平行移動している。つま
り補正処理以前の画像データは画素値の低いデータであ
ったが、本発明の補正処理を行うことで全対的な画素値
が高められたことになる。実際にフリッカが発生してい
る画像ではフレームごとに画素値が変動しているので、
上記処理を行うことで画素値の変動を押さえることがで
きる。
By performing the correction processing as described above, the histogram curve of the image data is shifted to the right in parallel. In other words, the image data before the correction processing has low pixel values, but by performing the correction processing of the present invention, the omnidirectional pixel values are increased. In the image where flicker actually occurs, the pixel value varies for each frame, so
By performing the above processing, it is possible to suppress the fluctuation of the pixel value.

【0028】このように、本発明によれば参照画像の画
像成分を用いることで蛍光燈等の照明により発生する画
像のフリッカを簡単な構成の画像処理装置で抑制するこ
とができる。また、本発明の補正処理により、各フレー
ム間の相関を高めることができ、インターネットやテレ
ビ会議システム、テレビ電話等での画像データ転送時に
も効果が得られる。
As described above, according to the present invention, by using the image components of the reference image, it is possible to suppress the flicker of the image generated by the illumination such as the fluorescent lamp with the image processing apparatus having a simple configuration. In addition, the correction processing according to the present invention can enhance the correlation between the respective frames, and can provide an effect when transferring image data via the Internet, a video conference system, a video phone, or the like.

【0029】次に、第2の実施例について図5を用いて
説明する。図示するように本実施例は第1の実施例の基
本構成例を元に画像データ入出力部に新たに画像形式変
換部27、29と画像データ合成部28を設け、入力画
像格納部4の代わりに輝度画像格納部30と色素画像格
納部31に設けている。まず入力側では、入力画像デー
タ6が画像形式変換部27で輝度・色素成分形式に変換
される。ここでは入力画像データ6の画像データの形式
を特定する為、新たに入力画像形式情報32を画像形式
変換部27に入力する。
Next, a second embodiment will be described with reference to FIG. As shown in the figure, in the present embodiment, based on the basic configuration example of the first embodiment, image format conversion units 27 and 29 and an image data synthesizing unit 28 are newly provided in the image data input / output unit. Instead, they are provided in the luminance image storage unit 30 and the dye image storage unit 31. First, on the input side, the input image data 6 is converted by the image format converter 27 into a luminance / dye component format. Here, in order to specify the format of the image data of the input image data 6, the input image format information 32 is newly input to the image format conversion unit 27.

【0030】前記画像形式変換部27において輝度・色
素形式に変換された画像データは輝度画像データ33と
色素画像データ34に分けられる。前記輝度画像データ
33は画像成分抽出部1と入力画像格納部4に出力し、
色素画像データ34は色素画像格納部31に出力する。
上記のように本実施例は第1の実施例における入力画像
データ6の代わりに輝度画像データ33が入力されてお
り、内部では輝度画像データ33を用いて画像成分の抽
出や補正データ8の検出を行っている。
The image data converted into the luminance / dye format in the image format converter 27 is divided into luminance image data 33 and dye image data 34. The luminance image data 33 is output to the image component extraction unit 1 and the input image storage unit 4,
The dye image data 34 is output to the dye image storage 31.
As described above, in this embodiment, the luminance image data 33 is input instead of the input image data 6 in the first embodiment, and the extraction of the image components and the detection of the correction data 8 are internally performed using the luminance image data 33. It is carried out.

【0031】また入力画像補正部5においても同様に輝
度成分に特化された補正を行い、輝度補正画像データ3
5として出力する。この輝度補正画像データ35と色素
画像格納部31より出力された色素画像データ36は画
像データ合成部28で合成され、合成画像データ37は
画像形式変換部29に出力する。ここで、入力画像形式
情報32を用いて、入力時の画像形式に戻されで外部に
出力画像データ11として出力する。
Similarly, the input image correction unit 5 performs a correction specialized for the luminance component, and outputs the corrected luminance image data 3.
Output as 5. The luminance-corrected image data 35 and the dye image data 36 output from the dye image storage unit 31 are synthesized by the image data synthesis unit 28, and the synthesized image data 37 is output to the image format conversion unit 29. Here, using the input image format information 32, the image is returned to the image format at the time of input, and is output to the outside as output image data 11.

【0032】以上が本実施例におけるデータの流れにな
る。次に本実施例の特徴である、画像データの輝度成分
に限定した処理による効果を図6を用いて説明する。同
図は画像成分抽出部1と入力画像補正部5での演算量を
示したもので図のa)、c)が第1の実施例、b)、
d)が第2の実施例である。同図a)、b)で示すよう
に画像成分の抽出する為には各画素値を求める必要があ
る。例えば第1の実施例がRGB形式と呼ばれるような
赤、緑、青の成分で構成されている一般的な画像データ
の場合は1画素の画素値を求める為に2回の演算(加
算)処理が必要になる。
The above is the data flow in this embodiment. Next, the effect of the processing limited to the luminance component of the image data, which is a feature of the present embodiment, will be described with reference to FIG. The figure shows the amount of calculation in the image component extraction unit 1 and the input image correction unit 5, and a) and c) in the figure are the first embodiment, b),
d) is the second embodiment. As shown in FIGS. 7A and 7B, it is necessary to obtain each pixel value in order to extract an image component. For example, in the case of general image data composed of red, green, and blue components, which is called the RGB format in the first embodiment, two operations (addition) are performed to obtain the pixel value of one pixel. Is required.

【0033】しかし、本実施例のように輝度成分に限定
してしまえば、b)図に示すようにすでに1画素の輝度
成分のみの画素値は抽出されているので、必要な演算処
理は平均の画素値を求めてやるだけでよくなる。具体的
には(画素数−1)の加算処理と画素数での除算処理だ
けで済むことになる。これが第1の実施例で上記RGB
形式であれば、前記の処理量プラス画素数×2の加算処
理が必要になることがわかる。
However, if the luminance component is limited as in the present embodiment, b) Since the pixel value of only one luminance component has already been extracted as shown in FIG. It is only necessary to determine the pixel value of. Specifically, only the addition process of (number of pixels-1) and the division process by the number of pixels are required. This is the first embodiment with the above RGB
In the case of the format, it is understood that an addition process of the processing amount plus the number of pixels × 2 is required.

【0034】また、同図c)、d)を見てもわかるよう
に画像の補正処理においても第2の実施例の各画素に1
回でよいのに対して第1の実施例では各成分ごとにつま
り1画素に3回の演算を行う必要があることになる。
Also, as can be seen from FIGS. 3C and 3D, in the image correction processing, one pixel is applied to each pixel of the second embodiment.
In the first embodiment, three calculations need to be performed for each component, that is, three times for one pixel.

【0035】このように、本実施例を適用することで第
1の実施例の演算処理量を1/3程度に減らすことがで
きる。本実施例を適用する為には画像形式の変換処理が
必要になってくるが、入力時の画像形式が輝度・色素成
分形式であれば純粋に演算量の低減が見込める。しか
も、本発明は照明等により生じるフリッカを除去するこ
とが目的であり、画像データにおける輝度成分は前記の
フリッカに対して大きく影響するものなので、成分を輝
度に限定した本実施例は最も効果が得られる補正処理と
いえる。また、輝度画像格納部と色素画像格納部の2つ
の格納部を設けたとしても全画像データを単純に2つに
分けて格納するだけのものなので、格納部の規模は第1
の実施例と同等で済む。
As described above, by applying this embodiment, the amount of arithmetic processing in the first embodiment can be reduced to about 1/3. To apply this embodiment, image format conversion processing is required. However, if the image format at the time of input is a luminance / dye component format, a pure reduction in the amount of calculation can be expected. In addition, the present invention aims to remove flicker caused by illumination and the like, and since the luminance component in image data greatly affects the flicker, the present embodiment in which the component is limited to luminance has the most effect. It can be said that the correction processing is obtained. Further, even if two storage units, that is, a luminance image storage unit and a dye image storage unit, are provided, since the entire image data is simply divided into two and stored, the size of the storage unit is the first.
This is equivalent to the embodiment.

【0036】続いて第3の実施例について図7を用いて
説明する。本実施例は前記第1、第2の実施例における
参照画像成分の生成処理を幾つかの領域に分割処理した
ものである。同図に示すように基本構成例は領域画像成
分抽出部38と参照領域画像成分生成部39と差分検出
部40、そして領域画像制御部41,42とが追加・変
更される。尚、同図は第1の実施例についての本実施例
の基本構成例である。全体の流れとしては、まず入力画
像データ6が入力されると領域画像成分抽出部38では
領域を分割してそれぞれの領域ごとに領域画像成分43
及び45を抽出する。ここで領域画像成分を2つに分け
て出力しているのは差分検出部40で対応する領域ごと
に処理を行う為である。
Next, a third embodiment will be described with reference to FIG. In this embodiment, the reference image component generation processing in the first and second embodiments is divided into several regions. As shown in the figure, in the basic configuration example, a region image component extraction unit 38, a reference region image component generation unit 39, a difference detection unit 40, and region image control units 41 and 42 are added or changed. FIG. 3 is an example of the basic configuration of the present embodiment for the first embodiment. As an overall flow, first, when the input image data 6 is input, the region image component extraction unit 38 divides the region and divides the region into the region image components 43 for each region.
And 45 are extracted. The reason why the area image component is divided into two and outputted is that the difference detection unit 40 performs processing for each corresponding area.

【0037】抽出された領域画像成分43は参照領域画
像成分抽出部39へ出力され、各領域ごとに参照領域画
像成分44を生成する。生成した参照領域画像成分44
と領域画像成分抽出部38で抽出した領域画像成分45
は差分検出部40へ出力されるが、この時それぞれ対応
した領域の補正データを検出する為、データ出力のタイ
ミングを領域画像制御部40で制御する。前述のように
差分検出部40で各領域ごとの領域補正データ47が検
出されており、入力画像格納部4から出力される補正画
像データ46の出力タイミングに合わせて領域差分値4
7を出力するように領域画像制御部42で制御する。以
上が本実施例の概略である。次に各処理部の内部構成に
ついて述べる。
The extracted region image component 43 is output to the reference region image component extraction unit 39, and a reference region image component 44 is generated for each region. The generated reference region image component 44
And the area image component 45 extracted by the area image component extraction unit 38
Is output to the difference detection unit 40. At this time, the timing of data output is controlled by the region image control unit 40 in order to detect correction data of the corresponding regions. As described above, the region correction data 47 for each region is detected by the difference detection unit 40, and the region difference value 4 is adjusted in accordance with the output timing of the corrected image data 46 output from the input image storage unit 4.
7 is controlled by the area image control unit 42. The above is the outline of the present embodiment. Next, the internal configuration of each processing unit will be described.

【0038】まず領域画像成分抽出部38について図
8、9を用いて説明する。図8は本実施例における画面
の領域区分例である。図に示すように、3×3の領域に
分割した例であり、領域48〜56の9つに分割されて
いる。画像データの流れは画面の左上から右下の方向に
入力される為、第8図を用いて説明すると画素57,5
8、・・・、59,60、・・・、61,62、・・・
の順に入力されていることになる。図9は図8の3×3
領域分割例時の領域画像成分抽出部38の内部構成例で
ある。同図において成分抽出部63〜65が3つあるの
は、上述した通り、画像データがラインごとに入力され
ている為で、ここでの成分抽出部の数はラインを分割し
た数、つまり縦方向の分割数に依存している。実際には
第10図の領域制御部63で画素57,58,・・・、
59までの画素データ(領域48の1ライン目の画素)
を成分抽出部64へ出力させている。同様に画素60か
らの画素データ(領域49の1ライン目のデータ)を成
分抽出部65へ出力させ、領域50の1ライン目のデー
タを成分抽出部66へ出力させるように制御している。
First, the area image component extraction unit 38 will be described with reference to FIGS. FIG. 8 is an example of area division of a screen in this embodiment. As shown in the figure, this is an example in which the image is divided into 3 × 3 areas, and is divided into nine areas 48 to 56. Since the flow of the image data is input from the upper left to the lower right of the screen, it will be described with reference to FIG.
8, ..., 59, 60, ..., 61, 62, ...
In that order. FIG. 9 shows the 3 × 3 of FIG.
5 is an example of the internal configuration of a region image component extraction unit 38 in a region division example. The reason why there are three component extraction units 63 to 65 in the figure is that the image data is input for each line as described above, and the number of component extraction units here is the number of divided lines, that is, the vertical It depends on the number of divisions in the direction. Actually, the pixels 57, 58,...
Pixel data up to 59 (pixels in the first line of the area 48)
Is output to the component extraction unit 64. Similarly, control is performed so that pixel data (data of the first line of the region 49) from the pixel 60 is output to the component extraction unit 65, and data of the first line of the region 50 is output to the component extraction unit 66.

【0039】画素60までのデータを成分抽出部66に
出力したら、画素61のデータは成分抽出部64へとい
うように領域48の列にあるデータは成分抽出部64
へ、領域49の列にあるデータは成分抽出部49へ、領
域50の列にあるデータは成分抽出部50へ出力され
る。それぞれの成分抽出部64〜66で抽出された画像
成分は参照領域画像成分生成部39と差分検出部40へ
出力されるが、差分検出部40への出力タイミングは前
述した通り領域画像制御部41で制御しているので、一
時データを格納しておく為に抽出成分格納部66を設け
ている。
When the data up to the pixel 60 is output to the component extraction unit 66, the data of the pixel 61 is sent to the component extraction unit 64.
The data in the column of the region 49 is output to the component extraction unit 49, and the data in the column of the region 50 is output to the component extraction unit 50. The image components extracted by the respective component extraction units 64-66 are output to the reference area image component generation unit 39 and the difference detection unit 40. The output timing to the difference detection unit 40 is as described above. Therefore, an extraction component storage unit 66 is provided to store temporary data.

【0040】次に参照領域画像成分生成部39の内部構
成を図10に示す。同図に示すように本処理部では各領
域に対応した参照成分を生成する為、領域画像成分抽出
部38と同様に縦方向の分割数分成分生成部68〜70
を設けている。前記成分生成部68〜70で生成したデ
ータは生成成分格納部71に一時格納し、差分検出部4
0への出力は領域画像制御部40で制御する。
Next, FIG. 10 shows the internal configuration of the reference area image component generator 39. As shown in the figure, the processing unit generates reference components corresponding to each region, so that the component generation units 68 to 70 for the number of divisions in the vertical direction similarly to the region image component extraction unit 38.
Is provided. The data generated by the component generators 68 to 70 is temporarily stored in a generated component storage 71,
The output to 0 is controlled by the area image control unit 40.

【0041】差分検出部40でも同様に領域差分値47
を一時格納しておく処理部を設け、入力画像補正部への
出力タイミングを領域画像制御部42で制御する。
The difference detection unit 40 similarly calculates the area difference value 47
Is provided, and the output timing to the input image correction unit is controlled by the area image control unit 42.

【0042】入力画像補正部4では領域差分値47を画
面全体分検出した時点で補正画像データ46を入力画像
補正部5へ出力し始める。この時、領域画像制御部42
は差分検出部40に対して各領域に対応する領域差分値
47を入力画像補正部5へ出力するよう制御する。入力
画像補正部5では上記のように各領域に対応した補正デ
ータが入力され、補正処理したものを出力画像データ1
1として外部に出力する。
The input image correction section 4 starts outputting corrected image data 46 to the input image correction section 5 when the area difference value 47 is detected for the entire screen. At this time, the area image control unit 42
Controls the difference detection unit 40 to output the region difference value 47 corresponding to each region to the input image correction unit 5. The input image correction unit 5 receives the correction data corresponding to each area as described above and outputs the corrected data to the output image data 1.
Output to the outside as 1.

【0043】上述した領域区分処理を特徴とする本実施
例により次のような効果が得られる。まず、第1、及び
第2の実施例では画面全体に一様な補正値で補正を行っ
てしまうので照明等による影響がない(フリッカが発生
していない)画像領域に対しても補正処理が行ってしま
い、補正処理の精度が悪い。
According to the present embodiment, which is characterized by the above-described area division processing, the following effects can be obtained. First, in the first and second embodiments, since the correction is performed with a uniform correction value over the entire screen, the correction process is performed even on an image area which is not affected by illumination or the like (no flicker is generated). And the accuracy of the correction process is low.

【0044】しかし、本実施例を用いることで前記照明
等の影響しない(フリッカの発生していない)画面領域
に対して、補正が行われにくくなる。結果としてフリッ
カの目立つ画像に対しては処理を行うがフリッカの目立
たない領域には補正処理を行われにくくなり、補正処理
精度の向上と処理量の低減が実現できる。尚、第2の実
施例に対しても第1の実施例同様に上記の効果が得られ
る。
However, the use of this embodiment makes it difficult to perform correction on a screen area which is not affected by the illumination or the like (no flicker is generated). As a result, processing is performed on an image where flicker is conspicuous, but it is difficult to perform correction processing on an area where flicker is not conspicuous, so that it is possible to improve the correction processing accuracy and reduce the processing amount. The above-described effects can be obtained for the second embodiment as well as the first embodiment.

【0045】続いて第4の実施例について図11を用い
て説明する。本実施例は前記第3の実施例において画像
を領域区分した時に生じる各境界線での補正データの差
異を補正するためのものであり、第12図に示すように
各領域の補正データの中間値を用いることで境界線を目
立たなくする方式を示している。尚、同図に示すa1
1,a12,a21,a22は各領域での参照画像成分
を示している。
Next, a fourth embodiment will be described with reference to FIG. This embodiment is for correcting a difference in correction data at each boundary line generated when an image is divided into regions in the third embodiment. As shown in FIG. It shows a method of making the boundary line inconspicuous by using a value. Note that a1 shown in FIG.
1, a12, a21, and a22 indicate reference image components in each area.

【0046】まず各領域の補正データを隣接する領域と
比較し、ある値以上であれば前記の中間値補正を行うよ
うにする。図11a)は隣接する境界線72に中間値補
正が必要な場合の補正である。a)図のように横の境界
線72に対して数ライン単位で領域を指定して、各領域
73,74,75に中間値を生成して補正を行う。具体
的な中間値の値は図に示したように領域73に対しては
(2*a12+a22)/3とし、領域74には(a1
2+a22)/2とし、領域75には(a12+2*a
22)/3の中間値成分を用いてやる。縦の境界線73
に対しても同様に数ドット単位でさらに領域区分を行
う。領域、77,78,79に対しても横の場合と同じ
ように中間値成分を生成する。
First, the correction data of each area is compared with an adjacent area, and if it is equal to or more than a certain value, the above-mentioned intermediate value correction is performed. FIG. 11A) shows a case where the intermediate value correction is required for the adjacent boundary line 72. a) As shown in the figure, an area is specified in units of several lines with respect to the horizontal boundary line 72, and an intermediate value is generated in each of the areas 73, 74, and 75 to perform correction. The specific value of the intermediate value is (2 * a12 + a22) / 3 for the area 73 and (a1
2 + a22) / 2, and the area 75 has (a12 + 2 * a
22) / 3 using an intermediate value component. Vertical border 73
Similarly, the area is further divided in units of several dots. Intermediate value components are generated for the regions 77, 78 and 79 in the same manner as in the horizontal case.

【0047】以上のような中間値を適用して補正を行う
ことで、極端に異なった領域補正は行われないようにな
る。
By performing the correction by applying the above-mentioned intermediate value, extremely different area correction can be prevented.

【0048】また、さらに境界線を目立たなくするには
図8b)に示すように各領域の抽出成分を領域の中心の
みに適用し、その他の部分には隣接する領域の抽出成分
と線形をとったものを補正データとしたやる。b)図の
ように境界線80に着目すると、補正データは線81の
ようになる。図は境界線80の縦方向の中間値補正例で
あるが、これを横方向にも適用すれば、さらに詳細で滑
らか補正が行うことができる。
In order to further make the boundary lines less noticeable, the extracted components of each region are applied only to the center of the region, as shown in FIG. The corrected data is used as the correction data. b) When attention is paid to the boundary line 80 as shown in the drawing, the correction data becomes a line 81. The figure shows an example of the correction of the intermediate value in the vertical direction of the boundary line 80. However, if this is also applied to the horizontal direction, more detailed and smooth correction can be performed.

【0049】次に第5の実施例を図12を用いて説明す
る。本実施例は第3の実施例の領域区分時においてある
指定した領域の補正データを1画面全体に適用する補正
方式である。同図に示すように本実施例は第1の実施例
と同様のブロック構成になっている。但し、画像成分抽
出部82では指定する領域のみ用いて画像成分を抽出し
ている為、内部に領域を指定する処理部を設ける。参照
画像成分生成部83、差分検出部84では画像成分抽出
部82で指定した領域の画像成分86をもとに第1の実
施例と同様の処理を行う。
Next, a fifth embodiment will be described with reference to FIG. This embodiment is a correction method in which the correction data of a specified area is applied to the entire one screen at the time of area division in the third embodiment. As shown in the figure, this embodiment has the same block configuration as the first embodiment. However, since the image component extraction unit 82 extracts an image component using only the designated area, a processing unit for designating the area is provided inside. The reference image component generation unit 83 and the difference detection unit 84 perform the same processing as in the first embodiment based on the image components 86 in the area specified by the image component extraction unit 82.

【0050】入力画像格納部85では入力画像データを
補正データ9が検出されるまで一時格納しておき入力画
像補正部5に出力している。この時、指定する領域を1
ライン目とすると、入力画像データ6は画面の左上の画
素からラインごとに入力されているので、第1の実施例
よりも時間的に速いタイミングで画像成分を抽出するこ
とができる。
The input image storage section 85 temporarily stores the input image data until the correction data 9 is detected, and outputs the input image data to the input image correction section 5. At this time, the area to be specified is 1
In the case of the line, since the input image data 6 is input for each line from the upper left pixel of the screen, the image components can be extracted at a timing earlier than in the first embodiment.

【0051】同様に参照画像成分87の生成や、補正デ
ータ9の検出も速いタイミングで処理できるので、入力
画像データ6が1画面全て入力される以前に補正処理を
行えるようになる。前述の実施例では入力画像格納部8
5の容量は1画面の画像データを格納できるだけ必要で
あったが、上記のような領域を指定した場合は1ライン
程度の容量に縮小することができる。
Similarly, since the generation of the reference image component 87 and the detection of the correction data 9 can be processed at a quick timing, the correction processing can be performed before the input image data 6 is completely input on one screen. In the above-described embodiment, the input image storage unit 8
Although the capacity of 5 is necessary to store the image data of one screen, the capacity can be reduced to about 1 line when the above-mentioned area is designated.

【0052】1ライン程度というのは1ラインの画像デ
ータ入力時間プラス補正データ9が検出されるまでの時
間の意味であり、入力画像格納部85から出力する補正
対象画像データ10はその時間分格納して入力画像補正
部5に出力すれば良いことになる。入力画像補正部5で
は入力される補正データ9をもとに補正対象画像データ
10を補正処理し、出力画像データとして外部に出力す
る。
About one line means the input time of one line of image data plus the time until the correction data 9 is detected. The correction target image data 10 output from the input image storage unit 85 is stored for the time. Then, it is only necessary to output to the input image correction unit 5. The input image correction unit 5 performs correction processing on the correction target image data 10 based on the input correction data 9 and outputs it as output image data to the outside.

【0053】以上のように本実施例によって2つの大き
な効果が得られる。まず1つは領域を限定することで演
算量が低減できるということ、2つ目は入力画像格納部
85における容量を縮小できるという点である。但し、
2つ目の入力画像格納部85の容量を縮小できるのは前
述した通り、指定する領域の画素の中で一番最後に入力
される時間に依存するので、画面の一番右下にある画素
を含む領域を指定した場合は容量は縮小できないことに
なる。しかし、本発明の目的は照明等のフリッカ除去で
あり、一般的に照明類が画面に写るのは画面上部である
確率が高いので、本実施例の格納部容量縮小は十分適用
されやすい。
As described above, according to this embodiment, two great effects can be obtained. The first is that the amount of calculation can be reduced by limiting the area, and the second is that the capacity of the input image storage unit 85 can be reduced. However,
As described above, the capacity of the second input image storage unit 85 can be reduced because it depends on the last input time among the pixels in the designated area. If an area including is specified, the capacity cannot be reduced. However, an object of the present invention is to remove flickering of lighting and the like, and generally, there is a high probability that lighting appears on the screen at the upper part of the screen, so that the reduction of the storage capacity of the present embodiment can be easily applied.

【0054】上記の例では最初の1ラインとしたが、さ
らに領域を小さくしていけば入力画像格納部85の規模
はさらに縮小することができる。しかし、領域を小さく
し過ぎると補正データとしての信頼性が弱まってしまう
ので、ある一定の領域は確保しておく必要がある。
In the above example, the first line is used. However, if the area is further reduced, the scale of the input image storage unit 85 can be further reduced. However, if the area is made too small, the reliability as correction data will be weakened, so it is necessary to secure a certain area.

【0055】次に第6の実施例についてを図13を用い
て説明する。尚、図は第1の実施例に本実施例を適用し
たものである。本実施例は入力される入力画像データ6
において画像がフレーム間である場面からある場面に変
更された時に参照画像成分を構成する過去数フレームの
画像成分を用いないことを特徴としている。
Next, a sixth embodiment will be described with reference to FIG. Note that the drawing shows an application of this embodiment to the first embodiment. In the present embodiment, input image data 6 to be input
Is characterized in that, when an image is changed from a scene between frames to a certain scene, image components of past several frames constituting a reference image component are not used.

【0056】図示するように基本構成は第1の実施例に
おいて差分検出部3から入力画像補正部への間に場面変
更検出部88と参照画像成分生成部89を設けている。
まず場面変更検出部88では差分検出部3から出力され
た補正データ9を用いて場面変更があったかどうかを判
定している。その為、ここではあるしきい値を設定して
いる。ここでいうあるしきい値とは場面変更があったと
見なせるような最適な値のことである。
As shown in the figure, in the basic configuration, a scene change detecting section 88 and a reference image component generating section 89 are provided between the difference detecting section 3 and the input image correcting section in the first embodiment.
First, the scene change detection unit 88 determines whether or not a scene change has occurred using the correction data 9 output from the difference detection unit 3. Therefore, a certain threshold is set here. The certain threshold value here is an optimum value that can be regarded as a scene change.

【0057】そしてあるしきい値以上であった場合は、
入力画像データ6に場面変更があったと見なして、参照
画像成分生成部89に場面変更検出信号90を出力す
る。参照画像成分生成部89では場面変更検出信号90
が入力されると、それまで格納してあった過去の画像成
分を削除して、参照画像成分を構成し直し差分検出部3
に出力する。場面変更検出部89において、場面変更と
見なされない場合は、差分検出部3より出力された補正
データ9をそのまま入力画像補正部5へ補正データ91
を出力する。以上が本実施例における動作の変更点であ
る。
If the threshold value is exceeded,
Assuming that a scene change has occurred in the input image data 6, a scene change detection signal 90 is output to the reference image component generation unit 89. In the reference image component generation unit 89, a scene change detection signal 90
Is input, the past image components stored so far are deleted, the reference image component is reconfigured, and the difference detection unit 3
Output to When the scene change detection unit 89 does not regard the scene change, the correction data 9 output from the difference detection unit 3 is sent to the input image correction unit 5 as it is.
Is output. The above is the change of the operation in the present embodiment.

【0058】続いて本実施例における参照画像成分生成
部89の内部構成を第15,16図に示す。第15図に
示すように格納部92〜96には画像成分が格納されて
いるが、場面変更検出信号9が入力されると格納部92
以外の値は削除する。格納部93〜96の画像成分がな
くなってしまうとこの時点では参照画像成分を構成する
ことができないので、平均化処理部97では最新の入力
画像成分7のみを格納した格納部92の画像成分を参照
画像成分8として出力する。その後ある一定の時間が達
つと格納部93にまで画像成分が生成されているので、
格納部92及び93の画像成分から平均値を構成するよ
うにする。
Next, FIGS. 15 and 16 show the internal structure of the reference image component generator 89 in this embodiment. As shown in FIG. 15, image components are stored in the storage units 92 to 96. When the scene change detection signal 9 is input, the storage units 92 to 96 store the image components.
Values other than are deleted. If the image components in the storage units 93 to 96 are exhausted, a reference image component cannot be formed at this time. Therefore, the averaging processing unit 97 converts the image components in the storage unit 92 storing only the latest input image component 7 The reference image component 8 is output. After that, when a certain period of time has elapsed, the image components are generated up to the storage unit 93.
An average value is configured from the image components in the storage units 92 and 93.

【0059】さらに時間を経ると生成された画像成分が
3つ、4つと増えるので、そのつど平均値を構成する為
に数を増やしていく。図15の内部構成例でも同様に、
場面変更検出信号90が入力されると平均化処理部98
では用いる画像成分を上記と同様に制御して参照画像成
分を構成する。
As the time elapses, the number of generated image components increases to three and four, so that the number is increased each time to form an average value. Similarly, in the internal configuration example of FIG.
When the scene change detection signal 90 is input, the averaging processing section 98
Then, the image components to be used are controlled in the same manner as described above to form the reference image components.

【0060】以上が本実施例の基本動作例である。前述
した1〜5記載の実施例では参照画像成分は絶えず最新
の入力画像から数フレーム分過去の画像成分を用いてい
て生成していたが、これでは入力画像データにおいて場
面が変更された時、場面が変更された直後の画像データ
に対して場面が変更される以前の画像が影響してしま
う。そこで、本実施例のように場面変更検出を行うと、
場面変更以前の影響を受けない補正処理装置が実現でき
る。また、場面変更検出機能を持った他の画像処理装置
に出力する場合も場面変更を検出しやすくさせる効果が
ある。
The above is the basic operation example of the present embodiment. In the above-described embodiments 1 to 5, the reference image component is constantly generated using image components several frames past from the latest input image. However, when a scene is changed in the input image data, The image before the scene is changed affects the image data immediately after the scene is changed. Therefore, when scene change detection is performed as in the present embodiment,
It is possible to realize a correction processing device which is not affected by the scene change. Also, when outputting to another image processing apparatus having a scene change detection function, there is an effect that the scene change can be easily detected.

【0061】次に第7の実施例について図16を用いて
説明する。本実施例は第6の実施例において場面変更と
見なしていた補正データのしきい値をさらに小さい値と
することで動き検出を行う。このしきい値は画像におい
て動きが検出できる最適の値を設定する。図示するよう
に第6の実施例の場面変更検出部88の代わりに動き検
出部を設けている。また、その他に参照画像成分生成部
100の内部構成も第6の実施例とは異なっている。
Next, a seventh embodiment will be described with reference to FIG. In the present embodiment, motion detection is performed by setting the threshold value of the correction data, which is regarded as a scene change in the sixth embodiment, to a smaller value. This threshold value sets an optimum value at which motion can be detected in an image. As shown, a motion detecting section is provided instead of the scene change detecting section 88 of the sixth embodiment. In addition, the internal configuration of the reference image component generation unit 100 is different from that of the sixth embodiment.

【0062】本実施例のデータの流れは前述した第6の
実施例通りに行うが、動き検出部において入力される補
正データ9の値がしきい値以上であった場合、参照画像
成分生成部100に動き検出信号101を出力する。参
照画像成分生成部100ではこの動き検出信号101に
よってのみ参照画像成分を生成する。その時はそれまで
参照成分として内部に格納していた画像成分は全て削除
し、最新の入力画像成分7とそれ以降に入力される画像
成分を用いて参照画像成分を構成していく。
The flow of data in this embodiment is the same as that in the sixth embodiment described above. However, if the value of the correction data 9 input to the motion detecting section is equal to or larger than the threshold, the reference image component generating section A motion detection signal 101 is output to 100. The reference image component generation unit 100 generates a reference image component only based on the motion detection signal 101. At that time, all image components that have been stored internally as reference components up to that point are deleted, and reference image components are constructed using the latest input image component 7 and image components input thereafter.

【0063】しかし、動き検出部99で補正データ9が
設定したしきい値以下であれば、動き検出信号101は
参照画像成分生成部100には出力しない。この時、参
照画像成分生成部では絶えず最新の入力画像成分7が入
力されてくるがこの値は格納せず、新たには参照画像成
分を生成しない。その他の動作は前述の実施例と同様に
行う。
However, if the correction data 9 is equal to or smaller than the threshold value set by the motion detecting section 99, the motion detecting signal 101 is not output to the reference image component generating section 100. At this time, the latest input image component 7 is constantly input to the reference image component generation unit, but this value is not stored, and no new reference image component is generated. Other operations are performed in the same manner as in the above-described embodiment.

【0064】以上で述べたような本実施例を用いること
で、次の効果が得られる。まず、それまで述べていた実
施例では絶えず参照画像成分の生成を行っていたが、入
力画像において変化(動き)がないフレーム間では生成
される参照画像成分の値はほぼ同じ値になる。しかし、
本実施例のように入力画像に変化がある時のみ参照画像
成分の生成を行うことので、補正精度があまり悪くなら
ずに演算処理量を低減することができる。
The following effects can be obtained by using the present embodiment as described above. First, in the above-described embodiments, the reference image component is constantly generated, but the value of the generated reference image component is substantially the same between frames in the input image where there is no change (movement). But,
Since the generation of the reference image component is performed only when there is a change in the input image as in the present embodiment, it is possible to reduce the amount of arithmetic processing without significantly deteriorating the correction accuracy.

【0065】[0065]

【発明の効果】以上説明してきたように、本発明によれ
ば、蛍光燈等の照明により発生する画像のフリッカを抑
制することができる。また、それによりフレーム間相関
を高めることができ画像圧縮率の向上と、効率的な画像
転送が可能になる。
As described above, according to the present invention, it is possible to suppress the flicker of an image generated by illumination such as a fluorescent lamp. In addition, it is possible to increase the inter-frame correlation, thereby improving the image compression ratio and enabling efficient image transfer.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施形態に係る基本構成を示すブ
ロック図である。
FIG. 1 is a block diagram showing a basic configuration according to a first embodiment of the present invention.

【図2】本発明の第1実施形態に係る参照画像成分生成
部の内部構成例を示す図である。
FIG. 2 is a diagram illustrating an example of an internal configuration of a reference image component generation unit according to the first embodiment of the present invention.

【図3】本発明の第1実施形態に係る参照画像成分生成
部の他の内部構成例を示す図である。
FIG. 3 is a diagram illustrating another example of the internal configuration of the reference image component generation unit according to the first embodiment of the present invention.

【図4】本発明の第1実施形態に係る入力画像補正部に
おける補正処理例を示す図である。
FIG. 4 is a diagram illustrating an example of a correction process in an input image correction unit according to the first embodiment of the present invention.

【図5】本発明の第2実施形態に係る基本構成を示すブ
ロック図である。
FIG. 5 is a block diagram showing a basic configuration according to a second embodiment of the present invention.

【図6】本発明の第1、2実施形態に係る演算処理量の
比較図である。
FIG. 6 is a comparison diagram of the amount of arithmetic processing according to the first and second embodiments of the present invention.

【図7】本発明の第3実施形態に係る基本構成を示すブ
ロック図である。
FIG. 7 is a block diagram showing a basic configuration according to a third embodiment of the present invention.

【図8】本発明の第3実施形態に係る領域区分例示す図
である。
FIG. 8 is a diagram showing an example of area division according to a third embodiment of the present invention.

【図9】本発明の第3実施形態に係る領域画像成分抽出
部の内部構成例を示すブロック図である。
FIG. 9 is a block diagram illustrating an example of an internal configuration of an area image component extraction unit according to a third embodiment of the present invention.

【図10】本発明の第3実施形態に係る参照領域画像成
分生成部の内部構成例を示すブロック図である。
FIG. 10 is a block diagram illustrating an example of an internal configuration of a reference region image component generation unit according to a third embodiment of the present invention.

【図11】本発明の第4実施形態に係る境界線の中間値
生成例を示すブロック図である。
FIG. 11 is a block diagram illustrating an example of generating an intermediate value of a boundary line according to a fourth embodiment of the present invention.

【図12】本発明の第5実施形態に係る基本構成を示す
ブロック図である。
FIG. 12 is a block diagram showing a basic configuration according to a fifth embodiment of the present invention.

【図13】本発明の第6実施形態に係る基本構成を示す
ブロック図である。
FIG. 13 is a block diagram showing a basic configuration according to a sixth embodiment of the present invention.

【図14】本発明の第6実施形態に係る参照画像成分生
成部の内部構成を示す図である。
FIG. 14 is a diagram illustrating an internal configuration of a reference image component generation unit according to a sixth embodiment of the present invention.

【図15】本発明の第6実施形態に係る参照画像成分生
成部の他の内部構成を示す図である。
FIG. 15 is a diagram illustrating another internal configuration of the reference image component generation unit according to the sixth embodiment of the present invention.

【図16】本発明の第7実施形態に係る基本構成を示す
ブロック図である。
FIG. 16 is a block diagram showing a basic configuration according to a seventh embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…画像成分抽出部、2…参照画像成分生成部、3…差
分検出部、4…入力画像格納部、5…入力画像補正部、
6…入力画像データ、7…最新の入力画像成分、8…参
照画像成分、9…補正データ、10…補正対象画像デー
タ、11…出力画像データ、12〜16…格納部、17
…平均化処理部、18…メモリ回路、19…メモリ制御
部、20…アドレス、21…画像成分データ、22…参
照画像成分(直線)、23…補正対象画像データ(曲
線)、24…補正対象画像成分(直線)、25…補正デ
ータ、26…出力画像データ(曲線)、27…画像形式
変換部、28…画像データ合成部、29…画像形式変換
部、30…輝度画像格納部、31…色素画像格納部、3
2…入力画像形式情報、33…輝度画像データ、34…
色素画像データ、35…輝度補正画像データ、36…色
素画像データ、37…合成画像データ、38…領域画像
成分抽出部、39…参照領域画像成分生成部、40…差
分検出部、41…領域画像制御部、42…領域画像制御
部、43…領域画像成分、44…参照領域画像成分、4
5…領域画像成分、46…補正画像データ、47…領域
差分値、48〜56…領域、57〜62…画素、63…
領域制御部、64〜66…成分抽出部、67…抽出成分
格納部、68〜70…成分生成部、71…生成成分格納
部、72…境界線、73…境界線、74〜79…領域、
80…境界線、81…補正データ、82…画像成分抽出
部、83…参照画像成分生成部、84…差分検出部、8
5…入力画像格納部、86…画像成分、87…参照画像
成分、88…場面変更検出部、89…参照画像成分生成
部、90…場面変更検出信号、91…補正データ、92
〜96…格納部、97…平均化処理部、98…平均化処
理部、99…動き検出部、100…参照画像成分生成
部、101…動き検出信号。
DESCRIPTION OF SYMBOLS 1 ... Image component extraction part, 2 ... Reference image component generation part, 3 ... Difference detection part, 4 ... Input image storage part, 5 ... Input image correction part,
6 ... input image data, 7 ... latest input image component, 8 ... reference image component, 9 ... correction data, 10 ... correction target image data, 11 ... output image data, 12-16 ... storage unit, 17
... Averaging unit, 18 ... Memory circuit, 19 ... Memory control unit, 20 ... Address, 21 ... Image component data, 22 ... Reference image component (straight line), 23 ... Correction target image data (Curve), 24 ... Correction target Image components (straight lines), 25: correction data, 26: output image data (curves), 27: image format conversion unit, 28: image data synthesis unit, 29: image format conversion unit, 30: luminance image storage unit, 31 ... Dye image storage unit, 3
2 ... input image format information, 33 ... luminance image data, 34 ...
Dye image data, 35: brightness corrected image data, 36: dye image data, 37: composite image data, 38: area image component extraction unit, 39: reference area image component generation unit, 40: difference detection unit, 41: area image Control unit, 42: region image control unit, 43: region image component, 44: reference region image component, 4
5 area image component, 46 corrected image data, 47 area difference value, 48 to 56 area, 57 to 62 pixel, 63
Area control unit, 64-66 component extraction unit, 67 extracted component storage unit, 68-70 component generation unit, 71 generation component storage unit, 72 boundary line, 73 boundary line, 74-79 region,
80: boundary line, 81: correction data, 82: image component extraction unit, 83: reference image component generation unit, 84: difference detection unit, 8
5 Input image storage unit 86 Image component 87 Reference image component 88 Scene change detection unit 89 Reference image component generation unit 90 Scene change detection signal 91 Correction data 92
-96: storage unit, 97: averaging processing unit, 98: averaging processing unit, 99: motion detection unit, 100: reference image component generation unit, 101: motion detection signal.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 森野 東海 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 (72)発明者 梶山 透 神奈川県横浜市戸塚区吉田町292番地 株 式会社日立画像情報システム内 (72)発明者 小檜山 智久 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 (72)発明者 蠣崎 聰 東京都小平市上水本町5丁目22番1号 株 式会社日立超エル・エス・アイ・システム ズ内 (72)発明者 岡山 祐孝 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 (72)発明者 小日向 宣昭 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 (72)発明者 阿川 隆一 神奈川県横浜市戸塚区吉田町292番地 株 式会社日立画像情報システム内 Fターム(参考) 5C021 PA52 PA58 PA66 PA76 PA77 PA83 RA16 RB06 RB08 SA11 SA24 YA07  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Morino Tokai 1099 Ozenji Temple, Aso-ku, Kawasaki City, Kanagawa Prefecture Inside the Hitachi, Ltd.System Development Laboratory (72) Inventor Toru Kajiyama 292 Yoshida-cho, Totsuka-ku, Yokohama-shi, Kanagawa Prefecture Inside Hitachi Image Information System (72) Inventor Tomohisa Kohiyama 1099 Ozenji Temple, Aso-ku, Kawasaki City, Kanagawa Prefecture Inside System Development Laboratory, Hitachi, Ltd. (72) Inventor Satoshi Kakizaki 5--22 Kamimizuhoncho, Kodaira-shi, Tokyo No. 1 Inside Hitachi Super LSI Systems Co., Ltd. (72) Inventor Yutaka Okayama 1099 Ozenji Temple, Aso-ku, Kawasaki-shi, Kanagawa Prefecture Inside System Development Laboratory, Hitachi, Ltd. (72) Nobuaki Kohinata Kanagawa 1099 Ozenji Temple, Aso-ku, Kawasaki-shi Research house (72) inventor Ryuichi Agawa Kanagawa Prefecture, Totsuka-ku, Yokohama-shi Yoshida-cho, 292 address Co., Ltd. Hitachi image information system in the F-term (reference) 5C021 PA52 PA58 PA66 PA76 PA77 PA83 RA16 RB06 RB08 SA11 SA24 YA07

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】入力画像における画像成分を抽出する手段
と、最新の入力画像以前に入力された過去数フレーム分
の抽出画像成分から参照画像成分を生成する手段と、最
新の入力画像成分と参照画像成分から差分値すなわち補
正データを検出する手段と、補正データを検出する間入
力画像データを格納する手段と、補正データを用いて前
記格納部にて格納されていた補正対象画像に補正をかけ
て出力する手段とを有することを特徴とする画像処理装
置。
A means for extracting an image component in the input image; a means for generating a reference image component from extracted image components for the past several frames input before the latest input image; Means for detecting a difference value, that is, correction data from an image component; means for storing input image data while detecting the correction data; and applying correction to the correction target image stored in the storage unit using the correction data. And an output unit for outputting the image data.
【請求項2】請求項1記載の画像処理装置において、入
力画像データの形式を輝度・色素成分に変換する手段
と、輝度成分についてのみ補正処理を行う手段と、補正
後の輝度画像データと補正処理を行わない色素画像デー
タとを合成する手段とを有した画像処理装置であり、画
像データの輝度成分のみに限定した処理を行うことで演
算量の低減を特徴とする画像処理装置。
2. An image processing apparatus according to claim 1, wherein said means for converting the format of the input image data into luminance / dye components, means for correcting only the luminance component, What is claimed is: 1. An image processing apparatus comprising: means for synthesizing dye image data that is not subjected to processing; and performing processing limited to only the luminance component of the image data, thereby reducing the amount of calculation.
【請求項3】請求項1又は2記載の画像処理装置におい
て、領域分割して画像成分を抽出する手段と、各領域ご
とに参照画像成分を構成する手段と、領域ごとに補正デ
ータを検出する手段と、領域分割時または合成時におけ
る画像データ処理タイミングを制御する手段とを有し、
1画面を幾つかの領域に分割することで補正処理精度の
向上と演算量低減を特徴とする画像処理装置。
3. An image processing apparatus according to claim 1, wherein said means for extracting an image component by dividing the area, means for forming a reference image component for each area, and detecting correction data for each area. Means, and means for controlling image data processing timing at the time of area division or synthesis,
An image processing apparatus characterized in that one screen is divided into several regions, thereby improving correction processing accuracy and reducing the amount of calculation.
【請求項4】請求項3記載の画像処理装置において、領
域分割によって隣接する領域の補正データが極端に異な
る場合、中間値を用いて境界線をぼかす補正処理を行う
ことを特徴とする画像処理装置。
4. An image processing apparatus according to claim 3, wherein when the correction data of the adjacent area is extremely different due to the area division, the correction processing for blurring the boundary line using the intermediate value is performed. apparatus.
【請求項5】請求項3記載の画像処理装置において、指
定する領域の差分値を用いて画面全体に補正処理を行う
画像処理装置であって、領域を限定することで補正デー
タ検出時間を短縮でき、入力画像データを前記処理期間
中保持する格納部の規模縮小を特徴とする画像処理装
置。
5. The image processing apparatus according to claim 3, wherein the correction processing is performed on the entire screen using the difference value of the designated area, and the correction data detection time is reduced by limiting the area. An image processing apparatus capable of reducing the scale of a storage unit that holds input image data during the processing period.
【請求項6】前記記載の画像処理装置であって、最新の
画像成分と参照画像成分とを比較した補正データにおい
て、その値があるしきい値以上であった場合には場面変
更と見なし、参照画像成分を構成していた過去数フレー
ムのデータを削除することで、場面変更以前の画像デー
タの影響を受けないことを特徴とする画像処理装置。
6. The image processing apparatus according to claim 1, wherein the correction data obtained by comparing the latest image component with the reference image component is regarded as a scene change if the value is equal to or greater than a certain threshold value. An image processing apparatus characterized by being free from the influence of image data before a scene change by deleting data of past several frames constituting a reference image component.
【請求項7】請求項6記載の画像処理装置であって、補
正データに対して入力画像に変化や動きがあるかどうか
判定できるような詳細なしきい値を設け、そのしきい値
以上になった時のみ参照画像成分の生成を行うように制
御し、参照画像成分の生成処理量低減を特徴とする画像
処理装置。
7. An image processing apparatus according to claim 6, wherein a detailed threshold value is provided for the correction data so that it can be determined whether or not the input image has a change or a movement, and the correction data exceeds the threshold value. An image processing apparatus that controls generation of a reference image component only when the reference image component is generated and reduces the amount of reference image component generation processing.
JP11132335A 1999-05-13 1999-05-13 Picture processor Withdrawn JP2000324365A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11132335A JP2000324365A (en) 1999-05-13 1999-05-13 Picture processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11132335A JP2000324365A (en) 1999-05-13 1999-05-13 Picture processor

Publications (1)

Publication Number Publication Date
JP2000324365A true JP2000324365A (en) 2000-11-24

Family

ID=15078932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11132335A Withdrawn JP2000324365A (en) 1999-05-13 1999-05-13 Picture processor

Country Status (1)

Country Link
JP (1) JP2000324365A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003199123A (en) * 2001-12-26 2003-07-11 Minolta Co Ltd Flicker correction in moving picture
US7043093B2 (en) 2001-08-10 2006-05-09 Minolta Co., Ltd. Program for processing image, recording medium of the program and method of and apparatus for processing image
WO2008074785A1 (en) * 2006-12-21 2008-06-26 Thomson Licensing Image processing method and device implementing said method
US9451176B2 (en) 2014-03-28 2016-09-20 Sony Corporation Image signal processor that reduces a flicker component of an image signal depending on a level change between continuous frames

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7043093B2 (en) 2001-08-10 2006-05-09 Minolta Co., Ltd. Program for processing image, recording medium of the program and method of and apparatus for processing image
JP2003199123A (en) * 2001-12-26 2003-07-11 Minolta Co Ltd Flicker correction in moving picture
US7218777B2 (en) 2001-12-26 2007-05-15 Minolta Co., Ltd. Flicker correction for moving picture
US7869652B2 (en) 2001-12-26 2011-01-11 Minolta Co., Ltd. Flicker correction for moving picture
WO2008074785A1 (en) * 2006-12-21 2008-06-26 Thomson Licensing Image processing method and device implementing said method
FR2910673A1 (en) * 2006-12-21 2008-06-27 Thomson Licensing Sas IMAGE PROCESSING METHOD AND DEVICE IMPLEMENTING SAID METHOD
US8184125B2 (en) 2006-12-21 2012-05-22 Thomson Licensing Image processing method and device implementing said method
US9451176B2 (en) 2014-03-28 2016-09-20 Sony Corporation Image signal processor that reduces a flicker component of an image signal depending on a level change between continuous frames

Similar Documents

Publication Publication Date Title
US8570334B2 (en) Image processing device capable of efficiently correcting image data and imaging apparatus capable of performing the same
US20070146810A1 (en) Image display apparatus, method, and program
JP2008067372A (en) Image generation system and method
JPH04205573A (en) Picture processor
US20120169900A1 (en) Image processing device and image processing method
US20230069014A1 (en) Method and apparatus for generating low bit width hdr image, storage medium, and terminal
JP6087612B2 (en) Image processing apparatus and image processing method
JP2007013666A (en) Image processor
JP5829122B2 (en) Imaging apparatus and evaluation value generation apparatus
US20040096108A1 (en) Image processing apparatus and method for converting image data between raster scan order and block scan order
JP2000324365A (en) Picture processor
JP5820720B2 (en) Imaging device
JP5959194B2 (en) Imaging device
JP2009147670A (en) Image processor and image display device using the same
US20090086090A1 (en) Picture signal processing apparatus and picture signal processing method
CN114449130A (en) Multi-camera video fusion method and system
JP5820213B2 (en) Image processing apparatus and method, and imaging apparatus
JP3955812B2 (en) Flicker removing apparatus and method
JPH06105224A (en) Dynamic range expansion device
JP2013074334A (en) Image processing apparatus and method, and imaging apparatus
US11924546B2 (en) Reception apparatus and transmission apparatus
JPH05219420A (en) Image pickup device
CN107146269B (en) Image filling method and system
TWI381718B (en) A system for reducing video noise and a method thereof, and an image capturing apparatus
JP2001069449A (en) Image processor

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060801