JPS62200470A - Shading correcting method and its device - Google Patents

Shading correcting method and its device

Info

Publication number
JPS62200470A
JPS62200470A JP4171186A JP4171186A JPS62200470A JP S62200470 A JPS62200470 A JP S62200470A JP 4171186 A JP4171186 A JP 4171186A JP 4171186 A JP4171186 A JP 4171186A JP S62200470 A JPS62200470 A JP S62200470A
Authority
JP
Japan
Prior art keywords
data
shading correction
reference data
shading
dust
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4171186A
Other languages
Japanese (ja)
Inventor
Takeshi Kobayashi
剛 小林
Makoto Katsuma
眞 勝間
Shigeki Yamada
茂樹 山田
Tokuichi Tsunekawa
恒川 十九一
Yuichi Sato
雄一 佐藤
Akira Hiramatsu
平松 明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP4171186A priority Critical patent/JPS62200470A/en
Publication of JPS62200470A publication Critical patent/JPS62200470A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)

Abstract

PURPOSE:To relax an influence exerted on the shading correcting data of various noises, by forming the shading correcting data, based on a reference data to which a low-pass filter processing has been performed. CONSTITUTION:First of all, a switch 5 is connected to a side (a), and also, in case an object 3 is a transmissive object, the object 3 is removed, and when the object 3 in an reflecting object, it is replaced with a standard object and a reference data R (x, y) is read, and a low-pass filter processing of an (n)X(m) matrix size is performed. As a result, a component of dust contained in the reference data R (x, y) is smoothed, and in a shading correcting data Sf (x, y) which has been formed, based on, an influence of dust does not appear vividly. A shape of shading is varied gently as it goes to the end face of a screen from the center of the screen. Accordingly, since a high space frequency component is not contained, a digital low-pass filter of (n)X(m) is used in this embodiment.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明はシェーディング補正方法及びその装置に関し、
特にシェーディング補正データ作成時の光学系のゴミや
電気的ノイズの影響を最小にするシェーディング補正方
法及びその装置に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a shading correction method and apparatus,
In particular, the present invention relates to a shading correction method and apparatus for minimizing the effects of dust and electrical noise in an optical system when creating shading correction data.

[従来の技術] 被写体を忠実に再生するにはシェーディング補正が必要
になる。シェーディング補正については従来より様々の
ものが提案され、試みられている。1つは走査信号を時
間軸上で変形して近似補正を行なうものである。該装置
は構成が簡単で安価にできる反面、十分な近似が得られ
ず、実用に供せる程の補正結果が得られない。
[Prior Art] Shading correction is necessary to faithfully reproduce a subject. Various types of shading correction have been proposed and attempted in the past. One method is to perform approximate correction by transforming the scanning signal on the time axis. Although this device has a simple configuration and can be made at low cost, it does not provide a sufficient approximation and cannot provide a correction result that can be put to practical use.

他の1つは光源からの光線をスプリットして、被写体を
通る光と通らない光の信号を比較することによりシェー
ディング除去するものである。しかし2つの光学系によ
って生じるシェーディングは同一でないので完全な補正
効果が得られない。
The other method is to remove shading by splitting the light beam from the light source and comparing the signals of the light that passes through the object and the light that does not pass through the subject. However, since the shading caused by the two optical systems is not the same, a complete correction effect cannot be obtained.

しかも2組の光学系を有するので装置が複雑かつ高価に
なる。
Moreover, since it has two sets of optical systems, the apparatus becomes complicated and expensive.

更に他の1つは第5図に示すような1つの光学系とメモ
リ7を使用するものである。
Still another one uses one optical system and memory 7 as shown in FIG.

第6図は第5図の装置によるシェーディング補正処理の
フローチャートである。ステップS21では参照データ
R(x、y)をメモリ7に入力する。参照データR(x
、y)の人力は、まずスイッチ5をa側に接続して、か
つ被写体3が透過物であるときは被写体3を取り除き、
また被写体3が反射物であるときは標準被写体に置き替
えて参照データR(x、y)を読み取る。ステップS2
2では演算器6が参照データR(x、y)の最大値Rm
ax  (x、 y)の計算を行なう。シェーディング
は、例えば光源1のむら、光学系2や光電管4を介した
ときの空間的に生じる不均一な減衰により生ずるもので
あるから、参照データR(x。
FIG. 6 is a flowchart of shading correction processing performed by the apparatus shown in FIG. In step S21, reference data R(x, y) is input into the memory 7. Reference data R(x
,y) Manually, first connect the switch 5 to the a side, and if the object 3 is a transparent object, remove the object 3,
Further, when the subject 3 is a reflective object, it is replaced with a standard subject and reference data R(x,y) is read. Step S2
2, the arithmetic unit 6 calculates the maximum value Rm of the reference data R(x,y)
Calculate ax (x, y). Shading is caused by, for example, unevenness in the light source 1 or spatially nonuniform attenuation that occurs when passing through the optical system 2 or phototube 4, so the reference data R(x.

y)の最大値Rmax  (x、 y)は相対的にみれ
ばシェーディングを受けなかったものとして扱える。ス
テップS23ではシェーディング補正データs (x、
y)を次式によって求める。
From a relative point of view, the maximum value Rmax (x, y) of y) can be treated as having not been subjected to shading. In step S23, shading correction data s (x,
y) is determined by the following formula.

S (x、y) mRaax  (x、y)/R(x、y)ステップ52
4ではスイッチ5をb側に接続して、かつ被写体3を挿
入して被写体3のデータD(x、y)を入力する。ステ
ップS25では被写体3のデータD (x、y)とシェ
ーディング補正データs (x、y)とから次式によっ
て補正後の被写体データD’ (x、y)を求める。
S (x, y) mRaax (x, y)/R (x, y) Step 52
4, the switch 5 is connected to the b side, the subject 3 is inserted, and the data D(x, y) of the subject 3 is input. In step S25, corrected object data D' (x, y) is obtained from the data D (x, y) of the object 3 and the shading correction data s (x, y) using the following equation.

D ’ (x、y)=D (x、y)xS (x、y)
しかしこの装置では参照データR(x、y)の電気的ノ
イズやゴミによる影響が何ら考慮されていない、参照デ
ータR(x、y)を取り込む際に光学系2のゴミや光電
管4で発生する電気的ノイズがあると、参照データR(
x、y)そのものに悪影響を与える。
D' (x, y)=D (x, y)xS (x, y)
However, this device does not take into account the effects of electrical noise and dust on the reference data R(x, y), which occur in the optical system 2 and the phototube 4 when the reference data R(x, y) is taken in. If there is electrical noise, the reference data R(
x, y) itself.

第3図(a ’)は従来の装置におけるノイズやゴミに
よる悪影響を説明する図である。例えば光学系2にゴミ
があると、その部分の参照データRg(x、y)はその
まわりの参照データR(x。
FIG. 3(a') is a diagram illustrating the adverse effects of noise and dust on a conventional device. For example, if there is dust in the optical system 2, the reference data Rg(x, y) of that part will be changed to the reference data R(x, y) around it.

y)よりも低い値を示し、ある面積を持つ黒として表わ
れる。即ち、ゴミによるエラー分をD arrとすると
シェーディング補正データS (x、y)は次式のよう
な影響を受ける。
y) and appears as black with a certain area. That is, if the error amount due to dust is D arr, the shading correction data S (x, y) is affected by the following equation.

S  (x、  y) =Rrnax  (x、  y)/  (R(x、  
y)−Derr  )上式において(R(x、 y) 
−Derr )の項はゴミのある部分の輝度が本来の参
照データR(x、y)の輝度からD err分だけ下る
ことを示している。従って、被写体データD (x、y
)を読み取るときにはゴミがないとすると、補正後の被
写体データD’ (x、y)は次式のような影響を受け
る。
S (x, y) = Rrnax (x, y)/ (R(x, y)
y)-Derr) In the above formula, (R(x, y)
-Derr) indicates that the brightness of the part with dust is lower than the brightness of the original reference data R(x, y) by Derr. Therefore, the subject data D (x, y
) is assumed to be free of dust when reading it, the corrected object data D' (x, y) is affected by the following equation.

o’  (x、y) = (Ra+ax  (x、y)XD (x、y))/
 (R(x、  y) −Derr )従って、D e
rrの値が大きければD’(x。
o' (x, y) = (Ra+ax (x, y)XD (x, y))/
(R(x, y) −Derr) Therefore, De
If the value of rr is large, D'(x.

y)の値も大きくなるので、参照データR(x。Since the value of y) also increases, the reference data R(x.

y)上で黒く見えるゴミの部分Rg (x、y)は、補
正後の被写体データD’ (x、y)上では白い部分D
g ’ (x、y)の悪影響となって現われる。
The dust part Rg (x, y) that appears black on y) is the white part D on the corrected subject data D' (x, y).
This appears as an adverse effect on g' (x, y).

さらに従来装置では、参照データR(x、y)が光電管
4の電気的ランダムノイズの悪影響を受ける。即ち、仮
に参照データR(x、y)の最大値Rmax  (x、
 y)に+N errのランダムノイズが含まれてしま
うと、+ N errのノイズはその可能性を高めると
言え、その影響は補正後の被写体データD’ (x、y
)の全体に及ぶことが容易に解る。
Furthermore, in the conventional device, the reference data R(x,y) is adversely affected by the electrical random noise of the phototube 4. That is, if the maximum value Rmax (x, y) of the reference data R (x, y) is
If random noise of +N err is included in y), it can be said that the noise of +N err increases the possibility of this happening, and the effect is that the corrected subject data D' (x, y
) can be easily seen to apply to the entire range.

[発明が解決しようとする問題点] 本発明は上述した従来技術の欠点を除去するものであり
、その目的とする所は、シェーディング補正データを形
成する際にゴミやノイズの影響を少なくし、より正確な
シェーディング補正の可能なシェーディング補正方法及
びその装置を提供することにある。
[Problems to be Solved by the Invention] The present invention eliminates the drawbacks of the prior art described above, and its purpose is to reduce the influence of dust and noise when forming shading correction data, It is an object of the present invention to provide a shading correction method and an apparatus thereof that enable more accurate shading correction.

[問題点を解決するための手段] かかる問題点を解決するために例えば第1図に示す実施
例のシェーディング補正装置は、参照データR(X、y
)に基づいてシェーディング補正データsr (x、y
)を形成し、前記形成したシェーディング補正データS
f (x、y)によって被写体データD (x、y)を
補正するシェーディング補正装置であって、前記参照デ
ータR(x、y)にローパスフィルタ処理を施して平滑
化したデータ・Rt (x、y)に基ずいてシェーディ
ング補正データsr (x、y)を形成するシェーディ
ング補正データ形成手段8及び9と、前記形成したシェ
ーディング補正データ5f(x。
[Means for solving the problem] In order to solve the problem, the shading correction device of the embodiment shown in FIG.
) based on the shading correction data sr (x, y
), and the formed shading correction data S
A shading correction device that corrects subject data D (x, y) using f (x, y), wherein data Rt (x, y) is smoothed by applying low-pass filter processing to the reference data R (x, y). shading correction data forming means 8 and 9 that form shading correction data sr (x, y) based on the shading correction data sr (x, y);

y)によって被写体データD (x、y)を補正するシ
ェーディング補正手段9を備える。
A shading correction means 9 is provided for correcting object data D (x, y) according to y).

[作用] かかる第1図の構成において、まずスイッチ5をa側に
接続して、かつ透過物である被写体3を取り除き、読み
取った参照データR(x、y)をローパスフィルタ8で
平滑化し、得られた平滑化参照データRf (x、y)
をメモリ7に格納するる。次に演算手段9は前記平滑化
参照データRf(x、y)に基づいてシェーディング補
正データSf (x、y)を形成する。次にスイッチ5
をb側に接続して、かつ被写体3を挿入して被写体デー
タD (x、y)を読み取り、演算手段9は前記形成し
たシェーディング補正データ5f(x。
[Operation] In the configuration shown in FIG. 1, first, the switch 5 is connected to the a side, the object 3 which is the transparent object is removed, and the read reference data R(x, y) is smoothed by the low-pass filter 8. Obtained smoothed reference data Rf (x, y)
is stored in the memory 7. Next, the calculation means 9 forms shading correction data Sf (x, y) based on the smoothed reference data Rf (x, y). Next switch 5
is connected to the b side, and the subject 3 is inserted to read the subject data D (x, y), and the arithmetic means 9 uses the formed shading correction data 5f (x, y).

y)によって前記読み取った被写体データD(x、y)
を補正する。
The subject data D(x, y) read by
Correct.

[実施例] 以下、添付図面に従って本発明の実施例を詳細に説明す
る。第1図は実施例のシェーディング補正装置のブロッ
ク構成図である。第5図と同等の構成には同一番号を付
して説明を省略する。第1図において、8は読み取った
参照データR(x。
[Examples] Examples of the present invention will be described in detail below with reference to the accompanying drawings. FIG. 1 is a block diagram of a shading correction device according to an embodiment. Components equivalent to those in FIG. 5 are given the same reference numerals and their explanations will be omitted. In FIG. 1, 8 is read reference data R(x.

y)を平滑化するローパスフィルタ、9は前記平滑化し
た参照データRf (x、y)に基づいてシェーディン
グ補正データSf (x、y)を形成し、かつ被写体3
を読み取った際に、前記形成したシェーディング補正デ
ータSf (x、y)によって前記読み取った被写体デ
ータD (x、y)を補正する演算手段である。
y), and a low-pass filter 9 forms shading correction data Sf (x, y) based on the smoothed reference data Rf (x, y), and
It is a calculating means for correcting the read object data D (x, y) using the shading correction data Sf (x, y) formed above when reading the image data Sf (x, y).

第2図は実施例のシェーディング補正処理のフローチャ
ートである。ステップS31では補正データを作成する
か否かの判断をオペレータに問う。シェーディングの形
状は光源1及びその光学系2、特に光源1の経時劣化に
よって徐々に変化するから、時々シェーディング補正デ
ータS(x、y)を書き変えなくてはならない。
FIG. 2 is a flowchart of shading correction processing according to the embodiment. In step S31, the operator is asked whether or not to create correction data. Since the shape of shading gradually changes due to aging of the light source 1 and its optical system 2, especially the light source 1, it is necessary to rewrite the shading correction data S(x, y) from time to time.

ステップS32では参照データR(x、y)を読み取る
。まずスイッチ5をa側に接続し、かつ被写体3が透過
物であるときは被写体3を取り除き、また被写体3が反
射物であるときは標準被写体に置き替えて参照データR
(x、y)を読み取る。
In step S32, reference data R(x,y) is read. First, connect the switch 5 to the a side, and if the object 3 is a transparent object, remove the object 3, and if the object 3 is a reflective object, replace it with a standard object and set the reference data R.
Read (x, y).

ステップS33では参照データR(x、y)にnxmマ
トリクスサイズのローパスフィルタ処理を施す。これに
よって参照データR(x、y)に含まれるゴミの成分が
平滑化されて参照データRf (x、y)となり、これ
に基づいて形成したシェーディング補正データSf (
x、y)にはゴミの影響が如実には現われなくなる。シ
ェーディングの形状は光源の種類によって異なるが、一
般に画面中央から画面の端にいくに従ってなだらかに変
化する。従って高い空間周波成分を含まないので、本実
施例ではnxmのディジタルローパスフィルタを用いる
In step S33, the reference data R(x, y) is subjected to low-pass filter processing with an nxm matrix size. As a result, the dust components included in the reference data R (x, y) are smoothed to become the reference data Rf (x, y), and the shading correction data Sf (
x, y), the influence of dust no longer clearly appears. The shape of shading varies depending on the type of light source, but generally changes gradually from the center of the screen to the edges of the screen. Therefore, since high spatial frequency components are not included, an nxm digital low-pass filter is used in this embodiment.

第4図(a)、(b)はシェーディング補正処理の様子
を実際のデータによって示す説明図であり、第4図(a
)は従来技術によるもの、第4図(b)は本実施例によ
るものである。
FIGS. 4(a) and 4(b) are explanatory diagrams showing the state of shading correction processing using actual data, and FIG. 4(a)
) is based on the prior art, and FIG. 4(b) is based on this embodiment.

第4図(a)の従来技術による場合は補正後の被写体デ
ータD’ (x、y)にゴミの影響が強く現われている
0例えば輝度の一様な被写体データD (x、y) =
100を入力すると、ゴミの部分を含む補正を受けた被
写体データD’ (x、y)の当該部分はその値が“2
55′になって全て飽和している。
In the case of the conventional technique shown in FIG. 4(a), the influence of dust appears strongly in the subject data D' (x, y) after correction. For example, subject data D (x, y) with uniform luminance
If you input 100, the value of the corrected object data D' (x, y) including the dust part will be "2".
At 55', everything is saturated.

これに対して第4図(b)の本実施例の場合は、参照デ
ータR(x、y)が3×3のローパスフィルタLPFw
F CX、y)によってFLf(x、y)に平滑化され
る。従って輝度の一様な被写体データD (x、y)−
1ooを入力すると、参照データR(x、y)のゴミの
部分による影響が周囲に分散されているので補正を受け
た被写体データor (x、y)の当該部分はなお中間
の値を保っている。しかも、−例のローパスフィルタL
PFは参照データR(x、y)を平均化平滑化するので
、例えば光電管4で発生するような電気的ランダムノイ
ズが参照データR(x、y)に含まれても、これらは周
囲のものと互いに相殺することとなり、シェーディング
補正データ5f(x、y)にほとんど影響を与えない。
On the other hand, in the case of the present embodiment shown in FIG. 4(b), the reference data R(x, y) is a 3×3 low-pass filter LPFw.
F CX,y) is smoothed to FLf(x,y). Therefore, object data D (x, y)− with uniform brightness
If you input 1oo, the influence of the dust part of the reference data R (x, y) is dispersed to the surroundings, so the corrected subject data or (x, y) will still maintain an intermediate value. There is. Furthermore, - example low-pass filter L
PF averages and smoothes the reference data R(x, y), so even if the reference data R(x, y) includes electrical random noise such as that generated by the phototube 4, these noises will be ignored by surrounding noise. and cancel each other out, and have almost no effect on the shading correction data 5f(x,y).

ConvoluLton積分を“*”の記号で表わすと
、Rf (x、y)=R(x、y)*)” (x、y)
である。
Representing the ConvoluLton integral with the symbol “*”, Rf (x, y)=R(x, y)*)” (x, y)
It is.

ステップ334では参照データRf (x、y)の最大
値Rfmax (x 、 y )を求める。参照データ
Rt (x、y)を走査してその値が最大のものをRf
max (x 、 y )とする。電気的ランダムノイ
ズによる影響は相殺され、かつゴミの影響は分散されて
いるから参照データRfmax (x 、 y )の値
は信顆できる。
In step 334, the maximum value Rfmax (x, y) of the reference data Rf (x, y) is determined. Scan the reference data Rt (x, y) and select the one with the largest value as Rf
Let max (x, y). Since the influence of electrical random noise is canceled out and the influence of dust is dispersed, the value of the reference data Rfmax (x, y) can be trusted.

ステップS35ではシェーディング補正データsf (
x、y)を次式によって求める。
In step S35, the shading correction data sf (
x, y) are determined by the following formula.

5f(x、y) =Rfmax(x、y)/Rf (x、y)各参照デー
タRt (x、y)についても電気的ランダムノイズに
よる影響は相殺され、かつゴミのIfは分散されている
から、これに基づいて求めたシェーディング補正データ
Sf (x、y)も信顆できる。
5f (x, y) = Rfmax (x, y) / Rf (x, y) For each reference data Rt (x, y), the influence of electrical random noise is canceled out, and the dust If is dispersed. Therefore, the shading correction data Sf (x, y) obtained based on this can also be confirmed.

ステップ336ではスイッチ5をb側に接続して、かつ
被写体3を挿入して被写体3のデータD(x、y)を入
力する。
In step 336, switch 5 is connected to side b, object 3 is inserted, and data D(x, y) of object 3 is input.

ステップS37では被写体3のデータD (x。In step S37, data D (x.

y)とシェーディング補正データSf (x、y)とか
ら次式によって補正後の被写体データDf(x、y)を
求める。
y) and the shading correction data Sf (x, y), the corrected subject data Df (x, y) is obtained using the following equation.

of(x、y)=D (x、y)xsf (x、y)第
3図(b)は本実施例装置におけるノイズやゴミによる
影響を説明する図である。参照データR(x、y)にロ
ーパスフィルタ処理を施すと、参照データRt (x、
y)のようにゴミの形状とその値が平滑化され、当該ゴ
ミの部分による平滑化参照データRgf(x、y)はな
めらかになる。
of(x, y)=D (x, y) xsf (x, y) FIG. 3(b) is a diagram illustrating the influence of noise and dust on the apparatus of this embodiment. When the reference data R(x, y) is subjected to low-pass filter processing, the reference data Rt(x,
y), the shape of the dust and its value are smoothed, and the smoothed reference data Rgf(x, y) based on the dust part becomes smooth.

尚、上述実施例では参照データRt (x、y)を形成
するのに3×3のローパスフィルタLPF=F (x、
y)を用いたが、ゴミの大損さによってフィルタサイズ
を変化させたり、更にはディジタルフィルタに別のパラ
メータを与えることにより、例えばこの装置に使用され
ている光学系のMTFコレクションや、輪郭強調などの
機能ももたせることが可能である。
In the above embodiment, a 3×3 low-pass filter LPF=F (x, y) is used to form the reference data Rt (x, y).
y), but by changing the filter size depending on the large amount of dust, and by giving other parameters to the digital filter, for example, the MTF correction of the optical system used in this device, contour enhancement, etc. It is also possible to have this function.

[発明の効果] 以上述べた如く本発明によれば、ローパスフィルタ処理
を施した参照データに基づいてシェーディング補正デー
タを形成するので、各種ノイズのシェーディング補正デ
ータに対する影響を緩和できる。またゴミの形状をぼか
すので出力画像においてゴミが目立ちにくくなる。
[Effects of the Invention] As described above, according to the present invention, since shading correction data is formed based on reference data that has been subjected to low-pass filter processing, the influence of various noises on shading correction data can be alleviated. Furthermore, since the shape of the dust is blurred, the dust becomes less noticeable in the output image.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は実施例のシェーディング装置のブロック構成図
、 第2図は実施例のシェーディング補正処理のフローチャ
ート、 第3図(a)は従来の装置におけるノイズやゴミによる
悪影響を説明する図、 第3図(b)は実施例装置におけるノイズやゴミによる
影響を説明する図、 第4図(a)は従来のシェーディング補正IA理の様子
を実際のデータによって示す説明図、第4図(b)は実
施例のシェーディング補正処理の様子を実際のデータに
よって示す説明図、第5図は従来のシェーディング補正
装置のブロック構成図、 第6図は第5図の装置によるシェーディング補正処理の
フローチャートである。 図中、1・・・光源、2・・・光学系、3・・・被写体
、4・・・光電管、5・・・スイッチ、7・・・メモリ
、8・・・ローパスフィルタ、9・・・演算手段である
。 特許出願人   キャノン株式会社 噂→− 代理人 弁理士    大 塚 康 徳5シ 第2図 i大イI!       参照7−タ 1シ大イ1          俸、!!テ°ニタ第3
図 (G) (b) (a) (b)
FIG. 1 is a block configuration diagram of a shading device according to an embodiment, FIG. 2 is a flowchart of shading correction processing according to an embodiment, FIG. FIG. 4(b) is a diagram explaining the influence of noise and dust in the example device. FIG. 4(a) is an explanatory diagram showing the state of the conventional shading correction IA process using actual data. FIG. FIG. 5 is a block diagram of a conventional shading correction apparatus, and FIG. 6 is a flowchart of shading correction processing performed by the apparatus shown in FIG. 5. In the figure, 1... light source, 2... optical system, 3... subject, 4... phototube, 5... switch, 7... memory, 8... low pass filter, 9...・It is a calculation means. Patent Applicant Canon Co., Ltd. Rumor→- Agent Patent Attorney Yasushi Otsuka Virtue 5, Figure 2, I, Dai, I! Reference 7-Ta1shidaii1 Salary,! ! Tenita 3rd
Figure (G) (b) (a) (b)

Claims (2)

【特許請求の範囲】[Claims] (1)参照データに基づいてシェーディング補正データ
を形成し、前記形成したシェーディング補正データによ
って被写体データを補正するシェーディング補正方法に
おいて、前記参照データにローパスフィルタ処理を施し
たデータに基づいてシェーディング補正データを形成す
る工程と、前記形成したシェーディング補正データによ
って被写体データを補正する工程を備えることを特徴と
するシェーディング補正方法。
(1) In a shading correction method in which shading correction data is formed based on reference data and object data is corrected using the formed shading correction data, the shading correction data is generated based on data obtained by performing low-pass filter processing on the reference data. A shading correction method comprising: a step of forming a shading correction data; and a step of correcting subject data using the formed shading correction data.
(2)参照データに基づいてシェーディング補正データ
を形成し、前記形成したシェーディング補正データによ
って被写体データを補正するシェーディング補正装置に
おいて、前記参照データにローパスフィルタ処理を施し
たデータに基づいてシェーディング補正データを形成す
るシェーディング補正データ形成手段と、前記形成した
シェーディング補正データによって被写体データを補正
するシェーディング補正手段を備えることを特徴とする
シェーディング補正装置。
(2) In a shading correction device that forms shading correction data based on reference data and corrects subject data using the formed shading correction data, the shading correction data is generated based on data obtained by performing low-pass filter processing on the reference data. A shading correction apparatus comprising: a shading correction data forming means for forming shading correction data; and a shading correction means for correcting subject data using the formed shading correction data.
JP4171186A 1986-02-28 1986-02-28 Shading correcting method and its device Pending JPS62200470A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4171186A JPS62200470A (en) 1986-02-28 1986-02-28 Shading correcting method and its device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4171186A JPS62200470A (en) 1986-02-28 1986-02-28 Shading correcting method and its device

Publications (1)

Publication Number Publication Date
JPS62200470A true JPS62200470A (en) 1987-09-04

Family

ID=12616007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4171186A Pending JPS62200470A (en) 1986-02-28 1986-02-28 Shading correcting method and its device

Country Status (1)

Country Link
JP (1) JPS62200470A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019198431A1 (en) * 2018-04-12 2019-10-17 富士フイルム株式会社 Image reading irregularity correction method, image reading device, image formation device, and image reading irregularity correction program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019198431A1 (en) * 2018-04-12 2019-10-17 富士フイルム株式会社 Image reading irregularity correction method, image reading device, image formation device, and image reading irregularity correction program

Similar Documents

Publication Publication Date Title
KR100370885B1 (en) Image displaying apparatus and method, and image processing device and method
US8330768B2 (en) Apparatus and method for rendering high dynamic range images for standard dynamic range display
JP3664114B2 (en) Image processing of images projected by projectors
KR101138852B1 (en) Smart clipper for mobile displays
CN101197126B (en) Improve equipment and the method for the visibility of image
JP2005535010A (en) System and method for electronic correction of optical anomalies
JP2004503145A5 (en)
JPH0568147B2 (en)
KR20040043157A (en) Method and system for modifying a digital image taking into account its noise
CA1202116A (en) Spatial correction device for an image analyzer
EP1289280A2 (en) Device and method for improving picture quality
US20080013849A1 (en) Video Processor Comprising a Sharpness Enhancer
KR940002484B1 (en) Image processing apparatus
US5801962A (en) Method and apparatus for calibrating image system
EP1189458A2 (en) Correction curve generating method, image display unit and storage medium
JPS62200470A (en) Shading correcting method and its device
US20020067510A1 (en) Odd/even error diffusion filter
US20070019886A1 (en) Adaptive image scaler for optimizing output image quality on the basis of input image signal and method thereof
JPH0991419A (en) Image processor
JP4379029B2 (en) Image processing apparatus, image processing method, and image projection apparatus
JP2001197332A (en) Method for judging defect of image reproducing system and correcting it at least partially and device for performing the method
US20230171512A1 (en) High precision color processing for wide dynamic range sensors
JPH0393370A (en) Picture processing unit
JP4765261B2 (en) Image display method and image display apparatus
US20240193746A1 (en) Optical distortion correction system and method