JP2001298621A - Image processor and image processing method - Google Patents
Image processor and image processing methodInfo
- Publication number
- JP2001298621A JP2001298621A JP2001015121A JP2001015121A JP2001298621A JP 2001298621 A JP2001298621 A JP 2001298621A JP 2001015121 A JP2001015121 A JP 2001015121A JP 2001015121 A JP2001015121 A JP 2001015121A JP 2001298621 A JP2001298621 A JP 2001298621A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- smoothed
- nonlinear
- linear
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000000034 method Methods 0.000 claims description 30
- 238000009499 grossing Methods 0.000 claims description 29
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 5
- 238000005286 illumination Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims 4
- 102220485790 Destrin_S40R_mutation Human genes 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 102220635881 Prokineticin receptor 1_S40G_mutation Human genes 0.000 description 14
- 230000000694 effects Effects 0.000 description 8
- 230000003111 delayed effect Effects 0.000 description 7
- 102220352372 c.148T>G Human genes 0.000 description 5
- 230000001965 increasing effect Effects 0.000 description 5
- 238000000926 separation method Methods 0.000 description 5
- 230000002708 enhancing effect Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 230000001934 delay Effects 0.000 description 3
- 102220005308 rs33960931 Human genes 0.000 description 3
- 102220560618 Differentially expressed in FDCP 8 homolog_S41R_mutation Human genes 0.000 description 2
- 102220479871 Protein FAM180A_S53A_mutation Human genes 0.000 description 2
- 102220536512 THAP domain-containing protein 1_S52A_mutation Human genes 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 102220283130 rs1555750818 Human genes 0.000 description 2
- 101000795655 Canis lupus familiaris Thymic stromal cotransporter homolog Proteins 0.000 description 1
- 102100033040 Carbonic anhydrase 12 Human genes 0.000 description 1
- 101000867855 Homo sapiens Carbonic anhydrase 12 Proteins 0.000 description 1
- 102220536518 THAP domain-containing protein 1_S51A_mutation Human genes 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 102220313179 rs1553259785 Human genes 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は画像処理装置及びそ
の方法に関し、例えばビデオカメラに適用して好適なも
のである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method, and is suitably applied to, for example, a video camera.
【0002】[0002]
【従来の技術】従来、ビデオカメラにおいては、固体撮
像素子(CCD:Charge Coupled Device )によって撮
像された画像のコントラスト(明暗の差)及び鮮鋭度
(境界の明確さ)を向上させる方法として、階調変換に
よるコントラスト強調方法や画像中の高域成分のコント
ラストを強調する高域成分強調方法が考えられている。2. Description of the Related Art Conventionally, in a video camera, as a method for improving the contrast (difference in brightness and darkness) and sharpness (clarity of a boundary) of an image picked up by a solid-state image pickup device (CCD: Charge Coupled Device), there is known a method for improving the contrast. A contrast enhancement method by tone conversion and a high-frequency component enhancement method for enhancing the contrast of a high-frequency component in an image have been considered.
【0003】コントラスト強調方法としては、画像の各
画素に対して、その画素レベルを所定の入出力関係を持
つ関数(以下、これをレベル変換関数と呼ぶ)で変換す
るトーンカーブ調整や、画素レベルの頻度分布に応じて
レベル変換関数を適応的に変化させるヒストグラムイコ
ライゼーションと呼ばれる方法が提案されており、また
高域成分強調方法としては、画像からエッジを抽出し、
当該抽出したエッジを強調するいわゆる輪郭強調を行う
アンシャープマスクと呼ばれる方法が提案されている。[0003] Contrast enhancement methods include tone curve adjustment for converting the pixel level of each pixel of an image with a function having a predetermined input / output relationship (hereinafter referred to as a level conversion function), and pixel level adjustment. A method called histogram equalization that adaptively changes the level conversion function according to the frequency distribution of has been proposed, and as a high-frequency component enhancement method, an edge is extracted from an image,
A method called an unsharp mask that performs so-called contour enhancement for enhancing the extracted edge has been proposed.
【0004】[0004]
【発明が解決しようとする課題】ところでコントラスト
強調方法においては、画像の全ダイナミックレンジ(最
大レベルと最小レベルの差)のうち一部の輝度域しかコ
ントラストを向上させることができない問題があること
に加えて、トーンカーブ調整の場合には画像の最明部と
最暗部において、またヒストグラムイコライゼーション
の場合には頻度分布の少ない輝度域付近において、逆に
コントラストが低下するという問題があった。さらに高
域成分強調方法においては、画像の高域成分のコントラ
ストのみが強調され、これにより画像のエッジ付近が不
自然に強調され、画質が劣化することを避け得ない問題
があった。However, in the contrast enhancement method, there is a problem that the contrast can be improved only in a part of the luminance range in the entire dynamic range (difference between the maximum level and the minimum level) of the image. In addition, in the case of tone curve adjustment, there is a problem that the contrast is reduced in the brightest part and the darkest part of the image, and in the case of histogram equalization, in the vicinity of a luminance region where the frequency distribution is small. Further, in the high-frequency component emphasizing method, there is a problem that only the contrast of the high-frequency component of the image is enhanced, whereby the vicinity of the edge of the image is unnaturally enhanced, and the image quality is unavoidably deteriorated.
【0005】本発明は以上の点を考慮してなされたもの
で、従来に比して一段と画像全体のコントラスト及び鮮
鋭度を向上させ得る画像処理装置及びその方法を提案し
ようとするものである。The present invention has been made in view of the above points, and an object of the present invention is to propose an image processing apparatus and a method thereof capable of further improving the contrast and sharpness of the entire image as compared with the related art.
【0006】[0006]
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、入力画像データのうち画素値の変
化が急峻なエッジを保存したまま当該エッジ以外の部分
を増幅することにより、エッジ以外の部分を強調して表
示することができる。According to the present invention, in order to solve the above-mentioned problem, a portion other than the edge of the input image data is amplified while preserving the edge where the pixel value changes sharply. Can be highlighted.
【0007】[0007]
【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.
【0008】(1)第1の実施の形態 図1において、1は全体として第1の実施の形態のビデ
オカメラの構成を示し、固体撮像素子(CCD:Charge
Coupled Device )2によって撮像された入力画像デー
タS1を画像処理回路3の遅延回路4及び非線形平滑化
器5に入力する。ここで入力画像データS1は、2次元
ディジタル画像であり、画像上の位置(i、j)に対応
する画素値をx(i、j)と表す。(1) First Embodiment In FIG. 1, reference numeral 1 denotes an overall configuration of a video camera according to a first embodiment, and a solid-state imaging device (CCD: Charge:
The input image data S1 captured by the coupled device 2 is input to the delay circuit 4 and the non-linear smoother 5 of the image processing circuit 3. Here, the input image data S1 is a two-dimensional digital image, and a pixel value corresponding to a position (i, j) on the image is represented as x (i, j).
【0009】非線形平滑化器5は、この入力画像データ
S1の中から画素値の変化が急峻なエッジ成分を抽出
し、当該エッジ成分に対しては平滑化することなくその
まま出力するのに対して、エッジ成分以外の小振幅成分
に対しては平滑化することにより、入力画像データS1
のエッジ成分を保存したまま当該入力画像データS1を
平滑化する。The nonlinear smoother 5 extracts an edge component having a sharp change in pixel value from the input image data S1, and outputs the edge component as it is without smoothing. By smoothing small amplitude components other than edge components, the input image data S1
The input image data S1 is smoothed while retaining the edge components of.
【0010】具体的には非線形平滑化器5は、図2に示
すように、入力画像データS1を線形ローパスフィルタ
10に入力する。線形ローパスフィルタ10は、入力画
像データS1のうち極めて高い周波数成分の信号レベル
を減衰させ、その結果得た画像データS2をルックアッ
プテーブル11に送出する。このように線形ローパスフ
ィルタ10は、入力画像データS1のうち極めて高い周
波数成分の信号レベルを減衰させることにより、後段の
εフィルタ12によって平滑化処理を行う際、振幅の大
きい高周波成分が十分平滑化されずに点状のノイズとし
て画像上に残存することを防止している。因みに、この
線形ローパスフィルタ10は、1次元の線形ローパスフ
ィルタを画像の水平方向及び垂直方向にそれぞれ適用す
ることによって構成されるか、又は2次元の線形ローパ
スフィルタによって構成される。More specifically, the nonlinear smoother 5 inputs the input image data S1 to the linear low-pass filter 10, as shown in FIG. The linear low-pass filter 10 attenuates the signal level of an extremely high frequency component of the input image data S1, and sends out the resulting image data S2 to the look-up table 11. As described above, the linear low-pass filter 10 attenuates the signal level of an extremely high frequency component of the input image data S1, so that the high-frequency component having a large amplitude is sufficiently smoothed when performing the smoothing process by the ε filter 12 at the subsequent stage. Instead, it is prevented from remaining on the image as point-like noise. Incidentally, the linear low-pass filter 10 is configured by applying a one-dimensional linear low-pass filter in the horizontal and vertical directions of an image, respectively, or is configured by a two-dimensional linear low-pass filter.
【0011】ルックアップテーブル11は、画像データ
S2に対して例えば対数変換のような階調変換を施し、
その結果得た画像データS3をεフィルタ12Aに送出
する。ところで、後段のεフィルタ12は画像データの
振幅に応じて適応的な平滑化処理を行なうが、一般に画
像データの振幅の大きさは、撮像対象を照射している照
明光の強さに比例して大きくなる。そこでルックアップ
テーブル11は、予め画像データS2に対して対数変換
を施すことにより、後段のεフィルタ12において平滑
化処理を行う際、照明条件によらず同一の平滑効果を得
ることを可能にする。これと共にルックアップテーブル
11は、例えば画像の暗い領域や明るい領域で平滑効果
を高くすることにより、後段の画像強調処理による強調
度合いを増加させるなど、画素値に応じて平滑効果を制
御することも可能にする。The look-up table 11 performs tone conversion such as logarithmic conversion on the image data S2,
The image data S3 obtained as a result is sent to the ε filter 12A. By the way, the ε filter 12 at the subsequent stage performs an adaptive smoothing process according to the amplitude of the image data. In general, the magnitude of the amplitude of the image data is proportional to the intensity of the illumination light illuminating the imaging target. It becomes bigger. Therefore, the look-up table 11 performs the logarithmic transformation on the image data S2 in advance, so that the same smoothing effect can be obtained regardless of the lighting conditions when performing the smoothing processing in the ε filter 12 in the subsequent stage. . At the same time, the look-up table 11 can also control the smoothing effect according to the pixel value, such as increasing the degree of enhancement in the subsequent image enhancement process by increasing the smoothing effect in, for example, dark or bright regions of the image. enable.
【0012】非線形平滑化フィルタであるεフィルタ1
2Aは、画素値の急峻な変化を損なうことなく当該画素
値を平滑化する際に有効なディジタルフィルタであり、
ルックアップテーブル11から供給される画像データS
3のエッジを保存したまま当該画像データS3を平滑化
し、その結果得た平滑化画像データS4Aをεフィルタ
12Bに送出する。このεフィルタ12Aにおける平滑
化処理は、フィルタ処理用の画素が1次元で2N+1タ
ップの場合、次式Ε filter 1 which is a nonlinear smoothing filter
2A is a digital filter effective for smoothing the pixel value without impairing the sharp change of the pixel value,
Image data S supplied from the lookup table 11
The image data S3 is smoothed while the edge of No. 3 is kept, and the resulting smoothed image data S4A is sent to the ε filter 12B. The smoothing process in the ε filter 12A is performed when the pixel for the filter process is one-dimensional and has 2N + 1 taps.
【0013】[0013]
【数1】 (Equation 1)
【0014】によって表される。Is represented by
【0015】すなわちεフィルタ12Aは、フィルタ処
理の中心画素pn の画素値xn と画素pn-k の画素値x
n-k との差の絶対値|xn −xn-k |を所定の閾値εと
比較する。その結果、εフィルタ12Aは、絶対値|x
n −xn-k |が所定の閾値εよりも小さいと判断した場
合には、wn-k に画素値xn-k を代入し、ak を各タッ
プ係数とした通常の線形ローパスフィルタと同様の処理
を実行することにより、中心画素pn を中心として画像
を一様に平滑化する。That is, the ε filter 12A has a pixel value xn of the central pixel pn and a pixel value xn of the pixel pn-k.
The absolute value | xn−xn−k | of the difference from nk is compared with a predetermined threshold value ε. As a result, the ε filter 12A obtains the absolute value | x
If it is determined that n−xn−k | is smaller than a predetermined threshold ε, the same processing as that of a normal linear low-pass filter in which the pixel value xn−k is substituted for wn−k and ak is each tap coefficient. Is performed, the image is uniformly smoothed about the center pixel pn.
【0016】これに対してεフィルタ12Aは、絶対値
|xn −xn-k |が所定の閾値εよりも大きいと判断し
た場合には、wn-k に画素値xn を代入し、画素pn-k
の画素値xn-k を中心画素pn の画素値xn に置き換え
た後に当該中心画素pn を中心としてローパスフィルタ
処理を行うことにより、画素値xn-k を無視して画素値
xn 近傍の画素値のみで平滑化を行う。On the other hand, when the ε filter 12A determines that the absolute value | xn−xn−k | is larger than the predetermined threshold value ε, the ε filter 12A substitutes the pixel value xn into wn−k, and the pixel pn− k
The pixel value xn-k is replaced with the pixel value xn of the center pixel pn, and then a low-pass filter process is performed with the center pixel pn as the center, so that the pixel value near the pixel value xn is ignored ignoring the pixel value xn-k. Performs smoothing.
【0017】εフィルタ12Aは、例えば図3に示すよ
うに、急峻なエッジの前後で画素値の差の絶対値が所定
の閾値εを超える場合、中心画素pn を中心としてロー
パスフィルタ処理を行う際には画素pm の画素値xm を
中心画素pn の画素値xn に置き換えてローパスフィル
タ処理を施すことにより、画素値xn の近傍で平滑化す
るのに対して、画素pm を中心としてローパスフィルタ
処理を行う際には画素値xm 近傍で平滑化する。As shown in FIG. 3, for example, as shown in FIG. 3, when the absolute value of the difference between the pixel values before and after the steep edge exceeds a predetermined threshold value ε, the ε filter 12A performs low-pass filter processing centering on the center pixel pn. By performing low-pass filter processing by replacing the pixel value xm of the pixel pm with the pixel value xn of the center pixel pn, smoothing is performed in the vicinity of the pixel value xn, whereas low-pass filter processing is performed around the pixel pm. When performing this, smoothing is performed near the pixel value xm.
【0018】このときεフィルタ12Aは、フィルタ処
理を行う範囲内に画素値xの近い画素pが存在しないエ
ッジ部分の画素pでは、当該エッジ部分の画素pの画素
値xをほぼそのまま出力することにより、エッジの急峻
な変化をそのまま保存する。因みに、εフィルタ12A
は、線形ローパスフィルタ10と同様に、1次元のεフ
ィルタを画像の水平方向及び垂直方向にそれぞれ適用す
ることによって構成される場合と、2次元のεフィルタ
によって構成される場合とがある。At this time, the ε filter 12A outputs the pixel value x of the pixel p at the edge portion as it is, for the pixel p at the edge portion where the pixel p having a pixel value close to the pixel value x does not exist within the range to be filtered. , The sharp change of the edge is preserved as it is. Incidentally, the ε filter 12A
As in the case of the linear low-pass filter 10, there are a case where the one-dimensional ε filter is applied in the horizontal direction and the vertical direction of the image, and a case where the two-dimensional ε filter is formed.
【0019】ところでεフィルタ12Aの後段には、当
該εフィルタ12Aと同様の構成でなるεフィルタ12
B〜12Nが順次接続され、平滑化画像データS4Aに
対して順次平滑化処理を施すことにより平滑化効果を向
上させるようになされている。このようにして、エッジ
以外の成分が十分に平滑化された平滑化画像データS4
Nが得られ、後段のルックアップテーブル13に供給さ
れる。At the subsequent stage of the ε filter 12A, the ε filter 12 having the same configuration as the ε filter 12A is used.
B to 12N are sequentially connected, and the smoothing processing is sequentially performed on the smoothed image data S4A to improve the smoothing effect. In this manner, the smoothed image data S4 in which components other than the edges are sufficiently smoothed
N is obtained and supplied to the lookup table 13 at the subsequent stage.
【0020】ここで図4は、フィルタ処理用の画素が1
次元で7タップの場合のεフィルタ12Aの構成を示
し、レジスタ列20A〜20Fとセレクタ21A〜21
Fと増幅器23A〜23Gと加算器24とから構成され
ている。レジスタ列20Aは、図5に示すように、それ
ぞれ1画素分の画素値を保持するレジスタ22A〜22
Eを直列に接続することによって構成され、レジスタ列
20B〜20Fについてもレジスタ列20Aと同様に構
成されている。Here, FIG. 4 shows that the number of pixels for filter processing is one.
The configuration of the ε filter 12A in the case of 7 taps in the dimension is shown, showing the register rows 20A to 20F and the selectors 21A to 21A.
F, amplifiers 23A to 23G, and an adder 24. As shown in FIG. 5, the register row 20A includes registers 22A to 22A each holding a pixel value of one pixel.
E are connected in series, and the register rows 20B to 20F are configured similarly to the register row 20A.
【0021】セレクタ21Aは、図6に示すように、例
えば図3に示す中心画素pn の画素値xn を加算器30
及びセレクタ31に入力すると共に、画素pm の画素値
xmを加算器30及びセレクタ31に入力する。加算器
30は、画素値xn と画素値xm の差をとり、その結果
を絶対値変換器32に送出する。絶対値変換器32は、
画素値xn と画素値xm の差の絶対値|xn −xm |を
求め、これを大小比較器33に送出する。As shown in FIG. 6, the selector 21A adds the pixel value xn of the center pixel pn shown in FIG.
And the selector 31 and the pixel value xm of the pixel pm to the adder 30 and the selector 31. The adder 30 calculates the difference between the pixel value xn and the pixel value xm, and sends the result to the absolute value converter 32. The absolute value converter 32
The absolute value | xn-xm | of the difference between the pixel value xn and the pixel value xm is obtained and sent to the magnitude comparator 33.
【0022】大小比較器33は、この絶対値|xn −x
m |と所定の閾値εとを比較し、その比較結果をセレク
タ31に送出する。セレクタ31は、絶対値|xn −x
m |が所定の閾値εよりも小さい場合には、画素値xm
を選択して後段の増幅器23Aに送出するのに対して、
絶対値|xn −xm |が所定の閾値εよりも大きい場合
には、画素値xn を選択して後段の増幅器23Aに送出
する。The magnitude comparator 33 calculates the absolute value | xn-x
is compared with a predetermined threshold value ε, and the comparison result is sent to the selector 31. The selector 31 calculates the absolute value | xn-x
is smaller than a predetermined threshold ε, the pixel value xm
Is selected and sent to the subsequent amplifier 23A,
If the absolute value | xn-xm | is larger than the predetermined threshold value ε, the pixel value xn is selected and sent to the subsequent amplifier 23A.
【0023】セレクタ21B〜21Fは、それぞれセレ
クタ21Aと同様に構成され、選択した画素pの画素値
xをそれぞれ対応する後段の増幅器23B及び23C並
びに23E〜23Gに送出する。増幅器23Dは、レジ
スタ列20Cから中心画素pn の画素値xn が供給され
るようになされている。Each of the selectors 21B to 21F has the same configuration as the selector 21A, and sends the pixel value x of the selected pixel p to the corresponding subsequent amplifiers 23B and 23C and 23E to 23G. The amplifier 23D is supplied with the pixel value xn of the center pixel pn from the register row 20C.
【0024】増幅器23A〜23Gは、入力される画素
値xに対してぞれぞれタップ係数ak を乗算するための
ものであり、その演算結果をそれぞれ加算器24に送出
して当該加算器24において加算した後、これを平滑化
画像データS4Aとしてεフィルタ12Bに送出する。The amplifiers 23A to 23G are for multiplying the input pixel value x by the tap coefficients ak, respectively, and transmit the operation results to the adder 24, respectively. , And sends this to the ε-filter 12B as smoothed image data S4A.
【0025】なお、この平滑化処理ではエッジ以外の部
分では可能な限り変化の少ない画像を生成することが望
ましいが、そのためにはεフィルタ12Aにおいて、非
常に大きなフィルタを用いる必要がある。しかし、用い
るフィルタを大きくした場合、全画素にタップ係数ak
を乗算すると後段のセレクタ21A〜21Fや増幅器2
3A〜23Gの数も増加させなければならず、回路規模
が増大する。そこで、本実施の形態では、各レジスタ列
20をそれぞれ数画素分のレジスタ22によって構成
し、これ以降の演算処理に対しては各レジスタ列20の
先頭の1画素のみに施すようにすることにより、後段の
回路規模を増加させることなく、空間的に広い範囲をカ
バーするεフィルタを実現している。例えば、7タップ
のεフィルタに対し、レジスタ22の数を2とした場
合、同等な回路規模で図13に示すような13画素×1
3画素の大きさのフィルタを構成することが可能とな
る。但し、このように数画素おきにのみ有意な係数を持
つフィルタは大きな平滑化効果が期待できる反面、一般
的にサイドローブが大きくなる傾向があり、不要な高周
波数成分が平滑化画像データに残存しやくなる。レジス
タ22の数を変化させて構成したフィルタの周波数応答
の比較を図14に示す。横軸はナイキスト周波数を0.5
として正規化した周波数であり、縦軸はフィルタの周波
数応答を表している。Filter A、Filter B、及びFilter
Cはそれぞれレジスタ22の数が1、2、及び3の場合
に対応しており、それぞれの実際のフィルタ係数は図1
5に示すとおりである。図14からもレジスタ22の数
が多いほどサイドローブが増加していることがわかる。
そこで本実施の形態ではこの問題を回避するために、レ
ジスタ列20A〜20F内のレジスタ22の数を除いて
同様の構成を持つ複数のεフィルタ12A〜12Nを直
列に接続することで、平滑化効果とサイドローブの抑制
を両立させている。すなわち、レジスタ22の数が多い
εフィルタによって大きな平滑化効果を得るとともに、
レジスタ22の数が少ないεフィルタにより、他のフィ
ルタのサイドローブを通過した不要な高周波数成分を除
去する。ここで、εフィルタはエッジ周辺部において高
周波数成分を通過させる性質があるため、レジスタ22
の数が少ないεフィルタを先に用いた場合、そのメイン
ローブを通過した周波数成分が、エッジ周辺部では後段
のεフィルタによって十分減衰されない可能性がある。
従って、良好な平滑化効果を得るためには、レジスタ2
2の数の多いものから順に適用していくことが望まし
い。In this smoothing process, it is desirable to generate an image with as little change as possible in portions other than the edges. For this purpose, it is necessary to use a very large filter in the ε filter 12A. However, if the filter used is increased, the tap coefficients ak
Is multiplied by the selectors 21A to 21F and the amplifier 2 in the subsequent stage.
The number of 3A to 23G must also be increased, which increases the circuit scale. Therefore, in the present embodiment, each register row 20 is composed of registers 22 for several pixels, and the subsequent arithmetic processing is performed only on the first pixel of each register row 20. This realizes an ε filter that covers a wide range spatially without increasing the circuit scale of the subsequent stage. For example, when the number of the registers 22 is 2 for a 7-tap ε filter, 13 pixels × 1 as shown in FIG.
A filter having a size of three pixels can be configured. However, while a filter having a significant coefficient only every few pixels in this way can expect a large smoothing effect, it generally has a tendency to have a large side lobe, and unnecessary high frequency components remain in the smoothed image data. Become responsive. FIG. 14 shows a comparison of the frequency response of a filter configured by changing the number of the registers 22. The horizontal axis is Nyquist frequency 0.5
Where the vertical axis represents the frequency response of the filter. Filter A, Filter B, and Filter
C corresponds to the case where the number of the registers 22 is 1, 2, and 3, respectively.
As shown in FIG. FIG. 14 also shows that the side lobes increase as the number of registers 22 increases.
Therefore, in this embodiment, in order to avoid this problem, smoothing is performed by connecting a plurality of ε filters 12A to 12N having the same configuration in series except for the number of registers 22 in the register rows 20A to 20F. The effect and the suppression of the side lobe are compatible. That is, while a large smoothing effect is obtained by the ε filter having a large number of registers 22,
Unnecessary high frequency components that have passed through the side lobes of other filters are removed by an ε filter with a small number of registers 22. Here, since the ε filter has a property of passing high frequency components around the edge, the register 22
If an ε-filter with a small number is used first, there is a possibility that the frequency components passing through the main lobe may not be sufficiently attenuated by the ε-filter at the subsequent stage near the edge.
Therefore, in order to obtain a good smoothing effect, it is necessary to use the resistor 2
It is desirable to apply them in ascending order of 2.
【0026】ルックアップテーブル13は、εフィルタ
12Nから供給される平滑化画像データS4Nに対し
て、ルックアップテーブル11が施した対数変換の逆変
換を施し、その結果得た平滑化画像データS10を線形
ローパスフィルタ35に送出する。線形ローパスフィル
タ35は、エッジを保存したまま平滑化された平滑化画
像データS10のエッジを僅かに鈍らせることにより平
滑化画像データS11を生成し、これを加算器40及び
41(図1)に送出する。これにより、後段の画像強調
処理においてエッジ近傍での画像の滑らかさを保持する
ことができる。The look-up table 13 performs an inverse conversion of the logarithmic conversion performed by the look-up table 11 on the smoothed image data S4N supplied from the ε filter 12N, and converts the resulting smoothed image data S10. The signal is sent to the linear low-pass filter 35. The linear low-pass filter 35 generates smoothed image data S11 by slightly dulling the edges of the smoothed image data S10 smoothed while preserving the edges, and outputs the smoothed image data S11 to the adders 40 and 41 (FIG. 1). Send out. As a result, it is possible to maintain the smoothness of the image near the edge in the subsequent image enhancement processing.
【0027】図1に戻って、遅延回路4は、CCD2に
よって撮像された入力画像データS1を所定量遅延さ
せ、これを遅延画像データS15として加算器40に送
出する。加算器40は、加算器41及び乗算器42と共
に画像強調手段を構成し、遅延画像データS15の各画
素値x(i、j)から平滑化画像データS11の各画素
値s(i、j)を減算し、その結果得た差分画像データ
S16を乗算器42に送出する。Returning to FIG. 1, the delay circuit 4 delays the input image data S1 picked up by the CCD 2 by a predetermined amount and sends it to the adder 40 as delayed image data S15. The adder 40 constitutes an image enhancing means together with the adder 41 and the multiplier 42, and converts each pixel value x (i, j) of the delayed image data S15 to each pixel value s (i, j) of the smoothed image data S11. Is subtracted, and the resulting difference image data S16 is sent to the multiplier 42.
【0028】乗算器42は、差分画像データS16の各
画素値(x(i、j)−s(i、j))にそれぞれゲイ
ン係数g(i、j)を乗算して増幅し、その結果得た差
分画像データS17を加算器41に送出する。ここでゲ
イン係数g(i、j)は、全画面に対して一様な値、又
は各画素(i、j)毎に設定された値を用いる。The multiplier 42 multiplies each pixel value (x (i, j) -s (i, j)) of the difference image data S16 by a gain coefficient g (i, j) and amplifies the result. The obtained difference image data S17 is sent to the adder 41. Here, the gain coefficient g (i, j) uses a uniform value for the entire screen or a value set for each pixel (i, j).
【0029】加算器41は、乗算器42から供給される
差分画像データS17の各画素値g(i、j)×(x
(i、j)−s(i、j))に対して、加算器40によ
って減算されたオフセット分である平滑化画像データS
11の各画素値s(i、j)を加算し、その結果得た出
力画像データS18をカメラ信号処理回路45に送出す
る。カメラ信号処理回路45は、出力画像データS18
に対して所定のデータ処理を施し、その結果得た出力画
像データS19をVTR(Video Tape Recorder)46
に送出して記録する。The adder 41 calculates each pixel value g (i, j) × (x) of the differential image data S17 supplied from the multiplier 42.
(I, j) -s (i, j)), the smoothed image data S which is the offset subtracted by the adder 40
The respective pixel values s (i, j) of No. 11 are added, and the resulting output image data S18 is sent to the camera signal processing circuit 45. The camera signal processing circuit 45 outputs the output image data S18
Is subjected to predetermined data processing, and the resulting output image data S19 is converted to a VTR (Video Tape Recorder) 46.
And record it.
【0030】画像処理回路3から出力される出力画像デ
ータS18の各画素値y(i、j)は、次式Each pixel value y (i, j) of the output image data S18 output from the image processing circuit 3 is expressed by the following equation.
【0031】[0031]
【数2】 (Equation 2)
【0032】によって表される。この(2)式におい
て、ゲイン係数g(i、j)を全画面に一様なゲイン係
数Gに置き換えると共に、平滑化画像データS11の各
画素値s(i、j)を入力画像データS1のダイナミッ
クレンジの中央値又は全画素値の平均値Cに置き換える
と、この(2)式は、従来のトーンカーブ調整によるコ
ントラスト強調方法を示す次式Is represented by In the equation (2), the gain coefficient g (i, j) is replaced with a uniform gain coefficient G for the entire screen, and each pixel value s (i, j) of the smoothed image data S11 is replaced with the input image data S1. When replaced by the median value of the dynamic range or the average value C of all pixel values, this equation (2) can be expressed by the following equation showing a conventional contrast enhancement method by tone curve adjustment.
【0033】[0033]
【数3】 (Equation 3)
【0034】のように表される。It is expressed as follows.
【0035】また、上述の(2)式において、ゲイン係
数g(i、j)を全画面に一様なゲイン係数Gに置き換
えると共に、平滑化画像データS11の各画素値s
(i、j)を入力画像データS1の各画素値x(i、
j)に線形ローパスフィルタ処理を施した画像データの
各画素値f(i、j)に置き換えると、この(2)式
は、従来のアンシャープマスクによる高域成分強調方法
を示す次式In the above equation (2), the gain coefficient g (i, j) is replaced with a uniform gain coefficient G for the entire screen, and each pixel value s of the smoothed image data S11 is changed.
(I, j) is replaced with each pixel value x (i,
Substituting each pixel value f (i, j) of the image data obtained by performing the linear low-pass filter processing on j), this equation (2) is expressed by the following equation showing a conventional high-frequency component emphasizing method using an unsharp mask.
【0036】[0036]
【数4】 (Equation 4)
【0037】のように表される。It is expressed as follows.
【0038】このように、従来のコントラスト強調方法
は、画像の各画素毎に独立して画像強調処理を行う方法
であると共に、従来の高域成分強調方法は、中心画素の
周辺に存在する周辺画素との相対的なレベル差を基に画
像強調処理を行う方法であるのに対して、本実施の形態
による方法は、非線形平滑化フィルタを用いて従来のコ
ントラスト強調方法及び高域成分強調方法を統合し、一
段と高品位な画像強調処理を可能にしている。As described above, the conventional contrast enhancement method is a method in which image enhancement processing is performed independently for each pixel of an image, and the conventional high-frequency component enhancement method is a method in which peripheral pixels existing around a central pixel are used. In contrast to the method of performing image enhancement processing based on a relative level difference with pixels, the method according to the present embodiment employs a conventional contrast enhancement method and a high-frequency component enhancement method using a nonlinear smoothing filter. To enable even higher quality image enhancement processing.
【0039】以上の構成において、画像処理回路3は、
非線形平滑化器5によって入力画像データS1のエッジ
成分を保存したまま当該入力画像データS1を平滑化し
て平滑化画像データS11を生成する。そして画像処理
回路3は、この平滑化画像データS11をオフセット分
として元画像である遅延画像データS15から減算し、
その減算結果にゲイン係数を乗算した後、オフセット分
である平滑化画像データS11を加算する。In the above configuration, the image processing circuit 3
The input image data S1 is smoothed while the edge component of the input image data S1 is preserved by the non-linear smoother 5, to generate smoothed image data S11. Then, the image processing circuit 3 subtracts the smoothed image data S11 from the delayed image data S15, which is the original image, as an offset,
After multiplying the result of the subtraction by a gain coefficient, smoothed image data S11 as an offset is added.
【0040】従って、入力画像データS1のうちエッジ
成分を保存したまま当該エッジ成分以外の小振幅成分の
信号レベルを強調することができ、かくして画像のダイ
ナミックレンジを維持しながら画像全体のコントラスト
を向上させることができると共に、エッジ付近でも画像
の鮮鋭度を向上させることができる。これによりビデオ
カメラ1は、霞んだ遠景の撮影や霧の中での撮影でも、
ダイナミックレンジ及びコントラストが確保された鮮明
な画像を撮影することができ、また高品位な画像強調処
理を行うことができる。Accordingly, it is possible to enhance the signal level of the small amplitude component other than the edge component while preserving the edge component of the input image data S1, thereby improving the contrast of the entire image while maintaining the dynamic range of the image. And the sharpness of the image can be improved even near the edges. As a result, the video camera 1 can shoot a hazy distant view or in a fog,
A clear image with a secured dynamic range and contrast can be taken, and high-quality image enhancement processing can be performed.
【0041】以上の構成によれば、入力画像データS1
のエッジ成分を保存したまま当該入力画像データS1を
平滑化して平滑化画像データS11を生成した後、当該
平滑化画像データS11をオフセット分として入力画像
データS1から減算し、その減算結果にゲイン係数を乗
算した上で平滑化画像データS11を加算することによ
り、入力画像データS1のうちエッジ成分を保存したま
ま当該エッジ成分以外の小振幅成分の信号レベルを強調
することができ、かくして画像のダイナミックレンジを
維持しながら従来に比して一段と画像全体のコントラス
ト及び鮮鋭度を向上させ得る。According to the above configuration, the input image data S1
After the input image data S1 is smoothed while the edge components of the input image data are preserved to generate smoothed image data S11, the smoothed image data S11 is subtracted from the input image data S1 as an offset, and a gain coefficient is added to the subtraction result. , And adding the smoothed image data S11, it is possible to emphasize the signal level of a small amplitude component other than the edge component in the input image data S1 while preserving the edge component. While maintaining the range, the contrast and sharpness of the entire image can be further improved as compared with the related art.
【0042】(2)第2の実施の形態 図1との対応部分に同一符号を付して示す図7は、第2
の実施の形態のビデオカメラ50を示し、画像処理回路
51の構成を除いて、第1の実施の形態のビデオカメラ
1と同様に構成されている。(2) Second Embodiment FIG. 7 in which parts corresponding to those in FIG.
10 shows a video camera 50 according to the third embodiment, and has the same configuration as the video camera 1 according to the first embodiment except for the configuration of an image processing circuit 51.
【0043】この実施の形態の場合、非線形平滑化器5
は、平滑化画像データS11を加算器40及び遅延回路
52に送出する。加算器40は、遅延画像データS15
から平滑化画像データS11を減算し、その結果得た差
分画像データS16を雑音除去フィルタ53に送出す
る。In the case of this embodiment, the nonlinear smoother 5
Sends the smoothed image data S11 to the adder 40 and the delay circuit 52. The adder 40 outputs the delayed image data S15
, And subtracts the smoothed image data S11 from the data, and sends the resulting difference image data S16 to the noise removal filter 53.
【0044】雑音除去フィルタ53は、差分画像データ
S16の雑音成分を低減し、その結果得られる差分画像
データS30を乗算器42に送出する。雑音除去フィル
タ53は、例えば図8に示すような入出力特性を有し、
図中矢印で示した範囲の小振幅成分を出力しないことで
雑音成分を低減させるコアリングと呼ばれる階調変換を
施す。この結果、後段の乗算器42において雑音成分が
増幅されて画像処理回路51から出力される画像データ
のS/N比(信号対雑音比)が劣化することを防止して
いる。The noise removal filter 53 reduces the noise component of the difference image data S16, and sends the resulting difference image data S30 to the multiplier 42. The noise removal filter 53 has input / output characteristics as shown in FIG. 8, for example.
A gradation conversion called coring is performed to reduce noise components by not outputting small amplitude components in the range indicated by the arrow in the figure. As a result, the S / N ratio (signal-to-noise ratio) of the image data output from the image processing circuit 51 due to the amplification of the noise component in the multiplier 42 at the subsequent stage is prevented from deteriorating.
【0045】乗算器42は、差分画像データS30の各
画素値にそれぞれゲイン係数を乗算して増幅し、その結
果得た差分画像データS31を加算器41に送出する。
遅延回路52は、平滑化画像データS11を所定量遅延
し、これを遅延平滑化画像データS32として加算器4
1に送出する。The multiplier 42 multiplies each pixel value of the difference image data S30 by a gain coefficient and amplifies the result, and sends the resulting difference image data S31 to the adder 41.
The delay circuit 52 delays the smoothed image data S11 by a predetermined amount, and delays the smoothed image data S11 as delayed smoothed image data S32.
Send to 1.
【0046】加算器41は、乗算器42から供給される
差分画像データS31の各画素値に対して、オフセット
分である平滑化画像データS32の各画素値を加算し、
その結果得た出力画像データS33をルックアップテー
ブル54に送出する。ルックアップテーブル54は、出
力画像データS33に対して例えば図9に示すような黒
近傍及び白近傍を圧縮する階調変換を施し、その結果得
た出力画像データS34をカメラ信号処理回路45に送
出する。これにより加算器41の加算処理によって画素
値が黒又は白側でダイナミクレンジを超える場合であっ
ても、黒近傍又は白近傍で階調がつぶれるクリッピング
ひずみが発生することを防止する。The adder 41 adds each pixel value of the smoothed image data S32, which is an offset, to each pixel value of the difference image data S31 supplied from the multiplier 42,
The resulting output image data S33 is sent to the look-up table 54. The look-up table 54 performs gradation conversion on the output image data S33 to compress, for example, the vicinity of black and the vicinity of white as shown in FIG. 9, and sends the resulting output image data S34 to the camera signal processing circuit 45. I do. As a result, even if the pixel value exceeds the dynamic range on the black or white side due to the addition processing of the adder 41, clipping distortion in which the gradation is lost near black or white is prevented.
【0047】以上の構成において、画像処理回路51
は、非線形平滑化器5によって入力画像データS1のエ
ッジ成分を保存したまま当該入力画像データS1を平滑
化して平滑化画像データS11を生成する。そして画像
処理回路51は、この平滑化画像データS11をオフセ
ット分として元画像である遅延画像データS15から減
算し、その減算結果にゲイン係数を乗算した後、オフセ
ット分である平滑化画像データS11を加算する。In the above configuration, the image processing circuit 51
Generates the smoothed image data S11 by smoothing the input image data S1 while preserving the edge component of the input image data S1 by the nonlinear smoother 5. Then, the image processing circuit 51 subtracts the smoothed image data S11 as an offset from the delayed image data S15 as the original image, multiplies the result of the subtraction by a gain coefficient, and outputs the smoothed image data S11 as the offset. to add.
【0048】従って、入力画像データS1のうちエッジ
成分を保存したまま当該エッジ成分以外の小振幅成分の
信号レベルを強調することができ、かくして画像のダイ
ナミックレンジを維持しながら画像全体のコントラスト
を向上させることができると共に、エッジ付近でも画像
の鮮鋭度を向上させることができる。Therefore, it is possible to enhance the signal level of the small amplitude component other than the edge component while preserving the edge component of the input image data S1, thereby improving the contrast of the entire image while maintaining the dynamic range of the image. And the sharpness of the image can be improved even near the edges.
【0049】以上の構成によれば、入力画像データS1
のエッジ成分を保存したまま当該入力画像データS1を
平滑化して平滑化画像データS11を生成した後、当該
平滑化画像データS11をオフセット分として入力画像
データS1から減算し、その減算結果にゲイン係数を乗
算した上で平滑化画像データS11を加算することによ
り、入力画像データS1のうちエッジ成分を保存したま
ま当該エッジ成分以外の小振幅成分の信号レベルを強調
することができ、かくして画像のダイナミックレンジを
維持しながら従来に比して一段と画像全体のコントラス
ト及び鮮鋭度を向上させ得る。According to the above configuration, the input image data S1
After the input image data S1 is smoothed while the edge components of the input image data are preserved to generate smoothed image data S11, the smoothed image data S11 is subtracted from the input image data S1 as an offset, and a gain coefficient is added to the subtraction result. , And adding the smoothed image data S11, it is possible to emphasize the signal level of a small amplitude component other than the edge component in the input image data S1 while preserving the edge component. While maintaining the range, the contrast and sharpness of the entire image can be further improved as compared with the related art.
【0050】また雑音除去フィルタ53において差分画
像データS16の雑音成分を低減することにより、後段
の乗算器42において雑音成分が増幅され出力画像デー
タS34のS/N比が劣化することを防止し得る。さら
にルックアップテーブル54において出力画像データS
33に対して黒近傍及び白近傍を圧縮する階調変換を施
すことにより、画素値がダイナミクレンジを超える場合
であってもクリッピングひずみの発生を防止し得る。Further, by reducing the noise component of the differential image data S16 in the noise removing filter 53, it is possible to prevent the noise component from being amplified in the multiplier 42 at the subsequent stage and the S / N ratio of the output image data S34 from being degraded. . Further, in the lookup table 54, the output image data S
By performing tone conversion for compressing the vicinity of black and the vicinity of white on 33, clipping distortion can be prevented even when the pixel value exceeds the dynamic range.
【0051】(3)第3の実施の形態 図10において、60は全体として第3の実施の形態の
ビデオカメラ60を示し、CCD61によってカラー画
像を撮像し、当該撮像されたカラー画像を入力画像デー
タS40として色分離回路62に入力する。色分離回路
62は、この入力画像データS40をR(赤色)G(緑
色)B(青色)の3原色の画像データにそれぞれ分離
し、このうち緑色の画像データを緑色画像データS40
Gとして画像処理部63の画像処理回路3Aに入力し、
赤色の画像データを赤色画像データS40Rとして画像
処理部63の画像処理回路3Bに入力し、青色の画像デ
ータを青色画像データS40Bとして画像処理部63の
画像処理回路3Cに入力する。(3) Third Embodiment In FIG. 10, reference numeral 60 denotes a video camera 60 according to the third embodiment as a whole, in which a color image is captured by a CCD 61, and the captured color image is converted into an input image. The data is input to the color separation circuit 62 as data S40. The color separation circuit 62 separates the input image data S40 into image data of three primary colors of R (red), G (green), and B (blue), and converts the green image data into green image data S40.
G is input to the image processing circuit 3A of the image processing unit 63,
The red image data is input to the image processing circuit 3B of the image processing unit 63 as red image data S40R, and the blue image data is input to the image processing circuit 3C of the image processing unit 63 as blue image data S40B.
【0052】画像処理回路3A〜3Cは、それぞれ図1
に示す画像処理回路3と同様の構成でなり、入力される
画像データS40G、S40R及びS40Bに対してエ
ッジ成分を保存したまま当該エッジ成分以外の小振幅成
分の信号レベルを強調する処理をそれぞれ施すようにな
されている。The image processing circuits 3A to 3C correspond to FIG.
Has the same configuration as that of the image processing circuit 3 shown in (1), and performs processing for enhancing the signal level of the small amplitude component other than the edge component on the input image data S40G, S40R, and S40B while preserving the edge component. It has been made like that.
【0053】すなわち、画像処理回路3Aは、緑色画像
データS40Gのエッジ成分を保存したまま当該緑色画
像データS40Gを平滑化して平滑化緑色画像データを
生成した後、当該平滑化緑色画像データをオフセット分
として緑色画像データS40Gから減算し、その減算結
果にゲイン係数を乗算した上で平滑化緑色画像データを
加算することにより、緑色出力画像データS41Gを生
成しカメラ信号処理回路64に送出する。That is, the image processing circuit 3A smoothes the green image data S40G while maintaining the edge components of the green image data S40G to generate smoothed green image data, and then converts the smoothed green image data into an offset component. Is subtracted from the green image data S40G, the subtraction result is multiplied by a gain coefficient, and then the smoothed green image data is added to generate green output image data S41G and send it to the camera signal processing circuit 64.
【0054】画像処理回路3B及び3Cは、画像処理回
路3Aと同様に、赤色画像データS40R及び青色画像
データS40Bに対してそれぞれ上述の処理を施すこと
により、赤色出力画像データS41R及び青色出力画像
データS41Bを生成しカメラ信号処理回路64にそれ
ぞれ送出する。Similarly to the image processing circuit 3A, the image processing circuits 3B and 3C perform the above-described processing on the red image data S40R and the blue image data S40B, respectively, so that the red output image data S41R and the blue output image data S41B is generated and sent to the camera signal processing circuit 64, respectively.
【0055】カメラ信号処理回路64は、緑色出力画像
データS41G、赤色出力画像データS41R及び青色
出力画像データS41Bそれぞれに対して所定のデータ
処理を施し、その結果得た出力画像データS42をVT
R65に送出して記録する。The camera signal processing circuit 64 performs predetermined data processing on each of the green output image data S41G, the red output image data S41R and the blue output image data S41B, and converts the resulting output image data S42 into a VT
Send to R65 for recording.
【0056】以上の構成において、画像処理回路3A〜
3Cは、画像データS40G、S40R及びS40Bの
エッジ成分を保存したまま当該画像データS40G、S
40R及びS40Bをそれぞれ平滑化して平滑化画像デ
ータを生成する。そして画像処理回路3A〜3Cは、こ
の平滑化画像データをオフセット分として元画像である
画像データS40G、S40R及びS40Bからそれぞ
れ減算し、その減算結果にゲイン係数を乗算した後、オ
フセット分である平滑化画像データをそれぞれ加算す
る。In the above configuration, the image processing circuits 3A to 3A
3C stores the image data S40G, S40R, and S40B while maintaining the edge components of the image data S40G, S40B.
40R and S40B are respectively smoothed to generate smoothed image data. Then, the image processing circuits 3A to 3C subtract the smoothed image data from the original image data S40G, S40R, and S40B, respectively, as an offset, and multiply the subtraction result by a gain coefficient. Coded image data are added.
【0057】従って、画像データS40G、S40R及
びS40Bのうちエッジ成分を保存したまま当該エッジ
成分以外の小振幅成分の信号レベルをそれぞれ強調する
ことができ、かくして画像のダイナミックレンジを維持
しながら画像全体のコントラストを向上させることがで
きると共に、エッジ付近でも画像の鮮鋭度を向上させる
ことができる。Accordingly, it is possible to enhance the signal levels of the small amplitude components other than the edge components while preserving the edge components of the image data S40G, S40R, and S40B, thereby maintaining the dynamic range of the image and the entire image. Can be improved, and the sharpness of an image can be improved even near the edge.
【0058】以上の構成によれば、画像データS40
G、S40R及びS40Bのエッジ成分を保存したまま
当該画像データS40G、S40R及びS40Bをそれ
ぞれ平滑化して平滑化画像データを生成した後、当該平
滑化画像データをオフセット分として画像データS40
G、S40R及びS40Bからそれぞれ減算し、その減
算結果にゲイン係数を乗算した上で平滑化画像データを
それぞれ加算することにより、画像データS40G、S
40R及びS40Bのうちエッジ成分を保存したまま当
該エッジ成分以外の小振幅成分の信号レベルを強調する
ことができ、かくして画像のダイナミックレンジを維持
しながら従来に比して一段と画像全体のコントラスト及
び鮮鋭度を向上させ得る。According to the above configuration, the image data S40
After the image data S40G, S40R, and S40B are respectively smoothed to generate smoothed image data while maintaining the edge components of G, S40R, and S40B, the image data S40 is generated using the smoothed image data as an offset.
G, S40R, and S40B are subtracted from each other, and the subtraction result is multiplied by a gain coefficient, and then the smoothed image data is added.
The signal level of a small amplitude component other than the edge component can be emphasized while the edge component is preserved among the 40R and S40B. Thus, while maintaining the dynamic range of the image, the contrast and sharpness of the entire image are further enhanced as compared with the related art. The degree can be improved.
【0059】また、CCD61によって撮像されたカラ
ー画像をRGBの3原色に分離し、当該分離された画像
データS40G、S40R及びS40Bに対してそれぞ
れエッジ成分を保存したまま当該エッジ成分以外の小振
幅成分の信号レベルをそれぞれ強調する画像処理を施す
ことにより、カラー画像が入力される場合であっても、
画像のダイナミックレンジを維持しながら従来に比して
一段と画像全体のコントラスト及び鮮鋭度を向上させ得
る。Further, the color image picked up by the CCD 61 is separated into three primary colors of RGB, and small-amplitude components other than the edge components are retained for the separated image data S40G, S40R, and S40B while retaining the edge components. Even if a color image is input by performing image processing that emphasizes the signal levels of
It is possible to further improve the contrast and sharpness of the entire image as compared with the related art while maintaining the dynamic range of the image.
【0060】(4)他の実施の形態 なお上述の第2の実施の形態においては、コアリングと
呼ばれる手法を用いた雑音除去フィルタ53によって差
分画像データS16から雑音成分を低減する場合につい
て述べたが、本発明はこれに限らず、図4に示すεフィ
ルタ12Aによって雑音除去フィルタを構成し、差分画
像データS16の小振幅成分のみ平滑化して雑音成分を
低減するようにしても良い。(4) Other Embodiments In the above-described second embodiment, a case has been described in which the noise component is reduced from the difference image data S16 by the noise removal filter 53 using a technique called coring. However, the present invention is not limited to this, and a noise removal filter may be configured by the ε filter 12A shown in FIG. 4 and only the small amplitude component of the difference image data S16 may be smoothed to reduce the noise component.
【0061】また上述の第2の実施の形態においては、
雑音除去フィルタ53を加算器40の後段に配置した場
合について述べたが、本発明はこれに限らず、要は、雑
音除去フィルタ53を乗算器42の前段に位置すれば良
く、遅延回路4の前段又は後段に配置しても良い。In the above-described second embodiment,
Although the case where the noise removal filter 53 is disposed after the adder 40 has been described, the present invention is not limited to this, and the point is that the noise removal filter 53 only needs to be located before the multiplier 42. It may be arranged in the former stage or the latter stage.
【0062】また上述の第3の実施の形態においては、
色分離回路62によって入力画像データS40をRGB
の3原色信号に分離した場合について述べたが、本発明
はこれに限らず、輝度信号Y、赤色信号Rから輝度信号
Yを減算した色差信号R−Y及び青色信号Bから輝度信
号Yを減算した色差信号B−Yに分離するようにしても
良い。In the third embodiment described above,
The input image data S40 is converted to RGB by the color separation circuit 62.
However, the present invention is not limited to this, and the present invention is not limited to this. The luminance signal Y is subtracted from the blue signal B and the color difference signal RY obtained by subtracting the luminance signal Y from the luminance signal Y and the red signal R. May be separated into the color difference signals BY.
【0063】また上述の第3の実施の形態においては、
画像処理回路3A〜3C中のεフィルタを1次元又は2
次元のεフィルタによって構成する場合について述べた
が、本発明はこれに限らず、3次元のεフィルタによっ
て構成するようにしても良い。In the third embodiment described above,
The ε filter in the image processing circuits 3A to 3C is one-dimensional or two-dimensional.
Although the case has been described in which the filter is constituted by a three-dimensional ε filter, the present invention is not limited to this, and may be constituted by a three-dimensional ε filter.
【0064】この場合、図10との対応部分に同一符号
を付して示す図11に示すように、ビデオカメラ70の
画像処理部71は、色分離回路60から供給される緑色
画像データS40Gを画像処理回路72A〜72Cに入
力し、赤色画像データS40Rを画像処理回路72A〜
72Cに入力し、青色画像データS40Bを画像処理回
路72A〜72Cに入力する。In this case, as shown in FIG. 11, in which parts corresponding to those in FIG. 10 are assigned the same reference numerals, the image processing unit 71 of the video camera 70 converts the green image data S40G supplied from the color separation circuit 60 into The image data is input to the image processing circuits 72A to 72C, and the red image data S40R is input to the image processing circuits 72A to 72C.
72C, and the blue image data S40B is input to the image processing circuits 72A to 72C.
【0065】画像処理回路72A〜72Cは、例えば緑
色画像データS40Gの画素値をgn 、赤色画像データ
S40Rの画素値をrn 及び青色画像データS40Bの
画素値をbn とした場合、上述の(1)式における画素
値xn と画素値xn-k の差の絶対値|xn −xn-k |に
代わりに、次式For example, when the pixel value of the green image data S40G is gn, the pixel value of the red image data S40R is rn, and the pixel value of the blue image data S40B is bn, the image processing circuits 72A to 72C perform the above-mentioned (1). Instead of the absolute value of the difference between the pixel value xn and the pixel value xn-k | xn-xn-k |
【0066】[0066]
【数5】 (Equation 5)
【0067】をそれぞれ用いることにより、一段と効果
的な平滑化を行うようになされている。By using each of them, more effective smoothing is performed.
【0068】また上述の第3の実施の形態においては、
入力画像データS40をRGBの3原色に分離し、当該
分離された画像データS40G、S40R及びS40B
それぞれに対して画像強調処理を施す場合について述べ
たが、本発明はこれに限らず、入力画像データS40の
輝度データのみに画像強調処理を施して全体の演算量を
削減するようにしても良い。In the third embodiment described above,
The input image data S40 is separated into three primary colors of RGB, and the separated image data S40G, S40R, and S40B are separated.
Although the case where the image enhancement processing is applied to each is described, the present invention is not limited to this, and the image enhancement processing may be performed only on the luminance data of the input image data S40 to reduce the overall calculation amount. .
【0069】図10との対応部分に同一符号を付して示
す図12に示すように、ビデオカメラ80の画像処理部
81は、色分離回路62から供給される緑色画像データ
S40G、赤色画像データS40R及び青色画像データ
S40Bを画像処理部81のマトリクス回路82に入力
する。マトリクス回路82は、緑色画像データS40
G、赤色画像データS40R及び青色画像データS40
Bを、輝度データS50A、赤色画像データS40Rか
ら当該輝度データS50Aを減算した色差データS50
B及び青色画像データS40Bから当該輝度データS5
0Aを減算した色差データS50Cに変換し、このうち
輝度データS50Aを画像処理回路3A並びに除算器8
3A及び83Bに送出し、色差データS50Bを除算器
83Aに送出し、色差データS50Cを除算器83Bに
送出する。As shown in FIG. 12, in which parts corresponding to those in FIG. 10 are assigned the same reference numerals, the image processing unit 81 of the video camera 80 includes green image data S40G and red image data supplied from the color separation circuit 62. S40R and the blue image data S40B are input to the matrix circuit 82 of the image processing unit 81. The matrix circuit 82 stores the green image data S40
G, red image data S40R and blue image data S40
B is the color difference data S50 obtained by subtracting the luminance data S50A from the luminance data S50A and the red image data S40R.
B and the luminance data S5 from the blue image data S40B.
0A is converted into color difference data S50C obtained by subtracting 0A, and the luminance data S50A is converted into the image processing circuit 3A and the divider 8
3A and 83B, the color difference data S50B is sent to the divider 83A, and the color difference data S50C is sent to the divider 83B.
【0070】画像処理回路3Aは、図1に示す画像処理
回路3と同様に構成され、輝度データS50Aに対して
画像強調処理を施し、その結果得た出力輝度データS5
1Aを乗算器84A及び84B並びにカメラ信号処理回
路64に送出する。除算器83A及び83Bは、それぞ
れ色差データS50B及びS50Cを輝度データS50
Aで除算することにより、色差データS50B及びS5
0Cを輝度データS50Aでそれぞれ正規化した正規化
データS52A及びS52Bを生成し、これらを遅延回
路85A及び85Bにそれぞれ送出する。The image processing circuit 3A has the same configuration as that of the image processing circuit 3 shown in FIG. 1, performs image enhancement processing on the luminance data S50A, and obtains output luminance data S5 obtained as a result.
1A is sent to the multipliers 84A and 84B and the camera signal processing circuit 64. The dividers 83A and 83B respectively convert the color difference data S50B and S50C into the luminance data S50.
By dividing by A, the color difference data S50B and S5
Normalized data S52A and S52B are generated by normalizing 0C with the luminance data S50A, respectively, and these are sent to delay circuits 85A and 85B, respectively.
【0071】遅延回路85A及び85Bは、正規化デー
タS52A及びS52Bをそれぞれ所定量遅延させ、こ
れらを遅延正規化データS53A及びS53Bとして乗
算器84A及び84Bに送出する。乗算器84A及び8
4Bは、遅延正規化データS53A及びS53Bに対し
て輝度データS51Aをそれぞれ乗算することにより、
色差データS54A及びS54Bを生成し、これらをカ
メラ信号処理回路64に送出する。The delay circuits 85A and 85B delay the normalized data S52A and S52B by a predetermined amount, respectively, and send them as delayed normalized data S53A and S53B to the multipliers 84A and 84B. Multipliers 84A and 8
4B is obtained by multiplying the delay normalized data S53A and S53B by the luminance data S51A, respectively.
The color difference data S54A and S54B are generated and sent to the camera signal processing circuit 64.
【0072】さらに上述の実施の形態においては、本発
明をビデオカメラ1、50及び60に適用した場合につ
いて述べたが、本発明はこれに限らず、例えば電子スチ
ルカメラ、プリンタ、ディスプレイ、コンピュータのよ
うな他の種々の画像処理装置に本発明を広く適用し得
る。この場合、コンピュータでは、画像コントラストを
修正する際、ダイナミックレンジを維持しながら高品位
なコントラスト修正画像を得ることができ、また異なる
照明条件下で得られた画像同士を合成する際、それぞれ
のコントラスト成分の違いのみを補正でき、自然な合成
画像を生成することができる。Further, in the above-described embodiment, the case where the present invention is applied to the video cameras 1, 50 and 60 has been described. However, the present invention is not limited to this, and for example, an electronic still camera, a printer, a display, and a computer. The present invention can be widely applied to various other image processing apparatuses. In this case, when correcting the image contrast, the computer can obtain a high-quality contrast-corrected image while maintaining the dynamic range, and when synthesizing images obtained under different lighting conditions, the respective contrasts can be adjusted. Only the difference between the components can be corrected, and a natural synthesized image can be generated.
【0073】[0073]
【発明の効果】上述のように本発明によれば、入力画像
データのうち画素値の変化が急峻なエッジを保存したま
ま当該エッジ以外の部分を増幅することにより、エッジ
以外の部分を強調して表示することができ、かくして従
来に比して一段と画像全体のコントラスト及び鮮鋭度を
向上させ得る。As described above, according to the present invention, the portion other than the edge is enhanced by amplifying the portion other than the edge of the input image data while preserving the edge where the pixel value changes sharply. Thus, the contrast and sharpness of the entire image can be further improved as compared with the related art.
【図1】本発明によるビデオカメラの第1の実施の形態
を示すブロック図である。FIG. 1 is a block diagram showing a first embodiment of a video camera according to the present invention.
【図2】非線形平滑化器の構成を示すブロック図であ
る。FIG. 2 is a block diagram illustrating a configuration of a nonlinear smoother.
【図3】εフィルタの動作の説明に供する略線図であ
る。FIG. 3 is a schematic diagram for explaining the operation of an ε filter.
【図4】εフィルタの構成を示すブロック図である。FIG. 4 is a block diagram illustrating a configuration of an ε filter.
【図5】レジスタ列の構成を示すブロック図である。FIG. 5 is a block diagram showing a configuration of a register string.
【図6】セレクタの構成を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration of a selector.
【図7】第2の実施の形態のビデオカメラの構成を示す
ブロック図である。FIG. 7 is a block diagram illustrating a configuration of a video camera according to a second embodiment.
【図8】雑音除去フィルタの入出力特性の説明に供する
略線図である。FIG. 8 is a schematic diagram for explaining input / output characteristics of a noise removal filter.
【図9】ルックアップテーブルの説明に供する略線図で
ある。FIG. 9 is a schematic diagram for explaining a lookup table.
【図10】第3の実施の形態のビデオカメラの構成を示
すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a video camera according to a third embodiment.
【図11】他の実施の形態のビデオカメラの構成を示す
ブロック図である。FIG. 11 is a block diagram illustrating a configuration of a video camera according to another embodiment.
【図12】他の実施の形態のビデオカメラの構成を示す
ブロック図である。FIG. 12 is a block diagram illustrating a configuration of a video camera according to another embodiment.
【図13】レジスタ22を用いたεフィルタの例を示す
図である。FIG. 13 is a diagram showing an example of an ε filter using a register 22.
【図14】レジスタ22の数と周波数応答の関係を示す
図である。FIG. 14 is a diagram showing a relationship between the number of registers 22 and a frequency response.
【図15】図14の周波数応答に対応するフィルタの係
数を示す図である。FIG. 15 is a diagram illustrating coefficients of a filter corresponding to the frequency response in FIG. 14;
60……ビデオカメラ、2、61……CCD、3、5
1、72……画像処理回路、5……非線形平滑化器、1
2……εフィルタ、20……レジスタ列、21……セレ
クタ、22……レジスタ、23……増幅器、40、41
……加算器、42、84……乗算器。60: Video camera, 2, 61: CCD, 3, 5
1, 72 image processing circuit, 5 non-linear smoother, 1
2 ε filter, 20 register row, 21 selector, 22 register, 23 amplifier, 40, 41
... Adders, 42, 84 ... Multipliers.
フロントページの続き (72)発明者 上田 和彦 東京都品川区北品川6丁目7番35号ソニー 株式会社内 Fターム(参考) 5B057 BA02 CA01 CA02 CA08 CA12 CA16 CB01 CB02 CB08 CB12 CB16 CE03 CE05 CE06 CE11 CH08 5C021 PA34 PA42 PA52 PA57 PA62 RB03 XA35 XB06 YA01 5C022 AB51 AC69 5C077 LL19 MM03 MP08 PP03 PP32 PP48 PQ12 PQ23 TT09 Continued on the front page (72) Inventor Kazuhiko Ueda 6-35 Kita-Shinagawa, Shinagawa-ku, Tokyo F-term within Sony Corporation (reference) 5B057 BA02 CA01 CA02 CA08 CA12 CA16 CB01 CB02 CB08 CB12 CB16 CE03 CE05 CE06 CE11 CH08 5C021 PA34 PA42 PA52 PA57 PA62 RB03 XA35 XB06 YA01 5C022 AB51 AC69 5C077 LL19 MM03 MP08 PP03 PP32 PP48 PQ12 PQ23 TT09
Claims (10)
なエッジを保存したまま当該エッジ以外の部分を増幅す
る画像処理手段を具える画像処理装置において、 上記画像処理手段は、 上記入力画像データの上記エッジを保存したまま上記入
力画像データを平滑化し平滑化画像データを生成する平
滑化手段と、 上記平滑化画像データを上記入力画像データから減算
し、当該減算結果を増幅した後、上記平滑化画像データ
を加算し出力画像データを生成する画像強調手段とより
なり、更に上記平滑化手段は、上記入力画像データ各々
に対して非線形変換を施し非線形画像データを生成する
非線形変換手段と、上記非線形画像データに対して、非
線形ディジタルフィルタを施し非線形平滑化画像データ
を生成する非線形フィルタリング手段と、上記非線形平
滑化画像データに対して上記非線形変換手段の逆変換を
施して平滑化画像データを生成する非線形逆変換手段と
を具えることを特徴とする画像処理装置。1. An image processing apparatus comprising: image processing means for amplifying a portion other than an edge of an input image data with a sharp change in pixel value while preserving an edge of the input image data. A smoothing unit that smoothes the input image data to generate smoothed image data while preserving the edge of the data, subtracts the smoothed image data from the input image data, and amplifies the subtraction result. Image enhancement means for adding smoothed image data to generate output image data, wherein the smoothing means performs nonlinear conversion on each of the input image data to generate nonlinear image data; and Non-linear filtering means for applying a non-linear digital filter to the non-linear image data to generate non-linear smoothed image data; The image processing apparatus characterized by comprising a non-linear inverse conversion means for generating a smoothed image data by performing an inverse transform of the nonlinear transformation means with respect to the non-linear smoother image data.
素とその近傍画素の差分値に基づいて平滑化の度合いを
適応的に変化させることを特徴とする請求項1に記載の
画像処理装置。2. The image processing apparatus according to claim 1, wherein said nonlinear filtering means adaptively changes a degree of smoothing based on a difference value between a central pixel and its neighboring pixels.
明光の強さに依存しないように上記入力画像データの値
を変換することを特徴とする請求項1に記載の画像処理
装置。3. The non-linear conversion means converts the value of the input image data so that the magnitude of the difference value does not depend on the intensity of illumination light when the image data is captured. The image processing device according to claim 1.
続された大きさの異なる複数の非線形フィルタからなる
ことを特徴とする請求項1に記載の画像処理装置。4. The image processing apparatus according to claim 1, wherein said non-linear filtering means comprises a plurality of non-linear filters of different sizes connected in series.
続された大きさの異なる複数の非線形フィルタからな
り、かつ小さいフィルタほど後段に位置することを特徴
とする請求項1に記載の画像処理装置。5. The image processing apparatus according to claim 1, wherein said non-linear filtering means comprises a plurality of non-linear filters of different sizes connected in series, and a smaller filter is located at a later stage.
なエッジを保存したまま当該エッジ以外の部分を増幅す
る画像処理を施す画像処理方法において、 上記入力画像データの上記エッジを保存したまま上記入
力画像データを平滑化し平滑化画像データを生成し、 上記平滑化画像データを上記入力画像データから減算
し、当該減算結果を増幅した後、上記平滑化画像データ
を加算し出力画像データを生成するステップよりなり、
更に、 上記入力画像データのうち雑音成分を除去し雑音除去画
像データを生成し、 上記平滑化画像データを上記雑音除去画像データから減
算し、当該減算結果を増幅した後、上記平滑化画像デー
タを加算し出力画像データを生成するステップを含み、
更に、 上記入力画像データ各々に対して非線形変換を施し非線
形画像データを生成し、 上記非線形画像データに対して非線形ディジタルフィル
タを施し非線形平滑化画像データを生成し、 上記非線形平滑化画像データに対して上記非線形変換手
段の逆変換を施して平滑化画像データを生成するステッ
プを含むことを特徴とする画像処理方法。6. An image processing method for performing image processing for amplifying a portion other than the edge of an input image data with a sharp change in pixel value while preserving an edge of the input image data, wherein the edge of the input image data is preserved. Generates smoothed image data by smoothing the input image data, subtracts the smoothed image data from the input image data, amplifies the result of the subtraction, and adds the smoothed image data to generate output image data The steps of
Further, noise components are removed from the input image data to generate noise-removed image data, the smoothed image data is subtracted from the noise-removed image data, and the result of the subtraction is amplified. Summing to generate output image data,
Further, a nonlinear transformation is performed on each of the input image data to generate nonlinear image data, a nonlinear digital filter is performed on the nonlinear image data to generate nonlinear smoothed image data, and a nonlinear smoothed image data is generated. Performing an inverse transformation of the non-linear transformation means to generate smoothed image data.
て平滑化の度合いを適応的に変化させて上記非線形平滑
化画像データを生成することを特徴とする請求項6に記
載の画像処理方法。7. The image processing according to claim 6, wherein the degree of smoothing is adaptively changed based on a difference value between the central pixel and its neighboring pixels to generate the nonlinear smoothed image data. Method.
像した際の照明光の強さに依存しないように上記入力画
像データの値を変換することを特徴とする請求項6に記
載の画像処理方法。8. The apparatus according to claim 6, wherein the value of the input image data is converted so that the magnitude of the difference value does not depend on the intensity of illumination light when the image data is captured. Image processing method.
列的に上記非線形画像データに施して上記非線形平滑化
画像データを生成することを特徴とする請求項6に記載
の画像処理方法。9. The image processing method according to claim 6, wherein a plurality of nonlinear filters having different sizes are serially applied to the nonlinear image data to generate the nonlinear smoothed image data.
を、その大きさが大きいものから順に直列的に上記非線
形画像データに施して上記非線形平滑化画像データを生
成することを特徴とする請求項6に記載の画像処理方
法。10. The non-linear smoothed image data is generated by serially applying a plurality of non-linear filters having different sizes to the non-linear image data in descending order of the size. The image processing method according to 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001015121A JP4415236B2 (en) | 2000-02-07 | 2001-01-23 | Image processing apparatus and image processing method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000034379 | 2000-02-07 | ||
JP2000-34379 | 2000-02-07 | ||
JP2001015121A JP4415236B2 (en) | 2000-02-07 | 2001-01-23 | Image processing apparatus and image processing method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009112821A Division JP4662190B2 (en) | 2000-02-07 | 2009-05-07 | Image processing apparatus, image processing method, and image processing program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2001298621A true JP2001298621A (en) | 2001-10-26 |
JP2001298621A5 JP2001298621A5 (en) | 2008-01-10 |
JP4415236B2 JP4415236B2 (en) | 2010-02-17 |
Family
ID=26585256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001015121A Expired - Fee Related JP4415236B2 (en) | 2000-02-07 | 2001-01-23 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4415236B2 (en) |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004133644A (en) * | 2002-10-10 | 2004-04-30 | Olympus Corp | Image processing circuit |
WO2004097738A1 (en) * | 2003-04-25 | 2004-11-11 | Sony Corporation | Signal processing device and method, recording medium, and program |
WO2005122552A1 (en) * | 2004-06-10 | 2005-12-22 | Sony Corporation | Image processing device, method, and program |
US7106346B2 (en) | 2003-07-11 | 2006-09-12 | Sony Corporation | Signal processing apparatus and method, recording medium, and program |
WO2009034727A1 (en) * | 2007-09-11 | 2009-03-19 | Mitsubishi Electric Corporation | Noise reduction device |
WO2009072537A1 (en) * | 2007-12-04 | 2009-06-11 | Sony Corporation | Image processing device and method, program, and recording medium |
US7558435B2 (en) | 2003-03-24 | 2009-07-07 | Sony Corporation | Signal processing apparatus, method of processing a signal, recording medium, and program |
US7657114B2 (en) | 2005-08-18 | 2010-02-02 | Sony Corporation | Data processing apparatus, data processing method, and program |
WO2010018695A1 (en) * | 2008-08-15 | 2010-02-18 | Sharp Kabushiki Kaisha | Image modifying method and device |
CN1672175B (en) * | 2002-07-23 | 2010-04-28 | 株式会社日立医药 | Image processing device |
JP2010200940A (en) * | 2009-03-03 | 2010-09-16 | Hoya Corp | Image processor and endoscope apparatus |
US7853095B2 (en) | 2005-11-02 | 2010-12-14 | Sony Corporation | Apparatus, method, recording medium and program for processing signal |
JP2011003048A (en) * | 2009-06-19 | 2011-01-06 | Casio Computer Co Ltd | Image processing apparatus and image processing program |
US7898583B2 (en) | 2006-07-05 | 2011-03-01 | Konica Minolta Holdings, Inc. | Image processing device, image processing method, and image sensing apparatus |
US7903148B2 (en) | 2006-01-31 | 2011-03-08 | Sony Corporation | Apparatus, method, and computer program for processing image, and recording medium storing the computer program |
EP2315430A2 (en) | 2009-10-23 | 2011-04-27 | Sony Corporation | Image processing apparatus and image processing method |
US8045063B2 (en) | 2006-01-16 | 2011-10-25 | Sony Corporation | Apparatus, method, and computer program for processing image, and recording medium storing the computer program |
US8081239B2 (en) | 2007-10-29 | 2011-12-20 | Sony Corporation | Image processing apparatus and image processing method |
KR101099401B1 (en) * | 2009-07-08 | 2011-12-27 | 가시오게산키 가부시키가이샤 | Image processing apparatus and computer-readable medium |
JP2012198945A (en) * | 2012-07-26 | 2012-10-18 | Fujitsu Semiconductor Ltd | Image processing device, image processing method, and imaging device |
WO2012144158A1 (en) * | 2011-04-22 | 2012-10-26 | パナソニック株式会社 | Image processing apparatus and image processing method |
JP2014511071A (en) * | 2011-03-16 | 2014-05-01 | クゥアルコム・インコーポレイテッド | Generate a zoomed image |
JP2014138329A (en) * | 2013-01-17 | 2014-07-28 | Sharp Corp | Image processing device, image display device, program, and storage medium |
JP2014139786A (en) * | 2008-11-06 | 2014-07-31 | Samsung Electronics Co Ltd | System and method for reduction of block noise |
US8867824B2 (en) | 2011-03-29 | 2014-10-21 | Sony Corporation | Image processing apparatus, method, and program |
US9153015B2 (en) | 2011-03-24 | 2015-10-06 | Mitsubishi Electric Corporation | Image processing device and method |
JP2015180989A (en) * | 2014-03-07 | 2015-10-15 | 株式会社リコー | Image processing apparatus, image processing method, program, and storage medium |
US9418403B2 (en) | 2013-10-04 | 2016-08-16 | Fuji Xerox Co., Ltd. | Image processor and non-transitory computer readable medium for generating a reproduction image which is reproduced so that visibility of an original image is enhanced |
JP2019048117A (en) * | 2014-02-05 | 2019-03-28 | カシオ計算機株式会社 | Image processing circuit of medical image, image processing method, and program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6724943B2 (en) * | 2000-02-07 | 2004-04-20 | Sony Corporation | Device and method for image processing |
-
2001
- 2001-01-23 JP JP2001015121A patent/JP4415236B2/en not_active Expired - Fee Related
Cited By (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1672175B (en) * | 2002-07-23 | 2010-04-28 | 株式会社日立医药 | Image processing device |
JP2004133644A (en) * | 2002-10-10 | 2004-04-30 | Olympus Corp | Image processing circuit |
US7558435B2 (en) | 2003-03-24 | 2009-07-07 | Sony Corporation | Signal processing apparatus, method of processing a signal, recording medium, and program |
WO2004097738A1 (en) * | 2003-04-25 | 2004-11-11 | Sony Corporation | Signal processing device and method, recording medium, and program |
KR101007840B1 (en) * | 2003-04-25 | 2011-01-14 | 소니 주식회사 | Signal processing device and method, and recording medium |
US7773824B2 (en) | 2003-04-25 | 2010-08-10 | Sony Corporation | Signal processing device and method, recording medium, and program |
US7106346B2 (en) | 2003-07-11 | 2006-09-12 | Sony Corporation | Signal processing apparatus and method, recording medium, and program |
KR101031153B1 (en) | 2003-07-11 | 2011-04-27 | 소니 주식회사 | Apparatus and method for signal processing |
JPWO2005122552A1 (en) * | 2004-06-10 | 2008-04-10 | ソニー株式会社 | Image processing apparatus and method, and program |
JP4497160B2 (en) * | 2004-06-10 | 2010-07-07 | ソニー株式会社 | Image processing apparatus and method, and program |
WO2005122552A1 (en) * | 2004-06-10 | 2005-12-22 | Sony Corporation | Image processing device, method, and program |
US7657114B2 (en) | 2005-08-18 | 2010-02-02 | Sony Corporation | Data processing apparatus, data processing method, and program |
KR101318556B1 (en) | 2005-11-02 | 2013-10-16 | 소니 주식회사 | Apparatus and method for processing signal, and recording medium |
US7853095B2 (en) | 2005-11-02 | 2010-12-14 | Sony Corporation | Apparatus, method, recording medium and program for processing signal |
KR101329469B1 (en) | 2006-01-16 | 2013-11-13 | 소니 주식회사 | Apparatus, method, and recording medium storing the computer program |
US8045063B2 (en) | 2006-01-16 | 2011-10-25 | Sony Corporation | Apparatus, method, and computer program for processing image, and recording medium storing the computer program |
US7903148B2 (en) | 2006-01-31 | 2011-03-08 | Sony Corporation | Apparatus, method, and computer program for processing image, and recording medium storing the computer program |
US7898583B2 (en) | 2006-07-05 | 2011-03-01 | Konica Minolta Holdings, Inc. | Image processing device, image processing method, and image sensing apparatus |
WO2009034727A1 (en) * | 2007-09-11 | 2009-03-19 | Mitsubishi Electric Corporation | Noise reduction device |
US8081239B2 (en) | 2007-10-29 | 2011-12-20 | Sony Corporation | Image processing apparatus and image processing method |
JP5105209B2 (en) * | 2007-12-04 | 2012-12-26 | ソニー株式会社 | Image processing apparatus and method, program, and recording medium |
US8417064B2 (en) | 2007-12-04 | 2013-04-09 | Sony Corporation | Image processing device and method, program and recording medium |
CN101971612B (en) * | 2007-12-04 | 2013-05-01 | 索尼公司 | Image processing device and method |
WO2009072537A1 (en) * | 2007-12-04 | 2009-06-11 | Sony Corporation | Image processing device and method, program, and recording medium |
WO2010018695A1 (en) * | 2008-08-15 | 2010-02-18 | Sharp Kabushiki Kaisha | Image modifying method and device |
JP2014139786A (en) * | 2008-11-06 | 2014-07-31 | Samsung Electronics Co Ltd | System and method for reduction of block noise |
JP2010200940A (en) * | 2009-03-03 | 2010-09-16 | Hoya Corp | Image processor and endoscope apparatus |
JP2011003048A (en) * | 2009-06-19 | 2011-01-06 | Casio Computer Co Ltd | Image processing apparatus and image processing program |
KR101099401B1 (en) * | 2009-07-08 | 2011-12-27 | 가시오게산키 가부시키가이샤 | Image processing apparatus and computer-readable medium |
US8660320B2 (en) | 2009-10-23 | 2014-02-25 | Sony Corporation | Image processing apparatus and image processing method |
EP2315430A2 (en) | 2009-10-23 | 2011-04-27 | Sony Corporation | Image processing apparatus and image processing method |
JP2014511071A (en) * | 2011-03-16 | 2014-05-01 | クゥアルコム・インコーポレイテッド | Generate a zoomed image |
US9325905B2 (en) | 2011-03-16 | 2016-04-26 | Qualcomm Incorporated | Generating a zoomed image |
JP2016042712A (en) * | 2011-03-16 | 2016-03-31 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Generating zoomed image |
US9153015B2 (en) | 2011-03-24 | 2015-10-06 | Mitsubishi Electric Corporation | Image processing device and method |
US9875553B2 (en) | 2011-03-29 | 2018-01-23 | Sony Corporation | Image processing apparatus, method, and program |
US8867824B2 (en) | 2011-03-29 | 2014-10-21 | Sony Corporation | Image processing apparatus, method, and program |
JP5914843B2 (en) * | 2011-04-22 | 2016-05-11 | パナソニックIpマネジメント株式会社 | Image processing apparatus and image processing method |
US8842930B2 (en) | 2011-04-22 | 2014-09-23 | Panasonic Corporation | Image processing device and image processing method |
WO2012144158A1 (en) * | 2011-04-22 | 2012-10-26 | パナソニック株式会社 | Image processing apparatus and image processing method |
JP2012198945A (en) * | 2012-07-26 | 2012-10-18 | Fujitsu Semiconductor Ltd | Image processing device, image processing method, and imaging device |
JP2014138329A (en) * | 2013-01-17 | 2014-07-28 | Sharp Corp | Image processing device, image display device, program, and storage medium |
US9418403B2 (en) | 2013-10-04 | 2016-08-16 | Fuji Xerox Co., Ltd. | Image processor and non-transitory computer readable medium for generating a reproduction image which is reproduced so that visibility of an original image is enhanced |
US9595082B2 (en) | 2013-10-04 | 2017-03-14 | Fuji Xerox Co., Ltd. | Image processor and non-transitory computer readable medium for generating a reproduction image which is reproduced so that visibility of an original image is enhanced |
JP2019048117A (en) * | 2014-02-05 | 2019-03-28 | カシオ計算機株式会社 | Image processing circuit of medical image, image processing method, and program |
JP2015180989A (en) * | 2014-03-07 | 2015-10-15 | 株式会社リコー | Image processing apparatus, image processing method, program, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4415236B2 (en) | 2010-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4662190B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4415236B2 (en) | Image processing apparatus and image processing method | |
JP3070860B2 (en) | Image data enhancement method and color image data enhancement method | |
JP2001275015A (en) | Circuit and method for image processing | |
JP4869653B2 (en) | Image processing device | |
US8170362B2 (en) | Edge-enhancement device and edge-enhancement method | |
JP2001229377A (en) | Method for adjusting contrast of digital image by adaptive recursive filter | |
JP2008511048A (en) | Image processing method and computer software for image processing | |
JPH08107565A (en) | Method of correcting outline in color signal and circuit embodying this by color video equipment | |
JP4111980B2 (en) | Image processing apparatus and image processing method | |
US20110142351A1 (en) | System and method for processing an image edge | |
US8648937B2 (en) | Image processing apparatus, image processing method, and camera module | |
US8427560B2 (en) | Image processing device | |
JP2003304549A (en) | Camera and image signal processing system | |
JP3208762B2 (en) | Image processing apparatus and image processing method | |
JPH0564229A (en) | Picture processor and method | |
JPH0630330A (en) | Gradation correction circuit and image pickup device | |
JP7278096B2 (en) | Image processing device, image processing method, and program | |
JP4273748B2 (en) | Image processing apparatus and method | |
JP6335614B2 (en) | Image processing apparatus, control method thereof, and program | |
JP4400160B2 (en) | Image processing device | |
JP3233114B2 (en) | Image processing apparatus and image processing method | |
JP2000156871A (en) | Image processor and image processing method | |
EP2410731B1 (en) | Edge correction apparatus, edge correction method, program, and storage medium | |
JP2000156872A (en) | Image processor and its method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071115 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091029 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121204 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121204 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131204 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |