JPS63173182A - Color image processing system - Google Patents

Color image processing system

Info

Publication number
JPS63173182A
JPS63173182A JP62004034A JP403487A JPS63173182A JP S63173182 A JPS63173182 A JP S63173182A JP 62004034 A JP62004034 A JP 62004034A JP 403487 A JP403487 A JP 403487A JP S63173182 A JPS63173182 A JP S63173182A
Authority
JP
Japan
Prior art keywords
color
image
data
hue
saturation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62004034A
Other languages
Japanese (ja)
Inventor
Chihiro Nakagawa
千尋 中川
Akio Kosaka
明生 小坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP62004034A priority Critical patent/JPS63173182A/en
Publication of JPS63173182A publication Critical patent/JPS63173182A/en
Pending legal-status Critical Current

Links

Landscapes

  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

PURPOSE:To emphasize a fine color difference without varying the impression of an original image large by representing the color of color image information as a hue, saturation, and brightness, and emphasizing them independently of one another so that the distribution is widened based on a mean color as a center. CONSTITUTION:Image data from a TV camera 1 is read and stored in an image memory 3. Then, R, G, and B data are read out of the memory 3 and converted by brightness, saturation, and hue data through the linear conversion of the color coordinate conversion module 11 of an image processor 4. Then respective histograms of color mark coordinates are calculated by using a statistical calculation module 8. Further, a microcomputer 8 finds the mean color of the whole image from the calculated histograms, performs an emphasizing process by the brightness, saturation, and hue of the mean color, and stores the results in the memory 3. Then the data stored in the memory 3 is sent out to a D/A converter 5 and the emphasized image is observed on a color TV monitor 6. Consequently, the fine hue difference can be emphasized by said method without varying the impression of the image unnaturally.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、内視鏡画像等のカラー画像の色彩強調処理
を行う色彩画像処理方式に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a color image processing method for performing color enhancement processing on color images such as endoscopic images.

〔従来の技術〕[Conventional technology]

従来、カラー画像の明るさや色調を画像処理により変化
させ、画像を見易くする試みがいくつかなされている。
Conventionally, several attempts have been made to make images easier to see by changing the brightness and tone of color images through image processing.

特に内視鏡画像に基づく診断においては、微妙な明るさ
や色調の変化により健常部と病変部の判別を行うわけで
あるが、内視鏡画像は何れにしてもその殆どが赤系、肌
色系の色であり、したがって熟練した医師でなくては病
変部の判別が困難であるため、内視鏡画像は微妙な色調
等の変化を強調して見易くすることが望まれている。
In particular, in diagnosis based on endoscopic images, healthy areas and diseased areas are distinguished by subtle changes in brightness and color tone, but most endoscopic images are reddish or skin-toned. Therefore, it is difficult for non-skilled doctors to distinguish the lesion, so it is desired that endoscopic images be made easier to see by emphasizing subtle changes in color tone.

かかる画像強調処理の一つの手段として、J。As one means of such image enhancement processing, J.

Tsujiuchi、  et al、+  ’Dig
ital Processing  ofEndosc
opic Co1or Images’ 0ptica
l Communication。
Tsujiuchi, et al, +'Dig
Ital Processing of Endosc.
opic Co1or Images' 0ptica
lCommunication.

Vol、 55. No、 4 (1985) 、 p
p242には次に示すような方法が提案されている。す
なわちこの方法は赤(R)、緑(G)、青(B)の3原
色でカラー画像を表現する場合、例えばR−G−B軸を
明度軸とした円筒座標系を考え、この明度軸に直交する
いくつかの平面(等明度平面)におけるデータの分布の
平均値を結んだ線を新たな明度軸として、この新たな明
度軸を中心にしてカラーラプラシアンと呼ばれる線形変
換を用いた手法により、色の鮮やかさく彩度)を増加さ
せる方向に色調を変化させるようにするものである。
Vol, 55. No. 4 (1985), p.
The following method is proposed in p.242. In other words, when expressing a color image using the three primary colors of red (R), green (G), and blue (B), this method considers, for example, a cylindrical coordinate system with the R-G-B axis as the brightness axis. A line connecting the average values of the data distribution on several planes perpendicular to the plane (equal brightness planes) is set as a new brightness axis, and by a method using a linear transformation called color Laplacian, centering on this new brightness axis. The color tone is changed in the direction of increasing the vividness (saturation) of the color.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

ところが、前記文献で提案されている方法は非常に簡便
で良い効果が得られるものであるが、次のような大きな
欠点があった。すなわち平均的な色の軸を中心として色
を軸の外側に向けて広げているので、彩度だけでなく色
相も共に変化してしまい、結果として本来ニュートラル
グレーに近かった色は画像の平均的な色の補色系の色と
なるなどの、著しく不自然な色調となることがある点で
ある。具体的には例えば、内視鏡画像においては自答や
照明が強くあたり白っぽく見える部分が、平均的な赤色
系の補色であるシアン系の色に変化してしまうという問
題点が生ずる。このような欠点は色相、彩度、明度をそ
れぞれ独立に変化させていないことに起因するものであ
る。
However, although the method proposed in the above literature is very simple and provides good effects, it has the following major drawbacks. In other words, since the colors are spread outward from the average color axis, not only the saturation but also the hue change, and as a result, colors that were originally close to neutral gray are now more similar to the average color in the image. The problem is that this may result in extremely unnatural color tones, such as colors that are complementary to other colors. Specifically, for example, in an endoscopic image, a problem arises in that a portion that appears whitish due to strong illumination changes to a cyan color, which is a complementary color to the average red color. These drawbacks are due to the fact that the hue, saturation, and brightness are not changed independently.

本発明は上記従来提案の色彩画像の強調処理方法におけ
る問題点を解決するためなされたもので、不自然に画像
の印象を変えることなく、微妙な色調の違いを強調し、
その色調の違いを把握し易い画像に変更できる色彩画像
処理方式を提供することを目的とするものである。
The present invention was made in order to solve the problems in the conventionally proposed color image enhancement processing method, and it emphasizes subtle differences in color tone without unnaturally changing the impression of the image.
It is an object of the present invention to provide a color image processing method that can change the image into an image that makes it easy to understand the difference in color tone.

〔問題点を解決するための手段及び作用〕上記問題点を
解決するため、本発明は、カラー画像情報を明度、彩度
1色相のデータに変換する手段と、画像全体の平均色を
求める手段と、該平均色の明度、彩度1色相を中心とし
てデータの分布を、明度、彩度1色相毎に少なくともそ
の中の1つについて広げる強調を行う演算手段と、該演
算手段による演算結果の明度、彩度9色相のデータから
元のカラー画像の色彩表現方法に変換する手段とで色彩
強調処理を行う色彩画像処理方式を構成するものである
[Means and operations for solving the problems] In order to solve the above problems, the present invention provides means for converting color image information into data with one hue of brightness and saturation, and means for calculating the average color of the entire image. , a calculation means for emphasizing the distribution of data centering around one hue of lightness and saturation of the average color, and expanding at least one of the hues for each hue of brightness and saturation; This system constitutes a color image processing method that performs color emphasis processing with means for converting data of brightness, saturation, and nine hues into a color representation method of an original color image.

このように構成した色彩画像処理方式においては、カラ
ー画像情報を明度、彩度1色相のデータに変換し、カラ
ー画像情報の明度、彩度1色相のそれぞれの平均値を求
めた上で、明度、彩度2色相の中の少なくとも1つにつ
いて、その平均値を中心としてその分布を拡大し、その
分布拡大処理した明度、彩度1色相のデータから再び元
のカラー画像の表現に戻すものである。
In the color image processing method configured in this way, color image information is converted into data with one hue of brightness and one saturation, and the average value of each of the brightness and one hue of saturation of the color image information is calculated. , the distribution of at least one of the hues with two saturations is expanded around its average value, and the data of the hue with one hue of brightness and saturation processed to expand the distribution is returned to the original color image expression. be.

これにより画像全体の色の分布を広げ、且つ平均的な色
をあまり変化させないで、不自然に画像゛の印象を変え
ることなく微妙な色調の違いを強調し、その違いを把握
し易い画像に変換することが可能となる。
This expands the color distribution of the entire image, and without changing the average color too much, emphasizes subtle differences in tone without changing the impression of the image unnaturally, creating an image that makes it easy to understand the differences. It becomes possible to convert.

〔実施例〕〔Example〕

以下実施例について説明する。色を表現する方法に関し
てはいろいろな提案がなされており、その中のいくつか
が実用化され、あるいはCIBにより制定されている。
Examples will be described below. Various proposals have been made regarding methods of expressing colors, some of which have been put into practical use or established by the CIB.

その中の一つとして人間の色の知覚に対応させて理解し
易くしたものに、色相、彩度、明度の3属性を用いて色
を表現する方法があり、この方法においては空間座標と
して扱い易くするために明度を1つの軸とする直交座標
系を考え、残りの2軸により色相と彩度を合わせて表現
している。
One of these methods, which is compatible with human color perception and easier to understand, is a method of expressing color using three attributes: hue, saturation, and brightness, which are treated as spatial coordinates. For simplicity, a rectangular coordinate system with brightness as one axis is considered, and the remaining two axes represent hue and saturation together.

本発明においてはカラー画像を、この色相、彩度、明度
で表し、処理することにより目的を達成するものである
In the present invention, the object is achieved by representing and processing a color image using hue, saturation, and brightness.

次にこの3属性を用いた色表現方法について説明する。Next, a color expression method using these three attributes will be explained.

例えばカラーテレビジョンのようなR2O,Bの3原色
により表現された画像を色相、彩度、明度に近いかたち
で表現する方法には以下のようなものが考えられる。
For example, the following methods can be considered for expressing an image expressed using the three primary colors R2O and B, as in a color television, in a form close to hue, saturation, and brightness.

(1)、均等色空間の利用(CIELUV、 CIEL
AB) カラーテレビジョンのように加法混色により色を表現し
、CIEのXYZ座標系の理論が適用できるものに関し
ては、理論的にはその色彩を表す系から色度座標への変
換を比較的容易に行うことが可能である。
(1) Utilization of uniform color space (CIELUV, CIEL
AB) For things like color television that express colors through additive color mixture and to which CIE's XYZ coordinate system theory can be applied, it is theoretically relatively easy to convert the color system to chromaticity coordinates. It is possible to do so.

ここでは、NTSCの規格に適合したテレビジョン・シ
ステムのR,G、B信号を、CIE1976  L”u
”v”(CIELUV)、 C’TE 1976L”a
”b”(CIELAB)の2つの均等色空間の座標に変
換する例を用いて説明する。
Here, we will introduce the R, G, and B signals of a television system that conforms to the NTSC standard using the CIE1976 L”u
"v" (CIELUV), C'TE 1976L"a
An example of conversion to coordinates in two uniform color spaces of "b" (CIELAB) will be explained.

R,G、B系からCIEのxyz表色系の変換式を以下
に示す。
The conversion formula from the R, G, B system to the CIE xyz color system is shown below.

X = 0.607 R+ 0.173 G + 0.
201 BY = 0.299 R+ 0.587 G
 +0.114 BZ =       −0,066
0+1.118Bまた、xyz表色茶色系L ” u 
” V ” 、  L ” a ” b ”系への変換
はそれぞれ以下の式により行うことができる。
X = 0.607 R+ 0.173 G + 0.
201 BY = 0.299 R+ 0.587 G
+0.114 BZ = -0,066
0+1.118B Also, xyz color system brown L ” u
Conversion to the "V" and L"a"b" systems can be performed using the following equations, respectively.

u” =13L”(u ’  u@’)v” =13L
”(v ’ −V6’)X+15Y+32 但し、YO+  uo、V、は基準白色面でのY。
u" = 13L" (u 'u@')v" = 13L
”(v' - V6')X+15Y+32 However, YO+ uo, V is Y on the reference white surface.

ul、v+の値 但し、Xo、Yo、Zoは基準白色面でのX。ul, v+ value However, Xo, Yo, and Zo are X on the reference white surface.

Y、Zの値 Llは明度を表し、u ’I v ”、  a * b
 *により色相と彩度を表す0色相をH1彩度をC1明
度をVで表すとすれば、例えば以下のように定義できる
The value Ll of Y and Z represents the lightness, u 'I v '', a * b
If 0 hue, H1 saturation, and C1 lightness, which represent hue and saturation by *, are represented by V, then it can be defined as follows, for example.

(■)、簡易的な座標表現の利用 カラーテレビジラン等のR,G、Bの信号を疑僚的な色
度、彩度、明度で表わそうという試みがコンピュータ・
グラフィックス等の分野で行われている。かかる疑似表
現方法としては、H3I三角錐カラーモデル、H3V六
角錐カラーモデル、H3L六角錐カラーモデル等と呼ば
れるものがあり、これらはR,G、B直角座標系におけ
る有限のR,G、Bの値がとり得る範囲の立方体の主対
角軸を明度軸とし、この軸に直交する平面で色相、彩度
を定義するものである。
(■), Use of simple coordinate representation An attempt was made to represent the R, G, and B signals of color television and other TV programs using questionable chromaticity, saturation, and brightness.
This is done in fields such as graphics. Such pseudo-representation methods include the H3I triangular pyramid color model, H3V hexagonal pyramid color model, H3L hexagonal pyramid color model, etc., which are based on finite R, G, and B values in the R, G, and B rectangular coordinate system. The main diagonal axis of the cube, which has a range of possible values, is defined as the lightness axis, and hue and saturation are defined in a plane perpendicular to this axis.

次にその一例を示す。An example is shown below.

次に以上で示したような座標系を用いた色調の違いの強
調について説明する。この実施例ではLla m b*
の座標を用いるものとする。まず、内視鏡画像データの
R,G、B空間上でのデータの分布の一例を第1図に示
す。このデータをL 11 a1″b1座標系で分布を
調べると第2図に示すようになる。
Next, emphasis on differences in color tone using the coordinate system shown above will be explained. In this example, Lla m b*
The coordinates of First, FIG. 1 shows an example of the data distribution of endoscopic image data in R, G, and B space. When the distribution of this data is examined in the L 11 a1″b1 coordinate system, it becomes as shown in FIG. 2.

この第2図に示したように、内視鏡画像における色の色
度座標上の分布を調べると、背景色とでも言える通常の
粘膜101の肌色の部分の分布に対して、血管や発赤1
02.自答103等の分布がその近傍に存在しており、
内視鏡画像は極く狭い範囲の色により構成されているこ
とがわかる。第2図について更に補足説明すると、通常
の粘膜101の色と比較して、一般的に自答103は明
度が高いが、彩度は低く、一方血管や発赤102では彩
度が高いが明度が低い。色相はあまり差がない場合が多
いが、通常の粘膜101の色の方が血管や発赤102に
比べて黄色系にやや近づいている傾向がある。なお、第
2図において105は平均色を示している。
As shown in FIG. 2, when examining the distribution of color on the chromaticity coordinates in the endoscopic image, it is found that blood vessels and redness do not appear in the skin-colored portion of the mucous membrane 101, which can be said to be the background color.
02. A distribution of self-answer 103 etc. exists in the vicinity,
It can be seen that the endoscopic image is composed of an extremely narrow range of colors. To further explain about FIG. 2, compared to the color of the normal mucous membrane 101, self-answer 103 generally has high brightness but low saturation, while blood vessels and redness 102 have high saturation but low brightness. low. Although there is often not much difference in hue, the color of normal mucous membrane 101 tends to be a little closer to yellow than that of blood vessels and redness 102. In addition, in FIG. 2, 105 indicates an average color.

そこで、通常の粘膜101の分布と、血管・発赤102
、自答103等の分布とを色度座標上で離してやる、す
なわち色差を大きくすれば、診断が容易に行えることに
なる。しかしあまり元の画像と比較して印象が極端に変
わってくると逆に診断を妨げることがある。
Therefore, the distribution of normal mucous membrane 101 and blood vessels/redness 102
, self-answer 103, etc. on the chromaticity coordinates, that is, by increasing the color difference, diagnosis can be easily performed. However, if the impression changes too much compared to the original image, it may actually hinder diagnosis.

かかる画像の印象変化を少なくし、且つ強調の効果を得
るためには次の点に注意する必要のあることが判明した
It has been found that it is necessary to pay attention to the following points in order to reduce the change in impression of such an image and obtain the effect of emphasis.

■ 処理前後で平均的な色(通常の粘膜色)を変化させ
ない。
■ The average color (normal mucous membrane color) does not change before and after treatment.

■ 平均的な色以外の色(血管1発赤、自答等の色)で
あっても色相及び明度は極端に変化させない。
■ Even if the color is a color other than the average color (redness of one blood vessel, color of self-identification, etc.), the hue and brightness should not be changed drastically.

以上の諸点を考慮して本発明では次に示す方法により色
調の強調を行うようにするものである。
In consideration of the above points, the present invention emphasizes color tones using the following method.

まず、原画像全体の各画素についてR,G、Bの値から
Ls、  am、  baの値を計算し、L′″、al
First, the values of Ls, am, and ba are calculated from the R, G, and B values for each pixel of the entire original image, and L′″, al
.

b0空間上の分布を求めることにより平均色L*a”、
b”を得る0次に平均色L*、  %、  bllから
明度、彩度2色相の平均値V、C,Hを計算により求め
る。次いでこの平均値V、C,Hを中心として、明度、
彩度1色相の強調を行う。強調には次のような関数を用
いる。
By determining the distribution in b0 space, the average color L*a'',
Obtain the 0th order average color L*, %, bll to obtain the 0-order average color L*, %, bll, and calculate the average values V, C, and H of the two hues.
Emphasizes the saturation 1 hue. The following function is used for emphasis.

V’−f(V) C’=g(C) H’=h(H) 但L、VL< V < VM、  CL< C< CI
I+  HL < H<)(、I、VとCの下上限値を
V、、、、V□X+  am7゜Csexとすると、関
数f (V)、  g (C)、  h (H)は、V
II(、≦f (vt)< vL、  f (V) =
 V。
V'-f(V) C'=g(C) H'=h(H) However, L, VL<V< VM, CL<C< CI
I+ HL <H<) (, If the lower upper limit of I, V and C is V,..., V□X+ am7°Csex, the functions f (V), g (C), h (H) are V
II(, ≦f (vt) < vL, f (V) =
V.

■H<f(v、I)≦■l、1..I Cm t n5g(C+、)<Ct2g(C)=C。■H<f(v,I)≦■l, 1. .. I Cmtn5g(C+,)<Ct2g(C)=C.

C,< g (Co)=C1゜ H−π≦h (HL) < Ht、  h (H)= 
H。
C, < g (Co)=C1゜H-π≦h (HL) < Ht, h (H)=
H.

)IN<h(Ho)≦π+π 上記の如き単調増加のような関数を用いることにより、
画像の印象をあまり変化させずに、診断のし易い画像が
得られることが判明した。特に効果的だった関数の例を
第3図へ、田)に示す、関数の決定は平均値V、C,H
の値を見て、観察者がその度に経験的に決定しても良い
が、一部線形関数を利用したもの等では、例えば関数の
傾きだけを最初に決定しておいて、平均値V、τ、「の
値によって自動的に決定するようにしても良い、 ″原
画像の先頭画素のR,G、Bの値からV、  C。
)IN<h(Ho)≦π+π By using a monotonically increasing function as described above,
It has been found that images that are easy to diagnose can be obtained without significantly changing the image impression. An example of a particularly effective function is shown in Figure 3. The function is determined by the average value V, C, H
The observer may decide empirically each time by looking at the value of , τ, may be automatically determined based on the values of ``V, C from the R, G, and B values of the first pixel of the original image.

Hの値を計算し、上記の関数によりv’、c’。Calculate the value of H, v', c' by the above function.

H′を計算し、これからR,G、Bの値を計算して処理
結果の画像の先頭画素の値とする。この処理を順次各画
素について行っていくことにより処理結果の画像が得ら
れる。
H' is calculated, and R, G, and B values are calculated from this value and used as the value of the first pixel of the processed image. By sequentially performing this processing for each pixel, an image as a result of the processing is obtained.

以上の処理手順を第4図にフロチャートとして示す。な
お第4図において、R(f、m)、G (l。
The above processing procedure is shown as a flowchart in FIG. In addition, in FIG. 4, R (f, m), G (l.

m> 、  B(jl、 m)は原画像のR成分、G成
分、B成分を表わしており、またR’(jl、m)、G
’  (1、m)、B’(l、m)は処理画像のR成分
、G成分、B成分を表わしている。
m>, B(jl, m) represent the R component, G component, and B component of the original image, and R'(jl, m), G
' (1, m) and B' (l, m) represent the R component, G component, and B component of the processed image.

また処理結果の画像におけるL 11 am b*座標
系でのデータの分布を第5図に示す、第5図かられかる
ように、処理結果の画像では、通常の粘膜101データ
の分布と血管や発赤102.自答103等のデータの分
布との、それぞれの平均値同士の色差が原画像に比べて
広がっており、判別し易くなっている。また通常の粘膜
のデータの分布及び画像全体のデータの分布の平均値は
、処理前後であまり変化していないので、画像全体の印
象は大きく変わることがない。明度に関しても図示は省
略したが同様な傾向になっている。
Furthermore, the data distribution in the L 11 am b * coordinate system in the processed image is shown in FIG. 5. As can be seen from FIG. Redness 102. The color difference between the average values and the distribution of data such as self-answer 103 is wider than that of the original image, making it easier to distinguish. Further, the average value of the data distribution of the normal mucous membrane and the data distribution of the entire image does not change much before and after processing, so the impression of the entire image does not change significantly. Although not shown in the figure, the brightness has a similar tendency.

以上の第1の実施例では、原画像のR,G、Bのデータ
からL“ 、*、  baの値を計算して平均値を求め
、その平均値から強調のための関数を決定し、再び原画
像のR,G、BのデータからLs。
In the first embodiment described above, the values of L", *, and ba are calculated from the R, G, and B data of the original image, the average value is determined, and the function for enhancement is determined from the average value. Ls again from the R, G, B data of the original image.

a * 、  b’1の値を計算し、V、C,Hを求め
強調を行い、R,G、Bのデータに変換し、それを処理
結果の画像とするものを示した。この実施例による処理
手順では、処理の中間結果を保存するための特別な画像
メモリが不要であり、原画像のデータを処理結果のデー
タで書き換えるようにすれば画像メモリは1組で良いと
いう利点がある。しかし、原画像のR,G、  Bのデ
ータからL”+a”+b0への変換を2度重複して行う
必要があるという欠点がある。
The values of a* and b'1 are calculated, V, C, and H are determined and emphasized, converted to R, G, and B data, and the resulting image is used as the processed image. The processing procedure according to this embodiment does not require a special image memory to store intermediate results of processing, and has the advantage that only one set of image memory is required if the original image data is rewritten with the processing result data. There is. However, there is a drawback that it is necessary to convert the R, G, and B data of the original image to L"+a"+b0 twice.

次に第1の実施例と比較して大きな記憶領域を必要とす
るが、処理速度を向上させた第2の実施例を示す、この
実施例においては、原画像のRlG、BのデータをL”
、a“、b″に変換した画像をメモリ上に作成すると共
に、平均色L+に、all。
Next, we will show a second embodiment that requires a larger storage area than the first embodiment but has improved processing speed. In this embodiment, the RlG, B data of the original image is ”
, a", b" are created on the memory, and all are converted into the average color L+.

boを求める。これから、V、C,Hを求め強調関数f
(V)、g(C)、h(H)を決定する。次ニL9a*
b*で表された画像データの各画素について、Ls、 
 ao、  boからV、C,Hの値を計算し、前記強
調関数r (V)、  g (C)、  h (H)ニ
より、v′。
Find bo. From this, find V, C, H and emphasize function f
(V), g(C), and h(H) are determined. Next L9a*
For each pixel of image data represented by b*, Ls,
The values of V, C, and H are calculated from ao and bo, and v' is obtained from the emphasis functions r (V), g (C), and h (H).

C’、H’を求め、これからR,G、Bの値を逆算して
処理結果の画像を得るようにするものである。
C' and H' are obtained, and the values of R, G, and B are calculated backwards to obtain a processed image.

以上の処理手順を第6図にフローチャートとして示す、
処理結果は第1の実施例と全く同じになる。但し、中間
結果の画像データであるし“、ao。
The above processing procedure is shown as a flowchart in FIG.
The processing results are exactly the same as in the first embodiment. However, the image data is an intermediate result.

blのデータを原画像データのビット数と同じにすると
、その誤差が強調後再びR,G、Bに逆変換したときに
大きな影響を発生させることがあり、したがってビット
数を大きくとる必要がでてくる場合がある。このときは
更に使用する記憶領域を広くとる必要があるが、R,G
、Bの画像データからLm、ao、boの画像データへ
の変更を重複して行う必要がなく、処理時間が短縮され
る。
If the bl data is set to the same number of bits as the original image data, the error may have a large effect when it is inverted to R, G, and B again after enhancement, so it is necessary to increase the number of bits. It may come. In this case, it is necessary to further increase the storage area used, but R, G
, B to the image data of Lm, ao, and bo is not required, and the processing time is shortened.

第7図は、本発明に係る色彩画像処理方式のハードウェ
アの構成の一例を示すブロック図である。
FIG. 7 is a block diagram showing an example of the hardware configuration of the color image processing method according to the present invention.

このハードウェアシステムは、図に示すように、R,G
、  Bなどの画像色彩信号を入力するTVカメラ1、
該TVカメラ1からのアナログ信号をデジタル信号に変
換するA/D変換器2、入力された画像データや処理さ
れた画像データを格納するための画像メモリ3、該画像
メモリ3に格納されたデータ又はA/D変換器2を通し
て得られた入力データに関して所定の処理を施すための
画像処理プロセッサ4、前記画像メモリ3又は画像処理
プロセッサ4の出力データ(デジタル信号)をアナログ
信号とするためのD/A変換器5、該D/A変換器5の
出力データに基づく画像を表示するカラー画像モニタ6
、前記画像メモリ39画像処理プロセッサ4.A/D変
換器2.D/A変換器5間の画像データ転送のために設
置された画像バス7、A/D変換器2.D/A変換器5
1画像メモリ33画像処理プロセッサ4等に各種制御信
号を送出したり、パラメータ計算をするためのマイクロ
コンピュータ8.8亥マイクロコンピユータ8と上記各
コンポーネントとのデータの授受を行うためのシステム
バス9とで構成されている。また画像処理プロセッサ4
内には、ヒストグラム計算などを行うための統計計算モ
ジエール101色座標変換を行うための色座標変換モジ
ュール11.2変数間のテーブル変換を行うための2人
カテーブル変換回路12が配設されている。
This hardware system has R,G
, a TV camera 1 that inputs image color signals such as B,
An A/D converter 2 that converts an analog signal from the TV camera 1 into a digital signal, an image memory 3 for storing input image data and processed image data, and data stored in the image memory 3. or an image processing processor 4 for performing predetermined processing on the input data obtained through the A/D converter 2; a D for converting the output data (digital signal) of the image memory 3 or the image processing processor 4 into an analog signal; /A converter 5, and a color image monitor 6 that displays an image based on the output data of the D/A converter 5.
, the image memory 39 image processing processor 4. A/D converter 2. An image bus 7 and an A/D converter 2 installed for image data transfer between the D/A converters 5 and 2. D/A converter 5
1 Image memory 33 A microcomputer 8 for sending various control signals to the image processing processor 4, etc., and calculating parameters.8 A system bus 9 for exchanging data between the microcomputer 8 and each of the above components. It is made up of. Also, the image processing processor 4
Inside, there are provided a statistical calculation module 101 for performing histogram calculations, a color coordinate conversion module 11 for performing color coordinate conversion, and a two-person table conversion circuit 12 for performing table conversion between variables. There is.

この構成例の場合、説明を簡単にするため、画像バス7
は少なくとも6本のバスA、B、C,A’。
In this configuration example, to simplify the explanation, the image bus 7
has at least 6 buses A, B, C, A'.

B’、C’を含むものとし、画像処理プロセッサ4に関
して画像バスA、B、Cは入力信号、画像バスA’、B
’、C’は出力信号の転送路となるものとし、画像メモ
リ3に関して画像バスA、B。
B' and C', and regarding the image processing processor 4, the image buses A, B, and C are input signals, and the image buses A' and B
', C' are output signal transfer paths, and image buses A, B with respect to the image memory 3.

Cは出力信号、画像バスA’、B’、C’は入力信号の
転送路となるものとする。
C is assumed to be an output signal, and image buses A', B', and C' are assumed to be input signal transfer paths.

第8図は、色座標変換モジュール11の内部を表したブ
ロック構成図である。この構成は、特願昭61−990
69号と同様の構造のものであり、画像バスA、B、C
上のデータを変換する9個のルックアンプテーブルメモ
リ13〜21、ルックアップテーブルメモリ13.14
.15の組、ルックアップテーブルメモリ16.17.
18の組、ルックアップテーブルメモ1月9.20.2
1の組に対してそれぞれ算術論理演算を施すための算術
論理ユニソ)22.23゜24、ルックアップテーブル
メモ1月3〜21のテーブルの内容を指定するためのレ
ジスタ25からなり、画像バスA、 B、 C上のデー
タは所定の処理を施されて画像バスA’、B’、C’へ
送出されるようになっている。
FIG. 8 is a block diagram showing the inside of the color coordinate conversion module 11. As shown in FIG. This configuration is based on patent application No. 61-990.
It has the same structure as No. 69, and has image buses A, B, and C.
Nine look-up table memories 13 to 21, look-up table memories 13 and 14 that convert the above data
.. 15 sets, lookup table memory 16.17.
Group 18, Lookup Table Memo January 9.20.2
It consists of a register 25 for specifying the contents of the lookup table memo January 3 to 21, and an image bus A. , B, and C are subjected to predetermined processing and sent to image buses A', B', and C'.

第9図は、統計計算モジュール10内にあるヒストグラ
ム生成回路を表したブロック構成図である。
FIG. 9 is a block diagram showing a histogram generation circuit within the statistical calculation module 10.

このヒストグラム生成回路は画像バスA、B、C1ある
いはマイクロコンピュータ8からの指令のいずれか1つ
を、マイクロコンピュータ8からの指示、に従い選択す
る画像バスデータ入力選択回路26、該選択回路26の
出力とマイクロニンピユータ8からの制御信号を保持す
るレジスタ28の出力とをアドレス入力とし、ヒストグ
ラム内容を書き込むためのヒストグラムメモリ27、該
ヒストグラムメモ+J27の出力を1インクリメントす
るためのインクリメンタ29とで構成されている。そし
て該インクリメンタ29の出力は再びヒストグラムメモ
リ27に送られ書き込まれるようになっており、このイ
ンクリメンタ29により順次読み出された画像データの
濃度値に対応するヒストグラムの度数が1ずつ加算され
、全画素が読み出された後、ヒストグラムメモリ27内
にヒストグラムの度数が格納されるようになっている。
This histogram generation circuit includes an image bus data input selection circuit 26 that selects one of the image buses A, B, and C1 or commands from the microcomputer 8 according to instructions from the microcomputer 8, and an output of the selection circuit 26. and the output of the register 28 that holds the control signal from the Microninputer 8 as address inputs, a histogram memory 27 for writing the histogram contents, and an incrementer 29 for incrementing the output of the histogram memo + J27 by one. It is configured. Then, the output of the incrementer 29 is again sent to the histogram memory 27 and written therein, and the incrementer 29 adds 1 to the frequency of the histogram corresponding to the density value of the image data sequentially read out. After all pixels are read out, the histogram frequency is stored in the histogram memory 27.

そして格納された結果は、マイクロコンピュータ8がシ
ステムバス9を介すことにより見ることができるように
構成されている。
The stored results are configured so that the microcomputer 8 can view them via the system bus 9.

第1O図は、2人力テーブル変換モジュール12の内部
を表したブロック構成図である。この2人力テーブル変
換モジュール12は、画像バスA、B。
FIG. 1O is a block diagram showing the inside of the two-manpower table conversion module 12. As shown in FIG. This two-man power table conversion module 12 has image buses A and B.

Cのうちの2つを選択する画像バスデータ人力選択回路
30、該選択回路30の出力P、Qに対して2人力2出
力のルックアップテーブルを構成するルックアンプテー
ブルメモリ31.8亥ルックアンプテーブルメモリ31
のテーブルを選択する信号を保持するレジスタ32.前
記ルックアンプテーブルメモリ31の2出力P’、Q’
を画像バスA’、B’。
An image bus data manual selection circuit 30 that selects two of C, and a look amplifier table memory 31.8 that configures a two-output lookup table for the outputs P and Q of the selection circuit 30. table memory 31
A register 32 that holds a signal for selecting the table of. Two outputs P', Q' of the look amplifier table memory 31
image buses A', B'.

C′のいずれか2つに出力するように切り換える画像バ
スデータ出力選択回路33とで構成されている。そして
ルックアンプテーブルメモリ31はROM又はRAMで
構成され、RAMで構成されている場合にはマイクロコ
ンピュータからもアクセスできるようになっている。
and an image bus data output selection circuit 33 that switches to output to any two of the image bus data C'. The look amplifier table memory 31 is composed of a ROM or a RAM, and if it is composed of a RAM, it can also be accessed from a microcomputer.

次にこのように構成されているハードウェアシステムの
動作を説明する。まずし“a*b*空間での画像強調の
場合について説明する。L 11 am b*空間での
処理のステップは以下のようになる。
Next, the operation of the hardware system configured as described above will be explained. First, the case of image enhancement in the "a*b* space will be described. The processing steps in the L 11 am b* space are as follows.

■ 画像メモリ3内にTVカメラ1等からの画像データ
を読み込み格納する。
(2) Reading and storing image data from the TV camera 1, etc. into the image memory 3;

■ 画像メモリ3からR,G、 Bデータを順次読み出
し、画像バスA、B、Cに送出し、色座標変換モジュー
ル11で、 なる線形変換を施し、画像バスA’、B’、C’を介し
て再び画像メモリ3に格納する。
■ The R, G, and B data are sequentially read from the image memory 3 and sent to the image buses A, B, and C. The color coordinate conversion module 11 performs the following linear transformation to convert the image buses A', B', and C'. The image is then stored in the image memory 3 again.

■ 画像メモリ3に格納されたデータX、Y、Zを順次
読み出し、画像バスA、B、Cに送出し、再び色座標変
換モジュール11で、 なる計算を行い、再び画像バスA’、B’、C’にその
結果111.  am、  b“を送出し、画像メモリ
3に格納する。
■ The data X, Y, and Z stored in the image memory 3 are sequentially read out and sent to the image buses A, B, and C. The color coordinate conversion module 11 performs calculations as follows, and the data are sent to the image buses A' and B' again. , C' has the result 111. am, b" are sent and stored in the image memory 3.

■ 統計計算モジュールlO内のヒストグラム生成回路
を用いて、画像メモリ3内のLm、  am、  b*
の各データについてヒストグラムをとる。ヒストグラム
をとる際、レジスタ28の値を切り換えてヒストグラム
のバンクを切り換え、ヒス1グラムメモリ27にLm、
am、b*の全てのヒストグラムをとることができる。
■ Lm, am, b* in the image memory 3 using the histogram generation circuit in the statistical calculation module IO
Take a histogram for each data. When taking a histogram, change the value of the register 28 to switch the histogram bank, and store Lm, Lm,
All histograms of am and b* can be taken.

■ マイクロコンピュータ8を用いて前記ステップ■で
計算したヒストグラムに関し、その平均値V、a”、b
”を求め、それから色相H1彩度Cの平均値π、でを次
式に基づいて計算する。
■ Concerning the histogram calculated in step (■) using the microcomputer 8, its average values V, a'', b
'', and then calculate the average value π of hue H1 saturation C based on the following equation.

■ 画像メモリ3内に格納しであるLm、am、b*の
うち、(a”+  b”)に基づいて、順次色相H3彩
度Cを、2人カテーブル変換モジュール12を用いて変
換して求める。すなわち、 c=7菫=f(a”、 b”) a″ H= jan−’ −=g(a”、b”)b” なる2次元テーブル変換になる。
■ Among Lm, am, and b* stored in the image memory 3, the hue H3 and saturation C are sequentially converted based on (a''+b'') using the two-person table conversion module 12. I ask. That is, the two-dimensional table transformation becomes c=7 violet=f(a", b") a"H=jan-'-=g(a", b")b".

これは、例えばam、b*をそれぞれ画像バスB、Cを
用いて2人カテーブル変換モジュール12に与え、その
結果たる色相H、彩度Cを画像バスB’、C’に与える
ことにより再び画像メモリ3に格納する。
This can be done, for example, by applying am and b* to the two-person conversion module 12 using image buses B and C, respectively, and then applying the resulting hue H and saturation C to image buses B' and C'. Store it in the image memory 3.

■ 前記ステップ■で計算した平均値T罪、τを用いて
、マイクロコンピュータ8内で色彩強調関数、 を定義し、色座標変換モジュール11内のルックアップ
テーブルメモリ13〜21を用いて、その関数をセント
する。このセントに関しては、ルックアップテーブルメ
モ1月4.15.16.18.19゜20は恒等関数と
してセントしておき、ルックアップテーブルメモリ13
にf (V)を、ルックアンプテーブルメモリ17にg
(C)を、ルックアンプテーブルメモリ21にh (H
)をセントすればよい。
■ Define a color emphasis function in the microcomputer 8 using the average value T and τ calculated in step ■ above, and convert the function using the lookup table memories 13 to 21 in the color coordinate conversion module 11. cent. Regarding this cent, lookup table memo 1 month 4.15.16.18.19゜20 is cent as identity function, lookup table memory 13
f (V) in the look amplifier table memory 17, and g in the look amplifier table memory 17.
(C) in the look amplifier table memory 21 h (H
) in cents.

■ 前記ステップ■で定義した色座標変換を、画像メモ
リ3内に格納したV、C,Hに対して施し、その結果(
V’、C’、H’)を再び画像メモリ3内に格納する。
■ The color coordinate transformation defined in step ■ above is applied to V, C, and H stored in the image memory 3, and the result (
V', C', H') are stored in the image memory 3 again.

■ 画像メモリ3内に格納された(V’、C’。■ Stored in the image memory 3 (V', C').

H’)のうち、(C’、H’)の組に対して再びamj
、bmlの値を計算するために2人カテーブル変換モジ
ュール12を用いる。2人カテーブル変換モジュール1
2ではa′″1.bmlを計算し、その結果たるa“Z
b$lをL“′=V′ と共に画像メモリ3に格納する
H'), amj again for the pair (C', H')
, bml using the two-person table conversion module 12. 2 person table conversion module 1
2, calculate a′″1.bml, and the result a′Z
b$l is stored in the image memory 3 together with L"'=V'.

[相] 前記ステップ■において格納されたL0′。[Phase] L0' stored in step (2) above.

amr、bmlに対して、色座標変換モジュール11を
用いて(X’、Y’、Z’)の座標を求める。
For amr and bml, the coordinates (X', Y', Z') are determined using the color coordinate conversion module 11.

これは、 なる変換により容易に求めることができ、その変換結果
は再び画像メモリ3に格納される。
This can be easily obtained by the following transformation, and the transformation result is stored in the image memory 3 again.

■ 画像メモリ3に格納された(X’、Y’、Z’)に
対して再び色座標変換モジュール11を用いることによ
り(R’、G’、B’)の値を求める。
(2) Using the color coordinate conversion module 11 again for (X', Y', Z') stored in the image memory 3, the values of (R', G', B') are determined.

この値を求めるにあたっては、 なる線形変換により求めることができ、その変換結果は
再び画像メモリ3に格納される。
This value can be determined by linear transformation as follows, and the transformation result is stored in the image memory 3 again.

@ 前記ステップOで格納された(R’、G’。@ Stored in step O above (R', G'.

B’)の値をD/A変換器5に送出し、カラーTVモニ
タ6にて強調処理された画像を観察する。
The value of B') is sent to the D/A converter 5, and the enhanced image is observed on the color TV monitor 6.

以上の■〜@のステップを経ることにより色彩画像に対
して色彩強調処理を施すことができる。
By going through the above steps ① to @, color emphasis processing can be performed on a color image.

上記強調処理ステップはL * 、  a 11 、 
 b *空間での画像処理について示したが、別の座標
系(v。
The above emphasis processing step includes L*, a 11 ,
Although we have shown image processing in b* space, it is possible to use a different coordinate system (v.

α、β)に対しても同様に上記ハードウェアシステムに
より実施することができる。この場合には、上記ステッ
プ■、■が1つになり、線形変換は、になり、またステ
ップ[相]、■が1つになり、線形変換が、 になることで、はぼ同様に実行することができる。
α, β) can be similarly implemented using the above hardware system. In this case, the above steps ■ and ■ become one, and the linear transformation becomes . Also, the steps [phase] and ■ become one, and the linear transformation becomes . can do.

以上述べたとおり、上記ハードウェア構成をとることに
より、色彩強調処理を効率良〈実施することができる。
As described above, by adopting the above hardware configuration, color emphasis processing can be carried out efficiently.

上記のように、本発明に係る色彩画像処理方式は、特定
の範囲に集中して色を持つ画像に対して、微妙な色の違
いを強調する処理を施すことにより、その違いを把握し
易い画像に変換するものであり、人間の色の知覚と対応
させて理解し易い色相、彩度、明度で色を表現し、それ
ぞれを独立して、平均色を中心として分布を広げる強調
を行うことによって、従来の強調方法において発生する
、補色系の色に変化して原画像の印象と大きくかけはな
れてしまうという問題点などを防止でき、原画像の印象
を大きく変化させずに微妙な色の違いを強調することが
できる。
As described above, the color image processing method according to the present invention performs processing to emphasize subtle color differences on images that have colors concentrated in a specific range, making it easier to understand the differences. It is used to convert images into images, expressing colors in terms of hue, saturation, and brightness that are easy to understand in correspondence with human color perception, and emphasizing each independently to widen the distribution around the average color. By using this method, it is possible to prevent the problems that occur with conventional enhancement methods, such as colors changing to complementary colors and greatly differing from the impression of the original image. Differences can be emphasized.

上記各実施例では内視鏡画像について説明したが、顕微
鏡画像についても、染色標本や金属顕微鏡の画像等にお
いては、画像が特定の領域の色に集中しており、その中
での微妙な色の違いを明確に観察できることが望まれる
画像が多く存在しており、これらの画像に対しても本発
明による方式を適用することにより強調効果が生ずるこ
とが確認された。
In each of the above embodiments, endoscopic images were explained, but in microscopic images as well, such as stained specimens and metallurgical microscope images, the images concentrate on the colors of specific areas, and subtle colors within these images are concentrated. There are many images in which it is desirable to be able to clearly observe the difference in image quality, and it has been confirmed that the enhancement effect can be produced by applying the method according to the present invention to these images as well.

また上記各実施例においては、色相、彩度、明度を計算
し、それぞれの平均値を求めたものを示したが、最初の
表現に用いられていた座標、例えばR,G、 B座標で
の平均値R,G、Bを求めて、その値から色相、彩度、
明度を計算し、それを色相、彩度、明度それぞれの平均
値として色彩強調を行ってもほぼ同等の結果が得られた
。要するに本発明における基本処理は、平均色を求め、
平均色を中心として色相、彩度、明度について独立にデ
ータの分布を広げることにより色彩強調を行う点である
In addition, in each of the above examples, hue, saturation, and brightness were calculated and the average value of each was calculated, but the coordinates used in the initial expression, such as R, G, and B coordinates, Find the average values R, G, and B, and use those values to calculate hue, saturation,
Almost the same results were obtained by calculating the brightness and using it as the average value of hue, saturation, and brightness for color enhancement. In short, the basic processing in the present invention is to find the average color,
The point is to emphasize color by expanding the distribution of data independently for hue, saturation, and brightness around the average color.

また上記各実施例では、色相、彩度、明度の全てについ
て強調を行ったものを示したが、少なくともそのうちの
1つ、特には彩度のみの強調でも良好な結果が得られた
Further, in each of the above embodiments, all of the hue, saturation, and lightness were emphasized, but good results were also obtained by emphasizing at least one of them, especially only the saturation.

また、上記各実施例では、強調すべき画像がカラーテレ
ビジョンのようなR,G、Bの3原色で表現されている
例を用いたものを示したが、これはY、I、Qあるいは
C,M、 Y等で表されている画像にももちろん適用で
き、明度、彩度1色相を計算し得る表現の画像でありさ
えすればいずれにも適用することができる。
Furthermore, in each of the above embodiments, an example was shown in which the image to be emphasized is expressed in the three primary colors of R, G, and B, such as in a color television; Of course, it can be applied to images represented by C, M, Y, etc., and can be applied to any image as long as it is an image whose brightness, saturation, and hue can be calculated.

〔発明の効果〕〔Effect of the invention〕

以上実施例に基づいて詳細に説明したように、本発明に
係る色彩画像処理方式によれば、画像全体の色の分布を
広げ、且つ平均的な色をあまり変化させないので、不自
然に画像の印象を変えることな(微妙な色調の違いを強
調し、その違いを把握し易い画像に変換することができ
る。
As described above in detail based on the embodiments, according to the color image processing method according to the present invention, the color distribution of the entire image is widened and the average color is not changed much, so that the image becomes unnatural. It is possible to emphasize subtle differences in color tone and convert them into images that are easy to understand without changing the impression.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、内視鏡画像データのR,G、B空間上でのデ
ータの分布の一例を示す図、第2図は、第1図に示した
分布データをLm、am、be座標系で表した分布を示
す図、第3図^、 (B)は、強調関数の例を示す図、
第4図は、本発明の第1実施例の処理手順を示すフロー
チャート、第5図は、処理画像をLm、  am、  
ba座標系で表したデータの分布を示す図、第6図は、
本発明の他の実施例の処理手順を示すフローチャート、
第7図は、本発明に係る色彩画像処理方式を構成するハ
ードウェアの一例を示すブロック構成図、第8図は色座
標変換モジュールの内部構成を示すブロック図、第9図
は、統計計算モジュール内のヒストグラム生成回路を示
すブロック構成図、第10図は、2人カテーブル変換モ
ジュールの内部構成を示すブロック構成図である。 図において、101は通常粘膜、102は血管・発赤、
103は自答、104はハレーション、105は中心色
を示す。 特許出願人 オリンパス光学工業株式会社第1図 べ        1 第3図 (A) (B) 第4図 第6図 第9図 アソHA凡T−夕
Fig. 1 is a diagram showing an example of the distribution of endoscopic image data in R, G, and B space, and Fig. 2 is a diagram showing an example of the data distribution of endoscopic image data in the A diagram showing the distribution expressed by , Figure 3 ^, (B) is a diagram showing an example of the emphasis function,
FIG. 4 is a flowchart showing the processing procedure of the first embodiment of the present invention, and FIG. 5 shows the processing images Lm, am,
Figure 6, a diagram showing the distribution of data expressed in the ba coordinate system, is
A flowchart showing the processing procedure of another embodiment of the present invention,
FIG. 7 is a block diagram showing an example of hardware constituting the color image processing method according to the present invention, FIG. 8 is a block diagram showing the internal configuration of the color coordinate conversion module, and FIG. 9 is a statistical calculation module. FIG. 10 is a block diagram showing the internal configuration of the two-person table conversion module. In the figure, 101 is normal mucous membrane, 102 is blood vessel/redness,
103 indicates the answer, 104 indicates the halation, and 105 indicates the center color. Patent applicant: Olympus Optical Industry Co., Ltd. Figure 1 Figure 1 Figure 3 (A) (B) Figure 4 Figure 6 Figure 9

Claims (1)

【特許請求の範囲】[Claims] カラー画像情報を明度、彩度、色相のデータに変換する
手段と、画像全体の平均色を求める手段と、該平均色の
明度、彩度、色相を中心としてデータの分布を、明度、
彩度、色相毎に少なくともその中の1つについて広げる
強調を行う演算手段と、該演算手段による演算結果の明
度、彩度、色相のデータから元のカラー画像の色彩表現
方法に変換する手段とを有する色彩強調を行う色彩画像
処理方式。
means for converting color image information into data on brightness, saturation, and hue; means for determining the average color of the entire image;
calculation means for expanding emphasis on at least one of saturation and hue, and means for converting the brightness, saturation, and hue data calculated by the calculation means into a color expression method of the original color image. A color image processing method that performs color enhancement.
JP62004034A 1987-01-13 1987-01-13 Color image processing system Pending JPS63173182A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62004034A JPS63173182A (en) 1987-01-13 1987-01-13 Color image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62004034A JPS63173182A (en) 1987-01-13 1987-01-13 Color image processing system

Publications (1)

Publication Number Publication Date
JPS63173182A true JPS63173182A (en) 1988-07-16

Family

ID=11573678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62004034A Pending JPS63173182A (en) 1987-01-13 1987-01-13 Color image processing system

Country Status (1)

Country Link
JP (1) JPS63173182A (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63267328A (en) * 1987-04-24 1988-11-04 Toshiba Corp Endoscopic apparatus
JPH04248681A (en) * 1991-02-04 1992-09-04 Nippon Telegr & Teleph Corp <Ntt> Color picture emphasis/deemphasis processing method
US5515449A (en) * 1989-01-26 1996-05-07 Olympus Optical Co., Ltd. Endoscope image processing apparatus
US5550582A (en) * 1993-03-19 1996-08-27 Olympus Optical Co., Ltd. Endoscope-image processing apparatus for performing image processing of emphasis in endoscope image by pigment concentration distribution
WO2003041013A1 (en) 2001-11-05 2003-05-15 Sharp Kabushiki Kaisha Color image processing method, color image processor, color display, computer program for implementing the color image processing method
JP2006142001A (en) * 2004-10-20 2006-06-08 Fuji Photo Film Co Ltd Electronic endoscope apparatus
WO2006064635A1 (en) * 2004-12-17 2006-06-22 Konica Minolta Holdings, Inc. Diagnosis system
JP2012093370A (en) * 2002-08-15 2012-05-17 Qinetiq Ltd Histological assessment
WO2014156937A1 (en) * 2013-03-27 2014-10-02 富士フイルム株式会社 Image processing device, and method for operating endoscope system
JP2015198890A (en) * 2014-03-31 2015-11-12 富士フイルム株式会社 Medical image processing apparatus, operation method therefor, and endoscope system
CN105266750A (en) * 2014-06-27 2016-01-27 富士胶片株式会社 Medical image processing device, method for operating the same, and endoscope system
CN105310633A (en) * 2014-08-04 2016-02-10 富士胶片株式会社 Medical image processing device, method for operating the same, and endoscope system
CN105455773A (en) * 2014-09-30 2016-04-06 富士胶片株式会社 Medical image processing device and method for operating the same
JP2016165649A (en) * 2016-06-23 2016-09-15 カシオ計算機株式会社 Diagnostic device, image processing method in the diagnostic device and program thereof
WO2017150071A1 (en) * 2016-03-03 2017-09-08 Hoya株式会社 Correction data generation method and correction data generation device
JP2017158929A (en) * 2016-03-11 2017-09-14 富士フイルム株式会社 Image processing apparatus, method of operating image processing apparatus, and image processing program
JP2017176856A (en) * 2013-10-28 2017-10-05 富士フイルム株式会社 Image processing device and operation method thereof
JP2017185249A (en) * 2014-03-31 2017-10-12 富士フイルム株式会社 Endoscope system and operation method thereof
US9818183B2 (en) 2014-11-07 2017-11-14 Casio Computer Co., Ltd. Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method
US9836836B2 (en) 2014-11-07 2017-12-05 Casio Computer Co., Ltd. Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method
US9881368B2 (en) 2014-11-07 2018-01-30 Casio Computer Co., Ltd. Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method
JP2018023872A (en) * 2017-11-16 2018-02-15 富士フイルム株式会社 Medical image processing device
JP2020078647A (en) * 2020-02-27 2020-05-28 富士フイルム株式会社 Image processing apparatus, operation method for image processing apparatus, and image processing program
JP2021184924A (en) * 2020-02-06 2021-12-09 富士フイルム株式会社 Medical image processing device
JP2022000179A (en) * 2017-12-26 2022-01-04 オリンパス株式会社 Image processing apparatus and operating method of image processing apparatus

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63267328A (en) * 1987-04-24 1988-11-04 Toshiba Corp Endoscopic apparatus
US5515449A (en) * 1989-01-26 1996-05-07 Olympus Optical Co., Ltd. Endoscope image processing apparatus
JPH04248681A (en) * 1991-02-04 1992-09-04 Nippon Telegr & Teleph Corp <Ntt> Color picture emphasis/deemphasis processing method
US5550582A (en) * 1993-03-19 1996-08-27 Olympus Optical Co., Ltd. Endoscope-image processing apparatus for performing image processing of emphasis in endoscope image by pigment concentration distribution
US5675378A (en) * 1993-03-19 1997-10-07 Olympus Optical Co., Ltd. Endoscope-image processing apparatus for performing image processing of emphasis in endoscope image by pigment concentration distribution
CN1294530C (en) * 2001-11-05 2007-01-10 夏普株式会社 Color image processing method, color image processor, color display, computer program for implementing the color image processing method
WO2003041013A1 (en) 2001-11-05 2003-05-15 Sharp Kabushiki Kaisha Color image processing method, color image processor, color display, computer program for implementing the color image processing method
US7286702B2 (en) 2001-11-05 2007-10-23 Sharp Kabushiki Kaisha Color image processing method, color image processor, color display, computer program for implementing the color image processing method
JP2012093370A (en) * 2002-08-15 2012-05-17 Qinetiq Ltd Histological assessment
JP2006142001A (en) * 2004-10-20 2006-06-08 Fuji Photo Film Co Ltd Electronic endoscope apparatus
WO2006064635A1 (en) * 2004-12-17 2006-06-22 Konica Minolta Holdings, Inc. Diagnosis system
WO2014156937A1 (en) * 2013-03-27 2014-10-02 富士フイルム株式会社 Image processing device, and method for operating endoscope system
JP5662623B1 (en) * 2013-03-27 2015-02-04 富士フイルム株式会社 Image processing apparatus and method for operating endoscope system
JP2017176856A (en) * 2013-10-28 2017-10-05 富士フイルム株式会社 Image processing device and operation method thereof
JP2015198890A (en) * 2014-03-31 2015-11-12 富士フイルム株式会社 Medical image processing apparatus, operation method therefor, and endoscope system
JP2017185249A (en) * 2014-03-31 2017-10-12 富士フイルム株式会社 Endoscope system and operation method thereof
CN105266750A (en) * 2014-06-27 2016-01-27 富士胶片株式会社 Medical image processing device, method for operating the same, and endoscope system
CN105310633A (en) * 2014-08-04 2016-02-10 富士胶片株式会社 Medical image processing device, method for operating the same, and endoscope system
JP2016034405A (en) * 2014-08-04 2016-03-17 富士フイルム株式会社 Medical image processing apparatus, method for operating the same, and endoscope system
CN108324233A (en) * 2014-08-04 2018-07-27 富士胶片株式会社 Medical image-processing apparatus and endoscopic system
US9801567B2 (en) 2014-08-04 2017-10-31 Fujifilm Corporation Medical image processing device, method for operating the same, and endoscope system
JP2016067709A (en) * 2014-09-30 2016-05-09 富士フイルム株式会社 Medical image processor and operation method thereof
CN105455773A (en) * 2014-09-30 2016-04-06 富士胶片株式会社 Medical image processing device and method for operating the same
US9836836B2 (en) 2014-11-07 2017-12-05 Casio Computer Co., Ltd. Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method
US10055844B2 (en) 2014-11-07 2018-08-21 Casio Computer Co., Ltd. Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method
US9818183B2 (en) 2014-11-07 2017-11-14 Casio Computer Co., Ltd. Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method
US9996928B2 (en) 2014-11-07 2018-06-12 Casio Computer Co., Ltd. Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method
US9881368B2 (en) 2014-11-07 2018-01-30 Casio Computer Co., Ltd. Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method
WO2017150071A1 (en) * 2016-03-03 2017-09-08 Hoya株式会社 Correction data generation method and correction data generation device
US10512433B2 (en) 2016-03-03 2019-12-24 Hoya Corporation Correction data generation method and correction data generation apparatus
JP2017158929A (en) * 2016-03-11 2017-09-14 富士フイルム株式会社 Image processing apparatus, method of operating image processing apparatus, and image processing program
JP2016165649A (en) * 2016-06-23 2016-09-15 カシオ計算機株式会社 Diagnostic device, image processing method in the diagnostic device and program thereof
JP2018023872A (en) * 2017-11-16 2018-02-15 富士フイルム株式会社 Medical image processing device
JP2022000179A (en) * 2017-12-26 2022-01-04 オリンパス株式会社 Image processing apparatus and operating method of image processing apparatus
US11509834B2 (en) 2017-12-26 2022-11-22 Olympus Corporation Image processing apparatus and image processing method
JP2021184924A (en) * 2020-02-06 2021-12-09 富士フイルム株式会社 Medical image processing device
JP2023001354A (en) * 2020-02-06 2023-01-04 富士フイルム株式会社 Medical image processing device
JP2020078647A (en) * 2020-02-27 2020-05-28 富士フイルム株式会社 Image processing apparatus, operation method for image processing apparatus, and image processing program

Similar Documents

Publication Publication Date Title
JPS63173182A (en) Color image processing system
US5452017A (en) Method and apparatus for electronic image color modification using hue and saturation levels
KR920004293B1 (en) High speed color transforming apparatus
JPS60151789A (en) Multifunctional processor of picture
JPH1175060A (en) Method and device for interpolating color image data
JPH06333039A (en) Method and device for airbrushing
US5726682A (en) Programmable color space conversion unit
JP3539665B2 (en) Face area correction method, face area correction apparatus, and recording medium storing face area correction program
JPH05241550A (en) Color picture converting method
US5442717A (en) Sharpness processing apparatus
CN108846871A (en) A kind of image processing method and device
JPS6314556B2 (en)
JP2001014454A (en) Picture processor
JPH01138876A (en) Color picture processing unit
JPH04248681A (en) Color picture emphasis/deemphasis processing method
JPS63242236A (en) Time data display apparatus by color of medical image
JPH02114931A (en) Image processor of electronic endoscope
JP2601265B2 (en) Color correction method
CN112581390A (en) Image color enhancement method, device, equipment and readable storage medium
JP2882754B2 (en) Soft chroma key processing method
US5502642A (en) HSL neighborhoods in CMY color space
JPS6354144A (en) Electronic endoscope apparatus
JPH0352070B2 (en)
JPH10149431A (en) Picture processing method
JPH03229573A (en) Color conversion device