JP3126996B2 - Endoscope image processing method - Google Patents

Endoscope image processing method

Info

Publication number
JP3126996B2
JP3126996B2 JP03079606A JP7960691A JP3126996B2 JP 3126996 B2 JP3126996 B2 JP 3126996B2 JP 03079606 A JP03079606 A JP 03079606A JP 7960691 A JP7960691 A JP 7960691A JP 3126996 B2 JP3126996 B2 JP 3126996B2
Authority
JP
Japan
Prior art keywords
coordinate
image
procedure
processing
endoscope image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03079606A
Other languages
Japanese (ja)
Other versions
JPH04314181A (en
Inventor
博一 西村
雅一 中村
徹緒 野波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optic Co Ltd filed Critical Olympus Optic Co Ltd
Priority to JP03079606A priority Critical patent/JP3126996B2/en
Priority to DE69125146T priority patent/DE69125146T2/en
Priority to PCT/JP1991/001576 priority patent/WO1992008405A1/en
Priority to EP91919795A priority patent/EP0511400B1/en
Priority to US07/847,993 priority patent/US5282030A/en
Publication of JPH04314181A publication Critical patent/JPH04314181A/en
Application granted granted Critical
Publication of JP3126996B2 publication Critical patent/JP3126996B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の技術分野】本発明は、画素を複数の色信号に
分解し、分解した色信号に対して適当な処理を施す事に
より、認識能を向上させた内視鏡画像の処理方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of processing an endoscope image in which a pixel is decomposed into a plurality of color signals and an appropriate process is performed on the decomposed color signals to thereby improve recognition performance. .

【0002】[0002]

【従来の技術】近年、細長の挿入部を体腔内に挿入する
事によって、切開を必要とすること無く、体腔内の患部
等を観察したり、必要に応じ処理具を用いて治療処理の
できる内視鏡が広く用いられるようになった。
2. Description of the Related Art In recent years, by inserting an elongated insertion portion into a body cavity, it is possible to observe a diseased part or the like in the body cavity without performing an incision, and to perform treatment using a processing tool as necessary. Endoscopes have become widely used.

【0003】上記内視鏡には、イメージガイドを像伝送
手順に用いた光学式の内視鏡(ファイバースコープ)の
他に、最近CCD等の固体撮像手順を用いた電子式の内
視鏡(以下、電子内視鏡又は電子スコープ)が実用化さ
れるようになった。
[0003] In addition to an optical endoscope (fiberscope) using an image guide for an image transmission procedure, an electronic endoscope (a CCD or the like) using a solid-state imaging procedure has recently been used as the endoscope. Hereinafter, an electronic endoscope or an electronic scope) has been put to practical use.

【0004】また、ファイバースコープの接眼部にCC
D等の固体撮像手順を用いた撮像カメラを接続してモニ
タでカラー表示できるようにしたものもある。
[0004] In addition, CC is used for the eyepiece of the fiberscope.
There is also a device in which an imaging camera using a solid-state imaging procedure such as D is connected to enable color display on a monitor.

【0005】さらに、最近ではこの様な内視鏡から得ら
れる映像信号に対し、様々な処理を施すことにより、人
間の視覚的認識を補助し、診断能を向上させる試みが成
されている。
[0005] Recently, attempts have been made to improve the diagnostic ability by assisting human visual recognition by performing various processes on video signals obtained from such endoscopes.

【0006】例えば、米国特許第4819077 号によれば、
3原色を現す映像信号RGBを比較的簡単な座標変換に
より、HSI(色相、彩度、輝度)と呼ばれる人間の色
知覚に比較的近い信号に変換し、HSIの各信号に対し
て適当な強調処理を施した後、逆変換によって再び映像
信号RGBに戻して、画像表示をする装置が開示されて
いる。
For example, according to US Pat. No. 4,819,077,
The video signals RGB representing the three primary colors are converted into signals relatively close to human color perception called HSI (hue, saturation, luminance) by relatively simple coordinate conversion, and appropriate emphasis is applied to each signal of HSI. An apparatus is disclosed in which after processing is performed, the image signal is returned to the video signal RGB again by inverse conversion to display an image.

【0007】また、例えば、特願昭62-296143 号によれ
ば、画像信号をより人間の色知覚に近いLu色空
間に変換してから各種強調を行ない、逆変化を行なう装
置が開示されている。
[0007] For example, according to Japanese Patent Application No. 62-296143, there is provided a device which converts an image signal into a Lu * v * color space which is closer to human color perception, performs various enhancements, and performs an inverse change. It has been disclosed.

【0008】本出願人もまた特願昭61-169057 号おいて
映像信号をLa、あるいはLu色空間にお
ける信号に変換し、その輝度Lに対し強調処理を施す装
置を開示している。
The present applicant also discloses in Japanese Patent Application No. 61-169057 an apparatus for converting a video signal into a signal in the La * b * or Lu * v * color space and performing an emphasis process on the luminance L. are doing.

【0009】これらの従来例においては、カラー画像の
輪郭あるいは細かい模様を強調する為に、輝度に対する
高周波成分の強調処理を行なっている。これは輝度と色
相、彩度を分離する事により、色調を変化させること無
く、強調を行なうことができるからである。これに対
し、RGB各プレーンに対して独立した強調処理を行な
うと色調が変化して不自然な画像になることがあった。
In these conventional examples, in order to emphasize the outline or fine pattern of a color image, a process of emphasizing high-frequency components with respect to luminance is performed. This is because, by separating luminance, hue, and saturation, emphasis can be performed without changing the color tone. On the other hand, when an independent emphasis process is performed on each of the RGB planes, the color tone changes and an unnatural image may occur.

【0010】ところで、内視鏡による生体観察において
は、挿入性向上のため、小形・細径化を図るなど機材に
対する制約条件のため観察対象によっては、解像力、明
るさ、コントラスト等で十分な観察能が得られないこと
も起こる。特に良性病変と悪性病変との鑑別診断に重要
な情報となる粘膜表面の微細模様(胃腺、腸腺等の腺
腔、無名溝、毛細血管、あるいは、染色剤等により形成
される)の観察の為には、現在最高水準の解像力を有す
る内視鏡を用いても、診断に対し十分な画像は得られな
いことが多い。
[0010] By the way, in the living body observation using an endoscope, depending on the object to be observed, a sufficient resolution, brightness, contrast, etc. may be required depending on the object to be observed due to restrictions on equipment such as reduction in size and diameter to improve insertion properties. It also happens that no performance is obtained. Observation of microscopic patterns on the mucosal surface (formed by glandular cavities such as gastric and intestinal glands , anonymous sulcus, capillaries, or stains), which are important information for differential diagnosis between benign and malignant lesions. For this reason, even if an endoscope having the highest resolution at present is used, a sufficient image for diagnosis cannot be obtained in many cases.

【0011】この為、より優れた解像力をもつ内視鏡が
切望されるのは当然のことであるが、さらに、コントラ
スト不足、解像力不足を補い、より診断を容易ならしめ
る画像処理手法、及び装置の開発が望まれている。
For this reason, it is natural that an endoscope having better resolution is desired. However, an image processing method and apparatus for compensating for lack of contrast and resolution and making diagnosis easier. The development of is desired.

【0012】[0012]

【発明が解決しようとする課題】例えば通常の(染色法
を用いない)内視鏡画像における粘膜表面の微細模様
は、その模様を形成する変動情報の殆どをG,Bの信号
の変動によっている。これはおそらく、血液中のヘモグ
ロビンによる吸光の性質を反映しているものと考えられ
ている。
For example, in the case of a fine pattern on the mucous membrane surface in a normal endoscopic image (without using a staining method), most of the fluctuation information forming the pattern is based on fluctuations of G and B signals. . This is probably reflected by the nature of the absorption by hemoglobin in the blood.

【0013】また、染色法を用いた画像では生体固有の
反射、あるいは吸光に加えて、染色剤による吸光が加わ
るため、これらの性質により画像を形成するデータ変動
が決定される。
Further, in an image using a staining method, light absorption due to a stain is added in addition to reflection or light absorption inherent in a living body, and thus data fluctuations for forming an image are determined by these properties.

【0014】これらの画像の強調の為には、従来試みら
れてきた色空間における高周波強調処理を用いても結果
は良好ではなかった。この理由は以下の様な事であると
推定される。
In order to enhance these images, high-frequency enhancement processing in a color space, which has been conventionally attempted, has not been successful. The reason is presumed to be as follows.

【0015】微細模様を形成するデータ変動が形成する
データ分布は、当然のことながら人間の色知覚における
輝度、色相、彩度の何れかの変動と一致するものではな
い。観察者は画像からまず大局的な情報を把握する。次
に微細模様を明瞭に観察することにより、より精細な情
報を得ようとする。そして、精細な情報を得ようとする
場合、観察者の注意は、その画像中に認められる生体に
起因する何等かの情報に対して、集中的に注意を払うこ
とになる。これらの情報が輝度により表現されるもので
あるか、彩度あるいは色相で表現されるものであるか、
あるいはその両方であるのかといったことは、観察者に
とっては何等意味をもたない。
The data distribution formed by the data fluctuation forming the fine pattern does not naturally correspond to any fluctuation in luminance, hue, and saturation in human color perception. The observer first grasps global information from the image. Next, by observing the fine pattern clearly, an attempt is made to obtain more detailed information. Then, when trying to obtain detailed information, the observer's attention is focused intensively on any information derived from the living body observed in the image. Whether this information is represented by luminance, saturation or hue,
It doesn't make any sense to the observer whether they are or both.

【0016】もっとも良好に受入れられ、観察の補助と
なり得る強調手法は、関心領域内で注目しているデータ
変動が増幅され、それ以外は抑制されるものでなければ
ならないが、色空間上で処理を行なうことは必ずしもこ
の条件を満たさない。
The most well-accepted enhancement method that can be used to assist observation is that data fluctuations of interest in the region of interest must be amplified and otherwise suppressed. Is not always satisfied with this condition.

【0017】このため、色空間における強調処理は、微
細模様の観察者にとって、必ずしも最適な強調結果を提
供しない。
For this reason, the emphasis processing in the color space does not always provide an optimum emphasis result for an observer of a fine pattern.

【0018】さらに、内視鏡画像全体におけるデータの
変動は照明あるいは対象の形状等による大局的な変動に
支配されることが多い。輝度に対する強調は、この大局
的変動により形成される輪郭等をより強く明瞭にしてし
まう傾向があるため、微細な模様は却って観づらい状況
になってしまうこともある。
Furthermore, data fluctuations in the entire endoscope image are often governed by global fluctuations due to illumination, the shape of the object, and the like. The emphasis on the brightness tends to make the contours and the like formed by the global fluctuation more clear, so that a fine pattern may be difficult to see.

【0019】本発明は上述した点に鑑みてなされたもの
で、粘膜表面の微細模様を明瞭に観察することの可能な
内視鏡画像の処理方法を提供することを目的とする。
The present invention has been made in view of the above points, and an object of the present invention is to provide a method for processing an endoscope image that allows a fine pattern on a mucous membrane surface to be clearly observed.

【0020】[0020]

【課題を解決するための手段及び作用】本発明による内
視鏡画像の処理方法は、複数の色信号に分割された内視
鏡画像の各信号に対し所定の画像処理を施す内視鏡画像
の処理方法において、前記内視鏡画像の各信号の各画素
情報における、周波数成分の分布に関する統計的特徴に
基づいて座標変換のための座標軸を決定する座標軸決定
手順と、前記座標軸決定手順で決定された座標軸に基づ
き、前記各信号を座標変換する座標変換手順と、前記座
標変換手順による座標変換後の各画素情報における周波
数成分に対する所望のフィルタ処理を施すフィルタ処理
手順と、前記フィルタ処理手順によりフィルタ処理され
た座標変換後の各画素情報に対して、もとの複数の色信
号から成る座標軸に逆座標変換するための逆座標変換手
順とを備えていることを特徴とし、また、本発明による
内視鏡画像の処理方法は複数の色信号に分割された内
視鏡画像の各信号に対し所定の画像処理を施す内視鏡画
像の処理方法において前記内視鏡画像の各信号の各画
素情報における、周波数成分の分布に関する統計的特徴
に基づいて座標変換行列を算出する手順と前記座標変
換行列を算出する手順で求められた座標変換行列を用い
て前記各信号を座標変換する座標変換手順と前記座標
変換手順による座標変換後の各画素情報における周波数
成分に対する所望のフィルタ処理を施すフィルタ処理手
順と前記フィルタ処理手順によりフィルタ処理された
座標変換後の各画素情報に対して、前記座標変換行列の
逆行列を用いて逆座標変換する逆座標変換手順とを備え
ていることを特徴とし、 そして前記フィルタ処理手順
で施すフィルタ処理は、強調およひ゛/または抑制であ
ることを特徴とする。
SUMMARY OF THE INVENTION According to the present invention,
The method of processing an endoscope image is a method of processing an endoscope image that performs predetermined image processing on each signal of an endoscope image divided into a plurality of color signals. definitive the pixel information, based on the coordinate axis determining <br/> procedure for determining the coordinate axes, determined by the coordinate determination procedure axes for the coordinate conversion based on the statistical characteristics of the distribution of frequency components
Can, wherein a coordinate transformation procedure for each signal to coordinate transformation, frequency of definitive to each pixel information after the coordinate conversion by the coordinate transformation procedure
A filter processing procedure for performing a desired filter processing on several components; and a plurality of original color signals for each pixel information after the coordinate conversion filtered by the filter processing procedure.
Characterized in that it comprises a reverse coordinate transformation procedure for inverse coordinate transformation coordinate consisting of No., also according to the invention
Method of processing an endoscopic image, among divided into a plurality of color signals
Endoscope image that performs predetermined image processing on each signal of the endoscope image
In the image processing method, each image of each signal of the endoscope image is provided.
Statistical features related to the distribution of frequency components in elementary information
A step of calculating a coordinate transformation matrix based on the coordinates strange
Using the coordinate transformation matrix obtained in the procedure for calculating the permutation matrix
A coordinate transformation procedure for coordinate converting the respective signal Te, the coordinates
Frequency in each pixel information after coordinate transformation by transformation procedure
Filtering means for performing desired filtering on components
Order and filtered by the filtering procedure
For each pixel information after the coordinate conversion, the coordinate conversion matrix
An inverse coordinate conversion procedure for performing an inverse coordinate conversion using an inverse matrix.
It features a has, then the filtering procedure
The filtering performed by the filter is emphasis and / or suppression.
It is characterized by that.

【0021】[0021]

【実施例】以下、図面を参照して本発明の実施例を説明
する。図1は内視鏡装置の構成を示すブロック図、図2
は画像処理装置の構成を示すブロック図、図3は内視鏡
装置の全体を示す側面図、図4及び図5は画像処理装置
の動作を説明するためのフローチャート、図6は特徴領
域の自動設定の一例を示すフローチャート、図7は帯域
通過フィルタリング処理の動作を説明するためのフロー
チャート、図8は画像上におけるR及びGデータの値の
相関の分布を示す概念図、図9は図8の分布に対し、帯
域通過フィルタリング後の相関の分布の例を示す概念
図、図10はcos関数を用いた重み付けの説明図、図
11及び図12は帯域通過フィルタリング処理の説明
図、図13はフィルタリングを行うのに用いる重み付け
関数を示す説明図、図14は特徴領域の自動設定の一例
を示す説明図である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the endoscope apparatus, and FIG.
Is a block diagram showing the configuration of the image processing apparatus, FIG. 3 is a side view showing the entire endoscope apparatus, FIGS. 4 and 5 are flowcharts for explaining the operation of the image processing apparatus, and FIG. FIG. 7 is a flowchart showing an example of the setting, FIG. 7 is a flowchart for explaining the operation of the band-pass filtering process, FIG. 8 is a conceptual diagram showing the distribution of the correlation between the values of the R and G data on the image, and FIG. FIG. 10 is a conceptual diagram showing an example of correlation distribution after band-pass filtering with respect to distribution, FIG. 10 is an explanatory diagram of weighting using a cos function, FIGS. 11 and 12 are explanatory diagrams of band-pass filtering processing, and FIG. FIG. 14 is an explanatory diagram showing a weighting function used to perform the above-described operation, and FIG. 14 is an explanatory diagram showing an example of automatic setting of a characteristic region.

【0022】本実施例に係る内視鏡装置は、第3図に示
すように、電子内視鏡1を備えている。この電子内視鏡
1は、細長で例えば可撓性の挿入部2を有し、この挿入
部2の後端に太径の操作部3が連設されている。前記操
作部3の後端部からは側方に可撓性のユニバーサルコー
ド4が延設され、このユニバーサルコード4の先端部に
コネクタ5が設けられている。前記電子内視鏡1は、前
記コネクタ5を介して、光源装置及び信号処理回路が内
蔵されたビデオプロセッサ6へ接続されるようになって
いる。さらに、前記ビデオプロセット6には、モニタ7
が接続されるようになっている。
The endoscope apparatus according to the present embodiment includes an electronic endoscope 1 as shown in FIG. The electronic endoscope 1 has a slender, for example, flexible insertion section 2, and a large-diameter operation section 3 is connected to the rear end of the insertion section 2. A flexible universal cord 4 extends laterally from the rear end of the operation unit 3, and a connector 5 is provided at the tip of the universal cord 4. The electronic endoscope 1 is connected via the connector 5 to a video processor 6 having a light source device and a signal processing circuit built therein. Further, the video pro set 6 includes a monitor 7
Are connected.

【0023】前記挿入部2の先端側には、硬性の先端部
9及びこの先端部9に隣接する後方側に湾曲可能な湾曲
部10が順次設けられている。また、前記操作部3に設
けられた湾曲操作ノブ11を回動操作することによっ
て、前記湾曲部10を左右方向あるいは上下方向に湾曲
できるようになっている。また、前記操作部3には、前
記挿入部2内に設けられた処置具チャンネルに連通する
挿入口12が設けられている。
On the distal end side of the insertion portion 2, a rigid distal end portion 9 and a bending portion 10 which can be bent rearward adjacent to the distal end portion 9 are sequentially provided. By rotating a bending operation knob 11 provided on the operation section 3, the bending section 10 can be bent in the left-right direction or the up-down direction. Further, the operation section 3 is provided with an insertion port 12 which communicates with a treatment instrument channel provided in the insertion section 2.

【0024】第1図に示すように電子内視鏡1の挿入部
2内には、照明光を伝達するライトガイド14が挿通さ
れている。このライトガイド14の先端面は、挿入部2
の先端部9に配置され、この先端部9から照明光を出射
できるようになっている。また、前記ライトガイド14
の入射端側は、ユニバーサルコード4内を挿通されてコ
ネクタ5に接続されている。また、前記先端部9には、
対物レンズ系15が設けられ、この対物レンズ系15の
結像位置に固体撮像素子16が配設されている。この固
体撮像素子16は、可視領域を含め紫外領域から赤外領
域に至る広い波長域で感度を有している。前記固体撮像
素子16には信号線26,27が接続され、これら信号
線26,27は、前記挿入部2及びユニバーサルコード
4内を挿通されて前記コネクタ5に接続されている。
As shown in FIG. 1, a light guide 14 for transmitting illumination light is inserted into the insertion section 2 of the electronic endoscope 1. The distal end surface of the light guide 14 is
, And the illumination light can be emitted from the tip 9. In addition, the light guide 14
Is inserted through the universal cord 4 and connected to the connector 5. In addition, the tip portion 9 includes:
An objective lens system 15 is provided, and a solid-state imaging device 16 is provided at an image forming position of the objective lens system 15. The solid-state imaging device 16 has sensitivity in a wide wavelength range from the ultraviolet region to the infrared region including the visible region. Signal lines 26 and 27 are connected to the solid-state imaging device 16, and these signal lines 26 and 27 are inserted through the insertion section 2 and the universal cord 4 and connected to the connector 5.

【0025】一方、ビデオプロセッサ6内には、紫外光
から赤外光に至る広帯域の光を発光するランプ21が設
けられている。このランプ21としては、一般的なキセ
ノンランプやストロボランプ等を用いることができる。
前記キセノンランプやストロボランプは、可視光のみな
らず紫外光及び赤外光を大量に発光する。このランプ2
1は、電源22によって電力が供給されるようになって
いる。前記ランプ21の前方には、モータ23によって
回転駆動される回転フィルタ50が配設されている。こ
の回転フィルタ50には、通常観察用の赤(R),緑
(G),青(B)の各波長領域の光を透過するフィルタ
が、周方向に沿って配列されている。
On the other hand, the video processor 6 is provided with a lamp 21 which emits light in a wide band from ultraviolet light to infrared light. As the lamp 21, a general xenon lamp, a strobe lamp, or the like can be used.
The xenon lamp and the strobe lamp emit a large amount of ultraviolet light and infrared light as well as visible light. This lamp 2
1 is supplied with power from a power supply 22. A rotary filter 50 driven by a motor 23 is disposed in front of the lamp 21. In the rotary filter 50, filters for transmitting light in each wavelength region of red (R), green (G), and blue (B) for normal observation are arranged along the circumferential direction.

【0026】また、前記モータ23は、モータドライバ
25によって回転が制御されて駆動されるようになって
いる。
The rotation of the motor 23 is controlled by a motor driver 25 to be driven.

【0027】前記回転フィルタ50を透過し、R,G,
Bの各波長領域の光に時系列的に分離された光は、前記
ライトガイド14の入射端に入射され、このライトガイ
ド14を介して先端部9に導かれ、この先端部9から出
射されて、観察部位を照明するようになっている。
R, G, R, G,
Light separated in time series into light of each wavelength region of B is incident on the incident end of the light guide 14, guided to the tip 9 via the light guide 14, and emitted from the tip 9. Thus, the observation site is illuminated.

【0028】この照明光による観察部位からの戻り光
は、対物レンズ系15によって、固体撮像素子16上に
結像され、光電変換されるようになっている。この固体
撮像素子16には、前記信号線26を介して、前記ビデ
オプロセッサ6内のドライブ回路31からの駆動パルス
が印加され、この駆動パルスによって読み出し、転送が
行われるようになっている。この固体撮像素子16から
読み出された映像信号は、前記信号線27を介して、前
記ビデオプロセッサ6内または電子内視鏡1内に設けら
れたプリアンプ32へ入力されるようになっている。こ
のプリアンプ32で増幅された影像信号は、プロセス回
路33へ入力され、γ補正及びホワイトバランス等の信
号処理を施され、A/Dコンバータ34によって、デジ
タル信号に変換されるようになっている。このデジタル
の影像信号は、セレクト回路35によって、例えば赤
(R),緑(G),青(B)各色に対応するメモリ
(1)36a,メモリ(2)36b,メモリ(3)36
cに選択的に記憶されるようになっている。前記メモリ
(1)36a,メモリ(2)36b,メモリ(3)36
cは、同時に読み出され、D/Aコンバータ37によっ
て、アナログ信号に変換され、入出力インターフェース
(I/O)38を介して、R,G,B信号として、カラ
ーモニタ7に入力され、このカラーモニタ7によって、
観察部位がカラー表示されるようになっている。
The return light from the observation site due to the illumination light is focused on the solid-state image pickup device 16 by the objective lens system 15 and is photoelectrically converted. A drive pulse from a drive circuit 31 in the video processor 6 is applied to the solid-state imaging device 16 via the signal line 26, and reading and transfer are performed by the drive pulse. The video signal read from the solid-state imaging device 16 is input to a preamplifier 32 provided in the video processor 6 or the electronic endoscope 1 via the signal line 27. The image signal amplified by the preamplifier 32 is input to a process circuit 33, subjected to signal processing such as γ correction and white balance, and converted into a digital signal by an A / D converter 34. The digital image signal is supplied to a memory (1) 36a, a memory (2) 36b, and a memory (3) 36 corresponding to, for example, each of red (R), green (G), and blue (B) by the selection circuit 35.
c is selectively stored. The memory (1) 36a, the memory (2) 36b, and the memory (3) 36
c is read out at the same time, converted into an analog signal by a D / A converter 37, and input to the color monitor 7 as R, G, B signals via an input / output interface (I / O) 38. By the color monitor 7,
The observation site is displayed in color.

【0029】また、前記ビデオプロセッサ6内には、シ
ステム全体のタイミングを作るタイミングジェネレータ
42が設けられ、このタイミングジェネレータ42によ
って、モータドライバ25、ドライブ回路31、セレク
ト回路35等の各回路間の同期が取られている。
In the video processor 6, a timing generator 42 for generating the timing of the entire system is provided. The timing generator 42 synchronizes the motor driver 25, the drive circuit 31, the select circuit 35 and other circuits. Has been taken.

【0030】本実施例では、前記メモリ(1〜3)36
a〜36cの出力端は、画像処理装置104に接続され
ている。また、前記画像処理装置104には、入出力イ
ンターフェース(I/O)105を介して、モニタ10
6が接続され、このモニタ106に、前記画像処理装置
104による演算処理結果が表示されるようになってい
る。
In this embodiment, the memories (1-3) 36
Output terminals a to 36c are connected to the image processing device 104. The image processing apparatus 104 is connected to a monitor 10 via an input / output interface (I / O) 105.
6 is connected, and the result of the arithmetic processing by the image processing device 104 is displayed on the monitor 106.

【0031】前記画像処理装置104は、第2図に示す
ような構成になっている。すなわち、画像処理装置10
4は、CPU108、情報入力装置109、RAMから
なる主記憶装置110、画像入力インターフェース(I
/F)111及び表示インターフェース112を備え、
これらは、バスによって互いに接続されている。前記情
報入力装置109は、キーボード等であり、電子内視鏡
1の種別等のデータを入力できるようになっている。前
記画像入力インターフェース111は、メモリ(1)3
6a,メモリ(2)36b,メモリ(3)36cに接続
され、各メモリからの画像データの受信を行うようにな
っている。また、前記表示インターフェース(I/F)
112は、入出力インターフェース105に接続され、
モニタ106に入力する画像データを送るようになって
いる。
The image processing device 104 has a configuration as shown in FIG. That is, the image processing apparatus 10
Reference numeral 4 denotes a CPU 108, an information input device 109, a main storage device 110 including a RAM, and an image input interface (I
/ F) 111 and a display interface 112,
These are connected to each other by a bus. The information input device 109 is a keyboard or the like, and can input data such as the type of the electronic endoscope 1. The image input interface 111 has a memory (1) 3
6a, the memory (2) 36b, and the memory (3) 36c, and receives image data from each memory. The display interface (I / F)
112 is connected to the input / output interface 105,
Image data to be input to the monitor 106 is sent.

【0032】本実施例では、電子内視鏡1で得た対象部
位の画像に対し、画像処理装置104で処理を行い、モ
ニタ106へ処理結果を出力する。
In the present embodiment, the image of the target part obtained by the electronic endoscope 1 is processed by the image processing device 104, and the processing result is output to the monitor 106.

【0033】次に、フローチャートを参照し、前記画像
処理装置104の処理について説明する。前記画像処理
装置104は、図4のステップS1で各メモリ36a,
36b,36cから、それぞれRGB映像信号を入力す
る。そして、画像処理装置104は、図4に示すよう
に、RGB画像に対する座標軸変換を行うステップS
2、2次元離散的フーリエ変換の処理を行うステップS
4、いわゆるフィルタリングを行うステップS5、2次
元離散的フーリエ逆変換を行うステップS7、座標軸逆
変換を行うステップS9等を含む処理群と、図5に示す
ように、座標軸変換を行うための3×3行列及びその逆
列を導出する各ステップS11ないしS16等を含む処
理群を備えている。この画像処理装置104は、メモリ
(1〜3)36a〜36cからのR,G,B各画像信号
に対して処理を行う。尚、本実施例における2次元離散
的フーリエ変換及び逆変換はすべて中心部に直流成分が
配置される、いわゆる光学的フーリエ変換に相当する係
数配置がなされているものとする。
Next, the processing of the image processing device 104 will be described with reference to a flowchart. The image processing device 104 stores each of the memories 36a, 36a in step S1 of FIG.
RGB video signals are input from 36b and 36c, respectively. Then, the image processing device 104 performs a coordinate axis conversion on the RGB image as shown in FIG.
Step S for performing a two- or two-dimensional discrete Fourier transform process
4. A processing group including a step S5 for performing so-called filtering, a step S7 for performing a two-dimensional discrete Fourier inverse transform, a step S9 for performing a coordinate axis inverse transform, and 3 × for performing a coordinate axis transform as shown in FIG. A processing group including steps S11 to S16 for deriving three matrices and their inverses is provided. The image processing device 104 processes R, G, and B image signals from the memories (1 to 3) 36a to 36c. It is assumed that the two-dimensional discrete Fourier transform and the inverse transform in this embodiment have a coefficient arrangement corresponding to a so-called optical Fourier transform in which a DC component is arranged at the center.

【0034】一般に非染色の内視鏡撮像画像を構成する
濃度値情報の変動は、R画像において大であるが、それ
らは主として、低周波成分におけるものである。そし
て、実際の臓器粘膜表面の微細な特徴に関する情報は、
G画像及びB画像に依存する傾向が強い。また、濃度値
の情報は、各画像により異なった分布を示し、例えばイ
ンジゴ・カルミン染色を行った場合等、前記特徴に関す
る情報がR画像に多く含まれるものも存在する。
Generally, the fluctuation of density value information constituting an unstained endoscope image is large in the R image, but mainly in the low frequency component. And the information on the fine features of the actual organ mucosal surface,
There is a strong tendency to rely on G and B images. Further, the density value information shows a different distribution depending on each image. For example, in the case where indigo / carmine staining is performed, there are some information in which the R image contains a large amount of information on the feature.

【0035】図8は、例として256階調画像の各画素
におけるR及びGデータの相関の分布の概念を示したも
のである。ここでは簡単のため濃度値を2次元データと
して扱うが、実際の(図示しない)BデータはGデータ
と類似性を有している。図8に示される濃度情報の分布
には、画像における低周波成分及び高周波成分をすべて
含んでいるが、臓器粘膜表面の特徴を示す情報(以下、
特徴成分と記す)は、主にある帯域の高周波成分に存在
する。本実施例においては、この点に着目し、帯域通過
フィルタリングの適用により前記特徴成分を含むと思わ
れる帯域を抽出する。
FIG. 8 shows the concept of the distribution of the correlation between the R and G data in each pixel of the 256 gradation image as an example. Here, the density value is treated as two-dimensional data for simplicity, but actual (not shown) B data has similarity to G data. The distribution of the density information shown in FIG. 8 includes all the low-frequency components and high-frequency components in the image, but includes information indicating the characteristics of the surface of the mucous membrane of the organ (hereinafter, referred to as “characteristic”)
Characteristic component) mainly exists in a high-frequency component in a certain band. In the present embodiment, attention is paid to this point, and a band that seems to include the characteristic component is extracted by applying band-pass filtering.

【0036】図9は、図8のR及びGデータに対する帯
域通過フィルタリング適用後の相関の分布の概念を示す
ものである。通常の内視鏡撮像画像において、前記特徴
を構成する高周波成分は、主にG(及びB)画像に多く
存在するため、帯域通過後においてはRデータに比較し
てGデータの変動に片寄る相関の分布を示す。また、こ
の相関の分布は画像により異なり、特に染色剤(例えば
インジゴ・カルミン)を使用した撮像画像においては、
染色剤がRに対して吸収される性質を持つため、特徴成
分はG及びB画像よりもR画像に多く含まれる。各処理
対象原画像に対し、特徴成分を効果的に強調するために
は、抽出された特徴成分の統計的分布を求め、RGBに
替わる新たな3軸を設定し、それらの各座標軸に関して
原画像を変換した結果に対して強調処理を行う。以下
に、具体的な処理内容の例を提示する。
FIG. 9 shows the concept of the distribution of correlation after band-pass filtering is applied to the R and G data of FIG. In conventional endoscopic captured image, the high-frequency component constituting the feature is mainly G (and B) for abundant in the image, after the bandpass biased to variations in the G data as compared to the R data correlation Is shown. In addition, the distribution of this correlation differs from image to image, and particularly in a captured image using a stain (eg, indigo carmine),
Since the stain has a property of being absorbed by R, the R image contains more characteristic components than the G and B images. In order to effectively emphasize the feature components on each of the original images to be processed, the statistical distribution of the extracted feature components is obtained, three new axes are set in place of RGB, and the original image is set with respect to each of these coordinate axes. Is emphasized on the result of the conversion. Hereinafter, examples of specific processing contents will be presented.

【0037】RGB原画像に対し、最もその画像の特徴
的な部位あるいは強調処理が望まれる部位を中心部に含
む例えば、256×256のサイズの領域(以下、特徴
領域と記す)を図5のステップS11において設定す
る。尚、256×256の大きさを持つ画像の中心点
は、(128,128)の点に該当する画素とする。こ
の特徴領域の設定は、操作者の主観に基づく選出のみで
はなく、自動的に行うことも可能である。図6に示すフ
ローチャートに従う特徴領域の自動設定処理は、その一
例である。
A region having a size of, for example, 256 × 256 (hereinafter, referred to as a characteristic region) including, in the center, a characteristic region of the RGB original image or a region where enhancement processing is desired in the RGB original image is shown in FIG. This is set in step S11. Note that the center point of the image having the size of 256 × 256 is a pixel corresponding to the point (128, 128). The setting of the characteristic region can be automatically performed in addition to the selection based on the subjective opinion of the operator. The automatic setting process of the characteristic region according to the flowchart shown in FIG. 6 is an example thereof.

【0038】通常の内視鏡画像における特徴成分は、G
画像において最も多く含まれているという性質を利用す
ることにより、効果的な強調処理を可能とする座標変換
行列の導出に用いる特徴領域の設定を行う。まず、原画
像におけるG画像を、図6に示すように、ステップS3
1において例えば64×64の大きさのブロックに分割
する。これらのブロック群から、あるブロックを特徴領
域の中心部として抽出する処理を行う。すなわち、ステ
ップS32で、ハレーションが一定の割合以上含まれる
ブロックを特徴領域の中心部位候補から除外する。そし
て、ステップS33で除外対象外であった各ブロック内
のハレーション部を除いた濃度平均値を求める。続い
て、ステップS34で、濃度平均値がある一定の値を満
たさない、すなわち画像の暗部であり、特徴領域として
抽出することに不適当と判断し得るブロックを中心部位
候補から除外する。図14の例においては、太線で示さ
れるブロック群Dが暗部の対象となる。前記の一連の処
理後、除外されなかった各ブロック内の濃度平均値をス
テップS35において求め、得られた値に最も近い濃度
平均値を持つブロックを特徴領域の中心部位と規定す
る。ステップS36で、前記ブロックを中心部位に含む
256×256の特徴領域を抽出する。画像の端部等、
256×256の大きさを満たす領域が得られないブロ
ックが選択された場合には、次いで前述の値に近い濃度
平均値を持つ、特徴領域を抽出し得るブロックを中心部
位とする。
The characteristic component in a normal endoscopic image is G
By utilizing the property of being included most in the image, a characteristic region used for deriving a coordinate transformation matrix that enables effective enhancement processing is set. First, as shown in FIG. 6, the G image in the original image is converted
In step 1, the block is divided into blocks of, for example, 64 × 64. A process of extracting a certain block from these block groups as the center of the characteristic region is performed. That is, in step S32, a block including halation at a certain ratio or more is excluded from the central region candidates of the characteristic region. Then, in step S33, a density average value excluding the halation portion in each block that has not been excluded is obtained. Subsequently, in step S34, blocks that do not satisfy a certain average density value, that is, blocks that are dark portions of the image and that can be determined to be inappropriate for extraction as a feature region, are excluded from the central region candidates. In the example of FIG. 14, a block group D indicated by a thick line is a target of a dark part. After the above series of processing, the average density value in each block not excluded is obtained in step S35, and the block having the average density value closest to the obtained value is defined as the central part of the feature region. In step S36, a 256 × 256 characteristic region including the block at the center is extracted. Such as the edge of the image,
When a block in which an area satisfying the size of 256 × 256 cannot be obtained is selected, a block having a density average value close to the above-described value and from which a characteristic area can be extracted is set as a central part.

【0039】次に、図5のステップS12での特徴領域
における各画素のRGBデータそれぞれに対し、ステッ
プS13で画像の中心を1とし、中心からの距離(画素
数に相当する)nに関して減少し、n=128で0とな
る、次式に示すcos関数による重み関数の乗算を適用
する。
Next, for each of the RGB data of each pixel in the characteristic region in step S12 of FIG. 5, the center of the image is set to 1 in step S13, and the distance from the center (corresponding to the number of pixels) n is reduced. , N = 128, and multiplication of the weight function by the cos function shown in the following equation is applied.

【0040】 wc(n)=0.5×cos(nπ/128)+0.5 ……(1) 図10(a)は特徴領域画像の中心を通る線分上の各画
素に対する重み付けの値の変化を示す。また、図10
(b)において斜線部に示されるn>128となる領域
については、すべての重み付けの値を0とする。つま
り、式(1)に示す重み付け関数wc(n)は、画像の
中心点に関して同心円状に同じ値が適用される。第10
図(b)において示されている円は、n=128の点を
示しており、斜線部はn>128となる部位を表してい
る。すなわち、式(1)による重みはn≦128におい
て適用され、該当しない点には無条件に0を乗じてい
る。この処理は、後述の帯域通過フィルタリングにおけ
る処理での、周辺部の不連続性による帯域通過画像の歪
の発生を低減する働きを有する。
Wc (n) = 0.5 × cos (nπ / 128) +0.5 (1) FIG. 10A shows a weighting value for each pixel on a line segment passing through the center of the characteristic region image. Indicates a change. FIG.
In (b), all the weighting values are set to 0 for an area where n> 128 indicated by a hatched portion. That is, the same value is applied to the weighting function wc (n) shown in Expression (1) concentrically with respect to the center point of the image. Tenth
Circles shown in FIG. (B) shows the points of n = 128, the hatched portion represents a region to be n> 128
You. In other words, the weight according to equation (1) is applied when n ≦ 128, and points that do not apply are unconditionally multiplied by zero. This processing has the function of reducing the occurrence of distortion of the band-pass image due to discontinuity in the peripheral part in the processing in band-pass filtering described later.

【0041】さらに、図5のステップS13で、cos
関数による重み付け処理を施した特徴領域画像に対し、
ステップS14で、帯域通過フィルタリングを施す。図
7はこの帯域通過フィルタリングの処理の具体例を示す
フローチャートである。RGB各画像に対し、図7のス
テップS21で2次元離散的フーリエ変換を施して後、
ステップS22において、例えば図12に示す通過特性
を有するフィルタリングを行う。ここで通過させる帯域
は、前述の、内視鏡撮像画像において最も特徴成分を含
むと思われる周波数帯域に設定する。次に、図7のステ
ップS23で、2次元離散的フーリエ変換を行う。座
標変換行列の導出には、図11に示すように、前述した
処理により得られる画像の中心部を含む128×128
の領域画像(以下、特徴画像と記す)を用いる。得られ
た画像は、原画像から特徴成分のみを抽出したものであ
り、RGB各データの相関の分布の概念は、例えば図9
に準ずるものとなる。そして、図5のステップS15で
特徴領域のRGB全画像にわたって処理したか否かを判
断し、処理終了の場合、次のステップに移る。
Further, at step S13 in FIG.
For the feature area image weighted by the function,
In step S14, band pass filtering is performed. FIG. 7 is a flowchart showing a specific example of the band-pass filtering process. After performing a two-dimensional discrete Fourier transform on each of the RGB images in step S21 of FIG.
In step S22, for example, filtering having the pass characteristics shown in FIG. 12 is performed. Here, the band to be passed is set to the above-mentioned frequency band that is considered to contain the most characteristic component in the image captured by the endoscope . Next, in step S23 of FIG. 7, two-dimensional discrete Fourier inverse transform is performed. To derive the coordinate transformation matrix, as shown in FIG. 11, 128 × 128 including the center of the image obtained by the above-described processing
(Hereinafter referred to as a feature image). The obtained image is obtained by extracting only the characteristic components from the original image. The concept of the distribution of the correlation between the RGB data is, for example, as shown in FIG.
It is based on. Then, in step S15 of FIG. 5, it is determined whether or not the processing has been performed on all the RGB images of the characteristic region. When the processing is completed, the process proceeds to the next step.

【0042】そして、前述した処理の適用により得られ
た特徴画像に対し、特徴成分におけるRGBデータの統
計的分布を求めるために、図5のステップS16におい
てKL変換を用いた座標変換・逆変換行列決定処理を適
用する。KL変換は、入力画像データの統計的分布に基
づき、適合する新たな直交関数系を機械的に導出する処
理である。なお、KL変換については、文献(ディジタ
ル画像処理長尾真近代科学社)に詳しいので詳細は省略
する。ステップS16を経ることにより、座標軸変換に
利用される3個の3次元ベクトルが得られる。変換後の
座標軸となるX,Y,Z各軸は、これらの3個のベクト
ルの固有値が最大であるものをX軸、最小であるものを
Z軸として規定される。XYZ各軸を規定する各ベクト
ルを、それぞれベクトルax(a11,12,a1
3)、ベクトルay(a21,a22,a23)、ベク
トルaz(a31,a32,a33)とすると、RGB
空間から新たな3軸によるXYZ空間への座標軸変換
は、下記の式(2)に示される行列演算により実現され
る。
Then, in order to obtain a statistical distribution of RGB data in the characteristic components of the characteristic image obtained by applying the above-described processing, a coordinate transformation / inverse transformation matrix using the KL transformation in step S16 of FIG. Apply decision processing. The KL transform is a process for mechanically deriving a new suitable orthogonal function system based on the statistical distribution of input image data. Note that the KL conversion is detailed in a literature (Digital Image Processing Makoto Nagao Modern Science Co., Ltd.), so the details are omitted. Through step S16, three three-dimensional vectors used for coordinate axis conversion are obtained. The X, Y, and Z axes that are the coordinate axes after the conversion are defined as those with the largest eigenvalue of these three vectors as the X axis and those with the smallest eigenvalue as the Z axis. Each vector defining each of the XYZ axes is defined as a vector ax (a11, 12, a1).
3), vector ay (a21, a22, a23) and vector az (a31, a32, a33), RGB
The coordinate axis conversion from the space to the XYZ space using the new three axes is realized by a matrix operation represented by the following equation (2).

【0043】 [0043]

【0044】ここで、式(2)における3×3ベクトル
行列を行列M1とすると、座標軸逆変換は、XYZデー
タに対する行列M1の逆行列の乗算により実現される。
Here, assuming that the 3 × 3 vector matrix in the equation (2) is a matrix M1, the coordinate axis inverse transformation is realized by multiplying the XYZ data by the inverse matrix of the matrix M1.

【0045】図4のステップS2では、ステップS16
において生成された座標軸変換行列を用いて式(2)に
示した演算を行い、RGB原画像における各画素の
(r,g,b)データを(x,y,z)データに変換す
る。
In step S2 of FIG. 4, step S16
(2) is performed using the coordinate axis conversion matrix generated in step (1) to convert (r, g, b) data of each pixel in the RGB original image into (x, y, z) data.

【0046】図4のステップS4においては、ステップ
S3でのXYZ各画素に対し、2次元離散的フーリエ変
換を行う。
In step S4 of FIG. 4, a two-dimensional discrete Fourier transform is performed on each of the XYZ pixels in step S3.

【0047】ステップS5におけるフィルタリングは、
ステップS4での2次元離散的フーリエ変換によって生
成されるデータの実数項ar (t)及び虚数項ai
(t)に対する、後述するステップS6での重み付け関
数との乗算によって実現される。この重み付け関数は、
X,Y,Z各画素に対し、各々に適当なものを与える。
具体的には、例えば特徴成分を多く含むX画像に対し強
調効果を持つフィルタリングを行い、Y及びZ画像に対
してはノイズ抑制効果を持つフィルタリングを行うよう
な重み付け関数を適用する。ステップS5でフィルタリ
ング終了後、ステップS7における2次元離散的フーリ
エ変換により、強調処理結果適用後のX,Y,Z各画素
が得られるようになっている。
The filtering in step S5 is as follows.
The real term ar (t) and the imaginary term ai of the data generated by the two-dimensional discrete Fourier transform in step S4
This is realized by multiplying (t) by a weighting function in step S6 described below. This weighting function is
For X, Y, and Z pixels, an appropriate one is given to each.
Specifically, for example, a weighting function that performs filtering having an emphasis effect on an X image including many feature components and applies filtering having a noise suppression effect on Y and Z images is applied. After the filtering is completed in step S5, the two-dimensional discrete Fourier transform in step S7 can obtain the X, Y, and Z pixels after the application of the enhancement processing result.

【0048】ステップS6におけるフィルタリングに使
用する重み付け関数を作成する処理は、以下のように行
う。いわゆる光学的フーリエ変換では、画像の全体的な
濃度値を決定する直流成分が空間周波数閉面上の中心に
位置し、その近辺に空間周波数的にいうところの低周波
成分が存在する。作成するフィルタは、中心からある距
離だけ離れた点を強調の最高点とし、その点を境界とし
て、低周波成分及び高周波成分に対する重み付けの値を
減少させるようなものとする。このような性質を持つ重
み付け関数は種々のものが考えられ、以下に示すフィル
タはその一例である。
The process of creating a weighting function used for filtering in step S6 is performed as follows. In the so-called optical Fourier transform, a DC component that determines the overall density value of an image is located at the center on a closed spatial frequency surface, and a low frequency component that is referred to as a spatial frequency exists near the DC component. The filter to be created is such that a point separated by a certain distance from the center is set as the highest point of emphasis, and the point is used as a boundary to reduce the value of the weight for the low frequency component and the high frequency component. Various types of weighting functions having such a property can be considered, and the following filter is an example.

【0049】空間周波数平面の中心Oの座標を(u0,v
0 )、同平面上の注目点Pの座標を(u,v)とする
と、OPの距離xは
Let the coordinates of the center O of the spatial frequency plane be (u0, v
0), assuming that the coordinates of the target point P on the same plane are (u, v), the distance x of the OP is

【0050】 [0050]

【0051】で表される。また、重み付けの値をwとす
ると、wはxについての関数w(x)として表され、そ
の値は、0≦w(x)≦αを満たす。αは重みの最大値
である。ここで作成するフィルタは、Oを中心とし、w
(x)の最大値を与える点の集合からなる円の直径をp
とすると、0≦x<p/2及びp/2≦xのそれぞれの
場合に対して別個の関数から成るもので、0≦x<p/
2おいては、cos関数、p/2≦xにおいては正規分
布関数を利用する。
Is represented by When the weighting value is w, w is expressed as a function w (x) for x, and the value satisfies 0 ≦ w (x) ≦ α. α is the maximum value of the weight. The filter created here is centered on O and w
Let p be the diameter of a circle consisting of a set of points giving the maximum value of (x)
Then, for each case of 0 ≦ x <p / 2 and p / 2 ≦ x, there are separate functions, where 0 ≦ x <p /
In 2, the cos function is used, and when p / 2 ≦ x, the normal distribution function is used.

【0052】作成するフィルタのcos関数部におい
て、その振幅をAとする。cos関数部は正規分布関数
部とx=p/2において連続であり、w(p/2)=α
であるものとする。また、x=0で極小値をとらねばな
らない。これらの条件を満たす関数として、下記の式
(3)を得る。
In the cos function part of the filter to be created, its amplitude is assumed to be A. The cos function part is continuous with the normal distribution function part at x = p / 2, and w (p / 2) = α
It is assumed that In addition, the minimum value must be taken at x = 0. The following equation (3) is obtained as a function satisfying these conditions.

【0053】 w(x)=α−A−A・cos{x・π/(p/2)} ,(0≦x<p/2)………(3) 式(3)の関数は、x=p/2において最大値α、x=
0(空間周波数領域上の中心)において最小値α−2A
をとる。このような関数において標準偏差をσとする
と、下記の式(4)が得られる。
W (x) = α−A−A · cos {x · π / (p / 2)}, (0 ≦ x <p / 2) (3) The function of equation (3) is When x = p / 2, the maximum value α, x =
Minimum value α-2A at 0 (center in the spatial frequency domain)
Take. If the standard deviation is σ in such a function, the following equation (4) is obtained.

【0054】 [0054]

【0055】式(4)においてσは、σ=(CTR−
(p/2))/r(CTR:中心のx座標の値、r:実
数)で与えられる。なお、p=0の場合は式(3)のみ
を適用する。 式(3)及び式(4)において、α,
A,p及びrをパラメータとすることにより強調の程度
の異なるフィルタを得ることができる。図12は前記の
条件により作成されるフィルタの特性の例であり、α=
4,A=1.5,p=60,r=4が与えられている。
ノイズ抑制効果を持つフィルタリングを実現するには、
ノイズ成分が多く含まれていると考えられる高周波成分
を抑制するようにし、例えばα=1,A=0,p=0,
r=3に設定すればよい。また、画像強調効果を持つフ
ィルタリングを実現するためには、原画像の構造パター
ンの情報を多く含むと考えられる周波数帯域を強調し、
その帯域より高周波の成分を抑制し、例えばα=3,A
=1,p=50,r=4〜7に設定すればよい。
In equation (4), σ is given by σ = (CTR−
(P / 2)) / r (CTR: value of x coordinate of center, r: real number). When p = 0, only equation (3) is applied. In Equations (3) and (4), α,
By using A, p, and r as parameters, filters with different degrees of enhancement can be obtained. FIG. 12 shows an example of the characteristics of a filter created under the above-mentioned conditions.
4, A = 1.5, p = 60, r = 4.
To realize filtering with noise suppression effect,
High frequency components considered to contain many noise components are suppressed, for example, α = 1, A = 0, p = 0,
It is sufficient to set r = 3. In addition, in order to realize filtering having an image enhancement effect, a frequency band that is considered to include a lot of information on a structure pattern of an original image is emphasized,
Suppress high frequency components from the band, for example, α = 3, A
= 1, p = 50, r = 4-7.

【0056】図4のステップS8で、X,Y,Z各画素
に対するステップS7までのすべての処理が終了か否か
判断する。終了後、ステップS9で座標軸逆変換を行っ
て、強調処理結果RGB画像が得られる。具体的には行
列M1の逆行列M2により、下記の式(5)に示すよう
に、前述した処理が施された各画素の(x′,y′,
z′)データに関して適用すれば良い。
In step S8 in FIG. 4, it is determined whether or not all the processing up to step S7 for each of the X, Y, and Z pixels is completed. After the end, the coordinate axis inverse transformation is performed in step S9, and an RGB image as a result of the enhancement processing is obtained. Specifically, as shown in the following equation (5), the inverse matrix M2 of the matrix M1, (x ', y',
z ') It may be applied to data.

【0057】 [0057]

【0058】再びRGB画像に戻り、図4のステップS
10で、前述した処理によって各画素の(r′,g′,
b′)データが得られる。そして、モニタ106によ
り、RGB処理結果を画像として表示する。
Returning to the RGB image again, step S in FIG.
In (10), (r ', g',
b ') Data is obtained. Then, the monitor 106 displays the RGB processing result as an image.

【0059】本実施例では、画像処理装置104におい
て、RGB原画に対して、粘膜表面の微細模様を強調す
ると共に、ノイズを抑制した明瞭な画像を得ることがで
きる。
In this embodiment, the image processing device 104 can obtain a clear image in which the fine pattern of the mucous membrane surface is emphasized and the noise is suppressed with respect to the RGB original image.

【0060】尚、以上の処理を行うに際し、原画像に対
する前処理として、ノイズ除去処理(例えば、3×3の
マスクサイズを持つメディアンフィルタ)を施しても良
い。特徴領域の自動設定方法は、本実施例に示した例に
限定されるものではなく、種々の方法が考えられるもの
である。また、図5のステップS16における座標変換
行列決定を行う手法は、KL変換利用によるものに限定
されるものではなく、処理対象画像に対し適応的に座標
変換行列を導出するものであれば適宜使用可能である。
さらに、本実施例における各処理は、並列処理として実
現し得るものである。
In performing the above processing, noise removal processing (for example, a median filter having a 3 × 3 mask size) may be performed as preprocessing for the original image. The method for automatically setting the characteristic region is not limited to the example shown in the present embodiment, but various methods are conceivable. Further, the method of determining the coordinate transformation matrix in step S16 in FIG. 5 is not limited to the method using the KL transformation, and may be appropriately used as long as the coordinate transformation matrix is adaptively derived for the processing target image. It is possible.
Further, each processing in the present embodiment can be realized as parallel processing.

【0061】本実施例における行列は、画像により逐一
求めるものではなく、例えばR画像に関する分散の違い
により、あらかじめ導出しておいたものを適用すること
も可能である。また、本実施例における一連の2次元離
散的フーリエ変換、フィルタリング、2次元フーリエ逆
変換の処理部は、畳み込みによるマスク演算としても実
現可能である。
The matrix in the present embodiment is not obtained one by one according to the image, but may be a matrix derived in advance, for example, due to a difference in variance of the R image. In addition, the processing unit of a series of two-dimensional discrete Fourier transform, filtering, and two-dimensional inverse Fourier transform in the present embodiment can be realized as a mask operation by convolution.

【0062】[0062]

【発明の効果】本発明の内視鏡画像の処理方法は、前述
したように、粘膜表面の微細模様を明瞭に観察すること
ができるという効果がある。
As described above, the method for processing an endoscope image according to the present invention has an effect that a fine pattern on the surface of a mucous membrane can be clearly observed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】内視鏡装置の構成を示すブロック図。FIG. 1 is a block diagram showing a configuration of an endoscope apparatus.

【図2】画像処理装置の構成を示すブロック図。FIG. 2 is a block diagram illustrating a configuration of an image processing apparatus.

【図3】内視鏡装置の全体を示す側面図。FIG. 3 is a side view showing the entire endoscope apparatus.

【図4】画像処理装置の動作を説明するためのフローチ
ャート。
FIG. 4 is a flowchart illustrating the operation of the image processing apparatus.

【図5】画像処理装置の動作を説明するためのフローチ
ャート。
FIG. 5 is a flowchart for explaining the operation of the image processing apparatus.

【図6】特徴領域の自動設定の一例を示すフローチャー
ト。
FIG. 6 is a flowchart illustrating an example of automatic setting of a characteristic region.

【図7】帯域通過フィルタリング処理の動作を説明する
ためのフローチャート。
FIG. 7 is a flowchart for explaining the operation of a band-pass filtering process.

【図8】図8は画像上におけるR及びGデータの値の相
関の分布の例を示す概念図。
FIG. 8 is a conceptual diagram showing an example of a distribution of correlation between values of R and G data on an image.

【図9】図9は図8の分布に対し、帯域通過フィルタリ
ング後の相関の分布の例を示す概念図。
FIG. 9 is a conceptual diagram showing an example of a distribution of correlation after band-pass filtering with respect to the distribution of FIG.

【図10】cos関数を用いた重み付けの説明図。FIG. 10 is an explanatory diagram of weighting using a cos function.

【図11】帯域通過フィルタリング処理の説明図。FIG. 11 is an explanatory diagram of a band-pass filtering process.

【図12】帯域通過フィルタリング処理の説明図。FIG. 12 is an explanatory diagram of a band-pass filtering process.

【図13】フィルタリングを行うのに用いる重み付け関
数を示す説明図。
FIG. 13 is an explanatory diagram showing a weighting function used for performing filtering.

【図14】特徴領域の自動設定の一例を示す説明図FIG. 14 is an explanatory diagram showing an example of automatic setting of a characteristic region.

【符号の説明】[Explanation of symbols]

1…電子内視鏡 16…固体撮像素子 104…画像処理装置 106…モニタ DESCRIPTION OF SYMBOLS 1 ... Electronic endoscope 16 ... Solid-state image sensor 104 ... Image processing device 106 ... Monitor

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平1−176561(JP,A) 特開 平1−124071(JP,A) 特開 昭63−26783(JP,A) 特開 平1−138877(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 G06T 5/00 - 5/20 A61B 1/04 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-1-176561 (JP, A) JP-A-1-1244071 (JP, A) JP-A-63-26783 (JP, A) JP-A-1- 138877 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 1/00 G06T 5/00-5/20 A61B 1/04

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数の色信号に分割された内視鏡画像の
各信号に対し所定の画像処理を施す内視鏡画像の処理方
法において、 前記内視鏡画像の各信号の各画素情報における、周波数
成分の分布に関する統計的特徴に基づいて座標変換のた
めの座標軸を決定する座標軸決定手順と、 前記座標軸決定手順で決定された座標軸に基づき、前記
各信号を座標変換する座標変換手順と、 前記座標変換手順による座標変換後の各画素情報におけ
る周波数成分に対する所望のフィルタ処理を施すフィル
タ処理手順と、 前記フィルタ処理手順によりフィルタ処理された座標変
換後の各画素情報に対して、もとの複数の色信号から成
る座標軸に逆座標変換するための逆座標変換手順と、 を備えていることを特徴とする内視鏡画像の処理方法。
1. An endoscope image processing method for performing predetermined image processing on each signal of an endoscope image divided into a plurality of color signals, wherein each pixel information of each signal of the endoscope image is Frequency
Coordinate transformation based on statistical features of component distribution
A coordinate axis determining step of determining a coordinate axis for the operation, based on the coordinate axis determined in the coordinate axis determining step,
A coordinate transformation procedure for coordinate conversion of each signal, put to each pixel information after the coordinate conversion by the coordinate transformation procedure
A filtering process for performing a desired filtering process on a frequency component to be processed, and a plurality of original color signals for each pixel information after the coordinate transformation filtered by the filtering process.
And an inverse coordinate conversion procedure for performing an inverse coordinate conversion to a coordinate axis to be performed.
【請求項2】 複数の色信号に分割された内視鏡画像の
各信号に対し所定の画像処理を施す内視鏡画像の処理方
法において前記内視鏡画像の各信号の各画素情報における、周波数
成分の分布に関する統計的特徴に基づいて座標変換行列
を算出する手順と前記座標変換行列を算出する手順で求められた座標変換
行列を用いて前記各信号を座標変換する座標変換手順
前記座標変換手順による座標変換後の各画素情報におけ
る周波数成分に対する所望のフィルタ処理を施すフィル
タ処理手順と前記フィルタ処理手順によりフィルタ処理された座標変
換後の各画素情報に対して、前記座標変換行列の逆行列
を用いて逆座標変換する逆座標変換手順とを備えていることを特徴とする内視鏡画像の処理方法
2. An endoscope image divided into a plurality of color signals.
An endoscope image processing method that performs predetermined image processing on each signal
Method, in each pixel information of each signal of the endoscope image,
Coordinate transformation matrix based on statistical characteristics of component distribution
And the coordinate transformation obtained in the step of calculating the coordinate transformation matrix
Coordinate conversion procedure for performing coordinate conversion of each of the signals using a matrix
And each pixel information after coordinate conversion by the coordinate conversion procedure.
Filter that performs the desired filtering on the frequency components
And a coordinate transformation filtered by the filtering procedure.
For each pixel information after conversion, the inverse matrix of the coordinate transformation matrix
And an inverse coordinate conversion procedure for performing an inverse coordinate conversion using the method .
【請求項3】 前記フィルタ処理手順で施すフィルタ処
理は、強調およひ゛/または抑制であることを特徴とす
る請求項1または2に記載の内視鏡画像の処理方法
3. A filter processing performed in the filter processing procedure.
Is characterized by emphasis and / or suppression.
The method for processing an endoscope image according to claim 1 .
JP03079606A 1990-11-19 1991-04-12 Endoscope image processing method Expired - Fee Related JP3126996B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP03079606A JP3126996B2 (en) 1991-04-12 1991-04-12 Endoscope image processing method
DE69125146T DE69125146T2 (en) 1990-11-19 1991-11-18 DEVICE AND METHOD FOR PROCESSING ENDOSCOPIC IMAGE SIGNALS
PCT/JP1991/001576 WO1992008405A1 (en) 1990-11-19 1991-11-18 Device for processing image of endoscope and method thereof
EP91919795A EP0511400B1 (en) 1990-11-19 1991-11-18 Device for processing image of endoscope and method thereof
US07/847,993 US5282030A (en) 1990-11-19 1991-11-18 Endoscopic image processor and endoscopic image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03079606A JP3126996B2 (en) 1991-04-12 1991-04-12 Endoscope image processing method

Publications (2)

Publication Number Publication Date
JPH04314181A JPH04314181A (en) 1992-11-05
JP3126996B2 true JP3126996B2 (en) 2001-01-22

Family

ID=13694677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03079606A Expired - Fee Related JP3126996B2 (en) 1990-11-19 1991-04-12 Endoscope image processing method

Country Status (1)

Country Link
JP (1) JP3126996B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3532368B2 (en) * 1996-12-10 2004-05-31 富士写真フイルム株式会社 Endoscope
CA2602906A1 (en) * 2005-03-22 2006-09-28 Olympus Corporation Image processor and endoscope apparatus
JP5767775B2 (en) 2009-07-06 2015-08-19 富士フイルム株式会社 Endoscope device
JP5450527B2 (en) * 2011-08-10 2014-03-26 富士フイルム株式会社 Endoscope device

Also Published As

Publication number Publication date
JPH04314181A (en) 1992-11-05

Similar Documents

Publication Publication Date Title
US5282030A (en) Endoscopic image processor and endoscopic image processing method
JP4370008B2 (en) Endoscopic image processing device
JP3217343B2 (en) Image processing device
US9486123B2 (en) Endoscope system which enlarges an area of a captured image, and method for operating endoscope system
JP5242381B2 (en) Medical image processing apparatus and medical image processing method
EP1576920B1 (en) Imaging device
JP6917183B2 (en) Imaging device
JP2009201994A (en) Method for strengthening in vivo image contrast
EP1650982A1 (en) Electronic endoscope apparatus
JP7387859B2 (en) Medical image processing device, processor device, endoscope system, operating method and program for medical image processing device
CN111784686A (en) Dynamic intelligent detection method, system and readable storage medium for endoscope bleeding area
JP5173130B2 (en) Electronic endoscope device
JP3126996B2 (en) Endoscope image processing method
CN110168604B (en) Image processing apparatus, image processing method, and storage medium
JP2746615B2 (en) Endoscope image processing device
JP2997785B2 (en) Endoscope image processing apparatus and endoscope image processing method
JPH03105483A (en) Endoscope device
US20220351350A1 (en) Endoscope processor, method for operating endoscope processor, and storage medium
JP2761238B2 (en) Endoscope device
WO2021171444A1 (en) Teaching data generation device, teaching data generation method, recording device, and recording method
JPH0926547A (en) Endoscopic image processing device
JPH04193254A (en) Image treating apparatus for endoscope
JP3789911B2 (en) Image processing apparatus and face image processing apparatus
JPH01138877A (en) Color picture analyzer
Sdiri et al. Comparative study of endoscopic image enhancement techniques

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20001024

LAPS Cancellation because of no payment of annual fees