JP4500207B2 - Biological observation device - Google Patents

Biological observation device Download PDF

Info

Publication number
JP4500207B2
JP4500207B2 JP2005141534A JP2005141534A JP4500207B2 JP 4500207 B2 JP4500207 B2 JP 4500207B2 JP 2005141534 A JP2005141534 A JP 2005141534A JP 2005141534 A JP2005141534 A JP 2005141534A JP 4500207 B2 JP4500207 B2 JP 4500207B2
Authority
JP
Japan
Prior art keywords
signal
unit
image
spectral
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005141534A
Other languages
Japanese (ja)
Other versions
JP2006314629A (en
Inventor
和弘 後野
睦巳 大島
正一 天野
智也 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2005141534A priority Critical patent/JP4500207B2/en
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to EP06715358A priority patent/EP1880659A4/en
Priority to RU2007146448/14A priority patent/RU2378977C2/en
Priority to CA002606895A priority patent/CA2606895A1/en
Priority to KR1020077026147A priority patent/KR100988113B1/en
Priority to CN2006800162245A priority patent/CN101175435B/en
Priority to EP11000358.9A priority patent/EP2332460B1/en
Priority to US11/914,347 priority patent/US20090091614A1/en
Priority to PCT/JP2006/304388 priority patent/WO2006120795A1/en
Priority to BRPI0610260-3A priority patent/BRPI0610260A2/en
Priority to AU2006245248A priority patent/AU2006245248B2/en
Publication of JP2006314629A publication Critical patent/JP2006314629A/en
Application granted granted Critical
Publication of JP4500207B2 publication Critical patent/JP4500207B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Description

本発明は、生体を撮像して得られるカラー画像信号を利用して、信号処理により擬似的な狭帯域フィルタを生成し、分光画像としてモニタ上に表示する生体観測装置に関する。 The present invention relates to a living body observation apparatus that uses a color image signal obtained by imaging a living body to generate a pseudo narrowband filter by signal processing and displays it as a spectral image on a monitor .

従来より、生体観測装置として、照明光を照射し体腔内の内視鏡画像を得る内視鏡装置が広く用いられている。この種の内視鏡装置では、光源装置からの照明光を体腔内にライトガイド等を用い導光しその戻り光により被写体を撮像する撮像手段を有する電子内視鏡が用いられ、ビデオプロセッサにより撮像手段からの撮像信号を信号処理することにより観察モニタに内視鏡画像を表示し患部等の観察部位を観察するようになっている。 2. Description of the Related Art Conventionally, endoscope apparatuses that obtain an endoscopic image in a body cavity by irradiating illumination light have been widely used as living body observation apparatuses . In this type of endoscope apparatus, an electronic endoscope having an image pickup unit that guides illumination light from a light source device into a body cavity using a light guide or the like and picks up an image of a subject using the return light is used. An image signal from the imaging means is signal-processed to display an endoscopic image on an observation monitor and observe an observation site such as an affected area.

内視鏡装置において通常の生体組織観察を行う場合は、1つの方式としては、光源装置で可視光領域の白色光を発光し、例えばRGB等の回転フィルタを介することで面順次光を被写体に照射し、この面順次光による戻り光をビデオプロセッサで同時化し画像処理することでカラー画像を得ている。また、内視鏡装置において通常の生体組織観察を行う場合は、別の方式としては、内視鏡の撮像手段の撮像面の前面にカラーチップを配し、光源装置で可視光領域の白色光を発光し、該白色光による戻り光をカラーチップにて各色成分毎に分離することで撮像し、ビデオプロセッサで画像処理することによってカラー画像を得ている。 When normal biological tissue observation is performed in an endoscope apparatus, one method is to emit white light in the visible light region with a light source device, and use, for example, a rotation filter such as RGB to subject the surface sequential light to a subject. irradiated, that has gained a color image by image processing synchronized with the video processor return light by the frame sequential light. When performing normal biological tissue observation in an endoscope apparatus, as another method , a color chip is arranged in front of the imaging surface of the imaging means of the endoscope, and white light in the visible light region is emitted by the light source device. It emits the return light by the white light imaged by separating for each color component by the color chips, to obtain a color image by image processing by the video processor.

生体組織は、照射される光の波長により光の吸収特性及び散乱特性が異なるため、例えば特開2002−95635号公報において、可視光領域の照明光を離散的な分光特性の狭帯域なRGB面順次光を生体組織に照射し、生体組織の所望の深部の組織情報を得る狭帯域光内視鏡装置が提案されている。
また、特開2003−93336号公報において、可視光領域の照明光による画像信号を信号処理し離散的な分光画像を生成し、生体組織の所望の深部の組織情報を得る狭帯域光内視鏡装置が提案されている。
特開2002−95635号公報 特開2003−93336号公報
Biological organizations, since the absorption characteristics and scattering characteristics of light differ according to the wavelength of light irradiated, for example, Japanese in 2002-95635, JP-narrowband RGB discrete spectral characteristics illumination light in the visible light region A narrow-band optical endoscope apparatus that irradiates a living tissue with frame sequential light and obtains tissue information of a desired deep portion of the living tissue has been proposed.
Japanese Patent Laid-Open No. 2003-93336 discloses a narrowband optical endoscope that generates a discrete spectral image by performing signal processing on an image signal generated by illumination light in a visible light region and obtains tissue information of a desired deep part of a living tissue. A device has been proposed.
JP 2002-95635 A JP 2003-93336 A

しかしながら、例えば上記特開2003−93336号公報に記載の装置では、信号処理により分光画像を得ることで、狭帯域なRGB光を生成するためのフィルタを必要としないが、得られた分光画像を単にモニタに出力しているために、モニタに表示される画像が生体組織の所望の深部の組織情報の観察に適した色調の画像とならず、視認性が良好とは言えない虞れがある。 However, for example, the device described in JP-A-2003-93336, to obtain a spectral image by signal processing, but does not require a filter for generating a narrowband RGB light, a spectral image obtained Since the image is simply output to the monitor, the image displayed on the monitor is not an image having a color tone suitable for observing tissue information in a desired deep part of the living tissue, and there is a possibility that the visibility is not good. .

従って、本発明は、上記事情に鑑みてなされたものであり、信号処理により得られた分光画像に基づく生体組織の所望の深部の組織情報を観察に適した色調の画像情報に調整し、かつ表示出力される信号の画質を向上させて視認性を良好にすることのできる生体観測装置を提供することを目的としている。 Therefore, the present invention has been made in view of the above circumstances, adjusting tissue information of a desired deep part of a living tissue based on a spectral image obtained by signal processing to image information of a color tone suitable for observation, and and its object is to provide a biological observation apparatus capable of favorably with to Rukoto visibility by improving the quality of the signal displayed output.

本発明の第1の生体観測装置は、被検体である生体に光を照射する照明部と、前記照射光に基づいて前記生体から反射される光を光電変換し、撮像信号を生成する撮像部と、前記照明部及び/または前記撮像部の動作を制御し、表示装置へ前記撮像信号を出力する信号処理制御部と、を具備し、前記信号処理制御部は、前記撮像信号から光学的波長狭帯域の画像に対応する分光信号を信号処理によって生成する分光信号生成部と、前記分光信号を前記表示装置へ出力する際に当該分光信号を形成する複数の帯域ごとに異なった色調を割り付ける色調整部と、前記表示装置へ出力される信号の画質を調整する画質調整部と、前記撮像信号及び/または分光信号の信号レベルを増幅させる信号増幅部と、を備え、前記信号増幅部は、前記撮像信号と分光信号とでその増幅制御を変化させるものであって、前記増幅制御は、前記照明部から照射される光量を制御する光量制御部による光量制御ができなくなった場合に増幅機能が増幅動作を開始するときの追従速度であることを特徴とする。
本発明の第2の生体観測装置は、被検体である生体に光を照射する照明部と、前記照射光に基づいて前記生体から反射される光を光電変換し、撮像信号を生成する撮像部と、前記照明部及び/または前記撮像部の動作を制御し、表示装置へ前記撮像信号を出力する信号処理制御部と、を具備し、前記信号処理制御部は、前記撮像信号から光学的波長狭帯域の画像に対応する分光信号を信号処理によって生成する分光信号生成部と、前記分光信号を前記表示装置へ出力する際に当該分光信号を形成する複数の帯域ごとに異なった色調を割り付ける色調整部と、前記表示装置へ出力される信号の明るさ及び/またはS/N比を改善する画質調整部と、を具備し、前記画質調整部は、撮像信号の輝度信号及び/または分光信号の輝度信号の重み付け加算を行うことを特徴とする。
本発明の第3の生体観測装置は、被検体である生体に光を照射する照明部と、前記照射光に基づいて前記生体から反射される光を光電変換し、撮像信号を生成する撮像部と、前記照明部及び/または前記撮像部の動作を制御し、表示装置へ前記撮像信号を出力する信号処理制御部と、を具備し、前記信号処理制御部は、前記撮像信号から光学的波長狭帯域の画像に対応する分光信号を信号処理によって生成する分光信号生成部と、前記分光信号を前記表示装置へ出力する際に当該分光信号を形成する複数の帯域ごとに異なった色調を割り付ける色調整部と、前記表示装置へ出力される信号の明るさ及び/またはS/N比を改善する画質調整部と、を具備し、前記画質調整部は、撮像信号または該撮像信号から所定の変換によって生成された信号に対して空間周波数特性を変更する制御を行うことを特徴とする。
A first living body observation apparatus according to the present invention includes an illumination unit that irradiates light to a living body that is a subject, and an imaging unit that photoelectrically converts light reflected from the living body based on the irradiation light and generates an imaging signal And a signal processing control unit that controls the operation of the illuminating unit and / or the imaging unit and outputs the imaging signal to a display device, and the signal processing control unit receives an optical wavelength from the imaging signal. A spectral signal generation unit that generates a spectral signal corresponding to a narrow-band image by signal processing, and a color that assigns a different color tone to each of a plurality of bands that form the spectral signal when the spectral signal is output to the display device An adjustment unit; an image quality adjustment unit that adjusts an image quality of a signal output to the display device; and a signal amplification unit that amplifies a signal level of the imaging signal and / or the spectral signal. The imaging signal The amplification control is changed depending on the spectral signal. The amplification control starts the amplification operation when the light amount control by the light amount control unit for controlling the light amount irradiated from the illumination unit cannot be performed. It is a follow-up speed when performing.
The second living body observation apparatus of the present invention includes an illumination unit that irradiates light to a living body that is a subject, and an imaging unit that photoelectrically converts light reflected from the living body based on the irradiation light and generates an imaging signal And a signal processing control unit that controls the operation of the illuminating unit and / or the imaging unit and outputs the imaging signal to a display device, and the signal processing control unit receives an optical wavelength from the imaging signal. A spectral signal generation unit that generates a spectral signal corresponding to a narrow-band image by signal processing, and a color that assigns a different color tone to each of a plurality of bands that form the spectral signal when the spectral signal is output to the display device An adjustment unit, and an image quality adjustment unit that improves the brightness and / or S / N ratio of the signal output to the display device, wherein the image quality adjustment unit is a luminance signal and / or a spectral signal of an imaging signal. Luminance signal weighting And performing calculation.
A third living body observation apparatus of the present invention includes an illuminating unit that irradiates light to a living body that is a subject, and an imaging unit that photoelectrically converts light reflected from the living body based on the irradiated light and generates an imaging signal And a signal processing control unit that controls the operation of the illuminating unit and / or the imaging unit and outputs the imaging signal to a display device, and the signal processing control unit receives an optical wavelength from the imaging signal. A spectral signal generation unit that generates a spectral signal corresponding to a narrow-band image by signal processing, and a color that assigns a different color tone to each of a plurality of bands that form the spectral signal when the spectral signal is output to the display device An adjustment unit, and an image quality adjustment unit that improves the brightness and / or S / N ratio of the signal output to the display device, and the image quality adjustment unit performs predetermined conversion from the imaging signal or the imaging signal Generated by And performing control for changing the spatial frequency characteristics for.

本発明によれば、信号処理により得られた分光画像に基づく生体組織の所望の深部の組織情報を観察に適した色調の画像情報に調整し、かつ表示出力される信号の画質を向上させることができるという効果がある。   ADVANTAGE OF THE INVENTION According to this invention, the tissue information of the desired deep part of the biological tissue based on the spectral image obtained by signal processing is adjusted to the image information of the color tone suitable for observation, and the image quality of the signal displayed and output is improved. There is an effect that can be.

以下、図面を参照しながら本発明の実施例について述べる。   Embodiments of the present invention will be described below with reference to the drawings.

図1ないし図26は本発明の実施例1に係わり、図1はカラー画像信号から分光画像信号を作成する際の信号の流れを示す概念図、図2は分光画像信号の積分演算を示す概念図、図3は電子内視鏡装置の外観を示す外観図、図4は図3の電子内視鏡装置の構成を示すブロック図、図5は図4のチョッパーの外観を示す外観図、図6は図3のCCDの撮像面に配置される色フィルタの配列を示す図、図7は図6の色フィルタの分光感度特性を示す図、図8は図4のマトリックス演算部の構成を示す構成図、図9は光源のスペクトルを示すスペクトル図、図10は生体の反射スペクトルを示すスペクトル図である。
11は図4の電子内視鏡装置により観察する生体組織の層方向構造を示す図、図12は図4の電子内視鏡装置からの照明光の生体組織の層方向への到達状態を説明する図、図13は白色光の各バンドの分光特性を示す図、図14は図13の白色光による各バンド画像を示す第1の図、図15は図13の白色光による各バンド画像を示す第2の図、図16は図13の白色光による各バンド画像を示す第3の図、図17は図8のマトリックス演算部で生成された分光画像の分光特性を示す図、図18は図17の各分光画像を示す第1の図、図19は図17の各分光画像を示す第2の図、図20は図17の各分光画像を示す第3の図である。
21は図4の色調整部の構成を示すブロック図、図22は図21の色調整部の作用を説明する図、図23は図4の色調整部の変形例の成を示すブロック図、図24は図17の分光画像の第1の変形例の分光特性を示す図、図25は図17の分光画像の第2の変形例の分光特性を示す図、図26は図17の分光画像の第3の変形例の分光特性を示す図である。
本発明の実施例における生体観測装置としての電子内視鏡装置では、照明用光源から被検体である生体に光を照射し、その照射光に基づいて生体から反射される光を撮像部である固体撮像素子にて受光し光電変換することにより、カラー画像信号である撮像信号を生成し、その撮像信号から光学的波長狭帯域の画像に対応する分光信号である分光画像信号を信号処理によって生成するようになっている。
FIGS. 1 to 26 relate to the first embodiment of the present invention, FIG. 1 is a conceptual diagram showing a signal flow when a spectral image signal is created from a color image signal, and FIG. 2 is a conceptual diagram showing an integral operation of the spectral image signal. 3 is an external view showing the external appearance of the electronic endoscope apparatus, FIG. 4 is a block diagram showing the configuration of the electronic endoscope apparatus of FIG. 3, and FIG. 5 is an external view showing the external appearance of the chopper of FIG. 6 is a diagram showing an arrangement of color filters arranged on the image pickup surface of the CCD shown in FIG. 3, FIG. 7 is a diagram showing spectral sensitivity characteristics of the color filter shown in FIG. 6, and FIG. 9 is a spectrum diagram showing a spectrum of a light source, and FIG. 10 is a spectrum diagram showing a reflection spectrum of a living body .
Figure 11 is a diagram showing a layer direction structure of the biological tissue to be observed by the electronic endoscope apparatus in FIG. 4, FIG. 12 is the arrival state to the layer direction of the illumination light of the living tissue from the electronic endoscope apparatus in FIG. 4 FIG. 13 is a diagram illustrating spectral characteristics of each band of white light, FIG. 14 is a first diagram illustrating each band image by white light in FIG. 13, and FIG. 15 is each band image by white light in FIG. FIG. 16 is a third diagram showing each band image by white light in FIG. 13, FIG. 17 is a diagram showing the spectral characteristics of the spectral image generated by the matrix operation unit in FIG. Is a first diagram showing each spectral image of FIG. 17, FIG. 19 is a second diagram showing each spectral image of FIG. 17, and FIG. 20 is a third diagram showing each spectral image of FIG .
Figure 21 is a block diagram showing the configuration of a color adjusting section of FIG. 4, FIG. 22 is a diagram explaining the operation of the color adjusting section of FIG. 21, FIG. 23 is a block diagram showing a configuration of a modification of the color adjusting section of Fig. 4 24 is a diagram showing the spectral characteristics of the first modification of the spectral image of FIG. 17, FIG. 25 is a diagram showing the spectral characteristics of the second modification of the spectral image of FIG. 17, and FIG. 26 is the spectral characteristics of FIG. It is a figure which shows the spectral characteristic of the 3rd modification of an image.
In an electronic endoscope apparatus as a living body observation apparatus according to an embodiment of the present invention, an imaging unit emits light from a light source for illumination to a living body that is a subject and is reflected from the living body based on the irradiated light. A solid-state image sensor receives light and performs photoelectric conversion to generate an image signal that is a color image signal, and a spectral image signal that is a spectral signal corresponding to an optical wavelength narrow band image is generated from the image signal by signal processing. It is supposed to be.

以下、本発明に係る実施例1について説明する前に、本発明の基礎となるマトリックス算出方法について説明する。ここで、マトリックスとは、カラー画像(以下通常画像と呼ぶ)を生成するために取得されるカラー画像信号から、分光画像信号を生成する際に用いられる所定の係数である。
また、このマトリックスの説明に続き、より正確な分光画像信号を求めるための補正方法、生成された分光画像信号のS/N比を向上させるS/N比の改善方法について説明する。なお、この補正方法、S/N比の改善方法に関しては、必要に応じて使用すれば良い。また、以下、ベクトル及び行列(マトリックス)は太文字あるいは「」(例えば、行列Aを“Aの太文字”あるいは“「A」”と表記)で、それ以外は文字修飾なしで表記する。
Hereinafter, before describing Example 1 according to the present invention, a matrix calculation method as a basis of the present invention will be described. Here, the matrix is a predetermined coefficient used when generating a spectral image signal from a color image signal acquired to generate a color image (hereinafter referred to as a normal image).
Further, following the description of this matrix, a correction method for obtaining a more accurate spectral image signal and a method for improving the S / N ratio for improving the S / N ratio of the generated spectral image signal will be described. The correction method and the S / N ratio improvement method may be used as necessary. In the following, vectors and matrices (matrix) are indicated by bold characters or “” (for example, the matrix A is expressed as “A bold character of A” or “A” ”), and the others are expressed without character modification.

(マトリックス算出方法)
図1は、カラー画像信号(ここでは、説明を簡単にするために、R・G・Bとするが、後述する実施例のように、補色型固体撮像素子においては、G・Cy・Mg・Yeの組合せでも良い)から、より光学的波長狭帯域の画像に対応する分光画像信号を生成する際の信号の流れを示した概念図である。
まず、電子内視鏡装置は、R・G・Bのそれぞれのカラー感度特性を数値データ化する。ここで、R・G・Bのカラー感度特性とは、白色光の光源を用い、白色の被写体を撮像する時にそれぞれ得られる波長に対する出力の特性である。
(Matrix calculation method)
FIG. 1 shows a color image signal (here, R, G, and B for simplicity of explanation, but in a complementary color solid-state imaging device as in the embodiments described later, G, Cy, Mg, FIG. 4 is a conceptual diagram showing a signal flow when generating a spectral image signal corresponding to an image in a narrower optical wavelength band.
First, the electronic endoscope apparatus, numerical data the respective color sensitivity characteristics of R · G · B. Here, the color sensitivity characteristics of R, G, and B are output characteristics with respect to wavelengths obtained when a white object is imaged using a white light source.

なお、R・G・Bのそれぞれのカラー感度特性は、簡略化したグラフとして各画像データの右に示されている。また、この時の、R・G・Bのカラー感度特性をそれぞれn次元の列ベクトル「R」・「G」・「B」とする。   The color sensitivity characteristics of R, G, and B are shown on the right side of each image data as a simplified graph. Further, the color sensitivity characteristics of R, G, and B at this time are assumed to be n-dimensional column vectors “R”, “G”, and “B”, respectively.

次に、電子内視鏡装置は、抽出したい分光画像用狭帯域パンドパスフィルタF1・F2・F3(電子内視鏡装置は、先見情報として、構造を効率よく抽出できるフィルタの特性を知っている。このフィルタの特性とは、波長帯域が略590nm〜略610nm、略530nm〜略550nm、略400m〜略430nmをそれぞれ通過帯域とするものである。)の特性を数値データ化する。 Next, the electronic endoscope apparatus has a narrow band Pand pass filter F1, F2, F3 for spectral images to be extracted (the electronic endoscope apparatus knows the characteristics of a filter that can efficiently extract the structure as foresight information. The characteristics of this filter are those whose wavelength bands are approximately 590 nm to approximately 610 nm, approximately 530 nm to approximately 550 nm, and approximately 400 m to approximately 430 nm, respectively.

なお、ここで“略”とは、波長においては±10nm程度を含む概念である。この時のフィルタの特性をそれぞれn次元の列ベクトル「F1」・「F2」・「F3」とする。得られた数値データを基に、以下の関係を近似する最適な係数セットを求める。即ち、
[数1]

Figure 0004500207
となるマトリックスの要素を求めればよい。 Here, “substantially” is a concept including about ± 10 nm in wavelength. The filter characteristics at this time are n-dimensional column vectors “F1”, “F2”, and “F3”, respectively. Based on the obtained numerical data, an optimum coefficient set that approximates the following relationship is obtained. That is,
[Equation 1]
Figure 0004500207
What is necessary is just to obtain the elements of the matrix.

上の最適化の命題の解は数学的には、以下のように与えられる。R・G・Bのカラー感度特性を表すマトリックスを「C」、抽出したい狭帯域パンドパスフィルタの分光特性を表すマトリックスを「F」、求める係数マトリックスを「A」とすると、
[数2]

Figure 0004500207
となる。従って、(1)式に示した命題は、以下の関係を満足するマトリックス「A」を求めるに等しい。 The solution of the above optimization proposition is given mathematically as follows: If the matrix representing the color sensitivity characteristics of R, G and B is “C”, the matrix representing the spectral characteristics of the narrow-band Pandpass filter to be extracted is “F”, and the coefficient matrix to be obtained is “A”.
[Equation 2]
Figure 0004500207
It becomes. Therefore, the proposition shown in the equation (1) is equivalent to obtaining a matrix “A” that satisfies the following relationship.

[数3]

Figure 0004500207
ここで、分光特性を表すスペクトルデータとしての点列数nとしては、n>3であるので、(3)式は1次元連立方程式ではなく、線形最小二乗法の解として与えられる。即ち、(3)式から擬似逆行列を解けばよい。マトリックス「C」の転置行列を「C」とすれば、(3)式は
[数4]
Figure 0004500207
となる。「CC」はn×nの正方行列であるので、(4)式はマトリックス「A」についての連立方程式と見ることができ、その解は、
[数5]
Figure 0004500207
で与えられる。 [Equation 3]
Figure 0004500207
Here, since the number of point sequences n as spectral data representing spectral characteristics is n> 3, equation (3) is not a one-dimensional simultaneous equation but is given as a solution of the linear least square method. That is, the pseudo inverse matrix may be solved from the equation (3). Assuming that the transposed matrix of the matrix “C” is “ t C”, the equation (3) is expressed as
Figure 0004500207
It becomes. Since “ t CC” is an n × n square matrix, equation (4) can be viewed as a simultaneous equation for the matrix “A”, and its solution is
[Equation 5]
Figure 0004500207
Given in.

(5)式にて求められたマトリックス「A」について、電子内視鏡装置は、(3)式の左辺の変換を行うことで、抽出したい狭帯域パンドパスフィルタF1・F2・F3の特性を近似させることができる。以上が、本発明の基礎となるマトリックス算出方法の説明である。 For the matrix “A” obtained by the equation (5), the electronic endoscope apparatus performs the transformation of the left side of the equation (3) to obtain the characteristics of the narrow band Pandpass filters F1, F2, and F3 to be extracted. It can Rukoto to approximate. The above is the description of the matrix calculation method that is the basis of the present invention.

このようにして算出されたマトリックスを用いて、後述するマトリックス演算部436が通常カラー画像信号から分光画像信号を生成する。   Using the matrix calculated in this manner, a matrix calculation unit 436 described later generates a spectral image signal from the normal color image signal.

(補正方法)
次に、より正確な分光画像信号を求めるための補正方法について説明する。
上述のマトリックス算出方法の説明においては、CCD等の固体撮像素子が受光する光束が、完全な白色光(可視域において、全ての波長強度が同じ)である場合に正確に適用されるものである。即ち、RGBの出力がいずれも同じである場合に、最適な近似となる。
(Correction method)
Next, a correction method for obtaining a more accurate spectral image signal will be described.
In the above description of the matrix calculation method, the light beam received by a solid-state imaging device such as a CCD is exactly white light (all wavelength intensities are the same in the visible range), and is applied accurately. . That is, the approximation is optimal when the RGB outputs are the same.

しかし、実際の内視鏡下では、照明する光束(光源の光束)は完全な白色光ではなく、生体の反射スペクトルも一律ではないので、固体撮像素子が受光する光束も白色光でない(色が着いているので、RGBの値は同じではない)。   However, under an actual endoscope, the illuminating light beam (light beam from the light source) is not completely white light, and the reflection spectrum of the living body is not uniform. The RGB values are not the same because they have arrived.)

従って、実際の処理において、(3)式に示した命題をより正確に解くためには、RGBのカラー感度特性に加え、照明光の分光特性、生体の反射特性を考慮することが望ましい。
ここで、カラー感度特性をそれぞれR(λ)、G(λ)、B(λ)とし、照明光の分光特性の一例をS(λ)、生体の反射特性の一例をH(λ)とする。なお、この照明光の分光特性および生体の反射特性は、必ずしも検査を行う装置、被検体の特性でなくてもよく、例えば予め取得しておいた一般的な特性としても良い。
Therefore, in an actual process, in order to solve the proposition shown in the expression (3) more accurately, it is desirable to consider the spectral characteristics of illumination light and the reflection characteristics of a living body in addition to RGB color sensitivity characteristics.
Here, the color sensitivity characteristics are respectively R (λ), G (λ), and B (λ), an example of the spectral characteristic of the illumination light is S (λ), and an example of the reflection characteristic of the living body is H (λ). . Note that the spectral characteristics of the illumination light and the reflection characteristics of the living body do not necessarily have to be the characteristics of the inspection apparatus and the subject, and may be general characteristics acquired in advance, for example.

これらの係数を用いると、補正係数kR・kG・kBは、
[数6]
kR=(∫S(λ)×H(λ)×R(λ)dλ)−1
kG=(∫S(λ)×H(λ)×G(λ)dλ)−1
kB=(∫S(λ)×H(λ)×B(λ)dλ)−1 …(6)
で与えられる。感度補正マトリックスを「K」とすると、以下のように与えられる。
Using these coefficients, the correction coefficients kR, kG, and kB are
[Equation 6]
kR = (∫S (λ) × H (λ) × R (λ) dλ) −1
kG = (∫S (λ) × H (λ) × G (λ) dλ) −1
kB = (∫S (λ) × H (λ) × B (λ) dλ) −1 (6)
Given in. When the sensitivity correction matrix is “K”, it is given as follows.

[数7]

Figure 0004500207
従って、係数マトリックス「A」については、(5)式に(7)式の補正を加えて、以下のようになる。 [Equation 7]
Figure 0004500207
Accordingly, the coefficient matrix “A” is as follows after adding the correction of the equation (7) to the equation (5).

[数8]

Figure 0004500207
また、実際に最適化を行う場合、目標とするフィルタの分光感度特性(図1中のF1・F2・F3)が負のときは画像表示上では0となる(つまりフィルタの分光感度特性のうち正の感度を有する部分のみ使用される)ことを利用し、最適化された感度分布の一部が負になることも許容されることが付加される。電子内視鏡装置は、ブロードな分光感度特性から狭帯域な分光感度特性を生成するためには、図1に示すように目標とするF1・F2・F3の特性に、負の感度特性を付加することで、感度を有する帯域を近似した成分を生成することができる。 [Equation 8]
Figure 0004500207
Also, when performing actual optimization, when the spectral sensitivity characteristic of the filter to the target (F1 · F2 · F3 in FIG. 1) is negative becomes 0 on the display image (i.e. of the spectral sensitivity characteristics of the filter It is added that it is also allowed that a part of the optimized sensitivity distribution becomes negative. In order to generate a narrow-band spectral sensitivity characteristic from a broad spectral sensitivity characteristic , the electronic endoscope device adds a negative sensitivity characteristic to the target characteristics of F1, F2, and F3 as shown in FIG. By doing so, it is possible to generate a component approximating a sensitive band.

(S/N比の改善方法)
次に、生成された分光画像信号のS/N比及び精度を向上させる方法について説明する。このS/N比の改善方法は、前述した処理方法に付加することにより、さらに以下の課題を解決するものである。
)前述のマトリックス算出方法における原信号(R・G・B)のいずれかが仮に飽和状態となると、処理方法におけるフィルタF1乃至F3の特性が、構造を効率よく抽出できるフィルタの特性(理想とする特性)と大きく異なってしまう可能性がある(R・G・Bの中、2つの信号だけ生成される場合は、その2つの原信号がいずれも飽和していないことが必要である)。
ii)カラー画像信号から分光画像信号への変換の際に、広帯域のフィルタから狭帯域フィルタ生成するため、感度の劣化が発生し、生成された分光画像信号の成分も小さくなり、S/N比が良くない。
(S / N ratio improvement method)
Next, a method for improving the S / N ratio and accuracy of the generated spectral image signal will be described. This method for improving the S / N ratio solves the following problems by adding to the processing method described above.
( I ) If any of the original signals (R, G, B) in the matrix calculation method described above is saturated, the characteristics of the filters F1 to F3 in the processing method are characteristics of a filter that can extract the structure efficiently (ideal (In the case of R, G, and B, when two signals are generated, it is necessary that neither of the two original signals is saturated. ) ).
( Ii ) Since a narrowband filter is generated from a wideband filter during conversion from a color image signal to a spectral image signal, sensitivity degradation occurs, and the component of the generated spectral image signal is also reduced. N ratio is not good.

このS/N比改善の方法とは、図2に示されるように、照明光の照射を通常画像(一般的なカラー画像)の1フィールド(1フレーム)中に数回(例えばn回、nは2以上の整数)に分けて照射する(照射強度をそれぞれの回で変化させても良い。図2においては、I0乃至Inで示されている。なお、これは照明光の制御のみで実現可能である。)。
これにより、電子内視鏡装置は、1回の照射強度を小さくすることができ、RGB信号のいずれもがそれぞれ飽和状態となるのを抑えることができる。また、数回に分割された画像信号は、後段でn枚分の加算を行う。これにより、電子内視鏡装置は、信号成分を大きくしてS/N比を向上させることができる。図2で、積算部438a乃至438cはS/N比を改善する画質調整部として機能する。
As shown in FIG. 2, the method of improving the S / N ratio is that illumination light is irradiated several times (for example, n times, n times) in one field (one frame) of a normal image (general color image). (The irradiation intensity may be changed at each time. It is indicated by I0 to In in Fig. 2. This is realized only by controlling the illumination light. It is possible.)
Thereby, the electronic endoscope apparatus can reduce the irradiation intensity of one time, and can suppress that each of the RGB signals is saturated. Further, the image signal divided into several times is added for n sheets in the subsequent stage. Thereby, the electronic endoscope apparatus can increase the signal component and improve the S / N ratio. In FIG. 2, the integration units 438a to 438c function as image quality adjustment units that improve the S / N ratio.

以上が、本発明の基礎となるマトリックス演算方法、またこれと共に実施することが可能な正確な分光画像信号を求めるための補正方法、生成された分光画像信号のS/N比を向上させる方法の説明である。   The above is the matrix calculation method that is the basis of the present invention, the correction method for obtaining an accurate spectral image signal that can be performed together with this, and the method for improving the S / N ratio of the generated spectral image signal. It is an explanation.

ここで、上述のマトリックス算出方法の変形例について説明する。
(マトリックス算出方法の変形例)
カラー画像信号をR,G,B、推定する分光画像信号をF1,F2,F3とする。なお、厳密には、カラー画像信号R,G,Bは、画像上の位置x,yの関数でもあるので、例えばR(x,y)と表記すべきだが、ここでは省略する。
R,G,BからF1,F2,F3を計算する3×3の行列「A」を推定することが目標となる。「A」が推定されれば、R,G,BからF1,F2,F3の計算は、以下の(9)式で可能となる。
Here, a modified example of the above-described matrix calculation method will be described.
(Modification of matrix calculation method)
The color image signals are R, G, B, and the spectral image signals to be estimated are F1, F2, F3. Strictly speaking, the color image signals R, G, and B are also functions of the positions x and y on the image, and therefore should be described as, for example, R (x, y), but are omitted here.
The goal is to estimate a 3 × 3 matrix “A” that calculates F1, F2, F3 from R, G, B. If “A” is estimated, F1, F2, and F3 can be calculated from R, G, and B by the following equation (9).

[数9]

Figure 0004500207
ここで、以下のデータの表記を定義する。 [Equation 9]
Figure 0004500207
Here, the following data notation is defined.

被検体の分光特性:H(λ)、「H」=(H(λ1),H(λ2),…,H(λn))
λは波長であり、tは行列演算における転置を表す。同様に、
照明光の分光特性:S(λ)、「S」=(S(λ1),S(λ2),…,S(λn))
CCDの分光感度特性:J(λ)、「J」=(J(λ1),J(λ2),…,J(λn))
色分解を行うフィルタの分光特性:原色の場合
R(λ)、「R」=(R(λ1),R(λ2),…,R(λn))
G(λ)、「G」=(G(λ1),G(λ2),…,G(λn))
B(λ)、「B」=(B(λ1),B(λ2),…,B(λn))
「R」、「G」、「B」は(10)式に示すように、行列「 C」で1つにまとめられる。
Spectral characteristics of subject: H (λ), “H” = (H (λ1), H (λ2),..., H (λn)) t
λ is a wavelength, and t represents transposition in matrix calculation. Similarly,
Spectral characteristics of illumination light: S (λ), “S” = (S (λ1), S (λ2),..., S (λn)) t
Spectral sensitivity characteristics of CCD: J (λ), “J” = (J (λ1), J (λ2),..., J (λn)) t
Spectral characteristics of filters for color separation: For primary colors
R (λ), “R” = (R (λ1), R (λ2),..., R (λn)) t
G (λ), “G” = (G (λ1), G (λ2),..., G (λn)) t
B (λ), “B” = (B (λ1), B (λ2),..., B (λn)) t
“R”, “G”, and “B” are combined into a matrix “C” as shown in the equation (10).

[数10]

Figure 0004500207
画像信号R,G,B、分光信号F1,F2,F3を行列で以下のように表記する。 [Equation 10]
Figure 0004500207
The image signals R, G, B and the spectral signals F1, F2, F3 are expressed in matrix as follows.

[数11]

Figure 0004500207
画像信号「P」は次式で計算される。 [Equation 11]
Figure 0004500207
The image signal “P” is calculated by the following equation.

[数12]

Figure 0004500207
いま、「Q」を得るための色分解フィルタを「F」とすると、(12)式同様に
[数13]
Figure 0004500207
ここで、重要な第1の仮定として、いま、被検体の分光反射率が基本的な3つの分光特性の線形和で表現できると仮定すると、「H」は以下のように表記できる。 [Equation 12]
Figure 0004500207
Assuming that the color separation filter for obtaining “Q” is “F”, [Equation 13] as in equation (12).
Figure 0004500207
Here, as an important first assumption, assuming that the spectral reflectance of the subject can be expressed by a linear sum of three basic spectral characteristics, “H” can be expressed as follows.

[数14]

Figure 0004500207
ここで、「D」は3つの基本スペクトルD1(λ)、D2(λ)、D3(λ)を列ベクトルに持つ行列で、「W」は「H」に対するD1(λ)、D2(λ)、D3(λ)の寄与をあらわす重み係数である。被検体の色調がそれほど大きく変動しない場合には、この近似が成立することが知られている。 [Formula 14]
Figure 0004500207
Here, “D” is a matrix having three basic spectra D1 (λ), D2 (λ), and D3 (λ) as column vectors, and “W” is D1 (λ) and D2 (λ) for “H”. , D3 (λ) is a weighting coefficient representing the contribution. It is known that this approximation is established when the color tone of the subject does not vary so much.

(14)式を(12)式に代入すると、次式を得る。   Substituting equation (14) into equation (12) yields:

[数15]

Figure 0004500207
ここで、3×3の行列「M」は、行列「CSJD」の計算結果を1つにまとめた行列を示す。 [Equation 15]
Figure 0004500207
Here, the 3 × 3 matrix “M” indicates a matrix in which the calculation results of the matrix “CSJD” are combined.

同様に、(14)式を(13)式に代入して、次式を得る。   Similarly, the following equation is obtained by substituting the equation (14) into the equation (13).

[数16]

Figure 0004500207
同じく、「M’」は、行列「FSJD」の計算結果を1つにまとめた行列を示す。
結局、(15)式と(16)式から「W」を消去して、以下の式を得る。 [Equation 16]
Figure 0004500207
Similarly, “M ′” indicates a matrix in which the calculation results of the matrix “FSJD” are combined into one.
Eventually, “W” is eliminated from the equations (15) and (16), and the following equation is obtained.

[数17]

Figure 0004500207
「M−1」は行列「M」の逆行列を示す。結局、「M’M−1」は3×3の行列となり、推定目標の行列「A」となる。 [Equation 17]
Figure 0004500207
“M −1 ” indicates an inverse matrix of the matrix “M”. Eventually, “M′M −1 ” becomes a 3 × 3 matrix, and becomes the estimation target matrix “A”.

ここで、重要な第2の仮定として、色分解をバンドパスフィルタで行う場合、そのバンド内における被検体の分光特性を1つの数値で近似できると仮定する。すなわち、
[数18]

Figure 0004500207
色分解用のバンドパスが完全なバンドパスでなく、他の帯域にも感度を持つ場合も考慮して、この仮定が成立する場合、(15)式、(16)式における「W」を上記「H」と考えれば、結局(17)式と同様な行列が推定できる。 Here, as an important second assumption, when color separation is performed using a bandpass filter, it is assumed that the spectral characteristic of the subject in the band can be approximated by one numerical value. That is,
[Equation 18]
Figure 0004500207
In consideration of the case where the bandpass for color separation is not a complete bandpass and has sensitivity in other bands as well, when this assumption is satisfied, “W” in the expressions (15) and (16) is Considering “H”, a matrix similar to the equation (17) can be estimated after all.

次に、本発明に係る実施例1における電子内視鏡装置の具体的な構成について、図3を参照して説明する。なお、以下に示す他の実施例でも同様の構成である。
図3に示すように、電子内視鏡装置100は、内視鏡101、内視鏡装置本体105表示装置としての表示モニタ106を有している。また、内視鏡101は、被検体の体内に挿入される挿入部102、挿入部102の先端に設けられた先端部103、挿入部102の先端側とは反対側に設けられ、先端部103の湾曲動作等を指示するためのアングル操作部104から主として構成されている。
Next, a specific configuration of the electronic endoscope apparatus according to the first embodiment of the present invention will be described with reference to FIG. The other embodiments described below have the same configuration .
3, the electronic endoscope apparatus 100 includes an endoscope 101, an endoscope apparatus main body 105, and a display monitor 106 as a display device. Further, the endoscope 101 includes an insertion portion 102 which is inserted into the body of the subject, the distal portion 103 provided at the distal end of the insertion portion 102 is provided on the opposite side of the distal end side of the insertion portion 102, the distal end It is composed mainly of the angle control member 104. for instructing the bending operation or the like of the parts 103.

内視鏡101で取得された被検体の画像は、内視鏡装置本体105にて所定の信号処理がなされ、表示モニタ106において、処理された画像が表示される。 The subject image acquired by the endoscope 101 is subjected to predetermined signal processing in the endoscope apparatus main body 105, and the processed image is displayed on the display monitor 106.

次に、図4を参照して、内視鏡装置本体105について詳しく説明する。なお、図4は、同時式の電子内視鏡装置100のブロック図である。
図4に示すように、内視鏡装置本体105は、主に照明部としての光源部41、制御部42、本体処理装置43から構成されている。制御部42及び本体処理装置43は、前記光源部41及び/または撮像部としてのCDD21の動作を制御し、表示装置である表示モニタ106へ撮像信号を出力する信号処理制御部を構成している。
なお、本実施例では、1つのユニットである内視鏡装置本体105内に光源部41と画像処理等を行う本体処理装置43を有するものとして説明を行うが、これらの光源部41と本体処理装置43は、内視鏡装置本体105とは別のユニットとして、取り外し可能なように構成されていても良い。
Next, the endoscope apparatus main body 105 will be described in detail with reference to FIG. FIG. 4 is a block diagram of the simultaneous electronic endoscope apparatus 100.
As shown in FIG. 4, the endoscope apparatus main body 105, a light source unit 41 as a main illumination unit, a control unit 42, and a main unit 43. The control unit 42 and the main body processing device 43 constitute a signal processing control unit that controls the operation of the CDD 21 as the light source unit 41 and / or the imaging unit and outputs an imaging signal to the display monitor 106 that is a display device. .
In this embodiment, the endoscope apparatus main body 105, which is a single unit, is described as having a light source unit 41 and a main body processing device 43 that performs image processing. However, the light source unit 41 and the main body processing are described. The apparatus 43 may be configured to be removable as a unit different from the endoscope apparatus main body 105 .

光源部41は、制御部42および内視鏡101に接続されており、制御部42からの信号に基づいて所定の光量で白色光(完全な白色光でない場合も含む)の照射を行う。また、光源部41は、白色光源としてのランプ15、光量を調整するための光量制御部としてのチョッパー16、チョッパー16を駆動するためのチョッパー駆動部17を有している。 The light source unit 41 is connected to the control unit 42 and the endoscope 101, and emits white light (including a case where the light is not perfect white light) with a predetermined light amount based on a signal from the control unit 42. Further, the light source unit 41 has a lamp 15 as a white light source, a chopper 16 as a light quantity control unit for adjusting the light amount, and a chopper driving section 17 for driving the chopper 16.

チョッパー16は、図5に示すように、点17aを中心とし、所定の半径rの円盤状の構造体に円周方向に所定の長さを有する切り欠き部が設けられた構成を備える。この中心点17aは、チョッパー駆動部17に設けられた回転軸と接続されている。つまり、チョッパー16は、中心点17aを中心に回転運動を行う。また、この切り欠き部は、所定の半径毎に複数設けられている。同図においては、この切り欠き部は、半径r0から半径raの間では、最大の長さ=2πr×θ0度/360度、幅=r0−raである。また、同様に、半径raから半径rbの間では、最大の長さ=2πra×2θ1度/360度、幅=ra−rb、半径rbから半径rcの間では、最大の長さ=2πrb×2θ2度/360度、幅=rb−rcという構成である(それぞれの半径は、r0>ra>rb>rcとする)。   As shown in FIG. 5, the chopper 16 has a configuration in which a notch portion having a predetermined length in the circumferential direction is provided in a disk-like structure having a predetermined radius r and having a center at a point 17 a. The center point 17a is connected to a rotating shaft provided in the chopper driving unit 17. That is, the chopper 16 performs rotational movement around the center point 17a. In addition, a plurality of notches are provided for each predetermined radius. In this figure, the notch has a maximum length = 2πr × θ0 degrees / 360 degrees and a width = r0−ra between the radius r0 and the radius ra. Similarly, the maximum length = 2πra × 2θ1 degrees / 360 degrees between the radius ra and the radius rb, the width = ra−rb, and the maximum length = 2πrb × 2θ2 between the radius rb and the radius rc. Degree / 360 degrees and width = rb−rc (respective radii are r0> ra> rb> rc).

なお、チョッパー16における切り欠き部の長さ、幅は一例であり、本実施例に限定されるわけではない。
また、チョッパー16は、この切り欠き部の略中央に半径方向に延伸する突起部160aを有する。なお、制御部42は、この突起部160aにより光が遮断された時にフレームを切換えることにより、1フレーム前と1フレーム後に照射される光の間隔を最小限にし、被検体の動き等によるブレを最小限にするものである。
また、チョッパー駆動部17は図4における矢印で示されるように、ランプ15に対する方向に移動が可能な構成となっている。
In addition, the length and width of the notch in the chopper 16 are examples, and are not limited to the present embodiment.
Further, the chopper 16 has a protrusion 160a extending in the radial direction substantially at the center of the notch. The control unit 42 switches the frame when the light is blocked by the projection 160a, thereby minimizing the interval between the light irradiated one frame before and after the frame, and blurring due to the movement of the subject. Minimize.
Further, the chopper driving unit 17 is configured to be movable in the direction with respect to the lamp 15 as indicated by an arrow in FIG.

つまり、制御部42は、図5に示されたチョッパー16の回転中心17aとランプからの光束(点線円で示されている)との距離Rを変えることができる。例えば、図5に示された状態では、距離Rがかなり小さいので、照明光量は小さい状態にある。距離Rを大きくする(チョッパー駆動部17をランプ15から遠ざける)ことで、光束が通過できる切り欠き部が長くなるため、照射時間が長くなり、制御部42は、照明光量を大きくすることができる。 That is, the control unit 42 can change the distance R between the rotation center 17a of the chopper 16 shown in FIG. 5 and the luminous flux from the lamp (shown by a dotted circle). For example, in the state shown in FIG. 5, since the distance R is quite small, the amount of illumination light is small. By increasing the distance R (the chopper driving unit 17 is moved away from the lamp 15), the cutout portion through which the light beam can pass becomes longer, so the irradiation time becomes longer, and the control unit 42 can increase the amount of illumination light. .

上述のように、電子内視鏡装置では、新しく生成した分光画像S/N比としては不十分である可能性があることと、分光画像の生成に必要なRGB信号のいずれかの信号が飽和している場合には正しい演算が行われたことにはならないので、照明光量を制御する必要がある。この光量調節をチョッパー16およびチョッパー駆動部17が担うことになる。 また、光源部41にコネクタ11を介して接続された内視鏡101は、先端部103に対物レンズ19及びCCD等の固体撮像素子21(以下、単にCCDと記載する)を備えている。CCD21は、照明部を構成する光源部41からの照射光に基づいて被検体である生体から反射される光を光電変換し、撮像信号を生成する撮像部を構成するものである。本実施例におけるCCDは単板式(同時式電子内視鏡用に用いられるCCD)であり、原色型である。なお、図6はCDDの撮像面に配置される色フィルタの配列を示している。また、図7は図6の色フィルタにおけるRGBそれぞれの分光感度特性を示している。 As described above, in the electronic endoscope apparatus, one of the signals and the spectral image newly generated is likely to be insufficient as S / N ratio, RGB signal necessary for generating the spectral image is If it is saturated, the correct calculation is not performed, so it is necessary to control the amount of illumination light. The light amount adjustment is performed by the chopper 16 and the chopper driving unit 17. The endoscope 101 connected to the light source unit 41 via the connector 11 includes an objective lens 19 and a solid-state imaging device 21 such as a CCD (hereinafter simply referred to as a CCD) at the distal end portion 103. The CCD 21 constitutes an imaging unit that photoelectrically converts light reflected from a living body, which is a subject, based on irradiation light from a light source unit 41 that constitutes an illumination unit, and generates an imaging signal. The CCD in this embodiment is a single plate type (CCD used for a simultaneous electronic endoscope) and is a primary color type. Incidentally, FIG. 6 shows the arrangement of color filters arranged on the imaging surface of the CDD. Further, FIG. 7 shows the RGB respective spectral sensitivity characteristics of the color filter in FIG.

また、図4に示すように、挿入部102、光源部41から照射された光を先端部103に導くライトガイド14、CCDで得られた被検体の画像を本体処理装置43に伝送するための信号線、処置を行うための鉗子チャネル28等を備えている。なお、鉗子チャネル28に鉗子を挿入するための鉗子口29は、操作部104近傍に設けられている。 また、本体処理装置43、光源部41と同様、コネクタ11を介して内視鏡101に接続される。本体処理装置43は、CCD21を駆動するためのCCDドライブ回路431を備えている。また、本体処理装置43は、通常画像を得るための信号回路系として輝度信号処理系と色信号処理系を有する。 Further, as shown in FIG. 4, the insertion portion 102 includes a light guide 14 for guiding the light emitted from the light source unit 41 to the distal end portion 103, and transmits the image of the subject obtained by the CCD to the main unit 43 and a signal line for, and a like forceps channel 28 for performing a treatment. A forceps port 29 for inserting forceps into the forceps channel 28 is provided in the vicinity of the operation unit 104. In addition, the main body processing device 43 is connected to the endoscope 101 via the connector 11, similarly to the light source unit 41. Main unit 43 includes a CCD drive circuit 431 for driving the CCD 21. The main body processing device 43 has a luminance signal processing system and a color signal processing system as signal circuit systems for obtaining a normal image.

輝度信号処理系は、CCD21に接続され輪郭補正を行う輪郭補正部432と、輪郭補正部432で補正されたデータから輝度信号を生成する輝度信号処理部434を有する。また、色信号処理系は、CCD21に接続され、CCD21で得られた信号のサンプリング等を行いRGB信号を生成するサンプルホールド回路(S/H回路)433a乃至433cと、S/H回路433a乃至433cの出力に接続され、色信号の生成を行う色信号処理部435を有する。
そして、前記輝度信号処理系の出力と前記色信号処理系の出力から1つの通常画像を生成する通常画像生成部437が設けられ、通常画像生成部437から切換部439を介して、表示モニタ106にY信号、R−Y信号、B−Y信号が送られる。
The luminance signal processing system includes a contour correction unit 432 that is connected to the CCD 21 and performs contour correction, and a luminance signal processing unit 434 that generates a luminance signal from data corrected by the contour correction unit 432. The color signal processing system is connected to the CCD 21 and samples and holds signals obtained by the CCD 21 to generate RGB signals, and sample hold circuits (S / H circuits) 433a to 433c, and S / H circuits 433a to 433c. And a color signal processing unit 435 for generating a color signal.
Then, a normal image generating unit 437 that generates one normal image from the output of the luminance signal processing system and the output of the color signal processing system is provided, and the display monitor 106 via the switching unit 439 from the normal image generating unit 437. Y signal, RY signal, and BY signal are sent to.

一方、分光画像を得るための信号回路系として、S/H回路433a乃至433cの出力(RGB信号)が入力され、RGB信号に対して所定のマトリックス演算を行うマトリックス演算部436が設けられている。マトリックス演算とは、カラー画像信号同士に加算処理等を行い、また、上述のマトリックス算出方法(あるいはその変形例)により求められたマトリックスを乗算する処理をいう。 On the other hand, as a signal circuit system for obtaining a spectral image, a matrix calculation unit 436 is provided which receives the outputs (RGB signals) of the S / H circuits 433a to 433c and performs a predetermined matrix calculation on the RGB signals . . Matrix calculation refers to a process of performing addition processing or the like between color image signals and multiplying the matrix obtained by the above-described matrix calculation method (or a modification thereof).

なお、本実施例では、このマトリックス演算の方法として、電子回路処理(電子回路を用いたハードウェアによる処理)を用いた方法について説明するが、後述の実施例のように、数値データ処理(プログラムを用いたソフトウェアによる処理)を用いた方法であっても良い。また、実施するにあたっては、これらの方法の組み合わせとすることも可能である。 In this embodiment, a method using electronic circuit processing (processing by hardware using an electronic circuit) will be described as the matrix calculation method. However, as in the embodiments described later, numerical data processing (program A method using software processing using Moreover, when implementing, it is also possible to combine these methods .

図8、マトリックス演算部436の回路図を示している。RGB信号はそれぞれ抵抗群31a乃至31cを介して、増幅器32a乃至32cに入力される。それぞれの抵抗群は、RGB信号がそれぞれ接続される複数の抵抗を有しており、それぞれの抵抗の抵抗値はマトリクス係数に応じた値となっている。即ち、それぞれの抵抗によりRGB信号の増幅率を変化させ、増幅器で加算(減算でも良い)する構成となっている。それぞれの増幅器32a乃至32cの出力は、マトリックス演算部436の出力となる。つまり、このマトリックス演算部436は、いわゆる重み付け加算処理を行っている。なお、ここで用いられるそれぞれの抵抗における抵抗値を可変としても良い。 Figure 8 shows the circuit diagram of the matrix computing section 436. The RGB signals are input to the amplifiers 32a to 32c through the resistor groups 31a to 31c, respectively. Each resistor group has a plurality of resistors to which RGB signals are respectively connected, and the resistance value of each resistor is a value corresponding to the matrix coefficient. In other words, the gain of the RGB signal is changed by each resistor, and the amplifiers add (or subtract). The outputs of the amplifiers 32a to 32c are the outputs of the matrix operation unit 436. That is, the matrix calculation unit 436 performs so-called weighted addition processing. Note that the resistance value of each resistor used here may be variable.

マトリックス演算部436の出力は、それぞれ積算部438a乃至438cに接続され、積分演算が行われた後、それぞれの分光画像信号ΣF1乃至ΣF3に対して色調整部440にて後述する色調整演算が行われ、分光画像信号ΣF1乃至ΣF3よりカラーチャンネルRch、Gch、Bchが生成される。生成されたカラーチャンネルRch、Gch、Bchは切換部439を介して表示モニタ106に送られる。なお、色調整部440の構成については、後述する。 The outputs of the matrix operation unit 436 are connected to the integration units 438a to 438c, respectively, and after integration is performed, the color adjustment operation described later is performed on the spectral image signals ΣF1 to ΣF3 by the color adjustment unit 440. We, color channel Rch from the spectral image signals ΣF1 to ΣF3, Gch, Bch is Ru is generated. The generated color channels Rch, Gch, and Bch are sent to the display monitor 106 via the switching unit 439 . The configuration of the color adjustment unit 440 will be described later.

なお、切換部439は、通常画像と分光画像の切換えを行うものであり、また分光画像同士の切換表示も可能である。つまり操作者は、通常画像、Rchによる分光チャンネル画像、Gchによる分光チャンネル画像、Bchによる分光チャンネル画像から選択的に表示モニタ106に表示させることができる。また、いずれか2つ以上の画像を同時に表示モニタ106に表示可能な構成としても良い。特に、通常画像と分光チャンネル画像を同時に表示可能とした場合には、一般的に観察を行っている通常画像と分光チャンネル画像を簡単に対比することができ、それぞれの特徴(通常画像の特徴は、色度合いが通常の肉眼の観察に近くて観察しやすい。分光チャンネル画像の特徴は、通常画像では観察できない所定の血管等を観察することができる。)を加味した上で、観察することができ診断上非常に有用である。 Note that the switching unit 439 switches between a normal image and a spectral image, and can also switch between spectral images. That operator ordinary image, the spectral channel image by Rch, to display the spectral channel image by Gch, from the spectral channel image according Bch to selectively display monitor 106 can Rukoto. Further, any two or more images may be displayed on the display monitor 106 at the same time. In particular, when the normal image and the spectral channel image can be displayed at the same time, it is possible to easily compare the normal image and the spectral channel image that are generally observed. It is easy to observe because the color degree is close to that of normal visual observation, and the characteristics of the spectral channel image can observe predetermined blood vessels that cannot be observed in the normal image.) It is very useful for diagnosis.

次に、本実施の形態における電子内視鏡装置100の動作について図4を参照して詳しく説明する。
なお、以下においては、まず通常画像を観察する際の動作について説明し、後に分光画像を観察する際の動作について説明する。
Next, the operation of the electronic endoscope apparatus 100 according to the present embodiment will be described in detail with reference to FIG.
In the following, the operation when observing a normal image will be described first, and the operation when observing a spectral image will be described later.

まず、光源部41の動作を説明する。制御部42からの制御信号に基づいて、チョッパー駆動部17は、所定の位置に設定され、チョッパー16を回転させる。ランプ15からの光束は、チョッパー16の切り欠き部を通過し、集光レンズにより、内視鏡101と光源部41の接続部にあるコネクタ11内に設けられた光ファイババンドルであるライトガイド14の入射端に、集光される。
集光された光束は、ライトガイド14を通り、先端部103に設けられた照明光学系から被検体の体内に照射される。照射された光束は、被検体内で反射し、対物レンズ19を介して、CCD21において図6で示した色フィルタ別に信号が収集される。
First, that describes the operation of the light source unit 41. Based on the control signal from the control unit 42, the chopper driving unit 17 is set to a predetermined position and rotates the chopper 16. The light beam from the lamp 15 passes through the notch portion of the chopper 16 and is a light guide 14 that is an optical fiber bundle provided in the connector 11 at the connection portion of the endoscope 101 and the light source portion 41 by a condenser lens. Condensed at the incident end of.
The condensed light flux passes through the light guide 14 and is irradiated into the body of the subject from the illumination optical system provided at the distal end portion 103. The irradiated light beam is reflected in the subject, and signals are collected for each color filter shown in FIG.

収集された信号は、上記の輝度信号処理系と色信号処理系に並列に入力される。輝度信号系の輪郭補正部432には、色フィルタ別に収集された信号が画素ごとに加算され入力され、輪郭補正後、輝度信号処理部434に入力される。輝度信号処理部434では、輝度信号が生成され、通常画像生成部437に入力される。   The collected signals are input in parallel to the luminance signal processing system and the color signal processing system. The luminance signal-based contour correction unit 432 adds the signals collected for each color filter for each pixel and inputs them. After contour correction, the signals are input to the luminance signal processing unit 434. In the luminance signal processing unit 434, a luminance signal is generated and input to the normal image generating unit 437.

また一方で、CCD21で収集された信号は、各フィルタ毎にS/H回路433a乃至433cに入力され、それぞれR・G・B信号が生成される。さらにR・G・B信号は、色信号処理部435にて色信号が生成され、通常画像生成部437において、前記輝度信号および色信号からY信号、R−Y信号、B−Y信号が生成され、切換部439を介して、表示モニタ106に被検体の通常画像が表示される。   On the other hand, signals collected by the CCD 21 are input to the S / H circuits 433a to 433c for each filter, and R, G, and B signals are respectively generated. Further, the R, G, and B signals are generated by a color signal processing unit 435, and the normal image generation unit 437 generates a Y signal, an RY signal, and a BY signal from the luminance signal and the color signal. Then, the normal image of the subject is displayed on the display monitor 106 via the switching unit 439.

次に、分光画像を観察する際の動作について説明する。なお、通常画像の観察と同様の動作を行うものに関しては、ここでは省略する。
操作者は、内視鏡装置本体105に設けられているキーボードあるいは内視鏡101の操作部104に設けられているスイッチ等を操作することにより、通常画像から分光画像を観察する指示を行う。この時、制御部42は、光源部41および本体処理装置43の制御状態を変更する。
具体的には、必要に応じて、光源部41から照射される光量を変更する。上述のように、CCD21からの出力が飽和することは望ましくないため、分光画像の観察時は通常画像の観察時に比して照明光量を小さくする。また、制御部42は、CCDからの出力信号が飽和しないように光量を制御するとともに、飽和しない範囲にて照明光量を変化させることもできる。
Next, the operation when observing a spectral image will be described. In addition, what performs the same operation | movement as normal image observation is abbreviate | omitted here.
The operator, by operating the switch or the like provided in the endoscope apparatus operation unit 104 of which the keyboard or the endoscope 101 provided in the main body 105, an instruction for observing a spectral image from a normal image. At this time, the control unit 42 changes the control state of the light source unit 41 and the main body processing device 43.
Specifically, the amount of light emitted from the light source unit 41 is changed as necessary. As described above, since it is not desirable that the output from the CCD 21 is saturated, the amount of illumination light is made smaller when observing a spectral image than when observing a normal image. The control unit 42 can also control the amount of light so that the output signal from the CCD does not saturate, and can change the amount of illumination light within a range that does not saturate.

また、制御部42による本体処理装置43への制御変更としては、切換部439から出力される信号を通常画像生成部437の出力から色調整部440の出力に切換える。また、S/H回路433a乃至433cの出力は、マトリックス演算部436で増幅・加算処理が行われ、それぞれの帯域に応じて積算部438a乃至438cに出力され、積算処理後に色調整部440に出力される。チョッパー16で、照明光量を小さくした場合でも、積算部438a乃至438cにて、保存・積算することで、図2に示したように、信号強度を上げることができ、また、S/N比が向上した分光画像を得ることができる。 Further, as a control change to the main body processing device 43 by the control unit 42, the signal output from the switching unit 439 is switched from the output of the normal image generation unit 437 to the output of the color adjustment unit 440 . Further, the outputs of the S / H circuits 433a to 433c are amplified and added by the matrix calculation unit 436, and are output to the integration units 438a to 438c according to the respective bands, and are output to the color adjustment unit 440 after the integration processing. Ru is. Even when the amount of illumination light is reduced by the chopper 16, the signal intensity can be increased and the S / N ratio can be increased as shown in FIG. 2 by storing and integrating in the integrating units 438a to 438c. An improved spectral image can be obtained.

以下、本実施例における具体的なマトリックス演算部436のマトリックス処理について記載する。本実施例では、図7に実線で示されたRGB色フィルタの分光感度特性から、同図中に示された理想的な狭帯域バンドパスフィルタF1乃至F3(ここではそれぞれの透過波長領域をF1:590nm〜620nm、F2:520nm〜560nm、F3:400nm〜440nmとした)に近いバンドパスフィルタ(以下擬似バンドパスフィルタと呼ぶ)を作成しようとした場合、前述の(1)式から(5)式に示した内容により、以下のマトリックスが最適となる。 Hereinafter, specific matrix processing of the matrix calculation unit 436 in the present embodiment will be described. In this embodiment, from the spectral sensitivity characteristics of the RGB color filter indicated by the solid line in FIG. 7, the ideal narrow-band bandpass filters F1 to F3 (in this case, the respective transmission wavelength regions are indicated by F1). : 590 nm to 620 nm, F2: 520 nm to 560 nm, F3: 400 nm to 440 nm), when trying to create a bandpass filter (hereinafter referred to as a pseudo bandpass filter), the above equation (1) (5) Depending on what is shown in the equation, the following matrix is optimal.

[数19]

Figure 0004500207
更に、(6)式及び(7)式に示した内容により補正を行うと、以下の補正係数を得る。 [Equation 19]
Figure 0004500207
Further, when correction is performed according to the contents shown in the equations (6) and (7), the following correction coefficients are obtained.

[数20]

Figure 0004500207
なお、(6)式に示す光源のスペクトルS(λ)は図9に示すものであり、(7)式に示す注目する生体の反射スペクトルH(λ)は図10に示すものである、という先見情報を使用している。 [Equation 20]
Figure 0004500207
Note that (6) spectrum S (lambda) of the light source shown in the expression are those shown in FIG. 9, (7) the reflection spectrum H of the biological of interest shown in the expression (lambda) is shown in FIGS. 10, referred to Use foresight information.

従って、マトリックス演算部436にて行われる処理は、数学的には以下のマトリックス演算と同値となる。   Therefore, the processing performed by the matrix calculation unit 436 is mathematically equivalent to the following matrix calculation.

[数21]

Figure 0004500207
このマトリックス演算を行うことにより擬似フィルタ特性(図7にはフィルタ擬似F1乃至F3の特性として示されている)が得られる。即ち、上述のマトリックス処理は、カラー画像信号に、上述のようにして予め生成された擬似バンドパスフィルタ(即ちマトリックス)を用いて、分光画像信号を作成するものである。 [Equation 21]
Figure 0004500207
By performing this matrix operation, pseudo filter characteristics (shown as characteristics of filter pseudo F1 to F3 in FIG. 7) are obtained. That is, the matrix processing described above creates a spectral image signal using a pseudo bandpass filter (that is, a matrix) generated in advance as described above for a color image signal.

この擬似フィルタ特性を用いて生成された内視鏡画像の一例を以下に示す。
図11に示すように、体腔内組織45は、例えば深さ方向に異なった血管等の吸収体分布構造を持つ場合が多い。粘膜表層付近には主に毛細血管46が多く分布し、またこの層より深い中層には毛細血管の他に毛細血管より太い血管47が分布し、さらに深層にはさらに太い血管48が分布するようになる。
An example of an endoscopic image generated using this pseudo filter characteristic is shown below.
As shown in FIG. 11, the body cavity tissue 45 often has an absorber distribution structure such as blood vessels that differ in the depth direction. A large number of capillaries 46 are mainly distributed near the surface of the mucous membrane, and a blood vessel 47 that is thicker than the capillaries is distributed in addition to the capillaries in the middle layer deeper than this layer, and a thicker blood vessel 48 is further distributed in the deep layer. become.

一方、体腔内組織45に対する光の深さ方向の深達度は、光の波長に依存しており、可視域を含む照明光は、図12に示すように、青(B)色のような波長が短い光の場合、生体組織での吸収特性及び散乱特性により表層付近までしか光は深達せず、そこまでの深さの範囲で吸収、散乱を受け、表面から出た光が観測される。また、青(B)色光より波長が長い、緑(G)色光の場合、青(B)色光が深達する範囲よりさらに深い所まで深達し、その範囲で吸収、散乱を受け、表面から出た光が観測される。さらにまた、緑(G)色光より波長が長い、赤(R)色光は、さらに深い範囲まで光が到達する。 On the other hand, invasion depth in the depth direction of light relative to a body cavity tissue 45 is dependent on the wavelength of light, illumination light including a visible region, as shown in FIG. 12, blue (B) colors so In the case of light with a short wavelength, the light reaches the surface layer only due to the absorption and scattering characteristics in living tissue, and the light emitted from the surface is observed by absorption and scattering within the depth range. The In the case of green (G) light, which has a wavelength longer than that of blue (B) light, it reaches deeper than the range where blue (B) light deepens, absorbs and scatters within that range, and exits from the surface. Light is observed. Still further, red (R) light having a wavelength longer than that of green (G) light reaches a deeper range.

体腔内組織51の通常観察時におけるRGB光は、図13に示すように、各波長域がオーバーラップしているために、
(1)B帯域光によりCCD21で撮像される撮像信号には図14に示すような浅層での組織情報を多く含む浅層及び中層組織情報を有するバンド画像が撮像され、
(2)また、G帯域光によりCCD21で撮像される撮像信号には図15に示すような中層での組織情報を多く含む浅層及び中層組織情報を有するバンド画像が撮像され、
(3)さらにR帯域光によりCCD21で撮像される撮像信号には図16に示すような深層での組織情報を多く含む中層及び深層組織情報を有するバンド画像が撮像される。
そして内視鏡装置本体105により、これらRGB撮像信号を信号処理することで、内視鏡画像としては所望あるいは自然な色再現の内視鏡画像を得ることが可能となる。
Since the RGB light during normal observation of the tissue 51 in the body cavity is overlapped with each other as shown in FIG.
(1) Band images having shallow layer and middle layer tissue information including a lot of tissue information in the shallow layer as shown in FIG.
(2) In addition, the image signal picked up by the CCD 21 with the G-band light is picked up with a shallow layer image including a lot of tissue information in the middle layer and a band image having the middle layer tissue information as shown in FIG.
(3) Further, a band image having middle layer and deep layer tissue information including a lot of tissue information in the deep layer as shown in FIG.
Then, the endoscope apparatus body 105 performs signal processing on these RGB imaging signals, so that it is possible to obtain an endoscopic image having a desired or natural color reproduction as an endoscopic image.

上述のマトリックス演算部436におけるマトリックス処理は、カラー画像信号に、上述のようにして予め生成された擬似バンドパスフィルタ(マトリックス)を用いて、分光画像信号を作成するものである。例えば図17に示すような所望の深層組織情報が抽出可能な離散的で狭帯域な分光特性の擬似バンドパスフィルタF1乃至F3を用いて、分光画像信号F1乃至F3が得られる。擬似バンドパスフィルタF1乃至F3は、図17に示すように、各波長域がオーバーラップしていないために、
(4)擬似バンドパスフィルタF3による分光画像信号F3には図18に示すような浅層での組織情報を有するバンド画像が撮像され、また、
(5)擬似バンドパスフィルタF2による分光画像信号F2には図19に示すような中層での組織情報を有するバンド画像が撮像され、さらに
(6)擬似バンドパスフィルタF1による分光画像信号F1には図20に示すような深層での組織情報を有するバンド画像が撮像されれる。
The matrix processing in the matrix calculation unit 436 is to create a spectral image signal by using the pseudo bandpass filter (matrix) generated in advance as described above for the color image signal. For example, spectral image signals F1 to F3 are obtained using pseudo bandpass filters F1 to F3 having discrete and narrow-band spectral characteristics capable of extracting desired deep tissue information as shown in FIG. As shown in FIG. 17, the pseudo bandpass filters F1 to F3 are not overlapped with each other.
(4) A band image having tissue information in a shallow layer as shown in FIG. 18 is captured in the spectral image signal F3 by the pseudo bandpass filter F3,
(5) A band image having tissue information in the middle layer as shown in FIG. 19 is captured in the spectral image signal F2 by the pseudo bandpass filter F2, and (6) the spectral image signal F1 by the pseudo bandpass filter F1 A band image having tissue information in the deep layer as shown in FIG. 20 is captured.

つぎに、このようにして得られた分光画像信号F1乃至F3に対して色調整部440は、最も単純な色変換の例として、分光画像信号F1をカラーチャンネルRchに、分光画像信号F2をカラーチャンネルGchに、分光画像信号F3をカラーチャンネルBchに、それぞれ割り付け、切換部439を介して、表示モニタ106に出力する。
色調整部440は、図21に示すように、3×3マトリックス回路61と、3×3マトリックス回路61前後に設けた3組のLUT62a,62b,62c,63a,63b,63cと、LUT62a,62b,62c,63a,63b,63cのテーブルデータや3×3マトリックス回路61の係数を変更する係数変更回路64と、を備えた色変換処理回路440aで構成されている
色変換処理回路440aに入力する分光画像信号F1乃至F3は、各バンドデータ毎にLUT62a,62b,62cにより逆γ補正や、非線形なコントラスト変換処理等が行われる。
Next, for the spectral image signals F1 to F3 obtained in this way, the color adjustment unit 440, as an example of the simplest color conversion, uses the spectral image signal F1 as a color channel Rch and the spectral image signal F2 as a color. The spectral image signal F3 is allocated to the channel Gch to the color channel Bch, and is output to the display monitor 106 via the switching unit 439.
Color adjusting section 440, as shown in FIG. 21, a 3 × 3 matrix circuit 61, 3 × 3 3 sets of LUTs provided before and after the matrix circuit 61, 62b, 62c, 63a, 63 b, and 63c, LUTs, 62b, 62c, 63a, 63b, are constituted by the color conversion processing circuit 440a with a coefficient changing circuit 64 for changing the coefficient table data and 3 × 3 matrix circuit 61 63c, a.
Spectral image signal F1 to F3 inputted to the color conversion processing circuit 440a is, LUTs for each band data, 62b, by the 62c Rigyaku γ correction and nonlinear contrast conversion processing is performed.

次に、3×3マトリックス回路61にて、色変換が行われた後、後段のLUT63a,63b,63cにてγ補正や、適当な階調変換処理が行われる。
これらLUT62a,62b,62c,63a,63b,63cのテーブルデータや3×3マトリックス回路61の係数を、係数変更回路64で変更することができる。
Next, after color conversion is performed in the 3 × 3 matrix circuit 61, γ correction and appropriate gradation conversion processing are performed in the subsequent LUTs 63a, 63b, and 63c.
The table data of these LUTs 62a, 62b, 62c, 63a, 63b, 63c and the coefficients of the 3 × 3 matrix circuit 61 can be changed by the coefficient changing circuit 64.

係数変更回路64による変更は、内視鏡101の操作部等に設けられた処理変換スイッチ(図示せず)からの制御信号に基づいて行われる
これら制御信号を受けた係数変更回路64は、予め色調整部440内に記憶されている係数データから適切なデータを呼び出し、このデータで、現在の回路係数を書き換える。
Change by the coefficient changing circuit 64 is performed based on the control signal from the processing conversion switch provided in the operation portion or the like of the endoscope 101 (not shown).
Upon receiving these control signals, the coefficient changing circuit 64 calls appropriate data from the coefficient data stored in the color adjustment unit 440 in advance, and rewrites the current circuit coefficient with this data.

次に具体的な色変換処理内容について述べる。式(22)に色変換式の一例を示す。
[数22]

Figure 0004500207
この式(22)による処理は、分光チャンネル画像Rch、Gch、Bchに分光画像信号F1乃至F3を波長の短い順に割り当てる色変換である。 Next, specific color conversion processing contents will be described. An example of the color conversion formula is shown in Formula (22).
[Equation 22]
Figure 0004500207
The processing according to the equation (22) is color conversion in which the spectral image signals F1 to F3 are assigned to the spectral channel images Rch, Gch, and Bch in order of decreasing wavelength.

これらカラーチャンネルRch、Gch、Bchによるカラー画像で観察した場合、例えぱ図22に示すような画像となる。太い血管が深い位置にあり、分光画像信号F3が反映され、カラーとしては青色系のパターンとして示される。中層付近にある血管網は分光画像信号F2が強く反映されるので、カラー画像としては赤色系のパターンとして示される。血管網の内、粘膜表面付近に存在するものは黄色系のパターンとして表現される。
とくに、この粘膜表面付近のパターンの変化は、早期病変の発見鑑別診断にとって重要である。しかし、黄色系のパターンは、背景粘膜とのコントラストが弱く、視認性が低いという傾向がある。
When observed with color images of these color channels Rch, Gch, and Bch, for example, an image as shown in FIG. 22 is obtained. A thick blood vessel is in a deep position, the spectral image signal F3 is reflected, and the color is shown as a blue pattern. Since the spectral image signal F2 is strongly reflected in the vascular network near the middle layer, the color image is shown as a red pattern. Those existing in the vicinity of the mucosal surface in the vascular network are expressed as a yellowish pattern.
In particular, this pattern change near the mucosal surface is important for early differential detection and diagnosis of lesions. However, yellow patterns tend to have low contrast with the background mucosa and low visibility.

そこで、この粘膜表面付近のパターンをより明瞭に再現するために、式(23)に示す変換が有効となる。
[数23]

Figure 0004500207
この式(23)による処理は、分光画像信号F1をある一定の比率で分光画像信号F2に混合し生成されたデータを新たに分光Gチャンネル画像Gchとする変換例であり、血管網などの吸収散乱体が深さ位置で異なることをより明確化することが可能となる。 Therefore, in order to reproduce the pattern near the mucosal surface more clearly, the conversion shown in Expression (23) is effective.
[Equation 23]
Figure 0004500207
The processing according to the equation (23) is a conversion example in which the spectral image signal F1 is mixed with the spectral image signal F2 at a certain ratio and the generated data is newly used as the spectral G channel image Gch. It becomes possible to further clarify that the scatterers are different in depth positions.

したがって、係数変更回路64を通じてマトリックス係数を調整することで、ユーザは表示効果を調整することが可能となる。動作としては、内視鏡101の操作部に設けられたモード切替スイッチ(図示せず)に連動して色変換処理回路440a内では、スルー動作から、マトリックス係数がデフォルト値に設定される。
ここでいうスルー動作とは、3×3マトリックス回路61には単位行列、LUT62a,62b,62c,63a,63b,63cは非変換テールを搭載した状態をいう。デフォルト値とは、マトリックス係数ωG,ωBに、例えばωG=0.2、ωB=0.8という設定値を与えるということである。
Accordingly, by adjusting the matrix coefficient through the coefficient changing circuit 64, the user can adjust the display effect. As an operation, the matrix coefficient is set to a default value from the through operation in the color conversion processing circuit 440a in conjunction with a mode change switch (not shown) provided in the operation unit of the endoscope 101.
The through operation here, the unit matrix is the 3 × 3 matrix circuit 61, referred LUTs, 62b, 62c, 63a, 63 b, the state 63c is equipped with a non-conversion tape b le. The default value means that the set values of ωG = 0.2 and ωB = 0.8 are given to the matrix coefficients ωG and ωB , for example.

そして、ユーザは内視鏡101の操作部等を操作して、この係数をωG=0.4、ωB=0.6などというように調整を行なう。LUT62a,62b,62c,63a,63b,63cには、必要に応じて逆γ補正テーブル、γ補正テーブルが適用される。 Then, the user operates the operation unit or the like of the endoscope 101 and adjusts the coefficient so that ωG = 0.4, ωB = 0.6, and the like. A reverse γ correction table and a γ correction table are applied to the LUTs 62a, 62b, 62c, 63a, 63b, and 63c as necessary.

色変換処理回路440aは3×3マトリックス回路61からなるマトリックス演算器により色変換するとしたが、これに限らず、数値演算プロセッサ(CPU)やLUTで色変換処理手段を構成してもよい。   Although the color conversion processing circuit 440a performs color conversion using a matrix computing unit including the 3 × 3 matrix circuit 61, the color conversion processing means may be configured by a numerical operation processor (CPU) or an LUT.

例えば、上記実施例では、3×3マトリックス回路61を中心とした構成により色変換処理回路440aを示したが、図23に示すように、色変換処理回路440aを各バンドに対応した3次元LUT65で置き換えても同様の効果を得ることができる。この場合、係数変更回路64は、内視鏡101の操作部等に設けられた処理変換スイッチ(図示せず)からの制御信号に基づいてテーブルの内容を変更する動作を行なう。 For example, in the above embodiment, the color conversion processing circuit 440a is shown with a configuration centered on the 3 × 3 matrix circuit 61. However, as shown in FIG. 23, the color conversion processing circuit 440a is replaced with a three-dimensional LUT 65 corresponding to each band. The same effect can be obtained by replacing with. In this case, the coefficient changing circuit 64 performs an operation of changing the contents of the table based on a control signal from a processing conversion switch (not shown) provided in the operation unit or the like of the endoscope 101.

なお、擬似バンドパスフィルタF1乃至F3のフィルタ特性は可視光域に限定されず、擬似バンドパスフィルタF1乃至F3の第1の変形例として、フィルタ特性を例えば図24に示すようなの離散的な分光特性の狭帯域としても良い。この第1の変形例のフィルタ特性は、生体表面の凹凸と極深層付近の吸収体を観察するために、F3を近紫外域に設定し、F1を近赤外域に設定することで、通常観察では得られない画像情報を得るのに好適である。   Note that the filter characteristics of the pseudo bandpass filters F1 to F3 are not limited to the visible light range. As a first modification of the pseudo bandpass filters F1 to F3, the filter characteristics are discrete spectrum as shown in FIG. It may be a narrow band of characteristics. The filter characteristic of the first modification is that normal observation is performed by setting F3 in the near ultraviolet region and F1 in the near infrared region in order to observe the irregularities on the surface of the living body and the absorber near the extreme deep layer. It is suitable for obtaining image information that cannot be obtained by.

また、擬似バンドパスフィルタF1乃至F3の第2の変形例として、図25に示すように擬似バンドパスフィルタF2の代わりに、フィルタ特性が短波長域で近接する2つの擬似バンドパスフィルタF3a、F3bとしても良い。これは、この付近の波長帯域が生体の極表層付近までしか深達しないことを利用して、吸収特性より散乱特性の微妙な差を映像化するのに好適である。医学上は、早期ガンなど粘膜表層付近の細胞配列の乱れを伴う疾患の識別診断に利用することが想定される。
さらに、擬似バンドパスフィルタF1乃至F3の第3の変形例として、図26に示すように所望の層組織情報が抽出可能な離散的な分光特性の2バンドの狭帯域のフィルタ特性の2つの擬似バンドパスフィルタF2、F3をマトリックス演算部436生成するようにしてもよい。
As a second modification of the pseudo bandpass filters F1 to F3, two pseudo bandpass filters F3a and F3b whose filter characteristics are close in the short wavelength region are used instead of the pseudo bandpass filter F2 as shown in FIG. It is also good. This is suitable for visualizing a subtle difference in the scattering characteristic rather than the absorption characteristic by utilizing the fact that the wavelength band in the vicinity reaches only near the extreme surface layer of the living body. Medically, it is assumed to be used for identification diagnosis of diseases such as early cancer, which are accompanied by disorder of cell arrangement near the mucosal surface layer.
Furthermore, as a third modification of the pseudo bandpass filters F1 to F3, two pseudo-bandwidth narrowband filter characteristics of two discrete spectral characteristics from which desired layer structure information can be extracted as shown in FIG. the band-pass filter F2, F3 may be generated by the matrix computing section 436.

図26の擬似バンドパスフィルタF2、F3の場合、色調整部440は、狭帯域の分光画像観察時での画像のカラー化において、分光チャンネル画像Rch←分光画像信号F2、分光チャンネル画像Gch←分光画像信号F3、分光チャンネル画像Bch←分光画像信号F3として、RGB3チャンネルのカラー画像を生成する。
すなわち、分光画像信号F2及び分光画像信号F3に対して、色調整部440は以下の式(24)によりRGB3チャンネルのカラー画像(Rch、Gch、Bch)を生成する。
In the case of the pseudo bandpass filters F2 and F3 in FIG. 26, the color adjustment unit 440 performs spectral channel image Rch ← spectral image signal F2, spectral channel image Gch ← spectral spectrum in colorization of an image during narrowband spectral image observation. An RGB three-channel color image is generated as an image signal F3 and a spectral channel image Bch ← spectral image signal F3.
That is, for the spectral image signal F2 and the spectral image signal F3, the color adjustment unit 440 generates RGB three-channel color images (Rch, Gch, Bch) by the following equation (24).

[数24]

Figure 0004500207
例えば、h11=1、h12=0、h21=0、h22=1.2、h31=0、h32=0.8とする。
例えば分光画像F3は中心波長が主に415nmに相当する画像、分光画像F2は中心波長が主に540nmに相当する画像である。 [Equation 24]
Figure 0004500207
For example, h11 = 1, h12 = 0, h21 = 0, h22 = 1.2, h31 = 0, h32 = 0.8.
For example, the spectral image F3 is an image whose central wavelength mainly corresponds to 415 nm, and the spectral image F2 is an image whose central wavelength mainly corresponds to 540 nm.

また、例えば、分光画像F3は中心波長が主に415nmに相当する画像、分光画像F2は中心波長が主に540nmに相当する画像、分光画像F1は中心波長が主に600nmに相当する画像として演算されていても、色調整部440でF1画像を使用せずに、F2、F3画像でカラー画像を構成することもできる。この場合、式(24)の代りに以下の式(24’)のマトリックス演算を適用すればよい。   Further, for example, the spectral image F3 is calculated as an image whose central wavelength mainly corresponds to 415 nm, the spectral image F2 is an image whose central wavelength mainly corresponds to 540 nm, and the spectral image F1 is an image whose central wavelength mainly corresponds to 600 nm. Even if the color adjustment unit 440 does not use the F1 image, the color image can be composed of the F2 and F3 images. In this case, a matrix operation of the following equation (24 ′) may be applied instead of the equation (24).

Rch=h11×F1+h12×F2+h13×F3
Gch=h21×F1+h22×F2+h23×F3
Bch=h31×F1+h32×F2+h33×F3 …(24’)
上記式(24’)のマトリックス演算で、h11、h13、h21、h22、h31、h32の係数を0として、他係数を所定の数値に設定すればよい。
Rch = h11 × F1 + h12 × F2 + h13 × F3
Gch = h21 × F1 + h22 × F2 + h23 × F3
Bch = h31 × F1 + h32 × F2 + h33 × F3 (24 ′)
In the matrix calculation of the above equation (24 ′), the coefficients of h11, h13, h21, h22, h31, and h32 may be set to 0, and the other coefficients may be set to predetermined numerical values.

このように本実施例によれば、通常の電子内視鏡画像(通常画像)を生成するためのカラー画像信号を利用して、擬似的な狭帯域フィルタを生成することにより、分光画像用の光学的波長狭帯域バンドパスフィルタを用いずに、血管パターン等の所望の深部の組織情報を有する分光画像を得ることができると共に、色調整部440の色変換処理回路440aのパラメータを分光画像に応じて設定することで、狭帯域の分光画像観察時の深達度情報という特徴を生かした表現方法を実現することが可能となり、生体組織の組織表面近くの所望の深部の組織情報を効果的に分離して視認することできる。   As described above, according to the present embodiment, a pseudo narrowband filter is generated by using a color image signal for generating a normal electronic endoscopic image (normal image). A spectral image having tissue information of a desired deep portion such as a blood vessel pattern can be obtained without using an optical wavelength narrow-band bandpass filter, and the parameters of the color conversion processing circuit 440a of the color adjustment unit 440 are converted into spectral images. By setting it accordingly, it becomes possible to realize an expression method that makes use of the feature of depth-of-depth information when observing a narrow-band spectral image, and it is possible to effectively obtain tissue information of a desired deep part near the tissue surface of a living tissue. It can be visually recognized separately.

また、特に、色調整部440において、
(1)2バンドの分光画像の場合、例えば415nmに相当する画像をカラーチャンネルGch、Bchに、例えば540nmに相当する画像をカラーチャンネルRchに割り付けた場合、
あるいは、
(2)3バンドの分光画像の場合、例えば415nmに相当する画像をカラーチャンネルBchに、例えば445nmに相当する画像をカラーチャンネルGchに、例えば500nmに相当する画像をカラーチャンネルRchに割り付けた場合、次の画像効果が得られる。
In particular, in the color adjustment unit 440,
(1) In the case of a two-band spectral image, for example, when an image corresponding to 415 nm is allocated to the color channels Gch and Bch, for example, an image corresponding to 540 nm is allocated to the color channel Rch,
Or
(2) In the case of a three-band spectral image, for example, an image corresponding to 415 nm is assigned to the color channel Bch, an image equivalent to 445 nm, for example, is assigned to the color channel Gch, and an image equivalent to 500 nm, for example, is assigned to the color channel Rch. The following image effects can be obtained.

・生体組織の最表層の上皮、あるいは粘膜が低彩度の色で再現され、最表層の毛細血管が低輝度、つまり暗線として再現されることで、最表層の毛細血管の高い視認性が得られる。
・同時に、毛細血管より深い位置の血管が色相方向で青方向へ回転して再現されるため、最表層の毛細血管との識別がより容易になる。
また、前記チャンネルの割り当て方法によれば、大腸内視鏡検査において通常観察下では黄色調で観測される残渣および胆汁が赤色調で観測される。
・ The epithelium or mucous membrane of the outermost layer of living tissue is reproduced with low saturation color, and the outermost capillaries are reproduced with low brightness, that is, dark lines, so that high visibility of the outermost capillaries is obtained. It is done.
At the same time, since the blood vessel at a deeper position than the capillary is rotated and reproduced in the blue direction in the hue direction, it is easier to distinguish from the outermost capillary.
Further, according to the channel assignment method, residues and bile observed in a yellow tone under normal observation in a colonoscopy are observed in a red tone.

図27はマトリックス演算部の他の構成例を示すブロック図である。
マトリックス演算部436以外の構成は、図4と同様である。図27に示すマトリックス演算部436の構成が、図8に示したマトリックス演算部436の構成と異なるのみである。異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。
図8では、マトリックス演算を電子回路による、いわゆるハードウェア処理により行うこととしたが、図27では、このマトリックス演算を数値データ処理(プログラムを用いたソフトウェアによる処理)により行う。
FIG. 27 is a block diagram showing another configuration example of the matrix calculation unit.
The configuration other than the matrix calculation unit 436 is the same as that in FIG. The configuration of the matrix calculation unit 436 shown in FIG. 27 is only different from the configuration of the matrix calculation unit 436 shown in FIG. Only different points will be described, and the same components will be denoted by the same reference numerals and description thereof will be omitted.
In Figure 8, the matrix operation by the electronic circuit, it is assumed that performed by so-called hardware processing, in FIG. 2 7, performed by the matrix calculation numerical data processing (processing by software using a program).

図27に示すマトリックス演算部436は、RGBそれぞれのカラー画像信号を記憶しておく画像メモリ50を有する。また、式(21)に示されたマトリックス「A’」のそれぞれの値が数値データとして記憶されている係数レジスタ51を有する。
係数レジスタ51と画像メモリ50は、乗算器53a乃至53iに接続され、さらに乗算器53a、53d、53gは、乗算器54aに接続され、乗算器54aの出力が、図4における積算部438aと接続される。また、乗算器53b、53e、53hは、乗算器54bに接続され、その出力は積算部438bと接続される。また、乗算器53c、53f、53iは、乗算器54cに接続され、その出力が積算部438cと接続される。
A matrix calculation unit 436 shown in FIG. 27 has an image memory 50 for storing RGB color image signals. The coefficient register 51 stores each value of the matrix “A ′” shown in the equation (21) as numerical data.
The coefficient register 51 and the image memory 50 are connected to the multipliers 53a to 53i, the multipliers 53a, 53d, and 53g are connected to the multiplier 54a, and the output of the multiplier 54a is connected to the integrating unit 438a in FIG. Is done. The multipliers 53b, 53e, and 53h are connected to the multiplier 54b, and the output thereof is connected to the integrating unit 438b. The multipliers 53c, 53f, and 53i are connected to the multiplier 54c, and the output thereof is connected to the integrating unit 438c.

本実施例の動作としては、入力されたRGB画像データは、一度画像メモリ50に記憶される。次に、所定の記憶装置(図示しない)に保存されている演算プログラムにより、係数レジスタ51からマトリックス「A’」の各係数が画像メモリ50に記憶されたRGB画像データと、乗算器で乗算される。   As an operation of this embodiment, the input RGB image data is once stored in the image memory 50. Next, each coefficient of the matrix “A ′” from the coefficient register 51 is multiplied with the RGB image data stored in the image memory 50 by a multiplier by an arithmetic program stored in a predetermined storage device (not shown). The

なお、図27には、R信号と各マトリックス係数が乗算器53a乃至53cで乗算される例が示されている。また、同図のように、G信号と各マトリックス係数が乗算器53d乃至53fで乗算され、B信号と各マトリックス係数が乗算器53g乃至53iで乗算される。マトリックス係数とそれぞれ乗算されたデータは、乗算器53a、53d、53gの出力が、乗算器54aで、乗算器53b、53e、53hの出力が、乗算器54bで、また、乗算器53c、53f、53iの出力は、乗算器54cでそれぞれ乗算される。乗算器54aの出力は、積算部438aに送られる。また、乗算器54b、乗算器54cの出力は、それぞれ積算部438b、438cに送られる。   FIG. 27 shows an example in which the R signal and each matrix coefficient are multiplied by multipliers 53a to 53c. Also, as shown in the figure, the G signal and each matrix coefficient are multiplied by multipliers 53d to 53f, and the B signal and each matrix coefficient are multiplied by multipliers 53g to 53i. The data multiplied by the matrix coefficients are respectively output from the multipliers 53a, 53d and 53g by the multiplier 54a, by the multipliers 53b, 53e and 53h by the multiplier 54b and by the multipliers 53c, 53f, The outputs of 53i are respectively multiplied by the multiplier 54c. The output of the multiplier 54a is sent to the integrating unit 438a. The outputs of the multiplier 54b and the multiplier 54c are sent to the integrating units 438b and 438c, respectively.

図27の構成例によると、図8の構成例の場合と同様、血管パターンが鮮明に表示される分光画像を得ることができる。
また、図27の構成例では、図8の構成例のようにハードウェアによってマトリックス処理を行うのではなく、ソフトウェアを用いて行うため、例えば、各マトリックス係数の変更などに迅速に対応することができる。
また、マトリックス係数を結果の値のみ、即ち、マトリックス「A’」としてではなく、S(λ)、H(λ)、R(λ)、G(λ)、B(λ)別に記憶しておき、必要に応じて演算することによりマトリックス「A’」を求めて使用するとした場合には、この中の1つの要素のみを変更することができ、利便性が向上する。例えば、照明光の分光特性S(λ)のみの変更等が可能である。
According to the configuration example of FIG. 27, a spectral image in which a blood vessel pattern is clearly displayed can be obtained as in the configuration example of FIG.
In the configuration example of FIG. 27, matrix processing is not performed by hardware as in the configuration example of FIG. 8, but is performed using software. For example, it is possible to respond quickly to changes in matrix coefficients, for example. it can.
In addition, matrix coefficients are stored not only as a result value, that is, as a matrix “A ′”, but also as S (λ), H (λ), R (λ), G (λ), and B (λ). When the matrix “A ′” is obtained and used by performing calculations as necessary, only one of the elements can be changed, and convenience is improved. For example, it is possible to change only the spectral characteristic S (λ) of the illumination light.

図28は本発明の実施例2に係る電子内視鏡装置の構成を示すブロック図である。
実施例2は、実施例1とほとんど同様であるので、実施例1と異なる点のみ説明し、同一の構成要素には同一符号を付して説明は省略する。
本実施例は、実施例1とは、照明光量の制御を行う光源部41が異なるものである。本実施例では、光源部41から照射される光量の制御をチョッパーではなく、ランプ15の電流制御により行う。具体的には、図28に示されたランプ15に光量制御部としての電流制御部18が設けられている。
FIG. 28 is a block diagram illustrating a configuration of the electronic endoscope apparatus according to the second embodiment of the present invention.
Since the second embodiment is almost the same as the first embodiment, only differences from the first embodiment will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.
This example is the same as the actual Example 1, the light source unit 41 for controlling the illumination light amount is different. In this embodiment, the amount of light emitted from the light source unit 41 is controlled not by the chopper but by the current control of the lamp 15. Specifically, the lamp 15 shown in FIG. 28 is provided with a current control unit 18 as a light amount control unit.

本実施例の動作としては、制御部42により、RGBのいずれのカラー画像信号も飽和状態とならないように、ランプ15に流れる電流の制御を行う。これにより、ランプ15は発光のために使用される電流が制御されるため、その光量は、その電流の大きさに応じて変化する。
なお、その他の動作に関しては、実施例1と同様であるため、ここでは省略する。
In the operation of this embodiment, the control unit 42 controls the current flowing through the lamp 15 so that none of the RGB color image signals are saturated. Thereby, since the current used for light emission in the lamp 15 is controlled, the amount of light changes according to the magnitude of the current.
Since other operations are the same as those in the first embodiment, they are omitted here.

本実施例によると、実施例1と同様、血管パターンが鮮明に表示される分光画像を得ることができる。また、本実施の形態では、実施例1のようにチョッパーを用いた光量制御方法に比して、制御方法が簡単であるという利点がある。   According to the present embodiment, as in the first embodiment, a spectral image in which the blood vessel pattern is clearly displayed can be obtained. Further, the present embodiment has an advantage that the control method is simpler than the light amount control method using the chopper as in the first embodiment.

図4の生体観測装置では、分光画像取得時に、光を所定の時間間隔で遮断し光量制御する図5のチョッパー16を用いて、光量を少なくするように制御している。すなわち、適切なダイナミックレンジでR,G,B全ての色分解信号が撮影されるように光源からの光量を少なくするようにしている。
本発明の実施例3では、図4の生体観測装置におけるチョッパー16の代替として、絞りバネ、シャッターなどの可動遮光部材や、メッシュターレット、NDフィルタなどの遮光フィルタを使用した例を説明する。
In biological observation apparatus shown in FIG. 4, when the spectral image acquisition, using the Chi Yoppa 16 of Figure 5 for light quantity control block light at a predetermined time interval, is controlled so as to reduce the amount of light. That is, it in the appropriate dynamic range R, G, so that all of the color separation signals B to reduce the amount of light from the light source to be captured.
In the third embodiment of the present invention, an example will be described in which a movable light shielding member such as a diaphragm spring and a shutter, and a light shielding filter such as a mesh turret and an ND filter are used as an alternative to the chopper 16 in the biological observation apparatus of FIG.

図29は絞りバネ66の例を示している。絞りバネ66は、中心軸67を中心に回転し、先端部にはある大きさに集光した光束68を遮断する遮断部69と、出射光量を制御する切り欠き70を有する絞り羽根部71により、光を所定の時間間隔で遮断し光量制御する。
この絞りバネ66は、光源部41の出射光量を制御する調光の絞りバネと兼用としても良いし、別途遮断する機構としてもう一つ設けても良い。
FIG. 29 shows an example of the diaphragm spring 66 . A diaphragm spring 66 rotates around a central axis 67 , and has a blocking portion 69 for blocking a light beam 68 condensed to a certain size at a tip portion and a diaphragm blade portion 71 having a notch 70 for controlling the amount of emitted light. The light is blocked at a predetermined time interval to control the amount of light.
The diaphragm spring 66 may be used as the shared and the diaphragm spring dimming controlling the emitted light quantity of the light source unit 41 may be another provided as a mechanism for separately blocked.

図30はシャッター66Aの例を示している。シャッター66Aは、絞りバネ66の例と同様な形をしているが、遮断部69に絞りバネ66の切り欠き70がない構造となっている。シャッター66Aの動作は、全開か全閉かの2つの動作状態を制御することにより、光を所定の時間間隔で遮断し光量制御する。
図31はメッシュターレット73の例を示している。回転板74に開けた孔に格子間隔の大きいメッシュ75やそれより格子間隔の小さいメッシュ76が溶接などで取り付けられ、回転中心軸77を中心に回転する。この時、メッシュの長さ、メッシュの粗さ、位置等を変え、光を所定の時間間隔で遮断し光量制御する。
FIG. 30 shows an example of the shutter 66A . The shutter 66 A is has the same shape as the example of the diaphragm spring 66, and has a notch 70 is no structure of the diaphragm spring 66 to the shut-off unit 69. The operation of the shutter 66A controls the light quantity by controlling two operation states of full open and full close to block light at a predetermined time interval.
FIG. 31 shows an example of the mesh turret 73 . A mesh 75 having a large lattice interval or a mesh 76 having a smaller lattice interval is attached to the hole formed in the rotating plate 74 by welding or the like, and rotates around the rotation center shaft 77 . At this time, the length of the mesh, the roughness of the mesh, the position, etc. are changed, and the light is blocked at a predetermined time interval to control the light quantity.

図32及び図33は本発明の実施例4に係わり、図32は電子内視鏡装置の構成を示すブロック図、図33は図32のCCDの電荷蓄積時間を示す図である。
実施例4は、実施例1とほとんど同様であるので、実施例1と異なる点のみ説明し、同一の構成要素には同一符号をつけ説明は省略する。
本実施例は、主として実施例1とは光源部41およびCCD21が異なるものである。実施例1では、CCD21に図6で示したカラーフィルタが設けられ、このカラーフィルタによってカラー信号を生成するいわゆる同時式であったのに対し、本実施例4では、照明光を1フレームの期間にRGBの順に照明してカラー信号を生成するいわゆる面順次式を用いる。
32 and 33 relate to the fourth embodiment of the present invention, FIG. 32 is a block diagram showing the configuration of the electronic endoscope apparatus, and FIG. 33 is a diagram showing the charge accumulation time of the CCD of FIG.
Since the fourth embodiment is almost the same as the first embodiment, only differences from the first embodiment will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.
The present embodiment is mainly different from the first embodiment in the light source section 41 and the CCD 21. In the first embodiment, the color filter shown in FIG. 6 is provided in the CCD 21 and a color signal is generated by the color filter. In contrast, in the fourth embodiment, the illumination light is transmitted for a period of one frame. In addition, a so-called frame sequential method is used in which color signals are generated in the order of RGB.

図32に示すように、本実施例における光源部41は、ランプ15の前面に調光を行う絞り25が設けられ、絞り25のさらに前面には、R,G,Bの面順次光を出射するために1フレームで例えば1回転するRGB回転フィルタ23が設けられている。また、絞り25は、光量制御部としての絞り制御部24に接続されており、絞り制御部24からの制御信号に応じて、ランプ15から照射された光束のうち透過させる光束を制限し、光量を変化させることで、調光可能としている。また、RGB回転フィルタ23は、RGB回転フィルタ制御部26に接続され、所定の回転速度で回転する。   As shown in FIG. 32, the light source unit 41 in the present embodiment is provided with a diaphragm 25 that performs dimming on the front surface of the lamp 15, and emits R, G, B surface sequential light further on the front surface of the diaphragm 25. For this purpose, an RGB rotation filter 23 that rotates, for example, once in one frame is provided. The diaphragm 25 is connected to a diaphragm control unit 24 serving as a light amount control unit, and restricts a light beam to be transmitted among light beams emitted from the lamp 15 in accordance with a control signal from the diaphragm control unit 24. Dimming is possible by changing. The RGB rotation filter 23 is connected to the RGB rotation filter control unit 26 and rotates at a predetermined rotation speed.

本実施例における光源部の動作としては、ランプ15から出力された光束が、絞り25で所定の光量に制限され、絞り25を透過した光束は、RGB回転フィルタ23を介することによって、所定の時間毎にR・G・Bそれぞれの照明光として、光源部から出力される。また、それぞれの照明光は、被検体内で反射し、CCD21で受光される。CCD21で得られた信号は、照射される時間に応じて、内視鏡装置本体105に設けられた切換部(図示しない)で振り分けられ、S/H回路433a乃至433cにそれぞれ入力される。つまり、光源部41からRのフィルタを介した照明光が照射された場合には、CCD21で得られた信号は、S/H回路433aに入力されることになる。なお、その他の動作については実施例1と同様であるため、ここでは省略する。   As the operation of the light source unit in the present embodiment, the light beam output from the lamp 15 is limited to a predetermined light amount by the diaphragm 25, and the light beam that has passed through the diaphragm 25 passes through the RGB rotation filter 23 for a predetermined time. The light is output from the light source unit as R, G, and B illumination light each time. Each illumination light is reflected within the subject and received by the CCD 21. Signals obtained by the CCD 21 are distributed by a switching unit (not shown) provided in the endoscope apparatus main body 105 according to the irradiation time, and input to the S / H circuits 433a to 433c, respectively. That is, when the illumination light is irradiated from the light source unit 41 through the R filter, the signal obtained by the CCD 21 is input to the S / H circuit 433a. Since other operations are the same as those in the first embodiment, they are omitted here.

本実施例4によると、実施例1と同様、血管パターンが鮮明に表示される分光画像を得ることができる。また、本実施例4では、実施例1と異なり、いわゆる面順次方式によるメリットを享受することができる。なお、このメリットとは、例えば後述する図34の変形例のようなものが挙げられる。
また、上述の実施例1では、RGBカラー信号の飽和を避けるために、照明光量(光源部からの光量)を制御・調節している。これに対し、本実施例4では、CCD21の電子シャッターを調整する方法を採用している。CCD21では、一定時間内に入射した光強度に比例した電荷が蓄積し、その電荷量を信号としている。この蓄積時間に相当するのが、電子シャッターと呼ばれるものである。この電子シャッターをCCDドライブ回路431にて調節することで、電荷の蓄積量即ち信号量を調整することができる。図33に示すように、電荷蓄積時間を1フレーム毎に順次変化させた状態でのRGBカラー画像を得ることで、同様の分光画像を得ることができる。即ち、前述のそれぞれの実施例において、絞り25による照明光量の制御は通常画像を得るために用い、分光画像を得る際には、電子シャッターを変化させることにより、R,G,Bカラー信号の飽和を避けることが可能である。
According to the fourth embodiment, as in the first embodiment, a spectral image in which the blood vessel pattern is clearly displayed can be obtained. Also, in the fourth embodiment, unlike the first embodiment, it is possible to enjoy the advantages of the so-called frame sequential method. This merit includes, for example, a modification of FIG. 34 described later.
In the first embodiment described above, the illumination light amount (light amount from the light source unit) is controlled and adjusted in order to avoid saturation of the RGB color signals. On the other hand, in the fourth embodiment, a method of adjusting the electronic shutter of the CCD 21 is adopted. In the CCD 21, charges proportional to the intensity of light incident within a predetermined time are accumulated, and the amount of charges is used as a signal. The accumulation time corresponds to what is called an electronic shutter. By adjusting the electronic shutter with the CCD drive circuit 431, the amount of accumulated charge, that is, the signal amount can be adjusted. As shown in FIG. 33, a similar spectral image can be obtained by obtaining an RGB color image in a state where the charge accumulation time is sequentially changed for each frame. That is, in each of the above-described embodiments, the control of the amount of illumination light by the diaphragm 25 is used for obtaining a normal image, and when obtaining a spectral image, the electronic shutter is changed to change the R, G, B color signals. Saturation can be avoided.

図34は本発明の実施例4の他の例であるCCDの電荷蓄積時間を示す図である。本例は、図33の例と同様に、面順次方式を利用し、かつ、この面順次方式の利点を生かしたものである。すなわち、図33の例での電子シャッター制御による電荷蓄積時間にR,G,B毎に重み付けを加えることで、分光画像データの生成を簡素化することができるものである。図34の例では、CCD21の電荷蓄積時間を1フレーム期間内にR,G,B毎に変化させることができるCCDドライブ回路431を有していることになる。その他は、図33の例と同様である。   FIG. 34 is a diagram showing the charge accumulation time of a CCD which is another example of Embodiment 4 of the present invention. Similar to the example of FIG. 33, this example uses the frame sequential method and takes advantage of this frame sequential method. That is, the generation of spectral image data can be simplified by adding weights to the charge accumulation time by the electronic shutter control in the example of FIG. 33 for each of R, G, and B. In the example of FIG. 34, a CCD drive circuit 431 that can change the charge accumulation time of the CCD 21 for each of R, G, and B within one frame period is provided. Others are the same as the example of FIG.

図34の例の動作としては、RGB回転フィルタ23を介してそれぞれの照明光が照射された場合に、CCD21における電子シャッターによる電荷蓄積時間を変化させる。ここで、照明光がR,G,Bのそれぞれの場合におけるCCD21の電荷蓄積時間をtdr、tdg、tdb(なお同図ではBのカラー画像信号は蓄積時間を設けていないためtdbは省略されている)とする。例えば、(21)式にて示されたマトリックス処理を行う場合のF3擬似フィルタ画像は、通常内視鏡にて得られるRGB画像から、
[数25]
F3=−0.050R−1.777G+0.829B …(25)
の演算を行うので、図33でのRGB別の電子シャッター制御による電荷蓄積時間を
[数26]
tdr:tdg:tdb=0.050:1.777:0.829 …(26)
となるように設定すれば良い。また、マトリックス演算部では、単にRとG成分のみ反転させた信号とB成分を加算する。これにより、実施例1乃至実施例3と同様の分光画像を得ることができる。
As an operation of the example of FIG. 34, when each illumination light is irradiated through the RGB rotation filter 23, the charge accumulation time by the electronic shutter in the CCD 21 is changed. Here, tdr, tdg, and tdb are the charge accumulation times of the CCD 21 when the illumination light is R, G, and B (in this figure, since the B color image signal has no accumulation time, tdb is omitted. ). For example, the F3 pseudo filter image in the case of performing the matrix processing represented by the equation (21) is obtained from an RGB image obtained by a normal endoscope,
[Equation 25]
F3 = -0.050R-1.777G + 0.829B (25)
Therefore, the charge accumulation time by RGB electronic shutter control in FIG.
tdr: tdg: tdb = 0.050: 1.777: 0.829 (26)
It can be set to be. Further, the matrix calculation unit simply adds the signal obtained by inverting only the R and G components and the B component. Thereby, the same spectral image as Example 1 thru | or Example 3 can be obtained.

図33及び図34の実施例4によると、血管パターンが鮮明に表示される分光画像を得ることができる。また、図34の例では、カラー信号の作成に面順次方式を利用しており、さらに電子シャッターを用いてカラー信号毎に電荷蓄積時間を異ならせることができるため、これにより、マトリックス演算部においては、単に加算、差分処理を行うだけでよく、処理を簡略化することが可能である。すなわち、電子シャッター制御でマトリクス演算相当の動作を行え、処理を簡略化することができる。   According to Example 4 of FIGS. 33 and 34, a spectral image in which a blood vessel pattern is clearly displayed can be obtained. Further, in the example of FIG. 34, the frame sequential method is used to create the color signal, and the charge accumulation time can be made different for each color signal by using an electronic shutter. In this case, it is only necessary to perform addition and difference processing, and the processing can be simplified. That is, an operation equivalent to matrix calculation can be performed by electronic shutter control, and the processing can be simplified.

なお、実施例1乃至3の光量制御と実施例4(図33又は図34の例)の電子シャッター(電荷蓄積時間)の制御とを同時に行うように構成できることは勿論である。また、前述したように、通常観察画像はチョッパー等による照明光量の制御で行い、分光観察画像を得る際には、電子シャッターによる制御を行うようにしてもよいことは勿論である。
次に、実施例5乃至実施例7として、通常画像の生体信号及び/または分光画像の分光信号の信号レベルを増幅させる信号増幅手段及びその増幅制御について説明する。
It goes without saying that the light amount control in the first to third embodiments and the electronic shutter (charge accumulation time) in the fourth embodiment (example in FIG. 33 or FIG. 34) can be performed at the same time. Further, as described above, the normal observation image may be controlled by controlling the amount of illumination light by a chopper or the like, and of course, when obtaining the spectral observation image, control by an electronic shutter may be performed.
Next, as Example 5 to Example 7, signal amplification means for amplifying the signal level of the biological signal of the normal image and / or the spectral signal of the spectral image and its amplification control will be described.

本発明の実施例5の生体観測装置の構成は、図4,図28又は図32が適用される。そして、それらの構成におけるAGC(オートゲインコントロール)は、通常画像観察時には、図4,図28又は図32における輝度信号処理部434及び色信号処理処理部435それぞれの信号増幅手段であるAGC回路(図示略)にて行われる。分光画像観察時でのAGCは、図4,図28又は図32におけるマトリックス演算部436内の信号増幅手段であるAGC回路(例えば図8の増幅器32a乃至32cを可変増幅器としたもの)にて行われる。   4, 28, or 32 is applied to the configuration of the living body observation apparatus according to the fifth embodiment of the present invention. The AGC (auto gain control) in these configurations is an AGC circuit (signal amplifying means of each of the luminance signal processing unit 434 and the color signal processing processing unit 435 in FIG. 4, FIG. (Not shown). The AGC at the time of spectral image observation is performed by an AGC circuit (for example, the amplifiers 32a to 32c in FIG. 8 are variable amplifiers) which is a signal amplifying means in the matrix calculation unit 436 in FIG. 4, FIG. 28 or FIG. Is called.

そして、通常画像観察時と分光画像観察時とで、増幅動作の制御、即ちAGCの制御を変化させる。AGCの制御とは、増幅機能の増幅レベル、増幅機能の動作速度(追従速度)、或いは、増幅機能の動作/非動作(オン/オフと言ってもよい)のことである。   Then, the control of the amplification operation, that is, the control of the AGC is changed between the normal image observation and the spectral image observation. AGC control refers to the amplification level of the amplification function, the operation speed (follow-up speed) of the amplification function, or the operation / non-operation (also referred to as on / off) of the amplification function.

増幅機能の動作/非動作(オン/オフ)については、通常画像観察時には、AGCを動作させない場合が多い。これは通常光での観察では光量が十分あるためである。一方、分光画像観察時には、光量が不足するのでAGCを動作させるようにする。   Regarding the operation / non-operation (on / off) of the amplification function, the AGC is often not operated during normal image observation. This is because the amount of light is sufficient for observation with normal light. On the other hand, when observing a spectral image, the amount of light is insufficient, so that the AGC is operated.

増幅機能の動作速度(追従速度)については、例えば、カメラと被写体となる情景が離れていくと、徐々に光量が少なくなって暗くなっていく。最初は調光機能が働き、暗くなったとこで光量を上げようとするが、調光動作が追従できない。追従できなくなったところで、AGCが動作する。そのAGC動作のスピードが重要で、追従速度が速すぎると、暗くなったときにノイズが出て困る。速すぎず遅すぎない適宜なスピードが重要である。通常画像観察時はAGC動作はかなりゆっくりでもよいが、分光画像観察時は直ぐに暗くなるのでAGC動作は速い目に追従させてやる必要がある。これにより、表示出力される信号の画質を改善することができる。   With regard to the operating speed (follow-up speed) of the amplification function, for example, as the camera and the subject scene move away, the amount of light gradually decreases and becomes darker. The dimming function works at first and tries to increase the amount of light when it gets dark, but the dimming operation cannot follow. The AGC operates when it cannot follow. The speed of the AGC operation is important, and if the follow-up speed is too fast, noise will be generated when it gets dark. An appropriate speed that is neither too fast nor too slow is important. During normal image observation, the AGC operation may be quite slow, but during spectroscopic image observation, it becomes dark immediately, so the AGC operation needs to follow the fast eye. As a result, the image quality of the signal to be displayed and output can be improved.

本発明の実施例6の生体観測装置の構成は、図4,図28又は図32が適用される。そして、それらの構成におけるAGC(オートゲインコントロール)は、通常画像観察時には、図4,図28又は図32における輝度信号処理部434及び色信号処理処理部435それぞれの信号増幅手段であるAGC回路(図示略)にて行われる。分光画像観察時でのAGCは、図4,図28又は図32におけるマトリックス演算部436内の信号増幅手段であるAGC回路(例えば図8の増幅器32a乃至32cを可変増幅器としたもの)にて行われる。   4, 28, or 32 is applied to the configuration of the living body observation apparatus according to the sixth embodiment of the present invention. The AGC (auto gain control) in these configurations is an AGC circuit (signal amplifying means of each of the luminance signal processing unit 434 and the color signal processing processing unit 435 in FIG. 4, FIG. (Not shown). The AGC at the time of spectral image observation is performed by an AGC circuit (for example, the amplifiers 32a to 32c in FIG. 8 are variable amplifiers) which is a signal amplifying means in the matrix calculation unit 436 in FIG. 4, FIG. 28 or FIG. Is called.

本実施例6では、信号増幅手段であるAGC回路は、チョッパー16、ランプ電流制御部18、或いは、絞り制御部24等の光量制御手段と連動して動作するよう制御される。   In the sixth embodiment, the AGC circuit as the signal amplifying means is controlled to operate in conjunction with the light amount control means such as the chopper 16, the lamp current control unit 18, or the aperture control unit 24.

前記連動動作の制御は、例えば、光量制御手段おいて出射光量が最大となった後にはじめて、信号増幅手段であるAGC回路が機能するよう動作させる。すなわち、光量制御手段が最大光量の制御とされて(例えば調光羽が開ききって)、光量が最大になっても画面が暗いときにはじめてAGCを機能させる制御を行う。これにより、光量制御の範囲を広くすることができる。   The interlock operation is controlled so that the AGC circuit, which is the signal amplifying means, functions only after the emitted light quantity becomes maximum in the light quantity control means, for example. That is, the light quantity control means is set to control the maximum light quantity (for example, the dimming blades are fully opened), and the AGC is controlled to function only when the screen is dark even when the light quantity becomes maximum. Thereby, the range of light quantity control can be widened.

本発明の実施例7の生体観測装置の構成は、図4,図28又は図32が適用される。そして、それらの構成におけるAGC(オートゲインコントロール)は、通常画像観察時には、図4,図28又は図32における輝度信号処理部434及び色信号処理処理部435それぞれの信号増幅手段であるAGC回路(図示略)にて行われる。分光画像観察時でのAGCは、図4,図28又は図32におけるマトリックス演算部436内の信号増幅手段であるAGC回路(例えば図8の増幅器32a乃至32cを可変増幅器としたもの)にて行われる。   4, 28, or 32 is applied to the configuration of the living body observation apparatus according to the seventh embodiment of the present invention. The AGC (auto gain control) in these configurations is an AGC circuit (signal amplifying means of each of the luminance signal processing unit 434 and the color signal processing processing unit 435 in FIG. 4, FIG. (Not shown). The AGC at the time of spectral image observation is performed by an AGC circuit (for example, the amplifiers 32a to 32c in FIG. 8 are variable amplifiers) which is a signal amplifying means in the matrix calculation unit 436 in FIG. 4, FIG. 28 or FIG. Is called.

通常画像と分光画像を同時に表示する場合(RGBから分光画像は推定されるので同時表示も可能である)、CCD飽和を考えて、光量は減光されている場合がある。例えば、通常画像はCCDの飽和を抑えるために光量を落としていることがある。この場合、通常画像は当然暗くなっている。一方、分光画像については、細部を観察できるように適切なダイナミックレンジ内で調整される。従って、通常画像と分光画像を同時に表示する場合には、そのままだと、通常画像が暗いままになるので、通常画像の明るさを同時表示用に調整して上げて出力する。画像出力の増幅は、信号増幅手段であるAGC回路で電気的にゲインを上げることによって行う。これにより、同時表示の際の画質を改善することができる。   When displaying a normal image and a spectral image at the same time (the spectral image is estimated from RGB and can be displayed simultaneously), the amount of light may be reduced in consideration of CCD saturation. For example, a normal image may have a reduced amount of light to suppress CCD saturation. In this case, the normal image is naturally dark. On the other hand, the spectral image is adjusted within an appropriate dynamic range so that details can be observed. Therefore, when displaying the normal image and the spectral image at the same time, if the image is left as it is, the normal image remains dark. Therefore, the brightness of the normal image is adjusted for simultaneous display and output. Amplification of the image output is performed by electrically increasing the gain with an AGC circuit which is a signal amplifying means. Thereby, the image quality in the simultaneous display can be improved.

次に、実施例8乃至実施例11を参照して画質改善について説明する。   Next, image quality improvement will be described with reference to Examples 8 to 11.

本発明の実施例8の生体観測装置の構成は、図35が適用される。本実施例8は、広帯域輝度信号を分光画像の輝度成分に重み付け加算し、明るさとS/Nの向上を図るものである。
図35において、電子内視鏡装置100は、スコープ101、内視鏡装置本体105、表示モニタ106を有している。内視鏡装置本体105は、主に光源部41、制御部42、本体処理装置43から構成されている。本体処理装置43には、CCD21を駆動するためのCCDドライブ回路431が設けられ、通常画像を得るための信号回路系と、分光画像を得るための信号回路系を有する。
FIG. 35 is applied to the configuration of the living body observation apparatus according to the eighth embodiment of the present invention. In the eighth embodiment, the brightness and S / N are improved by weighting and adding the broadband luminance signal to the luminance component of the spectral image.
35, the electronic endoscope apparatus 100 includes a scope 101, an endoscope apparatus main body 105, and a display monitor 106. The endoscope apparatus main body 105 mainly includes a light source section 41, a control section 42, and a main body processing apparatus 43. The main body processing device 43 is provided with a CCD drive circuit 431 for driving the CCD 21 and has a signal circuit system for obtaining a normal image and a signal circuit system for obtaining a spectral image.

通常画像を得るための信号回路系は、CCD21で得られた信号のサンプリング等を行いRGB信号を生成するS/H回路433a乃至433c、S/H回路433a乃至433cの出力に接続され、色信号の生成を行う色信号処理部435を有する。
一方、分光画像を得るための信号回路系として、S/H回路433a乃至433cの出力にマトリックス演算部436が設けられ、RGB信号に対して所定のマトリックス演算が行われる。
The signal circuit system for obtaining a normal image is connected to the outputs of the S / H circuits 433a to 433c and the S / H circuits 433a to 433c, which sample the signals obtained by the CCD 21 and generate RGB signals, and provide color signals. A color signal processing unit 435 for generating the.
On the other hand, as a signal circuit system for obtaining a spectral image, a matrix calculation unit 436 is provided at the output of the S / H circuits 433a to 433c, and a predetermined matrix calculation is performed on the RGB signals.

色信号処理部435の出力とマトリックス演算部436の出力とは、切換部450を介してホワイトバランス処理(以下WB)回路451、γ補正回路452、及び色変換回路(1)453に供給し、Y信号、R−Y信号、B−Y信号を生成し、さらに後述の強調された輝度信号YEH、R−Y信号、B−Y信号を生成して、色変換回路(2)455に供給し、R,G,B出力としてを表示モニタ106に送られる。   The output of the color signal processing unit 435 and the output of the matrix calculation unit 436 are supplied to the white balance processing (hereinafter referred to as WB) circuit 451, the γ correction circuit 452, and the color conversion circuit (1) 453 via the switching unit 450, Y signal, RY signal and BY signal are generated, and further emphasized luminance signal YEH, RY signal and BY signal, which will be described later, are generated and supplied to the color conversion circuit (2) 455. , R, G, B output to the display monitor 106.

ところで、光学フィルタを具備せずに分光画像観察(NBI観察)を実施する際には、本体処理装置(プロセッサ)43内部の処理系にて、通常観察画像とは別に、個別に分光画像を生成するマトリックス演算部436を要する。しかしながら、このような構成にて通常観察画像と分光画像を個別に生成する構成だと、ホワイトバランス処理(WB)やγ補正、強調回路なども個別に2系統に持つ必要があり、回路規模が増大してしまう。   By the way, when performing spectral image observation (NBI observation) without providing an optical filter, a separate spectral image is generated separately from the normal observation image by the processing system inside the main body processing device (processor) 43. Matrix calculation unit 436 is required. However, if the normal observation image and the spectroscopic image are individually generated with such a configuration, it is necessary to have two systems for white balance processing (WB), γ correction, enhancement circuit, etc. It will increase.

又、明るさを向上させる為に電気的なゲインアップを実施すると、分光画像におけるS/Nが劣化してしまう為、複数枚の画像を撮像して積算して信号成分を大きくしS/N比を向上させる方法(例えば特開2003−93336号公報における積算部438a〜438cがこれに相当している)が提案されているが、複数枚の画像を取得する為には、高い周波数でCCDを駆動する必要が有り、技術的に困難であった。   Further, if the electrical gain is increased to improve the brightness, the S / N in the spectral image deteriorates. Therefore, a plurality of images are captured and integrated to increase the signal component. A method for improving the ratio (for example, the integration units 438a to 438c in Japanese Patent Application Laid-Open No. 2003-93336 corresponds to this) has been proposed. In order to acquire a plurality of images, a CCD is used at a high frequency. It was technically difficult to drive.

そこで、上記問題を解決するために、本発明の実施例8では、図35に示すように以下の構成を追加している。
すなわち、
(1) 通常観察画像と分光画像を生成する際に、以下の回路a)〜c)は共通に使用する構成とする。a)WB回路451、b)γ補正回路452、c)強調回路454。
(2) 明るさとS/Nを向上させるために、広帯域輝度信号生成部444を設けて、CCDの出力信号からS/Nの劣化していない広帯域輝度信号(YH)を生成し、分光画像の輝度成分Yとの重み付け加算を実施する。
Therefore, in order to solve the above problem, in the eighth embodiment of the present invention, the following configuration is added as shown in FIG.
That is,
(1) When generating the normal observation image and the spectral image, the following circuits a) to c) are used in common. a) WB circuit 451, b) gamma correction circuit 452, c) enhancement circuit 454.
(2) In order to improve brightness and S / N, a broadband luminance signal generation unit 444 is provided to generate a broadband luminance signal (YH) in which S / N is not deteriorated from the output signal of the CCD. Weighted addition with the luminance component Y is performed.

つまり、上記広帯域輝度信号(YH)と、色変換部(1)453にて生成された分光画像(F1,F2,F3)における輝度信号(Y)について、それぞれ重み付け回路(445, 446)にて重み付けを実施して、加算部447にて加算を実施し、加算後の輝度信号について、強調回路454により輪郭補正を実施する。即ち、広帯域輝度信号生成部444と、重み付け回路445,446と、加算部447とは、画質調整部を構成している。輪郭補正された輝度信号YEHは色変換部(2)455に供給され、その後、色変換部(2)455により、再度RGBに変換されて、表示モニタ106に出力される。 That is, the broadband luminance signal (YH) and the luminance signal (Y) in the spectral image (F1, F2, F3) generated by the color conversion unit (1) 453 are respectively weighted by the weighting circuits (445, 446). Weighting is performed, addition is performed by the adder 447, and contour correction is performed by the enhancement circuit 454 for the luminance signal after the addition. That is, the broadband luminance signal generation unit 444, the weighting circuits 445 and 446, and the addition unit 447 constitute an image quality adjustment unit. The luminance signal Y EH whose contour has been corrected is supplied to the color conversion unit (2) 455, and is then converted again to RGB by the color conversion unit (2) 455 and output to the display monitor 106.

上記重み付け回路(445, 446)における重み付け係数は、観察モードや接続されるCCDの画素数に応じて切り替えることが可能であり、分光画像のコントラスト劣化が問題の無い範囲で任意に設定することが可能、例えば、重み付け回路445の重み係数をα、重み付け回路446の重み係数をβとすると、以下の方法が考えられる。
A)通常観察画像の表示時:α=0、β=1
B)CCDタイプA接続時における分光画像の表示時:α=0.5、β=0.5
C)CCDタイプB接続時における分光画像の表示時:α=1、β=0
本実施例8の構成による効果は、複数枚の画像を取得することなく、明るさとS/Nを向上することが可能となること、又、重み付けの係数は、接続CCDの種類により最適化が可能であるため、各CCDの画素数や分光特性に応じて、コントラスト劣化の影響が無い範囲で最適化が可能であること、である。
The weighting coefficients in the weighting circuits (445, 446) can be switched according to the observation mode and the number of connected CCD pixels, and can be arbitrarily set within a range where there is no problem in contrast degradation of the spectral image. Possible, for example, if the weighting factor of the weighting circuit 445 is α and the weighting factor of the weighting circuit 446 is β, the following method can be considered.
A) When displaying a normal observation image: α = 0, β = 1
B) Spectral image display when CCD type A is connected: α = 0.5, β = 0.5
C) Spectral image display when CCD type B is connected: α = 1, β = 0
The effect of the configuration of the eighth embodiment is that brightness and S / N can be improved without acquiring a plurality of images, and the weighting coefficient can be optimized depending on the type of connected CCD. Since it is possible, optimization is possible within a range not affected by contrast degradation according to the number of pixels and spectral characteristics of each CCD.

本発明の実施例9の生体観測装置の構成は、図36又は図37が適用される。本実施例9は、S/Nの改善を図るものである。
このS/N比改善の方法とは、図2に示されるように、照明光の照射を通常画像(一般的なカラー画像)の1フィールド(1フレーム)中に数回(例えばn回、nは2以上の整数)に分けて照射する(照射強度をそれぞれの回で変化させても良い。図2においては、I0乃至Inで示されている。なお、これは照明光の制御のみで実現可能である。)これにより、1回の照射強度を小さくすることができ、RGB信号のいずれもがそれぞれ飽和状態となるのを抑えることができる。また、数回に分割された画像信号は、後段でn枚分の加算を行う。これにより、信号成分を大きくしてS/N比を向上させることができる。
36 or 37 is applied to the configuration of the living body observation apparatus according to the ninth embodiment of the present invention. The ninth embodiment is intended to improve S / N.
As shown in FIG. 2, the method of improving the S / N ratio is that illumination light is irradiated several times (for example, n times, n times) in one field (one frame) of a normal image (general color image). (I may be an integer greater than or equal to 2) (irradiation intensity may be changed each time. In FIG. 2, it is indicated by I0 to In. This is realized only by controlling illumination light. In this way, it is possible to reduce the intensity of one irradiation, and it is possible to suppress the saturation of any of the RGB signals. Further, the image signal divided into several times is added for n sheets in the subsequent stage. Thereby, a signal component can be enlarged and S / N ratio can be improved.

前述したように、光学フィルタを具備せずにNBI観察を実施する際には、明るさとS/Nを改善する為に、1フィールド期間内に複数回の撮像を行うことにより複数枚(n)の画像を撮像する構成となっており、後段処理系にて前記複数枚の画像を加算することにより、信号成分を大きくしてS/N比を向上させることができる。   As described above, when performing NBI observation without providing an optical filter, in order to improve brightness and S / N, a plurality of images (n) are obtained by performing imaging a plurality of times within one field period. In this configuration, the signal component can be increased and the S / N ratio can be improved by adding the plurality of images in the subsequent processing system.

しかしながら、上記構成に示す様に1フィールド期間内に複数回の撮像を実施する為には、以下の問題が有る。
(1)CCDの画素数が多くなればなるほど駆動周波数が高くなるため、本体処理装置(プロセッサ)に駆動回路を持っている構成では、CCDまでの接続ケーブルを高いドライブ能力を持つ回路にて駆動する必要があり、技術的な難易度が高い。
(2)駆動周波数が高くなるほど、不要な放射電磁界成分も高周波となり、EMC(電磁波ノイズ)対策も困難となる。
However, there are the following problems in order to perform imaging a plurality of times within one field period as shown in the above configuration.
(1) Since the drive frequency increases as the number of CCD pixels increases, the main unit processor (processor) has a drive circuit, and the connection cable to the CCD is driven by a circuit with high drive capability. Technical difficulty is high.
(2) The higher the driving frequency, the higher the unnecessary radiated electromagnetic field component, and the more difficult it is to take EMC (electromagnetic wave noise) countermeasures.

上記問題を解決するために、本発明の実施例9では、以下の構成を追加する。
すなわち、例えば図4の構成に対して、図36に示すように、CCDドライブ回路431を本体処理装置(プロセッサ)43からスコープ101側に移設して、CCDドライブ回路431−CCD21間の接続ケーブルを極力短くする構成とする。
これにより、ケーブル長が短くなるので、駆動波形の歪みが小さくできる。不要なEMC放射が少なくなる。また、CCDドライブ回路431がスコープ101側にあるので、駆動回路に要求されるドライブ能力が低く設定できる。つまり、ドライブ能力が低くてもよく、コスト的にも有利である。
In order to solve the above problem, the following configuration is added in the ninth embodiment of the present invention.
That is, for example, with respect to the configuration of FIG. 4, as shown in FIG. 36, the CCD drive circuit 431 is moved from the main body processing unit (processor) 43 to the scope 101 side, and the connection cable between the CCD drive circuit 431 and the CCD 21 is connected. The configuration is made as short as possible.
Thereby, since the cable length is shortened, the distortion of the drive waveform can be reduced. Unnecessary EMC radiation is reduced. Further, since the CCD drive circuit 431 is on the scope 101 side, the drive capability required for the drive circuit can be set low. That is, the drive capability may be low, which is advantageous in terms of cost.

また、例えば図4の構成に対して、図37に示すように、CCDドライブ回路431は本体処理装置(プロセッサ)43に内蔵させるが、プロセッサ43からは正弦波に近い波形にて駆動パルスを出力し、スコープ101先端のCCD近傍に設けた波形整形回路450にて波形の整形を行い、CCD21を駆動する構成とする。
これにより、プロセッサ43からのCCD駆動パルスが正弦波に近い波形で出力可能な為、EMC特性がよい。つまり、不要輻射電磁界を抑えることができる。
For example, as shown in FIG. 37, the CCD drive circuit 431 is built in the main body processing device (processor) 43 as shown in FIG. 37, and the processor 43 outputs a drive pulse with a waveform close to a sine wave. The waveform is shaped by a waveform shaping circuit 450 provided near the CCD at the tip of the scope 101, and the CCD 21 is driven.
As a result, the CCD drive pulse from the processor 43 can be output with a waveform close to a sine wave, so that the EMC characteristics are good. That is, an unnecessary radiated electromagnetic field can be suppressed.

本発明の実施例10の生体観測装置の構成は、図4,図28又は図32が適用される。そして、それらの構成において、ノイズ抑制回路は、分光画像観察時に必要なマトリックス演算部436内若しくはマトリックス演算部436の前段の入力部に設けられる。   4, 28, or 32 is applied to the configuration of the living body observation apparatus according to the tenth embodiment of the present invention. In these configurations, the noise suppression circuit is provided in the matrix calculation unit 436 required at the time of spectral image observation or in the input unit before the matrix calculation unit 436.

分光画像観察時では、波長の帯域制限を行うため、通常画像観察時と比べて照明光量が小さい状態になることがある。その場合には、照明光量が小さいことによる明るさの不足分を撮像された画像を増幅することで電気的に補正できるが、単にAGC回路による増幅率アップ等では暗い画像部分でのノイズが目立つ画像になってしまう。そこで、ノイズ抑制回路を通すことにより、暗部領域におけるノイズを抑制しつつ、明部領域のコントラスト低下を低減する。ノイズ抑制回路については、特願2005-82544号の図5に記載されている。   During spectral image observation, the wavelength band is limited, so that the amount of illumination light may be smaller than that during normal image observation. In that case, the lack of brightness due to the small amount of illumination can be electrically corrected by amplifying the captured image. However, simply increasing the amplification factor by the AGC circuit makes noise in the dark image portion conspicuous. It becomes an image. Therefore, by passing the noise suppression circuit, the contrast in the bright area is reduced while the noise in the dark area is suppressed. The noise suppression circuit is described in FIG. 5 of Japanese Patent Application No. 2005-82544.

図38に示すノイズ抑制回路36は、面順次のR,G,Bの画像データを扱う図32に示すような生体観測装置に適用される回路であって、ノイズ抑制回路には、面順次のR,G,Bの画像データが入力される。
図38において、ノイズ抑制回路36は、撮像手段であるCCDにより撮像された画像データに対して、複数の空間フィルタによるフィルタ処理を行うフィルタ処理部81と、前記画像データの局所領域における明るさを算出する明るさ算出手段としての平均画素算出部82と、前記フィルタ処理部81の出力に対して、前記フィルタ処理部81の出力及び/又は前記平均画素算出部82の出力に応じた重み付けを行う重み付け部83と、前記重み付け部83の出力に対して、ノイズ抑制処理を施した画像データを生成するための逆フィルタ処理を行う逆フィルタ処理部85と、を備えて構成されている。
The noise suppression circuit 36 shown in FIG. 38 is a circuit applied to a biological observation apparatus as shown in FIG. 32 that handles frame-sequential R, G, and B image data. R, G, B image data is input.
In FIG. 38, the noise suppression circuit 36 performs filtering processing 81 for performing filtering processing using a plurality of spatial filters on image data captured by a CCD serving as an imaging unit, and brightness in a local region of the image data. The average pixel calculation unit 82 as a brightness calculation unit to be calculated and the output of the filter processing unit 81 are weighted according to the output of the filter processing unit 81 and / or the output of the average pixel calculation unit 82. A weighting unit 83 and an inverse filter processing unit 85 that performs inverse filter processing for generating image data subjected to noise suppression processing on the output of the weighting unit 83 are configured.

フィルタ処理部81におけるp個のフィルタ係数は、R,G,Bの入力画像データ毎に切り替えられるもので、フィルタ係数格納部84から読み出されて各フィルタA1〜Apに設定される。
平均画素値算出部82は、フィルタ処理部81で空間フィルタ処理に用いるのと同じ入力画像データのn×n画素の小領域(局所領域)の画素値に対して平均値Pavを算出する。その平均値Pav及びフィルタ処理部81でのフィルタ処理結果の値に応じてルックアップテーブル(LUT)86から重み付け係数Wを読み出して重み付け部83の重み付け回路W1、W2、…、Wpに設定する。
図38の回路により、画像データの局所領域の明るさに応じて空間フィルタによるノイズ抑制処理の重み付けを変えることにより、画像データのコントラストの低下を回避しながらノイズを抑制する。
The p filter coefficients in the filter processing unit 81 are switched for each of R, G, and B input image data, and are read from the filter coefficient storage unit 84 and set to the filters A1 to Ap.
The average pixel value calculation unit 82 calculates an average value Pav with respect to pixel values of a small region (local region) of n × n pixels of the same input image data used in the spatial filter processing by the filter processing unit 81. The weighting coefficient W is read from the look-up table (LUT) 86 according to the average value Pav and the value of the filter processing result in the filter processing unit 81, and set to the weighting circuits W1, W2,.
With the circuit in FIG. 38, noise is suppressed while avoiding a decrease in contrast of the image data by changing the weighting of the noise suppression processing by the spatial filter according to the brightness of the local region of the image data.

本発明の実施例11の生体観測装置は、図4,図28又は図32が適用される。そして、それらの構成においては、マトリックス演算部436内に図示しないが空間周波数のフィルタ(LPF)を配設しているが、この空間周波数特性を、分光画像表示するときに少し変更する制御を行う、例えば帯域を広げるように制御を行う。   FIG. 4, FIG. 28 or FIG. 32 is applied to the living body observation apparatus of Example 11 of the present invention. In these configurations, a spatial frequency filter (LPF) (not shown) is provided in the matrix calculation unit 436, but this spatial frequency characteristic is controlled to be slightly changed when a spectral image is displayed. For example, control is performed to widen the band.

制御部42は、本体処理装置(プロセッサ)43内のマトリックス演算部436に設けた空間周波数のフィルタ特性(LPF特性)の設定を変更する、具体的には、制御部42は、分光画像観察時にLPFの帯域特性を広帯域化するように変更する制御を行う。このような制御動作については、特願2004−25978号の図4に記載されている。 The control unit 42 changes the setting of the spatial frequency filter characteristic (LPF characteristic) provided in the matrix calculation unit 436 in the main body processing device (processor) 43. Specifically, the control unit 42 Control is performed to change the band characteristics of the LPF so as to widen the band. Such a control operation is described in FIG. 4 of Japanese Patent Application No. 2004-25 0 978.

ここで、生体観測装置が、現在、通常画像観察モードにあるとする。
この状態において、術者は、内視鏡101の挿入部102を患者の体腔内に挿入することにより、内視鏡検査を行うことができる。体腔内における患部等の検査対象組織の表面の血管の走行状態等をより詳しく観察しようと思う場合には、術者は、図示しないモード切替スイッチを操作する。
モード切替スイッチが操作されると、制御部42は、光源部41及び本体処理装置43の動作モードを分光画像観察モードの設定状態に変更する。
具体的には、制御部42は、光源部41に対しては、光量を増加させるように光量制御を行い、本体処理装置43に対しては、マトリックス演算部436内の空間周波数のLPFの帯域特性を広帯域化するように変更し、また切換部439を制御してマトリックス演算部436を含む分光画像処理系に切り換える等の変更設定を行う。
このような変更設定を行うことにより、分光画像観察モードにおいて、生体組織の表層付近における毛細血管の走行状態を識別し易い状態で表示することができる。
また、LPFの信号通過の帯域特性を広帯域化しているので、毛細血管の走行状態や、特定色Gの照明光のもとで撮像したGの色信号により得られるのと等価な、表層付近に近い血管走行状態などの分解能(解像度)を向上することができ、診断がし易い画質の良い画像が得られる。
このように動作する本実施例によれば、通常画像観察モードにおいて、既存の同時式によるカラー撮像機能を保持し、かつ分光画像観察モードにおいても本体処理装置43内の各部の係数等の設定を変更する等の処理特性を変更することにより、分光画像観察モードによる観察機能を十分に確保することができる。
Here, it is assumed that the biological observation apparatus is currently in the normal image observation mode.
In this state, the surgeon can perform an endoscopic examination by inserting the insertion portion 102 of the endoscope 101 into the body cavity of the patient. When the operator wants to observe in more detail the running state of the blood vessels on the surface of the tissue to be examined such as the affected part in the body cavity, the operator operates a mode changeover switch (not shown).
When the mode switch is operated, the control unit 42 changes the operation mode of the light source unit 41 and the main body processing device 43 to the setting state of the spectral image observation mode.
Specifically, the control unit 42 performs light amount control so as to increase the light amount for the light source unit 41, and the spatial frequency LPF band in the matrix calculation unit 436 for the main body processing device 43. The characteristic is changed so as to broaden the band, and change setting such as switching to the spectral image processing system including the matrix calculation unit 436 by controlling the switching unit 439 is performed.
By performing such a change setting, it is possible to display the running state of the capillary blood vessels in the vicinity of the surface layer of the biological tissue in the spectral image observation mode in an easy-to-identify state.
In addition, since the band characteristics of LPF signal passage are widened, near the surface layer equivalent to that obtained by the running state of capillaries and the G color signal imaged under the illumination light of the specific color G. It is possible to improve the resolution (resolution) of a nearby blood vessel running state and the like and obtain an image with good image quality that is easy to diagnose.
According to this embodiment that operates in this way, the existing simultaneous color imaging function is maintained in the normal image observation mode, and the coefficients and the like of each part in the main body processing device 43 are set even in the spectral image observation mode. By changing the processing characteristics such as changing, it is possible to sufficiently secure the observation function in the spectral image observation mode.

本発明の実施例12の生体観測装置の構成は、図4,図28又は図32が適用される。そして、それらの構成においては、分光画像観察時であることを示すNBI表示を行う。
(1) 表示モニタ106に表示する場合
表示モニタ106上に、通常画像観察時は表示無し、分光画像観察時はNBIの文字を表示する。或いは、文字表示に代えて、モニタの例えば四隅のいずれかに○等の印を表示してもよい。
4, 28, or 32 is applied to the configuration of the living body observation apparatus according to the twelfth embodiment of the present invention. In those configurations, NBI display indicating that the spectral image is being observed is performed.
(1) When displaying on the display monitor 106 On the display monitor 106, there is no display during normal image observation, and NBI characters are displayed during spectral image observation. Alternatively, a mark such as ◯ may be displayed at any one of the four corners of the monitor instead of the character display.

(2) 内視鏡装置本体105のフロントパネルに表示する場合…図39、図40、図41参照
操作パネル上に、単にLEDを設け、通常画像観察時は消灯、分光画像観察時は点灯する。具体的には、図39に示すように、NBIの文字の近傍にLED点灯部91を設け、通常画像観察時は消灯、分光画像観察時は点灯する。
図40に示すように、NBI文字自体92が点灯、あるいは、NBI文字以外の文字周辺部93が点灯するようにLEDを設け、通常画像観察時は消灯、分光画像観察時は点灯する。
図41に示すように、NBI文字自体94が点灯、あるいは、NBI文字以外の文字周辺部95が点灯するようにLEDを設け、通常画像観察時は緑色消灯、分光画像観察時は白色点灯等、色分け点灯する。
(2) When displaying on the front panel of the endoscope apparatus main body 105: see FIG. 39, FIG. 40, and FIG. 41 An LED is simply provided on the operation panel. The LED is turned off during normal image observation and turned on during spectral image observation. . Specifically, as shown in FIG. 39, an LED lighting unit 91 is provided in the vicinity of the NBI character, and is turned off during normal image observation and turned on during spectral image observation.
As shown in FIG. 40, an LED is provided so that the NBI character itself 92 is turned on or the character peripheral portion 93 other than the NBI character is turned on, and is turned off during normal image observation and turned on during spectral image observation.
As shown in FIG. 41, an LED is provided so that the NBI character itself 94 is lit, or a character peripheral portion 95 other than the NBI character is lit, and the green light is turned off during normal image observation, white light is emitted during spectral image observation, etc. Lights with different colors.

(3) 集中コントローラの画面上に表示する場合
生体観測装置を複数の装置からなるシステムで組み、それらを集中コントロールするコントローラー画面上に、図39、図40、図41と同様に表示する。或いは、分光画像観察モードの切替スイッチ(即ちNBIスイッチ)自体が、通常画像観察時は黒文字、分光画像観察時は反転文字で表示する。
(4) 上記以外の表示場所としては、キーボード、フットスイッチがある。
(3) When displaying on the screen of the centralized controller The biological observation apparatus is assembled by a system composed of a plurality of devices, and displayed on the controller screen for centrally controlling them in the same manner as in FIG. 39, FIG. 40, and FIG. Alternatively, the spectral image observation mode changeover switch (that is, the NBI switch) itself displays black characters during normal image observation and reverse characters during spectral image observation.
(4) Other display locations include keyboards and foot switches.

図42及び図43は本発明の実施例13の生体観測装置に係り、図42は色フィルタの配列を示す図、図43は図42に色フィルタの分光感度特性を示す図である。
実施例13の生体観測装置は、実施例1とほとんど同様であるので、実施例1と異なる点のみ説明し、同一の構成要素には同一符号をつけ説明は省略する。
本実施例は、主として実施例1とCCD21に設けられたカラーフィルタが異なるものである。実施例1では、図6で示したようにRGB原色型カラーフィルタが用いられるのに対し、本実施例では、補色型のカラーフィルタを用いる。
42 and 43 relate to the living body observation apparatus according to the thirteenth embodiment of the present invention, FIG. 42 is a diagram showing the arrangement of color filters, and FIG. 43 is a diagram showing the spectral sensitivity characteristics of the color filters.
Since the living body observation apparatus according to the thirteenth embodiment is almost the same as the first embodiment, only differences from the first embodiment will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.
In the present embodiment, the color filter provided in the CCD 21 is mainly different from that in the first embodiment. In the first embodiment, an RGB primary color filter is used as shown in FIG. 6, whereas in the present embodiment, a complementary color filter is used.

この補色型フィルタの配列は図42に示されているように、G、Mg、Ye、Cyの各要素から構成される。なお、原色型カラーフィルタの各要素と補色型カラーフィルタの各要素の関係は、Mg=R+B、Cy=G+B、Ye=R+Gとなる。
この場合、CCD21の全画素読み出しを行い、各色フィルタからの画像を信号処理又は画像処理することになる。また、原色型カラーフィルタについての(1)式〜(8)式及び(19)式〜(21)式について、補色型カラーフィルタの場合に変形すると、以下の(27)式より(33)式のようになる。但し、目標とする狭帯域のバンドパスフィルタの特性は同じとする。
As shown in FIG. 42, the complementary color filter array includes G, Mg, Ye, and Cy elements. The relationship between each element of the primary color filter and each element of the complementary color filter is Mg = R + B, Cy = G + B, Ye = R + G.
In this case, all the pixels of the CCD 21 are read out, and the image from each color filter is subjected to signal processing or image processing. Further, when the equations (1) to (8) and (19) to (21) for the primary color filter are modified in the case of a complementary color filter, the following equation (33) is obtained from the following equation (27): become that way. However, the characteristics of the target narrow-band bandpass filter are the same.

[数27]

Figure 0004500207
[数28]
Figure 0004500207
[数29]
kG=(∫S(λ)×H(λ)×G(λ)dλ)−1
kMg=(∫S(λ)×H(λ)×Mg(λ)dλ)−1
kCy=(∫S(λ)×H(λ)×Cy(λ)dλ)−1
kYe=(∫S(λ)×H(λ)×Ye(λ)dλ)−1 …(29)
[数30]
Figure 0004500207
[数31]
Figure 0004500207
[数32]
Figure 0004500207
[数33]
Figure 0004500207
また、図43に、補色型カラーフィルタを用いた場合の分光感度特性、目標とするバンドパスフィルタ及び上記(27)式乃至(33)式により求められ擬似バンドパスフィルタの特性を示す。
なお、補色型フィルタを用いる場合には、図4で示されるS/H回路は、それぞれR・G・Bではなく、G・Mg・Cy・Yeについて行われることは言うまでもない。 [Equation 27]
Figure 0004500207
[Equation 28]
Figure 0004500207
[Equation 29]
kG = (∫S (λ) × H (λ) × G (λ) dλ) −1
kmg = (∫S (λ) × H (λ) × Mg (λ) dλ) −1
kCy = (∫S (λ) × H (λ) × Cy (λ) dλ) −1
kYe = (∫S (λ) × H (λ) × Ye (λ) dλ) −1 (29)
[Equation 30]
Figure 0004500207
[Equation 31]
Figure 0004500207
[Formula 32]
Figure 0004500207
[Equation 33]
Figure 0004500207
FIG. 43 shows the spectral sensitivity characteristics when the complementary color filter is used, the target bandpass filter, and the characteristics of the pseudo bandpass filter obtained by the above equations (27) to (33).
When the complementary color filter is used, it goes without saying that the S / H circuit shown in FIG. 4 is performed for G, Mg, Cy, and Ye instead of R, G, and B, respectively.

本実施例によると、実施例1と同様、血管パターンが鮮明に表示される分光画像を得ることができる。また、本実施例では、補色型カラーフィルタを用いた場合のメリットを享受することができる。   According to the present embodiment, as in the first embodiment, a spectral image in which the blood vessel pattern is clearly displayed can be obtained. Further, in this embodiment, it is possible to enjoy the advantages of using a complementary color filter.

以上、本発明における各実施例について説明を行ったが、本発明は、上記実施例を種々組みあせて用いても良く、また趣旨を一脱しない範囲での変形も考えられる。
例えば、既に述べた全ての実施例に対して、臨床中その他のタイミングにて操作者自ら新規の擬似バンドパスフィルタを作成し、臨床に適用することもできる。即ち、実施例1で示すと図4中の制御部42に、マトリックス係数を演算・算出することのできる設計部(図示しない)を設ける。
The embodiments of the present invention have been described above. However, the present invention may be used by combining various embodiments described above, and modifications may be made without departing from the spirit of the present invention.
For example, for all the embodiments described above, a new pseudo band-pass filter can be created by the operator himself / herself at other timings in the clinic and applied to the clinic. That is, in the first embodiment, a design unit (not shown) capable of calculating and calculating matrix coefficients is provided in the control unit 42 in FIG.

これにより、図3に示す内視鏡装置本体105に設けられたキーボードを介して条件を入力することで、操作者が知りたい分光画像を得るのに適した擬似バンドパスフィルタを新規に設計するとともに、算出されたマトリックス係数((19)式及び(31)式のマトリックス「A」の各要素に相当)に補正係数((20)式及び(32)式のマトリックス「K」の各要素に相当)を施した最終マトリックス係数((21)式及び(33)式のマトリックス「A’」の各要素に相当)を図4中のマトリックス演算部436に設定することで、即時臨床に適用することができる。   Thus, a pseudo bandpass filter suitable for obtaining a spectral image that the operator wants to know is newly designed by inputting conditions via the keyboard provided in the endoscope apparatus main body 105 shown in FIG. In addition, the calculated matrix coefficient (corresponding to each element of the matrix “A” in the expressions (19) and (31)) is corrected to each element of the matrix “K” in the expressions (20) and (32). 4), the final matrix coefficients (corresponding to the elements of the matrix “A ′” in the equations (21) and (33)) are set in the matrix calculation unit 436 in FIG. be able to.

図44に、適用までの流れを示す。この流れについて詳しく説明すると、まず、操作者は、目標となるバンドパスフィルタの情報(例えば波長帯域等)をキーボード等を介して入力する。これにより、すでに所定の記憶装置等に記憶されている光源・カラーフィルタの特性等と共に、マトリックス「A’」が算出され、図43に示されるように、目標とするバンドパスフィルタの特性と共に、そのマトリックス「A’」による演算結果(擬似バンドパスフィルタ)が、スペクトル図としてモニタ上に表示される。   FIG. 44 shows a flow until application. This flow will be described in detail. First, the operator inputs information about a target bandpass filter (for example, a wavelength band) via a keyboard or the like. As a result, the matrix “A ′” is calculated together with the characteristics of the light source / color filter already stored in a predetermined storage device or the like, and as shown in FIG. 43, along with the characteristics of the target bandpass filter, The calculation result (pseudo bandpass filter) by the matrix “A ′” is displayed on the monitor as a spectrum diagram.

操作者はこの演算結果を確認した後、新たに作成されたマトリックス「A’」を使用する場合には、その設定を行い、このマトリックス「A’」を用いて実際の内視鏡画像が生成される。また、これと共に新たに作成されたマトリックス「A’」は、所定の記憶装置に記憶され、操作者の所定の操作に応じて、再度使用することができる。
これにより、操作者は既存のマトリックス「A’」にとらわれず、自らの経験等により新たなバンドパスフィルタを生成することができ、特に研究用として使用される場合に、効果が高いものである。
本発明は、上述した実施例に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
After confirming the calculation result, the operator performs setting when using the newly created matrix “A ′”, and generates an actual endoscopic image using this matrix “A ′”. Is done. In addition, the newly created matrix “A ′” is stored in a predetermined storage device and can be used again according to a predetermined operation by the operator.
As a result, the operator can generate a new band-pass filter based on his / her own experience etc. without being bound by the existing matrix “A ′”, and is particularly effective when used for research purposes. .
The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.

本発明の実施例1に係るカラー画像信号から分光画像信号を作成する際の信号の流れを示した概念図。FIG. 3 is a conceptual diagram illustrating a signal flow when creating a spectral image signal from a color image signal according to Embodiment 1 of the present invention. 本発明の実施例1に係る分光画像信号の積分演算を示す概念図。The conceptual diagram which shows the integral calculation of the spectral image signal which concerns on Example 1 of this invention. 本発明の実施例1に係る生体観測装置の外観を示す外観図。1 is an external view showing an external appearance of a living body observation apparatus according to Embodiment 1 of the present invention. 図3の生体観測装置の構成を示すブロック図。The block diagram which shows the structure of the biological observation apparatus of FIG. 図4のチョッパーの外観を示す外観図。The external view which shows the external appearance of the chopper of FIG. のCCDの撮像面に配置される色フィルタの配列を示す図。It shows the arrangement of the color filter arranged on the imaging surface of the CCD of FIG. 図6の色フィルタの分光感度特性を示す図。The figure which shows the spectral sensitivity characteristic of the color filter of FIG. 図4のマトリックス演算部の構成を示す構成図。The block diagram which shows the structure of the matrix calculating part of FIG. 本発明の実施例1に係る光源のスペクトルを示すスペクトル図。The spectrum figure which shows the spectrum of the light source which concerns on Example 1 of this invention. 本発明の実施例1に係る生体の反射スペクトルを示すスペクトル図。The spectrum figure which shows the reflection spectrum of the biological body which concerns on Example 1 of this invention. 図11は図4の生体観測装置により観察する生体組織の層方向構造を示す図。FIG. 11 is a diagram showing a layer direction structure of a biological tissue observed by the biological observation apparatus of FIG. 図4の生体観測装置からの照明光の生体組織の層方向への到達状態を説明する図。The figure explaining the arrival state to the layer direction of the biological tissue of the illumination light from the biological observation apparatus of FIG. 白色光の各バンドの分光特性を示す図。The figure which shows the spectral characteristic of each band of white light. 図13の白色光による各バンド画像を示す第1の図。The 1st figure which shows each band image by the white light of FIG. 図13の白色光による各バンド画像を示す第2の図。The 2nd figure which shows each band image by the white light of FIG. 図13の白色光による各バンド画像を示す第3の図。The 3rd figure which shows each band image by the white light of FIG. 図8のマトリックス演算部で生成された分光画像の分光特性を示す図。The figure which shows the spectral characteristics of the spectral image produced | generated by the matrix calculating part of FIG. 図17の各分光画像を示す第1の図。The 1st figure which shows each spectral image of FIG. 図17の各分光画像を示す第2の図。The 2nd figure which shows each spectral image of FIG. 図17の各分光画像を示す第3の図。The 3rd figure which shows each spectral image of FIG. 図4の色調整部の構成を示すブロック図。The block diagram which shows the structure of the color adjustment part of FIG. 図21の色調整部の作用を説明する図。The figure explaining the effect | action of the color adjustment part of FIG. 図4の色調整部の変形例の構成を示すブロック図。The block diagram which shows the structure of the modification of the color adjustment part of FIG. 図17の分光画像の第1の変形例の分光特性を示す図。The figure which shows the spectral characteristic of the 1st modification of the spectral image of FIG. 図17の分光画像の第2の変形例の分光特性を示す図。The figure which shows the spectral characteristic of the 2nd modification of the spectral image of FIG. 図17の分光画像の第3の変形例の分光特性を示す図。The figure which shows the spectral characteristic of the 3rd modification of the spectral image of FIG. 本発明の実施例1に係るマトリックス演算部の他の構成例を示すブロック図。The block diagram which shows the other structural example of the matrix calculating part which concerns on Example 1 of this invention. 本発明の実施例2に係る生体観測装置の構成を示すブロック図。The block diagram which shows the structure of the biological observation apparatus which concerns on Example 2 of this invention. 本発明の実施例4に係る生体観測装置における光量制御手段の一例を示す図。The figure which shows an example of the light quantity control means in the biological observation apparatus which concerns on Example 4 of this invention. 光量制御手段の他の例を示す図。The figure which shows the other example of a light quantity control means. 光量制御手段のもう1つの例を示す図。The figure which shows another example of a light quantity control means. 本発明の実施例4に係る生体観測装置の構成を示すブロック図。The block diagram which shows the structure of the biological observation apparatus which concerns on Example 4 of this invention. 図32のCCDの電荷蓄積時間を示す図。The figure which shows the electric charge accumulation time of CCD of FIG. 図32の変形例であってCCDの電荷蓄積時間を示す図。FIG. 33 is a modification of FIG. 32 and shows the charge accumulation time of the CCD. 本発明の実施例8に係る生体観測装置における画質改善の一例を示す図。The figure which shows an example of the image quality improvement in the biological observation apparatus which concerns on Example 8 of this invention. 本発明の実施例9に係る生体観測装置における画質改善の一例を示す図。The figure which shows an example of the image quality improvement in the biological observation apparatus which concerns on Example 9 of this invention. 本発明の実施例9に係る生体観測装置における画質改善の他の例を示す図。The figure which shows the other example of the image quality improvement in the biological observation apparatus which concerns on Example 9 of this invention. 本発明の実施例10に係る生体観測装置における画質改善の一例を示す図。The figure which shows an example of the image quality improvement in the biological observation apparatus which concerns on Example 10 of this invention. 本発明の実施例12に係る生体観測装置における画質改善の一例を示す図。The figure which shows an example of the image quality improvement in the biological observation apparatus which concerns on Example 12 of this invention. 本発明の実施例12に係る生体観測装置における画質改善の他の例を示す図。The figure which shows the other example of the image quality improvement in the biological observation apparatus concerning Example 12 of this invention. 本発明の実施例12に係る生体観測装置における画質改善のもう1つの他の例を示す図。The figure which shows another example of the image quality improvement in the biological observation apparatus which concerns on Example 12 of this invention. 本発明の実施例13に係る生体観測装置における色フィルタの配列を示す図。The figure which shows the arrangement | sequence of the color filter in the biological observation apparatus which concerns on Example 13 of this invention. 図42の色フィルタの分光感度特性を示す図。The figure which shows the spectral sensitivity characteristic of the color filter of FIG. 本発明に係る生体観測装置におけるマトリックス演算の際のフローチャート。The flowchart in the case of the matrix calculation in the biological observation apparatus concerning this invention.

符号の説明Explanation of symbols

15…ランプ
16…チョッパー
18…電流制御部
24…絞り制御部
41…光源部
42…制御部
43…本体処理装置(プロセッサ)
100…電子内視鏡装置(生体観測装置)
101…内視鏡
102…挿入部
103…先端部
104…アングル操作部
105…内視鏡装置本体
106…表示モニタ(表示装置)
436…マトリックス演算部
440…色調整部
440a…色変換処理回路
444…広帯域輝度信号生成部
DESCRIPTION OF SYMBOLS 15 ... Lamp 16 ... Chopper 18 ... Current control part 24 ... Aperture control part 41 ... Light source part 42 ... Control part 43 ... Main body processing apparatus (processor)
100: Electronic endoscope apparatus (biological observation apparatus)
101 ... endoscope 102 ... insertion portion 103 ... tip 104 ... the angle control member 105 ... endoscope apparatus main body 106 ... display monitor (Table 示装 location)
436 ... Matrix operation unit 440 ... Color adjustment unit 440a ... Color conversion processing circuit 444 ... Broadband luminance signal generation unit

Claims (3)

被検体である生体に光を照射する照明部と、
前記照射光に基づいて前記生体から反射される光を光電変換し、撮像信号を生成する撮像部と、
前記照明部及び/または前記撮像部の動作を制御し、表示装置へ前記撮像信号を出力する信号処理制御部と、
を具備し、
前記信号処理制御部は、
前記撮像信号から光学的波長狭帯域の画像に対応する分光信号を信号処理によって生成する分光信号生成部と、
前記分光信号を前記表示装置へ出力する際に当該分光信号を形成する複数の帯域ごとに異なった色調を割り付ける色調整部と、
前記表示装置へ出力される信号の画質を調整する画質調整部と、
前記撮像信号及び/または分光信号の信号レベルを増幅させる信号増幅部と、
を備え
前記信号増幅部は、前記撮像信号と分光信号とでその増幅制御を変化させるものであって、
前記増幅制御は、前記照明部から照射される光量を制御する光量制御部による光量制御ができなくなった場合に増幅機能が増幅動作を開始するときの追従速度である
ことを特徴とする生体観測装置。
An illumination unit that irradiates light to a living body as a subject;
An imaging unit that photoelectrically converts light reflected from the living body based on the irradiation light and generates an imaging signal;
A signal processing control unit that controls the operation of the illumination unit and / or the imaging unit and outputs the imaging signal to a display device;
Comprising
The signal processing control unit
A spectral signal generation unit that generates a spectral signal corresponding to an optical wavelength narrowband image from the imaging signal by signal processing;
A color adjustment unit that assigns different color tones for each of a plurality of bands forming the spectral signal when the spectral signal is output to the display device;
An image quality adjustment unit for adjusting the image quality of a signal output to the display device;
A signal amplifying unit for amplifying the signal level of the imaging signal and / or spectral signal;
The signal amplifying unit changes the amplification control between the imaging signal and the spectral signal,
The biological observation apparatus, wherein the amplification control is a follow-up speed when the amplification function starts an amplification operation when the light amount control unit that controls the light amount irradiated from the illumination unit cannot be performed. .
被検体である生体に光を照射する照明部と、
前記照射光に基づいて前記生体から反射される光を光電変換し、撮像信号を生成する撮像部と、
前記照明部及び/または前記撮像部の動作を制御し、表示装置へ前記撮像信号を出力する信号処理制御部と、
を具備し、
前記信号処理制御部は、
前記撮像信号から光学的波長狭帯域の画像に対応する分光信号を信号処理によって生成する分光信号生成部と、
前記分光信号を前記表示装置へ出力する際に当該分光信号を形成する複数の帯域ごとに異なった色調を割り付ける色調整部と、
前記表示装置へ出力される信号の明るさ及び/またはS/N比を改善する画質調整部と、
を具備し、
前記画質調整部は、撮像信号の輝度信号及び/または分光信号の輝度信号の重み付け加算を行うことを特徴とする生体観測装置。
An illumination unit that irradiates light to a living body as a subject;
An imaging unit that photoelectrically converts light reflected from the living body based on the irradiation light and generates an imaging signal;
A signal processing control unit that controls the operation of the illumination unit and / or the imaging unit and outputs the imaging signal to a display device;
Comprising
The signal processing control unit
A spectral signal generation unit that generates a spectral signal corresponding to an optical wavelength narrowband image from the imaging signal by signal processing;
A color adjustment unit that assigns different color tones for each of a plurality of bands forming the spectral signal when the spectral signal is output to the display device;
An image quality adjusting unit for improving brightness and / or S / N ratio of a signal output to the display device;
Comprising
The living body observation apparatus, wherein the image quality adjustment unit performs weighted addition of a luminance signal of an imaging signal and / or a luminance signal of a spectral signal.
被検体である生体に光を照射する照明部と、
前記照射光に基づいて前記生体から反射される光を光電変換し、撮像信号を生成する撮像部と、
前記照明部及び/または前記撮像部の動作を制御し、表示装置へ前記撮像信号を出力する信号処理制御部と、
を具備し、
前記信号処理制御部は、
前記撮像信号から光学的波長狭帯域の画像に対応する分光信号を信号処理によって生成する分光信号生成部と、
前記分光信号を前記表示装置へ出力する際に当該分光信号を形成する複数の帯域ごとに異なった色調を割り付ける色調整部と、
前記表示装置へ出力される信号の明るさ及び/またはS/N比を改善する画質調整部と、
を具備し、
前記画質調整部は、撮像信号または該撮像信号から所定の変換によって生成された信号に対して空間周波数特性を変更する制御を行うことを特徴とする生体観測装置。
An illumination unit that irradiates light to a living body as a subject;
An imaging unit that photoelectrically converts light reflected from the living body based on the irradiation light and generates an imaging signal;
A signal processing control unit that controls the operation of the illumination unit and / or the imaging unit and outputs the imaging signal to a display device;
Comprising
The signal processing control unit
A spectral signal generation unit that generates a spectral signal corresponding to an optical wavelength narrowband image from the imaging signal by signal processing;
A color adjustment unit that assigns different color tones for each of a plurality of bands forming the spectral signal when the spectral signal is output to the display device;
An image quality adjusting unit for improving brightness and / or S / N ratio of a signal output to the display device;
Comprising
The living body observation apparatus, wherein the image quality adjustment unit performs control to change a spatial frequency characteristic with respect to an imaging signal or a signal generated by predetermined conversion from the imaging signal.
JP2005141534A 2005-05-13 2005-05-13 Biological observation device Expired - Fee Related JP4500207B2 (en)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP2005141534A JP4500207B2 (en) 2005-05-13 2005-05-13 Biological observation device
PCT/JP2006/304388 WO2006120795A1 (en) 2005-05-13 2006-03-07 Biometric instrument
CA002606895A CA2606895A1 (en) 2005-05-13 2006-03-07 Biological observation apparatus
KR1020077026147A KR100988113B1 (en) 2005-05-13 2006-03-07 Biometric instrument
CN2006800162245A CN101175435B (en) 2005-05-13 2006-03-07 Biological observation apparatus
EP11000358.9A EP2332460B1 (en) 2005-05-13 2006-03-07 Biological observation apparatus
EP06715358A EP1880659A4 (en) 2005-05-13 2006-03-07 Biometric instrument
RU2007146448/14A RU2378977C2 (en) 2005-05-13 2006-03-07 Device for biological observations
BRPI0610260-3A BRPI0610260A2 (en) 2005-05-13 2006-03-07 biological observation apparatus
AU2006245248A AU2006245248B2 (en) 2005-05-13 2006-03-07 Biometric instrument
US11/914,347 US20090091614A1 (en) 2005-05-13 2006-03-07 Biological observation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005141534A JP4500207B2 (en) 2005-05-13 2005-05-13 Biological observation device

Publications (2)

Publication Number Publication Date
JP2006314629A JP2006314629A (en) 2006-11-24
JP4500207B2 true JP4500207B2 (en) 2010-07-14

Family

ID=37535820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005141534A Expired - Fee Related JP4500207B2 (en) 2005-05-13 2005-05-13 Biological observation device

Country Status (2)

Country Link
JP (1) JP4500207B2 (en)
CN (1) CN101175435B (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5068205B2 (en) * 2008-03-19 2012-11-07 富士フイルム株式会社 Electronic endoscope device
JP5235473B2 (en) 2008-04-04 2013-07-10 Hoya株式会社 Spectral characteristic estimation device
JP5483522B2 (en) * 2008-08-12 2014-05-07 富士フイルム株式会社 Image acquisition device
EP2386239A4 (en) * 2009-05-12 2012-08-15 Olympus Medical Systems Corp Subject in-vivo imaging system and subject in-vivo introducing device
EP2347692A4 (en) * 2009-05-14 2012-08-01 Olympus Medical Systems Corp Imaging device
JP5393525B2 (en) * 2010-02-18 2014-01-22 オリンパスメディカルシステムズ株式会社 Image processing apparatus and method of operating image processing apparatus
JP5334952B2 (en) * 2010-12-16 2013-11-06 富士フイルム株式会社 Image processing device
JP5404968B1 (en) * 2012-03-30 2014-02-05 オリンパスメディカルシステムズ株式会社 Endoscope device
JP5715602B2 (en) * 2012-09-07 2015-05-07 富士フイルム株式会社 Endoscope system and method for operating endoscope system
JP2014128394A (en) 2012-12-28 2014-07-10 Hoya Corp Endoscope device
JP6053653B2 (en) * 2013-09-27 2016-12-27 富士フイルム株式会社 Endoscope device
CN104083144B (en) * 2013-11-28 2016-02-03 北京华科创智健康科技股份有限公司 The method and apparatus that a kind of fujinon electronic video endoscope image region brightness controls
JP6272115B2 (en) * 2014-04-10 2018-01-31 Hoya株式会社 Endoscope processor and endoscope system
JP6606817B2 (en) * 2014-09-26 2019-11-20 セイコーエプソン株式会社 measuring device
CN107847117B (en) * 2015-04-30 2019-12-17 富士胶片株式会社 Image processing apparatus and image processing method
JP6491736B2 (en) * 2017-12-28 2019-03-27 Hoya株式会社 Endoscope processor and endoscope system
WO2019230306A1 (en) * 2018-05-30 2019-12-05 パナソニックIpマネジメント株式会社 Identification apparatus and identification method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148987A (en) * 1998-11-17 2000-05-30 Olympus Optical Co Ltd Image processor
JP2002017667A (en) * 1991-03-11 2002-01-22 Olympus Optical Co Ltd Image processor
JP2003093336A (en) * 2001-09-26 2003-04-02 Toshiba Corp Electronic endoscope apparatus
JP2004008412A (en) * 2002-06-05 2004-01-15 Olympus Corp Light source device for endoscope apparatus, and endoscope apparatus
JP2005006856A (en) * 2003-06-18 2005-01-13 Olympus Corp Endoscope apparatus
JP2005013611A (en) * 2003-06-27 2005-01-20 Olympus Corp Image processing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002017667A (en) * 1991-03-11 2002-01-22 Olympus Optical Co Ltd Image processor
JP2000148987A (en) * 1998-11-17 2000-05-30 Olympus Optical Co Ltd Image processor
JP2003093336A (en) * 2001-09-26 2003-04-02 Toshiba Corp Electronic endoscope apparatus
JP2004008412A (en) * 2002-06-05 2004-01-15 Olympus Corp Light source device for endoscope apparatus, and endoscope apparatus
JP2005006856A (en) * 2003-06-18 2005-01-13 Olympus Corp Endoscope apparatus
JP2005013611A (en) * 2003-06-27 2005-01-20 Olympus Corp Image processing device

Also Published As

Publication number Publication date
JP2006314629A (en) 2006-11-24
CN101175435B (en) 2010-12-15
CN101175435A (en) 2008-05-07

Similar Documents

Publication Publication Date Title
JP4500207B2 (en) Biological observation device
KR100988113B1 (en) Biometric instrument
JP4409523B2 (en) Biological observation device
JP4504324B2 (en) Biological observation device
EP1880657B1 (en) Biological observation apparatus
KR100953773B1 (en) Signal processing device for biological observation apparatus
JP2006314557A (en) Biological observation apparatus
JP2003093336A (en) Electronic endoscope apparatus
JP6576895B2 (en) Endoscope system, processor device, and operation method of endoscope system
JP2006341075A (en) Signal processor for biological observation system
JP6081622B2 (en) ENDOSCOPE SYSTEM, PROCESSOR DEVICE, AND METHOD FOR OPERATING ENDOSCOPE SYSTEM
JP2006325974A (en) Biometric instrument
JP2006341076A (en) Signal processor for biological observation system
JP5068205B2 (en) Electronic endoscope device
JP2012035090A (en) Electronic endoscope apparatus
JP2016043135A (en) Endoscope apparatus
JP2013226467A (en) Electronic endoscope apparatus
JP2013226468A (en) Electronic endoscope apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100330

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100416

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4500207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140423

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees