JP2006314557A - Biological observation apparatus - Google Patents

Biological observation apparatus Download PDF

Info

Publication number
JP2006314557A
JP2006314557A JP2005140379A JP2005140379A JP2006314557A JP 2006314557 A JP2006314557 A JP 2006314557A JP 2005140379 A JP2005140379 A JP 2005140379A JP 2005140379 A JP2005140379 A JP 2005140379A JP 2006314557 A JP2006314557 A JP 2006314557A
Authority
JP
Japan
Prior art keywords
image
spectral
signal
color
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005140379A
Other languages
Japanese (ja)
Inventor
Kazuhiro Atono
和弘 後野
Mutsumi Oshima
睦巳 大島
Shoichi Amano
正一 天野
Tomoya Takahashi
智也 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2005140379A priority Critical patent/JP2006314557A/en
Priority to US11/914,171 priority patent/US8301229B2/en
Priority to EP06729057.7A priority patent/EP1880657B1/en
Priority to BRPI0609099-0A priority patent/BRPI0609099A2/en
Priority to RU2007146171/14A priority patent/RU2381737C2/en
Priority to KR1020077026233A priority patent/KR100953788B1/en
Priority to CN200680016225A priority patent/CN100591262C/en
Priority to AU2006245251A priority patent/AU2006245251B2/en
Priority to CA2607623A priority patent/CA2607623C/en
Priority to PCT/JP2006/305023 priority patent/WO2006120798A1/en
Publication of JP2006314557A publication Critical patent/JP2006314557A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a biological observation apparatus capable of calculating biological function information relating to the blood of a living body on the basis of spectroscopic image signals obtained by signal processing and contributing to the improvement of diagnostic ability. <P>SOLUTION: The output of a matrix operation part 436 is connected to integration parts 438a-438c respectively, an integration operation is performed, then a color adjustment operation is performed in a color adjustment part 440 to the respective stereoscopic image signals ΣF1-ΣF3, and stereoscopic color channel image signals Rch, Gch and Bch are generated from the stereoscopic image signals ΣF1-ΣF3. Also, an IHb value is computed from the stereoscopic image signals ΣF1-ΣF3 in a biological function operation part 450, biological function images are generated from the IHb value, and an observation image by the stereoscopic color channel image signals Rch, Gch and Bch and the biological function image based on the IHb value are displayed on a display monitor 106 through a switching part 439. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、生体を観察する生体観測装置に関する。   The present invention relates to a living body observation apparatus that observes a living body.

従来より、照明光を照射し体腔内の内視鏡画像を得る内視鏡装置が広く用いられている。この種の内視鏡装置では、光源装置からの照明光を体腔内にライトガイド等を用い導光しその戻り光により被写体を撮像する撮像手段を有する電子内視鏡が用いられ、ビデオプロセッサにより撮像手段からの撮像信号を信号処理することにより観察モニタに内視鏡画像を表示し患部等の観察部位を観察するようになっている。   2. Description of the Related Art Conventionally, endoscope apparatuses that irradiate illumination light and obtain an endoscopic image in a body cavity have been widely used. In this type of endoscope apparatus, an electronic endoscope having an image pickup unit that guides illumination light from a light source device into a body cavity using a light guide or the like and picks up an image of a subject using the return light is used. An image signal from the imaging means is signal-processed to display an endoscopic image on an observation monitor and observe an observation site such as an affected area.

内視鏡装置において通常の生体組織観察を行う場合は、光源装置で可視光領域の白色光を発光し、例えばRGB等の回転フィルタを介することで面順次光を被写体に照射し、この面順次光による戻り光をビデオプロセッサで同時化し画像処理することでカラー画像を得たり、内視鏡の撮像手段の撮像面の前面にカラーチップを配し白色光による戻り光をカラーチップにて各色成分毎に分離することで撮像しビデオプロセッサで画像処理することでカラー画像を得ている。   When performing normal biological tissue observation in an endoscopic device, the light source device emits white light in the visible light region, and irradiates the subject with surface sequential light through a rotating filter such as RGB, for example. A color image is obtained by synchronizing the return light from the light with a video processor and processing the image, or a color chip is arranged in front of the imaging surface of the imaging means of the endoscope, and the return light from the white light is used for each color component by the color chip. A color image is obtained by taking an image by separating each image and processing the image with a video processor.

一方、生体組織では、照射される光の波長により光の吸収特性及び散乱特性が異なるため、例えば特開2002−95635号公報では、可視光領域の照明光を離散的な分光特性の狭帯域なRGB面順次光を生体組織に照射し、生体組織の所望の深部の組織情報を得る狭帯域光内視鏡装置が提案されている。   On the other hand, in a living tissue, the light absorption characteristics and the scattering characteristics differ depending on the wavelength of the irradiated light. For example, in Japanese Patent Application Laid-Open No. 2002-95635, illumination light in the visible light region has a narrow spectral bandwidth. A narrow-band optical endoscope apparatus that irradiates a living tissue with RGB sequential light and obtains tissue information of a desired deep portion of the living tissue has been proposed.

また、特開2003−93336号公報には、可視光領域の照明光による画像信号を信号処理し離散的な分光画像を生成し、生体組織の所望の深部の組織情報を得る狭帯域光内視鏡装置が提案されている。
特開2002−95635号公報 特開2003−93336号公報
Japanese Patent Application Laid-Open No. 2003-93336 discloses a narrowband optical endoscope that generates a discrete spectral image by performing signal processing on an image signal from illumination light in the visible light region and obtains tissue information of a desired deep part of a living tissue. A mirror device has been proposed.
JP 2002-95635 A JP 2003-93336 A

しかしながら、例えば上記特開2003−93336号公報では、信号処理により分光画像を得ることで、狭帯域なRGB光を生成するためのフィルタを必要としないが、得られた分光画像を単にモニタに出力している。このため、モニタに表示される画像が生体組織の所望の深部の組織情報の観察に適した色調の画像とならない虞があるばかりでなく、血液中のヘモグロビン濃度等の生体機能情報との関連を把握することが困難となる。   However, for example, in Japanese Patent Application Laid-Open No. 2003-93336, a spectral image is obtained by signal processing, so that a filter for generating narrow band RGB light is not required, but the obtained spectral image is simply output to a monitor. is doing. For this reason, there is a possibility that the image displayed on the monitor may not be an image having a color tone suitable for observing tissue information in a desired deep part of the biological tissue, and the relationship with biological function information such as hemoglobin concentration in the blood. It becomes difficult to grasp.

本発明は、上記事情に鑑みてなされたものであり、信号処理により得られた分光画像に基づく生体組織の所望の深部の組織情報に関連して生体機能情報を表示し、診断能の向上に寄与することのできる生体観測装置を提供することを目的としている。   The present invention has been made in view of the above circumstances, and displays biological function information related to tissue information of a desired deep part of a biological tissue based on a spectral image obtained by signal processing to improve diagnostic ability. It aims at providing the biological observation apparatus which can contribute.

本発明の生体観測装置は、被検体に光を照射する照明手段と、生体信号を取得する観察手段と、前記照明手段及び/または前記観察手段の動作を制御し、表示出力装置へ前記生体信号を表示出力する信号処理制御手段とから構成される観測装置において、前記信号処理制御手段は、前記生体信号から分光信号を生成する分光信号生成手段と、前記分光信号から生体機能を計算し、前記表示出力装置へ出力する生体機能算出手段とを含んで構成される。   The living body observation apparatus of the present invention controls the operation of the illuminating means for irradiating the subject with light, the observing means for acquiring a biological signal, the illuminating means and / or the observing means, and sends the biological signal to the display output device. In the observation apparatus configured to display and output signal processing means, the signal processing control means calculates a biological function from the spectral signal generating means, a spectral signal generating means for generating a spectral signal from the biological signal, And a biological function calculating means for outputting to the display output device.

本発明によれば、信号処理により得られた分光画像に基づく生体組織の所望の深部の組織情報に関連した生体機能情報を表示することができ、診断能の向上に寄与することができるという効果がある。   According to the present invention, it is possible to display biological function information related to tissue information of a desired deep part of a biological tissue based on a spectral image obtained by signal processing, and it is possible to contribute to improvement of diagnostic ability. There is.

以下、図面を参照しながら本発明の実施例について述べる。   Embodiments of the present invention will be described below with reference to the drawings.

図1乃至図25は本発明の実施例1に係わり、図1はカラー画像信号から分光画像信号を作成する際の信号の流れを示す概念図、図2は分光画像信号の積分演算を示す概念図、図3は電子内視鏡装置の外観を示す外観図、図4は図3の電子内視鏡装置の構成を示すブロック図、図5は図4のチョッパーの外観を示す外観図、図6は図3のCCDの撮像面に配置される色フィルタの配列を示す図、図7は図6の色フィルタの分光感度特性を示す図、図8は図4のマトリックス演算部の構成を示す構成図、図9は光源のスペクトルを示すスペクトル図、図10は生体の反射スペクトルを示すスペクトル図、図11は図4の電子内視鏡装置により観察する生体組織の層方向構造を示す図、図12は図4の電子内視鏡装置からの照明光の生体組織の層方向への到達状態を説明する図、図13は白色光の各バンドの分光特性を示す図、図14は図13の白色光による各バンド画像を示す第1の図、図15は図13の白色光による各バンド画像を示す第2の図、図16は図13の白色光による各バンド画像を示す第3の図、図17は図8のマトリックス演算部で生成された分光画像の分光特性を示す図、図18は図17の各分光画像を示す第1の図、図19は図17の各分光画像を示す第2の図、図20は図17の各分光画像を示す第3の図、図21は図4の色調整部の構成を示すブロック図、図22は図21の色調整部の作用を説明する図、図23は図4の色調整部の変形例の成を示すブロック図、図24は図4の生体機能演算部の構成を示すブロック図、図25はモニタへの表示例を示す図である。   1 to 25 relate to the first embodiment of the present invention, FIG. 1 is a conceptual diagram showing a signal flow when a spectral image signal is created from a color image signal, and FIG. 2 is a conceptual diagram showing an integral operation of the spectral image signal. 3 is an external view showing the external appearance of the electronic endoscope apparatus, FIG. 4 is a block diagram showing the configuration of the electronic endoscope apparatus of FIG. 3, and FIG. 5 is an external view showing the external appearance of the chopper of FIG. 6 is a diagram showing the arrangement of color filters arranged on the imaging surface of the CCD shown in FIG. 3, FIG. 7 is a diagram showing spectral sensitivity characteristics of the color filters shown in FIG. 6, and FIG. 8 is a diagram showing the configuration of the matrix calculation unit shown in FIG. FIG. 9 is a spectrum diagram showing a spectrum of a light source, FIG. 10 is a spectrum diagram showing a reflection spectrum of a living body, FIG. 11 is a diagram showing a layered structure of a living tissue observed by the electronic endoscope apparatus of FIG. 12 is a layer of biological tissue of illumination light from the electronic endoscope apparatus of FIG. FIG. 13 is a diagram illustrating spectral characteristics of each band of white light, FIG. 14 is a first diagram illustrating each band image of white light in FIG. 13, and FIG. 15 is a diagram illustrating FIG. FIG. 16 is a third diagram showing each band image by white light in FIG. 13, and FIG. 17 is a spectral characteristic of the spectral image generated by the matrix calculation unit in FIG. 18 is a first diagram showing each spectral image in FIG. 17, FIG. 19 is a second diagram showing each spectral image in FIG. 17, and FIG. 20 is a third diagram showing each spectral image in FIG. 21 is a block diagram showing the configuration of the color adjustment unit in FIG. 4, FIG. 22 is a diagram for explaining the operation of the color adjustment unit in FIG. 21, and FIG. 23 shows a modification of the color adjustment unit in FIG. FIG. 24 is a block diagram showing the configuration of the biological function calculation unit of FIG. 4, and FIG. A.

以下、本発明に係る実施例1について説明する前に、本発明の基礎となるマトリックス算出方法について説明する。ここで、マトリックスとは、カラー画像(以下、通常画像と呼ぶ)を生成するために取得されるカラー画像信号から、分光画像信号を生成する際に用いられる所定の係数である。また、この説明に続き、より正確な分光画像信号を求めるための補正方法、生成された分光画像信号のS/N比を向上させるS/Nの改善方法について説明する。尚、この補正方法、S/Nの改善方法に関しては、必要に応じて用いれば良い。また、以下、ベクトル及び行列(マトリックス)は太文字あるいは「」(例えば、行列Aを”Aの太文字”あるいは”「A」”と表記)で、それ以外は文字修飾なしで表記する。   Hereinafter, before describing Example 1 according to the present invention, a matrix calculation method as a basis of the present invention will be described. Here, the matrix is a predetermined coefficient used when generating a spectral image signal from a color image signal acquired to generate a color image (hereinafter referred to as a normal image). Further, following this description, a correction method for obtaining a more accurate spectral image signal and an S / N improvement method for improving the S / N ratio of the generated spectral image signal will be described. Note that this correction method and S / N improvement method may be used as necessary. In the following, vectors and matrices (matrix) are indicated by bold letters or “” (for example, the matrix A is indicated as “A bold letters of A” or “A” ”), and the others are indicated without character modification.

(マトリックス算出方法)
図1は、カラー画像信号(ここでは、説明を簡単にするために、R・G・Bとするが、後述する実施例のように、補色型固体撮像素子においては、G・Cy・Mg・Yeの組合せでも良い)から、より光学的波長狭帯域の画像に対応する画像に相当する分光画像信号を生成する際の信号の流れを示した概念図である。
(Matrix calculation method)
FIG. 1 shows a color image signal (here, R, G, and B for simplicity of explanation, but in a complementary color solid-state imaging device as in the embodiments described later, G, Cy, Mg, FIG. 4 is a conceptual diagram showing a signal flow when generating a spectral image signal corresponding to an image corresponding to an image in a narrower optical wavelength band.

まず、電子内視鏡装置におけるR・G・Bのそれぞれのカラー感度特性を数値データ化する。ここで、R・G・Bのカラー感度特性とは、白色光の光源を用い、白色の被写体を撮像する時にそれぞれ得られる波長に対する出力の特性である。   First, the R, G, and B color sensitivity characteristics in the electronic endoscope apparatus are converted into numerical data. Here, the color sensitivity characteristics of R, G, and B are output characteristics with respect to wavelengths obtained when a white object is imaged using a white light source.

尚、R・G・Bのそれぞれのカラー感度特性は、簡略化したグラフとして各画像データの右に示されている。また、この時の、R・G・Bのカラー感度特性をそれぞれn次元の列ベクトル「R」・「G」・「B」とする。   The color sensitivity characteristics of R, G, and B are shown on the right of each image data as a simplified graph. Further, the color sensitivity characteristics of R, G, and B at this time are assumed to be n-dimensional column vectors “R”, “G”, and “B”, respectively.

次に、抽出したい分光画像用狭帯域パンドパスフィルタF1・F2・F3(先見情報として、構造を効率よく抽出できるフィルタの特性を知っている。このフィルタの特性とは、波長帯域が略590nm〜略610nm、略530nm〜略550nm、略400m〜略430nmをそれぞれ通過帯域とするものである。)の特性を数値データ化する。   Next, spectral band narrow-pass filters F1, F2, F3 (knowing the characteristics of filters that can extract structures efficiently as foresight information. The characteristics of this filter are that the wavelength band is approximately 590 nm to 610 nm, about 530 nm to about 550 nm, and about 400 m to about 430 nm are used as passbands, respectively).

尚、ここで”略”とは、波長においては略10nm程度を含む概念である。この時のフィルタの特性をそれぞれn次元の列ベクトル「F1」・「F2」・「F3」とする。得られた数値データを基に、以下の関係を近似する最適な係数セットを求める。即ち、
[数1]

Figure 2006314557
となるマトリックスの要素を求めればよい。 Here, “substantially” is a concept including about 10 nm in wavelength. The filter characteristics at this time are n-dimensional column vectors “F1”, “F2”, and “F3”, respectively. Based on the obtained numerical data, an optimum coefficient set that approximates the following relationship is obtained. That is,
[Equation 1]
Figure 2006314557
What is necessary is just to obtain the elements of the matrix.

上の最適化の命題の解は数学的には、以下のように与えられる。R・G・Bのカラー感度特性を表すマトリックスを「C」、抽出したい狭帯域パンドパスフィルタの分光特性を表すマトリックスを「F」、求める係数マトリックスを「A」とすると、
[数2]

Figure 2006314557
となる。従って、(1)式に示した命題は、以下の関係を満足するマトリックス「A」を求めるに等しい。 The solution of the above optimization proposition is given mathematically as follows: If the matrix representing the color sensitivity characteristics of R, G and B is “C”, the matrix representing the spectral characteristics of the narrow-band Pandpass filter to be extracted is “F”, and the coefficient matrix to be obtained is “A”.
[Equation 2]
Figure 2006314557
It becomes. Therefore, the proposition shown in the equation (1) is equivalent to obtaining a matrix “A” that satisfies the following relationship.

[数3]

Figure 2006314557
ここで、分光特性を表すスペクトルデータとしての点列数nとしては、n>3であるので、(3)式は1次元連立方程式ではなく、線形最小二乗法の解として与えられる。即ち、(3)式を擬似連立方程式として解けばよい。マトリックス「C」の転置行列を「tC」とすれば、(3)式は
[数4]
Figure 2006314557
となる。「tCC」はn×nの正方行列であるので、(4)式はマトリックス「A」についての連立方程式と見ることができ、その解は、
[数5]
Figure 2006314557
で与えられる。 [Equation 3]
Figure 2006314557
Here, since the number of point sequences n as spectral data representing spectral characteristics is n> 3, equation (3) is not a one-dimensional simultaneous equation but is given as a solution of the linear least square method. That is, Equation (3) may be solved as a pseudo simultaneous equation. Assuming that the transposed matrix of the matrix “C” is “ t C”, the equation (3) is expressed by [Equation 4].
Figure 2006314557
It becomes. Since “ t CC” is an n × n square matrix, equation (4) can be viewed as a simultaneous equation for the matrix “A”, and its solution is
[Equation 5]
Figure 2006314557
Given in.

(5)式にて求められたマトリックス「A」について、(3)式の左辺の変換を行うことで、抽出したい狭帯域パンドパスフィルタF1・F2・F3の特性を近似することができる。以上が、本発明の基礎となるマトリックス算出方法の説明である。   By converting the left side of the equation (3) for the matrix “A” obtained by the equation (5), the characteristics of the narrow-band pan-pass filters F1, F2, and F3 to be extracted can be approximated. The above is the description of the matrix calculation method that is the basis of the present invention.

このようにして算出されたマトリックスを用いて、後述するマトリックス演算部436が通常カラー画像信号から分光画像信号を生成する。   Using the matrix calculated in this manner, a matrix calculation unit 436 described later generates a spectral image signal from the normal color image signal.

(補正方法)
次に、より正確な分光画像信号を求めるための補正方法について説明する。
(Correction method)
Next, a correction method for obtaining a more accurate spectral image signal will be described.

上述のマトリックス算出方法の説明においては、CCD等の固体撮像素子が受光する光束が、完全な白色光(可視域において、全ての波長強度が同じ)である場合に正確に適用されるものである。即ち、RGBの出力がいずれも同じである場合に、最適な近似となる。   In the above description of the matrix calculation method, the light beam received by a solid-state imaging device such as a CCD is exactly white light (all wavelength intensities are the same in the visible range), and is applied accurately. . That is, the approximation is optimal when the RGB outputs are the same.

しかし、実際の内視鏡下では、照明する光束(光源の光束)は完全な白色光ではなく、生体の反射スペクトルも一律ではないので、固体撮像素子が受光する光束も白色光でない(色が着いているので、RGBの値は同じではない)。   However, under an actual endoscope, the illuminating light beam (light beam from the light source) is not completely white light, and the reflection spectrum of the living body is not uniform, so the light beam received by the solid-state imaging device is not white light (the color is The RGB values are not the same because they have arrived.)

従って、実際の処理において、(3)式に示した命題をより正確に解くためには、RGBのカラー感度特性に加え、照明光の分光特性、生体の反射特性を考慮することが望ましい。   Therefore, in an actual process, in order to solve the proposition shown in the expression (3) more accurately, it is desirable to consider the spectral characteristics of illumination light and the reflection characteristics of a living body in addition to RGB color sensitivity characteristics.

ここで、カラー感度特性をそれぞれR(λ)、G(λ)、B(λ)とし、照明光の分光特性の一例をS(λ)、生体の反射特性の一例をH(λ)とする。尚、この照明光の分光特性および生体の反射特性は、必ずしも検査を行う装置、被検体の特性でなくてもよく、例えば予め取得しておいた一般的な特性としても良い。   Here, the color sensitivity characteristics are respectively R (λ), G (λ), and B (λ), an example of the spectral characteristic of the illumination light is S (λ), and an example of the reflection characteristic of the living body is H (λ). . Note that the spectral characteristics of the illumination light and the reflection characteristics of the living body do not necessarily have to be the characteristics of the inspection apparatus and the subject, and may be general characteristics acquired in advance, for example.

これらの係数を用いると、補正係数kR・kG・kBは、
[数6]
kR=(∫S(λ)×H(λ)×R(λ)dλ)-1
kG=(∫S(λ)×H(λ)×G(λ)dλ)-1
kB=(∫S(λ)×H(λ)×B(λ)dλ)-1 …(6)
で与えられる。感度補正マトリックスを「K」とすると、以下のように与えられる。
Using these coefficients, the correction coefficients kR, kG, and kB are
[Equation 6]
kR = (∫S (λ) × H (λ) × R (λ) dλ) −1
kG = (∫S (λ) × H (λ) × G (λ) dλ) −1
kB = (∫S (λ) × H (λ) × B (λ) dλ) −1 (6)
Given in. When the sensitivity correction matrix is “K”, it is given as follows.

[数7]

Figure 2006314557
従って、係数マトリックス「A」については、(5)式に(7)式の補正を加えて、以下のようになる。 [Equation 7]
Figure 2006314557
Accordingly, the coefficient matrix “A” is as follows after adding the correction of the equation (7) to the equation (5).

[数8]

Figure 2006314557
また、実際に最適化を行う場合は、目標とするフィルタの分光感度特性(図1中のF1・F2・F3)が負の場合は画像表示上では0となる(つまりフィルタの分光感度特性のうち正の感度を有する部分のみ使用される)ことを利用し、最適化された感度分布の一部が負になることも許容することを付加する。ブロードな分光感度特性より狭帯域な分光感度特性を生成するためには、図1に示すように目標とするF1・F2・F3の特性に、負の感度特性を付加することで、感度を有する帯域を近似した成分を生成することができる。 [Equation 8]
Figure 2006314557
When the optimization is actually performed, if the spectral sensitivity characteristics of the target filter (F1, F2, and F3 in FIG. 1) are negative, it becomes 0 on the image display (that is, the spectral sensitivity characteristics of the filter). Of these, only a part having a positive sensitivity is used), and it is added that a part of the optimized sensitivity distribution is allowed to be negative. In order to generate a narrower spectral sensitivity characteristic than a broad spectral sensitivity characteristic, it has sensitivity by adding a negative sensitivity characteristic to the target F1, F2, F3 characteristics as shown in FIG. A component approximating the band can be generated.

(S/Nの改善方法)
次に、生成された分光画像信号のS/N及び精度を向上させる方法について説明する。このS/N比の改善方法は、前述した処理方法に付加することにより、さらに以下の課題を解決するものである。
(S / N improvement method)
Next, a method for improving the S / N and accuracy of the generated spectral image signal will be described. This method for improving the S / N ratio solves the following problems by adding to the processing method described above.

(イ)前述のマトリックス算出方法における原信号(R・G・B)のいずれかが仮に飽和状態となると、処理方法におけるフィルタF1乃至F3の特性が、構造を効率よく抽出できるフィルタの特性(理想とする特性)と大きく異なってしまう可能性がある(R・G・Bの中、2つの信号だけで生成される場合は、その2つの原信号がいずれも飽和していないこと)。 (A) If any of the original signals (R, G, B) in the matrix calculation method described above is saturated, the characteristics of the filters F1 to F3 in the processing method are the characteristics of the filter that can extract the structure efficiently (ideal (In the case of R, G, and B, if two signals are generated only, the two original signals are not saturated).

(ロ)カラー画像信号から分光画像信号への変換に際に、広帯域のフィルタから狭帯域フィルタの生成するため、感度の劣化が発生し、生成された分光画像信号の成分も小さくなり、S/N比が良くない。 (B) When a color image signal is converted into a spectral image signal, a narrowband filter is generated from a wideband filter. Therefore, sensitivity degradation occurs, and the component of the generated spectral image signal is also reduced. N ratio is not good.

このS/N比改善の方法とは、図2に示されるように、照明光の照射を通常画像(一般的なカラー画像)の1フィールド(1フレーム)中に数回(例えばn回、nは2以上の整数)に分けて照射する(照射強度をそれぞれの回で変化させても良い。図2においては、I0乃至Inで示されている。尚、これは照明光の制御のみで実現可能である。)。   As shown in FIG. 2, the method of improving the S / N ratio is that illumination light is irradiated several times (for example, n times, n times) in one field (one frame) of a normal image (general color image). Is divided into two or more integers) (irradiation intensity may be changed each time. In Fig. 2, it is indicated by I0 to In. This is realized only by controlling illumination light. It is possible.)

これにより、1回の照射強度を小さくすることができ、RGB信号のいずれもがそれぞれ飽和状態となるのを抑えることができる。また、数回に分割された画像信号は、後段でn枚分の加算を行う。これにより、信号成分を大きくしてS/N比を向上させることができる。   Thereby, the intensity of one irradiation can be reduced, and it is possible to suppress the saturation of all of the RGB signals. Further, the image signal divided into several times is added for n sheets in the subsequent stage. Thereby, a signal component can be enlarged and S / N ratio can be improved.

以上が、本発明の基礎となるマトリックス演算方法、またこれと共に実施することが可能な正確な分光画像信号を求めるための補正方法、生成された分光画像信号のS/N比を向上させる方法の説明である。   The above is the matrix calculation method that is the basis of the present invention, the correction method for obtaining an accurate spectral image signal that can be performed together with this, and the method for improving the S / N ratio of the generated spectral image signal. It is an explanation.

ここで、上述のマトリックス算出方法の変形例について説明する。   Here, a modified example of the above-described matrix calculation method will be described.

(マトリックス算出方法の変形例)
カラー画像信号をR,G,B、推定する分光画像信号をF1,F2,F3とする。尚、厳密には、画像上の位置x,yの関数でもあるので、例えばR(x,y)と表記すべきだが、ここでは省略する。
(Modification of matrix calculation method)
Assume that the color image signals are R, G, and B, and the spectral image signals to be estimated are F1, F2, and F3. Strictly speaking, since it is also a function of the position x, y on the image, it should be expressed as, for example, R (x, y), but is omitted here.

R,G,BからF1,F2,F3を計算する3×3の行列「A」を推定することが目標となる。「A」が推定されれば、R,G,BからF1,F2,F3の計算は、以下の(9)式で可能となる。   The goal is to estimate a 3 × 3 matrix “A” that calculates F1, F2, F3 from R, G, B. If “A” is estimated, F1, F2, and F3 can be calculated from R, G, and B by the following equation (9).

[数9]

Figure 2006314557
ここで、以下のデータの表記を定義する。 [Equation 9]
Figure 2006314557
Here, the following data notation is defined.

被検体の分光特性:H(λ)、「H」=(H(λ1),H(λ2),…,H(λn))t
λは波長であり、tは行列演算における転置を表す。同様に、
照明光の分光特性:S(λ)、「S」=(S(λ1),S(λ2),…,S(λn))t
CCDの分光感度特性:J(λ)、「J」=(J(λ1),J(λ2),…,J(λn))t
色分解を行うフィルタの分光特性:原色の場合
R(λ)、「R」=(R(λ1),R(λ2),…,R(λn))t
G(λ)、「G」=(G(λ1),G(λ2),…,G(λn))t
B(λ)、「B」=(B(λ1),B(λ2),…,B(λn))t
「R」、「G」、「B」は(10)式に示すように、行列「 C」で1つにまとめられる。
Spectral characteristics of subject: H (λ), “H” = (H (λ1), H (λ2),..., H (λn)) t
λ is a wavelength, and t represents transposition in matrix calculation. Similarly,
Spectral characteristics of illumination light: S (λ), “S” = (S (λ1), S (λ2),..., S (λn)) t
Spectral sensitivity characteristics of CCD: J (λ), “J” = (J (λ1), J (λ2),..., J (λn)) t
Spectral characteristics of filters for color separation: For primary colors
R (λ), “R” = (R (λ1), R (λ2),..., R (λn)) t
G (λ), “G” = (G (λ1), G (λ2),..., G (λn)) t
B (λ), “B” = (B (λ1), B (λ2),..., B (λn)) t
“R”, “G”, and “B” are combined into a matrix “C” as shown in the equation (10).

[数10]

Figure 2006314557
画像信号R,G,B、分光信号F1,F2,F3を行列で以下のように表記する。 [Equation 10]
Figure 2006314557
The image signals R, G, B and the spectral signals F1, F2, F3 are expressed in matrix as follows.

[数11]

Figure 2006314557
画像信号「P」は次式で計算される。 [Equation 11]
Figure 2006314557
The image signal “P” is calculated by the following equation.

[数12]

Figure 2006314557
いま、「Q」を得るための色分解フィルタを「F」とすると、(12)式同様に
[数13]
Figure 2006314557
ここで、重要な第1の仮定として、いま、被検体の分光反射率が基本的な3つの分光特性の線形和で表現できると仮定すると、「H」は以下のように表記できる。 [Equation 12]
Figure 2006314557
Assuming that the color separation filter for obtaining “Q” is “F”, [Formula 13] as in the equation (12).
Figure 2006314557
Here, as an important first assumption, assuming that the spectral reflectance of the subject can be expressed by a linear sum of three basic spectral characteristics, “H” can be expressed as follows.

[数14]

Figure 2006314557
ここで、「D」は3つの基本スペクトルD1(λ)、D2(λ)、D3(λ)を列ベクトルに持つ行列で、「W」は「H」に対するD1(λ)、D2(λ)、D3(λ)の寄与をあらわす重み係数である。被検体の色調がそれほど大きく変動しない場合には、この近似が成立することが知られている。 [Formula 14]
Figure 2006314557
Here, “D” is a matrix having three basic spectra D1 (λ), D2 (λ), and D3 (λ) as column vectors, and “W” is D1 (λ) and D2 (λ) for “H”. , D3 (λ) is a weighting coefficient representing the contribution. It is known that this approximation is established when the color tone of the subject does not vary so much.

(14)式を(12)式に代入すると、次式を得る。   Substituting equation (14) into equation (12) yields:

[数15]

Figure 2006314557
ここで、3×3の行列「M」は、行列「CSJD」の計算結果を1つにまとめた行列を示す。 [Equation 15]
Figure 2006314557
Here, the 3 × 3 matrix “M” indicates a matrix in which the calculation results of the matrix “CSJD” are combined into one.

同様に、(14)式を(13)式に代入して、次式を得る。   Similarly, the following equation is obtained by substituting the equation (14) into the equation (13).

[数16]

Figure 2006314557
同じく、「M’」は、行列「FSJD」の計算結果を1つにまとめた行列を示す。 [Equation 16]
Figure 2006314557
Similarly, “M ′” indicates a matrix in which the calculation results of the matrix “FSJD” are combined into one.

結局、(15)式と(16)式から「W」を消去して、以下の式を得る。   Eventually, “W” is eliminated from the equations (15) and (16), and the following equation is obtained.

[数17]

Figure 2006314557
「M-1」は行列「M」の逆行列を示す。結局、「M’M-1」は3×3の行列となり、推定目標の行列「A」となる。 [Equation 17]
Figure 2006314557
“M −1 ” indicates an inverse matrix of the matrix “M”. Eventually, “M′M −1 ” is a 3 × 3 matrix, which is the estimation target matrix “A”.

ここで、重要な第2の仮定として、色分解をバンドパスフィルタで行う場合、そのバンド内における被検体の分光特性を1つの数値で近似できると仮定する。すなわち、
[数18]

Figure 2006314557
色分解用のバンドパスが完全なバンドパスでなく、他の帯域にも感度を持つ場合も考慮して、この仮定が成立する場合、(15)式、(16)式における「W」を上記「H」と考えれば、結局(17)式と同様な行列が推定できる。 Here, as an important second assumption, when color separation is performed using a bandpass filter, it is assumed that the spectral characteristic of the subject in the band can be approximated by one numerical value. That is,
[Equation 18]
Figure 2006314557
In consideration of the case where the bandpass for color separation is not a complete bandpass and has sensitivity in other bands as well, if this assumption is satisfied, “W” in Expressions (15) and (16) is Considering “H”, a matrix similar to the equation (17) can be estimated after all.

次に、本発明に係る実施例1における電子内視鏡装置の具体的な構成について、図3を参照して説明する。尚、以下に示す他の実施例でも同様の外観である。   Next, a specific configuration of the electronic endoscope apparatus according to the first embodiment of the present invention will be described with reference to FIG. In addition, it is the same external appearance also in the other Example shown below.

図3に示すように、電子内視鏡装置100は、スコープ101、内視鏡装置本体105、表示モニタ106を有している。また、スコープ101は、被検体の体内に挿入される挿入部102、挿入部102の先端に設けられた先端部103および、挿入部102の先端側とは反対側に設けられ、先端部103の湾曲動作等を指示するためのアングル操作部104から主として構成されている。   As shown in FIG. 3, the electronic endoscope apparatus 100 includes a scope 101, an endoscope apparatus main body 105, and a display monitor 106. The scope 101 is provided on the insertion portion 102 to be inserted into the body of the subject, the distal end portion 103 provided at the distal end of the insertion portion 102, and the distal end side of the insertion portion 102. It is mainly composed of an angle operation unit 104 for instructing a bending operation or the like.

スコープ101で取得された被検体の画像は、内視鏡装置本体105にて所定の信号処理がなされ、表示モニタ106において、処理された画像が表示される。   The subject image acquired by the scope 101 is subjected to predetermined signal processing in the endoscope apparatus main body 105, and the processed image is displayed on the display monitor 106.

次に、図4を参照して、内視鏡装置本体105について詳しく説明する。尚、図4は、電子内視鏡装置100のブロック図である。   Next, the endoscope apparatus main body 105 will be described in detail with reference to FIG. FIG. 4 is a block diagram of the electronic endoscope apparatus 100.

図4に示すように、内視鏡装置本体105は、主に光源部41、制御部42、本体処理装置43から構成されている。   As shown in FIG. 4, the endoscope apparatus main body 105 mainly includes a light source section 41, a control section 42, and a main body processing apparatus 43.

尚、本実施例では、1つのユニットである内視鏡装置本体105内に光源部41と画像処理等を行う本体処理装置43を有するものとして説明を行うが、これらは、別のユニットとして、取り外し可能なように構成されていても良い。   In this embodiment, the endoscope apparatus main body 105, which is one unit, will be described as having a light source unit 41 and a main body processing apparatus 43 that performs image processing and the like. You may be comprised so that removal is possible.

光源部41は、制御部42およびスコープ101に接続されており、制御部42からの信号に基づいて所定の光量で白色光(完全な白色光でない場合も含む)の照射を行う。また、光源部41は、白色光源としてのランプ15、光量を調整するためのチョッパー16及びチョッパー16を駆動するためのチョッパー駆動部17を有している。   The light source unit 41 is connected to the control unit 42 and the scope 101, and emits white light (including a case where the light is not perfect white light) with a predetermined light amount based on a signal from the control unit 42. The light source unit 41 includes a lamp 15 as a white light source, a chopper 16 for adjusting the light amount, and a chopper driving unit 17 for driving the chopper 16.

チョッパー16は、図5に示すように、点17aを中心とし、所定の半径r0の円盤状の構造体に円周方向に所定の長さを有する切り欠き部が設けられた構成を備える。この中心点17aは、チョッパー駆動部17に設けられた回転軸と接続されている。つまり、チョッパー16は、中心点17aを中心に回転運動を行う。また、この切り欠き部は、所定の半径毎に複数設けられている。同図においては、この切り欠き部は、半径r0から半径raの間では、最大の長さ=2πr0×2θ0度/360度、幅=r0−raである。また、同様に、半径raから半径rbの間では、最大の長さ=2πra×2θ1度/360度、幅=ra−rb、半径rbから半径rcの間では、最大の長さ=2πrb×2θ2度/360度、幅=rb−rcという構成である(それぞれの半径は、r0>ra>rb>rcとする)。   As shown in FIG. 5, the chopper 16 has a configuration in which a notch having a predetermined length in the circumferential direction is provided in a disk-like structure having a predetermined radius r0 with the point 17a as the center. The center point 17a is connected to a rotating shaft provided in the chopper driving unit 17. That is, the chopper 16 performs rotational movement around the center point 17a. In addition, a plurality of notches are provided for each predetermined radius. In this figure, the notch has a maximum length = 2πr0 × 2θ0 degrees / 360 degrees and a width = r0−ra between the radius r0 and the radius ra. Similarly, the maximum length = 2πra × 2θ1 degrees / 360 degrees between the radius ra and the radius rb, the width = ra−rb, and the maximum length = 2πrb × 2θ2 between the radius rb and the radius rc. Degree / 360 degrees and width = rb−rc (respective radii are r0> ra> rb> rc).

尚、チョッパー16における切り欠き部の長さ、幅は一例であり、本実施例に限定されるわけではない。   In addition, the length and width of the notch in the chopper 16 are examples, and are not limited to the present embodiment.

また、チョッパー16は、この切り欠き部の略中央に半径方向に延伸する突起部160aを有する。尚、この突起部160aにより光が遮断された時にフレームを切換えることにより、1フレーム前と1フレーム後に照射される光の間隔を最小限にし、被検体の動き等によるブレを最小限にするものである。   Further, the chopper 16 has a protrusion 160a extending in the radial direction substantially at the center of the notch. In addition, by switching the frame when the light is blocked by the projection 160a, the interval between the light irradiated one frame before and after one frame is minimized, and the blur due to the movement of the subject is minimized. It is.

また、チョッパー駆動部17は図4における矢印で示されるように、ランプ15に対する方向に移動が可能な構成となっている。   Further, the chopper driving unit 17 is configured to be movable in the direction with respect to the lamp 15 as indicated by an arrow in FIG.

つまり、図5に示されたチョッパー16の回転中心17aとランプからの光束(点線円で示されている)との距離Rを変えることができる。例えば、図5に示された状態では、距離Rがかなり小さいので、照明光量は小さい状態にある。距離Rを大きくする(チョッパー駆動部17をランプ15から遠ざける)ことで、光束が通過できる切り欠き部が長くなるため、照射時間が長くなり、照明光量を大きくすることができる。   That is, the distance R between the rotation center 17a of the chopper 16 shown in FIG. 5 and the luminous flux from the lamp (shown by a dotted circle) can be changed. For example, in the state shown in FIG. 5, since the distance R is quite small, the amount of illumination light is small. By increasing the distance R (the chopper driving unit 17 is moved away from the lamp 15), the cutout portion through which the light beam can pass becomes longer, so that the irradiation time becomes longer and the amount of illumination light can be increased.

上述のように、新しく生成した分光画像はS/Nとしては不十分である可能性があることと、生成に必要ないずれかの信号が飽和している場合には正しい演算が行われたことにはならないので、照明光量を制御する必要がある。この光量調節をチョッパー16およびチョッパー駆動部17が担うことになる。   As described above, the newly generated spectral image may not be sufficient as S / N, and the correct calculation was performed when any signal required for generation was saturated. Therefore, it is necessary to control the amount of illumination light. The light amount adjustment is performed by the chopper 16 and the chopper driving unit 17.

尚、光源部41は、チョッパーによる光量制御ではなく、ランプ15の電流制御によって光量を調整するようにしても良い。すなわち、ランプ15に電流制御装置を設け、制御部42からの指令に基づいて、RGBのいずれのカラー画像信号も飽和状態とならないようにランプ15に流れる電流の制御を行う。これにより、ランプ15は発光のために使用される電流が制御されるため、その光量は、その電流の大きさに応じて変化する。   The light source unit 41 may adjust the light amount not by the light amount control by the chopper but by the current control of the lamp 15. That is, a current control device is provided in the lamp 15, and the current flowing through the lamp 15 is controlled based on a command from the control unit 42 so that none of the RGB color image signals are saturated. Thereby, since the current used for light emission in the lamp 15 is controlled, the amount of light changes according to the magnitude of the current.

ランプ15の電流制御によっても血管パターン等が鮮明に表示される分光画像を得ることができるが、ランプ15の電流制御は、チョッパーを用いた光量制御に比較し、制御方法が簡単であるという利点がある。   A spectral image in which a blood vessel pattern or the like is clearly displayed can be obtained even by current control of the lamp 15, but the current control of the lamp 15 has an advantage that the control method is simpler than the light amount control using a chopper. There is.

また、光源部41にコネクタ11を介して接続されたスコープ101は、先端部103に対物レンズ19及びCCD等の固体撮像素子21(以下、単にCCDと記載する)を備えている。本実施例におけるCCDは単板式(同時式電子内視鏡用に用いられるCCD)であり、原色型である。尚、その色フィルタの配列を図6に示す。また、RGBのそれぞれの分光感度特性を図7に示す。   The scope 101 connected to the light source unit 41 via the connector 11 includes an objective lens 19 and a solid-state imaging device 21 such as a CCD (hereinafter simply referred to as a CCD) at the distal end portion 103. The CCD in this embodiment is a single plate type (CCD used for a simultaneous electronic endoscope) and is a primary color type. The arrangement of the color filters is shown in FIG. FIG. 7 shows the spectral sensitivity characteristics of RGB.

また、図4に示すように、挿入部102には、光源部41から照射された光を先端部103に導くライトガイド14、CCDで得られた被検体の画像を本体処理装置43に伝送するための信号線、また、処置を行うための鉗子チャネル28等が備えられている。尚、鉗子チャネル28に鉗子を挿入するための鉗子口29は、操作部104近傍に設けられている。   As shown in FIG. 4, the light guide 14 that guides the light emitted from the light source unit 41 to the distal end 103 is transmitted to the insertion unit 102, and the image of the subject obtained by the CCD is transmitted to the main body processing device 43. A signal line for performing treatment, a forceps channel 28 for performing treatment, and the like are provided. A forceps port 29 for inserting forceps into the forceps channel 28 is provided in the vicinity of the operation unit 104.

また、本体処理装置43は、光源部41と同様、コネクタ11を介してスコープ101に接続される。本体処理装置43には、CCD21を駆動するためのCCDドライブ431が設けられている。また、通常画像を得るための信号回路系として輝度信号処理系と色信号処理系を有する。   Further, the main body processing device 43 is connected to the scope 101 via the connector 11, similarly to the light source unit 41. The main body processing device 43 is provided with a CCD drive 431 for driving the CCD 21. In addition, a luminance signal processing system and a color signal processing system are provided as signal circuit systems for obtaining a normal image.

輝度信号処理系は、CCD21に接続され輪郭補正を行う輪郭補正部432、輪郭補正部432で補正されたデータから輝度信号を生成する輝度信号処理部434を有する。また、色信号処理系は、CCD21に接続され、CCD21で得られた信号のサンプリング等を行いRGB信号を生成するサンプルホールド回路(S/H回路)433a乃至433c、S/H回路433a乃至433cの出力に接続され、色信号の生成を行う色信号処理部435を有する。   The luminance signal processing system includes a contour correction unit 432 that is connected to the CCD 21 and performs contour correction, and a luminance signal processing unit 434 that generates a luminance signal from data corrected by the contour correction unit 432. The color signal processing system is connected to the CCD 21, and samples and hold circuits (S / H circuits) 433a to 433c and S / H circuits 433a to 433c that sample the signals obtained by the CCD 21 and generate RGB signals. A color signal processing unit 435 is connected to the output and generates a color signal.

また、輝度信号処理系と色信号処理系の出力から1つの通常画像を生成する通常画像生成部437が設けられ、通常画像生成部437から切換部439を介して、表示モニタ106にY信号、R−Y信号、B−Y信号が送られる。   In addition, a normal image generation unit 437 that generates one normal image from the outputs of the luminance signal processing system and the color signal processing system is provided, and a Y signal is output from the normal image generation unit 437 to the display monitor 106 via the switching unit 439. RY signal and BY signal are sent.

一方、分光画像を得るための信号回路系として、S/H回路433a乃至433cの出力にマトリックス演算部436が設けられ、RGB信号に対して所定のマトリックス演算が行われる。マトリックス演算とは、カラー画像信号同士に加算処理等を行い、また、上述のマトリックス算出方法(あるいはその変形例)により求められたマトリックスを乗算する処理をいう。   On the other hand, as a signal circuit system for obtaining a spectral image, a matrix calculation unit 436 is provided at the output of the S / H circuits 433a to 433c, and a predetermined matrix calculation is performed on the RGB signals. Matrix calculation refers to a process of performing addition processing or the like between color image signals and multiplying the matrix obtained by the above-described matrix calculation method (or a modification thereof).

尚、本実施例では、このマトリックス演算の方法として、電子回路処理(電子回路を用いたハードウェアによる処理)を用いた方法について説明するが、後述の実施例のように、数値データ処理(プログラムを用いたソフトウェアによる処理)によるものとしても良い。また、実施するにあたっては、これらの組み合わせとすることも可能である。   In this embodiment, a method using electronic circuit processing (processing by hardware using an electronic circuit) will be described as the matrix calculation method. However, as in the embodiments described later, numerical data processing (program It is also possible to be based on processing by software using. Moreover, when implementing, it is also possible to combine these.

図8に、マトリックス演算部436の回路図を示す。RGB信号はそれぞれ抵抗群31a乃至31cを介して、増幅器32a乃至32cに入力される。それぞれの抵抗群は、RGB信号がそれぞれ接続される複数の抵抗を有しており、それぞれの抵抗の抵抗値はマトリクス係数に応じた値となっている。即ち、それぞれの抵抗によりRGB信号の増幅率を変化させ、増幅器で加算(減算でも良い)する構成となっている。それぞれの増幅器32a乃至32cの出力は、マトリックス演算部436の出力となる。つまり、このマトリックス演算部436は、いわゆる重み付け加算処理を行っている。尚、ここで用いられるそれぞれの抵抗における抵抗値を可変としても良い。   FIG. 8 shows a circuit diagram of the matrix calculation unit 436. The RGB signals are input to the amplifiers 32a to 32c through the resistor groups 31a to 31c, respectively. Each resistor group has a plurality of resistors to which RGB signals are respectively connected, and the resistance value of each resistor is a value corresponding to the matrix coefficient. In other words, the gain of the RGB signal is changed by each resistor, and the amplifiers add (or subtract). The outputs of the amplifiers 32a to 32c are the outputs of the matrix operation unit 436. That is, the matrix calculation unit 436 performs so-called weighted addition processing. Note that the resistance value of each resistor used here may be variable.

マトリックス演算部436の出力は、それぞれ積算部438a乃至438cに接続され、積分演算が行われた後、それぞれの分光画像信号ΣF1乃至ΣF3が色調整部440及び生体機能演算部450に送られる。色調整部440は、分光画像信号ΣF1乃至ΣF3に対して後述する色調整演算を行い、カラーチャンネルRch、Gch、Bchを生成して切換部439に送る。また、生体機能演算部450は、分光画像信号ΣF1乃至ΣF3に基づいて、生体機能を表す指標として血液中のヘモグロビン濃度に相関のある値(ヘモグロビンインデックス;IHb)を演算し、演算したIHb値から擬似画像(擬似カラー画像或いはグレースケール画像)等の生体機能情報を生成して切換部439に送る。尚、色調整部440及び生体機能演算部450の構成については、後述する。   The outputs of the matrix calculation unit 436 are connected to the integration units 438a to 438c, respectively, and after integration is performed, the respective spectral image signals ΣF1 to ΣF3 are sent to the color adjustment unit 440 and the biological function calculation unit 450. The color adjustment unit 440 performs a color adjustment calculation described later on the spectral image signals ΣF1 to ΣF3, generates color channels Rch, Gch, and Bch and sends them to the switching unit 439. In addition, the biological function calculation unit 450 calculates a value (hemoglobin index; IHb) correlated with the hemoglobin concentration in blood as an index representing the biological function based on the spectral image signals ΣF1 to ΣF3, and from the calculated IHb value Biological function information such as a pseudo image (pseudo color image or gray scale image) is generated and sent to the switching unit 439. The configuration of the color adjustment unit 440 and the biological function calculation unit 450 will be described later.

尚、切換部439は、通常画像、分光画像、生体機能画像(生体機能情報)の表示切換えを行うものであり、また分光画像同士の切換表示も可能である。つまり操作者は、通常画像、Rchによる分光チャンネル画像、Gchによる分光チャンネル画像、Bchによる分光チャンネル画像、生体機能画像から選択的に表示することができる。また、いずれか2つ以上の画像を同時に表示モニタ106に表示可能な構成としても良い。   The switching unit 439 performs display switching between a normal image, a spectral image, and a biological function image (biological function information), and can also switch and display spectral images. That is, the operator can selectively display from a normal image, a spectral channel image by Rch, a spectral channel image by Gch, a spectral channel image by Bch, and a biological function image. Further, any two or more images may be displayed on the display monitor 106 at the same time.

特に、通常画像、分光チャンネル画像、生体機能画像を同時に表示可能とした場合には、一般的に観察を行っている通常画像に対して分光チャンネル画像及び生体機能画像を簡単に対比することができ、通常画像と分光チャンネル画像とのそれぞれの特徴(通常画像の特徴は色度合いが通常の肉眼の観察に近く観察しやすい。分光チャンネル画像の特徴は通常画像では観察できない所定の血管等を観察することができる。)を加味した上で観察することができ、診断上非常に有用である。   In particular, when the normal image, the spectral channel image, and the biological function image can be displayed simultaneously, the spectral channel image and the biological functional image can be easily compared with the normal image that is generally observed. Each characteristic of the normal image and the spectral channel image (the characteristic of the normal image is easy to observe because the color degree is close to that of the normal naked eye. The characteristic of the spectral channel image is to observe a predetermined blood vessel or the like that cannot be observed in the normal image. Can be observed in consideration of the above, and is very useful in diagnosis.

次に、本実施の形態における電子内視鏡装置100の動作について図4を参照して詳しく説明する。   Next, the operation of the electronic endoscope apparatus 100 according to the present embodiment will be described in detail with reference to FIG.

尚、以下においては、まず通常画像を観察する際の動作について説明し、後に分光画像を観察する際の動作について説明する。   In the following, the operation when observing a normal image will be described first, and the operation when observing a spectral image will be described later.

まず、光源部41の動作を説明すると、制御部42からの制御信号に基づいて、チョッパー駆動部17は、所定の位置に設定され、チョッパー16を回転させる。ランプ15からの光束は、チョッパー16の切り欠き部を通過し、集光レンズにより、スコープ101と光源部41の接続部にあるコネクタ11内に設けられた光ファイババンドルであるライトガイド14の入射端に、集光される。   First, the operation of the light source unit 41 will be described. Based on a control signal from the control unit 42, the chopper driving unit 17 is set to a predetermined position and rotates the chopper 16. The light flux from the lamp 15 passes through the notch portion of the chopper 16 and is incident on the light guide 14 that is an optical fiber bundle provided in the connector 11 at the connection portion of the scope 101 and the light source portion 41 by the condenser lens. At the end, it is condensed.

集光された光束は、ライトガイド14を通り、先端部103に設けられた照明光学系から被検体の体内に照射される。照射された光束は、被検体内で反射し、対物レンズ19を介して、CCD21において図6で示した色フィルタ別に信号が収集される。   The condensed light flux passes through the light guide 14 and is irradiated into the body of the subject from the illumination optical system provided at the distal end portion 103. The irradiated light beam is reflected in the subject, and signals are collected for each color filter shown in FIG.

収集された信号は、上記の輝度信号処理系と色信号処理系に並列に入力される。輝度信号系の輪郭補正部432には、色フィルタ別に収集された信号が画素ごとに加算され入力され、輪郭補正後、輝度信号処理部434に入力される。輝度信号処理部434では、輝度信号が生成され、通常画像生成部437に入力される。   The collected signals are input in parallel to the luminance signal processing system and the color signal processing system. The luminance signal-based contour correction unit 432 adds the signals collected for each color filter for each pixel and inputs them. After contour correction, the signals are input to the luminance signal processing unit 434. In the luminance signal processing unit 434, a luminance signal is generated and input to the normal image generating unit 437.

また一方で、CCD21で収集された信号は、各フィルタ毎にS/H回路433a乃至433cに入力され、それぞれR・G・B信号が生成される。さらにR・G・B信号は、色信号処理部435にて色信号が生成され、通常画像生成部437において、前記輝度信号および色信号からY信号、R−Y信号、B−Y信号が生成され、切換部439を介して、表示モニタ106に被検体の通常画像が表示される。   On the other hand, signals collected by the CCD 21 are input to the S / H circuits 433a to 433c for each filter, and R, G, and B signals are respectively generated. Further, R, G, and B signals are generated by a color signal processing unit 435, and a normal image generation unit 437 generates a Y signal, an RY signal, and a BY signal from the luminance signal and the color signal. Then, the normal image of the subject is displayed on the display monitor 106 via the switching unit 439.

次に、分光画像を観察する際の動作について説明する。尚、通常画像の観察と同様の動作を行うものに関しては、ここでは省略する。   Next, the operation when observing a spectral image will be described. In addition, what performs the same operation | movement as observation of a normal image is abbreviate | omitted here.

操作者は、本体105に設けられているキーボードあるいはスコープ101の操作部104に設けられているスイッチ等を操作することにより、通常画像から分光画像を観察する指示をおこなう。この時、制御部42は、光源部41および本体処理装置43の制御状態を変更する。   The operator gives an instruction to observe the spectral image from the normal image by operating a keyboard or the like provided on the main body 105 or a switch or the like provided on the operation unit 104 of the scope 101. At this time, the control unit 42 changes the control state of the light source unit 41 and the main body processing device 43.

具体的には、必要に応じて、光源部41から照射される光量を変更する。上述のように、CCD21からの出力が飽和することは望ましくないため、通常画像に比して照明光量を小さくする。また、CCDからの出力信号が飽和しないように制御するとともに、飽和しない範囲にて照明光量を変化させることもできる。   Specifically, the amount of light emitted from the light source unit 41 is changed as necessary. As described above, since it is not desirable that the output from the CCD 21 is saturated, the amount of illumination light is reduced as compared with a normal image. Further, it is possible to control the output signal from the CCD not to be saturated, and to change the amount of illumination light within a range where the output signal is not saturated.

また、本体処理装置43への制御変更としては、切換部439から出力される信号を通常画像生成部437から積算部438a乃至438cから出力される信号に切換える。また、S/H回路433a乃至433cの出力は、マトリックス演算部436で増幅・加算処理が行われ、それぞれの帯域に応じて積算部438a乃至438cに出力される。チョッパー16で、照明光量を小さくした場合でも、積算部438a乃至438cにて、保存・積算することで、図2に示したように、信号強度を上げることができ、また、S/Nが向上した分光画像を得ることができる。   Further, as a control change to the main body processing device 43, the signal output from the switching unit 439 is switched to the signal output from the normal image generation unit 437 to the integration units 438a to 438c. The outputs of the S / H circuits 433a to 433c are amplified and added by the matrix calculation unit 436, and output to the integration units 438a to 438c according to the respective bands. Even when the amount of illumination light is reduced by the chopper 16, the signal intensity can be increased and the S / N can be improved as shown in FIG. 2 by storing and integrating in the integrating units 438 a to 438 c. Spectral images can be obtained.

以下、本実施例における具体的なマトリックス演算部436のマトリックス処理について記載する。本実施例では、図7に実線で示されたRGBの分光感度特性から、同図中に示された理想的な狭帯域バンドパスフィルタF1乃至F3(ここではそれぞれの透過波長領域をF1:590nm〜620nm、F2:520nm〜560nm、F3:400nm〜440nmとした)に近いバンドパスフィルタ(以下擬似バンドパスフィルタと呼ぶ)を作成しようとした場合、前述の(1)式から(5)式に示した内容により、以下のマトリックスが最適となる。   Hereinafter, specific matrix processing of the matrix calculation unit 436 in the present embodiment will be described. In this embodiment, from the spectral sensitivity characteristics of RGB indicated by the solid line in FIG. 7, ideal narrow bandpass filters F1 to F3 (here, each transmission wavelength region is expressed as F1: 590 nm). ~ 620nm, F2: 520nm to 560nm, F3: 400nm to 440nm) when trying to create a bandpass filter (hereinafter referred to as a pseudo bandpass filter), from the above formula (1) to (5) Depending on what is shown, the following matrix is optimal.

[数19]

Figure 2006314557
更に、(6)式及び(7)式に示した内容により補正を行うと、以下の補正係数を得る。 [Equation 19]
Figure 2006314557
Further, when correction is performed according to the contents shown in the equations (6) and (7), the following correction coefficients are obtained.

[数20]

Figure 2006314557
尚、(6)式に示す光源のスペクトルS(λ)は図9に、(7)式に示す注目する生体の反射スペクトルH(λ)は図10に示すものとの先見情報を使用している。 [Equation 20]
Figure 2006314557
Note that the spectrum S (λ) of the light source shown in the equation (6) is shown in FIG. 9, and the reflection spectrum H (λ) of the target organism shown in the equation (7) is used in the foresight information shown in FIG. Yes.

従って、マトリックス演算部436にて行われる処理は、数学的には以下のマトリックス演算と同値となる。   Therefore, the processing performed by the matrix calculation unit 436 is mathematically equivalent to the following matrix calculation.

[数21]

Figure 2006314557
このマトリックス演算を行うことにより擬似フィルタ特性(図7にはフィルタ擬似F1乃至F3の特性として示されている)が得られる。即ち、上述のマトリックス処理は、カラー画像信号に、上述のようにして予め生成された擬似バンドパスフィルタ(マトリックス)を用いて、分光画像信号を作成するものである。 [Equation 21]
Figure 2006314557
By performing this matrix operation, pseudo filter characteristics (shown as characteristics of filter pseudo F1 to F3 in FIG. 7) are obtained. That is, the matrix processing described above creates a spectral image signal using a pseudo bandpass filter (matrix) generated in advance as described above for a color image signal.

この擬似フィルタ特性を用いて生成された内視鏡画像の一例を以下に示す。   An example of an endoscopic image generated using this pseudo filter characteristic is shown below.

図11に示すように、体腔内組織51は、例えば深さ方向に異なった血管等の吸収体分布構造を持つ場合が多い。粘膜表層付近には主に毛細血管52が多く分布し、またこの層より深い中層には毛細血管の他に毛細血管より太い血管53が分布し、さらに深層にはさらに太い血管54が分布するようになる。   As shown in FIG. 11, the body cavity tissue 51 often has an absorber distribution structure such as blood vessels that differ in the depth direction. A large number of capillaries 52 are mainly distributed near the surface of the mucosa, and blood vessels 53 that are thicker than capillaries are distributed in the middle layer deeper than this layer, and thicker blood vessels 54 are further distributed in the deep layers. become.

一方、光は体腔内組織51に対する光の深さ方向の深達度は、光の波長に依存しており、可視域を含む照明光は、図12に示すように、青(B)色のような波長が短い光の場合、生体組織での吸収特性及び散乱特性により表層付近までしか光は深達せず、そこまでの深さの範囲で吸収、散乱を受け、表面から出た光が観測される。また、青(B)色光より波長が長い、緑(G)色光の場合、青(B)色光が深達する範囲よりさらに深い所まで深達し、その範囲で吸収、散乱を受け、表面から出た光が観測される。さらにまた、緑(G)色光より波長が長い、赤(R)色光は、さらに深い範囲まで光が到達する。   On the other hand, the depth of light in the depth direction with respect to the body cavity tissue 51 depends on the wavelength of the light, and the illumination light including the visible range is blue (B) as shown in FIG. In the case of light with such a short wavelength, the light reaches the surface layer only due to the absorption and scattering characteristics in the living tissue, and the light emitted from the surface is observed by being absorbed and scattered in the depth range up to that. Is done. In the case of green (G) light, which has a wavelength longer than that of blue (B) light, it reaches deeper than the range where blue (B) light deepens, absorbs and scatters within that range, and exits from the surface. Light is observed. Still further, red (R) light having a wavelength longer than that of green (G) light reaches a deeper range.

体腔内組織51の通常観察時におけるRGB光は、図13に示すように、各波長域がオーバーラップしているために、
(1)B帯域光によりCCD21で撮像される撮像信号には図14に示すような浅層での組織情報を多く含む浅層及び中層組織情報を有するバンド画像が撮像され、
(2)また、G帯域光によりCCD21で撮像される撮像信号には図15に示すような中層での組織情報を多く含む浅層及び中層組織情報を有するバンド画像が撮像され、
(3)さらにR帯域光によりCCD21で撮像される撮像信号には図16に示すような深層での組織情報を多く含む中層及び深層組織情報を有するバンド画像が撮像される。
Since the RGB light during normal observation of the tissue 51 in the body cavity is overlapped with each other as shown in FIG.
(1) Band images having shallow layer and middle layer tissue information including a lot of tissue information in the shallow layer as shown in FIG.
(2) In addition, the image signal picked up by the CCD 21 with the G-band light is picked up with a shallow layer image including a lot of tissue information in the middle layer and a band image having the middle layer tissue information as shown in FIG.
(3) Further, a band image having middle layer and deep layer tissue information including a lot of tissue information in the deep layer as shown in FIG.

そして内視鏡装置本体105により、これらRGB撮像信号を信号処理することで、内視鏡画像としては所望あるいは自然な色再現の内視鏡画像を得ることが可能となる。   Then, the endoscope apparatus body 105 performs signal processing on these RGB imaging signals, so that it is possible to obtain an endoscopic image having a desired or natural color reproduction as an endoscopic image.

上述のマトリックス演算部436におけるマトリックス処理は、カラー画像信号に、上述のようにして予め生成された擬似バンドパスフィルタ(マトリックス)を用いて、分光画像信号を作成するものである。例えば図17に示すような所望の深層組織情報が抽出可能な離散的で狭帯域な分光特性の擬似バンドパスフィルタF1乃至F3を用いて、分光画像信号F1乃至F3が得られる。擬似バンドパスフィルタF1乃至F3は、図17に示すように、各波長域がオーバーラップしていないために、
(4)擬似バンドパスフィルタF3による分光画像信号F3には図18に示すような浅層での組織情報を有するバンド画像が撮像され、また、
(5)擬似バンドパスフィルタF2による分光画像信号F2には図19に示すような中層での組織情報を有するバンド画像が撮像され、さらに
(6)擬似バンドパスフィルタF1による分光画像信号F1には図20に示すような深層での組織情報を有するバンド画像が撮像される。
The matrix processing in the matrix calculation unit 436 is to create a spectral image signal by using the pseudo bandpass filter (matrix) generated in advance as described above for the color image signal. For example, spectral image signals F1 to F3 are obtained using pseudo bandpass filters F1 to F3 having discrete and narrow-band spectral characteristics capable of extracting desired deep tissue information as shown in FIG. As shown in FIG. 17, the pseudo bandpass filters F1 to F3 are not overlapped with each other.
(4) A band image having tissue information in a shallow layer as shown in FIG. 18 is captured in the spectral image signal F3 by the pseudo bandpass filter F3,
(5) A band image having tissue information in the middle layer as shown in FIG. 19 is captured in the spectral image signal F2 by the pseudo bandpass filter F2, and (6) the spectral image signal F1 by the pseudo bandpass filter F1 A band image having tissue information in the deep layer as shown in FIG. 20 is captured.

つぎに、このようにして得られた分光画像信号F1乃至F3に対して色調整部440は、最も単純な色変換の例として、分光画像信号F1をカラーチャンネルRchに、分光画像信号F2をカラーチャンネルGchに、分光画像信号F3をカラーチャンネルBchに、それぞれ割り付け、切換部439を介して、表示モニタ106に出力する。   Next, for the spectral image signals F1 to F3 obtained in this way, the color adjustment unit 440, as an example of the simplest color conversion, uses the spectral image signal F1 as a color channel Rch and the spectral image signal F2 as a color. The spectral image signal F3 is allocated to the channel Gch to the color channel Bch, and is output to the display monitor 106 via the switching unit 439.

色調整部440は、図21に示すように、3×3のマトリックス回路61を挟んで、前後それぞれに3組のLUT62a,62b,62c,63a,63b,63cと、LUT62a,62b,62c,63a,63b,63cのテーブルデータや3×3マトリックス回路61の係数を変換する係数変更回路64とを備え、色変換処理回路440aを構成している。   As shown in FIG. 21, the color adjustment unit 440 has three sets of LUTs 62a, 62b, 62c, 63a, 63b, and 63c and LUTs 62a, 62b, 62c, and 63a on both sides of the 3 × 3 matrix circuit 61. , 63b, 63c and a coefficient changing circuit 64 for converting the coefficients of the 3 × 3 matrix circuit 61 to constitute a color conversion processing circuit 440a.

色変換処理回路440aに入力する分光画像信号F1乃至F3は、各バンドデータ毎にLUT62a,62b,62cにより変換される。ここでは、逆γ補正や、非線形なコントラスト変換等が行われる。   The spectral image signals F1 to F3 input to the color conversion processing circuit 440a are converted by the LUTs 62a, 62b, and 62c for each band data. Here, inverse γ correction, nonlinear contrast conversion, and the like are performed.

次に、3×3マトリックス回路61にて、色変換が行われた後、後段のLUT63a,63b,63cにてγ補正や、適当な階調変換処理が行われる。   Next, after color conversion is performed in the 3 × 3 matrix circuit 61, γ correction and appropriate gradation conversion processing are performed in the subsequent LUTs 63a, 63b, and 63c.

これらLUT62a,62b,62c,63a,63b,63cのテーブルデータや3×3マトリックス回路61の係数を変換する係数変更回路64で変更することができる。   The LUTs 62a, 62b, 62c, 63a, 63b, and 63c can be changed by the coefficient changing circuit 64 that converts the table data and the coefficients of the 3 × 3 matrix circuit 61.

係数変更回路64による変更は、スコープ101の操作部等に設けられた処理変換スイッチ(図示せず)からの制御信号に基づく。   The change by the coefficient changing circuit 64 is based on a control signal from a processing conversion switch (not shown) provided in the operation unit or the like of the scope 101.

これら制御信号を受けた係数変更回路63は、予め色調整部440内に記せされている係数データから適切なデータを呼び出し、このデータで、現在の回路係数を書き換える。   Upon receiving these control signals, the coefficient changing circuit 63 calls appropriate data from the coefficient data previously written in the color adjustment unit 440, and rewrites the current circuit coefficient with this data.

次に具体的な色変換処理内容について述べる。式(22)に色変換式の一例を示す。   Next, specific color conversion processing contents will be described. An example of the color conversion formula is shown in Formula (22).

[数22]

Figure 2006314557
この式(22)による処理は、分光チャンネル画像Rch、Gch、Bchに分光画像信号F1乃至F3を波長の短い順に割り当てる色変換である。 [Equation 22]
Figure 2006314557
The processing according to the equation (22) is color conversion in which the spectral image signals F1 to F3 are assigned to the spectral channel images Rch, Gch, and Bch in order of decreasing wavelength.

これらカラーチャンネルRch、Gch、Bchによるカラー画像で観察した場合、例えぱ図22に示すような画像となる。太い血管が深い位置にあり、分光画像信号F3が反映され、カラーとしては青色系のパターンとして示される。中層付近にある血管網は分光画像信号F2が強く反映されるので、カラー画像としては赤色系のパターンとして示される。血管網の内、粘膜表面付近に存在するものは黄色系のパターンとして表現される。   When observed with color images of these color channels Rch, Gch, and Bch, for example, an image as shown in FIG. 22 is obtained. A thick blood vessel is in a deep position, the spectral image signal F3 is reflected, and the color is shown as a blue pattern. Since the spectral image signal F2 is strongly reflected in the vascular network near the middle layer, the color image is shown as a red pattern. Those existing in the vicinity of the mucosal surface in the vascular network are expressed as a yellowish pattern.

尚、色変換処理回路440aは3×3マトリックス回路61からなるマトリックス演算器により色変換するとしたが、これに限らず、数値演算プロセッサ(CPU)やLUTで色変換処理手段を構成してもよい。   The color conversion processing circuit 440a performs color conversion using a matrix calculator composed of a 3 × 3 matrix circuit 61. However, the present invention is not limited to this, and a color conversion processing means may be configured by a numerical operation processor (CPU) or LUT. .

例えば、上記実施例では、3×3マトリックス回路61を中心とした構成により色変換処理回路440aを示したが、図23に示すように、色変換処理回路440aを各バンドに対応した3次元LUT71で置き換えても同様の効果を得ることができる。この場合、係数変更回路64は、スコープ101の操作部等に設けられた処理変換スイッチ(図示せず)からの制御信号に基づいてテーブルの内容を変更する動作を行なう。   For example, in the above embodiment, the color conversion processing circuit 440a is shown with a configuration centered on the 3 × 3 matrix circuit 61. However, as shown in FIG. 23, the color conversion processing circuit 440a is replaced with a three-dimensional LUT 71 corresponding to each band. The same effect can be obtained by replacing with. In this case, the coefficient changing circuit 64 performs an operation of changing the contents of the table based on a control signal from a processing conversion switch (not shown) provided in the operation unit or the like of the scope 101.

一方、カラーチャンネルRch、Gch、Bchによる観察画像に対し、操作者は、本体105に設けられているキーボードあるいはスコープ101の操作部104に設けられているスイッチ等を操作することにより、生体機能演算部450への演算指示を行うと、分光画像信号F1乃至F3のうちの2つのバンド画像情報を用いて、図24に示すIHb値算出回路450aにてIHb値が演算される。   On the other hand, an operator operates a biological function calculation by operating a keyboard provided on the main body 105 or a switch provided on the operation unit 104 of the scope 101 with respect to an observation image using the color channels Rch, Gch, and Bch. When the calculation instruction is given to the unit 450, the IHb value is calculated by the IHb value calculation circuit 450a shown in FIG. 24 using the two band image information of the spectral image signals F1 to F3.

従来のIHb値演算では、式(23)が使われているが、この式はGバンド画像が血液情報を強く反映することを利用している。一方、フィルタを狭帯域化すると、B画像には表面上の毛細血管が強く反映される。従って、BとGの画像は、血液が存在する深さが異なり、Bが表層、Gがそれより深い層位置の情報を反映することになる。   In the conventional IHb value calculation, equation (23) is used, and this equation utilizes the fact that the G band image strongly reflects blood information. On the other hand, when the band of the filter is narrowed, capillaries on the surface are strongly reflected in the B image. Therefore, the images of B and G have different depths at which blood exists, and B reflects information on the surface layer and G has a deeper layer position.

[数23]
IHb=32×Log2(R/G) …(23)
よって、生体機能演算部450では、R帯域に相当する分光画像信号F1をR信号、G帯域に相当する分光画像信号F2をG信号、B帯域に相当する分光画像信号F3をB信号として扱い、IHb算出回路450aに設けたセレクタ451の動作を操作スイッチ等からの指示によって切替えることで、式(23)によるG情報に基づいた粘膜中層のIHb値と、式(24)によるB情報に基づいた粘膜表層のIHb値とを切替えて演算する。これにより、生体組織の組織表面近くの所望の深部の組織情報を分離して確認することができる。
[Equation 23]
IHb = 32 × Log 2 (R / G) (23)
Therefore, the biological function calculation unit 450 treats the spectral image signal F1 corresponding to the R band as the R signal, the spectral image signal F2 corresponding to the G band as the G signal, and the spectral image signal F3 corresponding to the B band as the B signal, By switching the operation of the selector 451 provided in the IHb calculation circuit 450a by an instruction from an operation switch or the like, the IHb value of the mucosal middle layer based on the G information according to the equation (23) and the B information according to the equation (24) are used. Calculation is performed by switching the mucosal surface IHb value. Thereby, it is possible to separate and confirm tissue information of a desired deep portion near the tissue surface of the living tissue.

[数24]
IHb=32×Log2(R/B) …(24)
具体的には、IHb算出回路450aは、図24に示すように、セレクタ451、除算器452、対数変換部453、乗算器454にて構成されており、R信号としての分光画像信号F1と、セレクタ451で選択されたG信号としての分光画像信号F2、或いはB信号としての分光画像信号F3とが除算器452に入力され、R/G或いはR/Bが算出される。除算器452の出力は、Log変換部453に入力され、ROM上の変換テーブル等を用いて対数変換が行われる。対数変換された信号は、乗算器454にて所定の係数との乗算が行われ、画素毎のIHb値が算出されることになる。
[Equation 24]
IHb = 32 × Log 2 (R / B) (24)
Specifically, as shown in FIG. 24, the IHb calculation circuit 450a includes a selector 451, a divider 452, a logarithmic converter 453, and a multiplier 454, and a spectral image signal F1 as an R signal, The spectral image signal F2 as the G signal selected by the selector 451 or the spectral image signal F3 as the B signal is input to the divider 452, and R / G or R / B is calculated. The output of the divider 452 is input to the Log conversion unit 453, and logarithmic conversion is performed using a conversion table on the ROM. The logarithmically converted signal is multiplied by a predetermined coefficient in a multiplier 454, and an IHb value for each pixel is calculated.

そして、演算された画素毎のIHb値に基づいて疑似カラー画像等が生成され、切換部439を介して表示モニタ106に出力される。例えば、図25に示すように、表示モニタ106には、画面左側に通常のカラー画像106Aを表示し、その右側に分光チャンネル画像による観察画像106Cを表示し、観察画像106Bの下部にIHb値に基づく生体機能画像106Cを表示することにより、通常の画像と、所望の深部の組織情報の観察に適した色調に色変換された観察画像と、この観察画像に対応した組織のIHb値による生体機能情報とを同時に表示し、診断能を向上させることができる。   Then, a pseudo color image or the like is generated based on the calculated IHb value for each pixel, and is output to the display monitor 106 via the switching unit 439. For example, as shown in FIG. 25, the display monitor 106 displays a normal color image 106A on the left side of the screen, an observation image 106C based on a spectral channel image on the right side, and an IHb value below the observation image 106B. By displaying the biological function image based on 106C, a normal image, an observation image that has been color-converted into a color suitable for observing tissue information at a desired depth, and a biological function based on the IHb value of the tissue corresponding to the observation image Information can be displayed at the same time, and the diagnostic ability can be improved.

例えば、式(22)による色変換処理により、分光画像信号F2をカラーチャンネルGchに割り付け、赤色系パターンの観察画像で中層付近にある血管網を表示し、同時に、分光画像信号F1,F2によるG情報に基づいた粘膜中層のIHb値を算出して生体機能画像を表示することにより、ヘモグロビン分布による血行動態の変化を容易に把握することが可能となる。   For example, the spectral image signal F2 is assigned to the color channel Gch by the color conversion processing according to the equation (22), and the blood vessel network near the middle layer is displayed in the observation image of the red pattern, and at the same time, the G based on the spectral image signals F1, F2 is displayed. By calculating the IHb value of the mucosal middle layer based on the information and displaying the biological function image, it is possible to easily grasp the change in hemodynamics due to the hemoglobin distribution.

このとき、粘膜表面付近に存在する血管網は、観察画像では黄色系のパターンとして表現されるが、黄色系のパターンは、背景粘膜とのコントラストが弱く、視認性が低いという傾向がある。粘膜表面付近のパターンの変化は、特に、早期病変の発見鑑別診断にとって重要である。   At this time, the vascular network existing in the vicinity of the mucosal surface is expressed as a yellow pattern in the observation image, but the yellow pattern tends to have low contrast with the background mucosa and low visibility. Changes in the pattern near the mucosal surface are particularly important for early differential detection and diagnosis.

そこで、観察画像での粘膜表面付近のパターンをより明瞭に再現するために、以下の式(25)に示す変換を行う一方、分光画像信号F1,F3によるB情報に基づいた粘膜表層のIHb値を算出し、生体機能画像を表示することが有効となる。   Therefore, in order to more clearly reproduce the pattern near the mucosal surface in the observed image, the conversion shown in the following equation (25) is performed, while the IHb value of the mucosal surface layer based on the B information by the spectral image signals F1 and F3. It is effective to calculate and display a biological function image.

[数25]

Figure 2006314557
この式(25)による処理は、分光画像信号F1をある一定の比率で分光画像信号F2に混合し生成されたデータを新たに分光Gチャンネル画像Gchとする変換例であり、血管網などの吸収散乱体が深さ位置で異なることをより明確化することが可能となる。 [Equation 25]
Figure 2006314557
The processing according to the equation (25) is a conversion example in which the spectral image signal F1 is mixed with the spectral image signal F2 at a certain ratio and the generated data is newly used as the spectral G channel image Gch. It becomes possible to further clarify that the scatterers are different in depth positions.

したがって、係数変更回路64を通じてマトリックス係数を調整することで、ユーザは表示効果を調整することが可能となる。動作としては、スコープ101の操作部に設けられたモード切替スイッチ(図示せず)に連動して画像処理手段内では、スルー動作から、マトリックス係数がデフォルト値に設定される。   Accordingly, by adjusting the matrix coefficient through the coefficient changing circuit 64, the user can adjust the display effect. As the operation, the matrix coefficient is set to the default value from the through operation in the image processing means in conjunction with a mode change switch (not shown) provided in the operation unit of the scope 101.

ここでいうスルー動作とは、3×3マトリックス回路61には単位行列、LUT62a,62b,62c,63a,63b,63cは非変換テープルを搭載した状態をいう。デフォルト値には、マトリックス係数に、例えばωG=0.2、ωB=0.8という設定値を与えるということである。 The through operation here refers to a state in which the 3 × 3 matrix circuit 61 is mounted with a unit matrix, and the LUTs 62a, 62b, 62c, 63a, 63b, and 63c are mounted with non-conversion tables. For the default value, for example, set values of ω G = 0.2 and ω B = 0.8 are given to the matrix coefficients.

そして、ユーザはスコープ101の操作部等を操作して、この係数をωG=0.4、ωB=0.6などというように調整を行なう。LUT62a,62b,62c,63a,63b,63cには、必要に応じて逆γ補正テープル、γ補正テーブルが適用される。 Then, the user operates the operation unit or the like of the scope 101 to adjust the coefficient so that ω G = 0.4, ω B = 0.6, and the like. A reverse γ correction table and a γ correction table are applied to the LUTs 62a, 62b, 62c, 63a, 63b, and 63c as necessary.

尚、生体機能演算部450には、IHb算出回路450aに加え、画像全体におけるIHbの平均値,IHbの標準偏差,IHbの尖度等の特徴量を演算する演算部を設け、これらの数値をIHb値に基づく生体機能画像と共に表示モニタ106の画面に表示するようにしても良い。   In addition to the IHb calculation circuit 450a, the biological function calculation unit 450 is provided with a calculation unit that calculates feature values such as the average value of IHb, the standard deviation of IHb, and the kurtosis of IHb in the entire image. You may make it display on the screen of the display monitor 106 with the biofunction image based on an IHb value.

このように本実施例によれば、通常の電子内視鏡画像(通常画像)を生成するためのカラー画像信号を利用して、擬似的な狭帯域フィルタを生成することにより、分光画像用の光学的波長狭帯域バンドパスフィルタを用いずに、血管パターン等の所望の深部の組織情報を有する分光画像を得ることができると共に、色調整部440の色変換処理回路440aのパラメータを分光画像に応じて設定することで、狭帯域の分光画像観察時の深達度情報という特徴を生かした表現方法を実現することが可能となり、生体組織の組織表面近くの所望の深部の組織情報を効果的に分離して視認することできる。   As described above, according to the present embodiment, a pseudo narrowband filter is generated by using a color image signal for generating a normal electronic endoscopic image (normal image). A spectral image having tissue information of a desired deep portion such as a blood vessel pattern can be obtained without using an optical wavelength narrow-band bandpass filter, and the parameters of the color conversion processing circuit 440a of the color adjustment unit 440 are converted into spectral images. By setting it accordingly, it becomes possible to realize an expression method that makes use of the feature of depth-of-depth information when observing a narrow-band spectral image, and it is possible to effectively obtain tissue information of a desired deep part near the tissue surface of a living tissue. It can be visually recognized separately.

しかも、同一の表示モニタ上に、通常のカラー画像に加えて、観察に適した色調の観察画像と、IHb値に基づく疑似画像等の生体機能情報とを同時に表示することにより、例えばうっ血状態等を容易に把握することが可能となり、従来のように、頻繁に各種の画像を切換える必要がなく、容易に各画像を比較対照することができ、診断能の向上という効果がある。   Moreover, on the same display monitor, in addition to a normal color image, an observation image having a color tone suitable for observation and biological function information such as a pseudo image based on the IHb value are displayed at the same time. Can be easily grasped, and it is not necessary to frequently switch various images as in the prior art, and each image can be easily compared and contrasted, thereby improving the diagnostic ability.

図26は本発明の実施例2に係るマトリックス演算部の構成を示すブロック図である。 実施例2は、実施例1とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。   FIG. 26 is a block diagram illustrating a configuration of a matrix calculation unit according to the second embodiment of the present invention. Since the second embodiment is almost the same as the first embodiment, only different points will be described.

本実施例は、主として実施例1とマトリックス演算部436が異なるものである。実施例1では、マトリックス演算を電子回路による、いわゆるハードウェア処理により行うこととしたが、本実施例では、この演算を数値データ処理(プログラムを用いたソフトウェアによる処理)により行う。   In the present embodiment, the matrix calculation unit 436 is mainly different from the first embodiment. In the first embodiment, the matrix operation is performed by so-called hardware processing using an electronic circuit. In this embodiment, this operation is performed by numerical data processing (processing by software using a program).

本実施例におけるマトリックス演算部436の具体的な構成を図26に示す。本マトリックス演算部436は、RGBそれぞれのカラー画像信号を記憶しておく画像メモリ50を有する。また、式(21)に示されたマトリックス「A’」のそれぞれの値が数値データとして記憶されている計数レジスタ51を有する。   A specific configuration of the matrix calculation unit 436 in this embodiment is shown in FIG. The matrix calculation unit 436 includes an image memory 50 that stores RGB color image signals. Further, it has a counting register 51 in which each value of the matrix “A ′” shown in Expression (21) is stored as numerical data.

計数レジスタ51と画像メモリ50は、乗算器53a乃至53iに接続され、さらに乗算器53a、53d、53gは、乗算器54aに接続され、乗算器54aの出力が、図4における積算部438aと接続される。また、乗算器53b、53e、53hは、乗算器54bに接続され、その出力は積算部438bと接続される。また、乗算器53c、53f、53iは、乗算器54cに接続され、その出力が積算部438cと接続される。   The counting register 51 and the image memory 50 are connected to the multipliers 53a to 53i, the multipliers 53a, 53d, and 53g are connected to the multiplier 54a, and the output of the multiplier 54a is connected to the integrating unit 438a in FIG. Is done. The multipliers 53b, 53e, and 53h are connected to the multiplier 54b, and the output thereof is connected to the integrating unit 438b. The multipliers 53c, 53f, and 53i are connected to the multiplier 54c, and the output thereof is connected to the integrating unit 438c.

本実施例の動作としては、入力されたRGB画像データは、一度画像メモリ50に記憶される。次に、所定の記憶装置(図示しない)に保存されている演算プログラムにより、計数レジスタ51からマトリックス「A’」の各計数が画像メモリ50に記憶されたRGB画像データと、乗算器で乗算される。   As an operation of this embodiment, the input RGB image data is once stored in the image memory 50. Next, each count of the matrix “A ′” from the count register 51 is multiplied by the multiplier and the RGB image data stored in the image memory 50 by a calculation program stored in a predetermined storage device (not shown). The

尚、図26には、R信号と各マトリックス計数が乗算器53a乃至53cで乗算される例が示されている。また、同図のように、G信号と各マトリックス計数が乗算器53d乃至53fで乗算され、B信号と各マトリックス計数が乗算器53g乃至53iで乗算される。マトリックス計数とそれぞれ乗算されたデータは、乗算器53a、53d、53gの出力が、乗算器54aで、乗算器53b、53e、53hの出力が、乗算器54bで、また、乗算器53c、53f、53iの出力は、乗算器54cでそれぞれ乗算される。乗算器54aの出力は、積算部438aに送られる。また、乗算器54b、乗算器54cの出力は、それぞれ積算部438b、438cに送られる。   FIG. 26 shows an example in which the R signal and each matrix count are multiplied by multipliers 53a to 53c. Also, as shown in the figure, the G signal and each matrix count are multiplied by multipliers 53d to 53f, and the B signal and each matrix count are multiplied by multipliers 53g to 53i. The data multiplied by the matrix count is obtained by multiplying the outputs of the multipliers 53a, 53d and 53g by the multiplier 54a, the outputs of the multipliers 53b, 53e and 53h by the multiplier 54b, and the multipliers 53c, 53f, The outputs of 53i are respectively multiplied by the multiplier 54c. The output of the multiplier 54a is sent to the integrating unit 438a. The outputs of the multiplier 54b and the multiplier 54c are sent to the integrating units 438b and 438c, respectively.

本実施例によると、実施例1と同様、血管パターンが鮮明に表示される分光観察画像を得ると共に、この分光観察画像に関連した生体機能情報を表示することができる。   According to the present embodiment, as in the first embodiment, it is possible to obtain a spectral observation image in which a blood vessel pattern is clearly displayed and to display biological function information related to the spectral observation image.

また、本実施例では、実施例1のようにハードウェアによってマトリックス処理を行うのではなく、ソフトウェアを用いて行うため、例えば、各マトリックス計数の変更などに迅速に対応することができる。   Further, in the present embodiment, the matrix processing is not performed by hardware as in the first embodiment, but is performed by using software, and therefore, for example, it is possible to quickly cope with a change in each matrix count.

また、マトリックス計数を結果の値のみ、即ち、マトリックス「A’」としてではなく、S(λ)、H(λ)、R(λ)、G(λ)、B(λ)別に記憶しておき、必要に応じて演算することによりマトリックス「A’」を求めて使用するとした場合には、この中の1つの要素のみを変更することができ、利便性が向上する。例えば、照明光の分光特性S(λ)のみの変更等が可能である。   In addition, the matrix count is stored not only as a result value, that is, as a matrix “A ′”, but separately as S (λ), H (λ), R (λ), G (λ), and B (λ). When the matrix “A ′” is obtained and used by performing calculations as necessary, only one of the elements can be changed, and convenience is improved. For example, it is possible to change only the spectral characteristic S (λ) of the illumination light.

図27及び図28は本発明の実施例3に係わり、図27は電子内視鏡装置の構成を示すブロック図、図28は図27のCCDの電荷蓄積時間を示す図である。   27 and 28 relate to the third embodiment of the present invention, FIG. 27 is a block diagram showing the configuration of the electronic endoscope apparatus, and FIG. 28 is a diagram showing the charge accumulation time of the CCD of FIG.

実施例3は、実施例1とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。   Since the third embodiment is almost the same as the first embodiment, only different points will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.

本実施例は、主として実施例1と光源部41およびCCD21が異なるものである。実施例1では、CCD21に図6で示したカラーフィルタが設けられ、このカラーフィルタによってカラー信号を生成するいわゆる同時式であったのに対し、本実施例では、照明光をRGBの順に照明してカラー信号を生成するいわゆる面順次式を用いる。   In the present embodiment, the light source unit 41 and the CCD 21 are mainly different from the first embodiment. In the first embodiment, the color filter shown in FIG. 6 is provided in the CCD 21 and a color signal is generated by this color filter. In contrast, in this embodiment, the illumination light is illuminated in the order of RGB. Thus, a so-called frame sequential method for generating a color signal is used.

図27に示すように、本実施例における光源部41は、ランプ15の前面に絞り25が設けられ、絞り25のさらに前面には、RGBフィルタ23が設けられている。また、絞り25は、絞り制御部24に接続されており、絞り制御部24からの制御信号に応じて、ランプ15から照射された光束のうち透過させる光束を制限し、光量を変化させる。また、RGB回転フィルタ23は、RGB回転フィルタ制御部26に接続され、所定の回転速度で回転する。   As shown in FIG. 27, in the light source unit 41 in this embodiment, a diaphragm 25 is provided in front of the lamp 15, and an RGB filter 23 is provided in front of the diaphragm 25. In addition, the diaphragm 25 is connected to the diaphragm control unit 24, and restricts the light beam to be transmitted among the light beams emitted from the lamp 15 in accordance with a control signal from the diaphragm control unit 24, thereby changing the light amount. The RGB rotation filter 23 is connected to the RGB rotation filter control unit 26 and rotates at a predetermined rotation speed.

本実施例における光源部の動作としては、ランプ15から出力された光束が、絞り25で所定の光量に制限され、絞り25を透過した光束は、RGBフィルタを介することによって、所定の時間毎にR・G・Bそれぞれの照明光として、光源部から出力される。また、それぞれの照明光は、被検体内で反射し、CCD21で受光される。CCD21で得られた信号は、照射される時間に応じて、内視鏡装置本体105に設けられた切換部(図示しない)で振り分けられ、S/H回路433a乃至433cにそれぞれ入力される。つまり、光源部41からRのフィルタを介した照明光が照射された場合には、CCD21で得られた信号は、S/H回路433aに入力されることになる。尚、その他の動作については実施例1と同様であるため、ここでは省略する。   As the operation of the light source unit in this embodiment, the luminous flux output from the lamp 15 is limited to a predetermined light amount by the diaphragm 25, and the luminous flux transmitted through the diaphragm 25 passes through the RGB filter every predetermined time. It is output from the light source unit as illumination lights of R, G, and B. Each illumination light is reflected in the subject and received by the CCD 21. Signals obtained by the CCD 21 are distributed by a switching unit (not shown) provided in the endoscope apparatus main body 105 according to the irradiation time, and input to the S / H circuits 433a to 433c, respectively. That is, when the illumination light is irradiated from the light source unit 41 through the R filter, the signal obtained by the CCD 21 is input to the S / H circuit 433a. Since other operations are the same as those in the first embodiment, they are omitted here.

本実施例によると、実施例1と同様、血管パターンが鮮明に表示される分光観察画像を得ると共に、この分光観察画像に関連した生体機能情報を表示することができる。また、本実施例では、実施例1と異なり、いわゆる面順次方式によるメリットを享受することができる。尚、このメリットとは、例えば後述するする実施例4のようなものが挙げられる。   According to the present embodiment, as in the first embodiment, it is possible to obtain a spectral observation image in which a blood vessel pattern is clearly displayed and to display biological function information related to the spectral observation image. Further, in this embodiment, unlike the first embodiment, it is possible to enjoy the merits of the so-called frame sequential method. This merit includes, for example, the same as in Example 4 described later.

また、上述の実施例では、RGBカラー信号の飽和を避けるために、照明光量(光源部からの光量)を制御・調節していた。これに対し、CCDの電子シャッターを調整する方法もある。CCDでは、一定時間内に入射した光強度に比例した電荷が蓄積し、その電荷量を信号としている。この蓄積時間に相当するのが、電子シャッターと呼ばれるものである。この電子シャッターを調節することで、電荷の蓄積量即ち信号量を調整することができるので、図28に示すように、電荷蓄積時間を順次変化させた状態でのRGBカラー画像を得ることで、同様の分光画像を得ることができる。即ち、上述のそれぞれの実施例において、照明光量の制御は通常画像を得るために用い、分光画像を得る際には、電子シャッターを変化させることにより、RGBカラー信号の飽和を避けることが可能である。   In the above-described embodiment, the illumination light amount (light amount from the light source unit) is controlled and adjusted in order to avoid saturation of the RGB color signal. On the other hand, there is a method of adjusting the electronic shutter of the CCD. In the CCD, a charge proportional to the intensity of light incident within a predetermined time is accumulated, and the amount of the charge is used as a signal. The accumulation time corresponds to what is called an electronic shutter. By adjusting this electronic shutter, it is possible to adjust the charge accumulation amount, that is, the signal amount, so as shown in FIG. 28, by obtaining an RGB color image with the charge accumulation time sequentially changed, Similar spectral images can be obtained. That is, in each of the above-described embodiments, the illumination light amount control is used to obtain a normal image, and when obtaining a spectral image, it is possible to avoid saturation of RGB color signals by changing the electronic shutter. is there.

図29は本発明の実施例4に係るCCDの電荷蓄積時間を示す図である。   FIG. 29 is a diagram showing the charge accumulation time of the CCD according to Example 4 of the present invention.

実施例4は、実施例3とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。   Since the fourth embodiment is almost the same as the third embodiment, only different points will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.

本実施例は、主として実施例3と同様、面順次方式を利用したものであり、また、この利点を生かしたものである。実施例3での電子シャッター制御による電荷蓄積時間に重み付けを加えることで、分光画像データの生成を簡素化することができるものである。すなわち、本実施例では、CCD21の電荷蓄積時間を変化させることができるCCDドライブ431を有していることになる。尚、その他の構成は、実施例3と同様であるため、ここでは省略する。   This embodiment mainly uses the frame sequential method as in the third embodiment, and takes advantage of this advantage. By adding a weight to the charge accumulation time by electronic shutter control in the third embodiment, the generation of spectral image data can be simplified. That is, in this embodiment, the CCD drive 431 that can change the charge accumulation time of the CCD 21 is provided. Other configurations are the same as those in the third embodiment, and are omitted here.

本実施例の動作としては、図29に示すように、RGB回転フィルタ23を介してそれぞれの照明光が照射された場合に、CCD21における電子シャッターによる電荷蓄積時間を変化させる。ここで、照明光がR・G・Bのそれぞれの場合におけるCCD21の電荷蓄積時間をtdr、tdg、tdb(尚、同図ではBのカラー画像信号は蓄積時間を設けていないためtdbは省略されている)とする。例えば、(21)式にて示されたマトリックス処理を行う場合のF3擬似フィルタ画像は、通常内視鏡にて得られるRGB画像から、
[数26]
F3=−0.050R−1.777G+0.829B …(26)
の演算を行うので、図28でのRGB別の電子シャッター制御による電荷蓄積時間を
[数27]
tdr:tdg:tdb=0.050:1.777:0.829 …(27)
となるように設定すれば良い。また、マトリックス部では、単にRとG成分のみ反転させた信号とB成分を加算する。これにより、実施例1乃至実施例3と同様の分光画像を得ることができる。
As an operation of this embodiment, as shown in FIG. 29, when each illumination light is irradiated through the RGB rotation filter 23, the charge accumulation time by the electronic shutter in the CCD 21 is changed. Here, tdr, tdg, and tdb are the charge accumulation times of the CCD 21 when the illumination light is R, G, and B (in this figure, since the B color image signal has no accumulation time, tdb is omitted. And). For example, the F3 pseudo filter image in the case of performing the matrix processing represented by the equation (21) is obtained from an RGB image obtained by a normal endoscope,
[Equation 26]
F3 = −0.050R−1.777G + 0.829B (26)
Therefore, the charge accumulation time by RGB electronic shutter control in FIG.
tdr: tdg: tdb = 0.050: 1.777: 0.829 (27)
It should be set so that. In the matrix portion, the signal obtained by simply inverting only the R and G components and the B component are added. Thereby, the same spectral image as Example 1 thru | or Example 3 can be obtained.

本実施例によると、実施例3と同様、血管パターンが鮮明に表示される分光観察画像を得ると共に、この分光観察画像に関連した生体機能情報を表示することができる。また、本実施例では、実施例3と同様、カラー信号の作成に面順次方式を利用しており、またさらに電子シャッターを用いてカラー信号毎に電荷蓄積時間を異ならせることができるため、これにより、マトリックス部においては、単に加算、差分処理を行うだけでよく、処理を簡略化することが可能である。   According to the present embodiment, as in the third embodiment, it is possible to obtain a spectral observation image in which a blood vessel pattern is clearly displayed and to display biological function information related to the spectral observation image. Further, in the present embodiment, as in the third embodiment, a frame sequential method is used to create a color signal, and further, an electronic shutter can be used to change the charge accumulation time for each color signal. Thus, in the matrix portion, it is only necessary to perform addition and difference processing, and the processing can be simplified.

図30及び図31は本発明の実施例5に係わり、図30は色フィルタの配列を示す図、図31は図30の色フィルタの分光感度特性を示す図である。   30 and 31 relate to the fifth embodiment of the present invention, FIG. 30 is a diagram showing an arrangement of color filters, and FIG. 31 is a diagram showing spectral sensitivity characteristics of the color filters in FIG.

実施例5は、実施例1とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。   Since the fifth embodiment is almost the same as the first embodiment, only different points will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.

本実施例は、主として実施例1とCCD21に設けられたカラーフィルタが異なるものである。実施例1では、図6で示したようにRGB原色型カラーフィルタが用いられるのに対し、本実施例では、補色型のカラーフィルタを用いる。   In the present embodiment, the color filter provided in the CCD 21 is mainly different from that in the first embodiment. In the first embodiment, an RGB primary color filter is used as shown in FIG. 6, whereas in the present embodiment, a complementary color filter is used.

この補色型フィルタの配列は図30に示されているように、G、Mg、Ye、Cyの各要素から構成される。尚、原色型カラーフィルタの各要素と補色型カラーフィルタの各要素の関係は、Mg=R+B、Cy=G+B、Ye=R+Gとなる。   As shown in FIG. 30, this complementary color filter array is composed of G, Mg, Ye, and Cy elements. The relationship between each element of the primary color filter and each element of the complementary color filter is Mg = R + B, Cy = G + B, Ye = R + G.

この場合、CCD21の全画素読み出しを行い、各色フィルタからの画像を信号処理又は画像処理することになる。また、原色型カラーフィルタについての(1)式〜(8)式及び(19)式〜(21)式について、補色型カラーフィルタの場合に変形すると、以下の(28)式より(34)式のようになる。但し、目標とする狭帯域のバンドパスフィルタの特性は同じとする。   In this case, all the pixels of the CCD 21 are read out, and the image from each color filter is subjected to signal processing or image processing. Further, when the equations (1) to (8) and (19) to (21) for the primary color filter are modified in the case of a complementary color filter, the following equation (34) is obtained from the following equation (28): become that way. However, the characteristics of the target narrow-band bandpass filter are the same.

[数28]

Figure 2006314557
[数29]
Figure 2006314557
[数30]
kG=(∫S(λ)×H(λ)×G(λ)dλ)-1
kMg=(∫S(λ)×H(λ)×Mg(λ)dλ)-1
kCy=(∫S(λ)×H(λ)×Cy(λ)dλ)-1
kYe=(∫S(λ)×H(λ)×Ye(λ)dλ)-1 …(30)
[数31]
Figure 2006314557
[数32]
Figure 2006314557
[数33]
Figure 2006314557
[数34]
Figure 2006314557
また、図31に、補色型カラーフィルタを用いた場合の分光感度特性、目標とするバンドパスフィルタ及び上記(28)式乃至(34)式により求められ擬似バンドパスフィルタの特性を示す。 [Equation 28]
Figure 2006314557
[Equation 29]
Figure 2006314557
[Equation 30]
kG = (∫S (λ) × H (λ) × G (λ) dλ) −1
kmg = (∫S (λ) × H (λ) × Mg (λ) dλ) −1
kCy = (∫S (λ) × H (λ) × Cy (λ) dλ) −1
kYe = (∫S (λ) × H (λ) × Ye (λ) dλ) −1 (30)
[Equation 31]
Figure 2006314557
[Formula 32]
Figure 2006314557
[Equation 33]
Figure 2006314557
[Formula 34]
Figure 2006314557
FIG. 31 shows the spectral sensitivity characteristics when the complementary color filter is used, the target bandpass filter, and the characteristics of the pseudo bandpass filter obtained by the above equations (28) to (34).

尚、補色型フィルタを用いる場合には、図4で示されるS/H回路は、それぞれR・G・Bではなく、G・Mg・Cy・Yeについて行われることは言うまでもない。   When the complementary color filter is used, it goes without saying that the S / H circuit shown in FIG. 4 is performed for G, Mg, Cy, and Ye instead of R, G, and B, respectively.

また、補色型カラーフィルタを使った場合でも式(9)〜(18)で示したマトリックス推定方法が適用できる。この場合、補色フィルタの数が4つである場合には、式(14)で仮定した生体分光反射率が3つの基本的な分光特性で近似できる、という部分が4つ、ないしは4つ以下となる。従って、これに合わせて、推定マトリックスを演算するための次元は3から4に変更される。   Further, even when a complementary color filter is used, the matrix estimation method shown in the equations (9) to (18) can be applied. In this case, when the number of the complementary color filters is four, the biological spectral reflectance assumed in the equation (14) can be approximated by three basic spectral characteristics, or four or less. Become. Accordingly, in accordance with this, the dimension for calculating the estimation matrix is changed from 3 to 4.

本実施例によると、実施例1と同様、血管パターンが鮮明に表示される分光観察画像を得ると共に、この分光観察画像に関連した生体機能情報を表示することができる。また、本実施例では、補色型カラーフィルタを用いた場合のメリットを享受することができる。   According to the present embodiment, as in the first embodiment, it is possible to obtain a spectral observation image in which a blood vessel pattern is clearly displayed and to display biological function information related to the spectral observation image. Further, in this embodiment, it is possible to enjoy the advantages of using a complementary color filter.

以上、本発明における各実施例について説明を行ったが、本発明は、上記実施例を種々組みあせて用いても良く、また趣旨を一脱しない範囲での変形も考えられる。   The embodiments of the present invention have been described above. However, the present invention may be used by combining various embodiments described above, and modifications may be made without departing from the spirit of the present invention.

例えば、既に述べた全ての実施例に対して、臨床中その他のタイミングにて操作者自ら新規の擬似バンドパスフィルタを作成し、臨床に適用することもできる。即ち、実施例1で示すと図4中の制御部42に、マトリックス係数を演算・算出することのできる設計部(図示しない)を設ける。   For example, for all the embodiments described above, a new pseudo band-pass filter can be created by the operator himself / herself at other timings in the clinic and applied to the clinic. That is, in the first embodiment, a design unit (not shown) capable of calculating and calculating matrix coefficients is provided in the control unit 42 in FIG.

これにより、図3に示す内視鏡本体に設けられたキーボードを介して条件を入力することで、操作者が知りたい分光画像を得るのに適した擬似バンドパスフィルタを新規に設計するとともに、算出されたマトリックス係数((19)式及び(32)式のマトリックス「A」の各要素に相当)に補正係数((20)式及び(33)式のマトリックス「K」の各要素に相当)を施した最終マトリックス係数((21)式及び(34)式のマトリックス「A’」の各要素に相当)を図4中のマトリックス演算部436に設定することで、即時臨床に適用することができる。   Thereby, by inputting conditions via the keyboard provided in the endoscope main body shown in FIG. 3, a pseudo bandpass filter suitable for obtaining a spectral image that the operator wants to know is newly designed, Correction coefficient (corresponding to each element of the matrix “K” in the expressions (20) and (33)) to the calculated matrix coefficient (corresponding to each element of the matrix “A” in the expressions (19) and (32)) By setting the final matrix coefficient (corresponding to each element of the matrix “A ′” in the equations (21) and (34)) in the matrix calculation unit 436 in FIG. it can.

図32に、適用までの流れを示す。この流れについて詳しく説明すると、まず、操作者は、目標となるバンドパスフィルタの情報(例えば波長帯域等)をキーボード等を介して入力する。これにより、すでに所定の記憶装置等に記憶されている光源・カラーフィルタの特性等と共に、マトリックス「A’」が算出され、図30に示されるように、目標とするバンドパスフィルタの特性と共に、そのマトリックス「A’」による演算結果(擬似バンドパスフィルタ)が、スペクトル図としてモニタ上に表示される。   FIG. 32 shows a flow until application. This flow will be described in detail. First, the operator inputs information about a target bandpass filter (for example, a wavelength band) via a keyboard or the like. As a result, the matrix “A ′” is calculated together with the characteristics of the light source / color filter already stored in a predetermined storage device or the like, and as shown in FIG. 30, along with the characteristics of the target bandpass filter, The calculation result (pseudo bandpass filter) by the matrix “A ′” is displayed on the monitor as a spectrum diagram.

操作者はこの演算結果を確認した後、新たに作成されたマトリックス「A’」を使用する場合には、その設定を行い、このマトリックス「A’」を用いて実際の内視鏡画像が生成される。また、これと共に新たに作成されたマトリックス「A’」は、所定の記憶装置に記憶され、操作者の所定の操作に応じて、再度使用することができる。   After confirming the calculation result, the operator performs setting when using the newly created matrix “A ′”, and generates an actual endoscopic image using this matrix “A ′”. Is done. In addition, the newly created matrix “A ′” is stored in a predetermined storage device and can be used again according to a predetermined operation by the operator.

これにより、操作者は既存のマトリックス「A’」にとらわれず、自らの経験等により新たなバンドパスフィルタを生成することができ、特に研究用として使用される場合に、効果が高いものである。   As a result, the operator can generate a new band-pass filter based on his / her own experience etc. without being bound by the existing matrix “A ′”, and is particularly effective when used for research purposes. .

本発明は、上述した実施例に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。   The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.

本発明の実施例1に係るカラー画像信号から分光画像信号を作成する際の信号の流れを示した概念図FIG. 3 is a conceptual diagram showing a signal flow when creating a spectral image signal from a color image signal according to Embodiment 1 of the present invention. 本発明の実施例1に係る分光画像信号の積分演算を示す概念図FIG. 3 is a conceptual diagram showing integration calculation of spectral image signals according to Embodiment 1 of the present invention. 本発明の実施例1に係る電子内視鏡装置の外観を示す外観図1 is an external view showing an external appearance of an electronic endoscope apparatus according to Embodiment 1 of the present invention. 図3の電子内視鏡装置の構成を示すブロック図The block diagram which shows the structure of the electronic endoscope apparatus of FIG. 図4のチョッパーの外観を示す外観図External view showing the external appearance of the chopper of FIG. 図3のCCDの撮像面に配置される色フィルタの配列を示す図The figure which shows the arrangement | sequence of the color filter arrange | positioned at the imaging surface of CCD of FIG. 図6の色フィルタの分光感度特性を示す図The figure which shows the spectral sensitivity characteristic of the color filter of FIG. 図4のマトリックス演算部の構成を示す構成図The block diagram which shows the structure of the matrix calculating part of FIG. 本発明の実施例1に係る光源のスペクトルを示すスペクトル図The spectrum figure which shows the spectrum of the light source which concerns on Example 1 of this invention 本発明の実施例1に係る生体の反射スペクトルを示すスペクトル図、The spectrum figure which shows the reflection spectrum of the living body concerning Example 1 of the present invention, 図11は図4の電子内視鏡装置により観察する生体組織の層方向構造を示す図FIG. 11 is a diagram showing a layer direction structure of a biological tissue observed by the electronic endoscope apparatus of FIG. 図4の電子内視鏡装置からの照明光の生体組織の層方向への到達状態を説明する図The figure explaining the arrival state to the layer direction of the biological tissue of the illumination light from the electronic endoscope apparatus of FIG. 白色光の各バンドの分光特性を示す図Diagram showing spectral characteristics of each band of white light 図13の白色光による各バンド画像を示す第1の図The 1st figure which shows each band image by the white light of FIG. 図13の白色光による各バンド画像を示す第2の図2nd figure which shows each band image by the white light of FIG. 図13の白色光による各バンド画像を示す第3の図3rd figure which shows each band image by the white light of FIG. 図8のマトリックス演算部で生成された分光画像の分光特性を示す図The figure which shows the spectral characteristic of the spectral image produced | generated by the matrix calculating part of FIG. 図17の各分光画像を示す第1の図The 1st figure which shows each spectral image of FIG. 図17の各分光画像を示す第2の図The 2nd figure which shows each spectral image of FIG. 図17の各分光画像を示す第3の図The 3rd figure which shows each spectral image of FIG. 図21は図4の色調整部の構成を示すブロック図FIG. 21 is a block diagram showing the configuration of the color adjustment unit in FIG. 図21の色調整部の作用を説明する図The figure explaining the effect | action of the color adjustment part of FIG. 図4の色調整部の変形例の成を示すブロック図FIG. 4 is a block diagram showing a modification of the color adjustment unit in FIG. 図4の生体機能演算部の構成を示すブロック図The block diagram which shows the structure of the biological function calculating part of FIG. モニタへの表示例を示す図Figure showing a display example on the monitor 本発明の実施例2に係るマトリックス演算部の構成を示すブロック図FIG. 5 is a block diagram showing a configuration of a matrix calculation unit according to the second embodiment of the present invention. 本発明の実施例3に係る電子内視鏡装置の構成を示すブロック図Block diagram showing the configuration of an electronic endoscope apparatus according to Embodiment 3 of the present invention 図27のCCDの電荷蓄積時間を示す図The figure which shows the charge accumulation time of CCD of FIG. 本発明の実施例4に係るCCDの電荷蓄積時間を示す図The figure which shows the charge accumulation time of CCD which concerns on Example 4 of this invention. 本発明の実施例5に係る色フィルタの配列を示す図The figure which shows the arrangement | sequence of the color filter which concerns on Example 5 of this invention. 図30の色フィルタの分光感度特性を示す図The figure which shows the spectral sensitivity characteristic of the color filter of FIG. 本発明に係る変形例におけるマトリックス演算の際のフローチャートFlowchart at the time of matrix calculation in a modification according to the present invention

符号の説明Explanation of symbols

41…光源部
42…制御部
43…本体処理装置
100…電子内視鏡装置
101…スコープ
102…挿入部
103…先端部
104…アングル操作部
105…内視鏡装置本体
106…表示モニタ
436…マトリックス演算部
440…色調整部
440a…色変換処理回路
450…生体機能演算部
450a…IHb算出回路
DESCRIPTION OF SYMBOLS 41 ... Light source part 42 ... Control part 43 ... Main body processing apparatus 100 ... Electronic endoscope apparatus 101 ... Scope 102 ... Insertion part 103 ... Tip part 104 ... Angle operation part 105 ... Endoscope apparatus main body 106 ... Display monitor 436 ... Matrix Calculation unit 440 ... Color adjustment unit 440a ... Color conversion processing circuit 450 ... Biological function calculation unit 450a ... IHb calculation circuit

Claims (5)

被検体に光を照射する照明手段と、
生体信号を取得する観察手段と、
前記照明手段及び/または前記観察手段の動作を制御し、表示出力装置へ前記生体信号を表示出力する信号処理制御手段と
から構成される観測装置において、
前記信号処理制御手段は、
前記生体信号から分光信号を生成する分光信号生成手段と、
前記分光信号から生体機能を計算し、前記表示出力装置へ出力する生体機能算出手段と を含むことを特徴とする生体観測装置。
Illumination means for irradiating the subject with light;
An observation means for acquiring a biological signal;
In an observation apparatus comprising: signal processing control means for controlling the operation of the illumination means and / or the observation means, and displaying and outputting the biological signal to a display output device,
The signal processing control means includes
Spectral signal generating means for generating a spectral signal from the biological signal;
A biological function calculating means for calculating a biological function from the spectral signal and outputting the biological function to the display output device.
前記分光信号を前記表示出力装置へ表示出力する際の色調を調整する色調整手段を更に含む
ことを特徴とする請求項1に記載の生体観測装置。
The living body observation apparatus according to claim 1, further comprising color adjustment means for adjusting a color tone when the spectral signal is displayed and output to the display output apparatus.
前記生体機能は、ヘモグロビンインデックスである
ことを特徴とする請求項1又は2に記載の生体観測装置。
The living body observation apparatus according to claim 1, wherein the living body function is a hemoglobin index.
前記ヘモグロビンインデックスの計算において、赤帯域の分光信号と緑帯域の分光信号との比の対数を含む
ことを特徴とする請求項3に記載の生体観測装置。
The living body observation apparatus according to claim 3, wherein the calculation of the hemoglobin index includes a logarithm of a ratio of a spectral signal in a red band and a spectral signal in a green band.
前記ヘモグロビンインデックスの計算において、赤帯域の分光信号と青帯域の分光信号との比の対数を含む
ことを特徴とする請求項3に記載の生体観測装置。
The living body observation apparatus according to claim 3, wherein the calculation of the hemoglobin index includes a logarithm of a ratio between a red band spectral signal and a blue band spectral signal.
JP2005140379A 2005-05-12 2005-05-12 Biological observation apparatus Pending JP2006314557A (en)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2005140379A JP2006314557A (en) 2005-05-12 2005-05-12 Biological observation apparatus
US11/914,171 US8301229B2 (en) 2005-05-12 2006-03-14 Biological observation display apparatus for presenting color or spectral images
EP06729057.7A EP1880657B1 (en) 2005-05-12 2006-03-14 Biological observation apparatus
BRPI0609099-0A BRPI0609099A2 (en) 2005-05-12 2006-03-14 biological observation apparatus
RU2007146171/14A RU2381737C2 (en) 2005-05-12 2006-03-14 Biological object control device
KR1020077026233A KR100953788B1 (en) 2005-05-12 2006-03-14 Biometric instrument
CN200680016225A CN100591262C (en) 2005-05-12 2006-03-14 Biological observation apparatus
AU2006245251A AU2006245251B2 (en) 2005-05-12 2006-03-14 Biometric instrument
CA2607623A CA2607623C (en) 2005-05-12 2006-03-14 Biological observation apparatus
PCT/JP2006/305023 WO2006120798A1 (en) 2005-05-12 2006-03-14 Biometric instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005140379A JP2006314557A (en) 2005-05-12 2005-05-12 Biological observation apparatus

Publications (1)

Publication Number Publication Date
JP2006314557A true JP2006314557A (en) 2006-11-24

Family

ID=37535760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005140379A Pending JP2006314557A (en) 2005-05-12 2005-05-12 Biological observation apparatus

Country Status (2)

Country Link
JP (1) JP2006314557A (en)
CN (1) CN100591262C (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008249687A (en) * 2007-01-25 2008-10-16 Avago Technologies Ecbu Ip (Singapore) Pte Ltd Method and apparatus for estimating intensity of one spectrum of light in mixed light, in response to sensed intensities of one or more other spectrums of light in mixed light
WO2009145157A1 (en) * 2008-05-28 2009-12-03 オリンパス株式会社 Signal processing system and signal processing program
JP2010022595A (en) * 2008-07-18 2010-02-04 Olympus Corp Signal processing system and signal processing program
JP2010130636A (en) * 2008-12-01 2010-06-10 Olympus Corp Identification processing apparatus, identification processing program, and identification processing method
EP2368480A1 (en) * 2010-03-26 2011-09-28 Fujifilm Corporation Electronic endoscope system and processor unit thereof, and method for obtaining blood vessel information
JP2012130506A (en) * 2010-12-21 2012-07-12 Fujifilm Corp Light measurement system and light measurement method
JP2012130505A (en) * 2010-12-21 2012-07-12 Fujifilm Corp Light measurement system and light measurement method
JP2014521979A (en) * 2011-08-17 2014-08-28 ゼネラル・エレクトリック・カンパニイ System and method for generating bright field images using fluorescent images
JP2016217881A (en) * 2015-05-20 2016-12-22 花王株式会社 Observation method of skin capillary blood vessel
JP2017011693A (en) * 2015-06-17 2017-01-12 パナソニックIpマネジメント株式会社 Imaging device
JP2017015694A (en) * 2015-07-02 2017-01-19 パナソニックIpマネジメント株式会社 Imaging device
JP2017187471A (en) * 2016-03-31 2017-10-12 パナソニックIpマネジメント株式会社 Imaging apparatus
JP2018109759A (en) * 2016-12-22 2018-07-12 アーノルド・ウント・リヒター・シネ・テヒニク・ゲーエムベーハー・ウント・コンパニ・ベトリーブス・カーゲー Electron microscope
US10270998B2 (en) 2016-12-15 2019-04-23 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus including light source that emits pulsed light beam onto object and light detector that detects light returning from object
EP3709004A1 (en) 2019-03-12 2020-09-16 Hitachi High-Tech Science Corporation Fluorescence photometer and observation method
WO2021181508A1 (en) * 2020-03-10 2021-09-16 オリンパス株式会社 Endoscope system

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2386239A4 (en) * 2009-05-12 2012-08-15 Olympus Medical Systems Corp Subject in-vivo imaging system and subject in-vivo introducing device
JP5452300B2 (en) * 2010-03-19 2014-03-26 富士フイルム株式会社 Electronic endoscope system, processor device for electronic endoscope, operation method of electronic endoscope system, pathological observation device, and pathological microscope device
EP2537456B1 (en) * 2010-06-25 2014-12-03 Olympus Medical Systems Corp. Endoscope device
JP5133386B2 (en) * 2010-10-12 2013-01-30 富士フイルム株式会社 Endoscope device
JP5247785B2 (en) * 2010-10-12 2013-07-24 富士フイルム株式会社 Endoscope device
JP5485215B2 (en) * 2011-04-01 2014-05-07 富士フイルム株式会社 Endoscope device
EP2612587B1 (en) * 2011-07-07 2014-09-03 Olympus Medical Systems Corp. Optical measurement apparatus
EP2692276B1 (en) * 2011-09-22 2017-09-27 Olympus Corporation Medical instrument
CN108135454B (en) * 2015-09-30 2020-03-13 奥林巴斯株式会社 Imaging device, endoscope, and endoscope system
JP6834184B2 (en) * 2016-06-16 2021-02-24 ソニー株式会社 Information processing device, operation method of information processing device, program and medical observation system
JPWO2018043728A1 (en) * 2016-09-02 2019-03-14 Hoya株式会社 Endoscope system and feature amount calculation method
JP7006565B2 (en) * 2018-10-31 2022-01-24 オムロン株式会社 Electrical equipment, communication equipment, and communication systems
WO2020166697A1 (en) * 2019-02-14 2020-08-20 大日本印刷株式会社 Medical instrument color correction device
JP2020195104A (en) * 2019-05-30 2020-12-03 セイコーエプソン株式会社 Display method, display device, and information system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002034908A (en) * 2000-07-27 2002-02-05 Olympus Optical Co Ltd Endoscope device
JP2002034893A (en) * 2000-07-27 2002-02-05 Olympus Optical Co Ltd Endoscope instrument
JP2003093336A (en) * 2001-09-26 2003-04-02 Toshiba Corp Electronic endoscope apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002034908A (en) * 2000-07-27 2002-02-05 Olympus Optical Co Ltd Endoscope device
JP2002034893A (en) * 2000-07-27 2002-02-05 Olympus Optical Co Ltd Endoscope instrument
JP2003093336A (en) * 2001-09-26 2003-04-02 Toshiba Corp Electronic endoscope apparatus

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008249687A (en) * 2007-01-25 2008-10-16 Avago Technologies Ecbu Ip (Singapore) Pte Ltd Method and apparatus for estimating intensity of one spectrum of light in mixed light, in response to sensed intensities of one or more other spectrums of light in mixed light
WO2009145157A1 (en) * 2008-05-28 2009-12-03 オリンパス株式会社 Signal processing system and signal processing program
JP2009285084A (en) * 2008-05-28 2009-12-10 Olympus Corp Signal processing system and signal processing program
US8805061B2 (en) 2008-05-28 2014-08-12 Olympus Corporation Signal processing system and signal processing program
US8532376B2 (en) 2008-07-18 2013-09-10 Olympus Corporation Signal processing system and computer readable medium for recording signal processing program
JP2010022595A (en) * 2008-07-18 2010-02-04 Olympus Corp Signal processing system and signal processing program
JP4717103B2 (en) * 2008-07-18 2011-07-06 オリンパス株式会社 Signal processing system and signal processing program
JP2010130636A (en) * 2008-12-01 2010-06-10 Olympus Corp Identification processing apparatus, identification processing program, and identification processing method
EP2368480A1 (en) * 2010-03-26 2011-09-28 Fujifilm Corporation Electronic endoscope system and processor unit thereof, and method for obtaining blood vessel information
US8790251B2 (en) 2010-03-26 2014-07-29 Fujifilm Corporation Electronic endoscope system and processor unit thereof, and method for obtaining blood vessel information
JP2011200531A (en) * 2010-03-26 2011-10-13 Fujifilm Corp Electronic endoscope system, processor for electronic endoscope, and blood vessel data acquiring method
JP2012130505A (en) * 2010-12-21 2012-07-12 Fujifilm Corp Light measurement system and light measurement method
JP2012130506A (en) * 2010-12-21 2012-07-12 Fujifilm Corp Light measurement system and light measurement method
JP2014521979A (en) * 2011-08-17 2014-08-28 ゼネラル・エレクトリック・カンパニイ System and method for generating bright field images using fluorescent images
JP2016217881A (en) * 2015-05-20 2016-12-22 花王株式会社 Observation method of skin capillary blood vessel
JP2017009584A (en) * 2015-06-17 2017-01-12 パナソニックIpマネジメント株式会社 Imaging apparatus
US10194099B2 (en) 2015-06-17 2019-01-29 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus including light source that emits pulsed light and which reduces noise caused by surface reflections
US11303828B2 (en) 2015-06-17 2022-04-12 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus including light source that emits pulsed light, image sensor, and control circuit
JP6205518B1 (en) * 2015-06-17 2017-09-27 パナソニックIpマネジメント株式会社 Imaging device
US10911697B2 (en) 2015-06-17 2021-02-02 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus including light source that emits pulsed light, image sensor, and control circuit
JP2017202328A (en) * 2015-06-17 2017-11-16 パナソニックIpマネジメント株式会社 Imaging apparatus
JP2017211389A (en) * 2015-06-17 2017-11-30 パナソニックIpマネジメント株式会社 Imaging apparatus
US10652482B2 (en) 2015-06-17 2020-05-12 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus including light source that emits pulsed light, image sensor, and control circuit
US10104315B2 (en) 2015-06-17 2018-10-16 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus including light source that emits pulsed light, image sensor, and control circuit
JP2017011693A (en) * 2015-06-17 2017-01-12 パナソニックIpマネジメント株式会社 Imaging device
US10334188B2 (en) 2015-06-17 2019-06-25 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus including light source that emits pulsed light, image sensor, and control circuit
JP2017015694A (en) * 2015-07-02 2017-01-19 パナソニックIpマネジメント株式会社 Imaging device
JP2017187471A (en) * 2016-03-31 2017-10-12 パナソニックIpマネジメント株式会社 Imaging apparatus
US10270998B2 (en) 2016-12-15 2019-04-23 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus including light source that emits pulsed light beam onto object and light detector that detects light returning from object
JP2018109759A (en) * 2016-12-22 2018-07-12 アーノルド・ウント・リヒター・シネ・テヒニク・ゲーエムベーハー・ウント・コンパニ・ベトリーブス・カーゲー Electron microscope
JP7063604B2 (en) 2016-12-22 2022-05-09 アリ・メディカル・ゲーエムベーハー Electronic microscope
EP3709004A1 (en) 2019-03-12 2020-09-16 Hitachi High-Tech Science Corporation Fluorescence photometer and observation method
US11486828B2 (en) 2019-03-12 2022-11-01 Hitachi High-Tech Science Corporation Fluorescence photometer and observation method
WO2021181508A1 (en) * 2020-03-10 2021-09-16 オリンパス株式会社 Endoscope system
JP7451679B2 (en) 2020-03-10 2024-03-18 オリンパス株式会社 Endoscope system, endoscope and distance calculation method

Also Published As

Publication number Publication date
CN101175433A (en) 2008-05-07
CN100591262C (en) 2010-02-24

Similar Documents

Publication Publication Date Title
JP2006314557A (en) Biological observation apparatus
JP4500207B2 (en) Biological observation device
JP4504324B2 (en) Biological observation device
KR100988113B1 (en) Biometric instrument
KR100953773B1 (en) Signal processing device for biological observation apparatus
KR100953788B1 (en) Biometric instrument
JP4409523B2 (en) Biological observation device
EP2505121B1 (en) Endoscope apparatus
JP2003093336A (en) Electronic endoscope apparatus
JP5892985B2 (en) ENDOSCOPE SYSTEM, PROCESSOR DEVICE, AND OPERATION METHOD
JP5869541B2 (en) ENDOSCOPE SYSTEM, PROCESSOR DEVICE, AND METHOD FOR OPERATING ENDOSCOPE SYSTEM
EP3520675A1 (en) Endoscope system, processor device, and endoscope system operating method
JP2006341075A (en) Signal processor for biological observation system
WO2018079217A1 (en) Endoscopic system and operation method thereof
JP6081622B2 (en) ENDOSCOPE SYSTEM, PROCESSOR DEVICE, AND METHOD FOR OPERATING ENDOSCOPE SYSTEM
JP2006325974A (en) Biometric instrument
JP2006341076A (en) Signal processor for biological observation system
JP5498456B2 (en) Electronic endoscope device
JP5714669B2 (en) Electronic endoscope device
JP5686870B2 (en) Electronic endoscope device
JP2013226467A (en) Electronic endoscope apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070724

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081014

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090616