JP5753105B2 - Electronic endoscope system, image processing apparatus, and method of operating image processing apparatus - Google Patents

Electronic endoscope system, image processing apparatus, and method of operating image processing apparatus Download PDF

Info

Publication number
JP5753105B2
JP5753105B2 JP2012005850A JP2012005850A JP5753105B2 JP 5753105 B2 JP5753105 B2 JP 5753105B2 JP 2012005850 A JP2012005850 A JP 2012005850A JP 2012005850 A JP2012005850 A JP 2012005850A JP 5753105 B2 JP5753105 B2 JP 5753105B2
Authority
JP
Japan
Prior art keywords
image
blood vessel
light
spectral
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012005850A
Other languages
Japanese (ja)
Other versions
JP2013144039A (en
Inventor
山口 博司
博司 山口
孝明 齋藤
孝明 齋藤
飯田 孝之
孝之 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2012005850A priority Critical patent/JP5753105B2/en
Publication of JP2013144039A publication Critical patent/JP2013144039A/en
Application granted granted Critical
Publication of JP5753105B2 publication Critical patent/JP5753105B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Description

本発明は、電子内視鏡を用いて血管に関する情報を取得する電子内視鏡システム、画像処理装置及び画像処理装置の作動方法に関するものである。 The present invention relates to an electronic endoscope system, an image processing apparatus, and an operation method of the image processing apparatus that acquire information related to blood vessels using an electronic endoscope.

医療分野において、電子内視鏡を用いた内視鏡診断が普及している。近年の内視鏡診断においては、白色光のもとで生体組織の表面の全体的な性状を観察する通常観察に加えて、特定の波長に制限された特殊光を用いた特殊光観察も行われるようになっている。   In the medical field, endoscopic diagnosis using an electronic endoscope has become widespread. In recent endoscopic diagnosis, special light observation using special light limited to a specific wavelength is performed in addition to normal observation of observing the overall properties of the surface of living tissue under white light. It has come to be.

特殊光観察には各種のものがあるが、例えば、本出願人による特許文献1の内視鏡システムでは、酸化ヘモグロビンと還元ヘモグロビンの吸光係数の大きさに差がある波長域の狭帯域光を利用して、その反射光を撮像して得られる分光画像に基づいて、血中ヘモグロビンの酸素飽和度を算出し、画像化している。   There are various types of special light observations. For example, in the endoscope system of Patent Document 1 by the present applicant, narrowband light in a wavelength region having a difference in the magnitude of the extinction coefficient between oxyhemoglobin and reduced hemoglobin is used. The oxygen saturation of blood hemoglobin is calculated and imaged based on a spectral image obtained by imaging the reflected light.

特許文献1の内視鏡システムでは、酸素飽和度の測定精度を上げるために、複数の狭帯域光の分光画像を取得して、各分光画像の対応する画素同士の輝度値を比較することで、血管の深さの違いによって生じるノイズの影響を排除している。   In the endoscope system of Patent Document 1, in order to increase the measurement accuracy of oxygen saturation, a plurality of narrowband light spectral images are acquired and the luminance values of corresponding pixels of the spectral images are compared. This eliminates the effects of noise caused by differences in blood vessel depth.

生体組織の反射光量は、血中ヘモグロビンによる吸収の他、主として血管以外の粘膜における散乱の影響を受ける。粘膜表層に入射した光は、血管以外の粘膜においては散乱して、減衰しながら粘膜深層に向かって進む。血管に到達した光の一部は血中ヘモグロビンによって吸収される。散乱した光は粘膜表層から出射して、これが反射光として観察される。粘膜表層から血管に到達するまでの距離が長いほど、すなわち血管の深さが深いほど、散乱による反射成分は多くなるので、酸素飽和度が同じでも、血管の深さが深いほど、反射光量は大きくなる。このように、生体組織の反射光量は、吸収と散乱による影響を受け、散乱による反射光量への影響は血管の深さによって変化する。さらに、生体組織の散乱係数は、長波長側に比べて短波長側で大きくなるというように、光の波長によって変化する波長依存性を有している。   The amount of reflected light from a living tissue is influenced mainly by scattering in mucous membranes other than blood vessels, in addition to absorption by blood hemoglobin. The light incident on the surface of the mucosa is scattered in the mucosa other than the blood vessels and travels toward the deep mucosa while being attenuated. Part of the light that reaches the blood vessels is absorbed by blood hemoglobin. The scattered light exits from the surface of the mucosa and is observed as reflected light. The longer the distance from the mucosal surface layer to the blood vessel, that is, the deeper the blood vessel depth, the greater the amount of reflected components due to scattering, so even with the same oxygen saturation, the deeper the blood vessel depth, the greater the amount of reflected light. growing. As described above, the reflected light amount of the living tissue is affected by absorption and scattering, and the influence of the scattered light amount on the reflected light amount varies depending on the depth of the blood vessel. Furthermore, the scattering coefficient of a living tissue has a wavelength dependency that varies depending on the wavelength of light, such that the scattering coefficient of the living tissue becomes larger on the short wavelength side than on the long wavelength side.

こうした生体組織の光の吸収及び散乱特性を前提として、特許文献1の内視鏡システムでは、還元ヘモグロビンと酸化ヘモグロビンの吸光係数に差があり、かつ、散乱係数が異なる波長域を持つ2つの狭帯域光を利用することで、酸素飽和度と血管深さの2つの情報を取得している。これにより、血管深さの違いによるノイズの影響が除去された精度の高い酸素飽和度の情報を得ている。   On the premise of such light absorption and scattering characteristics of biological tissue, the endoscope system of Patent Document 1 has two narrow wavelength bands having different absorption coefficients and different scattering coefficients of reduced hemoglobin and oxidized hemoglobin. By using the band light, two pieces of information of oxygen saturation and blood vessel depth are acquired. Thereby, highly accurate oxygen saturation information from which the influence of noise due to the difference in blood vessel depth is removed is obtained.

複数の分光画像の輝度値の比較は、当然ながら、2つの分光画像に描出される同じ血管領域の画素同士で行われなければならない。特許文献1の内視鏡システムでは、複数の分光画像の取得方式として、生体組織に対して2つの狭帯域光を順次照射して撮像するという順次方式を採用しているため、撮像タイミングの時間差によって生じる、複数の分光画像の位置ズレが問題となる。特許文献1の内視鏡システムは、複数の分光画像に対して、血管の太さに応じた周波数フイルタリング処理を施して、血管領域が強調された強調画像を生成し、生成した強調画像に基づいて位置合わせを行っている。強調処理を施すことで、強調処理をしない場合に比べて精度の高い位置合わせを行うことができる。   Of course, the comparison of the luminance values of a plurality of spectral images must be performed between pixels of the same blood vessel region depicted in two spectral images. Since the endoscope system of Patent Document 1 employs a sequential method of sequentially irradiating and imaging a biological tissue with two narrow-band lights as an acquisition method of a plurality of spectral images, a time difference between imaging timings. The positional deviation of a plurality of spectral images caused by the above becomes a problem. The endoscope system of Patent Literature 1 performs frequency filtering processing according to the thickness of a blood vessel on a plurality of spectral images to generate an emphasized image in which a blood vessel region is emphasized, and the generated emphasized image Based on the alignment. By performing the emphasis process, it is possible to perform alignment with higher accuracy than when the emphasis process is not performed.

特開2011−194151号公報JP 2011-194151 A

本出願人は、特許文献1に記載されているように、正確な酸素飽和度を画像化する技術の開発を進めているが、その過程において、以下に示すように、技術改良の余地があることが分かってきた。   As described in Patent Document 1, the present applicant is developing a technique for imaging accurate oxygen saturation, but there is room for technical improvement as shown below in the process. I understand that.

特許文献1では、位置合わせの精度を上げるために、血管の太さに応じた周波数フイルタリングを施して強調画像を生成している。しかしながら、原画像である複数の分光画像間において、血管領域と他の領域のコントラストが変わってしまう場合には、各分光画像に対して同じ強調処理を施しても、一方の分光画像では強調されるが、他方では強調されない血管領域があるなど、比較対象の血管領域を同じように強調することができない場合があった。これは位置ズレの精度を低下させる原因となる。   In Patent Document 1, in order to increase the accuracy of alignment, the emphasis image is generated by performing frequency filtering according to the thickness of the blood vessel. However, if the contrast between the blood vessel region and other regions changes between the plurality of spectral images that are the original images, even if the same enhancement processing is performed on each spectral image, it is emphasized in one spectral image. However, there is a case where the blood vessel region to be compared cannot be emphasized in the same manner, for example, there is a blood vessel region that is not emphasized on the other side. This causes a decrease in the accuracy of positional deviation.

コントラストの差が生じる原因は、複数の狭帯域光の光量の差や、生体組織が吸収や散乱に関して波長依存性を有していることなどが考えられる。光量の差を解消する対策については光源装置の光量を調節するという対策が考えられるが、光源装置には、キセノンランプなどの白色光源と色分離フイルタを組み合わせたものや、レーザやLEDなどの半導体光源を用いるものなど様々なものがあり、光源装置の種類によっては光量の調節がしづらいものもある。また、生体組織の波長依存性については変えようがない。そのため、コントラストの差が生じる複数の分光画像を前提として、各分光画像間の位置合わせの精度を改良する技術が模索されている。   Possible causes of the difference in contrast include differences in the amount of light of a plurality of narrow-band lights, and the fact that biological tissue has wavelength dependency with respect to absorption and scattering. As a measure to eliminate the difference in light quantity, it is conceivable to adjust the light quantity of the light source device. However, the light source device is a combination of a white light source such as a xenon lamp and a color separation filter, or a semiconductor such as a laser or LED. There are various types such as those using a light source, and depending on the type of the light source device, it is difficult to adjust the amount of light. In addition, there is no change in the wavelength dependence of living tissue. Therefore, on the premise of a plurality of spectral images in which a difference in contrast occurs, a technique for improving the alignment accuracy between the spectral images is being sought.

また、特許文献1のように、血管の太さに応じて周波数フイルタリングを施す場合には、強調対象となる血管の太さを正確に把握する必要がある。撮影距離がほぼ一定であれば、分光画像における血管の太さを予め把握しておくことができるため問題は無い。しかしながら、内視鏡の移動によって撮影距離が変動する場合やズームレンズによって撮影倍率を変化させる場合には、撮影した分光画像における被写体の表示倍率が変化するので、分光画像に描出される血管の太さが大きく変化してしまう場合も考えられる。そのような場合には表示倍率の変化に応じて周波数フイルタリングの処理内容を変えるといった対策が必要になるため、構造の複雑化が懸念される。   In addition, as in Patent Document 1, when performing frequency filtering according to the thickness of a blood vessel, it is necessary to accurately grasp the thickness of the blood vessel to be emphasized. If the photographing distance is substantially constant, there is no problem because the thickness of the blood vessel in the spectral image can be grasped in advance. However, when the shooting distance varies due to the movement of the endoscope or when the shooting magnification is changed by the zoom lens, the display magnification of the subject in the shot spectral image changes, so the thickness of the blood vessel drawn in the spectral image is changed. It is also conceivable that the temperature will change greatly. In such a case, since it is necessary to take measures such as changing the processing contents of the frequency filtering according to the change in display magnification, there is a concern that the structure may be complicated.

本発明は、上記課題を鑑みてなされたもので、その目的は、撮像タイミングが異なる複数の分光画像から酸素飽和度を算出する場合において、簡易な構成で、複数の分光画像の正確な位置合わせを可能にすることにある。   The present invention has been made in view of the above problems, and an object thereof is to accurately align a plurality of spectral images with a simple configuration when oxygen saturation is calculated from a plurality of spectral images having different imaging timings. Is to make it possible.

本発明の電子内視鏡システムは、被検体内の血管を含む観察部位を撮像する電子内視鏡と、波長域が異なる少なくとも第1及び第2の照明光を前記観察部位に対して順次照射するための照明手段と、前記第1及び第2の照明光の照射タイミングに応じて前記電子内視鏡が順次出力する複数の撮像信号から、それぞれ前記第1及び第2の照明光に対応する第1及び第2の分光画像を取得する画像取得手段と、前記第1及び第2の分光画像における前記血管のコントラストの差に応じて、前記第1及び第2の分光画像を位置合わせするための前処理を行う前処理手段と、前記前処理後に、前記第1及び第2の分光画像のそれぞれにおける前記血管の形状を強調する強調処理を施して、前記第1及び第2の分光画像のそれぞれに対応する位置合わせ用画像を生成する強調処理手段と、前記第1及び第2の位置合わせ用画像に基づいて、前記第1及び第2の分光画像内のそれぞれの前記血管の位置が重なるように前記第1及び第2の分光画像同士の位置合わせを実行する位置合わせ手段と、前記位置合わせが実行された前記第1及び第2の分光画像に基づいて、前記血管の血中ヘモグロビンの酸素飽和度を算出する酸素飽和度算出手段とを備えていることを特徴とする。   The electronic endoscope system according to the present invention sequentially irradiates the observation region with at least first and second illumination lights having different wavelength ranges from the electronic endoscope that images the observation region including the blood vessel in the subject. Corresponding to the first and second illumination lights, respectively, from a plurality of imaging signals sequentially output by the electronic endoscope according to the illumination means for performing and the irradiation timing of the first and second illumination lights In order to align the first and second spectral images according to a difference in contrast between the blood vessels in the first and second spectral images, and an image acquisition unit that acquires the first and second spectral images Pre-processing means for performing the pre-processing, and after the pre-processing, an emphasis processing for emphasizing the shape of the blood vessel in each of the first and second spectral images is performed, and the first spectral image and the second spectral image are processed. Alignment corresponding to each Based on the enhancement processing means for generating an image and the first and second alignment images, the first and second blood vessels in the first and second spectral images are overlapped so that the positions of the blood vessels overlap. And oxygen for calculating oxygen saturation of blood hemoglobin in the blood vessel based on the first and second spectral images on which the alignment is performed, and an alignment unit that performs alignment between the two spectral images And a saturation degree calculating means.

前記前処理手段は、前記第1及び第2の分光画像の濃度ヒストグラムに基づいて前記コントラストを調べて、前記前処理を実行することが好ましい。   The preprocessing means preferably performs the preprocessing by examining the contrast based on density histograms of the first and second spectral images.

前記前処理手段は、前記第1及び第2の分光画像のうち前記コントラストが高い方を基準に低い方に対して前記前処理を施すことが好ましい。   Preferably, the preprocessing means performs the preprocessing on a lower one of the first and second spectral images with a higher contrast as a reference.

前記前処理は、前記第1及び第2の分光画像同士のコントラストを合わせるコントラスト調整処理であることが好ましい。   It is preferable that the preprocessing is a contrast adjustment process for matching the contrast between the first and second spectral images.

前記強調処理は、予め設定されるしきい値と第1及び第2の画像の画素値とを比較して、前記しきい値を基準に前記第1及び第2の分光画像の画素値を振り分けて、前記第1及び第2の分光画像の階調数を減らすことにより前記第1及び第2の位置合わせ用画像を生成する階調低減処理であり、前記前処理は、前記コントラストの差に応じて前記しきい値を決定するしきい値決定処理であることが好ましい。   The enhancement processing compares a threshold value set in advance with the pixel values of the first and second images, and distributes the pixel values of the first and second spectral images based on the threshold value. A gradation reduction process for generating the first and second alignment images by reducing the number of gradations of the first and second spectral images, and the pre-processing is performed on the difference in contrast. It is preferable that the threshold value determination process determines the threshold value accordingly.

前記階調低減処理は二値化処理であり、前記第1及び第2の位置合わせ用画像は二値画像であることが好ましい。   Preferably, the gradation reduction process is a binarization process, and the first and second alignment images are binary images.

第1及び第2の照明光は、少なくとも一方が青色領域において特定の波長域に制限された青色狭帯域光であることが好ましい。   It is preferable that at least one of the first and second illumination lights is blue narrow-band light limited to a specific wavelength region in the blue region.

前記照明手段は、前記第1及び第2の照明光に波長域が異なる第3の照明光を加えた3つの照明光を順次照射し、前記画像取得手段は、前記第1〜第3の照明光に対応する第1〜第3の分光画像を取得し、前記酸素飽和度算出手段は、前記第1〜第3の分光画像に基づいて前記酸素飽和度を算出することが好ましい。   The illumination means sequentially irradiates three illumination lights obtained by adding third illumination lights having different wavelength ranges to the first and second illumination lights, and the image acquisition means comprises the first to third illuminations. It is preferable that first to third spectral images corresponding to light are acquired, and the oxygen saturation calculating unit calculates the oxygen saturation based on the first to third spectral images.

例えば、第1の照明光は、波長域が440±10nmに制限された第1青色狭帯域光であり、第2の照明光は、波長域が470±10nmに制限された第2青色狭帯域光であり、第3の照明光は、波長域が410±10nmに制限された第3青色狭帯域光である。   For example, the first illumination light is a first blue narrowband light whose wavelength range is limited to 440 ± 10 nm, and the second illumination light is a second blue narrowband whose wavelength range is limited to 470 ± 10 nm. The third illumination light is a third blue narrowband light whose wavelength range is limited to 410 ± 10 nm.

前記照明手段は、第1〜第3の青色狭帯域光を発光する第1〜第3の半導体光源を有することが好ましい。   The illumination means preferably includes first to third semiconductor light sources that emit first to third blue narrow-band light.

本発明の画像処理装置は、被検体内の血管を含む観察部位を撮像する電子内視鏡を用いて取得される画像を処理する画像処理装置において、波長域が異なる少なくとも第1及び第2の照明光を前記観察部位に対して順次照射して、前記第1及び第2の照明光の照射タイミングに応じて前記電子内視鏡が出力する複数の撮像信号から、それぞれ前記第1及び第2の照明光に対応する第1及び第2の分光画像を取得する画像取得手段と、前記第1及び第2の分光画像における前記血管のコントラストの差に応じて、前記第1及び第2の分光画像を位置合わせするための前処理を行う前処理手段と、前記前処理後に、前記第1及び第2の分光画像のそれぞれにおける前記血管の形状を強調する強調処理を施して、前記第1及び第2の分光画像のそれぞれに対応する位置合わせ用画像を生成する強調処理手段と、前記第1及び第2の位置合わせ用画像に基づいて、前記第1及び第2の分光画像内のそれぞれの前記血管の位置が重なるように前記第1及び第2の分光画像同士の位置合わせを実行する位置合わせ手段と、前記位置合わせが実行された前記第1及び第2の分光画像に基づいて、前記血管の血中ヘモグロビンの酸素飽和度を算出する酸素飽和度算出手段とを備えていることを特徴とする。   An image processing apparatus according to the present invention is an image processing apparatus that processes an image acquired by using an electronic endoscope that images an observation site including a blood vessel in a subject. Illumination light is sequentially applied to the observation site, and the first and second imaging signals are output from a plurality of imaging signals output from the electronic endoscope according to the irradiation timing of the first and second illumination lights, respectively. Image acquisition means for acquiring first and second spectral images corresponding to the illumination light, and the first and second spectroscopic images in accordance with a difference in contrast between the blood vessels in the first and second spectral images. Pre-processing means for performing pre-processing for aligning images, and after the pre-processing, an emphasis process for emphasizing the shape of the blood vessels in each of the first and second spectral images is performed, and the first and second That of the second spectral image The positions of the blood vessels in the first and second spectral images overlap based on the enhancement processing means for generating the alignment image corresponding to this and the first and second alignment images. As described above, on the basis of the first and second spectral images on which the alignment has been performed, alignment means for performing alignment between the first and second spectral images, and blood hemoglobin in the blood vessel And oxygen saturation calculating means for calculating oxygen saturation.

本発明の画像処理装置の作動方法は、波長域が異なる少なくとも第1及び第2の照明光が順次照射された被検体内の血管を含む観察部位を電子内視鏡が撮像することによって取得される画像を処理する画像処理装置の作動方法において、画像取得手段が、第1及び第2の照明光の照射タイミングに応じて電子内視鏡が出力する複数の撮像信号から、第1及び第2の照明光に対応する第1及び第2の分光画像を取得するステップと、前処理手段が、第1及び第2の分光画像における血管のコントラストの差に応じて、第1及び第2の分光画像を位置合わせするための前処理を行うステップと、強調処理手段が、前処理後に、第1及び第2の分光画像のそれぞれにおける血管の形状を強調する強調処理を施して、第1及び第2の分光画像のそれぞれに対応する位置合わせ用画像を生成するステップと、位置合わせ手段が、第1及び第2の位置合わせ用画像に基づいて、第1及び第2の分光画像内のそれぞれの血管の位置が重なるように第1及び第2の分光画像同士の位置合わせを実行するステップと、酸素飽和度算出手段が、位置合わせが実行された第1及び第2の分光画像に基づいて、血管の血中ヘモグロビンの酸素飽和度を算出するステップとを備えていることを特徴とする。 The operation method of the image processing apparatus of the present invention is acquired by an electronic endoscope imaging an observation site including a blood vessel in a subject that is sequentially irradiated with at least first and second illumination lights having different wavelength ranges. In the operating method of the image processing apparatus for processing an image to be processed , the first and second image acquisition means are configured to output the first and second images from a plurality of imaging signals output by the electronic endoscope in accordance with the irradiation timings of the first and second illumination lights. and Luz step to obtain the first and second spectral images corresponding to the illumination light, the preprocessing means, in accordance with the difference in the contrast of blood vessels in the first and second spectral image, first and second and row mortar step pre-processing to the spectral image alignment position, enhancement processing means, before or after treatment, subjected to emphasizing emphasis processing the shape of the blood vessels in the respective first and second spectral image, Each of the first and second spectral images And Luz step generates an alignment image corresponding to, the alignment means, based on the first and second positioning image, the position of each of the vessels in the first and second spectral image and Luz steps to perform first and second positioning of the spectral image with each other so as to overlap, the oxygen saturation calculating unit, based on the first and second spectral image registration is performed, the vessel characterized in that it comprises a answering step to calculate the blood oxygen saturation of hemoglobin.

本発明によれば、撮像タイミングが異なる第1及び第2の分光画像に基づいて酸素飽和度を算出する場合において、第1及び第2の分光画像に対して、両者のコントラストの差に応じた前処理を行うから、簡単な構成で、複数の分光画像の正確な位置合わせを行うことができる。   According to the present invention, when the oxygen saturation is calculated based on the first and second spectral images having different imaging timings, the first and second spectral images are subjected to a difference in contrast between the two. Since preprocessing is performed, accurate alignment of a plurality of spectral images can be performed with a simple configuration.

本発明の電子内視鏡システムの外観図である。It is an external view of the electronic endoscope system of the present invention. 電子内視鏡の先端部の正面図である。It is a front view of the front-end | tip part of an electronic endoscope. 電子内視鏡システムの電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of an electronic endoscope system. 照明光の分光スペクトルを示すグラフである。It is a graph which shows the spectrum of illumination light. 撮像素子のカラーマイクロフイルタの分光特性を示すグラフである。It is a graph which shows the spectral characteristic of the color microfilter of an image pick-up element. 照明光の照射タイミング及び撮像タイミングを示す説明図である。It is explanatory drawing which shows the irradiation timing and imaging timing of illumination light. 機能画像処理部のブロック図である。It is a block diagram of a functional image processing unit. ヘモグロビンの吸収スペクトルを示すグラフである。It is a graph which shows the absorption spectrum of hemoglobin. 生体組織の散乱係数を示すグラフである。It is a graph which shows the scattering coefficient of a biological tissue. ヘモグロビンの吸光スペクトルと照明光の波長の対応を示す説明図である。It is explanatory drawing which shows a response | compatibility with the absorption spectrum of hemoglobin, and the wavelength of illumination light. 各狭帯域光の輝度値と、酸素飽和度との関係を示すグラフである。It is a graph which shows the relationship between the luminance value of each narrow-band light, and oxygen saturation. 各狭帯域光の輝度値と、血管深さとの関係を示すグラフである。It is a graph which shows the relationship between the luminance value of each narrow-band light, and the blood vessel depth. 第1及び2輝度比S1/S3,S2/S3と血管深さ及び酸素飽和度との相関関係を示すグラフである。It is a graph which shows the correlation with 1st and 2 brightness | luminance ratio S1 / S3, S2 / S3, blood vessel depth, and oxygen saturation. (A)は第1及び第2輝度比S1/S3,S2/S3から輝度座標系における座標(X,Y)を求める方法を、(B)は座標(X,Y)に対応する血管情報座標系の座標(U,V)を求める方法を説明する説明図である。(A) is a method for obtaining the coordinates (X * , Y * ) in the luminance coordinate system from the first and second luminance ratios S1 * / S3 * , S2 * / S3 * , and (B) is the coordinates (X * , Y blood vessel information coordinate system coordinates corresponding to *) (U *, it is an explanatory diagram for explaining a method of obtaining the V *). 図13とは別の態様の相関関係を示すグラフである。It is a graph which shows the correlation of the aspect different from FIG. 血管深さ画像と酸素飽和度画像の表示形態を示す説明図である。It is explanatory drawing which shows the display form of the blood vessel depth image and an oxygen saturation image. 位置合わせ処理の手順を示す説明図である。It is explanatory drawing which shows the procedure of the alignment process. 複数の分光画像の濃度ヒストグラムの説明図である。It is explanatory drawing of the density histogram of a some spectral image. コントラスト調整処理の説明図である。It is explanatory drawing of a contrast adjustment process. 位置ズレ量検出処理の説明図である。It is explanatory drawing of a positional offset amount detection process. 図17とは別の位置合わせ処理手順を示す説明図である。FIG. 18 is an explanatory diagram showing an alignment processing procedure different from FIG. 17. しきい値決定処理の説明図である。It is explanatory drawing of a threshold value determination process.

[第1実施形態]
図1に示すように、本発明の第1実施形態の内視鏡システム10は、被検体内の観察部位を撮像する電子内視鏡11と、撮像により得られた信号に基づいて観察部位の観察画像を生成するプロセッサ装置12と、観察部位を照射する光を供給する光源装置13と、観察画像を表示するモニタ14とを備えている。プロセッサ装置12には、キーボードやマウスなどの操作入力部であるコンソール15が設けられている。
[First Embodiment]
As shown in FIG. 1, an endoscope system 10 according to a first embodiment of the present invention includes an electronic endoscope 11 that images an observation site in a subject, and an observation site based on a signal obtained by imaging. A processor device 12 that generates an observation image, a light source device 13 that supplies light for irradiating the observation site, and a monitor 14 that displays the observation image are provided. The processor device 12 is provided with a console 15 that is an operation input unit such as a keyboard and a mouse.

電子内視鏡システム10は、白色光のもとで観察部位を観察する通常観察モードと、機能情報観察モードの2つの動作モードを備えている。機能情報観察モードは、特殊光を利用して、生体組織に関する生体機能情報である、血中ヘモグロビンの酸素飽和度及び血管深さに関する情報を取得して、これらを画像化して観察するモードである。   The electronic endoscope system 10 has two operation modes: a normal observation mode in which an observation site is observed under white light, and a function information observation mode. The function information observation mode is a mode in which special light is used to acquire information related to oxygen saturation and blood vessel depth of blood hemoglobin, which is biological function information related to a living tissue, and image these for observation. .

電子内視鏡11は、被検体内に挿入される可撓性の挿入部16と、挿入部16の基端部分に設けられた操作部17と、操作部17とプロセッサ装置12及び光源装置13との間を連結するユニバーサルコード18とを備えている。   The electronic endoscope 11 includes a flexible insertion portion 16 to be inserted into a subject, an operation portion 17 provided at a proximal end portion of the insertion portion 16, an operation portion 17, a processor device 12, and a light source device 13. And a universal cord 18 for connecting the two.

挿入部16は、先端から順に連設された、先端部19、湾曲部20、可撓管部21からなる。図2に示すように、先端部19の先端面には、観察部位に照明光を照射する照明窓22、観察部位で反射した像光が入射する観察窓23、観察窓23を洗浄するために送気・送水を行うための送気・送水ノズル24、鉗子や電気メスといった処置具を突出させる鉗子出口25などが設けられている。観察窓23の奥には、撮像素子44(図3参照)や結像用の光学系が内蔵されている。   The insertion portion 16 includes a distal end portion 19, a bending portion 20, and a flexible tube portion 21 that are continuously provided from the distal end. As shown in FIG. 2, on the distal end surface of the distal end portion 19, the illumination window 22 that irradiates the observation site with illumination light, the observation window 23 that receives the image light reflected by the observation site, and the observation window 23 are washed. An air supply / water supply nozzle 24 for performing air supply / water supply, a forceps outlet 25 for projecting a treatment instrument such as forceps and an electric knife, and the like are provided. An imaging element 44 (see FIG. 3) and an imaging optical system are built in the back of the observation window 23.

湾曲部20は、連結された複数の湾曲駒からなり、操作部17のアングルノブ26を操作することにより、上下左右方向に湾曲動作する。湾曲部20が湾曲することにより、先端部19の向きが所望の方向に向けられる。可撓管部21は、食道や腸など曲がりくねった管道に挿入できるように可撓性を有している。挿入部16には、撮像素子44を駆動する駆動信号や撮像素子44が出力する撮像信号を通信する通信ケーブルや、光源装置13から供給される照明光を照明窓22に導光するライトガイド43(図3参照)が挿通されている。   The bending portion 20 includes a plurality of connected bending pieces, and is bent in the vertical and horizontal directions by operating the angle knob 26 of the operation portion 17. By bending the bending portion 20, the direction of the distal end portion 19 is directed in a desired direction. The flexible tube portion 21 is flexible so that it can be inserted into a tortuous duct such as the esophagus or the intestine. The insertion unit 16 includes a communication cable that communicates a drive signal for driving the image sensor 44 and an image signal output by the image sensor 44, and a light guide 43 that guides illumination light supplied from the light source device 13 to the illumination window 22. (See FIG. 3) is inserted.

操作部17には、アンブルノブ26の他、処置具を挿入するための鉗子口27、送気・送水操作を行う送気・送水ボタン、静止画像を撮影するためのレリーズボタンなどが設けられている。   In addition to the amble knob 26, the operation unit 17 includes a forceps port 27 for inserting a treatment instrument, an air / water supply button for performing air / water supply operation, a release button for taking a still image, and the like. .

ユニバーサルコード18には、挿入部16から延設される通信ケーブルやライトガイド43が挿通されており、一端には、プロセッサ装置12および光源装置13側にコネクタ28が取り付けられている。コネクタ28は、通信用コネクタと光源用コネクタからなる複合タイプのコネクタであり、通信用コネクタには通信ケーブルの一端が、光源用コネクタにはライトガイド43の一端がそれぞれ配設される。電子内視鏡11は、このコネクタ28を介して、プロセッサ装置12および光源装置13に着脱自在に接続される。   A communication cable and a light guide 43 extending from the insertion portion 16 are inserted into the universal cord 18, and a connector 28 is attached to one end of the processor unit 12 and the light source device 13. The connector 28 is a composite type connector including a communication connector and a light source connector, and one end of a communication cable is disposed on the communication connector, and one end of the light guide 43 is disposed on the light source connector. The electronic endoscope 11 is detachably connected to the processor device 12 and the light source device 13 through the connector 28.

図3に示すように、光源装置13は、半導体光源ユニット31と、これらを駆動制御する光源制御部32とを備えている。光源制御部32は、光源装置13の各部の駆動タイミングや同期タイミングなどの制御を行う。   As shown in FIG. 3, the light source device 13 includes a semiconductor light source unit 31 and a light source control unit 32 that drives and controls them. The light source control unit 32 controls drive timing and synchronization timing of each unit of the light source device 13.

半導体光源ユニット31は、青色領域において特定の波長域に制限された狭帯域光をそれぞれ発光する3つのレーザ光源LD1〜LD3を有している。図4に示すように、レーザ光源LD1は、波長域が440±10nmに、好ましくは445nmに制限された狭帯域光N1を発光する。レーザ光源LD2は、波長域が470±10nmに、好ましくは473nmに制限された狭帯域光N2を発光する。レーザ光源LD3は、波長域が400±10nmに、好ましくは405nmに制限された狭帯域光N3を発光する。レーザ光源LD1〜LD3としては、InGaN系、InGaNAs系、GaNAs系のレーザダイオードを用いることができる。また、レーザ光源LD1〜LD3としては、高出力化が可能なストライプ幅(導波路の幅)が広いブロードエリア型のレーザダイオードが好ましい。   The semiconductor light source unit 31 has three laser light sources LD1 to LD3 that respectively emit narrowband light limited to a specific wavelength region in the blue region. As shown in FIG. 4, the laser light source LD1 emits narrowband light N1 whose wavelength range is limited to 440 ± 10 nm, preferably 445 nm. The laser light source LD2 emits narrow band light N2 whose wavelength range is limited to 470 ± 10 nm, preferably 473 nm. The laser light source LD3 emits narrow band light N3 whose wavelength range is limited to 400 ± 10 nm, preferably 405 nm. As the laser light sources LD1 to LD3, InGaN-based, InGaNAs-based, and GaNAs-based laser diodes can be used. Further, as the laser light sources LD1 to LD3, a broad area type laser diode having a wide stripe width (waveguide width) capable of increasing output is preferable.

光源制御部32は、ドライバ33を介してレーザ光源LD1〜LD3の点灯、消灯、光量の制御を行う。レーザ光源LD1〜LD3が発光する光は、光ファイバ34によってコンバイナ36に導光される。コンバイナ36は、各光ファイバ34からの光を合波する機能を持つ光学部材であり、選択的に入射する各光ファイバ34からの光の光軸を1つに結合する。コンバイナ36の下流側には、蛍光体37が設けられている。   The light source controller 32 controls turning on / off of the laser light sources LD <b> 1 to LD <b> 3 and the amount of light through the driver 33. The light emitted from the laser light sources LD1 to LD3 is guided to the combiner 36 by the optical fiber 34. The combiner 36 is an optical member having a function of multiplexing the light from each optical fiber 34 and couples the optical axes of the light from each optical fiber 34 that selectively enters into one. A phosphor 37 is provided on the downstream side of the combiner 36.

図4に示すように、蛍光体37は、445nmの狭帯域光N1によって励起されて、緑色領域から赤色領域に渡る波長域の蛍光FL1を発光する。蛍光体37は、狭帯域光N1の一部を吸収して蛍光FL1を発光するとともに、残りの狭帯域光N1を透過させる。蛍光体37を透過する狭帯域光N1は、蛍光体37によって拡散される。透過する狭帯域光N1と励起される蛍光FL1によって白色光が生成され、生成された白色光が通常観察モードにおける照明光として用いられる。   As shown in FIG. 4, the phosphor 37 is excited by a narrowband light N1 having a wavelength of 445 nm, and emits fluorescence FL1 in a wavelength region extending from the green region to the red region. The phosphor 37 absorbs a part of the narrowband light N1 to emit fluorescence FL1, and transmits the remaining narrowband light N1. The narrow band light N <b> 1 that passes through the phosphor 37 is diffused by the phosphor 37. White light is generated by the transmitted narrowband light N1 and excited fluorescence FL1, and the generated white light is used as illumination light in the normal observation mode.

蛍光体37としては、例えば、YAG系、BAM(BgMgAl1017)系等の蛍光体が使用される。また、図4に示すように、蛍光体37は、473nmの狭帯域光N2によっても励起されて蛍光FL2を発光する。蛍光への変換効率は445nmの狭帯域光N1の方が高く、473nmの狭帯域光N2によって励起される蛍光FL2は、蛍光FL1と比較して光量が少ない。また、蛍光体37は、405nmの狭帯域光N3によってはほとんど励起されない。 As the phosphor 37, for example, a YAG-based or BAM (BgMgAl 10 O 17 ) -based phosphor is used. Further, as shown in FIG. 4, the phosphor 37 is also excited by the narrow-band light N2 having a wavelength of 473 nm and emits the fluorescence FL2. The conversion efficiency to fluorescence is higher in the narrowband light N1 of 445 nm, and the fluorescence FL2 excited by the narrowband light N2 of 473 nm has a smaller amount of light than the fluorescence FL1. The phosphor 37 is hardly excited by the narrow-band light N3 having a wavelength of 405 nm.

図3において、蛍光体37の下流側には、集光レンズ38とロッドインテグレータ39が配置されている。集光レンズ38は、蛍光体37が発する光を集光して、ロッドインテグレータ39に入射させる。ロッドインテグレータ39は、入射した光を内部で多重反射させることにより面内光量分布を均一化して、光源装置13に接続された電子内視鏡11のライトガイド43の入射端に光を入射させる。   In FIG. 3, a condenser lens 38 and a rod integrator 39 are disposed on the downstream side of the phosphor 37. The condensing lens 38 condenses the light emitted from the phosphor 37 and makes it incident on the rod integrator 39. The rod integrator 39 makes the in-plane light quantity distribution uniform by internally reflecting the incident light, and makes the light enter the incident end of the light guide 43 of the electronic endoscope 11 connected to the light source device 13.

電子内視鏡11は、ライトガイド43、撮像素子44、アナログ処理回路45(AFE:Analog Front End)、撮像制御部46を備えている。ライトガイド43は大口径光ファイバ、バンドルファイバなどであり、ライトガイド43の入射端が配置されたコネクタ28が光源装置13に接続されたときに、入射端が光源装置13のロッドインテグレータ39の出射端と対向する。   The electronic endoscope 11 includes a light guide 43, an imaging device 44, an analog processing circuit 45 (AFE: Analog Front End), and an imaging control unit 46. The light guide 43 is a large-diameter optical fiber, a bundle fiber or the like. When the connector 28 on which the incident end of the light guide 43 is disposed is connected to the light source device 13, the incident end is emitted from the rod integrator 39 of the light source device 13. Opposite the edge.

照明窓22の奥には、照明光の配光角を調整する照射レンズ48が配置されている。光源装置13から供給された光はライトガイド43により照射レンズ48に導光されて照明窓22から観察部位に向けて照射される。観察窓23の奥には、対物光学系51と撮像素子44が配置されている。観察部位で反射した像光は、観察窓23を通して対物光学系51に入射し、対物光学系51によって撮像素子44の撮像面44aに結像される。   An illumination lens 48 that adjusts the light distribution angle of illumination light is disposed behind the illumination window 22. The light supplied from the light source device 13 is guided to the irradiation lens 48 by the light guide 43 and irradiated from the illumination window 22 toward the observation site. In the back of the observation window 23, an objective optical system 51 and an image sensor 44 are arranged. The image light reflected by the observation site enters the objective optical system 51 through the observation window 23 and is imaged on the imaging surface 44 a of the imaging element 44 by the objective optical system 51.

撮像素子44は、CCDイメージセンサやCMOSイメージセンサなどからなり、フォトダイオードなどの画素を構成する複数の光電変換素子がマトリックスに配列された撮像面44aを有している。撮像素子44は、撮像面44aで受光した光を光電変換して、各画素においてそれぞれの受光量に応じた信号電荷を蓄積する。信号電荷はアンプによって電圧信号に変換されて読み出される。電圧信号は撮像信号として撮像素子44から出力されて、撮像信号はAFE45に送られる。   The imaging element 44 is composed of a CCD image sensor, a CMOS image sensor, or the like, and has an imaging surface 44a in which a plurality of photoelectric conversion elements constituting pixels such as photodiodes are arranged in a matrix. The image sensor 44 photoelectrically converts the light received by the imaging surface 44a and accumulates signal charges corresponding to the amount of received light in each pixel. The signal charge is converted into a voltage signal by an amplifier and read out. The voltage signal is output as an imaging signal from the imaging device 44, and the imaging signal is sent to the AFE 45.

撮像素子44は、カラー撮像素子であり、撮像面44aには、図5に示すような分光特性を有するB、G、Rの3色のマイクロカラーフイルタが各画素に割り当てられている。マイクロカラーフイルタの配列は例えばベイヤー配列である。   The image pickup device 44 is a color image pickup device, and micro-color filters of three colors B, G, and R having spectral characteristics as shown in FIG. 5 are assigned to each pixel on the image pickup surface 44a. The arrangement of the micro color filter is, for example, a Bayer arrangement.

図6に示すように、通常観察モードにおいては、撮像素子44は、1フレームの取得期間内で、信号電荷を蓄積する蓄積動作と、蓄積した信号電荷を読み出す読み出し動作が行なわれる。図6(A)に示すように、通常観察モードにおいては、蓄積タイミングに合わせてレーザ光源LD1が点灯し、照明光として狭帯域光N1と蛍光FL1とからなる白色光が観察部位に照射され、その反射光が撮像素子44に入射する。白色光はマイクロカラーフイルタで色分離されて、B画素が狭帯域光N1に対応する反射光を受光し、G画素が蛍光FL1の中のG成分を、R画素が蛍光FL1の中のR成分に対応する反射光を受光する。撮像素子44は、B、G、Rの各画素の輝度値が混在した1フレーム分の撮像信号B、G、Rをフレームレートに従って順次出力する。こうした撮像動作は、通常観察モードに設定されている間、繰り返される。   As shown in FIG. 6, in the normal observation mode, the image sensor 44 performs an accumulation operation for accumulating signal charges and a read operation for reading the accumulated signal charges within an acquisition period of one frame. As shown in FIG. 6A, in the normal observation mode, the laser light source LD1 is turned on in accordance with the accumulation timing, and the observation site is irradiated with white light including the narrowband light N1 and the fluorescence FL1, The reflected light enters the image sensor 44. The white light is color-separated by a micro color filter, the B pixel receives the reflected light corresponding to the narrowband light N1, the G pixel is the G component in the fluorescence FL1, and the R pixel is the R component in the fluorescence FL1. The reflected light corresponding to is received. The imaging element 44 sequentially outputs the imaging signals B, G, and R for one frame in which the luminance values of the B, G, and R pixels are mixed according to the frame rate. Such an imaging operation is repeated while the normal observation mode is set.

機能情報観察モードにおいては、図6(B)に示すように、蓄積タイミングに合わせてレーザ光源LD1、LD2、LD3が順次点灯する。レーザ光源LD1が点灯すると、通常観察モードと同様に、照明光として狭帯域光N1と蛍光FL1とからなる白色光が観察部位に照射される。レーザ光源LD2が点灯すると、照明光として狭帯域光N2と蛍光FL2とからなる白色光が観察部位に照射される。レーザ光源LD3が点灯すると、照明光として狭帯域光N3が点灯して、狭帯域光N3が観察部位に照射される。   In the function information observation mode, as shown in FIG. 6B, the laser light sources LD1, LD2, and LD3 are sequentially turned on in accordance with the accumulation timing. When the laser light source LD1 is turned on, as in the normal observation mode, the observation site is irradiated with white light composed of the narrowband light N1 and the fluorescence FL1. When the laser light source LD2 is turned on, the observation site is irradiated with white light composed of the narrowband light N2 and the fluorescence FL2 as illumination light. When the laser light source LD3 is turned on, the narrow band light N3 is turned on as illumination light, and the observation site is irradiated with the narrow band light N3.

狭帯域光N1と蛍光FL1、又は狭帯域光N2と蛍光FL2によって生成される白色光は、マイクロカラーフイルタで色分離されて、B画素が狭帯域光N1又は狭帯域光N2に対応する反射光を受光し、G画素が蛍光FL1又は蛍光FL2の中のG成分を、R画素が蛍光FL1又は蛍光FL2の中のR成分に対応する反射光を受光する。狭帯域光N3の反射光は、B画素にのみ入射する。機能情報観察モードにおいても、通常観察モードと同様に、撮像素子44は、B、G、Rの各画素の輝度値が混在した1フレーム分の撮像信号B、G、Rをフレームレートに従って順次出力する。こうした撮像動作は、機能情報観察モードに設定されている間、繰り返される。   The white light generated by the narrow band light N1 and the fluorescent light FL1, or the white light generated by the narrow band light N2 and the fluorescent light FL2, is color-separated by the micro color filter, and the B pixel is reflected light corresponding to the narrow band light N1 or the narrow band light N2. The G pixel receives the G component in the fluorescence FL1 or fluorescence FL2, and the R pixel receives the reflected light corresponding to the R component in the fluorescence FL1 or fluorescence FL2. The reflected light of the narrowband light N3 is incident only on the B pixel. In the functional information observation mode, as in the normal observation mode, the image sensor 44 sequentially outputs the image signals B, G, and R for one frame in which the luminance values of the B, G, and R pixels are mixed according to the frame rate. To do. Such an imaging operation is repeated while the function information observation mode is set.

AFE45は、相関二重サンプリング回路(CDS)、自動ゲイン制御回路(AGC)、及びアナログ/デジタル変換器(A/D)(いずれも図示省略)から構成されている。CDSは、撮像素子44からの撮像信号に対して相関二重サンプリング処理を施し、信号電荷のリセットに起因するノイズを除去する。AGCは、CDSによりノイズが除去された撮像信号を増幅する。A/Dは、AGCで増幅された撮像信号を、所定のビット数に応じた階調値を持つデジタルな撮像信号に変換してプロセッサ装置12に入力する。   The AFE 45 includes a correlated double sampling circuit (CDS), an automatic gain control circuit (AGC), and an analog / digital converter (A / D) (all not shown). The CDS performs correlated double sampling processing on the image signal from the image sensor 44 to remove noise caused by signal charge reset. The AGC amplifies the imaging signal from which noise has been removed by CDS. The A / D converts the imaging signal amplified by AGC into a digital imaging signal having a gradation value corresponding to a predetermined number of bits and inputs the digital imaging signal to the processor device 12.

撮像制御部46は、プロセッサ装置12内のコントローラ56に接続されており、コントローラ56から入力されるベースクロック信号に同期して、撮像素子44に対して駆動信号を入力する。撮像素子44は、撮像制御部46からの駆動信号に基づいて、所定のフレームレートで撮像信号をAFE45に出力する。   The imaging control unit 46 is connected to a controller 56 in the processor device 12 and inputs a drive signal to the imaging element 44 in synchronization with a base clock signal input from the controller 56. The imaging element 44 outputs an imaging signal to the AFE 45 at a predetermined frame rate based on the drive signal from the imaging control unit 46.

プロセッサ装置12は、コントローラ56の他、DSP(Digital Signal Processor)57、画像処理部58と、フレームメモリ59と、表示制御回路60を備えている。コントローラ56は、CPU、制御プログラムや制御に必要な設定データを記憶するROM、プログラムをロードして作業メモリとして機能するRAMなどからなり、CPUが制御プログラムを実行することにより、プロセッサ装置12の各部を制御する。   In addition to the controller 56, the processor device 12 includes a DSP (Digital Signal Processor) 57, an image processing unit 58, a frame memory 59, and a display control circuit 60. The controller 56 includes a CPU, a ROM that stores a control program and setting data necessary for control, a RAM that loads the program and functions as a work memory, and the like. To control.

DSP57は、撮像素子44が出力する撮像信号を取得する。DSP57は、B、G、Rの各画素に対応する信号が混在した撮像信号を、3色の撮像信号に分離し、各色の撮像信号に対して画素補間処理を行って、B、G、Rの各色の分光画像を生成する。この他、DSP57は、ガンマ補正や、B、G、Rの各分光画像の撮像信号に対してホワイトバランス補正などの信号処理を施す。   The DSP 57 acquires an image signal output from the image sensor 44. The DSP 57 separates an imaging signal in which signals corresponding to B, G, and R pixels are mixed into imaging signals of three colors, performs pixel interpolation processing on the imaging signals of each color, and performs B, G, and R A spectral image of each color is generated. In addition, the DSP 57 performs signal processing such as gamma correction and white balance correction on the imaging signals of the B, G, and R spectral images.

フレームメモリ59は、DSP57が出力する画像データや、画像処理部58が処理した処理済みのデータを記憶する。表示制御回路60は、フレームメモリ59から画像処理済みの画像データを読み出して、コンポジット信号やコンポーネント信号などのビデオ信号に変換してモニタ14に出力する。   The frame memory 59 stores image data output by the DSP 57 and processed data processed by the image processing unit 58. The display control circuit 60 reads the image processed image data from the frame memory 59, converts it into a video signal such as a composite signal or a component signal, and outputs it to the monitor 14.

また、画像処理部58は、通常観察モードにおいては、DSP57によって色分離されたB、G、Rの分光画像B、G、Rに基づいて、通常観察画像を生成する。画像処理部58は、フレームメモリ59内の分光画像B、G、Rが更新される毎に、通常観察画像を生成する。   In the normal observation mode, the image processing unit 58 generates a normal observation image based on the B, G, and R spectral images B, G, and R color-separated by the DSP 57. The image processing unit 58 generates a normal observation image every time the spectral images B, G, and R in the frame memory 59 are updated.

画像処理部58には、機能画像処理部61が設けられている。機能画像処理部61は、機能情報観察モードにおいて、狭帯域光N1、N2、N3の照射タイミングに合わせて順次取得される撮像信号に対応する3つの分光画像PB1、PB2、PB3に基づいて、血中ヘモグロビンの酸素飽和度StO2と、血管の深さDの情報を算出する。そして、算出した酸素飽和度を疑似カラーで画像化した酸素飽和度画像を生成する。分光画像PB1、PB2、PB3は、撮像素子44が出力する撮像信号から、狭帯域光N1、N2、N3の反射光量を表すB画素の信号を分離して生成されたものである。   The image processing unit 58 is provided with a functional image processing unit 61. In the functional information observation mode, the functional image processing unit 61 performs blood based on the three spectral images PB1, PB2, and PB3 corresponding to the imaging signals sequentially acquired in accordance with the irradiation timings of the narrowband light N1, N2, and N3. Information on oxygen saturation StO2 of medium hemoglobin and blood vessel depth D is calculated. Then, an oxygen saturation image in which the calculated oxygen saturation is imaged in a pseudo color is generated. The spectral images PB1, PB2, and PB3 are generated by separating the B pixel signals representing the reflected light amounts of the narrowband light N1, N2, and N3 from the imaging signal output by the imaging device 44.

図4及び図5に示すように、撮像素子44のB画素のマイクロカラーフイルタの分光特性は、青色領域の狭帯域光N1、N2、N3だけでなく、狭帯域光N1、N2によって励起される蛍光FL1、FL2の一部と重なっているため、各分光画像PB1、PB2の輝度値には、狭帯域光N1、N2の反射光量に加えて、蛍光FL1、FL3の一部の反射光量が含まれている。分光画像PB3の輝度値は、狭帯域光N3の反射光量を表す。   As shown in FIGS. 4 and 5, the spectral characteristics of the micro color filter of the B pixel of the image sensor 44 are excited not only by the narrowband light N1, N2, N3 in the blue region but also by the narrowband light N1, N2. Since it overlaps with a part of the fluorescent light FL1, FL2, the luminance value of each spectral image PB1, PB2 includes the reflected light quantity of the fluorescent light FL1, FL3 in addition to the reflected light quantity of the narrowband light N1, N2. It is. The luminance value of the spectral image PB3 represents the amount of reflected light of the narrowband light N3.

機能画像処理部61は、位置合わせ処理部63、輝度比算出部64、相関関係記憶部65、血管深さ−酸素飽和度算出部66と、血管深さ画像生成部67及び酸素飽和度画像生成部68を備えている。位置合わせ処理部63は、後述するように、分光画像PB1、PB2、PB3の3つの分光画像の位置合わせ処理を行う。   The functional image processing unit 61 includes an alignment processing unit 63, a luminance ratio calculation unit 64, a correlation storage unit 65, a blood vessel depth-oxygen saturation calculation unit 66, a blood vessel depth image generation unit 67, and an oxygen saturation image generation. A portion 68 is provided. As will be described later, the alignment processing unit 63 performs alignment processing of the three spectral images of the spectral images PB1, PB2, and PB3.

輝度比算出部64は、位置合わせ処理が行われた分光画像PB1、PB2、PB3をフレームメモリ59から読み出して、各分光画像PB1、PB2、PB3を照合して、分光画像PB1と分光画像PB3の第1輝度比S1/S3を求めるとともに、分光画像PB1と分光画像PB3の第2輝度比S2/S3を求める。   The luminance ratio calculation unit 64 reads the spectral images PB1, PB2, and PB3 that have been subjected to the alignment processing from the frame memory 59, collates the spectral images PB1, PB2, and PB3, and compares the spectral images PB1 and PB3. The first luminance ratio S1 / S3 is obtained, and the second luminance ratio S2 / S3 between the spectral image PB1 and the spectral image PB3 is obtained.

ここで、S1は分光画像PB1の画素の輝度値を、S2は分光画像PB2の画素の輝度値を、S3は分光画像PB3の画素の輝度値を表している。輝度値S3は、観察部位の明るさのレベルを表すものであり、輝度値S1、S2を比較するために、輝度値S1、S2の値を規格化するための参照信号である。   Here, S1 represents the luminance value of the pixel of the spectral image PB1, S2 represents the luminance value of the pixel of the spectral image PB2, and S3 represents the luminance value of the pixel of the spectral image PB3. The luminance value S3 represents the brightness level of the observation region, and is a reference signal for normalizing the luminance values S1 and S2 in order to compare the luminance values S1 and S2.

第1輝度比S1/S3と第2輝度比S2/S3は、各分光画像PB1、PB2、PB3間において、対応する全画素について算出される。分光画像PB1、PB2、PB3は、位置合わせが行われているので、血管領域の画素同士の輝度比を求めることができる。もちろん、血管領域を特定して、その部分のみについて、第1輝度比S1/S3と第2輝度比S2/S3を求めてもよい。   The first luminance ratio S1 / S3 and the second luminance ratio S2 / S3 are calculated for all corresponding pixels between the spectral images PB1, PB2, and PB3. Since the spectral images PB1, PB2, and PB3 are aligned, the luminance ratio between the pixels in the blood vessel region can be obtained. Of course, the blood vessel region may be specified, and the first luminance ratio S1 / S3 and the second luminance ratio S2 / S3 may be obtained for only that portion.

相関関係記憶部65は、第1及び第2輝度比S1/S3、S2/S3と、血管中の酸素飽和度及び血管深さとの相関関係を記憶している。この相関関係は、生体組織の光反射特性と、これまでの診断等で蓄積された多数の分光画像の分析により得られたものである。以下に、上記相関関係とそれを前提とした、酸素飽和度及び血管深さの算出方法について説明する。   The correlation storage unit 65 stores the correlation between the first and second luminance ratios S1 / S3 and S2 / S3, the oxygen saturation level in the blood vessel, and the blood vessel depth. This correlation is obtained by analyzing the light reflection characteristics of the living tissue and a large number of spectral images accumulated in the diagnosis so far. Hereinafter, the above correlation and a method for calculating the oxygen saturation and the blood vessel depth based on the above correlation will be described.

生体組織の光反射特性は、具体的には、図8に示す、血中のヘモグロビンの吸光スペクトルで表される光吸収特性と、図9に示す、生体組織の光散乱特性である。   Specifically, the light reflection characteristics of the biological tissue are a light absorption characteristic represented by an absorption spectrum of hemoglobin in blood shown in FIG. 8 and a light scattering characteristic of the biological tissue shown in FIG.

図8に示すように、ヘモグロビンは、照射する光の波長によって吸光係数μaが変化する光吸収特性を持っている。吸光係数μaは、ヘモグロビンの光の吸収の大きさである吸光度を表すもので、ヘモグロビンに照射された光の減衰状況を表すIexp(−μa×x)の式の係数である。ここで、Iは光源装置から観察部位の表層粘膜など生体組織に照射される光の強度であり、x(cm)は生体組織内の血管までの深さである。 As shown in FIG. 8, hemoglobin has a light absorption characteristic in which the extinction coefficient μa changes depending on the wavelength of light to be irradiated. The extinction coefficient μa represents an absorbance that is the magnitude of light absorption of hemoglobin, and is a coefficient of an expression of I 0 exp (−μa × x) representing the attenuation state of light irradiated to hemoglobin. Here, I 0 is the intensity of light irradiated from the light source device to the living tissue such as the surface mucous membrane of the observation site, and x (cm) is the depth to the blood vessel in the living tissue.

ヘモグロビンの吸光スペクトルは、長波長側の赤色領域において低く、緑色領域や青色領域においてピークを持っている。波長が450nm以下の青色領域のピークは特に高い。このため、白色光の下では、緑色領域や青色領域が吸収されるので血液は赤く見える。このように、ヘモグロビンの吸光スペクトルは、波長依存性を有しており、異なる波長間では吸光係数μaが変わるので、波長が変化すれば輝度値も変化する。例えば、狭帯域光N1(445nm)と狭帯域光N2(473nm)をそれぞれ同じ光強度で、同じ太さ(血液量が同じ)の血管に照射しても、吸光係数μaが異なるので、それぞれの分光画像PB1、PB2に対応する輝度値S1、S2は異なる。   The absorption spectrum of hemoglobin is low in the red region on the long wavelength side and has a peak in the green region and blue region. The peak in the blue region with a wavelength of 450 nm or less is particularly high. For this reason, under white light, the blood appears red because the green and blue regions are absorbed. Thus, the absorption spectrum of hemoglobin has wavelength dependency, and the absorption coefficient μa changes between different wavelengths, so that the luminance value changes as the wavelength changes. For example, even when narrow-band light N1 (445 nm) and narrow-band light N2 (473 nm) are irradiated to blood vessels having the same light intensity and the same thickness (the same blood volume), the absorption coefficient μa is different. The luminance values S1 and S2 corresponding to the spectral images PB1 and PB2 are different.

また、図8のグラフの縦軸を対数表示にした図10において、酸素と結合していない還元ヘモグロビン70と、酸素と結合した酸化ヘモグロビン71は、異なる吸光特性を持っており、同じ吸光係数μaを示す等吸収点(図10における各ヘモグロビン70、71の交点)を除いて、吸光係数μaに差が生じる。吸光係数μaに差があると、同じ光強度かつ同じ波長の光を照射しても、酸素飽和度が変化すれば、輝度値が変化する。例えば、445nmや473nm付近の波長の光である狭帯域光N1、N2では、どちらの波長域においても吸光係数μaに差があるため、酸素飽和度が変化すると、分光画像PB1、PB2の輝度値S1、S2は変化する。   Further, in FIG. 10 in which the vertical axis of the graph of FIG. 8 is logarithmically expressed, reduced hemoglobin 70 that is not bonded to oxygen and oxidized hemoglobin 71 that is bonded to oxygen have different light absorption characteristics, and have the same absorption coefficient μa. Except for the isosbestic point (the intersection of the hemoglobins 70 and 71 in FIG. 10). If there is a difference in the extinction coefficient μa, the luminance value changes if the oxygen saturation changes even when the light having the same light intensity and the same wavelength is irradiated. For example, in the narrowband lights N1 and N2, which are light having wavelengths around 445 nm and 473 nm, there is a difference in the extinction coefficient μa in both wavelength ranges, so that when the oxygen saturation changes, the luminance values of the spectral images PB1 and PB2 S1 and S2 change.

ただし、445nm付近では、還元ヘモグロビン70の吸光係数μaの方が酸化ヘモグロビン71の吸光係数μaよりも高くなっており、一方、473nm付近では、酸化ヘモグロビンの方が還元ヘモグロビン70よりも高くなっており、両者の吸光係数μaの大小関係が逆転している。このため、445nmに対応する輝度値S1は、酸素飽和度が高いほど、高くなるのに対して、473nmに対応する輝度値S2は、酸素飽和度が高いほど、低くなる。   However, in the vicinity of 445 nm, the extinction coefficient μa of reduced hemoglobin 70 is higher than the extinction coefficient μa of oxidized hemoglobin 71, while in the vicinity of 473 nm, oxidized hemoglobin is higher than reduced hemoglobin 70. The magnitude relationship between the two extinction coefficients μa is reversed. For this reason, the luminance value S1 corresponding to 445 nm increases as the oxygen saturation increases, whereas the luminance value S2 corresponding to 473 nm decreases as the oxygen saturation increases.

一方、波長405nmは、ヘモグロビンの吸光スペクトルにおいて等吸収点であるため、405nmに対応する輝度値S3は、酸素飽和度が変化しても、光強度が同じであれば一定である。   On the other hand, since the wavelength 405 nm is an isosbestic point in the absorption spectrum of hemoglobin, the luminance value S3 corresponding to 405 nm is constant if the light intensity is the same even if the oxygen saturation is changed.

また、生体組織の散乱特性は、図9に示すように、散乱係数μSが波長依存性を持っている。散乱は主として血管以外の粘膜で生じる。散乱係数μSは、短波長側で高く、特に450nm以下の領域では急激に大きくなる。そして、長波長に向かって単調減少する。   In addition, as shown in FIG. 9, the scattering coefficient μS of the scattering characteristics of living tissue has wavelength dependency. Scattering occurs mainly in mucous membranes other than blood vessels. The scattering coefficient μS is high on the short wavelength side, and rapidly increases particularly in the region of 450 nm or less. And it decreases monotonously toward the long wavelength.

消化管内の粘膜に対して波長λの光を照射したときの反射率Rは、散乱係数μSが大きいほど、また、血管深さDが深いほど、高くなる。血管が深いと、粘膜表層から血管までの距離が長く、粘膜に入射した光が血管に到達するまでの間に散乱によって反射するためである。血管が深いほど血管に到達する光量は小さくなり、血管とその周辺の血管が存在しない粘膜とのコントラストは小さくなる。また、血中ヘモグロビン(血液)による光の吸収については、吸光係数μaが高く、また、血管が太いほど(血液量が多いほど)、光の吸収が多いため、反射率Rは小さくなる。   The reflectance R when the light of wavelength λ is irradiated to the mucous membrane in the digestive tract increases as the scattering coefficient μS increases and the blood vessel depth D increases. This is because if the blood vessel is deep, the distance from the mucosal surface layer to the blood vessel is long, and light incident on the mucosa is reflected by scattering before reaching the blood vessel. The deeper the blood vessel, the smaller the amount of light that reaches the blood vessel, and the smaller the contrast between the blood vessel and the mucous membrane without the surrounding blood vessels. Regarding light absorption by blood hemoglobin (blood), the light absorption coefficient μa is high, and the larger the blood vessel (the larger the blood volume), the more light is absorbed, and thus the reflectance R becomes smaller.

分光画像の輝度値は、反射率Rによって決まる値であり、反射率Rが高いほど高く、反射率Rが低いほど小さい。以上を前提とすると、血管の太さが同じ(血液量が同じ)場合には、2つの狭帯域光N1(445nm)及び狭帯域光N2(473nm)は、散乱係数μSが異なるため、血管深さDの変化に対する反射率Rの変化量が異なる。また、狭帯域光N1と狭帯域光N2では、還元ヘモグロビン70と酸化ヘモグロビン71のそれぞれの吸光係数μaの差の大きさも異なるため、酸素飽和度StO2の変化に対する反射率Rの変化量も異なる。このような散乱係数μSに差があり、かつ、各ヘモグロビン70、71の吸光係数μaの差の大きさが異なる2種類の波長の光の輝度値(反射率Rによって決まる)を比較することで、酸素飽和度StO2と血管深さDの2種類の情報を取得することができる。言い換えれば、酸素飽和度StO2及び血管深さDのそれぞれについて、相互間の影響を排除した精度の高い情報を取得することができる。   The luminance value of the spectral image is a value determined by the reflectance R, and is higher as the reflectance R is higher and smaller as the reflectance R is lower. Assuming the above, when the blood vessels have the same thickness (the same blood volume), the two narrow-band light N1 (445 nm) and the narrow-band light N2 (473 nm) have different scattering coefficients μS. The amount of change in reflectance R with respect to the change in thickness D is different. In addition, the narrow band light N1 and the narrow band light N2 are different in the magnitude of the difference between the extinction coefficients μa of the reduced hemoglobin 70 and the oxidized hemoglobin 71, and therefore the amount of change in the reflectance R with respect to the change in the oxygen saturation StO2 is also different. By comparing the brightness values (determined by the reflectance R) of light of two types of wavelengths, which have a difference in the scattering coefficient μS and the difference in the absorption coefficient μa of the hemoglobins 70 and 71 is different. Two types of information, oxygen saturation StO2 and blood vessel depth D, can be acquired. In other words, it is possible to acquire highly accurate information for each of the oxygen saturation StO2 and the blood vessel depth D by eliminating the influence between each other.

狭帯域光N1(445nm)、N2(473nm)、N3(405nm)の3つの光の輝度値S1、S2、S3と、酸素飽和度StO2及び血管深さDのそれぞれとの関係は、具体的には以下のような関係となる。   The relationship between the brightness values S1, S2, and S3 of the three light beams of the narrow-band light N1 (445 nm), N2 (473 nm), and N3 (405 nm), and the oxygen saturation StO2 and the blood vessel depth D is specifically described. Has the following relationship:

まず、酸素飽和度StO2との関係について、輝度値S1と酸素飽和度StO2の関係は、図10のヘモグロビンの吸光スペクトルに示したように、波長445nmでは還元ヘモグロビン70の方が酸化ヘモグロビン71よりも吸光係数μaが高いので、図11の<S1−S>のグラフに示すように、右肩上がりのグラフになり、酸素飽和度StO2が高いほど、輝度値S1は高くなる。そして、波長473では、還元ヘモグロビン70と酸化ヘモグロビン71のそれぞれの吸光係数μaの大小関係が逆転しているため、輝度値S2と酸素飽和度StO2の関係は、図11の<S2−S>のグラフに示すように、右肩下がりのグラフになり、酸素飽和度StO2が高いほど、輝度値S2は低くなる。波長405nmは等吸収点であるため、図11の<S3−S>のグラフに示すように、酸素飽和度StO2が変化しても、輝度値S3は一定である。   First, regarding the relationship between the oxygen saturation StO2 and the luminance value S1 and the oxygen saturation StO2, the reduced hemoglobin 70 is more preferable than the oxidized hemoglobin 71 at the wavelength of 445 nm as shown in the absorption spectrum of hemoglobin in FIG. Since the extinction coefficient μa is high, as shown in the graph of <S1-S> in FIG. 11, the graph rises to the right. The higher the oxygen saturation StO2, the higher the luminance value S1. At the wavelength 473, since the magnitude relationship between the respective extinction coefficients μa of the reduced hemoglobin 70 and the oxidized hemoglobin 71 is reversed, the relationship between the luminance value S2 and the oxygen saturation StO2 is represented by <S2-S> in FIG. As shown in the graph, the graph is a downward sloping graph. The higher the oxygen saturation StO2, the lower the luminance value S2. Since the wavelength 405 nm is an isosbestic point, the luminance value S3 is constant even when the oxygen saturation StO2 changes, as shown in the graph of <S3-S> in FIG.

<S1−S>、<S2−S>、<S3−S>のグラフから、第1輝度比S1/S3、第2輝度比S2/S3のそれぞれと酸素飽和度StO2の関係は、図11の<S1/S3−S>、<S2/S3−S>のようになる。<S1/S3−S>のグラフに示すように、第1輝度比S1/S3と酸素飽和度StO2の関係は、酸素飽和度StO2が高いほど、第1輝度比S1/S3は高い。一方、<S1/S3−S>のグラフに示すように、第2輝度比S2/S3と酸素飽和度StO2の関係は、酸素飽和度StO2が高いほど、第2輝度比S2/S3は高い。   From the graphs of <S1-S>, <S2-S>, and <S3-S>, the relationship between each of the first luminance ratio S1 / S3 and the second luminance ratio S2 / S3 and the oxygen saturation StO2 is shown in FIG. <S1 / S3-S>, <S2 / S3-S>. As shown in the graph of <S1 / S3-S>, the relationship between the first luminance ratio S1 / S3 and the oxygen saturation StO2 is such that the higher the oxygen saturation StO2, the higher the first luminance ratio S1 / S3. On the other hand, as shown in the graph <S1 / S3-S>, the relationship between the second luminance ratio S2 / S3 and the oxygen saturation StO2 is such that the higher the oxygen saturation StO2, the higher the second luminance ratio S2 / S3.

次に、狭帯域光N1(445nm)、N2(473nm)、N3(405nm)の3つの光の輝度値S1、S2、S3と、血管深さDとの関係は、図12に示すようになる。   Next, the relationship between the luminance values S1, S2, S3 of the three light beams N1 (445 nm), N2 (473 nm), and N3 (405 nm) and the blood vessel depth D is as shown in FIG. .

輝度値S1、S2、S3のそれぞれと血管深さDの関係については、図12の<S1−D>、<S2−D>、<S3−D>のグラフに示すように、輝度値S1、S2、S3のいずれも、右肩上がりとなり、血管深さDが深いほど高くなる。これは、上述のとおり、血管が深い位置にあるほど、粘膜表層から血管までの距離が長く、粘膜に入射した光が血管に到達するまでの間に散乱によって反射する光量が多くなり、反射率が高くなるためである。   Regarding the relationship between each of the luminance values S1, S2, and S3 and the blood vessel depth D, as shown in the graphs of <S1-D>, <S2-D>, and <S3-D> in FIG. Both S2 and S3 rise to the right, and increase as the blood vessel depth D increases. This is because, as described above, the deeper the blood vessel is, the longer the distance from the mucosal surface layer to the blood vessel is, and the amount of light reflected by scattering before the light that has entered the mucosa reaches the blood vessel increases. This is because of the increase.

ただし、輝度値S1、S2、S3は、それぞれ散乱係数μSが異なるため、グラフの傾きは異なる。グラフの傾きは、散乱係数μSが高い順に大きくなる。すなわち、輝度値S3(405nm)の傾きが最も大きく、次が輝度値S1(445nm)で、輝度値S3(473nm)が最も小さい。また、血管の深さDが同じ場合の輝度値を比較すると、散乱係数μSが大きいほど、輝度値は大きくなる。結果として、散乱係数μSが高いほど、輝度値が飽和する血管深さDが浅く、輝度値S3が最も浅い位置で飽和する。   However, since the luminance values S1, S2, and S3 have different scattering coefficients μS, the slopes of the graphs are different. The slope of the graph increases in descending order of the scattering coefficient μS. That is, the gradient of the luminance value S3 (405 nm) is the largest, the next is the luminance value S1 (445 nm), and the luminance value S3 (473 nm) is the smallest. Further, when comparing the luminance values when the blood vessel depth D is the same, the luminance value increases as the scattering coefficient μS increases. As a result, as the scattering coefficient μS is higher, the blood vessel depth D at which the luminance value is saturated is shallower, and the luminance value S3 is saturated at the shallowest position.

<S1−D>、<S2−D>、<S3−D>のグラフから、第1輝度比S1/S3及び第2輝度比S2/S3のそれぞれと血管深さDの関係は、図12の<S1/S3−D>、<S2/S3−D>のグラフに示すようになる。<S1/S3−D>のグラフに示すように、第1輝度比S1/S3と血管深さDの関係は、血管深さDが深いほど、第1輝度比S1/S3は低い。同様に、<S1/S3−D>のグラフに示すように、第2輝度比S2/S3と血管深さDの関係も、第1輝度比S1/S3と同様に、血管深さDが深いほど、第2輝度比S2/S3は低い。   From the graphs of <S1-D>, <S2-D>, and <S3-D>, the relationship between the first luminance ratio S1 / S3 and the second luminance ratio S2 / S3 and the blood vessel depth D is shown in FIG. As shown in the graphs of <S1 / S3-D> and <S2 / S3-D>. As shown in the graph of <S1 / S3-D>, the relationship between the first luminance ratio S1 / S3 and the blood vessel depth D is such that the deeper the blood vessel depth D, the lower the first luminance ratio S1 / S3. Similarly, as shown in the graph of <S1 / S3-D>, the relationship between the second luminance ratio S2 / S3 and the blood vessel depth D is also similar to the first luminance ratio S1 / S3. The second luminance ratio S2 / S3 is lower.

図12に示すように、第1輝度比S1/S3及び第2輝度比S2/S3のそれぞれと、酸素飽和度StO2との関係(図12の<S1/S3−S>、<S1/S3−S>のグラフ)と、第1輝度比S1/S3及び第2輝度比S2/S3のそれぞれと、血管深さDとの関係(図12の<S1/S3−D>、<S1/S3−D>のグラフ)を統合すると、第1及び第2輝度比S1/S3,S2/S3を表す輝度座標系66と、酸素飽和度及び血管深さを表す血管情報座標系67との対応関係が得られる。   As shown in FIG. 12, the relationship between each of the first luminance ratio S1 / S3 and the second luminance ratio S2 / S3 and the oxygen saturation StO2 (<S1 / S3-S>, <S1 / S3- in FIG. 12). (S> graph), the relationship between the first luminance ratio S1 / S3 and the second luminance ratio S2 / S3, and the blood vessel depth D (<S1 / S3-D>, <S1 / S3- in FIG. 12). (D> graph) is integrated, the correspondence relationship between the luminance coordinate system 66 representing the first and second luminance ratios S1 / S3, S2 / S3 and the blood vessel information coordinate system 67 representing the oxygen saturation and the blood vessel depth is obtained. can get.

輝度座標系66は、XYの2軸を持つXY座標系であり、X軸に第1輝度比S1/S3が割り当てられ、Y軸には第2輝度比S2/S3が割り当てられている。   The luminance coordinate system 66 is an XY coordinate system having two axes XY, and the first luminance ratio S1 / S3 is assigned to the X axis, and the second luminance ratio S2 / S3 is assigned to the Y axis.

血管情報座標系67は、輝度座標系66上に設けられたUVの2軸を持つUV座標系であり、U軸は血管深さDに、V軸は酸素飽和度StO2に割り当てられている。U軸は、血管深さDが輝度座標系66に対して正の相関関係があることから、正の傾きを有している。このU軸に関して、右斜め上に行くほど血管は浅いことを、左斜め下に行くほど血管が深いことを示している。一方、V軸は、酸素飽和度StO2が輝度座標系66に対して負の相関関係を有することから、負の傾きを有している。このV軸に関して、左斜め上に行くほど酸素飽和度StO2が低いことを、右斜め下に行くほど酸素飽和度StO2が高いことを示している。また、血管情報座標系67においては、U軸とV軸とは交点Pで交差している。   The blood vessel information coordinate system 67 is a UV coordinate system having two UV axes provided on the luminance coordinate system 66. The U axis is assigned to the blood vessel depth D and the V axis is assigned to the oxygen saturation StO2. The U-axis has a positive inclination because the blood vessel depth D has a positive correlation with the luminance coordinate system 66. Regarding the U-axis, the blood vessel is shallower as it goes diagonally upward to the right, and the blood vessel is deeper as it goes diagonally downward to the left. On the other hand, since the oxygen saturation StO2 has a negative correlation with the luminance coordinate system 66, the V-axis has a negative slope. With respect to the V-axis, the oxygen saturation StO2 is lower as it goes diagonally upward to the left, and the oxygen saturation StO2 is higher as it goes diagonally downward to the right. In the blood vessel information coordinate system 67, the U axis and the V axis intersect at an intersection P.

相関関係記憶部61(図7参照)は、図13に示すような、輝度座標系66と、血管情報座標系67との対応関係を表す相関関係のデータを記憶している。   The correlation storage unit 61 (see FIG. 7) stores correlation data representing the correspondence between the luminance coordinate system 66 and the blood vessel information coordinate system 67 as shown in FIG.

輝度比算出部60は、分光画像PB1、PB2、PB3のそれぞれから、画面内の位置が対応する画素を読み出して、画素毎に第1輝度比S1/S3及び第2輝度比S2/S3を算出する。輝度比算出部60は、算出した第1輝度比S1/S3及び第2輝度比S2/S3の1対の輝度比のデータを画素毎に、血管深さ−酸素飽和度算出部62に対して出力する。血管深さ−酸素飽和度算出部62は、第1及び第2輝度比S1/S3,S2/S3が入力されると、相関関係記憶部61に記憶された相関関係を参照して、入力された第1及び第2輝度比S1/S3,S2/S3に対応する酸素飽和度StO2と血管深さDを特定する。   The luminance ratio calculation unit 60 reads out pixels corresponding to positions in the screen from the spectral images PB1, PB2, and PB3, and calculates the first luminance ratio S1 / S3 and the second luminance ratio S2 / S3 for each pixel. To do. The luminance ratio calculation unit 60 outputs the data of a pair of luminance ratios of the calculated first luminance ratio S1 / S3 and second luminance ratio S2 / S3 to the blood vessel depth-oxygen saturation calculation unit 62 for each pixel. Output. When the first and second luminance ratios S1 / S3 and S2 / S3 are input, the blood vessel depth-oxygen saturation calculation unit 62 is input with reference to the correlation stored in the correlation storage unit 61. The oxygen saturation StO2 and the blood vessel depth D corresponding to the first and second luminance ratios S1 / S3, S2 / S3 are specified.

血管深さ−酸素飽和度算出部62に入力された第1輝度比S1/S3及び第2の輝度比S2/S3を、それぞれ第1輝度比をS1/S3、第2輝度比をS2/S3とすると、血管深さ−酸素飽和度算出部62は、次のようにして、酸素飽和度StO2と血管深さDを特定する。 The first luminance ratio S1 / S3 and the second luminance ratio S2 / S3 input to the blood vessel depth-oxygen saturation calculating unit 62 are respectively represented by a first luminance ratio of S1 * / S3 * and a second luminance ratio of S2. Assuming * / S3 * , the blood vessel depth-oxygen saturation calculating unit 62 specifies the oxygen saturation StO2 and the blood vessel depth D as follows.

血管深さ−酸素飽和度算出部62は、図14(A)に示すように、輝度座標系66において、第1及び第2輝度比S1/S3,S2/S3に対応する座標(X,Y)を特定する。座標(X,Y)が特定されたら、図14(B)に示すように、血管情報座標系67において、特定した座標(X,Y)を、酸素飽和度の座標軸であるV軸と、血管深さの座標軸であるU軸にそれぞれ射影して、座標(U,V)を特定する。これにより、1つの画素について、血管深さ情報U及び酸素飽和度情報Vが求まる。血管深さ−酸素飽和度算出部62は、こうした処理を1画面分の全画素について繰り返して、全画素に対する血管深さ情報U及び酸素飽和度情報Vを求める。 As shown in FIG. 14A, the blood vessel depth-oxygen saturation calculation unit 62 uses coordinates corresponding to the first and second luminance ratios S1 * / S3 * , S2 * / S3 * in the luminance coordinate system 66. Specify (X * , Y * ). When the coordinates (X * , Y * ) are specified, as shown in FIG. 14 (B), the specified coordinates (X * , Y * ) in the blood vessel information coordinate system 67 are set as Vs which are the coordinate axes of the oxygen saturation. The coordinates (U * , V * ) are specified by projecting on the axis and the U axis which is the coordinate axis of the blood vessel depth. Thereby, blood vessel depth information U * and oxygen saturation information V * are obtained for one pixel. The blood vessel depth-oxygen saturation calculation unit 62 repeats such processing for all pixels for one screen to obtain blood vessel depth information U * and oxygen saturation information V * for all pixels.

以上説明したように、散乱係数μSに差があり、かつ、各ヘモグロビン70、71の吸光係数μaの差の大きさが異なる2種類の波長の光(N1、N2)の輝度値S1、S2と、各輝度値S1、S2を比較するための参照光(N3)の輝度値S3を利用することで、酸素飽和度StO2と血管深さDについて、相互の影響を排除した精度の高い情報を取得することができる。これは2種類の光の反射率Rを比較することに他ならないので、酸素飽和度StO2及び血管深さDの変化に対する変化量の差が大きいほど、比較される輝度値S1、S2の差も大きくなり、S/N比が高くなり、精度の高い情報を得ることができる。比較される輝度値S1、S2を求めるための2種類の光については、本例の狭帯域光N1、N2のように、散乱係数μSの差が大きく、かつ、各ヘモグロビン70、71の吸光係数μaの差が大きな、波長を選択することが好ましい。   As described above, the luminance values S1 and S2 of the light (N1, N2) of two types of wavelengths that have a difference in the scattering coefficient μS and differ in the difference in the absorption coefficient μa between the hemoglobins 70 and 71, and By using the luminance value S3 of the reference light (N3) for comparing the luminance values S1 and S2, highly accurate information on the oxygen saturation StO2 and the blood vessel depth D is obtained without mutual influence. can do. This is nothing other than comparing the reflectances R of the two types of light. Therefore, the greater the difference in the amount of change with respect to changes in the oxygen saturation StO2 and the blood vessel depth D, the greater the difference between the compared luminance values S1 and S2. It becomes large, S / N ratio becomes high, and highly accurate information can be obtained. For the two types of light for obtaining the brightness values S1 and S2 to be compared, like the narrow band lights N1 and N2 of this example, the difference in the scattering coefficient μS is large, and the extinction coefficients of the hemoglobins 70 and 71 are the same. It is preferable to select a wavelength having a large μa difference.

上記例では、狭帯域光N1、N2のように、還元ヘモグロビン70と酸化ヘモグロビン71の吸光係数μaの大小関係が逆転している波長域を持つ2つの光を利用する例で説明したが、吸光係数μaの差があれば大小関係が逆転していなくても構わない。例えば、比較する輝度値S1、S2を得るための2つの波長を、ともに、還元ヘモグロビン70の吸光係数μaの方が酸化ヘモグロビン71よりも高い波長の光を利用する場合には、酸素飽和度StO2と輝度値Sの関係は、2つの波長ともに、445nmの狭帯域光N1と同様に、右肩上がりとなる。その場合には、図15に示すように、血管座標系67の傾きが変化して右肩上がりとなる。   In the above example, an example has been described in which two lights having a wavelength range in which the magnitude relationship between the extinction coefficients μa of the reduced hemoglobin 70 and the oxidized hemoglobin 71 is reversed are used, such as the narrow-band lights N1 and N2. As long as there is a difference in the coefficient μa, the magnitude relationship may not be reversed. For example, when the two wavelengths for obtaining the brightness values S1 and S2 to be compared are both light having a wavelength higher than the oxygenated hemoglobin 71 by the extinction coefficient μa of the reduced hemoglobin 70, the oxygen saturation StO2 is used. The relationship between the brightness value S and the brightness value S rises to the right in the same manner as the narrow-band light N1 of 445 nm for both wavelengths. In such a case, as shown in FIG. 15, the inclination of the blood vessel coordinate system 67 changes and rises to the right.

図15に示す例は、吸光係数μaの大小関係が逆転している場合と比較すると、信号値(輝度比)の差が小さくなるため、その分S/N比は低くなる。そのため、S/N比を上げる観点からは、上記例の狭帯域光N1、N2のように、吸光係数μaの大小関係が逆転している2つの波長を選択することが好ましい。   In the example shown in FIG. 15, since the difference in signal value (luminance ratio) is smaller than when the magnitude relationship of the light absorption coefficient μa is reversed, the S / N ratio is lowered accordingly. For this reason, from the viewpoint of increasing the S / N ratio, it is preferable to select two wavelengths whose magnitude relationship of the absorption coefficient μa is reversed, such as the narrowband lights N1 and N2 in the above example.

また、2つの輝度値S1、S2を規格化するための参照信号を得るための参照光として、等吸収点の波長の光である狭帯域光N3を使用しているが、参照光は観察部位の明るさのレベルが分かればよいので、等吸収点の波長でなくてもよい。また、白色光でもよいし、白色光から色分離したG色光やR色光を用いてもよい。   In addition, as the reference light for obtaining the reference signal for standardizing the two luminance values S1 and S2, narrowband light N3 that is light having the wavelength of the isosbestic point is used. Therefore, it is not necessary to use the wavelength of the isosbestic point. Further, white light may be used, or G color light or R color light that is color-separated from white light may be used.

図7において、血管深さ画像生成部67は、内部メモリを有しており、内部メモリには、血管深さの程度に応じてカラー情報が割り当てられたカラーテーブル67aが記憶されている。カラーテーブル67aには、例えば、血管の深さが表層のときは青、中層のときは緑、深層のときは赤というように、血管深さの程度に応じて、明瞭に区別することができる色が割り当てられている。ここでいう血管深さは、狭帯域光N1、N2の深達度の範囲内における深さである。狭帯域光N1、N2は、青色領域であるため、観察部位の表面からの深達度は、より波長が長い赤色領域の光に比べて短いため、狭帯域光N1、N2によって、主として表層領域内の深さの程度を判別することができる。血管深さ画像生成部67は、カラーテーブル67aから、血管深さ−酸素飽和度算出部67で算出された血管深さ情報Uに対応するカラー情報を特定する。 In FIG. 7, the blood vessel depth image generating unit 67 has an internal memory, and a color table 67a to which color information is assigned according to the degree of the blood vessel depth is stored in the internal memory. The color table 67a can be clearly distinguished according to the degree of the blood vessel depth, for example, blue when the blood vessel depth is a surface layer, green when the blood vessel is deep, and red when the blood vessel is deep. A color is assigned. The blood vessel depth here is a depth within the range of the depth of the narrow-band lights N1 and N2. Since the narrow-band lights N1 and N2 are in the blue region, the depth of penetration from the surface of the observation site is shorter than the light in the red region having a longer wavelength. The degree of the inner depth can be determined. The blood vessel depth image generation unit 67 specifies color information corresponding to the blood vessel depth information U * calculated by the blood vessel depth-oxygen saturation calculation unit 67 from the color table 67a.

血管深さ画像生成部67は、血管領域内の全ての画素についてカラー情報が特定されると、カラー情報を、通常観察画像に合成することで、通常観察画像に反映させる。通常観察画像としては、例えば、狭帯域光N1とそれによって励起される蛍光FL1とからなる白色光によって取得される画像データを用いる。これにより、通常観察画像に対して血管深さの情報が反映された血管深さ画像が生成される。生成された血管深さ画像は再度フレームメモリ59に記憶される。なお、カラー情報は、通常観察画像にではなく、機能情報観察モードにおいて得られる、分光画像PB1、PB2、PB3のいずれか、あるいはこれらを合成した合成画像に対して反映させてもよい。   When the color information is specified for all the pixels in the blood vessel region, the blood vessel depth image generation unit 67 combines the color information with the normal observation image to reflect it in the normal observation image. As the normal observation image, for example, image data acquired by white light composed of narrowband light N1 and fluorescence FL1 excited thereby is used. Thereby, the blood vessel depth image in which the information of the blood vessel depth is reflected on the normal observation image is generated. The generated blood vessel depth image is stored in the frame memory 59 again. Note that the color information may be reflected not on the normal observation image but on any of the spectral images PB1, PB2, and PB3 obtained in the function information observation mode, or a synthesized image obtained by synthesizing them.

酸素飽和度画像生成部68は、内部メモリを有しており、内部メモリには、酸素飽和度の程度に応じてカラー情報が割り当てられたカラーテーブル68aが記憶されている。カラーテーブル68aには、例えば、低酸素飽和度であるときにはシアン、中酸素飽和度であるときにはマゼンダ、高酸素飽和度であるときにはイエローというように、酸素飽和度の程度に応じて、明瞭に区別することができる色が割り当てられている。酸素飽和度画像生成部64は、血管深さ画像生成部と同様に、カラーテーブル68aから血管深さ−酸素飽和度算出部で算出された酸素飽和度情報Vに対応するカラー情報を特定する。そして、このカラー情報を通常観察画像に反映させることにより、酸素飽和度画像を生成する。生成された酸素飽和度画像は、血管深さ画像と同様、フレームメモリ59に記憶される。なお、血管深さ画像と同様に、酸素飽和度画像は、通常観察画像の代わりに、分光画像PB1、PB2、PB3やこれらの合成画像をベースにカラー情報を反映させたものでもよい。 The oxygen saturation image generation unit 68 has an internal memory, and a color table 68a to which color information is assigned according to the degree of oxygen saturation is stored in the internal memory. The color table 68a clearly distinguishes depending on the degree of oxygen saturation, for example, cyan when low oxygen saturation, magenta when medium oxygen saturation, and yellow when high oxygen saturation. Colors that can be assigned. Similar to the blood vessel depth image generating unit, the oxygen saturation image generating unit 64 specifies color information corresponding to the oxygen saturation information V * calculated by the blood vessel depth-oxygen saturation calculating unit from the color table 68a. . Then, by reflecting this color information on the normal observation image, an oxygen saturation image is generated. The generated oxygen saturation image is stored in the frame memory 59 similarly to the blood vessel depth image. Similar to the blood vessel depth image, the oxygen saturation image may be one in which color information is reflected based on the spectral images PB1, PB2, and PB3 or a composite image thereof instead of the normal observation image.

表示制御回路60は、通常観察画像と同様に、フレームメモリ59から血管深さ画像や酸素飽和度画像を読み出して、これをビデオ信号に変換してモニタ14に出力する。機能情報観察モードにおける画像の表示形態としては様々なパターンが考えられる。   The display control circuit 60 reads a blood vessel depth image and an oxygen saturation image from the frame memory 59 in the same manner as the normal observation image, converts it into a video signal, and outputs it to the monitor 14. Various patterns are conceivable as image display forms in the function information observation mode.

例えば、図16に示すように、モニタ14の一方の側に通常観察画像の表示画像72を表示させ、他方の側に、血管深さ画像の表示画像73または酸素飽和度画像の表示画像74のいずれかを表示させるようにしてもよい。表示画像73と表示画像74の切り替えは、例えばコンソール15の操作によって行われる。もちろん、表示画像73、74を同時に表示してもよい。表示画像73では、表層血管75が青色で、中層血管76が緑色で、深層血管77が赤色で表示される。また、酸素飽和度画像74では、低酸素飽和度を示す血管80がシアンで、中酸素飽和度を示す血管81がマゼンダで、高酸素飽和度を示す血管82がイエローで表示される。   For example, as shown in FIG. 16, a display image 72 of a normal observation image is displayed on one side of the monitor 14, and a display image 73 of a blood vessel depth image or a display image 74 of an oxygen saturation image is displayed on the other side. Either of them may be displayed. Switching between the display image 73 and the display image 74 is performed by operating the console 15, for example. Of course, the display images 73 and 74 may be displayed simultaneously. In the display image 73, the surface blood vessel 75 is displayed in blue, the middle blood vessel 76 is displayed in green, and the deep blood vessel 77 is displayed in red. In the oxygen saturation image 74, the blood vessel 80 indicating low oxygen saturation is displayed in cyan, the blood vessel 81 indicating medium oxygen saturation is displayed in magenta, and the blood vessel 82 indicating high oxygen saturation is displayed in yellow.

なお、血管深さ情報と酸素飽和度情報は、画像に代えて又は加えて、文字情報として表示してもよい。また、酸素飽和度を画像化しているが、酸素飽和度画像には、上記例で示した形態に代えて、又はそれに加えて、「血液量(酸化ヘモグロビンと還元ヘモグロビンの和)×酸素飽和度(%)」から求まる酸化ヘモグロビンインデックスを画像化したものも含まれる。   The blood vessel depth information and the oxygen saturation information may be displayed as character information instead of or in addition to the image. In addition, oxygen saturation is imaged, but the oxygen saturation image may be expressed as “blood volume (sum of oxidized hemoglobin and reduced hemoglobin) × oxygen saturation in place of or in addition to the form shown in the above example. (%) "Which includes an image of an oxygenated hemoglobin index obtained from"% ".

また、本例では、酸素飽和度の算出において、狭帯域光N1、N2として、青色領域の狭帯域光を使用している。青色領域の光が使用される理由は、腫瘍の良悪鑑別などの病変部の診断においては、中深層よりも表層血管の性状の把握が重要である場合も多く、表層血管の性状を詳細に把握できる観察方法が望まれているためである。こうした要請に応えるため、本発明においては、深達度が浅く、表層血管の情報を良好に取得できる青色領域の光が採用される。   In this example, in the calculation of the oxygen saturation, narrow band light in the blue region is used as the narrow band light N1 and N2. The reason for using light in the blue region is that it is often more important to understand the properties of the superficial blood vessels than the mid-deep layer in the diagnosis of lesions such as tumor benign / bad discrimination. This is because an observation method that can be grasped is desired. In order to meet such a demand, the present invention employs light in a blue region that has a low depth of penetration and can acquire information on the superficial blood vessels well.

そして、狭帯域光が使用される理由は次のとおりである。図8、図10に示すヘモグロビンの吸光スペクトルで明らかなように、青色領域においては、緑色領域や赤色領域と比較して、吸光度の変化が急峻であり、波長が少しずれると、吸光度が大きく変化する。また、各ヘモグロビン70、71の吸光度の大小関係に逆転が生じる等吸収点の間隔も狭い。波長域が広いと、大小関係が逆転する2つの領域の信号が混合して、輝度値が平均化されてしまうため、精度の高い情報が得られない。そのため、青色領域の光を利用して表層血管の血管情報を得るためには、2つの等吸収点の間隔に近い幅の波長域、好ましくは、2つの等吸収点の間隔に収まる波長域を持つ狭い狭帯域光を用いる必要がある。   The reason why the narrow band light is used is as follows. As is clear from the absorption spectra of hemoglobin shown in FIGS. 8 and 10, the change in absorbance is sharper in the blue region than in the green and red regions, and the absorbance changes greatly when the wavelength is slightly shifted. To do. Further, the interval between the isosbestic points where the magnitude relationship between the absorbances of the hemoglobins 70 and 71 is reversed is narrow. If the wavelength range is wide, signals in two areas where the magnitude relationship is reversed are mixed and the luminance values are averaged, so that highly accurate information cannot be obtained. Therefore, in order to obtain the blood vessel information of the superficial blood vessel using the light in the blue region, a wavelength region having a width close to the interval between the two isosbestic points, preferably a wavelength region within the interval between the two isosbestic points is selected. It is necessary to use narrow narrow band light.

また、表層血管は、中深層血管と比較して細いため、照射される光量が不足しがちであり、表層血管を観察する場合には、光量が大きな光源が必要になる。   Further, since the superficial blood vessel is thinner than the middle-deep blood vessel, the amount of light to be irradiated tends to be insufficient, and a light source having a large light amount is required when observing the superficial blood vessel.

このように、表層血管に関する血管情報の測定精度を高めるには、青色領域の狭帯域光で、かつ高い光量の光を発する光源が適しており、こうした理由から、本例においては、高出力の狭帯域光N1、N2を発光可能なレーザ光源LD1、LD2を採用している。   As described above, in order to improve the measurement accuracy of blood vessel information related to the surface blood vessel, a light source that emits a light with a narrow band light in a blue region and a high light amount is suitable. Laser light sources LD1 and LD2 capable of emitting narrowband light N1 and N2 are employed.

次に、機能情報観察モードにおいて、酸素飽和度及び血管深さの算出の前に、位置合わせ処理部63が実行する位置合わせ処理について説明する。図6(B)に示すように、狭帯域光N1、N2、N3の照射タイミング及びその反射光の撮像タイミングが異なるため、取得される分光画像PB1、PB2、PB3は、手ぶれ、視野の移動、心拍や呼吸などによる患者の体動によって、位置ズレが生じる。酸素飽和度の算出に当たっては、各分光画像PB1、PB2の対応する画素の輝度値を比較するため、位置合わせ処理部63は、位置合わせを行って、各分光画像PB1、PB2、PB3間の位置ズレを解消する。   Next, an alignment process executed by the alignment processing unit 63 before calculating the oxygen saturation and the blood vessel depth in the function information observation mode will be described. As shown in FIG. 6 (B), since the irradiation timing of the narrowband light N1, N2, and N3 and the imaging timing of the reflected light are different, the acquired spectral images PB1, PB2, and PB3 are shakes, movement of the visual field, Positional misalignment occurs due to patient movement caused by heartbeat and respiration. In calculating the oxygen saturation, in order to compare the luminance values of the corresponding pixels of the spectral images PB1 and PB2, the alignment processing unit 63 performs alignment and positions between the spectral images PB1, PB2, and PB3. Eliminate the gap.

図17に示すように、位置合わせ処理部63は、最初に、分光画像PB1、PB2、PB3を、フレームメモリ59から読み出して、コントラスト調整処理を施す。コントラスト調整処理は、位置合わせ用画像を生成するための前処理である。そして、コントラストを調整後、前処理が済んだ処理済みの分光画像PB1、PB2、PB3に対して二値化処理を施して、位置合わせ用画像である二値画像EPB1、EPB2、EPB3を生成する。そして、二値画像EPB1、EPB2、EPB3に基づいて、位置ズレ量検出処理を行う。最後に、位置合わせ用画像で検出された位置ズレ量に基づいて、原画像である分光画像PB1、PB2、PB3の位置合わせ処理を行う。   As shown in FIG. 17, the alignment processing unit 63 first reads the spectral images PB1, PB2, and PB3 from the frame memory 59, and performs contrast adjustment processing. The contrast adjustment process is a preprocess for generating an alignment image. Then, after adjusting the contrast, binarization processing is performed on the processed spectral images PB1, PB2, and PB3 that have been preprocessed to generate binary images EPB1, EPB2, and EPB3 that are alignment images. . Then, based on the binary images EPB1, EPB2, and EPB3, a positional deviation amount detection process is performed. Finally, alignment processing of the spectral images PB1, PB2, and PB3, which are the original images, is performed based on the positional deviation amount detected in the alignment image.

図18に示すように、位置合わせ処理部63は、コントラスト調整処理を行う際に、分光画像PB1、PB2、PB3について、それぞれの濃度ヒストグラムを求める。周知のように、濃度ヒストグラムは、横軸に画素値(輝度値)を、縦軸に頻度を取ったグラフである。分光画像PB1、PB2、PB3のそれぞれには、表層血管86と中深層血管87が描出されている。   As shown in FIG. 18, the alignment processing unit 63 obtains density histograms for the spectral images PB1, PB2, and PB3 when performing the contrast adjustment processing. As is well known, the density histogram is a graph with pixel values (luminance values) on the horizontal axis and frequency on the vertical axis. In each of the spectral images PB1, PB2, and PB3, a superficial blood vessel 86 and a mid-deep blood vessel 87 are depicted.

狭帯域光N1、N2、N3は、それぞれ445nm、473nm、405nmの青色領域の波長域を持つ。これらの波長域は、ヘモグロビンの吸光係数が高いため、表層血管86、中深層血管87の領域では、狭帯域光N1、N2、N3の反射光量が小さく、輝度値も低い。一方、血管が存在しない領域はヘモグロビンによる吸収が無いため、反射光量が大きく、輝度値が高い。そのため、分光画像PB1、PB2、PB3において、表層血管86、中深層血管87は、その周辺の血管が存在しない領域と比較して、濃度が高い。   The narrowband lights N1, N2, and N3 have a blue wavelength region of 445 nm, 473 nm, and 405 nm, respectively. Since the absorption coefficient of hemoglobin is high in these wavelength regions, the amount of reflected light of the narrowband light N1, N2, and N3 is small and the luminance value is low in the region of the superficial blood vessel 86 and the mid-deep blood vessel 87. On the other hand, the region where the blood vessel does not exist is not absorbed by hemoglobin, and therefore the amount of reflected light is large and the luminance value is high. Therefore, in the spectroscopic images PB1, PB2, and PB3, the superficial blood vessel 86 and the middle-deep blood vessel 87 are higher in concentration than the peripheral blood vessels.

また、狭帯域光N1、N2、N3は青色領域の波長域を持つため、散乱が強く、深達度が低いため、中深層血管87まで到達する光量は少なく、表層血管86における吸収が多い。そのため、分光画像PB1、PB2、PB3において、中深層血管87と比べて、表層血管86の濃度が高く描出される。そのため、分光画像PB1、PB2、PB3の濃度ヒストグラムは、濃度が高い順(画素値が低い順)に、表層血管86のピークa、中深層血管87のピークb、血管が存在しない粘膜のピークcの3つのピークを持つ。   Further, since the narrow-band lights N1, N2, and N3 have a wavelength region in the blue region, the scattering is strong and the depth of penetration is low. Therefore, in the spectral images PB1, PB2, and PB3, the density of the superficial blood vessel 86 is rendered higher than that of the intermediate deep blood vessel 87. Therefore, the density histograms of the spectral images PB1, PB2, and PB3 show the peak a of the superficial blood vessel 86, the peak b of the middle-deep blood vessel 87, and the peak c of the mucous membrane where no blood vessel exists, in descending order of the density (in order of decreasing pixel value) It has three peaks.

また、図8、図10に示すヘモグロビンの吸光スペクトルで明らかなように、狭帯域光N2(473nm)は、狭帯域光N1、N2と比較して、ヘモグロビンの吸収係数μaが低いため、相対的にヘモグロビンによる吸収が少ない。そのため、分光画像PB2は、分光画像PB1、PB3と比較すると、血管と血管が存在しない粘膜とのコントラストが低い。これは、濃度ヒストグラムにおいては、画素値の最大値(max)と最小値(min)の幅であるダイナミックレンジDRの違いとして現れる。分光画像PB2のダイナミックレンジDR2は、分光画像PB1、PB3のダイナミックレンジDR1、DR3よりも狭い。   Further, as is apparent from the absorption spectra of hemoglobin shown in FIGS. 8 and 10, the narrowband light N2 (473 nm) has a lower absorption coefficient μa of hemoglobin than the narrowband lights N1 and N2, so that Less absorbed by hemoglobin. Therefore, the spectral image PB2 has a low contrast between the blood vessel and the mucous membrane where no blood vessel exists compared to the spectral images PB1 and PB3. This appears as a difference in the dynamic range DR which is the width of the maximum value (max) and the minimum value (min) of the pixel value in the density histogram. The dynamic range DR2 of the spectral image PB2 is narrower than the dynamic ranges DR1 and DR3 of the spectral images PB1 and PB3.

分光画像PB1、PB2、PB3の位置合わせを行う場合には、白と黒に二値化されるが、コントラストに差があると、例えば、コントラストが高い分光画像PB1、PB3の二値画像EPB1、EPB3においては黒に振り分けられる血管領域が、コントラストが低い分光画像PB2の二値画像EPB2においては白に振り分けられてしまう場合がある。この場合には、同じ値を示すべき領域が異なる値を示すことになるため、位置合わせの精度の低下を招く。   When the spectral images PB1, PB2, and PB3 are aligned, they are binarized into white and black. If there is a difference in contrast, for example, the binary images EPB1 and PB3 of the spectral images PB1 and PB3 with high contrast are displayed. In EPB3, the blood vessel region assigned to black may be assigned to white in the binary image EPB2 of the spectral image PB2 having a low contrast. In this case, since the region which should show the same value will show a different value, the precision of alignment will fall.

そのため、図19に示すように、位置合わせ処理部63は、分光画像PB1、PB2、PB3間においてコントラスト調整処理を施して、各分光画像PB1、PB2、PB3のコントラストを合わせる。図19においては、分光画像PB1及び分光画像PB2間のコントラストを合わせる例を示している。   Therefore, as shown in FIG. 19, the alignment processing unit 63 performs contrast adjustment processing between the spectral images PB1, PB2, and PB3, and adjusts the contrast of the spectral images PB1, PB2, and PB3. FIG. 19 shows an example of matching the contrast between the spectral image PB1 and the spectral image PB2.

位置合わせ処理部63は、内部メモリを有しており、内部メモリには、階調補正テーブル63aが記憶されている。階調補正テーブル63aは、横軸が入力値を、縦軸が出力値を表し、入力値と出力値の対応関係を示す階調補正カーブを有している。コントラストを上げるためには、処理前の原画像において濃度が低い部分は、濃度がより低く、濃度が高い部分はより高くなるようにすればよいので、図19に示す略S字形状の階調補正カーブに基づいて階調補正を行えば、コントラストを上げることができる(DRが広がる)。反対に、逆S字形状の階調補正カーブを使用すれば、コントラストが下がる(DRが狭くなる)。   The alignment processing unit 63 has an internal memory, and a gradation correction table 63a is stored in the internal memory. The gradation correction table 63a has a gradation correction curve indicating the input value on the horizontal axis and the output value on the vertical axis, and indicating the correspondence between the input value and the output value. In order to increase the contrast, the low density portion of the original image before processing should have a lower density, and the higher density portion should be higher. Therefore, the substantially S-shaped gradation shown in FIG. If gradation correction is performed based on the correction curve, the contrast can be increased (DR increases). On the other hand, if an inverse S-shaped gradation correction curve is used, the contrast is lowered (DR becomes narrower).

コントラスト調整処理において、位置合わせ処理部63は、最もコントラストが低い分光画像PB2に対してコントラストが高い分光画像PB1を基準画像とし、分光画像PB2のコントラストが基準画像のコントラストに一致するように調整レベルを決定する。位置合わせ処理部63は、分光画像PB1と分光画像PB2の濃度ヒストグラムに基づいて、それぞれのダイナミックレンジDR1、DR2を判定し、分光画像PB2のダイナミックレンジDR2が、ダイナミックレンジDR1にほぼ一致するように階調補正テーブル63aの階調補正カーブを生成する。生成した階調補正カーブを適用して、分光画像PB2に対してコントラスト調整処理を施すことで、分光画像PB2のダイナミックレンジDR2を、分光画像PB1のダイナミックレンジDR1に合わせる。これにより、分光画像PB2において、血管領域と血管が存在しない領域の濃度差が広がって、明瞭な識別が可能になる。   In the contrast adjustment process, the alignment processing unit 63 uses the spectral image PB1 having a higher contrast than the spectral image PB2 having the lowest contrast as a reference image, and adjusts the contrast level so that the contrast of the spectral image PB2 matches the contrast of the reference image. To decide. The alignment processing unit 63 determines the respective dynamic ranges DR1 and DR2 based on the density histograms of the spectral image PB1 and the spectral image PB2, so that the dynamic range DR2 of the spectral image PB2 substantially matches the dynamic range DR1. A gradation correction curve of the gradation correction table 63a is generated. By applying the generated gradation correction curve and performing contrast adjustment processing on the spectral image PB2, the dynamic range DR2 of the spectral image PB2 is matched with the dynamic range DR1 of the spectral image PB1. As a result, in the spectroscopic image PB2, the density difference between the blood vessel region and the region where no blood vessel exists spreads, and clear discrimination becomes possible.

図19においては、分光画像PB1、PB2間のコントラスト調整処理を説明したが、位置合わせ処理部63は、分光画像PB1、PB3に対してもコントラスト調整処理を行う。分光画像PB1、PB3間のコントラスト調整処理においては、分光画像PB1を基準画像として、分光画像PB3のコントラストを調整する。これにより、分光画像PB1、PB2、PB3の2つの分光画像のコントラストをほぼ一致させることができる。なお、位置合わせ処理部63が、濃度ヒストグラムに基づいて、2つの分光画像のコントラストの差が所定の許容範囲にあるか否かを判定して、許容範囲内の場合には、コントラスト調整処理をせず、許容範囲外の場合にのみコントラスト調整処理を実行してもよい。例えば、分光画像PB1、PB3間のコントラストの差が許容範囲である場合には、分光画像PB1、PB3に対してはコントラスト調整処理を行わなくてもよい。   In FIG. 19, the contrast adjustment process between the spectral images PB1 and PB2 has been described, but the alignment processing unit 63 also performs the contrast adjustment process on the spectral images PB1 and PB3. In the contrast adjustment process between the spectral images PB1 and PB3, the contrast of the spectral image PB3 is adjusted using the spectral image PB1 as a reference image. Thereby, the contrast of the two spectral images of the spectral images PB1, PB2, and PB3 can be substantially matched. The alignment processing unit 63 determines whether or not the difference in contrast between the two spectral images is within a predetermined allowable range based on the density histogram. If the difference is within the allowable range, the contrast adjustment process is performed. Instead, the contrast adjustment process may be executed only when it is outside the allowable range. For example, when the contrast difference between the spectral images PB1 and PB3 is within an allowable range, the contrast adjustment process may not be performed on the spectral images PB1 and PB3.

位置合わせ処理部63は、図17で示したように、コントラスト調整処理を施した分光画像PB1、PB2、PB3に対して二値化処理を施し、しきい値を基準に画素値を白と黒の二値に振り分けて二値画像EPB1、EPB2、EPB3を生成する。しきい値は、血管領域が黒、血管が存在しない領域が白になるような値が設定される。例えば、濃度ヒストグラムの中深層血管のピークbと粘膜のピークcの間の谷をしきい値として設定する。なお、青色領域の狭帯域光では、中深層血管87と比較して、表層血管86がより明瞭に描出されるので、表層血管86のピークaと中深層血管87のピークbの間の谷をしきい値として設定してもよい。   As shown in FIG. 17, the alignment processing unit 63 performs binarization processing on the spectral images PB1, PB2, and PB3 that have undergone contrast adjustment processing, and sets the pixel values to white and black with reference to the threshold value. Binary images EPB1, EPB2, and EPB3 are generated. The threshold value is set such that the blood vessel region is black and the region where no blood vessel exists is white. For example, a valley between the peak b of the middle depth blood vessel and the peak c of the mucous membrane is set as the threshold value. In the narrow-band light in the blue region, the surface blood vessel 86 is more clearly depicted as compared to the mid-deep blood vessel 87. Therefore, the valley between the peak a of the surface blood vessel 86 and the peak b of the mid-deep blood vessel 87 is shown. It may be set as a threshold value.

位置合わせ処理部63は、二値化処理後に、二値画像EPB1、EPB2、EPB3に基づいて、位置ズレ量検出処理を行う。位置ズレ量検出処理では、例えば、ブロックマッチングの手法で画像間の動きベクトルを求めて、求めた動きベクトルを位置ズレ量として検出する。   After the binarization process, the alignment processing unit 63 performs a positional deviation amount detection process based on the binary images EPB1, EPB2, and EPB3. In the positional deviation amount detection process, for example, a motion vector between images is obtained by a block matching technique, and the obtained motion vector is detected as a positional deviation amount.

具体的には、図20に示すように、二値画像EPB1と二値画像EPB2の2つの画像の一方、例えば二値画像EPB1を基準画像として、基準画像の画面内において代表点91を設定し、各代表点の周囲に例えば9×9画素程度の小領域をブロック92として設定する。代表点91は、例えば画面内に9つ設定され、ブロック92も代表点91の数に応じて9つ設定される。一方、二値画像EPB2においては、各代表点91と同じ座標位置を基準にブロック92よりも大きなサーチエリア93を設定する。そして、二値画像EPB2のサーチエリア93内において、二値画像EPB1のブロック92の画素値の積算値と、相関が高い領域を探索する。探索方法としては、例えば、二乗誤差SSD(Sum of Squared Difference)が利用される。   Specifically, as shown in FIG. 20, a representative point 91 is set in the screen of the reference image using, for example, the binary image EPB1 as one of the two images of the binary image EPB1 and the binary image EPB2. For example, a small area of about 9 × 9 pixels is set as a block 92 around each representative point. For example, nine representative points 91 are set in the screen, and nine blocks 92 are set according to the number of representative points 91. On the other hand, in the binary image EPB2, a search area 93 larger than the block 92 is set based on the same coordinate position as each representative point 91. Then, in the search area 93 of the binary image EPB2, an area having a high correlation with the integrated value of the pixel values of the block 92 of the binary image EPB1 is searched. As a search method, for example, a square error SSD (Sum of Squared Difference) is used.

二乗誤差SSDは、ブロック92内の積算値と、サーチエリア93においてブロック92と同じ大きさのブロックの積算値とをそれぞれ二乗して、両者の差分をとることによって求められる。二乗誤差SSDが小さいほど両者の相関が高いと判定される。図20において、サーチエリア93内において、ブロック92と最も相関が高い領域がブロック94と判定された場合には、ブロック92の代表点91の座標と、ブロック94の代表点96の座標に基づいて動きベクトル97を求める。位置合わせ処理部63は、こうした処理を各ブロックについて行い、求めた各動きベクトル97を平均した値を、画像全体の位置ズレ量として検出する。なお、本例においては二乗誤差SSDを利用しているが、各ブロックの誤差の絶対値SAD(Sum of Absolute Difference)を利用してもよい。また、本例においては、直線移動方向に関する位置ズレ量のみを求めているが、回転方向に関する位置ズレ量を求めてもよい。   The square error SSD is obtained by squaring the integrated value in the block 92 and the integrated value of the block having the same size as the block 92 in the search area 93, and taking the difference between them. It is determined that the smaller the square error SSD is, the higher the correlation between the two is. In FIG. 20, when the region having the highest correlation with the block 92 is determined to be the block 94 in the search area 93, it is based on the coordinates of the representative point 91 of the block 92 and the coordinates of the representative point 96 of the block 94. A motion vector 97 is obtained. The alignment processing unit 63 performs such processing for each block, and detects a value obtained by averaging the obtained motion vectors 97 as a positional deviation amount of the entire image. Although the square error SSD is used in this example, the absolute value SAD (Sum of Absolute Difference) of the error of each block may be used. Further, in this example, only the positional deviation amount relating to the linear movement direction is obtained, but the positional deviation amount relating to the rotation direction may be obtained.

位置合わせ処理部63は、検出した位置ズレ量を、分光画像PB1、PB2に対して適用して位置合わせを行う。具体的には、各分光画像PB1、PB2のそれぞれの原点Oを位置ズレ量に基づいて調節して、各画素の座標を変換する。位置合わせ処理部63は、二値画像EB1、EB3に対しても同様の処理を行って、分光画像PB1、PB3の位置合わせを行う。   The alignment processing unit 63 performs alignment by applying the detected positional deviation amount to the spectral images PB1 and PB2. Specifically, the origin O of each of the spectral images PB1 and PB2 is adjusted based on the amount of positional deviation, and the coordinates of each pixel are converted. The alignment processing unit 63 performs similar processing on the binary images EB1 and EB3 to align the spectral images PB1 and PB3.

機能画像処理部61は、位置合わせが行われた分光画像PB1、PB2、PB3に基づいて、図13、14において説明した手順で、輝度比(S1/S3、S2/S3)を算出し、算出した輝度比に基づいて酸素飽和度及び血管深さを算出して、画像化を行う。   The functional image processing unit 61 calculates and calculates the luminance ratio (S1 / S3, S2 / S3) according to the procedure described in FIGS. 13 and 14 based on the spectral images PB1, PB2, and PB3 that have been aligned. Imaging is performed by calculating the oxygen saturation and the blood vessel depth based on the brightness ratio.

本発明では、位置合わせの前処理として、コントラスト調整処理を行っているため、分光画像PB1、PB2、PB3のコントラスト差が解消される。位置合わせ用画像である二値画像EB1、EB2、EB3を作成したときに、同じ血管領域が一方においては強調され、他方においては強調されないといったことが無くなり、二値画像EB1、EB2、EB3において同じように血管領域が強調される。そのため、コントラスト調整処理を行わない場合と比べて、位置ズレ量の検出精度が上がり、分光画像PB1、PB2、PB3の各画素の位置を正確に対応させることができる。これにより、血管領域同士の輝度値の比較を正確に行うことができるので、酸素飽和度や血管深さの算出精度が上がる。   In the present invention, since contrast adjustment processing is performed as preprocessing for alignment, contrast differences between the spectral images PB1, PB2, and PB3 are eliminated. When the binary images EB1, EB2, and EB3, which are alignment images, are created, the same blood vessel region is not emphasized on one side and is not enhanced on the other side, and the same is true in the binary images EB1, EB2, and EB3. Thus, the blood vessel region is emphasized. Therefore, as compared with the case where the contrast adjustment process is not performed, the detection accuracy of the positional deviation amount is improved, and the positions of the respective pixels of the spectral images PB1, PB2, and PB3 can be accurately associated. This makes it possible to accurately compare the luminance values of the blood vessel regions, so that the oxygen saturation and blood vessel depth calculation accuracy is improved.

酸素飽和度や血管深さといった生体機能情報を算出する場合は、単に2つの画像を合成して合成画像を生成する場合と比べて、位置合わせの精度は非常に高い精度が求められる。そのため、位置合わせの高精度化に寄与するコントラスト調整処理は、生体機能情報を算出する際には特に有用性が高い。   When calculating biological function information such as oxygen saturation and blood vessel depth, the positioning accuracy is required to be very high compared to the case where a composite image is generated by simply combining two images. Therefore, the contrast adjustment process that contributes to high accuracy of alignment is particularly useful when calculating biological function information.

また、本例においては、酸素飽和度の算出に際して、青色領域の狭帯域光N1、N2、N3を使用している。上述したように、青色領域においては、波長の変化に対する、ヘモグロビンの吸光係数μaや散乱係数μSの変化が急峻である。そのため、狭帯域光N1、N2、N3のように、青色領域において異なる波長の光を用いた場合には、各分光画像PB1、PB2、PB3のコントラストの差も大きくなりがちである。そのため、本発明は、表層血管を観察するために青色領域における複数の狭帯域光を使用する場合に特に有効である。   Further, in this example, when the oxygen saturation is calculated, narrow band lights N1, N2, and N3 in the blue region are used. As described above, in the blue region, changes in the absorption coefficient μa and scattering coefficient μS of hemoglobin with respect to the change in wavelength are steep. For this reason, when light of different wavelengths is used in the blue region, such as narrowband light N1, N2, and N3, the contrast difference between the spectral images PB1, PB2, and PB3 tends to be large. Therefore, the present invention is particularly effective when a plurality of narrow-band lights in the blue region are used to observe the surface blood vessels.

さらに、本例においては、狭帯域光N1、N2、N3の光源としてレーザ光源LD1、LD2、LD3を使用しているが、現状においては、3つの光源の中で最も長波長のレーザ光源LD2は、レーザ光源LD1、LD3と比べて、出力が相対的に低い。これも、分光画像PB2のコントラストが、他の分光画像PB1、PB3と比較して、低くなる原因の1つである。したがって、本例のレーザ光源LD1(405nm)、LD2(473nm)、LD3(405nm)のように、出力差がある複数の光源を使用する場合に、本発明は特に有効である。   Furthermore, in this example, the laser light sources LD1, LD2, and LD3 are used as the light sources of the narrow-band lights N1, N2, and N3. Compared with the laser light sources LD1 and LD3, the output is relatively low. This is also one of the causes that the contrast of the spectral image PB2 becomes lower than the other spectral images PB1 and PB3. Therefore, the present invention is particularly effective when using a plurality of light sources having output differences such as the laser light source LD1 (405 nm), LD2 (473 nm), and LD3 (405 nm) of this example.

また、本発明によれば、血管の太さに応じた周波数フイルタリング処理を行う特許文献1のように血管の太さを把握する必要はないため、血管の太さが表示倍率によって変化する場合にも対応できる。表示倍率が変化した場合に処理の内容を変える必要もないので、構成が複雑化することも無い。   In addition, according to the present invention, it is not necessary to grasp the thickness of the blood vessel as in Patent Document 1 that performs frequency filtering processing according to the thickness of the blood vessel. Can also be supported. Since it is not necessary to change the contents of processing when the display magnification changes, the configuration is not complicated.

[第2実施形態]
上記実施形態では、画像間のコントラストの差に応じた前処理として、ダイナミックレンジを広げてコントラストを合わせるコントラスト調整処理を説明したが、コントラスト調整処理に代えて、前処理として、二値化処理のしきい値を決定する処理を行ってもよい。
[Second Embodiment]
In the above embodiment, the contrast adjustment process for adjusting the contrast by expanding the dynamic range has been described as the preprocess according to the contrast difference between the images. However, instead of the contrast adjustment process, the binarization process is performed as the preprocess. You may perform the process which determines a threshold value.

図21に示すように、位置合わせ処理部63は、分光画像PB1、PB2、PB3のコントラストの差に応じて二値化処理のしきい値を決定する。例えば、図22に示すように、コントラストが高い分光画像PB1の濃度ヒストグラムに基づいて、コントラストが低い分光画像PB2の二値化処理のしきい値Th2を決定する。   As shown in FIG. 21, the alignment processing unit 63 determines a threshold value for binarization processing according to the contrast difference between the spectral images PB1, PB2, and PB3. For example, as illustrated in FIG. 22, the threshold value Th <b> 2 for binarization processing of the spectral image PB <b> 2 with low contrast is determined based on the density histogram of the spectral image PB <b> 1 with high contrast.

分光画像PB2のように血管のコントラストが低い場合には、その濃度ヒストグラムと、コントラストが高い分光画像PB1の濃度ヒストグラムとを比較すると、表層血管86や中深層血管87の血管領域のピークa、bと、血管が存在しない粘膜のピークcとの境界(谷間)が不明瞭になる場合がある。谷間が不明瞭だと、設定したしきい値Th2が、血管領域と血管が存在しない領域を区別するには不適切な値に設定されてしまうことがある。しきい値Th2が不適切な値に設定されると、二値画像EPB1においては血管領域(黒)に振り分けられる画素が、二値画像EPB2においては血管が存在しない領域(白)に振り分けられてしまう。   When the contrast of the blood vessel is low as in the spectral image PB2, the density histogram is compared with the density histogram of the spectral image PB1 having a high contrast, and the peaks a and b of the blood vessel regions of the surface blood vessel 86 and the mid-deep blood vessel 87 are compared. And the boundary (valley) between the peak c of the mucous membrane where no blood vessel exists may be unclear. If the valley is unclear, the set threshold Th2 may be set to an inappropriate value for distinguishing between a blood vessel region and a region where no blood vessel exists. When the threshold value Th2 is set to an inappropriate value, the pixels assigned to the blood vessel region (black) in the binary image EPB1 are assigned to the region (white) where no blood vessel exists in the binary image EPB2. End up.

そこで、位置合わせ処理部63は、ピークがはっきりしている分光画像PB1の濃度ヒストグラムに基づいて、例えば表層血管86のピークaと粘膜のピークcの画素値の差Δd1と、分光画像PB1において設定したしきい値Th1のそれぞれの値に基づいて、分光画像PB2のしきい値Th2を決定する。例えば、分光画像PB1の画素値の差Δd1としきい値Th1の比を求めて、その比と同じになるように、分光画像PB2のΔd2に対するしきい値Th2を求める。式で表すと、Th2=Th1×Δd2/Δd1となる。   Therefore, the alignment processing unit 63 sets, for example, the difference Δd1 between the pixel values of the peak a of the superficial blood vessel 86 and the peak c of the mucous membrane and the spectral image PB1 based on the density histogram of the spectral image PB1 with clear peaks. Based on the respective threshold values Th1, the threshold value Th2 of the spectral image PB2 is determined. For example, the ratio between the pixel value difference Δd1 of the spectral image PB1 and the threshold Th1 is obtained, and the threshold Th2 with respect to Δd2 of the spectral image PB2 is obtained so as to be the same as the ratio. Expressed by the equation, Th2 = Th1 × Δd2 / Δd1.

位置合わせ処理部63は、求めたしきい値Th2に基づいて、分光画像PB2に対して二値化処理を施して、二値画像EPB1を生成する。これによれば、分光画像PB2のように、コントラストが低く、濃度ヒストグラムにおけるピークが不明瞭な場合でも、適切なしきい値Th2を求めることができる。しきい値Th2は、分光画像PB1のしきい値Th1に基づいて決められるので、分光画像PB1、PB2において、血管領域とそれ以外に振り分ける基準を合わせることができる。このため、コントラスト調整処理を行う場合と同様の効果が得られる。   The alignment processing unit 63 performs binarization processing on the spectral image PB2 based on the obtained threshold value Th2, and generates a binary image EPB1. According to this, even when the contrast is low and the peak in the density histogram is unclear as in the spectral image PB2, the appropriate threshold value Th2 can be obtained. Since the threshold value Th2 is determined based on the threshold value Th1 of the spectral image PB1, it is possible to match the reference for distributing the blood vessel region and the other in the spectral images PB1 and PB2. For this reason, the same effect as the case where the contrast adjustment process is performed can be obtained.

なお、しきい値Th2の決め方としては、上記以外の方法として、例えば、次のような方法が考えられる。まず、しきい値Th2を適当に決めた後、二値画像EPB2を生成して、二値画像EPB1との間でパターンマッチングを行う。パターンマッチングは、画像内の一部の血管形状などのパターンを抽出して行ってもよいし、画像全体で行ってもよい。   As a method of determining the threshold Th2, for example, the following method can be considered as a method other than the above. First, after appropriately determining the threshold value Th2, a binary image EPB2 is generated, and pattern matching is performed with the binary image EPB1. The pattern matching may be performed by extracting a part of the blood vessel shape or the like in the image, or may be performed on the entire image.

この場合には、位置合わせ処理部63は、パターンマッチングの結果に基づいて、両者の一致度を評価する。各画像EPB1、EPB2間において画素値の差が少ないほど一致度は高い。位置合わせ処理部63は、一致度が所定の許容範囲内か否かを判定して、許容範囲内であれば、二値化を行ったしきい値Th2を最終的な値として確定する。許容範囲外の場合には、しきい値Th2の値を再設定して二値化を行い、パターンマッチングを行って一致度を評価する。こうした処理を一致度が許容範囲に収まるまで繰り返す。   In this case, the alignment processing unit 63 evaluates the degree of coincidence between the two based on the pattern matching result. The smaller the difference in pixel value between the images EPB1 and EPB2, the higher the matching degree. The alignment processing unit 63 determines whether or not the degree of coincidence is within a predetermined allowable range. If the degree of coincidence is within the allowable range, the binarized threshold value Th2 is determined as a final value. If the value is outside the allowable range, the threshold Th2 is reset to perform binarization, and pattern matching is performed to evaluate the degree of coincidence. Such processing is repeated until the degree of coincidence falls within an allowable range.

なお、このようなパターンマッチングの一致度を評価してしきい値Th2を決定する方法は、文字やマークなどの比較的単純なパターンの場合には短時間で処理することができるが、血管などの複雑な形状の場合には処理に非常に時間がかかることが懸念される。そのため、処理時間を短縮する観点からは、上記例のように、分光画像PB1の濃度ヒストグラムに基づいて、分光画像PB2のしきい値Th2を決定する方法が好ましい。本例においては、分光画像PB1と分光画像PB2の位置合わせを例に説明しているが、分光画像PB1と分光画像PB3間でも同様であるため、説明を省略する。なお、第2実施形態と第1実施形態を組み合わせてもよい。   Note that the method of determining the threshold Th2 by evaluating the degree of coincidence of pattern matching can be processed in a short time in the case of a relatively simple pattern such as a character or a mark. In the case of a complicated shape, there is a concern that the processing takes a very long time. Therefore, from the viewpoint of shortening the processing time, a method of determining the threshold value Th2 of the spectral image PB2 based on the density histogram of the spectral image PB1 as in the above example is preferable. In this example, the alignment of the spectral image PB1 and the spectral image PB2 has been described as an example, but the description is omitted because it is the same between the spectral image PB1 and the spectral image PB3. Note that the second embodiment and the first embodiment may be combined.

上記第1及び第2実施形態においては、位置合わせ用画像として二値画像を生成する例で説明したが、二値画像以外でもよい。本発明において二値化処理は、血管形状など画像内における輪郭や形状といった特徴量を強調することで、ブロックマッチングなどを用いて位置合わせを行う際の精度を上げるための処理であるから、輪郭や形状といった特徴量が強調される処理であればよい。そのため、例えば、画素値を、白、黒に加えてグレーの三値に振り分ける三値化処理により三値画像を生成して、これを位置合わせ用画像としてもよい。原画像と比較して輪郭や形状が明瞭になるならば、三値以上でもよく、原画像の階調数(例えば8ビットであれば256階調)を低減する階調低減処理が行われればよい。しきい値を三値以上に振り分ける場合には、しきい値が複数になるが、複数のしきい値の全部について、上記手順でしきい値を決定してもよいし、そのうちの1つに上記手順を適用してもよい。   In the said 1st and 2nd embodiment, although the example which produces | generates a binary image as an image for position alignment demonstrated, it may be other than a binary image. In the present invention, the binarization process is a process for enhancing the accuracy when performing alignment using block matching or the like by emphasizing feature quantities such as a contour or shape in an image such as a blood vessel shape. As long as the feature amount such as the shape or the shape is emphasized, it is sufficient. Therefore, for example, a ternary image may be generated by a ternarization process in which pixel values are distributed into ternary values of gray in addition to white and black, and this may be used as an alignment image. If the outline and shape are clear compared to the original image, it may be three or more, and if gradation reduction processing is performed to reduce the number of gradations of the original image (for example, 256 gradations for 8 bits). Good. When distributing the threshold value to three or more values, there are a plurality of threshold values. For all of the threshold values, the threshold value may be determined by the above procedure, or one of them may be determined. The above procedure may be applied.

また、上記第1実施形態においては、階調低減処理に代えて、エッジ強調処理を実行してもよい。エッジ強調処理は、周知のように、画像内において輪郭部分など濃度変化の激しい部分を強調する処理であり、例えば、ラプラシアンフイルタを用いたフイルタ処理がある。この場合には、位置合わせ処理部63は、位置合わせ用画像として、二値画像の代わりに、エッジ強調処理が施された画像を用いて位置ズレ量を検出する。   In the first embodiment, edge enhancement processing may be executed instead of gradation reduction processing. As is well known, the edge emphasis process is a process for emphasizing a portion having a large density change such as a contour portion in an image. For example, there is a filter processing using a Laplacian filter. In this case, the alignment processing unit 63 detects the amount of displacement using an image that has been subjected to edge enhancement processing instead of the binary image as the alignment image.

上記実施形態では、照明光として青色領域の光を用いた例で説明したが、特許文献1(特開2011−194151号公報)に記載されているように、中深層血管の観察に適した、波長が500nm台の緑色領域の光を用いた場合にも適用することができる。   In the said embodiment, although demonstrated in the example which used the light of the blue area | region as illumination light, as described in patent document 1 (Unexamined-Japanese-Patent No. 2011-194151), suitable for observation of the middle-deep-layer blood vessel, The present invention can also be applied when light in the green region having a wavelength of the order of 500 nm is used.

上記実施形態では、半導体光源としてレーザダイオードからなるレーザ光源を例示したが、レーザダイオードの代わりにLEDを使用したLED光源でもよい。また、照明部としては、半導体光源の代わりに、キセノンランプやハロゲンランプなどの白色光源と、白色光源からの白色光を狭帯域光N1、N2、N3に分光する分光フイルタを有するロータリフイルタとを組み合わせたものでもよい。この場合には、撮像素子としてはモノクロの撮像素子が使用される。そして、各狭帯域光N1、N2、N3は、ロータリフイルタの回転に同期して順次照射され、各狭帯域光N1、N2、N3に対応する反射光がモノクロの撮像素子によって順次に撮像される。   In the above embodiment, the laser light source including the laser diode is exemplified as the semiconductor light source, but an LED light source using an LED instead of the laser diode may be used. In addition, instead of the semiconductor light source, the illumination unit includes a white light source such as a xenon lamp or a halogen lamp, and a rotary filter having a spectral filter that splits white light from the white light source into narrowband light N1, N2, and N3. It may be a combination. In this case, a monochrome image sensor is used as the image sensor. The narrowband lights N1, N2, and N3 are sequentially irradiated in synchronization with the rotation of the rotary filter, and the reflected light corresponding to the narrowband lights N1, N2, and N3 is sequentially captured by the monochrome image sensor. .

なお、上記実施形態では、光源装置とプロセッサ装置が別体で構成される例で説明したが、2つの装置を一体で構成してもよい。また、本発明は、撮像素子と超音波トランスデューサが先端部に内蔵された超音波内視鏡と画像処理を行うプロセッサ装置からなるシステム、カプセル内視鏡と画像処理を行うプロセッサ装置からなるシステム等、他の形態の内視鏡システムにも適用することができる。   In the above embodiment, the example in which the light source device and the processor device are configured separately has been described, but the two devices may be configured integrally. The present invention also relates to a system comprising an ultrasonic endoscope in which an image sensor and an ultrasonic transducer are built in the tip and a processor device for performing image processing, a system comprising a capsule endoscope and a processor device for performing image processing, etc. The present invention can also be applied to other types of endoscope systems.

10 電子内視鏡システム
14 モニタ
31 半導体光源ユニット
32 光源制御部
44 撮像素子
57 DSP
58 画像処理部
61 機能画像処理部
63 位置合わせ処理部
63a 階調補正テーブル
LD1〜LD3 レーザ光源
PB1〜PB3 分光画像
EPB1〜EPB1 二値画像
DESCRIPTION OF SYMBOLS 10 Electronic endoscope system 14 Monitor 31 Semiconductor light source unit 32 Light source control part 44 Image sensor 57 DSP
58 Image processing unit 61 Functional image processing unit 63 Positioning processing unit 63a Gradation correction tables LD1 to LD3 Laser light sources PB1 to PB3 Spectral images EPB1 to EPB1 Binary image

Claims (12)

被検体内の血管を含む観察部位を撮像する電子内視鏡と、
波長域が異なる少なくとも第1及び第2の照明光を前記観察部位に対して順次照射するための照明手段と、
前記第1及び第2の照明光の照射タイミングに応じて前記電子内視鏡が順次出力する複数の撮像信号から、それぞれ前記第1及び第2の照明光に対応する第1及び第2の分光画像を取得する画像取得手段と、
前記第1及び第2の分光画像における前記血管のコントラストの差に応じて、前記第1及び第2の分光画像を位置合わせするための前処理を行う前処理手段と、
前記前処理後に、前記第1及び第2の分光画像のそれぞれにおける前記血管の形状を強調する強調処理を施して、前記第1及び第2の分光画像のそれぞれに対応する位置合わせ用画像を生成する強調処理手段と、
前記第1及び第2の位置合わせ用画像に基づいて、前記第1及び第2の分光画像内のそれぞれの前記血管の位置が重なるように前記第1及び第2の分光画像同士の位置合わせを実行する位置合わせ手段と、
前記位置合わせが実行された前記第1及び第2の分光画像に基づいて、前記血管の血中ヘモグロビンの酸素飽和度を算出する酸素飽和度算出手段とを備えていることを特徴とする電子内視鏡システム。
An electronic endoscope for imaging an observation site including a blood vessel in a subject;
Illumination means for sequentially irradiating the observation site with at least first and second illumination lights having different wavelength ranges;
First and second spectrums corresponding to the first and second illumination lights, respectively, from a plurality of imaging signals sequentially output by the electronic endoscope according to the irradiation timings of the first and second illumination lights. Image acquisition means for acquiring images;
Preprocessing means for performing preprocessing for aligning the first and second spectral images according to a difference in contrast between the blood vessels in the first and second spectral images;
After the preprocessing, enhancement processing is performed to enhance the shape of the blood vessel in each of the first and second spectral images, and an alignment image corresponding to each of the first and second spectral images is generated. Emphasis processing means to
Based on the first and second alignment images, the first and second spectral images are aligned so that the positions of the blood vessels in the first and second spectral images overlap each other. Alignment means to perform;
Oxygen saturation calculation means for calculating oxygen saturation of blood hemoglobin in the blood vessel based on the first and second spectral images on which the alignment has been performed. Endoscopic system.
前記前処理手段は、前記第1及び第2の分光画像の濃度ヒストグラムに基づいて前記コントラストを調べて、前記前処理を実行することを特徴とする請求項1記載の電子内視鏡システム。   The electronic endoscope system according to claim 1, wherein the preprocessing unit checks the contrast based on density histograms of the first and second spectral images and executes the preprocessing. 前記前処理手段は、前記第1及び第2の分光画像のうち前記コントラストが高い方を基準に低い方に対して前記前処理を施すことを特徴とする請求項2記載の電子内視鏡システム。   3. The electronic endoscope system according to claim 2, wherein the preprocessing means performs the preprocessing on a lower one of the first and second spectral images with a higher contrast as a reference. . 前記前処理は、前記第1及び第2の分光画像同士のコントラストを合わせるコントラスト調整処理であることを特徴とする請求項1〜3のいずれか1項に記載の電子内視鏡システム。   The electronic endoscope system according to any one of claims 1 to 3, wherein the preprocessing is a contrast adjustment process for adjusting a contrast between the first and second spectral images. 前記強調処理は、予め設定されるしきい値と第1及び第2の画像の画素値とを比較して、前記しきい値を基準に前記第1及び第2の分光画像の画素値を振り分けて、前記第1及び第2の分光画像の階調数を減らすことにより前記第1及び第2の位置合わせ用画像を生成する階調低減処理であり、
前記前処理は、前記コントラストの差に応じて前記しきい値を決定するしきい値決定処理であることを特徴とする請求項1〜4のいずれか1項に記載の電子内視鏡システム。
The enhancement processing compares a threshold value set in advance with the pixel values of the first and second images, and distributes the pixel values of the first and second spectral images based on the threshold value. A gradation reduction process for generating the first and second alignment images by reducing the number of gradations of the first and second spectral images,
The electronic endoscope system according to any one of claims 1 to 4, wherein the preprocessing is threshold determination processing that determines the threshold according to the contrast difference.
前記階調低減処理は二値化処理であり、前記第1及び第2の位置合わせ用画像は二値画像であることを特徴とする請求項5記載の電子内視鏡システム。   6. The electronic endoscope system according to claim 5, wherein the gradation reduction process is a binarization process, and the first and second alignment images are binary images. 第1及び第2の照明光は、少なくとも一方が青色領域において特定の波長域に制限された青色狭帯域光であることを特徴とする請求項1〜6のいずれか1項に記載の電子内視鏡システム。   7. The inside of an electron according to claim 1, wherein at least one of the first illumination light and the second illumination light is blue narrow band light limited to a specific wavelength region in a blue region. Endoscopic system. 前記照明手段は、前記第1及び第2の照明光に波長域が異なる第3の照明光を加えた3つの照明光を順次照射し、
前記画像取得手段は、前記第1〜第3の照明光に対応する第1〜第3の分光画像を取得し、
前記酸素飽和度算出手段は、前記第1〜第3の分光画像に基づいて前記酸素飽和度を算出することを特徴とする請求項7に記載の電子内視鏡システム。
The illumination means sequentially irradiates three illumination lights obtained by adding a third illumination light having a different wavelength range to the first and second illumination lights,
The image acquisition means acquires first to third spectral images corresponding to the first to third illumination lights,
The electronic endoscope system according to claim 7, wherein the oxygen saturation calculation unit calculates the oxygen saturation based on the first to third spectral images.
第1の照明光は、波長域が440±10nmに制限された第1青色狭帯域光であり、第2の照明光は、波長域が470±10nmに制限された第2青色狭帯域光であり、第3の照明光は、波長域が410±10nmに制限された第3青色狭帯域光であることを特徴とする請求項8に記載の電子内視鏡システム。   The first illumination light is first blue narrowband light whose wavelength range is limited to 440 ± 10 nm, and the second illumination light is second blue narrowband light whose wavelength range is limited to 470 ± 10 nm. The electronic endoscope system according to claim 8, wherein the third illumination light is third blue narrowband light whose wavelength range is limited to 410 ± 10 nm. 前記照明手段は、第1〜第3の青色狭帯域光を発光する第1〜第3の半導体光源を有することを特徴とする請求項9記載の電子内視鏡システム。   10. The electronic endoscope system according to claim 9, wherein the illumination unit includes first to third semiconductor light sources that emit first to third blue narrow-band light. 被検体内の血管を含む観察部位を撮像する電子内視鏡を用いて取得される画像を処理する画像処理装置において、
波長域が異なる少なくとも第1及び第2の照明光を前記観察部位に対して順次照射して、
前記第1及び第2の照明光の照射タイミングに応じて前記電子内視鏡が出力する複数の撮像信号から、それぞれ前記第1及び第2の照明光に対応する第1及び第2の分光画像を取得する画像取得手段と、
前記第1及び第2の分光画像における前記血管のコントラストの差に応じて、前記第1及び第2の分光画像を位置合わせするための前処理を行う前処理手段と、
前記前処理後に、前記第1及び第2の分光画像のそれぞれにおける前記血管の形状を強調する強調処理を施して、前記第1及び第2の分光画像のそれぞれに対応する位置合わせ用画像を生成する強調処理手段と、
前記第1及び第2の位置合わせ用画像に基づいて、前記第1及び第2の分光画像内のそれぞれの前記血管の位置が重なるように前記第1及び第2の分光画像同士の位置合わせを実行する位置合わせ手段と、
前記位置合わせが実行された前記第1及び第2の分光画像に基づいて、前記血管の血中ヘモグロビンの酸素飽和度を算出する酸素飽和度算出手段とを備えていることを特徴とする画像処理装置。
In an image processing apparatus that processes an image acquired using an electronic endoscope that images an observation site including a blood vessel in a subject,
Sequentially illuminating the observation site with at least first and second illumination lights having different wavelength ranges;
First and second spectral images corresponding to the first and second illumination lights, respectively, from a plurality of imaging signals output by the electronic endoscope according to the irradiation timings of the first and second illumination lights. Image acquisition means for acquiring
Preprocessing means for performing preprocessing for aligning the first and second spectral images according to a difference in contrast between the blood vessels in the first and second spectral images;
After the preprocessing, enhancement processing is performed to enhance the shape of the blood vessel in each of the first and second spectral images, and an alignment image corresponding to each of the first and second spectral images is generated. Emphasis processing means to
Based on the first and second alignment images, the first and second spectral images are aligned so that the positions of the blood vessels in the first and second spectral images overlap each other. Alignment means to perform;
Image processing comprising: oxygen saturation calculating means for calculating oxygen saturation of blood hemoglobin in the blood vessel based on the first and second spectral images subjected to the alignment apparatus.
波長域が異なる少なくとも第1及び第2の照明光が順次照射された被検体内の血管を含む観察部位を電子内視鏡が撮像することによって取得される画像を処理する画像処理装置の作動方法において、
画像取得手段が、前記第1及び第2の照明光の照射タイミングに応じて前記電子内視鏡が出力する複数の撮像信号から、前記第1及び第2の照明光に対応する第1及び第2の分光画像を取得するステップと、
前処理手段が、前記第1及び第2の分光画像における前記血管のコントラストの差に応じて、前記第1及び第2の分光画像を位置合わせするための前処理を行うステップと、
強調処理手段が、前記前処理後に、前記第1及び第2の分光画像のそれぞれにおける前記血管の形状を強調する強調処理を施して、前記第1及び第2の分光画像のそれぞれに対応する位置合わせ用画像を生成するステップと、
位置合わせ手段が、前記第1及び第2の位置合わせ用画像に基づいて、前記第1及び第2の分光画像内のそれぞれの前記血管の位置が重なるように前記第1及び第2の分光画像同士の位置合わせを実行するステップと、
酸素飽和度算出手段が、前記位置合わせが実行された前記第1及び第2の分光画像に基づいて、前記血管の血中ヘモグロビンの酸素飽和度を算出するステップとを備えていることを特徴とする画像処理装置の作動方法。
Method of operating an image processing apparatus for processing an image wavelength band is obtained by different at least first and second imaging electronic endoscope observation site where illumination light including vascular sequentially irradiated within the subject of In
First and second image acquisition means corresponding to the first and second illumination lights from a plurality of imaging signals output by the electronic endoscope according to the irradiation timing of the first and second illumination lights. and Luz step to obtain the second spectral image,
Preprocessing means, in accordance with the difference in the contrast of the blood vessels in the first and second spectral image, and row mortar step pretreatment for aligning said first and second spectral image,
Enhancement processing means, after the pretreatment, is subjected to emphasizing emphasis processing the shape of the blood vessel in each of the first and second spectral image, corresponding to each of said first and second spectral image position and Luz steps to generate an image for a laminated,
Based on the first and second alignment images, the first and second spectral images are aligned so that the positions of the blood vessels in the first and second spectral images overlap. and Luz steps to run the alignment of each other,
Oxygen saturation calculation means, said alignment is based on the are executed first and second spectral image, and a Luz step to calculate the oxygen saturation in blood hemoglobin in the blood vessel A method for operating an image processing apparatus .
JP2012005850A 2012-01-16 2012-01-16 Electronic endoscope system, image processing apparatus, and method of operating image processing apparatus Active JP5753105B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012005850A JP5753105B2 (en) 2012-01-16 2012-01-16 Electronic endoscope system, image processing apparatus, and method of operating image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012005850A JP5753105B2 (en) 2012-01-16 2012-01-16 Electronic endoscope system, image processing apparatus, and method of operating image processing apparatus

Publications (2)

Publication Number Publication Date
JP2013144039A JP2013144039A (en) 2013-07-25
JP5753105B2 true JP5753105B2 (en) 2015-07-22

Family

ID=49040252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012005850A Active JP5753105B2 (en) 2012-01-16 2012-01-16 Electronic endoscope system, image processing apparatus, and method of operating image processing apparatus

Country Status (1)

Country Link
JP (1) JP5753105B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6053079B2 (en) * 2013-07-31 2016-12-27 富士フイルム株式会社 Endoscope light source device and endoscope system using the same
JP6153913B2 (en) * 2014-09-30 2017-06-28 富士フイルム株式会社 Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP6210962B2 (en) * 2014-09-30 2017-10-11 富士フイルム株式会社 Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
US10039439B2 (en) 2014-09-30 2018-08-07 Fujifilm Corporation Endoscope system and method for operating the same
JP6234350B2 (en) * 2014-09-30 2017-11-22 富士フイルム株式会社 Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP6153912B2 (en) * 2014-09-30 2017-06-28 富士フイルム株式会社 Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP6779025B2 (en) * 2016-04-01 2020-11-04 富士フイルム株式会社 Image processing device and its operation method, endoscope processor device and its operation method
CN111818837B (en) * 2018-03-05 2023-12-08 奥林巴斯株式会社 Endoscope system
JP6849630B2 (en) * 2018-04-20 2021-03-24 日本電信電話株式会社 Component concentration measuring device and component concentration measuring method
JP7118147B2 (en) * 2018-06-05 2022-08-15 オリンパス株式会社 endoscope system
EP3915457A4 (en) * 2019-01-24 2022-03-09 FUJIFILM Corporation Endoscope device
JP2021036644A (en) * 2019-08-30 2021-03-04 セイコーエプソン株式会社 Image processing method, image processing device and information system
TWI816019B (en) * 2020-02-11 2023-09-21 友達光電股份有限公司 Real/fake fingerprint read device, method, and non-transitory computer readable storage medium
CN116530075A (en) * 2020-09-25 2023-08-01 波士顿科学国际有限公司 Color extrapolation for monochrome image sensor

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002085344A (en) * 2000-09-20 2002-03-26 Olympus Optical Co Ltd Image freeze processor
JP2010220794A (en) * 2009-03-24 2010-10-07 Fujifilm Corp Device, method, and program for rotating endoscope image
JP5393554B2 (en) * 2010-03-23 2014-01-22 富士フイルム株式会社 Electronic endoscope system
JP2011234844A (en) * 2010-05-10 2011-11-24 Olympus Corp Controller, endoscope system, and program

Also Published As

Publication number Publication date
JP2013144039A (en) 2013-07-25

Similar Documents

Publication Publication Date Title
JP5753105B2 (en) Electronic endoscope system, image processing apparatus, and method of operating image processing apparatus
US11062442B2 (en) Vascular information acquisition device, endoscope system, and vascular information acquisition method
US11224335B2 (en) Image capturing system and electronic endoscope system
JP5395725B2 (en) Electronic endoscope system
JP5616303B2 (en) Electronic endoscope system and method for operating electronic endoscope system
JP5623469B2 (en) ENDOSCOPE SYSTEM, ENDOSCOPE SYSTEM PROCESSOR DEVICE, AND ENDOSCOPE CONTROL PROGRAM
JP5914496B2 (en) ENDOSCOPE SYSTEM, PROCESSOR DEVICE, AND METHOD FOR OPERATING ENDOSCOPE SYSTEM
JP5757891B2 (en) Electronic endoscope system, image processing apparatus, operation method of image processing apparatus, and image processing program
JP5302984B2 (en) Endoscope system, processor device for endoscope system, and method for operating endoscope system
JP5222934B2 (en) Endoscope system, processor device for endoscope system, and method for operating endoscope system
JP5762344B2 (en) Image processing apparatus and endoscope system
JP2011194028A (en) Electronic endoscope system, an electronic endoscope processor, and method of acquiring blood vessel information
JP5623470B2 (en) ENDOSCOPE SYSTEM, ENDOSCOPE SYSTEM PROCESSOR DEVICE, AND ENDOSCOPE CONTROL PROGRAM
JP5774531B2 (en) ENDOSCOPE SYSTEM, ENDOSCOPE SYSTEM PROCESSOR DEVICE, ENDOSCOPE SYSTEM OPERATING METHOD, AND IMAGE PROCESSING PROGRAM
JP6100674B2 (en) Endoscope light source device and endoscope system
JP2016174976A (en) Endoscope system
JP5829568B2 (en) Endoscope system, image processing apparatus, method of operating image processing apparatus, and image processing program
JP6325707B2 (en) Endoscope light source device and endoscope system
JP6454755B2 (en) Endoscope system
JP5965028B2 (en) Endoscope system
JP7235832B2 (en) endoscope system
JP6970777B2 (en) Endoscope system
JP6694046B2 (en) Endoscope system
CN112689469A (en) Endoscope device, endoscope processor, and method for operating endoscope device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150521

R150 Certificate of patent or registration of utility model

Ref document number: 5753105

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250