JP2016067780A - Endoscope system, processor device, method for operating endoscope system, and method for operating processor device - Google Patents

Endoscope system, processor device, method for operating endoscope system, and method for operating processor device Download PDF

Info

Publication number
JP2016067780A
JP2016067780A JP2014202652A JP2014202652A JP2016067780A JP 2016067780 A JP2016067780 A JP 2016067780A JP 2014202652 A JP2014202652 A JP 2014202652A JP 2014202652 A JP2014202652 A JP 2014202652A JP 2016067780 A JP2016067780 A JP 2016067780A
Authority
JP
Japan
Prior art keywords
image signal
blood vessel
image
illumination light
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014202652A
Other languages
Japanese (ja)
Other versions
JP6196598B2 (en
Inventor
青山 達也
Tatsuya Aoyama
達也 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2014202652A priority Critical patent/JP6196598B2/en
Publication of JP2016067780A publication Critical patent/JP2016067780A/en
Application granted granted Critical
Publication of JP6196598B2 publication Critical patent/JP6196598B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures

Abstract

PROBLEM TO BE SOLVED: To provide an endoscope system capable of displaying an image in which a blood vessel at specific depth is easily observed, and to provide a processor device, a method for operating an endoscope system, and a method for operating a processor device.SOLUTION: An endoscope system includes a light source for generating illumination light, an imaging sensor for imaging an observation object irradiated with illumination light, an image signal acquisition part for acquiring a B1 image signal corresponding to violet light V, and also acquiring a B2 image signal corresponding to blue light B, a setting part for setting the depth of a blood vessel to be observed, an image signal selection part 72 for select any image signal among the B1 image signal, the B2 image signal, by using the setting of the depth of the blood vessel, and a mixed image signal obtained by mixing the B1 image signal with the B2 image signal, and an image generation part 78 for generating an image obtained by allocating the image signal selected by the image signal selection part to a luminance channel.SELECTED DRAWING: Figure 7

Description

本発明は、観察対象を撮像して得た画像信号を用いて、観察対象の血管を抽出する内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法に関する。   The present invention relates to an endoscope system, a processor device, an operation method of an endoscope system, and an operation method of a processor device that extract a blood vessel to be observed using an image signal obtained by imaging an observation object.

医療分野においては、光源装置、内視鏡システム、及びプロセッサ装置を備える内視鏡システムを用いた診断が広く行われている。内視鏡システムを用いる医療診断においては、内視鏡の挿入部を被検体内に挿入し、その先端部から観察対象に照明光を照射する。そして、照明光で照射中の観察対象を先端部の撮像センサで撮像し、得られた画像信号を用いて観察対象の画像を生成してモニタに表示する。   In the medical field, diagnosis using an endoscope system including a light source device, an endoscope system, and a processor device is widely performed. In medical diagnosis using an endoscope system, an insertion portion of an endoscope is inserted into a subject, and illumination light is irradiated from the distal end portion to an observation target. Then, the observation target irradiated with the illumination light is imaged by the imaging sensor at the tip, and an image of the observation target is generated using the obtained image signal and displayed on the monitor.

また、内視鏡システムを用いた診断では、血管の形状や分布等が重要であるため、近年では、様々な方法で血管を抽出する内視鏡システムが知られている。例えば、パターンマッチングによって血管を抽出する内視鏡システムが知られている(特許文献1,2)。この他にも、画像信号から血管を抽出する方法としては、ガボールフィルタやニューラルネットワーク等を用いる方法も知られている(非特許文献1)。また、青色の狭帯域光と緑色の狭帯域光を用いて得た各画像に重み付けをすることで、表層と呼ばれる粘膜下の比較的浅い位置にある血管(以下、表層血管という)を抽出し、かつ、中層や深層と呼ばれる粘膜下の深い位置にある血管(以下、中深層血管という)を抽出する内視鏡システムも知られている(特許文献3)。   In addition, since the shape and distribution of blood vessels are important in diagnosis using an endoscope system, in recent years, endoscope systems that extract blood vessels by various methods are known. For example, endoscope systems that extract blood vessels by pattern matching are known (Patent Documents 1 and 2). In addition, as a method for extracting blood vessels from an image signal, a method using a Gabor filter, a neural network, or the like is also known (Non-Patent Document 1). In addition, by weighting each image obtained using blue narrow-band light and green narrow-band light, blood vessels (hereinafter referred to as superficial blood vessels) at a relatively shallow position under the mucous membrane called the superficial layer are extracted. An endoscope system that extracts blood vessels (hereinafter referred to as “medium-deep blood vessels”) located deep in the submucosa called the middle layer or the deep layer is also known (Patent Document 3).

特許第05435746号Japanese Patent No. 05435746 特開2013−255808号公報JP 2013-255808 A 特許第5393525号Japanese Patent No. 5393525

An Automated Tracking Approach for Extraction of Retinal Vasculature in Fundus Images, A.Osareh et al., J Ophthalmic Vis Res 2010; 5(1): 20-26An Automated Tracking Approach for Extraction of Retinal Vasculature in Fundus Images, A. Osareh et al., J Ophthalmic Vis Res 2010; 5 (1): 20-26

近年では、血管の有無だけでなく、粘膜下の特定深さにある血管の情報が、疾患の進行度(癌のステージ等)の判断に利用できることが分かってきている。例えば、特定深さにある血管の密度は、消化管の表在癌の進行度の判断に利用できる。より具体的な例を上げれば、食道の疾患であるバレット腺癌では、バレット食道からバレット腺癌に進行する過程において、粘膜表面付近にある血管(以下、表層血管という)の中でも粘膜下の特に浅い位置にある血管(以下、極表層血管という)の密度変化が大きい。このため、極表層血管を強調して表示することができれば、あるいは極表層血管の血管密度を算出することができれば、バレット腺癌のステージ判別精度が向上すると考えられている。   In recent years, it has been found that not only the presence or absence of blood vessels but also information on blood vessels at a specific depth below the mucous membrane can be used to determine the degree of disease progression (such as the stage of cancer). For example, the density of blood vessels at a specific depth can be used to determine the degree of progression of superficial cancers in the digestive tract. To give a more specific example, in the case of Barrett's adenocarcinoma, which is a disease of the esophagus, in the process of progression from Barrett's esophagus to Barrett's adenocarcinoma, among the blood vessels near the mucosal surface (hereinafter referred to as surface blood vessels), A change in density of a blood vessel in a shallow position (hereinafter referred to as an extreme surface blood vessel) is large. For this reason, it is considered that the stage discrimination accuracy of Barrett's adenocarcinoma is improved if the extreme surface blood vessels can be highlighted and displayed, or if the blood vessel density of the extreme surface blood vessels can be calculated.

一方、従来の内視鏡システムで血管を抽出し、強調する方法では、観察対象を撮像するときに照射する照明光の深達度によって観察可能な血管が存在する粘膜下の深さが概ね決まっている。例えば、表層血管は、青色光や紫色光等の短波長帯域の光を照明光に用いれば観察可能である。しかし、バレット腺癌のステージ間で差が顕著に表れるのは極表層血管の密度であり、極表層血管を含んでいても、従来のように表層という深さ方向に広い範囲の血管を全て重畳して観察していたのでは、バレット腺癌のステージの判別精度は低下する。   On the other hand, in the method of extracting and enhancing blood vessels with a conventional endoscope system, the submucosal depth where the observable blood vessels exist is generally determined by the depth of illumination light irradiated when imaging the observation target. ing. For example, the superficial blood vessel can be observed by using light of a short wavelength band such as blue light or violet light as illumination light. However, the difference between the stages of Barrett's adenocarcinoma is the density of the superficial blood vessels. Even if the superficial blood vessels are included, all the blood vessels in the wide range of the superficial layer are superimposed in the depth direction as before. As a result, the discrimination accuracy of the stage of Barrett's adenocarcinoma is lowered.

また、特許文献3の内視鏡システムが、二種類の画像の重み付けによって表層血管と中深層血管のいずれかだけを抽出することができるのは、表層血管と中深層血管は粘膜下の深さ位置に大きな違いがあるからであり、この方法では、表層血管の中から極表層血管を抽出するのは容易ではない。二種類の画像の重み付けによって表層血管の中から極表層血管だけを抽出することができるとしても、重み付けのバランスは極めてシビアであり、観察対象には個体差もあるので、安定して表層血管の中から極表層血管だけを抽出するのは困難である。   In addition, the endoscope system of Patent Document 3 can extract only one of a surface blood vessel and a middle deep blood vessel by weighting two types of images. This is because there is a great difference in position. With this method, it is not easy to extract a polar surface blood vessel from the surface blood vessels. Even if only the superficial blood vessels can be extracted from the superficial blood vessels by weighting the two types of images, the balance of the weights is extremely severe and there are individual differences in the observation target, so that the superficial blood vessels are stably It is difficult to extract only the superficial blood vessels from the inside.

本発明は、特定の深さ方向の範囲(以下、特定深さという)の血管が観察しやすい画像を表示することができる内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法を提供することを目的とする。   The present invention relates to an endoscope system, a processor device, a method for operating an endoscope system, and a processor capable of displaying an image in which a blood vessel in a specific depth direction range (hereinafter referred to as a specific depth) can be easily observed. The object is to provide a method of operating the device.

本発明の内視鏡システムは、照明光を発生する光源と、照明光が照射された観察対象を撮像する撮像センサと、照明光のうち第1照明光に対応する第1画像信号を取得し、かつ、照明光のうち第1照明光とは波長帯域が異なる第2照明光に対応する第2画像信号を取得する画像信号取得部と、観察する血管の深さの設定をする設定部と、血管の深さの設定を用いて、第1画像信号、第2画像信号、または、第1画像信号と第2画像信号を混合した混合画像信号のうちのいずれかの画像信号を選択する画像信号選択部と、画像信号選択部が選択した画像信号を輝度チャンネルに割り当てた画像を生成する画像生成部と、を備える。   The endoscope system of the present invention acquires a light source that generates illumination light, an imaging sensor that images an observation target irradiated with the illumination light, and a first image signal corresponding to the first illumination light among the illumination light. And the image signal acquisition part which acquires the 2nd image signal corresponding to the 2nd illumination light from which wavelength band differs from the 1st illumination light among illumination lights, The setting part which sets the depth of the blood vessel to observe An image for selecting one of the first image signal, the second image signal, or a mixed image signal obtained by mixing the first image signal and the second image signal using the setting of the depth of the blood vessel. A signal selection unit; and an image generation unit that generates an image in which the image signal selected by the image signal selection unit is assigned to a luminance channel.

第1画像信号及び第2画像信号を用いて演算画像信号を生成する演算画像信号生成部を備え、画像生成部は、画像信号選択部が選択した画像信号を輝度チャンネルに割り当て、かつ、演算画像信号を二つの色差チャンネルに割り当てた画像を生成することが好ましい。   A calculation image signal generation unit configured to generate a calculation image signal using the first image signal and the second image signal; the image generation unit assigns the image signal selected by the image signal selection unit to a luminance channel; and It is preferable to generate an image in which the signal is assigned to two color difference channels.

演算画像信号生成部は、血管の深さの設定によって演算画像信号の生成方法を変更することが好ましい。   It is preferable that the calculation image signal generation unit changes the calculation image signal generation method according to the setting of the depth of the blood vessel.

画像信号選択部は、混合画像信号を選択する場合に、混合画像信号を生成する混合画像信号生成部を備え、混合画像信号生成部は、血管の深さの設定によって第1画像信号と第2画像信号の混合比率を変えて混合画像信号を生成することが好ましい。   The image signal selection unit includes a mixed image signal generation unit that generates a mixed image signal when the mixed image signal is selected. The mixed image signal generation unit is configured to set the first image signal and the second image signal by setting the depth of the blood vessel. It is preferable to generate the mixed image signal by changing the mixing ratio of the image signals.

血管の深さの設定によって第1照明光と第2照明光の各波長帯域を制御し、または、血管の深さの設定によって第1照明光と第2照明光の光量のバランスを制御する光源制御部を備えることが好ましい。   A light source that controls the wavelength bands of the first illumination light and the second illumination light by setting the depth of the blood vessel, or controls the balance of the light amounts of the first illumination light and the second illumination light by setting the depth of the blood vessel. It is preferable to provide a control unit.

観察対象の観察距離を取得する観察距離取得部を備え、設定部は、観察距離を用いて血管の深さの設定をすることが好ましい。   It is preferable that an observation distance acquisition unit that acquires the observation distance of the observation target is provided, and the setting unit sets the depth of the blood vessel using the observation distance.

観察対象を撮像センサに結像させ、かつ、撮像倍率が可変な撮像光学系を備え、観察距離取得部は、撮像光学系の撮像倍率を観察距離として取得することが好ましい。   It is preferable to provide an imaging optical system that forms an image of the observation target on the imaging sensor and has a variable imaging magnification, and the observation distance acquisition unit acquires the imaging magnification of the imaging optical system as the observation distance.

設定部に血管の深さの設定を入力するための入力部を備えることが好ましい。   It is preferable that the setting unit includes an input unit for inputting blood vessel depth settings.

光源を有する光源装置と、撮像センサを有する内視鏡と、画像生成部を有するプロセッサ装置と、を備え、入力部が内視鏡に設けられていることが好ましい。   It is preferable that the endoscope includes a light source device having a light source, an endoscope having an image sensor, and a processor device having an image generation unit, and the input unit is provided in the endoscope.

光源を有する光源装置と、撮像センサを有する内視鏡と、画像生成部を有するプロセッサ装置とを備え、入力部がプロセッサ装置に設けられていることが好ましい。   It is preferable that a light source device having a light source, an endoscope having an imaging sensor, and a processor device having an image generation unit are provided, and the input unit is provided in the processor device.

第1画像信号または第2画像信号の少なくとも一方を補正し、第1画像信号が表す観察対象と、第2画像信号が表す観察対象との位置合わせをする位置合わせ処理部を備えることが好ましい。   It is preferable to include an alignment processing unit that corrects at least one of the first image signal and the second image signal and aligns the observation target represented by the first image signal and the observation target represented by the second image signal.

第1画像信号または第2画像信号の少なくとも一方を補正し、第1画像信号の明るさと第2画像信号の明るさとの比を特定比にする明るさ補正処理部を備えることが好ましい。   It is preferable to include a brightness correction processing unit that corrects at least one of the first image signal and the second image signal and sets the ratio between the brightness of the first image signal and the brightness of the second image signal to a specific ratio.

本発明のプロセッサ装置は、照明光を発生する光源と、照明光が照射された観察対象を撮像する撮像センサと、を有する内視鏡システムのプロセッサ装置において、照明光のうち第1照明光に対応する第1画像信号を取得し、かつ、照明光のうち第1照明光とは波長帯域が異なる第2照明光に対応する第2画像信号を取得する画像信号取得部と、観察する血管の深さの設定をする設定部と、血管の深さの設定を用いて、第1画像信号、第2画像信号、または、第1画像信号と第2画像信号を混合した混合画像信号のうちのいずれかの画像信号を選択する画像信号選択部と、画像信号選択部が選択した画像信号を輝度チャンネルに割り当てた画像を生成する画像生成部と、を備える。   The processor device of the present invention is a processor device of an endoscope system having a light source that generates illumination light and an image sensor that images an observation target irradiated with the illumination light. An image signal acquisition unit for acquiring a corresponding first image signal and acquiring a second image signal corresponding to a second illumination light having a wavelength band different from that of the first illumination light among the illumination light; Using the setting unit for setting the depth and the setting of the blood vessel depth, the first image signal, the second image signal, or the mixed image signal obtained by mixing the first image signal and the second image signal An image signal selection unit that selects any one of the image signals; and an image generation unit that generates an image in which the image signal selected by the image signal selection unit is assigned to a luminance channel.

本発明の内視鏡システムの作動方法は、光源が、照明光を発生するステップと、撮像センサが、照明光が照射された観察対象を撮像するステップと、画像信号取得部が、照明光のうち第1照明光に対応する第1画像信号を取得し、かつ、照明光のうち第1照明光とは波長帯域が異なる第2照明光に対応する第2画像信号を取得するステップと、設定部が、観察する血管の深さの設定をするステップと、画像信号選択部が、血管の深さの設定を用いて、第1画像信号、第2画像信号、または、第1画像信号と第2画像信号を混合した混合画像信号のうちのいずれかの画像信号を選択するステップと、画像生成部が、画像信号選択部が選択した画像信号を輝度チャンネルに割り当てた画像を生成するステップと、を備える。   The operation method of the endoscope system according to the present invention includes a step in which a light source generates illumination light, an imaging sensor images an observation target irradiated with the illumination light, and an image signal acquisition unit A step of acquiring a first image signal corresponding to the first illumination light and acquiring a second image signal corresponding to the second illumination light having a wavelength band different from that of the first illumination light among the illumination light and setting The step of setting the depth of the blood vessel to be observed, and the image signal selection unit using the setting of the depth of the blood vessel, the first image signal, the second image signal, or the first image signal and the first image signal. A step of selecting any one of the mixed image signals obtained by mixing the two image signals, a step of generating an image in which the image generation unit assigns the image signal selected by the image signal selection unit to the luminance channel, and Is provided.

本発明のプロセッサ装置の作動方法は、照明光を発生する光源と、照明光が照射された観察対象を撮像する撮像センサと、を有する内視鏡システムのプロセッサ装置の作動方法において、画像信号取得部が、照明光のうち第1照明光に対応する第1画像信号を取得し、かつ、照明光のうち第1照明光とは波長帯域が異なる第2照明光に対応する第2画像信号を取得するステップと、設定部が、観察する血管の深さの設定をするステップと、
画像信号選択部が、血管の深さの設定を用いて、第1画像信号、第2画像信号、または、第1画像信号と第2画像信号を混合した混合画像信号のうちのいずれかの画像信号を選択するステップと、画像生成部が、画像信号選択部が選択した画像信号を輝度チャンネルに割り当てた画像を生成するステップと、を備える。
According to an embodiment of the present invention, there is provided an operating method of a processor device, including: a light source that generates illumination light; and an imaging sensor that images an observation target irradiated with the illumination light. A first image signal corresponding to the first illumination light in the illumination light, and a second image signal corresponding to the second illumination light having a wavelength band different from that of the first illumination light in the illumination light. A step of acquiring, a step of setting a depth of a blood vessel to be observed by a setting unit;
The image signal selection unit uses the blood vessel depth setting to select one of the first image signal, the second image signal, or a mixed image signal obtained by mixing the first image signal and the second image signal. Selecting a signal, and an image generating unit generating an image in which the image signal selected by the image signal selecting unit is assigned to a luminance channel.

本発明によれば、特定深さの血管が観察しやすい画像を表示することができる内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the endoscope system which can display the image which the blood vessel of specific depth can observe easily, a processor apparatus, the operating method of an endoscope system, and the operating method of a processor apparatus can be provided. .

内視鏡システムの外観図である。It is an external view of an endoscope system. 内視鏡システムの機能を示すブロック図である。It is a block diagram which shows the function of an endoscope system. 紫色光、青色光、緑色光、及び赤色光の分光スペクトルを示すグラフである。It is a graph which shows the spectrum of purple light, blue light, green light, and red light. 観察対象の散乱係数を示すグラフである。It is a graph which shows the scattering coefficient of an observation object. ヘモグロビンの吸光係数を示すグラフである。It is a graph which shows the extinction coefficient of hemoglobin. カラーフィルタの分光特性を示すグラフである。It is a graph which shows the spectral characteristic of a color filter. 特殊画像処理部の機能を示すブロック図である。It is a block diagram which shows the function of a special image process part. 血管の深さと血管のコントラストの関係を模式的に表すグラフである。3 is a graph schematically showing a relationship between a blood vessel depth and a blood vessel contrast. 特定深さ血管強調画像の生成方法を示す説明図である。It is explanatory drawing which shows the production | generation method of the specific depth blood vessel emphasis image. 特殊観察モード時のフローチャートである。It is a flowchart at the time of special observation mode. B1画像信号の模式図である。It is a schematic diagram of a B1 image signal. B2画像信号の模式図である。It is a schematic diagram of a B2 image signal. 演算画像信号の模式図である。It is a schematic diagram of a calculation image signal. 低解像度化処理後の演算画像信号の模式図である。It is a schematic diagram of the calculation image signal after a resolution reduction process. 特定深さ血管強調画像の模式図である。It is a schematic diagram of a specific depth blood vessel emphasis image. 変形例の特定深さ血管強調画像の生成方法を示す説明図である。It is explanatory drawing which shows the production | generation method of the specific depth blood vessel emphasis image of the modification. 第2実施形態の特殊画像処理部のブロック図である。It is a block diagram of a special image processing unit of the second embodiment. 第3実施形態の内視鏡システムのブロック図である。It is a block diagram of the endoscope system of a 3rd embodiment. 第4実施形態の内視鏡システムのブロック図である。It is a block diagram of the endoscope system of a 4th embodiment. 観察する血管の深さの設定にモード切り替えスイッチを用いる変形例の特殊画像処理部のブロック図である。It is a block diagram of the special image processing part of the modification which uses a mode change switch for the setting of the depth of the blood vessel to observe. 特殊画像処理部と位置合わせ処理部の連携関係を示すブロック図である。It is a block diagram which shows the cooperation relationship of a special image process part and a position alignment process part. カプセル内視鏡の概略図である。It is the schematic of a capsule endoscope.

[第1実施形態]
図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、コンソール19とを有する。内視鏡12は、光源装置14と光学的に接続されるとともに、プロセッサ装置16と電気的に接続される。内視鏡12は、被検体内に挿入される挿入部12aと、挿入部12aの基端部分に設けられた操作部12bと、挿入部12aの先端側に設けられた湾曲部12c及び先端部12dを有している。操作部12bのアングルノブ12eを操作することにより、湾曲部12cは湾曲動作する。この湾曲動作によって、先端部が所望の方向に向けられる。
[First Embodiment]
As shown in FIG. 1, the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18, and a console 19. The endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16. The endoscope 12 includes an insertion portion 12a to be inserted into a subject, an operation portion 12b provided at a proximal end portion of the insertion portion 12a, a bending portion 12c and a distal end portion provided at the distal end side of the insertion portion 12a. 12d. By operating the angle knob 12e of the operation unit 12b, the bending unit 12c performs a bending operation. By this bending operation, the distal end portion is directed in a desired direction.

また、操作部12bには、アングルノブ12eの他、モード切り替えスイッチ13a、ズーム操作部13b、静止画取得指示部(図示しない)等が設けられている。モード切り替えスイッチ13aは、観察モードの切り替え操作に用いられる。内視鏡システム10は、観察モードとして通常観察モードと特殊観察モードとを有している。通常観察モードは、照明光に白色光を用いて観察対象を撮像して得た自然な色合いの画像(以下、通常画像という)をモニタ18に表示する。特殊観察モードでは、観察対象を撮像して得た画像信号を用いて、観察対象に含まれる血管のうち、特定深さにある血管を抽出し、強調表示する。内視鏡システム10では、特殊観察モードとして、粘膜表層の中でも比較的深い位置にある表層血管を抽出及び表示する表層血管強調表示モードと、特殊観察モードには極表層血管を抽出及び強調表示する極表層血管強調表示モードとをさらに備え、モード切り替えスイッチ13aの操作によって特殊観察モードに切り替えられた場合にこれらのどちらが実行されるかは、設定により定められる。   In addition to the angle knob 12e, the operation unit 12b is provided with a mode switch 13a, a zoom operation unit 13b, a still image acquisition instruction unit (not shown), and the like. The mode change switch 13a is used for an observation mode change operation. The endoscope system 10 has a normal observation mode and a special observation mode as observation modes. In the normal observation mode, an image having a natural color (hereinafter referred to as a normal image) obtained by imaging an observation target using white light as illumination light is displayed on the monitor 18. In the special observation mode, a blood vessel at a specific depth is extracted from the blood vessels included in the observation target using an image signal obtained by imaging the observation target, and is highlighted. In the endoscope system 10, as a special observation mode, a superficial blood vessel highlighting display mode for extracting and displaying a superficial blood vessel located at a relatively deep position in the mucosal surface layer, and a polar superficial blood vessel are extracted and highlighted in the special observation mode. A polar surface blood vessel highlighting display mode is further provided, and which is executed when the mode is switched to the special observation mode by operating the mode switching switch 13a is determined by setting.

プロセッサ装置16は、モニタ18及びコンソール19と電気的に接続される。モニタ18は、観察対象の画像や、観察対象の画像に付帯する情報等を出力表示する。コンソール19は、機能設定等の入力操作を受け付けるユーザインタフェースであり、設定部71(図2参照)に観察する血管の深さの設定をするための入力部として機能する。本実施形態の場合、モニタ18に表示する設定メニューにおいて、観察する血管の深さの設定として、「表層血管」と「極表層血管」を選択可能である。なお、プロセッサ装置16には、画像や画像情報等を記録する外付けの記録部(図示省略)を接続しても良い。   The processor device 16 is electrically connected to the monitor 18 and the console 19. The monitor 18 outputs and displays an image to be observed, information attached to the image to be observed, and the like. The console 19 is a user interface that receives an input operation such as function setting, and functions as an input unit for setting the depth of the blood vessel to be observed by the setting unit 71 (see FIG. 2). In the present embodiment, in the setting menu displayed on the monitor 18, “surface blood vessel” and “polar surface blood vessel” can be selected as the depth setting of the blood vessel to be observed. The processor device 16 may be connected to an external recording unit (not shown) for recording images and image information.

図2に示すように、光源装置14は、光源20と、光源20を制御する光源制御部22と、を備えている。光源20は、例えば複数の半導体光源を有し、これらをそれぞれ点灯または消灯し、点灯する場合には各半導体光源の発光量を制御することにより、観察対象に照射する照明光を発生する。本実施形態では、光源20は、V−LED(Violet Light Emitting Diode)23a、B−LED(Blue Light Emitting Diode)23b、G−LED(Green Light Emitting Diode)23c、及びR−LED(Red Light Emitting Diode)23dの四色のLEDを有する。図3に示すように、V−LED23aは、中心波長405nm、波長帯域380〜420nmの紫色光Vを発光する紫色光源である。B−LED23bは、中心波長460nm、波長帯域420〜500nmの青色光Bを発する青色半導体光源である。G−LED23cは、波長帯域が480〜600nmに及ぶ緑色光Gを発する緑色半導体光源である。R−LED23dは、中心波長620〜630nmで、波長帯域が600〜650nmに及び赤色光Rを発光する赤色半導体光源である。なお、V−LED23aとB−LED23bの中心波長は±5nmから±10nm程度の幅を有する。   As shown in FIG. 2, the light source device 14 includes a light source 20 and a light source control unit 22 that controls the light source 20. The light source 20 includes, for example, a plurality of semiconductor light sources, and these are turned on or off, and when they are turned on, the amount of light emitted from each semiconductor light source is controlled to generate illumination light that irradiates the observation target. In the present embodiment, the light source 20 includes a V-LED (Violet Light Emitting Diode) 23a, a B-LED (Blue Light Emitting Diode) 23b, a G-LED (Green Light Emitting Diode) 23c, and an R-LED (Red Light Emitting Diode). Diode) 23d has four-color LEDs. As shown in FIG. 3, the V-LED 23a is a violet light source that emits violet light V having a center wavelength of 405 nm and a wavelength band of 380 to 420 nm. The B-LED 23b is a blue semiconductor light source that emits blue light B having a center wavelength of 460 nm and a wavelength band of 420 to 500 nm. The G-LED 23c is a green semiconductor light source that emits green light G having a wavelength band ranging from 480 to 600 nm. The R-LED 23d is a red semiconductor light source that emits red light R with a center wavelength of 620 to 630 nm and a wavelength band of 600 to 650 nm. The center wavelengths of the V-LED 23a and the B-LED 23b have a width of about ± 5 nm to ± 10 nm.

これらの各LED23a〜23dの点灯や消灯、点灯時の発光量等は、光源制御部22が各々に独立した制御信号を入力するによって各々に制御することができる。通常観察モードの場合、光源制御部22は、V−LED23a、B−LED23b、G−LED23c、及びR−LED23dを全て点灯させる。このため、通常観察モードでは、紫色光V、青色光B、緑色光G、及び赤色光Rを含む白色光が照明光として用いられる。一方、特殊観察モードの場合、光源制御部22は、V−LED23aだけを点灯し、B−LED23b等の他のLEDを消灯する第1発光パターンと、V−LED23aを消灯し、B−LED23bを点灯し、V−LED23a等の他のLEDを消灯する第2発光パターンとで光源20を制御する。すなわち、特殊観察モードでは、紫色光Vと青色光Bとを順次発生し、観察対象に照射する。したがって、紫色光Vが第1照明光であり、青色光Bが、第1照明光とは波長帯域が異なる第2照明光である。   The lighting and extinguishing of each of these LEDs 23a to 23d, the light emission amount at the time of lighting, and the like can be controlled by the light source control unit 22 by inputting an independent control signal. In the normal observation mode, the light source control unit 22 turns on all the V-LEDs 23a, B-LEDs 23b, G-LEDs 23c, and R-LEDs 23d. For this reason, in the normal observation mode, white light including purple light V, blue light B, green light G, and red light R is used as illumination light. On the other hand, in the special observation mode, the light source control unit 22 turns on only the V-LED 23a, turns off the other LEDs such as the B-LED 23b, and turns off the V-LED 23a and turns off the B-LED 23b. The light source 20 is controlled by the second light emission pattern that is turned on and turns off other LEDs such as the V-LED 23a. That is, in the special observation mode, the violet light V and the blue light B are sequentially generated and irradiated on the observation target. Therefore, the purple light V is the first illumination light, and the blue light B is the second illumination light having a wavelength band different from that of the first illumination light.

本実施形態では、上記のように、特殊観察モードにおいて、V−LED23aが発する紫色光Vと、B−LED23aが発する青色光Bとを、第1照明光及び第2照明光としてそのまま用いているが、光源20に波長帯域を制限する光学フィルタ等を設けることによって、紫色光Vと青色光Bとはそれぞれさらに波長帯域を制限してから、特殊観察モードの照明光として利用することが好ましい。   In the present embodiment, as described above, the violet light V emitted from the V-LED 23a and the blue light B emitted from the B-LED 23a are used as they are as the first illumination light and the second illumination light in the special observation mode. However, it is preferable that the purple light V and the blue light B are further used as illumination light in the special observation mode after the wavelength band is further restricted by providing the light source 20 with an optical filter or the like that restricts the wavelength band.

これは第1照明光と第2照明光とが、観察対象の散乱係数が互いに異なり、かつ、ヘモグロビンの吸光係数がほぼ等しい二つの波長帯域の光であると、特定深さの血管の抽出を特に鮮明に抽出することができるからである。例えば、各照明光の波長帯域における観察対象の散乱係数は、観察対象への深達度、すなわち、その波長帯域で観察可能な血管の粘膜下の深さに関連する。一方、ヘモグロビンの吸光係数は、各照明光で観察可能な血管のコントラストに関連する。したがって、特殊観察モード時に用いる第1照明光と第2照明光に要求する、観察対象の散乱係数が異なり、かつ、ヘモグロビンの吸光係数がほぼ等しいという条件は、観察可能な血管の粘膜下の深さがそれぞれ異なり、かつ、粘膜下での深さが異なる血管が同程度のコントラストに観察可能である二つの波長帯域の光を選択して用いるという条件である。光源20に用いるLED等の特性(中心波長)等によっては、上記条件を完全には満たせない場合があるが、このような場合には、少なくとも観察対象の散乱係数が異なる範囲内で、できる限りヘモグロビンの吸光係数が近い二つの波長帯域の光を第1照明光及び第2照明光とすれば良い。なお、第1照明光が第2照明光よりも短波長帯域の光であるとすると、観察対象の散乱係数が異なるとは、第1照明光の散乱係数に対する第2照明光の散乱係数の比が0.8以下であることを言う。また、第1照明光と第2照明光の散乱係数の差は70cm−1以上あると良い。 This is because when the first illumination light and the second illumination light are light in two wavelength bands having different scattering coefficients of the object to be observed and having substantially the same absorption coefficient of hemoglobin, blood vessels of a specific depth are extracted. This is because it can be extracted particularly clearly. For example, the scattering coefficient of the observation object in the wavelength band of each illumination light is related to the depth of the observation object, that is, the submucosal depth of the blood vessel that can be observed in the wavelength band. On the other hand, the extinction coefficient of hemoglobin is related to the contrast of blood vessels that can be observed with each illumination light. Therefore, the condition that the scattering coefficient of the observation target required for the first illumination light and the second illumination light used in the special observation mode is different and the absorption coefficient of hemoglobin is almost equal is that the observable blood vessel has a deep submucosal depth. It is a condition that light of two wavelength bands that can be observed with the same contrast can be selected and used for blood vessels with different depths and submucosal depths. Depending on the characteristics (center wavelength) of the LED used for the light source 20, the above conditions may not be completely satisfied. In such a case, at least within the range where the scattering coefficient of the observation target is different, as much as possible. Light in two wavelength bands with close hemoglobin absorption coefficients may be used as the first illumination light and the second illumination light. If the first illumination light is light in a shorter wavelength band than the second illumination light, the scattering coefficient of the observation object is different from the ratio of the scattering coefficient of the second illumination light to the scattering coefficient of the first illumination light. Is 0.8 or less. Further, the difference in the scattering coefficient between the first illumination light and the second illumination light is preferably 70 cm −1 or more.

特殊観察モード時に照明光として用いる紫色光Vと青色光Bとでは、図4に示すように、紫色光Vの散乱係数に対する青色光Bの散乱係数の比は0.75あり、図5に示すように、ヘモグロビンの吸光係数(酸化ヘモグロビンの吸光係数:還元ヘモグロビンの吸光係数=3:7)は概ね同程度である。   In the purple light V and the blue light B used as illumination light in the special observation mode, as shown in FIG. 4, the ratio of the scattering coefficient of the blue light B to the scattering coefficient of the purple light V is 0.75, which is shown in FIG. Thus, the extinction coefficient of hemoglobin (the extinction coefficient of oxidized hemoglobin: the extinction coefficient of reduced hemoglobin = 3: 7) is approximately the same.

各LED23a〜23dが発する各色の光は、ミラーやレンズ等で形成される光路結合部(図示しない)を介して、挿入部12a内に挿通されたライトガイド41に入射される。ライトガイド41は、内視鏡12及びユニバーサルコード(内視鏡12と、光源装置14及びプロセッサ装置16を接続するコード)に内蔵されている。ライトガイド41は、光源20が発生した照明光を、内視鏡12の先端部12dまで伝搬する。   The light of each color emitted from each of the LEDs 23a to 23d is incident on a light guide 41 inserted into the insertion portion 12a via an optical path coupling portion (not shown) formed by a mirror, a lens, or the like. The light guide 41 is built in the endoscope 12 and the universal cord (a cord connecting the endoscope 12, the light source device 14, and the processor device 16). The light guide 41 propagates the illumination light generated by the light source 20 to the distal end portion 12 d of the endoscope 12.

内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは照明レンズ45を有しており、ライトガイド41によって伝搬された照明光は照明レンズ45を介して観察対象に照射される。撮像光学系30bは、対物レンズ46、ズームレンズ47、撮像センサ48を有している。照明光を照射したことによる観察対象からの反射光、散乱光、及び蛍光等の各種の光は、対物レンズ46及びズームレンズ47を介して撮像センサ48に入射する。これにより、撮像センサ48に観察対象の像が結像される。なお、ズームレンズ47は、ズーム操作部13bを操作することでテレ端とワイド端との間で自在に移動され、撮像センサ48に結像する観察対象の反射像を拡大または縮小する。すなわち、撮像光学系30bは、観察対象を撮像センサ48に結像させ、かつ、撮像倍率が可変である。   The distal end portion 12d of the endoscope 12 is provided with an illumination optical system 30a and an imaging optical system 30b. The illumination optical system 30 a has an illumination lens 45, and the illumination light propagated by the light guide 41 is irradiated to the observation object via the illumination lens 45. The imaging optical system 30 b includes an objective lens 46, a zoom lens 47, and an imaging sensor 48. Various types of light such as reflected light, scattered light, and fluorescence from the observation target due to the irradiation of the illumination light enter the image sensor 48 via the objective lens 46 and the zoom lens 47. As a result, an image to be observed is formed on the image sensor 48. The zoom lens 47 is freely moved between the tele end and the wide end by operating the zoom operation unit 13b, and enlarges or reduces the reflected image of the observation target formed on the image sensor 48. That is, the imaging optical system 30b forms an image of the observation target on the imaging sensor 48, and the imaging magnification is variable.

撮像センサ48は、照明光が照射された観察対象を撮像するカラー撮像センサである。撮像センサ48の各画素には、図6に示すR(赤色)カラーフィルタ、G(緑色)カラーフィルタ、B(青色)カラーフィルタのいずれかが各画素に設けられている。このため、撮像センサ48は、紫色から青色の光をBカラーフィルタが設けられたB画素(青色画素)で受光し、緑色の光をGカラーフィルタが設けられたG画素(緑色画素)で受光し、赤色の光をRカラーフィルタが設けられたR画素(赤色画素)で受光する。そして、各色の画素から、RGB各色の画像信号を出力する。特殊観察モードでは、光源20の発光パターンが第1発光パターンの場合には、紫色光Vが照明光として用いられるので、撮像センサ48は、紫色光Vが照射された観察対象を撮像し、紫色光Vに対応する第1画像信号(以下、B1画像信号という)をB画素から出力する。また、光源20の発光パターンが第2発光パターンの場合には、青色光Bが照明光として用いられるので、撮像センサ48は、青色光Bに対応する第2画像信号(以下、B2画像信号という)をB画素から出力する。   The imaging sensor 48 is a color imaging sensor that images an observation target irradiated with illumination light. Each pixel of the image sensor 48 is provided with any of an R (red) color filter, a G (green) color filter, and a B (blue) color filter shown in FIG. Therefore, the imaging sensor 48 receives purple to blue light at the B pixel (blue pixel) provided with the B color filter, and receives green light at the G pixel (green pixel) provided with the G color filter. The red light is received by the R pixel (red pixel) provided with the R color filter. Then, RGB color image signals are output from each color pixel. In the special observation mode, when the light emission pattern of the light source 20 is the first light emission pattern, the purple light V is used as the illumination light. Therefore, the imaging sensor 48 images the observation target irradiated with the purple light V, and purple. A first image signal corresponding to the light V (hereinafter referred to as a B1 image signal) is output from the B pixel. When the light emission pattern of the light source 20 is the second light emission pattern, since the blue light B is used as illumination light, the imaging sensor 48 uses a second image signal (hereinafter referred to as a B2 image signal) corresponding to the blue light B. ) Is output from the B pixel.

撮像センサ48としては、CCD(Charge Coupled Device)撮像センサやCMOS(Complementary Metal-Oxide Semiconductor)撮像センサを利用可能である。また、原色の撮像センサ48の代わりに、C(シアン)、M(マゼンタ)、Y(イエロー)及びG(緑)の補色フィルタを備えた補色撮像センサを用いても良い。補色撮像センサを用いる場合には、CMYGの四色の画像信号が出力されるので、補色−原色色変換によって、CMYGの四色の画像信号をRGBの三色の画像信号に変換することにより、撮像センサ48と同様のRGB画像信号を得ることができる。また、撮像センサ48の代わりに、カラーフィルタを設けていないモノクロセンサを用いても良い。   As the image sensor 48, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor can be used. Further, instead of the primary color imaging sensor 48, a complementary color imaging sensor including complementary color filters of C (cyan), M (magenta), Y (yellow), and G (green) may be used. When the complementary color image sensor is used, CMYG four-color image signals are output. By converting the CMYG four-color image signals into RGB three-color image signals by complementary color-primary color conversion, An RGB image signal similar to that of the image sensor 48 can be obtained. Further, instead of the imaging sensor 48, a monochrome sensor without a color filter may be used.

CDS/AGC回路51は、撮像センサ48から得られるアナログの画像信号に相関二重サンプリング(CDS;Correlated Double Sampling)や自動利得制御(AGC;Automatic Gain Control)を行う。CDS/AGC回路51を経た画像信号は、A/D(Analog to Digital)コンバータ52により、デジタル画像信号に変換される。A/D変換後のデジタル画像信号がプロセッサ装置16に入力される。   The CDS / AGC circuit 51 performs correlated double sampling (CDS) and automatic gain control (AGC) on the analog image signal obtained from the image sensor 48. The image signal that has passed through the CDS / AGC circuit 51 is converted into a digital image signal by an A / D (Analog to Digital) converter 52. The digital image signal after A / D conversion is input to the processor device 16.

プロセッサ装置16は、画像信号取得部53と、DSP(Digital Signal Processor)56と、ノイズ除去部58と、画像処理切替部61と、通常画像処理部66と、特殊画像処理部67と、映像信号生成部68と、を備えている。画像信号取得部53は、CDS/AGC回路51及びA/Dコンバータ52を介して、撮像センサ48からデジタルの画像信号を取得する。   The processor device 16 includes an image signal acquisition unit 53, a DSP (Digital Signal Processor) 56, a noise removal unit 58, an image processing switching unit 61, a normal image processing unit 66, a special image processing unit 67, and a video signal. And a generation unit 68. The image signal acquisition unit 53 acquires a digital image signal from the imaging sensor 48 via the CDS / AGC circuit 51 and the A / D converter 52.

DSP56は、取得した画像信号に対して、欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、デモザイク処理等の各種信号処理を施す。欠陥補正処理では、撮像センサ48の欠陥画素の信号が補正される。オフセット処理では、欠陥補正処理が施された画像信号から暗電流成分が除かれ、正確な零レベルが設定される。ゲイン補正処理では、オフセット処理後の画像信号に特定のゲインを乗じることにより信号レベルが整えられる。   The DSP 56 performs various signal processing such as defect correction processing, offset processing, gain correction processing, linear matrix processing, gamma conversion processing, and demosaicing processing on the acquired image signal. In the defect correction process, the signal of the defective pixel of the image sensor 48 is corrected. In the offset process, the dark current component is removed from the image signal subjected to the defect correction process, and an accurate zero level is set. In the gain correction process, the signal level is adjusted by multiplying the image signal after the offset process by a specific gain.

ゲイン補正処理後の画像信号には、色再現性を高めるためのリニアマトリクス処理が施される。その後、ガンマ変換処理によって明るさや彩度が整えられる。ガンマ変換処理後の画像信号には、デモザイク処理(等方化処理、または同時化処理とも言う)が施され、各画素で不足した色の信号が補間によって生成される。このデモザイク処理によって、全画素がRGB各色の信号を有するようになる。ノイズ除去部58は、DSP56でデモザイク処理等が施された画像信号に対してノイズ除去処理(例えば移動平均法やメディアンフィルタ法等による)を施すことによってノイズを除去する。ノイズが除去された画像信号は、画像処理切替部61に送信される。モード切り替えスイッチ13aの操作によって通常観察モードにセットされている場合、画像処理切替部61は、受信した画像信号を通常画像処理部66に送信し、特殊観察モードにセットされている場合には、受信した画像信号を特殊画像処理部67に送信する。   The image signal after gain correction processing is subjected to linear matrix processing for improving color reproducibility. After that, brightness and saturation are adjusted by gamma conversion processing. The image signal after the gamma conversion processing is subjected to demosaic processing (also referred to as isotropic processing or synchronization processing), and a signal of a color that is insufficient at each pixel is generated by interpolation. By this demosaic processing, all the pixels have RGB signals. The noise removal unit 58 removes noise by performing noise removal processing (for example, using a moving average method, a median filter method, or the like) on the image signal that has been demosaiced by the DSP 56. The image signal from which the noise has been removed is transmitted to the image processing switching unit 61. When the normal observation mode is set by the operation of the mode switch 13a, the image processing switching unit 61 transmits the received image signal to the normal image processing unit 66, and when the special observation mode is set, The received image signal is transmitted to the special image processing unit 67.

通常画像処理部66は、通常観察モードに設定されている場合に作動し、受信した画像信号に対して、色変換処理、色彩強調処理、及び構造強調処理を行い、通常画像信号を生成する。色変換処理では、RGB画像信号に対して3×3のマトリックス処理、階調変換処理、及び3次元LUT(ルックアップテーブル)処理などにより色変換処理を行う。色彩強調処理は、色変換処理済みの画像信号に対して行われる。構造強調処理は、例えば表層血管やピットパターン等の観察対象の構造を強調する処理であり、色彩強調処理後の画像信号に対して行われる。上記のように、構造強調処理まで各種画像処理等を施した通常画像信号を用いたカラー画像が通常画像である。   The normal image processing unit 66 operates when the normal observation mode is set, and performs a color conversion process, a color enhancement process, and a structure enhancement process on the received image signal to generate a normal image signal. In color conversion processing, color conversion processing is performed on RGB image signals by 3 × 3 matrix processing, gradation conversion processing, three-dimensional LUT (look-up table) processing, and the like. The color enhancement process is performed on the image signal that has been subjected to the color conversion process. The structure enhancement process is a process for enhancing a structure to be observed such as a surface blood vessel or a pit pattern, and is performed on the image signal after the color enhancement process. As described above, a color image using a normal image signal that has been subjected to various types of image processing up to the structure enhancement processing is a normal image.

特殊画像処理部67は、特殊観察モードに設定されている場合に作動する画像処理部であり、紫色光Vに対応するB1画像信号と、青色光Bに対応するB2画像信号と、を用いて特定深さの血管を抽出し、他の血管に対して抽出した血管を色の違いで表す画像を表示用に生成する。具体的には、特殊画像処理部67は、B1画像信号、またはB2画像信号いずれかの画像信号を選択し、選択した画像信号を輝度チャンネルに割り当てた画像を生成する。   The special image processing unit 67 is an image processing unit that operates when the special observation mode is set, and uses a B1 image signal corresponding to the purple light V and a B2 image signal corresponding to the blue light B. A blood vessel having a specific depth is extracted, and an image representing the extracted blood vessel with respect to other blood vessels by color difference is generated for display. Specifically, the special image processing unit 67 selects either the B1 image signal or the B2 image signal, and generates an image in which the selected image signal is assigned to the luminance channel.

また、特殊画像処理部67には、観察する血管の深さの設定をする設定部71から観察する血管の深さを表す設定情報が入力される。そして、特殊画像処理部67は、設定情報を用いて、すなわち観察する血管の深さの設定を用いて、表示用の画像を生成する際に、輝度チャンネルに割り当てる画像信号を選択する。本実施形態の場合、設定部71から入力される設定情報は「表層血管」または「極表層血管」のいずれかである。このため、観察する血管の深さの設定が「表層血管」である場合、特殊画像処理部67はB2画像信号を輝度チャンネルに割り当てて表示用の画像を生成する。一方、観察する血管の深さの設定が「極表層血管」である場合、特殊画像処理部67はB1画像信号を輝度チャンネルに割り当てて表示用の画像を生成する。なお、RGBのチャンネルを有する表示用の画像を生成し、かつ、観察する血管の深さの設定が「表層血管」の場合にはB2画像信号をGチャンネル(緑色チャンネル)に割り当て、RGBのチャンネルを有する表示用の画像を生成し、かつ、観察する血管の深さの設定が「極表層血管」の場合にはB1画像信号をGチャンネルに割り当てる。   The special image processing unit 67 receives setting information indicating the depth of the blood vessel to be observed from the setting unit 71 that sets the depth of the blood vessel to be observed. Then, the special image processing unit 67 selects an image signal to be assigned to the luminance channel when generating an image for display using the setting information, that is, using the setting of the depth of the blood vessel to be observed. In the case of the present embodiment, the setting information input from the setting unit 71 is either “surface blood vessel” or “polar surface blood vessel”. For this reason, when the setting of the depth of the blood vessel to be observed is “surface blood vessel”, the special image processing unit 67 assigns the B2 image signal to the luminance channel and generates a display image. On the other hand, when the setting of the depth of the blood vessel to be observed is “polar surface blood vessel”, the special image processing unit 67 assigns the B1 image signal to the luminance channel and generates a display image. When a display image having an RGB channel is generated and the depth of the blood vessel to be observed is “surface blood vessel”, the B2 image signal is assigned to the G channel (green channel), and the RGB channel is set. When the depth of the blood vessel to be observed is “polar surface blood vessel”, the B1 image signal is assigned to the G channel.

また、特殊画像処理部67に入力されるB1画像信号とB2画像信号は、位置合わせ処理部62及び明るさ補正処理部63を介して入力される。   In addition, the B1 image signal and the B2 image signal input to the special image processing unit 67 are input via the alignment processing unit 62 and the brightness correction processing unit 63.

位置合わせ処理部62は、順次取得されたB1画像信号が表す観察対象とB2画像信号が表す観察対象との位置合わせを行う。位置合わせ処理部62は、B1画像信号、または、B2画像信号のうち少なくとも一方を補正する。   The alignment processing unit 62 aligns the observation target represented by the sequentially acquired B1 image signal and the observation target represented by the B2 image signal. The alignment processing unit 62 corrects at least one of the B1 image signal and the B2 image signal.

明るさ補正処理部63は、位置合わせ処理部62によって位置合わせされたB1画像信号及びB2画像信号の明るさが特定比になるように、B1画像信号、または、B2画像信号のうち少なくとも一方の明るさを補正する。具体的には、第1発光パターンの紫色光Vと第2発光パターンの青色光Bの光量比は既知なので、これらの光量比を用いて、それぞれ同等の光量の紫色光V及び青色光Bを観察対象に照射して得る場合の明るさになるように、B1画像信号の明るさを、B2画像信号の明るさに一致させるようにゲイン補正をする。画像信号の明るさとは、例えば、全ての画素の画素値の平均値(あるいは合計値や中間値等の他の統計値)であり、観察対象の粘膜の明るさに概ね対応する。   The brightness correction processing unit 63 has at least one of the B1 image signal and the B2 image signal so that the brightness of the B1 image signal and the B2 image signal aligned by the alignment processing unit 62 has a specific ratio. Correct the brightness. Specifically, since the light quantity ratio between the purple light V of the first light emission pattern and the blue light B of the second light emission pattern is known, the purple light V and the blue light B having the same light quantity are respectively obtained using these light quantity ratios. Gain correction is performed so that the brightness of the B1 image signal matches the brightness of the B2 image signal so that the brightness obtained when the observation object is irradiated is obtained. The brightness of the image signal is, for example, an average value of all the pixel values (or another statistical value such as a total value or an intermediate value), and generally corresponds to the brightness of the mucous membrane to be observed.

図7に示すように、特殊画像処理部67は、画像信号選択部72と、演算画像信号生成部76と、低解像度化処理部77と、画像生成部78とを備える。   As illustrated in FIG. 7, the special image processing unit 67 includes an image signal selection unit 72, a calculation image signal generation unit 76, a resolution reduction processing unit 77, and an image generation unit 78.

画像信号選択部72には、観察する血管の深さを表す設定情報が設定部71から入力される。画像信号選択部72は、入力された設定情報(すなわち観察する血管の深さの設定)を用いて、画像生成部78が表示用の画像を生成する際に、輝度チャンネルに割り当てる画像信号を選択する。本実施形態の場合、設定情報は、「表層血管」または「極表層血管」という二つの値のいずれかであるため、これらに対応するB1画像信号またはB2画像信号のいずれかから、輝度チャンネルに割り当てる画像信号を選択する。より具体的には、設定情報が「表層血管」の場合、画像信号選択部72はB2画像信号を選択し、設定情報が「極表層血管」の場合はB1画像信号を選択する。   Setting information indicating the depth of the blood vessel to be observed is input from the setting unit 71 to the image signal selection unit 72. The image signal selection unit 72 selects an image signal to be assigned to the luminance channel when the image generation unit 78 generates an image for display using the input setting information (that is, setting of the depth of the blood vessel to be observed). To do. In the case of this embodiment, since the setting information is one of two values “surface blood vessel” or “polar surface blood vessel”, the luminance channel is set from either the corresponding B1 image signal or B2 image signal. Select the image signal to be assigned. More specifically, when the setting information is “surface blood vessel”, the image signal selection unit 72 selects the B2 image signal, and when the setting information is “polar surface blood vessel”, the B1 image signal is selected.

演算画像信号生成部76は、位置合わせ処理及び明るさ補正処理が施されたB1画像信号とB2画像信号とを用いて演算をし、演算画像信号を生成する。具体的には、B1画像信号とB2画像信号の差または比を算出する。本実施形態では、演算画像信号生成部76は、B1画像信号及びB2画像信号を対数変換し、対数変換後のB1画像信号とB2画像信号の差を生成することにより、演算画像信号ΔBを生成する。B1画像信号とB2画像信号を対数変換せずにそのまま用いる場合には、B1画像信号とB2画像信号の比を画素毎に演算することにより、演算画像信号を生成する。B1画像信号及びB2画像信号は、各画素が受光量に比例する画素値を有するが、対数変換をすると、濃度に比例する画素値を有することになるので、各画像信号を得たときの照明光の照度によらず、安定した演算結果を得ることができる。   The calculation image signal generation unit 76 performs calculation using the B1 image signal and the B2 image signal that have been subjected to the alignment process and the brightness correction process, and generates a calculation image signal. Specifically, the difference or ratio between the B1 image signal and the B2 image signal is calculated. In the present embodiment, the calculation image signal generation unit 76 logarithmically converts the B1 image signal and the B2 image signal, and generates a calculation image signal ΔB by generating a difference between the B1 image signal and the B2 image signal after logarithmic conversion. To do. When the B1 image signal and the B2 image signal are used as they are without logarithmic conversion, a calculated image signal is generated by calculating the ratio of the B1 image signal and the B2 image signal for each pixel. The B1 image signal and the B2 image signal each have a pixel value proportional to the amount of received light. However, when logarithmic conversion is performed, the pixel value is proportional to the density. A stable calculation result can be obtained regardless of the illuminance of light.

演算画像信号生成部76は、設定部71から設定情報を受けることで、観察する血管の深さの設定によって、演算画像信号の生成方法を変更する。具体的には、観察する血管の深さの設定が「表層血管」である場合、対数変換後のB1画像信号からB2画像信号を減算することにより、演算画像信号ΔBを生成する。一方、観察する血管深さの設定が「極表層血管」である場合、対数変換後のB2画像信号からB1画像信号を減算することにより、演算画像信号ΔBを生成する。   The calculation image signal generation unit 76 receives the setting information from the setting unit 71 and changes the generation method of the calculation image signal according to the setting of the depth of the blood vessel to be observed. Specifically, when the depth of the blood vessel to be observed is “surface blood vessel”, the operation image signal ΔB is generated by subtracting the B2 image signal from the B1 image signal after logarithmic conversion. On the other hand, when the setting of the blood vessel depth to be observed is “polar surface blood vessel”, the calculation image signal ΔB is generated by subtracting the B1 image signal from the B2 image signal after logarithmic conversion.

上記のように演算画像信号ΔBを算出することは、粘膜下の特定深さにある血管を抽出することに対応する。例えば、図8に示すように、紫色光Vと青色光Bは、これらを照明光として用いると、概ね表層血管(深さAs及び深さAdの全範囲の血管)を観察可能であるが、紫色光Vは青色光Bと比較して波長が短いので、観察対象への深達度が小さく、青色光Bに対して相対的に粘膜下の浅い位置Asにある血管しか写し出せない代わりに、浅い位置Asにある血管のコントラスト(血管からの反射光量に対する周辺の粘膜からの反射光量の比)は青色光Bを用いる場合よりも大きい。一方、青色光Bは紫色光Vと比較して波長が長いので、観察対象への深達度が大きく、紫色光Vに対して相対的に粘膜下の深い位置Adにある血管まで写し出せる代わりに、浅い位置Asにある血管のコントラストは紫色光Vを用いる場合よりも小さい。このため、青色光Bに対応するB2画像信号から紫色光Vに対応するB1画像信号を減算すれば、特に粘膜下の浅い位置Asにある極表層血管を表す画素の画素値は強調されて、大きい値(白色)になり、極表層血管よりも深い位置Adにある表層血管を表す画素の画素値は小さい値(黒色)になる。これとは逆に、紫色光Vに対応するB1画像信号から青色光Bに対応するB2画像信号を減算すれば、浅い位置Asにある極表層血管を表す画素の画素値は小さい値(黒色)になり、極表層血管よりも深い位置Adにある表層血管の画素値は強調されて大きい値(白色)になる。   Calculation of the calculated image signal ΔB as described above corresponds to extracting a blood vessel at a specific depth below the mucous membrane. For example, as shown in FIG. 8, when the purple light V and the blue light B are used as illumination light, the surface blood vessels (blood vessels in the entire range of the depth As and the depth Ad) can be observed. Since the violet light V has a shorter wavelength than the blue light B, the depth of penetration to the observation object is small, and only the blood vessel located at a shallow position As below the mucous membrane can be projected relative to the blue light B. The contrast of the blood vessel at the shallow position As (ratio of the amount of reflected light from the surrounding mucous membrane to the amount of reflected light from the blood vessel) is larger than when blue light B is used. On the other hand, since the wavelength of the blue light B is longer than that of the violet light V, the depth of penetration of the blue light B is large, and instead of being able to project a blood vessel at a deep position Ad below the mucosa relative to the violet light V, In addition, the contrast of the blood vessel at the shallow position As is smaller than when purple light V is used. For this reason, if the B1 image signal corresponding to the purple light V is subtracted from the B2 image signal corresponding to the blue light B, the pixel value of the pixel representing the extreme superficial blood vessel at the shallow position As, particularly under the mucous membrane, is emphasized. The pixel value of the pixel representing the superficial blood vessel at a position Ad deeper than the extreme superficial blood vessel becomes a small value (black). On the contrary, if the B2 image signal corresponding to the blue light B is subtracted from the B1 image signal corresponding to the purple light V, the pixel value of the pixel representing the extreme surface blood vessel at the shallow position As is small (black). Thus, the pixel value of the superficial blood vessel in the position Ad deeper than the extreme superficial blood vessel is emphasized and becomes a large value (white).

低解像度化処理部77は、いわゆるローパスフィルタ(以下、LPFという)であり、演算画像信号生成部76が生成した演算画像信号ΔBを低解像度化する。低解像度化処理部77が演算画像信号ΔBに施す低解像度化処理の強度は、LPFのカットオフ周波数で定まる。LPFのカットオフ周波数は予め設定され、少なくとももとの演算画像信号ΔBの解像度よりは低解像度化する。   The resolution reduction processing unit 77 is a so-called low-pass filter (hereinafter referred to as LPF), and lowers the resolution of the calculated image signal ΔB generated by the calculated image signal generation unit 76. The strength of the resolution reduction processing applied to the calculation image signal ΔB by the resolution reduction processing unit 77 is determined by the cutoff frequency of the LPF. The cut-off frequency of the LPF is set in advance, and at least lower than the resolution of the original calculation image signal ΔB.

画像生成部78は、特殊画像処理部67が受信するB1画像信号またはB2画像信号のいずれかと、低解像度化された演算画像信号ΔBとを用いて、複数の出力チャンネルを有する画像を生成する。より具体的には、画像生成部78は、輝度チャンネルYと色差に関する二つの色差チャンネルCb,Crとを有する画像を生成する。このとき、図9に示すように、画像生成部78は、観察する血管の深さの設定を用いて画像信号選択部72が選択したB1画像信号またはB2画像信号のいずれかを輝度チャンネルYに割り当て、低解像度化された演算画像信号ΔBを二つの色差チャンネルCb,Crに割り当てる。これにより、特定深さの血管の走行パターンを色で強調した画像(以下、特定深さ血管強調画像という)を表示用の画像として生成する。   The image generation unit 78 generates an image having a plurality of output channels by using either the B1 image signal or the B2 image signal received by the special image processing unit 67 and the operation image signal ΔB having a reduced resolution. More specifically, the image generation unit 78 generates an image having a luminance channel Y and two color difference channels Cb and Cr related to color differences. At this time, as shown in FIG. 9, the image generation unit 78 uses either the B1 image signal or the B2 image signal selected by the image signal selection unit 72 using the setting of the depth of the blood vessel to be observed as the luminance channel Y. The calculated and reduced resolution image signal ΔB is assigned to the two color difference channels Cb and Cr. As a result, an image in which a running pattern of a blood vessel having a specific depth is emphasized with a color (hereinafter referred to as a specific depth blood vessel emphasized image) is generated as a display image.

観察する血管の深さの設定が「極表層血管」の場合、画像信号選択部72は、紫色光Vに対応したB1画像信号を選択するので、画像生成部78はB1画像信号を輝度チャンネルYに割り当てる。これは、観察対象への深達度が、青色光Bよりも紫色光Vの方が低く、極表層血管のコントラストが高くなりやすいので、極表層血管を観察しやすい画像が得られるからである。同様の理由により、観察する血管の深さの設定が「表層血管」の場合、観察対象への深達度が高い青色光Bに対応し、やや深い位置にある表層血管のコントラストが高くなりやすいB2画像信号が画像信号選択部72によって選択されるので、画像生成部78はB2画像信号を輝度チャンネルYに割り当てる。   When the setting of the depth of the blood vessel to be observed is “polar surface blood vessel”, the image signal selection unit 72 selects the B1 image signal corresponding to the purple light V, so the image generation unit 78 uses the B1 image signal as the luminance channel Y. Assign to. This is because the depth of penetration to the observation target is lower for the purple light V than for the blue light B, and the contrast of the extreme surface blood vessels tends to be high, so that an image that makes it easy to observe the extreme surface blood vessels can be obtained. . For the same reason, when the depth setting of the blood vessel to be observed is “superficial blood vessel”, the contrast of the superficial blood vessel at a slightly deep position tends to be high, corresponding to the blue light B having a high depth of penetration to the observation target. Since the B2 image signal is selected by the image signal selection unit 72, the image generation unit 78 assigns the B2 image signal to the luminance channel Y.

画像生成部78は、色差チャンネルCb,Crに演算画像信号ΔBを割り当てる際に、それぞれ係数αと係数βを乗じる。これは、表層血管等を強調観察する内視鏡システムが表示する画像と色味を揃えるためである。   The image generator 78 multiplies the coefficient α and the coefficient β when assigning the calculation image signal ΔB to the color difference channels Cb and Cr. This is in order to align the color with the image displayed by the endoscope system that emphasizes and observes the surface blood vessels.

具体的には、表層血管を強調観察する強調観察モードを有する従来の内視鏡システムでは、強調観察モードの場合に、狭帯域の青色光を照射して観察対象を撮像してB画像信号を取得し、かつ、狭帯域の緑色光を照射して観察対象を撮像してG画像信号を取得する。そして、B画像信号を表示用の画像のBチャンネル(青色チャンネル)とGチャンネル(緑色チャンネル)に割り当て、G画像信号をRチャンネル(赤色チャンネル)に割り当てることにより、粘膜下の深い位置にある中深層血管を緑色系(シアン系)の色にし、粘膜下の浅い位置にある表層血管を赤色系(マゼンタ系)の色にして強調表示する。ITU−R.601では、RGB各画像信号と輝度チャンネルY及び色差チャンネルCb,Crの関係は、下記式(1),(2),及び(3)で表される。
Y=0.299R+0.587G+0.114B ・・・(1)
Cb=−0.169−0.331G+0.5G ・・・(2)
Cr=0.5R−0.419G−0.081B ・・・(3)
Specifically, in a conventional endoscope system having an enhanced observation mode for emphasizing observation of a superficial blood vessel, in the enhanced observation mode, an image of an observation object is captured by irradiating a narrow band of blue light to obtain a B image signal. The G image signal is acquired by capturing an observation target by irradiating a narrow-band green light. Then, the B image signal is assigned to the B channel (blue channel) and G channel (green channel) of the display image, and the G image signal is assigned to the R channel (red channel). The deep blood vessels are highlighted in green (cyan) color, and the superficial blood vessels in a shallow position under the mucous membrane are highlighted in red (magenta) color. ITU-R. In 601, the relationship between each RGB image signal, the luminance channel Y, and the color difference channels Cb, Cr is expressed by the following equations (1), (2), and (3).
Y = 0.299R + 0.587G + 0.114B (1)
Cb = −0.169−0.331G + 0.5G (2)
Cr = 0.5R−0.419G−0.081B (3)

そして、色差チャンネルCb,Crの式(2)及び式(3)において、RにGを代入し、GにBを代入すると、式(4)及び式(5)に示すように色差チャンネルCb,Crを(G−B)で表すことができる。
Cb=−0.169G+0.169B=0.169(G−B) ・・・(4)
Cr=0.5G−0.5B=0.5(G−B) ・・・(5)
本実施形態では、極表層血管を抽出及び表示するので、この(G−B)信号に代えて、演算画像信号ΔBを用いる。すなわち、係数α=0.169を乗じて演算画像信号ΔBを色差信号Cbに割り当て、係数β=0.5を乗じて演算画像信号ΔBを色差信号Crに割り当てる。これにより、内視鏡システム10では、従来の内視鏡システムとほぼ同配色の画像を表示する。但し、極表層血管と、比較的深い位置にある表層血管との色の違いを強調するために、設定等に応じて、上記係数α及び係数βにさらに係数を乗じる場合がある。
In the equations (2) and (3) of the color difference channels Cb and Cr, when G is substituted for R and B is substituted for G, the color difference channels Cb, Cb, Cr can be represented by (GB).
Cb = −0.169G + 0.169B = 0.169 (GB) (4)
Cr = 0.5G-0.5B = 0.5 (GB) (5)
In the present embodiment, the polar surface blood vessels are extracted and displayed, so that the calculated image signal ΔB is used instead of the (GB) signal. That is, the coefficient α = 0.169 is multiplied to assign the calculated image signal ΔB to the color difference signal Cb, and the coefficient β = 0.5 is multiplied to assign the calculated image signal ΔB to the color difference signal Cr. Thereby, the endoscope system 10 displays an image having almost the same color as that of the conventional endoscope system. However, in order to emphasize the color difference between the superficial blood vessel and the superficial blood vessel located at a relatively deep position, the coefficient α and the coefficient β may be further multiplied by a coefficient depending on the setting or the like.

なお、輝度チャンネルY及び色差チャンネルCb,CrからRGBの特定深さ血管強調画像を生成するには、ITU−R.601の逆変換にしたがって、
R=Y+1.402Cr ・・・(7)
G=Y−0.344Cb−0.714Cr ・・・(8)
B=Y+1.772Cb ・・・(9)
によって行う。
In order to generate a RGB specific depth blood vessel enhanced image from the luminance channel Y and the color difference channels Cb and Cr, ITU-R. According to the inverse transformation of 601
R = Y + 1.402Cr (7)
G = Y−0.344Cb−0.714Cr (8)
B = Y + 1.772 Cb (9)
Do by.

通常画像処理部66が生成する通常画像、及び、特殊画像処理部67が生成する特定深さ血管強調画像は、映像信号生成部68に入力される。映像信号生成部68は通常画像や特定深さ血管強調画像をモニタ18で表示可能な画像として表示するための映像信号に変換する。この映像信号を用いて、モニタ18は、通常画像や特定深さ血管強調画像を表示する。   The normal image generated by the normal image processing unit 66 and the specific depth blood vessel emphasized image generated by the special image processing unit 67 are input to the video signal generation unit 68. The video signal generation unit 68 converts a normal image or a specific depth blood vessel emphasized image into a video signal for display as an image that can be displayed on the monitor 18. Using this video signal, the monitor 18 displays a normal image and a specific depth blood vessel emphasized image.

次に、特殊観察モードにおける画像処理の一連の流れを図10に沿って説明する。まず、特殊観察モードで観察対象を観察する場合には、コンソール19(入力部)を用いて、設定部71に、観察する血管の深さの設定をする(S10)。具体的には、コンソール19を用いてモニタ18に設定メニューを表示させ、観察する血管の深さの設定を「表層血管」または「極表層血管」の何れかから選択する。以下では、観察する血管の深さの設定が「極表層血管」に設定されているとする。   Next, a sequence of image processing in the special observation mode will be described with reference to FIG. First, when observing an observation target in the special observation mode, the depth of the blood vessel to be observed is set in the setting unit 71 using the console 19 (input unit) (S10). Specifically, a setting menu is displayed on the monitor 18 using the console 19, and the setting of the depth of the blood vessel to be observed is selected from “surface blood vessel” or “polar surface blood vessel”. In the following, it is assumed that the depth of the blood vessel to be observed is set to “polar surface blood vessel”.

このように観察する血管の深さの設定がされた状態で特殊観察モードに切り替えると、光源20が紫色光Vを発生し、発生した紫色光Vを観察対象に照射する(S11)。撮像センサ48は、紫色光Vが照射された観察対象を撮像し(S12)、画像信号取得部53は、紫色光Vに対応するB1画像信号を取得する(S13)。図11に示すように、B1画像信号110は、紫色光Vによって観察対象を撮像して得た画像信号なので、観察対象の起伏等の形状112の他、極表層血管124が観察可能である。また、極表層血管124よりも粘膜下の深い位置にある表層血管123も、B1画像信号110によって観察可能である。   When the depth of the blood vessel to be observed is set in this way and switched to the special observation mode, the light source 20 generates purple light V and irradiates the observation target with the generated purple light V (S11). The imaging sensor 48 images the observation target irradiated with the purple light V (S12), and the image signal acquisition unit 53 acquires a B1 image signal corresponding to the purple light V (S13). As shown in FIG. 11, the B1 image signal 110 is an image signal obtained by imaging the observation target with the purple light V, so that the extreme surface blood vessels 124 can be observed in addition to the shape 112 such as the undulation of the observation target. Further, the superficial blood vessel 123 at a deeper position below the mucous membrane than the extreme superficial blood vessel 124 can also be observed by the B1 image signal 110.

次に、光源20が青色光Bを発生し、発生した青色光Bを観察対象に照射し(S14)、撮像センサ48は青色光Bが照射された観察対象を撮像する(S15)。そして、画像信号取得部53は、青色光Bに対応するB2画像信号を取得する(S16)。図12に示すように、B2画像信号120は、青色光Bによって観察対象を撮像して得た画像信号なので、観察対象の形状112の他、比較的深い位置にある表層血管123が観察可能である。また、極表層血管124もB2画像信号120によって観察可能である。B1画像信号110とB2画像信号120を比較すると、B1画像信号110の方が極表層血管124のコントラストが高く、B2画像信号120の方が極表層血管124に比べて比較的深い位置にある表層血管123のコントラストが高い。   Next, the light source 20 generates the blue light B, irradiates the generated blue light B to the observation target (S14), and the imaging sensor 48 images the observation target irradiated with the blue light B (S15). Then, the image signal acquisition unit 53 acquires a B2 image signal corresponding to the blue light B (S16). As shown in FIG. 12, the B2 image signal 120 is an image signal obtained by imaging the observation target with the blue light B, and therefore the surface blood vessel 123 at a relatively deep position can be observed in addition to the shape 112 of the observation target. is there. Further, the polar surface blood vessel 124 can also be observed by the B2 image signal 120. When the B1 image signal 110 and the B2 image signal 120 are compared, the B1 image signal 110 has a higher contrast of the extreme surface blood vessel 124, and the B2 image signal 120 has a surface layer relatively deeper than the extreme surface blood vessel 124. The contrast of the blood vessel 123 is high.

上記のようにして得られたB1画像信号とB2画像信号は、位置合わせ処理部62で位置合わせされ(S17)、さらに明るさ補正処理部63によって明るさ補正処理が施された後(S18)、特殊画像処理部67に入力される。特殊画像処理部67では、演算画像信号生成部76によって、演算画像信号ΔBを生成する(S19)。観察する血管の深さの設定が「極表層血管」である場合、演算画像信号ΔBは、元の画像信号(例えば図11のB1画像信号や図12のB2画像信号)に対して、比較的深い位置にある表層血管123の画素値は小さく、かつ、極表層血管124の画素値は大きくなる。このため、図13に示すように、演算画像信号ΔBでは、極表層血管124と比較的深い位置にある表層血管123の違いが元の画像信号よりも顕著になる。特殊画像処理部67は、演算画像信号ΔBを生成すると、さらに低解像度化処理部77によって演算画像信号ΔBを低解像度化する(S20)。図14に示すように、低解像度化処理部77を経た演算画像信号ΔBでは、表層血管123や極表層血管124はぼやけた状態になる。   The B1 image signal and the B2 image signal obtained as described above are aligned by the alignment processing unit 62 (S17), and further subjected to brightness correction processing by the brightness correction processing unit 63 (S18). Then, it is input to the special image processing unit 67. In the special image processing unit 67, the calculation image signal ΔB is generated by the calculation image signal generation unit 76 (S19). When the setting of the depth of the blood vessel to be observed is “polar surface blood vessel”, the calculated image signal ΔB is relatively less than the original image signal (for example, the B1 image signal in FIG. 11 and the B2 image signal in FIG. 12). The pixel value of the superficial blood vessel 123 at a deep position is small, and the pixel value of the polar superficial blood vessel 124 is large. For this reason, as shown in FIG. 13, in the calculated image signal ΔB, the difference between the polar surface blood vessel 124 and the surface blood vessel 123 at a relatively deep position becomes more prominent than the original image signal. When the special image processing unit 67 generates the calculation image signal ΔB, the resolution reduction processing unit 77 further reduces the resolution of the calculation image signal ΔB (S20). As shown in FIG. 14, the surface blood vessel 123 and the extreme surface blood vessel 124 are blurred in the calculated image signal ΔB that has passed through the resolution reduction processing unit 77.

このように演算画像信号ΔBを生成する一方で、特殊画像処理部67は、画像信号選択部72によって、画像生成部78が表示用に生成する特定深さ血管強調画像の輝度チャンネルYに割り当てる画像信号を選択する(S21)。画像信号選択部72は、観察する血管の深さの設定が「表層血管」の場合にはB2画像信号を選択し、観察する血管の深さの設定が「極表層血管」の場合にはB1画像信号を選択するので、ここではB1画像信号が選択される。   In this way, the special image processing unit 67 generates the calculation image signal ΔB, and the special image processing unit 67 assigns the image signal selection unit 72 to the luminance channel Y of the specific depth blood vessel enhancement image generated by the image generation unit 78 for display. A signal is selected (S21). The image signal selection unit 72 selects the B2 image signal when the setting of the depth of the blood vessel to be observed is “surface blood vessel”, and selects B1 when the setting of the depth of the blood vessel to be observed is “polar surface blood vessel”. Since the image signal is selected, the B1 image signal is selected here.

演算画像信号生成部76によって演算画像信号ΔBを生成し、かつ、画像信号選択部72によって画像信号を選択すると、特殊画像処理部67は、画像生成部78によって、画像信号選択部72が選択したB1画像信号を輝度チャンネルYに割り当て、低解像度化された演算画像信号ΔBを色差チャンネルCr,Cbを割り当てることにより、特定深さ血管強調画像を生成する。図15に示すように、観察する血管の深さの設定が「極表層血管」の場合に生成される特定深さ血管強調画像130では、表層血管123はシアン系の色に着色して表示され、極表層血管124がマゼンタ系に着色して表示される。このため、特定深さ血管強調画像130では、表層血管123と極表層血管124を色で識別可能であり、実質的に極表層血管124が観察しやすい強調画像として表示される。   When the calculation image signal ΔB is generated by the calculation image signal generation unit 76 and the image signal is selected by the image signal selection unit 72, the special image processing unit 67 is selected by the image signal selection unit 72 by the image generation unit 78. By assigning the B1 image signal to the luminance channel Y and assigning the low-resolution computed image signal ΔB to the color difference channels Cr and Cb, a specific depth blood vessel emphasized image is generated. As shown in FIG. 15, in the specific depth blood vessel enhancement image 130 generated when the depth setting of the blood vessel to be observed is “polar surface blood vessel”, the surface blood vessel 123 is displayed in a cyan color. The extreme surface blood vessel 124 is displayed in a magenta color. For this reason, in the specific depth blood vessel enhancement image 130, the superficial blood vessel 123 and the polar superficial blood vessel 124 can be distinguished by color, and the polar superficial blood vessel 124 is displayed as an emphasized image that is substantially easy to observe.

観察する血管の深さの設定を「表層血管」に設定する場合、演算画像信号ΔBでは、表層血管123の画素値が大きくなり、かつ、極表層血管124の画素値は小さくなる。また、特定深さ血管強調画像の輝度チャンネルYに割り当てる画像信号にはB2画像信号が選択される。このため、観察する血管の深さの設定が「極表層血管」の場合とは逆に、表層血管123がマゼンタ系に着色して表示され、極表層血管124がシアン系の色に着色して表示される。このため、観察する血管の深さの設定が「表層血管」の場合に生成される特定深さ血管強調画像では、表層血管123と極表層血管124を色で識別可能であり、実質的に表層血管123が観察しやすくなる。   When the depth of the blood vessel to be observed is set to “surface blood vessel”, the pixel value of the superficial blood vessel 123 increases and the pixel value of the extreme surface blood vessel 124 decreases in the calculated image signal ΔB. Further, the B2 image signal is selected as the image signal assigned to the luminance channel Y of the specific depth blood vessel enhancement image. Therefore, contrary to the case where the depth setting of the blood vessel to be observed is “polar surface blood vessel”, the surface blood vessel 123 is displayed in magenta color, and the polar surface blood vessel 124 is colored in cyan color. Is displayed. For this reason, in the specific depth blood vessel enhancement image generated when the depth setting of the blood vessel to be observed is “surface blood vessel”, the surface blood vessel 123 and the polar surface blood vessel 124 can be distinguished by color, and substantially the surface layer. The blood vessel 123 can be easily observed.

上記のように、内視鏡システム10は、観察する血管の深さの設定をしておき、表示用の画像である特定深さ血管強調画像を生成する際に、輝度チャンネルYに割り当てる画像信号を、観察する血管の深さの設定に応じて変更する。このため、特定深さ血管強調画像では、設定した深さにある血管のコントラストが高く、観察しやすい。   As described above, the endoscope system 10 sets the depth of the blood vessel to be observed, and generates an image signal to be assigned to the luminance channel Y when generating a specific depth blood vessel emphasized image that is a display image. Is changed according to the setting of the depth of the blood vessel to be observed. For this reason, in the specific depth blood vessel enhancement image, the contrast of the blood vessel at the set depth is high and easy to observe.

さらに、内視鏡システム10は、紫色光Vに対応するB1画像信号と青色光Bに対応するB2画像信号との差(または比)によって演算画像信号ΔBを算出し、色差チャンネルCb,Crに演算画像信号ΔBを割り当てる。これにより、輝度チャンネルYに割り当てる画像信号を選択することで、設定した特定深さの血管のコントラストが高い上に、従来では識別が難しかった極表層血管124と、極表層血管124に対して比較的深い位置にある表層血管123とを、色の違いで可視化し、強調表示することができる。   Furthermore, the endoscope system 10 calculates the calculation image signal ΔB based on the difference (or ratio) between the B1 image signal corresponding to the violet light V and the B2 image signal corresponding to the blue light B, and the color difference channels Cb and Cr are calculated. The calculated image signal ΔB is assigned. Thus, by selecting an image signal to be assigned to the luminance channel Y, the contrast of the blood vessel of the set specific depth is high, and the comparison is made between the extreme surface blood vessel 124 and the extreme surface blood vessel 124 that have been difficult to identify conventionally. The superficial blood vessel 123 in a deep position can be visualized and highlighted with a difference in color.

また、B1画像信号とB2画像信号の取得タイミングの違いによって、輝度チャンネルYに割り当てるB1画像信号と演算画像信号ΔBと間に齟齬が生じ、結果として、特定深さ血管強調画像130に色ずれが表れることがある。このため、内視鏡システム10では、演算画像信号ΔBを色差チャンネルCb,Crに割り当てるときに、低解像度化処理部77によって低解像度化してから演算画像信号ΔBを色差チャンネルCb,Crに割り当てるので色ずれは低減されている。   Further, due to the difference in the acquisition timing of the B1 image signal and the B2 image signal, a wrinkle occurs between the B1 image signal assigned to the luminance channel Y and the calculated image signal ΔB. As a result, the specific depth blood vessel emphasized image 130 has a color shift. May appear. For this reason, in the endoscope system 10, when assigning the calculation image signal ΔB to the color difference channels Cb and Cr, the calculation image signal ΔB is assigned to the color difference channels Cb and Cr after the resolution is reduced by the resolution reduction processing unit 77. Color shift is reduced.

また、上記第1実施形態では、画像生成部78は、B1画像信号を輝度チャンネルYに割り当て、かつ、演算画像信号ΔBを色差チャンネルCb,Crに割り当てて、YCbCr形式の特定深さ血管強調画像130を生成しているが、RチャンネルとGチャンネルとBチャンネルを有するRGB形式の画像を生成しても良い。この場合、画像生成部78は、図16に示すように、輝度に最も寄与するGチャンネルに画像信号選択部72が選択した画像信号を割り当て、残りのBチャンネル及びRチャンネルに演算画像信号ΔBを割り当てる。   In the first embodiment, the image generation unit 78 assigns the B1 image signal to the luminance channel Y and assigns the calculation image signal ΔB to the color difference channels Cb and Cr, thereby specifying the specific depth blood vessel enhanced image in the YCbCr format. 130 is generated, but an RGB image having an R channel, a G channel, and a B channel may be generated. In this case, as shown in FIG. 16, the image generation unit 78 assigns the image signal selected by the image signal selection unit 72 to the G channel that contributes most to the luminance, and assigns the calculated image signal ΔB to the remaining B channel and R channel. assign.

[第2実施形態]
上記第1実施形態では、観察する血管の深さの設定が「表層血管」と「極表層血管」の二種類であり、これらのうちの一方を選択しているが、観察する血管の深さの設定はより細かく段階的に設定可能であることが好ましい。例えば、粘膜からの深さを数値で設定可能にすることが好ましい。この場合、図17に示すように、特殊画像処理部67には、上記実施形態の画像信号選択部72及び演算画像信号生成部76の代わりに、画像信号選択部272と演算画像信号生成部276を設ける。
[Second Embodiment]
In the first embodiment, the depth of the blood vessel to be observed is set to two types, “surface blood vessel” and “polar surface blood vessel”, and one of these is selected. It is preferable that the setting of can be set more finely and stepwise. For example, it is preferable that the depth from the mucous membrane can be set numerically. In this case, as illustrated in FIG. 17, the special image processing unit 67 includes an image signal selection unit 272 and a calculation image signal generation unit 276 instead of the image signal selection unit 72 and the calculation image signal generation unit 76 of the above embodiment. Is provided.

画像信号選択部272は、混合画像信号生成部273を備える。混合画像信号生成部273は、B1画像信号とB2画像信号を混合した混合画像信号Bを生成する。また、混合画像信号生成部273は、血管の深さの設定によって、B1画像信号とB2画像信号の混合比率を変えて混合画像信号Bを生成する。具体的には、観察する血管の深さを数値で設定する場合、B1画像信号とB2画像信号に観察する血管の深さを表す数値に対応する重み付けをして画素値を平均することにより、混合画像信号Bを生成する。例えば、観察する血管の深さとして設定可能な範囲が「0」〜「100」(任意単位)であり、数値が大きいほど深い位置を表すものとする。この場合、観察する血管の深さが「30」に設定されると、混合画像信号生成部273は、B1画像信号とB2画像信号を7:3(=1−30/100:30/100)の混合比率で重み付け平均をすることで、混合画像信号Bを生成する。同様に、観察する血管の深さが「60」に設定されると、混合画像信号部273は、B1画像信号とB2画像信号を4:6(=1−60/100:60/100)の混合比率で重み付け平均をすることで、混合画像信号Bを生成する。もちろん、観察する血管の深さの設定が「0」の場合はB1画像信号とB2画像信号の混合比率は1:0であり、混合画像信号BはB1画像信号に等しく、観察する血管の深さの設定が「100」の場合はB1画像信号とB2画像信号の混合比率は0:1であり、混合画像信号BはB2画像信号に等しい。 The image signal selection unit 272 includes a mixed image signal generation unit 273. The mixed image signal generation unit 273 generates a mixed image signal B M obtained by mixing the B1 image signal and the B2 image signal. Further, the mixed image signal generation unit 273 generates a mixed image signal B M by changing the mixing ratio of the B1 image signal and the B2 image signal according to the setting of the blood vessel depth. Specifically, when the depth of the blood vessel to be observed is set as a numerical value, the pixel values are averaged by weighting corresponding to the numerical value representing the depth of the blood vessel to be observed in the B1 image signal and the B2 image signal, A mixed image signal B M is generated. For example, the range that can be set as the depth of the blood vessel to be observed is “0” to “100” (arbitrary unit), and the larger the value, the deeper the position. In this case, when the depth of the blood vessel to be observed is set to “30”, the mixed image signal generation unit 273 converts the B1 image signal and the B2 image signal to 7: 3 (= 1-30 / 100: 30/100). The mixed image signal B M is generated by performing a weighted average with the mixing ratio of Similarly, when the depth of the blood vessel to be observed is set to “60”, the mixed image signal unit 273 converts the B1 image signal and the B2 image signal to 4: 6 (= 1-60 / 100: 60/100). The mixed image signal B M is generated by performing weighted averaging with the mixing ratio. Of course, when the setting of the depth of the blood vessel to be observed is “0”, the mixing ratio of the B1 image signal and the B2 image signal is 1: 0, and the mixed image signal B M is equal to the B1 image signal, When the depth setting is “100”, the mixing ratio of the B1 image signal and the B2 image signal is 0: 1, and the mixed image signal B M is equal to the B2 image signal.

演算画像信号生成部276は、混合画像信号生成部273と同様に観察する血管の深さの設定に応じてB1画像信号とB2画像信号に重み付けをして、これらの差または比を算出することにより、演算画像信号ΔBを生成する。こうすると、図8の紫色光Vのグラフまたは青色光Bのグラフが上下に相対的にシフトすることになるので、紫色光Vのグラフと青色光Bのグラフの交点が左右にシフトする。このため、演算画像信号ΔBで画素値が小さい値(黒色)になる血管と、画素値が大きい値(白色)になる血管の境界が変更されるので、結果として、特定深さ血管強調画像において強調される血管の深さが変わる。   The arithmetic image signal generation unit 276 weights the B1 image signal and the B2 image signal according to the setting of the depth of the blood vessel to be observed in the same manner as the mixed image signal generation unit 273, and calculates the difference or ratio between them. Thus, the calculation image signal ΔB is generated. As a result, the purple light V graph or the blue light B graph in FIG. 8 is relatively shifted up and down, so that the intersection of the purple light V graph and the blue light B graph is shifted left and right. For this reason, the boundary between the blood vessel having a small pixel value (black) and the blood vessel having a large pixel value (white) in the calculated image signal ΔB is changed. The depth of the highlighted blood vessel changes.

そして、画像生成部78では、混合画像信号Bを輝度チャンネルYに割り当て、演算画像信号生成部276が生成した演算画像信号ΔBを色差チャンネルCb,Crに割り当てて、特定深さ血管強調画像を生成する。 Then, in the image generation unit 78, the mixed image signal B M is assigned to the luminance channel Y, the calculation image signal ΔB generated by the calculation image signal generation unit 276 is assigned to the color difference channels Cb and Cr, and the specific depth blood vessel emphasized image is assigned. Generate.

なお、上記第1実施形態の内視鏡システム10は、B1画像信号とB2画像信号のいずれかを選択して特定深さ血管強調画像の輝度チャンネルYに割り当てているが、B1画像信号、B2画像信号、または、上記第2実施形態の混合画像信号Bのうちのいずれかの画像信号を選択し、選択した画像信号を輝度チャンネルに割り当てて特定深さ血管強調画像を生成しても良い。この場合、観察する血管の深さの設定として、「表層血管」と「極表層血管」の他に、「血管の深さを指定」を選択できるようにし、観察する血管の深さの設定が「表層血管」の場合にはB2画像信号を輝度チャンネルYに割り当て、観察する血管の深さの設定が「極表層血管」の場合にはB1画像信号を輝度チャンネルYに割り当て、観察する血管の深さの設定が「血管の深さを指定」の場合には、指定された深さに応じて生成した混合画像信号Bを輝度チャンネルYに割り当てれば良い。 In the endoscope system 10 of the first embodiment, either the B1 image signal or the B2 image signal is selected and assigned to the luminance channel Y of the specific depth blood vessel emphasized image, but the B1 image signal, B2 An image signal or any one of the mixed image signals B M of the second embodiment may be selected, and the selected image signal may be assigned to a luminance channel to generate a specific depth blood vessel enhanced image. . In this case, “Specify the depth of the blood vessel” can be selected in addition to “Surface blood vessel” and “Polar surface blood vessel” as the setting of the depth of the blood vessel to be observed. In the case of “superficial blood vessel”, the B2 image signal is assigned to the luminance channel Y, and when the depth setting of the blood vessel to be observed is “polar surface blood vessel”, the B1 image signal is assigned to the luminance channel Y, When the depth setting is “specify the depth of the blood vessel”, the mixed image signal B M generated according to the specified depth may be assigned to the luminance channel Y.

なお、B1画像信号とB2画像信号の混合比率を7:3にすると、表層血管を強調観察する強調観察モードを有する従来の内視鏡システムが表示する画像に近い特定深さ血管強調画像が得られる。   When the mixing ratio of the B1 image signal and the B2 image signal is set to 7: 3, a blood vessel emphasized image having a specific depth close to an image displayed by a conventional endoscope system having an enhanced observation mode for emphasizing observation of a surface blood vessel is obtained. It is done.

[第3実施形態]
上記第1及び第2実施形態では、紫色光Vと青色光Bを用いることで、極表層血管または表層血管を強調表示しているが、同様の原理で、中層や中深層、あるいは深層と称される粘膜下のさらに深い位置にある血管を強調表示することもできる。例えば、図18に示すように、第3実施形態の内視鏡システム300は、観察する血管の深さの設定として、「極表層血管」と「表層血管」の他に、「中深層血管」を設定可能にしたものであり、観察する血管の深さの設定が、設定部71から入力される光源制御部322を備える。
[Third Embodiment]
In the first and second embodiments, the violet light V and the blue light B are used to highlight the extreme surface blood vessels or the superficial blood vessels. However, the same principle is referred to as a middle layer, a middle depth layer, or a deep layer. It is also possible to highlight blood vessels that are deeper in the submucosa. For example, as shown in FIG. 18, the endoscope system 300 according to the third embodiment uses a “medium deep blood vessel” as a setting of the depth of a blood vessel to be observed, in addition to “polar surface blood vessel” and “surface blood vessel”. The setting of the depth of the blood vessel to be observed is provided with the light source control unit 322 input from the setting unit 71.

光源制御部322は、第1及び第2実施形態と同様に光源20の各LED23a〜23dの点灯や消灯、発光量等の制御をするが、特に、観察する血管の深さの設定によって、特殊観察モードで用いる第1照明光及び第2照明光の各波長帯域を制御する。具体的には、観察する血管の深さの設定が「極表層血管」または「表層血管」である場合には、第1実施形態と同様に、紫色光Vを第1照明光とし、青色光Bを第2照明光とする。一方、観察する血管の深さの設定が「中深層血管」である場合、青色光Bを第1照明光とし、緑色光Gを第2照明光とする。   The light source control unit 322 controls the lighting and extinction of each LED 23a to 23d of the light source 20 and the amount of emitted light as in the first and second embodiments, but in particular, by setting the depth of the blood vessel to be observed. Each wavelength band of the first illumination light and the second illumination light used in the observation mode is controlled. Specifically, when the depth setting of the blood vessel to be observed is “polar superficial blood vessel” or “superficial blood vessel”, the violet light V is used as the first illumination light and the blue light as in the first embodiment. Let B be the second illumination light. On the other hand, when the setting of the depth of the blood vessel to be observed is “medium deep blood vessel”, the blue light B is the first illumination light and the green light G is the second illumination light.

青色光Bを第1照明光とし、緑色光Gを第2照明光とする場合、青色光Bが照射された観察対象をB画素で撮像して得た画像信号を第1画像信号とし、緑色光Gが照射された観察対象をB画素で撮像して得た画像信号を第2画像信号とする。こうすると、特定深さ血管強調画像を生成する際に、第2画像信号を選択して輝度チャンネルYに割り当て、対数変換後のB1画像信号からB2画像信号を減算して生成した演算画像信号ΔBを色差チャンネルCb,Crに割り当てれば、表層血管に対して中深層血管を強調表示することができる。逆に、第1画像信号を選択して輝度チャンネルYに割り当て、対数変換後のB2画像信号からB1画像信号を減算して生成した演算画像信号ΔBを色差チャンネルCb,Crに割り当てれば、表層血管と中深層血管を色の違いで表し、中深層血管に対して表層血管を強調表示することができる。   When the blue light B is used as the first illumination light and the green light G is used as the second illumination light, an image signal obtained by imaging the observation target irradiated with the blue light B with the B pixel is used as the first image signal, and the green light is used. An image signal obtained by imaging the observation target irradiated with the light G with the B pixel is defined as a second image signal. In this way, when the specific depth blood vessel enhanced image is generated, the second image signal is selected and assigned to the luminance channel Y, and the calculated image signal ΔB generated by subtracting the B2 image signal from the logarithmically converted B1 image signal. Can be assigned to the color difference channels Cb and Cr, the middle and deep blood vessels can be highlighted with respect to the surface blood vessels. On the contrary, if the first image signal is selected and assigned to the luminance channel Y, and the calculated image signal ΔB generated by subtracting the B1 image signal from the B2 image signal after logarithmic conversion is assigned to the color difference channels Cb and Cr, the surface layer A blood vessel and a middle-deep blood vessel can be represented by different colors, and a surface blood vessel can be highlighted with respect to the middle-deep blood vessel.

上記第3実施形態の内視鏡システム300のように、観察する血管の深さの設定が、設定部71から光源制御部322に入力されるようにし、光源制御部322では、観察する血管の深さの設定によって、特殊観察モードで使用する第1照明光及び第2照明光の各波長帯域を制御すれば(分光スペクトルを変化させる場合を含む)、中深層、あるいはさらに細かく分けて、中層血管や深層血管を強調表示することができる。   As in the endoscope system 300 of the third embodiment, the setting of the depth of the blood vessel to be observed is input from the setting unit 71 to the light source control unit 322, and the light source control unit 322 If each wavelength band of the first illumination light and the second illumination light used in the special observation mode is controlled by setting the depth (including the case where the spectral spectrum is changed), the middle layer, or further divided into the middle layers Blood vessels and deep blood vessels can be highlighted.

なお、上記第3実施形態では、光源制御部322が、観察する血管の深さの設定によって特殊観察モードで用いる第1照明光及び第2照明光の波長帯域を切り替える制御をしているが、光源制御部322は、観察する血管の深さの設定によって、第1照明光と第2照明光の発光量のバランス(以下、光量比という)を切り替えても良い。例えば、第1及び第2実施形態のように紫色光Vを第1照明光とし、青色光Bを第2照明光とする場合に、観察する血管の深さ設定によって、紫色光Vと青色光Bの光量比を制御すれば、第2実施形態でB1画像信号及びB2画像信号に対して行っている重み付けを、B1画像信号及びB2画像信号を得る段階で行っておくことができる。   In the third embodiment, the light source control unit 322 performs control to switch the wavelength bands of the first illumination light and the second illumination light used in the special observation mode by setting the depth of the blood vessel to be observed. The light source control unit 322 may switch the balance of light emission amounts of the first illumination light and the second illumination light (hereinafter referred to as a light amount ratio) by setting the depth of the blood vessel to be observed. For example, when the purple light V is the first illumination light and the blue light B is the second illumination light as in the first and second embodiments, the purple light V and the blue light are set according to the depth setting of the blood vessel to be observed. If the light quantity ratio of B is controlled, the weighting performed on the B1 image signal and the B2 image signal in the second embodiment can be performed at the stage of obtaining the B1 image signal and the B2 image signal.

また、上記第3実施形態では、光源制御部322が、観察する血管の深さの設定によって特殊観察モードで用いる第1照明光及び第2照明光の波長帯域を切り替える制御をしているが、第1照明光及び第2照明光の波長帯域の組み合わせの他に、特定深さ血管強調画像の輝度チャンネルYに割り当てる画像信号を取得する画素の色や、第1照明光及び第2照明光の光量比等を変更しても良い。例えば、紫色光Vと青色光Bを7:3の光量比で同時発光させ、この照明光が照射された観察対象を、B画素で撮像して得た画像信号と、G画素で撮像して得た画像信号とを用いて特定深さ血管強調画像を生成しても良い。また、紫色光Vと青色光Bを7:3の光量比で同時発光させた照明光と、青色光Bと緑色光Gを1:1の光量比で同時発光させた照明光を、撮像のフレーム毎に切り替え、各フレームで得た画像信号を組み合わせて使用しても良い。このように、第1照明光及び第2照明光の波長帯域の制御や、特定深さ血管強調画像の生成に用いる画像信号を取得する画素、照明光の光量比等の制御を組み合わせることで、観察する血管の深さのより細かな設定に柔軟に対応することができる。   In the third embodiment, the light source control unit 322 performs control to switch the wavelength bands of the first illumination light and the second illumination light used in the special observation mode by setting the depth of the blood vessel to be observed. In addition to the combination of the wavelength bands of the first illumination light and the second illumination light, the color of the pixel that acquires the image signal assigned to the luminance channel Y of the specific depth blood vessel emphasized image, the first illumination light, and the second illumination light The light amount ratio or the like may be changed. For example, purple light V and blue light B are simultaneously emitted at a light quantity ratio of 7: 3, and an observation object irradiated with this illumination light is imaged with the B pixel and imaged with the G pixel. A specific depth blood vessel enhanced image may be generated using the obtained image signal. Also, illumination light in which purple light V and blue light B are simultaneously emitted at a light quantity ratio of 7: 3 and illumination light in which blue light B and green light G are simultaneously emitted at a light quantity ratio of 1: 1 are captured. Switching may be performed for each frame, and image signals obtained in each frame may be used in combination. In this way, by combining the control of the wavelength bands of the first illumination light and the second illumination light, the pixel for obtaining the image signal used for the generation of the specific depth blood vessel emphasized image, the control of the light amount ratio of the illumination light, etc. It is possible to flexibly cope with a finer setting of the depth of the blood vessel to be observed.

[第4実施形態]
上記第1〜第3実施形態では、入力部として機能するコンソール19を用いて、観察する血管の深さの設定をしているが、内視鏡システムが自動的に観察する血管の深さの設定をしても良い。この場合、図19に示す内視鏡システム400のように、例えば、プロセッサ装置16に観察距離取得部419を設ける。撮像光学系30bの撮像倍率は、観察距離と相関があり、撮像倍率が小さい場合には、遠景観察をしており、観察距離は長く、撮像倍率が大きい場合には、近景観察をしており、観察距離は短いと言える。このため、観察距離取得部419は、ズーム操作部13bから、撮像光学系30bの撮像倍率を取得する。観察距離取得部419は、取得した撮像倍率を観察距離として、あるいは取得した撮像倍率を観察距離に換算して、設定部471に入力する。設定部471は、観察距離取得部419から入力される観察距離を用いて、観察する血管の深さを設定する。例えば、観察距離が予め定めた閾値よりも短い場合には、観察する血管の深さの設定を「極表層血管」に自動設定し、観察距離が閾値以上の場合には、観察する血管の深さの設定を「表層血管」に自動設定する。
[Fourth Embodiment]
In the first to third embodiments, the depth of the blood vessel to be observed is set by using the console 19 functioning as the input unit. However, the depth of the blood vessel to be automatically observed by the endoscope system is set. You may set it. In this case, as in the endoscope system 400 illustrated in FIG. 19, for example, the observation distance acquisition unit 419 is provided in the processor device 16. The imaging magnification of the imaging optical system 30b has a correlation with the observation distance. When the imaging magnification is small, the far-field observation is performed. When the observation distance is long and the imaging magnification is large, the near-field observation is performed. It can be said that the observation distance is short. For this reason, the observation distance acquisition unit 419 acquires the imaging magnification of the imaging optical system 30b from the zoom operation unit 13b. The observation distance acquisition unit 419 inputs the acquired imaging magnification as an observation distance, or converts the acquired imaging magnification into an observation distance and inputs it to the setting unit 471. The setting unit 471 uses the observation distance input from the observation distance acquisition unit 419 to set the depth of the blood vessel to be observed. For example, when the observation distance is shorter than a predetermined threshold, the depth setting of the blood vessel to be observed is automatically set to “polar surface blood vessel”, and when the observation distance is equal to or larger than the threshold, the depth of the blood vessel to be observed is set. This setting is automatically set to “Superficial blood vessel”.

このように、観察する血管の深さの設定を自動化すれば、例えば、ズーム操作部13bを自然に操作するだけで、状況に応じて適切な血管を強調した画像をモニタ18に表示することができる。   In this way, if the setting of the depth of the blood vessel to be observed is automated, for example, an image in which an appropriate blood vessel is emphasized according to the situation can be displayed on the monitor 18 simply by operating the zoom operation unit 13b naturally. it can.

上記第4実施形態では、観察距離取得部419は、撮像光学系30bの撮像倍率を取得しているが、観察距離取得部419は、画像信号取得部53や画像処理切替部61等から画像信号を取得し、取得した画像信号を用いて観察距離を算出してもよい。   In the fourth embodiment, the observation distance acquisition unit 419 acquires the imaging magnification of the imaging optical system 30b, but the observation distance acquisition unit 419 receives the image signal from the image signal acquisition unit 53, the image processing switching unit 61, and the like. And the observation distance may be calculated using the acquired image signal.

上記第1〜第3実施形態では、コンソール19を用いて観察する血管の深さの設定を行い、上記第4実施形態では、観察する血管の深さを自動的に設定しているが、これらの代わりに、内視鏡12に設けられたボタン等の操作によって観察する血管の深さの設定を行えるようにしても良い。例えば、特殊観察モードを、極表層血管強調モードや表層血管強調モード等、観察する血管の深さの種類に応じて細分化しておき、図20に示すように、モード切り替えスイッチ13aの操作信号が画像信号選択部72及び演算画像信号生成部76に入力されるようにする。そして、画像信号選択部72や演算画像信号生成部76では、モード切り替えスイッチ13aからの操作信号が入力される度に、通常観察モードと、極表層血管強調モードや表層血管強調モード等の観察する血管の深さの種類に応じて細分化された各特殊観察モードをトグル切り替えしても良い。こうすると、内視鏡12を用いて観察する血管の深さの設定を切り替えられるので利便性が向上する。   In the first to third embodiments, the depth of the blood vessel to be observed is set using the console 19, and in the fourth embodiment, the depth of the blood vessel to be observed is automatically set. Instead of this, the depth of the blood vessel to be observed may be set by operating a button or the like provided on the endoscope 12. For example, the special observation mode is subdivided according to the type of blood vessel depth to be observed, such as the polar surface blood vessel emphasizing mode or the surface blood vessel emphasizing mode, and the operation signal of the mode changeover switch 13a is changed as shown in FIG. It is input to the image signal selection unit 72 and the calculation image signal generation unit 76. The image signal selection unit 72 and the calculation image signal generation unit 76 observe the normal observation mode, the polar surface blood vessel enhancement mode, the superficial blood vessel enhancement mode, and the like each time an operation signal is input from the mode switch 13a. Each special observation mode subdivided according to the type of blood vessel depth may be toggle-switched. In this way, since the setting of the depth of the blood vessel to be observed using the endoscope 12 can be switched, convenience is improved.

上記変形例では、観察する血管の深さの設定がモード切り替えスイッチ13aの操作によって切り替わるようにしているが、その他のボタンやレバー、スイッチ(フットペダル等)を用いても良い。   In the above modification, the setting of the depth of the blood vessel to be observed is switched by operating the mode switch 13a, but other buttons, levers, switches (foot pedals, etc.) may be used.

上記第1〜第4実施形態では、低解像度化処理部77で用いるLPFのカットオフ周波数は予め設定されているが、LPFのカットオフ周波数を可変にし、LPFのカットオフ周波数を動的に設定することが好ましい。例えば、図21に示すように、低解像度化処理部77に、位置合わせ処理部62からB1画像信号とB2画像信号の位置合わせ精度が入力されるようにする。そして、低解像度化処理部77は、B1画像信号とB2画像信号の位置合わせ精度に応じてLPFのカットオフ周波数(低解像度化処理の強度)を変更する。具体的には、B1画像信号とB2画像信号の位置合わせ精度が高いほど、LPFのカットオフ周波数を高周波数に設定して低解像度化処理の強度を小さくし、B1画像信号とB2の位置合わせ精度が低いほど、LPFのカットオフ周波数を低周波数に設定して低解像度化処理の強度を大きくすると良い。こうすると、低解像度化処理部77による演算画像信号ΔBの低解像度化の程度が最適化され、特定深さの血管(例えば、極表層血管124)を適切に強調表示することができる。   In the first to fourth embodiments, the cutoff frequency of the LPF used in the resolution reduction processing unit 77 is set in advance, but the cutoff frequency of the LPF is made variable and the cutoff frequency of the LPF is dynamically set. It is preferable to do. For example, as shown in FIG. 21, the alignment accuracy of the B1 image signal and the B2 image signal is input from the alignment processing unit 62 to the resolution reduction processing unit 77. Then, the resolution reduction processing unit 77 changes the LPF cutoff frequency (the intensity of the resolution reduction processing) according to the alignment accuracy of the B1 image signal and the B2 image signal. Specifically, as the alignment accuracy between the B1 image signal and the B2 image signal is higher, the LPF cutoff frequency is set to a higher frequency to reduce the intensity of the resolution reduction processing, and the alignment between the B1 image signal and B2 is performed. The lower the accuracy, the greater the strength of the resolution reduction processing by setting the LPF cutoff frequency to a lower frequency. In this way, the degree of resolution reduction of the calculation image signal ΔB by the resolution reduction processing unit 77 is optimized, and a blood vessel (for example, the polar surface blood vessel 124) having a specific depth can be appropriately highlighted.

なお、特定深さ血管強調画像を静止画として表示または保存する場合、LFPのカットオフ周波数は、生成する特定深さ血管強調画像の解像度を基準として、少なくともナイキスト周波数の1/8以下の周波数を残す範囲内で設定することが好ましい。   When displaying or saving a specific depth blood vessel emphasized image as a still image, the cutoff frequency of the LFP is at least 1/8 or less of the Nyquist frequency on the basis of the resolution of the specific depth blood vessel emphasized image to be generated. It is preferable to set within the range to be left.

上記変形例では、位置合わせ処理部62の位置合わせ処理の精度に応じて、低解像度化処理部77が低解像度化処理の強度を調節しているが、これとは逆に、低解像度化処理部77が行う低解像度化処理の強度に応じて、位置合わせ処理部62が位置合わせ処理の精度を調節しても良い。この場合、位置合わせ処理部62は、LPFのカットオフ周波数が大きく、低解像度化処理の強度が小さく設定されているほど、B1画像信号とB2画像信号の位置合わせ精度を高く設定する。   In the above modification, the resolution reduction processing unit 77 adjusts the intensity of the resolution reduction processing according to the accuracy of the registration processing of the registration processing unit 62, but on the contrary, the resolution reduction processing The alignment processing unit 62 may adjust the accuracy of the alignment processing according to the strength of the resolution reduction processing performed by the unit 77. In this case, the alignment processing unit 62 sets the alignment accuracy of the B1 image signal and the B2 image signal higher as the cutoff frequency of the LPF is larger and the strength of the resolution reduction processing is smaller.

位置合わせ処理部62が行うB1画像信号とB2画像信号との位置合わせ処理の精度は可変にし、特定深さ血管強調画像の静止画を表示または保存する場合と、特定深さ血管強調画像の動画を表示する場合とで位置合わせ処理の精度を変えることが好ましい。例えば、モニタ18に特定深さ血管画像で構成される動画を表示する場合には、位置合わせ処理部62は、特定深さ血管画像の静止画をモニタ18に表示する(あるいは保存する)場合よりも低い第1精度で、B1画像信号とB2画像信号との位置合わせをする。これとは逆に、特定深さ血管画像の静止画をモニタ18に表示する場合、位置合わせ処理部62は、特定深さ血管画像の動画をモニタ18に表示する場合よりも高い第2精度で、B1画像信号とB2画像信号の位置合わせをする。こうすると、動画表示時には、色ずれが目立たない範囲内で高速に特定深さ血管強調画像を生成することができ、かつ、色ずれが目立ちやすい静止画の取得時には、色ずれがない特定深さ血管強調画像を生成することができる。   The accuracy of the alignment processing between the B1 image signal and the B2 image signal performed by the alignment processing unit 62 is variable, and a still image of the specific depth blood vessel emphasized image is displayed or stored, and a moving image of the specific depth blood vessel emphasized image It is preferable to change the accuracy of the alignment process depending on whether or not is displayed. For example, when displaying a moving image composed of a blood vessel image having a specific depth on the monitor 18, the alignment processing unit 62 displays (or stores) a still image of the blood vessel image having a specific depth on the monitor 18. The B1 image signal and the B2 image signal are aligned with low first accuracy. On the other hand, when displaying a still image of a specific depth blood vessel image on the monitor 18, the alignment processing unit 62 has higher second accuracy than when displaying a moving image of a specific depth blood vessel image on the monitor 18. , B1 image signal and B2 image signal are aligned. In this way, when displaying a moving image, a specific depth blood vessel emphasis image can be generated at high speed within a range where color misregistration is not noticeable, and when acquiring a still image in which color misregistration is conspicuous, a specific depth without color misregistration can be obtained. A blood vessel enhanced image can be generated.

また、位置合わせ処理部62は、生成する特定深さ血管画像の大きさによって、B1画像信号とB2画像信号との位置合わせ精度を変更しても良い。例えば、生成する特定深さ血管画像が大きい場合には、僅かな位置ずれも目立つので、位置合わせ処理部62は高精度にB1画像信号とB2画像信号の位置合わせをし、生成する特定深さ血管画像が小さい場合には、位置ずれは目立ち難いので、低精度でB1画像信号とB2画像信号の位置合わせをする。生成する特定深さ血管画像の大きさによらずプロセッサ装置16の処理負荷が一定になるように、生成する特定深さ血管画像が大きい場合は、許容できる処理負荷になるように位置合わせの精度を落としても良い。   The alignment processing unit 62 may change the alignment accuracy between the B1 image signal and the B2 image signal according to the size of the specific depth blood vessel image to be generated. For example, when the specific depth blood vessel image to be generated is large, a slight misalignment is also conspicuous, so the alignment processing unit 62 aligns the B1 image signal and the B2 image signal with high accuracy and generates the specific depth. When the blood vessel image is small, misalignment is not noticeable. Therefore, the B1 image signal and the B2 image signal are aligned with low accuracy. When the specific depth blood vessel image to be generated is large so that the processing load of the processor device 16 is constant regardless of the size of the specific depth blood vessel image to be generated, the alignment accuracy so that the processing load is acceptable. May be dropped.

上記のように、位置合わせ処理部62が動画表示時と静止画取得時とで位置合わせ処理の精度を変更する場合や特定深さ血管画像の大きさに応じて位置合わせ精度を変更する場合に、低解像度化処理部77は位置合わせ精度によってLPFのカットオフ周波数を変更することが好ましい。例えば、動画表示時には、位置合わせ処理部62はB1画像信号とB2画像信号の位置合わせ精度を低下させ、その代わりに、低解像度化処理部77ではLPFのカットオフ周波数を低周波数側にシフトさせると良い。また、静止画取得時には、位置合わせ処理部62は、B1画像信号とB2画像信号の位置合わせ精度を上げ、その代わりに、低解像度化処理部77ではLFPのカットオフ周波数を高周波側にシフトさせると良い。すなわち、動画表示時にはプロセッサ装置16の処理負担が小さい低解像度化処理部77のLPFを優先し、静止画取得時には位置合わせ処理部62による正確な位置合わせを優先すると良い。   As described above, when the alignment processing unit 62 changes the accuracy of the alignment processing between when displaying a moving image and when acquiring a still image, or when changing the alignment accuracy according to the size of the specific depth blood vessel image The resolution reduction processing unit 77 preferably changes the cutoff frequency of the LPF according to the alignment accuracy. For example, when displaying a moving image, the alignment processing unit 62 reduces the alignment accuracy of the B1 image signal and the B2 image signal, and instead, the resolution reduction processing unit 77 shifts the cutoff frequency of the LPF to the lower frequency side. And good. Further, when acquiring a still image, the alignment processing unit 62 increases the alignment accuracy of the B1 image signal and the B2 image signal, and instead, the low resolution processing unit 77 shifts the cutoff frequency of the LFP to the high frequency side. And good. That is, it is preferable to give priority to the LPF of the resolution reduction processing unit 77 that places a small processing burden on the processor device 16 when displaying a moving image, and to give priority to accurate alignment by the alignment processing unit 62 when acquiring a still image.

なお、位置合わせ処理部62は、動画表示時にはB1画像信号とB2画像信号との位置合わせを行わず、静止画取得時にだけB1画像信号とB2画像信号との位置合わせを行っても良い。   Note that the alignment processing unit 62 may perform alignment between the B1 image signal and the B2 image signal only when acquiring a still image without performing alignment between the B1 image signal and the B2 image signal when displaying a moving image.

上記実施形態では、低解像度化処理部77は、LPFによって演算画像信号ΔBを低解像度化しているが、LPFの代わりに、演算画像信号ΔBを縮小し、その後元の大きさにまで拡大することでも低解像度化することができる。このように、演算画像信号ΔBを縮小及び拡大して低解像度課する場合、演算画像信号ΔBの縮小時には、エリアジングの少ない縮小方法を採用することが好ましい。例えば、面積平均法によって縮小した後、キュービックスプライン補間によって拡大して、演算画像信号ΔBを低解像度化することができる。   In the above-described embodiment, the resolution reduction processing unit 77 reduces the resolution of the calculated image signal ΔB by the LPF. However, instead of the LPF, the resolution reduction processing unit 77 reduces the calculated image signal ΔB and then expands it to the original size. However, the resolution can be reduced. As described above, when the calculation image signal ΔB is reduced and enlarged to impose a low resolution, it is preferable to employ a reduction method with less aliasing when the calculation image signal ΔB is reduced. For example, after the reduction by the area average method, the calculation image signal ΔB can be reduced in resolution by cubic spline interpolation.

上記第1〜第4実施形態のように、極表層血管124を表層血管123と峻別して強調表示する場合には、第1照明光及び第2照明光の波長帯域は、ともに波長500nm以下の範囲内であることが好ましい。具体的には、上記実施形態の通り、405±10nmに中心波長を有する紫色光Vと、460±10nmに中心波長を有する青色光Bとを、第1照明光及び第2照明光として用いることが好ましい。405±10nmに中心波長を有する紫色光と445±10nmに中心波長を有する青色光を第1照明光及び第2照明光として用いることがさらに好ましい。445±10nmに中心波長を有する青色光は、例えば、B−LED23bの長波長側をカットする光学フィルタをB−LED23bの光路中に用いることで、上記青色光Bから生成することができる。また、B−LED23bを445±10nmに中心波長を有する青色光を発する別のLEDに替えても良い。   When the polar surface blood vessel 124 is distinguished from the surface blood vessel 123 and highlighted as in the first to fourth embodiments, both the wavelength bands of the first illumination light and the second illumination light have a wavelength of 500 nm or less. It is preferable to be within the range. Specifically, as in the above embodiment, the violet light V having a central wavelength at 405 ± 10 nm and the blue light B having a central wavelength at 460 ± 10 nm are used as the first illumination light and the second illumination light. Is preferred. More preferably, violet light having a central wavelength of 405 ± 10 nm and blue light having a central wavelength of 445 ± 10 nm are used as the first illumination light and the second illumination light. Blue light having a central wavelength of 445 ± 10 nm can be generated from the blue light B by using, for example, an optical filter that cuts the long wavelength side of the B-LED 23b in the optical path of the B-LED 23b. The B-LED 23b may be replaced with another LED that emits blue light having a central wavelength of 445 ± 10 nm.

中深層血管を、比較的浅い位置にある中深層血管と比較的深い位置にある中深層血管とに分けて強調表示をする場合には、第1照明光及び第2照明光の波長帯域は、ともに500nm以上であることが好ましい。具体的には、波長が約500nmの光と、波長が約600nmの光とを、第1照明光及び第2照明光として用いることが好ましい。   In the case where highlighting is performed by dividing the middle-deep blood vessel into a middle-deep blood vessel at a relatively shallow position and a middle-deep layer blood vessel at a relatively deep position, the wavelength bands of the first illumination light and the second illumination light are: Both are preferably 500 nm or more. Specifically, it is preferable to use light having a wavelength of about 500 nm and light having a wavelength of about 600 nm as the first illumination light and the second illumination light.

なお、上記第1〜第4実施形態では、演算画像信号生成部76は、粘膜下の特定深さにある極表層血管124の走行パターンを表す演算画像信号ΔBを生成しているが、代わりに、血管密度を表す演算画像信号Dや血管等に含まれるヘモグロビンの酸素飽和度(以下、血管の酸素飽和度という)を表す演算画像信号Sを生成しても良い。   In the first to fourth embodiments, the calculation image signal generation unit 76 generates the calculation image signal ΔB representing the traveling pattern of the extreme surface blood vessel 124 at a specific depth below the mucous membrane. The calculation image signal D representing the blood vessel density and the calculation image signal S representing the oxygen saturation of hemoglobin contained in the blood vessel or the like (hereinafter referred to as blood vessel oxygen saturation) may be generated.

血管密度を表す演算画像信号Dは、上記実施形態の演算画像信号ΔBを用いて算出することができる。例えば、上記実施形態の演算画像信号ΔBは、極表層血管124を抽出した画像信号になっているので(図13参照)、演算画像信号ΔBを用いて単位面積中の極表層血管124の面積の割合を各画素について算出することにより、極表層血管124の血管密度を表す演算画像信号Dを生成することができる。このように演算画像信号Dを生成する場合、画像生成部78は、輝度チャンネルYにB1画像信号を割り当て、かつ、演算画像信号Dを色差チャンネルCb,Crに割り当てることにより、極表層血管124の血管密度を表す血管密度画像を生成する。血管密度画像は、バレット腺癌のステージ判別等の診断に直接的な示唆を与えることができる。   The calculated image signal D representing the blood vessel density can be calculated using the calculated image signal ΔB of the above embodiment. For example, since the calculated image signal ΔB of the above embodiment is an image signal obtained by extracting the polar surface blood vessel 124 (see FIG. 13), the area of the polar surface blood vessel 124 in the unit area is calculated using the calculated image signal ΔB. By calculating the ratio for each pixel, a calculation image signal D representing the blood vessel density of the polar surface blood vessel 124 can be generated. When generating the calculation image signal D in this way, the image generation unit 78 assigns the B1 image signal to the luminance channel Y and assigns the calculation image signal D to the color difference channels Cb and Cr, so that the polar surface blood vessel 124 can be generated. A blood vessel density image representing the blood vessel density is generated. The blood vessel density image can give a direct suggestion to diagnosis such as stage discrimination of Barrett's adenocarcinoma.

血管の酸素飽和度を表す演算画像信号Sを生成する場合は、例えば、中心波長445±10nmの第1青色光と緑色光Gと赤色光Rとを照射して観察対象を撮像し、かつ、中心波長473±10nmの第2青色光と緑色光Gと赤色光Rとを照射して観察対象を撮像する。第1青色光は、上記中心波長445±10nmになるようにB−LED23bが発する青色光Bの波長帯域を制限する第1光学フィルタ(例えば、青色光Bの長波長側をカットする光学フィルタ)を用いることで、青色光Bから生成することができる。同様に、第2青色光は、上記中心波長473±10nmとなるようにB−LED23bが発する青色光Bの波長帯域を制限する第2光学フィルタ(例えば、青色光Bの短波長側をカットする光学フィルタ)を用いることで、青色光Bから生成することができる。   When generating the calculation image signal S representing the oxygen saturation of the blood vessel, for example, the first blue light having the center wavelength of 445 ± 10 nm, the green light G, and the red light R are irradiated to image the observation target, and The second blue light, the green light G, and the red light R having a center wavelength of 473 ± 10 nm are irradiated to image the observation target. The first blue light is a first optical filter that limits the wavelength band of the blue light B emitted from the B-LED 23b so that the center wavelength is 445 ± 10 nm (for example, an optical filter that cuts the long wavelength side of the blue light B). Can be generated from the blue light B. Similarly, the second blue light is a second optical filter that limits the wavelength band of the blue light B emitted from the B-LED 23b so that the center wavelength is 473 ± 10 nm (for example, cuts the short wavelength side of the blue light B). It can be generated from the blue light B by using an optical filter.

上記第1青色光は、酸化ヘモグロビンと還元ヘモグロビンの吸光係数に差が殆どない波長帯域を有する。一方、上記第2青色光は、酸化ヘモグロビンと還元ヘモグロビンの吸光係数に差がある波長帯域を有する。このため、第1青色光及び第2青色光が照射された観察対象を撮像して得る各画像信号の比または差は、酸素飽和度と相関がある。したがって、第1青色光及び第2青色光に対応する各画像信号の比または差を、酸素飽和度に対応付ける相関関係を実験等により予め求め、演算画像信号生成部76はこの相関関係を予め保持しておく。そして、演算画像信号生成部76は、第1青色光及び第2青色光に対応する各画像信号の比または差を算出して上記相関関係と照らし合わせることで、各画素が観察対象の酸素飽和度の値を表す演算画像信号Sを生成する。画像生成部78は、通常画像処理部66と同様にして、第1青色光と緑色光Gと赤色光とを照射して観察対象を撮像して得た各画像信号を用いて通常画像信号を生成する。そして、輝度チャンネルYに通常画像信号を割り当て、かつ、酸素飽和度を表す演算画像信号Sを色差チャンネルCb,Crに割り当てることにより、観察対象の酸素飽和度を表す酸素飽和度画像を生成する。こうして生成される酸素飽和度画像は、酸素飽和度という診断に有益な情報を表示することができる。   The first blue light has a wavelength band in which there is almost no difference in the extinction coefficient between oxyhemoglobin and reduced hemoglobin. On the other hand, the second blue light has a wavelength band in which there is a difference in the extinction coefficient between oxyhemoglobin and reduced hemoglobin. For this reason, the ratio or difference between the image signals obtained by imaging the observation object irradiated with the first blue light and the second blue light has a correlation with the oxygen saturation. Therefore, a correlation that associates the ratio or difference between the image signals corresponding to the first blue light and the second blue light with the oxygen saturation is obtained in advance by experiments or the like, and the arithmetic image signal generation unit 76 holds this correlation in advance. Keep it. Then, the calculation image signal generation unit 76 calculates the ratio or difference between the image signals corresponding to the first blue light and the second blue light, and compares them with the correlation so that each pixel has oxygen saturation of the observation target. An arithmetic image signal S representing the degree value is generated. In the same manner as the normal image processing unit 66, the image generation unit 78 irradiates the first blue light, the green light G, and the red light and images the observation target to obtain the normal image signal. Generate. Then, by assigning the normal image signal to the luminance channel Y and assigning the calculation image signal S representing the oxygen saturation to the color difference channels Cb and Cr, an oxygen saturation image representing the oxygen saturation of the observation target is generated. The oxygen saturation image generated in this way can display information useful for diagnosis of oxygen saturation.

なお、上記実施形態では、撮像センサ48が設けられた内視鏡12を被検体内に挿入して観察を行う内視鏡システム10によって本発明を実施しているが、カプセル内視鏡システムにも本発明は好適である。例えば、図22に示すように、カプセル内視鏡システムでは、カプセル内視鏡500と、プロセッサ装置(図示しない)とを少なくとも有する。   In the above embodiment, the present invention is implemented by the endoscope system 10 that performs observation by inserting the endoscope 12 provided with the imaging sensor 48 into the subject. The present invention is also suitable. For example, as shown in FIG. 22, the capsule endoscope system includes at least a capsule endoscope 500 and a processor device (not shown).

カプセル内視鏡500は、光源502と光源制御部503と、撮像センサ504と、信号処理部506と、送受信アンテナ508とを備えている。光源502は、上記各実施形態の光源20と同様に構成される。光源制御部503は、上記各実施形態の光源制御部22と同様にして光源502の駆動を制御する。また、光源制御部503は、送受信アンテナ508によって、カプセル内視鏡システムのプロセッサ装置と無線で通信可能である。カプセル内視鏡システムのプロセッサ装置は、上記各実施形態のプロセッサ装置16とほぼ同様であるが、信号処理部506は、通常画像処理部66及び特殊画像処理部67の機能を有している。信号処理部506が生成した血管強調画像信号等は、送受信アンテナ508を介してプロセッサ装置に送信される。撮像センサ504は上記各実施形態の撮像センサ48と同様に構成される。   The capsule endoscope 500 includes a light source 502, a light source control unit 503, an image sensor 504, a signal processing unit 506, and a transmission / reception antenna 508. The light source 502 is configured in the same manner as the light source 20 of each of the above embodiments. The light source control unit 503 controls the driving of the light source 502 in the same manner as the light source control unit 22 of each of the above embodiments. Further, the light source control unit 503 can communicate with the processor device of the capsule endoscope system wirelessly by the transmission / reception antenna 508. The processor device of the capsule endoscope system is substantially the same as the processor device 16 of each of the above embodiments, but the signal processing unit 506 has functions of a normal image processing unit 66 and a special image processing unit 67. The blood vessel emphasized image signal generated by the signal processing unit 506 is transmitted to the processor device via the transmission / reception antenna 508. The image sensor 504 is configured in the same manner as the image sensor 48 of each of the above embodiments.

10,300,400 内視鏡システム
12 内視鏡
14 光源装置
16 プロセッサ装置
20,502 光源
22,322,503 光源制御部
53 画像信号取得部
67 特殊画像処理部
71,471 設定部
72 画像信号選択部
76,276 演算画像信号生成部
77 低解像度化処理部
78 画像生成部
419 観察距離取得部
DESCRIPTION OF SYMBOLS 10,300,400 Endoscope system 12 Endoscope 14 Light source apparatus 16 Processor apparatus 20,502 Light source 22,322,503 Light source control part 53 Image signal acquisition part 67 Special image processing part 71,471 Setting part 72 Image signal selection Unit 76, 276 Computation image signal generation unit 77 Resolution reduction processing unit 78 Image generation unit 419 Observation distance acquisition unit

Claims (15)

照明光を発生する光源と、
前記照明光が照射された観察対象を撮像する撮像センサと、
前記照明光のうち第1照明光に対応する第1画像信号を取得し、かつ、前記照明光のうち前記第1照明光とは波長帯域が異なる第2照明光に対応する第2画像信号を取得する画像信号取得部と、
観察する血管の深さの設定をする設定部と、
前記血管の深さの設定を用いて、前記第1画像信号、前記第2画像信号、または、前記第1画像信号と前記第2画像信号を混合した混合画像信号のうちのいずれかの画像信号を選択する画像信号選択部と、
前記画像信号選択部が選択した画像信号を輝度チャンネルに割り当てた画像を生成する画像生成部と、
を備える内視鏡システム。
A light source that generates illumination light;
An imaging sensor for imaging an observation target irradiated with the illumination light;
A first image signal corresponding to the first illumination light among the illumination light is obtained, and a second image signal corresponding to the second illumination light having a wavelength band different from the first illumination light among the illumination light is obtained. An image signal acquisition unit to acquire;
A setting unit for setting the depth of the blood vessel to be observed;
The image signal of the first image signal, the second image signal, or a mixed image signal obtained by mixing the first image signal and the second image signal using the blood vessel depth setting An image signal selector for selecting
An image generation unit that generates an image in which the image signal selected by the image signal selection unit is assigned to a luminance channel;
An endoscope system comprising:
前記第1画像信号及び前記第2画像信号を用いて演算画像信号を生成する演算画像信号生成部を備え、
前記画像生成部は、前記画像信号選択部が選択した画像信号を輝度チャンネルに割り当て、かつ、前記演算画像信号を二つの色差チャンネルに割り当てた画像を生成する請求項1に記載の内視鏡システム。
A calculation image signal generation unit that generates a calculation image signal using the first image signal and the second image signal;
The endoscope system according to claim 1, wherein the image generation unit generates an image in which the image signal selected by the image signal selection unit is allocated to a luminance channel and the calculation image signal is allocated to two color difference channels. .
前記演算画像信号生成部は、前記血管の深さの設定によって前記演算画像信号の生成方法を変更する請求項2に記載の内視鏡システム。   The endoscope system according to claim 2, wherein the calculation image signal generation unit changes a generation method of the calculation image signal according to a setting of the depth of the blood vessel. 前記画像信号選択部は、前記混合画像信号を選択する場合に、前記混合画像信号を生成する混合画像信号生成部を備え、
前記混合画像信号生成部は、前記血管の深さの設定によって前記第1画像信号と前記第2画像信号の混合比率を変えて前記混合画像信号を生成する請求項1〜3のいずれか1項に記載の内視鏡システム。
The image signal selection unit includes a mixed image signal generation unit that generates the mixed image signal when the mixed image signal is selected.
The mixed image signal generation unit generates the mixed image signal by changing a mixing ratio of the first image signal and the second image signal according to the setting of the depth of the blood vessel. The endoscope system described in 1.
前記血管の深さの設定によって前記第1照明光と前記第2照明光の各波長帯域を制御し、または、前記血管の深さの設定によって前記第1照明光と前記第2照明光の光量のバランスを制御する光源制御部を備える請求項1〜3のいずれか1項に記載の内視鏡システム。   The wavelength ranges of the first illumination light and the second illumination light are controlled by setting the depth of the blood vessel, or the light amounts of the first illumination light and the second illumination light are set by setting the depth of the blood vessel. The endoscope system of any one of Claims 1-3 provided with the light source control part which controls the balance of. 前記観察対象の観察距離を取得する観察距離取得部を備え、
前記設定部は、前記観察距離を用いて前記血管の深さの設定をする請求項1〜5のいずれか1項に記載の内視鏡システム。
An observation distance acquisition unit for acquiring an observation distance of the observation target;
The endoscope system according to any one of claims 1 to 5, wherein the setting unit sets the depth of the blood vessel using the observation distance.
前記観察対象を前記撮像センサに結像させ、かつ、撮像倍率が可変な撮像光学系を備え、
前記観察距離取得部は、前記撮像光学系の前記撮像倍率を前記観察距離として取得する請求項6に記載の内視鏡システム。
An imaging optical system that forms an image of the observation target on the imaging sensor and has a variable imaging magnification,
The endoscope system according to claim 6, wherein the observation distance acquisition unit acquires the imaging magnification of the imaging optical system as the observation distance.
前記設定部に前記血管の深さの設定を入力するための入力部を備える請求項1〜7のいずれか1項に記載の内視鏡システム。   The endoscope system according to any one of claims 1 to 7, further comprising an input unit for inputting the setting of the depth of the blood vessel to the setting unit. 前記光源を有する光源装置と、前記撮像センサを有する内視鏡と、前記画像生成部を有するプロセッサ装置と、を備え、
前記入力部が前記内視鏡に設けられている請求項8に記載の内視鏡システム。
A light source device having the light source, an endoscope having the imaging sensor, and a processor device having the image generation unit,
The endoscope system according to claim 8, wherein the input unit is provided in the endoscope.
前記光源を有する光源装置と、前記撮像センサを有する内視鏡と、前記画像生成部を有するプロセッサ装置とを備え、
前記入力部が前記プロセッサ装置に設けられている請求項8に記載の内視鏡システム。
A light source device having the light source, an endoscope having the imaging sensor, and a processor device having the image generation unit,
The endoscope system according to claim 8, wherein the input unit is provided in the processor device.
前記第1画像信号または前記第2画像信号の少なくとも一方を補正し、前記第1画像信号が表す前記観察対象と、前記第2画像信号が表す前記観察対象との位置合わせをする位置合わせ処理部を備える請求項2または3に記載の内視鏡システム。   An alignment processing unit that corrects at least one of the first image signal or the second image signal and aligns the observation target represented by the first image signal with the observation target represented by the second image signal. The endoscope system according to claim 2 or 3. 前記第1画像信号または前記第2画像信号の少なくとも一方を補正し、前記第1画像信号の明るさと前記第2画像信号の明るさとの比を特定比にする明るさ補正処理部を備える請求項2または3に記載の内視鏡システム。   A brightness correction processing unit that corrects at least one of the first image signal or the second image signal and sets a ratio between the brightness of the first image signal and the brightness of the second image signal to a specific ratio. The endoscope system according to 2 or 3. 照明光を発生する光源と、前記照明光が照射された観察対象を撮像する撮像センサと、を有する内視鏡システムのプロセッサ装置において、
前記照明光のうち第1照明光に対応する第1画像信号を取得し、かつ、前記照明光のうち前記第1照明光とは波長帯域が異なる第2照明光に対応する第2画像信号を取得する画像信号取得部と、
観察する血管の深さの設定をする設定部と、
前記血管の深さの設定を用いて、前記第1画像信号、前記第2画像信号、または、前記第1画像信号と前記第2画像信号を混合した混合画像信号のうちのいずれかの画像信号を選択する画像信号選択部と、
前記画像信号選択部が選択した画像信号を輝度チャンネルに割り当てた画像を生成する画像生成部と、
を備えるプロセッサ装置。
In a processor device of an endoscope system having a light source that generates illumination light and an imaging sensor that images an observation target irradiated with the illumination light,
A first image signal corresponding to the first illumination light among the illumination light is obtained, and a second image signal corresponding to the second illumination light having a wavelength band different from the first illumination light among the illumination light is obtained. An image signal acquisition unit to acquire;
A setting unit for setting the depth of the blood vessel to be observed;
The image signal of the first image signal, the second image signal, or a mixed image signal obtained by mixing the first image signal and the second image signal using the blood vessel depth setting An image signal selector for selecting
An image generation unit that generates an image in which the image signal selected by the image signal selection unit is assigned to a luminance channel;
A processor device comprising:
光源が、照明光を発生するステップと、
撮像センサが、前記照明光が照射された観察対象を撮像するステップと、
画像信号取得部が、前記照明光のうち第1照明光に対応する第1画像信号を取得し、かつ、前記照明光のうち前記第1照明光とは波長帯域が異なる第2照明光に対応する第2画像信号を取得するステップと、
設定部が、観察する血管の深さの設定をするステップと、
画像信号選択部が、前記血管の深さの設定を用いて、前記第1画像信号、前記第2画像信号、または、前記第1画像信号と前記第2画像信号を混合した混合画像信号のうちのいずれかの画像信号を選択するステップと、
画像生成部が、前記画像信号選択部が選択した画像信号を輝度チャンネルに割り当てた画像を生成するステップと、
を備える内視鏡システムの作動方法。
A light source generating illumination light;
An imaging sensor imaging the observation object irradiated with the illumination light;
The image signal acquisition unit acquires a first image signal corresponding to the first illumination light in the illumination light, and corresponds to a second illumination light having a wavelength band different from the first illumination light in the illumination light. Obtaining a second image signal to:
A step of setting a depth of a blood vessel to be observed by the setting unit;
The image signal selection unit uses the setting of the depth of the blood vessel to select the first image signal, the second image signal, or a mixed image signal obtained by mixing the first image signal and the second image signal. Selecting any one of the image signals;
An image generation unit generating an image in which the image signal selected by the image signal selection unit is assigned to a luminance channel;
A method of operating an endoscope system comprising:
照明光を発生する光源と、前記照明光が照射された観察対象を撮像する撮像センサと、を有する内視鏡システムのプロセッサ装置の作動方法において、
画像信号取得部が、前記照明光のうち第1照明光に対応する第1画像信号を取得し、かつ、前記照明光のうち前記第1照明光とは波長帯域が異なる第2照明光に対応する第2画像信号を取得するステップと、
設定部が、観察する血管の深さの設定をするステップと、
画像信号選択部が、前記血管の深さの設定を用いて、前記第1画像信号、前記第2画像信号、または、前記第1画像信号と前記第2画像信号を混合した混合画像信号のうちのいずれかの画像信号を選択するステップと、
画像生成部が、前記画像信号選択部が選択した画像信号を輝度チャンネルに割り当てた画像を生成するステップと、
を備えるプロセッサ装置の作動方法。
In an operation method of a processor device of an endoscope system, comprising: a light source that generates illumination light; and an imaging sensor that images an observation target irradiated with the illumination light.
The image signal acquisition unit acquires a first image signal corresponding to the first illumination light in the illumination light, and corresponds to a second illumination light having a wavelength band different from the first illumination light in the illumination light. Obtaining a second image signal to:
A step of setting a depth of a blood vessel to be observed by the setting unit;
The image signal selection unit uses the setting of the depth of the blood vessel to select the first image signal, the second image signal, or a mixed image signal obtained by mixing the first image signal and the second image signal. Selecting any one of the image signals;
An image generation unit generating an image in which the image signal selected by the image signal selection unit is assigned to a luminance channel;
A method of operating a processor device comprising:
JP2014202652A 2014-09-30 2014-09-30 Endoscope system, processor device, operation method of endoscope system, and operation method of processor device Active JP6196598B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014202652A JP6196598B2 (en) 2014-09-30 2014-09-30 Endoscope system, processor device, operation method of endoscope system, and operation method of processor device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014202652A JP6196598B2 (en) 2014-09-30 2014-09-30 Endoscope system, processor device, operation method of endoscope system, and operation method of processor device

Publications (2)

Publication Number Publication Date
JP2016067780A true JP2016067780A (en) 2016-05-09
JP6196598B2 JP6196598B2 (en) 2017-09-13

Family

ID=55863414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014202652A Active JP6196598B2 (en) 2014-09-30 2014-09-30 Endoscope system, processor device, operation method of endoscope system, and operation method of processor device

Country Status (1)

Country Link
JP (1) JP6196598B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017216883A1 (en) * 2016-06-14 2019-04-04 オリンパス株式会社 Endoscope device
WO2019163540A1 (en) 2018-02-20 2019-08-29 富士フイルム株式会社 Endoscope system
EP3586719A1 (en) * 2018-06-25 2020-01-01 Fujifilm Corporation Endoscope apparatus
WO2020022027A1 (en) * 2018-07-26 2020-01-30 富士フイルム株式会社 Learning device and learning method
JP2020512108A (en) * 2017-03-29 2020-04-23 ソニー株式会社 Medical imaging device and endoscope
CN111683583A (en) * 2018-01-30 2020-09-18 富士胶片株式会社 Endoscope system and method for operating same
CN112236067A (en) * 2018-06-05 2021-01-15 奥林巴斯株式会社 Endoscope system
JPWO2021070688A1 (en) * 2019-10-10 2021-04-15

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011167349A (en) * 2010-02-18 2011-09-01 Olympus Medical Systems Corp Image processor and image processing method
JP2011200517A (en) * 2010-03-26 2011-10-13 Fujifilm Corp Electronic endoscope system
US20120220823A1 (en) * 2011-02-25 2012-08-30 Samsung Electronics Co., Ltd. Endoscope apparatus capable of providing narrow band imaging and image processing method of the endoscope apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011167349A (en) * 2010-02-18 2011-09-01 Olympus Medical Systems Corp Image processor and image processing method
JP2011200517A (en) * 2010-03-26 2011-10-13 Fujifilm Corp Electronic endoscope system
US20120220823A1 (en) * 2011-02-25 2012-08-30 Samsung Electronics Co., Ltd. Endoscope apparatus capable of providing narrow band imaging and image processing method of the endoscope apparatus

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11399706B2 (en) 2016-06-14 2022-08-02 Olympus Corporation Endoscope apparatus for switching between one-substance observation mode and two-substance observation mode based on input of selection of desired observation mode
JPWO2017216883A1 (en) * 2016-06-14 2019-04-04 オリンパス株式会社 Endoscope device
JP2020512108A (en) * 2017-03-29 2020-04-23 ソニー株式会社 Medical imaging device and endoscope
JP2021178188A (en) * 2018-01-30 2021-11-18 富士フイルム株式会社 Endoscope system and method of operating the same
CN111683583A (en) * 2018-01-30 2020-09-18 富士胶片株式会社 Endoscope system and method for operating same
JPWO2019151190A1 (en) * 2018-01-30 2021-01-07 富士フイルム株式会社 Endoscopic system and how to operate it
CN111683583B (en) * 2018-01-30 2023-09-05 富士胶片株式会社 Endoscope system and working method thereof
US11547272B2 (en) 2018-01-30 2023-01-10 Fujifilm Corporation Endoscope system and method of operating the same
JP7116223B2 (en) 2018-01-30 2022-08-09 富士フイルム株式会社 Endoscope system and its operating method
WO2019163540A1 (en) 2018-02-20 2019-08-29 富士フイルム株式会社 Endoscope system
JPWO2019163540A1 (en) * 2018-02-20 2021-02-04 富士フイルム株式会社 Endoscope system
CN112236067A (en) * 2018-06-05 2021-01-15 奥林巴斯株式会社 Endoscope system
EP3586719A1 (en) * 2018-06-25 2020-01-01 Fujifilm Corporation Endoscope apparatus
JP7019815B2 (en) 2018-07-26 2022-02-15 富士フイルム株式会社 Learning device
WO2020022027A1 (en) * 2018-07-26 2020-01-30 富士フイルム株式会社 Learning device and learning method
JPWO2020022027A1 (en) * 2018-07-26 2021-08-05 富士フイルム株式会社 Learning device and learning method
WO2021070688A1 (en) * 2019-10-10 2021-04-15 富士フイルム株式会社 Endoscope system and method for operating same
JP7312843B2 (en) 2019-10-10 2023-07-21 富士フイルム株式会社 Endoscope system and its operating method
JPWO2021070688A1 (en) * 2019-10-10 2021-04-15

Also Published As

Publication number Publication date
JP6196598B2 (en) 2017-09-13

Similar Documents

Publication Publication Date Title
JP6234350B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP6367683B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP6196598B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
US10039439B2 (en) Endoscope system and method for operating the same
JP6522539B2 (en) Endoscope system and method of operating the same
US10709310B2 (en) Endoscope system, processor device, and method for operating endoscope system
JP6525918B2 (en) Endoscope system, image processing apparatus, and operation method of image processing apparatus
JP6513209B2 (en) Endoscope system and method of operating endoscope system
JP6576895B2 (en) Endoscope system, processor device, and operation method of endoscope system
JP6562554B2 (en) Endoscope system, processor device, and signal processing method for endoscope system
WO2019163540A1 (en) Endoscope system
WO2017110180A1 (en) Endoscopic system, processor device, and method for operating endoscopic system
JP5869541B2 (en) ENDOSCOPE SYSTEM, PROCESSOR DEVICE, AND METHOD FOR OPERATING ENDOSCOPE SYSTEM
JP6408400B2 (en) Endoscope system, endoscope processor device, and operation method of endoscope system
JP6153913B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP2016158837A (en) Endoscope light source device, endoscope system, and operation method of endoscope light source device
JP6081622B2 (en) ENDOSCOPE SYSTEM, PROCESSOR DEVICE, AND METHOD FOR OPERATING ENDOSCOPE SYSTEM
JP6153912B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP6615950B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170818

R150 Certificate of patent or registration of utility model

Ref document number: 6196598

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250