JP2017202241A - Endoscope system, processor device, and signal processing method - Google Patents

Endoscope system, processor device, and signal processing method Download PDF

Info

Publication number
JP2017202241A
JP2017202241A JP2016097269A JP2016097269A JP2017202241A JP 2017202241 A JP2017202241 A JP 2017202241A JP 2016097269 A JP2016097269 A JP 2016097269A JP 2016097269 A JP2016097269 A JP 2016097269A JP 2017202241 A JP2017202241 A JP 2017202241A
Authority
JP
Japan
Prior art keywords
signal
pixel
image
light
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016097269A
Other languages
Japanese (ja)
Other versions
JP6562554B2 (en
Inventor
青山 達也
Tatsuya Aoyama
達也 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2016097269A priority Critical patent/JP6562554B2/en
Publication of JP2017202241A publication Critical patent/JP2017202241A/en
Application granted granted Critical
Publication of JP6562554B2 publication Critical patent/JP6562554B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures

Abstract

PROBLEM TO BE SOLVED: To provide an endoscope system and signal processing method capable of easily acquiring signals required to generate an image for observing a structure of a subject, and also to provide a processor device capable of easily generating an image for observing a structure of the subject, based on the signals acquired by the endoscope system.SOLUTION: An endoscope system according to an aspect of the present invention, acquires first and second luminance signals by first and second illumination light beams for image acquisition during first and second light emission controls, and also acquires first and second reference signals by emitting a third illumination light beam as reference light. The first and second reference signals can be used for correction of the first and second luminance signals during generating of an image for observation of a structure of a subject, using the first and second luminance signals. This results in easy acquisition of signals required to generate an image for observation of the structure of the subject.SELECTED DRAWING: Figure 12

Description

本発明は内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムにおける信号処理方法に関し、特に被検体の構造を強調した画像を生成するための信号を処理する内視鏡システム、プロセッサ装置、及び信号処理方法に関する。   The present invention relates to an endoscope system, a processor device of the endoscope system, and a signal processing method in the endoscope system, and in particular, an endoscope system that processes a signal for generating an image in which a structure of a subject is emphasized, The present invention relates to a processor device and a signal processing method.

内視鏡システムを用いた検査又は診断において、血管に関する情報の重要性が認識されており、近年では様々な方法で血管の情報を抽出する内視鏡システムが提案されている(例えば、下記特許文献1及び特許文献2を参照)。特許文献1には青色の狭帯域光を用いて得られた画像と緑色の狭帯域光を用いて得られた画像の各々に重み付けの処理を行うことにより、生体組織の粘膜表層に存在する血管と生体組織の深層に存在する血管とを抽出する内視鏡システムが開示されている。   In examinations or diagnoses using an endoscope system, the importance of information on blood vessels has been recognized, and in recent years, endoscope systems that extract blood vessel information by various methods have been proposed (for example, the following patents). Reference 1 and Patent Reference 2). Patent Document 1 discloses that blood vessels present on the mucous membrane surface layer of a living tissue by weighting each of an image obtained using blue narrow-band light and an image obtained using green narrow-band light. And an endoscope system for extracting blood vessels existing in a deep layer of a living tissue.

また特許文献2には、互いに波長領域が異なる複数の狭帯域光を被写体組織に照射し、各狭帯域光の照射ごとに撮像素子を介して取得される狭帯域画像データ間の輝度比に基づいて、血管深さと酸素飽和濃度を算出する内視鏡システムが開示されている。   Further, in Patent Document 2, a subject tissue is irradiated with a plurality of narrowband lights having different wavelength regions, and based on a luminance ratio between narrowband image data acquired via an imaging device for each irradiation of each narrowband light. An endoscope system for calculating blood vessel depth and oxygen saturation concentration is disclosed.

特許第5393525号公報Japanese Patent No. 5393525 特開2011−218135号公報JP 2011-218135 A

特許文献1及び特許文献2に示されているように、波長帯域が異なる複数種類の照明光を利用してマルチフレーム撮影により取得した複数の波長帯域ごとの画像から、異なる深さに存在する血管の情報を抽出することができる。そして、これら複数の波長帯域毎の画像を画像の差分情報を利用して合成することで、特定深さの血管が観察しやすい画像を得ることができる。   As shown in Patent Literature 1 and Patent Literature 2, blood vessels existing at different depths from images for each of a plurality of wavelength bands acquired by multiframe imaging using a plurality of types of illumination light having different wavelength bands. Can be extracted. Then, by combining the images for each of the plurality of wavelength bands using the difference information of the images, it is possible to obtain an image in which a blood vessel having a specific depth can be easily observed.

このような画像の合成を行う際に、各画像の明るさ(輝度)を調整することで合成画像において特定深さの血管を観察しやすくすることが考えられる。しかしながら、マルチフレーム撮影の場合フレーム毎の撮影タイミングが異なるため、撮影距離や角度がフレームによって変化し、画像の明るさの違いが一律ではなく場所により異なっている。このような状況に対し、上述した特許文献1及び特許文献2に示されるような従来の技術では各画像の明るさを合わせることが困難であり、その結果被検体の構造を十分に観察することは困難であった。   When synthesizing such images, it is conceivable to adjust the brightness (luminance) of each image to make it easier to observe a blood vessel having a specific depth in the synthesized image. However, in the case of multi-frame shooting, since the shooting timing for each frame is different, the shooting distance and angle vary from frame to frame, and the difference in image brightness differs from place to place. In such a situation, it is difficult to match the brightness of each image with the conventional techniques as described in Patent Document 1 and Patent Document 2 described above, and as a result, the structure of the subject is sufficiently observed. Was difficult.

本発明はこのような事情に鑑みてなされたもので、被検体の構造を観察するための画像生成に必要な信号を容易に取得できる内視鏡システム及び信号処理方法を提供することを目的とする。また本発明は、内視鏡システムで取得した信号により被検体の構造を観察するための画像を容易に生成できるプロセッサ装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object thereof is to provide an endoscope system and a signal processing method capable of easily acquiring signals necessary for image generation for observing the structure of a subject. To do. It is another object of the present invention to provide a processor device that can easily generate an image for observing the structure of a subject using a signal acquired by an endoscope system.

上述した目的を達成するため、本発明の第1の態様に係る内視鏡システムは、対物レンズと、三原色の各色に対応するカラーフィルタが配列された第1の画素、第2の画素及び第3の画素を有する撮像素子とを含む撮像部と、それぞれ波長の異なる第1の波長、第2の波長及び第3の波長をピークとする第1の照明光、第2の照明光及び第3の照明光を発光する光源と、撮像部による被検体の撮像時に、光源から第1の照明光と第3の照明光とを同時に発光させる第1の発光制御と、第2の照明光と第3の照明光とを同時に発光させる第2の発光制御とを行う光源制御部と、光源制御部による第1の発光制御が行われるときに、撮像素子の第1の画素、第2の画素及び第3の画素のうちの、第1の波長に最も分光感度の高い画素から第1の輝度信号を取得し、かつ撮像素子の第1の画素、第2の画素及び第3の画素のうちの第3の波長に感度を有する画素であって、少なくとも第1の波長に最も分光感度の高い画素とは異なる画素から第1の参照信号を取得し、光源制御部による第2の発光制御が行われるときに、撮像素子の第1の画素、第2の画素及び第3の画素のうちの、第2の波長に最も分光感度の高い画素から第2の輝度信号を取得し、かつ撮像素子の第1の画素、第2の画素及び第3の画素のうちの第3の波長に感度を有する画素であって、少なくとも第2の波長に最も分光感度の高い画素とは異なる画素から第2の参照信号を取得する画像信号取得部と、を備える。   In order to achieve the above-described object, an endoscope system according to a first aspect of the present invention includes a first pixel, a second pixel, and a second pixel in which an objective lens and color filters corresponding to the three primary colors are arranged. An image pickup unit including an image pickup device having three pixels, and a first illumination light, a second illumination light, and a third light having a first wavelength, a second wavelength, and a third wavelength having different wavelengths, respectively. A first light emission control for causing the light source to emit the first illumination light and the third illumination light simultaneously, and the second illumination light and the second illumination light. A light source control unit that performs second light emission control for simultaneously emitting three illumination lights, and when the first light emission control by the light source control unit is performed, the first pixel, the second pixel, and Among the third pixels, the pixel having the highest spectral sensitivity at the first wavelength is used for the first brightness. A pixel that obtains a signal and has sensitivity to the third wavelength among the first pixel, the second pixel, and the third pixel of the image sensor, and has the highest spectral sensitivity at least to the first wavelength The first reference signal is acquired from a pixel different from the pixel, and when the second light emission control is performed by the light source control unit, the first pixel, the second pixel, and the third pixel of the image sensor The second luminance signal is acquired from the pixel having the highest spectral sensitivity at the second wavelength, and the sensitivity is applied to the third wavelength among the first pixel, the second pixel, and the third pixel of the image sensor. An image signal acquisition unit that acquires a second reference signal from a pixel that is different from the pixel having the highest spectral sensitivity at the second wavelength.

第1の態様によれば、第1,第2の発光制御において、画像取得のための第1,第2の照明光により第1,第2の輝度信号を取得するのに加えて、参照光として第3の照明光を発光させて第1,第2の参照信号を取得する。これら第1,第2の参照信号は、第1,第2の輝度信号を用いた被検体の構造観察のための画像生成において第1,第2の輝度信号の補正に用いることができる。このように、第1の態様に係る内視鏡システムによれば、被検体の構造を観察するための画像生成に必要な信号を容易に取得することができる。   According to the first aspect, in the first and second light emission control, in addition to acquiring the first and second luminance signals by the first and second illumination lights for image acquisition, the reference light As a result, the third illumination light is emitted to obtain the first and second reference signals. These first and second reference signals can be used to correct the first and second luminance signals in image generation for observing the structure of the subject using the first and second luminance signals. As described above, according to the endoscope system according to the first aspect, it is possible to easily acquire a signal necessary for image generation for observing the structure of the subject.

第1の態様において、「第3の波長に感度を有する画素」は第1の画素、第2の画素及び第3の画素のうちの複数の画素であってもよい。なお、第1の画素、第2の画素及び第3の画素のうちのいずれかの画素における第3の波長に対する感度がゼロでない場合であっても、その感度が参照信号の第1の画素、第2の画素及び第3の画素のうちの他の画素における第3の波長に対する感度に対して十分低いときは、そのような画素は「第3の波長に感度を有する画素」ではないと見なすことができる。   In the first aspect, the “pixel having sensitivity to the third wavelength” may be a plurality of pixels among the first pixel, the second pixel, and the third pixel. Even if the sensitivity to the third wavelength in any one of the first pixel, the second pixel, and the third pixel is not zero, the sensitivity is the first pixel of the reference signal, A pixel is considered not a “pixel sensitive to the third wavelength” when it is sufficiently low in sensitivity to the third wavelength in the other pixels of the second pixel and the third pixel. be able to.

また、第1の態様において第1,第2の発光制御は1回だけでなく2回以上行ってもよく、2回以上(第1,第2の発光制御の合計回数として3回以上)行う場合に、それぞれの発光制御における照明光(第1の照明光,第2の照明光)の波長を変えてもよい。例えば、第1の発光制御を2度行い、1回目の発光制御の際の第1の照明光の波長と2回目の発光制御の際の第1の照明光の波長を変えることができる。このような発光制御を行うことで、第2の発光制御と合わせて3種類の輝度信号を取得することができ、これにより観察目的に応じて異なる画像を生成することができる。   In the first embodiment, the first and second light emission controls may be performed not only once but also two times or more (3 times or more as the total number of the first and second light emission controls). In this case, the wavelength of illumination light (first illumination light, second illumination light) in each light emission control may be changed. For example, the first light emission control can be performed twice to change the wavelength of the first illumination light in the first light emission control and the wavelength of the first illumination light in the second light emission control. By performing such light emission control, it is possible to acquire three types of luminance signals together with the second light emission control, thereby generating different images depending on the observation purpose.

第2の態様に係る内視鏡システムは第1の態様において、第1の参照信号及び第2の参照信号に基づいて第1の輝度信号及び第2の輝度信号のうちの少なくとも一方の輝度信号を画素毎又は撮像領域毎に補正する輝度補正部と、輝度補正部による補正後の第1の輝度信号及び第2の画像信号に基づいて被検体の構造を強調した画像信号を生成する画像信号生成部と、をさらに備える。第2の態様によれば、第1,第2の参照信号に基づいて第1,第2の輝度信号のうち少なくとも一方を画素毎又は撮像領域毎に補正し、補正後の輝度信号に基づいて被検体の構造を強調した画像信号を生成するので、局所的な輝度ムラ(明るさの違い)が除去された画像を生成でき、被検体の構造を容易に観察することができる。   In an endoscope system according to a second aspect, in the first aspect, at least one of the first luminance signal and the second luminance signal based on the first reference signal and the second reference signal. A luminance correction unit that corrects the image for each pixel or each imaging region, and an image signal that generates an image signal that emphasizes the structure of the subject based on the first luminance signal and the second image signal that have been corrected by the luminance correction unit And a generation unit. According to the second aspect, at least one of the first and second luminance signals is corrected for each pixel or each imaging region based on the first and second reference signals, and based on the corrected luminance signal Since the image signal in which the structure of the subject is emphasized is generated, an image from which local luminance unevenness (difference in brightness) is removed can be generated, and the structure of the subject can be easily observed.

第3の態様に係る内視鏡システムは第2の態様において、第3の照明光の発光光量は、第1の照明光及び第2の照明光の発光光量よりも少ない。第3の態様は、第3の照明光は輝度信号の補正において参照光として使用するため、第1の照明光及び第2の照明光よりも発光光量を少なくすることを規定するものである。なお第3の態様において、第3の照明光の発光光量は第1の照明光及び第2の照明光の発光光量の40%以下であることが好ましい。また、第3の照明光の発光光量を第1の照明光及び第2の照明光の発光光量の10%以上20%以下にすることがさらに好ましい。   In the endoscope system according to the third aspect, in the second aspect, the light emission amount of the third illumination light is smaller than the light emission amounts of the first illumination light and the second illumination light. In the third aspect, since the third illumination light is used as the reference light in the correction of the luminance signal, it is defined that the amount of emitted light is smaller than that of the first illumination light and the second illumination light. In the third aspect, the light emission amount of the third illumination light is preferably 40% or less of the light emission amount of the first illumination light and the second illumination light. More preferably, the amount of emitted light of the third illumination light is 10% or more and 20% or less of the amount of emitted light of the first illumination light and the second illumination light.

第4の態様に係る内視鏡システムは第2又は第3の態様において、第1の参照信号及び第2の参照信号は、それぞれ第1の画素、第2の画素及び第3の画素のうちの第1の画像信号及び第2の画像信号を取得した画素とは異なる画素である参照信号取得画素の各色の画像信号を加算した画像信号である。第4の態様では、参照信号取得画素のいずれもが参照光としての第3の照明光に対し感度(副感度)を持つ場合を考慮して、参照信号取得画素の各色の画像信号を加算した画像信号を第1の参照信号及び第2の参照信号としたものである。上述のように第1,第2の波長に最も分光感度が高い画素から第1,第2の輝度信号をそれぞれ取得しているので、参照信号を第4の態様のような画像信号とすることで、参照信号に基づく輝度信号の補正を効果的に行うことができる。なお第4の態様において、参照信号取得画素は第1の画素、第2の画素及び第3の画素のうち複数の画素を含んでいてよい。   The endoscope system according to a fourth aspect is the second or third aspect, wherein the first reference signal and the second reference signal are the first pixel, the second pixel, and the third pixel, respectively. This is an image signal obtained by adding the image signals of the respective colors of the reference signal acquisition pixels, which are pixels different from the pixels from which the first image signal and the second image signal are acquired. In the fourth aspect, the image signal of each color of the reference signal acquisition pixel is added in consideration of the case where any of the reference signal acquisition pixels has sensitivity (subsensitivity) to the third illumination light as the reference light. The image signal is a first reference signal and a second reference signal. As described above, the first and second luminance signals are acquired from the pixels having the highest spectral sensitivity at the first and second wavelengths, respectively, so that the reference signal is an image signal as in the fourth mode. Thus, it is possible to effectively correct the luminance signal based on the reference signal. In the fourth aspect, the reference signal acquisition pixel may include a plurality of pixels among the first pixel, the second pixel, and the third pixel.

なお「副感度」とは、撮像素子の各画素に設けられたカラーフィルタの色の光以外の色の光に対する各画素の受光センサの感度を意味し、例えば赤色画素(カラーフィルタが赤色)ならば青色光に対する感度及び緑色光に対する感度である。カラーフィルタの色の光に対する感度は「主感度」である。   The “sub-sensitivity” means the sensitivity of the light receiving sensor of each pixel with respect to light of a color other than that of the color filter provided in each pixel of the image sensor. For example, if the pixel is a red pixel (the color filter is red) For example, the sensitivity to blue light and the sensitivity to green light. The sensitivity of the color filter to light is “main sensitivity”.

第5の態様に係る内視鏡システムは第4の態様において、第3の照明光は、参照信号取得画素の分光感度の総和が最大になる波長を有する。第3の照明光(参照光)の波長を第5の態様のように設定することで、第3の照明光の光量を少なくした場合でも輝度信号の補正をさらに効果的に行うことができる。なお第5の態様において「分光感度の総和が最大になる波長」とは、分光感度の総和が数値上最大値となる波長だけでなく、分光感度の総和が、輝度ムラ補正の効果に実質的な影響がない範囲で数値上の最大値からずれた波長をも含むものとする。   In an endoscope system according to a fifth aspect, in the fourth aspect, the third illumination light has a wavelength that maximizes the sum of the spectral sensitivities of the reference signal acquisition pixels. By setting the wavelength of the third illumination light (reference light) as in the fifth aspect, the luminance signal can be corrected more effectively even when the amount of the third illumination light is reduced. In the fifth aspect, “the wavelength at which the sum of the spectral sensitivities is maximum” means not only the wavelength at which the sum of the spectral sensitivities is numerically the maximum value, but also the sum of the spectral sensitivities is substantially effective in correcting the luminance unevenness. It also includes wavelengths that deviate from the maximum numerical value within a range where there is no significant influence.

第6の態様に係る内視鏡システムは第4又は第5の態様において、第1の照明光及び第2の照明光のそれぞれの設定光量と、第1の照明光及び第2の照明光に対する参照信号取得画素の分光感度とに基づいて、第1の参照信号及び第2の参照信号を補正する参照信号補正部を更に備え、輝度補正部は、参照信号補正部により補正された第1の参照信号及び第2の参照信号に基づいて第1の輝度信号及び第2の輝度信号のうちの少なくとも一方の輝度信号を画素毎又は撮像領域毎に補正する。第1,第2の発光制御において参照光(第3の照明光)を同じ光量で発光させても、各画素の受光センサの副感度の影響で第1,第2の画像信号における参照信号(第1,第2の参照信号)の値が異なるため、第6の態様では第1,第2の照明光の設定光量と参照信号取得画素の分光感度とに基づいて第1,第2の参照信号を補正し、補正後の参照信号に基づいて輝度信号の補正を行うようにしたものである。   The endoscope system which concerns on a 6th aspect is set with respect to each setting light quantity of 1st illumination light and 2nd illumination light, and 1st illumination light and 2nd illumination light in the 4th or 5th aspect. A reference signal correction unit that corrects the first reference signal and the second reference signal based on the spectral sensitivity of the reference signal acquisition pixel is further provided, and the brightness correction unit is corrected by the reference signal correction unit. Based on the reference signal and the second reference signal, at least one of the first luminance signal and the second luminance signal is corrected for each pixel or each imaging region. Even if the reference light (third illumination light) is emitted with the same light amount in the first and second light emission control, the reference signals (first and second image signals) due to the subsensitivity of the light receiving sensor of each pixel ( Since the values of the first and second reference signals are different, in the sixth aspect, the first and second references are based on the set light amounts of the first and second illumination lights and the spectral sensitivities of the reference signal acquisition pixels. The signal is corrected, and the luminance signal is corrected based on the corrected reference signal.

第7の態様に係る内視鏡システムは第2から第6の態様のいずれか1つにおいて、画像信号取得部が取得した第1の輝度信号が示す画像と第2の輝度信号が示す画像との位置合わせを行う位置合わせ部を更に備える。第7の態様によれば、画像の位置合わせを行うことにより輝度ムラを精度良く補正することができる。   An endoscope system according to a seventh aspect is the endoscope system according to any one of the second to sixth aspects, wherein an image indicated by the first luminance signal acquired by the image signal acquisition unit and an image indicated by the second luminance signal An alignment unit that performs the alignment is further provided. According to the seventh aspect, luminance unevenness can be corrected with high accuracy by aligning images.

第8の態様に係る内視鏡システムは第2から第7の態様のいずれか1つにおいて、輝度補正部による第1の輝度信号及び第2の輝度信号のうちの少なくとも一方の輝度信号の補正前に、第1の輝度信号と第2の輝度信号との平均輝度を合わせる補正を行う平均輝度補正部を更に備える。第8の態様は、輝度信号を局所的に(画素毎又は撮像領域毎に)補正する前に平均輝度を合わせることで、局所的な補正をより効果的に行えるようにしたものである。   The endoscope system according to an eighth aspect is the correction of at least one of the first luminance signal and the second luminance signal by the luminance correction unit according to any one of the second to seventh aspects. Before, it further includes an average luminance correction unit that performs correction to match the average luminance of the first luminance signal and the second luminance signal. In the eighth aspect, local correction can be performed more effectively by adjusting the average luminance before correcting the luminance signal locally (for each pixel or each imaging region).

第9の態様に係る内視鏡システムは第2から第8の態様のいずれか1つにおいて、輝度補正部は、第1の輝度信号及び第2の輝度信号のうちの一方の輝度信号に、第1の参照信号と第2の参照信号との比を乗算する。第9の態様は、輝度補正部での補正内容を具体的に規定するものである。   In the endoscope system according to the ninth aspect, in any one of the second to eighth aspects, the luminance correction unit outputs one luminance signal of the first luminance signal and the second luminance signal, Multiply the ratio between the first reference signal and the second reference signal. In the ninth aspect, the correction contents in the luminance correction unit are specifically defined.

第10の態様に係る内視鏡システムは第2から第9の態様のいずれか1つにおいて、第1の参照信号及び第2の参照信号の高周波成分を低減させる周波数処理部を更に備え、輝度補正部は、周波数処理部により処理された第1の参照信号及び第2の参照信号に基づいて第1の輝度信号及び第2の輝度信号のうちの少なくとも一方の輝度信号を画素毎又は撮像領域毎に補正する。第10の態様は、参照信号には各画素の受光センサの副感度により照明光による信号が含まれるため、参照信号の高周波成分(照明光による信号成分)を低減させる処理を行うことを規定したものである。   An endoscope system according to a tenth aspect according to any one of the second to ninth aspects further includes a frequency processing unit that reduces high-frequency components of the first reference signal and the second reference signal, and brightness The correction unit converts at least one of the first luminance signal and the second luminance signal based on the first reference signal and the second reference signal processed by the frequency processing unit for each pixel or imaging region. Correct every time. In the tenth aspect, since the reference signal includes a signal due to illumination light due to the subsensitivity of the light receiving sensor of each pixel, it is specified that processing for reducing a high-frequency component (signal component due to illumination light) of the reference signal is performed. Is.

第11の態様に係る内視鏡システムは第10の態様において、周波数処理部は、撮像部から被検体までの観察距離に基づいて第1の参照信号及び第2の参照信号の高周波成分を低減させる。第11の態様は参照信号の高周波成分低減の具体的な態様を規定するもので、受光センサの副感度の影響は観察距離(撮像部から被検体までの距離)に応じて定まることを考慮している。   The endoscope system according to an eleventh aspect is the tenth aspect, in which the frequency processing unit reduces high-frequency components of the first reference signal and the second reference signal based on the observation distance from the imaging unit to the subject. Let The eleventh aspect prescribes a specific aspect of reducing the high-frequency component of the reference signal. Considering that the influence of the sub-sensitivity of the light receiving sensor is determined according to the observation distance (distance from the imaging unit to the subject). ing.

第12の態様に係る内視鏡システムは第11の態様において、撮像部から被検体までの観察距離毎に目標とする目標周波数特性を保持する記憶部を備え、周波数処理部は、撮像部による撮像時の観察距離に基づいて記憶部から対応する目標周波数特性を取得し、第1の参照信号及び第2の参照信号の周波数特性を取得した目標周波数特性に調整する。第12の態様は参照信号の高周波成分低減のさらに具体的な態様を規定するもので、参照信号の周波数特性を観察距離に応じた目標周波数特性に調整する。   An endoscope system according to a twelfth aspect includes, in the eleventh aspect, a storage unit that holds target frequency characteristics targeted for each observation distance from the imaging unit to the subject, and the frequency processing unit is based on the imaging unit. Based on the observation distance at the time of imaging, the corresponding target frequency characteristic is acquired from the storage unit, and the frequency characteristics of the first reference signal and the second reference signal are adjusted to the acquired target frequency characteristic. The twelfth aspect defines a more specific aspect of reducing the high-frequency component of the reference signal, and adjusts the frequency characteristic of the reference signal to a target frequency characteristic corresponding to the observation distance.

第13の態様に係る内視鏡システムは第11又は第12の態様において、周波数処理部は、撮像部による撮像時の観察距離が近い程、第1の参照信号及び第2の参照信号から高周波成分を低減させる処理を強くする。第13の態様は参照信号の高周波成分低減のさらに具体的な態様を規定するもので、受光センサの副感度の影響は観察距離が近いほど大きいため、距離が近いほど低減処理を強くするようにしている。   The endoscope system according to a thirteenth aspect is the eleventh or twelfth aspect, in which the frequency processing unit has a higher frequency from the first reference signal and the second reference signal as the observation distance during imaging by the imaging unit is closer. Strengthen processing to reduce ingredients. The thirteenth mode prescribes a more specific mode of reducing the high-frequency component of the reference signal. Since the influence of the sub-sensitivity of the light receiving sensor is larger as the observation distance is closer, the reduction processing is strengthened as the distance is shorter. ing.

第14の態様に係る内視鏡システムは第2から第13の態様のいずれか1つにおいて、画像信号生成部は、輝度補正部により補正された第1の輝度信号と第2の輝度信号との差分信号を算出する差分算出部と、算出した差分信号から色差信号を生成する色差信号生成部と、第1の輝度信号及び第2の輝度信号のうちの一方の輝度信号と生成した色差信号とを有するカラー画像信号、又は第1の輝度信号及び第2の輝度信号のうちの一方の輝度信号と生成した色差信号を三原色の各画像信号に変換したカラー画像信号を生成するカラー画像生成部と、を有する。第14の態様は、画像信号生成部におけるカラー画像の生成を具体的に規定するものである。   In the endoscope system according to a fourteenth aspect, in any one of the second to thirteenth aspects, the image signal generation unit includes a first luminance signal and a second luminance signal corrected by the luminance correction unit. A difference calculation unit that calculates a difference signal of the color difference signal, a color difference signal generation unit that generates a color difference signal from the calculated difference signal, and one of the first luminance signal and the second luminance signal, and the generated color difference signal Or a color image generation unit for generating a color image signal obtained by converting one of the first luminance signal and the second luminance signal and the generated color difference signal into each of the three primary color image signals. And having. The fourteenth aspect specifically defines the generation of a color image in the image signal generation unit.

第15の態様に係る内視鏡システムは第2から第14の態様のいずれか1つにおいて、被検体の構造は血管であり、画像信号生成部は、血管を色により強調した画像信号を生成する。第15の態様によれば、被検体の構造としての血管を視覚により容易に観察することができる。   An endoscope system according to a fifteenth aspect is the endoscope system according to any one of the second to fourteenth aspects, wherein the structure of the subject is a blood vessel, and the image signal generation unit generates an image signal in which the blood vessel is emphasized by color To do. According to the fifteenth aspect, blood vessels as the structure of the subject can be easily observed visually.

本発明の第16の態様に係るプロセッサ装置は、第2から第15の態様のいずれか1つに係る内視鏡システムのプロセッサ装置であって、光源と、光源制御部と、画像信号取得部と、輝度補正部と、画像信号生成部と、を備える。第16の態様は撮像装置(内視鏡システムの撮像部、内視鏡装置等)により取得した画像信号を処理するプロセッサ装置を規定するもので、第2から第15の態様と同様に、被検体の構造を強調した画像信号を生成することにより被検体の構造を容易に観察することができる。   A processor device according to a sixteenth aspect of the present invention is a processor device for an endoscope system according to any one of the second to fifteenth aspects, and includes a light source, a light source control unit, and an image signal acquisition unit. And a luminance correction unit and an image signal generation unit. The sixteenth aspect defines a processor device that processes an image signal acquired by an image pickup apparatus (an image pickup unit of an endoscope system, an endoscope apparatus, etc.). As in the second to fifteenth aspects, By generating an image signal that emphasizes the structure of the specimen, the structure of the specimen can be easily observed.

上述した目的を達成するため、本発明の第17の態様に係る信号処理方法は、対物レンズと、三原色の各色に対応するカラーフィルタが配列された第1の画素、第2の画素及び第3の画素を有する撮像素子とを含む撮像部による被検体の撮像時に、それぞれ波長の異なる第1の波長、第2の波長及び第3の波長をピークとする第1の照明光、第2の照明光及び第3の照明光を発光する光源から、第1の照明光と第3の照明光とを同時に発光させる第1の発光制御と、第2の照明光と第3の照明光とを同時に発光させる第2の発光制御とを順次行うステップと、第1の発光制御が行われるときに、撮像素子の第1の画素、第2の画素及び第3の画素のうちの、第1の波長に最も分光感度の高い画素から第1の輝度信号を取得し、かつ撮像素子の第1の画素、第2の画素及び第3の画素のうちの第3の波長に感度を有する画素であって、少なくとも第1の波長に最も分光感度の高い画素とは異なる画素から第1の参照信号を取得し、第2の発光制御が行われるときに、撮像素子の第1の画素、第2の画素及び第3の画素のうちの、第2の波長に最も分光感度の高い画素から第2の輝度信号を取得し、かつ撮像素子の第1の画素、第2の画素及び第3の画素のうちの第3の波長に感度を有する画素であって、少なくとも第2の波長に最も分光感度の高い画素とは異なる画素から第2の参照信号を取得するステップと、を含む。第17の態様によれば、第1の態様と同様に被検体の構造を観察するための画像生成に必要な信号を容易に取得することができる。   In order to achieve the above-described object, a signal processing method according to a seventeenth aspect of the present invention includes a first pixel, a second pixel, and a third pixel in which an objective lens and color filters corresponding to the three primary colors are arranged. When the subject is imaged by the imaging unit including the imaging element having the first and second pixels, the first illumination light and the second illumination have a first wavelength, a second wavelength, and a third wavelength having different wavelengths, respectively. First light emission control for simultaneously emitting first illumination light and third illumination light from a light source that emits light and third illumination light, and second illumination light and third illumination light simultaneously. The step of sequentially performing the second light emission control to emit light, and the first wavelength of the first pixel, the second pixel, and the third pixel of the image sensor when the first light emission control is performed. The first luminance signal is acquired from the pixel having the highest spectral sensitivity, and the image sensor The first reference from a pixel that is sensitive to the third wavelength among the one pixel, the second pixel, and the third pixel and that is different from the pixel having the highest spectral sensitivity at least at the first wavelength When the signal is acquired and the second light emission control is performed, the first pixel, the second pixel, and the third pixel of the image sensor are changed from the pixel having the highest spectral sensitivity to the second wavelength. 2 having a luminance signal of 2 and having sensitivity to the third wavelength among the first pixel, the second pixel, and the third pixel of the image sensor, and most spectrally at least at the second wavelength. Obtaining a second reference signal from a pixel different from the highly sensitive pixel. According to the seventeenth aspect, a signal necessary for image generation for observing the structure of the subject can be easily obtained as in the first aspect.

第18の態様に係る信号処理方法は第17の態様において、第1の参照信号及び第2の参照信号に基づいて第1の輝度信号及び第2の輝度信号のうちの少なくとも一方の輝度信号を画素毎又は撮像領域毎に補正するステップと、補正された第1の輝度信号及び第2の輝度信号に基づいて被検体の構造を強調した画像信号を生成するステップと、をさらに備える。第18の態様によれば、第2の態様と同様に局所的な輝度ムラ(明るさの違い)が除去された画像を生成でき、被検体の構造を容易に観察することができる。   A signal processing method according to an eighteenth aspect is the signal processing method according to the seventeenth aspect, wherein at least one of the first luminance signal and the second luminance signal is obtained based on the first reference signal and the second reference signal. The method further includes a step of correcting for each pixel or each imaging region, and a step of generating an image signal in which the structure of the subject is emphasized based on the corrected first luminance signal and second luminance signal. According to the eighteenth aspect, similarly to the second aspect, an image from which local luminance unevenness (difference in brightness) is removed can be generated, and the structure of the subject can be easily observed.

第17,第18の態様に係る信号処理方法において、第3から第15の態様と同様の構成をさらに含めてもよい。また、これら態様の信号処理方法を内視鏡システムやプロセッサ装置に実現させるプログラム、及びそのようなプログラムのコンピュータ読み取り可能なコードを記録した非一時的記録媒体も、本発明の態様として挙げることができる。そのような非一時的記録媒体の例としてはROM(Read Only Memory)やEEPROM(Electronically Erasable and Programmable Read Only Memory)のような半導体記録媒体や、DVD(Digital Versatile Disk)及びハードディスク等の光磁気記録媒体を挙げることができるが、これらに限定されるものではない。   In the signal processing methods according to the seventeenth and eighteenth aspects, configurations similar to the third to fifteenth aspects may be further included. In addition, a program that causes an endoscope system or a processor device to implement the signal processing method of these aspects, and a non-transitory recording medium that records a computer-readable code of such a program can also be cited as aspects of the present invention. it can. Examples of such non-temporary recording media include semiconductor recording media such as ROM (Read Only Memory) and EEPROM (Electronically Erasable and Programmable Read Only Memory), and magneto-optical recording such as DVD (Digital Versatile Disk) and hard disks. Although a medium can be mentioned, it is not limited to these.

以上説明したように、本発明に係る内視鏡システム及び信号処理方法によれば、被検体の構造を観察するための画像生成に必要な信号を容易に取得することができる。また本発明に係るプロセッサ装置によれば、内視鏡システムで取得した信号により被検体の構造を観察するための画像を容易に生成することができる。   As described above, according to the endoscope system and the signal processing method according to the present invention, signals necessary for image generation for observing the structure of the subject can be easily acquired. Further, according to the processor device of the present invention, it is possible to easily generate an image for observing the structure of the subject based on a signal acquired by the endoscope system.

図1は第1実施形態に係る内視鏡システムを示す外観図である。FIG. 1 is an external view showing an endoscope system according to the first embodiment. 図2は内視鏡システムの概略構成を示すブロック図である。FIG. 2 is a block diagram showing a schematic configuration of the endoscope system. 図3は光源の分光スペクトルの例を示すグラフである。FIG. 3 is a graph showing an example of the spectrum of the light source. 図4は撮像センサに使用されているカラーフィルタの分光特性を示すグラフである。FIG. 4 is a graph showing the spectral characteristics of the color filter used in the image sensor. 図5は観察対象の散乱係数を示すグラフである。FIG. 5 is a graph showing the scattering coefficient of the observation target. 図6はヘモグロビンの吸収係数を示すグラフである。FIG. 6 is a graph showing the absorption coefficient of hemoglobin. 図7は参照光補正部の機能を示すブロック図である。FIG. 7 is a block diagram illustrating functions of the reference light correction unit. 図8は観察距離とローパスフィルタの強度との関係を示す概念図である。FIG. 8 is a conceptual diagram showing the relationship between the observation distance and the strength of the low-pass filter. 図9は特殊観察画像処理部の機能を示すブロック図である。FIG. 9 is a block diagram illustrating functions of the special observation image processing unit. 図10は血管の深さと血管のコントラストの関係を模式的に表すグラフである。FIG. 10 is a graph schematically showing the relationship between the blood vessel depth and the blood vessel contrast. 図11は特定深さの血管強調画像を生成する際の信号チャンネルの割り当ての例を模式的に示した説明図である。FIG. 11 is an explanatory diagram schematically showing an example of signal channel assignment when generating a blood vessel emphasized image of a specific depth. 図12は特殊観察モードにおける画像処理の手順を示すフローチャートである。FIG. 12 is a flowchart showing a procedure of image processing in the special observation mode. 図13は波長と分光感度との関係を示す図である。FIG. 13 is a diagram showing the relationship between wavelength and spectral sensitivity. 図14は中心波長405nmの第1狭帯域光を用いて撮像された撮像画像の例を示す図である。FIG. 14 is a diagram illustrating an example of a captured image captured using the first narrowband light having a center wavelength of 405 nm. 図15は中心波長445nmの第2狭帯域光を用いて撮像された撮像画像の例である。FIG. 15 is an example of a captured image captured using the second narrowband light having a center wavelength of 445 nm. 図16は図14に示した画像と図15に示した画像とから生成される血管強調画像の例を示す図である。FIG. 16 is a diagram showing an example of a blood vessel enhancement image generated from the image shown in FIG. 14 and the image shown in FIG. 図17は中心波長405nmの第1狭帯域光を用いて撮像された撮像画像の例を示す図である。FIG. 17 is a diagram illustrating an example of a captured image captured using the first narrowband light having a center wavelength of 405 nm. 図18は中心波長445nmの第2狭帯域光を用いて撮像された撮像画像の例である。FIG. 18 is an example of a captured image captured using the second narrowband light having a center wavelength of 445 nm. 図19は図17に示した画像と図18に示した画像とから生成される血管強調画像の例を示す図である。19 is a diagram showing an example of a blood vessel enhancement image generated from the image shown in FIG. 17 and the image shown in FIG.

以下、添付図面を参照して本発明に係る内視鏡システム、プロセッサ装置、及び信号処理方法の実施形態について説明する。   Hereinafter, embodiments of an endoscope system, a processor device, and a signal processing method according to the present invention will be described with reference to the accompanying drawings.

[第1実施形態]
図1は第1実施形態に係る内視鏡システム10(内視鏡システム)を示す外観図である。図2は内視鏡システム10の機能を示すブロック図である。図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14(光源、光源制御部、プロセッサ装置)と、プロセッサ装置16(プロセッサ装置)と、モニタ18と、コンソール19とを有する。内視鏡12は、光源装置14と光学的に接続され、かつプロセッサ装置16と電気的に接続される。
[First Embodiment]
FIG. 1 is an external view showing an endoscope system 10 (endoscope system) according to the first embodiment. FIG. 2 is a block diagram showing functions of the endoscope system 10. As shown in FIG. 1, an endoscope system 10 includes an endoscope 12, a light source device 14 (light source, light source control unit, processor device), a processor device 16 (processor device), a monitor 18, and a console 19. And have. The endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.

内視鏡12は、被検体内に挿入される挿入部12aと、挿入部12aの基端部分に設けられた操作部12bと、挿入部12aの先端側に設けられた湾曲部12c及び先端部12dを有している。操作部12bのアングルノブ12eを操作することにより、湾曲部12cは湾曲動作する。この湾曲動作によって先端部12dが所望の方向に向けられる。   The endoscope 12 includes an insertion portion 12a to be inserted into a subject, an operation portion 12b provided at a proximal end portion of the insertion portion 12a, a bending portion 12c and a distal end portion provided at the distal end side of the insertion portion 12a. 12d. By operating the angle knob 12e of the operation unit 12b, the bending unit 12c performs a bending operation. By this bending operation, the distal end portion 12d is directed in a desired direction.

操作部12bには、アングルノブ12eの他、モード切替スイッチ13a及びズーム操作部13bが設けられている。また、操作部12bには静止画像取得指示部13cが設けられている(図2参照)。   In addition to the angle knob 12e, the operation unit 12b is provided with a mode switch 13a and a zoom operation unit 13b. The operation unit 12b is provided with a still image acquisition instruction unit 13c (see FIG. 2).

モード切替スイッチ13aは、観察モードの切り替え操作に用いられる。内視鏡システム10は、観察モードとして通常観察モードと特殊観察モードとを有している。通常観察モードは、照明光に白色光を用いて観察対象を撮像して得られる画像をモニタ18に表示するモードである。通常観察モードで観察対象を撮像して得られる画像を「通常観察画像」という。通常観察モードは「白色光観察モード」と言い換えることができる。通常観察画像は「白色光観察画像」と言い換えることができる。照明光は「観察光」と言い換えることができる。   The mode switch 13a is used for the operation of switching the observation mode. The endoscope system 10 has a normal observation mode and a special observation mode as observation modes. The normal observation mode is a mode in which an image obtained by imaging an observation target using white light as illumination light is displayed on the monitor 18. An image obtained by imaging an observation target in the normal observation mode is referred to as a “normal observation image”. The normal observation mode can be rephrased as “white light observation mode”. The normal observation image can be rephrased as a “white light observation image”. The illumination light can be rephrased as “observation light”.

特殊観察モードは、特定の波長帯域の狭帯域光を照明光として観察対象を撮像して得られる画像信号を用いて、観察対象の特定深さ領域に在る血管を強調した可視化画像を生成し、血管の観察に適した画像をモニタ18に表示するモードである。特殊観察モードで得られる画像を「特殊観察画像」という。特殊観察モードは「狭帯域観察モード」と言い換えることができる。特殊観察画像は「血管強調画像」又は「狭帯域観察画像」と言い換えることができる。本例の内視鏡12は、使用する狭帯域光の波長帯域の種類又はその組み合わせが異なる複数種類の特殊観察モードを有している。   The special observation mode generates a visualized image that emphasizes blood vessels in a specific depth region of the observation target using an image signal obtained by imaging the observation target using narrowband light of a specific wavelength band as illumination light. In this mode, an image suitable for blood vessel observation is displayed on the monitor 18. An image obtained in the special observation mode is referred to as a “special observation image”. The special observation mode can be rephrased as a “narrow band observation mode”. The special observation image can be rephrased as a “blood vessel enhancement image” or a “narrow band observation image”. The endoscope 12 of this example has a plurality of types of special observation modes in which the types of wavelength bands of narrowband light to be used or combinations thereof are different.

プロセッサ装置16は、モニタ18及びコンソール19と電気的に接続される。モニタ18は、観察対象の画像や観察対象の画像に付帯する情報等を出力表示する表示デバイスである。コンソール19は、内視鏡システム10の機能設定や各種指示等の入力操作を受け付けるユーザインターフェースとして機能する。プロセッサ装置16には、図示せぬ外部記憶装置が接続されていてもよい。外部記憶装置には、観察対象の画像及び画像に付帯する情報等を記録することができる。図2に示したストレージ70は外部記憶装置の一例であり、外付けの記録部として機能する。   The processor device 16 is electrically connected to the monitor 18 and the console 19. The monitor 18 is a display device that outputs and displays an image to be observed, information attached to the image to be observed, and the like. The console 19 functions as a user interface that receives input operations such as function settings of the endoscope system 10 and various instructions. An external storage device (not shown) may be connected to the processor device 16. The external storage device can record an image to be observed and information attached to the image. The storage 70 shown in FIG. 2 is an example of an external storage device, and functions as an external recording unit.

図2に示すように、光源装置14は、光源20(光源)と、光源20を制御する光源制御部22(光源制御部)と、を備えている。光源20は、例えば、複数色のLED(Light Emitting Diode)等の半導体光源、レーザーダイオードと蛍光体の組み合わせ、若しくはキセノンランプ等のハロゲン光源、又はこれらの適宜の組み合わせによって構成される。また、光源20には、LED等の発光源が発光した光の波長帯域を調整するための図示されない光学フィルタ等が含まれる。   As shown in FIG. 2, the light source device 14 includes a light source 20 (light source) and a light source control unit 22 (light source control unit) that controls the light source 20. The light source 20 includes, for example, a semiconductor light source such as a multi-color LED (Light Emitting Diode), a combination of a laser diode and a phosphor, a halogen light source such as a xenon lamp, or an appropriate combination thereof. The light source 20 includes an optical filter (not shown) for adjusting the wavelength band of light emitted from a light source such as an LED.

本実施形態の光源20は、V−LED(Violet Light Emitting Diode)23a、B−LED(Blue Light Emitting Diode)23b、G−LED(Green Light Emitting Diode)23c及びR−LED(Red Light Emitting Diode)23dの四色のLEDを有する。   The light source 20 of this embodiment includes a V-LED (Violet Light Emitting Diode) 23a, a B-LED (Blue Light Emitting Diode) 23b, a G-LED (Green Light Emitting Diode) 23c, and an R-LED (Red Light Emitting Diode). 23d four-color LED.

図3は光源20の分光スペクトルの例を示すグラフである。V−LED23aは、中心波長が400nm±10nm程度である波長帯域380nm〜420nmの紫色光Vを発光する紫色半導体光源である。B−LED23bは、中心波長が450nm±10nm程度である波長帯域420nm〜500nmの青色光Bを発する青色半導体光源である。G−LED23cは、中心波長が550nm±20nm程度であり、波長帯域が480nm〜620nmに及ぶ緑色光Gを発する緑色半導体光源である。R−LED23dは、中心波長が610nm±10nm程度であり、波長帯域が580nm〜650nmに及ぶ赤色光Rを発光する赤色半導体光源である。中心波長という用語は分光強度が極大になるピーク波長と読み替えてもよい。なお、図3において、G−LED23cとR−LED23dの光強度の和を点線(参照符号G+R)で示す。   FIG. 3 is a graph showing an example of the spectrum of the light source 20. The V-LED 23a is a violet semiconductor light source that emits violet light V in a wavelength band of 380 nm to 420 nm having a center wavelength of about 400 nm ± 10 nm. The B-LED 23b is a blue semiconductor light source that emits blue light B having a center wavelength of about 450 nm ± 10 nm and a wavelength band of 420 nm to 500 nm. The G-LED 23c is a green semiconductor light source that emits green light G having a center wavelength of about 550 nm ± 20 nm and a wavelength band ranging from 480 nm to 620 nm. The R-LED 23d is a red semiconductor light source that emits red light R having a center wavelength of about 610 nm ± 10 nm and a wavelength band ranging from 580 nm to 650 nm. The term center wavelength may be read as the peak wavelength at which the spectral intensity is maximized. In FIG. 3, the sum of the light intensities of the G-LED 23c and the R-LED 23d is indicated by a dotted line (reference symbol G + R).

光源制御部22は、LED等の発光源の点灯(オン)及び消灯(オフ)やLED等の駆動電流や駆動電圧の調整によって照明光の光量を制御する。また、光源制御部22は、光学フィルタの変更等によって照明光の波長帯域を制御する。光源制御部22は、光源20の各LEDに対して個別に制御信号を入力することにより、各LEDの点灯や消灯並びに点灯時の発光光量を各々独立に制御することができる。光源20は、光源制御部22の制御によって、観察対象に照射する複数種類の照明光を発生する。   The light source control unit 22 controls the amount of illumination light by turning on (turning on) and turning off (off) a light source such as an LED and adjusting a drive current and a drive voltage of the LED. The light source control unit 22 controls the wavelength band of the illumination light by changing the optical filter or the like. The light source control unit 22 can individually control the lighting and extinction of each LED and the amount of emitted light at the time of lighting by individually inputting a control signal to each LED of the light source 20. The light source 20 generates a plurality of types of illumination light that irradiates the observation target under the control of the light source control unit 22.

本例の光源20は、紫色波長帯域(約350nm〜400nmの波長帯域)に中心波長を有する紫色狭帯域光、青色波長帯域(約400nm〜500nmの波長帯域)に中心波長を有する青色狭帯域光、緑色波長帯域(約480nm〜620nmの波長帯域)に中心波長を有する緑色狭帯域光、及び赤色波長帯域(約580nm〜650nmの波長帯域)に中心波長を有する赤色狭帯域光など、複数種類の狭帯域光を発生することができる。   The light source 20 of this example includes a purple narrowband light having a center wavelength in the purple wavelength band (wavelength band of about 350 nm to 400 nm) and a blue narrowband light having a center wavelength in the blue wavelength band (wavelength band of about 400 nm to 500 nm). , Green narrowband light having a center wavelength in the green wavelength band (wavelength band of about 480 nm to 620 nm), and red narrowband light having a center wavelength in the red wavelength band (wavelength band of about 580 nm to 650 nm) Narrow band light can be generated.

より具体的な例として、光源20は、中心波長405nmの紫色狭帯域光、中心波長445nmの青色狭帯域光、中心波長530nmの緑色狭帯域光、及び中心波長610nmの赤色狭帯域光などの狭帯域光を発生させることができる。また光源20は、中心波長470nmの青色狭帯域光を発生させることが可能であり、中心波長が異なる2種類以上の青色狭帯域光を発生させることもできる。紫色狭帯域光、緑色狭帯域光、及び赤色狭帯域光の各々についても中心波長が異なる2種類以上の狭帯域光を発生させることができる。各狭帯域光の中心波長及び波長帯域は発光させるLEDの選択及び図示せぬ光学フィルタの変更によって指定することができる。   As a more specific example, the light source 20 is a narrow band light such as a purple narrowband light having a center wavelength of 405 nm, a blue narrowband light having a center wavelength of 445 nm, a green narrowband light having a center wavelength of 530 nm, and a red narrowband light having a center wavelength of 610 nm. Band light can be generated. The light source 20 can generate blue narrowband light having a center wavelength of 470 nm, and can also generate two or more types of blue narrowband light having different center wavelengths. Two or more types of narrowband light having different center wavelengths can be generated for each of the purple narrowband light, the green narrowband light, and the red narrowband light. The center wavelength and wavelength band of each narrow band light can be designated by selecting the LED to emit light and changing an optical filter (not shown).

本開示において、光源20が発生する中心波長405nmの紫色狭帯域光を「紫色光V」と表記する場合がある。また、中心波長445nmの青色狭帯域光を「青色光B」、中心波長530nmの緑色狭帯域光を「緑色光G」、中心波長610nmの赤色狭帯域光を「赤色光R」と表記する場合がある。   In the present disclosure, purple narrow band light having a central wavelength of 405 nm generated by the light source 20 may be referred to as “purple light V”. Also, blue narrowband light with a center wavelength of 445 nm is denoted as “blue light B”, green narrowband light with a center wavelength of 530 nm is denoted as “green light G”, and red narrowband light with a center wavelength of 610 nm is denoted as “red light R”. There is.

特殊観察モードが選択された場合、光源20は複数種類の狭帯域光のうち、中心波長が互いに異なる少なくとも2種類以上の狭帯域光を発生し、各々の狭帯域光が照射された観察対象を撮像センサ48によって撮像する。したがって、特殊観察モードでは、狭帯域光の種類に対応した複数種類の内視鏡画像が得られる。本実施形態では、特殊観察モードの場合に、光源20は、中心波長が互いに異なる第1狭帯域光と第2狭帯域光の2種類の狭帯域光を交互に発生し得る。これら2種類の狭帯域光のうち第1狭帯域光は相対的に短波長側の狭帯域光であり、第2狭帯域光は相対的に長波長側の狭帯域光であるとする。つまり、第2狭帯域光の中心波長は第1狭帯域光の中心波長よりも長波長である。例えば、第1狭帯域光は中心波長が405nmの紫色狭帯域光であり、第2狭帯域光は中心波長が445nm程度の青色狭帯域光である。   When the special observation mode is selected, the light source 20 generates at least two types of narrowband light having different center wavelengths from among a plurality of types of narrowband light, and the observation target irradiated with each narrowband light is selected. Imaging is performed by the imaging sensor 48. Therefore, in the special observation mode, a plurality of types of endoscopic images corresponding to the types of narrowband light can be obtained. In the present embodiment, in the special observation mode, the light source 20 can alternately generate two types of narrowband light of first narrowband light and second narrowband light having different center wavelengths. Of these two types of narrowband light, the first narrowband light is a relatively narrow wavelength side narrowband light, and the second narrowband light is a relatively long wavelength side narrowband light. That is, the center wavelength of the second narrowband light is longer than the center wavelength of the first narrowband light. For example, the first narrowband light is violet narrowband light having a center wavelength of 405 nm, and the second narrowband light is blue narrowband light having a center wavelength of about 445 nm.

本実施形態では、中心波長が短い順に第1狭帯域光及び第2狭帯域光の2種類の狭帯域光を例示し、これらの狭帯域光を選択的に切り替えて特殊観察画像を生成する形態を説明する。なお、発明の実施に際して、狭帯域光の種類はこの例に限らず、更に多数種の狭帯域光を使用する形態も可能である。   In the present embodiment, two types of narrowband light, the first narrowband light and the second narrowband light, are illustrated in the order of shorter center wavelength, and a special observation image is generated by selectively switching these narrowband lights. Will be explained. In the implementation of the invention, the type of narrowband light is not limited to this example, and a mode in which many types of narrowband light are used is also possible.

また光源20は、白色光を発生することができる。通常観察モードの場合、光源制御部22は、V−LED23a、B−LED23b、G−LED23c、及びR−LED23dを全て点灯させる。このため、通常観察モードでは、紫色光V、青色光B、緑色光G、及び赤色光Rを含む広い波長帯域の白色光が照明光として用いられる。光源装置14は「光源部」の一形態に相当する。   The light source 20 can generate white light. In the normal observation mode, the light source control unit 22 turns on all the V-LEDs 23a, B-LEDs 23b, G-LEDs 23c, and R-LEDs 23d. For this reason, in the normal observation mode, white light in a wide wavelength band including violet light V, blue light B, green light G, and red light R is used as illumination light. The light source device 14 corresponds to one form of a “light source unit”.

光源20が発した照明光は、図示されないミラーやレンズ等で形成される光路結合部を介してライトガイド41に入射される。ライトガイド41は内視鏡12及びユニバーサルコードに内蔵されている。ユニバーサルコードは、内視鏡12と、光源装置14及びプロセッサ装置16を接続するコードである。ライトガイド41は、挿入部12a内に挿通されており、光源20が発生した照明光を内視鏡12の先端部12dまで伝搬する。   Illumination light emitted from the light source 20 is incident on the light guide 41 through an optical path coupling unit formed by a mirror, a lens, or the like (not shown). The light guide 41 is built in the endoscope 12 and the universal cord. The universal cord is a cord that connects the endoscope 12 to the light source device 14 and the processor device 16. The light guide 41 is inserted into the insertion portion 12 a and propagates the illumination light generated by the light source 20 to the distal end portion 12 d of the endoscope 12.

内視鏡12の先端部12dには、照明光学系30aと撮像光学系30b(撮像部)が設けられている。照明光学系30aは照明レンズ45を有している。ライトガイド41によって伝搬された照明光は照明レンズ45を介して観察対象に照射される。撮像光学系30bは、対物レンズ46、ズームレンズ47及び撮像センサ48(撮像素子)を有している。照明光を照射したことによる観察対象からの反射光、散乱光及び蛍光等の各種の光は、対物レンズ46及びズームレンズ47を介して撮像センサ48に入射する。これにより、撮像センサ48に観察対象の像が結像される。ズームレンズ47は、ズーム操作部13bの操作に応じてズーム範囲の望遠端と広角端との間で自在に移動され、撮像センサ48に結像する観察対象の像を拡大又は縮小する。   The distal end portion 12d of the endoscope 12 is provided with an illumination optical system 30a and an imaging optical system 30b (imaging unit). The illumination optical system 30 a has an illumination lens 45. The illumination light propagated by the light guide 41 is irradiated to the observation object through the illumination lens 45. The imaging optical system 30b includes an objective lens 46, a zoom lens 47, and an imaging sensor 48 (imaging device). Various types of light such as reflected light, scattered light, and fluorescence from the observation target due to the irradiation of the illumination light enter the image sensor 48 via the objective lens 46 and the zoom lens 47. As a result, an image to be observed is formed on the image sensor 48. The zoom lens 47 is freely moved between the telephoto end and the wide-angle end of the zoom range according to the operation of the zoom operation unit 13b, and enlarges or reduces the image of the observation target formed on the image sensor 48.

撮像センサ48は、画素毎にR(赤色)、G(緑色)、又はB(青色)のカラーフィルタ(三原色の各色)のいずれかが配列されたカラー撮像センサである。撮像センサ48は、観察対象を撮像してRGB各色チャンネルの画像信号を出力する。撮像センサ48としては、CCD(Charge Coupled Device)撮像センサやCMOS(Complementary Metal Oxide Semiconductor)撮像センサを利用可能である。また、原色のカラーフィルタが設けられた撮像センサ48の代わりに、C(シアン)、M(マゼンタ)、Y(イエロー)及びG(緑)の補色フィルタを備えた補色撮像センサを用いてもよい。補色撮像センサを用いる場合には、CMYGの四色の画像信号が出力される。このため、補色−原色色変換によって、CMYGの四色の画像信号をRGBの三色の画像信号に変換することにより、撮像センサ48と同様のRGB画像信号を得ることができる。また、撮像センサ48の代わりに、カラーフィルタを設けていないモノクロセンサを用いてもよい。   The imaging sensor 48 is a color imaging sensor in which one of R (red), G (green), and B (blue) color filters (each of the three primary colors) is arranged for each pixel. The imaging sensor 48 images an observation target and outputs image signals of RGB color channels. As the image sensor 48, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor can be used. Further, instead of the image sensor 48 provided with the primary color filter, a complementary color image sensor having complementary color filters of C (cyan), M (magenta), Y (yellow), and G (green) may be used. . When the complementary color imaging sensor is used, four color image signals of CMYG are output. Therefore, RGB image signals similar to those of the image sensor 48 can be obtained by converting the CMYG four-color image signals into the RGB three-color image signals by complementary color-primary color conversion. In place of the image sensor 48, a monochrome sensor without a color filter may be used.

図4は撮像センサ48に使用されているカラーフィルタの分光特性を示すグラフである。横軸は波長を表し、縦軸は透過率を表す。図4においてB−CFはBカラーフィルタ、G−CFはGカラーフィルタ、R−CFはRカラーフィルタのそれぞれの分光特性を示している。紫色から青色の波長帯域の光は、撮像センサ48においてBカラーフィルタが設けられたB画素(第1の画素)で受光される。緑色の波長帯域の光は撮像センサ48においてGカラーフィルタが設けられたG画素(第2の画素)で受光される。赤色の波長帯域の光は撮像センサ48においてRカラーフィルタが設けられたR画素(第3の画素)で受光される。撮像センサ48のRGB各色の画素から受光光量に応じた信号が出力される。   FIG. 4 is a graph showing the spectral characteristics of the color filter used in the image sensor 48. The horizontal axis represents wavelength and the vertical axis represents transmittance. In FIG. 4, B-CF represents the spectral characteristics of the B color filter, G-CF represents the G color filter, and R-CF represents the spectral characteristics of the R color filter. Light in the purple to blue wavelength band is received by the B pixel (first pixel) provided with the B color filter in the image sensor 48. Light in the green wavelength band is received by the G pixel (second pixel) provided with the G color filter in the image sensor 48. Light in the red wavelength band is received by the R pixel (third pixel) provided with the R color filter in the image sensor 48. A signal corresponding to the amount of received light is output from the RGB color pixels of the image sensor 48.

例えば、特殊観察モードにおいて、紫色の波長帯域である第1狭帯域光が照明光(第1の照明光)として用いられた場合、撮像センサ48は、第1狭帯域光が照射された観察対象を撮像し、第1狭帯域光に対応する第1の画像信号をB画素から出力する。また、特殊観察モードにおいて、青色の波長帯域である第2狭帯域光が照明光(第2の照明光)として用いられた場合、撮像センサ48は、第2狭帯域光に対応する第2の画像信号をB画素から出力する。   For example, in the special observation mode, when the first narrowband light that is a purple wavelength band is used as illumination light (first illumination light), the imaging sensor 48 observes the observation target irradiated with the first narrowband light. And a first image signal corresponding to the first narrowband light is output from the B pixel. In the special observation mode, when the second narrowband light that is the blue wavelength band is used as illumination light (second illumination light), the imaging sensor 48 uses the second narrowband light corresponding to the second narrowband light. An image signal is output from the B pixel.

内視鏡12は、AFE(Analog Front End)回路51とAD(Analog to Digital)コンバータ52を備える。撮像センサ48が出力する画像信号はAFE回路51に入力される。AFE回路51は、相関二重サンプリング(CDS;Correlated Double Sampling)回路及び自動利得制御(AGC;Automatic Gain Control)回路を含む。AFE回路51は、撮像センサ48から得られるアナログの画像信号に相関二重サンプリングや自動利得制御を行う。AFE回路51を経た画像信号は、ADコンバータ52によりデジタル画像信号に変換される。AD(Analog to Digital)変換後のデジタル画像信号はプロセッサ装置16に入力される。なお、AFE回路51にADコンバータ52を搭載する形態も可能である。   The endoscope 12 includes an AFE (Analog Front End) circuit 51 and an AD (Analog to Digital) converter 52. An image signal output from the image sensor 48 is input to the AFE circuit 51. The AFE circuit 51 includes a correlated double sampling (CDS) circuit and an automatic gain control (AGC) circuit. The AFE circuit 51 performs correlated double sampling and automatic gain control on the analog image signal obtained from the image sensor 48. The image signal that has passed through the AFE circuit 51 is converted into a digital image signal by the AD converter 52. The digital image signal after AD (Analog to Digital) conversion is input to the processor device 16. A configuration in which the AD converter 52 is mounted on the AFE circuit 51 is also possible.

プロセッサ装置16は、画像信号取得部53(画像信号取得部)と、DSP(Digital Signal Processor)56と、ノイズ低減部58と、メモリ59と、信号処理部60と、映像信号生成部68と、を備えている。   The processor device 16 includes an image signal acquisition unit 53 (image signal acquisition unit), a DSP (Digital Signal Processor) 56, a noise reduction unit 58, a memory 59, a signal processing unit 60, a video signal generation unit 68, It has.

画像信号取得部53は、内視鏡12からデジタル画像信号を取得する。DSP56は、画像信号取得部53を介して取得した画像信号に対して、欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、デモザイク処理等の各種信号処理を施す。欠陥補正処理では、撮像センサ48の欠陥画素の信号が補正される。オフセット処理では、欠陥補正処理が施された画像信号から暗電流成分が除かれ、正確な零レベルが設定される。ゲイン補正処理では、オフセット処理後の画像信号に特定のゲインを乗じることにより信号レベルが整えられる。   The image signal acquisition unit 53 acquires a digital image signal from the endoscope 12. The DSP 56 performs various signal processing such as defect correction processing, offset processing, gain correction processing, linear matrix processing, gamma conversion processing, and demosaicing processing on the image signal acquired via the image signal acquisition unit 53. In the defect correction process, the signal of the defective pixel of the image sensor 48 is corrected. In the offset process, the dark current component is removed from the image signal subjected to the defect correction process, and an accurate zero level is set. In the gain correction process, the signal level is adjusted by multiplying the image signal after the offset process by a specific gain.

ゲイン補正処理後の画像信号には、色再現性を高めるためのリニアマトリクス処理が施される。その後、ガンマ変換処理によって明るさや彩度が整えられる。ガンマ変換処理後の画像信号には、デモザイク処理が施され、各画素で不足した色の信号が補間によって生成される。デモザイク処理は、等方化処理又は同時化処理とも呼ばれる。デモザイク処理によって、全画素がRGB各色の信号を有するようになる。   The image signal after gain correction processing is subjected to linear matrix processing for improving color reproducibility. After that, brightness and saturation are adjusted by gamma conversion processing. The demosaic process is performed on the image signal after the gamma conversion process, and a signal of a color that is insufficient at each pixel is generated by interpolation. The demosaic process is also called an isotropic process or a synchronization process. Through the demosaic processing, all pixels have signals of RGB colors.

ノイズ低減部58は、DSP56でデモザイク処理等が施された画像信号に対してノイズ低減処理を施すことによってノイズを低減する。ノイズ低減処理として、例えば移動平均法やメディアンフィルタ法等による処理を採用することができる。ノイズ低減部58によりノイズを低減した画像信号は、メモリ59に記憶される。   The noise reduction unit 58 reduces noise by performing noise reduction processing on the image signal that has been demosaiced by the DSP 56. As the noise reduction process, for example, a process using a moving average method, a median filter method, or the like can be employed. The image signal whose noise has been reduced by the noise reduction unit 58 is stored in the memory 59.

信号処理部60はノイズ低減後の画像信号をメモリ59から取得する。信号処理部60は、取得した画像信号に対して、必要に応じて、色変換処理、色彩強調処理、及び構造強調処理等の信号処理を施し、観察対象が写ったカラーの内視鏡画像を生成する。色変換処理は、画像信号に対して3×3のマトリックス処理、階調変換処理、及び3次元ルックアップテーブル処理などにより色の変換を行う処理である。色彩強調処理は、色変換処理済みの画像信号に対して行う。構造強調処理は、例えば血管やピットパターン等の観察対象に含まれる特定の組織や構造を強調する処理であり、色彩強調処理後の画像信号に対して行う。また信号処理部60は、取得した画像信号及びズーム倍率等の撮像条件に基づいて、撮像光学系30bから被検体までの距離(観察距離)を算出する。   The signal processing unit 60 acquires the image signal after noise reduction from the memory 59. The signal processing unit 60 performs signal processing such as color conversion processing, color enhancement processing, and structure enhancement processing on the acquired image signal as necessary, and obtains a color endoscope image in which an observation target is captured. Generate. The color conversion process is a process of performing color conversion on an image signal by 3 × 3 matrix processing, gradation conversion processing, three-dimensional lookup table processing, and the like. The color enhancement process is performed on the image signal that has been subjected to the color conversion process. The structure enhancement process is a process for enhancing a specific tissue or structure included in an observation target such as a blood vessel or a pit pattern, and is performed on the image signal after the color enhancement process. Further, the signal processing unit 60 calculates a distance (observation distance) from the imaging optical system 30b to the subject based on the acquired image signal and imaging conditions such as a zoom magnification.

信号処理部60における処理の内容は、観察モードによって異なる。観察モードが通常観察モードの場合、信号処理部60は、観察対象が自然な色合いになる信号処理を施して通常観察画像を生成する。観察モードが特殊観察モードの場合、信号処理部60は、少なくとも観察対象の血管を強調する信号処理を施して特殊観察画像を生成する。   The contents of processing in the signal processing unit 60 differ depending on the observation mode. When the observation mode is the normal observation mode, the signal processing unit 60 generates a normal observation image by performing signal processing in which the observation target has a natural color. When the observation mode is the special observation mode, the signal processing unit 60 generates a special observation image by performing signal processing that emphasizes at least the blood vessel to be observed.

信号処理部60は、画像処理切替部61と、通常観察画像処理部66と、特殊観察画像処理部67(画像信号生成部)と、位置合わせ処理部62(位置合わせ部)と、明るさ補正処理部63(平均輝度補正部)とを含み、通常観察モード及び特殊観察モードのそれぞれのモードに対応した信号処理を行う。   The signal processing unit 60 includes an image processing switching unit 61, a normal observation image processing unit 66, a special observation image processing unit 67 (image signal generation unit), a registration processing unit 62 (positioning unit), and brightness correction. Including a processing unit 63 (average luminance correction unit), and performs signal processing corresponding to each of the normal observation mode and the special observation mode.

画像処理切替部61は、モード切替スイッチ13aによる観察モードの設定に応じて、通常観察画像の生成処理又は特殊観察画像の生成処理の実施を切り替える。モード切替スイッチ13aの操作によって通常観察モードにセットされている場合、画像処理切替部61は、メモリ59から受信した画像信号を通常観察画像処理部66に送信する。モード切替スイッチ13aの操作によって特殊観察モードにセットされている場合、画像処理切替部61は、メモリ59から受信した画像信号を位置合わせ処理部62、明るさ補正処理部63、参照光補正部64、及び特殊観察画像処理部67に送信する。   The image processing switching unit 61 switches execution of normal observation image generation processing or special observation image generation processing according to the setting of the observation mode by the mode switch 13a. When the normal observation mode is set by operating the mode switch 13 a, the image processing switching unit 61 transmits the image signal received from the memory 59 to the normal observation image processing unit 66. When the special observation mode is set by operating the mode switch 13a, the image processing switching unit 61 receives the image signal received from the memory 59, the alignment processing unit 62, the brightness correction processing unit 63, and the reference light correction unit 64. , And the special observation image processing unit 67.

通常観察画像処理部66は、通常観察モードに設定されている場合に作動する。通常観察画像処理部66は白色光を観察対象に照射して撮像された画像信号に対して色変換処理、色彩強調処理及び構造強調処理を行い、通常観察画像信号を生成する。通常観察画像信号を用いたカラー画像が通常観察画像である。   The normal observation image processing unit 66 operates when the normal observation mode is set. The normal observation image processing unit 66 performs color conversion processing, color enhancement processing, and structure enhancement processing on the image signal captured by irradiating the observation target with white light, and generates a normal observation image signal. A color image using the normal observation image signal is a normal observation image.

特殊観察画像処理部67は、特殊観察モードに設定されている場合に作動する画像処理部である。特殊観察画像処理部67は、波長帯域が異なる二種類の狭帯域光(第1,第2狭帯域光)のうちの相対的に短波長側である第1狭帯域光と、第1狭帯域光より長波長側の狭帯域光である第3狭帯域光(参照光)と、を観察対象に照射して得られる第1の画像信号(第1の輝度信号及び第1の参照信号)と、相対的に長波長側である第2狭帯域光と、第2狭帯域光より長波長側の狭帯域光である第3狭帯域光(参照光)と、を観察対象に照射して得られる第2の画像信号(第2の輝度信号及び第2の参照信号)とを用いて特定深さの血管を抽出し、抽出した血管を他の血管に対して色の違いによって表す特殊観察画像を生成する。   The special observation image processing unit 67 is an image processing unit that operates when the special observation mode is set. The special observation image processing unit 67 includes a first narrowband light and a first narrowband light, which are relatively short wavelengths, of two types of narrowband light (first and second narrowband lights) having different wavelength bands. A first image signal (first luminance signal and first reference signal) obtained by irradiating an observation target with third narrowband light (reference light) which is narrowband light on the longer wavelength side than the light; Obtained by irradiating the observation target with the second narrowband light having a relatively long wavelength side and the third narrowband light (reference light) being a narrowband light having a longer wavelength side than the second narrowband light. A special observation image in which a blood vessel having a specific depth is extracted using the second image signal (second luminance signal and second reference signal) and the extracted blood vessel is represented by a color difference with respect to other blood vessels. Is generated.

なお、ここでは波長帯域が異なる二種類の狭帯域光として中心波長405nmの紫色狭帯域光である第1狭帯域光と、中心波長445nmの青色狭帯域光である第2狭帯域光とを用いる場合を例に説明する。参照光としては、後述するように中心波長600nmの狭帯域光を用いる場合について説明する。   Here, as the two types of narrowband light having different wavelength bands, a first narrowband light that is a purple narrowband light having a center wavelength of 405 nm and a second narrowband light that is a blue narrowband light having a center wavelength of 445 nm are used. A case will be described as an example. As reference light, a case where narrowband light having a center wavelength of 600 nm is used will be described as will be described later.

第1の画像信号と第2の画像信号は、位置合わせ処理部62及び明るさ補正処理部63を介して特殊観察画像処理部67に入力される。位置合わせ処理部62は、上述した狭帯域光の照射を順次行って取得された第1の画像信号が表す観察対象と第2の画像信号が表す観察対象との位置合わせを行う。位置合わせ処理部62の位置合わせ処理により、第1の画像信号と第2の画像信号の画像間の相対的な位置の対応付けが行われ、第1の画像信号と第2の画像信号のそれぞれから同じ画像範囲を取り出すことができる。位置合わせ処理部62は、第1の画像信号又は第2の画像信号のいずれか一方のみについて画像位置の補正を実施してもよいし、両方の画像信号について画像位置の補正を実施してもよい。本例では、第1の画像信号を基準にして第2の画像信号を第1の画像信号の位置に合わせる処理を行う。   The first image signal and the second image signal are input to the special observation image processing unit 67 via the alignment processing unit 62 and the brightness correction processing unit 63. The alignment processing unit 62 aligns the observation target represented by the first image signal and the observation target represented by the second image signal obtained by sequentially performing the irradiation of the narrowband light described above. By the alignment process of the alignment processing unit 62, the relative positions of the first image signal and the second image signal are associated with each other, and each of the first image signal and the second image signal is associated with each other. The same image range can be taken out from. The alignment processing unit 62 may perform image position correction for only one of the first image signal and the second image signal, or may perform image position correction for both image signals. Good. In this example, the second image signal is matched with the position of the first image signal with reference to the first image signal.

明るさ補正処理部63は、位置合わせ処理部62によって位置合わせされた第1の画像信号及び第2の画像信号の平均輝度が合うように、第1の画像信号及び第2の画像信号のうち少なくとも一方の画像信号の輝度信号を補正する。   The brightness correction processing unit 63 includes the first image signal and the second image signal so that the average luminance of the first image signal and the second image signal aligned by the alignment processing unit 62 matches. The luminance signal of at least one image signal is corrected.

参照光補正部64(輝度補正部、参照信号補正部、周波数処理部、記憶部)は、参照信号に含まれる高周波成分の低減、及びフレーム間での参照信号のばらつきの影響を補正し、補正後の参照信号に基づいて、第1の画像信号及び第2の画像信号における輝度信号を局所的に(画素毎に又は撮像領域毎に)補正する。   The reference light correction unit 64 (luminance correction unit, reference signal correction unit, frequency processing unit, storage unit) corrects and corrects the influence of the reduction of high frequency components included in the reference signal and the variation of the reference signal between frames. Based on the later reference signal, the luminance signal in the first image signal and the second image signal is corrected locally (for each pixel or for each imaging region).

特殊観察画像処理部67は、参照光補正部64による補正が行われた第1の輝度信号と第2の輝度信号から観察対象の血管を強調する信号処理を施して特殊観察画像を生成する。例えば、特殊観察画像処理部67が生成する特殊観察画像では、粘膜の表面を基準として観察対象内の相対的に浅い位置に在る血管は、例えばブラウン色などのマゼンタ系の色になり、粘膜の表面を基準として観察対象内の比較的深い位置に在る血管は、例えば緑色などのシアン系の色になる。このため、ピンク系の色で表される粘膜に対して、観察対象の血管が色の違いで強調される。なお、粘膜の表面を基準として比較的浅い位置に在る血管は「表層血管」と呼ばれる。表層血管のうち特に粘膜表面に近い極浅い位置に在る血管は「極表層血管」と呼ばれる。また、粘膜の表面を基準として比較的深い位置に在る血管は「中深層血管」と呼ばれる。   The special observation image processing unit 67 performs signal processing for emphasizing a blood vessel to be observed from the first luminance signal and the second luminance signal corrected by the reference light correction unit 64, and generates a special observation image. For example, in the special observation image generated by the special observation image processing unit 67, a blood vessel located at a relatively shallow position in the observation target with respect to the surface of the mucous membrane becomes a magenta color such as a brown color, for example. A blood vessel located at a relatively deep position in the observation target with respect to the surface of the light has a cyan color such as green. For this reason, the blood vessel to be observed is emphasized by the color difference with respect to the mucous membrane expressed in pink. A blood vessel located at a relatively shallow position with respect to the surface of the mucous membrane is called a “surface blood vessel”. Among superficial blood vessels, a blood vessel located in a very shallow position near the mucosal surface is called a “superficial blood vessel”. A blood vessel located at a relatively deep position with respect to the surface of the mucous membrane is called a “mid-deep blood vessel”.

信号処理部60は、生成した内視鏡画像を映像信号生成部68に入力する。映像信号生成部68は、内視鏡画像をモニタ18に出力表示するための映像信号に変換する。信号処理部60にて生成された内視鏡画像は映像信号生成部68を介してモニタ18に表示させることができる。   The signal processing unit 60 inputs the generated endoscopic image to the video signal generation unit 68. The video signal generator 68 converts the endoscopic image into a video signal for output display on the monitor 18. The endoscopic image generated by the signal processor 60 can be displayed on the monitor 18 via the video signal generator 68.

静止画像取得指示部13cが操作されてレリーズ指示が入力されると、信号処理部60は、生成した内視鏡画像をストレージ70に保存する処理を行う。また、信号処理部60は、メモリ59から読み込んだ画像信号、位置合わせ処理部62で処理された画像信号、明るさ補正処理部63で処理された画像信号、及び参照光補正部64で処理された画像信号のうちのいずれか、若しくは、これらの適宜の組み合わせをストレージ70に保存することができる。   When the still image acquisition instruction unit 13 c is operated and a release instruction is input, the signal processing unit 60 performs processing for saving the generated endoscopic image in the storage 70. The signal processing unit 60 is processed by the image signal read from the memory 59, the image signal processed by the alignment processing unit 62, the image signal processed by the brightness correction processing unit 63, and the reference light correction unit 64. Any one of the received image signals or an appropriate combination thereof can be stored in the storage 70.

ストレージ70は、プロセッサ装置16に接続された外部記憶装置である。ストレージ70は、LAN(Local Area Network)等の通信回線を介してプロセッサ装置16に接続されてもよい。ストレージ70は、例えば、PACS(Picture Archiving and Communication System)等の内視鏡画像をファイリングするシステムのファイルサーバや、NAS(Network Attached Storage)等である。ストレージ70に保存した内視鏡画像は画像処理装置72で使用することができる。   The storage 70 is an external storage device connected to the processor device 16. The storage 70 may be connected to the processor device 16 via a communication line such as a LAN (Local Area Network). The storage 70 is, for example, a file server of a system for filing endoscopic images such as PACS (Picture Archiving and Communication System), NAS (Network Attached Storage), or the like. The endoscopic image stored in the storage 70 can be used by the image processing device 72.

画像処理装置72は、内視鏡画像に画像処理を施して血管深さを推定する機能を有する装置である。画像処理装置72は、内視鏡画像に画像処理を施して診断支援のため血管パラメータを算出する診断支援装置として機能する。   The image processing device 72 is a device having a function of performing image processing on an endoscopic image and estimating a blood vessel depth. The image processing device 72 functions as a diagnosis support device that performs image processing on an endoscopic image and calculates blood vessel parameters for diagnosis support.

[特殊観察画像の生成方法]
まず、内視鏡システム10における特殊観察画像の生成方法について説明する。特殊観察モードでは、観察対象を撮像するときに照射する照明光の深達度によって観察可能な血管が存在する粘膜下の深さが概ね決まっている。一般に、波長の短い光は深達度が浅く、粘膜表面付近で散乱吸収を受けて一部の光が反射光として観測される。観察対象である生体組織の光の吸収及び散乱特性は波長依存性があり、波長が長い光ほど深達度が深くなる。
[Special Observation Image Generation Method]
First, a method for generating a special observation image in the endoscope system 10 will be described. In the special observation mode, the submucosal depth where the observable blood vessel exists is generally determined by the depth of illumination light irradiated when imaging the observation target. In general, light with a short wavelength has a low depth of penetration, and is scattered and absorbed near the mucosal surface, and a part of the light is observed as reflected light. The light absorption and scattering characteristics of the biological tissue to be observed are wavelength-dependent, and the longer the wavelength, the deeper the depth.

図5は観察対象の散乱係数を示すグラフである。図5の横軸は波長を表し、縦軸は規格化された散乱係数を表している。図5に示すように、短波長になるほど散乱係数は大きくなる。散乱が大きいほど、生体組織の粘膜表層付近で反射される光が多く、中深層に到達する光が少ない。そのため、短波長であるほど深達度は浅く、長波長になるほど深達度は深い。散乱係数には個体差があるものの、波長依存性の傾向は共通している。   FIG. 5 is a graph showing the scattering coefficient of the observation target. The horizontal axis in FIG. 5 represents the wavelength, and the vertical axis represents the normalized scattering coefficient. As shown in FIG. 5, the scattering coefficient increases as the wavelength becomes shorter. The greater the scattering, the more light that is reflected near the surface of the mucosa of the living tissue and the less light that reaches the mid-deep layer. Therefore, the depth of penetration is shallower as the wavelength is shorter, and the depth of penetration is deeper as the wavelength is longer. Although there are individual differences in the scattering coefficient, the tendency of wavelength dependence is common.

特殊観察モードで使用する複数種類の狭帯域光のそれぞれの波長帯域における観察対象の散乱係数は各狭帯域光の深達度、すなわち、その波長帯域で観察可能な血管の粘膜下の深さに関連する。しかしながら既述のとおり、実際の観察対象について内視鏡画像から正確な散乱係数を把握することは困難である。   The scattering coefficient of the observation target in each wavelength band of multiple types of narrowband light used in the special observation mode is the depth of each narrowband light, that is, the submucosal depth of the blood vessel that can be observed in that wavelength band. Related. However, as described above, it is difficult to grasp an accurate scattering coefficient from an endoscopic image for an actual observation target.

一方、各狭帯域光の波長帯域におけるヘモグロビンの吸収係数は、各狭帯域光で観察可能な血管のコントラストに関連する。   On the other hand, the absorption coefficient of hemoglobin in the wavelength band of each narrowband light is related to the contrast of blood vessels that can be observed with each narrowband light.

図6はヘモグロビンの吸収係数を示すグラフである。図6の横軸は波長を表し、縦軸は規格化された吸収係数(吸光係数)を表している。図6から把握されるとおり、短波長の光はヘモグロビン吸収が大きく、かつ光の散乱も大きい(図5参照)。このため短波長の狭帯域光を照射して撮像した画像は、浅い位置に在る血管のコントラストが高いが、深い位置に在る血管のコントラストは急激に低くなる。一方、照明光に使用する狭帯域光が長波長になるに従い、浅い位置に在る血管のコントラストは低くなるが、深い位置に在る血管のコントラストの低下は比較的緩やかになる。このような特性を利用して、照明光の波長を変えて撮像した二つの画像の差分情報から、任意の深さの血管情報を可視化することができる。   FIG. 6 is a graph showing the absorption coefficient of hemoglobin. The horizontal axis in FIG. 6 represents the wavelength, and the vertical axis represents the normalized absorption coefficient (absorption coefficient). As can be seen from FIG. 6, short-wavelength light has large hemoglobin absorption and large light scattering (see FIG. 5). For this reason, an image captured by irradiating narrow-band light with a short wavelength has a high contrast of blood vessels at shallow positions, but a contrast of blood vessels at deep positions is rapidly lowered. On the other hand, as the narrow-band light used for the illumination light has a longer wavelength, the contrast of the blood vessel at the shallow position is lowered, but the contrast of the blood vessel at the deep position is relatively moderate. By utilizing such characteristics, blood vessel information at an arbitrary depth can be visualized from difference information between two images picked up by changing the wavelength of illumination light.

例えば、短波長側の照明光として、中心波長405nmの紫色狭帯域光と、中心波長445nmの青色狭帯域光との二種類の波長帯域の照明光をそれぞれ照射して撮像を行うことにより得られた画像の一方を輝度信号に割り当て、両画像の差分画像を色差信号に割り当てることで、粘膜の表層に在る血管が抽出され、抽出された血管を強調した画像を作成することができる。   For example, it is obtained by performing imaging by irradiating illumination light of two types of wavelength bands, violet narrow band light having a center wavelength of 405 nm and blue narrow band light having a center wavelength of 445 nm, as illumination light on the short wavelength side. By assigning one of the images to the luminance signal and assigning the difference image between the two images to the color difference signal, blood vessels in the surface layer of the mucous membrane are extracted, and an image in which the extracted blood vessels are emphasized can be created.

また、例えば、長波長側の照明光として、中心波長530nmの緑色狭帯域光と、中心波長610nmの赤色狭帯域光との二種類の波長帯域の照明光を使用する場合は、粘膜下のより深い層に在る血管を抽出することができ、抽出された血管を強調した画像を作成することができる。   In addition, for example, when illumination light of two types of wavelength bands, that is, a green narrowband light having a center wavelength of 530 nm and a red narrowband light having a center wavelength of 610 nm, is used as illumination light on the long wavelength side, A blood vessel in a deep layer can be extracted, and an image in which the extracted blood vessel is emphasized can be created.

特殊観察モードで使用する二種類の照明光は、観察対象の散乱係数が互いに異なり、かつ、ヘモグロビンの吸光係数がほぼ等しい波長帯域の光であることが望ましい。このような条件を満たす二種類の照明光を用いることにより、粘膜下の特定深さの血管を特に鮮明に抽出することができる。   The two types of illumination light used in the special observation mode are desirably light in a wavelength band in which the scattering coefficients of the observation target are different from each other and the absorption coefficient of hemoglobin is substantially equal. By using two types of illumination light satisfying such conditions, a blood vessel of a specific depth below the mucous membrane can be extracted particularly clearly.

「観察対象の散乱係数が互いに異なり、かつ、ヘモグロビンの吸光係数がほぼ等しい」という条件は、観察可能な血管の粘膜下の深さ(深達度)がそれぞれ異なり、かつ、粘膜下での深さが異なる血管が概ね同程度のコントラストに観察可能である二つの波長帯域の光を選択して用いるという条件を意味している。   The conditions that “the scattering coefficients of observation objects are different from each other and the absorption coefficient of hemoglobin is almost equal” are different in the submucosal depth (depth of penetration) of the observable blood vessels, and the submucosal depth. This means that light of two wavelength bands that can be observed with blood vessels of different levels can be observed with substantially the same contrast is selected and used.

なお、本実施形態で用いる中心波長405nmの第1狭帯域光と中心波長445nmの第2狭帯域光は、図6に示すように、ヘモグロビンの吸光係数(酸化ヘモグロビンの吸光係数:還元ヘモグロビンの吸光係数=3:7)が概ね同程度である。中心波長405nmの第1狭帯域光と中心波長445nmの第2狭帯域光の組み合わせは、血管の抽出にとって好ましい組み合わせの一例である。   As shown in FIG. 6, the first narrowband light having the center wavelength of 405 nm and the second narrowband light having the center wavelength of 445 nm used in this embodiment are shown in FIG. The coefficient = 3: 7) is approximately the same. A combination of the first narrowband light having a center wavelength of 405 nm and the second narrowband light having a center wavelength of 445 nm is an example of a preferable combination for blood vessel extraction.

図7は参照光補正部64の機能を示すブロック図である。参照光補正部64は、観察距離に応じた目標周波数特性を保持する記憶部64aと、記憶部64aに保持された目標周波数特性に応じて参照信号に含まれる高周波成分を低減する周波数処理部64bと、参照信号値のばらつきを補正する参照信号補正部64cと、補正後の参照信号に基づいて第1の画像信号及び第2の画像信号のうちの輝度信号を局所的に(画素毎に又は撮像領域毎に)補正する輝度補正部64dとを備える。なお後述するように、参照光補正部64には観察距離と目標周波数特性との関係(図8参照)が保持されている。   FIG. 7 is a block diagram illustrating functions of the reference light correction unit 64. The reference light correction unit 64 includes a storage unit 64a that holds a target frequency characteristic corresponding to the observation distance, and a frequency processing unit 64b that reduces a high-frequency component included in the reference signal according to the target frequency characteristic held in the storage unit 64a. A reference signal correction unit 64c that corrects variations in the reference signal value, and a luminance signal of the first image signal and the second image signal based on the corrected reference signal locally (for each pixel or And a luminance correction unit 64d for correction (for each imaging region). As will be described later, the reference light correction unit 64 holds the relationship between the observation distance and the target frequency characteristic (see FIG. 8).

図9は特殊観察画像処理部67の機能を示すブロック図である。特殊観察画像処理部67は、演算画像信号生成部76(差分算出部)と、ローパスフィルタ(LPF;low pass filter)処理部77と、画像生成部78(色差信号生成部、カラー画像生成部)とを備える。   FIG. 9 is a block diagram illustrating functions of the special observation image processing unit 67. The special observation image processing unit 67 includes an arithmetic image signal generation unit 76 (difference calculation unit), a low pass filter (LPF) processing unit 77, and an image generation unit 78 (color difference signal generation unit, color image generation unit). With.

演算画像信号生成部76は、参照信号による輝度補正が施された第1の画像信号と第2の画像信号とを用いて演算をし、演算画像信号を生成する。具体的には、第1の画像信号のうちの第1の輝度信号と、第2の画像信号のうちの第2の輝度信号と、の差又は比を算出する。本例の演算画像信号生成部76は、第1の輝度信号及び第2の輝度信号のそれぞれを対数変換し、対数変換後の第1の輝度信号と第2の輝度信号との差、より具体的には第2の輝度信号から第1の輝度信号を減算した差分画像(差分信号)である演算画像信号ΔBを生成する。対数変換は「Log変換」とも呼ばれる。   The calculation image signal generation unit 76 performs calculation using the first image signal and the second image signal that have been subjected to luminance correction by the reference signal, and generates a calculation image signal. Specifically, the difference or ratio between the first luminance signal in the first image signal and the second luminance signal in the second image signal is calculated. The arithmetic image signal generation unit 76 of this example logarithmically converts each of the first luminance signal and the second luminance signal, and more specifically, the difference between the first luminance signal and the second luminance signal after logarithmic conversion, more specifically. Specifically, an arithmetic image signal ΔB that is a difference image (difference signal) obtained by subtracting the first luminance signal from the second luminance signal is generated. Logarithmic transformation is also referred to as “Log transformation”.

第1の輝度信号及び第2の輝度信号は、各画素が受光量に比例する画素値を有するが、対数変換をすると、濃度に比例する画素値を有することになるので、各画像信号を得たときの照明光の照度によらず、安定した演算結果を得ることができる。本実施形態では、特殊観察モードで照明光として用いる第1狭帯域光と第2狭帯域光の照度には実質的な差がないとし、上述のように第1の輝度信号と第2の輝度信号との差によって演算画像信号ΔBを生成する。   In the first luminance signal and the second luminance signal, each pixel has a pixel value proportional to the amount of received light. However, when logarithmic conversion is performed, each pixel signal has a pixel value proportional to the density. Stable calculation results can be obtained regardless of the illumination intensity of the illumination light. In the present embodiment, it is assumed that there is no substantial difference in illuminance between the first narrowband light and the second narrowband light used as illumination light in the special observation mode, and the first luminance signal and the second luminance as described above. An arithmetic image signal ΔB is generated based on the difference from the signal.

なお、第1の輝度信号と第2の輝度信号のそれぞれの信号を対数変換せずに、第1の輝度信号と第2の輝度信号をそのまま用いる場合には、第1の輝度信号と第2の輝度信号の比を画素毎に演算することにより、演算画像信号を生成してもよい。   When the first luminance signal and the second luminance signal are used as they are without logarithmically converting the first luminance signal and the second luminance signal, the first luminance signal and the second luminance signal are used. The calculated image signal may be generated by calculating the ratio of the luminance signals for each pixel.

図10は血管の深さと血管のコントラストの関係を模式的に表すグラフである。図10に示すように、照明光として紫色光Vと青色光Bの二種類を用いると、深さ範囲A及び深さ範囲Aの全範囲の血管、すなわち、概ね表層に在る血管(表層血管)を観察可能である。しかしながら、紫色光Vは青色光Bと比較して波長が短いため、観察対象への深達度が小さく、青色光Bに対して相対的に粘膜下の浅い位置の深さ範囲Aに在る血管しか写し出せない代わりに、浅い位置の深さ範囲Aに在る血管のコントラストは青色光Bを用いる場合よりも大きい。「血管のコントラスト」とは血管からの反射光量に対する周辺の粘膜からの反射光量の比を意味する。血管のコントラストは、血管の輝度YVと粘膜の輝度YMとを用いて、例えば「YV/YM」又は「(YV−YM)/(YV+YM)」で算出することができる。 FIG. 10 is a graph schematically showing the relationship between the blood vessel depth and the blood vessel contrast. As shown in FIG. 10, when two types of violet light V and blue light B are used as illumination light, blood vessels in the entire range of the depth range AS and the depth range AD , that is, blood vessels that are generally in the surface layer ( The superficial blood vessels) can be observed. However, violet light V is shorter wavelength as compared to the blue light B, small penetration depth into the observation target, standing in the depth range A S of shallow position of under relatively mucosa to blue light B instead of having Utsushidase only that vascular contrast of blood vessels located in the depth range a S of shallow position is larger than the case of using the blue light B. “Contrast of blood vessel” means the ratio of the amount of light reflected from the surrounding mucous membrane to the amount of light reflected from the blood vessel. The contrast of the blood vessel can be calculated by using, for example, “YV / YM” or “(YV−YM) / (YV + YM)” using the blood vessel luminance YV and the mucosal luminance YM.

一方、青色光Bは紫色光Vと比較して波長が長いため、観察対象への深達度が深く、紫色光Vに対して相対的に粘膜下の深い位置の深さ範囲Aに在る血管まで写し出せる代わりに、浅い位置の深さ範囲Aに在る血管のコントラストは紫色光Vを用いる場合よりも小さい。 On the other hand, since the wavelength of the blue light B is longer than that of the purple light V, the blue light B has a deep depth to the object to be observed, and is present in the depth range AD at a deep position below the mucosa relative to the purple light V. that instead of Utsushidaseru up vessel, the contrast of the blood vessels located in the depth range a S of shallow position is smaller than the case of using a violet light V.

このため、青色光Bに対応する第2の輝度信号から紫色光Vに対応する第1の輝度信号を減算すれば、特に粘膜下の浅い位置の深さ範囲Aに在る極表層血管を表す画素の画素値は強調されて、大きい値(白色)になる。逆に、極表層血管よりも深い位置の深さ範囲Aに在る血管を表す画素の画素値は小さい値(黒色)になる。演算画像信号ΔBを算出することは、粘膜下の特定深さに在る血管を抽出することに対応する。 Therefore, the first is subtracted the luminance signal, electrode surface blood vessels of particular depth range A S of shallow position of submucosal corresponding to violet light V from the second luminance signal corresponding to the blue light B The pixel value of the pixel to be expressed is emphasized and becomes a large value (white). Conversely, the pixel value of the pixel representing the blood vessel in the depth range AD at a position deeper than the extreme surface blood vessel is a small value (black). Calculation of the calculated image signal ΔB corresponds to extracting a blood vessel at a specific depth below the mucous membrane.

ローパスフィルタ処理部77は、演算画像信号生成部76が生成した演算画像信号ΔBにローパスフィルタを施すことにより低解像化の処理を行う。ローパスフィルタ処理部77が演算画像信号ΔBに施すフィルタ処理の強度は、ローパスフィルタのカットオフ周波数で定まる。ローパスフィルタのカットオフ周波数は予め設定され、少なくとも元の演算画像信号ΔBの鮮鋭度よりは鮮鋭度を低下させる。ローパスフィルタ処理部77のローパスフィルタ処理によって得られる演算画像信号は、元の演算画像信号よりもぼけた状態の画像になる。   The low-pass filter processing unit 77 performs a low-resolution process by applying a low-pass filter to the calculation image signal ΔB generated by the calculation image signal generation unit 76. The strength of the filter processing that the low-pass filter processing unit 77 applies to the calculated image signal ΔB is determined by the cutoff frequency of the low-pass filter. The cut-off frequency of the low-pass filter is set in advance and lowers the sharpness at least than the sharpness of the original arithmetic image signal ΔB. The calculated image signal obtained by the low-pass filter processing of the low-pass filter processing unit 77 is an image that is more blurred than the original calculated image signal.

画像生成部78は、特殊観察画像処理部67が受信する第1の輝度信号又は第2の輝度信号のいずれかと、ローパスフィルタ処理された演算画像信号ΔBとを用いて、複数の出力チャンネルを有する画像を生成する。より具体的には、画像生成部78は、輝度チャンネルYと色差に関する二つの色差チャンネルCb,Crとを有する画像を生成する。輝度チャンネルYは第1チャンネルに相当し、二つの色差チャンネルCb,Crはそれぞれ第2チャンネル及び第3チャンネルに相当する。画像生成部78は、第1の輝度信号又は第2の輝度信号のいずれか一方を輝度チャンネルYに割り当て、ローパスフィルタ処理された演算画像信号ΔBを二つの色差チャンネルCb,Crに割り当てることにより、特定深さの血管のパターンを色で強調した画像を生成する。こうして生成されたYCC画像(カラー画像信号)又はこのYCC画像を色変換処理して得られるRGB画像(カラー画像信号)を「血管強調画像」という。「YCC画像」とは輝度信号であるY信号と、色差信号であるCr信号及びCb信号によって表されるカラー画像を意味する。   The image generation unit 78 has a plurality of output channels using either the first luminance signal or the second luminance signal received by the special observation image processing unit 67 and the low-pass filtered arithmetic image signal ΔB. Generate an image. More specifically, the image generation unit 78 generates an image having a luminance channel Y and two color difference channels Cb and Cr related to color differences. The luminance channel Y corresponds to the first channel, and the two color difference channels Cb and Cr correspond to the second channel and the third channel, respectively. The image generation unit 78 assigns either the first luminance signal or the second luminance signal to the luminance channel Y, and assigns the low-pass filtered arithmetic image signal ΔB to the two color difference channels Cb and Cr. An image in which a blood vessel pattern having a specific depth is emphasized by color is generated. The YCC image (color image signal) generated in this way or the RGB image (color image signal) obtained by performing color conversion processing on this YCC image is referred to as “blood vessel emphasized image”. “YCC image” means a color image represented by a Y signal that is a luminance signal and a Cr signal and a Cb signal that are color difference signals.

図11は特定深さの血管強調画像を生成する際の信号チャンネルの割り当ての例を模式的に示した説明図である。図11におけるB1は第1の輝度信号を表している。本実施形態の場合、第1の輝度信号と第2の輝度信号とのうち、相対的に短波長帯域の狭帯域光(紫色光V)に対応した第1の輝度信号を輝度チャンネルYに割り当てる。つまり、相対的に極表層血管のコントラストが高い第1の輝度信号を輝度チャンネルYに割り当てる。そして、色差チャンネルCb,Crには演算画像信号ΔBを割り当てる。演算画像信号ΔBを色差チャンネルCb,Crに割り当てる際には、それぞれ係数αと係数βを乗じる。これは、表層血管等を強調観察する内視鏡システムが表示する画像と色味を揃えるためである。輝度チャンネルYに第1の輝度信号を割り当てるのは、表層血管の中から極表層血管を選り分けて強調するためである。   FIG. 11 is an explanatory diagram schematically showing an example of signal channel assignment when generating a blood vessel emphasized image of a specific depth. B1 in FIG. 11 represents the first luminance signal. In the case of the present embodiment, the first luminance signal corresponding to the narrow band light (purple light V) having a relatively short wavelength band is assigned to the luminance channel Y among the first luminance signal and the second luminance signal. . That is, the first luminance signal having a relatively high contrast of the extreme surface blood vessels is assigned to the luminance channel Y. The calculated image signal ΔB is assigned to the color difference channels Cb and Cr. When assigning the calculated image signal ΔB to the color difference channels Cb and Cr, they are multiplied by a coefficient α and a coefficient β, respectively. This is in order to align the color with the image displayed by the endoscope system that emphasizes and observes the surface blood vessels. The reason why the first luminance signal is assigned to the luminance channel Y is to select and emphasize the polar surface blood vessels from the surface blood vessels.

表層血管を強調観察する観察モードを有する内視鏡システムにおいて、表層血管強調画像を生成する方法の一つとして、撮像画像のB画像信号とG画像信号を利用する次のような方法がある。すなわち、表層血管観察モードの場合に、狭帯域の青色光を照射して観察対象を撮像してB画像信号を取得し、かつ、狭帯域の緑色光を照射して観察対象を撮像してG画像信号を取得する。そして、B画像信号を表示用の画像のBチャンネルとGチャンネルに割り当て、G画像信号をRチャンネルに割り当てることにより、粘膜下の深い位置に在る中深層血管を緑色系(シアン系)の色にし、粘膜下の浅い位置に在る表層血管を赤色系(マゼンタ系)の色にして強調表示する。   In an endoscope system having an observation mode for emphasizing observation of a superficial blood vessel, one of the methods for generating a superficial blood vessel emphasized image is the following method using a B image signal and a G image signal of a captured image. That is, in the superficial blood vessel observation mode, the image of the observation object is obtained by irradiating the narrow band blue light to acquire the B image signal, and the observation object is imaged by irradiating the narrow band green light. Get the image signal. Then, the B image signal is assigned to the B channel and the G channel of the display image, and the G image signal is assigned to the R channel, so that the mid-deep blood vessels located deep in the submucosa are green (cyan) color. Then, the superficial blood vessels in the shallow position under the mucous membrane are highlighted in red (magenta) color.

国際電気通信連合の規格であるITU−R.601では、RGB各画像信号と輝度チャンネルY及び色差チャンネルCb及びCrの関係は、下記の式(1)、式(2)、及び式(3)で表される。なお、ITUは「International Telecommunication Union」の略語表記である。   The ITU-R. In 601, the relationship between the RGB image signals, the luminance channel Y, and the color difference channels Cb and Cr is expressed by the following equations (1), (2), and (3). ITU is an abbreviation for “International Telecommunication Union”.

Y=0.299R+0.587G+0.114B …(1)
Cb=−0.169R−0.331G+0.5B …(2)
Cr=0.5R−0.419G−0.081B …(3)
そして、色差チャンネルCb,Crの式(2)及び式(3)において、RにGを代入し、GにBを代入すると、式(4)及び式(5)に示すように色差チャンネルCb,Crを(G−B)で表すことができる。
Y = 0.299R + 0.587G + 0.114B (1)
Cb = −0.169R−0.331G + 0.5B (2)
Cr = 0.5R−0.419G−0.081B (3)
In the equations (2) and (3) of the color difference channels Cb and Cr, when G is substituted for R and B is substituted for G, the color difference channels Cb, Cb, Cr can be represented by (GB).

Cb=−0.169G+0.169B=−0.169(G−B)…(4)
Cr=0.5G−0.5B=0.5(G−B) …(5)
上述の方法に対して、本実施形態における特殊観察モードでは、紫色の波長帯域である第1狭帯域光を用いて第1の輝度信号を取得し、青色の波長帯域である第2狭帯域光を用いて第2の輝度信号を取得して極表層血管を抽出及び表示するため、式(4)及び式(5)の(G−B)信号に代えて、演算画像信号ΔBを用いる。すなわち、係数α=−0.169を乗じて演算画像信号ΔBを色差チャンネルCbの信号(色差信号)に割り当て、係数β=0.5を乗じて演算画像信号ΔBを色差チャンネルCrの信号(色差信号)に割り当てる。
Cb = −0.169G + 0.169B = −0.169 (GB) (4)
Cr = 0.5G−0.5B = 0.5 (GB) (5)
In contrast to the above-described method, in the special observation mode in the present embodiment, the first luminance signal is acquired using the first narrowband light having the purple wavelength band, and the second narrowband light having the blue wavelength band is obtained. In order to extract and display the polar surface blood vessel by acquiring the second luminance signal using the calculation signal, the calculation image signal ΔB is used instead of the (GB) signal in the equations (4) and (5). That is, the coefficient α = −0.169 is multiplied to assign the calculated image signal ΔB to the color difference channel Cb signal (color difference signal), and the coefficient β = 0.5 is multiplied to calculate the calculated image signal ΔB as the color difference channel Cr signal (color difference). Signal).

これにより、本実施形態の内視鏡システム10の特殊観察モードにおいて、上述の表層血管観察モードによって得られる表層血管強調画像と概ね同配色の血管強調画像を得ることができる。ただし、本実施形態において、極表層血管と、比較的深い位置に在る表層血管との色の違いを強調するために、設定等に応じて、係数α及び係数βにさらに係数を乗じる場合がある。   Thereby, in the special observation mode of the endoscope system 10 of the present embodiment, it is possible to obtain a blood vessel emphasized image having substantially the same color as that of the surface blood vessel emphasized image obtained by the above-described surface blood vessel observation mode. However, in this embodiment, in order to emphasize the difference in color between the extreme surface blood vessel and the surface blood vessel located at a relatively deep position, the coefficient α and the coefficient β may be further multiplied by a coefficient depending on the setting or the like. is there.

なお、輝度チャンネルY及び色差チャンネルCb,CrからRGBの血管強調画像を生成するには、ITU−R.601の逆変換にしたがって、下記の式(6)、式(7)、及び式(8)によって行う。   In order to generate an RGB blood vessel enhanced image from the luminance channel Y and the color difference channels Cb and Cr, ITU-R. According to the inverse transformation of 601, the following equation (6), equation (7), and equation (8) are used.

R=Y+1.402Cr …(6)
G=Y−0.344Cb−0.714Cr …(7)
B=Y+1.772Cb …(8)
こうして特殊観察画像処理部67で生成された特定深さの血管強調画像は、映像信号生成部68に入力される。映像信号生成部68は特定深さの血管強調画像をモニタ18で表示可能な画像として表示するための映像信号に変換する。この映像信号を用いて、モニタ18に特定深さの血管強調画像が表示される。
R = Y + 1.402Cr (6)
G = Y−0.344Cb−0.714Cr (7)
B = Y + 1.772 Cb (8)
The blood vessel emphasized image having a specific depth generated by the special observation image processing unit 67 is input to the video signal generating unit 68. The video signal generation unit 68 converts the blood vessel emphasized image having a specific depth into a video signal for display as an image that can be displayed on the monitor 18. Using this video signal, a blood vessel emphasized image having a specific depth is displayed on the monitor 18.

[特殊観察モードにおける画像処理の概要]
図12は特殊観察モードにおける画像処理(画像生成方法)の手順を示すフローチャートである。この処理は、プロセッサ装置16が有する図示せぬROM等の非一時的記録媒体に記録されたプログラムに従って進められる。特殊観察モードが選択されると、図12に示す画像処理がプロセッサ装置16により実行される。
[Outline of image processing in special observation mode]
FIG. 12 is a flowchart showing the procedure of image processing (image generation method) in the special observation mode. This process proceeds according to a program recorded in a non-temporary recording medium such as a ROM (not shown) included in the processor device 16. When the special observation mode is selected, the image processing shown in FIG.

ステップS110において、光源20は第1波長帯域(第1の波長)の狭帯域光である照明光(第1の照明光)と、第3波長帯域(第3の波長)の狭帯域光である照明光(第3の照明光、参照光)と、を同時に発生する(第1の発光制御)。光源20から発せられた第1の照明光及び第3の照明光は観察対象に照射される。   In step S110, the light source 20 is illumination light (first illumination light) that is narrowband light in the first wavelength band (first wavelength) and narrowband light in the third wavelength band (third wavelength). Illumination light (third illumination light, reference light) is generated simultaneously (first light emission control). The first illumination light and the third illumination light emitted from the light source 20 are irradiated to the observation target.

第1波長帯域は例えば中心波長が405nmの紫色波長帯域である。図13に示すように、この紫色波長帯域はB画素の分光感度SBがG画素の分光感度SG及びR画素の分光感度SRよりも高くなる波長帯域(約490nm未満)における波長帯域である。   The first wavelength band is, for example, a purple wavelength band having a center wavelength of 405 nm. As shown in FIG. 13, the purple wavelength band is a wavelength band in a wavelength band (less than about 490 nm) in which the spectral sensitivity SB of the B pixel is higher than the spectral sensitivity SG of the G pixel and the spectral sensitivity SR of the R pixel.

一方、第3波長帯域はG画素及びR画素のうちの少なくとも一方の画素の分光感度がB画素の分光感度よりも高くなる波長帯域内(約490nm以上)における波長帯域であり、例えば600nmを中心波長とする。図13に示すように、600nm付近の波長において、G画素の分光感度とR画素の分光感度の総和SSは最大になる。600nmを中心波長とする第3の照明光は、R−LED23dの発光及び図示せぬ光学フィルタの変更により発生させることができる。   On the other hand, the third wavelength band is a wavelength band within a wavelength band (about 490 nm or more) in which the spectral sensitivity of at least one of the G pixel and the R pixel is higher than the spectral sensitivity of the B pixel. The wavelength. As shown in FIG. 13, the sum SS of the spectral sensitivity of the G pixel and the spectral sensitivity of the R pixel is maximized at a wavelength near 600 nm. The third illumination light having a center wavelength of 600 nm can be generated by light emission of the R-LED 23d and a change of an optical filter (not shown).

なお、第3の照明光は参照光として利用するので、第1の照明光の発光光量よりも発光光量を少なくすることが好ましい。具体的には第3の照明光の発光光量は第1の照明光の発光光量の40%以下にすることが好ましく、10%以上20%以下にすることがさらに好ましい。したがって、第3の照明光の発光光量は例えば第1の照明光の発光光量の15%とすることができるが、この値に限定されるものではない。   In addition, since the 3rd illumination light is utilized as reference light, it is preferable to make light emission light quantity smaller than the light emission light quantity of 1st illumination light. Specifically, the light emission amount of the third illumination light is preferably 40% or less of the light emission amount of the first illumination light, and more preferably 10% or more and 20% or less. Therefore, the emitted light amount of the third illumination light can be set to, for example, 15% of the emitted light amount of the first illumination light, but is not limited to this value.

このように、G画素の分光感度とR画素の分光感度の総和が最大になる波長帯域を第3波長帯域とし、さらに第3の照明光(参照光)の発光光量を第1の照明光及び第2の照明光(後述)の発光光量よりも少なくすることで、参照光による画質の低下(長波長の光が加わることによる差分画像のコントラスト低下、表層血管の分解能の低下)を防止しつつ、参照光を用いた補正の効果(局所的な光量ムラの除去)を得ることができる。なお、「分光感度の総和が最大になる波長」とは、分光感度の総和が数値上最大値となる波長だけでなく、分光感度の総和が、輝度ムラ補正の効果に実質的な影響がない範囲で数値上の最大値からずれた波長であってもよい。   Thus, the wavelength band in which the sum of the spectral sensitivity of the G pixel and the spectral sensitivity of the R pixel is maximized is the third wavelength band, and the emitted light quantity of the third illumination light (reference light) is set to the first illumination light and By reducing the amount of light emitted from the second illumination light (described later), it is possible to prevent deterioration in image quality due to reference light (decrease in contrast of difference images due to addition of long-wavelength light, reduction in resolution of surface blood vessels). The effect of correction using the reference light (removal of uneven local light quantity) can be obtained. The “wavelength at which the sum of spectral sensitivities is maximum” means not only the wavelength at which the sum of spectral sensitivities is numerically maximum, but the sum of spectral sensitivities has no substantial effect on the effect of correcting luminance unevenness. The wavelength may deviate from the maximum value in the range.

撮像センサ48は、第1の照明光及び第3の照明光が照射された観察対象を撮像して第1の照明光及び第3の照明光に対応する画像信号を出力し(ステップS120)、画像信号取得部53は、撮像センサ48から第1の照明光及び第3の照明光に対応する画像信号を取得する(ステップS130)。ステップS130で取得される画像信号は、既に説明した第1の画像信号に相当する。第1の画像信号のうちB画素(中心波長405nmの第1波長帯域において最も分光感度が高い画素)に対応する色の画像信号を輝度信号(第1の輝度信号)とし、第3波長帯域に感度を有する画素であって第1の輝度信号を取得したB画素とは異なる画素であるG画素及びR画素(参照信号取得画素)の各色の画像信号を加算した画像信号を参照信号(第1の参照信号)とする。   The imaging sensor 48 images the observation target irradiated with the first illumination light and the third illumination light, and outputs an image signal corresponding to the first illumination light and the third illumination light (step S120). The image signal acquisition unit 53 acquires image signals corresponding to the first illumination light and the third illumination light from the imaging sensor 48 (step S130). The image signal acquired in step S130 corresponds to the first image signal already described. Among the first image signals, an image signal of a color corresponding to a B pixel (a pixel having the highest spectral sensitivity in the first wavelength band having a center wavelength of 405 nm) is set as a luminance signal (first luminance signal), and the third wavelength band is used. An image signal obtained by adding the image signals of the respective colors of the G pixel and the R pixel (reference signal acquisition pixel), which are pixels having sensitivity and different from the B pixel from which the first luminance signal is acquired, is referred to as the first reference signal (first signal). Reference signal).

ステップS130により得られる撮像画像の一例を図14に示す。図14は中心波長405nmの第1狭帯域光(第1の照明光)及び中心波長600nmの第3の照明光(参照光)を用いて撮像された撮像画像の例である。図14では極表層血管112を含む表層の血管が鮮明に写し出されている。なお図14中、領域P1は周囲よりも輝度が低い(暗い)領域を示している。   An example of the captured image obtained in step S130 is shown in FIG. FIG. 14 is an example of a captured image captured using the first narrowband light (first illumination light) having a center wavelength of 405 nm and the third illumination light (reference light) having a center wavelength of 600 nm. In FIG. 14, the blood vessels in the surface layer including the extreme surface blood vessels 112 are clearly projected. In FIG. 14, a region P1 indicates a region where the luminance is lower (darker) than the surroundings.

図12のステップS150及びステップS250(後述)において、明るさ補正処理部63は、取得した第1の画像信号について光量補正を行う。ステップS150及びステップS250の光量補正は、輝度信号の補正前に、第1の画像信号の画像全体の平均輝度と第2の画像信号の平均輝度とを合わせる処理である。例えば、明るさ補正処理部63は、特殊観察モードに使用される狭帯域光の照射光量比を用いて、第1の画像信号の平均輝度と第2の画像信号の平均輝度を一致させるゲイン補正を行う。また例えば、明るさ補正処理部63は、各画像信号の全画素の画素値の平均値又は特定の画素領域の画素値の平均値を算出することにより第1,第2の画像信号が表す観察対象の画像の明るさ(平均輝度)を算出し、第1,第2の画像信号が表す観察対象の画像の明るさを一致させるゲインを算出し、算出したゲインを用いて第1の画像信号の輝度信号及び第2の画像信号の輝度信号の少なくとも一方を補正する。   In step S150 and step S250 (described later) in FIG. 12, the brightness correction processing unit 63 performs light amount correction on the acquired first image signal. The light amount correction in step S150 and step S250 is a process of matching the average luminance of the entire image of the first image signal and the average luminance of the second image signal before correcting the luminance signal. For example, the brightness correction processing unit 63 uses the irradiation light quantity ratio of the narrow band light used in the special observation mode, and performs gain correction for matching the average luminance of the first image signal with the average luminance of the second image signal. I do. In addition, for example, the brightness correction processing unit 63 calculates the average value of the pixel values of all the pixels of each image signal or the average value of the pixel values of a specific pixel area, thereby representing the observation represented by the first and second image signals. The brightness (average luminance) of the target image is calculated, the gain for matching the brightness of the observation target image represented by the first and second image signals is calculated, and the first image signal is calculated using the calculated gain. And at least one of the luminance signal of the second image signal is corrected.

ステップS150及びステップS250では、第1の輝度信号と第2の輝度信号の両方を補正してもよいし、いずれか一方のみを補正してもよい。第2の輝度信号のみを補正する場合は、ステップS150の処理は行わずステップS250の処理のみ行えばよい。なお光量補正は「明るさ補正処理」と同義である。   In step S150 and step S250, both the first luminance signal and the second luminance signal may be corrected, or only one of them may be corrected. When correcting only the second luminance signal, only the process of step S250 may be performed without performing the process of step S150. The light amount correction is synonymous with “brightness correction processing”.

また、ステップS130の後、光源20は第2波長帯域(第2の波長)の狭帯域光である照明光(第2の照明光)と、第3波長帯域の狭帯域光である照明光(第3の照明光)と、を同時に発生する(ステップS210:第2の発光制御)。光源20から発せられた第2の照明光及び第3の照明光は観察対象に照射される。なお第2の発光制御において、第2の照明光の発光光量は第1の発光制御における第1の照明光の発光光量と同じでなくてもよい。例えば、第2の照明光の発光光量は第1の照明光の発光光量より少なくすることができる。   Further, after step S130, the light source 20 has illumination light (second illumination light) that is narrowband light in the second wavelength band (second wavelength) and illumination light (second illumination light) that is narrowband light in the third wavelength band (second wavelength light). (Third illumination light) are generated simultaneously (step S210: second light emission control). The second illumination light and the third illumination light emitted from the light source 20 are irradiated to the observation target. In the second light emission control, the light emission amount of the second illumination light may not be the same as the light emission amount of the first illumination light in the first light emission control. For example, the light emission amount of the second illumination light can be made smaller than the light emission amount of the first illumination light.

第2波長帯域は例えば中心波長が445nmの青色波長帯域であり、第1波長帯域と同様に、B画素の分光感度がG画素の分光感度及びR画素の分光感度よりも高くなる波長帯域(約490nm未満)における波長帯域である。第3波長帯域は第1の発光制御と同様であり、R−LED23dの発光及び図示せぬ光学フィルタの変更により600nmを中心波長とする狭帯域光を発光させる。なお第3の照明光の発光光量は、第1の発光制御と同様に、第2の照明光の発光光量の15%とすることができるが、第3の照明光の発光光量はこの値に限定されるものではない。   The second wavelength band is, for example, a blue wavelength band having a central wavelength of 445 nm. Similarly to the first wavelength band, the wavelength band in which the spectral sensitivity of the B pixel is higher than the spectral sensitivity of the G pixel and the spectral sensitivity of the R pixel (about It is a wavelength band in less than 490 nm. The third wavelength band is the same as in the first light emission control, and narrow band light having a center wavelength of 600 nm is emitted by the light emission of the R-LED 23d and the change of an optical filter (not shown). The light emission amount of the third illumination light can be set to 15% of the light emission amount of the second illumination light as in the first light emission control, but the light emission amount of the third illumination light is set to this value. It is not limited.

なお、上述の例では第2の発光制御における第3の照明光の波長帯域及び発光光量が第1の発光制御における第3の照明光の波長帯域及び発光光量と同じである場合について説明しているが、本発明において第3の照明光の波長帯域及び発光光量は第1,第2の発光制御において全く同じでなくてもよい。内視鏡では通常、観察距離に応じて自動露出補正が行われること、及び受光センサの分光感度と参照光の波長分布をたたみ込んだものが参照信号値となることから、第1,第2の発光制御において受光センサの分光感度と参照光の波長分布とを畳み込んだ参照信号値の相違が10%以内であることが好ましい。   In the above example, the case where the wavelength band and the amount of emitted light of the third illumination light in the second emission control are the same as the wavelength band and the amount of emitted light of the third illumination light in the first emission control will be described. However, in the present invention, the wavelength band and the amount of emitted light of the third illumination light may not be exactly the same in the first and second light emission control. In an endoscope, automatic exposure correction is usually performed according to the observation distance, and the reference signal value is obtained by convolving the spectral sensitivity of the light receiving sensor and the wavelength distribution of the reference light. In the light emission control, it is preferable that the difference between the reference signal values obtained by convolving the spectral sensitivity of the light receiving sensor and the wavelength distribution of the reference light is within 10%.

撮像センサ48は、第2の照明光及び第3の照明光が照射された観察対象を撮像して第2の照明光及び第3の照明光に対応する画像信号を出力し(ステップS220)、画像信号取得部53は、第2の照明光及び第3の照明光に対応する画像信号を撮像センサ48から取得する(ステップS230)。ステップS230で取得される画像信号は、既に説明した第2の画像信号に相当する。第2の画像信号のうちB画素(中心波長445nmの第2波長帯域において最も分光感度が高い画素)に対応する色の画像信号を輝度信号(第2の輝度信号)とし、第3波長帯域に感度を有する画素であって第2の輝度信号を取得したB画素とは異なる画素であるG画素及びR画素(参照信号取得画素)の各色の画像信号を加算した画像信号を参照信号(第2の参照信号)とする。   The imaging sensor 48 images the observation target irradiated with the second illumination light and the third illumination light, and outputs an image signal corresponding to the second illumination light and the third illumination light (step S220). The image signal acquisition unit 53 acquires image signals corresponding to the second illumination light and the third illumination light from the imaging sensor 48 (step S230). The image signal acquired in step S230 corresponds to the second image signal already described. Among the second image signals, an image signal of a color corresponding to a B pixel (a pixel having the highest spectral sensitivity in the second wavelength band having a central wavelength of 445 nm) is set as a luminance signal (second luminance signal), and the third wavelength band is used. An image signal obtained by adding the image signals of the respective colors of the G pixel and the R pixel (reference signal acquisition pixel), which are pixels having sensitivity and different from the B pixel from which the second luminance signal is acquired, is referred to as a second reference signal (second signal). Reference signal).

ステップS240において、位置合わせ処理部62は、ステップS130にて取得された第1の画像信号とステップS230にて取得された第2の画像信号の位置合わせ処理を行う。本例では第2の画像信号の画像位置を補正する処理を行う。ステップS240により得られる撮像画像の一例を図15に示す。図15は中心波長445nmの第2狭帯域光(第2の照明光)及び中心波長600nmの第3の照明光(参照光)を用いて撮像された撮像画像の例である。図15では図示の制約上十分に表現されていないが、図15に示した撮像画像は図14の撮像画像と比較して極表層血管112のコントラストが著しく低下している。また、極表層血管112よりも深い位置に在る表層血管114は、図14と比較してコントラストの低下が緩やかである。なお図15中、領域P2は周囲よりも輝度が高い(明るい)領域を示している。   In step S240, the alignment processing unit 62 performs alignment processing of the first image signal acquired in step S130 and the second image signal acquired in step S230. In this example, processing for correcting the image position of the second image signal is performed. An example of the captured image obtained in step S240 is shown in FIG. FIG. 15 is an example of a captured image captured using the second narrowband light (second illumination light) having a center wavelength of 445 nm and the third illumination light (reference light) having a center wavelength of 600 nm. Although not sufficiently expressed in FIG. 15 due to the illustrated constraints, the contrast of the extreme surface blood vessel 112 in the captured image illustrated in FIG. 15 is significantly lower than that of the captured image in FIG. Further, in the superficial blood vessel 114 located deeper than the extreme superficial blood vessel 112, the contrast lowers slowly than in FIG. In FIG. 15, a region P2 indicates a region having a higher brightness (brighter) than the surroundings.

図12のステップS250において、明るさ補正処理部63は、取得した第2の画像信号について光量補正を行う。ステップS250における光量補正は、ステップS150における光量補正と同様に、第1の輝度信号の平均輝度と第2の輝度信号の平均輝度とを合わせる処理であり、第1の輝度信号と第2の輝度信号の両方を補正してもよいし、いずれか一方のみを補正してもよい。第1の輝度信号のみを補正する場合は、ステップS250の処理は行わずに、上述したステップS150の処理のみ行えばよい。   In step S250 of FIG. 12, the brightness correction processing unit 63 performs light amount correction on the acquired second image signal. The light amount correction in step S250 is a process for matching the average luminance of the first luminance signal and the average luminance of the second luminance signal, as in the case of the light amount correction in step S150, and the first luminance signal and the second luminance. Both of the signals may be corrected, or only one of them may be corrected. When correcting only the first luminance signal, only the process of step S150 described above may be performed without performing the process of step S250.

ステップS152において、周波数処理部64bは参照信号(第1,第2の参照信号)に含まれる高周波成分を低減するLPF(Low Pass Filter)処理(ローパスフィルタ処理)を行う。これは、受光センサに副感度があるため、参照信号に表層血管の画像信号が映り込み、このまま参照信号を用いて光量補正をすると表層血管のコントラストが低下してしまうためである。なお、受光センサの副感度の影響(参照信号に表層血管の画像信号が映り込む度合い)は被検体までの観察距離に応じて異なるため、目標とする周波数特性を観察距離毎に記憶部64aに記憶しておき、周波数処理部64bは撮像時の観察距離に基づいて記憶部64aから目標周波数特性を取得して、参照信号の周波数特性が目標周波数特性になるようにローパスフィルタ処理を行う。例えば、目標周波数特性としてローパスフィルタの特性を記憶しておき、これを用いるようにする。このようにして、周波数処理部64bは、図8に示すように観察距離が近いほどローパスフィルタの強度が高くなるローパスフィルタ処理を行う。   In step S152, the frequency processing unit 64b performs LPF (Low Pass Filter) processing (low pass filter processing) for reducing high frequency components included in the reference signals (first and second reference signals). This is because, since the light receiving sensor has subsensitivity, the image signal of the surface blood vessel is reflected in the reference signal, and if the light amount is corrected using the reference signal as it is, the contrast of the surface blood vessel is lowered. Since the influence of the subsensitivity of the light receiving sensor (the degree to which the image signal of the surface blood vessel is reflected in the reference signal) varies depending on the observation distance to the subject, the target frequency characteristic is stored in the storage unit 64a for each observation distance. The frequency processing unit 64b acquires the target frequency characteristic from the storage unit 64a based on the observation distance at the time of imaging, and performs low-pass filter processing so that the frequency characteristic of the reference signal becomes the target frequency characteristic. For example, the characteristics of the low-pass filter are stored as the target frequency characteristics and used. In this way, the frequency processing unit 64b performs low-pass filter processing in which the strength of the low-pass filter increases as the observation distance is shorter as shown in FIG.

なお、上述したステップS152のローパスフィルタ処理を行わずに、副感度の影響を含む参照信号の高周波成分を抽出しておき、差分画像にこの高周波成分を加算して差分画像のコントラストを保つようにしてもよい。   Note that the high-frequency component of the reference signal including the effect of the sub-sensitivity is extracted without performing the above-described low-pass filter processing in step S152, and this high-frequency component is added to the difference image to maintain the contrast of the difference image. May be.

輝度補正部64dは、第1,第2の画像信号間の参照信号(第1の参照信号、第2の参照信号)のばらつきを補正する(ステップS154)。これは、各フレーム(第1,第2の発光制御)で同じ光量で参照光を発光させても、参照光成分から得られる参照信号は波長帯域に依存した受光センサの副感度の相違(図13参照)に起因してばらつくため、各フレームの短波長側の照明光(第1,第2の照明光)の設定光量と分光感度とから参照信号(第1,第2の参照信号)のばらつきを補正するものである。なお、上述した補正に代えて、または上述した補正に加えて、画像信号における参照信号のばらつきを考慮して第1,第2発光制御時(ステップS110,S210)の参照光の発光光量を設定してもよい。   The luminance correction unit 64d corrects variations in the reference signals (first reference signal and second reference signal) between the first and second image signals (step S154). This is because even if the reference light is emitted with the same light amount in each frame (first and second light emission control), the reference signal obtained from the reference light component is different in sub-sensitivity of the light receiving sensor depending on the wavelength band (see FIG. 13)), the reference signal (first and second reference signals) is determined from the set light quantity and spectral sensitivity of the short-wavelength illumination light (first and second illumination lights) of each frame. This is to correct the variation. In addition to the above-described correction or in addition to the above-described correction, the light emission amount of the reference light at the time of the first and second light emission control (steps S110 and S210) is set in consideration of variations in the reference signal in the image signal. May be.

輝度補正部64dは、ステップS154で補正した後の参照信号に基づいて、第1の輝度信号及び第2の輝度信号を局所的に(画素毎に又は撮像領域毎に)補正する(ステップS156)。ステップS156における処理は、各画素又は各画像領域における参照信号の比に基づいて第1の輝度信号及び第2の輝度信号を補正する処理である。例えば、処理対象画素において第1の参照信号と第2の参照信号との比が1.0対0.9である(第1の参照信号:第2の参照信号=1.0:0.9)とすると、第2の輝度信号に(1.0/0.9)を乗算して補正する。なおこの例では第2の輝度信号のみ補正しているが、第1の輝度信号のみを補正してもよいし、第1,第2の輝度信号の双方を補正してもよい。   The luminance correction unit 64d corrects the first luminance signal and the second luminance signal locally (for each pixel or for each imaging region) based on the reference signal corrected in step S154 (step S156). . The process in step S156 is a process of correcting the first luminance signal and the second luminance signal based on the ratio of the reference signal in each pixel or each image region. For example, the ratio of the first reference signal and the second reference signal in the pixel to be processed is 1.0 to 0.9 (first reference signal: second reference signal = 1.0: 0.9). ), The second luminance signal is corrected by multiplying it by (1.0 / 0.9). In this example, only the second luminance signal is corrected. However, only the first luminance signal may be corrected, or both the first and second luminance signals may be corrected.

本実施形態のように波長帯域の異なる複数の狭帯域光を切り換えて順次撮影を行ういわゆる「マルチフレーム撮影」の場合、フレーム毎の撮影タイミングが異なるため、観察距離や角度が変化し、各フレームでの画像の明るさ(輝度)の違いが一律ではなく場所ごとに変化している。このためステップS150,S250における平均輝度の補正だけでは輝度を合わせきれない場合があるが、上述のように参照信号の比に基づいて輝度信号を補正することで、場所毎の輝度ムラを除去した画像を得ることができる(図14〜19参照)。   In the case of so-called “multi-frame shooting” in which a plurality of narrow-band lights having different wavelength bands are switched sequentially as in this embodiment, since the shooting timing for each frame is different, the observation distance and angle change, and each frame The difference in image brightness (luminance) is not uniform, but changes from place to place. For this reason, the luminance may not be adjusted only by correcting the average luminance in steps S150 and S250, but luminance unevenness at each location is removed by correcting the luminance signal based on the ratio of the reference signals as described above. Images can be obtained (see FIGS. 14-19).

ステップS160において、演算画像信号生成部76は補正後の第1の輝度信号に対数変換を施す。また、ステップS260において、演算画像信号生成部76は補正後の第2の輝度信号に対数変換を施す。   In step S160, the arithmetic image signal generation unit 76 performs logarithmic conversion on the corrected first luminance signal. In step S260, the arithmetic image signal generation unit 76 performs logarithmic conversion on the corrected second luminance signal.

ステップS280において、演算画像信号生成部76は、ステップS260にて対数変換された第2の画像信号とステップS160にて対数変換された第1の画像信号との差分画像を生成する差分処理を行う。ステップS280の差分処理では、第2の輝度信号から第1の輝度信号を減算する演算によって差分画像を表す演算画像信号が生成される。ステップS280にて生成される演算画像信号は、既に説明した演算画像信号ΔBに相当する。   In step S280, the calculation image signal generation unit 76 performs difference processing for generating a difference image between the second image signal logarithmically converted in step S260 and the first image signal logarithmically converted in step S160. . In the difference processing in step S280, an operation image signal representing the difference image is generated by an operation of subtracting the first luminance signal from the second luminance signal. The calculation image signal generated in step S280 corresponds to the calculation image signal ΔB already described.

ステップS290において、ローパスフィルタ処理部77は、ステップS280にて生成された演算画像信号にローパスフィルタ処理を施す。   In step S290, the low-pass filter processing unit 77 performs low-pass filter processing on the arithmetic image signal generated in step S280.

その後、ステップS300において、画像生成部78は、ステップS160にて対数変換された第1の輝度信号を輝度チャンネルYに割り当て、かつ、ステップS290にて低解像化された演算画像信号を色差チャンネルCr,Cbに割り当てることにより、被検体の構造である血管が色により強調された血管強調画像(YCC画像)を生成する。また、画像生成部78は、YCC画像からRGB画像に変換する色変換処理を行い、血管強調画像を表すRGB画像100を生成する。   Thereafter, in step S300, the image generation unit 78 assigns the first luminance signal logarithmically converted in step S160 to the luminance channel Y, and the calculated image signal reduced in step S290 is the color difference channel. By assigning to Cr and Cb, a blood vessel emphasized image (YCC image) in which the blood vessel which is the structure of the subject is emphasized by color is generated. In addition, the image generation unit 78 performs color conversion processing for converting a YCC image into an RGB image, and generates an RGB image 100 representing a blood vessel emphasized image.

ステップS300により生成された血管強調画像はモニタ18に表示される。また、ステップS300により生成された血管強調画像はストレージ70に保存することができる。   The blood vessel emphasized image generated in step S300 is displayed on the monitor 18. Further, the blood vessel emphasized image generated in step S300 can be stored in the storage 70.

ステップS300を経て生成される出力画像の例を図16に示す。図16では図示の制約上十分に表現されていないが、出力画像として表層血管が強調されたカラー画像が得られる。   An example of an output image generated through step S300 is shown in FIG. In FIG. 16, a color image in which the surface blood vessels are emphasized is obtained as an output image although it is not sufficiently expressed due to the constraints shown.

このようにして生成された血管強調画像では、粘膜下の極表層に在る極表層血管がマゼンタ系の色に着色して表示され、極表層よりも深い位置の表層に在る表層血管がシアン系の色に着色して表される。したがって、血管強調画像では極表層血管と表層血管とを色で識別可能であり、特に極表層血管の観察が容易な画像としてモニタ18に表示される。モニタ18に表示される画像では、上述したように参照信号に基づいて輝度信号を補正するので、図14,15に示す領域P1,P2のような局所的な輝度ムラは除去されており、被検体の構造を容易に観察することができる。   In the blood vessel-enhanced image generated in this way, the extreme superficial blood vessels in the extreme superficial layer below the mucous membrane are displayed in magenta color, and the superficial blood vessels in the superficial layer deeper than the extreme superficial layer are cyan. It is expressed by coloring the system. Therefore, in the blood vessel-enhanced image, the extreme surface blood vessel and the superficial blood vessel can be distinguished by color, and are displayed on the monitor 18 as an image that allows easy observation of the extreme surface blood vessel. In the image displayed on the monitor 18, since the luminance signal is corrected based on the reference signal as described above, local luminance unevenness such as the regions P1 and P2 shown in FIGS. The structure of the specimen can be easily observed.

[具体的な画像例]
図17は第1の照明光として中心波長405nmの第1狭帯域光を用い、第3の照明光(参照光)として中心波長600nmの狭帯域光を用いて撮像された撮像画像の例である。図17は図12のステップS130で取得される第1の画像信号による画像例に相当する。図17に示した撮像画像を第1撮像画像110という。第1撮像画像110には、極表層血管112と表層血管114が写し出されている。先に説明した図14は図17の一部を拡大した画像に相当している。なお図17では、図14で示した領域P1の図示は省略している。
[Specific image example]
FIG. 17 is an example of a captured image captured using first narrowband light with a center wavelength of 405 nm as first illumination light and narrowband light with a center wavelength of 600 nm as third illumination light (reference light). . FIG. 17 corresponds to an image example based on the first image signal acquired in step S130 of FIG. The captured image illustrated in FIG. 17 is referred to as a first captured image 110. In the first captured image 110, a superficial blood vessel 112 and a superficial blood vessel 114 are shown. FIG. 14 described above corresponds to an enlarged image of a part of FIG. In FIG. 17, the illustration of the region P1 shown in FIG. 14 is omitted.

図18は第2の照明光として中心波長445nmの第2狭帯域光を用い、第3の照明光(参照光)として中心波長600nmの狭帯域光を用いて撮像された撮像画像の例である。図18は図12のステップS230で取得される第2の画像信号による画像例に相当する。図18に示した撮像画像を第2撮像画像120という。第2撮像画像120は、第1撮像画像110と比較して、極表層血管112と表層血管114のコントラストが低下している。先に説明した図15は図18の一部を拡大した画像に相当している。なお図18では、図15で示した領域P2の図示は省略している。   FIG. 18 is an example of a captured image captured using second narrowband light with a center wavelength of 445 nm as second illumination light and narrowband light with a center wavelength of 600 nm as third illumination light (reference light). . FIG. 18 corresponds to an image example based on the second image signal acquired in step S230 of FIG. The captured image illustrated in FIG. 18 is referred to as a second captured image 120. In the second captured image 120, the contrast between the polar surface blood vessel 112 and the surface blood vessel 114 is lower than that of the first captured image 110. FIG. 15 described above corresponds to an enlarged image of a part of FIG. In FIG. 18, illustration of the region P2 shown in FIG. 15 is omitted.

図19は第1撮像画像110と第2撮像画像120の差分による演算画像信号を用いて生成された血管強調画像の例である。先に説明した図16は図19の一部を拡大した画像に相当している。図19に示す血管強調画像では、被検体の構造としての血管を視覚により容易に観察することができる。   FIG. 19 is an example of a blood vessel emphasized image generated using a calculated image signal based on the difference between the first captured image 110 and the second captured image 120. FIG. 16 described above corresponds to an enlarged image of a part of FIG. In the blood vessel emphasized image shown in FIG. 19, the blood vessel as the structure of the subject can be easily observed visually.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されず、本発明の趣旨を逸脱しない範囲で種々の変形が可能である。例えば、上述した実施形態では第1の発光制御で紫色光Vと赤色光R(参照光)を発光させて第1の画像信号を取得し第2の発光制御で青色光Bと赤色光R(参照光)を発光させて第2の画像信号を取得し、これら2つの画像信号により極表層〜表層に在る血管を強調した画像を生成しているが、第1の発光制御で青色光Bと赤色光R(参照光)を発光させて第1の画像信号を取得し第2の発光制御で緑色光Gと赤色光R(参照光)を発光させて第2の画像信号を取得して、これら2つの画像信号により中層に在る血管を強調した画像を生成してもよい。このような中層血管を強調した画像を生成する場合の処理は、上述した実施形態と同様に行うことができる。   As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, A various deformation | transformation is possible in the range which does not deviate from the meaning of this invention. For example, in the above-described embodiment, purple light V and red light R (reference light) are emitted by the first light emission control, the first image signal is acquired, and blue light B and red light R ( Reference light) is emitted to obtain a second image signal, and an image emphasizing blood vessels in the extreme surface layer to the surface layer is generated by these two image signals. Blue light B is generated by the first light emission control. And red light R (reference light) to obtain a first image signal, and second light emission control to emit green light G and red light R (reference light) to obtain a second image signal. Alternatively, an image in which a blood vessel in the middle layer is emphasized may be generated using these two image signals. The processing for generating an image in which such middle-layer blood vessels are emphasized can be performed in the same manner as in the above-described embodiment.

また、上述した実施形態では波長の異なる2つの狭帯域光を用いて2つの狭帯域画像を取得しているが、波長の異なる3つの狭帯域光を用いて3つの狭帯域画像を取得し、これら3つの狭帯域画像に基づいて所望の層に在る血管を強調表示できるようにしてもよい。例えば、第1の発光制御で紫色光Vと赤色光R(参照光)を発光させて第1の画像信号を取得し、第2の発光制御で青色光Bと赤色光R(参照光)を発光させて第2の画像信号を取得し、第3の発光制御で緑色光Gと赤色光R(参照光)を発光させて第3の画像信号を取得する。そして第1の画像信号及び第2の画像信号から極表層〜表層の血管を強調表示した画像を生成し、第2の画像信号及び第3の画像信号から中層の血管を強調表示した画像を生成することができる。このような血管強調画像の生成も、上述した実施形態と同様に行うことができる。   Further, in the above-described embodiment, two narrowband images are acquired using two narrowband lights having different wavelengths, but three narrowband images are acquired using three narrowband lights having different wavelengths, A blood vessel in a desired layer may be highlighted based on these three narrow-band images. For example, purple light V and red light R (reference light) are emitted by the first light emission control to acquire a first image signal, and blue light B and red light R (reference light) are obtained by the second light emission control. The second image signal is acquired by emitting light, and the third image signal is acquired by emitting green light G and red light R (reference light) by the third light emission control. Then, an image in which blood vessels in the extreme surface layer to the surface layer are highlighted is generated from the first image signal and the second image signal, and an image in which the blood vessels in the middle layer are highlighted from the second image signal and the third image signal is generated. can do. Such a blood vessel enhanced image can be generated in the same manner as in the above-described embodiment.

また、上述の実施形態ではR−LED23dの発光及び図示せぬ光学フィルタの変更により参照光(中心波長600nm)を発生させているが、G−LED23cの発光及び図示せぬ光学フィルタの変更により参照光を発生させてもよい。また、R−LED23d及びG−LED23cの両方を発光量を調整しつつ発光させ、これに合わせて図示せぬ光学フィルタを変更することで参照光を発光させてもよい。さらに、複数色のLEDの発光バランスを調整することで参照光を発光させてもよい。   In the above-described embodiment, the reference light (center wavelength 600 nm) is generated by the emission of the R-LED 23d and the change of the optical filter (not shown). Light may be generated. Alternatively, both the R-LED 23d and the G-LED 23c may emit light while adjusting the light emission amount, and the reference light may be emitted by changing an optical filter (not shown) in accordance with this. Further, the reference light may be emitted by adjusting the light emission balance of the LEDs of a plurality of colors.

10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
13a モード切替スイッチ
13b ズーム操作部
13c 静止画像取得指示部
14 光源装置
16 プロセッサ装置
18 モニタ
19 コンソール
20 光源
22 光源制御部
23a V−LED
23b B−LED
23c G−LED
23d R−LED
30a 照明光学系
30b 撮像光学系
41 ライトガイド
45 照明レンズ
46 対物レンズ
47 ズームレンズ
48 撮像センサ
51 AFE回路
52 ADコンバータ
53 画像信号取得部
58 ノイズ低減部
59 メモリ
60 信号処理部
61 画像処理切替部
62 位置合わせ処理部
63 明るさ補正処理部
64 参照光補正部
64a 記憶部
64b 周波数処理部
64c 参照信号補正部
64d 輝度補正部
66 通常観察画像処理部
67 特殊観察画像処理部
68 映像信号生成部
70 ストレージ
72 画像処理装置
76 演算画像信号生成部
77 ローパスフィルタ処理部
78 画像生成部
100 RGB画像
110 第1撮像画像
112 極表層血管
114 表層血管
120 第2撮像画像
Ad 範囲
As 範囲
B 青色光
Cb 色差チャンネル
Cr 色差チャンネル
G 緑色光
P1 領域
P2 領域
R 赤色光
S110〜S300 画像生成方法の各ステップ
SB 分光感度
SG 分光感度
SR 分光感度
SS 総和
V 紫色光
Y 輝度チャンネル
YM 輝度
YV 輝度
ΔB 演算画像信号
α 係数
β 係数
DESCRIPTION OF SYMBOLS 10 Endoscope system 12 Endoscope 12a Insertion part 12b Operation part 12c Bending part 12d Tip part 12e Angle knob 13a Mode changeover switch 13b Zoom operation part 13c Still image acquisition instruction | indication part 14 Light source device 16 Processor apparatus 18 Monitor 19 Console 20 Light source 22 Light source controller 23a V-LED
23b B-LED
23c G-LED
23d R-LED
30a Illumination optical system 30b Imaging optical system 41 Light guide 45 Illumination lens 46 Objective lens 47 Zoom lens 48 Imaging sensor 51 AFE circuit 52 AD converter 53 Image signal acquisition unit 58 Noise reduction unit 59 Memory 60 Signal processing unit 61 Image processing switching unit 62 Positioning processing unit 63 Brightness correction processing unit 64 Reference light correction unit 64a Storage unit 64b Frequency processing unit 64c Reference signal correction unit 64d Luminance correction unit 66 Normal observation image processing unit 67 Special observation image processing unit 68 Video signal generation unit 70 Storage 72 Image processing device 76 Operation image signal generation unit 77 Low-pass filter processing unit 78 Image generation unit 100 RGB image 110 First captured image 112 Polar surface blood vessel 114 Surface layer blood vessel 120 Second captured image Ad Range As Range B Blue light Cb Color difference channel Cr Color difference channel G Green light P1 region P2 region R red light S110 to S300 Steps SB of image generation method SB spectral sensitivity SG spectral sensitivity SR spectral sensitivity SS total V purple light Y luminance channel YM luminance YV luminance ΔB arithmetic image signal α coefficient β coefficient

Claims (18)

対物レンズと、三原色の各色に対応するカラーフィルタが配列された第1の画素、第2の画素及び第3の画素を有する撮像素子とを含む撮像部と、
それぞれ波長の異なる第1の波長、第2の波長及び第3の波長をピークとする第1の照明光、第2の照明光及び第3の照明光を発光する光源と、
前記撮像部による被検体の撮像時に、前記光源から前記第1の照明光と前記第3の照明光とを同時に発光させる第1の発光制御と、前記第2の照明光と前記第3の照明光とを同時に発光させる第2の発光制御とを行う光源制御部と、
前記光源制御部による前記第1の発光制御が行われるときに、前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの、前記第1の波長に最も分光感度の高い画素から第1の輝度信号を取得し、かつ前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの前記第3の波長に感度を有する画素であって、少なくとも前記第1の波長に最も分光感度の高い画素とは異なる画素から第1の参照信号を取得し、前記光源制御部による前記第2の発光制御が行われるときに、前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの、前記第2の波長に最も分光感度の高い画素から第2の輝度信号を取得し、かつ前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの前記第3の波長に感度を有する画素であって、少なくとも前記第2の波長に最も分光感度の高い画素とは異なる画素から第2の参照信号を取得する画像信号取得部と、
を備えた内視鏡システム。
An imaging unit including an objective lens and an imaging element having a first pixel, a second pixel, and a third pixel in which color filters corresponding to the three primary colors are arranged;
A light source that emits a first illumination light, a second illumination light, and a third illumination light, each having a peak at a first wavelength, a second wavelength, and a third wavelength, each having a different wavelength;
First light emission control for simultaneously emitting the first illumination light and the third illumination light from the light source, and the second illumination light and the third illumination when the subject is imaged by the imaging unit. A light source controller that performs second light emission control for simultaneously emitting light;
When the first light emission control is performed by the light source control unit, the spectral sensitivity is highest at the first wavelength among the first pixel, the second pixel, and the third pixel of the image sensor. A pixel that obtains a first luminance signal from the pixel and is sensitive to the third wavelength among the first pixel, the second pixel, and the third pixel of the imaging device, and at least the first pixel When a first reference signal is acquired from a pixel different from the pixel having the highest spectral sensitivity for one wavelength and the second light emission control is performed by the light source control unit, the first pixel of the image sensor, Of the second pixel and the third pixel, the second luminance signal is obtained from the pixel having the highest spectral sensitivity at the second wavelength, and the first pixel, the second pixel, and the second pixel of the image sensor Of the third pixels, the pixels having sensitivity to the third wavelength, Both the image signal acquisition unit that acquires the second reference signal from a different pixel from the high pixel most spectral sensitivity in the second wavelength,
Endoscope system equipped with.
前記第1の参照信号及び第2の参照信号に基づいて前記第1の輝度信号及び前記第2の輝度信号のうちの少なくとも一方の輝度信号を画素毎又は撮像領域毎に補正する輝度補正部と、
前記輝度補正部による補正後の前記第1の輝度信号及び前記第2の輝度信号に基づいて前記被検体の構造を強調した画像信号を生成する画像信号生成部と、
をさらに備えた請求項1に記載の内視鏡システム。
A luminance correction unit that corrects at least one of the first luminance signal and the second luminance signal for each pixel or each imaging region based on the first reference signal and the second reference signal; ,
An image signal generation unit that generates an image signal in which the structure of the subject is emphasized based on the first luminance signal and the second luminance signal after correction by the luminance correction unit;
The endoscope system according to claim 1, further comprising:
前記第3の照明光の発光光量は、前記第1の照明光及び第2の照明光の発光光量よりも少ない請求項2に記載の内視鏡システム。   The endoscope system according to claim 2, wherein a light emission amount of the third illumination light is smaller than a light emission amount of the first illumination light and the second illumination light. 前記第1の参照信号及び前記第2の参照信号は、それぞれ前記第1の画素、第2の画素及び第3の画素のうちの前記第1の輝度信号及び第2の輝度信号を取得した画素とは異なる画素である参照信号取得画素の各色の画像信号を加算した画像信号である請求項2または3に記載の内視鏡システム。   The first reference signal and the second reference signal are pixels obtained from the first luminance signal and the second luminance signal, respectively, of the first pixel, the second pixel, and the third pixel. The endoscope system according to claim 2 or 3, wherein the endoscope system is an image signal obtained by adding image signals of respective colors of reference signal acquisition pixels which are different from the reference signal. 前記第3の照明光は、前記参照信号取得画素の分光感度の総和が最大になる波長を有する請求項4に記載の内視鏡システム。   The endoscope system according to claim 4, wherein the third illumination light has a wavelength that maximizes a sum of spectral sensitivities of the reference signal acquisition pixels. 前記第1の照明光及び前記第2の照明光のそれぞれの設定光量と、前記第1の照明光及び前記第2の照明光に対する前記参照信号取得画素の分光感度とに基づいて、前記第1の参照信号及び前記第2の参照信号を補正する参照信号補正部を更に備え、
前記輝度補正部は、前記参照信号補正部により補正された前記第1の参照信号及び第2の参照信号に基づいて前記第1の輝度信号及び前記第2の輝度信号のうちの少なくとも一方の輝度信号を画素毎又は撮像領域毎に補正する請求項4又は5に記載の内視鏡システム。
Based on the set light amounts of the first illumination light and the second illumination light, and the spectral sensitivity of the reference signal acquisition pixel with respect to the first illumination light and the second illumination light, respectively, the first illumination light and the second illumination light. A reference signal correction unit for correcting the reference signal and the second reference signal,
The luminance correction unit is a luminance of at least one of the first luminance signal and the second luminance signal based on the first reference signal and the second reference signal corrected by the reference signal correction unit. The endoscope system according to claim 4 or 5, wherein the signal is corrected for each pixel or each imaging region.
前記画像信号取得部が取得した前記第1の輝度信号が示す画像と前記第2の輝度信号が示す画像との位置合わせを行う位置合わせ部を更に備えた請求項2から6のいずれか1項に記載の内視鏡システム。   7. The apparatus according to claim 2, further comprising an alignment unit configured to align an image indicated by the first luminance signal acquired by the image signal acquisition unit and an image indicated by the second luminance signal. The endoscope system described in 1. 前記輝度補正部による前記第1の輝度信号及び前記第2の輝度信号のうちの少なくとも一方の輝度信号の補正前に、前記第1の輝度信号と前記第2の輝度信号との平均輝度を合わせる補正を行う平均輝度補正部を更に備えた請求項2から7のいずれか1項に記載の内視鏡システム。   Before correcting the luminance signal of at least one of the first luminance signal and the second luminance signal by the luminance correction unit, the average luminance of the first luminance signal and the second luminance signal is matched. The endoscope system according to any one of claims 2 to 7, further comprising an average luminance correction unit that performs correction. 前記輝度補正部は、前記第1の輝度信号及び前記第2の輝度信号のうちの一方の輝度信号に、前記第1の参照信号と第2の参照信号との比を乗算する請求項2から8のいずれか1項に記載の内視鏡システム。   The luminance correction unit multiplies one luminance signal of the first luminance signal and the second luminance signal by a ratio of the first reference signal and the second reference signal. The endoscope system according to any one of 8. 前記第1の参照信号及び前記第2の参照信号の高周波成分を低減させる周波数処理部を更に備え、
前記輝度補正部は、前記周波数処理部により処理された前記第1の参照信号及び前記第2の参照信号に基づいて前記第1の輝度信号及び前記第2の輝度信号のうちの少なくとも一方の輝度信号を画素毎又は撮像領域毎に補正する請求項2から9のいずれか1項に記載の内視鏡システム。
A frequency processing unit for reducing high frequency components of the first reference signal and the second reference signal;
The luminance correction unit is a luminance of at least one of the first luminance signal and the second luminance signal based on the first reference signal and the second reference signal processed by the frequency processing unit. The endoscope system according to any one of claims 2 to 9, wherein the signal is corrected for each pixel or each imaging region.
前記周波数処理部は、前記撮像部から前記被検体までの観察距離に基づいて前記第1の参照信号及び前記第2の参照信号の高周波成分を低減させる請求項10に記載の内視鏡システム。   The endoscope system according to claim 10, wherein the frequency processing unit reduces high frequency components of the first reference signal and the second reference signal based on an observation distance from the imaging unit to the subject. 前記撮像部から前記被検体までの観察距離毎に目標とする目標周波数特性を保持する記憶部を備え、
前記周波数処理部は、前記撮像部による撮像時の観察距離に基づいて前記記憶部から対応する目標周波数特性を取得し、前記第1の参照信号及び前記第2の参照信号の周波数特性を前記取得した目標周波数特性に調整する請求項11に記載の内視鏡システム。
A storage unit that holds target frequency characteristics targeted for each observation distance from the imaging unit to the subject;
The frequency processing unit acquires a corresponding target frequency characteristic from the storage unit based on an observation distance at the time of imaging by the imaging unit, and acquires the frequency characteristics of the first reference signal and the second reference signal. The endoscope system according to claim 11, wherein the endoscope system is adjusted to a target frequency characteristic.
前記周波数処理部は、前記撮像部による撮像時の観察距離が近い程、前記第1の参照信号及び前記第2の参照信号から高周波成分を低減させる処理を強くする請求項11又は12に記載の内視鏡システム。   13. The frequency processing unit according to claim 11, wherein the frequency processing unit strengthens a process of reducing a high-frequency component from the first reference signal and the second reference signal as the observation distance at the time of imaging by the imaging unit is closer. Endoscope system. 前記画像信号生成部は、
前記輝度補正部により補正された前記第1の輝度信号と前記第2の輝度信号との差分信号を算出する差分算出部と、
前記算出した差分信号から色差信号を生成する色差信号生成部と、
前記第1の輝度信号及び前記第2の輝度信号のうちの一方の輝度信号と前記生成した色差信号とを有するカラー画像信号、又は前記第1の輝度信号及び前記第2の輝度信号のうちの一方の輝度信号と前記生成した色差信号を前記三原色の各画像信号に変換したカラー画像信号を生成するカラー画像生成部と、
を有する請求項2から13のいずれか1項に記載の内視鏡システム。
The image signal generator is
A difference calculation unit for calculating a difference signal between the first luminance signal and the second luminance signal corrected by the luminance correction unit;
A color difference signal generation unit that generates a color difference signal from the calculated difference signal;
A color image signal having one of the first luminance signal and the second luminance signal and the generated color difference signal, or the first luminance signal and the second luminance signal; A color image generation unit that generates a color image signal obtained by converting one luminance signal and the generated color difference signal into each image signal of the three primary colors;
The endoscope system according to any one of claims 2 to 13, comprising:
前記被検体の構造は血管であり、
前記画像信号生成部は、前記血管を色により強調した前記画像信号を生成する請求項2から14のいずれか1項に記載の内視鏡システム。
The structure of the subject is a blood vessel,
The endoscope system according to claim 2, wherein the image signal generation unit generates the image signal in which the blood vessel is emphasized by color.
請求項2から15のいずれか1項に記載の内視鏡システムのプロセッサ装置であって、
前記光源と、前記光源制御部と、前記画像信号取得部と、前記輝度補正部と、前記画像信号生成部と、を備えたプロセッサ装置。
The processor device of the endoscope system according to any one of claims 2 to 15,
The processor apparatus provided with the said light source, the said light source control part, the said image signal acquisition part, the said brightness correction part, and the said image signal generation part.
対物レンズと、三原色の各色に対応するカラーフィルタが配列された第1の画素、第2の画素及び第3の画素を有する撮像素子とを含む撮像部による被検体の撮像時に、それぞれ波長の異なる第1の波長、第2の波長及び第3の波長をピークとする第1の照明光、第2の照明光及び第3の照明光を発光する光源から、前記第1の照明光と前記第3の照明光とを同時に発光させる第1の発光制御と、前記第2の照明光と前記第3の照明光とを同時に発光させる第2の発光制御とを順次行うステップと、
前記第1の発光制御が行われるときに、前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの、前記第1の波長に最も分光感度の高い画素から第1の輝度信号を取得し、かつ前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの前記第3の波長に感度を有する画素であって、少なくとも前記第1の波長に最も分光感度の高い画素とは異なる画素から第1の参照信号を取得し、前記第2の発光制御が行われるときに、前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの、前記第2の波長に最も分光感度の高い画素から第2の輝度信号を取得し、かつ前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの前記第3の波長に感度を有する画素であって、少なくとも前記第2の波長に最も分光感度の高い画素とは異なる画素から第2の参照信号を取得するステップと、
を含む信号処理方法。
When an object is imaged by an imaging unit including an objective lens and an imaging device having a first pixel, a second pixel, and a third pixel in which color filters corresponding to the three primary colors are arranged, the wavelengths are different from each other. The first illumination light and the first illumination light are emitted from a light source that emits the first illumination light, the second illumination light, and the third illumination light having peaks at the first wavelength, the second wavelength, and the third wavelength. Sequentially performing a first light emission control for simultaneously emitting the third illumination light and a second light emission control for simultaneously emitting the second illumination light and the third illumination light;
When the first light emission control is performed, the first pixel, the second pixel, and the third pixel of the image pickup device are changed from the pixel having the highest spectral sensitivity to the first wavelength. A pixel that obtains a luminance signal and is sensitive to the third wavelength among the first pixel, the second pixel, and the third pixel of the imaging device, and is at least the first wavelength When the first reference signal is acquired from a pixel different from the pixel having high spectral sensitivity and the second light emission control is performed, the first pixel, the second pixel, and the third pixel of the image sensor Of these, the second luminance signal is obtained from the pixel having the highest spectral sensitivity at the second wavelength, and the third of the first pixel, the second pixel, and the third pixel of the image sensor. A pixel having sensitivity to a wavelength of at least the highest spectral sensitivity to at least the second wavelength Obtaining a second reference signal from a different pixel from the element,
A signal processing method including:
前記第1の参照信号及び第2の参照信号に基づいて前記第1の輝度信号及び前記第2の輝度信号のうちの少なくとも一方の輝度信号を画素毎又は撮像領域毎に補正するステップと、
輝度補正された前記第1の輝度信号及び前記第2の輝度信号に基づいて前記被検体の構造を強調した画像信号を生成するステップと、
をさらに備えた請求項17に記載の信号処理方法。
Correcting at least one luminance signal of the first luminance signal and the second luminance signal for each pixel or each imaging region based on the first reference signal and the second reference signal;
Generating an image signal in which the structure of the subject is emphasized based on the first luminance signal and the second luminance signal whose luminance has been corrected;
The signal processing method according to claim 17, further comprising:
JP2016097269A 2016-05-13 2016-05-13 Endoscope system, processor device, and signal processing method for endoscope system Active JP6562554B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016097269A JP6562554B2 (en) 2016-05-13 2016-05-13 Endoscope system, processor device, and signal processing method for endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016097269A JP6562554B2 (en) 2016-05-13 2016-05-13 Endoscope system, processor device, and signal processing method for endoscope system

Publications (2)

Publication Number Publication Date
JP2017202241A true JP2017202241A (en) 2017-11-16
JP6562554B2 JP6562554B2 (en) 2019-08-21

Family

ID=60321310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016097269A Active JP6562554B2 (en) 2016-05-13 2016-05-13 Endoscope system, processor device, and signal processing method for endoscope system

Country Status (1)

Country Link
JP (1) JP6562554B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019130834A1 (en) * 2017-12-26 2019-07-04 オリンパス株式会社 Image processing device and image processing method
WO2019220583A1 (en) * 2018-05-17 2019-11-21 オリンパス株式会社 Endoscope device, endoscope device operation method, and program
CN112004455A (en) * 2018-04-23 2020-11-27 富士胶片株式会社 Medical image processing system
JPWO2021070688A1 (en) * 2019-10-10 2021-04-15
CN113366366A (en) * 2019-01-30 2021-09-07 富士胶片株式会社 Endoscope system
CN113454514A (en) * 2019-02-19 2021-09-28 富士胶片株式会社 Endoscope system
CN112004455B (en) * 2018-04-23 2024-04-26 富士胶片株式会社 Medical image processing system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013146484A (en) * 2012-01-23 2013-08-01 Fujifilm Corp Electronic endoscope system, image processing apparatus, image processing method, and image processing program
JP2013150712A (en) * 2012-01-25 2013-08-08 Fujifilm Corp Endoscope system, processor device for endoscope system, and image processing method
JP2016067775A (en) * 2014-09-30 2016-05-09 富士フイルム株式会社 Endoscope system, processor device, method for operating endoscope system, and method for operating processor device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013146484A (en) * 2012-01-23 2013-08-01 Fujifilm Corp Electronic endoscope system, image processing apparatus, image processing method, and image processing program
JP2013150712A (en) * 2012-01-25 2013-08-08 Fujifilm Corp Endoscope system, processor device for endoscope system, and image processing method
JP2016067775A (en) * 2014-09-30 2016-05-09 富士フイルム株式会社 Endoscope system, processor device, method for operating endoscope system, and method for operating processor device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111511263A (en) * 2017-12-26 2020-08-07 奥林巴斯株式会社 Image processing apparatus and image processing method
JPWO2019130834A1 (en) * 2017-12-26 2020-11-19 オリンパス株式会社 Image processing device and image processing method
WO2019130834A1 (en) * 2017-12-26 2019-07-04 オリンパス株式会社 Image processing device and image processing method
US11509834B2 (en) 2017-12-26 2022-11-22 Olympus Corporation Image processing apparatus and image processing method
CN112004455A (en) * 2018-04-23 2020-11-27 富士胶片株式会社 Medical image processing system
CN112004455B (en) * 2018-04-23 2024-04-26 富士胶片株式会社 Medical image processing system
JP7090699B2 (en) 2018-05-17 2022-06-24 オリンパス株式会社 How to operate the endoscope device and the endoscope device
WO2019220583A1 (en) * 2018-05-17 2019-11-21 オリンパス株式会社 Endoscope device, endoscope device operation method, and program
US11759098B2 (en) 2018-05-17 2023-09-19 Olympus Corporation Endoscope apparatus and operating method of endoscope apparatus
JPWO2019220583A1 (en) * 2018-05-17 2021-05-13 オリンパス株式会社 Endoscope device and how to operate the endoscope device
CN113366366A (en) * 2019-01-30 2021-09-07 富士胶片株式会社 Endoscope system
CN113454514A (en) * 2019-02-19 2021-09-28 富士胶片株式会社 Endoscope system
CN113454514B (en) * 2019-02-19 2023-11-07 富士胶片株式会社 endoscope system
JP7312843B2 (en) 2019-10-10 2023-07-21 富士フイルム株式会社 Endoscope system and its operating method
WO2021070688A1 (en) * 2019-10-10 2021-04-15 富士フイルム株式会社 Endoscope system and method for operating same
JPWO2021070688A1 (en) * 2019-10-10 2021-04-15

Also Published As

Publication number Publication date
JP6562554B2 (en) 2019-08-21

Similar Documents

Publication Publication Date Title
JP6367683B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP6234350B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP6461739B2 (en) Image processing apparatus, endoscope system, and method of operating image processing apparatus
WO2017183307A1 (en) Endoscope system, image processing device, and image processing device operation method
JP5355846B2 (en) Endoscope image processing device
US10039439B2 (en) Endoscope system and method for operating the same
US10709310B2 (en) Endoscope system, processor device, and method for operating endoscope system
JP5968944B2 (en) Endoscope system, processor device, light source device, operation method of endoscope system, operation method of processor device, operation method of light source device
JP6562554B2 (en) Endoscope system, processor device, and signal processing method for endoscope system
JP6522539B2 (en) Endoscope system and method of operating the same
JP6196598B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP6243364B2 (en) Endoscope processor, operation method, and control program
JP6576895B2 (en) Endoscope system, processor device, and operation method of endoscope system
US20200170492A1 (en) Light source device and endoscope system
WO2016104408A1 (en) Processor device for endoscope, method for operating same, and control program
JP6153913B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP6153912B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP6615950B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP6196599B2 (en) Endoscope processor device and method of operating endoscope processor device
JPWO2017170232A1 (en) Endoscopic image signal processing apparatus and method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190722

R150 Certificate of patent or registration of utility model

Ref document number: 6562554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250