WO2019234831A1 - Endoscope system - Google Patents

Endoscope system Download PDF

Info

Publication number
WO2019234831A1
WO2019234831A1 PCT/JP2018/021597 JP2018021597W WO2019234831A1 WO 2019234831 A1 WO2019234831 A1 WO 2019234831A1 JP 2018021597 W JP2018021597 W JP 2018021597W WO 2019234831 A1 WO2019234831 A1 WO 2019234831A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
illumination
unit
intensity distribution
dark
Prior art date
Application number
PCT/JP2018/021597
Other languages
French (fr)
Japanese (ja)
Inventor
翔 進士
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2020523889A priority Critical patent/JP7093409B2/en
Priority to PCT/JP2018/021597 priority patent/WO2019234831A1/en
Priority to CN201880094090.1A priority patent/CN112203572B/en
Publication of WO2019234831A1 publication Critical patent/WO2019234831A1/en
Priority to US17/108,216 priority patent/US11805988B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0605Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for spatially modulated illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)

Abstract

This endoscope system (1) is provided with: an illumination unit (4) for irradiating an object (A) with illumination light (L) having an intensity distribution which has bright portions and dark portions spatially repeated in a luminous flux cross section; an intensity distribution change unit (5) for changing the width of the dark portions; an imaging unit (6) for acquiring a plurality of illumination images of the object (A) irradiated with illumination light beams (L) having mutually different dark portion widths; a separation processing unit (7) for generating a first separated image and a second separated image from each illumination image, the first separated image including more information of a deeper layer of the object (A) than the second separated image; and a computation unit (8) for calculating depth information of a feature part within the object (A) on the basis of a change among the first separated images and a change among the second separated images.

Description

内視鏡システムEndoscope system
 本発明は、内視鏡システムに関するものである。 The present invention relates to an endoscope system.
 従来、ヘモグロビンの吸光特性が異なる3つの波長帯域の画像信号の比を利用して、観察範囲内にある血管の太さおよび深さを算出する内視鏡システムが提案されている(例えば、特許文献1参照。)。 2. Description of the Related Art Conventionally, an endoscope system that calculates the thickness and depth of a blood vessel within an observation range using a ratio of image signals in three wavelength bands having different light absorption characteristics of hemoglobin has been proposed (for example, patents). Reference 1).
特開2016-174836号公報JP 2016-174836 A
 内視鏡検査によって病変部が発見されたとき、病変部がどの程度深くまで到達しているかを知ることが、その後の対応の決定に重要である。特許文献1の技術は、ヘモグロビンの吸光特性を利用しているため、深さを算出できる組織が血管に限られる。すなわち、正常部と比べて血管の変化が少ない病変部および血管を含まない病変部の深さを、特許文献1の技術によって算出することはできないという問題がある。 知 る When a lesion is detected by endoscopy, it is important to determine how deeply the lesion has reached to determine the subsequent response. Since the technique of Patent Document 1 uses the light absorption characteristics of hemoglobin, the tissue whose depth can be calculated is limited to blood vessels. That is, there is a problem that the depth of a lesioned part that does not change blood vessels compared to a normal part and a lesioned part that does not include a blood vessel cannot be calculated by the technique of Patent Document 1.
 本発明は、上述した事情に鑑みてなされたものであって、被写体内の特徴部の深さ情報を特徴部の吸収特性に関わらず取得することができる内視鏡システムを提供することを目的とする。 The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide an endoscope system that can acquire depth information of a feature portion in a subject regardless of the absorption characteristics of the feature portion. And
 上記目的を達成するため、本発明は以下の手段を提供する。
 本発明の一態様は、照明光を被写体に照射し、前記照明光が、光軸に垂直な光束断面において明部および暗部が空間的に繰り返される強度分布を有する、照明部と、前記照明光の前記強度分布における前記暗部の幅を変化させる強度分布変更部と、前記暗部の幅が相互に異なる照明光で照明されている前記被写体の複数の照明画像を取得する撮像部と、前記複数の照明画像の各々から第1の分離画像および第2の分離画像を作成し、前記第1の分離画像が、前記被写体の深層の情報を前記第2の分離画像よりも多く含む、分離処理部と、前記複数の照明画像から作成された複数の前記第1の分離画像および複数の前記第2の分離画像に基づいて前記被写体内の特徴部の深さ情報を算出する演算部とを備え、前記分離処理部が、前記強度分布の前記明部、前記暗部、および前記明部と前記暗部の間の強度を有する部分のそれぞれと対応する前記照明画像内の画素の強度値のうち、少なくとも2つの強度値に基づいて、前記第1および第2の分離画像を作成し、前記演算部が、前記複数の第1の分離画像間の変化および前記複数の第2の分離画像間の変化に基づいて前記特徴部の深さ情報を算出する内視鏡システムである。
In order to achieve the above object, the present invention provides the following means.
One embodiment of the present invention irradiates a subject with illumination light, and the illumination light has an intensity distribution in which a bright portion and a dark portion are spatially repeated in a light beam cross section perpendicular to an optical axis, and the illumination light An intensity distribution changing unit that changes a width of the dark part in the intensity distribution; an imaging unit that acquires a plurality of illumination images of the subject that are illuminated with illumination lights having different widths of the dark part; A separation processing unit that creates a first separated image and a second separated image from each of the illumination images, and wherein the first separated image includes more information about the depth of the subject than the second separated image; A calculation unit that calculates depth information of the feature in the subject based on the plurality of first separated images and the plurality of second separated images created from the plurality of illumination images, A separation processing unit Based on at least two intensity values among the intensity values of the pixels in the illumination image corresponding to each of the writing part, the dark part, and the part having the intensity between the bright part and the dark part, the first And a second separated image, and the arithmetic unit calculates depth information of the feature based on a change between the plurality of first separated images and a change between the plurality of second separated images. This is an endoscope system.
 本発明の一態様によれば、散乱体である被写体に照明光が照射されたときに、被写体の表面において鏡面反射された鏡面反射光(スペキュラ光)と、被写体内部の表層での散乱を経て被写体の表面から射出された表面散乱光と、被写体内部の深層での散乱を経て被写体の表面から射出された内部散乱光とが生じる。照明部から空間的に非一様な強度分布を有する照明光を被写体に照射することで、内部散乱光がスペキュラ光および表面散乱光とは空間的に分離される。すなわち、明部ではスペキュラ光、表面散乱光および内部散乱光が生じるのに対し、暗部では、明部から暗部まで回り込んだ内部散乱光が支配的に生じる。 According to one embodiment of the present invention, when illumination light is irradiated onto a subject that is a scatterer, specular reflected light (specular light) that is specularly reflected on the surface of the subject and scattering on a surface layer inside the subject. Surface scattered light emitted from the surface of the subject and internal scattered light emitted from the surface of the subject through scattering in the deep layer inside the subject are generated. By irradiating the subject with illumination light having a spatially non-uniform intensity distribution from the illumination unit, the internal scattered light is spatially separated from the specular light and the surface scattered light. That is, specular light, surface scattered light, and internal scattered light are generated in the bright part, whereas internal scattered light that circulates from the bright part to the dark part is predominantly generated in the dark part.
 したがって、撮像部によって取得された照明画像内の暗部に対応する領域は、深層の情報を多く含み、明部に対応する領域は表面および表層の情報を多く含む。情報とは、生体組織に入射し、生体組織やその内部の構造物によって散乱、吸収などの変調を受けて生体組織から射出される光の光量などを意味する。分離処理部は、明部、暗部および明部と暗部の間の強度を有する部分のそれぞれと対応する画素の強度値のうち、少なくとも2つの強度値に基づいて、異なる深さの情報を多く含む第1および第2の分離画像を作成することができる。 Therefore, the region corresponding to the dark portion in the illumination image acquired by the imaging unit includes a lot of deep layer information, and the region corresponding to the bright portion includes a lot of surface and surface layer information. Information means the amount of light that is incident on a living tissue and is emitted from the living tissue after being subjected to modulation such as scattering or absorption by the living tissue or a structure inside the living tissue. The separation processing unit includes a lot of information of different depths based on at least two intensity values among the intensity values of pixels corresponding to each of the bright part, the dark part, and the part having the intensity between the bright part and the dark part. First and second separated images can be created.
 具体的には、分離処理部は、暗部に対応する領域の画素の強度値に基づいて、被写体の深層の情報を多く含む第1の分離画像(深層画像)を作成することができる。
 また、分離処理部は、明部に対応する領域の画素の強度値に基づいて被写体の表面および表層の情報を多く含む第2の分離画像(表層画像)を作成することができる。あるいは、分離処理部は、明部と暗部の間の強度値を有する部分に対応する領域の画素の強度値に基づいて、深層よりも浅く表層よりも深い位置の情報を多く含む第2の分離画像を作成することができる。
Specifically, the separation processing unit can create a first separated image (deep layer image) including a lot of information on the depth of the subject based on the intensity value of the pixel in the region corresponding to the dark part.
Further, the separation processing unit can create a second separated image (surface layer image) including a lot of information on the surface and surface layer of the subject based on the intensity value of the pixel in the region corresponding to the bright part. Alternatively, the separation processing unit performs the second separation including a lot of information on a position shallower than the deep layer and deeper than the surface layer based on the intensity value of the pixel in the region corresponding to the portion having the intensity value between the bright part and the dark part. Images can be created.
 この場合に、被写体に照射される照明光の暗部の幅が、強度分布変更部によって変更され、暗部の幅が相互に異なる照明光で照明されている被写体の複数の照明画像が撮像部によって取得される。第1および第2の分離画像間の分離深さは、被写体における暗部の幅が大きい程、深くなる。分離深さとは、第1および第2の分離画像に含まれる情報の深さの大まかな境目である。すなわち、第1の分離画像は、分離深さよりも深い層の情報を主に含み、第2の分離画像は、分離深さよりも浅い層の情報を主に含む。暗部の幅が小さい程、第1の分離画像は、より浅い層の情報を含み、暗部の幅が大きい程、第2の分離画像は、より深い層の情報を含む。したがって、複数の照明画像から作成された複数の第1の分離画像の変化および第2の分離画像の変化に基づいて、被写体内の特徴部の深さ情報を取得することができる。また、特徴部による散乱光に基づく照明画像を用いることによって、特徴部の吸収特性に関わらず特徴部の深さ情報を取得することができる。 In this case, the width of the dark part of the illumination light applied to the subject is changed by the intensity distribution changing unit, and a plurality of illumination images of the subject illuminated with illumination light having different dark part widths are acquired by the imaging unit. Is done. The separation depth between the first and second separated images becomes deeper as the width of the dark part in the subject is larger. The separation depth is a rough boundary between the depths of information included in the first and second separated images. That is, the first separated image mainly includes information on a layer deeper than the separation depth, and the second separated image mainly includes information on a layer shallower than the separation depth. The smaller the dark part width, the shallower the first separated image, and the larger the dark part width, the deeper the second separated image. Therefore, the depth information of the feature portion in the subject can be acquired based on the change of the plurality of first separated images and the change of the second separated image created from the plurality of illumination images. Further, by using the illumination image based on the scattered light from the feature portion, the depth information of the feature portion can be acquired regardless of the absorption characteristics of the feature portion.
 上記態様においては、前記照明部が、前記撮像部と前記被写体との間の撮影距離に比例して前記被写体上での前記明部および前記暗部のパターンが拡大されるように、前記照明光を発散光束として射出してもよい。
 この構成によって、撮影距離を変更するだけで被写体上での暗部の幅を変更させることができる。
In the above aspect, the illuminating unit emits the illumination light so that a pattern of the bright part and the dark part on the subject is enlarged in proportion to a shooting distance between the imaging unit and the subject. It may be emitted as a divergent light beam.
With this configuration, it is possible to change the width of the dark portion on the subject simply by changing the shooting distance.
 上記態様においては、前記撮像部と前記被写体との間の撮影距離を計測する撮影距離計測部を備え、前記強度分布変更部が、前記被写体上での前記照明光の強度分布が前記撮像部と前記被写体との間の距離に依らずに一定となるように、前記撮影距離に基づいて前記強度分布における前記明部と暗部との周期を変更してもよい。
 この構成によって、照明部での暗部の幅と被写体上での暗部の幅との関係を、撮影距離に依らずに一定にすることができる。
In the above aspect, the imaging apparatus includes a shooting distance measuring unit that measures a shooting distance between the imaging unit and the subject, and the intensity distribution changing unit is configured such that the intensity distribution of the illumination light on the subject is the imaging unit. The period between the bright part and the dark part in the intensity distribution may be changed based on the photographing distance so as to be constant regardless of the distance to the subject.
With this configuration, the relationship between the dark part width on the illumination part and the dark part width on the subject can be made constant regardless of the shooting distance.
 上記態様においては、前記照明光が、互いに異なる波長を有する複数の光からなり、該複数の光は、波長が長い程、前記明部と前記暗部との周期が小さくなる前記強度分布を有していてもよい。
 被写体内に入射した光は、波長が長い程、深い位置まで到達するので、より長い波長の光の内部散乱光は、より深い層の情報を含む。波長が長い程、明部と暗部との周期を小さくすることによって、波長の違いによる情報の深さの違いを低減することができる。
In the above aspect, the illumination light includes a plurality of lights having different wavelengths, and the plurality of lights has the intensity distribution in which a period between the bright part and the dark part decreases as the wavelength increases. It may be.
Since the light that has entered the subject reaches a deeper position as the wavelength is longer, the internally scattered light of the light having a longer wavelength includes deeper layer information. The longer the wavelength, the smaller the period between the bright part and the dark part, thereby reducing the difference in information depth due to the difference in wavelength.
 上記態様においては、前記照明光の前記強度分布は、帯状の前記明部および前記暗部が幅方向に交互に繰り返される縞状であってもよい。
 この構成によって、簡便な明暗パターンで内部散乱光を効果的に分離することができる。また、解像度の高い第1および第2の分離画像の作成には、明部および暗部の位置が相互に異なる照明光で照明されている被写体の2枚以上の照明画像が使用される。強度分布を縞の幅方向にのみ変化させることによって、明部と暗部との位置を簡単に時間変化させることができる。
In the above aspect, the intensity distribution of the illumination light may have a striped shape in which the band-like bright portions and the dark portions are alternately repeated in the width direction.
With this configuration, it is possible to effectively separate the internally scattered light with a simple light and dark pattern. In order to create the first and second separated images with high resolution, two or more illumination images of a subject illuminated with illumination light having different positions of the bright part and the dark part are used. By changing the intensity distribution only in the width direction of the stripe, the positions of the bright part and the dark part can be easily changed over time.
 上記態様においては、前記照明光の前記強度分布の、前記明部および前記暗部の前記幅方向における強度プロファイルが、略正弦波形状であってもよい。
 正弦波状に強度が空間的に変化する照明光を被写体に照射することによって、最も強度の高い光が当てられているときの第2の分離画像用の強度値と、最も強度が低い光が当てられているときの第1の分離画像用の強度値とを、位相シフト法によって計算することができる。これにより、解像度の高い第1および第2の分離画像を少ない枚数の照明画像から作成することができる。
In the above aspect, the intensity profile in the width direction of the bright part and the dark part of the intensity distribution of the illumination light may be substantially sinusoidal.
By irradiating the subject with illumination light whose intensity varies spatially in a sine wave shape, the intensity value for the second separated image when the highest intensity light is applied and the light with the lowest intensity are applied. The intensity value for the first separated image can be calculated by the phase shift method. Thereby, the 1st and 2nd separated image with high resolution can be created from a small number of illumination images.
 上記態様においては、前記照明光の偏光状態を制御する偏光制御部と、前記被写体から前記撮像部に入射する光の偏光状態を選択する偏光選択部とを備えていてもよい。
 被写体に照明光が照射されたときに、表面散乱光および内部散乱光に加えて、鏡面反射光(スペキュラ光)も発生し得る。スペキュラ光は、被写体の表面において鏡面反射された光であり、第2の分離画像に含まれる。スペキュラ光は照明光と同一の偏光状態を有するのに対し、表面散乱光および内部散乱光は特定の偏光状態を有しない。したがって、偏光選択部によってスペキュラ光以外の光を選択的に撮像部に入射させることにより、スペキュラ光を含まない第2の分離画像を作成することができる。そして、スペキュラ光を含まない第2の分離画像に基づいて、特徴部のより正確な深さ情報を取得することができる。
In the aspect described above, a polarization control unit that controls a polarization state of the illumination light and a polarization selection unit that selects a polarization state of light incident on the imaging unit from the subject.
When the subject is irradiated with illumination light, specular reflection light (specular light) can also be generated in addition to the surface scattering light and the internal scattering light. The specular light is specularly reflected on the surface of the subject and is included in the second separated image. Specular light has the same polarization state as illumination light, whereas surface scattered light and internally scattered light do not have a specific polarization state. Therefore, by selectively allowing light other than specular light to enter the imaging unit by the polarization selection unit, it is possible to create a second separated image that does not include specular light. Then, based on the second separated image that does not include specular light, more accurate depth information of the feature portion can be acquired.
 上記態様においては、前記演算部は、前記暗部の幅と、前記第1の分離画像と前記第2の分離画像との間の分離深さとが相互に対応付けられた対応表に基づいて前記特徴部の深さ情報を算出してもよい。
 この構成によって、各分離画像がどの程度の深さの層の情報を含んでいるかを、対応表において暗部の幅と対応付けられている分離深さから知ることができる。したがって、特徴部を含む分離画像の分離深さを対応表から取得することによって、特徴部の深さ情報を簡単に算出することができる。
In the above aspect, the calculation unit is characterized in that the feature is based on a correspondence table in which a width of the dark part and a separation depth between the first separated image and the second separated image are associated with each other. The depth information of the part may be calculated.
With this configuration, it is possible to know from what separation depth each layered image contains information about the layer depth from the separation depth associated with the width of the dark part in the correspondence table. Therefore, the depth information of the feature portion can be easily calculated by acquiring the separation depth of the separated image including the feature portion from the correspondence table.
 上記態様においては、前記演算部が、前記複数組の第1および第2の分離画像の各々のコントラストを算出し、該コントラストおよび前記対応表に基づいて前記特徴部の深さ情報を算出してもよい。
 特徴部を含む分離画像のコントラストは、特徴部を含まない分離画像のコントラストに比べて高くなる。したがって、特徴部を含む分離画像をコントラストに基づいて容易に特定することができる。そして、特定された分離画像の暗部の幅と対応付けられている分離深さを対応表から取得することによって、特徴部の深さ情報を算出することができる。
In the above aspect, the calculation unit calculates the contrast of each of the plurality of sets of first and second separated images, and calculates the depth information of the feature unit based on the contrast and the correspondence table. Also good.
The contrast of the separated image including the feature part is higher than the contrast of the separated image not including the feature part. Therefore, it is possible to easily specify the separated image including the feature portion based on the contrast. Then, by obtaining the separation depth associated with the width of the dark part of the identified separated image from the correspondence table, the depth information of the feature part can be calculated.
 本発明によれば、被写体内の特徴部の深さ情報を特徴部の吸収特性に関わらず取得することができるという効果を奏する。 According to the present invention, it is possible to obtain the depth information of the characteristic part in the subject regardless of the absorption characteristic of the characteristic part.
本発明の一実施形態に係る内視鏡システムの全体構成図である。1 is an overall configuration diagram of an endoscope system according to an embodiment of the present invention. 照明光の明暗パターンの時間変化の一例を示す図である。It is a figure which shows an example of the time change of the light-dark pattern of illumination light. 分離処理部による表層画像および深層画像の作成方法を説明する図である。It is a figure explaining the production method of the surface layer image and deep layer image by a separation process part. 照明光の暗部の幅と分離深さとの関係を説明する図である。It is a figure explaining the relationship between the width | variety of the dark part of illumination light, and the separation depth. 照明光の暗部の幅と分離深さとの関係を説明する図である。It is a figure explaining the relationship between the width | variety of the dark part of illumination light, and the separation depth. 生体組織に照射される照明光の明暗パターンのピッチと、分離深さとの関係を示す図である。It is a figure which shows the relationship between the pitch of the brightness-and-darkness pattern of the illumination light irradiated to a biological tissue, and a separation depth. 図5Aの生体組織の表層画像および深層画像を示す図であり、分離深さと表層画像および深層画像のコントラストとの関係を説明する図である。It is a figure which shows the surface layer image and deep layer image of the biological tissue of FIG. 5A, and is a figure explaining the relationship between the separation depth and the contrast of a surface layer image and a deep layer image. 分離深さと、表層画像および深層画像のコントラストとの関係を示すグラフである。It is a graph which shows the relationship between a separation depth and the contrast of a surface layer image and a deep layer image. 照明光の明暗パターンのピッチと、表層画像および深層画像のコントラストとの関係を示すグラフである。It is a graph which shows the relationship between the pitch of the brightness-and-darkness pattern of illumination light, and the contrast of a surface layer image and a deep layer image. 照明光の明暗パターンのピッチと、分離深さとの関係を示すグラフである。It is a graph which shows the relationship between the pitch of the light / dark pattern of illumination light, and the separation depth. 図1の内視鏡システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the endoscope system of FIG. 照明部および強度分布変更部の他の構成例を示す図である。It is a figure which shows the other structural example of an illumination part and an intensity distribution change part. 図10Aの照明部によって生成される照明光の明暗パターンおよびその時間変化を説明する図である。It is a figure explaining the light-dark pattern of the illumination light produced | generated by the illumination part of FIG. 10A, and its time change. 照明部および強度分布変更部の他の構成例を示す図である。It is a figure which shows the other structural example of an illumination part and an intensity distribution change part. 照明光の強度分布の時間変化の他の例を説明する図である。It is a figure explaining the other example of the time change of the intensity distribution of illumination light. 図11AのI-I線における照明光の強度の空間プロファイルを示す図である。It is a figure which shows the space profile of the intensity | strength of the illumination light in the II line | wire of FIG. 11A. 偏光制御部および偏光選択部を備える内視鏡システムの変形例の部分構成図である。It is a fragmentary block diagram of the modification of an endoscope system provided with a polarization control part and a polarization selection part.
 以下に、本発明の一実施形態に係る内視鏡システム1について図面を参照して説明する。
 本実施形態に係る内視鏡システム1は、図1に示されるように、体内を観察する内視鏡2と、内視鏡2の基端に接続された本体部3とを備えている。
 また、内視鏡システム1は、体内の生体組織(被写体)Aを明暗パターンを有する照明光Lで照明する照明部4と、照明光Lの明暗パターンを変化させる強度分布変更部5と、照明光Lで照明されている生体組織Aの照明画像を取得する撮像部6と、照明画像から表層画像(第2の分離画像)および深層画像(第1の分離画像)を作成する分離処理部7と、表層画像および深層画像に基づいて生体組織A内の特徴部E(図5A参照。)の深さの情報を算出する演算部8とを備えている。特徴部Eは、生体組織A内に存在する組織であり、例えば、血管または病変部である。
Hereinafter, an endoscope system 1 according to an embodiment of the present invention will be described with reference to the drawings.
As shown in FIG. 1, the endoscope system 1 according to the present embodiment includes an endoscope 2 that observes the inside of the body, and a main body 3 that is connected to the proximal end of the endoscope 2.
In addition, the endoscope system 1 includes an illuminating unit 4 that illuminates a living tissue (subject) A in the body with illumination light L having a bright and dark pattern, an intensity distribution changing unit 5 that changes a light and dark pattern of the illumination light L, and illumination. An imaging unit 6 that acquires an illumination image of the living tissue A illuminated with the light L, and a separation processing unit 7 that creates a surface layer image (second separated image) and a deep layer image (first separated image) from the illuminated image. And a calculation unit 8 that calculates information on the depth of the characteristic portion E (see FIG. 5A) in the living tissue A based on the surface layer image and the deep layer image. The feature E is a tissue existing in the living tissue A, and is, for example, a blood vessel or a lesion.
 照明部4は、光軸に垂直な光束断面において空間的に非一様な強度分布を有する照明光Lを生成し、内視鏡2の先端から生体組織Aに向かって照明光Lを射出する。照明光Lは、例えば、白色光、赤外光等の単波長光、赤、緑、青等の単色光、または、波長が異なる複数の光の混合光である。照明光Lは、一般に、光束の中心から周縁に向かって明るさが漸次低下する強度の勾配を有する。このような光束断面の全体的な強度勾配とは別に、照明光Lは、光束断面において、高強度の明部と該明部よりも低強度の暗部とが交互に繰り返される明暗パターンを有する。明暗パターンは、図2に示されるように、真っ直ぐな帯状の明部および暗部が、明部および暗部の長手方向に直交する幅方向にのみ交互に繰り返される縞パターンである。図2において、白い領域は明部を表し、黒い領域は暗部を表す。図2の明暗パターンでは、明部の幅と暗部の幅が相互に等しいが、明部の幅と暗部の幅は相互に異なっていてもよい。 The illumination unit 4 generates illumination light L having a spatially non-uniform intensity distribution in a light beam cross section perpendicular to the optical axis, and emits the illumination light L from the distal end of the endoscope 2 toward the living tissue A. . The illumination light L is, for example, single wavelength light such as white light and infrared light, single color light such as red, green, and blue, or mixed light of a plurality of lights having different wavelengths. The illumination light L generally has an intensity gradient in which the brightness gradually decreases from the center of the light beam toward the periphery. Apart from the overall intensity gradient of the light beam cross section, the illumination light L has a light and dark pattern in which a high intensity bright part and a dark part having a lower intensity than the bright part are alternately repeated in the light beam cross section. As shown in FIG. 2, the light / dark pattern is a stripe pattern in which straight belt-like bright portions and dark portions are alternately repeated only in the width direction orthogonal to the longitudinal direction of the bright portions and dark portions. In FIG. 2, a white area represents a bright part, and a black area represents a dark part. In the light / dark pattern of FIG. 2, the width of the bright portion and the width of the dark portion are equal to each other, but the width of the bright portion and the width of the dark portion may be different from each other.
 照明部4は、図1に示されるように、本体部3に設けられた発光部4a、リフレクタ4bおよびマスク4cを備えている。また、照明部4は、内視鏡2に設けられたイメージガイドファイバ4dおよび投影レンズ4eを備えている。発光部4aから出力された光は、リフレクタ4bによって集光され、マスク4cを照明する。マスク4cは、光を透過させる透光領域と、光を遮断する遮光領域とを有し、明暗パターンに対応する投影パターンが透光領域および遮光領域から形成されている。光がマスク4cを透過することによって明暗パターンを有する照明光Lが生成される。マスク4cは、光が入射する入射領域内の各位置の光透過率を電気的に制御することができる液晶素子である。マスク4cによって生成された照明光Lは、明暗パターンを保存しながらイメージガイドファイバ4dによって導光され、投影レンズ4eによって内視鏡2の先端から射出される。 The illumination part 4 is provided with the light emission part 4a, the reflector 4b, and the mask 4c which were provided in the main-body part 3, as FIG. 1 shows. The illumination unit 4 includes an image guide fiber 4d and a projection lens 4e provided in the endoscope 2. The light output from the light emitting unit 4a is collected by the reflector 4b and illuminates the mask 4c. The mask 4c has a light-transmitting region that transmits light and a light-blocking region that blocks light, and a projection pattern corresponding to a light and dark pattern is formed from the light-transmitting region and the light-blocking region. When the light passes through the mask 4c, the illumination light L having a bright and dark pattern is generated. The mask 4c is a liquid crystal element that can electrically control the light transmittance at each position in the incident region where light enters. The illumination light L generated by the mask 4c is guided by the image guide fiber 4d while preserving the light / dark pattern, and is emitted from the distal end of the endoscope 2 by the projection lens 4e.
 強度分布変更部5は、図2に示されるように、明暗パターンにおける明部および暗部の位置と、明暗パターンのピッチ(明部および暗部の周期)Pとを時間変化させる。ピッチP(P1,P2,P3)の変化によって、暗部の幅Wdが変化する。
 具体的には、強度分布変更部5は、明暗パターンを明部および暗部の幅方向に時間変化させ、明部と暗部の位置を相互に入れ替える。図2において、横方向が時間の流れを表している。これにより、生体組織Aの表面B上の照明光Lの照射範囲内の各位置には、明部および暗部が投影される。強度分布変更部5は、明部および暗部の位置を時間変化させた後、ピッチPを変更し、明部および暗部の位置を再び時間変化させる。強度分布変更部5は、ピッチPの変更と、明部および暗部の位置の変更とを繰り返す。
As shown in FIG. 2, the intensity distribution changing unit 5 changes the positions of the bright part and the dark part in the bright and dark pattern and the pitch (period of the bright part and the dark part) P of the bright and dark pattern over time. The width Wd of the dark part changes due to the change of the pitch P (P1, P2, P3).
Specifically, the intensity distribution changing unit 5 temporally changes the light / dark pattern in the width direction of the bright part and the dark part, and exchanges the positions of the bright part and the dark part with each other. In FIG. 2, the horizontal direction represents the flow of time. Thereby, a bright part and a dark part are projected at each position within the irradiation range of the illumination light L on the surface B of the living tissue A. The intensity distribution changing unit 5 changes the positions of the bright part and the dark part with time, then changes the pitch P, and changes the positions of the bright part and the dark part with time again. The intensity distribution changing unit 5 repeats changing the pitch P and changing the positions of the bright part and the dark part.
 強度分布変更部5は、マスク4cの入射領域内の各位置の光透過率を制御する制御素子を備える。液晶素子からなるマスク4cは、任意の投影パターンを形成することができ、任意の投影パターンを自由に時間変化させることができる。強度分布変更部5は、予め設定されたプログラムに従ってマスク4cの各位置の光透過率を制御することによって、照明光LのピッチPおよび幅Wdを時間変化させる。 The intensity distribution changing unit 5 includes a control element that controls the light transmittance at each position in the incident region of the mask 4c. The mask 4c made of a liquid crystal element can form an arbitrary projection pattern, and the arbitrary projection pattern can be freely changed over time. The intensity distribution changing unit 5 changes the pitch P and the width Wd of the illumination light L over time by controlling the light transmittance at each position of the mask 4c according to a preset program.
 撮像部6は、内視鏡2の先端に設けられ生体組織Aからの光を集める撮像レンズ6aと、撮像レンズ6aによって形成された生体組織Aの像を撮影する撮像素子6bとを備えている。撮像素子6bによって取得された照明画像は、撮像素子6bから分離処理部7に送信される。 The imaging unit 6 includes an imaging lens 6a that is provided at the distal end of the endoscope 2 and collects light from the biological tissue A, and an imaging element 6b that captures an image of the biological tissue A formed by the imaging lens 6a. . The illumination image acquired by the image sensor 6b is transmitted from the image sensor 6b to the separation processing unit 7.
 ここで、生体組織Aに照射される照明光Lの強度分布は、図2に示されるように強度分布変更部5によって時間変化する。撮像素子6bは、明暗パターンのピッチが相互に異なる複数組の第1照明画像および第2照明画像を取得する。第1照明画像および第2照明画像は、暗部と明部とが相互に入れ替わっている照明光Lで照明されている生体組織Aの画像である。したがって、図3に示されるように、第1照明画像および第2照明画像は、明部の投影領域と暗部の投影領域とが相互に反転し、明部の投影領域同士および暗部の投影領域同士が補完し合う画像である。図3の第1照明画像および第2照明画像において、白い領域は明部の投影領域を表し、黒い領域は暗部の投影領域を表す。
 したがって、強度分布変更部5による強度分布の変更のタイミングと撮像素子6bによる撮影のタイミングとが互いに同期するように、強度分布変更部5および撮像素子6bの動作は、本体部3内に設けられた図示しない制御装置によって制御される。
Here, the intensity distribution of the illumination light L applied to the living tissue A changes with time by the intensity distribution changing unit 5 as shown in FIG. The imaging device 6b acquires a plurality of sets of first illumination images and second illumination images having different pitches of the light and dark patterns. The first illumination image and the second illumination image are images of the living tissue A that is illuminated with the illumination light L in which the dark part and the bright part are interchanged with each other. Therefore, as shown in FIG. 3, in the first illumination image and the second illumination image, the bright area projection area and the dark area projection area are inverted to each other, and the bright area projection areas and the dark area projection areas are mutually inverted. Are images that complement each other. In the first illumination image and the second illumination image in FIG. 3, a white area represents a bright area projection area, and a black area represents a dark area projection area.
Therefore, the operations of the intensity distribution changing unit 5 and the image sensor 6b are provided in the main body 3 so that the timing of changing the intensity distribution by the intensity distribution changing unit 5 and the timing of photographing by the image sensor 6b are synchronized with each other. It is controlled by a control device (not shown).
 分離処理部7は、図3に示されるように、各組の第1照明画像および第2照明画像から1組の表層画像および深層画像を作成する。第1および第2照明画像の各位置の画素について、明部が投影されているときの強度値Imaxと、暗部が投影されているときの強度値Iminとが取得される。分離処理部7は、下式(1)から表層画像の各画素の強度値Isを算出し、強度値Isを有する表層画像を作成する。また、分離処理部7は、下式(2)から深層画像の各画素の強度値Idを算出し、強度値Idを有する深層画像を作成する。
 Is=Imax-Imin   …(1)
 Id=Imin×2   …(2)
As illustrated in FIG. 3, the separation processing unit 7 creates a set of surface layer images and a deep layer image from each set of the first illumination image and the second illumination image. For the pixels at the respective positions of the first and second illumination images, the intensity value Imax when the bright part is projected and the intensity value Imin when the dark part is projected are acquired. The separation processing unit 7 calculates the intensity value Is of each pixel of the surface layer image from the following formula (1), and creates a surface layer image having the intensity value Is. Further, the separation processing unit 7 calculates the intensity value Id of each pixel of the deep image from the following formula (2), and creates a deep image having the intensity value Id.
Is = Imax−Imin (1)
Id = Imin × 2 (2)
 散乱体である生体組織Aに明暗パターンを有する照明光Lが照射されたときに、生体組織Aからは、鏡面反射光(スペキュラ光)、表面散乱光および内部散乱光が発生する。
 スペキュラ光は、生体組織Aの表面Bで鏡面反射された照明光Lの反射光であり、明部の投影領域において発生する。
 表面散乱光は、明部の投影領域から生体組織A内に入射し、散乱を繰り返しながら表層Cを通過し、表面Bから射出された照明光Lの散乱光である。表面散乱光のほとんどは、明部の投影領域から射出される。
 内部散乱光は、明部の投影領域から生体組織A内に入射し、散乱を繰り返しながら深層Dを通過し、表面Bから射出された照明光Lの散乱光である。内部散乱光の一部は明部の投影領域から射出され、他の部分は暗部の投影領域まで伝播して暗部の投影領域から射出される。
When the biological tissue A, which is a scatterer, is irradiated with illumination light L having a bright and dark pattern, specular reflection light (specular light), surface scattered light, and internal scattered light are generated from the biological tissue A.
The specular light is reflected light of the illumination light L specularly reflected by the surface B of the living tissue A, and is generated in the projection area of the bright part.
The surface scattered light is scattered light of the illumination light L that is incident on the living tissue A from the projection area of the bright part, passes through the surface layer C while repeating scattering, and is emitted from the surface B. Most of the surface scattered light is emitted from the projection area of the bright part.
The internal scattered light is scattered light of the illumination light L that is incident on the living tissue A from the projection area of the bright part, passes through the deep layer D while repeating scattering, and is emitted from the surface B. A part of the internal scattered light is emitted from the projection area of the bright part, and the other part is propagated to the projection area of the dark part and is emitted from the projection area of the dark part.
 すなわち、第1および第2照明画像内の暗部の投影領域の強度値Iminは、主に内部散乱光に基づいており、深層Dの情報を主に含む。したがって、強度値Iminに基づく深層画像は、深層Dの情報を主に含む画像である。一方、第1および第2照明画像内の明部の投影領域の強度値Imaxは、スペキュラ光、表面散乱光および内部散乱光に基づいており、表面B、表層Cおよび深層Dの情報を含む。したがって、強度値Isに基づく表層画像は、深層Dの情報が除去され表面Bおよび表層Cの情報を主に含む画像である。
 分離処理部7は、撮像部6によって取得された複数組の第1照明画像および第2照明画像から複数枚の深層画像および複数枚の表層画像を作成する。作成された表層画像および深層画像は、演算部8に送信される。
That is, the intensity value Imin of the projection area of the dark part in the first and second illumination images is mainly based on the internal scattered light, and mainly includes information on the deep layer D. Therefore, the deep layer image based on the intensity value Imin is an image mainly including information on the deep layer D. On the other hand, the intensity value Imax of the bright portion projection region in the first and second illumination images is based on specular light, surface scattered light, and internal scattered light, and includes information on the surface B, the surface layer C, and the deep layer D. Therefore, the surface layer image based on the intensity value Is is an image mainly including information on the surface B and the surface layer C from which information on the deep layer D is removed.
The separation processing unit 7 creates a plurality of deep layer images and a plurality of surface layer images from the plurality of sets of first illumination images and second illumination images acquired by the imaging unit 6. The created surface layer image and deep layer image are transmitted to the calculation unit 8.
 ここで、図4Aおよび図4Bに示されるように、表層画像と深層画像との分離深さは、生体組織Aの表面B上での暗部の幅Wdに依存する。分離深さとは、表層画像に含まれる情報の深さと深層画像に含まれる情報の深さとの大まかな境目である。すなわち、表層画像は、表面Bから分離深さまでの層の情報を主に含み、深層画像は、分離深さよりも深い層の情報を主に含む。暗部の幅Wdが大きい程、分離深さの位置は深くなる。 Here, as shown in FIG. 4A and FIG. 4B, the separation depth between the surface layer image and the deep layer image depends on the width Wd of the dark part on the surface B of the biological tissue A. The separation depth is a rough boundary between the depth of information included in the surface layer image and the depth of information included in the deep layer image. That is, the surface layer image mainly includes layer information from the surface B to the separation depth, and the deep layer image mainly includes layer information deeper than the separation depth. The larger the dark portion width Wd, the deeper the separation depth.
 図5Aは、照明光Lの明暗パターンのピッチ(P1、P2、P3、P4、P5)と、生体組織A内の分離深さ(d1、d2、d3、d4、d5)との関係を示している。図5Bは、各ピッチP1,P2,P3,P4,P5の照明光Lに基づく表層画像および深層画像の例を示している。図5Bに示されるように、分離深さよりも浅い位置の特徴部Eは、表層画像に含まれるが深層画像には含まれない。一方、分離深さよりも深い位置の特徴部Eは、深層画像には含まれるが表層画像には含まれない。 FIG. 5A shows the relationship between the pitch (P1, P2, P3, P4, P5) of the light / dark pattern of the illumination light L and the separation depth (d1, d2, d3, d4, d5) in the living tissue A. Yes. FIG. 5B shows an example of the surface layer image and the deep layer image based on the illumination light L of each pitch P1, P2, P3, P4, P5. As shown in FIG. 5B, the feature E at a position shallower than the separation depth is included in the surface layer image, but is not included in the deep layer image. On the other hand, the feature portion E at a position deeper than the separation depth is included in the deep layer image but is not included in the surface layer image.
 演算部8は、分離処理部7から複数枚の深層画像および複数枚の表層画像を受け取り、複数枚の深層画像および複数枚の表層画像の各々のコントラストを算出する。図6に示されるように、特徴部Eを含む表層画像のコントラストは、特徴部Eを含まない表層画像のコントラストに比べて大きくなる。同様に、特徴部Eを含む深層画像のコントラストは、特徴部Eを含まない深層画像のコントラストに比べて大きくなる。図6において、破線で囲まれている範囲が、特徴部Eが存在する深さの範囲を示している。図7は、明暗パターンのピッチPとコントラストとの関係を表している。図8は、明暗パターンのピッチPと分離深さとの関係を表している。図7および図8から、図6の分離深さとコントラストとの関係が得られる。 The calculation unit 8 receives a plurality of deep layer images and a plurality of surface layer images from the separation processing unit 7, and calculates the contrast of each of the plurality of deep layer images and the plurality of surface layer images. As shown in FIG. 6, the contrast of the surface layer image including the feature portion E is larger than the contrast of the surface layer image not including the feature portion E. Similarly, the contrast of the deep layer image including the feature portion E is larger than the contrast of the deep layer image not including the feature portion E. In FIG. 6, a range surrounded by a broken line indicates a depth range where the characteristic portion E exists. FIG. 7 shows the relationship between the pitch P of the light and dark pattern and the contrast. FIG. 8 shows the relationship between the pitch P of the light and dark pattern and the separation depth. From FIG. 7 and FIG. 8, the relationship between the separation depth and the contrast in FIG. 6 is obtained.
 演算部8は、分離深さに対する表層画像のコントラストの変化に基づいて、特徴部Eの浅い側(表面B側)の端の深さを算出する。例えば、特徴部Eを含まない分離深さd1の表層画像と、特徴部Eを含む分離深さd2の表層画像との間でコントラストが大きく変化する。演算部8は、このコントラストの大きな変化に基づき、特徴部Eの浅い側の端の深さがd1とd2との間であると算出する。 The calculation unit 8 calculates the depth of the edge on the shallow side (surface B side) of the feature E based on the change in contrast of the surface layer image with respect to the separation depth. For example, the contrast changes greatly between the surface layer image having the separation depth d1 that does not include the feature portion E and the surface layer image having the separation depth d2 that includes the feature portion E. The calculation unit 8 calculates that the depth of the end on the shallow side of the feature E is between d1 and d2 based on the large change in contrast.
 また、演算部8は、分離深さに対する深層画像のコントラストの変化に基づいて、特徴部Eの深い側の端の深さを算出する。特徴部Eを含む分離深さd3の深層画像と、特徴部Eを含まない分離深さd4の深層画像との間でコントラストが大きく変化する。演算部8は、このコントラストの大きな変化に基づき、特徴部Eの深い側の端の深さがd3とd4との間であると算出する。
 演算部8によって算出された特徴部Eの深さ情報は、例えば、本体部3に接続された表示装置(図示略)に表示される。
Further, the calculation unit 8 calculates the depth of the end on the deep side of the feature E based on the change in the contrast of the deep layer image with respect to the separation depth. The contrast changes greatly between the deep layer image having the separation depth d3 including the feature portion E and the deep layer image having the separation depth d4 not including the feature portion E. The computing unit 8 calculates that the depth of the end on the deep side of the feature E is between d3 and d4 based on the large change in contrast.
The depth information of the characteristic part E calculated by the calculation part 8 is displayed on a display device (not shown) connected to the main body part 3, for example.
 本体部3内の図示しない記憶装置に、暗部の幅Wdと分離深さとが相互に対応付けられた対応表が記憶されていてもよい。演算部8は、記憶装置から対応表を読み出し、各深層画像および各表層画像の分離深さを、暗部の幅Wdに基づいて対応表から取得する。表層画像および深層画像の暗部の幅Wdの情報は、例えば、制御装置から演算部8に送信される。 A storage table (not shown) in the main body 3 may store a correspondence table in which the dark portion width Wd and the separation depth are associated with each other. The calculation unit 8 reads the correspondence table from the storage device, and acquires each deep layer image and the separation depth of each surface layer image from the correspondence table based on the dark portion width Wd. Information on the width Wd of the dark portion of the surface layer image and the deep layer image is transmitted from the control device to the calculation unit 8, for example.
 次に、演算部8は、図6に示されるように、分離深さと表層画像のコントラストの関係を表すグラフを作成し、分離深さと深層画像のコントラストの関係を表すグラフを作成する。次に、演算部8は、表層画像のグラフにおいてコントラストが急激に増加する分離深さをグラフの傾きに基づいて検出し、検出された分離深さを特徴部Eの浅い側の端と特定する。また、演算部8は、深層画像のグラフにおいてコントラストが急激に減少する分離深さをグラフの傾きに基づいて検出し、検出された分離深さを特徴部Eの深い側の端と特定する。 Next, as shown in FIG. 6, the calculation unit 8 creates a graph representing the relationship between the separation depth and the contrast of the surface layer image, and creates a graph representing the relationship between the separation depth and the contrast of the deep layer image. Next, the calculation unit 8 detects the separation depth at which the contrast rapidly increases in the graph of the surface layer image based on the inclination of the graph, and identifies the detected separation depth as the shallow end of the feature E. . In addition, the calculation unit 8 detects the separation depth at which the contrast sharply decreases in the graph of the deep layer image based on the inclination of the graph, and identifies the detected separation depth as the end on the deep side of the feature E.
 演算部8は、表層画像全体および深層画像全体のコントラストを算出してもよいが、表層画像の一部分および深層画像の一部分のコントラストを算出してもよい。この場合、コントラストを算出する範囲を術者が指定することができるように構成されることが好ましい。例えば、本体部3が、グラフィカルユーザインタフェース(GUI)を備える。術者は、GUIを使用して、特徴部Eを含む所望の範囲を指定することができる。 The calculation unit 8 may calculate the contrast of the entire surface image and the entire deep image, but may calculate the contrast of a part of the surface image and a part of the deep image. In this case, it is preferable that the operator can designate a range for calculating the contrast. For example, the main body 3 includes a graphical user interface (GUI). The surgeon can specify a desired range including the feature portion E using the GUI.
 分離処理部7および演算部8は、例えばコンピュータによって実行されるプログラムとして実現される。すなわち、本体部3には、中央演算処理装置のようなプロセッサ、RAMのような主記憶装置、およびハードディスクドライブのような補助記憶装置が内蔵される。分離処理部7および演算部8による上述の処理をプロセッサに実行させるためのプログラムは、補助記憶装置に記憶されている。プログラムが、補助記憶装置から主記憶装置にロードされ、プログラムに従ってプロセッサが処理を実行することによって、分離処理部7および演算部8の上述の機能が実現されるようになっている。 The separation processing unit 7 and the calculation unit 8 are realized as programs executed by a computer, for example. That is, the main body 3 includes a processor such as a central processing unit, a main storage device such as a RAM, and an auxiliary storage device such as a hard disk drive. A program for causing the processor to execute the above-described processing by the separation processing unit 7 and the calculation unit 8 is stored in the auxiliary storage device. The program is loaded from the auxiliary storage device to the main storage device, and the processor executes processing according to the program, whereby the above-described functions of the separation processing unit 7 and the calculation unit 8 are realized.
 次に、このように構成された内視鏡システム1の作用について図9を参照して説明する。
 本実施形態に係る内視鏡システム1を使用して生体組織A内の特徴部Eの深さ情報を取得するためには、内視鏡2を体内に挿入し、生体組織Aの照明画像を取得する。具体的には、照明部4から生体組織Aに照明光Lが照射される(ステップS1)。照明光Lの明部および暗部の位置は、強度分布変更部5によって時間変化する。明部および暗部が相互に入れ替わる2つの時刻で撮像部6によって生体組織Aの撮影が実行され、1組の第1照明画像および第2照明画像が取得される(ステップS2)。次に、照明光LのピッチPが強度分布変更部5によって変更され(ステップS4)、もう1組の第1照明画像および第2照明画像が撮像部6によって取得される(ステップS2)。予め設定されている全てのピッチPの照明光Lに基づく第1照明画像および第2照明画像が取得されるまで(ステップS3のYES)、ステップS4、S1,S2が繰り返される。
Next, the operation of the endoscope system 1 configured as described above will be described with reference to FIG.
In order to acquire the depth information of the characteristic portion E in the living tissue A using the endoscope system 1 according to the present embodiment, the endoscope 2 is inserted into the body, and an illumination image of the living tissue A is obtained. get. Specifically, the illumination light L is irradiated from the illumination unit 4 to the living tissue A (step S1). The positions of the bright part and the dark part of the illumination light L change over time by the intensity distribution changing unit 5. Imaging of the living tissue A is executed by the imaging unit 6 at two times when the bright part and the dark part are interchanged, and a set of first illumination image and second illumination image is acquired (step S2). Next, the pitch P of the illumination light L is changed by the intensity distribution changing unit 5 (step S4), and another set of the first illumination image and the second illumination image is acquired by the imaging unit 6 (step S2). Steps S4, S1, and S2 are repeated until the first illumination image and the second illumination image based on the illumination light L of all the preset pitches P are acquired (YES in step S3).
 次に、分離処理部7によって、複数組の第1照明画像および第2照明画像から、分離深さが相互に異なる複数組の表層画像および深層画像が生成される(ステップS5)。次に、演算部8によって、各表層画像および各深層画像のコントラストが算出される(ステップS6)。次に、演算部8によって、分離深さに対する表層画像のコントラストの変化および分離深さに対する深層画像のコントラストの変化に基づいて、生体組織A内の特徴部Eの深さ情報が算出される。 Next, the separation processing unit 7 generates a plurality of sets of surface layer images and deep layer images having different separation depths from the plurality of sets of first illumination images and second illumination images (step S5). Next, the computing unit 8 calculates the contrast of each surface layer image and each deep layer image (step S6). Next, depth information of the feature portion E in the living tissue A is calculated by the calculation unit 8 based on the change in the contrast of the surface layer image with respect to the separation depth and the change in the contrast of the deep layer image with respect to the separation depth.
 このように、本実施形態によれば、暗部の幅Wdが相互に異なる照明光Lを用いて複数組の第1照明画像および第2照明画像が取得され、複数組の第1照明画像および第2照明画像から分離深さが相互に異なる複数組の表層画像および深層画像が生成される。そして、複数枚の表層画像のコントラストおよび複数枚の深層画像のコントラストに基づいて、生体組織A内の特徴部Eの深さ情報を算出することができるという利点がある。また、第1および第2照明画像は、生体組織Aおよび特徴部Eの散乱光に基づく画像である。したがって、第1および第2照明画像から、特徴部Eの吸収特性に関わらず特徴部Eの深さ情報を取得することができるという利点がある。 As described above, according to the present embodiment, a plurality of sets of first illumination images and second illumination images are acquired using illumination light L having different dark portion widths Wd, and the plurality of sets of first illumination images and first illumination images are obtained. A plurality of sets of surface layer images and deep layer images having different separation depths are generated from the two illumination images. Then, there is an advantage that the depth information of the feature portion E in the living tissue A can be calculated based on the contrast of the plurality of surface layer images and the contrast of the plurality of deep layer images. The first and second illumination images are images based on the scattered light of the living tissue A and the feature part E. Therefore, there is an advantage that the depth information of the feature E can be acquired from the first and second illumination images regardless of the absorption characteristics of the feature E.
 表層画像における深層Dの情報量と深層画像における深層Dの情報量との良好なバランスを確保するために、生体組織Aの表面B上での暗部の幅Wdは0.005mm以上25mm以下であることが好ましい。
 暗部の幅Wdが0.005mm未満である場合、明部の投影領域から暗部の投影領域へ回り込む内部散乱光の割合が増大し、その結果、強度値Imaxと強度値Iminとの差が小さくなって表層画像に含まれる表層Cの情報が不足し得る。一方、暗部の幅Wdが25mmよりも大きい場合、内部散乱光が暗部の投影領域の中央まで到達することができず、その結果、強度値Iminがゼロに近づいて深層画像に含まれる深層Dの情報が不足し得る。
In order to ensure a good balance between the information amount of the deep layer D in the surface layer image and the information amount of the deep layer D in the deep layer image, the width Wd of the dark part on the surface B of the living tissue A is 0.005 mm or more and 25 mm or less. It is preferable.
When the dark portion width Wd is less than 0.005 mm, the ratio of the internally scattered light that wraps around from the bright portion projection region to the dark portion projection region increases, and as a result, the difference between the intensity value Imax and the intensity value Imin decreases. Thus, information on the surface layer C included in the surface image may be insufficient. On the other hand, when the width Wd of the dark part is larger than 25 mm, the internal scattered light cannot reach the center of the projection area of the dark part, and as a result, the intensity value Imin approaches zero and the deep layer D included in the deep image is included. Information can be lacking.
 本実施形態においては、照明部4が、縞状の強度分布を有する照明光Lで生体組織Aを照明することとしたが、照明光Lの強度分布のパターンはこれに限定されず、明部と暗部とが空間的に繰り返される他の分布であってもよい。例えば、照明光Lの強度分布は、市松模様、ドット、またはランダムドットであってもよい。 In the present embodiment, the illumination unit 4 illuminates the living tissue A with the illumination light L having a striped intensity distribution. However, the pattern of the intensity distribution of the illumination light L is not limited to this, and the bright part. Another distribution in which the dark portion and the dark portion are spatially repeated may be used. For example, the intensity distribution of the illumination light L may be a checkered pattern, dots, or random dots.
 本実施形態においては、照明部4が、明暗パターンを有する照明光Lを液晶素子4cによって生成し、強度分布変更部5が、液晶素子4cを制御することによって明暗パターンを変化させることとしたが、照明部4および強度分布変更部5の構成はこれに限定されるものではない。図10Aから図10Cに、照明部4および強度分布変更部5の他の構成例を示す。 In the present embodiment, the illumination unit 4 generates the illumination light L having a light / dark pattern by the liquid crystal element 4c, and the intensity distribution changing unit 5 changes the light / dark pattern by controlling the liquid crystal element 4c. The configurations of the illumination unit 4 and the intensity distribution changing unit 5 are not limited to this. 10A to 10C show other configuration examples of the illumination unit 4 and the intensity distribution changing unit 5.
 図10Aの照明部4は、光の干渉縞を明暗パターンとして利用する。照明部4は、レーザ光源4fと、レーザ光源4fから出力された光を2つに分岐し2つの光を射出する光路4gとを備えている。光路4gは、例えば、光ファイバから構成されている。光路4gから射出された2つの光が相互に干渉することによって、図10Bに示されるような正弦波状の強度プロファイルを有する干渉縞が明暗パターンとして生成される。 10A uses the light interference fringes as a bright and dark pattern. The illumination unit 4 includes a laser light source 4f and an optical path 4g that branches the light output from the laser light source 4f into two and emits the two lights. The optical path 4g is composed of, for example, an optical fiber. When the two lights emitted from the optical path 4g interfere with each other, an interference fringe having a sinusoidal intensity profile as shown in FIG. 10B is generated as a light-dark pattern.
 図10Aの強度分布変更部5は、分岐された2つの光のうち一方の光路長を変化させることによって、図10Bに示されるように、干渉縞の位置を照明光の光軸に直交する方向にシフトさせる。したがって、強度分布変更部5は、2つの光のうちの一方の光路に設けられ、光路長を変化させる光学素子を備える。また、強度分布変更部5は、レーザ光の波長を変化させることによって、干渉縞のピッチを変化させ、それにより暗部の幅Wdを変化させる。したがって、例えば、レーザ光源4fは、波長可変レーザ光源であり、強度分布変更部5は、レーザ光源4fの出力波長を制御する制御素子を備える。 The intensity distribution changing unit 5 in FIG. 10A changes the optical path length of one of the two branched lights, thereby causing the position of the interference fringe to be orthogonal to the optical axis of the illumination light, as shown in FIG. 10B. Shift to. Therefore, the intensity distribution changing unit 5 includes an optical element that is provided in one of the two light paths and changes the optical path length. Further, the intensity distribution changing unit 5 changes the pitch of the interference fringes by changing the wavelength of the laser beam, thereby changing the width Wd of the dark part. Therefore, for example, the laser light source 4f is a wavelength tunable laser light source, and the intensity distribution changing unit 5 includes a control element that controls the output wavelength of the laser light source 4f.
 図10Cの照明部4は、影絵のようにして明暗パターンを生体組織Aの表面B上に形成する。照明部4は、内視鏡2の先端部に設けられた発光部4hおよびマスク4iを備えている。
 発光部4hは、例えば、キセノンランプ、LED(RGB)、白色LED、赤外光源などの光源である。発光部4hは、本体部3の外部に配置された光源に接続された光ファイバの射出端であってもよい。
The illumination unit 4 in FIG. 10C forms a light and dark pattern on the surface B of the living tissue A like a shadow picture. The illumination unit 4 includes a light emitting unit 4 h and a mask 4 i provided at the distal end portion of the endoscope 2.
The light emitting unit 4h is a light source such as a xenon lamp, an LED (RGB), a white LED, or an infrared light source. The light emitting unit 4h may be an emission end of an optical fiber connected to a light source disposed outside the main body unit 3.
 マスク4iは、白色光を透過させる透光領域と、白色光を遮断する遮光領域とを有し、明暗パターンに対応する投影パターンが透光領域および遮光領域から形成されている。マスク4iは、例えば、透光領域としての開口が形成された遮光性の基板、または、遮光領域としての遮光膜が形成された透明な基板である。発光部4hから出力された光は、マスク4iを透過することで、明暗パターンを有する照明光Lへと生成される。
 発光部4hとマスク4iとの間には、生体組織Aに照射される照明光Lの発散角を調整するレンズ4jが配置されている。
The mask 4i has a light-transmitting region that transmits white light and a light-blocking region that blocks white light, and a projection pattern corresponding to a light and dark pattern is formed from the light-transmitting region and the light-blocking region. The mask 4i is, for example, a light-shielding substrate having an opening as a light-transmitting region or a transparent substrate having a light-shielding film as a light-shielding region. The light output from the light emitting unit 4h is generated into the illumination light L having a bright and dark pattern by passing through the mask 4i.
Between the light emitting unit 4h and the mask 4i, a lens 4j for adjusting the divergence angle of the illumination light L applied to the living tissue A is disposed.
 図10Cの強度分布変更部5は、発光部4hおよびマスク4iを、明部および暗部の幅方向に相対移動させることによって、強度分布を時間変化させる。したがって、強度分布変更部5は、発光部4hおよびマスク4iのうち少なくとも一方を移動させるアクチュエータを備える。また、強度分布変更部5は、発光部4hとマスク4iとの光軸方向の間隔を変化させることによって、明暗パターンのピッチPおよび暗部の幅Wdを変化させる。したがって、強度分布変更部5は、発光部4hおよびマスク4iの少なくとも一方を移動させるアクチュエータを備える。発光部4hとマスク4iとの間隔が大きい程、生体組織Aの表面B上における明暗パターンのピッチPが小さくなる。 10C changes the intensity distribution over time by relatively moving the light emitting part 4h and the mask 4i in the width direction of the bright part and the dark part. Therefore, the intensity distribution changing unit 5 includes an actuator that moves at least one of the light emitting unit 4h and the mask 4i. Further, the intensity distribution changing unit 5 changes the pitch P of the light / dark pattern and the width Wd of the dark part by changing the distance between the light emitting part 4h and the mask 4i in the optical axis direction. Therefore, the intensity distribution changing unit 5 includes an actuator that moves at least one of the light emitting unit 4h and the mask 4i. The larger the distance between the light emitting part 4h and the mask 4i, the smaller the pitch P of the bright and dark pattern on the surface B of the living tissue A.
 本実施形態においては、強度分布変更部5が、照明光Lの強度分布を、明部および暗部が相互に反転した2つの明暗パターンの間で連続的に変化させてもよい。
 明暗パターンを連続的に変化させる場合、撮像部6は、図11Aに示されるように、明部および暗部の位置が相互に異なる3つ以上の時刻で撮影を実行し、明部の投影領域および暗部の投影領域の位置が相互に異なる3枚以上の照明画像を取得してもよい。分離処理部7は、3枚以上の照明画像から表層画像および深層画像を作成してもよい。この場合、各位置の画素について3つ以上の強度値が得られるので、最大強度値をImaxとして、最小強度値をIminとして用いて、強度値Is,Idが算出される。
In the present embodiment, the intensity distribution changing unit 5 may continuously change the intensity distribution of the illumination light L between two light / dark patterns in which the light part and the dark part are mutually inverted.
When continuously changing the light / dark pattern, as shown in FIG. 11A, the imaging unit 6 performs shooting at three or more times at which the positions of the bright part and the dark part are different from each other, and the projection area of the bright part and You may acquire the 3 or more illumination image from which the position of the projection area of a dark part differs mutually. The separation processing unit 7 may create a surface layer image and a deep layer image from three or more illumination images. In this case, since three or more intensity values are obtained for the pixels at each position, the intensity values Is and Id are calculated using the maximum intensity value as Imax and the minimum intensity value as Imin.
 図11Bに示されるように、正弦波状の明暗パターンの照明光Lを照射する場合、3つ以上の適切な条件で照明画像を撮像することによって、位相シフト法を用いて、各画素についてImaxとIminを算出することができる。 As shown in FIG. 11B, when illuminating illumination light L having a sinusoidal light / dark pattern, Imax and Imax are obtained for each pixel using a phase shift method by capturing an illumination image under three or more appropriate conditions. Imin can be calculated.
 本実施形態においては、生体組織Aの表面B上に投影される明暗パターンが生体組織Aと撮像部6との間の撮影距離に比例して拡大されるように、照明部4が、発散光束の照明光Lを生体組織Aに向けて射出することが好ましい。
 この構成によって、生体組織Aに対して内視鏡2を長手方向に移動させるだけで、生体組織Aの表面B上での明暗パターンを拡大または縮小させ暗部の幅Wdを変化させることができる。
In the present embodiment, the illuminating unit 4 causes the divergent light beam so that the light / dark pattern projected onto the surface B of the biological tissue A is enlarged in proportion to the imaging distance between the biological tissue A and the imaging unit 6. The illumination light L is preferably emitted toward the living tissue A.
With this configuration, simply by moving the endoscope 2 in the longitudinal direction with respect to the living tissue A, the light-dark pattern on the surface B of the living tissue A can be enlarged or reduced to change the width Wd of the dark part.
 本実施形態においては、生体組織Aと撮像部6との間の撮影距離を計測する撮影距離計測部をさらに備え、強度分布変更部5が、撮影距離に依らずに生体組織Aの表面B上での明部と暗部との空間的な周期(明暗パターンのピッチP)が一定に維持されるように、撮影距離に基づいて明暗パターンにおける明部と暗部との空間的な周期を調整してもよい。
 このようにすることで、撮影距離に依らずに、所定の深さの情報を含む深層画像を作成することができる。
In the present embodiment, an imaging distance measuring unit that measures the imaging distance between the living tissue A and the imaging unit 6 is further provided, and the intensity distribution changing unit 5 is on the surface B of the living tissue A regardless of the imaging distance. The spatial period between the bright part and the dark part in the light / dark pattern is adjusted based on the shooting distance so that the spatial period (brightness / darkness pattern pitch P) between the bright part and the dark part is maintained constant. Also good.
By doing so, it is possible to create a deep image including information of a predetermined depth regardless of the shooting distance.
 撮影距離計測部としては、生体組織Aに非接触で撮影距離を計測することができる公知の任意の手段を採用することができる。明暗パターンが、図11Bに示される、正弦波状に強度が変化する直線状の縞パターンである場合、撮影距離計測部は、位相シフト法を用いて、撮像部6によって取得された照明画像から撮影距離を計算することができる。 As the imaging distance measuring unit, any known means that can measure the imaging distance without contacting the living tissue A can be employed. When the light / dark pattern is a linear stripe pattern whose intensity changes sinusoidally as shown in FIG. 11B, the shooting distance measurement unit takes a picture from an illumination image acquired by the imaging unit 6 using the phase shift method. The distance can be calculated.
 本実施形態においては、照明部4が、波長が互いに異なる複数の光から構成された照明光Lで生体組織Aを照明してもよい。例えば、照明光Lは、赤、緑および青の3つの光が混合された白色光であってもよい。
 波長が互いに異なる複数の光を照明光Lとして使用する場合、波長が長い程、明部と暗部との周期が小さくなるように、波長に応じて各光の強度分布を異ならせてもよい。
In the present embodiment, the illuminating unit 4 may illuminate the living tissue A with illumination light L composed of a plurality of lights having different wavelengths. For example, the illumination light L may be white light in which three lights of red, green, and blue are mixed.
When a plurality of lights having different wavelengths are used as the illumination light L, the intensity distribution of each light may be varied according to the wavelength so that the longer the wavelength, the smaller the period between the bright part and the dark part.
 一般に、光は、波長が短い程、散乱体によって強く散乱される。したがって、赤い光に比べて青い光は生体組織Aの深層Dまで届き難く、青い光の内部散乱光に含まれる情報は、赤い光の内部散乱光に比べて浅い位置の情報となる。そこで、波長が長い程、明部と暗部との周期を小さくすることで、赤、緑および青のいずれの内部散乱光も同一の深さの情報を有するように、各色の内部散乱光に含まれる情報の深さを制御することができる。 Generally, the light is more strongly scattered by the scatterer as the wavelength is shorter. Therefore, it is difficult for blue light to reach the deep layer D of the living tissue A compared to red light, and information included in the internally scattered light of blue light is information at a shallower position than the internally scattered light of red light. Therefore, the longer the wavelength, the shorter the period between the bright and dark parts, so that all the internal scattered light of red, green and blue has the same depth information and is included in the internal scattered light of each color. Can control the depth of information.
 本実施形態においては、図12に示されるように、照明部4から射出される照明光Lの偏光状態を制御する偏光子(偏光制御部)9と、生体組織Aから撮像部6に入射する光の偏光状態を選択する偏光子(偏光選択部)10とがさらに設けられていてもよい。偏光子9および偏光子10は、例えば、内視鏡2の先端に設けられる。
 照明光Lの照射によって、生体組織Aの表面Bではスペキュラ光が生じる。第1および第2照明画像に含まれるスペキュラ光は、表層画像に分離される。したがって、スペキュラ光は、表層画像のコントラストに影響を与える。
In the present embodiment, as shown in FIG. 12, a polarizer (polarization control unit) 9 that controls the polarization state of the illumination light L emitted from the illumination unit 4 and the living body tissue A enter the imaging unit 6. A polarizer (polarization selection unit) 10 that selects the polarization state of light may be further provided. The polarizer 9 and the polarizer 10 are provided at the tip of the endoscope 2, for example.
Specular light is generated on the surface B of the living tissue A by irradiation with the illumination light L. Specular light included in the first and second illumination images is separated into surface layer images. Therefore, the specular light affects the contrast of the surface layer image.
 スペキュラ光は照明光Lと同一の偏光状態を有し、表面散乱光および内部散乱光は特定の偏光状態を有しない。したがって、偏光子9の偏光方向に対して偏光子10の偏光方向を直交させることによって、表面散乱光および内部散乱光を含みスペキュラ光を含まない第1および第2照明画像を取得することができる。これにより、スペキュラ光の影響を受けることなく特徴部Eに基づく表層画像のコントラストを算出することができ、特徴部Eの深さ情報の算出精度を向上することができる。 The specular light has the same polarization state as the illumination light L, and the surface scattered light and the internal scattered light do not have a specific polarization state. Therefore, by making the polarization direction of the polarizer 10 orthogonal to the polarization direction of the polarizer 9, the first and second illumination images that include the surface scattered light and the internal scattered light and do not include the specular light can be acquired. . Thereby, the contrast of the surface layer image based on the feature part E can be calculated without being affected by specular light, and the calculation accuracy of the depth information of the feature part E can be improved.
1 内視鏡システム
2 内視鏡
3 本体部
4 照明部
5 強度分布変更部
6 撮像部
7 分離処理部
8 演算部
A 生体組織(被写体)
B 生体組織の表面
C 表層
D 深層
E 特徴部
Wd 暗部の幅
DESCRIPTION OF SYMBOLS 1 Endoscope system 2 Endoscope 3 Main body part 4 Illumination part 5 Intensity distribution change part 6 Imaging part 7 Separation processing part 8 Calculation part A Living tissue (Subject)
B Surface of biological tissue C Surface layer D Deep layer E Characteristic part Wd Width of dark part

Claims (9)

  1.  照明光を被写体に照射し、前記照明光が、光軸に垂直な光束断面において明部および暗部が空間的に繰り返される強度分布を有する、照明部と、
     前記照明光の前記強度分布における前記暗部の幅を変化させる強度分布変更部と、
     前記暗部の幅が相互に異なる照明光で照明されている前記被写体の複数の照明画像を取得する撮像部と、
     前記複数の照明画像の各々から第1の分離画像および第2の分離画像を作成し、前記第1の分離画像が、前記被写体の深層の情報を前記第2の分離画像よりも多く含む、分離処理部と、
     前記複数の照明画像から作成された複数の前記第1の分離画像および複数の前記第2の分離画像に基づいて前記被写体内の特徴部の深さ情報を算出する演算部とを備え、
     前記分離処理部が、前記強度分布の前記明部、前記暗部、および前記明部と前記暗部の間の強度を有する部分のそれぞれと対応する前記照明画像内の画素の強度値のうち、少なくとも2つの強度値に基づいて、前記第1および第2の分離画像を作成し、
     前記演算部が、前記複数の第1の分離画像間の変化および前記複数の第2の分離画像間の変化に基づいて前記特徴部の深さ情報を算出する内視鏡システム。
    An illumination unit that irradiates a subject with illumination light, and the illumination light has an intensity distribution in which a bright part and a dark part are spatially repeated in a light beam cross section perpendicular to the optical axis;
    An intensity distribution changing unit that changes a width of the dark part in the intensity distribution of the illumination light;
    An imaging unit that acquires a plurality of illumination images of the subject that are illuminated with illumination light having different widths of the dark part; and
    A first separated image and a second separated image are created from each of the plurality of illumination images, and the first separated image includes more information about the depth of the subject than the second separated image. A processing unit;
    An arithmetic unit that calculates depth information of the characteristic portion in the subject based on the plurality of first separated images and the plurality of second separated images created from the plurality of illumination images;
    At least two of the intensity values of the pixels in the illumination image corresponding to each of the bright part, the dark part, and the part having the intensity between the bright part and the dark part of the intensity distribution. Creating the first and second separated images based on two intensity values;
    An endoscope system in which the arithmetic unit calculates depth information of the feature based on a change between the plurality of first separated images and a change between the plurality of second separated images.
  2.  前記照明部が、前記撮像部と前記被写体との間の撮影距離に比例して前記被写体上での前記明部および前記暗部のパターンが拡大されるように、前記照明光を発散光束として射出する請求項1に記載の内視鏡システム。 The illumination unit emits the illumination light as a divergent light beam so that the pattern of the bright part and the dark part on the subject is enlarged in proportion to the shooting distance between the imaging unit and the subject. The endoscope system according to claim 1.
  3.  前記撮像部と前記被写体との間の撮影距離を計測する撮影距離計測部を備え、
     前記強度分布変更部は、前記被写体上での前記照明光の強度分布が前記撮像部と前記被写体との間の距離に依らずに一定となるように、前記撮影距離に基づいて前記強度分布における前記明部と暗部との周期を変更する請求項1に記載の内視鏡システム。
    A shooting distance measuring unit that measures a shooting distance between the imaging unit and the subject;
    The intensity distribution changing unit is configured to change the intensity distribution in the intensity distribution based on the shooting distance so that the intensity distribution of the illumination light on the subject is constant regardless of the distance between the imaging unit and the subject. The endoscope system according to claim 1, wherein a cycle between the bright part and the dark part is changed.
  4.  前記照明光が、互いに異なる波長を有する複数の光からなり、該複数の光は、波長が長い程、前記明部と前記暗部との周期が小さくなる前記強度分布を有する請求項1から請求項3のいずれかに記載の内視鏡システム。 The said illumination light consists of several light which has a mutually different wavelength, This several light has the said intensity distribution that the period of the said bright part and the said dark part becomes small, so that a wavelength is long. 4. The endoscope system according to any one of 3.
  5.  前記照明光の前記強度分布は、帯状の前記明部および前記暗部が幅方向に交互に繰り返される縞状である請求項1から請求項4のいずれかに記載の内視鏡システム。 The endoscope system according to any one of claims 1 to 4, wherein the intensity distribution of the illumination light has a striped shape in which the bright portions and the dark portions of a band shape are alternately repeated in a width direction.
  6.  前記照明光の前記強度分布の、前記明部および前記暗部の前記幅方向における強度プロファイルが、略正弦波形状である請求項5に記載の内視鏡システム。 The endoscope system according to claim 5, wherein an intensity profile in the width direction of the bright part and the dark part of the intensity distribution of the illumination light has a substantially sinusoidal shape.
  7.  前記照明光の偏光状態を制御する偏光制御部と、
     前記被写体から前記撮像部に入射する光の偏光状態を選択する偏光選択部とを備える請求項1から請求項6のいずれかに記載の内視鏡システム。
    A polarization controller for controlling the polarization state of the illumination light;
    The endoscope system according to claim 1, further comprising a polarization selection unit that selects a polarization state of light incident on the imaging unit from the subject.
  8.  前記演算部は、前記暗部の幅と、前記第1の分離画像と前記第2の分離画像との間の分離深さとが相互に対応付けられた対応表に基づいて前記特徴部の深さ情報を算出する請求項1から請求項7のいずれかに記載の内視鏡システム。 The calculation unit is configured to obtain depth information of the feature based on a correspondence table in which a width of the dark part and a separation depth between the first separated image and the second separated image are associated with each other. The endoscope system according to any one of claims 1 to 7, which calculates
  9.  前記演算部が、前記複数組の第1および第2の分離画像の各々のコントラストを算出し、該コントラストおよび前記対応表に基づいて前記特徴部の深さ情報を算出する請求項8に記載の内視鏡システム。 The calculation unit according to claim 8, wherein the calculation unit calculates a contrast of each of the plurality of sets of first and second separated images, and calculates depth information of the feature unit based on the contrast and the correspondence table. Endoscope system.
PCT/JP2018/021597 2018-06-05 2018-06-05 Endoscope system WO2019234831A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020523889A JP7093409B2 (en) 2018-06-05 2018-06-05 Endoscope system
PCT/JP2018/021597 WO2019234831A1 (en) 2018-06-05 2018-06-05 Endoscope system
CN201880094090.1A CN112203572B (en) 2018-06-05 2018-06-05 Endoscope system
US17/108,216 US11805988B2 (en) 2018-06-05 2020-12-01 Endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/021597 WO2019234831A1 (en) 2018-06-05 2018-06-05 Endoscope system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/108,216 Continuation US11805988B2 (en) 2018-06-05 2020-12-01 Endoscope system

Publications (1)

Publication Number Publication Date
WO2019234831A1 true WO2019234831A1 (en) 2019-12-12

Family

ID=68769270

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/021597 WO2019234831A1 (en) 2018-06-05 2018-06-05 Endoscope system

Country Status (4)

Country Link
US (1) US11805988B2 (en)
JP (1) JP7093409B2 (en)
CN (1) CN112203572B (en)
WO (1) WO2019234831A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022548415A (en) * 2019-11-15 2022-11-18 ルフトハンザ・テッヒニク・アクチェンゲゼルシャフト Borescope with pattern projector
US11871906B2 (en) 2018-06-05 2024-01-16 Olympus Corporation Endoscope system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113994374A (en) * 2019-06-18 2022-01-28 索高视觉有限公司 Luminescence imaging with refinement cycles based on combination of local illumination

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014188222A (en) * 2013-03-27 2014-10-06 Olympus Corp Image processor, endoscope device, program and image processing method
JP2015231498A (en) * 2014-06-11 2015-12-24 キヤノン株式会社 Endoscope device

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3570625A (en) 1969-09-08 1971-03-16 Allen Medical Instr Division O Stethoscope with high intensity audio output
US6464633B1 (en) 1999-08-23 2002-10-15 Olympus Optical Co., Ltd. Light source device for endoscope using DMD
US20020165456A1 (en) 2001-03-26 2002-11-07 Murat Canpolat Estimation of the average size of white light scatterers in normal and cancerous tissue using light scattering spectrum
ES2310744T3 (en) 2003-06-06 2009-01-16 The General Hospital Corporation SOURCE OF TUNING LIGHT IN WAVE LENGTHS.
AU2006245247B2 (en) 2005-05-11 2009-10-15 Olympus Medical Systems Corp. Signal processing device for biological observation apparatus
WO2007030741A2 (en) 2005-09-09 2007-03-15 Trustees Of Boston University Imaging system using dynamic speckle illumination
DE102005046755A1 (en) 2005-09-29 2007-04-19 Carl Zeiss Jena Gmbh Apparatus and method for generating an image of an object
JP5398524B2 (en) 2006-05-09 2014-01-29 コーニンクレッカ フィリップス エヌ ヴェ Imaging system for three-dimensional imaging inside an object and method of operating the same
JP5190860B2 (en) 2007-01-22 2013-04-24 学校法人東京電機大学 Projection exposure apparatus and projection exposure method
US8636653B2 (en) * 2008-06-09 2014-01-28 Capso Vision, Inc. In vivo camera with multiple sources to illuminate tissue at different distances
US9055866B2 (en) 2008-06-27 2015-06-16 Olympus Corporation Internal observation device for object having light scattering properties, internal body observation device, endoscope for internal observation and internal observation method
JP5331394B2 (en) * 2008-06-30 2013-10-30 オリンパス株式会社 Endoscope device
US8734333B2 (en) 2009-03-18 2014-05-27 Fujifilm Corporation Endoscope system, endoscope video processor and method of driving endoscope system
JP5289120B2 (en) 2009-03-18 2013-09-11 富士フイルム株式会社 Endoscope system and processor device for endoscope
JP5449816B2 (en) 2009-03-26 2014-03-19 オリンパス株式会社 Image processing apparatus, image processing program, and method of operating image processing apparatus
WO2011081141A1 (en) 2009-12-28 2011-07-07 オリンパス株式会社 Internal observation device, intravital observation device, and internal observation endoscope for use on a light-scattering subject, and internal observation method
JP5541914B2 (en) 2009-12-28 2014-07-09 オリンパス株式会社 Image processing apparatus, electronic apparatus, program, and operation method of endoscope apparatus
WO2012065163A2 (en) 2010-11-12 2012-05-18 Emory University Additional systems and methods for providing real-time anatomical guidance in a diagnostic or therapeutic procedure
EP2689708B1 (en) 2011-04-27 2016-10-19 Olympus Corporation Endoscopic apparatus and measurement method
JP5611892B2 (en) 2011-05-24 2014-10-22 富士フイルム株式会社 Endoscope system and method for operating endoscope system
JP5764747B2 (en) 2011-09-02 2015-08-19 パナソニックIpマネジメント株式会社 Polarization imaging device and endoscope
US11510600B2 (en) 2012-01-04 2022-11-29 The Trustees Of Dartmouth College Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
JP5815426B2 (en) 2012-01-25 2015-11-17 富士フイルム株式会社 Endoscope system, processor device for endoscope system, and image processing method
JP6089436B2 (en) * 2012-04-18 2017-03-08 ソニー株式会社 Image processing apparatus, method of operating image processing apparatus, and imaging apparatus
WO2013164962A1 (en) 2012-05-01 2013-11-07 オリンパスメディカルシステムズ株式会社 Endoscope device
WO2013175686A1 (en) 2012-05-22 2013-11-28 パナソニック株式会社 Image pickup processing device and endoscope
JP2013252185A (en) * 2012-06-05 2013-12-19 Canon Inc Endoscope and endoscope apparatus
JP6041340B2 (en) 2012-07-18 2016-12-07 スカラ株式会社 camera
JP5698878B2 (en) 2013-02-12 2015-04-08 オリンパスメディカルシステムズ株式会社 Endoscope device
EP2967301B1 (en) 2013-03-15 2021-11-03 DePuy Synthes Products, Inc. Scope sensing in a light controlled environment
WO2015016013A1 (en) 2013-07-31 2015-02-05 富士フイルム株式会社 Endoscope light source device and endoscope system using same
JP5857160B2 (en) * 2013-10-31 2016-02-10 オリンパス株式会社 ENDOSCOPE IMAGING SYSTEM AND ENDOSCOPE IMAGING SYSTEM OPERATING METHOD
FR3016699B1 (en) 2014-01-22 2016-02-12 Msc & Sgcc METHOD AND DEVICE FOR THE DETECTION IN PARTICULAR OF REFRACTANT DEFECTS
JP6450107B2 (en) * 2014-08-05 2019-01-09 キヤノン株式会社 Image processing apparatus, image processing method, program, and storage medium
JP2016049370A (en) 2014-09-02 2016-04-11 Hoya株式会社 Electronic endoscope system
JP6346576B2 (en) 2015-02-27 2018-06-20 Hoya株式会社 Image processing device
JP6285383B2 (en) 2015-03-20 2018-02-28 富士フイルム株式会社 Image processing apparatus, endoscope system, operation method of image processing apparatus, and operation method of endoscope system
WO2016151903A1 (en) 2015-03-25 2016-09-29 オリンパス株式会社 Observation system
JP5854544B1 (en) 2015-04-07 2016-02-09 藤垣 元治 Shape measuring apparatus and shape measuring method
JP6618704B2 (en) 2015-04-10 2019-12-11 オリンパス株式会社 Endoscope system
WO2016170604A1 (en) * 2015-04-21 2016-10-27 オリンパス株式会社 Endoscope device
JP2016209466A (en) 2015-05-13 2016-12-15 ソニー株式会社 Endoscope device and control method thereof
JP2017012395A (en) 2015-06-30 2017-01-19 富士フイルム株式会社 Endoscope system and method of operating endoscope system
WO2018106959A1 (en) 2016-12-07 2018-06-14 Progenity Inc. Gastrointestinal tract detection methods, devices and systems
WO2018229834A1 (en) 2017-06-12 2018-12-20 オリンパス株式会社 Endoscope system
WO2018229831A1 (en) 2017-06-12 2018-12-20 オリンパス株式会社 Endoscope system
WO2018229833A1 (en) 2017-06-12 2018-12-20 オリンパス株式会社 Endoscope system
WO2018229832A1 (en) 2017-06-12 2018-12-20 オリンパス株式会社 Endoscope system
CN112236067A (en) 2018-06-05 2021-01-15 奥林巴斯株式会社 Endoscope system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014188222A (en) * 2013-03-27 2014-10-06 Olympus Corp Image processor, endoscope device, program and image processing method
JP2015231498A (en) * 2014-06-11 2015-12-24 キヤノン株式会社 Endoscope device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NAYAR, SHREE K ET AL.: "Fast Separation of Direct and Global Components of a Scene using High Frequency Illumination", ACM TRANSACTIONS ON GRAPHICS, vol. 25, no. 3, 3 July 2006 (2006-07-03), pages 935 - 944, XP055101982 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11871906B2 (en) 2018-06-05 2024-01-16 Olympus Corporation Endoscope system
JP2022548415A (en) * 2019-11-15 2022-11-18 ルフトハンザ・テッヒニク・アクチェンゲゼルシャフト Borescope with pattern projector
JP7185807B2 (en) 2019-11-15 2022-12-07 ルフトハンザ・テッヒニク・アクチェンゲゼルシャフト Borescope with pattern projector

Also Published As

Publication number Publication date
JP7093409B2 (en) 2022-06-29
US11805988B2 (en) 2023-11-07
CN112203572B (en) 2024-04-05
JPWO2019234831A1 (en) 2021-06-03
US20210106215A1 (en) 2021-04-15
CN112203572A (en) 2021-01-08

Similar Documents

Publication Publication Date Title
US11324385B2 (en) Endoscope system for processing second illumination image using image information other than image information about outermost surface side of subject among three image information from at least four images of first illumination images
CN105286785B (en) Multispectral medical imaging apparatus and its method
JP6045676B2 (en) Intraoral imaging device
US11805988B2 (en) Endoscope system
US11070739B2 (en) Endoscope system having a first light source for imaging a subject at different depths and a second light source having a wide band visible band
US11045081B2 (en) Endoscope system
WO2018229831A1 (en) Endoscope system
JP3878023B2 (en) 3D measuring device
US9436868B2 (en) Object classification for measured three-dimensional object scenes
KR20100114843A (en) Dental surface imaging using polarized fringe projection
US10724892B2 (en) Measurement system, measurement method, and measurement program
US11871906B2 (en) Endoscope system
EP3540372A1 (en) Three-dimensional shape measurement apparatus
JP6939641B2 (en) Image inspection equipment and image inspection method
JP2005287900A (en) Endoscope
WO2021181508A1 (en) Endoscope system
WO2017033671A1 (en) Blood flow measurement device
CN220289403U (en) Multispectral space frequency domain imaging device based on white light LED
WO2013133341A1 (en) Optical measuring device
JPWO2021019716A5 (en) Optical equipment, light source equipment, condensing method and endoscopic system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18921937

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020523889

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18921937

Country of ref document: EP

Kind code of ref document: A1