WO2022219783A1 - 光治療装置、光治療方法および光治療プログラム - Google Patents

光治療装置、光治療方法および光治療プログラム Download PDF

Info

Publication number
WO2022219783A1
WO2022219783A1 PCT/JP2021/015612 JP2021015612W WO2022219783A1 WO 2022219783 A1 WO2022219783 A1 WO 2022219783A1 JP 2021015612 W JP2021015612 W JP 2021015612W WO 2022219783 A1 WO2022219783 A1 WO 2022219783A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
tissue structure
image
fluorescence intensity
fluorescence
Prior art date
Application number
PCT/JP2021/015612
Other languages
English (en)
French (fr)
Inventor
周志 太田
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN202180089242.0A priority Critical patent/CN116685376A/zh
Priority to PCT/JP2021/015612 priority patent/WO2022219783A1/ja
Priority to JP2023514280A priority patent/JP7430845B2/ja
Publication of WO2022219783A1 publication Critical patent/WO2022219783A1/ja
Priority to US18/220,362 priority patent/US20230347169A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/06Radiation therapy using light
    • A61N5/0613Apparatus adapted for a specific treatment
    • A61N5/062Photodynamic therapy, i.e. excitation of an agent
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/06Radiation therapy using light
    • A61N5/0601Apparatus for use inside the body
    • A61N5/0603Apparatus for use inside the body for treatment of body cavities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/06Radiation therapy using light
    • A61N5/0601Apparatus for use inside the body
    • A61N5/0603Apparatus for use inside the body for treatment of body cavities
    • A61N2005/0609Stomach and/or esophagus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/06Radiation therapy using light
    • A61N2005/0626Monitoring, verifying, controlling systems and methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/06Radiation therapy using light
    • A61N2005/0626Monitoring, verifying, controlling systems and methods
    • A61N2005/0627Dose monitoring systems and methods
    • A61N2005/0628Dose monitoring systems and methods including a radiation sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/06Radiation therapy using light
    • A61N2005/0658Radiation therapy using light characterised by the wavelength of light used
    • A61N2005/0659Radiation therapy using light characterised by the wavelength of light used infrared
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present invention relates to a phototherapy device, a phototherapy method, and a phototherapy program.
  • PIT photoimmunotherapy
  • the antibody drug irradiated with near-infrared light absorbs light energy, causes molecular vibration, and generates heat. This heat destroys cancer cells.
  • the antibody drug emits fluorescence when excited. The intensity of this fluorescence is used as an index of therapeutic efficacy.
  • the amount of reaction in the tissue may be non-uniform even if the same amount of therapeutic light is applied.
  • the rate of reaction progress is also non-uniform, and there are regions where the reaction progresses and regions where the reaction progresses slowly.
  • Patent Document 1 and Non-Patent Document 1 evaluate the therapeutic effect based on the decrease in fluorescence in the entire light-irradiated area, the therapeutic effect may not be evaluated appropriately.
  • a fluorescence image is generally a blurred image, so that local changes are likely to be hidden by the conventional method of observing the amount of decrease in fluorescence over the entire light-irradiated region.
  • the fluorescence of the reaction region where the reaction has progressed has decreased, it may be buried in the fluorescence of the unreacted region with high fluorescence intensity.
  • the present invention has been made in view of the above, and aims to provide a phototherapy device, a phototherapy method, and a phototherapy program that can appropriately irradiate a treatment area with light.
  • the phototherapy apparatus includes a therapeutic light emitting device for emitting therapeutic light that causes a drug to react, and a narrow band irradiated to the irradiation position of the therapeutic light.
  • a tissue structure image acquisition unit that acquires a tissue structure image obtained by light
  • a fluorescence image acquisition unit that acquires a fluorescence image obtained by the excitation light irradiated to the irradiation position of the therapeutic light; and using the tissue structure image.
  • a boundary region determination unit for determining a boundary region where the tissue structure has changed;
  • a fluorescence intensity change calculation unit for calculating the magnitude of change in fluorescence intensity of the boundary region; and for displaying the magnitude of change in fluorescence intensity.
  • a display image generating unit that generates a display image of.
  • the boundary region determination unit detects a temporal change in the tissue structure image, and the tissue structure has changed based on the temporal change amount. A part area is determined as the boundary area.
  • the boundary region determination unit determines the region of the site where the tissue structure has changed by comparing the value of the tissue structure image with a preset threshold value. Determined as a boundary area.
  • the boundary region determination unit uses a feature amount calculated in advance by machine learning to determine the region of the site where the tissue structure has changed as the boundary region. do.
  • the tissue structure image acquisition unit acquires a tissue structure image obtained by the narrowband light with a wavelength band of 380 nm or more and 440 nm or less.
  • the phototherapy apparatus normalizes the fluorescence intensity calculated by the fluorescence intensity change calculation unit using the light intensity of the return light of the narrowband light in the wavelength band of 440 nm or more and 490 nm or less. and a fluorescence intensity normalization unit.
  • the tissue structure image acquisition unit acquires a tissue structure image obtained by the narrowband light with a wavelength band of 490 nm or more and 590 nm or less.
  • the tissue structure image acquiring unit acquires a tissue structure image obtained by the narrowband light having a wavelength band of 590 nm or more and 620 nm or less.
  • the tissue structure image acquisition unit acquires a tissue structure image obtained by the narrowband light with a wavelength band of 620 nm or more and 780 nm or less.
  • a control unit that controls the emission of the therapeutic light with the integrated value of the light irradiation intensity and the irradiation time as the set irradiation light amount for the irradiation target area of the therapeutic light. , is further provided.
  • the phototherapy method according to the present invention is a phototherapy method for irradiating a treatment site with therapeutic light that causes a drug to react and confirming the therapeutic effect, wherein a narrow area irradiated to the irradiation position of the therapeutic light is irradiated.
  • tissue structure image acquisition step of acquiring a tissue structure image obtained by band light
  • fluorescence image acquisition step of acquiring a fluorescence image obtained by excitation light irradiated to the irradiation position of the therapeutic light
  • boundary region determination step of determining a boundary region where the tissue structure has changed
  • fluorescence intensity change calculation step of calculating the magnitude of change in fluorescence intensity of the boundary region
  • displaying the magnitude of change in fluorescence intensity a display image generating step of generating a display image for.
  • the phototherapy program according to the present invention provides a phototherapy device that generates information for confirming the therapeutic effect by irradiating a treatment site with therapeutic light that causes a drug to react, and the irradiation position of the therapeutic light is irradiated.
  • tissue structure image acquisition step of acquiring a tissue structure image obtained by narrowband light
  • fluorescence image acquisition step of acquiring a fluorescence image obtained by excitation light irradiated to the irradiation position of the therapeutic light
  • boundary region determination step of determining a boundary region where the tissue structure has changed
  • fluorescence intensity change calculation step of calculating the magnitude of change in fluorescence intensity of the boundary region, and displaying the magnitude of change in fluorescence intensity using and a display image generating step of generating a display image for performing.
  • FIG. 1 is a diagram showing a schematic configuration of an endoscope system according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram showing a schematic configuration of the endoscope system according to Embodiment 1 of the present invention.
  • FIG. 3 is a diagram for explaining the configuration of the distal end of the endoscope according to the first embodiment of the present invention;
  • FIG. 4 is a diagram illustrating the configuration of the imaging optical system of the endoscope according to Embodiment 1 of the present invention.
  • FIG. 5 is a diagram for explaining an example of the wavelength band of light used as narrow-band light.
  • FIG. 6 is a diagram showing an example of the flow of treatment using the endoscope according to the first embodiment of the present invention
  • 7 is a flowchart illustrating an example of processing of the processing device according to the first embodiment of the present invention
  • FIG. FIG. 8 is a diagram for explaining the areas divided by the boundary area determination.
  • FIG. 9 is a diagram showing an example of changes in fluorescence intensity when the reaction rate is slow.
  • FIG. 10 is a diagram showing an example of changes in fluorescence intensity when the reaction progresses at a high speed.
  • 11 is a block diagram showing a schematic configuration of an endoscope system according to a modification of Embodiment 1 of the present invention; FIG. FIG.
  • FIG. 12 is a diagram illustrating a configuration of an imaging optical system of an endoscope according to a modification of Embodiment 1 of the present invention
  • FIG. 13 is a block diagram showing a schematic configuration of an endoscope system according to Embodiment 2 of the present invention.
  • FIG. 14 is a diagram illustrating a configuration of an imaging optical system of an endoscope according to Embodiment 2 of the present invention.
  • FIG. 15 is a diagram schematically showing an image obtained by the first image sensor.
  • FIG. 16 is a diagram schematically showing an image obtained by the third image sensor.
  • FIG. 17 is a diagram for explaining the boundary area set by adding the image shown in FIG. 15 and the image shown in FIG. FIG.
  • FIG. 18 is a block diagram showing a schematic configuration of an endoscope system according to Embodiment 3 of the present invention.
  • FIG. 19 is a diagram illustrating the configuration of an imaging optical system of an endoscope according to Embodiment 3 of the present invention.
  • FIG. 20 is a diagram illustrating the configuration of an imaging optical system of an endoscope according to Embodiment 4 of the present invention.
  • FIG. 1 is a diagram showing a schematic configuration of an endoscope system according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram showing a schematic configuration of the endoscope system according to the first embodiment.
  • FIG. 3 is a diagram for explaining the configuration of the distal end of the endoscope according to the first embodiment.
  • An endoscope system 1 shown in FIGS. 1 and 2 includes an endoscope 2 that captures an in-vivo image of a subject by inserting its distal end into the subject, and illumination light emitted from the distal end of the endoscope 2.
  • a light source device 3 that generates a signal
  • a processing device 4 that performs predetermined signal processing on an imaging signal captured by the endoscope 2 and controls the overall operation of the endoscope system 1, and a signal from the processing device 4
  • a display device 5 for displaying an in-vivo image generated by processing and a treatment instrument device 6 are provided.
  • the endoscope 2 includes an insertion section 21 having a flexible and elongated shape, an operation section 22 connected to the proximal end side of the insertion section 21 and receiving input of various operation signals, and an operation section 22 to the insertion section. and a universal cord 23 extending in a direction different from the direction in which 21 extends and containing various cables connected to the light source device 3 and the processing device 4 .
  • the insertion section 21 is a flexible bendable body composed of a distal end section 24 containing an imaging device 244 in which pixels for generating signals by receiving and photoelectrically converting light are arranged two-dimensionally, and a plurality of bending pieces. It has a bending portion 25 and an elongated flexible tubular portion 26 connected to the base end side of the bending portion 25 and having flexibility.
  • the insertion section 21 is inserted into the body cavity of the subject, and the imaging element 244 captures an image of a subject such as living tissue at a position where external light cannot reach.
  • the operation unit 22 includes a bending knob 221 for bending the bending portion 25 in the vertical direction and the horizontal direction, and a treatment for inserting treatment tools such as a therapeutic light irradiation device, a biopsy forceps, an electric scalpel, and an examination probe into the body cavity of the subject. It has an instrument inserting portion 222 and a plurality of switches 223 as an operation input portion for inputting operation instruction signals for peripheral devices such as air supply means, water supply means, and screen display control in addition to the processing device 4 .
  • a treatment instrument inserted from the treatment instrument insertion portion 222 is exposed from the opening via a treatment instrument channel (not shown) of the distal end portion 24 (see FIG. 3).
  • the universal cord 23 incorporates at least a light guide 241 and a collective cable 245 that collects one or more signal lines.
  • the universal cord 23 is branched at the end opposite to the side connected to the operating portion 22 .
  • a connector 231 detachable from the light source device 3 and a connector 232 detachable from the processing device 4 are provided at the branch ends of the universal cord 23 .
  • a part of the light guide 241 extends from the end of the connector 231 .
  • the universal cord 23 propagates the illumination light emitted from the light source device 3 to the distal end portion 24 via the connector 231 (light guide 241 ), the operating portion 22 and the flexible tube portion 26 .
  • the universal cord 23 transmits an image signal captured by the imaging device 244 provided at the distal end portion 24 to the processing device 4 via the connector 232 .
  • the assembly cable 245 includes signal lines for transmitting imaging signals, signal lines for transmitting drive signals for driving the imaging element 244, and information including unique information about the endoscope 2 (imaging element 244). including signal lines for sending and receiving
  • an electric signal is transmitted using a signal line. It may transmit a signal between them.
  • the distal end portion 24 includes a light guide 241 made of glass fiber or the like and forming a light guide path for light emitted by the light source device 3, an illumination lens 242 provided at the distal end of the light guide 241, and an optical system for condensing light. It has a system 243 and an imaging element 244 which is provided at an image forming position of the optical system 243 and receives light condensed by the optical system 243, photoelectrically converts the light into an electric signal, and performs predetermined signal processing.
  • the optical system 243 is configured using one or more lenses.
  • the optical system 243 forms an observation image on the light receiving surface of the imaging device 244 .
  • the optical system 243 may have an optical zoom function that changes the angle of view and a focus function that changes the focus.
  • the imaging element 244 photoelectrically converts the light from the optical system 243 to generate an electric signal (image signal).
  • the imaging device 244 has two imaging devices (a first imaging device 244a and a second imaging device 244b).
  • the first imaging element 244a and the second imaging element 244b each have a plurality of pixels arranged in a matrix, each having a photodiode that accumulates electric charge corresponding to the amount of light and a capacitor that converts the electric charge transferred from the photodiode into a voltage level. arrayed.
  • Each pixel of the first imaging element 244a and the second imaging element 244b photoelectrically converts light incident thereon through the optical system 243 to generate an electric signal.
  • the generated electrical signals are sequentially read out and output as image signals.
  • the first imaging element 244a and the second imaging element 244b are realized using, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor
  • FIG. 4 is a diagram for explaining the configuration of the imaging optical system of the endoscope according to the first embodiment.
  • the optical system 243 and the imaging device 244 are provided inside the distal end portion 24 .
  • the optical system 243 has an objective lens 243a consisting of one or more optical elements, a dichroic mirror 243b, and a cut filter 243c.
  • the cut filter 243c cuts light in the wavelength band of the excitation light.
  • the excitation light here corresponds to light in the wavelength band for exciting the antibody drug in PIT.
  • the optical system 243 may have a lens or the like in addition to the optical elements described above.
  • a beam splitter such as a half mirror may be used instead of the dichroic mirror 243b.
  • the light from the subject passes through the objective lens 243a and enters the dichroic mirror 243b.
  • the distance from the light passing/turning position in the dichroic mirror 243b to the light receiving surface of each imaging element be the same.
  • the dichroic mirror 243b bends the optical path of light having a wavelength equal to or greater than the excitation light and allows light having a wavelength less than the excitation light to pass through. In other words, the dichroic mirror 243b bends the optical paths of the excitation light that excites the subject and the fluorescence. Light passing through the dichroic mirror 243b enters the first imaging element 244a. On the other hand, the excitation light and fluorescence whose optical paths are bent by the dichroic mirror 243b are cut by the cut filter 243c, and the fluorescence enters the second imaging element 244b.
  • the transmittance of the excitation light of the cut filter 243c is set to 0.1% or less, for example. By setting the transmittance of the excitation light of the cut filter 243c to 0.1% or less, the fluorescence can be selectively taken in during the excitation light illumination.
  • the first imaging element 244a corresponds to the tissue structure image acquisition section
  • the cut filter and the second imaging element 244b correspond to the fluorescence image acquisition section.
  • the endoscope 2 has a memory (not shown) that stores an execution program and a control program for the imaging element 244 to perform various operations, and data including identification information of the endoscope 2 .
  • the identification information includes unique information (ID) of the endoscope 2, model year, spec information, transmission method, and the like.
  • the memory may also temporarily store image data and the like generated by the imaging device 244 .
  • the configuration of the light source device 3 will be described.
  • the light source device 3 includes a light source section 31 , an illumination control section 32 and a light source driver 33 . Under the control of the illumination control unit 32, the light source unit 31 sequentially switches and emits illumination light to a subject (subject).
  • the light source unit 31 is configured using a light source, one or more lenses, etc., and emits light (illumination light) by driving the light source.
  • the light generated by the light source section 31 is emitted from the tip of the tip section 24 toward the subject via the light guide 241 .
  • the light source section 31 has a white light source 311 , a narrow band light source 312 and an excitation light source 313 .
  • the white light source 311 emits light (white light) having a wavelength band in the visible light range.
  • the white light source 311 is implemented using any light source such as an LED light source, a laser light source, a xenon lamp, or a halogen lamp.
  • the narrow-band light source 312 emits light (narrow-band light) having a partial wavelength or a wavelength band in the visible light range.
  • FIG. 5 is a diagram for explaining an example of the wavelength band of light used as narrow-band light.
  • the narrow-band light includes light L V in a wavelength band of 380 nm to 440 nm, light L B in a wavelength band of 440 nm to 490 nm, light L G in a wavelength band of 490 nm to 590 nm, and light of a wavelength band of 590 nm to 620 nm.
  • Light L A and light L R in the wavelength band of 620 nm or more and 780 nm or less, or a combination of some of them.
  • narrow band light examples include light consisting of a wavelength band of 380 nm or more and 440 nm or less with a central wavelength of 415 nm and a wavelength band of 490 nm or more and 590 nm or less with a central wavelength of 540 nm, which is used for NBI (Narrow Band Imaging) observation. be done.
  • the narrow band light source 312 is implemented using an LED light source, a laser light source, or the like.
  • near-infrared light L P with a central wavelength of 690 nm is used.
  • the blood vessels on the mucosal surface layer can be visualized with high contrast.
  • the surface layer of the mucous membrane can be relatively Deep blood vessels can be visualized with high contrast.
  • Light in a wavelength band of 440 nm or more and 490 nm or less is used as reference light for generating an image for, for example, correcting fluorescence intensity, in addition to rendering blood vessels.
  • the dichroic mirror 243b of the optical system 243 is replaced with a half mirror, or the optical system 243 is left as it is and the second image sensor 244b generates An electrical signal is used.
  • the excitation light source 313 emits excitation light for exciting an excitation target (for example, an antibody drug in the case of PIT).
  • the excitation light source 313 is implemented using a light source such as an LED light source or a laser light source.
  • a light source such as an LED light source or a laser light source.
  • near-infrared light L P is used to excite the PIT antibody drug.
  • the lighting control unit 32 controls the amount of power supplied to the light source unit 31 based on the control signal (light control signal) from the processing device 4, and also controls the light source to emit light and the driving timing of the light source.
  • the light source driver 33 supplies current to the light source to emit light, thereby causing the light source unit 31 to emit light.
  • the processing device 4 includes an image processing section 41 , a synchronization signal generation section 42 , an input section 43 , a control section 44 and a storage section 45 .
  • the image processing unit 41 receives image data of illumination light of each color imaged by the imaging element 244 from the endoscope 2 .
  • the image processing unit 41 performs A/D conversion to generate a digital imaging signal.
  • image data is received as an optical signal from the endoscope 2, the image processing unit 41 performs photoelectric conversion to generate digital image data.
  • the image processing unit 41 performs predetermined image processing on the image data received from the endoscope 2 to generate an image and outputs the image to the display device 5, or sets an enhancement region determined based on the image. , and to calculate changes in fluorescence intensity over time.
  • the image processing unit 41 has a boundary area determination unit 411 , a fluorescence intensity change calculation unit 412 , and a display image generation unit 413 .
  • the boundary region determination unit 411 determines a portion where the tissue structure has changed and a portion where the tissue structure has changed based on an image (tissue structure image) formed by narrowband light, which is generated based on the imaging signal generated by the first imaging element 244a. Determining the boundary with the part that does not change or the change is small. By determining the boundary, the boundary region determination unit 411 determines each boundary region of a portion where the tissue structure has changed and a portion where the tissue structure has not changed or has changed only slightly.
  • the fluorescence intensity change calculation unit 412 calculates the time change of the fluorescence intensity for each boundary area based on the second image generated by the second imaging element 244b and based on the image formed by the fluorescence.
  • the display image generation unit 413 generates an image by performing predetermined image processing.
  • the image may be an image using white light or narrow band light, an image indicating the boundary determined by the boundary region determination unit 411, an image corresponding to the amount of change calculated by the fluorescence intensity change calculation unit, or visual information in the fluorescence intensity itself.
  • the predetermined image processing includes synchronization processing, gradation correction processing, color correction processing, and the like. Synchronization processing is processing for synchronizing image data of each color component of RGB.
  • Gradation correction processing is processing for correcting the gradation of image data.
  • Color correction processing is processing for performing color tone correction on image data. Note that the display image generation unit 413 may adjust the gain according to the brightness of the image.
  • the image processing unit 41 is configured using a general-purpose processor such as a CPU (Central Processing Unit) or a dedicated processor such as various arithmetic circuits that execute specific functions such as an ASIC (Application Specific Integrated Circuit). Note that the image processing unit 41 may be configured to have a frame memory that holds the R image data, the G image data and the B image data.
  • a general-purpose processor such as a CPU (Central Processing Unit) or a dedicated processor such as various arithmetic circuits that execute specific functions such as an ASIC (Application Specific Integrated Circuit).
  • the image processing unit 41 may be configured to have a frame memory that holds the R image data, the G image data and the B image data.
  • the synchronization signal generation unit 42 generates a clock signal (synchronization signal) that serves as a reference for the operation of the processing device 4, and transmits the generated synchronization signal to the light source device 3, the image processing unit 41, the control unit 44, and the endoscope 2.
  • the synchronizing signal generated by the synchronizing signal generator 42 includes a horizontal synchronizing signal and a vertical synchronizing signal. Therefore, the light source device 3, the image processing section 41, the control section 44, and the endoscope 2 operate in synchronization with each other by the generated synchronization signal.
  • the input unit 43 is implemented using a keyboard, a mouse, a switch, and a touch panel, and receives inputs of various signals such as operation instruction signals for instructing the operation of the endoscope system 1 .
  • the input unit 43 may include a switch provided in the operation unit 22 or a portable terminal such as an external tablet computer.
  • the control unit 44 performs drive control of each component including the imaging element 244 and the light source device 3, input/output control of information to each component, and the like.
  • the control unit 44 refers to control information data (for example, readout timing) for imaging control stored in the storage unit 45, and performs imaging as a drive signal via a predetermined signal line included in the collective cable 245. It transmits to the element 244 and switches between a normal observation mode in which an image obtained by illumination with white light is observed and a fluorescence observation mode in which fluorescence intensity of an excitation target is calculated.
  • the control unit 44 is configured using a general-purpose processor such as a CPU or a dedicated processor such as various arithmetic circuits that execute specific functions such as an ASIC.
  • the storage unit 45 stores data including various programs for operating the endoscope system 1 and various parameters necessary for operating the endoscope system 1 .
  • the storage unit 45 also stores identification information of the processing device 4 .
  • the identification information includes unique information (ID) of the processing device 4, model year, specification information, and the like.
  • the storage unit 45 also stores various programs including an image acquisition processing program for executing the image acquisition processing method of the processing device 4 .
  • Various programs can be recorded on computer-readable recording media such as hard disks, flash memories, CD-ROMs, DVD-ROMs, flexible disks, etc., and can be widely distributed.
  • the various programs described above can also be obtained by downloading via a communication network.
  • the communication network here is realized by, for example, an existing public line network, LAN (Local Area Network), WAN (Wide Area Network), etc., and it does not matter whether it is wired or wireless.
  • the storage unit 45 having the above configuration is implemented using a ROM (Read Only Memory) in which various programs etc. are pre-installed, and a RAM, hard disk, etc. for storing calculation parameters, data, etc. for each process.
  • ROM Read Only Memory
  • the display device 5 displays a display image corresponding to the image signal received from the processing device 4 (image processing unit 41) via the video cable.
  • the display device 5 is configured using a monitor such as liquid crystal or organic EL (Electro Luminescence).
  • the treatment instrument device 6 has a treatment instrument operation section 61 and a flexible treatment instrument 62 extending from the treatment instrument operation section 61 .
  • the treatment instrument 62 used for PIT emits light for treatment (hereinafter referred to as treatment light).
  • the treatment instrument operation section 61 controls emission of therapeutic light from the treatment instrument 62 .
  • the treatment instrument operation section 61 has an operation input section 611 .
  • the operation input unit 611 is composed of, for example, switches.
  • the treatment instrument operating section 61 causes the treatment instrument 62 to emit therapeutic light in response to an input (for example, depression of a switch) to the operation input section 611 .
  • the light source that emits the therapeutic light may be provided in the treatment instrument 62 or may be provided in the treatment instrument operation section 61 .
  • a light source is implemented using a semiconductor laser, an LED, or the like.
  • therapeutic light is light in a wavelength band of 680 nm or more, for example, light with a central wavelength of 690 nm (for example, light L P shown in FIG. 5).
  • the illumination optical system provided in the treatment instrument 62 can change the irradiation range of the treatment light.
  • the treatment instrument operation unit 61 under the control of the treatment instrument operation unit 61, it is composed of an optical system capable of changing the focal length, a DMD (Digital Micromirror Device), etc., and changes the spot diameter of the light irradiated to the subject and the shape of the irradiation range. can do.
  • a DMD Digital Micromirror Device
  • FIG. 6 is a diagram showing an example of the flow of treatment using the endoscope according to the first embodiment of the present invention
  • FIG. 6 is a diagram showing an example of implementation of PIT, in which treatment is performed by inserting the insertion portion 21 into the stomach ST.
  • the operator inserts the insertion portion 21 into the stomach ST (see (a) in FIG. 6).
  • the operator causes the light source device 3 to irradiate white light, and searches for the treatment position while observing the white light image inside the stomach ST displayed by the display device 5 .
  • tumors B 1 and B 2 are to be treated as targets of treatment.
  • the operator observes the white light image and determines the regions containing the tumors B 1 and B 2 as irradiation regions.
  • the operator directs the distal end portion 24 toward the tumor B 1 , protrudes the treatment instrument 62 from the distal end of the endoscope 2, and irradiates the tumor B 1 with therapeutic light (see (b) of FIG. 6). Irradiation of the therapeutic light causes the antibody drug bound to the tumor B1 to react, and the tumor B1 is treated.
  • the operator directs the distal end portion 24 toward the tumor B2, protrudes the treatment instrument 62 from the distal end of the endoscope 2 , and irradiates the tumor B2 with therapeutic light (see (c) of FIG . 6). Irradiation of the therapeutic light causes the antibody drug bound to the tumor B2 to react, and the tumor B2 is treated.
  • the operator directs the distal end portion 24 toward the tumor B 1 and irradiates the tumor B 1 with excitation light from the distal end of the endoscope 2 (see (d) in FIG. 6).
  • the operator confirms the therapeutic effect on tumor B 1 by observing the fluorescence intensity. Confirmation of the therapeutic effect is determined by the operator by displaying an image, which will be described later.
  • the operator directs the distal end portion 24 toward the tumor B 2 and irradiates the tumor B 2 with excitation light from the distal end of the endoscope 2 (see (e) in FIG. 6).
  • the operator confirms the therapeutic effect on Tumor B2 by observing the fluorescence intensity.
  • the operator repeats additional irradiation of therapeutic light and confirmation of therapeutic effects as necessary.
  • FIG. 7 is a flowchart illustrating an example of processing performed by the processing apparatus according to the first embodiment;
  • FIG. FIG. 7, like FIG. 6, shows an example of the flow when performing PIT.
  • a tissue structure image before treatment is acquired by irradiating the treatment position with narrow-band light from the distal end portion 24 (step S101: tissue structure image acquisition step).
  • the processing device 4 generates a tissue structure image based on the imaging signal generated by the first imaging element 244a.
  • step S102 fluorescence detection step.
  • the endoscope 2 irradiates the subject with the excitation light, and the antibody drug before treatment is excited to emit fluorescence.
  • the processing device 4 acquires an imaging signal (fluorescence image) generated by the second imaging element 244b.
  • step S103 drug reaction step.
  • a treatment that destroys cancer cells by activating the antibody drug by irradiation with near-infrared light, which is therapeutic light, is performed.
  • step S104 tissue structure image acquisition step.
  • the processing device 4 generates a tissue structure image based on the imaging signal generated by the first imaging element 244a in the same manner as in step S101.
  • step S105 fluorescence detection step. Also in step S105, the processing device 4 acquires the imaging signal (fluorescence image) generated by the second imaging device 244b in the same manner as in step S102.
  • the boundary region determination unit 411 detects the boundary between the region with a fast reaction speed and the region with a slow reaction speed using the tissue structure image acquired in step S101 and the tissue structure image acquired in step S103. By doing so, the boundary area is determined (step S106: boundary area determination step). Note that the boundary area determination step may be performed before the fluorescence detection step, or may be performed simultaneously with the fluorescence detection step.
  • the boundary area determination unit 411 determines the boundary area by, for example, either determination processing 1 or determination processing 2 below. Note that a known method other than the determination processes 1 and 2 may be used to determine the boundary area.
  • the boundary region determination unit 411 detects temporal changes in two tissue structure images acquired at different times, and determines a region whose boundary is the outer edge including the site where the tissue structure has changed based on the amount of temporal change. Determined as an area.
  • the boundary region determining unit 411 compares the tissue structure image value (brightness value) with a preset threshold value, for example, to extract the region of the site where the tissue structure has changed, and defines the outer edge of the extracted region as the boundary. It is determined as a boundary area that
  • the threshold here may be a preset brightness value in a normal state (tumor-free state), or may be a brightness value of a tissue structure image acquired before treatment.
  • the boundary region determination unit 411 uses the feature amount calculated in advance by machine learning to determine the region of the part where the tissue structure has changed as the boundary region.
  • the boundary area determination unit 411 calculates the feature amount of the acquired tissue structure image, and determines the boundary area using the calculated feature amount and the learning model.
  • FIG. 8 is a diagram for explaining the areas divided by the boundary area determination.
  • the boundary region determination unit 411 compares the tissue structure images, detects the boundary between regions with large changes in tissue as regions with high reaction speed, and regions with small changes in tissue as regions with low reaction speed, and determines the boundary region. judge. For example, the boundary region determination unit 411 sets the first region ROI 1 as a region with a slow reaction speed, and sets the second region ROI 2 as a region with a fast reaction speed.
  • FIG. 9 is a diagram showing an example of changes in fluorescence intensity when the reaction rate is slow.
  • FIG. 10 is a diagram showing an example of changes in fluorescence intensity when the reaction progresses at a high speed.
  • the reaction rate is slow (for example, the first region ROI 1 )
  • the attenuation rate of the fluorescence intensity Q 1 derived from the antibody drug is small, and high intensity is maintained over time (see FIG. 9).
  • the attenuation rate of the antibody drug-derived fluorescence intensity Q 2 is large (see FIG. 10).
  • the fluorescence intensity change calculation unit 412 calculates a fluorescence intensity change using the fluorescence image acquired in step S102 and the fluorescence image acquired in step S105 (step S107: fluorescence intensity change calculation step).
  • the fluorescence intensity change calculation unit 412 calculates a change in fluorescence intensity (difference value in fluorescence intensity between before and after treatment) for each region determined by the boundary region determination unit 411 .
  • a known method such as pattern matching may be used to align the images before and after treatment.
  • the display image generation unit 413 generates an image to be displayed on the display device 5 (step S108).
  • the display image generation unit 413 generates an image that visually expresses changes in fluorescence intensity.
  • the display image generation unit 413 generates an image in which visual information corresponding to changes in fluorescence intensity is superimposed on a tissue structure image, or generates a visual information corresponding to changes in fluorescence intensity over time (changes in fluorescence intensity) in each boundary region.
  • the information is superimposed on the tissue structure image together with the boundary line of the boundary region (for example, the first region ROI 1 ), or the temporal change in the fluorescence intensity of each boundary region (see, for example, FIGS. 9 and 10) is displayed in parallel with the image. Generate images to be displayed.
  • the visual information corresponding to the fluorescence intensity for example, the color of the region where the amount of change in the fluorescence intensity is small is set to a color that is easy to visually recognize (hue, color density, etc. that is easy for humans to distinguish).
  • the display image allows, for example, visual recognition of the difference in fluorescence intensity change between different boundary regions (for example, the first region ROI 1 and the second region ROI 2 ).
  • the display image generation unit 413 may generate an image consisting only of tissue structure, a white light image, or a fluorescence intensity image (intensity map).
  • the control unit 44 causes the display device 5 to display the image generated in step S108 (step S109: display step).
  • step S109 display step
  • the operator can confirm the therapeutic effect.
  • the operator refers to the image to confirm the therapeutic effect, determine whether or not to additionally irradiate the therapeutic light, and determine the portion to be irradiated with the therapeutic light (for example, the first region ROI 1 ).
  • the operator operates the input unit 43 to input the determination result.
  • step S110 determines whether or not to additionally irradiate the therapeutic light. If the control unit 44 determines that additional irradiation of therapeutic light is unnecessary based on the input determination result (step S110: No), the process ends. On the other hand, when the control unit 44 determines that additional irradiation of therapeutic light is to be performed (step S110: Yes), the process proceeds to step S111.
  • additional irradiation for example, in the illumination optical system, the shape of the irradiation range of light is controlled to match the boundary region, or the operator adjusts the spot diameter to irradiate therapeutic light.
  • the control unit 44 determines whether or not the amount of irradiated light in the region where additional therapeutic light irradiation is performed is within the allowable range (step S111).
  • the allowable range is a preset amount of light, and at least an upper limit value is set. This upper limit is a value set to suppress tissue damage due to excessive irradiation.
  • the control unit 44 determines whether or not the amount of light (accumulated light amount value) that has been applied to the target area exceeds, for example, an upper limit value.
  • step S111: Yes When the control unit 44 determines that the amount of light that has been irradiated is below the allowable range (upper limit) (step S111: Yes), it proceeds to step S112. If the control unit 44 determines that the amount of light that has been irradiated exceeds the allowable range (upper limit) (step S111: No), the process proceeds to step S113.
  • step S112 the control unit 44 sets an irradiation area for performing additional irradiation. After setting the irradiation area, the control unit 44 returns to step S103 and repeats the process.
  • the control unit 44 outputs an alert to the effect that the irradiation light amount exceeds the allowable range.
  • This alert may be displayed as character information on the display device 5, may be configured to emit sound or light, or may be combined. After displaying on the display device 5, the control unit 44 terminates the process.
  • a tissue structure image is acquired with narrow-band light, and regions (boundary regions) with different reaction speeds are divided according to tissue changes before and after treatment, and changes in fluorescence intensity in each region are determined. Calculate At this time, by displaying the boundary region or the change in fluorescence intensity for each boundary region, the operator is allowed to determine whether or not additional therapeutic light irradiation is necessary for each region. According to Embodiment 1, since additional irradiation of therapeutic light can be performed on the region, light irradiation can be appropriately performed on the therapeutic region.
  • the cumulative light amount of the therapeutic light to the area is compared with the allowable range, and the cumulative light amount exceeds the allowable range. If it exceeds, an alert is output to the effect that the cumulative amount of light exceeds the allowable range. According to the first embodiment, it is possible to suppress tissue damage due to excessive irradiation of therapeutic light.
  • the first imaging element 244a may be configured using a multi-band image sensor to individually acquire light in a plurality of different wavelength bands. For example, scattered light and returned light in a wavelength band of 380 nm to 440 nm and scattered light and returned light in a wavelength band of 490 nm to 590 nm are separately acquired by a multiband image sensor, and each narrow By generating a band light image, it is possible to acquire blood vessel images at different depths from the mucosal surface layer, and use changes in blood vessels and tissues at each depth to determine the boundary region with higher accuracy. obtain.
  • FIG. 11 is a block diagram showing a schematic configuration of an endoscope system according to a modification of Embodiment 1 of the present invention
  • FIG. An endoscope system 1A according to this modification includes an endoscope 2A instead of the endoscope 2 of the endoscope system 1 according to the first embodiment. Since the configuration other than the endoscope 2A is the same, the description is omitted.
  • the endoscope 2A includes a distal end portion 24A instead of the distal end portion 24 of the endoscope 2. Since the configuration other than the distal end portion 24A is the same as that of the endoscope 2, the description is omitted.
  • the tip portion 24A is provided at the image forming position of the light guide 241, the illumination lens 242, the optical system 243A for condensing, and the optical system 243A, and receives the light condensed by the optical system 243A and converts it into an electric signal. and an imaging element 244A that photoelectrically converts and performs predetermined signal processing.
  • FIG. 12 is a diagram for explaining the configuration of the imaging optical system of the endoscope according to the modified example of Embodiment 1 of the present invention.
  • the optical system 243A and the imaging element 244A are provided inside the distal end portion 24A.
  • the optical system 243A includes an objective lens 2430, a first lens 2431 consisting of one or more optical elements, a second lens 2432 consisting of one or more optical elements, and a third lens 2433 consisting of one or more optical elements. , a cut filter 2434, and a fourth lens 2435 consisting of one or more optical elements.
  • the cut filter 2434 cuts light in the wavelength band of the excitation light.
  • the excitation light here corresponds to light in the wavelength band for exciting the antibody drug in PIT.
  • the second lens 2432 and the fourth lens 2435 form observation images at positions different from each other on the imaging device 244A and at positions that do not overlap each other.
  • the excitation light transmittance of the cut filter 2434 is set to 0.1% or less. By setting the transmittance of the excitation light to 0.1% or less, fluorescence can be selectively taken in, for example, during excitation light illumination.
  • the imaging element 244A photoelectrically converts the light from the optical system 243A to generate an electric signal (image signal).
  • the image sensor 244A has a plurality of pixels arranged in a matrix, each having a photodiode that accumulates electric charge according to the amount of light, a capacitor that converts the electric charge transferred from the photodiode into a voltage level, and the like.
  • Each pixel photoelectrically converts the light from the optical system 243A to generate an electric signal, which is output as an image signal.
  • the imaging element 244A is implemented using, for example, a CCD image sensor or a CMOS image sensor.
  • Lights L 3 and L 4 from the object pass through the objective lens 2430 and enter the first lens 2431 and the third lens 2433, respectively.
  • Light L 3 incident on the first lens 2431 is imaged by the second lens 2432 .
  • Light L 4 incident on the third lens 2433 passes through a cut filter 2434 and is imaged by a fourth lens 2435 .
  • the second lens 2432 forms an observation image on the first imaging section 244c of the imaging element 244A.
  • the fourth lens 2435 forms an observation image on the second imaging section 244d of the imaging element 244A.
  • the first imaging section 244c and the second imaging section 244d are formed by dividing the light receiving area of the imaging device into two.
  • the processing device 4 executes processing according to the flow of FIG. 7 when performing PIT.
  • the first imaging device 244a is read as the first imaging unit 244c
  • the second imaging device 244b is read as the second imaging unit 244d.
  • a tissue structure image is acquired with narrow-band light, and regions (boundary regions) with different reaction speeds are divided according to changes in the tissue before and after treatment, and each By calculating the change in the fluorescence intensity of the region and displaying the boundary region or the change in the fluorescence intensity for each boundary region, the operator can determine whether or not additional therapeutic light irradiation is necessary for each region. According to this modified example, it is possible to perform additional irradiation of the treatment light on the region, so that it is possible to appropriately perform light irradiation on the treatment region.
  • FIG. 13 is a block diagram showing a schematic configuration of an endoscope system according to Embodiment 2 of the present invention.
  • An endoscope system 1B according to the second embodiment includes an endoscope 2B and a processing device 4A instead of the endoscope 2 and the processing device 4 of the endoscope system 1 according to the first embodiment. Since the configuration other than the endoscope 2A and the processing device 4A is the same, the description is omitted.
  • the endoscope 2B includes a distal end portion 24B in place of the distal end portion 24 of the endoscope 2. Since the configuration other than the distal end portion 24B is the same as that of the endoscope 2, the description is omitted.
  • the tip portion 24B is provided at the image forming position of the light guide 241, the illumination lens 242, the optical system 243B for condensing, and the optical system 243B, and receives the light condensed by the optical system 243B and converts it into an electric signal. and an imaging element 244B that photoelectrically converts and performs predetermined signal processing.
  • FIG. 14 is a diagram explaining the configuration of the imaging optical system of the endoscope according to Embodiment 2 of the present invention.
  • the optical system 243B and the imaging element 244B are provided inside the distal end portion 24B.
  • the optical system 243B has an objective lens 243a, a dichroic mirror 243b (hereinafter referred to as the first dichroic mirror 243b), a cut filter 243c, and a second dichroic mirror 234d.
  • the cut filter 243c cuts light in the wavelength band of the excitation light.
  • the second dichroic mirror 234d bends the optical path of light in the wavelength band of the blue component, for example, light in the wavelength band of 490 nm or less, and allows light in the wavelength band of other components (eg, green component and red component) to pass through.
  • the optical system 243B may have a lens or the like in addition to the optical elements described above.
  • the first dichroic mirror 243b bends the optical path of light (light L 2 ) having a wavelength equal to or greater than the fluorescence wavelength emitted by the subject, and passes light (light L 1 ) having a wavelength less than the fluorescence wavelength.
  • the light (light L 1 ) that has passed through the first dichroic mirror 243b enters the second dichroic mirror 234d.
  • the cut filter 243c cuts the excitation light and fluorescence (light L 2 ), the optical path of which is bent by the first dichroic mirror 243b, and the fluorescence enters the second imaging element 244b.
  • the second dichroic mirror 243d bends the optical path of the light (light L 12 ) including the return light of the narrow-band light in the wavelength band of 440 nm or more and 490 nm or less, and also bends the color components other than the blue component (for example, the components with wavelengths longer than 490 nm). ) (light L 11 ).
  • the light (light L 11 ) that has passed through the second dichroic mirror 243d enters the first imaging element 244a.
  • the light (light L 12 ) whose optical path is bent by the second dichroic mirror 243d enters the third imaging element 244e.
  • the imaging element 244B photoelectrically converts the light from the optical system 243 to generate an electric signal (image signal).
  • the imaging element 244B has three imaging elements (first imaging element 244a, second imaging element 244b, and third imaging element 244e).
  • the first imaging element 244a to the third imaging element 244e are implemented using, for example, a CCD image sensor or a CMOS image sensor.
  • the processing device 4A includes an image processing unit 41A, a synchronization signal generation unit 42, an input unit 43, a control unit 44, and a storage unit 45.
  • the image processing unit 41A receives, from the endoscope 2, image data of illumination light of each color captured by the imaging device 244B.
  • the image processing unit 41A performs predetermined image processing on the image data received from the endoscope 2B to generate an image and outputs the image to the display device 5, or sets a boundary region determined based on the image. , and to calculate changes in fluorescence intensity over time.
  • the image processing unit 41A has a boundary area determination unit 411, a fluorescence intensity change calculation unit 412, a display image generation unit 413, a specific area intensity calculation unit 414, and a fluorescence intensity normalization unit 415.
  • the display image generation unit 413 generates a white light image based on the electrical signals generated by the first imaging element 244a and the third imaging element 244e.
  • the specific region intensity calculator 414 calculates the light intensity of a specific wavelength band. In the second embodiment, the intensity of the light (light L 12 ) in the wavelength band of the blue component is calculated. The specific area intensity calculation unit 414 calculates the light intensity of the blue component based on the electrical signal generated by the third imaging element 244e.
  • the fluorescence intensity normalization unit 415 normalizes the intensity change by dividing the intensity change calculated by the fluorescence intensity change calculation unit 412 by the light intensity of the blue component calculated by the specific area intensity calculation unit 414 .
  • the processing device 4A executes processing according to the flow of FIG. 7 when performing PIT.
  • the fluorescence detection step step S105
  • the subject is irradiated with narrow-band light of 440 nm to 490 nm in addition to the excitation light. Therefore, the specific region intensity calculator 414 calculates the light intensity of the return light of the narrow band light of 440 nm to 490 nm.
  • the narrow-band light may be irradiated at a timing different from the fluorescence detection step.
  • the fluorescence intensity change normalized by the fluorescence intensity normalization unit 415 is calculated.
  • the boundary area determination unit 411 may determine the boundary area based on the electrical signal generated by the first image sensor 244a, or the electrical signal generated by the third image sensor 244e. The boundary region may be determined based on the electrical signal, or may be determined based on the electrical signals generated by the first imaging element 244a and the third imaging element 244e.
  • FIG. 15 is a diagram schematically showing an image obtained by the first image sensor.
  • FIG. 16 is a diagram schematically showing an image obtained by the third image sensor.
  • the image obtained by the first imaging element 244a is based on an image formed by light in wavelength bands excluding fluorescent components and blue components.
  • the image obtained by the third imaging element 244e is based on the image formed by the light in the wavelength band of the blue component.
  • the image shown in FIG. 15 is obtained by the first imaging element 244a and the image shown in FIG. 16 is obtained by the third imaging element 244e.
  • the X-axis and Y-axis shown in FIGS. 15 and 16 are attached to indicate the relative positional relationship of each image.
  • the images shown in FIGS. 15 and 16 are images based on light in different wavelength bands (the wavelength band of the blue component and the wavelength bands other than the blue component and fluorescence), and depict different tissue structures. Specifically, blood vessels with different depths from the tissue surface are rendered. In FIGS. 15 and 16, it is assumed that tissue structure images are drawn in the photodetection regions R 1 and R 2 .
  • the boundary region determination unit 411 determines an image obtained by the first imaging element 244a (for example, the image shown in FIG. 15; hereinafter sometimes referred to as the first image) and an image obtained by the third imaging element 244e (for example, the image shown in FIG. 16). (hereinafter sometimes referred to as a second image), boundary regions with different degrees of change in tissue structure are determined.
  • FIG. 17 is a diagram for explaining the boundary area set by adding the image shown in FIG. 15 and the image shown in FIG.
  • the boundary area determination unit 411 synthesizes the first image and the second image, extracts the outline of the synthesized image, etc., and determines the extracted outline as the boundary area.
  • dashed line R3 is set as the boundary region.
  • a tissue structure image is acquired with narrow-band light, and regions (boundary regions) with different reaction speeds are divided according to changes in the tissue before and after treatment, By calculating the change in fluorescence intensity of each region and displaying the boundary region or the change in fluorescence intensity for each boundary region, the operator can judge whether additional irradiation of therapeutic light is necessary for each region. .
  • the second embodiment since additional irradiation of therapeutic light can be performed on the region, light irradiation can be appropriately performed on the therapeutic region.
  • the distance between the endoscope 2B (distal end 24B) and the subject can be displayed to the operator.
  • the change in fluorescence intensity can be properly grasped.
  • the narrow band acquired for normalization is not limited to the wavelength band of 440 nm or more and 490 nm or less, and may be other wavelength bands.
  • the light in the wavelength band of 440 nm or more and 490 nm or less does not contribute to absorption derived from blood components, and is dominated by scattered light from living tissue. Therefore, since the intensity of the scattered light from the tissue depends only on the distance, it is suitable for canceling the variation of the fluorescence intensity due to the distance due to division or the like.
  • FIG. 18 is a block diagram showing a schematic configuration of an endoscope system according to Embodiment 3 of the present invention.
  • An endoscope system 1C according to the third embodiment includes a processing device 4A instead of the processing device 4 of the endoscope system 1 according to the first embodiment.
  • the distal end portion 24 includes an optical system 243 and an imaging element 244 similar to those in Embodiment 1, but the first imaging element 244a is configured by a multiband image sensor, and generates an electric signal for each color component separately. described as what to do.
  • FIG. 19 is a diagram illustrating the configuration of an imaging optical system of an endoscope according to Embodiment 3 of the present invention.
  • the light reflected or scattered from the subject is, for example, narrow-band red component light L R with a central wavelength of 660 nm, amber component light L A with a central wavelength of 590 nm, and green component light L with a central wavelength of 525 nm.
  • G blue component light L B with a central wavelength of 480 nm, violet color component light L V with a central wavelength of 380 nm, excitation light (for example, light L P shown in FIG. 5), and Fluorescence and light L T .
  • the light L T whose excitation light is cut by the cut filter 243c is incident on the second imaging element 244b.
  • the specific region intensity calculation unit 414 uses an electrical signal generated based on the blue component light (light L B ) among the electrical signals generated by the first imaging element 244a to calculate the light intensity.
  • the processing device 4A executes processing according to the flow of FIG. 7 when performing PIT.
  • the fluorescence intensity change calculation step step S107
  • the fluorescence intensity change normalized by the fluorescence intensity normalization unit 415 is calculated.
  • the boundary region determination unit 411 may determine the boundary region using an electrical signal based on the blue component light among the electrical signals generated by the first imaging element 244a.
  • the boundary region may be determined using electrical signals based on light components other than the blue component, or the boundary region may be determined based on the electrical signals of all color components generated by the first imaging element 244a.
  • the electrical signals of all color components correspond to electrical signals generated by a plurality of filters included in the multiband image sensor and having different wavelength bands for receiving or transmitting light.
  • a tissue structure image is acquired with narrow-band light, and regions (boundary regions) with different reaction speeds are divided according to changes in the tissue before and after treatment, By calculating the change in fluorescence intensity of each region and displaying the boundary region or the change in fluorescence intensity for each boundary region, the operator can judge whether additional irradiation of therapeutic light is necessary for each region. .
  • the third embodiment since additional irradiation of therapeutic light can be performed on the region, light irradiation can be appropriately performed on the therapeutic region.
  • the first imaging element 244a generates electronic signals individually for each color component. and an electrical signal based on light components other than the returned light may be generated separately.
  • FIG. 20 is a block diagram showing a schematic configuration of an endoscope system according to Embodiment 4 of the present invention.
  • An endoscope system 1D according to the fourth embodiment has the same configuration as the endoscope system 1 according to the first embodiment.
  • the processing device 4 is electrically connected to the treatment instrument device 6 , and the controller 44 controls emission of therapeutic light from the treatment instrument 62 .
  • the processing device 4 executes processing according to the flow of FIG. 7 when performing PIT.
  • the control unit 44 controls the irradiation range, irradiation timing, and irradiation time of the therapeutic light. Specifically, the control unit 44 sets, for example, the light intensity (output value) and the irradiation time corresponding to the preset irradiation light amount for the irradiation range set by the operator.
  • the control unit 44 starts irradiation control of the treatment light with the pressing of the switch of the operation input unit 611 as a trigger.
  • control unit 44 when performing additional irradiation, sets the shape of the irradiation range of the therapeutic light emitted from the treatment instrument 62 according to the boundary region of the target, and presses the switch of the operation input unit 611 as a trigger. Irradiation control of therapeutic light is started. Note that the control unit 44 may determine whether or not the cumulative amount of irradiation light in the irradiation target area has exceeded a preset upper limit value, and output an alert if it exceeds.
  • a tissue structure image is acquired with narrow-band light, and regions (boundary regions) with different reaction speeds are divided according to changes in tissue before and after treatment, By calculating the change in fluorescence intensity of each region and displaying the boundary region or the change in fluorescence intensity for each boundary region, the operator can judge whether additional irradiation of therapeutic light is necessary for each region. . According to the fourth embodiment, since additional irradiation of therapeutic light can be performed on the region, light irradiation can be appropriately performed on the therapeutic region.
  • control unit 44 since the control unit 44 performs emission control of the therapeutic light emitted from the treatment tool 62, the operator does not need to adjust the irradiation range of the therapeutic light according to the boundary region. therapeutic light can be applied to a specific area.
  • the excitation light and the treatment light may be in the same wavelength band (same center wavelength) or different wavelength bands (center wavelength).
  • the treatment light (excitation light) may be emitted from the treatment tool 62 or the excitation light source 313, and either the excitation light source 313 or the treatment tool 62 may be omitted.
  • the light source device 3 is separate from the processing device 4 in the above-described embodiment, the light source device 3 and the processing device 4 may be integrated. Further, in the embodiment, an example in which the therapeutic light is emitted by the treatment tool has been described, but the light source device 3 may be configured to emit the therapeutic light.
  • the endoscope system according to the present invention is explained as being the endoscope system 1 using the flexible endoscope 2 whose observation target is the biological tissue in the subject.
  • endoscopes such as rigid endoscopes, industrial endoscopes for observing material properties, fiberscopes, optical viewing tubes, and other optical endoscopes with a camera head connected to the eyepiece. It can also be applied to a scope system.
  • the phototherapy device, phototherapy method, and phototherapy program according to the present invention are useful for appropriately irradiating the treatment area with light.
  • Reference Signs List 1 1A to 1D endoscope system 2, 2A, 2B endoscope 3 light source device 4, 4A processing device 5 display device 6 treatment instrument device 21 insertion section 22 operation section 23 universal cord 24 tip section 25 bending section 26 flexibility Tube section 31 Light source section 32 Illumination control section 33 Light source driver 41 Image processing section 42 Synchronization signal generation section 43 Input section 44 Control section 45 Storage section 61 Treatment instrument operation section 62 Treatment instrument 241 Light guide 242 Illumination lens 243, 243A Optical system 243a , 2430 objective lens 243b dichroic mirror (first dichroic mirror) 243c, 2434 cut filter 243d second dichroic mirror 244, 244A, 244B imaging element 244a first imaging element 244b second imaging element 244c first imaging section 244d second imaging section 244e third imaging element 311 white light source 312 narrow band light source 313 Excitation light source 411 Boundary area determination unit 412 Fluorescence intensity change calculation unit 413 Display image generation unit 414 Specific region intensity calculation unit 4

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Endoscopes (AREA)

Abstract

本発明の光治療装置は、薬剤を反応させる治療光を出射する治療光出射装置と、治療光の照射位置に照射された狭帯域光によって得られる組織構造画像を取得する組織構造画像取得部と、治療光の照射位置に照射された励起光によって得られる蛍光画像を取得する蛍光画像取得部と、組織構造画像を用いて、組織構造が変化した境界領域を判定する境界領域判定部と、境界領域の蛍光強度の変化の大きさを算出する蛍光強度変化算出部と、蛍光強度の変化の大きさを表示するための表示画像を生成する表示画像生成部と、を備える。

Description

光治療装置、光治療方法および光治療プログラム
 本発明は、光治療装置、光治療方法および光治療プログラムに関する。
 近年、抗体薬剤を癌細胞に結合させ、近赤外光の照射によって抗体薬剤を活性化させて癌細胞を破壊することによって癌の治療を行う光免疫療法(Photoimmunotherapy:PIT)の研究が進められている(例えば、特許文献1および非特許文献1を参照)。近赤外光が照射された抗体薬剤は、光エネルギーを吸収して分子振動し、発熱する。この熱によって、癌細胞が破壊される。この際、抗体薬剤は、励起されることによって蛍光を発する。この蛍光の強度は、治療効果の指標として用いられる。
特開2017-71654号公報
T.Nagaya, et al, Cancer Science. 2018;109:1902-1908
 ところで、癌細胞表面の光源は、不均一であるため、治療光を同じ光量で照射したとしても組織内の反応量が不均一となる場合がある。そのため反応進行速度も不均一となり、反応が進行する領域と遅い領域とが存在する。適切な光照射には、反応進行速度が異なる領域に対して、それぞれ適切な光量を見積もって、各領域の光量を設定する必要がある。
 しかしながら、特許文献1および非特許文献1は、光照射領域全体の蛍光の減少量で治療効果を評価しているため、治療効果を適切に評価できない場合があった。蛍光像は、一般的にぼやけた像となるため、光照射領域全体の蛍光の減少量を観察する従来の手法では、局所的な変化が埋もれやすい。特に、反応が進行した反応領域は蛍光が減少しているため、蛍光強度が高い未反応領域の蛍光に埋もれることがある。
 本発明は、上記に鑑みてなされたものであって、治療領域に対して適切に光照射を実施することができる光治療装置、光治療方法および光治療プログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明にかかる光治療装置は、薬剤を反応させる治療光を出射する治療光出射装置と、前記治療光の照射位置に照射された狭帯域光によって得られる組織構造画像を取得する組織構造画像取得部と、前記治療光の照射位置に照射された励起光によって得られる蛍光画像を取得する蛍光画像取得部と、前記組織構造画像を用いて、組織構造が変化した境界領域を判定する境界領域判定部と、前記境界領域の蛍光強度の変化の大きさを算出する蛍光強度変化算出部と、前記蛍光強度の変化の大きさを表示するための表示画像を生成する表示画像生成部と、を備える。
 また、本発明にかかる光治療装置は、上記発明において、前記境界領域判定部は、前記組織構造画像の時間的な変化を検出し、該時間的な変化量に基づいて前記組織構造が変化した部位の領域を前記境界領域として判定する。
 また、本発明にかかる光治療装置は、上記発明において、境界領域判定部は、前記組織構造画像の値を、予め設定した閾値と比較することによって、前記組織構造が変化した部位の領域を前記境界領域として判定する。
 また、本発明にかかる光治療装置は、上記発明において、前記境界領域判定部は、予め機械学習によって算出された特徴量を用いて、前記組織構造が変化した部位の領域を前記境界領域として判定する。
 また、本発明にかかる光治療装置は、上記発明において、前記組織構造画像取得部は、380nm以上440nm以下の波長帯域の前記狭帯域光によって得られる組織構造画像を取得する。
 また、本発明にかかる光治療装置は、上記発明において、440nm以上490nm以下の波長帯域の狭帯域光の戻り光の光強度を用いて、前記蛍光強度変化算出部が算出した蛍光強度を規格化する蛍光強度規格化部、をさらに備える。
 また、本発明にかかる光治療装置は、上記発明において、前記組織構造画像取得部は、490nm以上590nm以下の波長帯域の前記狭帯域光によって得られる組織構造画像を取得する。
 また、本発明にかかる光治療装置は、上記発明において、前記組織構造画像取得部は、590nm以上620nm以下の波長帯域の前記狭帯域光によって得られる組織構造画像を取得する。
 また、本発明にかかる光治療装置は、上記発明において、前記組織構造画像取得部は、620nm以上780nm以下の波長帯域の前記狭帯域光によって得られる組織構造画像を取得する。
 また、本発明にかかる光治療装置は、上記発明において、前記治療光の照射対象領域に対し、光照射強度および照射時間の積算値を設定照射光量として、前記治療光の出射制御を行う制御部、をさらに備える。
 また、本発明にかかる光治療方法は、薬剤を反応させる治療光を、治療部位に照射して治療効果を確認するための光治療方法であって、前記治療光の照射位置に照射された狭帯域光によって得られる組織構造画像を取得する組織構造画像取得ステップと、前記治療光の照射位置に照射された励起光によって得られる蛍光画像を取得する蛍光画像取得ステップと、前記組織構造画像を用いて、組織構造が変化した境界領域を判定する境界領域判定ステップと、前記境界領域の蛍光強度の変化の大きさを算出する蛍光強度変化算出ステップと、前記蛍光強度の変化の大きさを表示するための表示画像を生成する表示画像生成ステップと、を含む。
 また、本発明にかかる光治療プログラムは、薬剤を反応させる治療光を、治療部位に照射して治療効果を確認するため情報を生成する光治療装置に、前記治療光の照射位置に照射された狭帯域光によって得られる組織構造画像を取得する組織構造画像取得ステップと、前記治療光の照射位置に照射された励起光によって得られる蛍光画像を取得する蛍光画像取得ステップと、前記組織構造画像を用いて、組織構造が変化した境界領域を判定する境界領域判定ステップと、前記境界領域の蛍光強度の変化の大きさを算出する蛍光強度変化算出ステップと、前記蛍光強度の変化の大きさを表示するための表示画像を生成する表示画像生成ステップと、を実行させる。
 本発明によれば、治療領域に対して適切に光照射を実施することができるという効果を奏する。
図1は、本発明の実施の形態1にかかる内視鏡システムの概略構成を示す図である。 図2は、本発明の実施の形態1にかかる内視鏡システムの概略構成を示すブロック図である。 図3は、本発明の実施の形態1にかかる内視鏡の先端構成を説明する図である。 図4は、本発明の実施の形態1にかかる内視鏡の撮像光学系の構成を説明する図である。 図5は、狭帯域光として用いる光の波長帯域の一例について説明するための図である。 図6は、本発明の実施の形態1にかかる内視鏡を用いた治療の流れの一例を示す図である。 図7は、本発明の実施の形態1にかかる処理装置の処理の一例を示すフローチャートである。 図8は、境界領域判定によって分けられた領域について説明する図である。 図9は、反応進行速度が遅い場合の蛍光強度の推移の一例を示す図である。 図10は、反応進行速度が速い場合の蛍光強度の推移の一例を示す図である。 図11は、本発明の実施の形態1の変形例にかかる内視鏡システムの概略構成を示すブロック図である。 図12は、本発明の実施の形態1の変形例にかかる内視鏡の撮像光学系の構成を説明する図である。 図13は、本発明の実施の形態2にかかる内視鏡システムの概略構成を示すブロック図である。 図14は、本発明の実施の形態2にかかる内視鏡の撮像光学系の構成を説明する図である。 図15は、第1撮像素子によって得られる画像を模式的に示す図である。 図16は、第3撮像素子によって得られる画像を模式的に示す図である。 図17は、図15に示す像と、図16に示す像との合算によって設定される境界領域を説明するための図である。 図18は、本発明の実施の形態3にかかる内視鏡システムの概略構成を示すブロック図である。 図19は、本発明の実施の形態3にかかる内視鏡の撮像光学系の構成を説明する図である。 図20は、本発明の実施の形態4にかかる内視鏡の撮像光学系の構成を説明する図である。
 以下、本発明を実施するための形態(以下、「実施の形態」という)を説明する。実施の形態では、本発明に係る光治療装置を含むシステムの一例として、患者等の被検体内の画像を撮像して表示する医療用の内視鏡システムについて説明する。また、この実施の形態によって、この発明が限定されるものではない。さらに、図面の記載において、同一部分には同一の符号を付して説明する。
(実施の形態1)
 図1は、本発明の実施の形態1に係る内視鏡システムの概略構成を示す図である。図2は、本実施の形態1に係る内視鏡システムの概略構成を示すブロック図である。図3は、本実施の形態1にかかる内視鏡の先端構成を説明する図である。
 図1および図2に示す内視鏡システム1は、被検体内に先端部を挿入することによって被検体の体内画像を撮像する内視鏡2と、内視鏡2の先端から出射する照明光を発生する光源装置3と、内視鏡2が撮像した撮像信号に所定の信号処理を施すとともに、内視鏡システム1全体の動作を統括的に制御する処理装置4と、処理装置4の信号処理によって生成された体内画像を表示する表示装置5と、処置具装置6とを備える。
 内視鏡2は、可撓性を有する細長形状をなす挿入部21と、挿入部21の基端側に接続され、各種の操作信号の入力を受け付ける操作部22と、操作部22から挿入部21が延びる方向と異なる方向に延び、光源装置3および処理装置4に接続する各種ケーブルを内蔵するユニバーサルコード23と、を備える。
 挿入部21は、光を受光して光電変換することによって信号を生成する画素が2次元状に配列された撮像素子244を内蔵した先端部24と、複数の湾曲駒によって構成された湾曲自在な湾曲部25と、湾曲部25の基端側に接続され、可撓性を有する長尺状の可撓管部26と、を有する。挿入部21は、被検体の体腔内に挿入され、外光の届かない位置にある生体組織などの被写体を撮像素子244によって撮像する。
 操作部22は、湾曲部25を上下方向および左右方向に湾曲させる湾曲ノブ221と、被検体の体腔内に治療光照射装置、生検鉗子、電気メスおよび検査プローブ等の処置具を挿入する処置具挿入部222と、処理装置4に加えて、送気手段、送水手段、画面表示制御等の周辺機器の操作指示信号を入力する操作入力部である複数のスイッチ223と、を有する。処置具挿入部222から挿入される処置具は、先端部24の処置具チャンネル(図示せず)を経由して開口部から表出する(図3参照)。
 ユニバーサルコード23は、ライトガイド241と、一または複数の信号線をまとめた集合ケーブル245と、を少なくとも内蔵している。ユニバーサルコード23は、操作部22に接続する側と反対側の端部において分岐している。ユニバーサルコード23の分岐端部には、光源装置3に着脱自在なコネクタ231と、処理装置4に着脱自在なコネクタ232とが設けられる。コネクタ231は、端部からライトガイド241の一部が延出している。ユニバーサルコード23は、光源装置3から出射された照明光を、コネクタ231(ライトガイド241)、操作部22および可撓管部26を経て先端部24に伝播する。また、ユニバーサルコード23は、先端部24に設けられた撮像素子244が撮像した画像信号を、コネクタ232を経由して、処理装置4に伝送する。集合ケーブル245は、撮像信号を伝送するための信号線や、撮像素子244を駆動するための駆動信号を伝送するための信号線、内視鏡2(撮像素子244)に関する固有情報などを含む情報を送受信するための信号線を含む。なお、本実施の形態では、信号線を用いて電気信号を伝送するものとして説明するが、光信号を伝送するものであってもよいし、無線通信によって内視鏡2と処理装置4との間で信号を伝送するものであってもよい。
 先端部24は、グラスファイバ等を用いて構成されて光源装置3が発光した光の導光路をなすライトガイド241と、ライトガイド241の先端に設けられた照明レンズ242と、集光用の光学系243と、光学系243の結像位置に設けられ、光学系243が集光した光を受光して電気信号に光電変換して所定の信号処理を施す撮像素子244とを有する。
 光学系243は、一または複数のレンズを用いて構成される。光学系243は、撮像素子244の受光面上に観察像を結像させる。なお、光学系243は、画角を変化させる光学ズーム機能および焦点を変化させるフォーカス機能を有してもよい。
 撮像素子244は、光学系243からの光を光電変換して電気信号(画像信号)を生成する。具体的には、撮像素子244は、二つの撮像素子(第1撮像素子244aおよび第2撮像素子244b)を有する。第1撮像素子244aおよび第2撮像素子244bは、光量に応じた電荷を蓄積するフォトダイオードや、フォトダイオードから転送される電荷を電圧レベルに変換するコンデンサなどをそれぞれ有する複数の画素がマトリックス状に配列されてなる。第1撮像素子244aおよび第2撮像素子244bは、各画素が光学系243を経て入射する光を光電変換して電気信号を生成し、複数の画素のうち読み出し対象として任意に設定された画素が生成した電気信号を順次読み出して、画像信号として出力する。第1撮像素子244aおよび第2撮像素子244bは、例えばCCD(Charge Coupled Device)イメージセンサや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いて実現される。
 図4は、本実施の形態1にかかる内視鏡の撮像光学系の構成を説明する図である。光学系243および撮像素子244は、先端部24の内部に設けられる。
 光学系243は、一または複数の光学素子からなる対物レンズ243aと、ダイクロイックミラー243bと、カットフィルタ243cとを有する。カットフィルタ243cは、励起光の波長帯域の光をカットする。ここでの励起光は、PITにおける抗体薬剤を励起させるための波長帯域の光に相当する。光学系243は、上記の光学素子のほか、さらにレンズ等を有してもよい。なお、ダイクロイックミラー243bに代えてハーフミラー等のビームスプリッターとしてもよい。
 被写体からの光は、対物レンズ243aを経て、ダイクロイックミラー243bに入射する。ここで、ダイクロイックミラー243bにおける光の通過/折り返し位置から、各撮像素子(第1撮像素子244aおよび第2撮像素子244b)の受光面までの距離は同じであることが好ましい。
 ダイクロイックミラー243bは、励起光の波長以上の光の光路を折り曲げるとともに、励起光の波長未満の光を通過させる。すなわち、ダイクロイックミラー243bは、被写体を励起させる励起光と、その蛍光の光路を折り曲げる。ダイクロイックミラー243bを通過した光は、第1撮像素子244aに入射する。一方、ダイクロイックミラー243bによって光路を折り曲げられた励起光および蛍光は、カットフィルタ243cによって励起光がカットされ、第2撮像素子244bには蛍光が入射する。
 ここで、カットフィルタ243cの励起光の透過率は、例えば0.1%以下に設定される。カットフィルタ243cの励起光の透過率を0.1%以下とすることによって、励起光照明時に、蛍光を選択的に取り込むことができる。
 また、第1撮像素子244aが組織構造画像取得部に相当し、カットフィルタおよび第2撮像素子244bが蛍光画像取得部に相当する。
 なお、内視鏡2は、撮像素子244が各種動作を実行するための実行プログラムおよび制御プログラムや、内視鏡2の識別情報を含むデータを記憶するメモリを有する(図示せず)。識別情報には、内視鏡2の固有情報(ID)、年式、スペック情報、および伝送方式等が含まれる。また、メモリは、撮像素子244が生成した画像データ等を一時的に記憶してもよい。
 光源装置3の構成について説明する。光源装置3は、光源部31と、照明制御部32と、光源ドライバ33とを備える。光源部31は、照明制御部32の制御のもと、被写体(被検体)に対して、照明光を順次切り替えて出射する。
 光源部31は、光源や、一または複数のレンズ等を用いて構成され、光源の駆動によって光(照明光)を出射する。光源部31が発生した光は、ライトガイド241を経由して先端部24の先端から被写体に向けて出射される。光源部31は、白色光源311と、狭帯域光源312と、励起光源313とを有する。
 白色光源311は、可視光域の波長帯域を有する光(白色光)を出射する。白色光源311は、LED光源や、レーザー光源、キセノンランプ、ハロゲンランプなどのいずれかの光源を用いて実現される。
 狭帯域光源312は、可視光域の波長帯域の一部の波長または波長帯域からなる光(狭帯域光)を出射する。図5は、狭帯域光として用いる光の波長帯域の一例について説明するための図である。狭帯域光としては、380nm以上440nm以下の波長帯域の光LV、440nm以上490nm以下の波長帯域の光LB、490nm以上590nm以下の波長帯域の光LG、590nm以上620nm以下の波長帯域の光LA、および620nm以上780nm以下の波長帯域の光LRのいずれか、または一部を組み合わせてなる光である。狭帯域光として、例えばNBI(Narrow Band Imaging)観察に用いる、415nmを中心波長とする380nm以上440nm以下の波長帯域、および、540nmを中心波長とする490nm以上590nm以下の波長帯域からなる光が挙げられる。狭帯域光源312は、LED光源や、レーザー光源などを用いて実現される。
 なお、PITの抗体薬剤を励起させる場合、例えば690nmを中心波長とする近赤外光LPが用いられる。
 ここで、380nm以上440nm以下の波長帯域の光を照射し、その散乱光や戻り光を取得することによって、粘膜表層の血管を高いコントラストで描出することができる。また、490nm以上590nm以下の波長帯域、590nm以上620nm以下の波長帯域、または620nm以上780nm以下の波長帯域の光を照射し、その散乱光や戻り光を取得することによって、粘膜表層において、比較的深部の血管を高いコントラストで描出することができる。
 また、440nm以上490nm以下の波長帯域の光は、血管描出のほか、例えば蛍光強度を補正するための画像を生成する参照光として使用される。
 なお、620nm以上780nm以下の波長帯域の光を使用する場合は、光学系243のダイクロイックミラー243bをハーフミラーに代えた構成とするか、または、光学系243はそのままとして第2撮像素子244bが生成した電気信号を用いる。
 励起光源313は、励起対象(例えばPITであれば抗体薬剤)を励起させるための励起光を出射する。励起光源313は、LED光源や、レーザー光源などの光源を用いて実現される。PITの抗体薬剤を励起させる場合、例えば近赤外光LPが用いられる。
 照明制御部32は、処理装置4からの制御信号(調光信号)に基づいて、光源部31に供給する電力量を制御するとともに、発光させる光源や、光源の駆動タイミングを制御する。
 光源ドライバ33は、照明制御部32の制御のもと、発光対象の光源に対して電流を供給することによって、光源部31に光を出射させる。
 処理装置4の構成について説明する。処理装置4は、画像処理部41と、同期信号生成部42と、入力部43と、制御部44と、記憶部45と、を備える。
 画像処理部41は、内視鏡2から、撮像素子244が撮像した各色の照明光の画像データを受信する。画像処理部41は、内視鏡2からアナログの画像データを受信した場合はA/D変換を行ってデジタルの撮像信号を生成する。また、画像処理部41は、内視鏡2から光信号として画像データを受信した場合は光電変換を行ってデジタルの画像データを生成する。
 画像処理部41は、内視鏡2から受信した画像データに対して所定の画像処理を施して画像を生成して表示装置5へ出力したり、画像に基づいて判定した強化領域を設定したり、蛍光強度の時間変化を算出したりする。画像処理部41は、境界領域判定部411と、蛍光強度変化算出部412と、表示画像生成部413とを有する。
 境界領域判定部411は、第1撮像素子244aが生成した撮像信号に基づいて生成される、狭帯域光によって形成される像(組織構造画像)に基づいて、組織構造が変化した部分と、変化していない、または変化が小さい部分との境界を判定する。境界領域判定部411は、境界を判定することによって、組織構造が変化した部分、および、変化していない、または変化が小さい部分の各境界領域を判定する。
 蛍光強度変化算出部412は、第2撮像素子244bが生成した、蛍光によって形成される像に基づく第2画像に基づいて、蛍光強度の時間変化を、境界領域ごとに算出する。
 表示画像生成部413は、所定の画像処理を施すことによって画像を生成する。画像は、白色光や狭帯域光による画像のほか、境界領域判定部411が判定した境界を示す画像や、蛍光強度変化算出部が算出した変化量に対応する画像、蛍光強度そのものに視覚情報を付与した画像がある。ここで、所定の画像処理とは、同時化処理、階調補正処理、色補正処理等である。同時化処理は、RGBの各色成分の画像データを同時化する処理である。階調補正処理は、画像データに対して階調の補正を行う処理である。色補正処理は、画像データに対して色調補正を行う処理である。なお、表示画像生成部413は、画像の明るさに応じてゲイン調整してもよい。
 画像処理部41は、CPU(Central Processing Unit)等の汎用プロセッサや、ASIC(Application Specific Integrated Circuit)等の特定の機能を実行する各種演算回路等の専用プロセッサを用いて構成される。なお、画像処理部41は、R画像データ、G画像データおよびB画像データを保持するフレームメモリを有する構成としてもよい。
 同期信号生成部42は、処理装置4の動作の基準となるクロック信号(同期信号)を生成するとともに、生成した同期信号を光源装置3や、画像処理部41、制御部44、内視鏡2へ出力する。ここで、同期信号生成部42が生成する同期信号は、水平同期信号と垂直同期信号とを含む。
 このため、光源装置3、画像処理部41、制御部44、内視鏡2は、生成された同期信号によって、互いに同期をとって動作する。
 入力部43は、キーボード、マウス、スイッチ、タッチパネルを用いて実現され、内視鏡システム1の動作を指示する動作指示信号等の各種信号の入力を受け付ける。なお、入力部43は、操作部22に設けられたスイッチや、外部のタブレット型のコンピュータなどの可搬型端末を含んでもよい。
 制御部44は、撮像素子244および光源装置3を含む各構成部の駆動制御、および各構成部に対する情報の入出力制御などを行う。制御部44は、記憶部45に記憶されている撮像制御のための制御情報データ(例えば、読み出しタイミングなど)を参照し、集合ケーブル245に含まれる所定の信号線を経由して駆動信号として撮像素子244へ送信したり、白色光の照明によって得られる画像を観察する通常観察モードと、励起対象の蛍光強度を算出する蛍光観察モードとを切り替えたりする。制御部44は、CPU等の汎用プロセッサやASIC等の特定の機能を実行する各種演算回路等の専用プロセッサを用いて構成される。
 記憶部45は、内視鏡システム1を動作させるための各種プログラム、および内視鏡システム1の動作に必要な各種パラメータ等を含むデータを記憶する。また、記憶部45は、処理装置4の識別情報を記憶する。ここで、識別情報には、処理装置4の固有情報(ID)、年式およびスペック情報等が含まれる。
 また、記憶部45は、処理装置4の画像取得処理方法を実行するための画像取得処理プログラムを含む各種プログラムを記憶する。各種プログラムは、ハードディスク、フラッシュメモリ、CD-ROM、DVD-ROM、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に記録して広く流通させることも可能である。なお、上述した各種プログラムは、通信ネットワークを経由してダウンロードすることによって取得することも可能である。ここでいう通信ネットワークは、例えば既存の公衆回線網、LAN(Local Area Network)、WAN(Wide Area Network)などによって実現されるものであり、有線、無線を問わない。
 以上の構成を有する記憶部45は、各種プログラム等が予めインストールされたROM(Read Only Memory)、および各処理の演算パラメータやデータ等を記憶するRAMやハードディスク等を用いて実現される。
 表示装置5は、映像ケーブルを経由して処理装置4(画像処理部41)から受信した画像信号に対応する表示画像を表示する。表示装置5は、液晶または有機EL(Electro Luminescence)等のモニタを用いて構成される。
 処置具装置6は、処置具操作部61と、処置具操作部61から延びる可撓性の処置具62とを有する。PITに使用される処置具62は、治療のための光(以下、治療光という)を出射する。処置具操作部61は、処置具62の治療光の出射を制御する。処置具操作部61は、操作入力部611を有する。操作入力部611は、例えば、スイッチ等によって構成される。処置具操作部61は、操作入力部611への入力(例えばスイッチの押下)によって、処置具62に治療光を出射させる。なお、処置具装置6において、治療光を発する光源は、処置具62に設けられてもよいし、処置具操作部61に設けられてもよい。光源は、半導体レーザーや、LED等を用いて実現される。治療光は、例えばPITの場合、680nm以上の波長帯域の光であり、例えば690nmを中心波長とする光である(例えば図5に示す光LP)。
 ここで、処置具62が備える照明光学系は、治療光の照射範囲を変更することができる。例えば、処置具操作部61の制御のもと、焦点距離を変更可能な光学系や、DMD(Digital Micromirror Device)等によって構成され、被写体に照射する光のスポット径や、照射範囲の形状を変更することができる。
 続いて、内視鏡2を用いた治療の流れについて、図6および図7を参照して説明する。図6は、本発明の実施の形態1にかかる内視鏡を用いた治療の流れの一例を示す図である。図6は、PITの実施の一例を示す図であり、胃STに挿入部21を挿入して治療を行う。
 まず、術者は、胃ST内に挿入部21を挿入する(図6の(a)参照)。この際、術者は、光源装置3に白色光を照射させ、表示装置5が表示する胃ST内の白色光画像を観察しながら治療位置を探索する。ここでは、治療対象として腫瘍B1、B2の治療を行うものとする。術者は、白色光画像を観察して腫瘍B1、B2を含む領域を照射領域として決定する。
 術者は、先端部24を腫瘍B1に向け、内視鏡2の先端から処置具62を突出させて腫瘍B1に治療光を照射する(図6の(b)参照)。治療光の照射によって、腫瘍B1に結合した抗体薬剤が反応し、腫瘍B1に対する治療が施される。
 そして、術者は、先端部24を腫瘍B2に向け、内視鏡2の先端から処置具62を突出させて腫瘍B2に治療光を照射する(図6の(c)参照)。治療光の照射によって、腫瘍B2に結合した抗体薬剤が反応し、腫瘍B2に対する治療が施される。
 その後、術者は、先端部24を腫瘍B1に向け、内視鏡2の先端から腫瘍B1に励起光を照射する(図6の(d)参照)。術者は、蛍光強度を観察することによって腫瘍B1における治療効果を確認する。治療効果の確認は、後述する画像の表示によって、術者が判断する。
 また、術者は、先端部24を腫瘍B2に向け、内視鏡2の先端から腫瘍B2に励起光を照射する(図6の(e)参照)。術者は、蛍光強度を観察することによって腫瘍B2における治療効果を確認する。
 術者は、必要に応じて、治療光の追加照射と、治療効果の確認とを繰り返す。
 続いて、処理装置4における処理について、図7を参照して説明する。図7は、本実施の形態1にかかる処理装置の処理の一例を示すフローチャートである。図7は、図6と同様に、PITを実施する際の流れの一例を示す。
 まず、治療光の照射前に、先端部24から治療位置に狭帯域光を照射して、治療前の組織構造画像を取得する(ステップS101:組織構造画像取得工程)。ここで、処理装置4では、第1撮像素子244aが生成した撮像信号に基づいて組織構造画像を生成する。
 その後、光源装置3に励起光を出射させ、抗体薬剤の蛍光を検出する(ステップS102:蛍光検出工程)。励起光の出射によって、内視鏡2から被写体に励起光が照射され、治療前の抗体薬剤が励起されて蛍光を発する。この際、処理装置4は、第2撮像素子244bが生成した撮像信号(蛍光画像)を取得する。
 その後、術者の操作によって、処置具62から、癌細胞に結合させた抗体薬剤に治療光が照射されて薬剤が反応する(ステップS103:薬剤反応工程)。この薬剤反応工程において、治療光である近赤外光の照射によって抗体薬剤を活性化させて癌細胞を破壊する治療が施される。
 そして、先端部24から治療位置に狭帯域光を照射して、治療後の組織構造画像を取得する(ステップS104:組織構造画像取得工程)。処理装置4は、ステップS104においても、ステップS101と同様にして、第1撮像素子244aが生成した撮像信号に基づいて組織構造画像を生成する。
 その後、光源装置3に励起光を出射させ、抗体薬剤の蛍光を検出する(ステップS105:蛍光検出工程)。処理装置4は、ステップS105においても、ステップS102と同様にして、第2撮像素子244bが生成した撮像信号(蛍光画像)を取得する。
 また、境界領域判定部411は、ステップS101で取得した組織構造画像と、ステップS103で取得した組織構造画像とを用いて、反応速度が速い領域と、反応速度が遅い領域との境界を検出することによって、境界領域を判定する(ステップS106:境界領域判定工程)。なお、境界領域判定工程は、蛍光検出工程よりも前に実行してもよいし、蛍光検出工程と同時に実行してもよい。
 ここで、境界領域判定部411が行う判定処理について説明する。境界領域判定部411は、例えば、以下の判定処理1または判定処理2のいずれかによって、境界領域を判定する。なお、判定処理1、2以外の公知の方法を用いて境界領域を判定してもよい。
[判定処理1]
 境界領域判定部411は、取得時刻が異なる二つの組織構造画像の時間的な変化を検出し、該時間的な変化量に基づいて組織構造が変化した部位を含む外縁を境界とする領域を境界領域として判定する。境界領域判定部411は、例えば、組織構造画像の値(輝度値)を、予め設定した閾値と比較することによって、組織構造が変化した部位の領域を抽出し、抽出した領域の外縁を境界とする境界領域として判定する。ここでの閾値は、予め設定されている正常な状態(腫瘍の無い状態)の輝度値であってもよいし、治療前に取得した組織構造画像の輝度値としてもよい。
[判定処理2]
 境界領域判定部411は、予め機械学習によって算出された特徴量を用いて、組織構造が変化した部位の領域を境界領域として判定する。境界領域判定部411は、取得した組織構造画像の特徴量を算出し、算出した特徴量と、学習モデルとを用いて境界領域を判定する。
 図8は、境界領域判定によって分けられた領域について説明する図である。境界領域判定部411は、組織構造画像を比較して、組織の変化が大きい領域を反応速度が高い領域、組織の変化が小さい領域を反応速度が遅い領域としてその境界を検出し、境界領域を判定する。境界領域判定部411は、例えば、反応速度が遅い領域として第1領域ROI1を設定するとともに、反応速度が速い領域として第2領域ROI2を設定する。
 図9は、反応進行速度が遅い場合の蛍光強度の推移の一例を示す図である。図10は、反応進行速度が速い場合の蛍光強度の推移の一例を示す図である。反応速度が遅い領域(例えば第1領域ROI1)では、抗体薬剤由来の蛍光強度Q1の減衰率が小さく、経時的に高い強度を維持する(図9参照)。一方、反応速度が速い領域(例えば第2領域ROI2)では、抗体薬剤由来の蛍光強度Q2の減衰率が大きい(図10参照)。
 また、蛍光強度変化算出部412は、ステップS102で取得した蛍光画像と、ステップS105で取得した蛍光画像とを用いて、蛍光強度変化を算出する(ステップS107:蛍光強度変化算出工程)。蛍光強度変化算出部412は、境界領域判定部411が判定した領域ごとに、蛍光強度の変化(治療前と治療後との蛍光強度の差分値)を算出する。なお、この際、パターンマッチング等の公知の方法を用いて、治療前と治療後との各画像の位置合わせを行ってもよい。
 その後、表示画像生成部413が、表示装置5に表示する画像を生成する(ステップS108)。表示画像生成部413は、蛍光強度の変化を視覚的に表現した画像を生成する。表示画像生成部413は、例えば、蛍光強度の変化に応じた視覚情報を、組織構造画像に重畳した画像を生成したり、各境界領域の蛍光強度の時間変化(蛍光強度変化)に応じた視覚情報を、境界領域(例えば第1領域ROI1)の境界線とともに組織構造画像に重畳した画像を生成したり、各境界領域の蛍光強度の時間変化(例えば図9、10参照)を画像とともに並列表示させる画像を生成したりする。蛍光強度に応じた視覚情報としては、例えば、蛍光強度の変化量が小さい領域の色を、視覚的に認識し易い色(人が識別しやすい色相や、色の濃度等)に設定する。表示画像によって、例えば、互いに異なる境界領域(例えば第1領域ROI1および第2領域ROI2)の蛍光強度変化の差異を視覚的に認識させることができる。なお、表示画像生成部413は、組織構造のみからなる画像や、白色光画像、蛍光強度画像(強度マップ)を生成してもよい。
 制御部44は、ステップS108で生成された画像を表示装置5に表示させる(ステップS109:表示工程)。表示装置5に画像を表示することによって、術者に、治療効果を確認させる。術者は、画像を参照して治療効果を確認し、追加で治療光を照射するか否かを判断したり、治療光を照射する部分(例えば第1領域ROI1)を判断したりする。術者は、判断結果を、入力部43を操作して入力する。
 制御部44は、入力部43が判断結果の入力を受け付けると、治療光の追加照射を行うか否かを判断する(ステップS110)。制御部44は、入力された判断結果に基づいて治療光の追加照射が不要であると判断した場合(ステップS110:No)、処理を終了する。これに対し、制御部44は、治療光の追加照射を実施すると判断した場合(ステップS110:Yes)、ステップS111に移行する。
 追加照射を行う際には、例えば照明光学系において、光の照射範囲の形状を境界領域に合わせる制御を行ったり、術者がスポット径を調整したりして治療光の照射を行う。
 制御部44は、治療光の追加照射を実施する領域における、照射済みの光量が、許容範囲内であるか否かを判断する(ステップS111)。ここで、許容範囲は、予め設定されている光量であり、少なくとも上限値が設定される。この上限値は、過剰照射によって組織が損傷することを抑制するために設定される値である。制御部44は、対象の領域に対して照射済みの光量(累積光量値)が、例えば、上限値を超えているか否かを判断する。
 制御部44は、照射済みの光量が、許容範囲(上限値)を下回っていると判断した場合(ステップS111:Yes)、ステップS112に移行する。また、制御部44は、照射済みの光量が、許容範囲(上限値)を超えていると判断した場合(ステップS111:No)、ステップS113に移行する。
 ステップS112において、制御部44は、追加照射を実施する照射領域を設定する。制御部44は、照射領域設定後、ステップS103に戻り、処理を繰り返す。
 ステップS113において、制御部44は、照射光量が許容範囲を超えている旨のアラートを出力する。このアラートは、表示装置5に文字情報として表示させてもよいし、音や光を発する構成としてもよいし、これらを組み合わせてもよい。制御部44は、表示装置5に表示させた後、処理を終了する。
 以上説明した実施の形態1では、狭帯域光によって組織構造画像を取得し、治療前後の組織の変化に応じて、反応速度が異なる領域(境界領域)を分け、それぞれの領域の蛍光強度の変化を算出する。この際、境界領域の表示、または境界領域ごとの蛍光強度の変化を表示することによって、術者に、領域ごとの治療光の追加照射の要否を判断させる。本実施の形態1によれば、領域に対して治療光の追加照射を実施させることができるため、治療領域に対して適切に光照射を実施することができる。
 また、上述した実施の形態1では、蛍光によって治療効果を確認後、追加照射を実施する際に、当該領域への治療光の累積光量と、許容範囲とを比較し、累積光量が許容範囲を超えている場合に、累積光量が許容範囲を超えている旨のアラートを出力する。本実施の形態1によれば、治療光の過剰照射によって組織が損傷することを抑制できる。
 なお、上述した実施の形態1において、第1撮像素子244aをマルチバンド(Multi-band)イメージセンサを用いて構成し、互いに異なる複数の波長帯域の光をそれぞれ個別に取得してもよい。例えば、380nm以上440nm以下の波長帯域の光の散乱光や戻り光と、490nm以上590nm以下の波長帯域の光の散乱光や戻り光とを、マルチバンドイメージセンサによって個別に取得し、それぞれの狭帯域光画像を生成することによって、粘膜表層からの深さが異なる血管画像を取得することができ、各深度における血管や組織の変化を用いて、一層高精度に境界領域を判定することができ得る。
(実施の形態1の変形例)
 次に、実施の形態1の変形例について、図11および図12を参照して説明する。図11は、本発明の実施の形態1の変形例にかかる内視鏡システムの概略構成を示すブロック図である。本変形例にかかる内視鏡システム1Aは、実施の形態1に係る内視鏡システム1の内視鏡2に代えて内視鏡2Aを備える。内視鏡2A以外の構成は同じであるため、説明を省略する。
 内視鏡2Aは、内視鏡2の先端部24に代えて先端部24Aを備える。先端部24A以外の構成は内視鏡2と同じであるため、説明を省略する。
 先端部24Aは、ライトガイド241と、照明レンズ242と、集光用の光学系243Aと、光学系243Aの結像位置に設けられ、光学系243Aが集光した光を受光して電気信号に光電変換して所定の信号処理を施す撮像素子244Aとを有する。
 図12は、本発明の実施の形態1の変形例にかかる内視鏡の撮像光学系の構成を説明する図である。光学系243Aおよび撮像素子244Aは、先端部24Aの内部に設けられる。
 光学系243Aは、対物レンズ2430と、一または複数の光学素子からなる第1レンズ2431と、一または複数の光学素子からなる第2レンズ2432と、一または複数の光学素子からなる第3レンズ2433と、カットフィルタ2434と、一または複数の光学素子からなる第4レンズ2435とを有する。カットフィルタ2434は、励起光の波長帯域の光をカットする。ここでの励起光は、PITにおける抗体薬剤を励起させるための波長帯域の光に相当する。第2レンズ2432および第4レンズ2435は、撮像素子244Aの互いに異なる位置、かつ互いに重ならない位置に観察像を結像させる。
 ここで、カットフィルタ2434の励起光の透過率は、0.1%以下に設定される。励起光の透過率を0.1%以下とすることによって、例えば励起光照明時に、蛍光を選択的に取り込むことができる。
 撮像素子244Aは、光学系243Aからの光を光電変換して電気信号(画像信号)を生成する。具体的には、撮像素子244Aは、光量に応じた電荷を蓄積するフォトダイオードや、フォトダイオードから転送される電荷を電圧レベルに変換するコンデンサなどをそれぞれ有する複数の画素がマトリックス状に配列され、各画素が光学系243Aからの光を光電変換して電気信号を生成し、画像信号として出力する。撮像素子244Aは、例えばCCDイメージセンサや、CMOSイメージセンサを用いて実現される。
 被写体からの光L3、L4は、対物レンズ2430を経て、第1レンズ2431および第3レンズ2433にそれぞれ入射する。第1レンズ2431に入射した光L3は、第2レンズ2432によって結像される。第3レンズ2433に入射した光L4は、カットフィルタ2434を経て第4レンズ2435によって結像される。
 第2レンズ2432は、撮像素子244Aの第1撮像部244cに観察像を結像する。第4レンズ2435は、撮像素子244Aの第2撮像部244dに観察像を結像する。第1撮像部244cおよび第2撮像部244dは、撮像素子の受光領域を二つに分割することによって形成される。
 処理装置4は、PITを実施する場合、図7のフローに従って処理を実行する。この際、第1撮像素子244aを第1撮像部244cに読み替え、第2撮像素子244bを第2撮像部244dに読み替える。
 以上説明した変形例では、実施の形態1と同様に、狭帯域光によって組織構造画像を取得し、治療前後の組織の変化に応じて、反応速度が異なる領域(境界領域)を分け、それぞれの領域の蛍光強度の変化を算出し、境界領域の表示、または境界領域ごとの蛍光強度の変化を表示することによって、術者に、領域ごとの治療光の追加照射の要否を判断させる。本変形例によれば、領域に対して治療光の追加照射を実施させることができるため、治療領域に対して適切に光照射を実施することができる。
(実施の形態2)
 次に、実施の形態2について、図13および図14を参照して説明する。図13は、本発明の実施の形態2にかかる内視鏡システムの概略構成を示すブロック図である。本実施の形態2にかかる内視鏡システム1Bは、実施の形態1にかかる内視鏡システム1の内視鏡2および処理装置4に代えて内視鏡2Bおよび処理装置4Aを備える。内視鏡2Aおよび処理装置4A以外の構成は同じであるため、説明を省略する。
 内視鏡2Bは、内視鏡2の先端部24に代えて先端部24Bを備える。先端部24B以外の構成は内視鏡2と同じであるため、説明を省略する。
 先端部24Bは、ライトガイド241と、照明レンズ242と、集光用の光学系243Bと、光学系243Bの結像位置に設けられ、光学系243Bが集光した光を受光して電気信号に光電変換して所定の信号処理を施す撮像素子244Bとを有する。
 図14は、本発明の実施の形態2にかかる内視鏡の撮像光学系の構成を説明する図である。光学系243Bおよび撮像素子244Bは、先端部24Bの内部に設けられる。
 光学系243Bは、対物レンズ243aと、ダイクロイックミラー243b(以下、第1ダイクロイックミラー243b)と、カットフィルタ243cと、第2ダイクロイックミラー234dとを有する。カットフィルタ243cは、励起光の波長帯域の光をカットする。第2ダイクロイックミラー234dは、青色成分の波長帯域の光、例えば、490nm以下の波長帯域の光の光路を折り曲げ、その他の成分(例えば緑色成分や赤色成分)の波長帯域の光を通過させる。光学系243Bは、上記の光学素子のほか、さらにレンズ等を有してもよい。
 被写体からの光は、対物レンズ243aを経て、第1ダイクロイックミラー243bに入射する。第1ダイクロイックミラー243bは、被写体が発する蛍光の波長以上の光(光L2)の光路を折り曲げるとともに、蛍光の波長未満の光(光L1)を通過させる。第1ダイクロイックミラー243bを通過した光(光L1)は、第2ダイクロイックミラー234dに入射する。一方、第1ダイクロイックミラー243bによって光路を折り曲げられた励起光および蛍光(光L2)は、カットフィルタ243cによって励起光がカットされ、蛍光が第2撮像素子244bに入射する。
 第2ダイクロイックミラー243dは、440nm以上490nm以下の波長帯域の狭帯域光の戻り光を含む光(光L12)の光路を折り曲げるとともに、青色成分以外の色成分(例えば490nmよりも長い波長の成分)の光(光L11)を通過させる。第2ダイクロイックミラー243dを通過した光(光L11)は、第1撮像素子244aに入射する。一方、第2ダイクロイックミラー243dによって光路を折り曲げられた光(光L12)は、第3撮像素子244eに入射する。
 撮像素子244Bは、光学系243からの光を光電変換して電気信号(画像信号)を生成する。具体的には、撮像素子244Bは、三つの撮像素子(第1撮像素子244a、第2撮像素子244bおよび第3撮像素子244e)を有する。第1撮像素子244a~第3撮像素子244eは、例えばCCDイメージセンサや、CMOSイメージセンサを用いて実現される。
 処理装置4Aの構成について説明する。処理装置4Aは、画像処理部41Aと、同期信号生成部42と、入力部43と、制御部44と、記憶部45と、を備える。
 画像処理部41Aは、内視鏡2から、撮像素子244Bが撮像した各色の照明光の画像データを受信する。画像処理部41Aは、内視鏡2Bから受信した画像データに対して所定の画像処理を施して画像を生成して表示装置5へ出力したり、画像に基づいて判定した境界領域を設定したり、蛍光強度の時間変化を算出したりする。画像処理部41Aは、境界領域判定部411と、蛍光強度変化算出部412と、表示画像生成部413と、特定領域強度算出部414と、蛍光強度規格化部415とを有する。
 本実施の形態2において、表示画像生成部413は、第1撮像素子244aおよび第3撮像素子244eが生成した電気信号に基づいて白色光画像を生成する。
 特定領域強度算出部414は、特定の波長帯域の光強度を算出する。本実施の形態2では、青色成分の波長帯域の光(光L12)の強度を算出する。特定領域強度算出部414は、第3撮像素子244eが生成した電気信号に基づいて、青色成分の光強度を算出する。
 蛍光強度規格化部415は、蛍光強度変化算出部412が算出した強度変化を、特定領域強度算出部414が算出した青色成分の光強度で除算することによって、強度変化を規格化する。
 処理装置4Aは、PITを実施する場合、図7のフローに従って処理を実行する。この際、蛍光検出工程(ステップS105)では、励起光のほか、440nm以上490nmの狭帯域光が被写体に照射される。このため、特定領域強度算出部414は、440nm以上490nmの狭帯域光の戻り光の光強度を算出することになる。なお、蛍光検出工程とは別のタイミングで狭帯域光を照射してもよい。
 また、蛍光強度変化算出工程(ステップS107)では、蛍光強度規格化部415によって規格化された蛍光強度変化が算出される。なお、境界領域判定工程(ステップS106)において、境界領域判定部411は、第1撮像素子244aが生成した電気信号に基づいて境界領域を判定してもよいし、第3撮像素子244eが生成した電気信号に基づいて境界領域を判定してもよいし、第1撮像素子244aおよび第3撮像素子244eが生成した電気信号に基づいて境界領域を判定してもよい。
 ここで、境界領域判定について、図15~図17を参照して説明する。図15は、第1撮像素子によって得られる画像を模式的に示す図である。図16は、第3撮像素子によって得られる像を模式的に示す図である。
 第1撮像素子244aによって得られる画像は、蛍光成分および青色成分を除く波長帯域の光によって形成される像に基づくものである。また、第3撮像素子244eによって得られる画像は、青色成分の波長帯域の光によって形成される像に基づくものである。例えば、第1撮像素子244aによって図15に示す画像得られ、第3撮像素子244eによって図16に示す画像得られたとする。なお、図15および図16に示すX軸、Y軸は、各画像の相対的な位置関係を示すために付している。図15および図16に示す像は、互いに異なる波長帯域(青色成分の波長帯域、ならびに青色成分および蛍光以外の波長帯域)の光に基づく像であり、描出する組織構造が異なる。具体的には、組織表面からの深度が互いに異なる血管が描出される。図15および図16では、光検出領域R1、R2において組織構造の像が描出されているものとする。
 境界領域判定部411は、第1撮像素子244aによって得られる画像(例えば図15に示す画像:以下、第1画像ということもある)と、第3撮像素子244eによって得られる画像(例えば図16に示す画像:以下、第2画像ということもある)とに基づいて、組織構造の変化の度合いが異なる境界領域を判定する。図17は、図15に示す像と、図16に示す像との合算によって設定される境界領域を説明するための図である。境界領域判定部411は、第1画像と第2画像とを合成し、合成後の像の輪郭抽出等を行い、該抽出した輪郭を境界領域とする。図17では、破線R3が境界領域として設定される。
 以上説明した実施の形態2では、実施の形態1と同様に、狭帯域光によって組織構造画像を取得し、治療前後の組織の変化に応じて、反応速度が異なる領域(境界領域)を分け、それぞれの領域の蛍光強度の変化を算出し、境界領域の表示、または境界領域ごとの蛍光強度の変化を表示することによって、術者に、領域ごとの治療光の追加照射の要否を判断させる。本実施の形態2によれば、領域に対して治療光の追加照射を実施させることができるため、治療領域に対して適切に光照射を実施することができる。
 また、本実施の形態2では、蛍光の強度変化を規格化するため、規格化した蛍光強度変化を表示することによって、術者に対し、内視鏡2B(先端部24B)と被写体との距離に因らず、適切に蛍光強度の変化を把握させることができる。なお、規格化用に取得する狭帯域は、440nm以上490nm以下の波長帯域に限らず、他の波長帯域とすることが可能である。ここで、440nm以上490nm以下の波長帯域の光は、血液成分に由来する吸収の寄与がなく、生体組織からの散乱光が支配的となる。このため、組織からの散乱光の強度は、距離のみに依存するため、除算等による蛍光強度の、距離に起因する変動をキャンセルするのに適している。
(実施の形態3)
 次に、実施の形態3について、図18および図19を参照して説明する。図18は、本発明の実施の形態3にかかる内視鏡システムの概略構成を示すブロック図である。本実施の形態3にかかる内視鏡システム1Cは、実施の形態1にかかる内視鏡システム1の処理装置4に代えて処理装置4Aを備える。なお、先端部24は、実施の形態1と同様の光学系243および撮像素子244を備えるが、第1撮像素子244aは、マルチバンドイメージセンサによって構成され、色成分ごとに個別に電気信号を生成するものとして説明する。
 図19は、本発明の実施の形態3にかかる内視鏡の撮像光学系の構成を説明する図である。被写体から反射または散乱した光は、例えば、660nmを中心波長とする赤色成分の狭帯域光LR、590nmを中心波長とするアンバー成分の光LA、525nmを中心波長とする緑成分の光LG、480nmを中心波長とする青色成分の光LB、380nmを中心波長とするバイオレット色成分の光LV、励起光(例えば、図5に示す光LP)と、励起光によって励起された蛍光とを含む光LTを含む。なお、光LTは、カットフィルタ243cによって励起光がカットされて第2撮像素子244bに入射する。
 ダイクロイックミラー243bを通過した光LR、LA、LG、LB、LVは、各フィルタを通過して、それぞれ個別に第1撮像素子244aに入射する。第1撮像素子244aは、光LR、LA、LG、LB、LVそれぞれを個別に光電変換して電気信号を生成する。
 本実施の形態3において、特定領域強度算出部414は、第1撮像素子244aが生成する電気信号のうち、青色成分の光(光LB)に基づいて生成された電気信号を用いて光強度を算出する。
 処理装置4Aは、PITを実施する場合、図7のフローに従って処理を実行する。この際、蛍光強度変化算出工程(ステップS107)では、蛍光強度規格化部415によって規格化された蛍光強度変化が算出される。なお、境界領域判定工程(ステップS106)において、境界領域判定部411は、第1撮像素子244aが生成した電気信号のうち、青色成分の光に基づく電気信号を用いて境界領域を判定してもよいし、青色成分以外の成分の光に基づく電気信号を用いて境界領域を判定してもよいし、第1撮像素子244aが生成したすべての色成分の電気信号に基づいて境界領域を判定してもよい。ここでのすべての色成分の電気信号とは、マルチバンドイメージセンサが備える複数のフィルタであって、互いに光を受光または透過する波長帯域が異なる複数フィルタによってそれぞれ生成される電気信号に相当する。
 以上説明した実施の形態3では、実施の形態1と同様に、狭帯域光によって組織構造画像を取得し、治療前後の組織の変化に応じて、反応速度が異なる領域(境界領域)を分け、それぞれの領域の蛍光強度の変化を算出し、境界領域の表示、または境界領域ごとの蛍光強度の変化を表示することによって、術者に、領域ごとの治療光の追加照射の要否を判断させる。本実施の形態3によれば、領域に対して治療光の追加照射を実施させることができるため、治療領域に対して適切に光照射を実施することができる。
 なお、実施の形態3では、第1撮像素子244aが、色成分ごとに個別に電子信号を生成する例について説明したが、440nm以上490nm以下の波長帯域の狭帯域光の戻り光に相当する光に基づく電気信号と、この戻り光以外の成分の光に基づく電気信号とを個別に生成するものとしてもよい。
(実施の形態4)
 次に、実施の形態4について、図20を参照して説明する。図20は、本発明の実施の形態4にかかる内視鏡システムの概略構成を示すブロック図である。本実施の形態4にかかる内視鏡システム1Dは、実施の形態1にかかる内視鏡システム1と同じ構成を備える。内視鏡システム1Dでは、処理装置4が、処置具装置6と電気的に接続し、制御部44によって、処置具62からの治療光の出射制御を行う。
 処理装置4は、PITを実施する場合、図7のフローに従って処理を実行する。この際、治療光の照射を行う際に、制御部44が、治療光の照射範囲や、照射タイミング、照射時間を制御する。具体的には、制御部44は、例えば、術者によって設定された照射範囲に対し、予め設定された照射光量となる光強度(出力値)および照射時間を設定する。制御部44は、操作入力部611のスイッチの押下をトリガとして、治療光の照射制御を開始する。また、追加照射する際、制御部44は、対象の境界領域に応じて、処置具62から出射される治療光の照射範囲の形状を設定し、操作入力部611のスイッチの押下をトリガとして、治療光の照射制御を開始する。なお、制御部44は、照射対象領域における積算照射光量が、予め設定される上限値を超えたか否かを判定し、超えている場合にアラートを出力してもよい。
 以上説明した実施の形態4では、実施の形態1と同様に、狭帯域光によって組織構造画像を取得し、治療前後の組織の変化に応じて、反応速度が異なる領域(境界領域)を分け、それぞれの領域の蛍光強度の変化を算出し、境界領域の表示、または境界領域ごとの蛍光強度の変化を表示することによって、術者に、領域ごとの治療光の追加照射の要否を判断させる。本実施の形態4によれば、領域に対して治療光の追加照射を実施させることができるため、治療領域に対して適切に光照射を実施することができる。
 また、本実施の形態4では、制御部44が、処置具62が出射する治療光の出射制御を行うため、術者が境界領域に合わせて治療光の照射範囲の調整を行うことなく、適切な領域に治療光を照射することができる。
 また、上述した実施の形態において、励起光と治療光とは、同じ波長帯域(中心波長が同じ)であってもよいし、互いに異なる波長帯域(中心波長)であってもよい。なお、励起光を治療光と共通で用いる場合、処置具62または励起光源313によって治療光(励起光)を照射すればよく、励起光源313および処置具62の一方を有しない構成としてもよい。
 なお、上述した実施の形態では、光源装置3が、処理装置4とは別体である例を説明したが、光源装置3および処理装置4を一体化した構成としてもよい。また、実施の形態では、処置具によって治療光を照射する例について説明したが、光源装置3が治療光を出射する構成としてもよい。
 また、上述した実施の形態では、本発明にかかる内視鏡システムが、観察対象が被検体内の生体組織などである軟性の内視鏡2を用いた内視鏡システム1であるものとして説明したが、硬性の内視鏡や、材料の特性を観測する工業用の内視鏡、ファイバースコープ、光学視管などの光学内視鏡の接眼部にカメラヘッドを接続したものを用いた内視鏡システムであっても適用できる。
(付記項)
 内視鏡の先端部を、治療対象部位まで挿入する工程と、
 前記治療対象部位に治療光を照射して、治療対象部位に結合させた薬剤を反応させる工程と、
 前記治療対象部位に照射した狭帯域光によって得られる組織構造画像を用いて、組織構造が変化した領域を境界領域として判定する工程と、
 前記境界領域の蛍光強度の変化を算出する工程と、
 前記蛍光強度の変化に基づいて治療光を追加照射するか否かを判断する工程と、
 前記追加照射が必要な領域に対して、前記治療光を照射する工程と、
 前記追加照射後の前記境界領域の蛍光強度の変化を算出する工程と、
 を含む光治療方法。
 以上のように、本発明にかかる光治療装置、光治療方法および光治療プログラムは、治療領域に対して適切に光照射を実施するのに有用である。
 1、1A~1D 内視鏡システム
 2、2A、2B 内視鏡
 3 光源装置
 4、4A 処理装置
 5 表示装置
 6 処置具装置
 21 挿入部
 22 操作部
 23 ユニバーサルコード
 24 先端部
 25 湾曲部
 26 可撓管部
 31 光源部
 32 照明制御部
 33 光源ドライバ
 41 画像処理部
 42 同期信号生成部
 43 入力部
 44 制御部
 45 記憶部
 61 処置具操作部
 62 処置具
 241 ライトガイド
 242 照明レンズ
 243、243A 光学系
 243a、2430 対物レンズ
 243b ダイクロイックミラー(第1ダイクロイックミラー)
 243c、2434 カットフィルタ
 243d 第2ダイクロイックミラー
 244、244A、244B 撮像素子
 244a 第1撮像素子
 244b 第2撮像素子
 244c 第1撮像部
 244d 第2撮像部
 244e 第3撮像素子
 311 白色光源
 312 狭帯域光源
 313 励起光源
 411 境界領域判定部
 412 蛍光強度変化算出部
 413 表示画像生成部
 414 特定領域強度算出部
 415 蛍光強度規格化部
 2431 第1レンズ
 2432 第2レンズ
 2433 第3レンズ
 2435 第4レンズ

Claims (12)

  1.  薬剤を反応させる治療光を出射する治療光出射装置と、
     前記治療光の照射位置に照射された狭帯域光によって得られる組織構造画像を取得する組織構造画像取得部と、
     前記治療光の照射位置に照射された励起光によって得られる蛍光画像を取得する蛍光画像取得部と、
     前記組織構造画像を用いて、組織構造が変化した境界領域を判定する境界領域判定部と、
     前記境界領域の蛍光強度の変化の大きさを算出する蛍光強度変化算出部と、
     前記蛍光強度の変化の大きさを表示するための表示画像を生成する表示画像生成部と、
     を備える光治療装置。
  2.  前記境界領域判定部は、前記組織構造画像の時間的な変化を検出し、該時間的な変化量に基づいて前記組織構造が変化した部位の領域を前記境界領域として判定する、
     請求項1に記載の光治療装置。
  3.  前記境界領域判定部は、前記組織構造画像の値を、予め設定した閾値と比較することによって、前記組織構造が変化した部位の領域を前記境界領域として判定する、
     請求項2に記載の光治療装置。
  4.  前記境界領域判定部は、予め機械学習によって算出された特徴量を用いて、前記組織構造が変化した部位の領域を前記境界領域として判定する、
     請求項1に記載の光治療装置。
  5.  前記組織構造画像取得部は、380nm以上440nm以下の波長帯域の前記狭帯域光によって得られる組織構造画像を取得する、
     請求項1に記載の光治療装置。
  6.  440nm以上490nm以下の波長帯域の狭帯域光の戻り光の光強度を用いて、前記蛍光強度変化算出部が算出した蛍光強度を規格化する蛍光強度規格化部、
     をさらに備える請求項1に記載の光治療装置。
  7.  前記組織構造画像取得部は、490nm以上590nm以下の波長帯域の前記狭帯域光によって得られる組織構造画像を取得する、
     請求項1に記載の光治療装置。
  8.  前記組織構造画像取得部は、590nm以上620nm以下の波長帯域の前記狭帯域光によって得られる組織構造画像を取得する、
     請求項1に記載の光治療装置。
  9.  前記組織構造画像取得部は、620nm以上780nm以下の波長帯域の前記狭帯域光によって得られる組織構造画像を取得する、
     請求項1に記載の光治療装置。
  10.  前記治療光の照射対象領域に対し、光照射強度および照射時間の積算値を設定照射光量として、前記治療光の出射制御を行う制御部、
     をさらに備える請求項1に記載の光治療装置。
  11.  薬剤を反応させる治療光を、治療部位に照射して治療効果を確認するための光治療方法であって、
     前記治療光の照射位置に照射された狭帯域光によって得られる組織構造画像を取得する組織構造画像取得ステップと、
     前記治療光の照射位置に照射された励起光によって得られる蛍光画像を取得する蛍光画像取得ステップと、
     前記組織構造画像を用いて、組織構造が変化した境界領域を判定する境界領域判定ステップと、
     前記境界領域の蛍光強度の変化の大きさを算出する蛍光強度変化算出ステップと、
     前記蛍光強度の変化の大きさを表示するための表示画像を生成する表示画像生成ステップと、
     を含む光治療方法。
  12.  薬剤を反応させる治療光を、治療部位に照射して治療効果を確認するため情報を生成する光治療装置に、
     前記治療光の照射位置に照射された狭帯域光によって得られる組織構造画像を取得する組織構造画像取得ステップと、
     前記治療光の照射位置に照射された励起光によって得られる蛍光画像を取得する蛍光画像取得ステップと、
     前記組織構造画像を用いて、組織構造が変化した境界領域を判定する境界領域判定ステップと、
     前記境界領域の蛍光強度の変化の大きさを算出する蛍光強度変化算出ステップと、
     前記蛍光強度の変化の大きさを表示するための表示画像を生成する表示画像生成ステップと、
     を実行させる光治療プログラム。
PCT/JP2021/015612 2021-04-15 2021-04-15 光治療装置、光治療方法および光治療プログラム WO2022219783A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202180089242.0A CN116685376A (zh) 2021-04-15 2021-04-15 光治疗装置、光治疗方法及光治疗程序
PCT/JP2021/015612 WO2022219783A1 (ja) 2021-04-15 2021-04-15 光治療装置、光治療方法および光治療プログラム
JP2023514280A JP7430845B2 (ja) 2021-04-15 2021-04-15 光治療装置、光治療方法および光治療プログラム
US18/220,362 US20230347169A1 (en) 2021-04-15 2023-07-11 Phototherapy device, phototherapy method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/015612 WO2022219783A1 (ja) 2021-04-15 2021-04-15 光治療装置、光治療方法および光治療プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/220,362 Continuation US20230347169A1 (en) 2021-04-15 2023-07-11 Phototherapy device, phototherapy method, and computer-readable recording medium

Publications (1)

Publication Number Publication Date
WO2022219783A1 true WO2022219783A1 (ja) 2022-10-20

Family

ID=83640246

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/015612 WO2022219783A1 (ja) 2021-04-15 2021-04-15 光治療装置、光治療方法および光治療プログラム

Country Status (4)

Country Link
US (1) US20230347169A1 (ja)
JP (1) JP7430845B2 (ja)
CN (1) CN116685376A (ja)
WO (1) WO2022219783A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014221117A (ja) * 2013-05-13 2014-11-27 株式会社アライ・メッドフォトン研究所 治療進行度モニタ装置及びその方法
WO2015045516A1 (ja) * 2013-09-27 2015-04-02 富士フイルム株式会社 蛍光観察装置、内視鏡システム及びプロセッサ装置並びに作動方法
WO2019215905A1 (ja) * 2018-05-11 2019-11-14 株式会社島津製作所 治療支援装置および治療支援システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014221117A (ja) * 2013-05-13 2014-11-27 株式会社アライ・メッドフォトン研究所 治療進行度モニタ装置及びその方法
WO2015045516A1 (ja) * 2013-09-27 2015-04-02 富士フイルム株式会社 蛍光観察装置、内視鏡システム及びプロセッサ装置並びに作動方法
WO2019215905A1 (ja) * 2018-05-11 2019-11-14 株式会社島津製作所 治療支援装置および治療支援システム

Also Published As

Publication number Publication date
US20230347169A1 (en) 2023-11-02
JPWO2022219783A1 (ja) 2022-10-20
CN116685376A (zh) 2023-09-01
JP7430845B2 (ja) 2024-02-13

Similar Documents

Publication Publication Date Title
JP5502812B2 (ja) 生体情報取得システムおよび生体情報取得システムの作動方法
WO2003059150A3 (en) Apparatus and method for spectroscopic examination of the colon
JP2012000160A (ja) 内視鏡装置
JP2012213551A (ja) 生体情報取得システムおよび生体情報取得方法
WO2015093114A1 (ja) 内視鏡装置
JP7328432B2 (ja) 医療用制御装置、医療用観察システム、制御装置及び観察システム
WO2022219783A1 (ja) 光治療装置、光治療方法および光治療プログラム
US20230000330A1 (en) Medical observation system, medical imaging device and imaging method
WO2022230040A1 (ja) 光治療装置、光治療方法および光治療プログラム
WO2022224454A1 (ja) 光治療装置、光治療方法および光治療プログラム
JP7426248B2 (ja) 医療用制御装置及び医療用観察システム
WO2023248306A1 (ja) 画像処理装置、光治療システム、画像処理方法、画像処理プログラムおよび光治療方法
JP2005211272A (ja) 内視鏡装置
WO2022208629A1 (ja) 蛍光観察装置、光免疫治療システムおよび蛍光内視鏡
WO2023127053A1 (ja) 画像処理装置、光免疫治療システム、画像処理方法及び画像処理プログラム
US20230371817A1 (en) Endoscope system
US20240115874A1 (en) Endoscope system and phototherapy method
WO2021181484A1 (ja) 医療用画像処理装置、医療用撮像装置、医療用観察システム、画像処理方法およびプログラム
US20230248209A1 (en) Assistant device, endoscopic system, assistant method, and computer-readable recording medium
JP7441822B2 (ja) 医療用制御装置及び医療用観察装置
JP2006020727A (ja) 光源装置
JP2021132695A (ja) 医療用画像処理装置、医療用観察システムおよび画像処理方法
CN116249504A (zh) 辅助装置、内窥镜系统、辅助方法以及程序

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21936979

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023514280

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180089242.0

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21936979

Country of ref document: EP

Kind code of ref document: A1