WO2021038729A1 - 治療支援装置および治療支援方法 - Google Patents

治療支援装置および治療支援方法 Download PDF

Info

Publication number
WO2021038729A1
WO2021038729A1 PCT/JP2019/033573 JP2019033573W WO2021038729A1 WO 2021038729 A1 WO2021038729 A1 WO 2021038729A1 JP 2019033573 W JP2019033573 W JP 2019033573W WO 2021038729 A1 WO2021038729 A1 WO 2021038729A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
treatment
imaging
unit
light
Prior art date
Application number
PCT/JP2019/033573
Other languages
English (en)
French (fr)
Inventor
紘之 妻鳥
Original Assignee
株式会社島津製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社島津製作所 filed Critical 株式会社島津製作所
Priority to PCT/JP2019/033573 priority Critical patent/WO2021038729A1/ja
Priority to JP2021541848A priority patent/JPWO2021038729A1/ja
Publication of WO2021038729A1 publication Critical patent/WO2021038729A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/06Radiation therapy using light

Definitions

  • the present invention relates to a treatment support device and a treatment support method.
  • the above-mentioned Japanese Patent Application Laid-Open No. 2017-71654 discloses photoimmunotherapy using near-infrared light (therapeutic light) as a cancer treatment method.
  • a drug in which a substance that fluoresces by absorbing near-infrared light (photosensitive substance) and an antibody that selectively binds to cancer cells are bound is administered to a subject. Will be done.
  • a drug in which a substance that fluoresces by absorbing near-infrared light (photosensitive substance) and an antibody that selectively binds to cancer cells are bound is administered to a subject. Will be done.
  • one day 24 hours
  • the antibody of the drug administered to the subject selectively binds to the cancer cells.
  • the subject is irradiated with near-infrared light as therapeutic light.
  • the heat generated by the fluorescent substance of the drug kills the cancer cells.
  • IRDye (registered trademark) 700Dx is used as a substance that emits fluorescence.
  • JP-A-2017-71654 in the case of cancer treatment performed by irradiating a light-sensitive substance accumulated in a treatment target site of a subject with therapeutic light, It is known to support cancer treatment by imaging the area to be treated. In this support for cancer treatment, fluorescence emitted from a light-sensitive substance is detected by irradiation with therapeutic light.
  • the treatment target site can be confirmed from the captured fluorescence image.
  • treatment omission When there are multiple treatment target sites and there is a site that is not irradiated with treatment light (treatment omission), there is a concern about cancer recurrence. Therefore, when confirming the treatment target site from a fluorescent image, treatment omission is suppressed. Therefore, it is desired that the position and number of treatment target sites to be irradiated with the treatment light can be grasped at a glance.
  • the displayable range of the fluorescent image that is, the imaging field of view
  • all the treatment target sites can be grasped from one fluorescent image. Can not do it. It is conceivable to reduce the magnification at the time of imaging and acquire a fluorescent image in a wide range, but in this case, it becomes difficult to accurately grasp the treatment target site due to the decrease in resolution. Therefore, it is desired that a doctor or the like can grasp at a glance a treatment target site in a range wider than the imaging field of view of one fluorescent image.
  • the present invention has been made to solve the above problems, and one object of the present invention is to capture a fluorescent image during cancer treatment performed by irradiating a photosensitive substance with therapeutic light. It is to provide a treatment support device and a treatment support method capable of grasping a treatment target site in a range wider than a visual field at a glance.
  • the treatment support device provides treatment during cancer treatment performed by irradiating a photosensitive substance accumulated in a treatment target site of a subject with therapeutic light.
  • a treatment support device that images a target site to support cancer treatment.
  • An imaging unit that captures a fluorescence image based on fluorescence emitted from a photosensitive substance, and an imaging position that indicates the imaging position of the fluorescence image in the subject.
  • the treatment support device it is possible to obtain a wide range of extended images in which fluorescent images are arranged based on the imaging position information of a plurality of fluorescent images by configuring as described above. Since the expanded image can be generated in a size corresponding to a plurality of fluorescent images, even if the treatment target site is distributed over a wide range that does not fit in one fluorescent image, a wide range that captures the distribution range of the treatment target site is captured. Fluorescent image (extended image) can be obtained. In addition, since the individual fluorescent images constituting the expanded image may be captured at a high magnification with a small imaging field of view, the expanded image has a wide range with a resolution sufficient for a doctor or the like to accurately grasp the treatment target site. Can be obtained. As a result, during cancer treatment performed by irradiating a photosensitive substance with therapeutic light, it is possible to grasp at a glance a treatment target site in a wider range than the imaging field of view of a fluorescent image.
  • the extended image generation unit is configured to generate a single extended image including a plurality of fluorescent images obtained by imaging different treatment target sites.
  • the extended image preferably includes a plurality of fluorescence images captured so as to include a treatment range including a plurality of treatment target sites.
  • the treatment range is a concept indicating a range set to include all treatment target sites found by a preliminary examination or the like according to a treatment plan or the like.
  • a translational support unit that supports the image pickup unit in a translational manner and a position detection unit that detects the position of the image pickup unit are further provided, and the position acquisition unit is a position.
  • the imaging position information of the fluorescence image is acquired based on the position of the imaging unit detected by the detection unit.
  • a rotation support unit that rotatably supports the image pickup unit and a rotation detection unit that detects the rotation angle of the image pickup unit are further provided to acquire a position.
  • the unit acquires the imaging position information of the fluorescence image based on the rotation angle of the imaging unit detected by the rotation detection unit.
  • the imaging unit is configured to acquire a visible image based on visible light at the same imaging position as the fluorescence image, and the position acquisition unit is acquired by the imaging unit.
  • the imaging position information of the fluorescence image is acquired based on the obtained visible image.
  • the visible image the morphology of the subject can be seen in the image, the feature points can be identified, and for example, a marker or a measure can be taken, so that the movement of the imaging field of view can be easily grasped based on the visible image. Can be done.
  • the imaging position information of the fluorescence image (that is, imaging) is based on the visible image acquired at the same imaging position as the fluorescence image without directly detecting the movement or rotation of the imaging unit.
  • the amount of movement of the visual field can be easily obtained.
  • the imaging unit is configured to acquire a visible image based on visible light at the same imaging position as the fluorescence image
  • the extended image generation unit is configured to acquire the imaging position information.
  • a visible extended image is generated by arranging a plurality of visible images acquired by the imaging unit based on the above, and a composite extended image in which the expanded image is superimposed on the visible extended image is generated.
  • a visible extended image can be generated from a visible image captured in the same field of view as the individual fluorescent images constituting the expanded image, a composite expanded image in which the treatment target site is accurately displayed on the image of the subject to be visually recognized. Can be obtained.
  • the extended image generator displays a fluorescent image in which the treatment with the treatment light on the treatment target site in the image is completed, and the treatment is not completed. Performs identification processing to display the image so that it can be distinguished from the fluorescent image of.
  • the extended image generation unit generates an extended image before and after the treatment with the treatment light on the treatment target site, respectively.
  • the doctor or the like can start the treatment after accurately grasping the position and the number of the treatment target sites distributed in a wide range from the expanded image generated before the treatment. Then, the expanded image generated after the treatment allows the doctor or the like to easily confirm at a glance whether or not the treatment for the treatment target site distributed over a wide range is completed without omission.
  • a light source unit for irradiating the excitation light of the photosensitizer is further provided, and the light source unit emits excitation light having a lower intensity than the therapeutic light when capturing the fluorescence image constituting the extended image. It is configured to irradiate.
  • the amount of treatment light to irradiate the treatment target site is set in advance in the treatment plan. Therefore, according to the above configuration, it is possible to irradiate an excitation light having a lower intensity than the treatment light to capture a fluorescence image and generate an extended image, so that the treatment is unintentionally performed due to the generation of the extended image. It is possible to suppress the deviation from the irradiation light amount in the treatment plan due to the start and the irradiation of the excitation light for imaging.
  • the treatment support method according to the second aspect of the present invention is performed by irradiating a light-sensitive substance accumulated in a treatment target site of a subject with therapeutic light, and imaging the treatment target site for cancer. It is a treatment support method that supports treatment, and is a step of capturing a fluorescence image based on fluorescence emitted from a photosensitive substance at a plurality of imaging positions in a subject, and imaging position information indicating the imaging position of each fluorescence image. A step of generating an expanded image in which the imaging field of the fluorescent image is expanded by arranging a plurality of fluorescent images based on the acquired imaging position information is provided.
  • the fluorescence images are arranged based on the imaging position information of the plurality of fluorescence images, and the distribution range of the treatment target site is captured.
  • a wide range of fluorescence images extended images
  • a wide range of expanded images can be obtained with a resolution sufficient for a doctor or the like to accurately grasp the treatment target site.
  • the configuration of the treatment support system 100 including the treatment support device 1 according to the embodiment will be described with reference to FIGS. 1 to 14.
  • the treatment support system 100 includes a treatment support device 1 and a display device 9.
  • the treatment support device 1 images the treatment target site Pa during cancer treatment by irradiating the photosensitizer Pb accumulated in the treatment target site Pa of the subject P with the treatment light TL to perform cancer treatment.
  • It is a treatment support device that provides support.
  • the subject P (patient) is, for example, a human, a dog, a cat, or the like.
  • the treatment target site Pa is, for example, a tumor (cancer) that has developed in the mouth, throat, chest, internal organs (for example, digestive tract, liver, adrenal gland, etc.).
  • the support for cancer treatment by the treatment support device 1 is specifically to provide a doctor or the like with an image in which the treatment target site Pa can be grasped by displaying the captured image on the display device 9.
  • the display device 9 is configured to display an image of the treatment target site Pa output from the treatment support device 1.
  • the display device 9 is, for example, a monitor such as a liquid crystal display.
  • the treatment support device 1 includes an imaging unit 2, an arm mechanism 3, and a main body unit 4.
  • the imaging unit 2 is configured to capture at least a fluorescence image 61 (see FIG. 5) based on the fluorescence FL emitted from the light-sensitive substance Pb.
  • the imaging unit 2 is configured to capture a visible image 62 (see FIG. 5) based on visible light Vis in addition to the fluorescent image 61 based on the fluorescent FL.
  • the imaging unit 2 is configured to capture a fluorescent image 61 and a visible image 62 as moving images.
  • the image pickup unit 2 includes a light receiving unit 11, an optical system 12, and an image pickup light source unit 13.
  • the light receiving unit 11 includes a visible light detection unit 11a and a fluorescence detection unit 11b.
  • the visible light detection unit 11a is configured to detect visible light Vis.
  • the fluorescence detection unit 11b is configured to detect the fluorescence FL.
  • the visible light detection unit 11a and the fluorescence detection unit 11b include, for example, an image sensor such as a CMOS (Complementary Netal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor.
  • CMOS Complementary Netal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the optical system 12 includes a zoom lens 12a and a prism 12b.
  • the optical system 12 is configured to separate the visible light Vis reflected from the subject P and the fluorescent FL emitted from the photosensitive substance Pb. The detailed configuration of the optical system 12 will be described later.
  • the imaging light source unit 13 includes a plurality of light sources 13a.
  • the light source 13a includes, for example, a light emitting diode (LED).
  • the plurality of light sources 13a include a visible light source that irradiates visible light Vis.
  • the visible light source irradiates the subject P with, for example, white light as visible light Vis.
  • the photosensitive substance Pb is, for example, IRDye (registered trademark) 700Dx (hereinafter referred to as “IR700”).
  • IR700 is a substance that emits fluorescent FL by absorbing near-infrared light.
  • the treatment support device 1 includes a light source unit 5 for irradiating the treatment light TL separately from the image pickup light source unit 13 provided in the image pickup unit 2.
  • the light source unit 5 is configured as a handy type illumination that can be held by a doctor and irradiates the affected area with therapeutic light TL.
  • the light source unit 5 includes a plurality of light sources 5a.
  • the light source 5a includes, for example, a light emitting diode (LED).
  • the light source unit 5 can irradiate the therapeutic light TL in a predetermined wavelength band including the absorption wavelength of the photosensitive substance Pb.
  • the therapeutic light TL is, for example, near-infrared light having a center wavelength of 600 nm or more and 700 nm.
  • the light source unit 5 can adjust the amount of light by, for example, pulse width modulation control (PWM control).
  • PWM control pulse width modulation control
  • the light source unit 5 irradiates the therapeutic light TL with a predetermined first
  • the light source unit 5 is configured to be able to irradiate the excitation light EL of the photosensitive substance Pb when capturing the fluorescence image 61.
  • the light source unit 5 is configured to irradiate an excitation light EL having a intensity lower than that of the treatment light TL when the fluorescent image 61 constituting the extended image 65 is imaged.
  • the light source unit 5 irradiates the therapeutic light TL at a predetermined first duty ratio, whereas it irradiates the excitation light EL at a second duty ratio smaller than the first duty ratio.
  • the amount of light (second duty ratio) of the excitation light EL is set as a predetermined value such that the photosensitive substance Pb generates fluorescent FL but the treatment (destruction of cancer cells) does not proceed.
  • the excitation light EL and the treatment light TL have the same wavelength, and the output value (light intensity) to be irradiated is different.
  • the intensity of the treatment light TL irradiated to the treatment target site Pa can be secured, for example, about 4 mW / cm 2, and the excitation light irradiated to the treatment target site Pa can be secured.
  • the duty ratio is set so that the strength of the EL can be secured, for example, about 0.8 mW / cm 2.
  • near-infrared photoimmunotherapy as a cancer treatment method will be described.
  • a photosensitive substance Pb IR700, etc.
  • an antibody epidermal growth
  • a drug bound to a factor receptor antibody or the like is administered to the subject P by infusion or the like.
  • one day (24 hours) is left after the administration of the drug to the subject P.
  • the antibody of the drug administered to the subject P selectively binds to the cancer cells.
  • the light-sensitive substance Pb is sufficiently accumulated in the treatment target site Pa. Then, the subject P is irradiated with the therapeutic light TL. As a result, it is believed that cancer cells are killed by the action of heat generated by the photosensitive substance Pb of the drug.
  • the main body 4 includes a housing 21 and a computer housed in the housing 21.
  • the housing 21 is, for example, a dolly having a box shape for accommodating a computer and being movable by wheels.
  • the main body unit 4 includes a control unit 22, an image processing unit 23, a storage unit 24, and an output unit 25.
  • the control unit 22 is composed of, for example, a computer equipped with a processor such as a CPU (Central Processing Unit) and a memory.
  • the computer functions as a control unit 22 of the treatment support device 1 by executing a program stored in the memory by the processor.
  • the control unit 22 controls the imaging unit 2 (start and stop of imaging, change of zoom magnification, etc.), irradiation of light (visible light Vis, therapeutic light TL) from the imaging light source unit 13, stop of irradiation, and the like. , It is configured to control based on an input operation by an operation unit (not shown).
  • the image processing unit 23 performs processing for generating captured image data from the detection signals of the imaging unit 2 (fluorescence detection unit 11b and visible light detection unit 11a), respectively.
  • the image processing unit 23 is configured to generate image data of the fluorescence image 61 (see FIG. 12) and image data of the visible image 62 (see FIG. 12) captured by the image pickup unit 2. Further, the image processing unit 23 is configured to generate image data of a composite image 63 (see FIG. 12) in which the fluorescent image 61 and the visible image 62 are combined.
  • the image processing unit 23 performs processing for generating an extended image 65 (see FIG. 7) in which the imaging field of view 71 of the fluorescent image 61 is expanded.
  • the image processing unit 23 includes, for example, a processor such as a GPU (Graphics Processing Unit) or an FPGA (Field-Programmable Gate Array) configured for image processing, and a memory. The detailed configuration of the image processing unit 23 will be described later.
  • the storage unit 24 is configured to store the captured image, the control program, and the like generated by the image processing unit 23.
  • the storage unit 24 includes, for example, a non-volatile memory, a hard disk drive (HDD), and the like.
  • the output unit 25 is configured to output a video signal including the captured image generated by the image processing unit 23 to the display device 9 and display the captured image on the display device 9.
  • the output unit 25 is a video output interface such as HDMI (registered trademark) and an interface for connecting other external devices.
  • the output unit 25 is connected to the display device 9 so that the captured image can be output by wire or wirelessly.
  • the imaging unit 2 is movably supported by the arm mechanism 3.
  • the arm mechanism 3 is provided near the front of the housing 21 on the upper surface of the housing 21 (main body 4), extends from the housing 21, and supports the imaging unit 2 at the tip.
  • the main body 4 includes a monitor 14, a handle 15 used when moving the treatment support device 1, and an operation unit (not shown) used for an input operation to the control unit 22.
  • the arm mechanism 3 includes a translational support unit 31 that rotatably supports the image pickup unit 2 and a rotation support unit 32 that rotatably supports the image pickup unit 2.
  • the translational support unit 31 supports the image pickup unit 2 via the rotation support unit 32, holds the position of the image pickup unit 2, and can translate the image pickup unit 2 in each of the front-back, left-right, and up-down directions. It is configured as follows.
  • the translational movement means to move the imaging unit 2 without changing the imaging direction (direction).
  • the translational support portion 31 includes a first arm member 36 connected by a hinge portion 35 to a support portion 34 arranged on a support column 33 provided on the front side of the housing 21.
  • the support portion 34 is rotatable in the horizontal direction about the support column 33, and the first arm member 36 is rotatable in the vertical direction about the hinge portion 35.
  • the second arm member 38 is connected to the tip of the first arm member 36 via a hinge portion 37.
  • the second arm member 38 can rotate in the vertical direction about the hinge portion 37.
  • a rotation support portion 32 is connected to the tip of the second arm member 38 via a hinge portion 39.
  • the rotation support portion 32 can rotate in the left-right direction around the hinge portion 39.
  • the imaging unit 2 is attached to the tip of the rotation support unit 32. Therefore, the translational support portion 31 rotates the image pickup unit 2 in the left-right direction by the support portion 34 and the hinge portion 39, and the image pickup unit 2 is moved back and forth by folding and extending the first arm member 36 and the second arm member 38.
  • the image pickup unit 2 can be moved up and down by the hinge portion 35 and the hinge portion 37.
  • the translational support portion 31 is not provided with a drive source such as a motor, and a user such as a doctor manually moves the translational support portion 31.
  • a drive source may be provided at each joint portion (post, hinge portion) of the translational support portion 31, and the imaging unit 2 may be automatically moved in translation under the control of the control unit 22.
  • the rotation support unit 32 is configured to support the image pickup unit 2, hold the position of the image pickup unit 2, and rotate the image pickup unit 2 in each of the left-right and up-down directions.
  • the rotation support portion 32 is attached to the hinge portion 39 via the support portion 40.
  • the support unit 40 is provided with a sub-arm 41 that supports the image pickup unit 2. As shown in FIG. 3, the sub-arm 41 is configured to be rotatable with respect to the support portion 40 in the left-right direction around the first axis 42 with respect to the imaging direction of the imaging unit 2.
  • the sub-arm 41 rotatably supports the imaging unit 2 in the vertical direction around the second axis 43 with respect to the imaging direction of the imaging unit 2.
  • the imaging field of view 71 of the imaging unit 2 can be rotated up, down, left, and right by rotating the imaging unit 2 around the first axis 42 and the second axis 43.
  • the depth direction of the paper surface is the imaging direction of the imaging unit 2.
  • the rotation support unit 32 includes a first drive source 44 that rotates the image pickup unit 2 around the first axis 42, and a second drive source 45 that rotates the image pickup unit 2 around the second axis 43.
  • the rotation support unit 32 can swing the image pickup unit 2 up / down / left / right (tilt and pan) within a predetermined angle range under the control of the control unit 22.
  • the first drive source 44 and the second drive source 45 include, for example, an electric motor.
  • the image pickup light source unit 13 is provided in an annular shape on the end surface of the image pickup unit 2 so as to surround the optical system 12.
  • 12 light sources 13a are arranged in an annular shape.
  • the imaging light source unit 13 may include a therapeutic light source that irradiates the therapeutic light TL and / or an excitation light source that irradiates the excitation light EL instead of the light source unit 5.
  • a part is a visible light source and the other part is a therapeutic light source or an excitation light source.
  • the imaging unit 2 is configured to capture the visible image 62 at the same imaging position as the fluorescent image 61. That is, as shown in FIG. 5, the visible light detection unit 11a and the fluorescence detection unit 11b detect the visible light Vis and the fluorescence FL by the common optical system 12 when detecting the visible light Vis and the fluorescence FL. It is configured in. As a result, the imaging unit 2 acquires the fluorescence image 61 and the visible image 62 at the same imaging position and the same imaging field of view 71 (see FIG. 7).
  • the visible light Vis and the fluorescent FL are incident on the zoom lens 12a along the optical axis L.
  • the zoom lens 12a reciprocates in the direction along the optical axis L by a lens moving mechanism (not shown) for focusing.
  • the imaging unit 2 can acquire the fluorescence image 61 and the visible image 62 at an arbitrary magnification within the variable range of the zoom lens 12a.
  • the prism 12b is configured to separate the visible light Vis reflected from the subject P and the fluorescent FL emitted from the photosensitive substance Pb.
  • the visible light Vis that has reached the prism 12b is reflected by the prism 12b and reaches the visible light detection unit 11a. Further, the fluorescent FL that has reached the prism 12b passes through the prism 12b and reaches the fluorescence detection unit 11b. The reflected light of the treatment light TL and the excitation light EL from the subject P is reflected by the prism 12b. Therefore, it is avoided that the reflected light of the treatment light TL and the excitation light EL from the subject P reaches the fluorescence detection unit 11b.
  • the treatment support system 100 acquires the fluorescence image 61 and the visible image 62 (see FIG. 12) of the subject P undergoing cancer treatment and displays them on the display device 9, thereby providing treatment support. It is configured as a treatment support system.
  • the treatment support device 1 is configured to image the treatment target site Pa of the subject P from the outside of the subject P when the doctor performs cancer surgery on the subject P.
  • the image processing unit 23 includes an image generation unit 51, a position acquisition unit 52, and an extended image generation unit 53 as functional blocks.
  • the image generation unit 51, the position acquisition unit 52, and the extended image generation unit 53 may be configured as separate hardware.
  • the image generation unit 51 generates an captured image from the imaging unit 2 based on a signal.
  • the image generation unit 51 is configured to generate a fluorescence image 61 based on the fluorescence FL signal detected by the fluorescence detection unit 11b.
  • the image generation unit 51 generates a visible image 62 based on the visible light Vis signal detected by the visible light detection unit 11a.
  • the position acquisition unit 52 is configured to acquire imaging position information 80 indicating the imaging position of the fluorescence image 61 in the subject P. As shown in FIG. 7, for example, the position acquisition unit 52 acquires the center position (hereinafter, referred to as the image pickup center C) of the image field of view 71 by the image pickup unit 2 as the image pickup position information 80.
  • the imaging position information 80 includes, for example, the position coordinates (x, y) of the imaging center C. A specific acquisition method of the imaging position information 80 will be described later.
  • the horizontal direction of the image is the X direction
  • the vertical direction of the image is the Y direction.
  • the extended image generation unit 53 arranges a plurality of fluorescent images 61 acquired by the imaging unit 2 based on the imaging position information 80 acquired by the position acquisition unit 52. , It is configured to generate an extended image 65 in which the imaging field 71 of the fluorescent image 61 is expanded.
  • the extended image 65 generated by the extended image generation unit 53 is displayed on the display device 9 via the output unit 25.
  • the extended image 65 is an image generated by arranging (tiling) a plurality of fluorescent images 61 without gaps.
  • FIG. 7 shows an example in which nine fluorescent images 61 are arranged in a matrix of 3 rows ⁇ 3 columns to generate a single extended image 65.
  • the boundary line of each fluorescent image 61 (periphery of the imaging field of view 71) is illustrated for convenience, and in the extended image 65, the boundary line of each fluorescent image 61 is not necessarily displayed. It doesn't have to be.
  • the imaging field of view 71 of the fluorescent image 61 is expanded by 3 times in the vertical and horizontal directions with the same resolution (zoom magnification by the zoom lens 12a) due to the arrangement of the nine fluorescent images 61. There is.
  • the number and arrangement pattern of the fluorescent images 61 constituting the extended image 65 are not limited to those shown in the figure (rectangle of 3 rows ⁇ 3 columns), and are arbitrary.
  • the extended image 65 may be configured by arranging the fluorescence images 61 in 2 rows ⁇ 2 columns, 3 rows ⁇ 2 columns, 2 rows ⁇ 3 columns, 4 rows ⁇ 4 columns, or the like.
  • the extended image 65 may be a cross-shaped arrangement of five fluorescent images 61.
  • the number and arrangement pattern of the fluorescent images 61 constituting the extended image 65 are set by the control unit 22 based on, for example, an operation input using an operation unit (not shown) by an operator such as a doctor.
  • Each fluorescent image 61 is stored in the storage unit 24 in association with the imaging position information 80 acquired by the position acquisition unit 52, and is acquired by the extended image generation unit 53.
  • the imaging position information 80 can be generated with reference to the imaging center C (any of C1 to C9) of any one fluorescent image 61.
  • the coordinates of the imaging center C5 of the central fluorescent image 61 are used as a reference (0,0), and the positions relative to the imaging center C5 are the imaging centers C1 to C4 of the eight surrounding fluorescent images 61.
  • each coordinate of C6 to C9 is defined.
  • the coordinates of the imaging centers C1 to C9 correspond to the positions moved from the imaging center C5 by the lengths Lx and Ly of the imaging field of view 71 of the fluorescent image 61 in the X and Y directions.
  • the imaging center C is moved by an integral multiple of the lengths Lx and Ly of the imaging field of view 71 with respect to one reference fluorescent image 61 (C5).
  • the image is taken at the same position.
  • An operator such as a doctor moves the image pickup center C of the image pickup unit 2 to each position where the image pickup position information 80 acquired by the position acquisition unit 52 becomes a preset arrangement pattern, and each moved image pickup center.
  • the fluorescence image 61 is imaged in C1 to C9.
  • the extended image generation unit 53 generates an extended image 65 in which the fluorescent images 61 are arranged based on the obtained fluorescent image 61 and the respective imaging position information 80.
  • the extended image generation unit 53 is configured to generate a single extended image 65 including a plurality of fluorescent images 61 that image different treatment target sites Pa.
  • the treatment target site Pa is shown with hatching.
  • the extended image generation unit 53 arranges a plurality of fluorescent images 61 in which a plurality of treatment target sites Pa are imaged to generate a single (one) extended image 65.
  • each treatment target site Pa is reflected in separate fluorescence images 61.
  • the extended image 65 includes a plurality of fluorescence images 61 imaged so as to include a treatment range AT including a plurality of treatment target sites Pa.
  • the treatment range AT is a range set to include all treatment target sites Pa found by prior examination or the like according to a treatment plan or the like.
  • the number and arrangement pattern of the fluorescent images 61 constituting the extended image 65 are preset so that the extended image 65 includes the treatment range AT according to the size of the treatment range AT. Therefore, in the present embodiment, all the treatment target sites Pa are included in the expanded image 65.
  • each fluorescence image 61 can be acquired in the same imaging field of view 71 as shown in FIG. 7.
  • the imaging unit 2 is rotated, the imaging field of view 71 is deformed as the distance from the reference position (C5) increases, but in the treatment of a local tumor (cancer), the amount of deformation becomes a problem. I don't let you.
  • a process of correcting the deformation of the acquired fluorescence image 61 may be performed based on the imaging position information 80.
  • the lengths Lx and Ly of the imaging field of view 71 of the fluorescent image 61 are the zoom magnification of the zoom lens 12a and the subject distance which is the distance between the subject (subject P) and the imaging unit 2.
  • Determined by WD The angle of view ⁇ of the imaging field of view 71 is determined by the zoom magnification.
  • the lengths Lx and Ly of the imaging field of view 71 are determined by the angle of view ⁇ and the subject distance WD.
  • the subject distance WD may be measured by a doctor or the like and input via an operation unit, or may be automatically measured by providing a distance meter or the like in the image pickup unit 2.
  • the control unit 22 monitors the positions of the imaging centers C1 to C9 for generating the extended image 65 based on the preset arrangement pattern of the fluorescent image 61 and the size (Lx, Ly) of the imaging field of view 71.
  • the operator is guided by displaying on 14.
  • the treatment support device 1 When the imaging unit 2 is translated and moved by the translational support unit 31, the treatment support device 1 includes a position detecting unit that detects the position of the imaging unit 2.
  • the position acquisition unit 52 can acquire the image pickup position information 80 of the fluorescence image 61 based on the position of the image pickup unit 2 detected by the position detection unit.
  • the position detection unit is composed of, for example, a three-dimensional position measuring device.
  • the three-dimensional position measuring device is mainly of an optical type and a magnetic type, and either of them may be adopted.
  • FIG. 9 shows an optical position detection unit 81.
  • the position detection unit 81 includes a plurality of cameras 82 and a sign 83.
  • the plurality of cameras 82 have known relative positions and relative angles in the imaging direction, and image a common marker 83.
  • the position detection unit 81 includes three cameras 82.
  • the marker 83 for example, a reflection marker, a light emitting marker having a built-in light source such as an LED, or the like is used.
  • the position detection unit 81 images the sign 83 attached to the image pickup unit 2 by a plurality of cameras 82, and displays the label based on the position of the sign 83 in each captured image and the relative positional relationship of each camera 82.
  • the three-dimensional position coordinates (x, y, z) of 83 are detected.
  • FIG. 10 shows a magnetic position detection unit 84.
  • the position detection unit 84 is composed of a transmitter 85 that generates a magnetic field (magnetic field) in the installation space of the image pickup unit 2, a receiver (magnetic sensor) 86 that is attached to the image pickup unit 2 and detects a magnetic field in three axial directions, and a receiver 86. It includes a calculation unit 87 that calculates the position coordinates of the receiver 86 based on the detection result of the magnetic field in each direction.
  • the position detection unit 84 detects the three-dimensional position coordinates (x, y, z) of the receiver 86 attached to the image pickup unit 2 as the relative position of the receiver 86 with respect to the transmitter 85.
  • These position detection units 81 or 84 may be provided in the main body 4 of the treatment support device 1, or may be provided separately from the main body 4 and connected to the main body 4.
  • the relative positional relationship between the position of the marker 83 or the receiver 86 in the image pickup unit 2 and the image pickup center C of the image pickup unit 2 may be known.
  • the position acquisition unit 52 acquires the position of the image pickup center C based on the position coordinates (x, y, z) of the image pickup unit 2 by the position detection unit 81 (or 84). As shown in FIG. 7, the position acquisition unit 52 generates the image pickup position information 80 of the reference position with the image pickup center (for example, C5) of any of the fluorescent images 61 constituting the extended image 65 as the reference position.
  • the position acquisition unit 52 acquires the position coordinates (x, y, z) of the image pickup unit 2 from the position detection unit 81 (or 84), respectively, and takes an image with the reference position as the origin.
  • the imaging position information 80 of the center C is generated.
  • the treatment support device 1 sets the rotation angle ( ⁇ , ⁇ ) of the imaging unit 2 as shown in FIG.
  • a rotation detection unit 88 for detecting is provided.
  • the position acquisition unit 52 acquires the image pickup position information 80 based on the rotation angle ( ⁇ , ⁇ ) of the image pickup unit 2 detected by the rotation detection unit 88.
  • the rotation detection unit 88 is, for example, a potentiometer that detects the rotation angle of the image pickup unit 2 in the rotation support unit 32.
  • the rotation detection unit 88 may be a rotary encoder.
  • the rotation support unit 32 rotatably supports the image pickup unit 2 around the first axis 42 and around the second axis 43, respectively.
  • the rotation around the first axis 42 corresponds to the lateral (X direction) movement of the imaging field of view 71 in FIG. 7
  • the rotation around the second axis 43 corresponds to the vertical direction (Y) of the imaging field of view 71 in FIG. Corresponds to the movement of direction).
  • the rotation detection unit 88 includes a detection unit that detects the rotation angle ⁇ around the first axis 42 and a detection unit that detects the rotation angle ⁇ around the second axis 43. As shown in FIG. 11, the position coordinates of the imaging center C of the imaging unit 2 can be obtained from the subject distance WD and the rotation angles ⁇ and ⁇ .
  • the position acquisition unit 52 has a rotation angle from each rotation detection unit 88 with respect to the image pickup unit 2 arranged at the image pickup position (C5) of one reference fluorescent image 61. ( ⁇ , ⁇ ) is acquired, and the imaging position information 80 of the reference position is generated.
  • the position acquisition unit 52 acquires rotation angles ( ⁇ , ⁇ ) from the rotation detection unit 88, respectively, and the image pickup position information 80 of the image pickup center C with the reference position as the origin. To generate.
  • the extended image generation unit 53 captures a plurality of visible images 62 acquired by the image pickup unit 2 based on the image pickup position information 80 (see FIG. 6). By arranging them, the visible extended image 66 is generated, and the composite extended image 67 in which the extended image 65 is superimposed on the visible extended image 66 is generated.
  • the extended image generation unit 53 arranges a plurality of fluorescent images 61 acquired by the imaging unit 2 at the imaging centers C1 to C9 to obtain the extended image 65. Generate.
  • the imaging unit 2 visible light detection unit 11a
  • the extended image generation unit 53 arranges the visible images 62 acquired at the imaging centers C1 to C9 based on the imaging position information 80, as shown in FIG. 12B, in the same manner as the fluorescence image 61.
  • a visible extended image 66 is generated. Therefore, the visible extended image 66 is an image obtained by capturing the same range as the extended image 65 by the fluorescence image 61.
  • the extended image generation unit 53 generates a composite extended image 67 as shown in FIG. 12 (C) by synthesizing the generated extended image 65 and the visible extended image 66.
  • the extended image 65 generated from the fluorescence image 61 is a monochromatic gradation image based on the intensity of the fluorescence FL, and includes a bright portion indicating a light emitting portion by the fluorescence FL and a dark portion other than the bright portion.
  • the extended image generation unit 53 extracts the bright part of the fluorescent image 61 and superimposes it on the visible extended image 66 which is a color image to generate the composite extended image 67.
  • the composite extended image 67 is composed of an array of composite images 63 of a fluorescent image 61 and a visible image 62.
  • the extended image generation unit 53 generates the extended image 65 before and after the treatment with the treatment light TL (see FIG. 1) on the treatment target site Pa, respectively. Further, the extended image generation unit 53 generates the composite extended image 67 before and after the treatment with the therapeutic light TL by synthesizing the extended image 65 and the visible extended image 66, respectively.
  • the expanded image 65 synthetic expanded image 67 generated before the treatment allows the doctor to grasp the distribution of the treatment target site Pa to be irradiated with the treatment light TL.
  • the extended image generation unit 53 displays the fluorescent image 61 in which the treatment of the treatment target site Pa in the image with the treatment light TL has been completed in the extended image 65, and other fluorescence in which the treatment has not been completed. It is configured to perform an identification process for displaying the image 61 so as to be distinguishable from the image 61.
  • the fluorescence image 61 and the visible portion are visible one by one with respect to the treatment target site Pa grasped from the expanded image 65 (synthetic expanded image 67) generated before the treatment.
  • the treatment support device 1 includes an extended image 65 (composite extended image 67) generated before the treatment, a (real-time) fluorescent image 61, and a visible image captured during the treatment, as shown in FIG.
  • the 62 and the composite image 63 are output to the display device 9 and displayed.
  • FIG. 13 shows an example of a situation in which imaging and treatment are performed at the position of the imaging center C9.
  • the next The imaging unit 2 is moved to the position of, and the treatment for the treatment target site Pa existing in the next imaging field 71 and the imaging of the fluorescence image 61 are performed.
  • the extended image generation unit 53 (synthesized) In the expanded image 67), the fluorescent image 61 (synthetic image 63) for which the treatment has been completed is subjected to identification processing, and the display is changed so that the doctor or the like can grasp that the treatment has been completed.
  • a mark 68 indicating that the treatment has been completed is attached to the fluorescent image 61 (composite image 63 of C1, C2, C4, C5, C7, C8) for which the treatment has been completed. It is done by giving.
  • the mark 68 is a so-called check mark, but any mark may be used.
  • a process of changing the hue, saturation, brightness, etc. of the fluorescent image 61 after the treatment for example, a process of graying out
  • displaying a message on the fluorescent image 61 (composite image 63) after the treatment is completed. It may be a process of causing it to occur.
  • the fluorescence image 61 imaged during the treatment whether or not the treatment with the treatment light TL on the treatment target site Pa in the image is completed is, for example, an input operation indicating that the treatment is completed is accepted via the operation unit. In addition to the determination, it is also possible to make a determination based on the fluorescence image 61.
  • FIG. 14 is a graph schematically showing the time change of the signal intensity obtained from the fluorescent FL from the start of irradiation of the treatment target site Pa with the treatment light TL to the completion of the treatment.
  • the cancer signal waveform 91 showing the time change of the signal value of the fluorescent FL derived from cancer is a waveform in which the signal intensity gradually attenuates with the passage of time from the start of irradiation of the therapeutic light TL.
  • the extended image generation unit 53 determines whether or not to complete the treatment of the treatment target site Pa with the treatment light TL based on the signal intensity of the fluorescence FL in the fluorescence image 61.
  • the extended image generation unit 53 attenuates the signal intensity of the fluorescent FL until it reaches a predetermined threshold TH, and when there is no region in the fluorescent image 61 that generates a fluorescent FL having an intensity exceeding the predetermined threshold TH, With respect to the imaging field 71 of the fluorescence image 61, it is determined that the treatment has been completed, and the corresponding fluorescence image 61 in the extended image 65 is identified.
  • the extended image generation unit 53 is a fluorescent image 61 (composite image 63) acquired during the treatment and acquired when it is determined that the treatment is completed, and the corresponding fluorescent image of the synthetic extended image 67 generated before the treatment.
  • 61 composite image 63
  • each composite image 63 (image in which the treatment target site Pa shines) in the composite extended image 67 generated before the treatment is a composite image in which the fluorescence intensity of the treatment target site Pa decreases and is extinguished in the order in which the treatment is completed. It will be replaced by 63.
  • the generation process of the extended image 65 (composite extended image 67) executed by the treatment support device 1 of the present embodiment will be described.
  • the process of generating the extended image 65 (synthetic extended image 67) implements the treatment support method of the present embodiment.
  • the extended image generation unit 53 selects the imaging position of the fluorescence image 61.
  • the extended image generation unit 53 acquires the array pattern of the fluorescent image 61 that constitutes the preset extended image 65.
  • the operator first determines the reference position, and the image pickup center C5 is registered using the operation unit (not shown).
  • the current position of the imaging unit 2 is selected as the imaging position of the reference position (imaging center C5).
  • the center position of the imaging field of view 71 of the imaging unit 2 is automatically moved to the imaging position either manually by an operator such as a doctor or by the control of the rotation support unit 32 by the control unit 22. ..
  • the fluorescence image 61 to be captured first is not moved because the current position of the imaging unit 2 is selected as the imaging position.
  • the image pickup position information 80 is acquired by the position acquisition unit 52 in step S2.
  • the operator confirms the imaging position information 80 by the position acquisition unit 52, and the imaging center C of the imaging unit 2 moves to the imaging position (any of C1 to C9). It is moved until they match, and the imaging position information 80 in a state where the imaging center C matches the imaging position is acquired.
  • step S3 imaging is performed by the imaging unit 2 moved to the imaging position.
  • the imaging unit 2 captures the fluorescence image 61 and the visible image 62 at the same imaging position.
  • the acquired fluorescence image 61 and visible image 62 are stored in the storage unit 24 in association with the imaging position information 80 acquired in step S2.
  • step S4 the extended image generation unit 53 determines whether or not all the fluorescent images 61 constituting the extended image 65 have been acquired. For example, in the example of FIG. 7, it is determined whether or not the fluorescence image 61 (and the visible image 62) has been imaged at all the imaging positions of C1 to C9. If no image is taken at any of the imaging positions, the extended image generation unit 53 returns to step S1 and selects the next imaging position to acquire the imaging position information 80 at that imaging position. The fluorescence image 61 and the visible image 62 are acquired.
  • the step of acquiring the image pickup position information 80 indicating the image pickup position of the fluorescence image 61 of the above is carried out.
  • the step (S3) for capturing the fluorescence image 61 and the step (S2) for acquiring the imaging position information 80 may be performed first or at the same time.
  • step S5 the extended image generation unit 53 generates an extended image 65 by arranging a plurality of fluorescent images 61 based on the acquired imaging position information 80. Is executed. Similarly, the extended image generation unit 53 generates the visible extended image 66 by arranging a plurality of visible images 62 based on the imaging position information 80.
  • step S6 the extended image generation unit 53 synthesizes the extended image 65 and the visible extended image 66, and generates the combined extended image 67 as shown in FIG.
  • the generated composite extended image 67 is stored in the storage unit 24 and output to the display device 9.
  • step S11 of FIG. 16 the treatment support device 1 generates an extended image 65 (composite extended image 67) before treatment and outputs it to the display device 9.
  • the expansion image 65 (composite expansion image 67) is generated according to steps S1 to S6 shown in FIG.
  • an operator When generating the extended image 65, an operator such as a doctor operates the light source unit 5 to irradiate the subject P with the excitation light EL, and causes the treatment support device 1 to capture each fluorescent image 61.
  • the subject P is irradiated with visible light Vis from the imaging light source unit 13, and the treatment support device 1 executes imaging of each visible image 62.
  • the doctor or the like grasps the position and number of the treatment target site Pa based on the extended image 65 (composite expanded image 67) output to the display device 9 before the treatment.
  • Treatment with therapeutic light TL is started from step S2.
  • step S12 the treatment light TL is irradiated to the treatment target site Pa by the doctor who operates the light source unit 5.
  • the irradiation of the therapeutic light TL is locally performed on each treatment target site Pa for each range (for each imaging position) of the imaging field of view 71 of any of the fluorescent images 61 constituting the extended image 65.
  • the treatment support device 1 acquires the fluorescence image 61 and the visible image 62 under treatment together with the synthetic extended image 67, and obtains the fluorescence image 61, the visible image 62, and the fluorescence image 61 and the visible image 62.
  • the composite image 63 of the above is output to the display device 9.
  • the treatment support device 1 When the treatment with the treatment light TL in the fluorescent image 61 under treatment is completed, the treatment support device 1 (extended image generation unit 53) outputs the extended image 65 (composite expanded image 67) to the display device 9 in step S13. In, identification processing (see FIG. 13) is performed on the fluorescent image 61 for which the treatment has been completed.
  • step S14 the treatment support device 1 (extended image generation unit 53) determines whether or not the treatment of all the treatment target sites Pa has been completed. That is, the extended image generation unit 53 determines that the treatment of all the treatment target sites Pa has been completed when all the fluorescent images 61 constituting the extended image 65 (composite extended image 67) are identified. To do. If there is a treatment target site Pa for which treatment has not been completed, the process returns to step S12, and irradiation of the treatment light TL to the treatment target site Pa in the next imaging field of view 71 selected from the imaging centers C1 to C9. Is done.
  • step S15 the treatment support device 1 generates an extended image 65 (composite extended image 67) after the treatment and outputs it to the display device 9.
  • the expansion image 65 (composite expansion image 67) is generated in the same manner as in step S11, and is in steps S1 to S6 shown in FIG.
  • the treatment support device 1 outputs a video signal for displaying the expanded image 65 before the treatment (composite expanded image 67) and the expanded image 65 after the treatment (composite expanded image 67) side by side to the display device 9. May be good.
  • treatment support using the treatment support device 1 is performed.
  • the extended image 65 is generated by arranging the plurality of fluorescent images 61 acquired by the imaging unit 2 based on the imaging position information 80 acquired by the position acquisition unit 52.
  • An extended image generation unit 53 is provided. Since the expanded image 65 to be generated can be generated in a size corresponding to a plurality of fluorescent images 61, even if the treatment target site Pa is distributed over a wide range that does not fit in one fluorescent image 61, the treatment target site Pa A wide range of fluorescence images 61 (extended image 65) showing the distribution range of the above can be obtained.
  • the individual fluorescence images 61 constituting the extended image 65 may be imaged at a high magnification with a small imaging field of view 71, the resolution is sufficient and wide enough for a doctor or the like to accurately grasp the treatment target site Pa.
  • An extended image 65 of the range can be obtained.
  • the extended image generation unit 53 is configured to generate a single extended image 65 including a plurality of fluorescent images 61 in which different treatment target sites Pa are imaged. ..
  • a single extended image is obtained from a plurality of fluorescence images 61 obtained by imaging each treatment target site Pa. 65 can be obtained.
  • the extended image 65 includes a plurality of fluorescence images 61 imaged so as to include the treatment range AT including the plurality of treatment target sites Pa.
  • an extended image 65 capable of grasping the entire treatment range AT in which the treatment target site Pa is distributed can be obtained at a glance.
  • the treatment target site Pa included in the treatment range AT can be covered by the extended image 65, so that treatment omission can be effectively suppressed.
  • the position acquisition unit 52 acquires the imaging position information 80 of the fluorescence image 61 based on the position of the imaging unit 2 detected by the position detection units (81, 84).
  • the imaging position information 80 of the fluorescent image 61 that is, the amount of movement of the imaging field of view 71
  • Image 65 can be generated.
  • the position acquisition unit 52 captures the imaging position information 80 of the fluorescence image 61 based on the rotation angles ( ⁇ , ⁇ ) of the imaging unit 2 detected by the rotation detecting unit 88. To get. With this configuration, by rotating the imaging unit 2 to move the imaging field of view 71, it is possible to acquire a plurality of fluorescent images 61 constituting the extended image 65. Then, since the imaging position information 80 of the fluorescence image 61 (that is, the amount of movement of the imaging field of view 71) can be grasped from the rotation angle of the imaging unit 2 detected by the rotation detecting unit 88, the obtained imaging position information 80 can be used. The extended image 65 can be easily generated.
  • the imaging unit 2 is configured to acquire the visible image 62 at the same imaging position as the fluorescence image 61, and the extended image generation unit 53 is based on the imaging position information 80.
  • the visible extended image 66 is generated, and the composite extended image 67 is generated by superimposing the extended image 65 on the visible extended image 66.
  • the image of the fluorescent FL generated from the photosensitive substance Pb can be superimposed and displayed on the visible image 62 of the subject P that is actually visually recognized, so that a doctor or the like can display the distribution of the treatment target site Pa. It is easier to grasp.
  • the visible extended image 66 can be generated from the visible image 62 captured in the same imaging field of view 71 as the individual fluorescent images 61 constituting the extended image 65, the treatment target site Pa can be added to the image of the subject P to be visually recognized. An accurately displayed composite extended image 67 can be obtained.
  • the extended image generation unit 53 completes the treatment of the fluorescent image 61 in which the treatment of the treatment target site Pa in the image with the treatment light TL is completed in the extended image 65.
  • An identification process is performed to display the image so that it can be distinguished from other fluorescent images 61 that have not been displayed.
  • the extended image generation unit 53 generates the extended image 65 before and after the treatment with the treatment light TL on the treatment target site Pa, respectively.
  • the doctor or the like can start the treatment after accurately grasping the position and the number of the treatment target sites Pa distributed in a wide range by the extended image 65 generated before the treatment. it can.
  • the extended image 65 generated after the treatment allows the doctor or the like to easily confirm at a glance whether or not the treatment for the treatment target site Pa distributed over a wide range is completed without omission.
  • the light source unit 5 is configured to irradiate the excitation light EL having a lower intensity than the therapeutic light TL when the fluorescent image 61 constituting the extended image 65 is imaged. ing.
  • the excitation light EL having a lower intensity than the therapeutic light TL it is possible to irradiate the excitation light EL having a lower intensity than the therapeutic light TL to capture the fluorescence image 61 and generate the extended image 65. Therefore, it is intentional due to the generation of the extended image 65. It is possible to suppress that the treatment is started without the treatment and that the deviation from the irradiation light amount in the treatment plan becomes large due to the irradiation of the excitation light EL for imaging.
  • the treatment support method of the present embodiment includes, as described above, a step of imaging a fluorescence image 61 based on the fluorescence FL emitted from the photosensitive substance Pb at a plurality of imaging positions in the subject P, and each fluorescence image.
  • the fluorescence images 61 can be arranged based on the imaging position information 80 of the plurality of fluorescence images 61, and a wide range of fluorescence images 61 (extended image 65) showing the distribution range of the treatment target site Pa can be obtained. ..
  • a wide range of extended images 65 can be obtained with a resolution sufficient for a doctor or the like to accurately grasp the treatment target site Pa.
  • the present invention is applied to a treatment support device 1 that supports cancer treatment at the time of cancer treatment performed by irradiating the subject P with therapeutic light TL.
  • the present invention is not limited to this.
  • the present invention may be applied to a treatment support device 101 that supports cancer treatment at the time of cancer treatment performed by irradiating a therapeutic light TL inside the subject P.
  • the same configuration as that of the above embodiment will be illustrated with the same reference numerals in the drawings, and detailed description thereof will be omitted.
  • the treatment support system 200 includes a treatment support device 101 and a display device 9.
  • the treatment support device 101 includes an endoscope device 110 and a main body 104.
  • the endoscope device 110 includes a light source unit 105 including a visible light source 105a and a therapeutic light source 105b, and an imaging unit 102 including a light receiving unit 11 and an optical system 12.
  • the main body unit 104 includes a control unit 22, an image processing unit 23, a storage unit 24, and an output unit 25.
  • the endoscope device 110 includes a flexible and deformable cable portion 111. In the cable portion 111, the branched root portions 111a and 111b are connected to the light source portion 105 and the imaging portion 102, respectively.
  • the tip portion 111c of the cable portion 111 is inserted into the subject P and sent to the vicinity of the treatment target site Pa inside the subject P.
  • the cable unit 111 is configured to be able to guide the visible light Vis emitted from the visible light source 105a of the light source unit 105 and the therapeutic light TL emitted from the therapeutic light source 105b of the light source unit 105 to the treatment target site Pa.
  • the cable unit 111 can guide the fluorescent FL emitted from the photosensitive substance Pb to the imaging unit 102 by irradiating the visible light Vis reflected at the treatment target site Pa and the treatment light TL.
  • the cable portion 111 can move the imaging position (imaging field of view 71) by bending (rotating) the tip portion 111c in an arbitrary direction.
  • the position acquisition unit 52 can acquire the image pickup position information 80 by the same method as the acquisition of the image pickup position information 80 using the rotation detection unit 88.
  • the generation of the extended image 65 (composite extended image 67) by the extended image generation unit 53 of the image processing unit 23 is the same as that of the above embodiment.
  • the imaging unit 2 is configured to be capable of capturing a fluorescent image 61 and a visible image 62 is shown, but the present invention is not limited to this.
  • the imaging unit 2 may be configured to be capable of capturing only the fluorescence image 61 without including the visible light detecting unit 11a.
  • an example of generating a composite image 63 of the fluorescence image 61 and the visible image 62 and a composite extended image 67 which is a composite image of the extended image 65 and the visible extended image 66 has been shown.
  • the invention is not limited to this. In the present invention, it is not necessary to generate the composite image 63 and the composite extended image 67. In the present invention, only the fluorescence image 61 and the extended image 65 may be generated. In the present invention, the fluorescence image 61 and the extended image 65 and the visible image 62 and the visible extended image 66 may be generated and output separately without being combined.
  • an example of acquiring the imaging position information 80 of the fluorescence image 61 based on the position of the imaging unit 2 detected by the position detecting unit 81, and the imaging unit 2 detected by the rotation detecting unit 88 examples of acquiring the imaging position information 80 of the fluorescence image 61 based on the rotation angles ( ⁇ , ⁇ ) of the above are shown, but the present invention is not limited to this. In the present invention, only one of the position detection unit 81 and the rotation detection unit 88 may be provided. Further, it is not necessary to provide both the position detection unit 81 and the rotation detection unit 88. That is, the position acquisition unit 52 may acquire the imaging position information 80 based on the captured visible image 62 without detecting the position and the rotation angle of the imaging unit 2.
  • the imaging unit 2 is configured to acquire a visible image 62 based on visible light Vis at the same imaging position as the fluorescence image 61
  • the position acquisition unit 52 is configured to acquire the visible image 62. It is configured to acquire the imaging position information 80 of the fluorescence image 61 based on the visible image 62 acquired by.
  • FIG. 18 shows an example in which a reference member 72 having a known dimension is arranged in the imaging field of view 71 of the visible image 62 to acquire the visible image 62. As a result, the ratio of the length Lm of the reference member 72 to the length (number of pixels, M pixels) of the reference member 72 shown in the visible image 62 can be obtained.
  • the position acquisition unit 52 acquires the length Lx of the imaging field of view 71 corresponding to the known number of pixels of the entire visible image 62 based on the acquired ratio, and obtains the imaging position of the fluorescent image 61 constituting the extended image 65. It can be obtained as the position coordinates from the reference position.
  • FIG. 18 shows the X direction, the same applies to the Y direction.
  • a marker having a known dimension, a plurality of markers arranged at a known distance, or the like may be used.
  • the feature points in the visible image 62 are extracted by image recognition, and the movement amount of the feature points in the visible image 62 when the imaging field of view 71 is moved by a predetermined distance is used.
  • the image pickup position information 80 may be acquired.
  • the fluorescence image 61 is based on the visible image 62 acquired at the same imaging position as the fluorescence image 61 without directly detecting the movement or rotation of the imaging unit 2.
  • the imaging position information 80 (that is, the amount of movement of the imaging field of view 71) can be easily acquired.
  • the treatment support device 1 is not provided with the light source unit 5 or the imaging light source unit 13, and the treatment light TL or visible light Vis is irradiated by a dedicated treatment device provided separately from the treatment support device 1. Good.
  • the fluorescent image 61 constituting the extended image 65 when the fluorescent image 61 constituting the extended image 65 is imaged, an example of irradiating an excitation light EL having a intensity lower than that of the therapeutic light TL is shown, but the present invention is not limited to this. .. In the present invention, the therapeutic light TL may be applied when the fluorescent image 61 constituting the extended image 65 is imaged.
  • the number of light sources 5a in which the light source unit 5 is lit can be changed, or the light source unit 5
  • the current value may be different, or a light-shielding member that blocks a part of the treatment light TL to reduce the amount of transmitted light may be arranged.
  • an example of generating a single extended image 65 is shown, but the present invention is not limited to this. In the present invention, a plurality of extended images 65 may be generated.
  • the extended image 65 so as to include the treatment range AT is shown, but the present invention is not limited to this.
  • the extended image 65 which does not partially include the therapeutic range AT may be generated.
  • a plurality of fluorescent images 61 are arranged without gaps to generate an extended image 65 is shown, but the present invention is not limited to this.
  • a plurality of fluorescent images 61 may be arranged so as to partially overlap.
  • the imaging unit 2 may be configured as a handy type imaging unit that is grasped by an operator such as a doctor by hand to perform imaging.
  • the present invention is not limited to this. In the present invention, it is not necessary to perform the identification process on the fluorescent image 61 for which the treatment has been completed.
  • an example of generating an expanded image 65 before and after the treatment of the treatment target site Pa with the treatment optical TL is shown, but the present invention is not limited to this.
  • the extended image 65 may be generated only before and after the treatment.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Endoscopes (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)

Abstract

この治療支援装置(1)は、蛍光画像(61)を撮像する撮像部(2)と、蛍光画像の撮像位置を示す撮像位置情報(80)を取得する位置取得部(52)と、位置取得部により取得された撮像位置情報に基づいて、撮像部により取得された複数の蛍光画像を配列することにより、蛍光画像の撮像視野を拡張させた拡張画像(65)を生成する拡張画像生成部(53)と、を備える。

Description

治療支援装置および治療支援方法
 本発明は、治療支援装置および治療支援方法に関する。
 従来、被検体の治療対象部位に蓄積された光感受性物質に治療光を照射して行われるがん治療方法が知られている。このようながん治療方法は、たとえば、特開2017-71654号公報に開示されている。
 上記特開2017-71654号公報には、がん治療方法として、近赤外光(治療光)を用いた光免疫療法が開示されている。この光免疫療法では、まず、近赤外光を吸収することにより蛍光を発する物質(光感受性物質)と、がん細胞に選択的に結合する抗体とを結合させた薬剤が、被検体に投与される。そして、被検体の全身に薬剤を循環させるために、被検体への薬剤の投与からたとえば1日(24時間)だけ時間が置かれる。この間、被検体に投与された薬剤の抗体ががん細胞に選択的に結合する。そして、被検体に治療光としての近赤外光が照射される。この結果、薬剤の蛍光を発する物質から生じる熱によりがん細胞が死滅する。なお、上記特開2017-71654号公報では、蛍光を発する物質として、IRDye(登録商標)700Dxが用いられている。
 また、上記特開2017-71654号公報には明確に記載されていないが、従来、被検体の治療対象部位に蓄積された光感受性物質に治療光を照射して行うがん治療の際に、治療対象部位を撮像してがん治療の支援を行うことが知られている。このがん治療の支援では、治療光が照射されることにより光感受性物質から発せられる蛍光が検出される。
特開2017-71654号公報
 上記特開2017-71654号公報で用いられる光感受性物質からの蛍光は、近赤外領域の非可視光であり直接視認できないため、撮像された蛍光画像から治療対象部位が確認される。治療対象部位が複数箇所ある場合に治療光が照射されない部位(治療漏れ)があると、がんの再発が懸念されるため、蛍光画像から治療対象部位を確認する際には、治療漏れを抑制するために、治療光を照射すべき治療対象部位の位置および数を一目で把握できることが望まれる。しかしながら、蛍光画像は表示できる範囲(すなわち、撮像視野)が限られているため、治療対象部位が撮像視野よりも広い範囲に分布する場合、1枚の蛍光画像からでは全ての治療対象部位を把握することができない。撮像時の拡大率を低くし、広い範囲の蛍光画像を取得することも考えられるが、この場合には解像度の低下によって治療対象部位を正確に把握することが困難になる。そこで、1枚の蛍光画像の撮像視野よりも広い範囲の治療対象部位を医師等が一目で把握できるようにすることが望まれている。
 この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、光感受性物質に治療光を照射して行うがん治療の際に、蛍光画像の撮像視野よりも広い範囲の治療対象部位を一目で把握することが可能な治療支援装置および治療支援方法を提供することである。
 上記目的を達成するために、この発明の第1の局面による治療支援装置は、被検体の治療対象部位に蓄積された光感受性物質に治療光を照射して行うがん治療の際に、治療対象部位を撮像してがん治療の支援を行う治療支援装置であって、光感受性物質から発せられる蛍光に基づく蛍光画像を撮像する撮像部と、被検体における蛍光画像の撮像位置を示す撮像位置情報を取得する位置取得部と、位置取得部により取得された撮像位置情報に基づいて、撮像部により取得された複数の蛍光画像を配列することにより、蛍光画像の撮像視野を拡張させた拡張画像を生成する拡張画像生成部と、を備える。
 この発明の第1の局面による治療支援装置では、上記のように構成することによって、複数の蛍光画像の撮像位置情報に基づいて蛍光画像を配列させた広い範囲の拡張画像を得ることができる。拡張画像は、複数枚の蛍光画像に相当する大きさで生成できるため、1枚の蛍光画像に収まらない広い範囲にわたって治療対象部位が分布する場合でも、治療対象部位の分布する範囲を写した広範囲の蛍光画像(拡張画像)を得ることができる。また、拡張画像を構成する個々の蛍光画像は、撮像視野が小さい高倍率で撮像されてもよいため、医師等が治療対象部位を正確に把握するのに十分な解像度で、広い範囲の拡張画像を得ることができる。これらの結果、光感受性物質に治療光を照射して行うがん治療の際に、蛍光画像の撮像視野よりも広い範囲の治療対象部位を一目で把握することができる。
 上記第1の局面による治療支援装置において、好ましくは、拡張画像生成部は、それぞれ異なる治療対象部位を撮像した複数の蛍光画像を含む単一の拡張画像を生成するように構成されている。このように構成すれば、1枚の蛍光画像に収まらない広い範囲にわたって治療対象部位が分布する場合でも、それぞれの治療対象部位を撮像した複数の蛍光画像から、単一の拡張画像を得ることができる。その結果、複数の画像を見比べて確認する必要がなく、広い範囲に分布したそれぞれの治療対象部位を、単一の拡張画像によって容易に把握することができる。
 上記第1の局面による治療支援装置において、好ましくは、拡張画像は、複数の治療対象部位を含んだ治療範囲を包含するように撮像された複数の蛍光画像を含む。なお、本明細書において、治療範囲とは、治療計画等によって、事前の検査などによって発見された治療対象部位を全て含むように設定される範囲を示す概念である。このように構成すれば、治療対象部位が分布すると考えられる治療範囲の全体を一目で把握することが可能な拡張画像が得られる。その結果、治療範囲に含まれる治療対象部位を拡張画像によって網羅することができるので、治療漏れを効果的に抑制できる。
 上記第1の局面による治療支援装置において、好ましくは、撮像部を並進移動可能に支持する並進支持部と、撮像部の位置を検出する位置検出部と、をさらに備え、位置取得部は、位置検出部により検出された撮像部の位置に基づいて蛍光画像の撮像位置情報を取得する。このように構成すれば、撮像部を並進移動させて撮像視野を移動させることにより、拡張画像を構成する複数の蛍光画像を取得できる。そして、位置検出部によって検出された撮像部の位置から蛍光画像の撮像位置情報(すなわち、撮像視野の移動量)が把握できるので、得られた撮像位置情報から容易に拡張画像を生成することができる。
 上記第1の局面による治療支援装置において、好ましくは、撮像部を回動可能に支持する回動支持部と、撮像部の回動角度を検出する回動検出部と、をさらに備え、位置取得部は、回動検出部により検出された撮像部の回動角度に基づいて蛍光画像の撮像位置情報を取得する。このように構成すれば、撮像部を回動させて撮像視野を移動させることにより、拡張画像を構成する複数の蛍光画像を取得できる。そして、回動検出部によって検出された撮像部の回動角度から蛍光画像の撮像位置情報(すなわち、撮像視野の移動量)が把握できるので、得られた撮像位置情報から容易に拡張画像を生成することができる。
 上記第1の局面による治療支援装置において、好ましくは、撮像部は、蛍光画像と同一の撮像位置で、可視光に基づく可視画像を取得するように構成され、位置取得部は、撮像部により取得された可視画像に基づいて蛍光画像の撮像位置情報を取得する。可視画像によれば、画像中に被検体の形態が写り、特徴点を識別できるほか、たとえばマーカーやメジャーなどを写すこともできるので、可視画像に基づいて撮像視野の移動を容易に把握することができる。そこで、上記構成によれば、撮像部の移動や回動を直接検出しなくても、蛍光画像と同一の撮像位置で取得される可視画像に基づいて、蛍光画像の撮像位置情報(すなわち、撮像視野の移動量)を容易に取得することができる。
 上記第1の局面による治療支援装置において、好ましくは、撮像部は、蛍光画像と同一の撮像位置で、可視光に基づく可視画像を取得するように構成され、拡張画像生成部は、撮像位置情報に基づいて、撮像部により取得された複数の可視画像を配列することにより可視拡張画像を生成し、可視拡張画像に拡張画像を重ねて表示した合成拡張画像を生成する。このように構成すれば、実際に視認される被検体の可視画像上に、光感受性物質から発生した蛍光の像を重ねて表示できるので、治療対象部位の分布を医師等がさらに容易に把握できる。また、拡張画像を構成する個々の蛍光画像と同一の撮像視野で撮像された可視画像から可視拡張画像を生成できるので、視認される被検体の像に治療対象部位を正確に表示した合成拡張画像を得ることができる。
 上記第1の局面による治療支援装置において、好ましくは、拡張画像生成部は、拡張画像において、画像内の治療対象部位への治療光による治療が完了した蛍光画像を、治療が完了していない他の蛍光画像と識別可能に表示する識別処理を行う。このように構成すれば、治療対象部位の治療時に、拡張画像を構成する個々の蛍光画像の撮像視野毎に、順番に治療光の照射作業を行うことができ、1つの撮像視野内にある治療対象部位への治療が完了したことを医師等が一見して認識できる。その結果、拡張画像を構成する蛍光画像毎に、治療対象部位の治療が完了したか否かを確認できるので、治療漏れの発生を効果的に抑制できる。
 上記第1の局面による治療支援装置において、好ましくは、拡張画像生成部は、治療対象部位への治療光による治療の前後において、それぞれ、拡張画像を生成する。このように構成すれば、治療の前に生成された拡張画像によって、医師等は、広い範囲に分布する治療対象部位の位置および数を正確に把握した上で、治療を開始することができる。そして、治療の後に生成された拡張画像によって、医師等は、広い範囲に分布する治療対象部位に対する治療が漏れなく完了したか否かを、一見して容易に確認することができる。
 この場合、好ましくは、光感受性物質の励起光を照射するための光源部をさらに備え、光源部は、拡張画像を構成する蛍光画像を撮像する際に、治療光よりも低い強度の励起光を照射するように構成されている。ここで、治療対象部位に照射する治療光の光量は、予め治療計画で設定される。そのため、上記構成によれば、治療光よりも低強度の励起光を照射して蛍光画像を撮像し拡張画像を生成できるので、拡張画像を生成することに起因して、意図せずに治療が開始することや、撮像のための励起光の照射によって治療計画における照射光量からのずれが生じることを抑制できる。
 この発明の第2の局面による治療支援方法は、被検体の治療対象部位に蓄積された光感受性物質に治療光を照射して行うがん治療の際に、治療対象部位を撮像してがん治療の支援を行う治療支援方法であって、被検体における複数の撮像位置で、光感受性物質から発せられる蛍光に基づく蛍光画像を撮像するステップと、それぞれの蛍光画像の撮像位置を示す撮像位置情報を取得するステップと、取得された撮像位置情報に基づいて複数の蛍光画像を配列することにより、蛍光画像の撮像視野を拡張させた拡張画像を生成するステップと、を備える。
 この発明の第2の局面による治療支援方法では、上記第1の局面と同様に、複数の蛍光画像の撮像位置情報に基づいて蛍光画像を配列させて、治療対象部位の分布する範囲を写した広範囲の蛍光画像(拡張画像)を得ることができる。また、医師等が治療対象部位を正確に把握するのに十分な解像度で、広い範囲の拡張画像を得ることができる。これらの結果、光感受性物質に治療光を照射して行うがん治療の際に、蛍光画像の撮像視野よりも広い範囲の治療対象部位を一目で把握することができる。
 本発明によれば、上記のように、光感受性物質に治療光を照射して行うがん治療の際に、蛍光画像の撮像視野よりも広い範囲の治療対象部位を一目で把握することができる。
一実施形態による治療支援装置を備える治療支援システムの概略図である。 一実施形態による治療支援装置の模式的な斜視図である。 撮像部を支持する回動支持部の構成を説明するための図である。 撮像部の概略図である。 撮像部の内部構成を示した模式図である。 治療支援装置の画像処理部の構成を説明するためのブロック図である。 複数の蛍光画像により構成された拡張画像の一例を示した図である。 蛍光画像の撮像視野を説明するための模式図である。 位置取得部による撮像位置情報の取得方法の第1の構成例を示した模式図である。 位置取得部による撮像位置情報の取得方法の第2の構成例を示した模式図である。 位置取得部による撮像位置情報の取得方法の第3の構成例を示した模式図である。 拡張画像および可視拡張画像から合成拡張画像を生成する例を示した図である。 治療が完了した蛍光画像に対して識別処理を行う例を示した図である。 治療が完了したか否かの判定方法の一例を説明するための図である。 拡張画像および合成拡張画像の生成処理を示したフロー図である。 治療支援装置の動作を説明するためのフロー図である。 治療支援装置の変形例を示したブロック図である。 位置取得部の変形例による撮像位置情報の取得方法を示した模式図である。
 以下、本発明を具体化した実施形態を図面に基づいて説明する。
 図1~図14を参照して、一実施形態による治療支援装置1を備えた治療支援システム100の構成について説明する。
 (治療支援システムの構成)
 治療支援システム100は、図1に示すように、治療支援装置1と、表示装置9とを備える。治療支援装置1は、被検体Pの治療対象部位Paに蓄積された光感受性物質Pbに治療光TLを照射して行うがん治療の際に、治療対象部位Paを撮像してがん治療の支援を行う治療支援装置である。被検体P(患者)は、たとえば、ヒト、犬、猫などである。治療対象部位Paは、たとえば、口、のど、胸部、体内の臓器(たとえば消化管、肝臓、副腎など)などに発生した腫瘍(がん)などである。治療支援装置1によるがん治療の支援は、具体的には撮影した画像を表示装置9に表示することにより、治療対象部位Paが把握可能な画像を医師などに提供することである。
 表示装置9は、治療支援装置1から出力される治療対象部位Paの撮像画像を表示するように構成されている。表示装置9は、たとえば、液晶ディスプレイなどのモニタである。
 (治療支援装置の構成)
 本実施形態による治療支援装置1は、撮像部2と、アーム機構3と、本体部4とを備える。
 撮像部2は、少なくとも、光感受性物質Pbから発せられる蛍光FLに基づく蛍光画像61(図5参照)を撮像するように構成されている。本実施形態では、撮像部2は、蛍光FLに基づく蛍光画像61に加えて、可視光Visに基づく可視画像62(図5参照)を撮像するように構成されている。撮像部2は、動画像として、蛍光画像61および可視画像62を撮像するように構成されている。撮像部2は、受光部11と、光学系12と、撮像光源部13とを備える。
 受光部11は、可視光検出部11aと蛍光検出部11bとを含む。可視光検出部11aは、可視光Visを検出するように構成されている。蛍光検出部11bは、蛍光FLを検出するように構成されている。可視光検出部11aおよび蛍光検出部11bは、たとえば、CMOS(Complementary Netal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサなどのイメージセンサを含む。なお、可視光検出部11aは、可視画像62をカラー画像として取得可能なものが使用される。可視光検出部11aおよび蛍光検出部11bの詳しい構成は後述する。
 光学系12は、ズームレンズ12aと、プリズム12bとを含む。光学系12は、被検体Pから反射された可視光Visと、光感受性物質Pbから発せられる蛍光FLとの分離を行うように構成されている。光学系12の詳しい構成は後述する。
 撮像光源部13は、複数の光源13aを備える。光源13aは、たとえば発光ダイオード(LED)を含む。本実施形態では、複数の光源13aは、可視光Visを照射する可視光源を含む。可視光源は、可視光Visとして、たとえば、白色光を被検体Pに向けて照射する。
 なお、光感受性物質Pbは、たとえば、IRDye(登録商標)700Dx(以下、「IR700」という)である。IR700は、近赤外光を吸収することにより蛍光FLを発する物質である。
 治療支援装置1は、撮像部2に設けた撮像光源部13とは別個に、治療光TLを照射するための光源部5を備える。光源部5は、医師が手に把持して患部に治療光TLを照射可能なハンディ型照明として構成されている。光源部5は、複数の光源5aを備える。光源5aは、たとえば発光ダイオード(LED)を含む。光源部5は、光感受性物質Pbの吸収波長を含む所定波長帯域の治療光TLを照射可能である。治療光TLは、たとえば中心波長が600nm以上700nmとなる近赤外光である。光源部5は、たとえばパルス幅変調制御(PWM制御)により光量を調整することができる。光源部5は、所定の第1デューティ比で治療光TLを照射する。
 また、本実施形態では、光源部5は、蛍光画像61を撮像する際に、光感受性物質Pbの励起光ELを照射することが可能に構成されている。光源部5は、拡張画像65を構成する蛍光画像61を撮像する際に、治療光TLよりも低い強度の励起光ELを照射するように構成されている。
 すなわち、光源部5は、所定の第1デューティ比で治療光TLを照射するのに対して、第1デューティ比よりも小さい第2デューティ比で励起光ELを照射する。励起光ELの光量(第2デューティ比)は、光感受性物質Pbが蛍光FLを発生するものの、治療(がん細胞の破壊)が進行しない程度の所定値として設定される。励起光ELと、治療光TLとは、互いに波長が同じであり、照射される出力値(光強度)が異なる。治療光TLおよび励起光ELの出力値として、治療対象部位Paに照射される治療光TLの強度がたとえば、約4mW/cmを確保することができ、治療対象部位Paに照射される励起光ELの強度が、たとえば、約0.8mW/cmを確保することができるように、デューティ比が設定される。
 ここで、がん治療方法としての近赤外光免疫療法(NIR-PIT)について説明する。近赤外光免疫療法では、まず、治療光TLを吸収することにより蛍光FLを発する光感受性物質Pb(IR700など)と、治療対象部位Paのがん細胞に選択的に結合する抗体(上皮成長因子受容体の抗体など)とを結合させた薬剤が、点滴などにより被検体Pに投与される。そして、被検体Pの全身に薬剤を循環させるために、被検体Pへの薬剤の投与からたとえば1日(24時間)だけ時間が置かれる。この間、被検体Pに投与された薬剤の抗体ががん細胞に選択的に結合する。この結果、治療対象部位Paに光感受性物質Pbが十分に蓄積される。そして、被検体Pに治療光TLが照射される。この結果、薬剤の光感受性物質Pbから生じる熱の作用によりがん細胞が死滅すると考えられている。
 本体部4は、図2に示すように、筐体21と、筐体21に収容されたコンピュータとを備えている。筐体21は、たとえば、コンピュータを収容する箱状形状を有し、車輪により移動可能に構成された台車である。図1に示すように、本体部4は、制御部22と、画像処理部23と、記憶部24と、出力部25と、を含む。
 制御部22は、たとえば、CPU(Central Processing Unit)などのプロセッサとメモリとを備えたコンピュータによって構成されている。コンピュータは、プロセッサがメモリに格納されたプログラムを実行することにより、治療支援装置1の制御部22として機能する。制御部22は、撮像部2の制御(撮像の開始および停止、ズーム倍率の変更など)、撮像光源部13からの光(可視光Vis、治療光TL)の照射、照射の停止などの制御を、図示しない操作部による入力操作に基づいて制御するように構成されている。
 画像処理部23は、撮像部2(蛍光検出部11bおよび可視光検出部11a)の検出信号から、それぞれ撮像画像データを生成する処理を行う。画像処理部23は、撮像部2により撮像された蛍光画像61(図12参照)の画像データ、可視画像62(図12参照)の画像データを生成するように構成されている。また、画像処理部23は、蛍光画像61と可視画像62とを合成した合成画像63(図12参照)の画像データを生成するように構成されている。
 本実施形態では、画像処理部23は、蛍光画像61の撮像視野71を拡張させた拡張画像65(図7参照)を生成するための処理を行う。画像処理部23は、たとえば、GPU(Graphics Processing Unit)や画像処理用に構成されたFPGA(Field-Programmable Gate Array)などのプロセッサと、メモリとを含む。画像処理部23の詳細な構成は、後述する。
 また、記憶部24は、画像処理部23により生成された撮像画像や制御用のプログラムなどを記憶するように構成されている。記憶部24は、たとえば、不揮発性のメモリやハードディスクドライブ(HDD)などを含む。
 出力部25は、画像処理部23により生成された撮像画像を含む映像信号を表示装置9に出力し、表示装置9に撮像画像を表示させるように構成されている。出力部25は、HDMI(登録商標)など映像出力インターフェースや、その他の外部機器接続用のインターフェースである。出力部25は、有線または無線により、撮像画像を出力可能に表示装置9と接続される。
 図2に示すように、本実施形態では、撮像部2は、アーム機構3によって移動可能に支持されている。アーム機構3は、筐体21(本体部4)の上面における筐体21の前方付近に設けられ、筐体21から延びて、先端部において撮像部2を支持している。なお、本体部4は、モニタ14と、治療支援装置1を移動する場合に使用されるハンドル15と、制御部22への入力操作に用いる図示しない操作部とを備える。
 アーム機構3は、撮像部2を並進移動可能に支持する並進支持部31と、撮像部2を回動可能に支持する回動支持部32と、を含む。
 並進支持部31は、回動支持部32を介して撮像部2を支持し、撮像部2の位置を保持するとともに、撮像部2を前後、左右、上下の各方向に並進移動させることが可能なように構成されている。なお、本明細書において、並進移動とは、撮像部2の撮像方向(向き)を変化させずに移動させることを意味する。
 並進支持部31は、筐体21の前方側に設けられた支柱33上に配置された支持部34に対して、ヒンジ部35により連結された第1アーム部材36を備える。支持部34が支柱33を軸として水平方向に回動可能であり、第1アーム部材36は、ヒンジ部35を中心に上下方向に回動可能である。
 第1アーム部材36の先端には、ヒンジ部37を介して、第2アーム部材38が連結されている。第2アーム部材38は、ヒンジ部37を中心に上下方向に回動可能である。第2アーム部材38の先端には、ヒンジ部39を介して回動支持部32が連結されている。回動支持部32は、ヒンジ部39を中心に、左右方向に回動可能である。そして、回動支持部32の先端に撮像部2が取り付けられている。このため、並進支持部31は、支持部34およびヒンジ部39により撮像部2を左右方向に旋回させ、第1アーム部材36および第2アーム部材38の折り畳みおよび伸展によって、撮像部2を前後に移動させ、ヒンジ部35およびヒンジ部37により、撮像部2を上下に移動させることができる。なお、本実施形態では、並進支持部31は、モータなどの駆動源を備えておらず、医師等の使用者が並進支持部31を手動で動かす例を示している。並進支持部31の各関節部分(支柱、ヒンジ部)に駆動源を設けて、制御部22の制御によって自動で撮像部2を並進移動させてもよい。
 回動支持部32は、撮像部2を支持し、撮像部2の位置を保持するとともに、撮像部2を左右および上下の各方向に回動させることが可能なように構成されている。回動支持部32は、支持部40を介して、ヒンジ部39に取り付けられている。支持部40には、撮像部2を支持したサブアーム41が設けられている。図3に示すように、サブアーム41は、支持部40に対して、撮像部2の撮像方向に対して第1軸42回りの左右方向に回動可能に構成されている。サブアーム41は、撮像部2を、撮像部2の撮像方向に対して第2軸43回りの上下方向に回動可能に支持する。その結果、撮像部2を第1軸42および第2軸43回りに回動させることによって、撮像部2の撮像視野71を上下左右に回動させることができる。なお、図3において、紙面の奥行方向が、撮像部2の撮像方向である。
 回動支持部32は、撮像部2を第1軸42回りに回動させる第1駆動源44と、撮像部2を第2軸43回りに回動させる第2駆動源45とを含む。これにより、回動支持部32は、制御部22の制御の下、撮像部2を所定角度範囲内で上下左右(チルトおよびパン)に首振りさせることができる。なお、第1駆動源44および第2駆動源45は、たとえば電動モータを含む。
 図4に示すように、撮像光源部13は、撮像部2の端面において、光学系12を取り囲むように環状に設けられている。図4の例では、12個の光源13aが円環状に配列されている。なお、撮像光源部13は、光源部5に代えて、治療光TLを照射する治療光源、および/または励起光ELを照射する励起光源を備えうる。その場合、たとえば12個の光源13aのうち、一部が可視光源であり、他の一部が治療光源や励起光源である。
 撮像部2は、蛍光画像61と同一の撮像位置で、可視画像62を撮像するように構成されている。すなわち、図5に示すように、可視光検出部11aおよび蛍光検出部11bは、可視光Visおよび蛍光FLを検出する際に、共通の光学系12によって、可視光Visおよび蛍光FLを検出するように構成されている。その結果、撮像部2は、同じ撮像位置および同じ撮像視野71(図7参照)で、蛍光画像61と可視画像62とを取得する。
 具体的には、可視光Visおよび蛍光FLは、光軸Lに沿ってズームレンズ12aに入射する。ズームレンズ12aは、フォーカスを合わせるために図示しないレンズ移動機構によって光軸Lに沿った方向に往復移動する。撮像部2は、ズームレンズ12aによる可変範囲内の任意の倍率で、蛍光画像61および可視画像62を取得可能である。
 可視光Visおよび蛍光FLは、ズームレンズ12aを透過した後、プリズム12bに到達する。プリズム12bは、被検体Pから反射された可視光Visと、光感受性物質Pbから発せられる蛍光FLとを分離するように構成されている。
 プリズム12bに到達した可視光Visは、プリズム12bにより反射され、可視光検出部11aに到達する。また、プリズム12bに到達した蛍光FLは、プリズム12bを透過して蛍光検出部11bに到達する。なお、被検体Pからの治療光TLや励起光ELの反射光は、プリズム12bにより反射される。そのため、被検体Pからの治療光TLや励起光ELの反射光が蛍光検出部11bに到達されることが回避される。
 このような構成により、治療支援システム100は、がん治療中の被検体Pの蛍光画像61および可視画像62(図12参照)を取得し、表示装置9に表示することによって、治療支援を行う治療支援システムとして構成されている。治療支援装置1は、医師が被検体Pのがん手術を行う際に、被検体Pの外部から被検体Pの治療対象部位Paを撮像するように構成されている。
 (画像処理部)
 次に、画像処理部23の構成について説明する。図6に示すように、画像処理部23は、画像生成部51と、位置取得部52と、拡張画像生成部53とを、機能ブロックとして含んでいる。画像生成部51と、位置取得部52と、拡張画像生成部53とは、それぞれ別個のハードウェアとして構成されていてもよい。
 画像生成部51は、撮像部2から信号に基づいて撮像画像を生成する。画像生成部51は、蛍光検出部11bにより検出された蛍光FLの信号に基づいて、蛍光画像61を生成するように構成されている。画像生成部51は、可視光検出部11aにより検出された可視光Visの信号に基づいて、可視画像62を生成する。
 位置取得部52は、被検体Pにおける蛍光画像61の撮像位置を示す撮像位置情報80を取得するように構成されている。位置取得部52は、たとえば図7に示すように、撮像部2による撮像視野71の中心位置(以下、撮像中心Cという)を、撮像位置情報80として取得する。撮像位置情報80は、たとえば撮像中心Cの位置座標(x,y)を含む。撮像位置情報80の具体的な取得方法については、後述する。なお、図7において、画像の横方向をX方向、画像の縦方向をY方向とする。
 図6および図7に示すように、拡張画像生成部53は、位置取得部52により取得された撮像位置情報80に基づいて、撮像部2により取得された複数の蛍光画像61を配列することにより、蛍光画像61の撮像視野71を拡張させた拡張画像65を生成するように構成されている。拡張画像生成部53により生成された拡張画像65は、出力部25を介して表示装置9に表示される。
 拡張画像65は、図7に示すように、複数の蛍光画像61を隙間なく配列(タイリング)して生成された画像である。図7では、9枚の蛍光画像61を3行×3列のマトリクス状に配列して、単一の拡張画像65を生成した例を示している。図7において、個々の蛍光画像61の境界線(撮像視野71の周縁)は、説明のために便宜的に図示したものであり、拡張画像65では、個々の蛍光画像61の境界線は必ずしも表示されなくてよい。図7に示す拡張画像65では、9枚の蛍光画像61の配列によって、蛍光画像61の撮像視野71が、解像度(ズームレンズ12aによるズーム倍率)はそのままで、縦横にそれぞれ3倍に拡張されている。
 拡張画像65を構成する蛍光画像61の枚数および配列パターンは、図示したもの(3行×3列の矩形)に限られず、任意である。たとえば、拡張画像65は、2行×2列、3行×2列または2行×3列、4行×4列などに蛍光画像61を配列して構成してもよい。拡張画像65は、5枚の蛍光画像61を十字形状に配列したものでもよい。拡張画像65を構成する蛍光画像61の枚数および配列パターンは、たとえば、医師等の操作者による操作部(図示せず)を用いた操作入力に基づいて、制御部22により設定される。
 各々の蛍光画像61は、位置取得部52により取得された撮像位置情報80と関連付けて、記憶部24に記憶されるとともに、拡張画像生成部53により取得される。撮像位置情報80は、いずれか1枚の蛍光画像61の撮像中心C(C1~C9のいずれか)を基準として生成されうる。たとえば、図7において、中央の蛍光画像61の撮像中心C5の座標を基準(0,0)として、撮像中心C5からの相対位置として、周囲の8枚の蛍光画像61の撮像中心C1~C4、およびC6~C9の各座標が定義される。撮像中心C1~C9の座標は、蛍光画像61の撮像視野71のX方向およびY方向の長さLx、Lyだけ、撮像中心C5から移動した位置に相当する。たとえばC3は、(x3,y3)=(+Lx,+Ly)となる。
 したがって、拡張画像65を構成するそれぞれの蛍光画像61は、基準となる1枚の蛍光画像61(C5)に対して、撮像中心Cを撮像視野71の長さLx、Lyの整数倍だけ移動させた位置で撮像された画像となる。医師等の操作者は、位置取得部52により取得された撮像位置情報80が、予め設定した配列パターンとなるそれぞれの位置に撮像部2の撮像中心Cを移動させて、移動された各撮像中心C1~C9において蛍光画像61を撮像させる。拡張画像生成部53は、得られた蛍光画像61と、それぞれの撮像位置情報80とに基づいて、蛍光画像61を配列した拡張画像65を生成する。
 本実施形態では、拡張画像生成部53は、それぞれ異なる治療対象部位Paを撮像した複数の蛍光画像61を含む単一の拡張画像65を生成するように構成されている。図7の例では、治療対象部位Paにハッチングを付して図示している。拡張画像生成部53は、複数の治療対象部位Paが撮像された複数の蛍光画像61を配列して、単一(1枚)の拡張画像65を生成する。図7のように、複数の治療対象部位Paが1枚の蛍光画像61の撮像視野71よりも広い範囲に分布する場合に、それぞれの治療対象部位Paは、別々の蛍光画像61中に写る。
 また、本実施形態では、拡張画像65は、複数の治療対象部位Paを含んだ治療範囲ATを包含するように撮像された複数の蛍光画像61を含む。治療範囲ATは、治療計画等によって、事前の検査などによって発見された治療対象部位Paを全て含むように設定される範囲である。拡張画像65を構成する蛍光画像61の枚数および配列パターンは、治療範囲ATの大きさに応じて、拡張画像65が治療範囲ATを包含するように予め設定される。そのため、本実施形態では、全ての治療対象部位Paが拡張画像65内に含まれる。
 撮像視野71をそれぞれの撮像位置へ移動させる方法としては、並進支持部31により撮像部2を並進移動させる方法と、回動支持部32により撮像部2を回動させる方法とがある。撮像部2を並進移動させる場合、図7に示したように同一の撮像視野71で各蛍光画像61が取得できる。撮像部2を回動させる場合、基準位置(C5)から離れるに従って撮像視野71が変形することになるが、局所的な腫瘍(がん)の治療においては、変形量が問題となるほど大きく回動させるわけではない。撮像位置情報80に基づいて、取得した蛍光画像61の変形を補正する処理を行ってもよい。
 図8に示すように、蛍光画像61の撮像視野71の各方向の長さLx、Lyは、ズームレンズ12aのズーム倍率と、被写体(被検体P)と撮像部2との距離である被写体距離WDとにより決定される。ズーム倍率により、撮像視野71の画角δが決まる。画角δと被写体距離WDとにより、撮像視野71の長さLx、Lyが決まる。被写体距離WDは、医師等により測定され、操作部を介して入力されてもよいし、撮像部2に距離計などを設けて自動で測定してもよい。制御部22は、予め設定された蛍光画像61の配列パターンと、撮像視野71の大きさ(Lx、Ly)とに基づき、拡張画像65を生成するための各撮像中心C1~C9の位置をモニタ14に表示するなどにより、操作者に案内する。
 (位置取得部)
 次に、位置取得部52による撮像位置情報80の取得について説明する。
 並進支持部31により撮像部2を並進移動させる場合、治療支援装置1は、撮像部2の位置を検出する位置検出部を備える。位置取得部52は、位置検出部によって検出された撮像部2の位置に基づいて蛍光画像61の撮像位置情報80を取得することができる。位置検出部は、たとえば3次元位置測定装置により構成される。3次元位置測定装置は、主として光学式と磁気式とがあり、どちらが採用されてもよい。
 図9には、光学式の位置検出部81を示す。位置検出部81は、複数のカメラ82と、標識83とを含む。複数のカメラ82は、相対位置および撮像方向の相対角度が既知であり、共通の標識83を撮像する。図9では位置検出部81が3台のカメラ82を含む。標識83には、たとえば反射マーカーや、LEDなどの光源を内蔵した発光マーカーなどが用いられる。位置検出部81は、複数のカメラ82によって、撮像部2に取り付けた標識83を撮像し、各々の撮像画像中の標識83の位置と、それぞれのカメラ82の相対位置関係とに基づいて、標識83の3次元位置座標(x,y,z)を検出する。
 図10には、磁気式の位置検出部84を示す。位置検出部84は、撮像部2の設置空間内に磁界(磁場)を発生させるトランスミッタ85と、撮像部2に取り付けられ3軸方向の磁界を検出するレシーバ(磁気センサ)86と、レシーバ86による各方向の磁界の検出結果に基づいてレシーバ86の位置座標を算出する演算部87とを含む。位置検出部84は、トランスミッタ85に対するレシーバ86の相対位置として、撮像部2に取り付けられたレシーバ86の3次元位置座標(x,y,z)を検出する。これらの位置検出部81または84は、治療支援装置1の本体部4に設けられていてもよいし、本体部4とは別個に設けられて本体部4に接続されてもよい。
 撮像部2における標識83またはレシーバ86の位置と、撮像部2の撮像中心Cとの相対位置関係は既知であるとしてよい。位置取得部52は、位置検出部81(または84)による撮像部2の位置座標(x,y,z)に基づいて、撮像中心Cの位置を取得する。位置取得部52は、図7に示したように、拡張画像65を構成するいずれかの蛍光画像61の撮像中心(たとえばC5)を基準位置として、基準位置の撮像位置情報80を生成する。位置取得部52は、撮像部2が移動されると、それぞれ位置検出部81(または84)から撮像部2の位置座標(x,y,z)を取得して、基準位置を原点とした撮像中心Cの撮像位置情報80を生成する。
 また、回動支持部32により撮像部2を回動させて撮像視野71を移動させる場合、図11に示すように、治療支援装置1は、撮像部2の回動角度(α,β)を検出する回動検出部88を備える。位置取得部52は、回動検出部88により検出された撮像部2の回動角度(α,β)に基づいて撮像位置情報80を取得する。
 回動検出部88は、たとえば、回動支持部32における撮像部2の回動角度を検出するポテンショメータである。回動検出部88はロータリーエンコーダでもよい。図3に示したように、回動支持部32は、撮像部2を、第1軸42回りおよび第2軸43回りにそれぞれ回動可能に支持する。第1軸42回りの回動は、図7における撮像視野71の横方向(X方向)の移動に対応し、第2軸43回りの回動は、図7における撮像視野71の縦方向(Y方向)の移動に対応する。回動検出部88は、第1軸42回りの回動角度αを検出する検出部と、第2軸43回りの回動角度βを検出する検出部と、を含む。図11に示すように被写体距離WDと回動角度α、βとによって、撮像部2の撮像中心Cの位置座標が求められる。
 位置取得部52は、図11に示したように、基準となる1枚の蛍光画像61の撮像位置(C5)に配置された撮像部2に対してそれぞれの回動検出部88から回動角度(α,β)を取得し、基準位置の撮像位置情報80を生成する。位置取得部52は、撮像部2が回動されると、それぞれ回動検出部88から回動角度(α,β)を取得して、基準位置を原点とした撮像中心Cの撮像位置情報80を生成する。
 (合成拡張画像の生成)
 図12に示すように、本実施形態では、拡張画像生成部53(図6参照)は、撮像位置情報80(図6参照)に基づいて、撮像部2により取得された複数の可視画像62を配列することにより可視拡張画像66を生成し、可視拡張画像66に拡張画像65を重ねて表示した合成拡張画像67を生成するように構成されている。
 拡張画像生成部53(図6参照)は、図12(A)に示すように、各撮像中心C1~C9で撮像部2により取得された複数の蛍光画像61を配列して、拡張画像65を生成する。蛍光画像61を撮像する際、撮像部2(可視光検出部11a)は、それぞれの蛍光画像61と同一の撮像位置で、可視画像62を撮像する。そして、拡張画像生成部53は、蛍光画像61と同様にして、図12(B)に示すように、撮像位置情報80に基づいて各撮像中心C1~C9で取得された可視画像62を配列した可視拡張画像66を生成する。したがって、可視拡張画像66は、蛍光画像61による拡張画像65と同じ範囲を撮像した画像となる。
 拡張画像生成部53は、生成した拡張画像65と可視拡張画像66とを合成することにより、図12(C)に示すように、合成拡張画像67を生成する。たとえば、蛍光画像61から生成された拡張画像65は、蛍光FLの強度に基づく単色の階調画像であり、蛍光FLによる発光部位を示す明部と、明部以外の暗部とを含む。拡張画像生成部53は、蛍光画像61の明部を抽出し、カラー画像である可視拡張画像66上に重ねることにより、合成拡張画像67を生成する。合成拡張画像67は、蛍光画像61と可視画像62との合成画像63の配列によって構成されている。
 (拡張画像の生成タイミング)
 本実施形態では、拡張画像生成部53は、治療対象部位Paへの治療光TL(図1参照)による治療の前後において、それぞれ、拡張画像65を生成する。さらに、拡張画像生成部53は、拡張画像65と可視拡張画像66とを合成することにより、治療光TLによる治療の前後において、それぞれ、合成拡張画像67を生成する。治療前に生成された拡張画像65(合成拡張画像67)によって、医師は、治療光TLを照射すべき治療対象部位Paの分布を把握することが可能である。
 また、本実施形態では、拡張画像生成部53は、拡張画像65において、画像内の治療対象部位Paへの治療光TLによる治療が完了した蛍光画像61を、治療が完了していない他の蛍光画像61と識別可能に表示する識別処理を行うように構成されている。
 具体的には、図13に示すように、治療時には、治療前に生成された拡張画像65(合成拡張画像67)から把握された治療対象部位Paに対して、1箇所ずつ蛍光画像61および可視画像62を撮像しながら、治療光TLによる治療が行われる。治療支援装置1は、治療時には、図13に示したように、治療前に生成した拡張画像65(合成拡張画像67)と、治療中に撮像している(リアルタイムの)蛍光画像61、可視画像62および合成画像63とを、それぞれ表示装置9に出力して表示させる。図13では、撮像中心C9の位置で撮像および治療が行われている状況の例を示している。このように、撮像中心C1~C9のいずれかの位置で、撮像部2により撮像しながら治療が行われ、蛍光画像61の撮像視野71内に存在する治療対象部位Paに対する治療が終了すると、次の位置に撮像部2が移動されて、次の撮像視野71内に存在する治療対象部位Paに対する治療と蛍光画像61の撮像とが行われる。
 そこで、拡張画像生成部53は、治療中(治療光TLの照射中)に撮像している蛍光画像61の撮像視野71内に存在する治療対象部位Paに対する治療が完了すると、拡張画像65(合成拡張画像67)において治療が完了した蛍光画像61(合成画像63)に対して識別処理を行い、治療が終了したことを医師等が把握できるように表示を変更する。
 識別処理は、たとえば図13に示すように、治療が終了した蛍光画像61(C1、C2、C4、C5、C7、C8の合成画像63)に対して、治療が終了したことを示すマーク68を付与することにより行われる。図13では、マーク68は、いわゆるチェックマークであるが、どのようなマークでもよい。また、識別処理は、治療が終了した蛍光画像61の色相、彩度、明度などを変化させる処理(たとえばグレーアウトさせる処理)や、治療が終了した蛍光画像61(合成画像63)上にメッセージを表示させる処理などでもよい。
 治療中に撮像される蛍光画像61において、画像内の治療対象部位Paへの治療光TLによる治療が完了したか否かは、たとえば操作部を介して治療が終了したことを示す入力操作を受け付けることにより判定するほか、蛍光画像61に基づいて判定することも可能である。
 図14は、治療対象部位Paへの治療光TLの照射を開始してから治療が完了するまでの間に蛍光FLから得られる信号強度の時間変化を模式的に示すグラフである。図14に示すように、がん由来の蛍光FLの信号値の時間変化を示すがん信号波形91は、治療光TLの照射開始からの時間経過に伴って信号強度が徐々に減衰する波形となる。そこで、拡張画像生成部53は、蛍光画像61における蛍光FLの信号強度に基づいて、治療光TLによる治療対象部位Paの治療を完了するか否かを判定する。拡張画像生成部53は、蛍光FLの信号強度が所定の閾値THに到達するまで減衰し、蛍光画像61中に所定の閾値THを超える強度の蛍光FLを発生する領域が存在しない場合に、その蛍光画像61の撮像視野71については治療が終了したと判断して、拡張画像65内の該当する蛍光画像61に対して識別処理を行う。
 拡張画像生成部53は、治療中に取得され、治療が完了したと判定した際に取得した蛍光画像61(合成画像63)によって、治療前に生成した合成拡張画像67のうちの対応する蛍光画像61(合成画像63)を置換してもよい。その場合、治療前に生成した合成拡張画像67中の各合成画像63(治療対象部位Paが光る画像)が、治療が完了した順に、治療対象部位Paの蛍光強度が低下して消光した合成画像63に置き換えられていくことになる。
 次に、図15を参照して、本実施形態の治療支援装置1が実行する拡張画像65(合成拡張画像67)の生成処理について説明する。拡張画像65(合成拡張画像67)の生成処理は、本実施形態の治療支援方法を実施するものである。
 図15に示すように、ステップS1において、拡張画像生成部53により、蛍光画像61の撮像位置が選択される。拡張画像生成部53は、予め設定された拡張画像65を構成する蛍光画像61の配列パターンを取得する。図7に示した3行×3列の配列パターンの例では、たとえば操作者が最初に基準位置を決めて、操作部(図示せず)を用いて撮像中心C5を登録する。この場合、最初に撮像される蛍光画像61については、撮像部2の現在位置が、基準位置(撮像中心C5)の撮像位置として選択される。
 撮像位置が選択されると、医師等の操作者により手動で、または制御部22による回動支持部32の制御により自動で、撮像部2の撮像視野71の中心位置が撮像位置に移動される。最初に撮像される蛍光画像61については、撮像部2の現在位置が撮像位置として選択されるため、移動されない。
 撮像部2の撮像中心Cが撮像位置に配置されると、ステップS2において、位置取得部52により、撮像位置情報80が取得される。手動で撮像部2が移動される場合には、操作者が、位置取得部52による撮像位置情報80を確認しつつ、撮像部2の撮像中心Cが撮像位置(C1~C9のいずれか)に一致するまで移動させ、撮像中心Cが撮像位置に一致した状態での撮像位置情報80が取得される。
 ステップS3において、撮像位置に移動された撮像部2により撮像が行われる。撮像部2は、同一の撮像位置で蛍光画像61および可視画像62を撮像する。取得された蛍光画像61および可視画像62は、ステップS2で取得された撮像位置情報80と対応付けて記憶部24に記憶される。
 ステップS4において、拡張画像生成部53により、拡張画像65を構成する全ての蛍光画像61が取得されたか否かが判断される。たとえば図7の例では、C1~C9の全ての撮像位置で蛍光画像61(および可視画像62)の撮像が行われたか否かが判断される。いずれかの撮像位置で撮像が行われていない場合、拡張画像生成部53は、ステップS1に処理を戻し、次の撮像位置を選択して、その撮像位置での撮像位置情報80の取得と、蛍光画像61および可視画像62の取得とが行われる。
 ステップS1~S4が繰り返されることにより、本実施形態の治療支援方法による、被検体Pにおける複数の撮像位置で、光感受性物質Pbから発せられる蛍光FLに基づく蛍光画像61を撮像するステップと、それぞれの蛍光画像61の撮像位置を示す撮像位置情報80を取得するステップと、が実施される。蛍光画像61を撮像するステップ(S3)と、撮像位置情報80を取得するステップ(S2)とは、いずれを先に実施してもよいし、同時に実施してもよい。
 全ての蛍光画像61が取得された場合、ステップS5において、拡張画像生成部53により、取得された撮像位置情報80に基づいて複数の蛍光画像61を配列することにより、拡張画像65を生成するステップが実行される。同様に、拡張画像生成部53は、撮像位置情報80に基づいて複数の可視画像62を配列することにより、可視拡張画像66を生成する。
 ステップS6において、拡張画像生成部53が、拡張画像65と可視拡張画像66とを合成し、図12に示したように合成拡張画像67を生成する。生成された合成拡張画像67は、記憶部24に記憶されるとともに、表示装置9に出力される。
 次に、図16を参照して、本実施形態の治療支援装置1の動作について説明する。
 図16のステップS11において、治療支援装置1は、治療前の拡張画像65(合成拡張画像67)を生成して、表示装置9に出力する。拡張画像65(合成拡張画像67)の生成については、図15に示したステップS1~S6による。
 拡張画像65を生成する際、医師等の操作者は、光源部5を操作して励起光ELを被検体Pに照射させつつ、治療支援装置1による各蛍光画像61の撮像を実行させる。また、撮像光源部13から可視光Visが被検体Pに照射され、治療支援装置1による各可視画像62の撮像が実行される。
 医師等は、治療前の表示装置9に出力された拡張画像65(合成拡張画像67)に基づいて、治療対象部位Paの位置および数を把握する。ステップS2から治療光TLによる治療が開始される。
 ステップS12において、光源部5を操作する医師により、治療対象部位Paに対して治療光TLが照射される。治療光TLの照射は、拡張画像65を構成するいずれかの蛍光画像61の撮像視野71の範囲(撮像位置毎)毎に、個々の治療対象部位Paに対して局所的に行われる。図13に示したように、治療支援装置1は、合成拡張画像67とともに、治療中の蛍光画像61および可視画像62を取得して、蛍光画像61、可視画像62および蛍光画像61と可視画像62との合成画像63を表示装置9に出力する。
 治療中の蛍光画像61における治療光TLによる治療が完了すると、治療支援装置1(拡張画像生成部53)は、ステップS13において、表示装置9に出力している拡張画像65(合成拡張画像67)において、治療が完了した蛍光画像61に対して識別処理(図13参照)を行う。
 ステップS14において、治療支援装置1(拡張画像生成部53)は、全ての治療対象部位Paの治療が終了したか否かを判断する。すなわち、拡張画像生成部53は、拡張画像65(合成拡張画像67)を構成する全ての蛍光画像61に対して識別処理を行った場合に、全ての治療対象部位Paの治療が終了したと判断する。治療が完了していない治療対象部位Paがある場合、処理がステップS12に戻り、撮像中心C1~C9の中から選択された次の撮像視野71内の治療対象部位Paへの治療光TLの照射が行われる。
 全ての治療対象部位Paの治療が終了した場合、ステップS15において、治療支援装置1は、治療後の拡張画像65(合成拡張画像67)を生成して、表示装置9に出力する。拡張画像65(合成拡張画像67)の生成については、ステップS11と同様であり、図15に示したステップS1~S6による。治療支援装置1は、対比のため、治療前の拡張画像65(合成拡張画像67)と治療後の拡張画像65(合成拡張画像67)とを並べて表示する映像信号を表示装置9に出力してもよい。
 医師等は、表示装置9に出力された治療後の拡張画像65(合成拡張画像67)に基づいて、蛍光強度が所定の閾値THを超える領域が存在しないこと(すなわち、治療漏れが存在しないこと)を確認し、治療を終了する。
 以上のようにして、治療支援装置1を用いた治療支援が行われる。
(本実施形態の効果)
 本実施形態では、以下のような効果を得ることができる。
 本実施形態では、上記のように、位置取得部52により取得された撮像位置情報80に基づいて、撮像部2により取得された複数の蛍光画像61を配列することにより、拡張画像65を生成する拡張画像生成部53を設ける。生成される拡張画像65は、複数枚の蛍光画像61に相当する大きさで生成できるため、1枚の蛍光画像61に収まらない広い範囲にわたって治療対象部位Paが分布する場合でも、治療対象部位Paの分布する範囲を写した広範囲の蛍光画像61(拡張画像65)を得ることができる。また、拡張画像65を構成する個々の蛍光画像61は、撮像視野71が小さい高倍率で撮像されてもよいため、医師等が治療対象部位Paを正確に把握するのに十分な解像度で、広い範囲の拡張画像65を得ることができる。これらの結果、光感受性物質Pbに治療光TLを照射して行うがん治療の際に、蛍光画像61の撮像視野71よりも広い範囲の治療対象部位Paを一目で把握することができる。
 また、本実施形態では、上記のように、拡張画像生成部53は、それぞれ異なる治療対象部位Paを撮像した複数の蛍光画像61を含む単一の拡張画像65を生成するように構成されている。このように構成すれば、1枚の蛍光画像61に収まらない広い範囲にわたって治療対象部位Paが分布する場合でも、それぞれの治療対象部位Paを撮像した複数の蛍光画像61から、単一の拡張画像65を得ることができる。その結果、複数の画像を見比べて確認する必要がなく、広い範囲に分布したそれぞれの治療対象部位Paを、単一の拡張画像65によって容易に把握することができる。
 また、本実施形態では、上記のように、拡張画像65は、複数の治療対象部位Paを含んだ治療範囲ATを包含するように撮像された複数の蛍光画像61を含む。このように構成すれば、治療対象部位Paが分布する治療範囲ATの全体を一目で把握することが可能な拡張画像65が得られる。その結果、治療範囲ATに含まれる治療対象部位Paを拡張画像65によって網羅することができるので、治療漏れを効果的に抑制できる。
 また、本実施形態では、上記のように、位置取得部52は、位置検出部(81、84)により検出された撮像部2の位置に基づいて蛍光画像61の撮像位置情報80を取得する。このように構成すれば、撮像部2を並進移動させて撮像視野71を移動させることにより、拡張画像65を構成する複数の蛍光画像61を取得できる。そして、位置検出部81によって検出された撮像部2の位置から蛍光画像61の撮像位置情報80(すなわち、撮像視野71の移動量)が把握できるので、得られた撮像位置情報80から容易に拡張画像65を生成することができる。
 また、本実施形態では、上記のように、位置取得部52は、回動検出部88により検出された撮像部2の回動角度(α、β)に基づいて蛍光画像61の撮像位置情報80を取得する。このように構成すれば、撮像部2を回動させて撮像視野71を移動させることにより、拡張画像65を構成する複数の蛍光画像61を取得できる。そして、回動検出部88によって検出された撮像部2の回動角度から蛍光画像61の撮像位置情報80(すなわち、撮像視野71の移動量)が把握できるので、得られた撮像位置情報80から容易に拡張画像65を生成することができる。
 また、本実施形態では、上記のように、撮像部2は、蛍光画像61と同一の撮像位置で可視画像62を取得するように構成され、拡張画像生成部53は、撮像位置情報80に基づいて可視拡張画像66を生成し、可視拡張画像66に拡張画像65を重ねて表示した合成拡張画像67を生成する。このように構成すれば、実際に視認される被検体Pの可視画像62上に、光感受性物質Pbから発生した蛍光FLの像を重ねて表示できるので、治療対象部位Paの分布を医師等がさらに容易に把握できる。また、拡張画像65を構成する個々の蛍光画像61と同一の撮像視野71で撮像された可視画像62から可視拡張画像66を生成できるので、視認される被検体Pの像に治療対象部位Paを正確に表示した合成拡張画像67を得ることができる。
 また、本実施形態では、上記のように、拡張画像生成部53は、拡張画像65において、画像内の治療対象部位Paへの治療光TLによる治療が完了した蛍光画像61を、治療が完了していない他の蛍光画像61と識別可能に表示する識別処理を行う。このように構成すれば、治療対象部位Paの治療時に、1つの撮像視野71内にある治療対象部位Paへの治療が完了したことを医師等が一見して認識できる。その結果、拡張画像65を構成する蛍光画像61毎に、治療対象部位Paの治療が完了したか否かを確認できるので、治療漏れの発生を効果的に抑制できる。
 また、本実施形態では、上記のように、拡張画像生成部53は、治療対象部位Paへの治療光TLによる治療の前後において、それぞれ、拡張画像65を生成する。このように構成すれば、治療の前に生成された拡張画像65によって、医師等は、広い範囲に分布する治療対象部位Paの位置および数を正確に把握した上で、治療を開始することができる。そして、治療の後に生成された拡張画像65によって、医師等は、広い範囲に分布する治療対象部位Paに対する治療が漏れなく完了したか否かを、一見して容易に確認することができる。
 また、本実施形態では、上記のように、光源部5は、拡張画像65を構成する蛍光画像61を撮像する際に、治療光TLよりも低い強度の励起光ELを照射するように構成されている。このように構成すれば、治療光TLよりも低強度の励起光ELを照射して蛍光画像61を撮像し拡張画像65を生成できるので、拡張画像65を生成することに起因して、意図せずに治療が開始することや、撮像のための励起光ELの照射によって治療計画における照射光量からのずれが大きくなることを抑制できる。
 また、本実施形態の治療支援方法は、上記のように、被検体Pにおける複数の撮像位置で、光感受性物質Pbから発せられる蛍光FLに基づく蛍光画像61を撮像するステップと、それぞれの蛍光画像61の撮像位置を示す撮像位置情報80を取得するステップと、取得された撮像位置情報80に基づいて複数の蛍光画像61を配列することにより、蛍光画像61の撮像視野71を拡張させた拡張画像65を生成するステップと、を備える。これにより、複数の蛍光画像61の撮像位置情報80に基づいて蛍光画像61を配列させて、治療対象部位Paの分布する範囲を写した広範囲の蛍光画像61(拡張画像65)を得ることができる。また、医師等が治療対象部位Paを正確に把握するのに十分な解像度で、広い範囲の拡張画像65を得ることができる。これらの結果、光感受性物質Pbに治療光TLを照射して行うがん治療の際に、蛍光画像61の撮像視野71よりも広い範囲の治療対象部位Paを一目で把握することができる。
 [変形例]
 なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく、特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
 たとえば、上記実施形態では、本発明を、被検体Pの外部から治療光TLを照射して行うがん治療の際にがん治療の支援を行う治療支援装置1に適用する例を示したが、本発明はこれに限られない。本発明を、たとえば図17に示すように、被検体Pの内部において治療光TLを照射して行うがん治療の際にがん治療の支援を行う治療支援装置101に適用してもよい。なお、上記実施形態と同一の構成については、図中において同じ符号を付して図示し、その詳細な説明を省略する。
 図17に示すように、治療支援システム200は、治療支援装置101と、表示装置9とを備える。治療支援装置101は、内視鏡装置110と、本体部104とを備える。内視鏡装置110は、可視光源105aおよび治療光源105bを含む光源部105と、受光部11および光学系12を含む撮像部102とを含む。本体部104は、制御部22と、画像処理部23と、記憶部24と、出力部25とを含む。内視鏡装置110は、柔軟で変形可能なケーブル部111を含む。ケーブル部111は、分岐した根元部111aおよび111bが光源部105および撮像部102にそれぞれ接続されている。ケーブル部111は、先端部111cが被検体P内に挿入され、被検体Pの内部の治療対象部位Paの近傍まで送り込まれる。ケーブル部111は、光源部105の可視光源105aから照射される可視光Visおよび光源部105の治療光源105bから照射される治療光TLを、治療対象部位Paに導光可能に構成されている。ケーブル部111は、治療対象部位Paにおいて反射された可視光Visおよび治療光TLが照射されることにより光感受性物質Pbから発せられる蛍光FLを、撮像部102に導光可能である。ケーブル部111は、先端部111cを任意方向に屈曲(回動)させて撮像位置(撮像視野71)を移動させることができる。位置取得部52は、回動検出部88を用いた撮像位置情報80の取得と同手法で、撮像位置情報80を取得できる。画像処理部23の拡張画像生成部53による拡張画像65(合成拡張画像67)の生成は、上記実施形態と同様である。
 また、上記実施形態では、撮像部2を、蛍光画像61および可視画像62を撮像可能に構成する例を示したが、本発明はこれに限られない。本発明では、撮像部2を、可視光検出部11aを備えることなく、蛍光画像61のみを撮像可能に構成してもよい。
 また、上記実施形態では、蛍光画像61と可視画像62との合成画像63、および、拡張画像65と可視拡張画像66との合成画像である合成拡張画像67を生成する例を示したが、本発明はこれに限られない。本発明では、合成画像63および合成拡張画像67を生成しなくてもよい。本発明では、蛍光画像61および拡張画像65のみを生成してもよい。本発明では、蛍光画像61および拡張画像65と、可視画像62および可視拡張画像66とを生成し、合成せずに別々に出力してもよい。
 また、上記実施形態では、位置検出部81により検出された撮像部2の位置に基づいて蛍光画像61の撮像位置情報80を取得する例、および、回動検出部88により検出された撮像部2の回動角度(α、β)に基づいて蛍光画像61の撮像位置情報80を取得する例、をそれぞれ示したが、本発明はこれに限られない。本発明では、位置検出部81および回動検出部88のいずれか一方のみが設けられていてもよい。また、位置検出部81および回動検出部88の両方を設けなくてもよい。すなわち、位置取得部52は、撮像部2の位置や回動角度を検出することなく、撮像された可視画像62に基づいて撮像位置情報80を取得してもよい。
 たとえば、図18に示す変形例では、撮像部2は、蛍光画像61と同一の撮像位置で、可視光Visに基づく可視画像62を取得するように構成され、位置取得部52は、撮像部2により取得された可視画像62に基づいて蛍光画像61の撮像位置情報80を取得するように構成されている。図18では、可視画像62の撮像視野71内に、既知の寸法を有する基準部材72を配置して、可視画像62を取得する例を示している。これにより、基準部材72の長さLmと、可視画像62に写る基準部材72の長さ(画素数、M画素)との比率が取得できる。位置取得部52は、取得された比率に基づいて、可視画像62全体の既知の画素数に対応する撮像視野71の長さLxを取得し、拡張画像65を構成する蛍光画像61の撮像位置を基準位置からの位置座標として求めることができる。なお、図18ではX方向について示しているが、Y方向についても同様である。基準部材72に代えて、既知の寸法を有するマーカー、既知の距離を隔てて配置された複数のマーカーなどを用いてもよい。また、基準部材72を撮像する代わりに、画像認識により可視画像62中の特徴点を抽出し、所定距離だけ撮像視野71を移動させた場合の可視画像62内の特徴点の移動量に基づいて、撮像位置情報80を取得してもよい。上記変形例のように構成することにより、撮像部2の移動や回動を直接検出しなくても、蛍光画像61と同一の撮像位置で取得される可視画像62に基づいて、蛍光画像61の撮像位置情報80(すなわち、撮像視野71の移動量)を容易に取得することができる。
 また、上記実施形態では、治療支援装置1に、光源部5および撮像光源部13を設けた例を示したが、本発明はこれに限られない。本発明では、治療支援装置1に光源部5や撮像光源部13を設けずに、治療支援装置1とは別に設けられた専用の治療装置によって治療光TLや可視光Visが照射される構成でもよい。
 また、上記実施形態では、拡張画像65を構成する蛍光画像61を撮像する場合に、治療光TLよりも低い強度の励起光ELを照射する例を示したが、本発明はこれに限られない。本発明では、拡張画像65を構成する蛍光画像61を撮像する場合に、治療光TLを照射してもよい。また、治療光TLよりも低い強度の励起光ELを照射する場合には、光源部5のデューティ比を異ならせる以外に、光源部5が点灯する光源5aの数を変化させたり、光源部5に供給する電流値(PWM制御ではパルスの高さ)を異ならせたり、治療光TLの一部を遮断して透過光量を減少させる遮光部材を配置したりしてもよい。
 また、上記実施形態では、単一の拡張画像65を生成する例を示したが、本発明はこれに限られない。本発明では、複数の拡張画像65を生成してもよい。
 また、上記実施形態では、治療範囲ATを包含するように拡張画像65を生成する例を示したが、本発明はこれに限られない。本発明では、部分的には治療範囲ATを包含しない拡張画像65を生成してもよい。
 また、上記実施形態では、複数の蛍光画像61を隙間なく配列して拡張画像65を生成する例を示したが、本発明はこれに限られない。本発明では、複数の蛍光画像61が部分的に重複するように配列してもよい。
 また、上記実施形態では、並進支持部31および回動支持部32を設けた例を示したが、本発明はこれに限られない。本発明では、並進支持部31および回動支持部32の一方または両方を設けなくてもよい。撮像部2を、医師などの操作者が手で把持して撮像を行うハンディ型の撮像部として構成してもよい。
 また、上記実施形態では、拡張画像65において、治療が完了した蛍光画像61に識別処理を行う例を示したが、本発明はこれに限られない。本発明では、治療が完了した蛍光画像61に識別処理を行わなくてもよい。
 また、上記実施形態では、治療対象部位Paへの治療光TLによる治療の前後において、それぞれ、拡張画像65を生成する例を示したが、本発明はこれに限られない。本発明では、治療の前後のうち一方のみにおいて拡張画像65を生成してもよい。
 1、101 治療支援装置
 2、102 撮像部
 5、105 光源部
 31 並進支持部
 32 回動支持部
 52 位置取得部
 53 拡張画像生成部
 61 蛍光画像
 62 可視画像
 63 合成画像
 65 拡張画像
 66 可視拡張画像
 67 合成拡張画像
 71 撮像視野
 80 撮像位置情報
 81、84 位置検出部
 88 回動検出部
 AT 治療範囲
 EL 励起光
 FL 蛍光
 P 被検体
 Pa 治療対象部位
 Pb 光感受性物質
 TL 治療光
 Vis 可視光

Claims (11)

  1.  被検体の治療対象部位に蓄積された光感受性物質に治療光を照射して行うがん治療の際に、前記治療対象部位を撮像してがん治療の支援を行う治療支援装置であって、
     前記光感受性物質から発せられる蛍光に基づく蛍光画像を撮像する撮像部と、
     被検体における前記蛍光画像の撮像位置を示す撮像位置情報を取得する位置取得部と、
     前記位置取得部により取得された前記撮像位置情報に基づいて、前記撮像部により取得された複数の前記蛍光画像を配列することにより、前記蛍光画像の撮像視野を拡張させた拡張画像を生成する拡張画像生成部と、を備える、治療支援装置。
  2.  前記拡張画像生成部は、それぞれ異なる前記治療対象部位を撮像した複数の前記蛍光画像を含む単一の前記拡張画像を生成するように構成されている、請求項1に記載の治療支援装置。
  3.  前記拡張画像は、複数の前記治療対象部位を含んだ治療範囲を包含するように撮像された複数の前記蛍光画像を含む、請求項1に記載の治療支援装置。
  4.  前記撮像部を並進移動可能に支持する並進支持部と、
     前記撮像部の位置を検出する位置検出部と、をさらに備え、
     前記位置取得部は、前記位置検出部により検出された前記撮像部の位置に基づいて前記蛍光画像の前記撮像位置情報を取得する、請求項1に記載の治療支援装置。
  5.  前記撮像部を回動可能に支持する回動支持部と、
     前記撮像部の回動角度を検出する回動検出部と、をさらに備え、
     前記位置取得部は、前記回動検出部により検出された前記撮像部の回動角度に基づいて前記蛍光画像の前記撮像位置情報を取得する、請求項1に記載の治療支援装置。
  6.  前記撮像部は、前記蛍光画像と同一の撮像位置で、可視光に基づく可視画像を取得するように構成され、
     前記位置取得部は、前記撮像部により取得された前記可視画像に基づいて前記蛍光画像の前記撮像位置情報を取得する、請求項1に記載の治療支援装置。
  7.  前記撮像部は、前記蛍光画像と同一の撮像位置で、可視光に基づく可視画像を取得するように構成され、
     前記拡張画像生成部は、前記撮像位置情報に基づいて、前記撮像部により取得された複数の前記可視画像を配列することにより可視拡張画像を生成し、前記可視拡張画像に前記拡張画像を重ねて表示した合成拡張画像を生成する、請求項1に記載の治療支援装置。
  8.  前記拡張画像生成部は、前記拡張画像において、画像内の前記治療対象部位への治療光による治療が完了した前記蛍光画像を、治療が完了していない他の前記蛍光画像と識別可能に表示する識別処理を行う、請求項1に記載の治療支援装置。
  9.  前記拡張画像生成部は、前記治療対象部位への治療光による治療の前後において、それぞれ、前記拡張画像を生成する、請求項1に記載の治療支援装置。
  10.  前記光感受性物質の励起光を照射するための光源部をさらに備え、
     前記光源部は、前記拡張画像を構成する前記蛍光画像を撮像する際に、治療光よりも低い強度の励起光を照射するように構成されている、請求項9に記載の治療支援装置。
  11.  被検体の治療対象部位に蓄積された光感受性物質に治療光を照射して行うがん治療の際に、前記治療対象部位を撮像してがん治療の支援を行う治療支援方法であって、
     被検体における複数の撮像位置で、前記光感受性物質から発せられる蛍光に基づく蛍光画像を撮像するステップと、
     それぞれの前記蛍光画像の撮像位置を示す撮像位置情報を取得するステップと、
     取得された前記撮像位置情報に基づいて複数の前記蛍光画像を配列することにより、前記蛍光画像の撮像視野を拡張させた拡張画像を生成するステップと、を備える、治療支援方法。
PCT/JP2019/033573 2019-08-27 2019-08-27 治療支援装置および治療支援方法 WO2021038729A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2019/033573 WO2021038729A1 (ja) 2019-08-27 2019-08-27 治療支援装置および治療支援方法
JP2021541848A JPWO2021038729A1 (ja) 2019-08-27 2019-08-27

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/033573 WO2021038729A1 (ja) 2019-08-27 2019-08-27 治療支援装置および治療支援方法

Publications (1)

Publication Number Publication Date
WO2021038729A1 true WO2021038729A1 (ja) 2021-03-04

Family

ID=74683934

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/033573 WO2021038729A1 (ja) 2019-08-27 2019-08-27 治療支援装置および治療支援方法

Country Status (2)

Country Link
JP (1) JPWO2021038729A1 (ja)
WO (1) WO2021038729A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012050601A (ja) * 2010-08-31 2012-03-15 Fujifilm Corp 電子内視鏡システム
WO2017146184A1 (ja) * 2016-02-23 2017-08-31 国立大学法人三重大学 レーザ内視鏡装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10309281A (ja) * 1997-05-13 1998-11-24 Olympus Optical Co Ltd 蛍光診断装置
JP2005021453A (ja) * 2003-07-03 2005-01-27 Toshiba Corp 治療線照射装置
JP5185704B2 (ja) * 2007-12-26 2013-04-17 オリンパス株式会社 生体観察装置
WO2013009475A1 (en) * 2011-07-11 2013-01-17 The United States Of America, As Represented By The Secretary, Department Of Health & Human Services Photosensitizing antibody-phuorophore conjugates
JP6184086B2 (ja) * 2012-12-07 2017-08-23 アンリツ株式会社 光治療装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012050601A (ja) * 2010-08-31 2012-03-15 Fujifilm Corp 電子内視鏡システム
WO2017146184A1 (ja) * 2016-02-23 2017-08-31 国立大学法人三重大学 レーザ内視鏡装置

Also Published As

Publication number Publication date
JPWO2021038729A1 (ja) 2021-03-04

Similar Documents

Publication Publication Date Title
JP6586211B2 (ja) プロジェクションマッピング装置
JP6710735B2 (ja) 撮像システム及び手術支援システム
US11190752B2 (en) Optical imaging system and methods thereof
CN208942463U (zh) 口内扫描系统和口内扫描装置
US20180053335A1 (en) Method and Device for Displaying an Object
CN101023890B (zh) 成像的医疗技术设备
EP2428764A1 (en) System and method for processing and displaying intra-oral measurement data
JP6454489B2 (ja) 観察システム
JP5930531B2 (ja) 撮像装置および撮像方法
US20150117601A1 (en) X-ray source with module and detector for optical radiation
US8911357B2 (en) Optical structure observation apparatus and structure information processing method of the same
WO2016174911A1 (ja) 光線力学診断装置及び光線力学診断方法
JPWO2006033483A1 (ja) 人体情報抽出装置、人体撮影情報の基準面変換方法および断面情報検出装置
WO2012014437A1 (ja) 画像処理装置、方法及びプログラム
JP4190917B2 (ja) 内視鏡装置
WO2019215905A1 (ja) 治療支援装置および治療支援システム
JP5639521B2 (ja) 歯科用光干渉断層画像生成装置の制御装置、制御方法及び制御プログラム
JP4861037B2 (ja) 計測装置
WO2021038729A1 (ja) 治療支援装置および治療支援方法
JP5657941B2 (ja) 光断層画像化装置及びその作動方法
CN111281534A (zh) 生成手术部位的三维模型的系统和方法
JPWO2019181212A1 (ja) 医療用表示制御装置、および表示制御方法
US20220361952A1 (en) Physical medical element placement systems
JP2019066398A (ja) イメージング装置
WO2022239339A1 (ja) 医療用情報処理装置、医療用観察システム及び医療用情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19943277

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021541848

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19943277

Country of ref document: EP

Kind code of ref document: A1