WO2020040172A1 - 画像処理装置、画像処理方法、プログラム - Google Patents

画像処理装置、画像処理方法、プログラム Download PDF

Info

Publication number
WO2020040172A1
WO2020040172A1 PCT/JP2019/032560 JP2019032560W WO2020040172A1 WO 2020040172 A1 WO2020040172 A1 WO 2020040172A1 JP 2019032560 W JP2019032560 W JP 2019032560W WO 2020040172 A1 WO2020040172 A1 WO 2020040172A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
dimensional
dimensional image
image data
image processing
Prior art date
Application number
PCT/JP2019/032560
Other languages
English (en)
French (fr)
Inventor
大樹 梶田
宣晶 今西
貞和 相磯
長永 兼一
Original Assignee
キヤノン株式会社
学校法人慶應義塾
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社, 学校法人慶應義塾 filed Critical キヤノン株式会社
Publication of WO2020040172A1 publication Critical patent/WO2020040172A1/ja
Priority to US17/180,928 priority Critical patent/US20210177269A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0093Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy
    • A61B5/0095Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy by applying light and detecting acoustic waves, i.e. photoacoustic measurements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/41Detecting, measuring or recording for evaluating the immune or lymphatic systems
    • A61B5/414Evaluating particular organs or parts of the immune or lymphatic systems
    • A61B5/418Evaluating particular organs or parts of the immune or lymphatic systems lymph vessels, ducts or nodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0204Acoustic sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0275Measuring blood flow using tracers, e.g. dye dilution

Definitions

  • the present invention relates to information processing used in a system for generating an image by photoacoustic imaging.
  • Patent Literature 1 discloses a photoacoustic image generation device that evaluates a contrast agent used for imaging lymph nodes, lymph vessels, and the like, and emits light having a wavelength that generates a photoacoustic wave when the contrast agent is absorbed. Is described.
  • photoacoustic imaging generally has a problem that the data amount is large.
  • an object of the present invention is to provide a technique capable of reducing the amount of data in photoacoustic imaging as compared with the related art.
  • One aspect of the present invention is An image processing apparatus that processes three-dimensional image data generated based on received signal data of a photoacoustic wave generated from within the subject by irradiating the subject with light, A first three-dimensional image obtaining unit that obtains first three-dimensional image data obtained by extracting a first region corresponding to a first substance from the three-dimensional image data; A second three-dimensional image acquisition unit configured to acquire second three-dimensional image data obtained by extracting a second region corresponding to a second substance from the three-dimensional image data; First two-dimensional image acquisition means for acquiring, from the first three-dimensional image data, first two-dimensional image data in which three-dimensional position information of the first region is associated; A second two-dimensional image acquisition unit configured to acquire, from the second three-dimensional image data, second two-dimensional image data in which three-dimensional position information of the second region is associated; An image processing apparatus comprising: Another aspect of the present invention is: An image processing method for processing three-dimensional image data generated based on received signal data of a photoacoustic wave
  • FIG. 1 is a block diagram of a system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a specific example of an image processing apparatus according to an embodiment of the present invention and its peripheral configuration.
  • FIG. 3 is a detailed block diagram of the photoacoustic apparatus according to one embodiment of the present invention.
  • FIG. 4 is a schematic diagram of a probe according to one embodiment of the present invention.
  • FIG. 5 is a flowchart of an image processing method according to an embodiment of the present invention.
  • 6A to 6C are schematic diagrams when acquiring a three-dimensional lymph image and a three-dimensional blood vessel image.
  • 7A and 7B are schematic diagrams when acquiring a two-dimensional lymph image, a two-dimensional blood vessel image, and depth information.
  • FIGS. 8A to 8C are schematic diagrams showing the display of a two-dimensional image reflecting the depth information.
  • 9A to 9D are contour graphs of the calculated value of the equation (1) corresponding to the contrast agent when the combination of wavelengths is changed.
  • FIG. 10 is a line graph showing the calculated values of Expression (1) corresponding to the contrast agent when the concentration of ICG is changed.
  • FIG. 11 is a graph showing a molar absorption coefficient spectrum of oxyhemoglobin and deoxyhemoglobin.
  • FIG. 12 is a diagram showing a GUI according to an embodiment of the present invention.
  • FIG. 13A and FIG. 13B are spectral images on the right forearm extension side when the concentration of ICG is changed.
  • 14A and 14B are spectral images of the left forearm extension when the ICG density is changed.
  • 15A and 15B are spectral images of the inside of the right lower leg and the inside of the left lower leg when the concentration of ICG is changed.
  • the photoacoustic image obtained by the system according to the present invention reflects the absorption amount and absorption rate of light energy.
  • the photoacoustic image represents a spatial distribution of at least one piece of subject information such as a generated sound pressure (initial sound pressure) of the photoacoustic wave, a light absorption energy density, and a light absorption coefficient.
  • the photoacoustic image may be an image representing a two-dimensional spatial distribution or an image (volume data) representing a three-dimensional spatial distribution.
  • the system according to the present embodiment generates a photoacoustic image by photographing a subject into which a contrast agent has been introduced.
  • the photoacoustic image may represent an image representing a two-dimensional spatial distribution in a depth direction from the subject surface or a three-dimensional spatial distribution.
  • the system according to the present invention can generate a spectral image of the subject using a plurality of photoacoustic images corresponding to a plurality of wavelengths.
  • the spectral image of the present invention is generated using photoacoustic signals corresponding to each of a plurality of wavelengths based on photoacoustic waves generated by irradiating a subject with light having a plurality of different wavelengths.
  • the spectral image may indicate the concentration of the specific substance in the subject, which is generated using the photoacoustic signals corresponding to each of the plurality of wavelengths.
  • the image value of the contrast agent in the spectral image and the image value of the specific substance in the spectral image are different. Therefore, the region of the contrast agent and the region of the specific substance can be distinguished according to the image value of the spectral image.
  • the specific substance is a substance that constitutes the subject, such as hemoglobin, glucose, collagen, melanin, fat, and water. Also in this case, a contrast agent having a light absorption spectrum different from the light absorption coefficient spectrum of the specific substance is selected. Further, the spectral image may be calculated by a different calculation method according to the type of the specific substance.
  • a spectral image having an image value calculated using the oxygen saturation calculation formula (1) will be described.
  • the present inventors have calculated the optical saturation of blood hemoglobin based on the photoacoustic signal corresponding to each of the plurality of wavelengths (or an index having a correlation with the oxygen saturation).
  • I (r) of a photoacoustic signal obtained with a contrast agent whose wavelength dependence of the absorption coefficient is different from that of oxyhemoglobin and deoxyhemoglobin is substituted, the numerical range in which the oxygen saturation of hemoglobin can be taken From the calculated value Is (r).
  • Is (r) is a measurement value based on a photoacoustic wave generated by light irradiation of the first wavelength ⁇ 1
  • I ⁇ 2 (r) is generated by light irradiation of the second wavelength ⁇ 2 This is a measurement value based on a photoacoustic wave.
  • ⁇ Hb ⁇ 1 is a molar absorption coefficient of deoxyhemoglobin corresponding to the first wavelength ⁇ 1 [mm ⁇ 1 mol ⁇ 1 ]
  • ⁇ Hb ⁇ 2 is a molar absorption coefficient of deoxy hemoglobin corresponding to the second wavelength ⁇ 2 [ mm -1 mol -1 ].
  • ⁇ HbO ⁇ 1 is the molar absorption coefficient of oxyhemoglobin corresponding to the first wavelength ⁇ 1 [mm ⁇ 1 mol ⁇ 1 ]
  • ⁇ HbO ⁇ 2 is the molar absorption coefficient of oxyhemoglobin corresponding to the second wavelength ⁇ 2 [ mm -1 mol -1 ].
  • r is a position.
  • the measured values I ⁇ 1 (r) and I ⁇ 2 (r) may be absorption coefficients ⁇ a ⁇ 1 (r) and ⁇ a ⁇ 2 (r), or the initial sound pressure P 0 ⁇ 1 (R) and P 0 ⁇ 2 (r).
  • the numerical value of the molar absorption coefficient of hemoglobin may be used as it is in Expression (1).
  • the region where the hemoglobin exists blood vessel
  • the region where the contrast agent exists for example, lymph vessels
  • the image value of the spectral image is calculated using Expression (1) for calculating the oxygen saturation.
  • Expression (1) for calculating the oxygen saturation.
  • an index other than the oxygen saturation is calculated as the image value of the spectral image
  • the expression A calculation method other than (1) may be used.
  • the index and its calculation method known ones can be used, and therefore detailed description is omitted.
  • the spectral image, photoacoustic waves generated by light irradiation of the first photoacoustic image and the second wavelength lambda 2, based on the photoacoustic wave generated by light irradiation of the first wavelength lambda 1 May be an image indicating the ratio of the second photoacoustic image based on the image.
  • the image may be based on the ratio of the images.
  • an image generated according to the modified expression of Expression (1) can also be expressed by the ratio between the first photoacoustic image and the second photoacoustic image.
  • Image (spectral image) can also be expressed by the ratio between the first photoacoustic image and the second photoacoustic image.
  • the spectral image may represent an image representing a two-dimensional spatial distribution in a depth direction from the subject surface or a three-dimensional spatial distribution.
  • FIG. 1 is a block diagram illustrating a configuration of a system according to the present embodiment.
  • the system according to the present embodiment includes a photoacoustic device 1100, a storage device 1200, an image processing device 1300, a display device 1400, and an input device 1500. Transmission and reception of data between the devices may be performed by wire or wirelessly.
  • the photoacoustic apparatus 1100 generates a photoacoustic image by capturing an image of a subject into which a contrast agent is introduced, and outputs the photoacoustic image to the storage device 1200.
  • the photoacoustic apparatus 1100 generates information of characteristic values corresponding to each of a plurality of positions in the subject using reception signal data obtained by receiving a photoacoustic wave generated by light irradiation. That is, the photoacoustic apparatus 1100 generates the spatial distribution of the characteristic value information derived from the photoacoustic wave as medical image data (photoacoustic image).
  • the storage device 1200 may be a storage medium such as a ROM (Read Only Memory), a magnetic disk, or a flash memory. Further, the storage device 1200 may be a storage server via a network such as a PACS (Picture Archiving and Communication System).
  • a storage medium such as a ROM (Read Only Memory), a magnetic disk, or a flash memory. Further, the storage device 1200 may be a storage server via a network such as a PACS (Picture Archiving and Communication System).
  • PACS Picture Archiving and Communication System
  • the image processing device 1300 processes information such as a photoacoustic image and incidental information of the photoacoustic image stored in the storage device 1200.
  • a unit having an arithmetic function of the image processing apparatus 1300 can be configured by an arithmetic circuit such as a CPU, a processor such as a GPU (Graphics Processing Unit), or an FPGA (Field Programmable Gate Array) chip. These units may be configured not only from a single processor or arithmetic circuit, but also from a plurality of processors or arithmetic circuits.
  • a unit having a storage function of the image processing apparatus 1300 can be configured by a non-temporary storage medium such as a ROM (Read Only Memory), a magnetic disk, or a flash memory.
  • the unit having the storage function may be a volatile medium such as a RAM (Random Access Memory).
  • the storage medium on which the program is stored is a non-temporary storage medium.
  • the unit having the storage function is not limited to a single storage medium, and may be configured from a plurality of storage media.
  • a unit having a control function of the image processing apparatus 1300 is configured by an arithmetic element such as a CPU.
  • a unit having a control function controls the operation of each component of the system.
  • the unit having the control function may control each component of the system in response to an instruction signal from various operations such as the start of measurement from the input unit. Further, the unit having the control function may read out the program code stored in the computer 150 and control the operation of each component of the system.
  • the display device 1400 is a liquid crystal display, an organic EL (Electro Luminescence) display, or the like.
  • the display device 1400 may display an image or a GUI for operating the device.
  • the input device 1500 is, for example, an operation console that can be operated by a user and includes a mouse, a keyboard, and the like. Further, the display device 1400 may be configured with a touch panel, and the display device 1400 may be used as the input device 1500.
  • FIG. 2 shows a specific configuration example of the image processing apparatus 1300 according to the present embodiment.
  • the image processing apparatus 1300 according to the present embodiment includes a CPU 1310, a GPU 1320, a RAM 1330, a ROM 1340, and an external storage device 1350.
  • a liquid crystal display 1410 as a display device 1400, a mouse 1510 as an input device 1500, and a keyboard 1520 are connected to the image processing device 1300.
  • the image processing apparatus 1300 is connected to an image server 1210 as a storage device 1200 such as a PACS (Picture Archiving and Communication System).
  • the image data can be stored on the image server 1210 or the image data on the image server 1210 can be displayed on the liquid crystal display 1410.
  • FIG. 3 is a schematic block diagram of devices included in the system according to the present embodiment.
  • the photoacoustic apparatus 1100 includes a drive unit 130, a signal collection unit 140, a computer 150, a probe 180, and an introduction unit 190.
  • the probe 180 has a light irradiation unit 110 and a reception unit 120.
  • FIG. 4 is a schematic diagram of the probe 180 according to the present embodiment.
  • the measurement target is the subject 100 into which the contrast agent has been introduced by the introduction unit 190.
  • the drive unit 130 drives the light irradiation unit 110 and the reception unit 120 to perform mechanical scanning.
  • the light irradiation unit 110 irradiates the subject 100 with light, and an acoustic wave is generated in the subject 100.
  • An acoustic wave generated by the photoacoustic effect due to light is also called a photoacoustic wave.
  • the receiving unit 120 outputs an electric signal (photoacoustic signal) as an analog signal by receiving the photoacoustic wave.
  • the signal collecting unit 140 converts the analog signal output from the receiving unit 120 into a digital signal, and outputs the digital signal to the computer 150.
  • the computer 150 stores the digital signal output from the signal collection unit 140 as signal data derived from a photoacoustic wave.
  • the computer 150 generates a photoacoustic image by performing signal processing on the stored digital signal.
  • the computer 150 outputs the photoacoustic image to the display unit 160 after performing image processing on the obtained photoacoustic image.
  • the display unit 160 displays an image based on the photoacoustic image.
  • the display image is stored in a memory in the computer 150 or a storage device 1200 such as a data management system connected to the modality via a network based on a storage instruction from the user or the computer 150.
  • the computer 150 also performs drive control of components included in the photoacoustic device.
  • the display unit 160 may display a GUI or the like in addition to the image generated by the computer 150.
  • the input unit 170 is configured to allow a user to input information. Using the input unit 170, the user can operate the start and end of measurement, an instruction to save a created image, and the like.
  • details of each configuration of the photoacoustic apparatus 1100 according to the present embodiment will be described.
  • the light irradiation unit 110 includes a light source 111 that emits light, and an optical system 112 that guides light emitted from the light source 111 to the subject 100.
  • the light includes pulse light such as a so-called rectangular wave and a triangular wave.
  • the pulse width of the light emitted from the light source 111 is preferably 100 ns or less in consideration of the thermal confinement condition and the stress confinement condition. Further, the wavelength of the light may be in the range of about 400 nm to 1600 nm. When imaging a blood vessel with high resolution, a wavelength (400 nm or more and 700 nm or less) at which absorption in the blood vessel is large may be used. When imaging a deep part of a living body, light having a wavelength (700 nm or more and 1100 nm or less) that typically absorbs little in a background tissue (water or fat) of the living body may be used.
  • the light source 111 is a laser, a light emitting diode, or the like.
  • a light source whose wavelength can be changed may be used.
  • a plurality of light sources are used, they are collectively expressed as a light source.
  • Various lasers such as a solid-state laser, a gas laser, a dye laser, and a semiconductor laser can be used as the laser.
  • a pulsed laser such as an Nd: YAG laser or an alexandrite laser may be used as a light source.
  • a Ti: sa laser using Nd: YAG laser light as excitation light or an OPO (Optical Parametric Oscillators) laser may be used as a light source.
  • a flash lamp or a light emitting diode may be used as the light source 111.
  • a microwave source may be used as the light source 111.
  • Optical elements such as lenses, mirrors, and optical fibers can be used for the optical system 112.
  • the light emitting unit of the optical system may be configured with a diffusion plate or the like that diffuses light in order to irradiate the pulsed light with a wider beam diameter.
  • the light emitting portion of the optical system 112 may be configured by a lens or the like, and the beam may be focused and irradiated.
  • the light irradiating unit 110 may directly irradiate the subject 100 with light from the light source 111 without including the optical system 112.
  • the receiving unit 120 includes a transducer 121 that outputs an electric signal by receiving an acoustic wave, and a support 122 that supports the transducer 121. Further, the transducer 121 may be a transmitting unit that transmits an acoustic wave.
  • the transducer as the receiving means and the transducer as the transmitting means may be a single (common) transducer or may have different configurations.
  • a piezoelectric ceramic material represented by PZT lead zirconate titanate
  • a polymer piezoelectric film material represented by PVDF polyvinylidene fluoride
  • an element other than the piezoelectric element may be used.
  • a transducer using a capacitance type micro-machined Ultrasonic Transducers (CMUT) can be used. Note that any transducer may be employed as long as an electrical signal can be output by receiving an acoustic wave. The signal obtained by the transducer is a time-resolved signal.
  • the amplitude of the signal obtained by the transducer represents a value based on the sound pressure received by the transducer at each time (for example, a value proportional to the sound pressure).
  • the frequency component constituting the photoacoustic wave is typically 100 KHz to 100 MHz, and a transducer that can detect these frequencies may be employed as the transducer 121.
  • the support 122 may be made of a metal material having high mechanical strength. In order to cause a large amount of irradiation light to enter the subject, the surface of the support 122 on the subject 100 side may be subjected to mirror finishing or light scattering.
  • the support 122 has a hemispherical shell shape, and is configured to be able to support the plurality of transducers 121 on the hemispherical shell. In this case, the directional axes of the transducers 121 disposed on the support body 122 gather near the center of curvature of the hemisphere. Then, when an image is formed using the signals output from the plurality of transducers 121, the image quality near the center of curvature becomes high.
  • the support 122 may have any configuration as long as it can support the transducer 121.
  • the support 122 may arrange a plurality of transducers in a plane or a curved surface such as a 1D array, a 1.5D array, a 1.75D array, and a 2D array.
  • the plurality of transducers 121 correspond to a plurality of receiving units.
  • the support 122 may function as a container for storing the acoustic matching material. That is, the support 122 may be a container for disposing the acoustic matching material between the transducer 121 and the subject 100.
  • the receiving unit 120 may include an amplifier that amplifies a time-series analog signal output from the transducer 121. Further, the receiving unit 120 may include an A / D converter that converts a time-series analog signal output from the transducer 121 into a time-series digital signal. That is, the receiving unit 120 may include a signal collecting unit 140 described later.
  • the space between the receiving unit 120 and the subject 100 is filled with a medium through which a photoacoustic wave can propagate.
  • This medium is a material through which an acoustic wave can propagate, acoustic characteristics are matched at the interface with the subject 100 and the transducer 121, and the transmittance of the photoacoustic wave is as high as possible.
  • the medium is water, an ultrasonic gel, or the like.
  • FIG. 4 shows a side view of the probe 180.
  • the probe 180 according to the present embodiment has a receiving unit 120 in which a plurality of transducers 121 are three-dimensionally arranged on a hemispherical support body 122 having an opening.
  • a light emitting portion of the optical system 112 is disposed at the bottom of the support 122.
  • the shape of the subject 100 is held by contacting the holding unit 200.
  • the space between the receiving unit 120 and the holding unit 200 is filled with a medium through which a photoacoustic wave can propagate.
  • This medium is a material through which a photoacoustic wave can propagate, acoustic characteristics are matched at the interface with the subject 100 and the transducer 121, and the transmissivity of the photoacoustic wave is as high as possible.
  • the medium is water, an ultrasonic gel, or the like.
  • the holding unit 200 as a holding unit holds the shape of the subject 100 during measurement. By holding the subject 100 by the holding unit 200, the movement of the subject 100 can be suppressed and the position of the subject 100 can be kept in the holding unit 200.
  • a resin material such as polycarbonate, polyethylene, or polyethylene terephthalate can be used as the material of the holding section 200.
  • the holding unit 200 is attached to the attachment unit 201.
  • the attachment unit 201 may be configured so that a plurality of types of holding units 200 can be exchanged according to the size of the subject.
  • the mounting portion 201 may be configured to be exchangeable with a different holding portion such as a radius of curvature or a center of curvature.
  • the driving unit 130 changes the relative position between the subject 100 and the receiving unit 120.
  • the driving unit 130 includes a motor such as a stepping motor that generates a driving force, a driving mechanism that transmits the driving force, and a position sensor that detects position information of the receiving unit 120.
  • the driving mechanism is a lead screw mechanism, a link mechanism, a gear mechanism, a hydraulic mechanism, or the like.
  • the position sensor is a potentiometer using an encoder, a variable resistor, a linear scale, a magnetic sensor, an infrared sensor, an ultrasonic sensor, or the like.
  • the driving unit 130 is not limited to changing the relative position between the subject 100 and the receiving unit 120 in the XY directions (two-dimensional), and may change the relative position to one-dimensional or three-dimensional.
  • the drive unit 130 may fix the receiving unit 120 and move the subject 100 as long as the relative position between the subject 100 and the receiving unit 120 can be changed.
  • the drive unit 130 may move the relative position continuously, or may move the relative position by step and repeat.
  • the drive unit 130 may be an electric stage that moves along a programmed trajectory, or may be a manual stage.
  • the driving unit 130 scans by simultaneously driving the light irradiation unit 110 and the reception unit 120.
  • the drive unit 130 drives only the light irradiation unit 110 or drives only the reception unit 120. You may.
  • the photoacoustic device 1100 may not include the driving unit 130.
  • the signal collection unit 140 includes an amplifier that amplifies an electric signal that is an analog signal output from the transducer 121, and an A / D converter that converts an analog signal output from the amplifier into a digital signal.
  • the digital signal output from the signal collection unit 140 is stored in the computer 150.
  • the signal collection unit 140 is also called a Data Acquisition System (DAS).
  • DAS Data Acquisition System
  • the electric signal is a concept including both an analog signal and a digital signal.
  • a light detection sensor such as a photodiode may detect light emission from the light irradiation unit 110, and the signal collection unit 140 may start the above process in synchronization with the detection result in response to a trigger.
  • the computer 150 as the information processing device is configured by the same hardware as the image processing device 1300. That is, the unit having the arithmetic function of the computer 150 can be configured by an arithmetic circuit such as a processor such as a CPU or a GPU (Graphics Processing Unit) or an FPGA (Field Programmable Gate Array) chip. These units may be configured not only from a single processor or arithmetic circuit, but also from a plurality of processors or arithmetic circuits.
  • the unit that performs the storage function of the computer 150 may be a volatile medium such as a RAM (Random Access Memory).
  • the storage medium on which the program is stored is a non-temporary storage medium. It should be noted that the unit having the storage function of the computer 150 may not only be constituted by one storage medium, but also constituted by a plurality of storage media.
  • the unit that performs the control function of the computer 150 is composed of an arithmetic element such as a CPU.
  • a unit having a control function of the computer 150 controls the operation of each component of the photoacoustic apparatus.
  • a unit having a control function of the computer 150 may control each component of the photoacoustic apparatus by receiving an instruction signal from the input unit 170 through various operations such as a start of measurement. Further, the unit having the control function of the computer 150 reads out the program code stored in the unit having the storage function, and controls the operation of each component of the photoacoustic apparatus. That is, the computer 150 can function as a control device of the system according to the present embodiment.
  • the computer 150 and the image processing device 1300 may be configured by the same hardware.
  • One piece of hardware may perform the functions of both the computer 150 and the image processing device 1300. That is, the computer 150 may perform the function of the image processing apparatus 1300. Further, the image processing device 1300 may have the function of the computer 150 as the information processing device.
  • the display unit 160 is a liquid crystal display, an organic EL (Electro Luminescence) display, or the like.
  • the display unit 160 may display an image or a GUI for operating the apparatus. Note that the display unit 160 and the display device 1400 may be the same display. That is, one display may perform the functions of both the display unit 160 and the display device 1400.
  • the input unit 170 is, for example, an operation console that can be operated by a user and includes a mouse, a keyboard, and the like. Further, the display unit 160 may be configured by a touch panel, and the display unit 160 may be used as the input unit 170. Note that the input unit 170 and the input device 1500 may be the same device. That is, one device may perform both functions of the input unit 170 and the input device 1500.
  • the introduction unit 190 is configured to be able to introduce a contrast agent from outside the subject 100 into the inside of the subject 100.
  • the introducer 190 can include a container for the contrast agent and a needle for piercing the subject.
  • the invention is not limited to this, and the introduction unit 190 may be of various types as long as the contrast agent can be introduced into the subject 100.
  • the introduction unit 190 may be, for example, a known injection system, an injector, or the like.
  • the contrast agent may be introduced into the subject 100 by controlling the operation of the introduction unit 190 by the computer 150 as a control device. Further, the contrast agent may be introduced into the subject 100 by operating the introduction unit 190 by the user.
  • the subject 100 does not constitute a system, but will be described below.
  • the system according to the present embodiment can be used for the purpose of diagnosing malignant tumors and vascular diseases of humans and animals, monitoring the progress of chemotherapy and the like. Therefore, the subject 100 is assumed to be a body to be diagnosed, specifically, a living body, specifically, a breast or each organ of a human body or an animal, a vascular network, a head, a neck, an abdomen, a limb including a finger or a toe. You.
  • the target of the light absorber is oxyhemoglobin or deoxyhemoglobin, a blood vessel containing many of them, or a new blood vessel formed near a tumor.
  • the target of the light absorber may be plaque on the wall of the carotid artery, melanin, collagen, lipids and the like contained in the skin and the like.
  • the contrast agent introduced into the subject 100 can be a light absorber.
  • the contrast agent used for photoacoustic imaging is a dye such as indocyanine green (ICG) or methylene blue (MB), fine gold particles, a mixture thereof, or a substance which is integrated or chemically modified and externally introduced.
  • the subject 100 may be a phantom imitating a living body.
  • Each configuration of the photoacoustic device may be configured as a separate device, or may be configured as one integrated device. Further, at least a part of the configuration of the photoacoustic apparatus may be configured as one integrated apparatus.
  • Each device constituting the system according to the present embodiment may be constituted by separate hardware, or all devices may be constituted by one piece of hardware. The function of the system according to the present embodiment may be configured by any hardware.
  • the flowchart shown in FIG. 5 includes a step indicating the operation of the system according to the present embodiment and a step indicating the operation of a user such as a doctor.
  • the computer 150 of the photoacoustic apparatus 1100 acquires information related to the inspection.
  • the computer 150 obtains examination order information transmitted from an in-hospital information system such as a Hospital Information System (HIS) or a Radiology Information System (RIS).
  • the examination order information includes information such as the type of the modality used for the examination and the contrast agent used for the examination.
  • the inspection order information includes information on light to be irradiated.
  • the main embodiment of the present invention is to acquire the subject information by irradiating the subject with at least a single wavelength of light irradiation, and to irradiate the subject with each light of a plurality of wavelengths when acquiring spectral information
  • the information on light can include the pulse length, repetition frequency, intensity, and the like of light for each wavelength.
  • a spectral image having an image value according to the equation (1) is generated, and an image corresponding to an actual oxygen saturation is obtained for a blood vessel region in the spectral image. While the value is calculated, an image value in a region where the contrast agent exists in the spectral image (hereinafter also referred to as a region of the contrast agent) greatly changes depending on a wavelength to be used and an absorption coefficient spectrum of the contrast agent. It is preferable to take this into consideration. That is, in order to facilitate understanding of the three-dimensional distribution of the contrast agent, a wavelength is used so that the image value of the region of the contrast agent in the spectral image can be distinguished from the image value of the region of the blood vessel.
  • contrast enhancement in the spectral image is performed using the fact that the oxygen saturation of the artery and vein generally falls within the range of 60% to 100% in percent display. It is preferable to use two wavelengths such that the calculated value of the formula (1) corresponding to the agent is smaller than 60% (for example, a negative value) or larger than 100%. Also, the computer 150 determines two wavelengths based on the information on the contrast agent such that the signs of the image values of the region corresponding to the contrast agent in the spectral image and the image values of the other regions are reversed. Is also good.
  • ICG when used as a contrast agent, two wavelengths of 700 nm or more and less than 820 nm and two wavelengths of 820 nm or more and 1020 nm or less are selected, and a spectral image is generated by Expression (1), thereby obtaining a region of the contrast agent. And a blood vessel region can be distinguished well.
  • the user may use the input unit 170 to instruct the type of the modality used for the inspection, information on light when the modality is photoacoustic imaging, the type of the contrast agent used for the inspection, and the concentration of the contrast agent.
  • the computer 150 can acquire the inspection information via the input unit 170.
  • the computer 150 may store information on a plurality of contrast agents in advance, and acquire information on the contrast agent set by default from the information.
  • FIG. 12 shows an example of a GUI displayed on the display unit 160.
  • examination order information such as a patient ID, an examination ID, and an imaging date and time is displayed.
  • the item 2500 may have a display function of displaying inspection order information acquired from an external device such as a HIS or RIS, or an input function of allowing a user to input inspection order information using the input unit 170.
  • the GUI item 2600 displays information on the contrast agent such as the type of the contrast agent and the concentration of the contrast agent.
  • the item 2600 may have a display function of displaying information on a contrast agent acquired from an external device such as an HIS or RIS, or an input function that allows a user to input information on a contrast agent using the input unit 170. Good.
  • information on the contrast agent such as the type and concentration of the contrast agent may be input from a plurality of options by a method such as pull-down. Note that the GUI shown in FIG. 12 may be displayed on the display device 1400.
  • the information on the contrast agent set by default may be acquired from the information on the plurality of contrast agents.
  • ICG is set as the type of the contrast agent
  • 1.0 mg / mL is set as the concentration of the contrast agent by default.
  • the type and density of the contrast agent set by default are displayed in the item 2600 of the GUI, but the information on the contrast agent may not be set by default. In this case, the information about the contrast agent may not be displayed on the GUI item 2600 on the initial screen.
  • the introduction unit 190 introduces a contrast agent into the subject.
  • the user operates the input unit 170 to send a signal indicating that the contrast agent has been introduced from the input unit 170 to the control device. It may be transmitted to the computer 150. Further, the introduction unit 190 may transmit a signal indicating that the contrast agent has been introduced into the subject 100 to the computer 150.
  • the contrast agent may be administered to the subject without using the introduction unit 190.
  • the contrast medium may be administered by aspirating the sprayed contrast medium onto a living body as a subject.
  • the subsequent processing may be executed after a certain period of time until the contrast agent reaches the contrast target in the subject 100.
  • FIGS. 13 to 15 show spectral images obtained by photographing when the ICG is introduced while changing the density.
  • 0.1 mL of ICG was introduced subcutaneously or intradermally on the hand or foot at each location.
  • the ICG introduced subcutaneously or intradermally is selectively taken up by the lymphatic vessels, so that the lumen of the lymphatic vessels is imaged.
  • the images were taken within 5 to 60 minutes after the introduction of ICG.
  • Each of the spectral images was generated from a photoacoustic image obtained by irradiating a living body with light having a wavelength of 797 nm and light having a wavelength of 835 nm.
  • FIG. 13A shows a spectral image on the right forearm extension side when ICG is not introduced.
  • FIG. 13B shows a spectral image on the right forearm extension side when ICG having a concentration of 2.5 mg / mL was introduced. Lymph vessels are depicted in the area indicated by the broken line and the arrow in FIG. 13B.
  • FIG. 14A shows a spectral image of the left forearm extension when ICG having a concentration of 1.0 mg / mL is introduced.
  • FIG. 14B shows a spectral image of the left forearm extension on introduction of ICG at a concentration of 5.0 mg / mL. Lymph vessels are depicted in the area indicated by the broken line and the arrow in FIG. 14B.
  • FIG. 15A shows a spectral image of the inside of the right lower leg when ICG having a concentration of 0.5 mg / mL is introduced.
  • FIG. 15B shows a spectral image of the inside of the left lower leg when ICG having a concentration of 5.0 mg / mL is introduced.
  • the lymphatic vessels are depicted in the area indicated by the broken line and the arrow in FIG. 15B.
  • the visibility of the lymphatic vessels in the spectral images is improved when the concentration of ICG is increased.
  • the lymph vessels can be favorably depicted when the concentration of ICG is 2.5 mg / mL or more. That is, when the concentration of ICG is 2.5 mg / mL or more, the lymph vessels on the line can be clearly recognized. Therefore, when ICG is used as a contrast agent, the concentration may be 2.5 mg / mL or more. In consideration of the dilution of ICG in a living body, the concentration of ICG may be higher than 5.0 mg / mL. However, in view of the solubility of Diagno Green, it is difficult to dissolve it in an aqueous solution at a concentration of 10.0 mg / mL or more.
  • the concentration of ICG to be introduced into a living body is preferably from 2.5 mg / mL to 10.0 mg / mL, more preferably from 5.0 mg / mL to 10.0 mg / mL.
  • the computer 150 may selectively receive an instruction from the user indicating the ICG concentration in the above numerical range. That is, in this case, the computer 150 does not have to accept an instruction from the user indicating the ICG concentration outside the above numerical range. Therefore, when acquiring information indicating that the type of the contrast agent is ICG, the computer 150 issues an instruction from a user indicating a concentration of ICG smaller than 2.5 mg / mL or larger than 10.0 mg / mL. May not be accepted.
  • the computer 150 when acquiring information indicating that the type of the contrast agent is ICG, the computer 150 receives an instruction from the user indicating a concentration of ICG smaller than 5.0 mg / mL or larger than 10.0 mg / mL. It is not necessary to accept.
  • the computer 150 may configure the GUI so that the user cannot specify the ICG concentration outside the numerical range on the GUI. That is, the computer 150 may display the GUI so that the user cannot specify the ICG concentration outside the numerical range on the GUI. For example, the computer 150 may display a pull-down on the GUI that can selectively indicate the concentration of ICG in the above numerical range. The computer 150 may display the density of the ICG outside the numerical range in the pull-down in a grayed-out manner, and may configure the GUI so that the grayed-out density cannot be selected. In addition, the computer 150 may notify an alert when a user specifies an ICG concentration outside the above numerical range on the GUI.
  • any method such as displaying an alert on the display unit 160 and lighting a sound or a lamp can be adopted.
  • the computer 150 may cause the display unit 160 to display the above numerical range as the concentration of ICG to be introduced into the subject.
  • the concentration of the contrast agent to be introduced into the subject is not limited to the numerical range shown here, and a suitable concentration according to the purpose can be adopted. Further, here, an example in which the type of the contrast agent is ICG has been described, but the above configuration can be similarly applied to other contrast agents.
  • 9A to 9D show simulation results of image values (oxygen saturation values) corresponding to the contrast agent in the spectral image in each of the two wavelength combinations.
  • 9A to 9D represent the first wavelength and the second wavelength, respectively.
  • FIG. 9 shows contour lines of image values corresponding to the contrast agent in the spectral image.
  • 9A to 9D show image values corresponding to the contrast agent in the spectral images when the concentration of ICG is 5.04 ⁇ g / mL, 50.4 ⁇ g / mL, 0.5 mg / mL, and 1.0 mg / mL, respectively. Show.
  • an image value corresponding to a contrast agent in a spectral image may be 60% to 100% depending on a combination of wavelengths to be selected. As described above, if such a combination of wavelengths is selected, it becomes difficult to distinguish a blood vessel region and a contrast agent region in a spectral image. 9A to 9D, it is preferable to select a combination of wavelengths such that the image value corresponding to the contrast agent in the spectral image is smaller than 60% or larger than 100%. . Further, it is preferable to select a combination of wavelengths such that the image value corresponding to the contrast agent in the spectral image has a negative value in the combination of wavelengths shown in FIGS. 9A to 9D.
  • FIG. 10 shows the relationship between the concentration of ICG and the image value (the value of equation (1)) corresponding to the contrast agent in the spectral image when 797 nm is selected as the first wavelength and 835 nm is selected as the second wavelength.
  • FIG. 10 shows the relationship between the concentration of ICG and the image value (the value of equation (1)) corresponding to the contrast agent in the spectral image when 797 nm is selected as the first wavelength and 835 nm is selected as the second wavelength.
  • the contrast in the spectral image is increased regardless of the concentration of 5.04 ⁇ g / mL to 1.0 mg / mL.
  • the image value corresponding to the agent is a negative value. Therefore, according to the spectral image generated by such a combination of wavelengths, since the oxygen saturation value of the blood vessel does not take a negative value in principle, the blood vessel region and the contrast agent region are clearly distinguished. be able to.
  • the wavelength is determined based on the information on the contrast agent.
  • the absorption coefficient of hemoglobin may be considered in determining the wavelength.
  • FIG. 11 shows the spectra of the molar absorption coefficient of oxyhemoglobin (dashed line) and the molar absorption coefficient of deoxyhemoglobin (solid line).
  • the magnitude relationship between the molar absorption coefficient of oxyhemoglobin and the molar absorption coefficient of deoxyhemoglobin is reversed at 797 nm. That is, at wavelengths shorter than 797 nm, veins can be easily grasped, and at wavelengths longer than 797 nm, arteries can be grasped easily.
  • lymphatic venule anastomosis for creating a bypass between a lymph vessel and a vein is performed.
  • LVA lymphatic venule anastomosis
  • photoacoustic imaging it is conceivable to use photoacoustic imaging to image both the veins and the lymph vessels in which the contrast agent has accumulated.
  • the vein can be more clearly imaged.
  • at least one of the plurality of wavelengths is set to a wavelength at which the molar absorption coefficient of deoxyhemoglobin is larger than the molar absorption coefficient of oxyhemoglobin.
  • the vein is imaged by setting the wavelength at which the molar absorption coefficient of deoxyhemoglobin is larger than the molar absorption coefficient of oxyhemoglobin at any of the two wavelengths. This is advantageous. By selecting these wavelengths, in the preoperative examination of the lymphatic venule anastomosis, it is possible to accurately image both the lymphatic vessels and the veins into which the contrast agent has been introduced.
  • any of the plurality of wavelengths is a wavelength at which the absorption coefficient of the contrast agent is larger than that of blood, the oxygen saturation accuracy of the blood decreases due to artifacts derived from the contrast agent. Therefore, in order to reduce artifacts derived from the contrast agent, at least one of the plurality of wavelengths may be a wavelength at which the absorption coefficient of the contrast agent is smaller than the absorption coefficient of blood.
  • the light irradiation unit 110 sets the wavelength determined based on the information acquired in S100 in the light source 111.
  • the light source 111 emits light having the determined wavelength.
  • Light generated from the light source 111 is applied to the subject 100 as pulse light via the optical system 112. Then, the pulse light is absorbed inside the subject 100, and a photoacoustic wave is generated by the photoacoustic effect.
  • the introduced contrast agent also absorbs the pulse light and generates a photoacoustic wave.
  • the light irradiation unit 110 may transmit a synchronization signal to the signal collection unit 140 together with the transmission of the pulse light.
  • the light irradiating unit 110 similarly irradiates each of a plurality of wavelengths with light.
  • the user may specify the control parameters such as the irradiation condition (the repetition frequency and wavelength of irradiation light) of the light irradiation unit 110 and the position of the probe 180 by using the input unit 170.
  • the computer 150 may set a control parameter determined based on a user's instruction. Further, the computer 150 may move the probe 180 to a specified position by controlling the driving unit 130 based on the specified control parameter.
  • the drive unit 130 When imaging at a plurality of positions is designated, the drive unit 130 first moves the probe 180 to the first designated position. Note that the drive unit 130 may move the probe 180 to a position programmed in advance when a measurement start instruction is issued.
  • signal collecting section 140 When receiving the synchronization signal transmitted from light irradiating section 110, signal collecting section 140 starts the signal collecting operation. That is, the signal collecting unit 140 generates an amplified digital electric signal by amplifying and AD converting the analog electric signal derived from the photoacoustic wave output from the receiving unit 120, and outputs the amplified digital electric signal to the computer 150. .
  • the computer 150 stores the signal transmitted from the signal collecting unit 140. When imaging at a plurality of scanning positions is specified, the processes of S300 and S400 are repeatedly executed at the specified scanning positions, and irradiation of pulsed light and reception signal data as digital signals derived from acoustic waves are performed. Repeat generation. Note that the computer 150 may acquire and store the position information of the receiving unit 120 at the time of light emission based on the output from the position sensor of the drive unit 130 with the light emission as a trigger.
  • each of a plurality of wavelengths of light is radiated in a time-division manner.
  • the computer 150 as a three-dimensional photoacoustic image acquisition unit generates a photoacoustic image based on the stored signal data.
  • the computer 150 outputs the generated photoacoustic image to the storage device 1200 and stores it.
  • Reconstruction algorithms for converting signal data into a two-dimensional or three-dimensional spatial distribution include analytic reconstruction methods such as backprojection in the time domain and backprojection in the Fourier domain, and model-based methods (repetitive computations). Law) can be adopted.
  • the backprojection method in the time domain includes Universal @ back-projection (UBP), Filtered @ back-projection (FBP), or delay-and-sum (Delay-and-Sum).
  • the computer 150 generates initial sound pressure distribution information (sound pressures generated at a plurality of positions) as a photoacoustic image by performing a reconstruction process on the signal data. Further, the computer 150 calculates the optical fluence distribution of the light radiated on the subject 100 inside the subject 100, and divides the initial sound pressure distribution by the light fluence distribution to obtain the absorption coefficient distribution information by photoacoustic. It may be obtained as an image. A known method can be applied to the calculation method of the light fluence distribution. In addition, the computer 150 can generate a photoacoustic image corresponding to each of the light of a plurality of wavelengths.
  • the computer 150 can generate a first photoacoustic image corresponding to the first wavelength by performing a reconstruction process on signal data obtained by irradiating light of the first wavelength. Further, the computer 150 can generate a second photoacoustic image corresponding to the second wavelength by performing a reconstruction process on the signal data obtained by irradiating the second wavelength light. As described above, the computer 150 can generate a plurality of photoacoustic images corresponding to lights of a plurality of wavelengths.
  • one three-dimensional photoacoustic image (volume data) is generated by image reconstruction using a photoacoustic signal obtained by a single light irradiation on the subject. Further, by performing light irradiation a plurality of times and performing image reconstruction for each light irradiation, time-series three-dimensional image data (time-series volume data) is obtained.
  • the three-dimensional image data obtained by reconstructing the image for each of the plurality of light irradiations is collectively referred to as three-dimensional image data corresponding to the plurality of light irradiations. Note that, since light irradiation is performed a plurality of times in a time series, three-dimensional image data corresponding to the light irradiations a plurality of times constitutes time-series three-dimensional image data.
  • the computer 150 acquires absorption coefficient distribution information corresponding to each of light of a plurality of wavelengths as a photoacoustic image.
  • the absorption coefficient distribution information corresponding to the first wavelength is defined as a first photoacoustic image
  • the absorption coefficient distribution information corresponding to the second wavelength is defined as a second photoacoustic image.
  • the present invention is also applicable to a system that does not include the photoacoustic apparatus 1100.
  • the present invention can be applied to any system as long as the image processing apparatus 1300 as a three-dimensional photoacoustic image acquisition unit can acquire a photoacoustic image.
  • the present invention can be applied to a system that does not include the photoacoustic device 1100 but includes the storage device 1200 and the image processing device 1300.
  • the image processing apparatus 1300 as a three-dimensional photoacoustic image acquisition unit acquires a photoacoustic image by reading a designated photoacoustic image from a group of photoacoustic images stored in the storage device 1200 in advance. be able to.
  • the computer 150 as a three-dimensional spectral image acquisition unit generates a spectral image based on a plurality of photoacoustic images corresponding to a plurality of wavelengths.
  • the computer 150 outputs the spectral image to the storage device 1200 and causes the storage device 1200 to store the spectral image.
  • the computer 150 may generate a spectral image indicating information corresponding to the concentration of a substance constituting the subject, such as glucose concentration, collagen concentration, melanin concentration, and volume fraction of fat and water.
  • the computer 150 may generate the spectral image representing the ratio between the first photoacoustic image corresponding to the first wavelength and the second photoacoustic image corresponding to the second wavelength.
  • the computer 150 may generate a spectral image having image values according to Expression (1) using the first photoacoustic image and the second photoacoustic image.
  • the computer 150 in this step may be considered as a three-dimensional spectral image acquisition unit.
  • the computer 150 may be considered as a three-dimensional photoacoustic image acquisition unit.
  • the image processing apparatus 1300 as the three-dimensional spectral image acquisition unit may acquire a spectral image by reading a designated spectral image from a spectral image group stored in the storage device 1200 in advance. Further, the image processing apparatus 1300 as a three-dimensional photoacoustic image acquisition unit includes at least one of a plurality of photoacoustic images used for generating a read-out spectral image from a group of photoacoustic images stored in the storage device 1200 in advance. A photoacoustic image may be obtained by reading one.
  • Photoacoustic image data and spectral image data can be used as the three-dimensional image data.
  • the photoacoustic image data refers to image data indicating a distribution of an absorption coefficient or the like
  • the spectral image data is converted to photoacoustic image data corresponding to each wavelength when light of a plurality of wavelengths is irradiated on the subject. Indicates image data indicating the density or the like generated based on the image data.
  • the image processing device 1300 reads a photoacoustic image or a spectral image from the storage device 1200, and acquires information on lymph vessels and blood vessels based on the photoacoustic image or the spectral image.
  • the information to be acquired includes information indicating the positions of lymph vessels and blood vessels in the volume data. Note that, as described above, the processing in this step can be performed based on a photoacoustic image derived from at least one wavelength, and a spectral image created from a photoacoustic image derived from each of a plurality of wavelengths is used. You can also.
  • the image processing apparatus 1300 functions as a three-dimensional blood vessel image acquiring unit and a three-dimensional lymph image acquiring unit, and performs information processing.
  • the three-dimensional lymph image acquiring means performs image processing on a three-dimensional photoacoustic image derived from a single wavelength to extract a lymph region and acquire a three-dimensional lymph image.
  • the image processing device 1300 reads the three-dimensional photoacoustic image stored in the storage device 1200.
  • the time range to be read is arbitrary. However, in general, the flow of lymph fluid is intermittent, and the cycle is several tens of seconds to several minutes. Therefore, it is preferable to read a three-dimensional photoacoustic image corresponding to a photoacoustic wave acquired in a relatively long time range.
  • the time range may be set, for example, from 40 seconds to 2 minutes.
  • FIG. 6A is a schematic diagram illustrating one three-dimensional photoacoustic image. Although the actual volume data includes image values derived from substances other than blood vessels and lymph vessels, this figure simply shows that only the blood vessels and lymph vessels are displayed in the volume data.
  • the image processing apparatus 1300 extracts a region where the lymphatic vessels are present from each of the read time-series three-dimensional photoacoustic images.
  • the image processing apparatus 1300 determines the change in the luminance value between the time-series three-dimensional photoacoustic images. There is a method of detecting and judging a portion where the change in the luminance value is large as a lymph region.
  • the time range and the criterion for determining whether or not the region is a lymph region are merely examples, and are appropriately determined according to the condition of the lymphatic vessels in the subject and the conditions regarding the contrast agent and light irradiation. For example, when the predetermined time range is set to 1 minute, when a region having a value that is more than half the luminance value of a typical blood vessel is observed for 5 seconds out of 1 minute, the region is changed to a lymph region. You may decide.
  • FIG. 6B is a schematic diagram illustrating a three-dimensional lymph image acquired from one three-dimensional photoacoustic image.
  • the image processing apparatus 1300 uses a value of oxygen saturation (expression)
  • the lymph region may be extracted by distinguishing the region corresponding to blood from the region corresponding to the contrast agent based on the (calculated value of (1)).
  • the calculated value of Expression (1) can be set to an exclusive range between the region corresponding to the contrast agent and the region corresponding to blood.
  • the image processing apparatus 1300 extracts a region where a blood vessel exists from each of the read time-series three-dimensional photoacoustic images. For example, when a vein is selected as a target blood vessel, extraction may be performed based on a three-dimensional photoacoustic image derived from a photoacoustic wave generated by irradiation with pulsed light in a region where the absorption coefficient of deoxyhemoglobin is relatively high.
  • FIG. 6C is a schematic diagram illustrating a three-dimensional blood vessel image acquired from one three-dimensional photoacoustic image.
  • the image processing apparatus 1300 determines a region corresponding to blood based on the value of oxygen saturation.
  • the blood vessel region may be extracted by distinguishing the region corresponding to the contrast agent from the region. Further, the vein and the artery may be determined based on the value of the oxygen saturation.
  • time-series three-dimensional blood vessel image data and time-series three-dimensional lymph image data separated from the time-series three-dimensional photoacoustic image data are acquired and stored in the storage device.
  • the method of storing these data is arbitrary.
  • each of the three-dimensional blood vessel image data and the three-dimensional lymph image data may be stored as different time-series three-dimensional image data.
  • a flag indicating whether the coordinate is a blood vessel region, a lymphatic region, or neither of the coordinates in the volume data May be stored in association with each other.
  • the information may be stored in association with information on the wavelength of light emitted to the subject. In any case, the storage method does not matter as long as a two-dimensional image reflecting the depth information can be generated in the subsequent processing of this flow.
  • the image processing apparatus 1300 acquires information about the two-dimensional lymph region and information about the blood vessel region from the information about the three-dimensional lymph region and the information about the blood vessel region acquired in S700.
  • the image processing apparatus 1300 functions as a two-dimensional blood vessel image acquiring unit and a two-dimensional lymph image acquiring unit, and performs information processing.
  • the image processing apparatus 1300 as a two-dimensional blood vessel image acquiring unit performs processing based on three-dimensional blood vessel image data derived from certain volume data and two-dimensional blood vessel image data and blood vessel depth information associated therewith. To get.
  • the image processing apparatus 1300 as a two-dimensional lymph image acquiring unit acquires two-dimensional lymph image data and lymph depth information associated therewith based on three-dimensional lymph image data derived from certain volume data.
  • the depth information can also be said to be three-dimensional position information of a specific area in the volume data.
  • the blood vessel depth information indicates three-dimensional position information of the blood vessel region
  • the lymph depth information indicates three-dimensional position information of the lymph region.
  • the image processing apparatus 1300 obtains MIP (Maximum Intensity Projection) image data by projecting the maximum value of the three-dimensional volume data in an arbitrary viewpoint direction.
  • the projection direction of the maximum value is arbitrary.
  • the direction may be from the surface of the subject to the back of the subject.
  • the depth direction is a direction in which the depth increases from the surface of the subject toward the inside of the subject.
  • the projection direction may be a direction corresponding to a coordinate axis determined by the configuration of the photoacoustic apparatus.
  • the depth direction may be any of the XYZ directions.
  • a normal direction to the surface of the subject when a position where light enters the subject may be used as a starting point.
  • FIG. 7A shows a two-dimensional lymph image calculated by projecting the maximum value of the three-dimensional blood vessel image in the Y direction and lymph depth information associated therewith.
  • the lymph depth information includes information indicating the depth at each position where the lymph region exists in the MIP image.
  • the lymph depth information includes information indicating the depth at each position where the lymph region exists in the MIP image.
  • the schematic diagram of FIG. 7B is a schematic diagram showing a two-dimensional blood vessel image calculated by projecting a maximum value of a three-dimensional blood vessel image in the Y direction and blood vessel depth information associated therewith.
  • the lymph depth information indicates a matrix in which the coordinates in the XZ plane of the two-dimensional lymph image are associated with the coordinate information indicating the depth position in the Y direction at the coordinates.
  • information such as luminance, hue, lightness, and saturation associated with the coordinate information may be used.
  • 7B is the same as FIG. 7A.
  • the method applied when calculating two-dimensional image data from three-dimensional image data is not limited to the maximum intensity projection method. Any method may be used as long as positional information on the presence of the lymph region or the blood vessel region on the two-dimensional plane and depth information of the lymph region or the blood vessel region in the viewpoint direction can be obtained.
  • any method such as volume rendering and surface rendering can be adopted.
  • setting conditions such as a display area and a line-of-sight direction when rendering a three-dimensional image in two dimensions can be arbitrarily specified according to an observation target and a device configuration.
  • the image processing apparatus 1300 as the storage control unit stores the two-dimensional blood vessel image data calculated in S800 and the blood vessel depth information in the storage device 1200 in association with each other. Further, the two-dimensional lymph image data and the lymph depth information are stored in the storage device 1200 in association with each other.
  • the method of storage is arbitrary. For example, an array in which a flag indicating whether a pixel is a blood vessel and the depth for each pixel of the two-dimensional blood vessel image data may be used. The same applies to two-dimensional lymph image data.
  • the storage method of this step is particularly effective in reducing the amount of data that increases when generating time-series volume data.
  • the image processing device 1300 as the display control means causes the display device 1400 to display the two-dimensional lymph image data in a format in which the lymph depth information is indicated. Further, the image processing device 1300 as the display control means causes the display device 1400 to display the two-dimensional blood vessel image data in a format in which the blood vessel depth information is indicated. Further, the image processing apparatus 1300 as a display control unit converts a two-dimensional lymph image showing lymph depth information and a two-dimensional blood vessel image showing blood vessel depth information into a two-dimensional blood vessel image showing the correspondence between lymph and blood vessels. It may be displayed in a format that is easy to understand. For example, a blood vessel image and a lymph image can be displayed side by side or superimposed. In particular, it is preferable that the user can easily understand whether or not the lymph and the blood vessel are close to each other.
  • FIG. 8A shows a two-dimensional lymph image that has been subjected to brightness processing based on lymph depth information.
  • FIG. 8B shows a two-dimensional blood vessel image on which lightness processing based on blood vessel depth information has been performed.
  • the image processing method when the image processing apparatus 1300 indicates the depth information on the two-dimensional image is not limited to the brightness display.
  • image processing may be performed to correct at least one of the brightness, saturation, and hue of the blood vessel image and the lymph image so that the depth information can be understood by the user.
  • a process of assigning at least one of lightness, saturation, and hue to the depth information associated with each of the blood vessel image and the lymph image may be performed.
  • the image processing apparatus 1300 may change the color in the image according to the depth.
  • the user may want to know the positional relationship between the lymph vessels and the blood vessels in the depth direction.
  • the image processing apparatus 1300 displays a two-dimensional lymph image with lymph depth information as shown in FIG. 8A and a two-dimensional blood vessel image with blood vessel depth information as shown in FIG. 8B on a display device in a format that is easy for the user to compare. I do. For example, both may be displayed in parallel. Further, both may be switched by a button or a physical switch on the GUI.
  • both may be superimposed and displayed as shown in FIG. 8C.
  • the image processing apparatus 1300 may detect a pair of lymph vessels and blood vessels located in the vicinity by information processing such as image analysis and present the pair to the user using a marker, an arrow, or the like.
  • 8C is switched between the single display or the parallel display of FIGS. 8A and 8B and FIG. 8C by a button or a physical switch on the GUI, and FIG. 8C is further displayed in addition to the single display or the parallel display of FIGS. It may be possible to make a switch so as to perform the switching.
  • the two-dimensional image data and the depth information are stored in association with each other in S900.
  • the image processing device 1300 may generate volume data using this data and display a simple three-dimensional image on a display device. Specifically, the image processing device 1300 assigns the image values in the two-dimensional image data to the three-dimensional space using the depth information associated with the two-dimensional image data. This makes it possible to present a three-dimensional image to a user even when using two-dimensional image data having a relatively small data amount.
  • the method of extracting a blood vessel region and a lymph region from three-dimensional image data, forming a two-dimensional image, and storing and displaying the two-dimensional image has been described.
  • the specific substance and the contrast agent extracted from the three-dimensional image data are not limited to these two. If the image is drawn by photoacoustic imaging, the image may be subjected to the above-described two-dimensional imaging, storage, and display processing.
  • the specific substance can be selected from, for example, hemoglobin, myoglobin, glucose, collagen, melanin, fat and water. Further, among the hemoglobins, finely divided ones, such as oxyhemoglobin and reduced hemoglobin, may be used as the specific substance.
  • the type of the contrast agent is not limited to ICG.
  • the image processing apparatus determines the first area corresponding to the first substance from the three-dimensional image data.
  • First three-dimensional image acquisition means for acquiring the extracted first three-dimensional image data, and acquiring second three-dimensional image data in which a second region corresponding to a second substance is extracted from the three-dimensional image data
  • a second two-dimensional image acquisition unit a first two-dimensional image acquisition unit that acquires, from the first three-dimensional image data, first two-dimensional image data in which three-dimensional position information of the first region is associated with the first three-dimensional image data
  • a second two-dimensional image acquiring unit that acquires, from the second three-dimensional image data, second two-dimensional image data in which three-dimensional position information of the second region is associated with the first two-dimensional image
  • Data and the second two-dimensional image data Storage control means for storing the unit, functions as.
  • the storage control unit may store the first two-dimensional image data and the second two-dimensional image data in the storage unit in association with each other.
  • three or more regions may be respectively extracted from three-dimensional image data. That is, in addition to the first substance and the second substance, a region relating to the third substance or more substances may be extracted.
  • a region relating to the third substance or more substances may be extracted.
  • the artery and the vein can be separated and extracted. Therefore, for each of the arteries, veins, and lymph vessels extracted from the three-dimensional image data, three-dimensional position information is acquired as described above, and two-dimensional image data associated with the three-dimensional position information is acquired and stored. May be.
  • spectral images derived from light irradiation of two wavelengths were used. However, depending on the types of specific substances, more than two types of wavelengths were used.
  • the image processing apparatus also functions as a third three-dimensional image acquisition unit and a third two-dimensional image acquisition unit when extracting a third substance or more substances.
  • the image processing device also functions as a storage control unit that stores the third two-dimensional image in the storage unit in association with the first two-dimensional image data and the second two-dimensional image data.
  • the image processing device 1300 as the display control means displayed a two-dimensional blood vessel image with blood vessel depth information and a two-dimensional lymph image with lymphatic depth information on the display device.
  • the image processing device according to the present embodiment may display a photoacoustic image or a spectral image in addition to such display with depth information or separately from display with depth information.
  • a spectral image may be displayed on a display device so that a region corresponding to a contrast agent and a region other than the contrast agent can be identified. An example of such display will be described.
  • the image processing apparatus 1300 causes the GUI to display a color bar 2400 as a color scale indicating the relationship between the image value of the spectral image and the display color.
  • the image processing apparatus 1300 determines a numerical range of image values to be assigned to the color scale based on information on the contrast agent (for example, information indicating that the type of the contrast agent is ICG) and information indicating the wavelength of irradiation light. You may decide.
  • the image processing apparatus 1300 may determine a numerical range including a negative image value corresponding to the arterial oxygen saturation, the venous oxygen saturation, and the contrast agent.
  • the image processing apparatus 1300 may determine a numerical range of -100% to 100% and set a color bar 2400 in which -100% to 100% is assigned to a color gradation that changes from blue to red. With such a display method, in addition to the identification of the artery and vein, it is also possible to identify the area corresponding to the negative contrast agent. In addition, the image processing apparatus 1300 may cause the indicator 2410 indicating the numerical value range of the image value corresponding to the contrast agent to be displayed based on the information regarding the contrast agent and the information indicating the wavelength of the irradiation light.
  • a negative value area is indicated by an indicator 2410 as a numerical value range of an image value corresponding to ICG.
  • the image processing apparatus 1300 as the region determining means may determine a region corresponding to the contrast agent in the spectral image based on the information on the contrast agent and the information indicating the wavelength of the irradiation light. For example, the image processing apparatus 1300 may determine a region having a negative image value in the spectral image as a region corresponding to the contrast agent. Then, the image processing device 1300 may display the spectral image on the display device 1400 so that the region corresponding to the contrast agent and the other region can be identified.
  • the image processing apparatus 1300 displays an indicator (for example, a frame) indicating a region corresponding to the contrast agent, causing the display color of the region corresponding to the contrast agent to be different from that of the other region, blinking the region corresponding to the contrast agent, and the like.
  • An identification display such as display may be employed.
  • the display mode may be switched to a display mode for selectively displaying an image value corresponding to the ICG.
  • the image processing apparatus 1300 selects a voxel having a negative image value from the spectral image and selectively renders the selected voxel,
  • the ICG area may be selectively displayed.
  • the user may select an item 2710 corresponding to an artery display or an item 2720 corresponding to a vein display.
  • the image processing apparatus 1300 Based on a user's instruction, the image processing apparatus 1300 selectively selects an image value corresponding to an artery (for example, 90% or more and 100% or less) or an image value corresponding to a vein (for example, 60% or more and less than 90%).
  • the display mode may be switched to the display mode.
  • the numerical value range of the image value corresponding to the artery or the image value corresponding to the vein may be changeable based on a user's instruction.
  • hue, lightness, and saturation is assigned to the image value of the spectral image
  • an image in which the remaining parameters of hue, lightness, and saturation are assigned to the image value of the photoacoustic image is displayed as a spectral image.
  • an image in which hue and saturation are assigned to image values of a spectral image and brightness is assigned to image values of a photoacoustic image may be displayed as a spectral image.
  • the conversion table from the image value of the photoacoustic image to the brightness may be changed according to the image value of the spectral image. For example, when the image value of the spectral image is included in the numerical value range of the image value corresponding to the contrast agent, the brightness corresponding to the image value of the photoacoustic image may be smaller than that corresponding to the blood vessel.
  • the conversion table is a table indicating the brightness corresponding to each of the plurality of image values.
  • the image value of the spectral image is included in the numerical value range of the image value corresponding to the contrast agent, the brightness corresponding to the image value of the photoacoustic image may be larger than that corresponding to the blood vessel. That is, when the contrast agent region is compared with the blood vessel region, if the image value of the photoacoustic image is the same, the brightness of the contrast agent region may be greater than that of the blood vessel region.
  • the numerical value range of the image value of the photoacoustic image that does not convert the image value of the photoacoustic image into the brightness may differ depending on the image value of the spectral image.
  • the conversion table may be changed to a table suitable for the type and concentration of the contrast agent and the wavelength of the irradiation light. Therefore, the image processing apparatus 1300 may determine the conversion table from the image value of the photoacoustic image to the brightness based on the information regarding the contrast agent and the information indicating the wavelength of the irradiation light. If it is estimated that the image value of the photoacoustic image corresponding to the contrast agent is larger than that corresponding to the blood vessel, the image processing apparatus 1300 sets the brightness corresponding to the image value of the photoacoustic image corresponding to the contrast agent to the blood vessel. It may be smaller than the corresponding one.
  • the image processing apparatus 1300 may determine the brightness corresponding to the image value of the photoacoustic image corresponding to the contrast agent. May be larger than that corresponding to a blood vessel.
  • the GUI shown in FIG. 12 includes an absorption coefficient image (first photoacoustic image) 2100 corresponding to a wavelength of 797 nm, an absorption coefficient image (second photoacoustic image) 2200 corresponding to a wavelength of 835 nm, and an oxygen saturation image (spectral image) 2300. Is displayed.
  • the GUI may display which wavelength is generated by each image. In the present embodiment, both the photoacoustic image and the spectral image are displayed, but only the spectral image may be displayed.
  • the image processing device 1300 may switch between displaying a photoacoustic image and displaying a spectral image based on a user's instruction.
  • the display unit 160 may be capable of displaying a moving image.
  • the image processing apparatus 1300 generates at least one of the first photoacoustic image 2100, the second photoacoustic image 2200, and the spectral image 2300 in time series, and generates moving image data based on the generated time-series image. It may be configured to generate and output to the display unit 160.
  • the moving image display it is possible to repeatedly display a state in which lymph flows.
  • the speed of the moving image may be a predetermined speed specified in advance or a predetermined speed specified by the user.
  • the frame rate of the moving image be variable in the display unit 160 that can display the moving image.
  • a window for the user to manually input the frame rate, a slide bar for changing the frame rate, and the like may be added to the GUI in FIG.
  • the lymph fluid flows intermittently in the lymphatic vessels, only part of the acquired time-series volume data that can be used to confirm the lymph flow is used. Therefore, if real-time display is performed when checking the flow of lymph, efficiency may decrease. Therefore, by making the frame rate of the moving image displayed on the display unit 160 variable, the fast-moving display of the displayed moving image becomes possible, so that the user can confirm the state of the fluid in the lymphatic vessel in a short time. Become.
  • the display unit 160 may be capable of repeatedly displaying a moving image within a predetermined time range. At this time, it is also preferable to add a GUI such as a window or a slide bar for enabling the user to specify the range in which the repeated display is performed, to FIG. This makes it easier for the user to grasp, for example, how the fluid flows in the lymphatic vessels.
  • a GUI such as a window or a slide bar
  • At least one of the image processing apparatus 1300 and the computer 150 as the information processing apparatus includes a spectral image acquisition unit, a contrast agent information acquisition unit, an area determination unit, a photoacoustic image acquisition unit, and a display control unit. It functions as a device having at least one.
  • each means may be comprised by mutually different hardware, and may be comprised by one hardware.
  • a plurality of units may be configured by one piece of hardware.
  • the blood vessel and the contrast agent can be identified.
  • the image value corresponding to the contrast agent is a blood vessel and the contrast agent.
  • the image processing described in this step can be applied to a case where the image value of the spectral image (oxygen saturation image) corresponding to the contrast agent becomes smaller than 60% or larger than 100%.
  • the present invention is also realized by executing the following processing.
  • software that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program and reads the program. This is the process to be performed.

Abstract

本発明は、被検体への光照射により被検体内から発生した光音響波に基づいて生成された3次元画像データを処理する画像処理装置であって、3次元画像データから被検体内の第1物質に対応する第1領域を抽出した第1の3次元画像データを取得する第1の3次元画像取得手段と、3次元画像データから被検体内の第2物質に対応する第2領域を抽出した第2の3次元画像データを取得する第2の3次元画像取得手段と、第1の3次元画像データから、第1領域の3次元位置情報を関連付けた第1の2次元画像データを取得する第1の2次元画像取得手段と、第2の3次元画像データから、第2領域の3次元位置情報を関連付けた第2の2次元画像データを取得する第2の2次元画像取得手段と、を有することを特徴とする画像処理装置を提供する。

Description

画像処理装置、画像処理方法、プログラム
 本発明は、光音響イメージングにより画像を生成するシステムに用いられる情報処理に関する。
 血管やリンパ管等の検査において、造影剤を利用した光音響イメージング(「光超音波イメージング」ともよぶ。)が知られている。特許文献1には、リンパ節やリンパ管などの造影のために用いられる造影剤を評価対象とし、その造影剤が吸収して光音響波を発生する波長の光を出射する光音響画像生成装置が記載されている。
国際公開第2017/002337号
 しかしながら、光音響イメージングでは、一般にデータ量が大きいという問題がある。
 そこで本発明は、光音響イメージングにおけるデータ量を従来よりも低減可能な技術を提供することを目的とする。
 本発明の一つの側面は、
 被検体への光照射により前記被検体内から発生した光音響波の受信信号データに基づいて生成された3次元画像データを処理する画像処理装置であって、
 前記3次元画像データから第1物質に対応する第1領域を抽出した第1の3次元画像データを取得する、第1の3次元画像取得手段と、
 前記3次元画像データから第2物質に対応する第2領域を抽出した第2の3次元画像データを取得する第2の3次元画像取得手段と、
 前記第1の3次元画像データから、前記第1領域の3次元位置情報を関連付けた第1の2次元画像データを取得する第1の2次元画像取得手段と、
 前記第2の3次元画像データから、前記第2領域の3次元位置情報を関連付けた第2の2次元画像データを取得する第2の2次元画像取得手段と、
を有することを特徴とする画像処理装置である。
 本発明の別の一つの側面は、
 被検体への光照射により前記被検体内から発生した光音響波の受信信号データに基づいて生成された3次元画像データを処理する画像処理方法であって、
 前記3次元画像データから第1物質に対応する第1領域を抽出した第1の3次元画像データを取得する、第1の3次元画像取得ステップと、
 前記3次元画像データから第2物質に対応する第2領域を抽出した第2の3次元画像データを取得する第2の3次元画像取得ステップと、
 前記第1の3次元画像データから、前記第1領域の3次元位置情報を関連付けた第1の2次元画像データを取得する第1の2次元画像取得ステップと、
 前記第2の3次元画像データから、前記第2領域の3次元位置情報を関連付けた第2の2次元画像データを取得する第2の2次元画像取得ステップと、
を有することを特徴とする画像処理方法である。
 本発明によれば、光音響イメージングにおけるデータ量を従来よりも低減可能な技術を提供することができる。
図1は、本発明の一実施形態に係るシステムのブロック図である。 図2は、本発明の一実施形態に係る画像処理装置とその周辺構成の具体例を示すブロック図である。 図3は、本発明の一実施形態に係る光音響装置の詳細なブロック図である。 図4は、本発明の一実施形態に係るプローブの模式図である。 図5は、本発明の一実施形態に係る画像処理方法のフロー図である。 図6A~図6Cは、3次元リンパ画像および3次元血管画像を取得する際の模式図である。 図7A、図7Bは、2次元リンパ画像および2次元血管画像と深さ情報を取得する際の模式図である。 図8A~図8Cは、深さ情報を反映した2次元画像の表示を示す模式図である。 図9A~図9Dは、波長の組み合わせを変化させたときの、造影剤に対応する式(1)の計算値の等高線グラフである。 図10は、ICGの濃度を変化させたときの、造影剤に対応する式(1)の計算値を示す折れ線グラフである。 図11は、オキシヘモグロビンとデオキシヘモグロビンのモラー吸収係数スペクトルを示すグラフである。 図12は、本発明の一実施形態に係るGUIを示す図である。 図13A、図13Bは、ICGの濃度を変化させたときの右前腕伸側の分光画像である。 図14A、図14Bは、ICGの濃度を変化させたときの左前腕伸側の分光画像である。 図15A、図15Bは、ICGの濃度を変化させたときの右下腿内側および左下腿内側の分光画像である。
 以下に図面を参照しつつ、本発明の好適な実施の形態について説明する。ただし、以下に記載されている構成部品の寸法、材質、形状およびそれらの相対配置などは、発明が適用される装置の構成や各種条件により適宜変更されるべきものである。よって、この発明の範囲を以下の記載に限定する趣旨のものではない。
 本発明に係るシステムにより得られる光音響画像は、光エネルギーの吸収量や吸収率を反映している。光音響画像は、光音響波の発生音圧(初期音圧)、光吸収エネルギー密度、及び光吸収係数などの少なくとも1つの被検体情報の空間分布を表す。光音響画像は、2次元の空間分布を表す画像であってもよいし、3次元の空間分布を表す画像(ボリュームデータ)であってもよい。本実施形態に係るシステムは、造影剤が導入された被検体を撮影することにより光音響画像を生成する。なお、造影対象の三次元分布を把握するために、光音響画像は、被検体表面から深さ方向の2次元の空間分布を表す画像または3次元の空間分布を表してもよい。
 また、本発明に係るシステムは、複数の波長に対応する複数の光音響画像を用いて被検体の分光画像を生成することができる。本発明の分光画像は、被検体に互いに異なる複数の波長の光を照射することにより発生した光音響波に基づいた、複数の波長のそれぞれに対応する光音響信号を用いて生成される。
 なお、分光画像は、複数の波長のそれぞれに対応する光音響信号を用いて生成された、被検体中の特定物質の濃度を示してもよい。使用される造影剤の光吸収係数スペクトルと、特定物質の光吸収係数スペクトルとが異なる場合、分光画像中の造影剤の画像値と分光画像中の特定物質の画像値とは異なる。よって、分光画像の画像値に応じて造影剤の領域と特定物質の領域とを区別することができる。なお、特定物質は、ヘモグロビン、グルコース、コラーゲン、メラニン、脂肪や水など、被検体を構成する物質である。この場合にも、特定物質の光吸収係数スペクトルとは異なる光吸収スペクトルを有する造影剤を選択する。また、特定物質の種類に応じて、異なる算出方法で分光画像を算出してもよい。
 以下に述べる実施形態では、酸素飽和度の計算式(1)を用いて算出された画像値を持つ分光画像について説明する。本発明者らは、複数の波長のそれぞれに対応する光音響信号に基づいて血中ヘモグロビンの酸素飽和度(酸素飽和度に相関をもつ指標でもよい)を計算する式(1)に対し、光吸収係数の波長依存性がオキシヘモグロビンおよびデオキシヘモグロビンとは異なる傾向を示す造影剤で得られた光音響信号の計測値I(r)を代入した場合に、ヘモグロビンの酸素飽和度が取り得る数値範囲から大きくずれた計算値Is(r)が得られる、ということを見出した。それゆえ、この計算値Is(r)を画像値としてもつ分光画像を生成すれば、被検体内部におけるヘモグロビンの領域(血管領域)と造影剤の存在領域(例えばリンパ管に造影剤が導入された場合であればリンパ管の領域)とを画像上で分離(区別)することが容易となる。
Figure JPOXMLDOC01-appb-M000001
 ここで、Iλ (r)は第1波長λの光照射により発生した光音響波に基づいた計測値であり、Iλ (r)は第2波長λの光照射により発生した光音響波に基づいた計測値である。εHb λ は第1波長λに対応するデオキシヘモグロビンのモラー吸収係数[mm-1mol-1]であり、εHb λ は第2波長λに対応するデオキシヘモグロビンのモラー吸収係数[mm-1mol-1]である。εHbO λ は第1波長λに対応するオキシヘモグロビンのモラー吸収係数[mm-1mol-1]であり、εHbO λ は第2波長λに対応するオキシヘモグロビンのモラー吸収係数[mm-1mol-1]である。rは位置である。なお、計測値Iλ (r)、Iλ (r)は、吸収係数μ λ (r)、μ λ (r)であってもよいし、初期音圧P λ (r)、P λ (r)であってもよい。
 ヘモグロビンの存在領域(血管領域)から発生した光音響波に基づいた計測値を式(1)に代入すると、計算値Is(r)として、ヘモグロビンの酸素飽和度(または酸素飽和度に相関をもつ指標)が得られる。一方、造影剤を導入した被検体において、造影剤の存在領域(例えばリンパ管領域)から発生した音響波に基づいた計測値を式(1)に代入すると、計算値Is(r)として、擬似的な造影剤の濃度分布が得られる。なお、造影剤の濃度分布を計算する場合でも、式(1)ではヘモグロビンのモラー吸収係数の数値をそのまま用いればよい。このようにして得られた画像値Is(r)を持つ分光画像では、被検体内部のヘモグロビンの存在領域(血管)と造影剤の存在領域(例えばリンパ管)の両方が互いに分離可能(区別可能)な状態で描出される。
 なお、本実施形態では、酸素飽和度を計算する式(1)を用いて分光画像の画像値を計算するが、酸素飽和度以外の指標を分光画像の画像値として計算する場合には、式(1)以外の算出方法を用いればよい。指標およびその算出方法としては、公知のものを利用可能であるため、詳しい説明を割愛する。
 また、本発明に係るシステムにおいて、分光画像は、第1波長λの光照射により発生した光音響波に基づいた第1光音響画像および第2波長λの光照射により発生した光音響波に基づいた第2光音響画像の比を示す画像であってもよい。すなわち、分光画像は、第1波長λの光照射により発生した光音響波に基づいた第1光音響画像および第2波長λの光照射により発生した光音響波に基づいた第2光音響画像の比に基づいた画像であってもよい。なお、式(1)の変形式にしたがって生成される画像も、第1光音響画像および第2光音響画像の比によって表現できるため、第1光音響画像および第2光音響画像の比に基づいた画像(分光画像)といえる。
 なお、造影対象の三次元分布を把握するために、分光画像は、被検体表面から深さ方向の2次元の空間分布を表す画像または3次元の空間分布を表してもよい。
 以下、本実施形態のシステムの構成及び画像処理方法について説明する。
 図1を用いて本実施形態に係るシステムを説明する。図1は、本実施形態に係るシステムの構成を示すブロック図である。本実施形態に係るシステムは、光音響装置1100、記憶装置1200、画像処理装置1300、表示装置1400、及び入力装置1500を備える。装置間のデータの送受信は有線で行われてもよいし、無線で行われてもよい。
 光音響装置1100は、造影剤が導入された被検体を撮影することにより光音響画像を生成し、記憶装置1200に出力する。光音響装置1100は、光照射により発生した光音響波を受信することにより得られる受信信号データを用いて、被検体内の複数位置のそれぞれに対応する特性値の情報を生成する。すなわち、光音響装置1100は、光音響波に由来した特性値情報の空間分布を医用画像データ(光音響画像)として生成する。
 記憶装置1200は、ROM(Read only memory)、磁気ディスクやフラッシュメモリなどの記憶媒体であってもよい。また、記憶装置1200は、PACS(Picture Archiving and Communication System)等のネットワークを介した記憶サーバであってもよい。
 画像処理装置1300は、記憶装置1200に記憶された光音響画像や光音響画像の付帯情報等の情報を処理する。
 画像処理装置1300の演算機能を担うユニットは、CPUやGPU(Graphics Processing Unit)等のプロセッサ、FPGA(Field Programmable Gate Array)チップ等の演算回路で構成されることができる。これらのユニットは、単一のプロセッサや演算回路から構成されるだけでなく、複数のプロセッサや演算回路から構成されていてもよい。
 画像処理装置1300の記憶機能を担うユニットは、ROM(Read only memory)、磁気ディスクやフラッシュメモリなどの非一時記憶媒体で構成することができる。また、記憶機能を担うユニットは、RAM(Random Access Memory)などの揮発性の媒体であってもよい。なお、プログラムが格納される記憶媒体は、非一時記憶媒体である。なお、記憶機能を担うユニットは、1つの記憶媒体から構成されるだけでなく、複数の記憶媒体から構成されていてもよい。
 画像処理装置1300の制御機能を担うユニットは、CPUなどの演算素子で構成される。制御機能を担うユニットは、システムの各構成の動作を制御する。制御機能を担うユニットは、入力部からの測定開始などの各種操作による指示信号を受けて、システムの各構成を制御してもよい。また、制御機能を担うユニットは、コンピュータ150に格納されたプログラムコードを読み出し、システムの各構成の作動を制御してもよい。
 表示装置1400は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイなどである。また、表示装置1400は、画像や装置を操作するためのGUIを表示してもよい。
 入力装置1500としては、例えば、ユーザーが操作可能な、マウスやキーボードなどで構成される操作コンソールである。また、表示装置1400をタッチパネルで構成し、表示装置1400を入力装置1500として利用してもよい。
 図2は、本実施形態に係る画像処理装置1300の具体的な構成例を示す。本実施形態に係る画像処理装置1300は、CPU1310、GPU1320、RAM1330、ROM1340、外部記憶装置1350から構成される。また、画像処理装置1300には、表示装置1400としての液晶ディスプレイ1410、入力装置1500としてのマウス1510、キーボード1520が接続されている。さらに、画像処理装置1300は、PACS(Picture Archiving and Communication System)などの記憶装置1200としての画像サーバ1210と接続されている。これにより、画像データを画像サーバ1210上に保存したり、画像サーバ1210上の画像データを液晶ディスプレイ1410に表示したりすることができる。
 次に、本実施形態に係るシステムに含まれる装置の構成例を説明する。図3は、本実施形態に係るシステムに含まれる装置の概略ブロック図である。
 本実施形態に係る光音響装置1100は、駆動部130、信号収集部140、コンピュータ150、プローブ180、及び導入部190を有する。プローブ180は、光照射部110、及び受信部120を有する。図4は、本実施形態に係るプローブ180の模式図を示す。測定対象は、導入部190により造影剤が導入された被検体100である。駆動部130は、光照射部110と受信部120を駆動し、機械的な走査を行う。光照射部110が光を被検体100に照射し、被検体100内で音響波が発生する。光に起因して光音響効果により発生する音響波を光音響波とも呼ぶ。受信部120は、光音響波を受信することによりアナログ信号としての電気信号(光音響信号)を出力する。
 信号収集部140は、受信部120から出力されたアナログ信号をデジタル信号に変換し、コンピュータ150に出力する。コンピュータ150は、信号収集部140から出力されたデジタル信号を、光音響波に由来する信号データとして記憶する。
 コンピュータ150は、記憶されたデジタル信号に対して信号処理を行うことにより、光音響画像を生成する。また、コンピュータ150は、得られた光音響画像に対して画像処理を施した後に、光音響画像を表示部160に出力する。表示部160は、光音響画像に基づいた画像を表示する。表示画像は、ユーザーやコンピュータ150からの保存指示に基づいて、コンピュータ150内のメモリや、モダリティとネットワークで接続されたデータ管理システムなどの記憶装置1200に保存される。
 また、コンピュータ150は、光音響装置に含まれる構成の駆動制御も行う。また、表示部160は、コンピュータ150で生成された画像の他にGUIなどを表示してもよい。入力部170は、ユーザーが情報を入力できるように構成されている。ユーザーは、入力部170を用いて測定開始や終了、作成画像の保存指示などを操作することができる。
 以下、本実施形態に係る光音響装置1100の各構成の詳細を説明する。
 (光照射部110)
 光照射部110は、光を発する光源111と、光源111から射出された光を被検体100へ導く光学系112とを含む。なお、光は、いわゆる矩形波、三角波などのパルス光を含む。
 光源111が発する光のパルス幅としては、熱閉じ込め条件および応力閉じ込め条件を考慮すると、100ns以下のパルス幅であることが好ましい。また、光の波長は、400nmから1600nm程度の範囲であってもよい。血管を高解像度でイメージングする場合は、血管での吸収が大きい波長(400nm以上、700nm以下)を用いてもよい。生体の深部をイメージングする場合には、生体の背景組織(水や脂肪など)において典型的に吸収が少ない波長(700nm以上、1100nm以下)の光を用いてもよい。
 光源111は、レーザーや発光ダイオードなどである。また、複数波長の光を用いて測定する際には、波長の変更が可能な光源であってもよい。なお、複数波長を被検体に照射する場合、互いに異なる波長の光を発生する複数台の光源を用意し、それぞれの光源から交互に照射することも可能である。複数台の光源を用いた場合もそれらをまとめて光源として表現する。レーザーとしては、固体レーザー、ガスレーザー、色素レーザー、半導体レーザーなど様々なレーザーを使用することができる。例えば、Nd:YAGレーザーやアレキサンドライトレーザーなどのパルスレーザーを光源として用いてもよい。また、Nd:YAGレーザー光を励起光とするTi:saレーザーやOPO(Optical Parametric Oscillators)レーザーを光源として用いてもよい。また、光源111としてフラッシュランプや発光ダイオードを用いてもよい。また、光源111としてマイクロウェーブ源を用いてもよい。
 光学系112には、レンズ、ミラー、光ファイバ等の光学素子を用いることができる。乳房等を被検体100とする場合、パルス光のビーム径を広げて照射するために、光学系の光出射部は光を拡散させる拡散板等で構成されていてもよい。一方、光音響顕微鏡においては、解像度を上げるために、光学系112の光出射部はレンズ等で構成し、ビームをフォーカスして照射してもよい。
 なお、光照射部110が光学系112を備えずに、光源111から直接被検体100に光を照射してもよい。
 (受信部120)
 受信部120は、音響波を受信することにより電気信号を出力するトランスデューサ121と、トランスデューサ121を支持する支持体122とを含む。また、トランスデューサ121は、音響波を送信する送信手段としてもよい。受信手段としてのトランスデューサと送信手段としてのトランスデューサとは、単一(共通)のトランスデューサでもよいし、別々の構成であってもよい。
 トランスデューサ121を構成する部材としては、PZT(チタン酸ジルコン酸鉛)に代表される圧電セラミック材料や、PVDF(ポリフッ化ビニリデン)に代表される高分子圧電膜材料などを用いることができる。また、圧電素子以外の素子を用いてもよい。例えば、静電容量型トランスデューサ(CMUT:Capacitive Micro-machined Ultrasonic Transducers)を用いたトランスデューサなどを用いることができる。なお、音響波を受信することにより電気信号を出力できる限り、いかなるトランスデューサを採用してもよい。また、トランスデューサにより得られる信号は時間分解信号である。つまり、トランスデューサにより得られる信号の振幅は、各時刻にトランスデューサで受信される音圧に基づく値(例えば、音圧に比例した値)を表す。
 光音響波を構成する周波数成分は、典型的には100KHzから100MHzであり、トランスデューサ121として、これらの周波数を検出することのできるものを採用してもよい。
 支持体122は、機械的強度が高い金属材料などから構成されていてもよい。照射光を被検体に多く入射させるために、支持体122の被検体100側の表面に、鏡面加工もしくは光散乱させる加工が行われていてもよい。本実施形態において支持体122は半球殻形状であり、半球殻上に複数のトランスデューサ121を支持できるように構成されている。この場合、支持体122に配置されたトランスデューサ121の指向軸は半球の曲率中心付近に集まる。そして、複数のトランスデューサ121から出力された信号を用いて画像化したときに曲率中心付近の画質が高くなる。なお、支持体122はトランスデューサ121を支持できる限り、いかなる構成であってもよい。支持体122は、1Dアレイ、1.5Dアレイ、1.75Dアレイ、2Dアレイと呼ばれるような平面又は曲面内に、複数のトランスデューサを並べて配置してもよい。複数のトランスデューサ121が複数の受信手段に相当する。
 また、支持体122は音響マッチング材を貯留する容器として機能してもよい。すなわち、支持体122をトランスデューサ121と被検体100との間に音響マッチング材を配置するための容器としてもよい。
 また、受信部120が、トランスデューサ121から出力される時系列のアナログ信号を増幅する増幅器を備えてもよい。また、受信部120が、トランスデューサ121から出力される時系列のアナログ信号を時系列のデジタル信号に変換するA/D変換器を備えてもよい。すなわち、受信部120が後述する信号収集部140を備えてもよい。
 受信部120と被検体100との間の空間は、光音響波が伝播することができる媒質で満たす。この媒質は、音響波が伝搬でき、被検体100やトランスデューサ121との界面において音響特性が整合し、できるだけ光音響波の透過率が高い材料である。例えば、この媒質は、水、超音波ジェルなどである。
 図4は、プローブ180の側面図を示す。本実施形態に係るプローブ180は、開口を有する半球状の支持体122に複数のトランスデューサ121が3次元に配置された受信部120を有する。また、支持体122の底部には、光学系112の光射出部が配置されている。
 本実施形態においては、図4に示すように被検体100は、保持部200に接触することにより、その形状が保持される。
 受信部120と保持部200の間の空間は、光音響波が伝播することができる媒質で満たされる。この媒質は、光音響波が伝搬でき、被検体100やトランスデューサ121との界面において音響特性が整合し、できるだけ光音響波の透過率が高い材料である。例えば、この媒質は、水、超音波ジェルなどである。
 保持手段としての保持部200は被検体100の形状を測定中に保持する。保持部200により被検体100を保持することによって、被検体100の動きの抑制および被検体100の位置を保持部200内に留めることができる。保持部200の材料には、ポリカーボネートやポリエチレン、ポリエチレンテレフタレート等、樹脂材料を用いることができる。
 保持部200は、取り付け部201に取り付けられている。取り付け部201は、被検体の大きさに合わせて複数種類の保持部200を交換可能に構成されていてもよい。例えば、取り付け部201は、曲率半径や曲率中心などの異なる保持部に交換できるように構成されていてもよい。
 (駆動部130)
 駆動部130は、被検体100と受信部120との相対位置を変更する。駆動部130は、駆動力を発生させるステッピングモータなどのモータと、駆動力を伝達させる駆動機構と、受信部120の位置情報を検出する位置センサとを含む。駆動機構は、リードスクリュー機構、リンク機構、ギア機構、油圧機構、などである。また、位置センサは、エンコーダー、可変抵抗器、リニアスケール、磁気センサ、赤外線センサ、超音波センサなどを用いたポテンショメータなどである。
 なお、駆動部130は被検体100と受信部120との相対位置をXY方向(二次元)に変更させるものに限らず、一次元または三次元に変更させてもよい。
 なお、駆動部130は、被検体100と受信部120との相対的な位置を変更できれば、受信部120を固定し、被検体100を移動させてもよい。被検体100を移動させる場合は、被検体100を保持する保持部を動かすことで被検体100を移動させる構成などが考えられる。また、被検体100と受信部120の両方を移動させてもよい。
 駆動部130は、相対位置を連続的に移動させてもよいし、ステップアンドリピートによって移動させてもよい。駆動部130は、プログラムされた軌跡で移動させる電動ステージであってもよいし、手動ステージであってもよい。
 また、本実施形態では、駆動部130は光照射部110と受信部120を同時に駆動して走査を行っているが、光照射部110だけを駆動したり、受信部120だけを駆動したりしてもよい。
 なお、プローブ180が、把持部が設けられたハンドヘルドタイプである場合、光音響装置1100は駆動部130を有していなくてもよい。
 (信号収集部140)
 信号収集部140は、トランスデューサ121から出力されたアナログ信号である電気信号を増幅するアンプと、アンプから出力されたアナログ信号をデジタル信号に変換するA/D変換器とを含む。信号収集部140から出力されるデジタル信号は、コンピュータ150に記憶される。信号収集部140は、Data Acquisition System(DAS)とも呼ばれる。本明細書において電気信号は、アナログ信号もデジタル信号も含む概念である。なお、フォトダイオードなどの光検出センサが、光照射部110から光射出を検出し、信号収集部140がこの検出結果をトリガーに同期して上記処理を開始してもよい。
 (コンピュータ150)
 情報処理装置としてのコンピュータ150は、画像処理装置1300と同様のハードウェアで構成されている。すなわち、コンピュータ150の演算機能を担うユニットは、CPUやGPU(Graphics Processing Unit)等のプロセッサ、FPGA(Field Programmable Gate Array)チップ等の演算回路で構成されることができる。これらのユニットは、単一のプロセッサや演算回路から構成されるだけでなく、複数のプロセッサや演算回路から構成されていてもよい。
 コンピュータ150の記憶機能を担うユニットは、RAM(Random Access Memory)などの揮発性の媒体であってもよい。なお、プログラムが格納される記憶媒体は、非一時記憶媒体である。なお、コンピュータ150の記憶機能を担うユニットは、1つの記憶媒体から構成されるだけでなく、複数の記憶媒体から構成されていてもよい。
 コンピュータ150の制御機能を担うユニットは、CPUなどの演算素子で構成される。コンピュータ150の制御機能を担うユニットは、光音響装置の各構成の動作を制御する。コンピュータ150の制御機能を担うユニットは、入力部170からの測定開始などの各種操作による指示信号を受けて、光音響装置の各構成を制御してもよい。また、コンピュータ150の制御機能を担うユニットは、記憶機能を担うユニットに格納されたプログラムコードを読み出し、光音響装置の各構成の作動を制御する。すなわち、コンピュータ150は、本実施形態に係るシステムの制御装置として機能することができる。
 なお、コンピュータ150と画像処理装置1300は同じハードウェアで構成されていてもよい。1つのハードウェアがコンピュータ150と画像処理装置1300の両方の機能を担っていてもよい。すなわち、コンピュータ150が、画像処理装置1300の機能を担ってもよい。また、画像処理装置1300が、情報処理装置としてのコンピュータ150の機能を担ってもよい。
 (表示部160)
 表示部160は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイなどである。また、表示部160は、画像や装置を操作するためのGUIを表示してもよい。
 なお、表示部160と表示装置1400は同じディスプレイであってもよい。すなわち、1つのディスプレイが表示部160と表示装置1400の両方の機能を担ってもよい。
 (入力部170)
 入力部170は、例えば、ユーザーが操作可能な、マウスやキーボードなどで構成される操作コンソールである。また、表示部160をタッチパネルで構成し、表示部160を入力部170として利用してもよい。
 なお、入力部170と入力装置1500は同じ装置であってもよい。すなわち、1つの装置が入力部170と入力装置1500の両方の機能を担ってもよい。
 (導入部190)
 導入部190は、被検体100の外部から被検体100の内部へ造影剤を導入可能に構成されている。例えば、導入部190は造影剤の容器と被検体に刺す注射針とを含むことができる。しかしこれに限られず、導入部190は、造影剤を被検体100に導入することができる限り種々のものであってよい。導入部190は、この場合、例えば、公知のインジェクションシステムやインジェクタなどであってもよい。なお、制御装置としてのコンピュータ150が、導入部190の動作を制御することにより、被検体100に造影剤を導入してもよい。また、ユーザーが導入部190を操作することにより、被検体100に造影剤を導入してもよい。
 (被検体100)
 被検体100はシステムを構成するものではないが、以下に説明する。本実施形態に係るシステムは、人や動物の悪性腫瘍や血管疾患などの診断や化学治療の経過観察などを目的として使用できる。よって、被検体100としては、生体、具体的には人体や動物の乳房や各臓器、血管網、頭部、頸部、腹部、手指または足指を含む四肢などの診断の対象部位が想定される。例えば、人体が測定対象であれば、光吸収体の対象は、オキシヘモグロビンあるいはデオキシヘモグロビンやそれらを含む多く含む血管あるいは腫瘍の近傍に形成される新生血管などである。また、光吸収体の対象は、頸動脈壁のプラークなどや、皮膚等に含まれるメラニン、コラーゲン、脂質などであってもよい。さらに、被検体100に導入する造影剤を光吸収体とすることができる。光音響イメージングに用いる造影剤は、インドシアニングリーン(ICG)、メチレンブルー(MB)などの色素、金微粒子、及びそれらの混合物、またはそれらを集積あるいは化学的に修飾した外部から導入した物質などである。また、被検体100は、生体を模したファントムを被検体100であってもよい。
 なお、光音響装置の各構成はそれぞれ別の装置として構成されてもよいし、一体となった1つの装置として構成されてもよい。また、光音響装置の少なくとも一部の構成が一体となった1つの装置として構成されてもよい。
 なお、本実施形態に係るシステムを構成する各装置は、それぞれが別々のハードウェアで構成されていてもよいし、全ての装置が1つのハードウェアで構成されていてもよい。本実施形態に係るシステムの機能は、いかなるハードウェアで構成されていてもよい。
 次に、図5に示すフローチャートを用いて、本実施形態に係る画像生成方法を説明する。なお、図5に示すフローチャートには、本実施形態に係るシステムの動作を示す工程も、医師等のユーザーの動作を示す工程も含まれている。
 (S100:検査に関する情報を取得する工程)
 光音響装置1100のコンピュータ150は、検査に関する情報を取得する。例えばコンピュータ150は、HIS(Hospitai Information System)やRIS(Radiology Information System)などの院内情報システムから送信された検査オーダー情報を取得する。検査オーダー情報には、検査に用いるモダリティの種類や検査に使用する造影剤などの情報が含まれている。モダリティが光音響イメージングである場合、検査オーダー情報には照射される光に関する情報が含まれる。本発明の主たる実施形態は、少なくとも単一の波長の光照射を被検体に照射することで被検体情報を取得し、分光情報を取得する場合は複数の波長のそれぞれの光を被検体に照射することで得られる被検体情報を取得する。光に関する情報には、波長ごとの光のパルス長、繰り返し周波数、強度などを含めることができる。
 複数波長を用いる場合、波長を設定するに当たっては、式(1)にしたがった画像値を持つ分光画像を生成する場合に、分光画像中の血管の領域については実際の酸素飽和度に応じた画像値が算出される一方、分光画像中の造影剤が存在する領域(以下、造影剤の領域とも呼ぶ)については、使用する波長や、造影剤の吸収係数スペクトルによって大きく画像値が変化してしまうことを考慮することが好ましい。すなわち、造影剤の三次元分布の把握を容易にするために、分光画像中の造影剤の領域の画像値が、血管の領域の画像値と識別できるような値となるような波長を用いることが好ましい。具体的には、分光画像として式(1)を用いた画像を生成する場合、動静脈の酸素飽和度が概ねパーセント表示で60%~100%に収まることを利用して、分光画像中の造影剤に対応する式(1)の計算値が60%より小さくなる(例えば負値になる)、または、100%より大きくなるような2波長を用いることが好ましい。また、コンピュータ150が、造影剤に関する情報に基づいて、分光画像中の造影剤に対応する領域の画像値とそれ以外の領域の画像値との符号が逆となるような2波長を決定してもよい。例えば、造影剤としてICGを用いる場合、700nm以上、820nmより小さい波長と、820nm以上、1020nm以下の波長の2波長を選択し、式(1)により分光画像を生成することにより、造影剤の領域と血管の領域とを良好に識別することができる。
 またユーザーが、入力部170を用いて、検査に用いるモダリティの種類や、モダリティが光音響イメージングの場合の光に関する情報、検査に使用する造影剤の種類や造影剤の濃度を指示してもよい。この場合、コンピュータ150は、入力部170を介して、検査情報を取得することができる。また、コンピュータ150は、あらかじめ複数の造影剤に関する情報を記憶しておき、その中からデフォルトで設定された造影剤に関する情報を取得してもよい。
 図12は、表示部160に表示されるGUIの例を示す。GUIのアイテム2500には、患者ID、検査ID、撮影日時などの検査オーダー情報が表示されている。アイテム2500は、HISやRISなどの外部装置から取得した検査オーダー情報を表示する表示機能や、ユーザーが入力部170を用いて検査オーダー情報を入力することのできる入力機能を備えていてもよい。GUIのアイテム2600には、造影剤の種類、造影剤の濃度などの造影剤に関する情報が表示されている。アイテム2600は、HISやRISなどの外部装置から取得した造影剤に関する情報を表示する表示機能や、ユーザーが入力部170を用いて造影剤に関する情報を入力することのできる入力機能を備えていてもよい。アイテム2600においては、造影剤の種類や濃度などの造影剤に関する情報を複数の選択肢の中からプルダウンなどの方法で入力できてもよい。なお、表示装置1400に図12に示すGUIを表示してもよい。
 なお、画像処理装置1300が、ユーザーから造影剤に関する情報の入力指示を受信しなかった場合に、複数の造影剤に関する情報の中からデフォルトで設定された造影剤に関する情報を取得してもよい。本実施形態の場合、造影剤の種類としてICG、造影剤の濃度として1.0mg/mLがデフォルトで設定されている場合を説明する。本実施形態では、GUIのアイテム2600にはデフォルトで設定されている造影剤の種類と濃度が表示されているが、造影剤に関する情報がデフォルトで設定されていなくてもよい。この場合、初期画面ではGUIのアイテム2600に造影剤に関する情報が表示されていなくてもよい。
 (S200:造影剤を導入する工程)
 導入部190は、被検体に対して造影剤を導入する。ユーザーが、導入部190を用いて被検体に造影剤を導入したときに、ユーザーが入力部170を操作することにより、造影剤が導入されたことを表す信号を入力部170から制御装置としてのコンピュータ150に送信してもよい。また、導入部190が被検体100に造影剤が導入されたことを表す信号をコンピュータ150に送信してもよい。なお、導入部190を用いずに造影剤を被検体に投与してもよい。例えば、被検体としての生体が噴霧された造影剤を吸引することにより、造影剤が投与されてもよい。
 造影剤の導入後に被検体100内の造影対象に造影剤が行き渡るまで時間をおいてから後続の処理を実行してもよい。
 ここで、ICGを導入した生体に対して光音響装置を用いて撮影することにより得られた分光画像について説明する。図13~図15は、濃度を変えてICGを導入した場合に撮影して得られた分光画像を示す。いずれの撮影においても、手もしくは足の皮下もしくは皮内にICGを1か所につき0.1mL導入した。皮下もしくは皮内に導入されたICGは、リンパ管に選択的に取り込まれるため、リンパ管の内腔が造影される。また、いずれの撮影においても、ICGの導入から5分~60分以内に撮影した。また、いずれの分光画像も、797nmの波長の光と835nmの波長の光とを生体に照射することにより得られた光音響画像から生成された。
 図13Aは、ICGを導入しなかった場合の右前腕伸側の分光画像を示す。一方、図13Bは、2.5mg/mLの濃度のICGを導入したときの右前腕伸側の分光画像を示す。図13B中の破線および矢印で示した領域にリンパ管が描出されている。
 図14Aは、1.0mg/mLの濃度のICGを導入したときの左前腕伸側の分光画像を示す。図14Bは、5.0mg/mLの濃度のICGを導入したときの左前腕伸側の分光画像を示す。図14B中の破線および矢印で示した領域にリンパ管が描出されている。
 図15Aは、0.5mg/mLの濃度のICGを導入したときの右下腿内側の分光画像を示す。図15Bは、5.0mg/mLの濃度のICGを導入したときの左下腿内側の分光画像を示す。図15B中の破線および矢印で示した領域にリンパ管が描出されている。
 図13~図15に示す分光画像によれば、ICGの濃度を高くすると、分光画像の中のリンパ管の視認性が向上することが理解される。また、図13~図15によれば、ICGの濃度が2.5mg/mL以上の場合にリンパ管が良好に描出できることが理解される。すなわち、ICGの濃度が2.5mg/mL以上である場合に線上のリンパ管を明確に視認することができる。そのため、造影剤としてICGを採用する場合、その濃度は2.5mg/mL以上であってもよい。なお、生体内でのICGの希釈を考慮すると、ICGの濃度は5.0mg/mLより大きくてもよい。ただし、ジアグノグリーンの可溶性を鑑みると、10.0mg/mL以上の濃度で水溶液に溶かすことは困難である。
 以上より、生体に導入するICGの濃度は、2.5mg/mL以上、10.0mg/mL以下がよく、好適には、5.0mg/mL以上、10.0mg/mL以下である。
 そこで、コンピュータ150は、図12に示すGUIのアイテム2600において造影剤の種類としてICGが入力された場合に、上記数値範囲のICGの濃度を示すユーザーからの指示を選択的に受け付けてもよい。すなわち、この場合、コンピュータ150は、上記数値範囲以外のICGの濃度を示すユーザーからの指示を受け付けなくてもよい。よって、コンピュータ150は、造影剤の種類がICGであることを示す情報を取得した場合に、2.5mg/mLより小さい、または、10.0mg/mLより大きいICGの濃度を示すユーザーからの指示を受け付けなくてもよい。また、コンピュータ150は、造影剤の種類がICGであることを示す情報を取得した場合に5.0mg/mLより小さい、または、10.0mg/mLより大きいICGの濃度を示すユーザーからの指示を受け付けなくてもよい。
 コンピュータ150は、ユーザーがGUI上で上記数値範囲以外のICGの濃度を指示できないようにGUIを構成してもよい。すなわち、コンピュータ150は、ユーザーがGUI上で上記数値範囲以外のICGの濃度を指示できないようにGUIを表示させてもよい。例えば、コンピュータ150は、GUI上で上記数値範囲のICGの濃度を選択的に指示できるプルダウンを表示させてもよい。コンピュータ150は、プルダウンの中の上記数値範囲以外のICGの濃度をグレーアウトさせて表示し、グレーアウトされた濃度を選択できないようにGUIを構成してもよい。
 また、コンピュータ150は、GUI上で上記数値範囲以外のICGの濃度がユーザーから指示された場合にアラートを通知してもよい。通知方法としては、表示部160へのアラートの表示や、音やランプの点灯などのあらゆる方法を採用することができる。
 また、コンピュータ150は、GUI上で造影剤の種類としてICGが選択された場合に、被検体に導入するICGの濃度として上記数値範囲を表示部160に表示させてもよい。
 なお、被検体に導入する造影剤の濃度は、ここで示した数値範囲に限らず、目的に応じた好適な濃度を採用することができる。また、ここでは造影剤の種類がICGである場合の例について説明したが、その他の造影剤においても同様に上記構成を適用することができる。
 このようにGUIを構成することにより、被検体に導入する予定の造影剤の種類に応じて、適当な造影剤の濃度をユーザーが被検体に導入するための支援を行うことができる。
 次に、波長の組み合わせを変更したときの分光画像中の造影剤に対応する画像値の変化について説明する。図9A~図9Dは、2波長の組み合わせのそれぞれにおける、分光画像中の造影剤に対応する画像値(酸素飽和度値)のシミュレーション結果を示す。図9A~図9Dの縦軸と横軸はそれぞれ第1波長と第2波長を表す。図9には、分光画像中の造影剤に対応する画像値の等値線が示されている。図9A~図9Dはそれぞれ、ICGの濃度が5.04μg/mL、50.4μg/mL、0.5mg/mL、1.0mg/mLのときの分光画像中の造影剤に対応する画像値を示す。図9A~図9Dに示すように、選択する波長の組み合わせによっては、分光画像中の造影剤に対応する画像値が60%~100%となってしまう場合がある。前述したように、このような波長の組み合わせを選択してしまうと、分光画像中の血管の領域と造影剤の領域とを識別することが困難となってしまう。そのため、図9A~図9Dに示す波長の組み合わせにおいて、分光画像中の造影剤に対応する画像値が60%より小さくなる、または、100%より大きくなるような波長の組み合わせを選択することが好ましい。さらには、図9A~図9Dに示す波長の組み合わせにおいて、分光画像中の造影剤に対応する画像値が負値となるような波長の組み合わせを選択することが好ましい。
 例えば、ここで第1波長として797nmを選択し、第2波長として835nmを選択した場合を考える。図10は、第1波長として797nmを選択し、第2波長として835nmを選択した場合に、ICGの濃度と分光画像中の造影剤に対応する画像値(式(1)の値)との関係を示すグラフである。図10によれば、第1波長として797nmを選択し、第2波長として835nmを選択した場合、5.04μg/mL~1.0mg/mLのいずれの濃度であっても、分光画像中の造影剤に対応する画像値は負値となる。そのため、このような波長の組み合わせにより生成された分光画像によれば、血管の酸素飽和度値は原理上負値をとることはないため、血管の領域と造影剤の領域とを明確に識別することができる。
 なお、これまで造影剤に関する情報に基づいて波長を決定することを説明したが、波長の決定においてヘモグロビンの吸収係数を考慮してもよい。図11は、オキシヘモグロビンのモラー吸収係数(破線)とデオキシヘモグロビンのモラー吸収係数(実線)のスペクトルを示す。図11に示す波長レンジにおいては、797nmを境にオキシヘモグロビンのモラー吸収係数とデオキシヘモグロビンのモラー吸収係数の大小関係が逆転している。すなわち、797nmよりも短い波長においては静脈を把握しやすく、797nmよりも長い波長においては動脈を把握しやすい。ところで、リンパ浮腫の治療においては、リンパ管と静脈との間にバイパスを作製するリンパ管細静脈吻合術(LVA)による治療が行われている。この術前検査のために、光音響イメージングによって静脈と造影剤が蓄積したリンパ管との両方を画像化することが考えられる。この場合に、複数の波長の少なくとも1つを797nmよりも小さくすることにより、静脈をより明確に画像化することができる。また、複数の波長の少なくとも1つを、オキシヘモグロビンのモラー吸収係数よりもデオキシヘモグロビンのモラー吸収係数が大きくなる波長とすることが静脈を画像化するうえで有利である。また、2波長に対応する光音響画像から分光画像を生成する場合、2波長のいずれもオキシヘモグロビンのモラー吸収係数よりもデオキシヘモグロビンのモラー吸収係数が大きい波長とすることが、静脈を画像化するうえで有利である。これらの波長を選択することにより、リンパ管細静脈吻合術の術前検査において、造影剤が導入されたリンパ管と静脈との両方を精度良く画像化することができる。
 ところで、複数の波長のいずれも血液よりも造影剤の吸収係数が大きい波長であると、造影剤由来のアーチファクトにより血液の酸素飽和度精度が低下してしまう。そこで、造影剤由来のアーチファクトを低減するために、複数の波長の少なくとも1つが、血液の吸収係数に対して造影剤の吸収係数が小さくなる波長であってもよい。
 ここでは、式(1)にしたがって分光画像を生成する場合の説明を行ったが、造影剤の条件や照射光の波長によって分光画像中の造影剤に対応する画像値が変化するような分光画像を生成する場合にも適用することができる。
 (S300:光を照射する工程)
 光照射部110は、S100で取得した情報に基づいて決定された波長を光源111に設定する。光源111は、決定された波長の光を発する。光源111から発生した光は、光学系112を介してパルス光として被検体100に照射される。そして、被検体100の内部でパルス光が吸収され、光音響効果により光音響波が生じる。このとき、導入された造影剤もパルス光を吸収し、光音響波を発生する。光照射部110はパルス光の伝送と併せて信号収集部140へ同期信号を送信してもよい。また、光照射部110は、複数の波長のそれぞれについて、同様に光照射を行う。
 ユーザーが、光照射部110の照射条件(照射光の繰り返し周波数や波長など)やプローブ180の位置などの制御パラメータを、入力部170を用いて指定してもよい。コンピュータ150は、ユーザーの指示に基づいて決定された制御パラメータを設定してもよい。また、コンピュータ150が、指定された制御パラメータに基づいて、駆動部130を制御することによりプローブ180を指定の位置へ移動させてもよい。複数位置での撮影が指定された場合には、駆動部130は、まずプローブ180を最初の指定位置へ移動させる。なお、駆動部130は、測定の開始指示がなされたときに、あらかじめプログラムされた位置にプローブ180を移動させてもよい。
 (S400:光音響波を受信する工程)
 信号収集部140は、光照射部110から送信された同期信号を受信すると、信号収集の動作を開始する。すなわち、信号収集部140は、受信部120から出力された、光音響波に由来するアナログ電気信号を、増幅・AD変換することにより、増幅されたデジタル電気信号を生成し、コンピュータ150へ出力する。コンピュータ150は、信号収集部140から送信された信号を保存する。複数の走査位置での撮影を指定された場合には、指定された走査位置において、S300およびS400の工程を繰り返し実行し、パルス光の照射と音響波に由来するデジタル信号である受信信号データの生成を繰り返す。なお、コンピュータ150は、発光をトリガーとして、発光時の受信部120の位置情報を駆動部130の位置センサからの出力に基づいて取得し、記憶してもよい。
 なお、本実施形態では、複数の波長の光のそれぞれを時分割に照射する例を説明したが、複数の波長のそれぞれに対応する信号データを取得できる限り、光の照射方法はこれに限らない。例えば、光照射によって符号化を行う場合に、複数の波長の光がほぼ同時に照射されるタイミングが存在してもよい。
 (S500:3次元光音響画像を生成する工程)
 3次元光音響画像取得手段としてのコンピュータ150は、記憶された信号データに基づいて、光音響画像を生成する。コンピュータ150は、生成された光音響画像を記憶装置1200に出力し、記憶させる。
 信号データを2次元または3次元の空間分布に変換する再構成アルゴリズムとしては、タイムドメインでの逆投影法やフーリエドメインでの逆投影法などの解析的な再構成法やモデルベース法(繰り返し演算法)を採用することができる。例えば、タイムドメインでの逆投影法は、Universal back-projection(UBP)、Filtered back-projection(FBP)、または整相加算(Delay-and-Sum)などである。
 コンピュータ150は、信号データに対して再構成処理することにより、初期音圧分布情報(複数の位置における発生音圧)を光音響画像として生成する。また、コンピュータ150は、被検体100に照射された光の被検体100の内部での光フルエンス分布を計算し、初期音圧分布を光フルエンス分布で除算することにより、吸収係数分布情報を光音響画像として取得してもよい。光フルエンス分布の計算手法については、公知の手法を適用することができる。また、コンピュータ150は、複数の波長の光のそれぞれに対応する光音響画像を生成することができる。具体的には、コンピュータ150は、第1波長の光照射により得られた信号データに対して再構成処理を行うことにより、第1波長に対応する第1光音響画像を生成することができる。また、コンピュータ150は、第2波長の光照射により得られた信号データに対して再構成処理を行うことにより、第2波長に対応する第2光音響画像を生成することができる。このように、コンピュータ150は、複数の波長の光に対応する複数の光音響画像を生成することができる。
 本実施形態では、被検体への1回の光照射で得られた光音響信号を用いた画像再構成により1つの3次元の光音響画像(ボリュームデータ)が生成される。さらに、複数回の光照射を行い、光照射ごとに画像再構成を行うことで、時系列の3次元画像データ(時系列のボリュームデータ)が取得される。複数回の光照射の光照射ごとに画像再構成して得られた3次元画像データを総称して、複数回の光照射に対応する3次元画像データと呼ぶ。なお、時系列に複数回の光照射が実行されるため、複数回の光照射に対応する3次元画像データが、時系列の3次元画像データを構成する。
 本実施形態では、コンピュータ150は、複数の波長の光のそれぞれに対応する吸収係数分布情報を光音響画像として取得する。第1波長に対応する吸収係数分布情報を第1光音響画像とし、第2波長に対応する吸収係数分布情報を第2光音響画像とする。
 なお、本実施形態では、システムが光音響画像を生成する光音響装置1100を含む例を説明したが、光音響装置1100を含まないシステムにも本発明は適用可能である。3次元光音響画像取得手段としての画像処理装置1300が、光音響画像を取得できる限り、いかなるシステムであっても本発明を適用することができる。例えば、光音響装置1100を含まず、記憶装置1200と画像処理装置1300とを含むシステムであっても本発明を適用することができる。この場合、3次元光音響画像取得手段としての画像処理装置1300は、記憶装置1200に予め記憶された光音響画像群の中から指定された光音響画像を読み出すことにより、光音響画像を取得することができる。
 (S600:3次元分光画像を生成する工程)
 3次元分光画像取得手段としてのコンピュータ150は、複数の波長に対応する複数の光音響画像に基づいて、分光画像を生成する。コンピュータ150は、分光画像を記憶装置1200に出力し、記憶装置1200に記憶させる。前述したように、コンピュータ150は、グルコース濃度、コラーゲン濃度、メラニン濃度、脂肪や水の体積分率など、被検体を構成する物質の濃度に相当する情報を示す分光画像として生成してもよい。また、コンピュータ150は、第1波長に対応する第1光音響画像と第2波長に対応する第2光音響画像との比を表す分光画像として生成してもよい。本実施形態では、コンピュータ150が、第1光音響画像と第2光音響画像とを用いて、式(1)にしたがった画像値を持つ分光画像を生成する例を説明する。本工程におけるコンピュータ150のことを、3次元分光画像取得手段だと考えてもよい。また、S500とS600両方において、コンピュータ150のことを3次元光音響画像取得手段だと考えてもよい。
 なお、3次元分光画像取得手段としての画像処理装置1300は、記憶装置1200に予め記憶された分光画像群の中から指定された分光画像を読み出すことにより、分光画像を取得してもよい。また、3次元光音響画像取得手段としての画像処理装置1300は、記憶装置1200に予め記憶された光音響画像群の中から、読み出した分光画像の生成に用いられた複数の光音響画像の少なくとも一つを読み出すことにより、光音響画像を取得してもよい。
 複数回の光照射と、それに引き続く音響波受信と画像再構成が行われることにより、複数回の光照射に対応する時系列の3次元画像データが生成される。3次元画像データとしては光音響画像データや分光画像データが利用できる。ここでの光音響画像データは吸収係数等の分布を示す画像データを指し、分光画像データは複数の波長の光が被検体に照射されたときに、それぞれの波長に対応する光音響画像データに基づいて生成される濃度等を示す画像データを指す。
 (S700:3次元画像からリンパ管および血管の情報を取得する工程)
 画像処理装置1300は、記憶装置1200から光音響画像または分光画像を読み出し、光音響画像または分光画像に基づいてリンパ管と血管に関する情報を取得する。取得される情報として、ボリュームデータにおけるリンパ管および血管の位置を示す情報がある。なお、上述したように、本ステップの処理は少なくとも一つの波長に由来する光音響画像に基づいて実施することもでき、複数の波長のそれぞれに由来する光音響画像から作成された分光画像を利用することもできる。本工程では、画像処理装置1300が、3次元血管画像取得手段、および、3次元リンパ画像取得手段として機能して情報処理を担う。
 3次元リンパ画像取得手段が、単一波長に由来する3次元光音響画像に対して画像処理を行ってリンパ領域を抽出し、3次元リンパ画像を取得する方法を説明する。画像処理装置1300は記憶装置1200に保存された3次元光音響画像を読み出す。読み出す対象となる時間範囲は任意である。が、一般に、リンパ液の流れは、間欠的に行われ、その周期は数十秒から数分である。そのため、比較的長い時間範囲に取得された光音響波に対応する3次元光音響画像を読み出すことが好ましい。時間範囲は例えば、40秒間~2分間と設定してもよい。図6Aは、1枚の3次元光音響画像を示す模式図である。なお、実際のボリュームデータには血管およびリンパ管以外の物質に由来する画像値などが含まれるが、この図では簡易的に、ボリュームデータに血管およびリンパ管のみが表示されている様子を示す。
 続いて画像処理装置1300は、読み出した時系列の3次元光音響画像のそれぞれからリンパ管の存在する領域を抽出する。抽出方法の一例として、リンパ液の循環がリンパ管の収縮等によって間欠的あるいは周期的に行われることに鑑み、画像処理装置1300が時系列の3次元光音響画像の間での輝度値の変化を検出し、当該輝度値の変化が大きい部分をリンパ領域だと判断する方法がある。なお、時間範囲やリンパ領域であるかどうかの判断基準は例示であり、被検体内のリンパ管の状況や、造影剤や光照射に関する条件に応じて適宜決定される。例えば、所定の時間範囲を1分間とした場合、1分間のうち5秒間、典型的な血管の輝度値と比較して半分以上の値を持つ領域が観察された場合に、当該領域をリンパ領域だと判断してもよい。図6Bは、1枚の3次元光音響画像から取得された3次元リンパ画像を示す模式図である。
 なお、単一の波長に由来する3次元光音響画像の代わりに、3次元分光画像に対して画像処理を行ってリンパ領域を抽出する場合、画像処理装置1300は、酸素飽和度の値(式(1)の計算値)に基づいて血液に対応する領域と造影剤に対応する領域とを区別することでリンパ領域を抽出してもよい。上述の通り、適切な2波長を選択して利用することにより、式(1)の計算値が、造影剤に対応する領域と血液に対応する領域とで排他的な範囲になるようにできる。
 続いて画像処理装置1300は、読み出した時系列の3次元光音響画像のそれぞれから血管の存在する領域を抽出する。例えば対象たる血管として静脈を選択する場合、デオキシヘモグロビンの吸収係数が比較的高い領域のパルス光を照射されて発生した光音響波に由来する3次元光音響画像に基づいて抽出を行うとよい。図6Cは、1枚の3次元光音響画像から取得された3次元血管画像を示す模式図である。
 なお、3次元光音響画像の代わりに、3次元分光画像に対して画像処理を行って血管領域を抽出する場合、画像処理装置1300は、酸素飽和度の値に基づいて血液に対応する領域と造影剤に対応する領域とを区別することで血管領域を抽出してもよい。また、酸素飽和度の値に基づいて静脈と動脈を判別してもよい。
 本工程の処理により、時系列の3次元光音響画像データから分離された、時系列の3次元血管画像データおよび時系列の3次元リンパ画像データが取得され、記憶装置に保存される。これらのデータの保存方法は任意である。例えば、3次元血管画像データと3次元リンパ画像データのそれぞれを別の時系列の3次元画像データとして保存してもよい。また、単一の時系列の3次元画像データを保存する場合、ボリュームデータ中の各座標に、その座標が、血管領域であるか、リンパ管領域であるか、何れでもないか、を示すフラグを関連付けて保存してもよい。また、被検体に照射された光の波長に関する情報と関連付けて保存してもよい。何れにせよ、本フローの後続処理において深さ情報を反映した2次元画像を生成できるのであれば、保存方法は問わない。
 (S800:3次元のリンパ管および血管の情報から、2次元のリンパ管および血管の情報と深さ情報を生成する工程)
 画像処理装置1300は、S700で取得した3次元のリンパ領域に関する情報および血管領域に関する情報から、2次元のリンパ領域に関する情報および血管領域に関する情報を取得する。本工程では、画像処理装置1300が、2次元血管画像取得手段、および、2次元リンパ画像取得手段として機能して情報処理を担う。具体的には、2次元血管画像取得手段としての画像処理装置1300は、あるボリュームデータに由来する3次元血管画像データに基づいて、2次元血管画像データと、それに対応付けられた血管深さ情報を取得する。また、2次元リンパ画像取得手段としての画像処理装置1300は、あるボリュームデータに由来する3次元リンパ画像データに基づいて、2次元リンパ画像データと、それに対応付けられたリンパ深さ情報を取得する。深さ情報は、ボリュームデータ中の特定領域の3次元位置情報とも言える。血管深さ情報は血管領域の3次元位置情報を示し、リンパ深さ情報はリンパ領域の3次元位置情報を示す。
 画像処理装置1300は、3次元のボリュームデータに対して任意の視点方向に最大値を投影して、MIP(Maximum Intensity Projection)画像データを取得する。最大値の投影方向は任意である。例えば、被検体表面から被検体の奥に向かう方向でもよい。この場合、深さ方向とは被検体表面を起点として被検体の内部に向かうに連れて深度が大きくなる方向である。投影方向はまた、光音響装置の構成による定まる座標軸に応じた方向でもよい。例えば光音響装置が三軸方向を基準とするボリュームデータを生成する場合、深さ方向をXYZ方向のいずれかとしてもよい。光音響イメージングにおける深さ方向として、被検体に光が入射する位置を起点としたときの、被検体表面に対する法線方向を採用してもよい。
 図7Aの模式図は、3次元血管画像をY方向に最大値投影して算出された2次元リンパ画像と、それに関連付けられるリンパ深さ情報を示す。リンパ深さ情報には、MIP画像中のリンパ領域が存在する各位置における深度を示す情報が含まれる。また、リンパ深さ情報には、MIP画像中のリンパ領域が存在する各位置における深度を示す情報が含まれる。図7Bの模式図は、3次元血管画像をY方向に最大値投影して算出された2次元血管画像と、それに関連付けられる血管深さ情報を示す模式図である。図7Aにおいて、リンパ深さ情報は、2次元リンパ画像のXZ平面内の座標と当該座標におけるY方向の深さ位置を示す座標情報とが対応付けられたマトリクスを示す。Y方向の深さ位置を示す座標情報の代わりに、当該座標情報に対応付けられた輝度、色相、明度、彩度などの情報としてもよい。なお、図7Bについても、図7Aと同様である。なお、3次元画像データから2次元画像データを算出する際に適用される方法は、最大値投影法に限られない。2次元面においてリンパ領域または血管領域の存在する位置情報と、そのリンパ領域または血管領域の、視点方向における深さ情報を取得できれば、どのような方法でもよい。MIP以外のレンダリング手法として例えば、ボリュームレンダリング、サーフェイスレンダリングなどのあらゆる方法を採用することができる。何れの方法においても、三次元画像を二次元にレンダリングする際の表示領域や視線方向などの設定条件は、観察対象や装置構成に合わせて任意に指定できる。
 (S900:2次元画像と深さ情報を関連付けて保存する工程)
 保存制御手段としての画像処理装置1300は、S800で算出した2次元血管画像データと血管深さ情報を関連付けて記憶装置1200に保存する。また、2次元リンパ画像データとリンパ深さ情報を関連付けて記憶装置1200に保存する。保存の方法は任意であり、例えば、2次元血管画像データの画素ごとに血管であるかどうかを示すフラグと深度を対応付けた配列を利用してもよい。2次元リンパ画像データについても同様である。
 このように2次元画像データを保存する場合、3次元画像データに比べてデータ量を圧縮できる。そのため、記憶装置1200の記憶容量を低減できる。特に時系列のボリュームデータを生成する場合に増加するデータ量を低減する際に、本工程の保存方法は効果を発揮する。
 (S1000:深さ情報を反映した2次元画像を表示する工程)
 表示制御手段としての画像処理装置1300は、2次元リンパ画像データを、リンパ深さ情報が示されるような形式で表示装置1400に表示させる。また、表示制御手段としての画像処理装置1300は、2次元血管画像データを、血管深さ情報が示されるような形式で表示装置1400に表示させる。さらに、表示制御手段としての画像処理装置1300は、リンパ深さ情報が示された2次元リンパ画像と、血管深さ情報が示された2次元血管画像とを、リンパと血管の対応関係がユーザーに理解しやすいような形式で表示してもよい。例えば、血管画像とリンパ画像を並列表示したり、重畳表示したりできる。特に、リンパと血管が近い深さにあるかどうかをユーザーが理解しやすくすることが好ましい。
 図8Aは、リンパ深さ情報に基づく明度処理を行った2次元リンパ画像を示す。また図8Bは、血管深さ情報に基づく明度処理を行った2次元血管画像を示す。ここでは深度を三段階で示しているが、階調の数はこれに限定されない。画像処理装置1300が2次元画像に深さ情報を示す際の画像処理方法は、明度表示に限定されない。例えば、血管画像およびリンパ画像の明度、彩度、色相の少なくとも1つを、深さ情報がユーザーに理解できるような形で補正する画像処理を行ってもよい。言い換えると、血管画像およびリンパ画像のそれぞれに対応付けられた深さ情報に対して、明度、彩度、色相の少なくとも1つを割り当てる処理を行ってもよい。例えば画像処理装置1300は、深度に応じて画像中の色味を変えてもよい。
 ここで、ユーザーがリンパ管と血管の深さ方向における位置関係を知りたい場合がある。例えば上述したリンパ管細静脈吻合術を行うときに適切なリンパ管と血管を選択するために、近接した深さにあるリンパ管と血管のペアを探しているような場合である。そこで画像処理装置1300は、図8Aのようなリンパ深さ情報付き2次元リンパ画像と、図8Bのような血管深さ情報付き2次元血管画像を、ユーザーが対比しやすい形式で表示装置に表示する。例えば、両者を並列表示してもよい。また、両者をGUI上のボタンや物理的なスイッチなどで切り替え可能としてもよい。また、図8Cのように両者を重畳表示してもよい。ユーザーは、図8Cの重畳表示画像を見ることで、近接した深さにあるリンパ管と血管のペアを確認できる(例えば、位置Aや位置B)。画像処理装置1300は、近傍に位置するリンパ管と血管のペアを画像解析等の情報処理によって検出し、マーカーや矢印等を用いてユーザーに提示してもよい。GUI上のボタンや物理的なスイッチにより、図8Aおよび図8Bの単独表示あるいは並列表示と、図8Cとを切り替えたり、図8A、図8Bの単独表示あるいは並列表示に加えて図8Cをさらに表示させたりするよう切り替えることを可能にしてもよい。
 このように本実施形態では、3次元画像データと比べてデータ量の少ない2次元画像データに用いた場合でも、ユーザーが必要とする情報を表示装置に表示可能である。
 さらに本実施形態では、S900において2次元画像データと深さ情報を関連付けて保存している。画像処理装置1300は、このデータを用いてボリュームデータを生成して、簡易的な3次元画像を表示装置に表示してもよい。具体的には、画像処理装置1300は、2次元画像データに関連付けられた深さ情報を用いて2次元画像データ中の画像値を3次元空間に割り当てる。これにより、比較的データ量の少ない2次元画像データを用いた場合でもユーザーに3次元画像を提示可能となる。
 上記フローでは、3次元画像データから血管領域およびリンパ領域を抽出して2次元画像化して保存および表示する方法について説明した。しかし3次元画像データから抽出する特定物質や造影剤はこの2つに限定されない。光音響イメージングによって描画されるものであれば、上記の2次元画像化、保存および表示処理の対象としてよい。特定物質は例えば、ヘモグロビン、ミオグロビン、グルコース、コラーゲン、メラニン、脂肪や水などから選択できる。さらに、ヘモグロビンの中でも酸化ヘモグロビン、還元ヘモグロビンのように、細分化されたものを特定物質としてもよい。また、造影剤の種類もICGに限定されない。描出される対象を第1物質に対応する第1領域と、第2物質に対応する第2領域としたとき、画像処理装置は、前記3次元画像データから第1物質に対応する第1領域を抽出した第1の3次元画像データを取得する、第1の3次元画像取得手段、前記3次元画像データから第2物質に対応する第2領域を抽出した第2の3次元画像データを取得する第2の3次元画像取得手段、前記第1の3次元画像データから、前記第1領域の3次元位置情報を関連付けた第1の2次元画像データを取得する第1の2次元画像取得手段、前記第2の3次元画像データから、前記第2領域の3次元位置情報を関連付けた第2の2次元画像データを取得する第2の2次元画像取得手段、および、前記第1の2次元画像データと前記第2の2次元画像データとを保存手段に保存する保存制御手段、として機能する。保存制御手段は、第1の2次元画像データと第2の2次元画像データとを関連付けて保存手段に保存してもよい。
 ここまでの例では3次元画像データに含まれる2つの領域をそれぞれ抽出して、2次元画像化する例を説明したが、3次元画像データから3つ以上の領域をそれぞれ抽出してもよい。つまり、第1物質および第2物質に加えて、第3物質あるいはそれ以上の数の物質に関する領域を抽出してもよい。たとえば、式(1)の計算値として表される3次元画像データにおいては、上述したように、血管領域と造影剤領域とで計算値の範囲が異なるために血管とリンパ管とを識別できることを説明した。このうち血管領域では、式(1)の計算値、すなわち酸素飽和度が動脈と静脈とで異なる範囲の値を取るため、動脈と静脈とを分離して抽出することも可能である。そこで、3次元画像データから抽出された動脈、静脈、およびリンパ管のそれぞれについて、上述のように3次元位置情報を取得して、当該3次元位置情報と関連付けた2次元画像データを取得および保存してもよい。また、動脈、静脈、およびリンパ管を3つの特定物質とした場合には、2つの波長の光照射に由来する分光画像を用いたが、特定物質の種類によっては、2よりも多い種類の波長の光照射により得られた光音響データを用いて分離することもできる。つまり、3次元画像データ中から抽出する特定物質の種類の数よりも少ない種類の波長の光でもよいし、抽出する特定物質の数以上の種類の波長の光を用いてもよい。なお、第3物質あるいはそれ以上の数の物質を抽出する場合も、画像処理装置が、第3の3次元画像取得手段、第3の2次元画像取得手段、としての機能を担う。また、画像処理装置は第3の2次元画像を第1の2次元画像データおよび第2の2次元画像データと関連付けて保存手段に保存する保存制御手段としても機能する。
 S1000の表示工程では、表示制御手段としての画像処理装置1300が血管深さ情報付き2次元血管画像とリンパ深さ情報付き2次元リンパ画像を表示装置に表示させた。本実施形態の画像処理装置は、このような深さ情報付きの表示に加えて、または、深さ情報付きの表示とは別に、光音響画像や分光画像を表示してもよい。例えば、造影剤に対応する領域とそれ以外の領域とを識別できるように分光画像を表示装置に表示させてもよい。かかる表示の一例を説明する。
 図12に示すように、画像処理装置1300は、分光画像の画像値と表示色との関係を示すカラースケールとしてのカラーバー2400をGUIに表示させる。画像処理装置1300は、造影剤に関する情報(例えば、造影剤の種類がICGであることを示す情報)と、照射光の波長を示す情報とに基づいて、カラースケールに割り当てる画像値の数値範囲を決定してもよい。例えば、画像処理装置1300は、動脈の酸素飽和度、静脈の酸素飽和度、および造影剤に対応する負値の画像値を含む数値範囲を決定してもよい。画像処理装置1300は、-100%~100%の数値範囲を決定し、青から赤に変化するカラーグラデーションに-100%~100%を割り当てたカラーバー2400を設定してもよい。このような表示方法により、動静脈の識別に加え、負値の造影剤に対応する領域も識別することができる。また、画像処理装置1300は、造影剤に関する情報と、照射光の波長を示す情報とに基づいて、造影剤に対応する画像値の数値範囲を示すインジケータ2410を表示させてもよい。ここでは、カラーバー2400において、ICGに対応する画像値の数値範囲として負値の領域をインジケータ2410で示している。このように造影剤に対応する表示色を識別できるようにカラースケールを表示することにより、分光画像中の造影剤に対応する領域を容易に識別することができる。
 領域決定手段としての画像処理装置1300は、造影剤に関する情報と、照射光の波長を示す情報とに基づいて、分光画像中の造影剤に対応する領域を決定してもよい。例えば、画像処理装置1300は、分光画像のうち、負値の画像値を有する領域を造影剤に対応する領域として決定してもよい。そして、画像処理装置1300は、造影剤に対応する領域とそれ以外の領域とを識別できるように分光画像を表示装置1400に表示させてもよい。画像処理装置1300は、造影剤に対応する領域とそれ以外の領域との表示色を異ならせる、造影剤に対応する領域を点滅させる、造影剤に対応する領域を示すインジケータ(例えば、枠)を表示させるなどの識別表示を採用することができる。
 なお、図12に示すGUIに表示されたICGの表示に対応するアイテム2730を指示することにより、ICGに対応する画像値を選択的に表示させる表示モードに切り替え可能であってもよい。例えば、ユーザーがICGの表示に対応するアイテム2730を選択した場合に、画像処理装置1300が分光画像から画像値が負値のボクセルを選択し、選択されたボクセルを選択的にレンダリングすることにより、ICGの領域を選択的に表示してもよい。同様に、ユーザーが動脈の表示に対応するアイテム2710や静脈の表示に対応するアイテム2720を選択してもよい。ユーザーの指示に基づいて、画像処理装置1300が、動脈に対応する画像値(例えば、90%以上100%以下)や静脈に対応する画像値(例えば、60%以上90%未満)を選択的に表示させる表示モードに切り替えてもよい。動脈に対応する画像値や静脈に対応する画像値の数値範囲については、ユーザーの指示に基づいて変更可能であってもよい。
 なお、分光画像の画像値に色相、明度、および彩度の少なくとも一つを割り当て、光音響画像の画像値に色相、明度、および彩度の残りのパラメータを割り当てた画像を分光画像として表示させてもよい。例えば、分光画像の画像値に色相および彩度を割り当て、光音響画像の画像値に明度を割り当てた画像を分光画像として表示させてもよい。このとき、造影剤に対応する光音響画像の画像値が、血管に対応する光音響画像の画像値よりも大きい場合や小さい場合、光音響画像の画像値に明度を割り当てると、血管と造影剤の両方を視認することが困難な場合がある。そこで、分光画像の画像値によって、光音響画像の画像値から明度への変換テーブルを変更してもよい。例えば、分光画像の画像値が造影剤に対応する画像値の数値範囲に含まれる場合、光音響画像の画像値に対応する明度を、血管に対応するそれよりも小さくしてもよい。すなわち、造影剤の領域と血管の領域を比べたときに、光音響画像の画像値が同じであれば、血管の領域よりも造影剤の領域の明度を小さくしてもよい。ここで変換テーブルとは、複数の画像値のそれぞれに対応する明度を示すテーブルである。また、分光画像の画像値が造影剤に対応する画像値の数値範囲に含まれる場合、光音響画像の画像値に対応する明度を、血管に対応するそれよりも大きくしてもよい。すなわち、造影剤の領域と血管の領域を比べたときに、光音響画像の画像値が同じであれば、血管の領域よりも造影剤の領域の明度を大きくしてもよい。また、分光画像の画像値によって、光音響画像の画像値を明度に変換しない光音響画像の画像値の数値範囲が異なっていてもよい。
 変換テーブルは、造影剤の種類や濃度、また照射光の波長によって適したものに変更してもよい。そこで、画像処理装置1300は、造影剤に関する情報と、照射光の波長を示す情報とに基づいて、光音響画像の画像値から明度への変換テーブルを決定してもよい。画像処理装置1300は、造影剤に対応する光音響画像の画像値が血管に対応するそれよりも大きくなると推定される場合、造影剤に対応する光音響画像の画像値に対応する明度を血管に対応するそれよりも小さくしてもよい。反対に、画像処理装置1300は、造影剤に対応する光音響画像の画像値が血管に対応するそれよりも小さくなると推定される場合、造影剤に対応する光音響画像の画像値に対応する明度を血管に対応するそれよりも大きくしてもよい。
 図12に示すGUIは、波長797nmに対応する吸収係数画像(第1光音響画像)2100、波長835nmに対応する吸収係数画像(第2光音響画像)2200、酸素飽和度画像(分光画像)2300を表示する。それぞれの画像がいずれの波長の光によって生成された画像であるかをGUIに表示してもよい。本実施形態では、光音響画像と分光画像の両方を表示しているが、分光画像だけを表示してもよい。また、画像処理装置1300は、ユーザーの指示に基づいて、光音響画像の表示と分光画像の表示とを切り替えてもよい。
 なお、表示部160は動画像を表示可能であってもよい。例えば、画像処理装置1300が、第1光音響画像2100、第2光音響画像2200および分光画像2300の少なくともいずれかを時系列に生成し、生成された時系列の画像に基づいて動画像データを生成して表示部160に出力する構成としてもよい。なお、リンパの流れる回数が比較的少ないことに鑑みて、ユーザーの判断時間を短縮するために、静止画または時間圧縮された動画像として表示することも好ましい。また、動画像表示において、リンパが流れる様子を繰り返し表示することもできる。動画像の速度は、予め規定された所定の速度やユーザーに指定された所定の速度であってもよい。
 また、動画像を表示可能な表示部160において、動画像のフレームレートを可変にすることも好ましい。フレームレートを可変にするために、図12のGUIに、ユーザーがフレームレートを手動で入力するためのウィンドウや、フレームレートを変更するためのスライドバーなどを追加してもよい。ここで、リンパ液はリンパ管内を間欠的に流れるため、取得された時系列のボリュームデータの中でも、リンパの流れの確認に利用できるのは一部だけである。そのため、リンパの流れの確認する際に実時間表示を行うと効率が低下する場合がある。そこで、表示部160に表示される動画像のフレームレートを可変にすることで、表示される動画像の早送り表示が可能になり、ユーザーがリンパ管内の流体の様子を短時間で確認できるようになる。
 また、表示部160は、所定の時間範囲内の動画像を繰り返し表示可能であってもよい。その際、繰り返し表示を行う範囲をユーザーが指定可能とするためのウィンドウやスライドバーなどのGUIを、図12に追加することも好ましい。これにより、例えばリンパ管内を流体が流れる様子をユーザーが把握しやすくなる。
 以上説明したように、画像処理装置1300および情報処理装置としてのコンピュータ150の少なくとも1つは、分光画像取得手段、造影剤情報取得手段、領域決定手段、光音響画像取得手段、および表示制御手段の少なくとも一つを有する装置として機能する。なお、それぞれの手段は、互いに異なるハードウェアで構成されていてもよいし、1つのハードウェアで構成されていてもよい。また、複数の手段が1つのハードウェアで構成されていてもよい。
 本実施形態では、造影剤に対応する画像値が負値となる波長を選択することにより、血管と造影剤とを識別できるようにしたが、造影剤に対応する画像値が血管と造影剤とを識別できる限り、造影剤に対応する画像値がいかなる値であってもよい。例えば、造影剤に対応する分光画像(酸素飽和度画像)の画像値が、60%より小さくなるまたは100%より大きくなる場合などにも、本工程で説明した画像処理を適用することができる。
 (その他の実施例)
 また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
 本願は、2018年8月24日提出の日本国特許出願特願2018-157794を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。
 1100 光音響装置
 1200 記憶装置
 1300 画像処理装置

Claims (33)

  1.  被検体への光照射により前記被検体内から発生した光音響波に基づいて生成された3次元画像データを処理する画像処理装置であって、
     前記3次元画像データから前記被検体内の第1物質に対応する第1領域を抽出した第1の3次元画像データを取得する第1の3次元画像取得手段と、
     前記3次元画像データから前記被検体内の第2物質に対応する第2領域を抽出した第2の3次元画像データを取得する第2の3次元画像取得手段と、
     前記第1の3次元画像データから、前記第1領域の3次元位置情報を関連付けた第1の2次元画像データを取得する第1の2次元画像取得手段と、
     前記第2の3次元画像データから、前記第2領域の3次元位置情報を関連付けた第2の2次元画像データを取得する第2の2次元画像取得手段と、
    を有することを特徴とする画像処理装置。
  2.  前記第1の2次元画像データと前記第2の2次元画像データとを保存手段に保存する保存制御手段を有することを特徴とする請求項1に記載の画像処理装置。
  3.  前記保存制御手段が、前記第1の2次元画像データと前記第2の2次元画像データとを関連付けて前記保存手段に保存することを特徴とする請求項2に記載の画像処理装置。
  4.  前記第1領域は血管領域であり、前記第2領域はリンパ領域であることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5.  前記第1の2次元画像データに基づく第1の2次元画像と、前記第2の2次元画像データに基づく第2の2次元画像を表示装置に表示させる表示制御手段をさらに有する
    ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6.  前記表示制御手段は、前記第1の2次元画像および前記第2の2次元画像に、前記3次元位置情報に基づく画像処理を行う
    ことを特徴とする請求項5に記載の画像処理装置。
  7.  前記表示制御手段は、前記第1の2次元画像および前記第2の2次元画像の明度、彩度および色相の少なくとも1つを、前記3次元位置情報に基づいて補正する画像処理を行う
    ことを特徴とする請求項6に記載の画像処理装置。
  8.  前記表示制御手段は、前記第1の2次元画像および前記第2の2次元画像を、前記表示装置に、並列表示、重畳表示、および、切り替え可能な表示のいずれかの方法で表示させる
    ことを特徴とする請求項5から7のいずれか1項に記載の画像処理装置。
  9.  前記表示制御手段は、前記第1領域の3次元位置情報を関連付けた第1の2次元画像データから生成した3次元画像と、前記第2領域の3次元位置情報を関連付けた第2の2次元画像データから生成された3次元画像を、前記表示装置に表示させる
    ことを特徴とする請求項5から8のいずれか1項に記載の画像処理装置。
  10.  前記3次元画像データは、光照射により前記被検体内から発生した光音響波に由来する光音響画像データである
    ことを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
  11.  前記3次元画像データは、第1波長の光照射により発生した光音響波に基づいた第1光音響画像、および、第2波長の光照射により発生した光音響波に基づいた第2光音響画像に基づいて生成された分光画像である
    ことを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
  12.  前記3次元画像データは、前記被検体への複数回の光照射により発生した光音響波に基づいて生成された、前記複数回の光照射のそれぞれに対応する画像を含む時系列の3次元画像データである、
    ことを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
  13.  前記表示制御手段は、時系列に生成された複数の第1の2次元画像と第2の2次元画像を動画像として表示させる
    ことを特徴とする請求項5から9のいずれか1項に記載の画像処理装置。
  14.  前記表示制御手段は、前記動画像を早送り表示可能である
    ことを特徴とする請求項13に記載の画像処理装置。
  15.  前記表示制御手段は、前記動画像を繰り返し表示可能である
    ことを特徴とする請求項13または14に記載の画像処理装置。
  16.  前記3次元画像データから前記被検体内の第3物質に対応する第3領域を抽出した第3の3次元画像データを取得する、第3の3次元画像取得手段と、
     前記3次元画像データから、前記第3領域の3次元位置情報を関連付けた第3の2次元画像データを取得する第3の2次元画像取得手段と、
    を有することを特徴とする請求項1から15のいずれか1項に記載の画像処理装置。
  17.  被検体への光照射により前記被検体内から発生した光音響波に基づいて生成された3次元画像データを処理する画像処理方法であって、
     前記3次元画像データから前記被検体内の第1物質に対応する第1領域を抽出した第1の3次元画像データを取得するステップと、
     前記3次元画像データから前記被検体内の第2物質に対応する第2領域を抽出した第2の3次元画像データを取得するステップと、
     前記第1の3次元画像データから、前記第1領域の3次元位置情報を関連付けた第1の2次元画像データを取得するステップと、
     前記第2の3次元画像データから、前記第2領域の3次元位置情報を関連付けた第2の2次元画像データを取得するステップと、
    を有することを特徴とする画像処理方法。
  18.  前記第1の2次元画像データと前記第2の2次元画像データとを保存手段に保存する保存制御ステップを有することを特徴とする請求項17に記載の画像処理方法。
  19.  前記保存制御ステップでは、前記第1の2次元画像データと前記第2の2次元画像データとを関連付けて前記保存手段に保存することを特徴とする請求項18に記載の画像処理方法。
  20.  前記第1領域は血管領域であり、前記第2領域はリンパ領域であることを特徴とする請求項17から19のいずれか1項に記載の画像処理方法。
  21.  前記第1の2次元画像データに基づく第1の2次元画像と、前記第2の2次元画像データに基づく第2の2次元画像を表示装置に表示させる表示制御ステップをさらに有する
    ことを特徴とする請求項17から20のいずれか1項に記載の画像処理方法。
  22.  前記表示制御ステップでは、前記第1の2次元画像および前記第2の2次元画像に、前記3次元位置情報に基づく画像処理を行う
    ことを特徴とする請求項21に記載の画像処理方法。
  23.  前記表示制御ステップでは、前記第1の2次元画像および前記第2の2次元画像の明度、彩度および色相の少なくとも1つを、前記3次元位置情報に基づいて補正する画像処理を行う
    ことを特徴とする請求項22に記載の画像処理方法。
  24.  前記表示制御ステップでは、前記第1の2次元画像および前記第2の2次元画像を、前記表示装置に、並列表示、重畳表示、および、切り替え可能な表示のいずれかの方法で表示させる
    ことを特徴とする請求項21から23のいずれか1項に記載の画像処理方法。
  25.  前記表示制御ステップでは、前記第1領域の3次元位置情報を関連付けた第1の2次元画像データから生成した3次元画像と、前記第2領域の3次元位置情報を関連付けた第2の2次元画像データから生成された3次元画像を、前記表示装置に表示させる
    ことを特徴とする請求項21から24のいずれか1項に記載の画像処理方法。
  26.  前記3次元画像データは、光照射により前記被検体内から発生した光音響波に由来する光音響画像データである
    ことを特徴とする請求項17から25のいずれか1項に記載の画像処理方法。
  27.  前記3次元画像データは、第1波長の光照射により発生した光音響波に基づいた第1光音響画像、および、第2波長の光照射により発生した光音響波に基づいた第2光音響画像に基づいて生成された分光画像である
    ことを特徴とする請求項17から26のいずれか1項に記載の画像処理方法。
  28.  前記3次元画像データは、前記被検体への複数回の光照射により発生した光音響波に基づいて生成された、前記複数回の光照射のそれぞれに対応する画像を含む時系列の3次元画像データである、
    ことを特徴とする請求項17から26のいずれか1項に記載の画像処理方法。
  29.  前記表示制御ステップでは、時系列に生成された複数の第1の2次元画像と第2の2次元画像を動画像として表示させる
    ことを特徴とする請求項21から25のいずれか1項に記載の画像処理方法。
  30.  前記表示制御ステップでは、前記動画像を早送り表示可能である
    ことを特徴とする請求項29に記載の画像処理方法。
  31.  前記表示制御ステップでは、前記動画像を繰り返し表示可能である
    ことを特徴とする請求項29または30に記載の画像処理方法。
  32.  前記3次元画像データから前記被検体内の第3物質に対応する第3領域を抽出した第3の3次元画像データを取得するステップと、
     前記3次元画像データから、前記第3領域の3次元位置情報を関連付けた第3の2次元画像データを取得するステップと、
    を有することを特徴とする請求項17から31のいずれか1項に記載の画像処理方法。
  33.  請求項17から32のいずれか1項に記載の画像処理方法の各ステップをコンピュータに実行させるプログラム。
PCT/JP2019/032560 2018-08-24 2019-08-21 画像処理装置、画像処理方法、プログラム WO2020040172A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/180,928 US20210177269A1 (en) 2018-08-24 2021-02-22 Image processing apparatus and image processing method and non-transitory computer-readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-157794 2018-08-24
JP2018157794A JP7108985B2 (ja) 2018-08-24 2018-08-24 画像処理装置、画像処理方法、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/180,928 Continuation US20210177269A1 (en) 2018-08-24 2021-02-22 Image processing apparatus and image processing method and non-transitory computer-readable medium

Publications (1)

Publication Number Publication Date
WO2020040172A1 true WO2020040172A1 (ja) 2020-02-27

Family

ID=69593249

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/032560 WO2020040172A1 (ja) 2018-08-24 2019-08-21 画像処理装置、画像処理方法、プログラム

Country Status (3)

Country Link
US (1) US20210177269A1 (ja)
JP (1) JP7108985B2 (ja)
WO (1) WO2020040172A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7362561B2 (ja) * 2020-07-30 2023-10-17 富士フイルム株式会社 放射線画像処理装置、方法およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013176414A (ja) * 2012-02-28 2013-09-09 Fujifilm Corp 光音響画像生成装置及び方法
JP2018015262A (ja) * 2016-07-28 2018-02-01 国立大学法人京都大学 光音響イメージング装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013176414A (ja) * 2012-02-28 2013-09-09 Fujifilm Corp 光音響画像生成装置及び方法
JP2018015262A (ja) * 2016-07-28 2018-02-01 国立大学法人京都大学 光音響イメージング装置

Also Published As

Publication number Publication date
JP7108985B2 (ja) 2022-07-29
JP2020028669A (ja) 2020-02-27
US20210177269A1 (en) 2021-06-17

Similar Documents

Publication Publication Date Title
JP2018202147A (ja) 画像処理装置、画像処理方法、及びプログラム
WO2020040172A1 (ja) 画像処理装置、画像処理方法、プログラム
JP6921782B2 (ja) 表示制御装置、画像表示方法、及びプログラム
JP2018089371A (ja) 情報処理装置、情報処理方法、及びプログラム
JP7144805B2 (ja) 画像処理装置、画像処理方法、プログラム
JP7142832B2 (ja) 画像処理装置、画像処理方法、プログラム
WO2020039640A1 (ja) 情報処理装置、システム、情報処理方法、プログラム
JP7125709B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP7320221B2 (ja) 画像処理装置、画像処理方法、画像表示方法、および、プログラム
JP7205821B2 (ja) システム
JP7226728B2 (ja) 画像処理装置、画像処理方法、プログラム
WO2018230409A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7187336B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20210169397A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
JP7314371B2 (ja) 被検体情報取得装置、被検体情報処理方法、およびプログラム
JP7277212B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2020028670A (ja) 画像処理装置、システム、画像処理方法、プログラム
JP7118718B2 (ja) 被検体情報取得装置、被検体情報処理方法、およびプログラム
JP2020028668A (ja) 画像処理装置、画像処理方法、プログラム
JP2020162746A (ja) 画像処理装置、画像処理方法及びプログラム
JP2018088998A (ja) 表示制御装置、表示方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19852237

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19852237

Country of ref document: EP

Kind code of ref document: A1