WO2013031216A1 - 音響画像生成装置および音響画像生成方法 - Google Patents

音響画像生成装置および音響画像生成方法 Download PDF

Info

Publication number
WO2013031216A1
WO2013031216A1 PCT/JP2012/005447 JP2012005447W WO2013031216A1 WO 2013031216 A1 WO2013031216 A1 WO 2013031216A1 JP 2012005447 W JP2012005447 W JP 2012005447W WO 2013031216 A1 WO2013031216 A1 WO 2013031216A1
Authority
WO
WIPO (PCT)
Prior art keywords
photoacoustic
wavelength
data
peak data
region
Prior art date
Application number
PCT/JP2012/005447
Other languages
English (en)
French (fr)
Inventor
辻田 和宏
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2013031216A1 publication Critical patent/WO2013031216A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0093Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy
    • A61B5/0095Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy by applying light and detecting acoustic waves, i.e. photoacoustic measurements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0891Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels

Definitions

  • This photoacoustic analysis method irradiates a subject with light having a predetermined wavelength (for example, visible light, near infrared light, or mid infrared light), and a specific substance in the subject absorbs the energy of this light.
  • a photoacoustic wave which is the resulting elastic wave, is detected and the concentration of the specific substance is quantitatively measured.
  • the specific substance in the subject is, for example, glucose or hemoglobin contained in blood.
  • Such a technique for detecting a photoacoustic wave and generating a photoacoustic image based on the detection signal is called photoacoustic imaging (PAI) or photoacoustic tomography (PAT).
  • a light absorber having a light absorption coefficient larger than that of the surrounding medium is imaged.
  • the light absorption coefficient of a blood vessel in the body is larger than that of the surrounding medium, and research for imaging this blood vessel has been widely performed for the purpose of use in health care, diagnosis, surgery, and the like (Patent Document 1).
  • the present invention has been made in response to the above-mentioned demand, and in the discrimination of a living tissue using a photoacoustic analysis method, an acoustic image capable of accurately discriminating a luminal tissue represented in an ultrasonic image.
  • An object of the present invention is to provide a generation device and an acoustic image generation method.
  • a first acoustic image generation device includes: Among the acoustic waves detected by the electroacoustic conversion means, an ultrasonic image is generated based on the ultrasonic waves emitted toward the subject by the electroacoustic conversion means and reflected within the subject.
  • Image generating means for reconstructing photoacoustic data based on photoacoustic waves generated in the subject by emitting a plurality of measurement light beams emitted from the emitting means toward the subject;
  • a discriminating means for discriminating whether the luminal region in the ultrasonic image displaying the luminal tissue corresponds to any region of the vascular region, the lymphatic region, and the nerve region;
  • Display control means for displaying an ultrasound image in which the lumen region is color-coded according to the result of the determination, The presence or absence of the first peak data in the photoacoustic data relating to the measurement light of the first wavelength belonging to the wavelength band in which the discrimination means has at least the absorption coefficient of hemoglobin larger than the absorption coefficient of fat and water, and hemoglobin and fat The determination is performed based on the presence or absence of the second peak data in the photoacoustic data relating to the measurement light of the second wavelength belonging to the wavelength band in which the absorption coefficient of water is larger than the absorption coefficient of water.
  • acoustic wave means an ultrasonic wave and a photoacoustic wave.
  • Ultrasound means the elastic wave generated in the subject due to the vibration of the electroacoustic transducer and its reflected wave.
  • Photoacoustic wave is caused by the photoacoustic effect due to absorption of the measurement light. This means an elastic wave generated in the subject.
  • Photoacoustic data means data relating to a photoacoustic signal reconstructed based on raw data obtained by detecting a photoacoustic wave.
  • the signal waveform data immediately after reconstruction and the signal waveform data are based on the data. This means that the processed data is included.
  • Examples of the “data processed based on the signal waveform data” include data obtained by logarithmically processing the signal waveform data and image data constructed from the signal waveform data.
  • the discriminating means further considers the presence or absence of the third peak data in the photoacoustic data relating to the measurement light of the third wavelength belonging to the wavelength band in which the absorption coefficient of fat is larger than that of water and hemoglobin. Preferably there is.
  • Considering the presence or absence of third peak data means that the above determination is performed based on the presence or absence of the first peak data, the presence or absence of the second peak data, and the presence or absence of the third peak data.
  • the determining means includes: When there is the first peak data and the second peak data, it is determined that the lumen region corresponds to a blood vessel region, When there is no first peak data and there is second peak data, it is determined that the lumen region corresponds to a lymphatic region, In the case where there is no first peak data and no second peak data, it is preferable to determine that the lumen region corresponds to a nerve region.
  • the first wavelength belongs to the wavelength band of 700 to 820 nm
  • the second wavelength is It preferably belongs to a wavelength band of 1055 to 1075 nm.
  • the determining means includes: When the first peak data is present and the third peak data is not present, it is determined that the lumen region corresponds to a blood vessel region, When there is no first peak data and there is second peak data, it is determined that the lumen region corresponds to a lymphatic region, When there is no second peak data and there is third peak data, it is possible to adopt a configuration in which it is determined that the lumen region corresponds to a nerve region.
  • the determination unit includes: When there is first peak data, there is second peak data, and there is no third peak data, it is determined that the lumen region corresponds to a blood vessel region, When there is no first peak data, there is second peak data, and there is no third peak data, it is determined that the lumen region corresponds to a lymphatic region, When there is no first peak data, no second peak data, and third peak data, it is possible to adopt a configuration for determining that the lumen region corresponds to a nerve region.
  • the first wavelength belongs to the wavelength band of 700 to 820 nm
  • the second wavelength belongs to the wavelength band of 1055 to 1075 nm.
  • the third wavelength preferably belongs to a wavelength band of 910 to 930 nm.
  • the first wavelength belongs to the wavelength band of 700 to 820 nm
  • the second wavelength belongs to the wavelength band of 1055 to 1075 nm
  • the third wavelength is 1150 to 1250 nm or It preferably belongs to a wavelength band of 1700 to 1800 nm.
  • the discriminating means further includes a fourth band belonging to a wavelength band in which the absorption coefficient of fat is larger than that of water and hemoglobin and different from the third wavelength. It is preferable that the presence / absence of the fourth peak data in the photoacoustic data relating to the wavelength measurement light is also taken into consideration.
  • the determination unit includes: When there is first peak data, there is second peak data, there is no third peak data and there is no fourth peak data, it is determined that the lumen region corresponds to a blood vessel region, When there is no first peak data, there is second peak data, there is no third peak data and there is no fourth peak data, it is determined that the luminal region corresponds to the lymphatic region, Employs a configuration that determines that the lumen region corresponds to the nerve region when there is no first peak data, no second peak data, third peak data, and fourth peak data can do.
  • the first wavelength belongs to the wavelength band of 700 to 820 nm
  • the second wavelength belongs to the wavelength band of 1055 to 1075 nm
  • the third wavelength preferably belongs to a wavelength band of 910 to 930 nm
  • the fourth wavelength preferably belongs to a wavelength band of 1150 to 1250 nm or 1700 to 1800 nm.
  • the image generation means converts an optical differential waveform, which is a differential waveform of the time waveform of the light intensity of the pulsed light emitted as the measurement light, into light based on the pulsed light. It is preferable to have optical differential waveform deconvolution means for deconvolution from the acoustic signal, and to reconstruct the photoacoustic data based on the signal deconvolved by the optical differential waveform deconvolution means.
  • the optical differential waveform deconvolution means is First Fourier transform means for Fourier transforming the photoacoustic signal; Second Fourier transform means for Fourier transforming a signal obtained by sampling the optical differential waveform at a predetermined sampling rate; An inverse filter calculation means for obtaining an inverse filter of the inverse of the optical differential waveform subjected to Fourier transform; Filter applying means for applying an inverse filter to the Fourier-transformed photoacoustic signal; It is preferable to have a Fourier inverse transform means for performing Fourier inverse transform on the photoacoustic signal to which the inverse filter is applied.
  • the measurement light having a fourth wavelength belonging to a wavelength band in which the absorption coefficient of fat is larger than that of water and hemoglobin and different from the third wavelength is also preferable to consider the presence or absence of fourth peak data in the photoacoustic data.
  • the image generating means converts an optical differential waveform, which is a differential waveform of the time waveform of the light intensity of the pulsed light emitted as the measurement light, into light based on the pulsed light. It is preferable to have optical differential waveform deconvolution means for deconvolution from the acoustic signal, and to reconstruct the photoacoustic data based on the signal deconvolved by the optical differential waveform deconvolution means.
  • a second acoustic image generation method includes: Among the detected acoustic waves, an ultrasonic image is generated based on ultrasonic waves emitted to the subject and reflected within the subject, Among the acoustic waves, a plurality of measurement lights are switched and emitted to reconstruct photoacoustic data based on the photoacoustic waves generated in the subject, Presence / absence of the fifth peak data in the photoacoustic data related to the measurement light of the fifth wavelength belonging to the wavelength band of 1700 to 1800 nm, and the sixth wavelength belonging to the wavelength band of 1700 to 1800 nm and different from the fifth wavelength Based on the presence or absence of the sixth peak data in the photoacoustic data relating to the measurement light of the above, it is determined whether or not the tissue region is to display a tissue containing collagen and / or fat, An ultrasonic image in which the tissue region is color-coded according to the determination result is displayed.
  • the cavity region corresponds to a blood vessel region, a lymph vessel region, or a nerve region, and the result is color-coded and displayed on an ultrasonic image.
  • the lumen region is determined using a plurality of photoacoustic data acquired using at least two different predetermined wavelengths as an index, in the determination of biological tissue using the photoacoustic analysis method, It becomes possible to accurately identify the luminal tissue represented in the ultrasonic image.
  • the second acoustic image generation device and the second acoustic image generation method according to the present invention include the fifth wavelength measurement light belonging to the wavelength band of 1700 to 1800 nm, the first acoustic image generation method belonging to the wavelength band of 1700 to 1800 nm.
  • the photoacoustic data relating to the measurement light of the fifth wavelength the photoacoustic wave generated in the subject is detected when the measurement light of the sixth wavelength different from the wavelength of 5 is switched and emitted to the subject.
  • the tissue region contains a tissue containing collagen and / or fat.
  • the tissue region is determined using a plurality of photoacoustic data acquired using two different predetermined wavelengths as an index. Therefore, in the determination of a living tissue using a photoacoustic analysis method, an ultrasonic wave is used. It becomes possible to accurately discriminate the living tissue represented in the image.
  • FIG. 1 is a block diagram showing the basic configuration of the acoustic image generation apparatus 10a of this embodiment.
  • the acoustic image generation apparatus 10 includes an ultrasonic probe (probe) 11, an ultrasonic unit 12, a laser light source unit 13, and a display unit 14.
  • the acoustic image generation device 10 is configured to generate both an ultrasonic image and a photoacoustic image.
  • the lumen region is a blood vessel region Perform determination of whether to correspond to any region of the lymphatics regions and neural area, it is characterized in that for displaying an ultrasound image in which the tube cavity region is color-coded according to the result of the discrimination.
  • the laser light source unit 13 emits laser light to be emitted to the subject as measurement light.
  • This laser light source unit 13 corresponds to the light emitting means in the present invention.
  • the laser light source unit 13 has, for example, one or more light sources that generate laser light having a wavelength included in an absorption peak of blood, fat, or water.
  • a light emitting element such as a semiconductor laser (LD), a solid-state laser, or a gas laser that generates a specific wavelength component or monochromatic light including the component can be used.
  • the laser light source unit 13 includes a flash lamp 35 that is an excitation light source and a Q switch laser 36 that controls laser oscillation.
  • the control means 34 outputs a flash lamp trigger signal
  • the laser light source unit 13 turns on the flash lamp 35 and excites the Q switch laser 36.
  • the “wavelength band in which the absorption coefficient of hemoglobin is larger than the absorption coefficient of fat and water” means, in other words, the absorption coefficient of hemoglobin with respect to the respective absorption coefficients of hemoglobin, fat and water. This is the wavelength band showing the highest value.
  • the measurement light of the second wavelength and the measurement light of the third wavelength has a spectral distribution (for example, a Gaussian distribution), and the half width of the peak is preferably 5 to 15 nm, and preferably 10 nm, for example.
  • FIG. 2 is a graph showing absorption spectra of oxygenated hemoglobin, deoxygenated hemoglobin, fat and water.
  • the horizontal axis represents the wavelength
  • the vertical axis represents the absorption coefficient ( ⁇ a ).
  • the first wavelength is preferably 700 to 820 nm, and preferably 745 to 765 nm or 790 to 810 nm.
  • the second wavelength is preferably 1055 to 1075 nm, and more preferably 1060 to 1070.
  • the laser light source unit 13 preferably outputs pulsed light having a pulse width of 1 to 100 nsec as laser light.
  • the output of the laser beam is 10 ⁇ J / cm 2 to several tens of mJ / cm 2 from the viewpoints of propagation loss of laser beam and photoacoustic wave, efficiency of photoacoustic conversion, detection sensitivity of the current detector, and the like. Is preferred.
  • the repetition of the pulsed light output is preferably 10 Hz or more from the viewpoint of the image construction speed.
  • the laser beam may be a pulse train in which a plurality of the above pulsed beams are arranged. As shown in FIG. 3, the laser light output from the laser light source unit 13 is guided to the probe 11 using light guide means such as an optical fiber, a light guide plate, a lens, and a mirror, and the subject is detected from the probe 11. It is emitted toward
  • the probe 11 emits an ultrasonic wave toward the subject and detects an acoustic wave propagating through the subject.
  • This probe 11 corresponds to the electroacoustic conversion means in the present invention. That is, the probe 11 performs irradiation (transmission) of ultrasonic waves to the subject and detection (reception) of reflected waves of the ultrasonic waves that are reflected back from the subject. Further, the probe 11 also detects a photoacoustic wave generated in the subject when the imaging object in the subject absorbs the laser light.
  • acoustic wave means an ultrasonic wave and a photoacoustic wave.
  • the probe 11 has a transducer array including, for example, a plurality of ultrasonic transducers 11a arranged one-dimensionally or two-dimensionally.
  • the ultrasonic transducer 11a is a piezoelectric element made of a polymer film such as piezoelectric ceramics or polyvinylidene fluoride (PVDF).
  • the probe 11 of this embodiment includes a plurality of ultrasonic transducers 11a, an optical fiber 50, and a light guide plate 52, as shown in FIG.
  • the optical fiber 50 guides the laser light from the laser light source unit 13 to the light guide plate 52.
  • the light guide plate 52 is disposed around the transducer array, and laser light is emitted from the light guide plate 52.
  • the width corresponding to the ultrasonic transducers 11a for 192ch is divided into, for example, three partial regions (regions A to C) in relation to the photoacoustic image generation, and the width of each partial region is an ultrasonic wave for 64ch. It is assumed that the width corresponds to the vibrator 11a. In such a case, if the width of the living tissue corresponding to the 192ch ultrasonic transducer 11a is 57.6 mm, the width of each partial region is 19.2 mm. That is, the acoustic image generation device 10 repeatedly performs light irradiation and data collection on the divided partial region of 19.2 mm width at the time of photoacoustic image generation, and acquires data for all 192 channels.
  • the probe 11 may include an acoustic matching layer on the surface of the transducer array in order to efficiently detect acoustic waves.
  • the acoustic impedance of the piezoelectric element material and the living body are greatly different. Therefore, when the piezoelectric element material and the living body are in direct contact with each other, the reflection at the interface is increased and the acoustic wave cannot be detected efficiently. For this reason, an acoustic wave can be efficiently detected by arranging an acoustic matching layer having an intermediate acoustic impedance between the piezoelectric element material and the living body.
  • the material constituting the acoustic matching layer include epoxy resin and quartz glass.
  • the ultrasonic unit 12 includes a reception circuit 21, an AD conversion unit 22, a reception memory 23, a data separation unit 24, a photoacoustic image reconstruction unit 25a, and a detection / logarithmic conversion unit that receives signals from the photoacoustic image reconstruction unit 25a.
  • 26a a photoacoustic image construction unit 27a for constructing a photoacoustic image
  • an ultrasonic image reconstruction unit 25b a detection / logarithm conversion unit 26b for receiving a signal from the ultrasonic image reconstruction unit 25b, and an ultrasound for constructing an ultrasonic image
  • It has a sonic image construction means 27b, an extraction means 28, a discrimination means 29, an image composition means 30, a transmission control circuit 33 and a control means 34.
  • the control means 34 controls each part in the ultrasonic unit 12.
  • the photoacoustic image reconstruction means 25a, the detection / logarithm conversion means 26a, the photoacoustic image construction means 27a, the ultrasonic image reconstruction means 25b, the detection / logarithm conversion means 26b, and the ultrasonic image construction means 27b as a whole are in the present invention. It corresponds to image generation means.
  • the receiving circuit 21 receives the electrical signal of the acoustic wave output from the probe 11.
  • the AD conversion means 22 is a sampling means, which samples the electric signal received by the receiving circuit 21 in synchronization with an AD clock signal with a clock frequency of 40 MHz, for example, and converts it into a digital signal.
  • the AD conversion means 22 samples the electric signal at a predetermined sampling period in synchronization with, for example, the control means 34 or an AD clock signal input from the outside.
  • the AD conversion means 22 stores the sampled digital signal (sampling data) in the reception memory 23.
  • the sampling data stored in the reception memory 23 is data related to photoacoustic waves (photoacoustic data), data related to ultrasonic waves (ultrasound data), or a mixed data thereof.
  • the data separation means 24 separates the sampling data stored in the reception memory 23 into photoacoustic data and ultrasonic data.
  • a method for separating the sampling data is not particularly limited. For example, when the ultrasonic irradiation and the laser light irradiation are performed while being shifted in time, the sampling data can be separated into photoacoustic data and ultrasonic data by dividing the sampling data at a certain time. . In addition, for example, sampling data can be separated into photoacoustic data and ultrasonic data by utilizing the difference in frequency and delay amount related to the photoacoustic data and ultrasonic data.
  • the data separation unit 24 inputs the separated photoacoustic data to the photoacoustic image reconstruction unit 25a, and outputs the ultrasonic data to the ultrasonic image reconstruction unit 25b.
  • the detection / logarithm conversion means 26a generates an envelope of the photoacoustic data output from the photoacoustic image reconstruction means 25a, and then logarithmically converts the envelope to widen the dynamic range. Then, the detection / logarithm conversion means 26a outputs the photoacoustic data subjected to signal processing as described above to the photoacoustic image construction means 27a.
  • the photoacoustic image construction means 27a constructs a tomographic image (photoacoustic image) based on the photoacoustic data of each line subjected to logarithmic transformation. For example, the photoacoustic image construction unit 27a constructs a photoacoustic image by converting the position of the time axis of the photoacoustic data into the position of the displacement axis representing the depth in the tomographic image. The constructed photoacoustic image is transmitted to the extraction means 28.
  • the ultrasonic image reconstruction means 25b adds the ultrasonic data obtained from the output signals of 64 ultrasonic transducers of the probe 11, for example, with a delay time corresponding to the position of the ultrasonic transducer. Data for one line is generated (delay addition method).
  • the ultrasound image reconstruction means 25b may perform reconstruction by the CBP method (Circular Back Projection) instead of the delay addition method.
  • the ultrasonic image reconstruction unit 25b may perform reconstruction using a Hough transform method or a Fourier transform method.
  • the ultrasonic image reconstruction means 25b outputs the ultrasonic data added and matched as described above to the detection / logarithm conversion means 26b.
  • the detection / logarithm conversion means 26b generates an envelope of the ultrasonic data output from the ultrasonic image reconstruction means 25b, and then logarithmically converts the envelope to widen the dynamic range. Then, the detection / logarithm conversion unit 26b outputs the ultrasonic data signal-processed as described above to the ultrasonic image construction unit 27b.
  • the ultrasonic image construction means 27b constructs a tomographic image (ultrasonic image) based on the ultrasonic data of each line subjected to logarithmic transformation. For example, the ultrasonic image constructing unit 27b constructs an ultrasonic image by converting the position of the time axis of the ultrasonic data into the position of the displacement axis representing the depth in the tomographic image. The constructed ultrasonic image is transmitted to the extraction means 28.
  • the control means 34 outputs a flash lamp trigger signal and a Q switch trigger signal to the laser light source unit 13 to emit laser light from the laser light source unit 13. Further, the control unit 34 outputs an ultrasonic transmission trigger signal to the transmission control circuit 33 and causes the probe 11 to output ultrasonic waves. Further, the control unit 34 outputs a sampling trigger signal to the AD conversion unit 22 in synchronization with the laser beam irradiation or ultrasonic transmission, and starts sampling in the AD conversion unit 22.
  • the control means 34 outputs a flash lamp trigger signal that instructs the laser light source unit 13 to output laser light. Thereby, in the laser light source unit 13, the flash lamp 35 is turned on in response to the flash lamp trigger signal, and laser excitation is started. Thereafter, the control means 34 outputs a Q switch trigger signal at a predetermined timing. Thereby, in the laser light source unit 13, the Q switch of the Q switch laser 36 is turned on in response to the Q switch trigger signal, the laser light is output, and the subject is irradiated with the laser light. The time required from when the flash lamp 35 is turned on until the Q-switched laser 36 is sufficiently excited can be estimated from the characteristics of the Q-switched laser 36 and the like.
  • the Q switch laser 36 may be turned on in the laser light source unit 13 after the Q switch laser 36 is sufficiently excited. In this case, a signal indicating that the Q switch is turned on may be notified to the ultrasonic unit 12 side.
  • the control unit 34 controls the above processing to be performed at each of the three wavelengths of 756 nm, 1064 nm, and 920 nm.
  • the light source control method is appropriately selected depending on the type of laser light source. Examples of such a method include a method of switching the transmission wavelength of a laser light source capable of transmitting a plurality of wavelengths, and a method of sequentially driving a plurality of types of laser light sources having different wavelengths.
  • control means 34 outputs an ultrasonic trigger signal for instructing ultrasonic transmission to the transmission control circuit 33.
  • the transmission control circuit 33 transmits an ultrasonic wave from the probe 11.
  • the control means 34 outputs a flash lamp trigger signal first, and then outputs an ultrasonic trigger signal. That is, the control means 34 outputs an ultrasonic trigger signal following the output of the flash lamp trigger signal. After the flash lamp trigger signal is output and the subject is irradiated with laser light and the photoacoustic wave is detected, the ultrasonic trigger signal is output and the ultrasonic wave is transmitted to the subject and its reflected wave. Is detected.
  • the control means 34 further outputs a sampling trigger signal for instructing the AD conversion means 22 to start sampling.
  • the sampling trigger signal is generated after the flash lamp trigger signal is output and before the ultrasonic trigger signal is output, more preferably, the laser light is actually applied to the subject. Output at the timing of irradiation. Therefore, the sampling trigger signal is output in synchronization with the timing at which the control means 34 outputs the Q switch trigger signal, for example.
  • the AD conversion means 22 starts sampling the electrical signal detected by the probe 11.
  • control unit 34 controls the probe 11, the ultrasonic unit 12, the laser light source unit 13, and the display unit 14 so that the photoacoustic image is displayed on the display unit 14 in various forms.
  • irradiating ultrasonic waves to the same area as the area irradiated with the measurement light means that the imaging range of the photoacoustic image obtained by irradiating the measurement light and the ultrasonic wave obtained by irradiating the ultrasonic waves It means that the ultrasonic wave is irradiated so that the imaging range of the image is at least partially overlapped.
  • Extraction means 28 extracts a luminal region displaying luminal tissue from an ultrasound image.
  • luminal tissue means blood vessels, lymphatic vessels and nerve tissue.
  • Extraction of the lumen region is not particularly limited, and a known method can be used.
  • the region for determining the presence or absence of peak data in the photoacoustic image can be limited to the region corresponding to the extracted luminal region, There is an advantage that it can be reduced.
  • extraction of the lumen region is not essential in the present invention. For example, when a specific lumen region is not extracted, the presence / absence of peak data may be determined and color-coded for each pixel in a region where an ultrasonic image and a range where photoacoustic data can be acquired overlap.
  • the discriminating means 29 discriminates whether the extracted lumen region corresponds to a blood vessel region displaying a blood vessel, a lymph vessel region displaying a lymph vessel, or a nerve region displaying a nerve tissue.
  • the determination unit 29 acquires three photoacoustic data based on the three wavelengths of 756 nm, 1064 nm, and 920 nm from the photoacoustic image construction unit 27a.
  • the photoacoustic data includes signal waveform data reconstructed by the photoacoustic image reconstruction means 25a, data logarithmically processed by the detection / logarithm conversion means 26a, and an image constructed from the signal waveform data by the photoacoustic image construction means 27a. Any of the data may be used. However, in the present embodiment, it is assumed that the photoacoustic data is image data constructed from signal waveform data by the photoacoustic image construction unit 27a.
  • the determination unit 29 determines whether or not the first peak luminance of the portion corresponding to the lumen region exists in the image data (that is, photoacoustic data) regarding the light having a wavelength of 756 nm (first wavelength). And the determination result is stored.
  • the peak luminance means a portion where the luminance is higher than that of the periphery, and corresponds to the peak data in the present invention. Further, it is determined whether or not the second peak luminance of the portion corresponding to the lumen region exists in the image data related to light having a wavelength of 1064 nm (second wavelength), and the determination result is stored. . Further, it is determined whether or not the third peak luminance of the portion corresponding to the lumen region exists in the image data relating to light having a wavelength of 920 nm (third wavelength), and the determination result is stored. .
  • the image data portion corresponding to the lumen region is determined by spatially comparing the pixel position of the ultrasonic image and the pixel position of the photoacoustic image.
  • a probe as shown in FIG. 3 since a probe as shown in FIG. 3 is used, an ultrasonic image and a photoacoustic image can be acquired without moving the probe. Accordingly, the position of the lumen region with respect to the entire ultrasound image and the position of the image data portion corresponding to the lumen region with respect to the entire photoacoustic image are substantially the same without any alignment.
  • the lumen region is any region of the blood vessel region, the lymph vessel region, and the nerve region with reference to the table data shown in Table 1 below. It is determined whether it corresponds to.
  • Table 1 shows that when the first peak data is present, the second peak data is present, and the third peak data is absent, it is determined that the lumen region corresponds to a blood vessel region. .
  • the absorption coefficient of the entire blood vessel is the first wavelength band (wavelength band where the absorption coefficient of hemoglobin is larger than the absorption coefficient of fat and water) and the second Wavelength is relatively large in the wavelength band (wavelength band where the absorption coefficient of water is larger than that of hemoglobin and fat), and the third wavelength band (wavelength where the absorption coefficient of fat is larger than that of water and hemoglobin) (Relatively smaller in the band).
  • the lumen region is any region of a blood vessel region, a lymph vessel region, and a nerve region It is also possible to determine whether this is true.
  • Table 2 shows that when there is the first peak data and there is no third peak data, it is determined that the lumen region corresponds to a blood vessel region. This is because the hemoglobin is present in the blood vessel and there is no fat, so that the absorption coefficient of the whole blood vessel is relatively large in the first wavelength band and relatively small in the third wavelength band. is doing.
  • Table 2 shows that when there is no first peak data and there is second peak data, it is determined that the lumen region corresponds to a lymphatic vessel region. This is because there is no hemoglobin in the lymphatic vessel and water is present, so that the absorption coefficient of the entire lymphatic vessel is relatively large in the second wavelength band and relatively small in the first wavelength band. I use that.
  • Table 2 shows that when there is no second peak data and there is third peak data, it is determined that the lumen region corresponds to a nerve region. This is because there is no water in the nerve tissue and the nerve sheath is composed of fat, so that the absorption coefficient of the entire nerve tissue is relatively large in the third wavelength band, and in the second wavelength band. Utilizing relatively small size. As described above, the discrimination with respect to the lumen region can be performed only by considering two combinations of wavelengths in each item. Such a method is effective, for example, when it is impossible to determine the presence / absence of peak data at a certain wavelength.
  • the lumen region is any region of a blood vessel region, a lymph vessel region, and a nerve region It is also possible to determine whether this is true.
  • Table 3 shows that when the first peak data is present and the second peak data is present, it is determined that the lumen region corresponds to a blood vessel region. This utilizes the fact that since hemoglobin and water are present in the blood vessel, the absorption coefficient of the entire blood vessel is relatively large in the first and second wavelength bands. Table 3 shows that when there is no first peak data and there is second peak data, it is determined that the lumen region corresponds to a lymphatic vessel region. This is because there is no hemoglobin in the lymphatic vessel and water is present, so that the absorption coefficient of the entire lymphatic vessel is relatively large in the second wavelength band and relatively small in the first wavelength band. I use that.
  • Table 3 shows that when there is no first peak data and no second peak data, it is determined that the lumen region corresponds to a nerve region. This utilizes the fact that the absorption coefficient of the entire nerve tissue is relatively small in the first and second wavelength bands because hemoglobin and water are not present in the nerve tissue. As described above, the determination with respect to the lumen region can be performed only by the result of the presence / absence of the peak luminance with respect to each of the measurement light of the first wavelength and the measurement light of the second wavelength. Such a method is also effective, for example, when it is impossible to determine the presence / absence of peak data at a certain wavelength.
  • the image synthesizing unit 30 generates an image in which the lumen region is color-coded according to the result of the discrimination based on the photoacoustic image and the ultrasonic image constructed by the image constructing units 27a and 27b, respectively.
  • a lumen region is not extracted in advance, it can be color-coded by determining whether the region corresponds to a blood vessel region, a lymph vessel region, or a nerve region for each pixel of the ultrasonic image.
  • the color coding is not particularly limited, and is performed by assigning different chromaticities (hue and lightness) to the blood vessel region, the lymph vessel region, and the nerve region, respectively.
  • the image synthesizing unit 30 performs a necessary process (for example, scale correction) on the color-coded image and generates a final image (display image) to be displayed on the display unit 14.
  • the image composition means 30 corresponds to the display control means of the present invention.
  • the image composition unit 28 causes the display unit 14 to display the generated display image.
  • a photoacoustic image may be displayed together with the ultrasonic image for comparative observation.
  • the lumen region is discriminated from the blood vessel region, the lymph vessel region, and the nerve region for the lumen region.
  • a biological tissue discrimination method using a photoacoustic analysis method In this case, it is possible to accurately determine the luminal tissue represented in the ultrasonic image.
  • the determination on the luminal tissue is performed using three different wavelengths, and the determination on the luminal tissue is possible even when the two different wavelengths are used.
  • the present invention can be further discriminated by using measurement light of a fourth wavelength that belongs to a wavelength band in which the absorption coefficient of fat is larger than that of water and hemoglobin and is different from the third wavelength, as described below. Accuracy can be improved.
  • FIG. 4 is a graph showing an absorption spectrum of polyethylene having a structure common to fat (CH 2 bond).
  • the fourth wavelength a wavelength belonging to a wavelength band of 1150 to 1250 nm or 1700 to 1800 nm can be used.
  • the absorption coefficient of hemoglobin and water is smaller than that of fat.
  • the fourth wavelength is preferably 1730 nm or 1765 nm.
  • the lumen region is any one of the blood vessel region, the lymph vessel region, and the nerve region. It is possible to determine whether it falls within the area.
  • Table 4 shows that the lumen region corresponds to a blood vessel region when there is first peak data, there is second peak data, there is no third peak data, and there is no fourth peak data. Indicates that the determination is performed.
  • Table 4 shows that the lumen region corresponds to a lymphatic region when there is no first peak data, there is second peak data, there is no third peak data, and there is no fourth peak data. This indicates that the determination is made.
  • Table 4 shows that the lumen region corresponds to a nerve region when there is no first peak data, no second peak data, third peak data, and fourth peak data. Indicates that the determination is performed. These are for the same reason as described in Table 1.
  • the ultrasonic unit 12 includes an optical differential waveform reverse convolution unit 38 and a correction unit 39. Therefore, the description of the same components as those in the first embodiment is omitted unless particularly necessary.
  • FIG. 5 is a schematic diagram illustrating a configuration of the acoustic image generation device 10b according to the present embodiment.
  • the acoustic image generation apparatus 10b includes a probe 11, an ultrasonic unit 12, a laser light source unit 13, and a display unit 14.
  • the acoustic image generation device 10b is also configured to generate both an ultrasonic image and a photoacoustic image.
  • the acoustic image generation method of the present embodiment detects ultrasonic waves emitted toward the subject and reflected within the subject, generates an ultrasonic image based on the detected ultrasonic waves, and creates a lumen tissue.
  • a lumen region to be displayed is extracted from an ultrasonic image, and measurement light with a first wavelength (center wavelength 756 nm), measurement light with a second wavelength (center wavelength 1064 nm), and measurement light with a third wavelength (center)
  • the photoacoustic wave generated in the subject is detected by switching the wavelength 920 nm) to be emitted toward the subject as measurement light, and the photoacoustic signal obtained by deconvolution of the reconstructed optical pulse differential waveform is measured.
  • Photoacoustic data is generated for each measurement light based on the photoacoustic signal generated for each light and deconvoluted, and the presence / absence of first peak data in the photoacoustic data related to the measurement light of the first wavelength, second Wavelength Based on the presence or absence of the second peak data in the photoacoustic data related to the measurement light and the presence or absence of the third peak data in the photoacoustic data related to the measurement light of the third wavelength, the lumen region is a blood vessel region, It is determined whether the region corresponds to a lymphatic region or a nerve region, and an ultrasonic image in which the lumen region is color-coded according to the determination result is synthesized, and the synthesized ultrasonic image is displayed. It is characterized by this.
  • the probe 11 and the laser light source unit 13 are as described above.
  • the ultrasonic unit 12 of the present embodiment includes an optical differential waveform reverse convolution unit 38 and a correction unit 39 in addition to the configuration of the ultrasonic unit of the first embodiment.
  • the optical differential waveform deconvolution means 38 is an optical pulse differential waveform (optical differential waveform for pulsed laser light) that is a differential waveform of the time waveform of the light intensity of light irradiated on the subject from the reconstructed photoacoustic signal. Is deconvoluted to generate a photoacoustic signal.
  • the optical differential waveform deconvolution means 38 may perform deconvolution on the photoacoustic signal before reconstruction. A detailed description of the deconvolution will be given later.
  • the correction means 39 corrects the signal with the optical pulse differential waveform deconvoluted, and removes the influence of the reception angle dependent characteristic of the ultrasonic transducer in the probe 11 from the signal with the optical pulse differential waveform deconvoluted. Further, the correction means 39 removes the influence of the incident light distribution of light on the subject from the signal in which the optical pulse differential waveform is deconvoluted in addition to or instead of the reception angle dependency characteristic.
  • the photoacoustic image may be generated without the correction means 39 and without performing these corrections.
  • the image synthesis unit 30 generates volume data using the photoacoustic signal obtained at each position and the deconvoluted optical pulse differential waveform and position information. It also has a function.
  • the volume data is generated by assigning the signal value of each photoacoustic signal to a calculation space (virtual space) according to the positional information associated therewith.
  • a calculation space virtual space
  • assigning signal values if the locations to be assigned overlap, for example, the average value of the signal values or the maximum value among them is adopted as the signal value of the overlapping location. Further, if there is no signal value to be assigned, it is preferable to interpolate using the peripheral signal values as necessary.
  • Interpolation is performed, for example, by assigning weighted average values of four adjacent points in order from the closest point to the interpolation location. As a result, more natural volume data can be generated. Further, the image composition unit 30 performs necessary processing (for example, scale correction and coloring according to the voxel value) on the generated volume data. For example, a photoacoustic image generated according to an observation method (for example, a two-dimensional method or a three-dimensional method) designated by the user becomes a final image (display image) to be displayed on the display unit 14.
  • an observation method for example, a two-dimensional method or a three-dimensional method
  • FIG. 6 shows a detailed configuration of the optical differential waveform deconvolution means 38.
  • the optical differential waveform deconvolution unit 38 includes Fourier transform units 41 and 42, an inverse filter calculation unit 43, a filter application unit 44, and a Fourier inverse transform unit 45.
  • the Fourier transform means (first Fourier transform means) 41 converts the reconstructed photoacoustic signal from a time domain signal to a frequency domain signal by discrete Fourier transform.
  • the Fourier transform means (second Fourier transform means) 42 converts a signal obtained by sampling the optical pulse differential waveform at a predetermined sampling rate from a time domain signal to a frequency domain signal by discrete Fourier transform.
  • An FFT Fast Fourier Transform
  • Patent Document 2 Japanese Patent Laid-Open No. 3-156362 (hereinafter referred to as Patent Document 2) obtains an inverse filter for repairing resolution degradation of a photoacoustic image from a thermal impulse response of a sample, and applies the inverse filter to the obtained photoacoustic image.
  • thermal impedance information a set of point heat sources that are infinitely small
  • Patent Document 2 more specifically, first, a thermal impulse response h (x, y) of a sample is calculated, and then a photoacoustic image p (x, y) is constructed.
  • the thermal impulse response is defined as a transfer function until a temperature change at an infinitely small point is converted into a minute displacement on the sample surface.
  • the thermal impulse response h (x, y) and the photoacoustic image p (x, y) are Fourier transformed to obtain Fourier transformed images H ( ⁇ , ⁇ ) and P ( ⁇ , ⁇ ).
  • non-patent document 1 Yuan Xu, et al., IEEE Transactions on Medical Imaging, Volume 21 (2002), p.823-828 (hereinafter, non-patent document 1) is logically limited. It is described that, when an optical pulse ⁇ (t) having a time width is Fourier-transformed ⁇ (k), the derivative is considered as i ⁇ (k). Experimentally, the subject is irradiated with microwaves having a long pulse width so that the excitation light pulse waveform is within the detection band of PZT (lead zirconate titanate), which is an ultrasonic detection element, and normal PZT. The probe detects the photoacoustic signal and reconstructs the absorption distribution.
  • PZT lead zirconate titanate
  • Non-Patent Document 2 Yi Wang, et al., Physics in Medicine and Biology, Volume 49 (2004), p.3117-3124 (hereinafter referred to as Non-Patent Document 2) describes pressure waveforms and optical pulse differentiation from minute elements in a subject. It is described that the micro waveform combining the function and the device impulse response function and the absorption distribution are associated with the observed pressure waveform. Absorption image reconstruction is performed using a filtered backprojection method after measuring p d0 including optical differentiation and system response, deconvoluting p d0 from the pressure waveform of each element. .
  • excitation is performed with a pulse laser beam with a short pulse width
  • the detection band of ultrasonic waves is expanded from that of normal ultrasonic diagnostic equipment
  • photoacoustic signals are detected with a hydrophone + oscilloscope, and the absorption distribution is reconstructed. To do.
  • the above deviation ( ⁇ 12.5 ns) can be considered as an error, but when the optical pulse width is 10 ns, the above deviation cannot be called an error, Instead of the pressure distribution at the moment of hitting, the pressure wave is transferred to a pressure wave propagation process.
  • the “pressure distribution of the propagation process of the pressure wave” does not coincide with the “absorption distribution”.
  • the present inventor tried to obtain the absorption distribution from the detection signal even in a practical apparatus.
  • the pressure waveform actually obtained from the object to be imaged has a macroscopic absorber size, it is considered to be a waveform obtained by superimposing the above micro absorption waveforms (superposition principle).
  • the absorption distribution of particles emitting macroscopic photoacoustic waves is A (r ⁇ R)
  • the observation waveform of pressure from the macroscopic absorber is p macro (R, t).
  • the observation waveform p macro (R, t) has the following pressure It is shown by the waveform formula.
  • the observed waveform shows a convolution type of optical pulse differentiation.
  • Non-Patent Document 2 If an ultrasonic probe with a wide band is used as in Non-Patent Document 2, the above method may be used.
  • the frequency of the ultrasonic signal detected with respect to the impulse response of the apparatus is low, so the signal detected with a normal ultrasonic probe (low frequency)
  • the band of the waveform to be convolved is widened and cannot be properly deconvolved, resulting in image corruption. Therefore, since it is important to consider the optical pulse differential term in obtaining the absorption distribution, in the present invention, in the deconvolution process, the deconvolution is performed considering only the optical pulse differential term.
  • the pressure distribution of the image after reconstruction is t ⁇ 0.
  • the optical pulse derivative can be deconvoluted by Fourier-transforming both sides of the above formula (4) and dividing the Fourier coefficient of the pressure distribution by the Fourier coefficient of the time derivative of the optical pulse on the frequency axis.
  • the resulting equation by inverse Fourier transform to obtain the A (x, y, v s t), can be imaged absorption distribution.
  • the A (x, y, v s t) determined the detection element receives the angle-dependent D (x, y, z) and, the natural vibration of the probe band is likely to have been superimposed.
  • the influence of the detection element reception angle dependency can be removed.
  • the natural vibration of the band if the intensity is imaged by Hilbert transform or orthogonal detection processing, the influence can be removed.
  • an absorption coefficient distribution image which is a physical quantity more closely related to the living tissue, can be obtained.
  • FIG. 7A shows the photoacoustic signal after reconstruction
  • FIG. 7B shows the photoacoustic signal FFT after FFT.
  • the time domain signal shown in FIG. 7A is converted into a frequency domain signal as shown in FIG. 7B.
  • FIG. 7B the absolute value of the photoacoustic signal FFT is shown, but in an actual process, it is processed as a complex number.
  • FIG. 7C shows an optical pulse differential waveform (h)
  • FIG. 7D shows an optical pulse differential waveform FFT (fft_h) after FFT.
  • the time-domain signal (waveform) shown in FIG. 7C is converted into the frequency-domain signal shown in FIG. 7D.
  • black circles in FIG. 7C represent sampling points in the optical pulse differential waveform.
  • FIG. 7D the absolute value of the optical pulse differential waveform FFT is shown, but in an actual process, it is processed as a complex number.
  • the inverse filter calculation means 43 obtains the inverse of the post-FFT optical pulse differential waveform FFT (fft_h) obtained above as an optical pulse differential waveform FFT filter (inverse filter).
  • the optical pulse differential waveform FFT filter can be obtained by conj (fft_h) / abs (fft_h) 2 .
  • conj (fft_h) represents the conjugate complex number of fft_h
  • abs (fft_h) represents the absolute value of fft_h.
  • FIG. 7E shows an optical pulse differential waveform FFT filter.
  • FIG. 7F shows the FFT waveform after deconvolution.
  • FIG. 7G shows the inversely converted photoacoustic signal.
  • the deconvolution photoacoustic signal time domain signal shown in FIG. 7G is obtained.
  • This deconvolved photoacoustic signal is an absorption distribution obtained by deconvolution of the optical pulse differential waveform from the reconstructed photoacoustic signal (FIG. 7A) in which the optical pulse differential waveform (FIG. 7C) is convolved with the optical absorption distribution. It corresponds to.
  • FIG. 8A shows a photoacoustic image generated based on the photoacoustic signal after reconstruction and before deconvolution (FIG. 7A), and FIG. 8B shows the light generated based on the photoacoustic signal after deconvolution (FIG. 7G).
  • An acoustic image is shown.
  • the photoacoustic image generated based on the reconstructed photoacoustic signal shown in FIG. 8A is substantially an image of the pressure distribution, and image determination such that one blood vessel is displayed in duplicate. The blood vessel position is difficult to confirm.
  • the photoacoustic image generated based on the deconvolved photoacoustic signal shown in FIG. 8B can visualize the distribution of the absorber by deconvolution of the optical pulse differential waveform, It is easy to confirm the position. As a result, the accuracy of determining that the lumen region in the ultrasonic image is a blood vessel region is also improved.
  • the sampling rate of the photoacoustic signal is equal to the sampling rate of the optical pulse differential waveform.
  • the Fourier transform means 41 performs a Fourier transform on the photoacoustic signal sampled at 40 MHz by, for example, a 1024-point Fourier transform.
  • the Fourier transform means 42 performs Fourier transform on the optical pulse differential waveform sampled at 40 MHz by 1024 points of Fourier transform.
  • FIG. 9 shows an operation procedure in the acoustic image generation method according to this embodiment.
  • the control means 34 outputs a flash lamp trigger signal to the laser light source unit 13.
  • the laser light source unit 13 turns on the flash lamp 35 in response to the flash lamp trigger signal.
  • the control means 34 outputs a Q switch trigger signal at a predetermined timing.
  • a Q switch trigger signal is input, the laser light source unit 13 turns on the Q switch laser 36 and emits pulsed laser light.
  • the emitted pulsed laser light is guided to the probe 11, for example, and irradiated from the probe 11 to the subject (Step 1).
  • the probe 11 detects a photoacoustic signal generated in the subject by the laser light irradiation after the laser light irradiation, and acquires position information of the probe 11 at this time by a position sensor such as a magnetic sensor (Step 2). .
  • the receiving circuit 21 of the ultrasonic unit 12 receives the photoacoustic signal detected by the probe 11. Then, when the probe 11 is scanned (Step 3) and the entire region to be imaged as a photoacoustic image is scanned, the detection of the photoacoustic signal and the acquisition of the position information are finished (Step 4).
  • the control means 34 sends a sampling trigger signal to the AD conversion means 22 in accordance with the timing of light irradiation on the subject.
  • the AD conversion means 22 receives the sampling trigger signal, starts sampling of the photoacoustic signal, and stores the sampling data of the photoacoustic signal in the reception memory 23 (Step 5). At this time, the position information is also stored in the reception memory 23 together.
  • the photoacoustic image reconstruction means 25a reads the photoacoustic signal sampling data from the reception memory 23, and reconstructs the photoacoustic signal based on the read photoacoustic signal sampling data (Step 6).
  • the optical differential waveform deconvolution means 38 deconvolutes the optical pulse differential waveform obtained by differentiating the time waveform of the light intensity of the pulsed laser light applied to the subject from the reconstructed photoacoustic signal (Step 7). By this deconvolution, a photoacoustic signal indicating an absorption distribution is obtained.
  • the correction means 39 corrects the signal obtained by deconvolution of the optical pulse differential waveform with the detection element reception angle dependency and the incident distribution of light in the subject.
  • the detection / logarithm conversion means 26a obtains the envelope of the photoacoustic signal corrected by the correction means 39, and logarithmically converts the obtained envelope.
  • the photoacoustic image construction unit 27a generates a photoacoustic image in a certain cross section based on the data of each line subjected to logarithmic transformation. This photoacoustic image is an absorption distribution image obtained by converting the absorption distribution into data. That is, in the present embodiment, the determination regarding the lumen region is performed based on the photoacoustic data obtained by converting the absorption distribution into data.
  • the image synthesis means 30 generates volume data using these photoacoustic images and position information (Step 8). Further, the display mode of the volume data is determined (Step 9). The display means 14 displays the photoacoustic image showing the absorption distribution by a predetermined display mode on the display screen (Step 10).
  • the optical differential waveform deconvolution means 38 performs reconstruction after the reconstruction.
  • the photopulse differential waveform is deconvolved from the photoacoustic image. By deconvolution of the optical pulse differential waveform, an absorption distribution can be obtained and an absorption distribution image can be generated.
  • the absorption distribution can be imaged even when a practical light pulse width and a practical ultrasonic system or an actual living body is observed. This has the advantage that the current system detector bandwidth and AD sampling can be used. Further, in this embodiment, since the pressure distribution is once obtained by reconstructing the photoacoustic image, the compatibility with the existing ultrasonic algorithm and apparatus is high.
  • the acoustic image generation apparatus and the acoustic image generation method according to the present invention particularly deconvolutes a photodifferential waveform, which is a differential waveform of a time waveform of the light intensity of measurement light, from a photoacoustic signal of a photoacoustic wave.
  • a photodifferential waveform which is a differential waveform of a time waveform of the light intensity of measurement light
  • volume data for the photoacoustic signal is generated. Therefore, the conventional photoacoustic signal representing the pressure distribution in the propagation process of the pressure wave can be converted into a photoacoustic signal representing the absorption distribution of the light absorber.
  • a photoacoustic image representing the absorption distribution of the light absorber can be generated from the photoacoustic signal.
  • the accuracy of determination that the lumen region in the ultrasonic image is a blood vessel region is improved.
  • the sampling rate of the photoacoustic signal and the sampling rate of the optical pulse differential waveform match, and both signals are Fourier-transformed with the same number of data points.
  • the photoacoustic signal is sampled at low speed, while the optical pulse differential waveform is sampled at high speed. That is, the sampling rate of the optical pulse differential waveform is set higher than the sampling rate of the photoacoustic signal.
  • the sampling interval of the photoacoustic signal (the reciprocal of the sampling rate) is set longer than the pulse time width of the light irradiated to the subject.
  • the photoacoustic signal sampled at the low sampling rate is resampled (upsampled) at the same sampling rate as the sampling rate of the optical pulse differential waveform, and then the Fourier transform is performed. Therefore, the configuration itself of the acoustic image generation apparatus is the same as that of the second embodiment except for the optical differential waveform deconvolution means.
  • symbol shown by FIG. 5 is used about elements other than an optical differential waveform deconvolution means. Detailed descriptions of the same components as those of the second embodiment will be omitted unless particularly necessary.
  • FIG. 10 shows the optical differential waveform reverse convolution means 38a in the present embodiment.
  • the optical differential waveform deconvolution means 38a in the present embodiment includes resample means 46 and 47 in addition to the configuration of the optical differential waveform deconvolution means 38 in the second embodiment shown in FIG.
  • the resample means 46 is an upsample means and resamples the sampling data of the photoacoustic signal sampled at a low sampling rate at the same sampling rate as the sampling rate of the optical pulse differential waveform (upsample).
  • the resampling means 46 performs upsampling, for example, by adding zero between sample points of the photoacoustic signal sampled at a low sampling rate and applying a low-pass filter that cuts at the Nyquist frequency before upsampling.
  • the photoacoustic signal sampling rate (first sampling rate) in the AD conversion means 22 is 40 MHz and the optical pulse differential waveform sampling rate (second sampling rate) is 400 MHz.
  • the resampling means 46 upsamples the 40 MHz photoacoustic signal to a 400 MHz signal.
  • the Fourier transform unit 41 performs a Fourier transform on the photoacoustic signal upsampled by the resample unit 46.
  • the Fourier transform means 41 for Fourier transforming the photoacoustic signal and the Fourier transform means 42 for Fourier transforming the optical pulse differential waveform perform Fourier transform with the same number of data points. For example, the Fourier transform unit 41 converts the photoacoustic signal into a signal in the frequency region of 8192 points, and the Fourier transform unit 42 converts the optical pulse differential waveform into a signal in the frequency region of 8192 points.
  • the filter applying means 44 applies an inverse filter to a signal obtained by Fourier transforming the upsampled photoacoustic signal.
  • the Fourier inverse transform means 45 transforms the signal to which the inverse filter is applied from a frequency domain signal into a time domain signal (absorption distribution).
  • the absorption distribution signal returned to the time domain signal is a signal in a state of being upsampled to, for example, 400 MHz.
  • the resampling means 47 downsamples the absorption signal to the original sampling rate of the photoacoustic signal.
  • the resampling unit 47 downsamples, for example, a 400 MHz absorption signal into a 40 MHz absorption signal. Downsampling is performed, for example, by thinning sample points after applying a low-pass filter that cuts at the Nyquist frequency after downsampling.
  • FIG. 11A shows an optical pulse differential waveform sampled at a sampling rate of 400 MHz
  • FIG. 11B shows an optical pulse differential waveform sampled at a sampling rate of 40 MHz.
  • the optical pulse differential waveform can be accurately reproduced as shown in FIG. 11A.
  • the sampling rate of the optical pulse differential waveform is matched to the photoacoustic signal sampling rate and sampling is performed at 40 MHz, the optical pulse differential waveform cannot be accurately reproduced as shown in FIG. 11B.
  • the filter applying means 44 When applying the inverse filter to the signal obtained by Fourier transforming the photoacoustic signal by the filter applying means 44, it is necessary to have both data points.
  • the sampling rate of the optical pulse differential waveform is set in accordance with the sampling rate of the photoacoustic signal, as shown in FIG. 11B, the sampling frequency is too low for the waveform change, and the optical pulse differential waveform cannot be accurately reproduced.
  • the optical pulse differential term may not be accurately deconvolved, and the absorption distribution may not be obtained correctly.
  • the sampling rate of the optical pulse differential waveform is set to 400 MHz, for example, and the photoacoustic signal sampling rate is set to 400 MHz in order to accurately reproduce the optical pulse differential waveform
  • the optical pulse differential term is accurately Volume can be obtained, and absorption distribution can be obtained correctly.
  • a high-speed AD converter is required for the AD conversion means 22, and the total number of sampling data increases, so that the memory capacity required for the reception memory 23 increases.
  • the time required for reconstruction also becomes long.
  • the sampling rate of the optical pulse differential waveform is set higher than the sampling rate of the photoacoustic signal.
  • a photoacoustic signal sampled at a low sampling rate is upsampled, and both signals are Fourier transformed with the same number of data points.
  • the Fourier transform of the optical pulse differential waveform is performed with more data points than the Fourier transform data points of the photoacoustic signal, and the Fourier transform photoacoustic signal is centered by the difference in the data points.
  • FIG. 12 shows the optical differential waveform reverse convolution means 38b in the present embodiment.
  • the optical differential waveform deconvolution means 38b in this embodiment includes a zero padding means 48 and a zero point removal means 49 in addition to the configuration of the optical differential waveform deconvolution means 38 in the second embodiment shown in FIG. Have.
  • first sampling rate is 40 MHz
  • second sampling rate is 320 MHz.
  • the zero padding means 48 inputs the photoacoustic signal converted from the Fourier transform means 41 into a frequency domain signal.
  • Zero padding means 48 adds a zero point (point of zero signal value) to the center by the difference between the number of data points of the photoacoustic signal after Fourier transform and the optical pulse differential waveform to the photoacoustic signal subjected to Fourier transform. To do.
  • the zero padding means 48 divides, for example, a photoacoustic signal having 1024 data points expressed in the frequency domain into two at the Nyquist frequency (1/2 of the sampling frequency), and data between the divided two frequency domains.
  • a zero point is added by the difference in the number of points, and a photoacoustic signal having the same number of data points 8192 as the number of data points of the optical pulse differential waveform expressed in the frequency domain is generated.
  • the addition of the zero point corresponds to upsampling in the frequency domain.
  • the filter applying means 44 applies an inverse filter to the signal that has been subjected to zero padding by the zero padding means 48.
  • the zero point removing unit 49 removes the frequency band to which “0” is added by the zero padding unit 48 from the signal to which the inverse filter is applied. For example, when the photoacoustic signal (frequency domain) having 1024 data points is converted into a signal having 8192 data points by the zero padding unit 48, the zero point removing unit 49 uses the signal after applying the filter (data points 8192 points). ) To a signal having 1024 data points. Zero point removal corresponds to downsampling in the frequency domain.
  • the inverse Fourier transform means 45 converts the signal returned to the number of data points of 1024 from a frequency domain signal to a time domain signal.
  • FIG. 13A shows a photoacoustic signal subjected to Fourier transform
  • FIG. 13B shows a photoacoustic signal after zero padding.
  • the sampling rate of the photoacoustic signal in the AD conversion means 22 is 40 MHz
  • a signal obtained by Fourier transforming the photoacoustic signal becomes a signal in a frequency band from 0 MHz to 40 MHz as shown in FIG. 13A.
  • This signal is divided into two regions A and B with a center frequency of 20 MHz as a boundary.
  • the signal in the region B becomes a signal corresponding to the frequency region from 300 MHz to 320 MHz.
  • a photoacoustic signal sampled at a low sampling rate is converted into a frequency domain signal, and a zero point is added to the high frequency component area of the converted frequency domain signal.
  • the difference between this embodiment and the third embodiment is that the photoacoustic signal is upsampled in the third embodiment, whereas the photoacoustic signal is upsampled in the frequency domain in this embodiment. is there.
  • resampling upsampling
  • low-speed sampling is performed from photoacoustic detection to reconstruction as in the third embodiment.
  • the optical pulse differential term can be accurately deconvolved.
  • the sampling rate of the optical pulse differential waveform is set higher than the sampling rate of the photoacoustic signal, as in the third and fourth embodiments.
  • the optical pulse differential waveform is performed with more data points than the Fourier transform data points of the photoacoustic signal, the high frequency component sample points are removed from the Fourier transformed optical differential waveform, and the inverse is used as an inverse filter.
  • the configuration itself of the acoustic image generation apparatus is the same as that of the second embodiment except for the optical differential waveform deconvolution means.
  • symbol shown by FIG. 5 is used about elements other than an optical differential waveform deconvolution means. Detailed descriptions of the same components as those of the second embodiment will be omitted unless particularly necessary.
  • the high frequency component sample point removing means 50 inputs the optical pulse differential waveform converted from the Fourier transform means 42 into a frequency domain signal.
  • the high frequency component sample point removing means 50 removes the high frequency component sample points from the Fourier transformed optical pulse differential waveform by the difference between the number of data points of the photoacoustic signal after Fourier transformation and the optical pulse differential waveform.
  • the high frequency component sample point removing means 50 deletes the central data point corresponding to the high frequency component from, for example, the optical pulse differential waveform having 8192 data points represented in the frequency domain, and the photoacoustic signal data represented in the frequency domain.
  • An optical pulse differential waveform having the same number of data points as 1024 points is generated. The removal of the high-frequency component sample points corresponds to down-sampling of the optical pulse differential waveform in the frequency domain.
  • FIG. 15A shows an optical pulse differential waveform obtained by Fourier transform
  • FIG. 15B shows an optical pulse differential waveform from which high-frequency component sample points have been removed.
  • a signal obtained by Fourier transforming the optical pulse differential waveform (8192 data points) is a signal in a frequency band from 0 MHz to 320 MHz as shown in FIG. 15A.
  • This signal is divided into the region from the first data point to the 512th region (region A), the region from the 513th data point to the 7680th data point (region B), and the 8192nd from the 7681st data point.
  • the area is divided into three areas up to the data point (area C), and the data points in area B are removed. As shown in FIG. 15B, by connecting region A and region C, an optical pulse differential waveform having 1024 data points corresponding to the frequency band from 0 MHz to 40 MHz can be obtained.
  • the inverse filter calculation means 43 obtains the inverse of the optical pulse differential waveform represented in the frequency domain and from which the high frequency component sample points are removed as an inverse filter.
  • the inverse filter calculation unit 43 obtains, as an inverse filter, the inverse of the optical pulse differential waveform in which the data points are reduced from 8192 points to 1024 points, for example.
  • the filter application unit 44 multiplies, for each element, a photoacoustic signal having 1024 data points represented in the frequency domain and an inverse filter, for example.
  • the Fourier inverse transform means 45 transforms the signal to which the inverse filter is applied from a frequency domain signal to a time domain signal.
  • the photoacoustic signal and the optical pulse differential waveform are converted into a frequency domain signal and returned to a time domain signal after deconvolution in the frequency domain.
  • the present invention is not limited to this. It is also possible to perform deconvolution of the optical pulse differential waveform in the time domain.
  • the optical differential waveform deconvolution means 38 may perform a process of applying some filter to the photoacoustic signal at the time of deconvolution. For example, the optical differential waveform deconvolution means 38 may filter the noise amplification frequency band at the time of deconvolution.
  • the photoacoustic data (or photoacoustic image) is generated after deconvolution of the photodifferential waveform from the photoacoustic signal, but in addition to or instead of this, the photodifferential waveform is generated.
  • Photoacoustic data may be generated without deconvolution.
  • the user can select whether or not to perform the deconvolution process by performing an operation on a switch or a display monitor, and when the user selects to perform the deconvolution process, the photodifferential waveform is deconvolved.
  • the photoacoustic data may be generated without performing the deconvolution of the photodifferential waveform.
  • the photoacoustic signal when the photoacoustic image is displayed on the display means 14, when the photodifferential waveform is deconvolved, the photoacoustic signal is displayed in association with red and black colors, and when there is no deconvolution, The photoacoustic signal may be displayed in association with blue / black colors.
  • photoacoustic data without deconvolution is generated, and the computer analyzes the photoacoustic data to determine whether or not the blood vessel portion is divided into two, and the blood vessel is divided into two. When it is determined that, the deconvolution processing of the optical differential waveform may be performed only on the blood vessel portion.
  • the determination unit 62 determines whether the tissue region in the ultrasonic image displaying the biological tissue displays a tissue containing collagen and / or fat. This is different from the apparatus of the first embodiment in that Therefore, a detailed description of the same components as those in the first embodiment will be omitted unless particularly necessary.
  • FIG. 16 is a block diagram showing a basic configuration of the acoustic image generation apparatus 10c of the present embodiment.
  • the acoustic image generation device 10 c includes a probe 11, an ultrasonic unit 12, a laser light source unit 13, and a display unit 14.
  • the acoustic image generation device 10c is configured to generate both an ultrasonic image and a photoacoustic image.
  • the tissue region displays a tissue containing collagen and / or fat based on the presence or absence of the sixth peak data in the photoacoustic data related to the measurement light of the sixth wavelength.
  • Performed Kano discrimination it is characterized in that by combining the ultrasound image in which the tissue area is color-coded according to the result of the determination, and displays the synthesized ultrasound image.
  • FIG. 17 is a graph showing absorption spectra of polyethylene (polyethilene) having a structure common to fat (CH 2 bond) and trimethylpentane having a structure common to collagen (CH 3 bond).
  • the horizontal axis represents the wavelength
  • the vertical axis represents the absorption coefficient ( ⁇ a ).
  • the fat with CH 2 bond structure has an absorption coefficient greater than the absorption coefficient of collagen at approximately 1730 nm
  • the collagen with CH 3 bond structure has an absorption coefficient greater than the absorption coefficient of fat at approximately 1725 nm. It can be seen that The acoustic image generation device 10c of this embodiment uses the difference in absorption coefficient for each wavelength.
  • the laser light source unit 13 is different from that of the first embodiment in that it has a Q-switched laser that can output the fifth and sixth wavelengths belonging to the wavelength band of 1700 to 1800 nm.
  • the fifth and sixth wavelengths are different from each other.
  • the fifth wavelength is 1725 nm and the sixth wavelength is 1730 nm.
  • the Q-switched laser may be two light sources that output light of the fifth and sixth wavelengths separately, and one light source that outputs broadband light including the fifth and sixth wavelengths. Also good.
  • the extraction means 61 extracts a tissue region displaying a morphologically characteristic biological tissue (for example, dermis or subcutaneous tissue) from an ultrasonic image. Extraction of the tissue region is not particularly limited, and a known method can be used. By extracting the tissue region from the ultrasonic image in advance, there is an advantage that the region for determining the presence or absence of peak data in the photoacoustic image can be limited to the region corresponding to the extracted tissue region. However, the extraction of the tissue region is not essential in the present invention.
  • the discriminating means 62 discriminates whether or not the extracted tissue region displays a tissue containing collagen and / or fat.
  • the determination unit 62 acquires two pieces of image data (that is, photoacoustic data) based on the two wavelengths of 1725 nm and 1730 nm from the photoacoustic image construction unit 27a.
  • the determination unit 62 determines whether or not the fifth peak luminance of the portion corresponding to the extracted tissue region exists in the image data related to light having a wavelength of 1725 nm (fifth wavelength).
  • the determination result is stored.
  • it is determined whether or not the sixth peak luminance of the portion corresponding to the extracted tissue region exists in the image data relating to light having a wavelength of 1730 nm (sixth wavelength) and the determination result is determined as follows.
  • the image data portion corresponding to the tissue region is determined by spatially comparing the pixel position of the ultrasonic image and the pixel position of the photoacoustic image.
  • a probe as shown in FIG. 3 since a probe as shown in FIG. 3 is used, an ultrasonic image and a photoacoustic image can be acquired without moving the probe.
  • the “+” symbol indicates that peak luminance (peak data) exists at that wavelength
  • the “ ⁇ ” symbol indicates that peak luminance (peak data) does not exist at that wavelength. Note that the presence or absence of peak data is determined based on a predetermined threshold. That is, even if there is a signal that seems to be peak data, a signal that is less than the threshold value is not handled as peak data in the present invention.
  • the threshold is appropriately set for each wavelength so that the same result is not obtained between the collagen and fat items.
  • Table 5 shows that when there is no fifth peak data and there is sixth peak data, it is determined that the tissue region displays a tissue containing more fat. Show. Table 5 shows that when there is the fifth peak data and there is no sixth peak data, it is determined that the tissue region displays a tissue containing more collagen. . This is because the fat absorption coefficient is smaller than the collagen absorption coefficient at 1725 nm and larger than the collagen absorption coefficient at 1730 nm. When both the fifth peak data and the sixth peak data are equal to or greater than a predetermined threshold, the tissue region displays a tissue containing the same amount of collagen and fat. May be determined.
  • the image synthesizing unit 30 generates an image in which the tissue region is color-coded according to the result of the discrimination based on the photoacoustic image and the ultrasonic image constructed by the image constructing units 27a and 27b, respectively. Further, how much collagen and fat are contained according to the size of each peak data value may be displayed on the ultrasonic image by color coding.
  • the tissue region is determined using a plurality of photoacoustic data acquired using two different predetermined wavelengths as an index. Therefore, in the determination of a living tissue using a photoacoustic analysis method, an ultrasonic wave is used. It becomes possible to accurately discriminate the living tissue represented in the image.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

【課題】光音響分析法を用いた生体組織の判別において、超音波画像中に表された管腔組織またはコラーゲンや脂肪を含有する組織を精度よく判別することを可能とする。 【解決手段】光音響分析法を用いた生体組織の判別において、管腔領域が血管領域、リンパ管領域および神経領域のいずれの領域に該当するのか、または、組織領域がコラーゲンおよび/または脂肪を含有する組織を表示するものであるか否かの判別を行う判別手段(29)と、その判別の結果に応じて管腔領域または組織領域が色分けされた超音波画像を合成しこの合成画像を表示させる画像合成手段(30)とを備え、判別手段(29)を、ヘモグロビン、脂肪、水またはコラーゲンの吸収係数についての大小関係が相互に異なる複数の測定光のそれぞれに関する光音響データ中のピークデータの有無に基づいて判別するものとする。

Description

音響画像生成装置および音響画像生成方法
 本発明は、超音波画像の生成および光音響データの再構成をすることが可能な音響画像生成装置および音響画像生成方法に関するものである。
 従来、被検体の内部の断層画像を取得する方法としては、超音波が被検体内に照射されることにより被検体内で反射した超音波を検出して超音波画像を生成し、被検体内の形態的な断層画像を得る超音波イメージングが知られている。一方、被検体の検査においては形態的な断層画像だけでなく機能的な断層画像を表示する装置の開発も近年進められている。そして、このような装置の一つに光音響分析法を利用した装置がある。この光音響分析法は、所定の波長を有する光(例えば、可視光、近赤外光又は中間赤外光)を被検体に照射し、被検体内の特定物質がこの光のエネルギーを吸収した結果生じる弾性波である光音響波を検出して、その特定物質の濃度を定量的に計測するものである。被検体内の特定物質とは、例えば血液中に含まれるグルコースやヘモグロビンなどである。このように光音響波を検出しその検出信号に基づいて光音響画像を生成する技術は、光音響イメージング(PAI:Photoacoustic Imaging)或いは光音響トモグラフィー(PAT:Photo Acoustic Tomography)と呼ばれる。
 光音響イメージングでは、周囲の媒質よりも光吸収係数が大きい光吸収体のイメージングが行われている。例えば、体内における血管の光吸収係数は周囲の媒質よりも大きく、健康管理、診断および手術等に利用することを目的として、この血管をイメージングする研究が広く行われている(特許文献1)。
 また、近年美容やアンチエイジングの関心が高まっており、皮膚評価においてコラーゲンまたは脂肪の分布およびこれらの組織中の含有量が評価項目とされることがある。
特開2010-136887号公報
 ところで、超音波画像で撮像することができる生体内の管腔組織としては、前述した血管の他に、リンパ官および神経組織も挙げられる。リンパ管や神経の形態および位置に関する情報も、診断および治療並びに手術前や手術中での有用な情報となるため、これらの管腔組織を超音波画像上で正確に判別できることが望ましい。しかしながら、これらの管腔組織を超音波画像上で精度よく判別できる方法は報告されていない。
 また、コラーゲンまたは脂肪の分布およびこれらの組織中の含有量を非接触で簡易に測定できれば、皮膚評価において非常に有用である。
 本発明は上記要望に応えてなされたものであり、光音響分析法を用いた生体組織の判別において、超音波画像中に表された管腔組織を精度よく判別することを可能とする音響画像生成装置および音響画像生成方法を提供することを目的とするものである。
 本発明は、光音響分析法を用いた生体組織の判別において、超音波画像中に表されたコラーゲンや脂肪を含有する組織を精度よく判別することを可能とする音響画像生成装置および音響画像生成方法を提供することを目的とするものである。
 上記課題を解決するために、本発明に係る第1の音響画像生成装置は、
 電気音響変換手段により検出された音響波のうち、電気音響変換手段によって被検体に向けて出射され被検体内で反射した超音波に基づいて超音波画像を生成し、上記音響波のうち、光出射手段が前記被検体に向けて複数の測定光を切り替えて出射したことにより被検体内で発生した光音響波に基づいて光音響データを再構成する画像生成手段と、
 管腔組織を表示する超音波画像中の管腔領域が、血管領域、リンパ管領域および神経領域のいずれの領域に該当するのかの判別を行う判別手段と、
 上記判別の結果に応じて管腔領域が色分けされた超音波画像を表示させる表示制御手段とを備え、
 判別手段が少なくとも、脂肪および水の吸収係数に比べてヘモグロビンの吸収係数が大きい波長帯域に属する第1の波長の測定光に関する光音響データ中の第1のピークデータの有無、および、ヘモグロビンおよび脂肪の吸収係数に比べて水の吸収係数が大きい波長帯域に属する第2の波長の測定光に関する光音響データ中の第2のピークデータの有無に基づいて上記判別を行うものであることを特徴とするものである。
 本明細書において、「音響波」とは超音波および光音響波を含む意味である。「超音波」とは電気音響変換部の振動に起因して被検体内に発生した弾性波およびその反射波を意味し、「光音響波」とは測定光の吸収による光音響効果に起因して被検体内に発生した弾性波を意味する。
 「第1の波長の測定光に関する光音響データ」とは、第1の波長の測定光の出射に起因する光音響波に基づく光音響データを意味する。また、「第2の波長の測定光に関する光音響データ」とは、第2の波長の測定光の出射に起因する光音響波に基づく光音響データを意味する。なお、後述するその他の波長の測定光についても同様である。
 「光音響データ」とは、光音響波を検出して得られた生データに基づいて再構成された光音響信号に関するデータを意味し、再構成直後の信号波形データおよびこの信号波形データを基に加工されたデータを含む意味である。「信号波形データを基に加工されたデータ」とは、例えば、信号波形データが対数処理されたデータや、信号波形データから構築された画像データが挙げられる。
 そして、本発明に係る第1の音響画像生成装置において、
 判別手段は、さらに、水およびヘモグロビンの吸収係数に比べて脂肪の吸収係数が大きい波長帯域に属する第3の波長の測定光に関する光音響データ中の第3のピークデータの有無も考慮するものであることが好ましい。
 「第3のピークデータの有無も考慮する」とは、第1のピークデータの有無、第2のピークデータの有無および第3のピークデータの有無に基づいて上記判別を行うことを意味する。
 また、本発明に係る第1の音響画像生成装置において、判別手段は、
 第1のピークデータがありかつ第2のピークデータがある場合に、上記管腔領域は血管領域に該当するとの判別を行い、
 第1のピークデータがなくかつ第2のピークデータがある場合に、上記管腔領域はリンパ管領域に該当するとの判別を行い、
 第1のピークデータがなくかつ第2のピークデータがない場合に、上記管腔領域は神経領域に該当するとの判別を行うものであることが好ましい。
 また、第1のピークデータの有無および第2のピークデータの有無に基づいて上記判別を行う場合には、第1の波長は700~820nmの波長帯域に属するものであり、第2の波長は1055~1075nmの波長帯域に属するものであることが好ましい。
 本発明に係る第1の音響画像生成装置において第3のピークデータの有無も考慮する場合には、判別手段は、
 第1のピークデータがありかつ第3のピークデータがない場合に、上記管腔領域は血管領域に該当するとの判別を行い、
 第1のピークデータがなくかつ第2のピークデータがある場合に、上記管腔領域はリンパ管領域に該当するとの判別を行い、
 第2のピークデータがなくかつ第3のピークデータがある場合に、上記管腔領域は神経領域に該当するとの判別を行う構成を採用することができる。
 或いは、本発明に係る第1の音響画像生成装置において、判別手段は、
 第1のピークデータがあり、第2のピークデータがありかつ第3のピークデータがない場合に、上記管腔領域は血管領域に該当するとの判別を行い、
 第1のピークデータがなく、第2のピークデータがありかつ第3のピークデータがない場合に、上記管腔領域はリンパ管領域に該当するとの判別を行い、
 第1のピークデータがなく、第2のピークデータがなくかつ第3のピークデータがある場合に、上記管腔領域は神経領域に該当するとの判別を行う構成を採用することができる。
 また、第3のピークデータの有無も考慮する場合には、第1の波長は700~820nmの波長帯域に属するものであり、第2の波長は1055~1075nmの波長帯域に属するものであり、第3の波長は910~930nmの波長帯域に属するものであることが好ましい。或いは、この場合には、第1の波長は700~820nmの波長帯域に属するものであり、第2の波長は1055~1075nmの波長帯域に属するものであり、第3の波長は1150~1250nmまたは1700~1800nmの波長帯域に属するものであることが好ましい。
 また、本発明に係る第1の音響画像生成装置において、判別手段は、さらに、水およびヘモグロビンの吸収係数に比べて脂肪の吸収係数が大きい波長帯域に属しかつ第3の波長と異なる第4の波長の測定光に関する光音響データ中の第4のピークデータの有無も考慮するものであることが好ましい。
 本発明に係る第1の音響画像生成装置において第4のピークデータの有無も考慮する場合には、判別手段は、
 第1のピークデータがあり、第2のピークデータがあり、第3のピークデータがなくかつ第4のピークデータがない場合に、管腔領域は血管領域に該当するとの判別を行い、
 第1のピークデータがなく、第2のピークデータがあり、第3のピークデータがなくかつ第4のピークデータがない場合に、管腔領域はリンパ管領域に該当するとの判別を行い、
 第1のピークデータがなく、第2のピークデータがなく、第3のピークデータがありかつ第4のピークデータがある場合に、管腔領域は神経領域に該当するとの判別を行う構成を採用することができる。
 また、第4のピークデータの有無も考慮する場合には、第1の波長は700~820nmの波長帯域に属するものであり、第2の波長は1055~1075nmの波長帯域に属するものであり、第3の波長は910~930nmの波長帯域に属するものであり、第4の波長は1150~1250nmまたは1700~1800nmの波長帯域に属するものであることが好ましい。
 また、本発明に係る第1の音響画像生成装置において、画像生成手段は、測定光として出射されたパルス光の光強度の時間波形の微分波形である光微分波形を、このパルス光に基づく光音響信号からデコンボリューションする光微分波形逆畳込み手段を有し、光微分波形逆畳込み手段によってデコンボリューションされた信号に基づいて光音響データを再構成するものであることが好ましい。
 この場合において、光微分波形逆畳込み手段は、
 光音響信号をフーリエ変換する第1のフーリエ変換手段と、
 光微分波形を所定のサンプリングレートでサンプリングした信号をフーリエ変換する第2のフーリエ変換手段と、
 フーリエ変換された光微分波形の逆数を逆フィルタとして求める逆フィルタ演算手段と、
 フーリエ変換された光音響信号に逆フィルタを適用するフィルタ適用手段と、
 逆フィルタが適用された光音響信号をフーリエ逆変換するフーリエ逆変換手段とを有するものであることが好ましい。
 本発明に係る第1の音響画像生成方法は、
 検出された音響波のうち、被検体に出射され被検体内で反射した超音波に基づいて超音波画像を生成し、
 上記音響波のうち、複数の測定光が切り換えられて出射されたことにより被検体内で発生した光音響波に基づいて光音響データを再構成し、
 少なくとも、第1の波長の測定光と、第2の波長の測定光とを切り換えて測定光として被検体内に出射することにより被検体内で発生した光音響波を検出し、
 少なくとも、脂肪および水の吸収係数に比べてヘモグロビンの吸収係数が大きい波長帯域に属する第1の波長の測定光に関する光音響データ中の第1のピークデータの有無、および、ヘモグロビンおよび脂肪の吸収係数に比べて水の吸収係数が大きい波長帯域に属する第2の波長の測定光に関する光音響データ中の第2のピークデータの有無に基づいて、上記管腔領域が、血管領域、リンパ管領域および神経領域のいずれの領域に該当するのかの判別を行い、
 上記判別の結果に応じて上記管腔領域が色分けされた超音波画像を表示することを特徴とするものである。
 そして、本発明に係る第1の音響画像生成方法において、さらに、水およびヘモグロビンの吸収係数に比べて脂肪の吸収係数が大きい波長帯域に属する第3の波長の測定光に関する光音響データ中の第3のピークデータの有無も考慮することが好ましい。
 また、本発明に係る第1の音響画像生成方法において、さらに、水およびヘモグロビンの吸収係数に比べて脂肪の吸収係数が大きい波長帯域に属しかつ第3の波長と異なる第4の波長の測定光に関する光音響データ中の第4のピークデータの有無も考慮することが好ましい。
 本発明に係る第2の音響画像生成装置は、
 電気音響変換手段により検出された音響波のうち、電気音響変換手段によって被検体に出射され被検体内で反射した超音波に基づいて超音波画像を生成し、上記音響波のうち、光出射手段が被検体に複数の測定光を切り替えて出射したことにより被検体内で発生した光音響波に基づいて光音響データを再構成する画像生成手段と、
 生体組織を表示する超音波画像中の組織領域が、コラーゲンおよび/または脂肪を含有する組織を表示するものであるか否かの判別を行う判別手段と、
 上記判別の結果に応じて組織領域が色分けされた超音波画像を表示させる表示制御手段とを備え、
 判別手段が、1700~1800nmの波長帯域に属する第5の波長の測定光に関する光音響データ中の第5のピークデータの有無、および、1700~1800nmの波長帯域に属しかつ第5の波長と異なる第6の波長の測定光に関する光音響データ中の第6のピークデータの有無に基づいて上記判別を行うものであることを特徴とするものである。
 そして、本発明に係る第2の音響画像生成装置において、第5の波長は1725nmであり、第6の波長は1730nmであることが好ましい。
 また、本発明に係る第2の音響画像生成装置において、画像生成手段は、測定光として出射されたパルス光の光強度の時間波形の微分波形である光微分波形を、このパルス光に基づく光音響信号からデコンボリューションする光微分波形逆畳込み手段を有し、光微分波形逆畳込み手段によってデコンボリューションされた信号に基づいて光音響データを再構成するものであることが好ましい。
 本発明に係る第2の音響画像生成方法は、
 検出された音響波のうち、被検体に出射され被検体内で反射した超音波に基づいて超音波画像を生成し、
 上記音響波のうち、複数の測定光が切り換えられて出射されたことにより被検体内で発生した光音響波に基づいて光音響データを再構成し、
 1700~1800nmの波長帯域に属する第5の波長の測定光に関する光音響データ中の第5のピークデータの有無、および、1700~1800nmの波長帯域に属しかつ第5の波長と異なる第6の波長の測定光に関する光音響データ中の第6のピークデータの有無に基づいて、上記組織領域が、コラーゲンおよび/または脂肪を含有する組織を表示するものであるか否かの判別を行い、
 上記判別の結果に応じて組織領域が色分けされた超音波画像を表示することを特徴とするものである。
 本発明に係る第1の音響画像生成装置および第1の音響画像生成方法は、脂肪および水の吸収係数に比べてヘモグロビンの吸収係数が大きい波長帯域に属する第1の波長の測定光と、ヘモグロビンおよび脂肪の吸収係数に比べて水の吸収係数が大きい波長帯域に属する第2の波長の測定光とが切り換えられて被検体に出射されたことにより被検体内で発生した光音響波を検出し、第1の波長の測定光に関する光音響データ中の第1のピークデータの有無、および、第2の波長の測定光に関する光音響データ中の第2のピークデータの有無に基づいて、上記管腔領域が、血管領域、リンパ管領域および神経領域のいずれの領域に該当するのかの判別を行い、この結果を色分けして超音波画像に表示するものである。このように本発明では、少なくとも2つの異なる所定の波長を使用して取得した複数の光音響データを指標として管腔領域の判別を行うから、光音響分析法を用いた生体組織の判別において、超音波画像中に表された管腔組織を精度よく判別することが可能となる。
 また、本発明に係る第2の音響画像生成装置および第2の音響画像生成方法は、1700~1800nmの波長帯域に属する第5の波長の測定光と、1700~1800nmの波長帯域に属しかつ第5の波長と異なる第6の波長の測定光とが切り換えられて被検体に出射されたことにより被検体内で発生した光音響波を検出し、第5の波長の測定光に関する光音響データ中の第5のピークデータの有無、および、第6の波長の測定光に関する光音響データ中の第6のピークデータの有無に基づいて、上記組織領域が、コラーゲンおよび/または脂肪を含有する組織を表示するものであるか否かの判別を行い、この結果を色分けして超音波画像に表示するものである。このように本発明では、2つの異なる所定の波長を使用して取得した複数の光音響データを指標として組織領域の判別を行うから、光音響分析法を用いた生体組織の判別において、超音波画像中に表された生体組織を精度よく判別することが可能となる。
第1の実施形態の音響画像生成装置の構成を示す概略図である。 酸素化ヘモグロビン、脱酸素化ヘモグロビン、脂肪および水それぞれの吸収スペクトルを示すグラフである。 実施形態における超音波探触子の構成を示す概略斜視図である。 ポリエチレンの吸収スペクトルを示すグラフである。 第2の実施形態の音響画像生成装置の構成を示す概略図である。 第2の実施形態の音響画像生成装置における光微分波形逆畳込み手段の構成を示すブロック図である。 再構成後の光音響信号を示す波形図である。 FFT後の光音響信号FFTを示す波形図である。 光パルス微分波形(h)を示す波形図である。 FFT後の光パルス微分波形FFT(fft_h)を示す波形図である。 光パルス微分波形FFTフィルタを示す波形図である。 デコンボリューション後のFFT波形を示す波形図である。 逆変換された光音響信号を示す波形図である。 再構成後デコンボリューション前の光音響信号に基づいて生成した光音響画像を示す図である。 デコンボリューション後の光音響信号に基づいて生成した光音響画像を示す図である。 光音響画像生成の動作手順を示すフローチャートである。 第3の実施形態の音響画像生成装置における光微分波形逆畳込み手段の構成を示すブロック図である。 400MHzのサンプリングレートでサンプリングした光パルス微分波形を示す波形図である。 40MHzのサンプリングレートでサンプリングした光パルス微分波形を示す波形図である。 第4の実施形態の音響画像生成装置における光微分波形逆畳込み手段の構成を示すブロック図である。 光音響信号(周波数領域)を示すグラフである。 ゼロパディング後の光音響信号を示すグラフである。 第5の実施形態の音響画像生成装置における光微分波形逆畳込み手段の構成を示すブロック図である。 光パルス微分波形(周波数領域)を示すグラフである。 高周波成分サンプル点が除去された光パルス微分波形を示すグラフである。 第6の実施形態の音響画像生成装置の構成を示す概略図である。 ポリエチレンおよびトリメチルペンタンそれぞれの吸収スペクトルを示すグラフである。
 以下、本発明の実施形態について図面を用いて説明するが、本発明はこれに限られるものではない。なお、視認しやすくするため、図面中の各構成要素の縮尺等は実際のものとは適宜異ならせてある。
 「第1の実施形態」
 まず、本発明の第1の音響画像生成装置および方法の実施形態について説明する。図1は、本実施形態の音響画像生成装置10aの基本構成を示すブロック図である。この音響画像生成装置10は、超音波探触子(プローブ)11、超音波ユニット12、レーザ光源ユニット13および表示手段14を備えている。なおこの音響画像生成装置10は、超音波画像と光音響画像との双方を生成可能に構成されている。
 そして、本実施形態の音響画像生成方法は、被検体に向けて出射され被検体内で反射した超音波を検出し、検出された超音波に基づいて超音波画像を生成し、管腔組織を表示する管腔領域を超音波画像から抽出し、第1の波長の測定光(中心波長756nm)と、第2の波長の測定光(中心波長1064nm)と、第3の波長の測定光(中心波長920nm)とを切り換えて測定光として被検体内に向けて出射させることにより被検体内で発生した光音響波を検出し、第1の波長の測定光に関する光音響データ中の第1のピークデータの有無、第2の波長の測定光に関する光音響データ中の第2のピークデータの有無、および第3の波長の測定光に関する光音響データ中の第3のピークデータの有無に基づいて、上記管腔領域が、血管領域、リンパ管領域および神経領域のいずれの領域に該当するのかの判別を行い、上記判別の結果に応じて上記管腔領域が色分けされた超音波画像を表示することを特徴とするものである。
 レーザ光源ユニット13は、被検体に出射すべきレーザ光を測定光として出射する。このレーザ光源ユニット13が本発明における光出射手段に相当する。レーザ光源ユニット13は、例えば、血液、脂肪または水の吸収ピークに含まれる波長のレーザ光を発生させる1以上の光源を有する。光源として、特定の波長成分又はその成分を含む単色光を発生する半導体レーザ(LD)、固体レーザ、ガスレーザ等の発光素子を用いることができる。例えば本実施形態においてレーザ光源ユニット13は、励起光源であるフラッシュランプ35とレーザ発振を制御するQスイッチレーザ36とを含むものである。レーザ光源ユニット13は、制御手段34がフラッシュランプトリガ信号を出力すると、フラッシュランプ35を点灯し、Qスイッチレーザ36を励起する。
 本発明では、レーザ光として、脂肪および水の吸収係数に比べてヘモグロビン(酸素化ヘモグロビンおよび脱酸素化ヘモグロビン)の吸収係数が大きい波長帯域に属する第1の波長の測定光(中心波長が第1の波長である測定光。以下同様である。)と、ヘモグロビンおよび脂肪の吸収係数に比べて水の吸収係数が大きい波長帯域に属する第2の波長の測定光と、水およびヘモグロビンの吸収係数に比べて脂肪の吸収係数が大きい波長帯域に属する第3の波長の測定光とを使用する。第1の波長の測定光に関して「脂肪および水の吸収係数に比べてヘモグロビンの吸収係数が大きい波長帯域」とは、言い換えれば、ヘモグロビン、脂肪および水のそれぞれの吸収係数に関して、ヘモグロビンの吸収係数が最も高い値を示す波長帯域ということである。第2の波長の測定光および第3の波長の測定光についても同様である。通常、測定光はスペクトル分布(例えばガウス分布等)を有し、ピークの半値幅は5~15nmであることが好ましく、例えば10nmであることが好ましい。ヘモグロビン、脂肪および水の吸収係数の大小関係が異なる3つの波長を使用することにより、主として光音響効果を発現する生体物質(吸収物質)を変えるためである。図2は、酸素化ヘモグロビン、脱酸素化ヘモグロビン、脂肪および水それぞれの吸収スペクトルを示すグラフである。このグラフにおいて、横軸は波長、縦軸は吸収係数(μ)である。このグラフから、第1の波長は700~820nmであることが好ましく、745~765nmまたは790~810nmであることが好ましい。また、第2の波長は1055~1075nmであることが好ましく、1060~1070であることが好ましい。また、第3の波長は910~930nmであることが好ましく、915~925nmであることが好ましい。本実施形態では、例えば、第1の波長は756nmであり、第2の波長は1064nmであり、第3の波長は920nmである。
 レーザ光源ユニット13は、レーザ光として1~100nsecのパルス幅を有するパルス光を出力するものであることが好ましい。そして、上記レーザ光の出力は、レーザ光と光音響波の伝搬ロス、光音響変換の効率および現状の検出器の検出感度等の観点から、10μJ/cm~数10mJ/cmであることが好ましい。さらに、パルス光出力の繰り返しは、画像構築速度の観点から、10Hz以上であることが好ましい。また、レーザ光は上記パルス光が複数並んだパルス列とすることもできる。レーザ光源ユニット13から出力されたレーザ光は、図3に示されるように、例えば光ファイバ、導光板、レンズおよびミラー等の導光手段を用いてプローブ11まで導光され、プローブ11から被検体に向けて出射される。
 プローブ11は、被検体に向けて超音波を出射し、被検体内を伝搬する音響波を検出するものである。このプローブ11が本発明における電気音響変換手段に相当する。すなわち、プローブ11は、被検体に対する超音波の照射(送信)、および被検体から反射して戻って来るその超音波の反射波の検出(受信)を行う。さらにプローブ11は、被検体内の撮像対象物がレーザ光を吸収することにより被検体内で発生した光音響波の検出も行う。なお本明細書において、「音響波」とは超音波および光音響波を含む意味である。ここで、「超音波」とは電気音響変換部の振動により被検体内に発生した弾性波およびその反射波を意味し、「光音響波」とは測定光の吸収による光音響効果により被検体内に発生した弾性波を意味する。そのためにプローブ11は、例えば一次元または二次元に配列された複数の超音波振動子11aから構成される振動子アレイを有する。超音波振動子11aは、例えば、圧電セラミクス、またはポリフッ化ビニリデン(PVDF)のような高分子フィルムから構成される圧電素子である。超音波振動子11aは、音響波を受信した場合にその受信信号を電気信号に変換する機能を有している。この電気信号は後述する受信回路21に出力される。このプローブ11は、セクタ走査対応、リニア走査対応、コンベックス走査対応等の中から診断部位に応じて選択される。
 本実施形態のプローブ11は、図3に示されるように、複数の超音波振動子11a、光ファイバ50および導光板52を備える。光ファイバ50は、レーザ光源ユニット13からのレーザ光を導光板52にまで導く。導光板52は、振動子アレイの周囲に配置され、レーザ光はこの導光板52から出射される。プローブ11を上記のように構成することにより、同じ撮像範囲の超音波画像および光音響画像を精度よく生成することができる。これにより、超音波画像と光音響画像の位置合わせが不要となる場合もある。
 レーザ光の照射は部分領域ごとに行ってもよい。例えば導光板52は、領域A、領域B、及び領域Cのそれぞれに対応して設けられる。その場合、領域Aに対応する導光板52aは領域Aの選択時にレーザ光を領域Aに照射する。また、領域Bに対応する導光板52bは領域Bの選択時にレーザ光を領域Bに照射する。そして、領域Cに対応する導光板52cは領域Cの選択時にレーザ光を領域Cに照射する。例えばプローブ11は、192ch分の超音波振動子11aを有している。192ch分の超音波振動子11aに対応する幅は、光音響画像生成に関連して例えば3つの部分領域(領域A~C)に分割されており、各部分領域の幅は64ch分の超音波振動子11aに相当する幅であるとする。このような場合、192chの超音波振動子11aに対応する生体組織の幅が57.6mmであったとすると、各部分領域の幅は19.2mmとなる。つまり、音響画像生成装置10は、光音響画像生成の際に、分割された19.2mm幅の部分領域への光照射およびデータ収集を3回繰り返し行い、全192ch分のデータを取得する。
 プローブ11は、音響波を効率よく検出するために音響整合層を振動子アレイの表面に備えてもよい。一般に圧電素子材料と生体では音響インピーダンスが大きく異なるため、圧電素子材料と生体が直接接した場合には、界面での反射が大きくなり音響波を効率よく検出することができない。このため、圧電素子材料と生体の間に中間的な音響インピーダンスを有する音響整合層が配置されることにより、音響波を効率よく検出することができる。音響整合層を構成する材料の例としては、エポキシ樹脂や石英ガラスなどが挙げられる。
 超音波ユニット12は、受信回路21、AD変換手段22、受信メモリ23、データ分離手段24、光音響画像再構成手段25a、光音響画像再構成手段25aからの信号を受信する検波・対数変換手段26a、光音響画像を構築する光音響画像構築手段27a、超音波画像再構成手段25b、超音波画像再構成手段25bからの信号を受信する検波・対数変換手段26b、超音波画像を構築する超音波画像構築手段27b、抽出手段28、判別手段29、画像合成手段30、送信制御回路33および制御手段34を有している。制御手段34は、超音波ユニット12内の各部を制御する。光音響画像再構成手段25a、検波・対数変換手段26a、光音響画像構築手段27a、超音波画像再構成手段25b、検波・対数変換手段26b、超音波画像構築手段27bが、全体として本発明における画像生成手段に相当する。
 受信回路21は、プローブ11から出力された音響波の電気信号を受信する。AD変換手段22はサンプリング手段であり、受信回路21が受信した電気信号を例えばクロック周波数40MHzのADクロック信号に同期してサンプリングしてデジタル信号に変換する。AD変換手段22は、例えば制御手段34或いは外部から入力されるADクロック信号に同期して、所定のサンプリング周期で上記電気信号をサンプリングする。
 AD変換手段22は、サンプリングしたデジタル信号(サンプリングデータ)を受信メモリ23に格納する。受信メモリ23に格納されたサンプリングデータは、光音響波に関するデータ(光音響データ)、超音波に関するデータ(超音波データ)またはこれらの混合データである。
 データ分離手段24は、受信メモリ23に格納されたサンプリングデータを光音響データと超音波データとに分離する。サンプリングデータを分離する方法は特に限定されない。例えば、超音波の照射とレーザ光の照射とを時間的にずらして実施した場合には、サンプリングデータをある時刻で分けることによりサンプリングデータを光音響データと超音波データとに分離することができる。また例えば、光音響データおよび超音波データそれぞれに関する周波数や遅延量の違いを利用してもサンプリングデータを光音響データと超音波データとに分離することができる。データ分離手段24は、分離された光音響データを光音響画像再構成手段25aに入力し、超音波データを超音波画像再構成手段25bに出力する。
 光音響画像再構成手段25aは、例えばプローブ11の64個の超音波振動子の各出力信号から得られた上記光音響データを、超音波振動子の位置に応じた遅延時間で加算し、1ライン分のデータを生成する(遅延加算法)。なお、この光音響画像再構成手段25aは、遅延加算法に代えて、CBP法(Circular Back Projection)により再構成を行うものでもよい。あるいは光音響画像再構成手段25aは、ハフ変換法又はフーリエ変換法を用いて再構成を行うものでもよい。光音響画像再構成手段25aは、上記のようにして加算整合された光音響データを検波・対数変換手段26aに出力する。
 検波・対数変換手段26aは、光音響画像再構成手段25aから出力された光音響データの包絡線を生成し、次いでその包絡線を対数変換してダイナミックレンジを広げる。そして、検波・対数変換手段26aは、上記のようにして信号処理した光音響データを光音響画像構築手段27aに出力する。
 光音響画像構築手段27aは、対数変換が施された各ラインの光音響データに基づいて、断層画像(光音響画像)を構築する。光音響画像構築手段27aは、例えば光音響データの時間軸の位置を、断層画像における深さを表す変位軸の位置に変換して光音響画像を構築する。構築された光音響画像は抽出手段28へ送信される。
 一方、超音波画像再構成手段25bは、例えばプローブ11の64個の超音波振動子の各出力信号から得られた上記超音波データを、超音波振動子の位置に応じた遅延時間で加算し、1ライン分のデータを生成する(遅延加算法)。なお、この超音波画像再構成手段25bは、遅延加算法に代えて、CBP法(Circular Back Projection)により再構成を行うものでもよい。あるいは超音波画像再構成手段25bは、ハフ変換法又はフーリエ変換法を用いて再構成を行うものでもよい。超音波画像再構成手段25bは、上記のようにして加算整合された超音波データを検波・対数変換手段26bに出力する。
 検波・対数変換手段26bは、超音波画像再構成手段25bから出力された超音波データの包絡線を生成し、次いでその包絡線を対数変換してダイナミックレンジを広げる。そして、検波・対数変換手段26bは、上記のようにして信号処理した超音波データを超音波画像構築手段27bに出力する。
 超音波画像構築手段27bは、対数変換が施された各ラインの超音波データに基づいて、断層画像(超音波画像)を構築する。超音波画像構築手段27bは、例えば超音波データの時間軸の位置を、断層画像における深さを表す変位軸の位置に変換して超音波画像を構築する。構築された超音波画像は抽出手段28へ送信される。
 制御手段34は、レーザ光源ユニット13にフラッシュランプトリガ信号及びQスイッチトリガ信号を出力し、レーザ光源ユニット13からレーザ光を出射させる。また、制御手段34は、送信制御回路33に超音波送信トリガ信号を出力し、プローブ11から超音波を出力させる。更に、制御手段34は、レーザ光の照射又は超音波送信と同期してAD変換手段22に対してサンプリングトリガ信号を出力し、AD変換手段22におけるサンプリングを開始させる。
 制御手段34は、レーザ光源ユニット13に対してレーザ光の出力を指示するフラッシュランプトリガ信号を出力する。これによりレーザ光源ユニット13では、フラッシュランプトリガ信号に応答してフラッシュランプ35が点灯し、レーザ励起が開始される。その後、制御手段34は、所定のタイミングでQスイッチトリガ信号を出力する。これによりレーザ光源ユニット13では、Qスイッチレーザ36のQスイッチがQスイッチトリガ信号に応答してON状態となり、レーザ光が出力されて、被検体にレーザ光が照射される。フラッシュランプ35の点灯からQスイッチレーザ36が十分な励起状態となるまでに要する時間は、Qスイッチレーザ36の特性などから見積もることができる。制御手段34からQスイッチを制御するのに代えて、レーザ光源ユニット13内において、Qスイッチレーザ36を十分に励起させた後にQスイッチをON状態にしてもよい。その場合は、QスイッチをON状態にした旨を示す信号を超音波ユニット12側に通知してもよい。制御手段34は、上記の処理を756nm、1064nmおよび920nmの3つの波長のそれぞれにおいて実施するよう制御する。光源の制御方法は、レーザ光源の種類によって適宜選択される。このような方法としては、例えば、複数の波長を発信可能なレーザ光源の発信波長を切り替える方法や、波長の異なる複数種類のレーザ光源を順次駆動させる方法が挙げられる。
 また制御手段34は、超音波送信を指示する超音波トリガ信号を送信制御回路33に出力する。送信制御回路33は、上記超音波トリガ信号を受けると、プローブ11から超音波を送信させる。制御手段34は、先にフラッシュランプトリガ信号を出力し、その後超音波トリガ信号を出力する。つまり制御手段34は、フラッシュランプトリガ信号の出力に後続して、超音波トリガ信号を出力する。フラッシュランプトリガ信号が出力されることで被検体に対するレーザ光の照射および光音響波の検出が行われた後、超音波トリガ信号が出力されることで被検体に対する超音波の送信およびその反射波の検出が行われる。
 制御手段34はさらに、AD変換手段22に対して、サンプリング開始を指示するサンプリングトリガ信号を出力する。光音響データを生成する場合には、このサンプリングトリガ信号は、上記フラッシュランプトリガ信号が出力された後で、かつ超音波トリガ信号が出力される前、より好ましくは被検体に実際にレーザ光が照射されるタイミングで出力される。そのためにサンプリングトリガ信号は、例えば制御手段34がQスイッチトリガ信号を出力するタイミングに同期して出力される。AD変換手段22は上記サンプリングトリガ信号を受けると、プローブ11にて検出された上記電気信号のサンプリングを開始する。
 また、制御手段34は、光音響画像を様々な形態で表示手段14に表示するように、プローブ11、超音波ユニット12、レーザ光源ユニット13および表示手段14を制御する。
 例えば、制御手段34は、測定光が照射された領域と同じ領域に、超音波を照射するようにプローブ11を制御し、被検体内で反射した超音波を検出してこの超音波を電気信号に変換するようにプローブ11を制御し、この電気信号に基づいて超音波画像を生成するように超音波ユニット12を制御し、光音響画像と超音波画像とを重畳して表示するように表示手段14を制御することもできる。
 なお、「測定光が照射された領域と同じ領域に」超音波を照射するとは、測定光を照射して得られた光音響画像の撮像範囲と、超音波を照射して得られた超音波画像の撮像範囲とが少なくとも一部において重畳するように、超音波を照射することを意味する。
 抽出手段28は、管腔組織を表示する管腔領域を超音波画像から抽出するものである。本発明では、管腔組織とは、血管、リンパ管および神経組織を意味する。管腔領域の抽出は特に限定されず公知の手法を使用することができる。超音波画像から注目すべき管腔領域を予め抽出することにより、光音響画像中のピークデータの有無を判断する領域を、その抽出された管腔領域に対応する領域に限定でき、演算処理が減らすことができるという利点がある。しかしながら、管腔領域の抽出は本発明において必須ではない。例えば、特定の管腔領域を抽出しない場合には、超音波画像と光音響データが取得できた範囲とが重畳する領域内の画素ごとに、ピークデータの有無を判断しかつ色分けすればよい。
 判別手段29は、抽出された管腔領域が、血管を表示する血管領域、リンパ管を表示するリンパ管領域および神経組織を表示する神経領域のいずれの領域に該当するのかの判別を行う。
 上記判別は具体的には次のようにして行われる。
 まず、判別手段29は、光音響画像構築手段27aから、756nm、1064nmおよび920nmの3つの波長のそれぞれに基づいた3つの光音響データを取得する。光音響データは、光音響画像再構成手段25aによって再構成された信号波形データ、検波・対数変換手段26aによって対数処理されたデータ、および光音響画像構築手段27aによって信号波形データから構築された画像データのいずれでもよい。ただし、本実施形態では光音響データは、光音響画像構築手段27aによって信号波形データから構築された画像データであるとする。次に判別手段29は、波長が756nm(第1の波長)の光に関する画像データ(つまり光音響データ)の中に、上記管腔領域に対応する部分の第1のピーク輝度が存在するか否かを判断し、その判断結果を記憶する。なお、ピーク輝度は、周辺に比べて輝度が高い部分を意味し、本発明におけるピークデータに相当する。また、波長が1064nm(第2の波長)の光に関する画像データの中に、上記管腔領域に対応する部分の第2のピーク輝度が存在するか否かを判断し、その判断結果を記憶する。また、波長が920nm(第3の波長)の光に関する画像データの中に、上記管腔領域に対応する部分の第3のピーク輝度が存在するか否かを判断し、その判断結果を記憶する。
 管腔領域に対応する画像データ部分は、超音波画像の画素位置と光音響画像の画素位置とを空間的に対比することにより判断される。本実施形態の場合、図3に示されるようなプローブを使用しているため、プローブを動かすことなく超音波画像および光音響画像を取得することができる。したがって、位置合わせをしなくても、超音波画像全体に対する管腔領域の位置と、光音響画像全体に対する当該管腔領域に対応する画像データ部分の位置とはほぼ一致している。
 そして、ピーク輝度の有無についての3つの上記判断結果に基づいて、下記の表1で表されるテーブルデータを参照して、管腔領域が、血管領域、リンパ管領域および神経領域のいずれの領域に該当するのかの判別を行う。
Figure JPOXMLDOC01-appb-T000001
 表1において、「+」記号はその波長においてピーク輝度(ピークデータ)が存在したことを表し、「-」記号はその波長においてピーク輝度(ピークデータ)が存在しなかったことを表す。なお、ピークデータの有無の判断は、所定の閾値を基準に判断する。つまり、ピークデータと思われる信号があったとしても上記閾値未満の信号は、本発明においてピークデータとして取り扱わない。当該閾値は、血管、リンパ管および神経組織の項目間で同じ結果とならないように波長ごとに適宜設定される。
 つまり、表1は、第1のピークデータがあり、第2のピークデータがありかつ第3のピークデータがない場合に、上記管腔領域は血管領域に該当するとの判別が行われることを示す。これは、血管中にヘモグロビンおよび水が存在することから、血管全体の吸収係数が、第1の波長帯域(脂肪および水の吸収係数に比べてヘモグロビンの吸収係数が大きい波長帯域)および第2の波長帯域(ヘモグロビンおよび脂肪の吸収係数に比べて水の吸収係数が大きい波長帯域)において相対的に大きくなり、第3の波長帯域(水およびヘモグロビンの吸収係数に比べて脂肪の吸収係数が大きい波長帯域)において相対的に小さくなることを利用している。また、表1は、第1のピークデータがなく、第2のピークデータがありかつ第3のピークデータがない場合に、上記管腔領域はリンパ管領域に該当するとの判別が行われることを示す。これは、リンパ管中にヘモグロビンおよび脂肪が存在せず水が存在することから、リンパ管全体の吸収係数が、第2の波長帯域において相対的に大きくなり、第1および第3の波長帯域において相対的に小さくなることを利用している。また、表1は、第1のピークデータがなく、第2のピークデータがなくかつ第3のピークデータがある場合に、上記管腔領域は神経領域に該当するとの判別が行われることを示す。これは、神経組織中にヘモグロビンおよび水が存在せず神経鞘が脂肪から構成されていることから、神経組織全体の吸収係数が、第3の波長帯域において相対的に大きくなり、第1および第2の波長帯域において相対的に小さくなることを利用している。
 或いは、ピーク輝度の有無についての3つの上記判断結果に基づいて、下記の表2で表されるテーブルデータを参照して、管腔領域が、血管領域、リンパ管領域および神経領域のいずれの領域に該当するのかの判別を行うことも可能である。
Figure JPOXMLDOC01-appb-T000002
 表2は、第1のピークデータがありかつ第3のピークデータがない場合に、上記管腔領域は血管領域に該当するとの判別が行われることを示す。これは、血管中にヘモグロビンが存在し脂肪が存在しないことから、血管全体の吸収係数が、第1の波長帯域において相対的に大きくなり、第3の波長帯域において相対的に小さくなることを利用している。また、表2は、第1のピークデータがなくかつ第2のピークデータがある場合に、上記管腔領域はリンパ管領域に該当するとの判別が行われることを示す。これは、リンパ管中にヘモグロビンが存在せず水が存在することから、リンパ管全体の吸収係数が、第2の波長帯域において相対的に大きくなり、第1の波長帯域において相対的に小さくなることを利用している。また、表2は、第2のピークデータがなくかつ第3のピークデータがある場合に、上記管腔領域は神経領域に該当するとの判別が行われることを示す。これは、神経組織中に水が存在せず神経鞘が脂肪から構成されていることから、神経組織全体の吸収係数が、第3の波長帯域において相対的に大きくなり、第2の波長帯域において相対的に小さくなることを利用している。上記のように、管腔領域に対する判別は、各項目それぞれにおいて、2つの組み合わせの波長を考慮するだけで行うことも可能である。このような手法は、例えばある波長においてピークデータの有無の判断自体を行えなかった場合等に有効である。
 或いは、ピーク輝度の有無についての3つの上記判断結果に基づいて、下記の表3で表されるテーブルデータを参照して、管腔領域が、血管領域、リンパ管領域および神経領域のいずれの領域に該当するのかの判別を行うことも可能である。
Figure JPOXMLDOC01-appb-T000003
 表3は、第1のピークデータがありかつ第2のピークデータがある場合に、上記管腔領域は血管領域に該当するとの判別が行われることを示す。これは、血管中にヘモグロビンおよび水が存在することから、血管全体の吸収係数が、第1および第2の波長帯域において相対的に大きくなることを利用している。また、表3は、第1のピークデータがなくかつ第2のピークデータがある場合に、上記管腔領域はリンパ管領域に該当するとの判別が行われることを示す。これは、リンパ管中にヘモグロビンが存在せず水が存在することから、リンパ管全体の吸収係数が、第2の波長帯域において相対的に大きくなり、第1の波長帯域において相対的に小さくなることを利用している。また、表3は、第1のピークデータがなくかつ第2のピークデータがない場合に、上記管腔領域は神経領域に該当するとの判別が行われることを示す。これは、神経組織中にヘモグロビンおよび水が存在しないことから、神経組織全体の吸収係数が、第1および第2の波長帯域において相対的に小さくなることを利用している。上記のように、管腔領域に対する判別は、第1の波長の測定光および第2の波長の測定光それぞれに関するピーク輝度の有無の結果のみによって行うことも可能である。このような手法も、例えばある波長においてピークデータの有無の判断自体を行えなかった場合等に有効である。さらに、上記のことは、第3の波長の測定光に関する光音響データを取得せずとも、第1の波長の測定光および第2の波長の測定光それぞれに関する光音響データのみで、管腔領域についての判別を行えることを意味する。このような手法は、第3の波長の測定光を照射する必要がないためコストを低減する場合等に有効である。なお、2つの波長の組合せは第1の波長および第3の波長でもよく、上記同様に、2つの波長の測定光それぞれに関する光音響データのみで、管腔領域についての判別が行える。
 画像合成手段30は、画像構築手段27aおよび27bにそれぞれ構築された光音響画像および超音波画像に基づいて、上記判別の結果に応じて上記管腔領域が色分けされた画像を生成する。或いは、予め管腔領域が抽出されていなければ、超音波画像の画素ごとに、血管領域、リンパ管領域および神経領域のいずれの領域に該当するのかの判別を行って色分けすることができる。色分けは、特に限定されず、それぞれ異なる色度(色相および明度)を血管領域、リンパ管領域および神経領域に割り当てることにより実施される。さらに、画像合成手段30は、上記で色分けが付された画像に必要な処理(例えばスケールの補正等)を施して表示手段14に表示するための最終的な画像(表示画像)を生成する。画像合成手段30は、本発明の表示制御手段に相当する。画像合成手段28は、生成した表示画像を表示手段14に表示させる。なお、本発明では、色分けされた超音波画像を表示できればよいため、光音響画像の表示は必要ではないが、対比観察するために超音波画像と共に光音響画像を表示してもよい。
 以上より、本実施形態に係る音響画像生成装置および音響画像生成方法は、少なくとも、脂肪および水の吸収係数に比べてヘモグロビンの吸収係数が大きい波長帯域に属する第1の波長の測定光と、ヘモグロビンおよび脂肪の吸収係数に比べて水の吸収係数が大きい波長帯域に属する第2の波長の測定光とを切り換えて測定光として被検体内に照射することにより被検体内で発生した光音響波を検出し、少なくとも、第1の波長の測定光に関する光音響データ中の第1のピークデータの有無、第2の波長の測定光に関する光音響データ中の第2のピークデータの有無に基づいて、上記管腔領域が、血管領域、リンパ管領域および神経領域のいずれの領域に該当するのかの判別を上記管腔領域に対して行うものである。このように本発明では、少なくとも2つの異なる所定の波長を使用して取得した少なくとも2つの光音響データを指標として管腔領域の判別を行うから、光音響分析法を用いた生体組織の判別方法において、超音波画像中に表された管腔組織を精度よく判別することが可能となる。
 <設計変更>
 第1の実施形態では、3つの異なる波長を使用して管腔組織についての判別を行い、また、2つの異なる波長を使用しても管腔組織についての判別が可能であること説明した。しかしながら、本発明は下記のように、水およびヘモグロビンの吸収係数に比べて脂肪の吸収係数が大きい波長帯域に属しかつ第3の波長と異なる第4の波長の測定光を使用すれば、さらに判別の精度を向上させることができる。
 図4は、脂肪と共通する構造(CHボンド)を有するポリエチレン(polyethilene)の吸収スペクトルを示すグラフである。このグラフを考慮すると、上記第4の波長としては、1150~1250nmまたは1700~1800nmの波長帯域に属する波長を使用することができる。実際に、上記の波長帯域ではヘモグロビンおよび水の吸収係数は脂肪の吸収係数より小さい。例えば、第4の波長は1730nmまたは1765nmであることが好ましい。この場合に、ピーク輝度の有無についての4つの判断結果に基づいて、下記の表4で表されるテーブルデータを参照して、管腔領域が、血管領域、リンパ管領域および神経領域のいずれの領域に該当するのかの判別を行うことが可能である。
Figure JPOXMLDOC01-appb-T000004
 つまり、表4は、第1のピークデータがあり、第2のピークデータがあり、第3のピークデータがなくかつ第4のピークデータがない場合に、上記管腔領域は血管領域に該当するとの判別が行われることを示す。また、表4は、第1のピークデータがなく、第2のピークデータがあり、第3のピークデータがなくかつ第4のピークデータがない場合に、上記管腔領域はリンパ管領域に該当するとの判別が行われることを示す。また、表4は、第1のピークデータがなく、第2のピークデータがなく、第3のピークデータがありかつ第4のピークデータがある場合に、上記管腔領域は神経領域に該当するとの判別が行われることを示す。これらは、表1における説明と同様の理由による。
 「音響画像生成装置および方法の第2の実施形態」
 次に音響画像生成装置の第2の実施形態について説明する。本実施形態は、超音波ユニット12が光微分波形逆畳込み手段38および補正手段39を有する点で第1の実施形態と異なる。したがって、第1の実施形態と同様の構成要素の説明は特に必要がない限り省略する。
 図5は、本実施形態の音響画像生成装置10bの構成を示す概略図である。この音響画像生成装置10bは、プローブ11、超音波ユニット12、レーザ光源ユニット13および表示手段14を備えている。なおこの音響画像生成装置10bも、超音波画像と光音響画像との双方を生成可能に構成されている。
 そして、本実施形態の音響画像生成方法は、被検体に向けて出射され被検体内で反射した超音波を検出し、検出された超音波に基づいて超音波画像を生成し、管腔組織を表示する管腔領域を超音波画像から抽出し、第1の波長の測定光(中心波長756nm)と、第2の波長の測定光(中心波長1064nm)と、第3の波長の測定光(中心波長920nm)とを切り換えて測定光として被検体内に向けて出射させることにより被検体内で発生した光音響波を検出し、再構成された光パルス微分波形をデコンボリューションした光音響信号を測定光ごとに生成し、デコンボリューションされた光音響信号に基づいて測定光ごとに光音響データを生成し、第1の波長の測定光に関する光音響データ中の第1のピークデータの有無、第2の波長の測定光に関する光音響データ中の第2のピークデータの有無、および第3の波長の測定光に関する光音響データ中の第3のピークデータの有無に基づいて、上記管腔領域が、血管領域、リンパ管領域および神経領域のいずれの領域に該当するのかの判別を行い、上記判別の結果に応じて上記管腔領域が色分けされた超音波画像を合成し、合成された超音波画像を表示することを特徴とするものである。
 プローブ11およびレーザ光源ユニット13については、前述した通りである。
 <超音波ユニット>
 本実施形態の超音波ユニット12は、第1の実施形態の超音波ユニットの構成に加えて、光微分波形逆畳込み手段38、補正手段39を有する。
 光微分波形逆畳込み手段38は、再構成された光音響信号から被検体に照射された光の光強度の時間波形の微分波形である光パルス微分波形(パルスレーザ光についての光微分波形)をデコンボリューションした光音響信号を生成する。光パルス微分波形をデコンボリューションすることで、t≠0に再構成した圧力分布から、t=0に再構成した圧力分布、すなわち吸収分布を求めることができる。光微分波形逆畳込み手段38は、再構成前の光音響信号に対してデコンボリューションを行ってもよい。デコンボリューションの詳細な説明は後述する。
 補正手段39は、光パルス微分波形がデコンボリューションされた信号を補正し、光パルス微分波形がデコンボリューションされた信号から、プローブ11における超音波振動子の受信角度依存特性の影響を除去する。また、補正手段39は、受信角度依存特性に加えて、又はこれに代えて、光パルス微分波形がデコンボリューションされた信号から被検体における光の入射光分布の影響を除去する。補正手段39を省き、これらの補正を行わずに、光音響画像の生成を行ってもよい。
 画像合成手段30は、第1の実施形態で説明した機能の他、それぞれの位置で取得されかつ光パルス微分波形がデコンボリューションされた光音響信号および位置情報を使用して、ボリュームデータを生成する機能も有する。ボリュームデータの生成は、それぞれの光音響信号の信号値をこれに関連付けられた位置情報に従って、計算上の空間(仮想空間)に割り当てることにより行う。信号値を割り当てる際に、割り当てる場所が重複する場合には、その重複する場所の信号値として例えばそれらの信号値の平均値またはそれらのうちの最大値が採用される。また、必要に応じて、割り当てられる信号値がない場合には、その周辺の信号値を用いて補間することが好ましい。補間は、例えば、最近接点から順に4つの近接点の重み付き平均値を補間場所に割り当てることにより行う。これにより、より自然な形のボリュームデータを生成することができる。さらに、画像合成手段30は、生成されたボリュームデータに必要な処理(例えばスケールの補正およびボクセル値に応じた色付け等)を施す。そして、例えばユーザから指定された観察方法(例えば2次元方式又は3次元方式)に従って生成された光音響画像が、表示手段14に表示するための最終的な画像(表示画像)となる。
 図6に、光微分波形逆畳込み手段38の詳細な構成を示す。光微分波形逆畳込み手段38は、フーリエ変換手段41、42と、逆フィルタ演算手段43と、フィルタ適用手段44と、フーリエ逆変換手段45とを有する。フーリエ変換手段(第1のフーリエ変換手段)41は、離散フーリエ変換により、再構成された光音響信号を時間領域の信号から周波数領域の信号へと変換する。フーリエ変換手段(第2のフーリエ変換手段)42は、離散フーリエ変換により、光パルス微分波形を所定のサンプリングレートでサンプリングした信号を時間領域の信号から周波数領域の信号へと変換する。フーリエ変換のアルゴリズムにはFFT(高速フーリエ変換:Fast Fourier Transform)を用いることができる。
 ここで、本発明におけるデコンボリューションの基本アルゴリズムについて概説する。
 従来、圧力分布画像に代えて、吸収分布画像を生成する技術がこれまでにいくつか知られている。例えば特開平3-156362号公報(以下、特許文献2)には、試料の熱的インパルス応答から光音響画像の分解能劣化を修復する逆フィルタを求め、得られた光音響画像に逆フィルタを作用させることで、理想的な光音響画像、すなわち試料表面の点光源によって励起され、検出されるその点(無限小)における熱的インピーダンス情報(=無限小なる点熱源の集合)を得ることが記載されている。
 特許文献2では、より詳細には、まず、試料の熱インパルス応答h(x,y)を計算し、次いで光音響画像p(x,y)を構成する。熱的インパルス応答は、無限小なる一点の温度変化が試料表面の微小変位に変換されるまでの伝達関数と定義されている。その後、熱インパルス応答h(x,y)と光音響画像p(x,y)とをそれぞれフーリエ変換し、フーリエ変換像H(μ,υ)、P(μ,υ)を得る。1/H(μ,υ)を逆フィルタとして用い、Q(μ,υ)=P(μ,υ)・(1/H(μ,υ))により、Q(μ,υ)を計算する。そのようにして計算されたQ(μ,υ)をフーリエ逆変換することで、理想的な光音響画像q(x,y)が得られる。
 上記特許文献の他にも、Yuan Xu, et al., IEEE Transactions on Medical Imaging, Volume 21 (2002), p.823-828(以下、非特許文献1)には、論理的には、有限の時間幅を持つ光パルスη(t)をフーリエ変換したものη(k)としたとき、その微分をiη(k)として考慮することが記載されている。実験的には、超音波検出素子であるPZT(チタン酸ジルコン酸鉛)での検出帯域以内に励起光パルス波形が入るようにパルス幅を長くしたマイクロ波を被検体に照射し、通常のPZTプローブで光音響信号を検出し、吸収分布を再構成している。
 また、Yi Wang, et al., Physics in Medicine and Biology, Volume 49 (2004), p.3117-3124(以下、非特許文献2)には、被写体中の微小要素からの圧力波形と光パルス微分関数と装置インパルス応答関数とを合わせたミクロ波形と、吸収分布とを、観測圧力波形に関連付けることが記載されている。吸収像再構成は、光微分とシステム応答とを含むpd0を測定して、各素子の圧力波形からpd0をデコンボリューションしたのちに、フィルタ補正逆投影法(Filtered Backprojection法)を用いて行う。実験的には、パルス幅の短いパルスレーザ光で励起し、超音波の検出帯域を通常の超音波診断装置よりも広げて、ハイドロホン+オシロスコープで光音響信号を検出し、吸収分布を再構成する。
 しかしながら、非特許文献1では、光パルスをフーリエ変換したη(k)を位置依存の関数η(r,kとして扱っていない。このため、t=0に再構成できる(検出した波形を基に時間を遡って光が入射した瞬間(t=0)に発生した圧力分布を推定する計算を行うことができる)場合には正確な吸収分布を得ることができるものの、t≠0に再構成した場合(光が入射した瞬間(t=0)の圧力分布を再構成できずに、時刻t=0からしばらく時間が経った後の圧力分布を推定することになる場合)には、光パルス幅成分が除去できず、圧力分布となる。
 また、非特許文献1及び2では、励起レーザと超音波検出装置とのどちらかを実用的な範囲から外してレーザ発光時間と超音波検出時とを合わせて再構成している。このため、非特許文献1及び2では問題は明確には現れないものの、実用的な装置構成を考えた場合、非特許文献1及び2の手法では、t=0とする再構成が困難である。すなわち、例えば実用的な装置構成として、
 ・サンプリング周波数100MHz以下で、PZTなどを利用した狭帯域プローブを用いた超音波検出装置
 ・強い光音響信号が出る1-100nsオーダーの光パルス幅を持つ励起レーザ
を用いた場合、レーザパルス発光が超音波検出時間と比較して短時間の現象のため、t=0に相当する状態(吸収分布と圧力分布とが比例する時間帯)に正確に再構成できない。
 ここで、「時刻t=0の圧力分布」は「吸収分布」を表すので、時刻t=0圧力分布が求められれば吸収分布を得ることができる。しかし、一般的な超音波検出装置のサンプリング間隔は25ns程度であり、光が当たった瞬間の時刻t=0のつもりで計算しても、実際はt=±12.5ns程度の時間幅でずれが生じる。例えば光パルス幅が100nsと長い場合には、上記のずれ(±12.5ns)は誤差と考えればよいものの、光パルス幅が10nsであれば、上記のずれは誤差とは呼べなくなり、光が当たった瞬間の圧力分布というよりも圧力波の伝播過程の圧力分布に移行することとなる。その「圧力波の伝播過程の圧力分布」は、「吸収分布」に一致しない。
 更に、実験的な生体等のサンプルにおいては、t=0の圧力分布を定義することが困難である。生体内の音速を例えば1530m/sと仮定し、検出時刻とレーザ照射時刻との差を伝播時間とすると、伝播時間から伝播距離が求める。生体内の音速が1530m/sで一定であれば、伝播時間から求めた伝播距離は実際の伝播距離と一致する。しかし、実際には、音速は生体内で一様ではなく、計算上の伝播距離と実際の伝播距離とにずれが生じる。従って、検出信号から伝播距離を推定する場合には、音速差に起因する伝搬距離のあいまいさが残る。生体内の伝播距離のあいまいさを伝播時間のあいまいさと捉えると、時刻t=0も曖昧性を持つことになり、t=0の圧力分布というのもあいまいになり、定義が困難となる。t=0の分布が吸収分布であるのに対し、t>0の分布は伝播時の圧力分布であり、これらが混ざると吸収分布とは言えなくなる。
 そこで、本発明者は、実用的な装置においても検出信号から吸収分布を求めることを試みた。
 光吸収体であるミクロ吸収粒子を考え、このミクロ吸収粒子がパルスレーザ光を吸収して圧力波(光音響圧力波)が生じることを考える。時刻をtとして、位置rにあるあるミクロ吸収粒子から発生する光音響圧力波を、位置Rで観測した場合の圧力波形pmicro(R,t)は、[Phys. Rev. Lett. 86(2001)3550.]より、以下の球面波となる。
Figure JPOXMLDOC01-appb-M000001
 ここで、I(t)は励起光の光強度の時間波形であり、係数kは、粒子が光を吸収して音響波を出力する際の変換係数であり、vは被検体の音速である。また、位置r、Rは、空間上の位置を示すベクトルである。ミクロ吸収粒子から発生する圧力は、上記式に示すように、光パルス微分波形に比例した球面波となる。
 実際にイメージングする対象から得られる圧力波形は、よりマクロな吸収体のサイズを有しているため、上記のミクロ吸収波形を重ね合わせた波形になると考える(重ね合わせの原理)。ここで、マクロな光音響波を発する粒子の吸収分布をA(r-R)とし、そのマクロな吸収体からの圧力の観測波形をpmacro(R,t)とする。観測位置Rでは、各時刻において、観測位置Rから半径vtに位置する吸収粒子からの光音響波が観測されることになるため、観測波形pmacro(R,t)は、以下の圧力波形の式で示される。
Figure JPOXMLDOC01-appb-M000002
 上記式(1)からわかるように、観測波形は、光パルス微分のコンボリューション型を示す。
 非特許文献2では、上記式に更に装置インパルス応答をコンボリューションした式を基本に考え、観測波形pmacroから、光パルス微分と装置インパルス応答をデコンボリューション操作後に、吸収分布A(r-R)の再構成をフィルタ補正逆投影法で行うことを提案している。非特許文献2では、光パルス微分の影響よりも装置インパルス応答を考慮することを重視しており、それゆえに、装置として十分S/N比(Signal to Noise Ratio)が取れていない周波数帯域まで強調され、処理後の画像ノイズが増加する。そのため、非特許文献2では、高周波フィルタを含めて処理することが必要になる。
 非特許文献2のように帯域が広い超音波プローブを用いるならば上記の方法でもよい。しかし、実用的な狭帯域プローブを用いた場合には、装置のインパルス応答に対して検出する超音波信号の周波数が低いため、通常の超音波プローブで検出する信号(低周波)に対してデコンボリューションする波形の帯域が広くなり、適切にデコンボリューションすることができず、画像として破たんが生じる。そこで、吸収分布を得る上で重要なのは光パルス微分項を考慮することであるため、本発明では、デコンボリューション処理において、光パルス微分項のみを考慮してデコンボリューションを行うこととする。
 更に、本発明では、従来の超音波システムにおいても用いられている圧力分布を求める再構成(FTA法、DnS法、BP法など)を適用後に、再構成後の画像がt≠0の圧力分布、すなわち圧力波の伝播過程の圧力分布であることを認識の上で、これを吸収分布に変換することを考えた。圧力分布再構成の基本的な考え方としては、検出位置R=(x,y,0)の再構成後の圧力分布prec(R,t)は、各時刻tにおける、Rの検出軸(r-R)上の|r-R|位置に存在する吸収体から発生する球面波を、周囲の圧電素子の信号も含めて足し合わせてその位置における圧力強度を計算して得られる。従って、検出軸(r-R)に存在するミクロの吸収体から発生し、伝播する光音響波を重ねあわせたprec(R,t)は以下のように表記できる。
Figure JPOXMLDOC01-appb-M000003
このように吸収分布を1次元で考えて良くなることで、上記式のような圧力表記が可能となる。上記式(2)は、検出軸(r-R)をz軸、検出素子からの距離|r-R|をzとすると、下記のように表すことができる。
Figure JPOXMLDOC01-appb-M000004
 更に、式(3)から積分とは関係ないx,yは表記を省略し、z軸を時間で表記すると、上記式は、下記式のように表すことができる。
Figure JPOXMLDOC01-appb-M000005
 このように、(x,y,0)に位置する検出素子における1軸(時間軸又はz’軸)のコンボリューション表記が可能となる。
 上記式(4)の両辺をフーリエ変換し、周波数軸において、圧力分布のフーリエ係数を光パルスの時間微分のフーリエ係数で割ることで、光パルス微分をデコンボリューションすることができる。
Figure JPOXMLDOC01-appb-M000006
 デコンボリューション後、得られた式を、フーリエ逆変換することで、A(x,y,vt)を求め、吸収分布を画像化することができる。ここで求めたA(x,y,vt)には、検出素子受信角度依存性D(x,y,z)や、プローブ帯域の固有振動が重畳されている可能性がある。例えば、装置関数D(x,y,z)を事前に求めておいた上でその逆数をA(x,y,vt)に掛けることで、検出素子受信角度依存性の影響を除去できる。また、帯域の固有振動に関してはヒルベルト変換や直交検波処理により強度画像化すれば、その影響を除去することができる。更に、検体に入射する光空間分布L(x,y,z)を別に観測やシミュレーションにより求め、吸収係数に比例する画素値μ(x,y,z)を、μ(x,y,z)=A(x,y,vt)/L(x,y,z)により求めてもよい。この場合、より生体組織と密接な関係のある物理量である吸収係数の分布画像を得ることができる。
 以上を踏まえ、光パルス微分波形のデコンボリューションの手順について説明する。
 まず、再構成後の光音響信号を入力し、再構成後の光音響信号をフーリエ変換手段41においてFFTによりフーリエ変換する。図7Aに再構成後の光音響信号を示し、図7BにFFT後の光音響信号FFTを示す。フーリエ変換することで、図7Aに示す時間領域の信号が、図7Bに示すような周波数領域の信号に変換される。なお、図7Bでは、光音響信号FFTの絶対値を示しているが、実際の処理では複素数のまま処理される。
 そして、光パルス微分波形hをフーリエ変換手段42においてFFTによりフーリエ変換する。図7Cに光パルス微分波形(h)を示し、図7DにFFT後の光パルス微分波形FFT(fft_h)を示す。フーリエ変換することで、図7Cに示す時間領域の信号(波形)が、図7Dに示す周波数領域の信号に変換される。なお、図7Cにおける黒丸は、光パルス微分波形におけるサンプリング点を表している。また、図7Dでは、光パルス微分波形FFTの絶対値を示しているが、実際の処理では複素数のまま処理される。
 そして、逆フィルタ演算手段43によって、上記で得られたFFT後の光パルス微分波形FFT(fft_h)の逆数を、光パルス微分波形FFTフィルタ(逆フィルタ)として求める。光パルス微分波形FFTフィルタは、具体的にはconj(fft_h)/abs(fft_h)2で求めることができる。ここで、conj(fft_h)はfft_hの共役複素数、abs(fft_h)はfft_hの絶対値を表す。図7Eに、光パルス微分波形FFTフィルタを示す。図7Dに示す光パルス微分波形FFTの逆数を求めることで、図7Eに示すような光パルス微分波形FFTフィルタを得ることができる。
 上記のようにして求めた光パルス微分FFTフィルタと、再構成後の光音響信号FFTとをフィルタ適用手段44によって要素ごとに乗算し、光音響信号FFTから光パルス微分波形をデコンボリューションする。図7Fに、デコンボリューション後のFFT波形を示す。図7Bに示す光音響信号FFTと図7Eに示す光パルス微分波形FFTフィルタとの乗算を行うことで、図7Fに示すFFT波形が得られる。
 そして、光パルス微分波形をデコンボリューションしたFFT波形を、フーリエ逆変換手段45において逆FFTによりフーリエ逆変換し、周波数領域の信号を時間領域の信号に戻す。図7Gは、逆変換された光音響信号を示す。図7Fに示すFFT波形(周波数領域の信号)を逆FFTすることで、図7Gに示すデコンボリューション後の光音響信号(時間領域の信号)が得られる。このデコンボリューション後の光音響信号は、光吸収分布に光パルス微分波形(図7C)がコンボリューションされた再構成後の光音響信号(図7A)から、光パルス微分波形をデコンボリューションした吸収分布に相当する。
 図8Aに、再構成後デコンボリューション前の光音響信号(図7A)に基づいて生成した光音響画像を示し、図8Bに、デコンボリューション後の光音響信号(図7G)に基づいて生成した光音響画像を示す。図8Aに示す、再構成後の光音響信号に基づいて生成した光音響画像は、実質的に圧力分布を画像化したものであり、1本の血管が二重に表示されるなど、画像判定上、血管の位置が確認しづらい。これに対し、図8Bに示すデコンボリューション後の光音響信号に基づいて生成した光音響画像は、光パルス微分波形をデコンボリューションしていることで吸収体の分布を画像化できており、血管の位置を確認しやすくなっている。これにより、超音波画像中の管腔領域について血管領域であるとする判別の精度も向上することになる。
 本実施形態においては、光音響信号のサンプリングレートと光パルス微分波形のサンプリングレートとは等しいものとする。例えば光音響信号はFs=40MHzのサンプリングクロックに同期してサンプリングされており、光微分パルスも、Fs_h=40MHzのサンプリングレートでサンプリングされている。フーリエ変換手段41は、40MHzでサンプリングされた光音響信号を、例えば1024点のフーリエ変換でフーリエ変換する。また、フーリエ変換手段42は、40MHzでサンプリングされた光パルス微分波形を1024点のフーリエ変換でフーリエ変換する。
 図9は、本実施形態における音響画像生成方法における動作手順を示す。
 制御手段34は、レーザ光源ユニット13に対してフラッシュランプトリガ信号を出力する。レーザ光源ユニット13は、フラッシュランプトリガ信号を受けてフラッシュランプ35を点灯する。制御手段34は、所定のタイミングでQスイッチトリガ信号を出力する。レーザ光源ユニット13は、Qスイッチトリガ信号が入力されると、Qスイッチレーザ36をONにし、パルスレーザ光を出射する。出射したパルスレーザ光は、例えばプローブ11まで導光され、プローブ11から被検体に照射される(Step1)。
 プローブ11は、レーザ光の照射後、レーザ光の照射により被検体内で発生した光音響信号を検出し、この時のプローブ11の位置情報を例えば磁気センサ等の位置センサで取得する(Step2)。超音波ユニット12の受信回路21は、プローブ11で検出された光音響信号を受信する。そして、プローブ11が走査され(Step3)、光音響画像として撮像する対象となる領域すべてに対して走査を行った場合には、光音響信号の検出および位置情報の取得を終了する(Step4)。制御手段34は、被検体に対する光照射のタイミングに合わせてAD変換手段22にサンプリングトリガ信号を送る。AD変換手段22は、サンプリングトリガ信号を受けて光音響信号のサンプリングを開始し、光音響信号のサンプリングデータを受信メモリ23に格納する(Step5)。このとき、位置情報も一緒に受信メモリ23に格納される。
 光音響画像再構成手段25aは、受信メモリ23から光音響信号のサンプリングデータを読み出し、読み出した光音響信号のサンプリングデータに基づいて、光音響信号を再構成する(Step6)。光微分波形逆畳込み手段38は、再構成された光音響信号から、被検体に照射されたパルスレーザ光の光強度の時間波形を微分した光パルス微分波形をデコンボリューションする(Step7)。このデコンボリューションにより、吸収分布を示す光音響信号が得られる。
 補正手段39は、光パルス微分波形がデコンボリューションされた信号を、検出素子受信角度依存性や被検体における光の入射分布で補正する。検波・対数変換手段26aは、補正手段39で補正された光音響信号の包絡線を求め、求めた包絡線を対数変換する。光音響画像構築手段27aは、対数変換が施された各ラインのデータに基づいて、ある断面における光音響画像を生成する。この光音響画像は、吸収分布をデータ化した吸収分布画像である。つまり本実施形態では、管腔領域についての判別は、この吸収分布をデータ化した光音響データに基づいて行われる。
 一方、画像合成手段30はこれらの光音響画像および位置情報を使用してボリュームデータを生成する(Step8)。さらに、ボリュームデータの表示態様が決められる(Step9)。表示手段14は、表示画面上に、所定の表示態様による吸収分布を表す光音響画像を表示する(Step10)。
 本実施形態では、ひとまず、光音響画像再構成手段25aにて、通常の再構成法により発光時刻(t=0)の圧力分布として光音響信号(光音響画像)を再構成する。つぎに、実際は、光の発光時間は有限の長さであることから、再構成時にt=0としていた時刻を、有限の時間と考え、光微分波形逆畳込み手段38にて、再構成後の光音響画像から光パルス微分波形をデコンボリューションする。光パルス微分波形をデコンボリューションすることで、吸収分布を得ることができ、吸収分布画像を生成することができる。このような手法を採用することで、実用的な光パルス幅と実用的な超音波システム、或いは実際の生体を観測した場合でも、吸収分布を画像化することができる。これは、現状システムの検出器の帯域やADサンプリングを使用できる利点がある。また、本実施形態においては光音響画像の再構成で圧力分布を一度出しているため、既存の超音波アルゴリズム、装置との親和性が高い。
 以上のように、本発明に係る音響画像生成装置および音響画像生成方法は、特に、測定光の光強度の時間波形の微分波形である光微分波形を光音響波の光音響信号からデコンボリューションし、デコンボリューションされた光音響信号と空間情報とを使用して、光音響信号についてのボリュームデータを生成することを特徴とする。したがって、従来の圧力波の伝搬過程における圧力分布を表す光音響信号を、光吸収体の吸収分布を表す光音響信号に変換することができる。この結果、光音響イメージングにおいて、光吸収体の吸収分布を表す光音響画像を光音響信号から生成することが可能となる。この結果、超音波画像中の管腔領域について血管領域であるとする判別の精度が向上する。
 「音響画像生成装置および方法の第3の実施形態」
 次に、本発明の音響画像生成装置の第3の実施形態を詳細に説明する。第2の実施形態では、光音響信号のサンプリングレートと光パルス微分波形のサンプリングレートとが一致しており、双方の信号を同じデータ点数でフーリエ変換した。本実施形態では、光音響信号を低速サンプリングする一方で、光パルス微分波形を高速サンプリングする。つまり、光パルス微分波形のサンプリングレートを光音響信号のサンプリングレートよりも高く設定する。例えば光音響信号のサンプリング間隔(サンプリングレートの逆数)は、被検体に照射される光のパルス時間幅よりも長く設定される。フーリエ変換に際しては、低サンプリングレートでサンプリングされた光音響信号を、光パルス微分波形のサンプリングレートと同じサンプリングレートでリサンプル(アップサンプル)した上で、フーリエ変換を行う。したがって、音響画像生成装置の構成自体は、光微分波形逆畳込み手段を除き、第2の実施形態と同様である。本実施形態の説明では、光微分波形逆畳込み手段以外の要素については、図5に示された符号を援用している。第2の実施形態と同様の構成要素についての詳細な説明は、特に必要がない限り省略する。
 図10は、本実施形態における光微分波形逆畳込み手段38aを示す。本実施形態における光微分波形逆畳込み手段38aは、図6に示す第2実施形態における光微分波形逆畳込み手段38の構成に加えて、リサンプル手段46及び47を有する。リサンプル手段46は、アップサンプル手段であり、低いサンプリングレートでサンプリングされた光音響信号のサンプリングデータを、光パルス微分波形のサンプリングレートと同じサンプリングレートでリサンプルする(アップサンプル)。リサンプル手段46は、例えば、低サンプリングレートでサンプリングされた光音響信号のサンプル点間にゼロを付加し、アップサンプル前のナイキスト周波数でカットするローパスフィルタをかけることでアップサンプルを行う。
 例えば、AD変換手段22における光音響信号のサンプリングレート(第1のサンプリングレート)が40MHzであり、光パルス微分波形のサンプリングレート(第2のサンプリングレート)が400MHzであったとする。この場合、リサンプル手段46は、40MHzの光音響信号を400MHzの信号にアップサンプルする。フーリエ変換手段41は、リサンプル手段46でアップサンプルされた光音響信号をフーリエ変換する。光音響信号をフーリエ変換するフーリエ変換手段41と、光パルス微分波形をフーリエ変換するフーリエ変換手段42とは、同じデータ点数でフーリエ変換を行う。例えばフーリエ変換手段41は光音響信号を8192点の周波数領域の信号に変換し、フーリエ変換手段42は光パルス微分波形を8192点の周波数領域の信号に変換する。
 フィルタ適用手段44は、アップサンプルされた光音響信号をフーリエ変換した信号に対して逆フィルタを適用する。フーリエ逆変換手段45は、逆フィルタが適用された信号を、周波数領域の信号から時間領域の信号(吸収分布)へと変換する。時間領域の信号に戻された吸収分布信号は、例えば400MHzにアップサンプルされた状態の信号となっている。リサンプル手段47は、吸収分布信号が、光音響信号の元のサンプルリングレートに、吸収信号をダウンサンプルする。リサンプル手段47は、例えば400MHzの吸収信号を40MHzの吸収信号にダウンサンプルする。ダウンサンプリングは、例えばダウンサンプル後のナイキスト周波数でカットするローパスフィルタをかけた後に、サンプル点を間引くことで行う。
 図11Aに、400MHzのサンプリングレートでサンプリングした光パルス微分波形を示し、図11Bに、40MHzのサンプリングレートでサンプリングした光パルス微分波形を示す。サンプリングレート400MHzでは、図11Aに示すように、光パルス微分波形を正確に再現できる。一方、光パルス微分波形のサンプリングレートを光音響信号のサンプリングレートに合わせ、40MHzでサンプリングすると、図11Bに示すように、光パルス微分波形を正確に再現できなくなる。
 フィルタ適用手段44にて光音響信号をフーリエ変換した信号に逆フィルタを適用する際には、双方のデータ点数が揃っている必要がある。光音響信号のサンプリングレートに合わせて光パルス微分波形のサンプリングレートを設定すると、図11Bに示したように、波形変化に対してサンプリング周波数が低すぎ、光パルス微分波形が正確に再現できない。このような光パルス微分波形から求めた逆フィルタを適用した場合、光パルス微分項を正確にデコンボリューションできずに、吸収分布を正しく求められないこともある。
 一方、光パルス微分波形を正確に再現するために光パルス微分波形のサンプリングレートを例えば400MHzに設定し、光音響信号のサンプリングレートを400MHzに合わせるとした場合は、光パルス微分項を正確にデコンボリューションでき、吸収分布を正しく求めることができる。しかしながら、その場合、AD変換手段22には高速なAD変換器が要求され、また、サンプリングデータの総数が増えることから、受信メモリ23に要求されるメモリ容量が増大する。更に、光音響画像再構成手段25aで取り扱うデータが増えるため、再構成に要する時間も長くなる。
 本実施形態では、リサンプル手段46で、事後的に光音響信号のサンプリングデータをリサンプルする。本実施形態では、検出後の光音響信号を信号処理でアップサンプルしているため、光音響の検出から再構成までは低速サンプリングしつつも、光パルス微分項を正確にデコンボリューションすることができる。本実施形態では、AD変換手段22に高速なAD変換器は不要であり、受信メモリ23に必要なメモリ容量も増大しない。また、光音響信号の再構成に要する時間も増大せず、光音響信号の検出時に高いサンプリングレートでサンプリングする場合に比して、処理時間を短縮することができる。
 「音響画像生成装置および方法の第4の実施形態」
 次に、本発明の音響画像生成装置の第4の実施形態を詳細に説明する。本実施形態では、第3の実施形態と同様に、光パルス微分波形のサンプリングレートを光音響信号のサンプリングレートよりも高く設定する。第3の実施形態では、低サンプリングレートでサンプリングされた光音響信号をアップサンプルし、双方の信号を同じデータ点数でフーリエ変換した。本実施形態では、光パルス微分波形のフーリエ変換を、光音響信号のフーリエ変換のデータ点数よりも多いデータ点数で行い、フーリエ変換された光音響信号に対して、データ点数の差の分だけ中央(高周波成分領域)にゼロ点を付加する。したがって、音響画像生成装置の構成自体は、光微分波形逆畳込み手段を除き、第2の実施形態と同様である。本実施形態の説明では、光微分波形逆畳込み手段以外の要素については、図5に示された符号を援用している。第2の実施形態と同様の構成要素についての詳細な説明は、特に必要がない限り省略する。
 図12は、本実施形態における光微分波形逆畳込み手段38bを示す。本実施形態における光微分波形逆畳込み手段38bは、図6に示す第2の実施形態における光微分波形逆畳込み手段38の構成に加えて、ゼロパディング手段48とゼロ点除去手段49とを有する。例えば、光音響信号のサンプリングレート(第1のサンプリングレート)は40MHzであり、光パルス微分波形のサンプリングレート(第2のサンプリングレート)は320MHzであるとする。フーリエ変換手段41は、例えば40MHzの光音響信号を1024点(第1のデータ点数)の周波数領域の信号に変換し、フーリエ変換手段42は、320MHzの光パルス微分波形を8192点(第2のデータ点数)の周波数領域の信号に変換する。第2のデータ点数は、第1のデータ点数に、第2のサンプリングレートと第1のサンプリングレートとの比を乗じたデータ点数と等しいか、又はそれよりも多い。
 ゼロパディング手段48は、フーリエ変換手段41から周波数領域の信号に変換された光音響信号を入力する。ゼロパディング手段48は、フーリエ変換された光音響信号に対して、フーリエ変換後の光音響信号と光パルス微分波形のデータ点数の差の分だけ中央にゼロ点(信号値ゼロの点)を付加する。ゼロパディング手段48は、例えば周波数領域で表されたデータ点数1024点の光音響信号を、ナイキスト周波数(サンプリング周波数の1/2)で2つに分割し、分割した2つの周波数領域の間にデータ点数の差の分だけゼロ点を付加し、周波数領域で表された光パルス微分波形のデータ点数と同じデータ点数8192点の光音響信号を生成する。ゼロ点の付加は、周波数領域におけるアップサンプリングに相当する。
 フィルタ適用手段44は、ゼロパディング手段48でゼロパディングが施された信号に対して逆フィルタを適用する。ゼロ点除去手段49は、逆フィルタが適用された信号からゼロパディング手段48で“0”が付加された周波数帯域を除去する。例えばゼロパディング手段48にてデータ点数1024点の光音響信号(周波数領域)がデータ点数8192点の信号に変換されていたとき、ゼロ点除去手段49は、フィルタ適用後の信号(データ点数8192点)をデータ点数1024点の信号に戻す。ゼロ点の除去は、周波数領域におけるダウンサンプリングに相当する。フーリエ逆変換手段45は、データ点数1024点に戻された信号を、周波数領域の信号から時間領域の信号へと変換する。
 図13Aに、フーリエ変換された光音響信号を示し、図13Bに、ゼロパディング後の光音響信号を示す。例えば、AD変換手段22における光音響信号のサンプリングレートが40MHzであるとき、その光音響信号をフーリエ変換した信号は、図13Aに示すように、0MHzから40MHzまでの周波数帯域の信号となる。この信号を、中心周波数である20MHzを境に2つの領域A、Bに2分割する。ゼロパディング手段48は、図13Bに示すように、2つの領域の間にゼロ点を8192-1024=7168個挿入する。ゼロ点が付加された結果、領域Bの信号は、300MHzから320MHzの周波数領域に対応した信号となる。
 本実施形態では、低サンプリングレートでサンプリングされた光音響信号を周波数領域の信号に変換し、変換された周波数領域の信号の高周波成分の領域のゼロ点を付加する。本実施形態と第3の実施形態との相違点は、第3の実施形態では、光音響信号をアップサンプルするのに対し、本実施形態では、光音響信号を周波数領域でアップサンプルする点である。時間領域に代え、周波数領域において、双方の信号の帯域差を埋めるようにリサンプル(アップサンプル)を行う場合も、第3の実施形態と同様に、光音響の検出から再構成までは低速サンプリングしつつも、光パルス微分項を正確にデコンボリューションすることができる。
 「音響画像生成装置および方法の第5の実施形態」
 次に、本発明の音響画像生成装置の第5の実施形態を詳細に説明する。本実施形態においても、第3及び第4の実施形態と同様に、光パルス微分波形のサンプリングレートを光音響信号のサンプリングレートよりも高く設定する。本実施形態では、光パルス微分波形を、光音響信号のフーリエ変換のデータ点数よりも多いデータ点数で行い、フーリエ変換された光微分波形から高周波成分サンプル点を除去し、その逆数を逆フィルタとして求める。したがって、音響画像生成装置の構成自体は、光微分波形逆畳込み手段を除き、第2の実施形態と同様である。本実施形態の説明では、光微分波形逆畳込み手段以外の要素については、図5に示された符号を援用している。第2の実施形態と同様の構成要素についての詳細な説明は、特に必要がない限り省略する。
 図14は、本実施形態における光微分波形逆畳込み手段38cを示す。本実施形態における光微分波形逆畳込み手段38cは、図6に示す第2の実施形態における光微分波形逆畳込み手段38の構成に加えて、高周波成分サンプル点除去手段50を有する。例えば、光音響信号のサンプリングレート(第1のサンプリングレート)は40MHzであり、光パルス微分波形のサンプリングレート(第2のサンプリングレート)は320MHzであるとする。フーリエ変換手段41は、例えば40MHzの光音響信号を1024点(第1のデータ点数)の周波数領域の信号に変換し、フーリエ変換手段42は、320MHzの光パルス微分波形を8192点(第2のデータ点数)の周波数領域の信号に変換する。第2のデータ点数は、第1のデータ点数に、第2のサンプリングレートと第1のサンプリングレートとの比を乗じたデータ点数と等しいか、又はそれよりも多い。
 高周波成分サンプル点除去手段50は、フーリエ変換手段42から周波数領域の信号に変換された光パルス微分波形を入力する。高周波成分サンプル点除去手段50は、フーリエ変換された光パルス微分波形から、フーリエ変換後の光音響信号と光パルス微分波形のデータ点数の差の分だけ高周波成分サンプル点を除去する。高周波成分サンプル点除去手段50は、例えば周波数領域で表されたデータ点数8192点の光パルス微分波形から高周波成分に相当する中央のデータ点を削除し、周波数領域で表された光音響信号のデータ点数と同じデータ点数1024点の光パルス微分波形を生成する。高周波成分サンプル点の除去は、周波数領域における光パルス微分波形のダウンサンプリングに相当する。
 図15Aに、フーリエ変換された光パルス微分波形を示し、図15Bに、高周波成分サンプル点が除去された光パルス微分波形を示す。例えば、光パルス微分波形のサンプリングレートが320MHzであるとき、その光パルス微分波形をフーリエ変換した信号(データ点数8192点)は、図15Aに示すように、0MHzから320MHzまでの周波数帯域の信号となる。この信号を、1番目のデータ点から512番目までの領域(領域A)、513番目のデータ点から7680番目のデータ点までの領域(領域B)、及び、7681番目のデータ点から8192番目のデータ点までの領域(領域C)の3つの領域に分け、領域Bのデータ点を除去する。図15Bに示すように、領域Aと領域Cとをつなげることで、0MHzから40MHzまでの周波数帯域に対応したデータ点数1024点の光パルス微分波形が得られる。
 逆フィルタ演算手段43は、周波数領域で表されかつ高周波成分サンプル点が除去された光パルス微分波形の逆数を逆フィルタとして求める。逆フィルタ演算手段43は、例えばデータ点が8192点から1024点に削減された光パルス微分波形の逆数を逆フィルタとして求める。フィルタ適用手段44は、例えば周波数領域で表されたデータ点数1024点の光音響信号と逆フィルタとを要素ごとに乗算する。フーリエ逆変換手段45は、逆フィルタが適用された信号を、周波数領域の信号から時間領域の信号へと変換する。
 ここで、第5の実施形態では、フィルタ適用手段44は、図13Bに示す高周波成分の領域にゼロ点が付加された光音響信号と、図15Aに示す光パルス微分波形の逆数とを乗算する。光音響信号の高周波成分領域の値は“0”であるため、光パルス微分波形の高周波成分(図15Aの領域B)は、逆フィルタ適用後の光音響信号に影響を与えない。従って、本実施形態のように、光パルス微分波形の周波数領域の信号から高周波成分サンプル点を除去し、高周波成分を除去した光パルス微分波形から逆フィルタを求め、求めた逆フィルタを周波数領域で表された光音響信号に適用しても、得られる結果は第4の実施形態と同じ結果となる。つまり、本実施形態においても、第4の実施形態と同様な効果が得られる。
 なお、上記各実施形態では、光音響信号及び光パルス微分波形を周波数領域の信号に変換し、周波数領域でデコンボリューション後に時間領域の信号に戻しているが、これには限定されない。光パルス微分波形のデコンボリューションを時間領域で行うことも可能である。また、光微分波形逆畳込み手段38は、デコンボリューション時に、光音響信号に対して何らかのフィルタをかける処理をおこなってもよい。例えば光微分波形逆畳込み手段38が、デコンボリューション時に、ノイズ増幅周波数帯をフィルタリングするようにしてもよい。
 上記各実施形態では、光音響信号から光微分波形をデコンボリューションした後に光音響データ(または光音響画像)を生成することとしているが、これに加えて、又はこれに代えて、光微分波形をデコンボリューションせずに光音響データを生成してもよい。例えば、ユーザが、スイッチや表示モニタ上で操作を行うことで、デコンボリューション処理の有無を選択できるようにしておき、ユーザがデコンボリューション処理の実施を選択したときには光微分波形のデコンボリューションを行った上で光音響データを生成し、ユーザがデコンボリューション処理の不実施を選択したときは光微分波形のデコンボリューションを行わずに光音響データを生成してもよい。例えば、光音響画像を表示手段14に表示する場合において、光微分波形のデコンボリューションを行ったときは、光音響信号を赤・黒の色に対応付けて表示し、デコンボリューションなしのときは、光音響信号を青・黒の色に対応付けて表示してもよい。
 また、デコンボリューションなしの場合の光音響データを生成し、コンピュータがその光音響データを解析することで、血管部分が2本に分かれているか否かを判定し、血管が2本に分かれていると判定されたときに、その血管部分のみを対象に光微分波形のデコンボリューション処理を行うようにしてもよい。
 「音響画像生成装置および方法の第6の実施形態」
 次に、本発明の音響画像生成装置の第6の実施形態を詳細に説明する。本実施形態の音響画像生成装置10cは、判別手段62が、生体組織を表示する超音波画像中の組織領域が、コラーゲンおよび/または脂肪を含有する組織を表示するものであるか否かの判別を行う点で、第1の実施形態の装置と異なる。したがって、第1の実施形態と同様の構成要素についての詳細な説明は、特に必要がない限り省略する。
 図16は、本実施形態の音響画像生成装置10cの基本構成を示すブロック図である。この音響画像生成装置10cは、プローブ11、超音波ユニット12、レーザ光源ユニット13および表示手段14を備えている。なおこの音響画像生成装置10cは、超音波画像と光音響画像との双方を生成可能に構成されている。
 そして、本実施形態の音響画像生成方法は、被検体に向けて出射され被検体内で反射した超音波を検出し、検出された超音波に基づいて超音波画像を生成し、生体組織を表示する組織領域を超音波画像から抽出し、1700~1800nmの波長帯域に属する第5の波長の測定光と、1700~1800nmの波長帯域に属しかつ第5の波長と異なる第6の波長の測定光とを切り換えて測定光として被検体内に向けて出射させることにより被検体内で発生した光音響波を検出し、第5の波長の測定光に関する光音響データ中の第5のピークデータの有無、および、第6の波長の測定光に関する光音響データ中の第6のピークデータの有無に基づいて、上記組織領域が、コラーゲンおよび/または脂肪を含有する組織を表示するものであるか否かの判別を行い、上記判別の結果に応じて上記組織領域が色分けされた超音波画像を合成し、合成された超音波画像を表示することを特徴とするものである。
 図17は、脂肪と共通する構造(CHボンド)を有するポリエチレン(polyethilene)およびコラーゲンと共通する構造(CHボンド)を有するトリメチルペンタン(trimethylpentane)それぞれの吸収スペクトルを示すグラフである。このグラフにおいて、横軸は波長、縦軸は吸収係数(μ)である。このグラフから、CHボンド構造を有する脂肪は、およそ1730nmでコラーゲンの吸収係数よりも大きな吸収係数を有し、CHボンド構造を有するコラーゲンは、およそ1725nmで脂肪の吸収係数よりも大きな吸収係数を有することがわかる。本実施形態の音響画像生成装置10cは、この波長ごとの吸収係数の違いを利用するものである。
 レーザ光源ユニット13は、1700~1800nmの波長帯域に属する第5および第6の波長を出力可能なQスイッチレーザを有する点で、第1の実施形態のものと異なる。第5および第6の波長は互いに異なり、例えば本実施形態では第5の波長が1725nmであり、第6の波長が1730nmである。Qスイッチレーザは、第5および第6の波長の光を別個に出力する2つの光源であってもよく、第5および第6の波長を包含する広帯域の光を出力する1つの光源であってもよい。
 抽出手段61は、形態的に特徴的な生体組織(例えば真皮や皮下組織等)を表示する組織領域を超音波画像から抽出するものである。組織領域の抽出は特に限定されず公知の手法を使用することができる。超音波画像から組織領域を予め抽出することにより、光音響画像中のピークデータの有無を判断する領域を、その抽出された組織領域に対応する領域に限定できるという利点がある。しかしながら、組織領域の抽出は本発明において必須ではない。
 判別手段62は、抽出された組織領域が、コラーゲンおよび/または脂肪を含有する組織を表示するものであるか否かの判別を行う。
 上記判別は具体的には次のようにして行われる。
 まず、判別手段62は、光音響画像構築手段27aから、1725nmおよび1730nmの2つの波長のそれぞれに基づいた2つの画像データ(つまり光音響データ)を取得する。次に判別手段62は、波長が1725nm(第5の波長)の光に関する画像データの中に、抽出された上記組織領域に対応する部分の第5のピーク輝度が存在するか否かを判断し、その判断結果を記憶する。また、波長が1730nm(第6の波長)の光に関する画像データの中に、抽出された上記組織領域に対応する部分の第6のピーク輝度が存在するか否かを判断し、その判断結果を記憶する。
 上記組織領域に対応する画像データ部分は、超音波画像の画素位置と光音響画像の画素位置とを空間的に対比することにより判断される。本実施形態の場合、図3に示されるようなプローブを使用しているため、プローブを動かすことなく超音波画像および光音響画像を取得することができる。
 そして、ピーク輝度の有無についての2つの上記判断結果に基づいて、下記の表5で表されるテーブルデータを参照して、抽出された組織領域が、コラーゲンおよび/または脂肪を含有する組織を表示するものであるか否かの判別を行う。
Figure JPOXMLDOC01-appb-T000005
 表5において、「+」記号はその波長においてピーク輝度(ピークデータ)が存在したことを表し、「-」記号はその波長においてピーク輝度(ピークデータ)が存在しなかったことを表す。なお、ピークデータの有無の判断は、所定の閾値を基準に判断する。つまり、ピークデータと思われる信号があったとしても上記閾値未満の信号は、本発明においてピークデータとして取り扱わない。当該閾値は、コラーゲンおよび脂肪の項目間で同じ結果とならないように波長ごとに適宜設定される。
 つまり、表5は、第5のピークデータがなくかつ第6のピークデータがある場合に、上記組織領域は、脂肪をより多く含有する組織を表示するものであるとの判別が行われることを示す。また表5は、第5のピークデータがありかつ第6のピークデータがない場合に、上記組織領域は、コラーゲンをより多く含有する組織を表示するものであるとの判別が行われることを示す。これは、脂肪の吸収係数が、1725nmにおいてコラーゲンの吸収係数よりも小さく、1730nmにおいてコラーゲンの吸収係数よりも大きいためである。また、第5のピークデータおよび第6のピークデータがどちらも所定の閾値以上である場合には、上記組織領域は、同程度の量のコラーゲンおよび脂肪を含有する組織を表示するものであるとの判別が行われてもよい。
 画像合成手段30は、画像構築手段27aおよび27bにそれぞれ構築された光音響画像および超音波画像に基づいて、上記判別の結果に応じて上記組織領域が色分けされた画像を生成する。さらに、それぞれのピークデータ値の大きさに応じてコラーゲンおよび脂肪がどれだけ含有されているかを色分けによって超音波画像上に表示してもよい。
 以上より、本実施形態に係る音響画像生成装置および音響画像生成方法は、1700~1800nmの波長帯域に属する第5の波長の測定光と、1700~1800nmの波長帯域に属しかつ第5の波長と異なる第6の波長の測定光とが切り換えられて被検体に向けて出射されたことにより被検体内で発生した光音響波を検出し、第5の波長の測定光に関する光音響データ中の第5のピークデータの有無、および、第6の波長の測定光に関する光音響データ中の第6のピークデータの有無に基づいて、上記組織領域が、コラーゲンおよび/または脂肪を含有する組織を表示するものであるか否かの判別を行い、この結果を色分けして超音波画像に表示するものである。このように本発明では、2つの異なる所定の波長を使用して取得した複数の光音響データを指標として組織領域の判別を行うから、光音響分析法を用いた生体組織の判別において、超音波画像中に表された生体組織を精度よく判別することが可能となる。

Claims (20)

  1.  電気音響変換手段により検出された音響波のうち、前記電気音響変換手段によって被検体に向けて出射され該被検体内で反射した超音波に基づいて超音波画像を生成し、前記音響波のうち、光出射手段が前記被検体に向けて複数の測定光を切り換えて出射したことにより前記被検体内で発生した光音響波に基づいて光音響データを再構成する画像生成手段と、
     管腔組織を表示する前記超音波画像中の管腔領域が、血管領域、リンパ管領域および神経領域のいずれの領域に該当するのかの判別を行う判別手段と、
     前記判別の結果に応じて前記管腔領域が色分けされた前記超音波画像を表示させる表示制御手段とを備え、
     前記判別手段が少なくとも、脂肪および水の吸収係数に比べてヘモグロビンの吸収係数が大きい波長帯域に属する第1の波長の測定光に関する前記光音響データ中の第1のピークデータの有無、および、ヘモグロビンおよび脂肪の吸収係数に比べて水の吸収係数が大きい波長帯域に属する第2の波長の測定光に関する前記光音響データ中の第2のピークデータの有無に基づいて前記判別を行うものであることを特徴とする音響画像生成装置。
  2.  前記判別手段が、さらに、水およびヘモグロビンの吸収係数に比べて脂肪の吸収係数が大きい波長帯域に属する第3の波長の測定光に関する前記光音響データ中の第3のピークデータの有無も考慮するものであることを特徴とする請求項1に記載の音響画像生成装置。
  3.  前記判別手段が、
     前記第1のピークデータがありかつ前記第2のピークデータがある場合に、前記管腔領域は血管領域に該当するとの判別を行い、
     前記第1のピークデータがなくかつ前記第2のピークデータがある場合に、前記管腔領域はリンパ管領域に該当するとの判別を行い、
     前記第1のピークデータがなくかつ前記第2のピークデータがない場合に、前記管腔領域は神経領域に該当するとの判別を行うものであることを特徴とする請求項1に記載の音響画像生成装置。
  4.  前記第1の波長が700~820nmの波長帯域に属するものであり、
     前記第2の波長が1055~1075nmの波長帯域に属するものであることを特徴とする請求項1または3に記載の音響画像生成装置。
  5.  前記判別手段が、
     前記第1のピークデータがありかつ前記第3のピークデータがない場合に、前記管腔領域は血管領域に該当するとの判別を行い、
     前記第1のピークデータがなくかつ前記第2のピークデータがある場合に、前記管腔領域はリンパ管領域に該当するとの判別を行い、
     前記第2のピークデータがなくかつ前記第3のピークデータがある場合に、前記管腔領域は神経領域に該当するとの判別を行うものであることを特徴とする請求項2に記載の音響画像生成装置。
  6.  前記判別手段が、
     前記第1のピークデータがあり、前記第2のピークデータがありかつ前記第3のピークデータがない場合に、前記管腔領域は血管領域に該当するとの判別を行い、
     前記第1のピークデータがなく、前記第2のピークデータがありかつ前記第3のピークデータがない場合に、前記管腔領域はリンパ管領域に該当するとの判別を行い、
     前記第1のピークデータがなく、前記第2のピークデータがなくかつ前記第3のピークデータがある場合に、前記管腔領域は神経領域に該当するとの判別を行うものであることを特徴とする請求項2に記載の音響画像生成装置。
  7.  前記第1の波長が700~820nmの波長帯域に属するものであり、
     前記第2の波長が1055~1075nmの波長帯域に属するものであり、
     前記第3の波長が910~930nmの波長帯域に属するものであることを特徴とする請求項2、5および6いずれかに記載の音響画像生成装置。
  8.  前記第1の波長が700~820nmの波長帯域に属するものであり、
     前記第2の波長が1055~1075nmの波長帯域に属するものであり、
     前記第3の波長が1150~1250nmまたは1700~1800nmの波長帯域に属するものであることを特徴とする請求項2、5および6いずれかに記載の音響画像生成装置。
  9.  前記判別手段が、さらに、水およびヘモグロビンの吸収係数に比べて脂肪の吸収係数が大きい波長帯域に属しかつ前記第3の波長と異なる第4の波長の測定光に関する前記光音響データ中の第4のピークデータの有無も考慮するものであることを特徴とする請求項2に記載の音響画像生成装置。
  10.  前記判別手段が、
     前記第1のピークデータがあり、前記第2のピークデータがあり、前記第3のピークデータがなくかつ前記第4のピークデータがない場合に、前記管腔領域は血管領域に該当するとの判別を行い、
     前記第1のピークデータがなく、前記第2のピークデータがあり、前記第3のピークデータがなくかつ前記第4のピークデータがない場合に、前記管腔領域はリンパ管領域に該当するとの判別を行い、
     前記第1のピークデータがなく、前記第2のピークデータがなく、前記第3のピークデータがありかつ前記第4のピークデータがある場合に、前記管腔領域は神経領域に該当するとの判別を行うものであることを特徴とする請求項9に記載の音響画像生成装置。
  11.  前記第1の波長が700~820nmの波長帯域に属するものであり、
     前記第2の波長が1055~1075nmの波長帯域に属するものであり、
     前記第3の波長が910~930nmの波長帯域に属するものであり、
     前記第4の波長が1150~1250nmまたは1700~1800nmの波長帯域に属するものであることを特徴とする請求項9または10に記載の音響画像生成装置。
  12.  前記画像生成手段が、測定光として出射されたパルス光の光強度の時間波形の微分波形である光微分波形を、該パルス光に基づく光音響信号からデコンボリューションする光微分波形逆畳込み手段を有し、該光微分波形逆畳込み手段によってデコンボリューションされた信号に基づいて前記光音響データを再構成するものであることを特徴とする請求項1から11いずれかに記載の音響画像生成装置。
  13.  前記光微分波形逆畳込み手段が、
     前記光音響信号をフーリエ変換する第1のフーリエ変換手段と、
     前記光微分波形を所定のサンプリングレートでサンプリングした信号をフーリエ変換する第2のフーリエ変換手段と、
     フーリエ変換された前記光微分波形の逆数を逆フィルタとして求める逆フィルタ演算手段と、
     フーリエ変換された前記光音響信号に前記逆フィルタを適用するフィルタ適用手段と、
     前記逆フィルタが適用された前記光音響信号をフーリエ逆変換するフーリエ逆変換手段とを有するものであることを特徴とする請求項12に記載の音響画像生成装置。
  14.  検出された音響波のうち、被検体に向けて出射され該被検体内で反射した超音波に基づいて超音波画像を生成し、
     前記音響波のうち、複数の測定光が切り換えられて出射されたことにより前記被検体内で発生した光音響波に基づいて光音響データを再構成し、
     少なくとも、脂肪および水の吸収係数に比べてヘモグロビンの吸収係数が大きい波長帯域に属する第1の波長の測定光に関する前記光音響データ中の第1のピークデータの有無、および、ヘモグロビンおよび脂肪の吸収係数に比べて水の吸収係数が大きい波長帯域に属する第2の波長の測定光に関する前記光音響データ中の第2のピークデータの有無に基づいて、前記管腔領域が、血管領域、リンパ管領域および神経領域のいずれの領域に該当するのかの判別を行い、
     前記判別の結果に応じて前記管腔領域が色分けされた前記超音波画像を表示することを特徴とする音響画像生成方法。
  15.  さらに、水およびヘモグロビンの吸収係数に比べて脂肪の吸収係数が大きい波長帯域に属する第3の波長の測定光に関する前記光音響データ中の第3のピークデータの有無も考慮することを特徴とする請求項14に記載の音響画像生成方法。
  16.  さらに、水およびヘモグロビンの吸収係数に比べて脂肪の吸収係数が大きい波長帯域に属しかつ前記第3の波長と異なる第4の波長の測定光に関する前記光音響データ中の第4のピークデータの有無も考慮することを特徴とする請求項15に記載の音響画像生成方法。
  17.  電気音響変換手段により検出された音響波のうち、前記電気音響変換手段によって被検体に向けて出射され該被検体内で反射した超音波に基づいて超音波画像を生成し、前記音響波のうち、光出射手段が前記被検体に向けて複数の測定光を切り替えて出射したことにより前記被検体内で発生した光音響波に基づいて光音響データを再構成する画像生成手段と、
     生体組織を表示する前記超音波画像中の組織領域が、コラーゲンおよび/または脂肪を含有する組織を表示するものであるか否かの判別を行う判別手段と、
     前記判別の結果に応じて前記組織領域が色分けされた前記超音波画像を表示させる表示制御手段とを備え、
     前記判別手段が、1700~1800nmの波長帯域に属する第5の波長の測定光に関する前記光音響データ中の第5のピークデータの有無、および、1700~1800nmの波長帯域に属しかつ前記第5の波長と異なる第6の波長の測定光に関する前記光音響データ中の第6のピークデータの有無に基づいて前記判別を行うものであることを特徴とする音響画像生成装置。
  18.  前記第5の波長が1725nmであり、
     前記第6の波長が1730nmであることを特徴とする請求項17に記載の音響画像生成装置。
  19.  前記画像生成手段が、測定光として出射されたパルス光の光強度の時間波形の微分波形である光微分波形を、該パルス光に基づく光音響信号からデコンボリューションする光微分波形逆畳込み手段を有し、該光微分波形逆畳込み手段によってデコンボリューションされた信号に基づいて前記光音響データを再構成するものであることを特徴とする請求項17または18に記載の音響画像生成装置。
  20.  検出された音響波のうち、被検体に向けて出射され該被検体内で反射した超音波に基づいて超音波画像を生成し、
     前記音響波のうち、複数の測定光が切り換えられて出射されたことにより前記被検体内で発生した光音響波に基づいて光音響データを再構成し、
     1700~1800nmの波長帯域に属する第5の波長の測定光に関する前記光音響データ中の第5のピークデータの有無、および、1700~1800nmの波長帯域に属しかつ前記第5の波長と異なる第6の波長の測定光に関する前記光音響データ中の第6のピークデータの有無に基づいて、前記組織領域が、コラーゲンおよび/または脂肪を含有する組織を表示するものであるか否かの判別を行い、
     前記判別の結果に応じて前記組織領域が色分けされた前記超音波画像を表示することを特徴とする音響画像生成方法。
PCT/JP2012/005447 2011-08-31 2012-08-29 音響画像生成装置および音響画像生成方法 WO2013031216A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011188761 2011-08-31
JP2011-188761 2011-08-31
JP2012182960A JP5810050B2 (ja) 2011-08-31 2012-08-22 音響画像生成装置および音響画像生成方法
JP2012-182960 2012-08-22

Publications (1)

Publication Number Publication Date
WO2013031216A1 true WO2013031216A1 (ja) 2013-03-07

Family

ID=47755744

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/005447 WO2013031216A1 (ja) 2011-08-31 2012-08-29 音響画像生成装置および音響画像生成方法

Country Status (2)

Country Link
JP (1) JP5810050B2 (ja)
WO (1) WO2013031216A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112052705A (zh) * 2019-06-05 2020-12-08 爱德万测试股份有限公司 用于光声资料处理的方法、装置及光声图像化装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6026953B2 (ja) * 2013-05-21 2016-11-16 富士フイルム株式会社 光音響画像生成装置および光音響画像生成方法
JP6388360B2 (ja) * 2013-12-27 2018-09-12 キヤノン株式会社 被検体情報取得装置および被検体情報取得装置の制御方法
WO2016111105A1 (ja) * 2015-01-08 2016-07-14 富士フイルム株式会社 光音響計測装置及び光音響計測システム
WO2016111100A1 (ja) * 2015-01-08 2016-07-14 富士フイルム株式会社 光音響計測装置及び光音響計測システム
EP3278736B1 (en) * 2015-03-30 2019-06-19 Fujifilm Corporation Photoacoustic measurement device and system
CN111246818B (zh) 2017-09-22 2024-02-23 直观外科手术操作公司 增强计算机辅助远程操作外科手术中不同组织之间的可见差异
KR20210120716A (ko) * 2020-03-27 2021-10-07 삼성메디슨 주식회사 초음파 진단 장치 및 그 동작 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004147940A (ja) * 2002-10-31 2004-05-27 Toshiba Corp 非侵襲の生体情報計測方法及び生体情報計測装置
WO2005107592A1 (ja) * 2004-05-06 2005-11-17 Nippon Telegraph And Telephone Corporation 成分濃度測定装置及び成分濃度測定装置制御方法
JP2008191160A (ja) * 2008-02-13 2008-08-21 Toshiba Corp 生体情報計測装置
JP2009068940A (ja) * 2007-09-12 2009-04-02 Canon Inc 測定装置
JP2010017426A (ja) * 2008-07-11 2010-01-28 Canon Inc 生体検査装置
JP2010094500A (ja) * 2008-09-19 2010-04-30 Canon Inc 測定装置及び測定方法
JP2010125260A (ja) * 2008-12-01 2010-06-10 Canon Inc 生体検査装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004147940A (ja) * 2002-10-31 2004-05-27 Toshiba Corp 非侵襲の生体情報計測方法及び生体情報計測装置
WO2005107592A1 (ja) * 2004-05-06 2005-11-17 Nippon Telegraph And Telephone Corporation 成分濃度測定装置及び成分濃度測定装置制御方法
JP2009068940A (ja) * 2007-09-12 2009-04-02 Canon Inc 測定装置
JP2008191160A (ja) * 2008-02-13 2008-08-21 Toshiba Corp 生体情報計測装置
JP2010017426A (ja) * 2008-07-11 2010-01-28 Canon Inc 生体検査装置
JP2010094500A (ja) * 2008-09-19 2010-04-30 Canon Inc 測定装置及び測定方法
JP2010125260A (ja) * 2008-12-01 2010-06-10 Canon Inc 生体検査装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112052705A (zh) * 2019-06-05 2020-12-08 爱德万测试股份有限公司 用于光声资料处理的方法、装置及光声图像化装置

Also Published As

Publication number Publication date
JP5810050B2 (ja) 2015-11-11
JP2013063259A (ja) 2013-04-11

Similar Documents

Publication Publication Date Title
JP5810050B2 (ja) 音響画像生成装置および音響画像生成方法
US9974440B2 (en) Photoacoustic image generation device and method
JP5779567B2 (ja) 光音響信号処理装置及び方法
US9888856B2 (en) Photoacoustic image generation apparatus, system and method
JP6504826B2 (ja) 情報処理装置および情報処理方法
JP6362301B2 (ja) 被検体情報取得装置、および、被検体情報取得装置の作動方法
JP6132466B2 (ja) 被検体情報取得装置及び被検体情報取得方法
JP5777394B2 (ja) 光音響画像化方法および装置
JP2013255697A (ja) 被検体情報取得装置およびその制御方法
JP6177530B2 (ja) ドプラ計測装置およびドプラ計測方法
WO2013076986A1 (ja) 光音響信号処理装置及び方法
WO2013094170A1 (ja) 光音響画像化方法および装置
WO2013076987A1 (ja) 光音響画像生成装置および光音響画像生成方法
EP3329843B1 (en) Display control apparatus, display control method, and program
US20180228377A1 (en) Object information acquiring apparatus and display method
JP5502686B2 (ja) 光音響画像診断装置、画像生成方法、及びプログラム
JP2013106822A (ja) 光音響画像生成装置および光音響画像生成方法
WO2023047601A1 (ja) 画像生成方法、画像生成プログラムおよび画像生成装置
Mustafa et al. In vivo three-dimensional raster scan optoacoustic mesoscopy using frequency domain inversion
WO2013076988A1 (ja) 光音響信号処理装置及び方法
Singh Identification and elimination of reflection artifacts in biomedical photoacoustic imaging
JP2022034766A (ja) 画像生成方法、画像生成プログラムおよび画像生成装置
Fournelle et al. A combined platform for b-mode and real-time optoacoustic imaging based on raw data acquisition
JP2018161467A (ja) 画像処理装置および画像処理方法
JP2019136520A (ja) 処理装置、光音響画像の表示方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12827751

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12827751

Country of ref document: EP

Kind code of ref document: A1