WO2013076987A1 - 光音響画像生成装置および光音響画像生成方法 - Google Patents

光音響画像生成装置および光音響画像生成方法 Download PDF

Info

Publication number
WO2013076987A1
WO2013076987A1 PCT/JP2012/007496 JP2012007496W WO2013076987A1 WO 2013076987 A1 WO2013076987 A1 WO 2013076987A1 JP 2012007496 W JP2012007496 W JP 2012007496W WO 2013076987 A1 WO2013076987 A1 WO 2013076987A1
Authority
WO
WIPO (PCT)
Prior art keywords
photoacoustic
signal
differential waveform
light
sampling rate
Prior art date
Application number
PCT/JP2012/007496
Other languages
English (en)
French (fr)
Inventor
辻田 和宏
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2013076987A1 publication Critical patent/WO2013076987A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/04Analysing solids
    • G01N29/06Visualisation of the interior, e.g. acoustic microscopy
    • G01N29/0654Imaging
    • G01N29/0672Imaging by acoustic tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0093Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy
    • A61B5/0095Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy by applying light and detecting acoustic waves, i.e. photoacoustic measurements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7239Details of waveform analysis using differentiation including higher order derivatives
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/22Details, e.g. general constructional or apparatus details
    • G01N29/24Probes
    • G01N29/2418Probes using optoacoustic interaction with the material, e.g. laser radiation, photoacoustics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/44Processing the detected response signal, e.g. electronic circuits specially adapted therefor
    • G01N29/46Processing the detected response signal, e.g. electronic circuits specially adapted therefor by spectral analysis, e.g. Fourier analysis or wavelet analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels

Definitions

  • the present invention relates to a photoacoustic image generating apparatus and a photoacoustic image generating method for generating a photoacoustic image based on a photoacoustic wave generated due to irradiation of light.
  • ultrasonic waves are irradiated into the inside of the subject to detect an ultrasound wave reflected in the inside of the subject, and an ultrasound image is generated.
  • Ultrasonic imaging is known to obtain a morphological tomographic image of
  • an apparatus which displays not only a morphological tomographic image but also a functional tomographic image has been advanced in recent years. And there exists an apparatus using a photoacoustic analysis method as one of such an apparatus.
  • a subject is irradiated with pulsed light having a predetermined wavelength (for example, wavelength band of visible light, near infrared light or mid infrared light), and the specific substance in the subject is the pulsed light.
  • the photoacoustic wave which is an elastic wave generated as a result of the absorption of the energy of the light source, is detected to quantitatively measure the concentration of the specific substance.
  • the specific substance in the subject is, for example, glucose or hemoglobin contained in blood.
  • a technique for detecting a photoacoustic wave and generating a photoacoustic image based on the detected signal in this manner is called photoacoustic imaging (PAI) or photoacoustic tomography (PAT).
  • the acoustic wave receiver is moved relative to the subject to receive the acoustic wave, and the information inside the subject is two-dimensional or three-dimensional based on the received signal. It is known to acquire as an image.
  • the present invention has been made in view of the above problems, and in photoacoustic imaging, a photoacoustic image generating device and photoacoustic image which make it possible to generate a photoacoustic image representing the absorption distribution of a light absorber from a photoacoustic signal It is an object of the present invention to provide an image generation method.
  • the photoacoustic image generating device concerning the present invention, A light emitting unit that emits measurement light toward a subject, and a probe having an acoustic detection element that detects a photoacoustic wave generated in the subject due to the emission of the measurement light; Position information acquisition means for acquiring space information that defines the position of the probe in the real space and / or its orientation; Photoacoustic image generation means for generating tomographic data and / or volume data of the photoacoustic signal using the photoacoustic signal of the photoacoustic wave detected by the probe and the spatial information acquired by the positional information acquisition means Equipped with The photoacoustic image generation means has an optical differential waveform deconvoluting means for deconvoluting an optical differential waveform which is a differential waveform of the time waveform of the light intensity of the measurement light from the photoacoustic signal, and tomographic data and / or volume data The generation is characterized by using the photoacoustic signal
  • the light differential waveform deconvoluting means further includes an optical differential waveform obtaining means for obtaining a light differential waveform of the measurement light.
  • the light differential waveform deconvoluting means is First Fourier transform means for Fourier transforming a photoacoustic signal; Second Fourier transform means for Fourier transforming a signal obtained by sampling an optical differential waveform at a predetermined sampling rate; Inverse filter operation means for obtaining, as an inverse filter, the inverse number of the Fourier-transformed light differential waveform; Filter application means for applying an inverse filter to the Fourier transformed photoacoustic signal; It is preferable that the method further comprises: inverse Fourier transform means for performing inverse Fourier transform on the photoacoustic signal to which the inverse filter is applied.
  • the photoacoustic signal is sampled at a first sampling rate
  • the optical differential waveform is sampled at a second sampling rate higher than the first sampling rate
  • the optical differential waveform deconvoluting means further comprises resampling means for resampling the photoacoustic signal sampled at a first sampling rate at a second sampling rate
  • the first Fourier transform means performs Fourier transform on the photoacoustic signal resampled by the resampling means.
  • the photoacoustic signal is sampled at the first sampling rate
  • the optical differential waveform is sampled at a second sampling rate higher than the first sampling rate
  • the first Fourier transform means performs Fourier transform with a first number of data points
  • the second Fourier transform means performs Fourier transform with a second number of data points larger than the first number of data points.
  • An optical differential waveform deconvoluting means performs zero padding on a Fourier-transformed photoacoustic signal by adding zero at the center by the difference between the first data score and the second data score.
  • the filter application means applies an inverse filter to the photoacoustic signal that has been zero padded by the zero padding means.
  • the photoacoustic signal is sampled at the first sampling rate
  • the optical differential waveform is sampled at a second sampling rate higher than the first sampling rate
  • the first Fourier transform means performs Fourier transform with a first number of data points
  • the second Fourier transform means performs Fourier transform with a second number of data points larger than the first number of data points.
  • the optical differential waveform deconvoluting means further comprises high frequency component sample point removing means for removing high frequency component sample points by the difference between the first data score and the second data score from the Fourier transformed light differential waveform.
  • the inverse filter operation means is to obtain, as an inverse filter, an inverse number of a waveform obtained by removing a high frequency component sample point from the optical differential waveform subjected to the Fourier transform.
  • the light differential waveform deconvoluting means when the measurement light includes light of a plurality of wavelengths, converts the light differential waveform from the photoacoustic signal corresponding to the light of each wavelength. It generates a deconvoluted signal
  • the photoacoustic image generation means further includes two-wavelength data calculation means for calculating and processing signals after deconvolution corresponding to the light of each wavelength.
  • the photoacoustic image generation means removes the influence of the reception angle dependence characteristic of the detector that detects the photoacoustic signal from the deconvoluted photoacoustic signal. It is preferable to further comprise correction means for correcting the deconvoluted photoacoustic signal.
  • the photoacoustic image generation apparatus further includes an observation method selection unit that selects an observation method of volume data, Preferably, the photoacoustic image generation means generates a photoacoustic image according to the observation mode selected by the observation mode selection means based on the volume data.
  • the position information acquisition unit includes a magnetic sensor unit, and acquires spatial information using the magnetic sensor unit.
  • the probe detects a reflected acoustic wave with respect to the acoustic wave transmitted to the subject
  • the photoacoustic image generation apparatus further includes a reflection acoustic wave image generation unit that generates a reflection acoustic wave image based on a reflection acoustic wave signal of the reflection acoustic wave detected by the probe.
  • the photoacoustic image generation method is Using a photoacoustic image generation apparatus provided with a probe having a light emitting unit and an acoustic detection element Detecting a photoacoustic wave generated in the subject due to the emission of measurement light; Acquire spatial information that defines the position of the probe in real space and / or its orientation; Deconvolute an optical differential waveform, which is a differential waveform of the time waveform of the light intensity of the measurement light, from the photoacoustic signal of the photoacoustic wave, And generating the tomographic data and / or volume data of the photoacoustic signal using the deconvoluted photoacoustic signal and the spatial information.
  • the deconvolution Fourier-transforms the photoacoustic signal Fourier-transforms a signal obtained by sampling the optical differential waveform at a predetermined sampling rate, and Fourier-transformed optical differential waveform It is preferable to obtain the inverse number of the inverse filter as an inverse filter, apply the above-mentioned inverse filter to the Fourier-transformed photoacoustic signal, and Fourier-invert the photoacoustic signal to which the above-mentioned inverse filter is applied.
  • the first sampling rate when the photoacoustic signal is sampled at a first sampling rate and the optical differential waveform is sampled at a second sampling rate higher than the first sampling rate, the first The photoacoustic signal sampled at the sampling rate may be resampled at the second sampling rate, and the resampled photoacoustic signal may be Fourier transformed.
  • the Fourier transform of the photoacoustic signal is performed.
  • a conversion is performed by a first data point, and a Fourier transform of a signal obtained by sampling an optical differential waveform at a predetermined sampling rate is performed by a second data point larger than the first data point, and a Fourier-transformed photoacoustic signal ,
  • Zero padding is performed by adding 0 at the center by the difference between the first data score and the second data score, and the above inverse filter is applied to the photoacoustic signal subjected to the zero padding.
  • the Fourier transform of the photoacoustic signal is performed.
  • a transformation is performed by a first data point, and a Fourier transformation of a signal obtained by sampling an optical differential waveform at a predetermined sampling rate is performed by a second data point larger than the first data point, and a Fourier transformed optical differential waveform
  • the high frequency component sample point is removed by the difference between the first data score and the second data score from the signal of (1), and the inverse of the optical differential waveform after removing the high frequency component sample point is determined as the inverse filter. it can.
  • the photoacoustic image generation method when the measurement light includes light of a plurality of wavelengths, a signal obtained by deconvolving the optical differential waveform from the photoacoustic signal corresponding to the light of each wavelength is generated, It is preferable to arithmetically process the deconvoluted signals corresponding to the light of each wavelength.
  • an optical differential waveform that is a differential waveform of a time waveform of light intensity of measurement light is deconvoluted from a photoacoustic signal of a photoacoustic wave And generating tomographic data and / or volume data of the photoacoustic signal using the photoacoustic signal and the spatial information. Therefore, the photoacoustic signal representing the pressure distribution in the conventional pressure wave propagation process can be converted into the photoacoustic signal representing the absorption distribution of the light absorber. As a result, in photoacoustic imaging, it is possible to generate a photoacoustic image representing the absorption distribution of the light absorber from the photoacoustic signal.
  • FIG. 6 is a waveform diagram showing an optical pulse differential waveform sampled at a sampling rate of 400 MHz. It is a wave form diagram which shows the light pulse differential waveform sampled by the sampling rate of 40 MHz. It is a block diagram which shows the structure of the light differential waveform deconvoluting means in the photoacoustic image generating apparatus of 3rd Embodiment. It is a graph which shows a photoacoustic signal (frequency domain). It is a graph which shows the photoacoustic signal after zero padding.
  • FIG. 1 is a block diagram showing the configuration of the first embodiment of the photoacoustic image generation apparatus of the present invention.
  • the photoacoustic image generation apparatus 10 includes an ultrasound probe (probe) 11, an ultrasound unit 12, a laser unit 13, an image display unit 14, a position information acquisition unit 15, and an input unit 16. Equipped with an ultrasound probe (probe) 11, an ultrasound unit 12, a laser unit 13, an image display unit 14, a position information acquisition unit 15, and an input unit 16. Equipped with an ultrasound probe (probe) 11, an ultrasound unit 12, a laser unit 13, an image display unit 14, a position information acquisition unit 15, and an input unit 16. Equipped with
  • the laser unit 13 emits a laser beam to be irradiated to the subject as a measurement beam.
  • the laser beam emitted from the laser unit 13 is guided to the probe 11 using a light guiding means such as an optical fiber, for example, and is irradiated onto the subject from the probe 11.
  • the laser unit 13 corresponds to the light emitting portion in the present invention.
  • the laser unit 13 is a Q switch laser including a flash lamp 31 as an excitation light source and a Q switch 32 for controlling laser oscillation.
  • the trigger control circuit 29 outputs an optical trigger signal
  • the laser unit 13 lights the flash lamp 31 and excites the Q switch laser.
  • the laser unit 13 preferably outputs pulse light having a pulse width of 1 to 100 nsec as laser light.
  • the wavelength of the laser light is appropriately determined by the light absorption characteristics of the substance in the object to be measured. Hemoglobin in the living body has different optical absorption characteristics depending on its state (oxygenated hemoglobin, deoxygenated hemoglobin, methemoglobin, etc.), but generally absorbs light of 360 to 1000 nm. Therefore, in the case of measuring hemoglobin in the living body, it is preferable to make the absorption of other biological substances relatively small, on the order of 600 to 1000 nm. Further, the wavelength of the laser light is preferably 700 to 1000 nm from the viewpoint of reaching the deep part of the subject in vivo.
  • light emitting elements such as a semiconductor laser (LD), a solid state laser, a gas laser, etc. which generate
  • LD semiconductor laser
  • a solid state laser solid state laser
  • a gas laser etc. which generate
  • the probe 11 detects a photoacoustic wave (photoacoustic signal) generated by the light absorber in the subject absorbing the laser beam after the subject is irradiated with the laser beam emitted from the laser unit 13. .
  • the probe 11 has, for example, a plurality of ultrasonic transducers (vibrator arrays) arranged in one or two dimensions.
  • the probe 11 is a hand-held probe and is configured to be manually scanned by an operator. This ultrasonic transducer corresponds to the acoustic detection element in the present invention.
  • FIG. 2 is a schematic view showing an example of the scanning aspect of the probe.
  • FIGS. 2a and 2b show scanning modes in the array direction (direction in which the ultrasonic transducers are arranged) of the transducer array 60 arranged in one dimension.
  • FIG. 2a shows how the transducer array 60 is scanned so that the axis 61, which is perpendicular to the array direction and directed into the subject, rotates in the array direction A about the site 62 to be imaged .
  • FIG. 2 b shows a state in which the transducer array 60 is scanned in the array direction B within a plane defined by the array direction and the elevation direction (direction perpendicular to both the array direction and the axis 61).
  • FIGS. 1 and 2b show scanning modes in the array direction (direction in which the ultrasonic transducers are arranged) of the transducer array 60 arranged in one dimension.
  • FIG. 2a shows how the transducer array 60 is scanned so that the axis
  • FIG. 2c to 2e show scanning modes in the elevation direction of the transducer array 60 arranged in one dimension.
  • FIG. 2 c shows how the transducer array 60 is scanned in the elevation direction C within a plane defined by the array direction and the elevation direction.
  • FIG. 2 d shows that the transducer array 60 is scanned in the direction D with the axis 61 passing through the center of the transducer array 60 as the rotation axis.
  • FIG. 2e shows a state in which the transducer array 60 is scanned so that the axis 61 perpendicular to the array direction and directed to the inside of the subject is rotated in the elevation direction E about the site 62 to be imaged. It shows.
  • the above-mentioned scanning manners only show the basic manner of scanning, and the actual scanning is carried out by appropriately combining the above-mentioned scanning manners. Also, the scanning is not limited to manual scanning but may be performed by a mechanical mechanism.
  • the positional information acquiring means 15 While detecting the photoacoustic signal while the probe 11 is scanning, the positional information acquiring means 15 sequentially acquires spatial information (hereinafter referred to simply as positional information) which defines the position of the probe 11 in the real space and its orientation. Do. This position information is used in generating volume data based on the photoacoustic signal. The start or end of acquisition of position information is controlled by a position trigger signal from the trigger control circuit 29. Then, the acquired position information is transmitted to the reception memory 23 after being associated with the photoacoustic signal detected at the position.
  • the position information acquisition means 15 is composed of, for example, a magnetic sensor unit having a magnetic field generation unit and a plurality of magnetic sensors, and the magnetic sensor is incorporated in the probe 11.
  • the magnetic sensor unit is the relative position coordinate (x, y, z) of the magnetic sensor with respect to the magnetic field generation unit, and the attitude information (angle ( ⁇ , ⁇ , information of ⁇ ) can be obtained.
  • the position information acquisition unit 15 may be configured to acquire position information using an acceleration sensor or an infrared sensor in addition to the magnetic sensor unit.
  • the ultrasound unit 12 corresponds to photoacoustic image generation means.
  • the ultrasound unit 12 includes a reception circuit 21, an AD conversion unit 22, a reception memory 23, a photoacoustic image reconstruction unit 24, an optical differential waveform deconvolution unit 25, a correction unit 26, a detection / logarithmic conversion unit 27, a photoacoustic image It comprises a construction means 28, a trigger control circuit 29, a control means 30, an image synthesis means 38 and an observation method selection means 39.
  • the receiving circuit 21 receives the photoacoustic signal detected by the probe 11.
  • the AD conversion means 22 is a sampling means, samples the photoacoustic signal received by the receiving circuit 21 and converts it into a digital signal.
  • the AD conversion means 22 samples the photoacoustic signal at a predetermined sampling cycle based on, for example, an AD clock signal of a predetermined frequency input from the outside.
  • the reception memory 23 stores the photoacoustic signal sampled by the AD conversion unit 22.
  • the reception memory 23 also stores the position information of the probe 11 acquired by the position information acquiring unit 15. Then, in the present embodiment, the reception memory 23 outputs the photoacoustic signal detected by the probe 11 to the photoacoustic image reconstruction means 24.
  • the photoacoustic image reconstruction means 24 reads the photoacoustic signal from the reception memory 23, and generates data of each line of the photoacoustic image based on the photoacoustic signal detected by the plurality of ultrasonic transducers of the probe 11. .
  • the photoacoustic image reconstruction means 24 adds, for example, data from 64 ultrasonic transducers of the probe 11 with a delay time according to the position of the ultrasonic transducer, and generates data for one line (delay Addition).
  • the photoacoustic image reconstruction means 24 may perform reconstruction by the BP method (Back Projection) instead of the delay addition method. Alternatively, the photoacoustic image reconstruction means 24 may perform reconstruction using a Hough transform method or a Fourier transform method.
  • the optical differential waveform deconvolution means 25 may perform deconvolution on the photoacoustic signal before reconstruction. The detailed description of the deconvolution will be described later.
  • the correction means corrects the signal in which the light pulse differential waveform is deconvoluted, and removes the influence of the reception angle dependence characteristic of the ultrasonic transducer in the probe 11 from the signal in which the light pulse differential waveform is deconvoluted.
  • the correction means 26 removes the influence of the incident light distribution of the light on the object from the signal in which the light pulse differential waveform is deconvoluted in addition to or instead of the reception angle dependent characteristic.
  • the correction means 26 may be omitted, and a photoacoustic image may be generated without performing these corrections.
  • the detection / logarithmic conversion means 27 finds the envelope of the data of each line after correction, and logarithmically transforms the found envelope.
  • a detection means for obtaining the envelope it is possible to use a conventionally used method such as Hilbert transform or quadrature detection. Thereby, the influence of the band due to the natural vibration of the ultrasonic transducer can be removed.
  • the photoacoustic image constructing unit 28 generates a photoacoustic image (tomographic data) for one frame based on the data of each line subjected to the logarithmic conversion.
  • the photoacoustic image construction means 28 converts, for example, the position in the time axis direction of the photoacoustic signal (peak portion) into the position in the depth direction in the photoacoustic image to generate a photoacoustic image.
  • the observation method selection unit 39 selects a display mode of the photoacoustic image.
  • Examples of the display mode of volume data of the photoacoustic signal include a mode as a three-dimensional image, a mode as a cross-sectional image based on tomographic data, and a mode as a graph on a predetermined axis. Which mode to display is selected in accordance with the initial setting or the input from the input means 16 by the operator.
  • the image synthesizing unit 38 generates volume data using the photoacoustic signal acquired at each position and the light pulse differential waveform deconvoluted and the position information.
  • the generation of volume data is performed by allocating signal values of respective photoacoustic signals to a computational space (virtual space) according to position information associated therewith.
  • a computational space virtual space
  • When assigning signal values if the locations to be assigned overlap, for example, the average value of the signal values or the maximum value among them is adopted as the signal value of the overlapping location.
  • the image combining means 38 performs necessary processing (for example, correction of scale, coloring according to voxel values, etc.) to the generated volume data.
  • FIG. 3 is a schematic view showing an example of a display mode of the photoacoustic image.
  • FIG. 3a is a three-dimensional image 63a showing the value of volume data when viewed from a predetermined viewpoint in the virtual space.
  • a three-dimensional image 63a as shown in FIG. 3a is displayed.
  • FIG. 3 b is a cross-sectional image 63 b showing the value of volume data in a cross section of a predetermined two-dimensional plane.
  • the two-dimensional plane defining the cross-sectional image 63 b is set in the observation method selection unit 39 as, for example, an initial setting or by an input from the input unit 16 by the operator, and this information is also transmitted to the image synthesis unit 38.
  • FIG. 3c is a graph 63c showing the value of volume data along a predetermined one-dimensional axis. When the method of observing the one-dimensional absorption distribution is selected in the observation method selection means 39, a graph 63c as shown in FIG. 3c is displayed.
  • the one-dimensional axis defining the graph 63 c is set in the observation method selection unit 39 as, for example, an initial setting or by an input from the input unit 16 by the operator, and this information is also transmitted to the image synthesis unit 38.
  • the photoacoustic image generated according to the selected observation method becomes a final image (display image) to be displayed on the image display means 14.
  • the operator rotates or moves the image as needed after the photoacoustic image is once generated. That is, when the three-dimensional image as shown in FIG. 3 a is displayed, the operator recalculates the photoacoustic image by sequentially specifying or moving the direction to be the viewpoint using the input unit 16. And the three-dimensional image will be rotated. The operator can also change the observation method as appropriate using the input means 16.
  • the image display means 14 displays the display image generated by the image combining means 38.
  • the control means 30 controls each part in the ultrasonic unit 12.
  • the trigger control circuit 29 sends an optical trigger signal to the laser unit 13 at the time of photoacoustic image generation. Also, the Q switch trigger signal is sent after the output of the light trigger signal.
  • the laser unit 13 receives the light trigger signal, turns on the flash lamp 31, and starts laser excitation. When the Q switch trigger signal is input, the laser unit 13 turns on the Q switch 32 and emits laser light.
  • the trigger control circuit 29 sends a sampling trigger signal to the AD conversion means 22 in synchronization with the laser light irradiation to the subject, and controls the sampling start timing of the photoacoustic signal in the AD conversion means 22.
  • FIG. 4 shows the detailed configuration of the optical differential waveform deconvoluting means 25.
  • the optical differential waveform deconvolution unit 25 includes an optical differential waveform acquisition unit 40, Fourier transform units 41 and 42, an inverse filter operation unit 43, a filter application unit 44, and a Fourier inverse transform unit 45.
  • the optical differential waveform acquisition means 40 acquires an optical pulse differential waveform.
  • the light differential waveform acquisition means 40 reads the light pulse differential waveform from, for example, the memory. Instead of this, the time waveform of the light intensity of the light irradiated to the object may be read out from the memory, and the time waveform may be differentiated.
  • the light pulse differential waveform may be acquired by measuring the time waveform of the light intensity of the light irradiated to the subject and temporally differentiating the measurement result. Furthermore, it is a function representing the time waveform of the light intensity of the pulsed light emitted to the object or its differential waveform, and the function having the pulse width of the pulsed light as an independent variable and the function of the pulsed light irradiated to the object
  • the light pulse differential waveform may be acquired using the measurement result of the pulse width.
  • the Fourier transform means (first Fourier transform means) 41 transforms the reconstructed photoacoustic signal from a time domain signal into a frequency domain signal by discrete Fourier transform.
  • the Fourier transform means (second Fourier transform means) 42 converts a signal obtained by sampling the light pulse differential waveform at a predetermined sampling rate from a time domain signal into a frequency domain signal by discrete Fourier transform.
  • FFT Fast Fourier Transform
  • the thermal impulse response h (x, y) of the sample is first calculated, and then the photoacoustic image p (x, y) is constructed.
  • the thermal impulse response is defined as a transfer function until an infinitesimal single point temperature change is converted to a minute displacement of the sample surface. Thereafter, the thermal impulse response h (x, y) and the photoacoustic image p (x, y) are respectively subjected to Fourier transform to obtain Fourier transform images H ( ⁇ , ⁇ ) and P ( ⁇ , ⁇ ).
  • non-patent document 1 Yuan Xu, et al., IEEE Transactions on Medical Imaging, Volume 21 (2002), p. 823-828 (hereinafter referred to as non-patent document 1) logically It is described that when the light pulse ⁇ (t) having a time width is Fourier-transformed into ⁇ (k), the derivative thereof is considered as i ⁇ (k).
  • microwaves with a pulse width extended are applied to the subject so that the excitation light pulse waveform falls within the detection band of PZT (lead zirconate titanate), which is an ultrasonic detection element, and ordinary PZT The probe detects the photoacoustic signal and reconstructs the absorption distribution.
  • PZT lead zirconate titanate
  • non-patent document 2 a micro waveform as a pressure waveform from a minute element in a subject It is described that a microwaveform obtained by combining the light pulse differential function and the device impulse response function and the absorption distribution are associated with the observed pressure waveform.
  • Absorption image reconstruction measures p d0 including optical differentiation and system response in an indivisible state, and after deconvoluting p d0 from the pressure waveform of each element, the filtered back projection method (filtered backprojection method) Using.
  • excitation is performed by pulse laser light with a short pulse width
  • the detection band of ultrasonic waves is broadened compared to a normal ultrasonic diagnostic device
  • the photoacoustic signal is detected by a hydrophone + oscilloscope
  • the absorption distribution is reconstructed Do.
  • the above deviation ⁇ 12.5 ns
  • the above deviation may be considered as an error, but when the light pulse width is 10 ns, the above deviation can not be called an error. It will transfer to the pressure distribution of the propagation process of the pressure wave rather than the pressure distribution at the moment of contact.
  • the "pressure distribution in the pressure wave propagation process” does not match the "absorption distribution”.
  • the inventor attempted to obtain the absorption distribution from the detection signal even in a practical apparatus.
  • micro-absorbent particle which is a light absorber
  • this micro-absorbent particle absorbs pulse laser light to generate a pressure wave (photoacoustic pressure wave).
  • the pressure waveform p micro (R, t) when a photoacoustic pressure wave generated from a micro-absorbing particle at position r is observed at position R, where t is time, is [Phys. Rev. Lett. 86 (2001) ] 3550.], it becomes the following spherical waves.
  • I (t) is a time waveform of the light intensity of the excitation light
  • the coefficient k is a conversion coefficient when the particle absorbs light and outputs an acoustic wave
  • v s is the sound velocity of the object is there.
  • Positions r and R are vectors indicating positions in space.
  • the pressure generated from the micro-absorbing particles is a spherical wave proportional to the light pulse differential waveform as shown in the above equation.
  • the pressure waveform obtained from the subject to be actually imaged is considered to be a waveform obtained by superimposing the above-mentioned micro absorption waveform because it has a more macroscopic absorber size (the principle of superposition).
  • a (r ⁇ R) be the absorption distribution of particles that emit macro photoacoustic waves
  • p macro (R, t) be an observed waveform of pressure from the macro absorber.
  • the observation position R the photoacoustic wave from the absorbing particle located at the radius v s t from the observation position R is observed at each time, so the observation waveform p macro (R, t) has the following pressure It is shown by a waveform equation.
  • the observed waveform shows a convolution type of light pulse differentiation.
  • Non-Patent Document 2 based on an equation obtained by further convoluting a device impulse response to the above equation, absorption is performed after deconvoluting p d0 including an optical derivative and a system response in an indivisible state from an observed waveform p macro. It is proposed that reconstruction of the distribution A (r-R) be performed by a filtered back projection method.
  • Non-Patent Document 2 emphasizes consideration of the device impulse response rather than the effect of light pulse differentiation, and therefore emphasizes the frequency band where the signal to noise ratio is not sufficiently obtained as the device. Image noise after processing is increased. Therefore, in Non-Patent Document 2, it is necessary to process including a high frequency filter.
  • Non-Patent Document 2 If an ultrasonic probe with a wide band is used as in Non-Patent Document 2, the above method may be used.
  • the frequency of the ultrasonic signal to be detected with respect to the impulse response of the apparatus is low, so the signal (low frequency) detected with the normal ultrasonic probe is decon
  • the band of the waveform to be expanded becomes wide, and can not be deconvoluted properly, resulting in a break as an image. Therefore, since it is important to consider the light pulse derivative term in obtaining the absorption distribution, in the present invention, in the deconvolution processing, deconvolution is performed in consideration of only the light pulse derivative term.
  • the pressure distribution after reconstruction is t ⁇ 0. That is, on the basis of the recognition that it is the pressure distribution of the pressure wave propagation process, it was considered to convert it into the absorption distribution.
  • a pressure can be expressed as in the above equation.
  • the above equation (2) can be expressed as follows, where the detection axis (r ⁇ R) is the z axis and the distance
  • the light pulse differential can be deconvoluted by Fourier transforming both sides of the equation (4) and dividing the Fourier coefficient of the pressure distribution by the Fourier coefficient of the time differential of the light pulse on the frequency axis.
  • a (x, y, v s t) After deconvolution, it is possible to obtain A (x, y, v s t) and to image the absorption distribution by performing inverse Fourier transform on the obtained equation.
  • the detection element reception angle dependency D (x, y, z) and the natural vibration of the probe band may be superimposed on A (x, y, v s t) obtained here.
  • D (x, y, z) and its inverse on which has been determined in advance on A (x, y, v s t) it can eliminate the influence of detector elements receiving angular dependence .
  • the influence can be eliminated if intensity imaging is performed by Hilbert transform or orthogonal detection processing.
  • ⁇ (x, y, z) A (x, y, v s t) / L (x, y, z)
  • the photoacoustic signal after reconstruction is input, and the photoacoustic signal after reconstruction is subjected to Fourier transform in the Fourier transform unit 41 by FFT.
  • the photoacoustic signal after reconstruction is shown in FIG. 5A
  • the photoacoustic signal FFT after FFT is shown in FIG. 5B.
  • the signal in the time domain shown in FIG. 5A is converted into the signal in the frequency domain as shown in FIG. 5B.
  • FIG. 5B although the absolute value of the photoacoustic signal FFT is shown, in the actual processing, the complex number is processed as it is.
  • FIG. 5C shows the light pulse differential waveform (h)
  • FIG. 5D shows the light pulse differential waveform FFT (fft_h) after the FFT.
  • the signal (waveform) in the time domain shown in FIG. 5C is converted into the signal in the frequency domain shown in FIG. 5D.
  • the black circles in FIG. 5C represent sampling points in the light pulse differential waveform.
  • FIG. 5D shows the absolute value of the light pulse differential waveform FFT, in the actual processing, it is processed as a complex number.
  • the inverse of the light pulse differential waveform FFT (fft_h) after the FFT obtained above is determined by the inverse filter computing means 43 as a light pulse differential waveform FFT filter (reverse filter).
  • the light pulse differential waveform FFT filter can be obtained by conj (fft_h) / abs (fft_h) 2 .
  • conj (fft_h) represents a conjugate complex number of fft_h
  • abs (fft_h) represents an absolute value of fft_h.
  • FIG. 5E shows an optical pulse differential waveform FFT filter.
  • FIG. 5F shows the FFT waveform after deconvolution.
  • FIG. 5G shows the inverse converted photoacoustic signal.
  • the photoacoustic signal after this deconvolution is an absorption distribution obtained by deconvoluting the light pulse differential waveform from the photoacoustic signal (FIG. 5A) after reconstruction in which the light pulse differential waveform (FIG. 5C) is convoluted to the light absorption distribution It corresponds to
  • FIG. 6A shows a photoacoustic image generated based on the reconstructed photoacoustic signal (FIG. 5A)
  • FIG. 6B shows a photoacoustic image generated based on the deconvoluted photoacoustic signal (FIG. 5G).
  • the photoacoustic image generated based on the photoacoustic signal after reconstruction shown in FIG. 6A is substantially an image of the pressure distribution, and an image determination such as displaying one blood vessel in a double manner is performed. Above, it is difficult to confirm the position of the blood vessel.
  • the absorber distribution can be imaged by deconvoluting the light pulse differential waveform, and the blood vessel It is easy to check the position.
  • the sampling rate of the photoacoustic signal and the sampling rate of the light pulse differential waveform are assumed to be equal.
  • the Fourier transform means 41 Fourier-transforms the photoacoustic signal sampled at 40 MHz, for example, by the Fourier transform method of 1024 points.
  • the Fourier transform means 42 Fourier transforms the light pulse differential waveform sampled at 40 MHz by the 1024 point Fourier transform method.
  • FIG. 7 shows an operation procedure in the photoacoustic image generation method according to the present embodiment.
  • the trigger control circuit 29 outputs an optical trigger signal to the laser unit 13.
  • the laser unit 13 lights the flash lamp 31 in response to the light trigger signal.
  • the trigger control circuit 29 outputs a Q switch trigger signal at a predetermined timing.
  • the Q switch trigger signal is input, the laser unit 13 turns on the Q switch 32 and emits pulsed laser light.
  • the emitted pulse laser light is, for example, guided to the probe 11 and irradiated onto the subject from the probe 11 (Step 1).
  • the probe 11 detects the photoacoustic signal generated in the subject by the irradiation of the laser light after the irradiation of the laser light, and acquires the positional information of the probe 11 at this time (Step 2).
  • the receiving circuit 21 of the ultrasound unit 12 receives the photoacoustic signal detected by the probe 11. Then, when the probe 11 is scanned (Step 3) and scanning is performed on all areas to be imaged as a photoacoustic image, detection of the photoacoustic signal and acquisition of position information are ended (Step 4).
  • the trigger control circuit 29 sends a sampling trigger signal to the AD conversion means 22 in accordance with the timing of light irradiation on the subject.
  • the AD conversion means 22 receives the sampling trigger signal, starts sampling of the photoacoustic signal, and stores sampling data of the photoacoustic signal in the reception memory 23 (Step 5). At this time, position information is also stored in the reception memory 23 together.
  • the photoacoustic image reconstruction means 24 reads out the sampling data of the photoacoustic signal from the reception memory 23, and reconstructs the photoacoustic signal based on the read sampling data of the photoacoustic signal (Step 6).
  • the light differential waveform deconvoluting means 25 deconvolutes the light pulse differential waveform obtained by differentiating the time waveform of the light intensity of the pulsed laser light irradiated to the object from the reconstructed photoacoustic signal (Step 7). By this deconvolution, the photoacoustic signal which shows absorption distribution is obtained.
  • the correction means corrects the signal in which the light pulse differential waveform is deconvoluted with the detection element reception angle dependency and the incident distribution of light on the object.
  • the detection / logarithmic conversion means 27 obtains the envelope of the photoacoustic signal corrected by the correction means 26, and logarithmically converts the obtained envelope.
  • the photoacoustic image construction means 28 generates a photoacoustic image in a certain cross section based on the data of each line subjected to logarithmic conversion.
  • the photoacoustic image is an absorption distribution image obtained by converting the absorption distribution into data.
  • the image synthesis means 38 generates volume data using these photoacoustic images and position information (Step 8). Further, the display mode of the volume data is determined by the observation mode selection means 39 (Step 9). The image display means 14 displays the photoacoustic image showing the absorption distribution by a predetermined display mode on a display screen (Step 10).
  • the light emission time is actually a finite length
  • the light differential waveform deconvoluting means 25 after reconstruction Deconvolute the light pulse differential waveform from the photoacoustic image of By deconvolving the light pulse differential waveform, an absorption distribution can be obtained and an absorption distribution image can be generated.
  • Non-Patent Document 2 differs from the invention of Non-Patent Document 2 in that the light differential function and the device impulse response function are deconvoluted in an inseparable state. That is, when a narrow band normal ultrasonic probe, for example, an 8 MHz ultrasonic probe is used, a 4 to 12 MHz signal can be detected by the ultrasonic probe, but the detection sensitivity is low at 4 MHz or 12 MHz which is the end of the band. Therefore, 4 MHz and 12 MHz S / N is lower than 8 MHz S / N.
  • Non-Patent Document 2 emphasizes taking into account (corrects) the device impulse response, and an image in which a 4 MHz or 12 MHz signal with low detection sensitivity is emphasized and, as a result, a frequency component with a poor S / N is emphasized It will be generated.
  • the present invention only the light pulse differential waveform is deconvoluted. Therefore, it is possible to remove the component corresponding to the device impulse response from the photoacoustic signal after the deconvolution while processing the photoacoustic signal without lowering the S / N with the light pulse differential waveform, so the S / N is not reduced.
  • Photoacoustic images can be generated on
  • an optical differential waveform which is a differential waveform of a time waveform of light intensity of measurement light
  • the convolution and deconvoluted photoacoustic signal and the spatial information are used to generate volume data for the photoacoustic signal. Therefore, the photoacoustic signal representing the pressure distribution in the conventional pressure wave propagation process can be converted into the photoacoustic signal representing the absorption distribution of the light absorber.
  • photoacoustic imaging it is possible to generate a photoacoustic image representing the absorption distribution of the light absorber from the photoacoustic signal.
  • the sampling rate of the photoacoustic signal matches the sampling rate of the light pulse differential waveform, and both signals are subjected to Fourier transform with the same number of data points.
  • the photoacoustic signal is sampled at low speed, while the light pulse differential waveform is sampled at high speed. That is, the sampling rate of the light pulse differential waveform is set higher than the sampling rate of the photoacoustic signal.
  • the sampling interval (the reciprocal of the sampling rate) of the photoacoustic signal is set to be longer than the pulse time width of the light irradiated to the object.
  • the photoacoustic signal sampled at a low sampling rate is resampled (upsampled) at the same sampling rate as the sampling rate of the light pulse differential waveform, and then Fourier transform is performed. Therefore, the configuration itself of the photoacoustic image generation apparatus is the same as that of the first embodiment except for the optical differential waveform deconvoluting means.
  • reference numerals shown in FIG. 1 are used for elements other than the light differential waveform deconvoluting means. A detailed description of the same components as in the first embodiment will be omitted unless necessary.
  • the photoacoustic image generation apparatus 10 includes an ultrasonic probe (probe) 11, an ultrasonic unit 12, a laser unit 13, an image display unit 14, a position information acquisition unit 15, and an input unit 16.
  • FIG. 8 shows the light differential waveform deconvoluting means 25a in the present embodiment.
  • the optical differential waveform deconvoluting means 25a in the present embodiment has resampling means 46 and 47 in addition to the configuration of the optical differential waveform deconvolving means 25 in the first embodiment shown in FIG.
  • the resampling means 46 is an upsampling means, and resamples the sampling data of the photoacoustic signal sampled at a low sampling rate at the same sampling rate as the sampling rate of the light pulse differential waveform (upsampling).
  • the resampling means 46 performs upsampling, for example, by applying a low pass filter that adds zeros between sample points of the photoacoustic signal sampled at a low sampling rate and cuts it at the Nyquist frequency before upsampling.
  • the sampling rate (first sampling rate) of the photoacoustic signal in the AD conversion means 22 is 40 MHz
  • the sampling rate (second sampling rate) of the light pulse differential waveform is 400 MHz
  • the resampling means 46 upsamples the 40 MHz photoacoustic signal to a 400 MHz signal.
  • the Fourier transform means 41 Fourier transforms the photoacoustic signal upsampled by the resampling means 46.
  • the Fourier transform means 41 for performing a Fourier transform on the photoacoustic signal and the Fourier transform means for performing a Fourier transform on the light pulse differential waveform perform the Fourier transform with the same number of data points.
  • the Fourier transform means 41 converts the photoacoustic signal into a signal in the frequency domain of 8192 points
  • the Fourier transform means 42 converts the light pulse differential waveform into a signal in the frequency domain of 8192 points.
  • the filter application means 44 applies an inverse filter to the Fourier-transformed signal of the upsampled photoacoustic signal.
  • the Fourier inverse transform means 45 transforms the signal to which the inverse filter is applied, from the signal in the frequency domain to the signal in the time domain (absorption distribution).
  • the absorption distribution signal returned to the time domain signal is, for example, a signal in a state of being upsampled to 400 MHz.
  • the resampling means 47 downsamples the absorption signal to the original sampling rate of the photoacoustic signal.
  • the resampling means 47 downsamples, for example, the 400 MHz absorption signal to a 40 MHz absorption signal. Downsampling is performed, for example, by decimating sample points after applying a low pass filter that cuts at the Nyquist frequency after downsampling.
  • FIG. 9A shows an optical pulse differential waveform sampled at a sampling rate of 400 MHz
  • FIG. 9B shows an optical pulse differential waveform sampled at a sampling rate of 40 MHz.
  • the light pulse differential waveform can be accurately reproduced.
  • the sampling rate of the light pulse differential waveform is matched to the sampling rate of the photoacoustic signal and sampling at 40 MHz, as shown in FIG. 9B, the light pulse differential waveform can not be reproduced accurately.
  • the filter application means 44 When applying the inverse filter to the signal obtained by Fourier-transforming the photoacoustic signal by the filter application means 44, it is necessary that both data points be uniform.
  • the sampling rate of the light pulse differential waveform is set in accordance with the sampling rate of the photoacoustic signal, as shown in FIG. 9B, the sampling frequency is too low for waveform change, and the light pulse differential waveform can not be reproduced accurately.
  • the light pulse differential term may not be accurately deconvoluted, and the absorption distribution may not be obtained correctly.
  • the sampling rate of the light pulse differential waveform is set to 400 MHz, for example, and the sampling rate of the photoacoustic signal is set to 400 MHz to accurately reproduce the light pulse differential waveform, the light pulse differential term is accurately deconvoluted. It is possible to convolution and to obtain the absorption distribution correctly. However, in such a case, a high speed AD converter is required for the AD conversion means 22. Further, the total number of sampling data is increased, so that the memory capacity required for the reception memory 23 is increased. Furthermore, since the data handled by the photoacoustic image reconstruction means 24 increases, the time required for the reconstruction also increases.
  • the resampling unit 46 resamples the sampling data of the photoacoustic signal later.
  • the photoacoustic signal after detection is upsampled by signal processing, it is possible to accurately deconvolute the light pulse differential term while performing slow sampling from photoacoustic detection to reconstruction.
  • a high speed AD converter is not necessary for the AD conversion unit 22, and the memory capacity required for the reception memory 23 does not increase.
  • the time required to reconstruct the photoacoustic signal does not increase, and the processing time can be shortened as compared to the case of sampling at a high sampling rate when detecting the photoacoustic signal.
  • the sampling rate of the light pulse differential waveform is set higher than the sampling rate of the photoacoustic signal.
  • the photoacoustic signals sampled at a low sampling rate are upsampled, and both signals are Fourier transformed with the same data points.
  • the Fourier transform of the light pulse differential waveform is performed with data points that are larger than the data points of the Fourier transform of the photoacoustic signal, and the center of the Fourier transformed photoacoustic signal is the difference of the data points.
  • the configuration itself of the photoacoustic image generation apparatus is the same as that of the first embodiment except for the optical differential waveform deconvoluting means.
  • reference numerals shown in FIG. 1 are used for elements other than the light differential waveform deconvoluting means. A detailed description of the same components as in the first embodiment will be omitted unless necessary.
  • the photoacoustic image generation apparatus 10 includes an ultrasonic probe (probe) 11, an ultrasonic unit 12, a laser unit 13, an image display unit 14, a position information acquisition unit 15, and an input unit 16.
  • FIG. 10 shows the light differential waveform deconvoluting means 25b in the present embodiment.
  • the optical differential waveform deconvoluting means 25b in this embodiment includes the zero padding means 48 and the zero point removing means 49 in addition to the configuration of the optical differential waveform deconvolving means 25 in the first embodiment shown in FIG. Have.
  • the sampling rate (first sampling rate) of the photoacoustic signal is 40 MHz
  • the sampling rate (second sampling rate) of the light pulse differential waveform is 320 MHz.
  • the Fourier transform means 41 converts, for example, a 40 MHz photoacoustic signal into a signal in the frequency domain of 1024 points (first data points), and the Fourier transform means 42 converts an optical pulse differential waveform of 320 MHz to 8192 points (second Convert to a signal in the frequency domain).
  • the second data score is equal to or greater than the data score obtained by multiplying the first data score by the ratio of the second sampling rate to the first sampling rate.
  • the zero padding means 48 receives the photoacoustic signal converted from the Fourier transform means 41 into a signal in the frequency domain.
  • the zero padding means 48 adds a zero point (point of signal value zero) at the center by the difference of the data points of the photoacoustic signal after the Fourier transform and the light pulse differential waveform to the photoacoustic signal subjected to the Fourier transform. Do.
  • the zero padding means 48 divides, for example, the photoacoustic signal of 1024 data points represented in the frequency domain into two at the Nyquist frequency (1/2 of the sampling frequency) and divides the data between the two divided frequency domains.
  • a zero point is added by the difference of the score, and a photoacoustic signal of 8192 data points which is the same as the data score of the light pulse differential waveform represented in the frequency domain is generated.
  • the addition of zeros corresponds to upsampling in the frequency domain.
  • the filter application means 44 applies an inverse filter to the signal that has been zero padded by the zero padding means 48.
  • the zero point removal means 49 removes the frequency band to which "0" is added by the zero padding means 48 from the signal to which the inverse filter is applied. For example, when the photoacoustic signal (frequency domain) of 1024 data points is converted to a signal of 8192 data points by the zero padding means 48, the zero point removing means 49 outputs the signal after the filter application (8192 points of data). ) Is returned to the signal of 1024 data points. Removal of the zero corresponds to downsampling in the frequency domain.
  • the inverse Fourier transform means 45 converts the signal returned to 1024 data points from the signal in the frequency domain to the signal in the time domain.
  • FIG. 11A shows a photoacoustic signal subjected to Fourier transform
  • FIG. 11B shows a photoacoustic signal after zero padding.
  • the sampling rate of the photoacoustic signal in AD conversion means 22 is 40 MHz
  • the signal which Fourier-transformed the photoacoustic signal turns into a signal of the frequency band from 0 MHz to 40 MHz, as shown to FIG. 11A.
  • This signal is divided into two regions A and B at a boundary of 20 MHz which is a center frequency.
  • the signal in region B becomes a signal corresponding to the frequency region of 300 MHz to 320 MHz.
  • the photoacoustic signal sampled at a low sampling rate is converted into a signal in the frequency domain, and the zero point in the domain of the high frequency component of the converted signal in the frequency domain is added.
  • the difference between this embodiment and the second embodiment is that in the second embodiment, the photoacoustic signal is upsampled, whereas in the present embodiment, the photoacoustic signal is upsampled in the frequency domain. is there.
  • resampling up-sampling
  • slow sampling from photoacoustic detection to reconstruction is performed.
  • the light pulse differential term can be deconvoluted accurately.
  • the sampling rate of the light pulse differential waveform is set higher than the sampling rate of the photoacoustic signal.
  • the light pulse differential waveform is performed with data points larger than the data points of the Fourier transform of the photoacoustic signal, high frequency component sample points are removed from the Fourier transformed light differential waveform, and the inverse thereof is used as an inverse filter.
  • the configuration itself of the photoacoustic image generation apparatus is the same as that of the first embodiment except for the optical differential waveform deconvoluting means.
  • reference numerals shown in FIG. 1 are used for elements other than the light differential waveform deconvoluting means. A detailed description of the same components as in the first embodiment will be omitted unless necessary.
  • the photoacoustic image generation apparatus 10 includes an ultrasonic probe (probe) 11, an ultrasonic unit 12, a laser unit 13, an image display unit 14, a position information acquisition unit 15, and an input unit 16.
  • FIG. 12 shows an optical differential waveform deconvoluting means 25c in the present embodiment.
  • the optical differential waveform deconvolution unit 25 c in the present embodiment has a high frequency component sample point removal unit 50.
  • the sampling rate (first sampling rate) of the photoacoustic signal is 40 MHz
  • the sampling rate (second sampling rate) of the light pulse differential waveform is 320 MHz.
  • the Fourier transform means 41 converts, for example, a 40 MHz photoacoustic signal into a signal in the frequency domain of 1024 points (first data points), and the Fourier transform means 42 converts an optical pulse differential waveform of 320 MHz to 8192 points (second Convert to a signal in the frequency domain).
  • the second data score is equal to or greater than the data score obtained by multiplying the first data score by the ratio of the second sampling rate to the first sampling rate.
  • the high frequency component sample point removing means 50 receives the light pulse differential waveform converted from the Fourier transform means 42 into a signal in the frequency domain.
  • the high frequency component sample point removal means 50 removes high frequency component sample points from the Fourier-transformed light pulse differential waveform by the difference between the data points of the photoacoustic signal after the Fourier transform and the light pulse differential waveform.
  • the high frequency component sample point removing means 50 for example, removes the central data point corresponding to the high frequency component from the light pulse differential waveform of 8192 data points represented in the frequency domain, and the data of the photoacoustic signal represented in the frequency domain An optical pulse differential waveform of 1024 data points identical to the point is generated.
  • the removal of the high frequency component sample points corresponds to the downsampling of the light pulse differential waveform in the frequency domain.
  • FIG. 13A shows a Fourier-transformed light pulse differential waveform
  • FIG. 13B shows a light pulse differential waveform from which high frequency component sample points have been removed.
  • the sampling rate of the optical pulse differential waveform is 320 MHz
  • the signal obtained by Fourier transforming the optical pulse differential waveform (the number of data points 8192) is a signal of a frequency band from 0 MHz to 320 MHz as shown in FIG. 13A.
  • This signal is divided into the first data point to the 512th area (area A), the 513th data point to the 7680th data point area (area B), and the 8192th data point from the 7681th data point.
  • the inverse filter computing means 43 finds, as an inverse filter, the reciprocal of the light pulse differential waveform that is represented in the frequency domain and from which the high frequency component sample points have been removed.
  • the inverse filter computing means 43 finds, for example, the inverse number of the light pulse differential waveform in which the data points are reduced from 8192 to 1024 as an inverse filter.
  • the filter application unit 44 multiplies, for each element, the photoacoustic signal of 1024 data points represented in the frequency domain, for example, and the inverse filter.
  • the inverse Fourier transform means 45 converts the signal to which the inverse filter is applied from the signal in the frequency domain to the signal in the time domain.
  • the filter application unit 44 multiplies the photoacoustic signal in which the zero point is added to the region of the high frequency component shown in FIG. 11B and the reciprocal of the light pulse differential waveform shown in FIG. 13A. . Since the value of the high frequency component region of the photoacoustic signal is “0”, the high frequency component of the light pulse differential waveform (region B in FIG. 13A) does not affect the photoacoustic signal after the inverse filter application. Therefore, as in the present embodiment, the high frequency component sample point is removed from the signal in the frequency domain of the optical pulse differential waveform, and the inverse filter is determined from the optical pulse differential waveform from which the high frequency component is removed. When applied to the represented photoacoustic signal, the obtained result is the same as the third embodiment. That is, also in this embodiment, the same effect as that of the third embodiment can be obtained.
  • FIG. 14 is a block diagram showing the configuration of the fifth embodiment of the photoacoustic image generation device.
  • the present embodiment differs from the first embodiment in that an ultrasonic image is also generated in addition to the photoacoustic image. Therefore, the detailed description of the same components as those of the first embodiment will be omitted unless necessary.
  • an ultrasonic wave is used as an acoustic wave, and an ultrasonic image is generated as a reflected acoustic wave image.
  • an acoustic wave of an audible frequency may be used by selecting an appropriate frequency in accordance with the object to be detected, the measurement condition, and the like.
  • the form of generating an ultrasound image can be combined with any of the second to fourth embodiments.
  • the photoacoustic image generation apparatus 10 of this embodiment includes an ultrasonic probe (probe) 11, an ultrasonic unit 12, a laser unit 13, and an image display means 14.
  • the ultrasound unit of this embodiment has a transmission control circuit 33, data separation means 34, ultrasound image reconstruction means 35, detection / logarithmic conversion means 36, and in addition to the configuration of the photoacoustic image generation apparatus shown in FIG. Ultrasonic image constructing means 37 is provided.
  • the probe 11 performs the output (transmission) of the ultrasonic wave to the object and the detection (reception) of the reflected ultrasonic wave from the object to the transmitted ultrasonic wave.
  • the ultrasonic transducer included in the acoustic wave detection means in the present invention may be used, or a new member separately provided in the probe 11 for transmitting and receiving ultrasonic waves.
  • Ultrasonic transducers may be used.
  • transmission and reception of ultrasonic waves may be separated. For example, ultrasonic waves may be transmitted from a position different from that of the probe 11, and the reflected ultrasonic waves for the transmitted ultrasonic waves may be received by the probe 11.
  • the trigger control circuit 29 When generating an ultrasonic image, the trigger control circuit 29 sends an ultrasonic wave transmission trigger signal to the transmission control circuit 33 to instruct ultrasonic wave transmission.
  • the transmission control circuit 33 When receiving the trigger signal, the transmission control circuit 33 causes the probe 11 to transmit an ultrasonic wave.
  • the probe 11 detects the reflected ultrasound from the subject after transmitting the ultrasound.
  • the reflected ultrasonic waves detected by the probe 11 are input to the AD conversion means 22 through the reception circuit 21.
  • the trigger control circuit 29 sends a sampling trigger signal to the AD conversion means 22 in accordance with the timing of ultrasound transmission to start sampling of reflected ultrasound.
  • the photoacoustic signal is one way from the generation position to the probe 11. Since the detection of the reflected ultrasound takes twice as long as the detection of the photoacoustic signal generated at the same depth position, the sampling clock of the AD conversion means 22 is half of that at the time of the photoacoustic signal sampling, for example It may be 20 MHz.
  • the AD conversion means 22 stores the sampling data of the reflected ultrasound in the reception memory 23. Either detection (sampling) of the photoacoustic signal or detection (sampling) of the reflected ultrasonic wave may be performed first.
  • the data separation means 34 separates the sampling data of the photoacoustic signal stored in the reception memory 23 and the sampling data of the reflected ultrasound.
  • the data separation unit 34 inputs sampling data of the separated photoacoustic signal to the photoacoustic image reconstruction unit 24.
  • the path of signal processing may be changed according to the pulse width of the pulsed laser light, and the generation of the photoacoustic image (absorption distribution image) including the deconvolution of the light pulse differential waveform is the same as in the first embodiment. is there.
  • the data separation means 34 inputs sampling data of the separated reflected ultrasonic waves to the ultrasonic image reconstruction means 35.
  • the ultrasonic image reconstruction means 35 generates data of each line of the ultrasonic image based on the reflected ultrasonic waves (the sampling data thereof) detected by the plurality of ultrasonic transducers of the probe 11. Similarly to the generation of the data of each line in the photoacoustic image reconstruction means 24, a delay addition method or the like can be used to generate data of each line.
  • the detection / logarithmic conversion means 36 finds the envelope of the data of each line output from the ultrasonic image reconstruction means 35, and logarithmically transforms the found envelope.
  • the ultrasound image construction means 37 generates an ultrasound image based on the data of each line subjected to logarithmic transformation.
  • the ultrasonic image reconstruction means 35, the detection / logarithmic conversion means 36, and the ultrasonic image construction means 37 are ultrasonic image generation means (reflection acoustic wave image generation means) for generating an ultrasonic image based on the reflected ultrasonic waves.
  • the image combining means 38 combines the photoacoustic image and the ultrasound image.
  • the image combining means 38 performs image combining by superimposing a photoacoustic image and an ultrasonic image, for example.
  • the combined image is displayed on the image display means 14. It is also possible to display the photoacoustic image and the ultrasound image side by side on the image display unit 14 or to switch between the photoacoustic image and the ultrasound image and display the image without performing the image synthesis.
  • the photoacoustic image generation device generates an ultrasound image in addition to the photoacoustic image.
  • the ultrasound image it is possible to observe a portion that can not be imaged in the photoacoustic image.
  • the point that the absorption distribution can be imaged by deconvoluting the light pulse differential waveform is the same as the first embodiment.
  • most of the algorithms for image reconstruction and detection / logarithmic conversion can be shared by the generation of ultrasonic images and the generation of photoacoustic images, and it is possible to simplify FPGA circuit configuration and software. It has the above merit.
  • FIG. 15 is a block diagram showing the configuration of the sixth embodiment of the photoacoustic image generation device.
  • the present embodiment is different from the first embodiment in that light of a plurality of wavelengths is emitted to a subject.
  • the photoacoustic image generation device 10 b of the present embodiment includes each wavelength component of light including a plurality of wavelengths (light of each wavelength)
  • a two-wavelength data computing means 52 is provided which performs computation of photoacoustic signals (photoacoustic images) with respect to. Therefore, the detailed description of the same components as those of the first embodiment will be omitted unless necessary.
  • the present embodiment may be combined with any of the second to fifth embodiments, and the light may be irradiated in those embodiments to calculate the photoacoustic signals (photoacoustic images) for each wavelength component. Good.
  • the laser unit 13 is configured to be able to switch and emit light of a plurality of wavelengths.
  • the laser unit 13 switches and emits, for example, pulsed laser light with a wavelength of 750 nm and pulsed laser light with a wavelength of 800 nm.
  • the probe 11 detects a photoacoustic signal from the subject after emission of pulsed laser light of each wavelength, and the reception memory 23 stores sampling data of the photoacoustic signal corresponding to the light of each wavelength.
  • the photoacoustic signals corresponding to the stored light of each wavelength are respectively reconstructed by the photoacoustic image reconstruction means.
  • the light differential waveform deconvoluting means 25 generates light of each wavelength emitted to the object from the photoacoustic signal (photoacoustic image) corresponding to the light of each wavelength after reconstruction by the photoacoustic image reconstructing means 24.
  • the differential waveforms (light differential waveforms) of the light intensity time waveform are respectively deconvoluted.
  • the photoacoustic signal in which the light differential waveform corresponding to the light of each wavelength is deconvoluted is processed by the two-wavelength data calculating unit 52 after the correction by the correcting unit 26.
  • the light absorption characteristics are also unique to each tissue.
  • the molecular absorption coefficient at a wavelength of 750 nm of oxygenated hemoglobin (hemoglobin combined with oxygen: oxy-Hb) abundant in human arteries is also low at a wavelength of 800 nm.
  • the molecular absorption coefficient at a wavelength of 750 nm of deoxygenated hemoglobin (hemoglobin deoxy-Hb not bound to oxygen) abundant in veins is higher than that at a wavelength of 800 nm.
  • This property is used to examine whether the photoacoustic signal corresponding to the light of wavelength 750 nm is relatively large or small with respect to the photoacoustic signal corresponding to the light of wavelength 800 nm.
  • a photoacoustic signal from a vein can be discriminated.
  • the two-wavelength data computing means 52 compares, for example, relative magnitude relationships between photoacoustic signals corresponding to a plurality of wavelengths. Specifically, the two-wavelength data computing means 52 compares the photoacoustic signal detected when the light of wavelength 750 nm is irradiated with the photoacoustic signal detected when the light of wavelength 800 nm is irradiated. And find out which one is bigger.
  • the photoacoustic signal detected when the light with a wavelength of 750 nm is irradiated is large, it can be judged as a photoacoustic signal from a vein, so that the portion may be displayed in blue, for example.
  • the correction unit 26 may be omitted.
  • the two-wavelength data calculation means 52 calculates the photoacoustic signals corresponding to the light of each wavelength after deconvolution of the light differential waveform.
  • a photoacoustic signal generated by the irradiation of light of the first wavelength is detected, and then a photoacoustic signal generated by the irradiation of the second light is detected
  • positional deviation may occur for each irradiation of light of each wavelength.
  • the optical differential waveform When the optical differential waveform is not deconvoluted, as shown in FIG. 6A, for example, one blood vessel is displayed in a double manner, so that the position of the blood vessel is difficult to confirm in image determination, and positional deviation correction is difficult.
  • the light differential waveform when the light differential waveform is deconvoluted, as shown in FIG. 6B, the light absorption distribution can be imaged, the position of the blood vessel can be easily confirmed, and the positional deviation correction can be facilitated.
  • the photoacoustic signal and the light pulse differential waveform are converted into a signal in the frequency domain, and after being deconvoluted in the frequency domain, the signal is returned to the signal in the time domain, but this is not a limitation. It is also possible to perform deconvolution of the light pulse differential waveform in the time domain.
  • the optical differential waveform deconvoluting means 25 may perform processing for applying some kind of filter to the photoacoustic signal at the time of deconvolution.
  • the light differential waveform deconvolution means 25 may filter the noise amplification frequency band at the time of deconvolution.
  • the photoacoustic image (the absorption distribution image) is generated after deconvoluting the light differential waveform from the photoacoustic signal, but in addition to or instead of this, the light differential waveform is deconvoluted.
  • a photoacoustic image pressure distribution image
  • the user can select the presence or absence of the deconvolution processing by performing an operation on the switch or the display monitor, and when the user selects the implementation of the deconvolution processing, the optical differential waveform is deconvoluted.
  • a photoacoustic image may be generated above, and the photoacoustic image may be generated without deconvolution of the light differential waveform when the user selects the non-execution of the deconvolution processing. For example, when deconvolution of an optical differential waveform is performed, the photoacoustic signal is displayed in association with red and black colors, and when no deconvolution is performed, the photoacoustic signal is associated with blue and black colors. You may display it.
  • a photoacoustic image without deconvolution is generated, and the computer analyzes the photoacoustic image to determine whether or not the blood vessel portion is divided into two, and the blood vessel is divided into two.
  • deconvolution processing of the light differential waveform may be performed on only the blood vessel portion.
  • the display color of the blood vessel portion subjected to the deconvolution processing is set to a color different from the display color of the other unprocessed blood vessel portions, and the blood vessel subjected to the deconvolution processing and the other unprocessed blood vessels It may be easily distinguishable.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Biochemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Analytical Chemistry (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Immunology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Optics & Photonics (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

【課題】光音響イメージングにおいて、光吸収体の吸収分布を表す光音響画像を光音響信号から生成することを可能とする。 【解決手段】光出射部(13)および超音波振動子(60)を有するプローブ(11)と、プローブ(11)の実空間における位置およびその向きを規定する空間情報を取得する位置情報取得手段(15)と、プローブ(11)によって検出された光音響波の光音響信号と位置情報取得手段(15)によって取得された空間情報とを使用して、光音響信号についての断層データおよび/またはボリュームデータを生成する光音響画像生成手段(12)とを備え、光音響画像生成手段(12)を、測定光の光強度の時間波形の微分波形である光微分波形を光音響信号からデコンボリューションする光微分波形逆畳込み手段(25)を有し、断層データおよび/またはボリュームデータを生成するに際しデコンボリューションされた光音響信号を使用するものとする。

Description

光音響画像生成装置および光音響画像生成方法
 本発明は、光の照射に起因して発生した光音響波に基づいて光音響画像を生成する光音響画像生成装置および光音響画像生成方法に関するものである。
 従来、被検体の内部の断層画像を取得する方法としては、超音波が被検体内に照射されることにより被検体内で反射した超音波を検出して超音波画像を生成し、被検体内の形態的な断層画像を得る超音波イメージングが知られている。一方、被検体の検査においては形態的な断層画像だけでなく機能的な断層画像を表示する装置の開発も近年進められている。そして、このような装置の一つに光音響分析法を利用した装置がある。この光音響分析法は、所定の波長(例えば、可視光、近赤外光又は中間赤外光の波長帯域)を有するパルス光を被検体に照射し、被検体内の特定物質がこのパルス光のエネルギーを吸収した結果生じる弾性波である光音響波を検出して、その特定物質の濃度を定量的に計測するものである。被検体内の特定物質とは、例えば血液中に含まれるグルコースやヘモグロビンなどである。このように光音響波を検出しその検出信号に基づいて光音響画像を生成する技術は、光音響イメージング(PAI:Photoacoustic Imaging)或いは光音響トモグラフィー(PAT:Photo Acoustic Tomography)と呼ばれる。
 さらに、例えば特許文献1のように、に音響波受信器を被検体に対して相対的に移動させて音響波を受信し、受信信号を基にして被検体内部の情報を2次元又は3次元画像として取得することが知られている。
特開2011-125571号公報
 しかしながら、従来の再構成方法(例えばフーリエドメイン法(FTA法)や遅延加算法(Delay&Sum法)等)は実質的に圧力分布を画像化しているに過ぎず、そのような方法により生成された光音響画像は光吸収体の吸収分布を表していない。圧力分布を画像化した光音響画像では、1本の血管が二重に表示されることがあり、画像判定上、血管の位置が確認しづらいことがあった。また、複数の異なる方向や複数の異なる波長で取得した画像同士を計算する際に、位置がずれやすく適切な結果が得られないなどの問題もあった。
 本発明は上記問題に鑑みてなされたものであり、光音響イメージングにおいて、光吸収体の吸収分布を表す光音響画像を光音響信号から生成することを可能とする光音響画像生成装置および光音響画像生成方法を提供することを目的とするものである。
 上記課題を解決するために、本発明に係る光音響画像生成装置は、
 被検体に向けて測定光を出射する光出射部、および、測定光の出射に起因して被検体内で発生した光音響波を検出する音響検出素子を有するプローブと、
 プローブの実空間における位置および/またはその向きを規定する空間情報を取得する位置情報取得手段と、
 プローブによって検出された光音響波の光音響信号と位置情報取得手段によって取得された空間情報とを使用して、光音響信号についての断層データおよび/またはボリュームデータを生成する光音響画像生成手段とを備え、
 光音響画像生成手段が、測定光の光強度の時間波形の微分波形である光微分波形を光音響信号からデコンボリューションする光微分波形逆畳込み手段を有し、断層データおよび/またはボリュームデータを生成するに際し、光微分波形逆畳込み手段によってデコンボリューションされた光音響信号を使用するものであることを特徴とするものである。
 そして、本発明に係る光音響画像生成装置において、光微分波形逆畳込み手段は、測定光の光微分波形を取得する光微分波形取得手段を更に備えることが好ましい。
 また、本発明に係る光音響画像生成装置において、光微分波形逆畳込み手段は、
 光音響信号をフーリエ変換する第1のフーリエ変換手段と、
 光微分波形を所定のサンプリングレートでサンプリングした信号をフーリエ変換する第2のフーリエ変換手段と、
 フーリエ変換された光微分波形の逆数を逆フィルタとして求める逆フィルタ演算手段と、
 フーリエ変換された光音響信号に逆フィルタを適用するフィルタ適用手段と、
 逆フィルタが適用された光音響信号をフーリエ逆変換するフーリエ逆変換手段とを有するものであることが好ましい。
 この場合において、光音響信号は第1のサンプリングレートでサンプリングされたものであり、
 光微分波形は第1のサンプリングレートよりも高い第2のサンプリングレートでサンプリングされたものであり、
 光微分波形逆畳込み手段は、第1のサンプリングレートでサンプリングされた光音響信号を、第2のサンプリングレートでリサンプルするリサンプル手段を更に備え、
 第1のフーリエ変換手段は、リサンプル手段でリサンプルされた光音響信号をフーリエ変換するものであることが好ましい。
 或いは、上記の場合において、光音響信号は第1のサンプリングレートでサンプリングされたものであり、
 光微分波形は第1のサンプリングレートよりも高い第2のサンプリングレートでサンプリングされたものであり、
 第1のフーリエ変換手段は第1のデータ点数でフーリエ変換を行うものであり、
 第2のフーリエ変換手段は第1のデータ点数よりも多い第2のデータ点数でフーリエ変換を行うものであり、
 光微分波形逆畳込み手段は、フーリエ変換された光音響信号に対して、第1のデータ点数と第2のデータ点数との差の分だけ中央に0を付加するゼロパディングを行うゼロパディング手段を更に備え、
 フィルタ適用手段は、ゼロパディング手段でゼロパディングが行われた光音響信号に対して逆フィルタを適用するものであることが好ましい。
 或いは、上記の場合において、光音響信号は第1のサンプリングレートでサンプリングされたものであり、
 光微分波形は第1のサンプリングレートよりも高い第2のサンプリングレートでサンプリングされたものであり、
 第1のフーリエ変換手段は第1のデータ点数でフーリエ変換を行うものであり、
 第2のフーリエ変換手段は第1のデータ点数よりも多い第2のデータ点数でフーリエ変換を行うものであり、
 光微分波形逆畳込み手段は、フーリエ変換された光微分波形から、第1のデータ点数と第2のデータ点数の差の分だけ高周波成分サンプル点を除去する高周波成分サンプル点除去手段を更に備え、
 逆フィルタ演算手段は、フーリエ変換された光微分波形から高周波成分サンプル点を除去した波形の逆数を逆フィルタとして求めるものであることが好ましい。
 また、本発明に係る光音響画像生成装置において、光微分波形逆畳込み手段は、測定光が複数の波長の光を含む場合において、各波長の光に対応した光音響信号から光微分波形をデコンボリューションした信号を生成するものであり、
 光音響画像生成手段は、各波長の光に対応したデコンボリューション後の信号同士を演算処理する2波長データ演算手段を更に備えることが好ましい。
 また、本発明に係る光音響画像生成装置において、光音響画像生成手段は、デコンボリューションされた光音響信号から、光音響信号を検出する検出器の受信角度依存特性の影響を除去するように、デコンボリューションされた光音響信号を補正する補正手段を更に備えることが好ましい。
 また、本発明に係る光音響画像生成装置は、ボリュームデータの観察方式を選択する観察方式選択手段を更に備え、
 光音響画像生成手段は、ボリュームデータに基づいて、観察方式選択手段によって選択された観察方式に従って光音響画像を生成するものであることが好ましい。
 また、本発明に係る光音響画像生成装置において、位置情報取得手段は、磁気センサユニットを含み、磁気センサユニットを用いて空間情報を取得するものであることが好ましい。
 また、本発明に係る光音響画像生成装置において、プローブは、被検体に対して送信された音響波に対する反射音響波を検出するものであり、
 光音響画像生成装置は、プローブによって検出された反射音響波の反射音響波信号に基づいて反射音響波画像を生成する反射音響波画像生成手段を更に備えることが好ましい。
 本発明に係る光音響画像生成方法は、
 光出射部および音響検出素子を有するプローブを備えた光音響画像生成装置を用いて、
 測定光の出射に起因して被検体内で発生した光音響波を検出し、
 プローブの実空間における位置および/またはその向きを規定する空間情報を取得し、
 測定光の光強度の時間波形の微分波形である光微分波形を光音響波の光音響信号からデコンボリューションし、
 デコンボリューションされた光音響信号と上記空間情報とを使用して、光音響信号についての断層データおよび/またはボリュームデータを生成することを特徴とするものである。
 そして、本発明に係る光音響画像生成方法において、上記デコンボリューションは、光音響信号をフーリエ変換し、光微分波形を所定のサンプリングレートでサンプリングした信号をフーリエ変換し、フーリエ変換された光微分波形の逆数を逆フィルタとして求め、フーリエ変換された光音響信号に上記逆フィルタを適用し、上記逆フィルタが適用された光音響信号をフーリエ逆変換することによって行うことが好ましい。
 この場合において、光音響信号が第1のサンプリングレートでサンプリングされたものであり、光微分波形が第1のサンプリングレートよりも高い第2のサンプリングレートでサンプリングされたものであるときには、第1のサンプリングレートでサンプリングされた光音響信号を、第2のサンプリングレートでリサンプルし、リサンプルされた光音響信号をフーリエ変換することができる。
 或いは、光音響信号が第1のサンプリングレートでサンプリングされたものであり、光微分波形が第1のサンプリングレートよりも高い第2のサンプリングレートでサンプリングされたものであるときには、光音響信号のフーリエ変換を第1のデータ点数で行い、光微分波形を所定のサンプリングレートでサンプリングした信号のフーリエ変換を、第1のデータ点数よりも多い第2のデータ点数で行い、フーリエ変換された光音響信号に対して、第1のデータ点数と第2のデータ点数との差の分だけ中央に0を付加するゼロパディングを行い、ゼロパディングが行われた光音響信号に対して上記逆フィルタを適用することができる。
 或いは、光音響信号が第1のサンプリングレートでサンプリングされたものであり、光微分波形が第1のサンプリングレートよりも高い第2のサンプリングレートでサンプリングされたものであるときには、光音響信号のフーリエ変換を第1のデータ点数で行い、光微分波形を所定のサンプリングレートでサンプリングした信号のフーリエ変換を、第1のデータ点数よりも多い第2のデータ点数で行い、フーリエ変換された光微分波形の信号から、第1のデータ点数と第2のデータ点数の差の分だけ高周波成分サンプル点を除去し、高周波成分サンプル点を除去した後の光微分波形の逆数を上記逆フィルタとして求めることができる。
 また、本発明に係る光音響画像生成方法において、測定光が複数の波長の光を含む場合には、各波長の光に対応した光音響信号から光微分波形をデコンボリューションした信号を生成し、各波長の光に対応したデコンボリューション後の信号同士を演算処理することが好ましい。
 本発明に係る光音響画像生成装置および光音響画像生成方法は、特に、測定光の光強度の時間波形の微分波形である光微分波形を光音響波の光音響信号からデコンボリューションし、デコンボリューションされた光音響信号と空間情報とを使用して、光音響信号についての断層データおよび/またはボリュームデータを生成することを特徴とする。したがって、従来の圧力波の伝搬過程における圧力分布を表す光音響信号を、光吸収体の吸収分布を表す光音響信号に変換することができる。この結果、光音響イメージングにおいて、光吸収体の吸収分布を表す光音響画像を光音響信号から生成することが可能となる。
本発明の光音響画像生成装置の第1の実施形態の構成を示すブロック図である。 プローブの走査態様の例を示す概略図である。 光音響画像の表示態様の例を示す概略図である。 第1の実施形態の光音響画像生成装置における光微分波形逆畳込み手段の構成を示すブロック図である。 再構成後の光音響信号を示す波形図である。 FFT後の光音響信号FFTを示す波形図である。 光パルス微分波形(h)を示す波形図である。 FFT後の光パルス微分波形FFT(fft_h)を示す波形図である。 光パルス微分波形FFTフィルタを示す波形図である。 デコンボリューション後のFFT波形を示す波形図である。 逆変換された光音響信号を示す波形図である。 再構成後の光音響信号に基づいて生成した光音響画像を示す図である。 デコンボリューション後の光音響信号に基づいて生成した光音響画像を示す図である。 光音響画像生成の動作手順を示すフローチャートである。 第2の実施形態の光音響画像生成装置における光微分波形逆畳込み手段の構成を示すブロック図である。 400MHzのサンプリングレートでサンプリングした光パルス微分波形を示す波形図である。 40MHzのサンプリングレートでサンプリングした光パルス微分波形を示す波形図である。 第3の実施形態の光音響画像生成装置における光微分波形逆畳込み手段の構成を示すブロック図である。 光音響信号(周波数領域)を示すグラフである。 ゼロパディング後の光音響信号を示すグラフである。 第4の実施形態の光音響画像生成装置における光微分波形逆畳込み手段の構成を示すブロック図である。 光パルス微分波形(周波数領域)を示すグラフである。 高周波成分サンプル点が除去された光パルス微分波形を示すグラフである。 本発明の光音響画像生成装置の第5の実施形態の構成を示すブロック図である。 本発明の光音響画像生成装置の第6の実施形態の構成を示すブロック図である。
 以下、本発明の実施形態について図面を用いて説明するが、本発明はこれに限られるものではない。なお、視認しやすくするため、図面中の各構成要素の縮尺等は実際のものとは適宜異ならせてある。
 「光音響画像生成装置の第1の実施形態」
 まず、本発明の光音響画像生成装置の第1の実施形態を詳細に説明する。図1は、本発明の光音響画像生成装置の第1の実施形態の構成を示すブロック図である。
 具体的には、本実施形態の光音響画像生成装置10は、超音波探触子(プローブ)11、超音波ユニット12、レーザユニット13、画像表示手段14、位置情報取得手段15および入力手段16を備える。
 <レーザユニット>
 レーザユニット13は、被検体に照射すべきレーザ光を測定光として出射する。レーザユニット13が出射するレーザ光は、例えば光ファイバなどの導光手段を用いてプローブ11まで導光され、プローブ11から被検体に照射される。このレーザユニット13が本発明における光出射部に相当する。例えば本実施形態においてレーザユニット13は、励起光源であるフラッシュランプ31とレーザ発振を制御するQスイッチ32とを含むQスイッチレーザである。レーザユニット13は、トリガ制御回路29が光トリガ信号を出力すると、フラッシュランプ31を点灯し、Qスイッチレーザを励起する。
 レーザユニット13は、レーザ光として1~100nsecのパルス幅を有するパルス光を出力するものであることが好ましい。レーザ光の波長は、計測の対象となる被検体内の物質の光吸収特性によって適宜決定される。生体内のヘモグロビンは、その状態(酸素化ヘモグロビン、脱酸素化ヘモグロビン、メトヘモグロビン等)により光学的な吸収特性が異なるが、一般的には360~1000nmの光を吸収する。したがって、生体内でのヘモグロビンを計測する場合には、他の生体物質の吸収が比較的少ない600~1000nmの程度とすることが好ましい。また、より生体内での被検体の深部まで届くという観点から、レーザ光の波長は700~1000nmであることが好ましい。
 なお、レーザユニット13としては、特定の波長成分又はその成分を含む単色光を発生する半導体レーザ(LD)、固体レーザ、ガスレーザ等の発光素子を用いることもできる。
 <プローブ(超音波探触子)>
 プローブ11は、レーザユニット13から出射されたレーザ光が被検体に照射された後に、被検体内の光吸収体がレーザ光を吸収することで生じた光音響波(光音響信号)を検出する。プローブ11は、例えば一次元または2次元に配列された複数の超音波振動子(振動子アレイ)を有する。プローブ11は、ハンドヘルド型の探触子であり、操作者が手動で走査可能となるように構成されている。この超音波振動子が本発明における音響検出素子に相当する。
 図2は、プローブの走査態様の例を示す概略図である。図2aおよび図2bは、一次元に配列した振動子アレイ60のアレイ方向(超音波振動子が配列した方向)についての走査態様を表したものである。図2aは、アレイ方向に垂直でかつ被検体内に向かう軸61が撮像の対象となる部位62を中心にアレイ方向Aに回転するように、振動子アレイ60が走査される様子を示している。また、図2bは、アレイ方向とエレベーション方向(アレイ方向および軸61の両方に垂直な方向)とで規定される平面内でアレイ方向Bに振動子アレイ60が走査される様子を示している。一方、図2cから図2eは、一次元に配列した振動子アレイ60のエレベーション方向についての走査態様を表したものである。図2cは、アレイ方向とエレベーション方向とで規定される平面内でエレベーション方向Cに振動子アレイ60が走査される様子を示している。また、図2dは、振動子アレイ60の中心を通る軸61を回転軸にして方向Dに振動子アレイ60が走査される様子を示している。また、図2eは、アレイ方向に垂直でかつ被検体内に向かう軸61が撮像の対象となる部位62を中心にエレベーション方向Eに回転するように、振動子アレイ60が走査される様子を示している。上記の走査態様は走査の基本となる態様を示したに過ぎず、実際の走査は上記の走査態様を適宜組み合わせて実施される。また、走査は、手動による走査に限られず、メカニカル的な機構によって実施してもよい。
 <位置情報取得手段>
 位置情報取得手段15は、プローブ11が走査されながら光音響信号を検出している間、プローブ11の実空間における位置およびその向きを規定する空間情報(以下、単に位置情報という。)を順次取得する。この位置情報は光音響信号に基づいてボリュームデータを生成する際に使用される。位置情報の取得の開始或いはその終了は、トリガ制御回路29からの位置トリガ信号によって制御される。そして、取得された位置情報は、当該位置で検出された光音響信号と関連付けられた上で、受信メモリ23に送信される。位置情報取得手段15は、例えば磁場発生部および複数の磁気センサを有する磁気センサユニットから構成され、磁気センサがプローブ11の中に組み込まれる。磁気センサユニットは、磁場発生部が形成するパルス磁場上の空間において、磁場発生部に対する磁気センサの相対的位置座標(x、y、z)、および磁気センサの姿勢情報(角度(α、β、γ)の情報)を取得することができる。位置情報取得手段15は、磁気センサユニットの他、加速度センサや赤外線センサを使用して位置情報を取得するように構成してもよい。
 <超音波ユニット>
 超音波ユニット12は、光音響画像生成手段に相当する。超音波ユニット12は、受信回路21、AD変換手段22、受信メモリ23、光音響画像再構成手段24、光微分波形逆畳込み手段25、補正手段26、検波・対数変換手段27、光音響画像構築手段28、トリガ制御回路29、制御手段30、画像合成手段38および観察方式選択手段39を有する。
 受信回路21は、プローブ11で検出された光音響信号を受信する。AD変換手段22は、サンプリング手段であり、受信回路21が受信した光音響信号をサンプリングしてデジタル信号に変換する。AD変換手段22は、例えば、外部から入力する所定周波数のADクロック信号に基づいて、所定のサンプリング周期で光音響信号をサンプリングする。受信メモリ23は、AD変換手段22でサンプリングされた光音響信号を記憶する。また、受信メモリ23は、位置情報取得手段15が取得したプローブ11の位置情報も記憶する。そして、本実施形態では、受信メモリ23は、プローブ11によって検出された光音響信号を光音響画像再構成手段24に出力する。
 光音響画像再構成手段24は、受信メモリ23から光音響信号を読み出し、プローブ11の複数の超音波振動子で検出された光音響信号に基づいて、光音響画像の各ラインのデータを生成する。光音響画像再構成手段24は、例えばプローブ11の64個の超音波振動子からのデータを、超音波振動子の位置に応じた遅延時間で加算し、1ライン分のデータを生成する(遅延加算法)。光音響画像再構成手段24は、遅延加算法に代えて、BP法(Back Projection)により再構成を行ってもよい。あるいは光音響画像再構成手段24は、ハフ変換法又はフーリエ変換法を用いて再構成を行ってもよい。
 光微分波形逆畳込み手段25は、再構成された光音響信号から被検体に照射された光の光強度の時間波形の微分波形である光パルス微分波形(パルスレーザ光についての光微分波形)をデコンボリューションした信号を生成する。光パルス微分波形をデコンボリューションすることで、t≠0に再構成した圧力分布から、t=0に再構成した圧力分布、すなわち吸収分布を求めることができる。光微分波形逆畳込み手段25は、再構成前の光音響信号に対してデコンボリューションを行ってもよい。デコンボリューションの詳細な説明は後述する。
 補正手段26は、光パルス微分波形がデコンボリューションされた信号を補正し、光パルス微分波形がデコンボリューションされた信号から、プローブ11における超音波振動子の受信角度依存特性の影響を除去する。また、補正手段26は、受信角度依存特性に加えて、又はこれに代えて、光パルス微分波形がデコンボリューションされた信号から被検体における光の入射光分布の影響を除去する。補正手段26を省き、これらの補正を行わずに、光音響画像の生成を行ってもよい。
 検波・対数変換手段27は、補正後の各ラインのデータの包絡線を求め、求めた包絡線を対数変換する。包絡線を求める検波手段としては、ヒルベルト変換や直交検波など従来から用いられている手法を用いることができる。これにより、超音波振動子の固有振動による帯域の影響が除去できる。光音響画像構築手段28は、対数変換が施された各ラインのデータに基づいて、1フレーム分の光音響画像(断層データ)を生成する。光音響画像構築手段28は、例えば光音響信号(ピーク部分)の時間軸方向の位置を光音響画像における深さ方向の位置に変換して光音響画像を生成する。
 観察方式選択手段39は、光音響画像の表示態様を選択するものである。光音響信号についてのボリュームデータの表示態様としては、例えば三次元画像としての態様、断層データに基づく断面画像としての態様および所定の軸上のグラフとしての態様が挙げられる。いずれの態様によって表示するかは、初期設定或いは操作者による入力手段16からの入力に従って選択される。
 画像合成手段38は、それぞれの位置で取得されかつ光パルス微分波形がデコンボリューションされた光音響信号および位置情報を使用して、ボリュームデータを生成する。ボリュームデータの生成は、それぞれの光音響信号の信号値をこれに関連付けられた位置情報に従って、計算上の空間(仮想空間)に割り当てることにより行う。信号値を割り当てる際に、割り当てる場所が重複する場合には、その重複する場所の信号値として例えばそれらの信号値の平均値またはそれらのうちの最大値が採用される。また、必要に応じて、割り当てられる信号値がない場合には、その周辺の信号値を用いて補間することが好ましい。補間は、例えば、最近接点から順に4つの近接点の重み付き平均値を補間場所に割り当てることにより行う。これにより、より自然な形のボリュームデータを生成することができる。さらに、画像合成手段38は、生成されたボリュームデータに必要な処理(例えばスケールの補正およびボクセル値に応じた色付け等)を施す。
 また、画像合成手段38は、観察方式選択手段39によって選択された観察方式に従って光音響画像を生成する。図3は、光音響画像の表示態様の例を示す概略図である。図3aは、仮想空間における所定の視点から眺めた際のボリュームデータの値を示す三次元画像63aである。観察方式選択手段39において三次元状の吸収分布を観察する方式が選択された場合に、図3aのような三次元画像63aが表示される。三次元画像63aを規定する仮想空間における視点は、例えば初期設定として又は操作者による入力手段16からの入力によって、観察方式選択手段39に設定されており、この情報も画像合成手段38に送信される。また、図3bは、所定の二次元平面による断面におけるボリュームデータの値を示す断面画像63bである。観察方式選択手段39において二次元状の吸収分布を観察する方式が選択された場合に、図3bのような断面画像63bが表示される。断面画像63bを規定する二次元平面は、例えば初期設定として又は操作者による入力手段16からの入力によって、観察方式選択手段39に設定されており、この情報も画像合成手段38に送信される。また、図3cは、所定の一次元軸に沿ったボリュームデータの値を示すグラフ63cである。観察方式選択手段39において一次元状の吸収分布を観察する方式が選択された場合に、図3cのようなグラフ63cが表示される。グラフ63cを規定する一次元軸は、例えば初期設定として又は操作者による入力手段16からの入力によって、観察方式選択手段39に設定されており、この情報も画像合成手段38に送信される。
 選択された観察方法に従って生成された光音響画像が、画像表示手段14に表示するための最終的な画像(表示画像)となる。
 なお、上記の光音響画像を生成方法において、一旦光音響画像が生成された後、操作者が必要に応じて当該画像を回転させたり移動させたりすることも当然可能である。つまり、図3aに示されるような三次元画像が表示されている場合に、操作者が入力手段16を使用して視点とする方向を順次指定する或いは移動させることにより、光音響画像が再計算されて三次元画像が回転することになる。また、操作者が入力手段16を使用して適宜観察方法を変更することも可能である。
 画像表示手段14は、画像合成手段38によって生成された表示画像を表示するものである。
 制御手段30は、超音波ユニット12内の各部を制御する。トリガ制御回路29は、光音響画像生成に際して、レーザユニット13に光トリガ信号を送る。また、光トリガ信号の出力後に、Qスイッチトリガ信号を送る。レーザユニット13は、光トリガ信号を受けてフラッシュランプ31を点灯し、レーザ励起を開始する。レーザユニット13は、Qスイッチトリガ信号が入力されるとQスイッチ32をONにし、レーザ光を出射する。トリガ制御回路29は、被検体に対するレーザ光照射と同期してAD変換手段22にサンプリングトリガ信号を送り、AD変換手段22における光音響信号のサンプリング開始タイミングを制御する。
 図4に、光微分波形逆畳込み手段25の詳細な構成を示す。光微分波形逆畳込み手段25は、光微分波形取得手段40と、フーリエ変換手段41、42と、逆フィルタ演算手段43と、フィルタ適用手段44と、フーリエ逆変換手段45とを有する。光微分波形取得手段40は、光パルス微分波形を取得する。光微分波形取得手段40は、例えばメモリから光パルス微分波形を読み出す。これに代えて、メモリから被検体に照射された光の光強度の時間波形を読み出し、それを時間微分してもよい。また、被検体に照射された光の光強度の時間波形を測定し、その測定結果を時間微分することで光パルス微分波形を取得してもよい。更には、被検体に照射されたパルス光の光強度の時間波形又はその微分波形を表す関数であって、パルス光のパルス幅を独立変数とする関数と、被検体に照射されたパルス光のパルス幅の測定結果とを用いて、光パルス微分波形を取得するようにしてもよい。フーリエ変換手段(第1のフーリエ変換手段)41は、離散フーリエ変換により、再構成された光音響信号を時間領域の信号から周波数領域の信号へと変換する。フーリエ変換手段(第2のフーリエ変換手段)42は、離散フーリエ変換により、光パルス微分波形を所定のサンプリングレートでサンプリングした信号を時間領域の信号から周波数領域の信号へと変換する。フーリエ変換のアルゴリズムにはFFT(高速フーリエ変換:Fast Fourier Transform)を用いることができる。
 ここで、本発明におけるデコンボリューションの基本アルゴリズムについて概説する。
 従来、圧力分布画像に代えて、吸収分布画像を生成する技術がこれまでにいくつか知られている。例えば特開平3-156362号公報(以下、特許文献2)には、試料の熱的インパルス応答から光音響画像の分解能劣化を修復する逆フィルタを求め、得られた光音響画像に逆フィルタを作用させることで、理想的な光音響画像、すなわち試料表面の点光源によって励起され、検出されるその点(無限小)における熱的インピーダンス情報(=無限小なる点熱源の集合)を得ることが記載されている。
 特許文献2では、より詳細には、まず、試料の熱インパルス応答h(x,y)を計算し、次いで光音響画像p(x,y)を構成する。熱的インパルス応答は、無限小なる一点の温度変化が試料表面の微小変位に変換されるまでの伝達関数と定義されている。その後、熱インパルス応答h(x,y)と光音響画像p(x,y)とをそれぞれフーリエ変換し、フーリエ変換像H(μ,υ)、P(μ,υ)を得る。1/H(μ,υ)を逆フィルタとして用い、Q(μ,υ)=P(μ,υ)・(1/H(μ,υ))により、Q(μ,υ)を計算する。そのようにして計算されたQ(μ,υ)をフーリエ逆変換することで、理想的な光音響画像q(x,y)が得られる。
 上記特許文献の他にも、Yuan Xu, et al., IEEE Transactions on Medical Imaging, Volume 21 (2002), p.823-828(以下、非特許文献1)には、論理的には、有限の時間幅を持つ光パルスη(t)をフーリエ変換したものをη(k)としたとき、その微分をiη(k)として考慮することが記載されている。実験的には、超音波検出素子であるPZT(チタン酸ジルコン酸鉛)での検出帯域以内に励起光パルス波形が入るようにパルス幅を長くしたマイクロ波を被検体に照射し、通常のPZTプローブで光音響信号を検出し、吸収分布を再構成している。
 また、Yi Wang, et al., Physics in Medicine and Biology, Volume 49 (2004), p.3117-3124(以下、非特許文献2)には、被写体中の微小要素からの圧力波形としてのミクロ波形であって光パルス微分関数と装置インパルス応答関数とを合わせたミクロ波形と、吸収分布とを、観測圧力波形に関連付けることが記載されている。吸収像再構成は、光微分とシステム応答とを不可分な状態で含むpd0を測定して、各素子の圧力波形からpd0をデコンボリューションしたのちに、フィルタ補正逆投影法(Filtered Backprojection法)を用いて行う。実験的には、パルス幅の短いパルスレーザ光で励起し、超音波の検出帯域を通常の超音波診断装置よりも広げて、ハイドロホン+オシロスコープで光音響信号を検出し、吸収分布を再構成する。
 しかしながら、非特許文献1では、光パルスをフーリエ変換したη(k)を位置依存の関数η(r,k)として扱っていない。このため、t=0に再構成できる(検出した波形を基に時間を遡って光が入射した瞬間(t=0)に発生した圧力分布を推定する計算を行うことができる)場合には正確な吸収分布を得ることができるものの、t≠0に再構成した場合(光が入射した瞬間(t=0)の圧力分布を再構成できずに、時刻t=0からしばらく時間が経った後の圧力分布を推定することになる場合)には、光パルス幅成分が除去できず、圧力分布となる。
 また、非特許文献1及び2では、励起レーザと超音波検出装置とのどちらかを実用的な範囲から外してレーザ発光時間と超音波検出時とを合わせて再構成している。このため、非特許文献1及び2では問題は明確には現れないものの、実用的な装置構成を考えた場合、非特許文献1及び2の手法では、t=0とする再構成が困難である。すなわち、例えば実用的な装置構成として、
 ・サンプリング周波数100MHz以下で、PZTなどを利用した狭帯域プローブを用いた超音波検出装置
 ・強い光音響信号が出る1-100nsオーダーの光パルス幅を持つ励起レーザ
を用いた場合、レーザパルス発光が超音波検出時間と比較して短時間の現象のため、t=0に相当する状態(吸収分布と圧力分布とが比例する時間帯)に正確に再構成できない。
 ここで、「時刻t=0の圧力分布」は「吸収分布」を表すので、時刻t=0の圧力分布が求められれば吸収分布を得ることができる。しかし、一般的な超音波検出装置のサンプリング間隔は25ns程度であり、光が当たった瞬間の時刻をt=0のつもりで計算しても、実際はt=±12.5ns程度の時間幅でずれが生じる。例えば光パルス幅が100nsと長い場合には、上記のずれ(±12.5ns)は誤差と考えればよいものの、光パルス幅が10nsであれば、上記のずれは誤差とは呼べなくなり、光が当たった瞬間の圧力分布というよりも圧力波の伝播過程の圧力分布に移行することとなる。その「圧力波の伝播過程の圧力分布」は、「吸収分布」に一致しない。
 更に、実験的な生体等のサンプルにおいては、t=0の圧力分布を定義することが困難である。生体内の音速を例えば1530m/sと仮定し、検出時刻とレーザ照射時刻との差を伝播時間とすると、伝播時間から伝播距離が求められる。生体内の音速が1530m/sで一定であれば、伝播時間から求めた伝播距離は実際の伝播距離と一致する。しかし、実際には、音速は生体内で一様ではなく、計算上の伝播距離と実際の伝播距離とにずれが生じる。従って、検出信号から伝播距離を推定する場合には、音速差に起因する伝搬距離のあいまいさが残る。生体内の伝播距離のあいまいさを伝播時間のあいまいさと捉えると、時刻t=0も曖昧性を持つことになり、t=0の圧力分布というのもあいまいになり、定義が困難となる。t=0の分布が吸収分布であるのに対し、t>0の分布は伝播時の圧力分布であり、これらが混ざると吸収分布とは言えなくなる。
 そこで、本発明者は、実用的な装置においても検出信号から吸収分布を求めることを試みた。
 光吸収体であるミクロ吸収粒子を考え、このミクロ吸収粒子がパルスレーザ光を吸収して圧力波(光音響圧力波)が生じることを考える。時刻をtとして、位置rにあるあるミクロ吸収粒子から発生する光音響圧力波を、位置Rで観測した場合の圧力波形pmicro(R,t)は、[Phys. Rev. Lett. 86(2001)3550.]より、以下の球面波となる。
Figure JPOXMLDOC01-appb-M000001
 ここで、I(t)は励起光の光強度の時間波形であり、係数kは、粒子が光を吸収して音響波を出力する際の変換係数であり、vは被検体の音速である。また、位置r、Rは、空間上の位置を示すベクトルである。ミクロ吸収粒子から発生する圧力は、上記式に示すように、光パルス微分波形に比例した球面波となる。
 実際にイメージングする対象から得られる圧力波形は、よりマクロな吸収体のサイズを有しているため、上記のミクロ吸収波形を重ね合わせた波形になると考える(重ね合わせの原理)。ここで、マクロな光音響波を発する粒子の吸収分布をA(r-R)とし、そのマクロな吸収体からの圧力の観測波形をpmacro(R,t)とする。観測位置Rでは、各時刻において、観測位置Rから半径vtに位置する吸収粒子からの光音響波が観測されることになるため、観測波形pmacro(R,t)は、以下の圧力波形の式で示される。
Figure JPOXMLDOC01-appb-M000002
 上記式(1)からわかるように、観測波形は、光パルス微分のコンボリューション型を示す。
 非特許文献2では、上記式に更に装置インパルス応答をコンボリューションした式を基本に考え、観測波形pmacroから、光微分とシステム応答とを不可分な状態で含むpd0をデコンボリューションした後に、吸収分布A(r-R)の再構成をフィルタ補正逆投影法で行うことを提案している。非特許文献2では、光パルス微分の影響よりも装置インパルス応答を考慮することを重視しており、それゆえに、装置として十分S/N比(Signal to Noise Ratio)が取れていない周波数帯域まで強調され、処理後の画像ノイズが増加する。そのため、非特許文献2では、高周波フィルタを含めて処理することが必要になる。
 非特許文献2のように帯域が広い超音波プローブを用いるならば上記の方法でもよい。しかし、実用的な狭帯域プローブを用いた場合には、装置のインパルス応答に対して検出する超音波信号の周波数が低いため、通常の超音波プローブで検出する信号(低周波)に対してデコンボリューションする波形の帯域が広くなり、適切にデコンボリューションすることができず、画像として破たんが生じる。そこで、吸収分布を得る上で重要なのは光パルス微分項を考慮することであるため、本発明では、デコンボリューション処理において、光パルス微分項のみを考慮してデコンボリューションを行うこととする。
 更に、本発明では、従来の超音波システムにおいても用いられている圧力分布を求める再構成(FTA法、DnS法、BP法など)を適用後に、再構成後の画像がt≠0の圧力分布、すなわち圧力波の伝播過程の圧力分布であることを認識の上で、これを吸収分布に変換することを考えた。圧力分布再構成の基本的な考え方としては、検出位置R=(x,y,0)の再構成後の圧力分布prec(R,t)は、各時刻tにおける、Rの検出軸(r-R)上の|r-R|位置に存在する吸収体から発生する球面波を、周囲の圧電素子の信号も含めて足し合わせてその位置における圧力強度を計算して得られる。従って、検出軸(r-R)に存在するミクロの吸収体から発生し、伝播する光音響波を重ねあわせたprec(R,t)は以下のように表記できる。
Figure JPOXMLDOC01-appb-M000003
このように吸収分布を1次元で考えて良くなることで、上記式のような圧力表記が可能となる。上記式(2)は、検出軸(r-R)をz軸、検出素子からの距離|r-R|をzとすると、下記のように表すことができる。
Figure JPOXMLDOC01-appb-M000004
 更に、式(3)から積分とは関係ないx,yは表記を省略し、z軸を時間で表記すると、上記式は、下記式のように表すことができる。
Figure JPOXMLDOC01-appb-M000005
 このように、(x,y,0)に位置する検出素子における1軸(時間軸又はz’軸)のコンボリューション表記が可能となる。
 上記式(4)の両辺をフーリエ変換し、周波数軸において、圧力分布のフーリエ係数を光パルスの時間微分のフーリエ係数で割ることで、光パルス微分をデコンボリューションすることができる。
Figure JPOXMLDOC01-appb-M000006
 デコンボリューション後、得られた式を、フーリエ逆変換することで、A(x,y,vt)を求め、吸収分布を画像化することができる。ここで求めたA(x,y,vt)には、検出素子受信角度依存性D(x,y,z)や、プローブ帯域の固有振動が重畳されている可能性がある。例えば、装置関数D(x,y,z)を事前に求めておいた上でその逆数をA(x,y,vt)に掛けることで、検出素子受信角度依存性の影響を除去できる。また、帯域の固有振動に関してはヒルベルト変換や直交検波処理により強度画像化すれば、その影響を除去することができる。更に、検体に入射する光空間分布L(x,y,z)を別に観測やシミュレーションにより求め、吸収係数に比例する画素値μ(x,y,z)を、μ(x,y,z)=A(x,y,vt)/L(x,y,z)により求めてもよい。この場合、より生体組織と密接な関係のある物理量である吸収係数の分布画像を得ることができる。
 以上を踏まえ、光パルス微分波形のデコンボリューションの手順について説明する。
 まず、再構成後の光音響信号を入力し、再構成後の光音響信号をフーリエ変換手段41においてFFTによりフーリエ変換する。図5Aに再構成後の光音響信号を示し、図5BにFFT後の光音響信号FFTを示す。フーリエ変換することで、図5Aに示す時間領域の信号が、図5Bに示すような周波数領域の信号に変換される。なお、図5Bでは、光音響信号FFTの絶対値を示しているが、実際の処理では複素数のまま処理される。
 そして、光パルス微分波形hをフーリエ変換手段42においてFFTによりフーリエ変換する。図5Cに光パルス微分波形(h)を示し、図5DにFFT後の光パルス微分波形FFT(fft_h)を示す。フーリエ変換することで、図5Cに示す時間領域の信号(波形)が、図5Dに示す周波数領域の信号に変換される。なお、図5Cにおける黒丸は、光パルス微分波形におけるサンプリング点を表している。また、図5Dでは、光パルス微分波形FFTの絶対値を示しているが、実際の処理では複素数のまま処理される。
 そして、逆フィルタ演算手段43によって、上記で得られたFFT後の光パルス微分波形FFT(fft_h)の逆数を、光パルス微分波形FFTフィルタ(逆フィルタ)として求める。光パルス微分波形FFTフィルタは、具体的にはconj(fft_h)/abs(fft_h)2で求めることができる。ここで、conj(fft_h)はfft_hの共役複素数、abs(fft_h)はfft_hの絶対値を表す。図5Eに、光パルス微分波形FFTフィルタを示す。図5Dに示す光パルス微分波形FFTの逆数を求めることで、図5Eに示すような光パルス微分波形FFTフィルタを得ることができる。
 上記のようにして求めた光パルス微分FFTフィルタと、再構成後の光音響信号FFTとをフィルタ適用手段44によって要素ごとに乗算し、光音響信号FFTから光パルス微分波形をデコンボリューションする。図5Fに、デコンボリューション後のFFT波形を示す。図5Bに示す光音響信号FFTと図5Eに示す光パルス微分波形FFTフィルタとの乗算を行うことで、図5Fに示すFFT波形が得られる。
 そして、光パルス微分波形をデコンボリューションしたFFT波形を、フーリエ逆変換手段45において逆FFTによりフーリエ逆変換し、周波数領域の信号を時間領域の信号に戻す。図5Gは、逆変換された光音響信号を示す。図5Fに示すFFT波形(周波数領域の信号)を逆FFTすることで、図5Gに示すデコンボリューション後の光音響信号(時間領域の信号)が得られる。このデコンボリューション後の光音響信号は、光吸収分布に光パルス微分波形(図5C)がコンボリューションされた再構成後の光音響信号(図5A)から、光パルス微分波形をデコンボリューションした吸収分布に相当する。
 図6Aに、再構成後の光音響信号(図5A)に基づいて生成した光音響画像を示し、図6Bに、デコンボリューション後の光音響信号(図5G)に基づいて生成した光音響画像を示す。図6Aに示す、再構成後の光音響信号に基づいて生成した光音響画像は、実質的に圧力分布を画像化したものであり、1本の血管が二重に表示されるなど、画像判定上、血管の位置が確認しづらい。これに対し、図6Bに示すデコンボリューション後の光音響信号に基づいて生成した光音響画像は、光パルス微分波形をデコンボリューションしていることで吸収体の分布を画像化できており、血管の位置を確認しやすくなっている。
 本実施形態においては、光音響信号のサンプリングレートと光パルス微分波形のサンプリングレートとは等しいものとする。例えば光音響信号はFs=40MHzのサンプリングクロックに同期してサンプリングされており、光微分パルスも、Fs_h=40MHzのサンプリングレートでサンプリングされている。フーリエ変換手段41は、40MHzでサンプリングされた光音響信号を、例えば1024点のフーリエ変換法でフーリエ変換する。また、フーリエ変換手段42は、40MHzでサンプリングされた光パルス微分波形を1024点のフーリエ変換法でフーリエ変換する。
 図7は、本実施形態における光音響画像生成方法における動作手順を示す。
 トリガ制御回路29は、レーザユニット13に対して光トリガ信号を出力する。レーザユニット13は、光トリガ信号を受けてフラッシュランプ31を点灯する。トリガ制御回路29は、所定のタイミングでQスイッチトリガ信号を出力する。レーザユニット13は、Qスイッチトリガ信号が入力されると、Qスイッチ32をONにし、パルスレーザ光を出射する。出射したパルスレーザ光は、例えばプローブ11まで導光され、プローブ11から被検体に照射される(Step1)。
 プローブ11は、レーザ光の照射後、レーザ光の照射により被検体内で発生した光音響信号を検出し、この時のプローブ11の位置情報を取得する(Step2)。超音波ユニット12の受信回路21は、プローブ11で検出された光音響信号を受信する。そして、プローブ11が走査され(Step3)、光音響画像として撮像する対象となる領域すべてに対して走査を行った場合には、光音響信号の検出および位置情報の取得を終了する(Step4)。トリガ制御回路29は、被検体に対する光照射のタイミングに合わせてAD変換手段22にサンプリングトリガ信号を送る。AD変換手段22は、サンプリングトリガ信号を受けて光音響信号のサンプリングを開始し、光音響信号のサンプリングデータを受信メモリ23に格納する(Step5)。このとき、位置情報も一緒に受信メモリ23に格納される。
 光音響画像再構成手段24は、受信メモリ23から光音響信号のサンプリングデータを読み出し、読み出した光音響信号のサンプリングデータに基づいて、光音響信号を再構成する(Step6)。光微分波形逆畳込み手段25は、再構成された光音響信号から、被検体に照射されたパルスレーザ光の光強度の時間波形を微分した光パルス微分波形をデコンボリューションする(Step7)。このデコンボリューションにより、吸収分布を示す光音響信号が得られる。
 補正手段26は、光パルス微分波形がデコンボリューションされた信号を、検出素子受信角度依存性や被検体における光の入射分布で補正する。検波・対数変換手段27は、補正手段26で補正された光音響信号の包絡線を求め、求めた包絡線を対数変換する。光音響画像構築手段28は、対数変換が施された各ラインのデータに基づいて、ある断面における光音響画像を生成する。この光音響画像は、吸収分布をデータ化した吸収分布画像である。
 画像合成手段38はこれらの光音響画像および位置情報を使用してボリュームデータを生成する(Step8)。さらに、観察方式選択手段39によって、ボリュームデータの表示態様が決められる(Step9)。画像表示手段14は、表示画面上に、所定の表示態様による吸収分布を表す光音響画像を表示する(Step10)。
 本実施形態では、ひとまず、光音響画像再構成手段24にて、通常の再構成法により発光時刻(t=0)の圧力分布として光音響信号(光音響画像)を再構成する。つぎに、実際は、光の発光時間は有限の長さであることから、再構成時にt=0としていた時刻を、有限の時間と考え、光微分波形逆畳込み手段25にて、再構成後の光音響画像から光パルス微分波形をデコンボリューションする。光パルス微分波形をデコンボリューションすることで、吸収分布を得ることができ、吸収分布画像を生成することができる。このような手法を採用することで、実用的な光パルス幅と実用的な超音波システム、或いは実際の生体を観測した場合でも、吸収分布を画像化することができる。これは、現状システムの検出器の帯域やADサンプリングを使用できる利点がある。また、本実施形態においては光音響画像の再構成で圧力分布を一度出しているため、既存の超音波アルゴリズム、装置との親和性が高い。
 非特許文献2との比較では、非特許文献2では、光微分関数と装置インパルス応答関数とが不可分な状態でデコンボリューションされている点で、本発明は非特許文献2の発明と異なる。すなわち、狭帯域の通常の超音波プローブ、例えば8MHzの超音波プローブを用いた場合、その超音波プローブにより4~12MHzの信号を検出できるが、帯域の端となる4MHzや12MHzでは検出感度が低いため、4MHzや12MHzのS/Nは8MHzのS/Nよりも低い。非特許文献2では、装置インパルス応答を考慮(補正)することを重視しており、検出感度の低い4MHzや12MHzの信号が強調され、結果としてS/Nの悪い周波数成分が強調された画像が生成されてしまう。これに対し、本発明では、光パルス微分波形のみがデコンボリューションされる。したがって、光パルス微分波形でS/Nを下げずに光音響信号を処理しつつ、装置インパルス応答に相当する成分をデコンボリューション後に光音響信号から除去することができるため、S/Nを下げずに光音響画像を生成できる。
 以上のように、本発明に係る光音響画像生成装置および光音響画像生成方法は、特に、測定光の光強度の時間波形の微分波形である光微分波形を光音響波の光音響信号からデコンボリューションし、デコンボリューションされた光音響信号と空間情報とを使用して、光音響信号についてのボリュームデータを生成することを特徴とする。したがって、従来の圧力波の伝搬過程における圧力分布を表す光音響信号を、光吸収体の吸収分布を表す光音響信号に変換することができる。この結果、光音響イメージングにおいて、光吸収体の吸収分布を表す光音響画像を光音響信号から生成することが可能となる。
 「光音響画像生成装置の第2の実施形態」
 次に、本発明の光音響画像生成装置の第2の実施形態を詳細に説明する。第1の実施形態では、光音響信号のサンプリングレートと光パルス微分波形のサンプリングレートとが一致しており、双方の信号を同じデータ点数でフーリエ変換した。本実施形態では、光音響信号を低速サンプリングする一方で、光パルス微分波形を高速サンプリングする。つまり、光パルス微分波形のサンプリングレートを光音響信号のサンプリングレートよりも高く設定する。例えば光音響信号のサンプリング間隔(サンプリングレートの逆数)は、被検体に照射される光のパルス時間幅よりも長く設定される。フーリエ変換に際しては、低サンプリングレートでサンプリングされた光音響信号を、光パルス微分波形のサンプリングレートと同じサンプリングレートでリサンプル(アップサンプル)した上で、フーリエ変換を行う。したがって、光音響画像生成装置の構成自体は、光微分波形逆畳込み手段を除き、第1の実施形態と同様である。本実施形態の説明では、光微分波形逆畳込み手段以外の要素については、図1に示された符号を援用している。第1の実施形態と同様の構成要素についての詳細な説明は、特に必要がない限り省略する。
 本実施形態の光音響画像生成装置10は、超音波探触子(プローブ)11、超音波ユニット12、レーザユニット13、画像表示手段14、位置情報取得手段15および入力手段16を備える。
 図8は、本実施形態における光微分波形逆畳込み手段25aを示す。本実施形態における光微分波形逆畳込み手段25aは、図4に示す第1実施形態における光微分波形逆畳込み手段25の構成に加えて、リサンプル手段46及び47を有する。リサンプル手段46は、アップサンプル手段であり、低いサンプリングレートでサンプリングされた光音響信号のサンプリングデータを、光パルス微分波形のサンプリングレートと同じサンプリングレートでリサンプルする(アップサンプル)。リサンプル手段46は、例えば、低サンプリングレートでサンプリングされた光音響信号のサンプル点間にゼロを付加し、アップサンプル前のナイキスト周波数でカットするローパスフィルタをかけることでアップサンプルを行う。
 例えば、AD変換手段22における光音響信号のサンプリングレート(第1のサンプリングレート)が40MHzであり、光パルス微分波形のサンプリングレート(第2のサンプリングレート)が400MHzであったとする。この場合、リサンプル手段46は、40MHzの光音響信号を400MHzの信号にアップサンプルする。フーリエ変換手段41は、リサンプル手段46でアップサンプルされた光音響信号をフーリエ変換する。光音響信号をフーリエ変換するフーリエ変換手段41と、光パルス微分波形をフーリエ変換するフーリエ変換手段42とは、同じデータ点数でフーリエ変換を行う。例えばフーリエ変換手段41は光音響信号を8192点の周波数領域の信号に変換し、フーリエ変換手段42は光パルス微分波形を8192点の周波数領域の信号に変換する。
 フィルタ適用手段44は、アップサンプルされた光音響信号をフーリエ変換した信号に対して逆フィルタを適用する。フーリエ逆変換手段45は、逆フィルタが適用された信号を、周波数領域の信号から時間領域の信号(吸収分布)へと変換する。時間領域の信号に戻された吸収分布信号は、例えば400MHzにアップサンプルされた状態の信号となっている。リサンプル手段47は、吸収分布信号が、光音響信号の元のサンプルリングレートに、吸収信号をダウンサンプルする。リサンプル手段47は、例えば400MHzの吸収信号を40MHzの吸収信号にダウンサンプルする。ダウンサンプリングは、例えばダウンサンプル後のナイキスト周波数でカットするローパスフィルタをかけた後に、サンプル点を間引くことで行う。
 図9Aに、400MHzのサンプリングレートでサンプリングした光パルス微分波形を示し、図9Bに、40MHzのサンプリングレートでサンプリングした光パルス微分波形を示す。サンプリングレート400MHzでは、図9Aに示すように、光パルス微分波形を正確に再現できる。一方、光パルス微分波形のサンプリングレートを光音響信号のサンプリングレートに合わせ、40MHzでサンプリングすると、図9Bに示すように、光パルス微分波形を正確に再現できなくなる。
 フィルタ適用手段44にて光音響信号をフーリエ変換した信号に逆フィルタを適用する際には、双方のデータ点数が揃っている必要がある。光音響信号のサンプリングレートに合わせて光パルス微分波形のサンプリングレートを設定すると、図9Bに示したように、波形変化に対してサンプリング周波数が低すぎ、光パルス微分波形が正確に再現できない。このような光パルス微分波形から求めた逆フィルタを適用した場合、光パルス微分項を正確にデコンボリューションできずに、吸収分布を正しく求められないこともある。
 一方、光パルス微分波形を正確に再現するために光パルス微分波形のサンプリングレートを例えば400MHzに設定し、光音響信号のサンプリングレートを400MHzに合わせるとした場合は、光パルス微分項を正確にデコンボリューションでき、吸収分布を正しく求めることができる。しかしながら、その場合、AD変換手段22には高速なAD変換器が要求され、また、サンプリングデータの総数が増えることから、受信メモリ23に要求されるメモリ容量が増大する。更に、光音響画像再構成手段24で取り扱うデータが増えるため、再構成に要する時間も長くなる。
 本実施形態では、リサンプル手段46で、事後的に光音響信号のサンプリングデータをリサンプルする。本実施形態では、検出後の光音響信号を信号処理でアップサンプルしているため、光音響の検出から再構成までは低速サンプリングしつつも、光パルス微分項を正確にデコンボリューションすることができる。本実施形態では、AD変換手段22に高速なAD変換器は不要であり、受信メモリ23に必要なメモリ容量も増大しない。また、光音響信号の再構成に要する時間も増大せず、光音響信号の検出時に高いサンプリングレートでサンプリングする場合に比して、処理時間を短縮することができる。
 「光音響画像生成装置の第3の実施形態」
 次に、本発明の光音響画像生成装置の第3の実施形態を詳細に説明する。本実施形態では、第2の実施形態と同様に、光パルス微分波形のサンプリングレートを光音響信号のサンプリングレートよりも高く設定する。第2の実施形態では、低サンプリングレートでサンプリングされた光音響信号をアップサンプルし、双方の信号を同じデータ点数でフーリエ変換した。本実施形態では、光パルス微分波形のフーリエ変換を、光音響信号のフーリエ変換のデータ点数よりも多いデータ点数で行い、フーリエ変換された光音響信号に対して、データ点数の差の分だけ中央(高周波成分領域)にゼロ点を付加する。したがって、光音響画像生成装置の構成自体は、光微分波形逆畳込み手段を除き、第1の実施形態と同様である。本実施形態の説明では、光微分波形逆畳込み手段以外の要素については、図1に示された符号を援用している。第1の実施形態と同様の構成要素についての詳細な説明は、特に必要がない限り省略する。
 本実施形態の光音響画像生成装置10は、超音波探触子(プローブ)11、超音波ユニット12、レーザユニット13、画像表示手段14、位置情報取得手段15および入力手段16を備える。
 図10は、本実施形態における光微分波形逆畳込み手段25bを示す。本実施形態における光微分波形逆畳込み手段25bは、図4に示す第1の実施形態における光微分波形逆畳込み手段25の構成に加えて、ゼロパディング手段48とゼロ点除去手段49とを有する。例えば、光音響信号のサンプリングレート(第1のサンプリングレート)は40MHzであり、光パルス微分波形のサンプリングレート(第2のサンプリングレート)は320MHzであるとする。フーリエ変換手段41は、例えば40MHzの光音響信号を1024点(第1のデータ点数)の周波数領域の信号に変換し、フーリエ変換手段42は、320MHzの光パルス微分波形を8192点(第2のデータ点数)の周波数領域の信号に変換する。第2のデータ点数は、第1のデータ点数に、第2のサンプリングレートと第1のサンプリングレートとの比を乗じたデータ点数と等しいか、又はそれよりも多い。
 ゼロパディング手段48は、フーリエ変換手段41から周波数領域の信号に変換された光音響信号を入力する。ゼロパディング手段48は、フーリエ変換された光音響信号に対して、フーリエ変換後の光音響信号と光パルス微分波形のデータ点数の差の分だけ中央にゼロ点(信号値ゼロの点)を付加する。ゼロパディング手段48は、例えば周波数領域で表されたデータ点数1024点の光音響信号を、ナイキスト周波数(サンプリング周波数の1/2)で2つに分割し、分割した2つの周波数領域の間にデータ点数の差の分だけゼロ点を付加し、周波数領域で表された光パルス微分波形のデータ点数と同じデータ点数8192点の光音響信号を生成する。ゼロ点の付加は、周波数領域におけるアップサンプリングに相当する。
 フィルタ適用手段44は、ゼロパディング手段48でゼロパディングが施された信号に対して逆フィルタを適用する。ゼロ点除去手段49は、逆フィルタが適用された信号からゼロパディング手段48で“0”が付加された周波数帯域を除去する。例えばゼロパディング手段48にてデータ点数1024点の光音響信号(周波数領域)がデータ点数8192点の信号に変換されていたとき、ゼロ点除去手段49は、フィルタ適用後の信号(データ点数8192点)をデータ点数1024点の信号に戻す。ゼロ点の除去は、周波数領域におけるダウンサンプリングに相当する。フーリエ逆変換手段45は、データ点数1024点に戻された信号を、周波数領域の信号から時間領域の信号へと変換する。
 図11Aに、フーリエ変換された光音響信号を示し、図11Bに、ゼロパディング後の光音響信号を示す。例えば、AD変換手段22における光音響信号のサンプリングレートが40MHzであるとき、その光音響信号をフーリエ変換した信号は、図11Aに示すように、0MHzから40MHzまでの周波数帯域の信号となる。この信号を、中心周波数である20MHzを境に2つの領域A、Bに2分割する。ゼロパディング手段48は、図11Bに示すように、2つの領域の間にゼロ点を8192-1024=7168個挿入する。ゼロ点が付加された結果、領域Bの信号は、300MHzから320MHzの周波数領域に対応した信号となる。
 本実施形態では、低サンプリングレートでサンプリングされた光音響信号を周波数領域の信号に変換し、変換された周波数領域の信号の高周波成分の領域のゼロ点を付加する。本実施形態と第2の実施形態との相違点は、第2の実施形態では、光音響信号をアップサンプルするのに対し、本実施形態では、光音響信号を周波数領域でアップサンプルする点である。時間領域に代え、周波数領域において、双方の信号の帯域差を埋めるようにリサンプル(アップサンプル)を行う場合も、第2の実施形態と同様に、光音響の検出から再構成までは低速サンプリングしつつも、光パルス微分項を正確にデコンボリューションすることができる。
 「光音響画像生成装置の第4の実施形態」
 次に、本発明の光音響画像生成装置の第4の実施形態を詳細に説明する。本実施形態においても、第2及び第3の実施形態と同様に、光パルス微分波形のサンプリングレートを光音響信号のサンプリングレートよりも高く設定する。本実施形態では、光パルス微分波形を、光音響信号のフーリエ変換のデータ点数よりも多いデータ点数で行い、フーリエ変換された光微分波形から高周波成分サンプル点を除去し、その逆数を逆フィルタとして求める。したがって、光音響画像生成装置の構成自体は、光微分波形逆畳込み手段を除き、第1の実施形態と同様である。本実施形態の説明では、光微分波形逆畳込み手段以外の要素については、図1に示された符号を援用している。第1の実施形態と同様の構成要素についての詳細な説明は、特に必要がない限り省略する。
 本実施形態の光音響画像生成装置10は、超音波探触子(プローブ)11、超音波ユニット12、レーザユニット13、画像表示手段14、位置情報取得手段15および入力手段16を備える。
 図12は、本実施形態における光微分波形逆畳込み手段25cを示す。本実施形態における光微分波形逆畳込み手段25cは、図4に示す第1の実施形態における光微分波形逆畳込み手段25の構成に加えて、高周波成分サンプル点除去手段50を有する。例えば、光音響信号のサンプリングレート(第1のサンプリングレート)は40MHzであり、光パルス微分波形のサンプリングレート(第2のサンプリングレート)は320MHzであるとする。フーリエ変換手段41は、例えば40MHzの光音響信号を1024点(第1のデータ点数)の周波数領域の信号に変換し、フーリエ変換手段42は、320MHzの光パルス微分波形を8192点(第2のデータ点数)の周波数領域の信号に変換する。第2のデータ点数は、第1のデータ点数に、第2のサンプリングレートと第1のサンプリングレートとの比を乗じたデータ点数と等しいか、又はそれよりも多い。
 高周波成分サンプル点除去手段50は、フーリエ変換手段42から周波数領域の信号に変換された光パルス微分波形を入力する。高周波成分サンプル点除去手段50は、フーリエ変換された光パルス微分波形から、フーリエ変換後の光音響信号と光パルス微分波形のデータ点数の差の分だけ高周波成分サンプル点を除去する。高周波成分サンプル点除去手段50は、例えば周波数領域で表されたデータ点数8192点の光パルス微分波形から高周波成分に相当する中央のデータ点を削除し、周波数領域で表された光音響信号のデータ点数と同じデータ点数1024点の光パルス微分波形を生成する。高周波成分サンプル点の除去は、周波数領域における光パルス微分波形のダウンサンプリングに相当する。
 図13Aに、フーリエ変換された光パルス微分波形を示し、図13Bに、高周波成分サンプル点が除去された光パルス微分波形を示す。例えば、光パルス微分波形のサンプリングレートが320MHzであるとき、その光パルス微分波形をフーリエ変換した信号(データ点数8192点)は、図13Aに示すように、0MHzから320MHzまでの周波数帯域の信号となる。この信号を、1番目のデータ点から512番目までの領域(領域A)、513番目のデータ点から7680番目のデータ点までの領域(領域B)、及び、7681番目のデータ点から8192番目のデータ点までの領域(領域C)の3つの領域に分け、領域Bのデータ点を除去する。図13Bに示すように、領域Aと領域Cとをつなげることで、0MHzから40MHzまでの周波数帯域に対応したデータ点数1024点の光パルス微分波形が得られる。
 逆フィルタ演算手段43は、周波数領域で表されかつ高周波成分サンプル点が除去された光パルス微分波形の逆数を逆フィルタとして求める。逆フィルタ演算手段43は、例えばデータ点が8192点から1024点に削減された光パルス微分波形の逆数を逆フィルタとして求める。フィルタ適用手段44は、例えば周波数領域で表されたデータ点数1024点の光音響信号と逆フィルタとを要素ごとに乗算する。フーリエ逆変換手段45は、逆フィルタが適用された信号を、周波数領域の信号から時間領域の信号へと変換する。
 ここで、第4の実施形態では、フィルタ適用手段44は、図11Bに示す高周波成分の領域にゼロ点が付加された光音響信号と、図13Aに示す光パルス微分波形の逆数とを乗算する。光音響信号の高周波成分領域の値は“0”であるため、光パルス微分波形の高周波成分(図13Aの領域B)は、逆フィルタ適用後の光音響信号に影響を与えない。従って、本実施形態のように、光パルス微分波形の周波数領域の信号から高周波成分サンプル点を除去し、高周波成分を除去した光パルス微分波形から逆フィルタを求め、求めた逆フィルタを周波数領域で表された光音響信号に適用しても、得られる結果は第3の実施形態と同じ結果となる。つまり、本実施形態においても、第3の実施形態と同様な効果が得られる。
 「光音響画像生成装置の第5の実施形態」
 次に、本発明の光音響画像生成装置の第5の実施形態を詳細に説明する。図14は、光音響画像生成装置の第5の実施形態の構成を示すブロック図である。本実施形態は、光音響画像に加えて超音波画像も生成する点で、第1の実施形態と異なる。したがって、第1の実施形態と同様の構成要素についての詳細な説明は、特に必要がない限り省略する。なお、本実施形態においては音響波として超音波を用い、かつ反射音響波画像として超音波画像を生成する。しかしながら、被検対象や測定条件等に応じて適切な周波数を選択することにより、超音波に代えて可聴周波数の音響波であっても良い。また、超音波画像を生成する形態を第2から第4の実施形態のいずれかと組み合わせることもできる。
 本実施形態の光音響画像生成装置10は、超音波探触子(プローブ)11、超音波ユニット12、レーザユニット13および画像表示手段14を備える。
 <超音波ユニット>
 本実施形態の超音波ユニットは、図1に示す光音響画像生成装置の構成に加えて、送信制御回路33、データ分離手段34、超音波画像再構成手段35、検波・対数変換手段36、および超音波画像構築手段37を備える。
 本実施形態では、プローブ11は、光音響信号の検出に加えて、被検体に対する超音波の出力(送信)、及び送信した超音波に対する被検体からの反射超音波の検出(受信)を行う。超音波の送受信を行う超音波振動子としては、本発明における音響波検出手段に含まれる超音波振動子を使用してもよいし、超音波の送受信用に別途プローブ11中に設けられた新たな超音波振動子を使用してもよい。また、超音波の送受信は分離してもよい。例えばプローブ11とは異なる位置から超音波の送信を行い、その送信された超音波に対する反射超音波をプローブ11で受信してもよい。
 トリガ制御回路29は、超音波画像の生成時は、送信制御回路33に超音波送信を指示する旨の超音波送信トリガ信号を送る。送信制御回路33は、トリガ信号を受けると、プローブ11から超音波を送信させる。プローブ11は、超音波の送信後、被検体からの反射超音波を検出する。
 プローブ11が検出した反射超音波は、受信回路21を介してAD変換手段22に入力される。トリガ制御回路29は、超音波送信のタイミングに合わせてAD変換手段22にサンプリングトリガ信号を送り、反射超音波のサンプリングを開始させる。ここで、反射超音波はプローブ11と超音波反射位置との間を往復するのに対し、光音響信号はその発生位置からプローブ11までの片道である。反射超音波の検出には、同じ深さ位置で生じた光音響信号の検出に比して2倍の時間がかかるため、AD変換手段22のサンプリングクロックは、光音響信号サンプリング時の半分、例えば20MHzとしてもよい。AD変換手段22は、反射超音波のサンプリングデータを受信メモリ23に格納する。光音響信号の検出(サンプリング)と、反射超音波の検出(サンプリング)とは、どちらを先に行ってもよい。
 データ分離手段34は、受信メモリ23に格納された光音響信号のサンプリングデータと反射超音波のサンプリングデータとを分離する。データ分離手段34は、分離した光音響信号のサンプリングデータを光音響画像再構成手段24に入力する。パルスレーザ光のパルス幅に応じて信号処理の経路を変えてもよいことと、光パルス微分波形のデコンボリューションを含む光音響画像(吸収分布画像)の生成は、第1の実施形態と同様である。データ分離手段34は、分離した反射超音波のサンプリングデータを、超音波画像再構成手段35に入力する。
 超音波画像再構成手段35は、プローブ11の複数の超音波振動子で検出された反射超音波(そのサンプリングデータ)に基づいて、超音波画像の各ラインのデータを生成する。各ラインのデータの生成には、光音響画像再構成手段24における各ラインのデータの生成と同様に、遅延加算法などを用いることができる。検波・対数変換手段36は、超音波画像再構成手段35が出力する各ラインのデータの包絡線を求め、求めた包絡線を対数変換する。
 超音波画像構築手段37は、対数変換が施された各ラインのデータに基づいて、超音波画像を生成する。超音波画像再構成手段35、検波・対数変換手段36、及び超音波画像構築手段37は、反射超音波に基づいて超音波画像を生成する超音波画像生成手段(反射音響波画像生成手段)を構成する。
 画像合成手段38は、光音響画像と超音波画像とを合成する。画像合成手段38は、例えば光音響画像と超音波画像とを重畳することで画像合成を行う。合成された画像は、画像表示手段14に表示される。画像合成を行わずに、画像表示手段14に、光音響画像と超音波画像とを並べて表示し、或いは光音響画像と超音波画像とを切り替えて表示することも可能である。
 本実施形態では、光音響画像生成装置は、光音響画像に加えて超音波画像を生成する。超音波画像を参照することで、光音響画像では画像化することができない部分を観察することができる。光パルス微分波形をデコンボリューションすることで吸収分布を画像化できる点は、第1実施形態と同様である。また、超音波画像の生成と光音響画像の生成とで、画像再構成や検波・対数変換などのアルゴリズムの大部分を共通化でき、FPGA回路構成やソフトの簡略化が可能であるなどの実用上のメリットを有する。
 「光音響画像生成装置の第6の実施形態」
 次に、本発明の光音響画像生成装置の第6の実施形態を詳細に説明する。図15は、光音響画像生成装置の第6の実施形態の構成を示すブロック図である。本実施形態は、被検体に対して複数の波長の光を照射する点で、第1の実施形態と相違する。本実施形態の光音響画像生成装置10bは、図1に示す第1の実施形態の光音響画像生成装置10の構成に加えて、複数の波長を含む光の各波長成分(各波長の光)に対する光音響信号(光音響画像)同士の演算を行う2波長データ演算手段52を備える。したがって、第1の実施形態と同様の構成要素についての詳細な説明は、特に必要がない限り省略する。なお、本実施形態を第2から第5の実施形態のいずれかと組み合わせて、それら実施形態において当該光を照射し、各波長成分に対する光音響信号(光音響画像)同士の演算を行うこととしてもよい。
 本実施形態では、レーザユニット13は、複数の波長の光を切り替えて出射可能に構成されている。レーザユニット13は、例えば波長750nmのパルスレーザ光と波長800nmのパルスレーザ光を切り替えて出射する。プローブ11は、各波長のパルスレーザ光の出射後に被検体からの光音響信号を検出し、受信メモリ23には、各波長の光に対応した光音響信号のサンプリングデータが格納される。格納された各波長の光に対応した光音響信号は、それぞれ光音響画像再構成手段で再構成される。
 光微分波形逆畳込み手段25は、光音響画像再構成手段24による再構成後、各波長の光に対応した光音響信号(光音響画像)から、被検体に照射された各波長の光の光強度の時間波形の微分波形(光微分波形)をそれぞれデコンボリューションする。各波長の光に対応した光微分波形がデコンボリューションされた光音響信号は、補正手段26による補正の後、2波長データ演算手段52にて処理される。
 ここで、生体組織の多くは光吸収特性が光の波長に応じて変わり、また一般に、その光吸収特性も組織ごとに特有のものとなっている。例えば、ヒトの動脈に多く含まれる酸素化ヘモグロビン(酸素と結合したヘモグロビン:oxy-Hb)の波長750nmにおける分子吸収係数は波長800nmにおけるそれも低い。また、静脈に多く含まれる脱酸素化ヘモグロビン(酸素と結合していないヘモグロビンdeoxy-Hb)の波長750nmにおける分子吸収係数は波長800nmにおけるそれよりも高い。この性質を利用し、波長800nmの光に対応した光音響信号に対して、波長750nmの光に対応した光音響信号が相対的に大きいのか小さいのかを調べることで、動脈からの光音響信号と静脈からの光音響信号とを判別することができる。
 2波長データ演算手段52は、例えば複数波長に対応した光音響信号間の相対的な大小関係を比較する。具体的には、2波長データ演算手段52は、波長750nmの光が照射されたときに検出された光音響信号と、波長800nmの光が照射されたときに検出された光音響信号とを比較し、どちらがどれだけ大きいかを調べる。画像表示に際しては、波長750nmの光が照射されたときに検出された光音響信号が大きければ静脈からの光音響信号と判断できるため、その部分を例えば青色で表示するとよい。また、波長800nmの光が照射されたときに検出された光音響信号が大きければ動脈からの光音響信号と判断できるため、その部分を例えば赤色で表示するとよい。なお、第1の実施形態においても説明したように、補正手段26は省いてもよい。
 本実施形態では、2波長データ演算手段52は、光微分波形のデコンボリューション後に、各波長の光に対応した光音響信号同士の演算を行う。複数の波長の光を被検体に照射する場合、例えば1つ目の波長の光の照射により生じた光音響信号を検出した後、2つ目の光の照射により生じた光音響信号を検出するとき、体動などの影響で、各波長の光の照射ごとに位置ずれが生じることがある。各波長の光に対応した光音響信号同士を比較する際には、同じ場所から発生した光音響信号同士を比較することが好ましい。光微分波形をデコンボリューションしない場合には、図6Aに示したように1本の血管が二重に表示されるなど、画像判定上、血管の位置が確認しづらく、位置ずれ補正がしにくい。一方、光微分波形をデコンボリューションした場合には、図6Bに示したように光吸収分布を画像化でき、血管の位置が確認しやすくなり、位置ずれ補正も容易となる。
 また、図6Aに示したように1本の血管が二重に表示される場合には、血管の内部に相当する部分に信号が存在しない(或いは、信号レベルが所定レベルよりも低い)ため、各波長の光に対応した画像間で位置ずれが生じていると、信号が存在する部分、すなわち血管画像の重複部分が少なくなる。この場合、各波長の光に対応した光音響信号同士で相対的な大小関係を適切に比較することが難しくなる。これに対し、図6Bに示したように光吸収分布を画像化した場合には、血管画像内の多くの部分が信号が存在する部分となり、各画像内の血管画像について多少位置ずれが生じたとしても、各画像内の血管画像同士で多くの部分が重複する。従って、本実施形態において、双方の画像の位置合わせをせずに比較する場合でも、その位置ずれの影響を軽減することができる。
 「設計変更」
 なお、上記各実施形態では、光音響信号及び光パルス微分波形を周波数領域の信号に変換し、周波数領域でデコンボリューション後に時間領域の信号に戻しているが、これには限定されない。光パルス微分波形のデコンボリューションを時間領域で行うことも可能である。また、光微分波形逆畳込み手段25は、デコンボリューション時に、光音響信号に対して何らかのフィルタをかける処理をおこなってもよい。例えば光微分波形逆畳込み手段25が、デコンボリューション時に、ノイズ増幅周波数帯をフィルタリングするようにしてもよい。
 上記各実施形態では、光音響信号から光微分波形をデコンボリューションした後に光音響画像(吸収分布画像)を生成することとしているが、これに加えて、又はこれに代えて、光微分波形をデコンボリューションせずに光音響画像(圧力分布画像)を生成してもよい。例えば、ユーザが、スイッチや表示モニタ上で操作を行うことで、デコンボリューション処理の有無を選択できるようにしておき、ユーザがデコンボリューション処理の実施を選択したときには光微分波形のデコンボリューションを行った上で光音響画像を生成し、ユーザがデコンボリューション処理の不実施を選択したときは光微分波形のデコンボリューションを行わずに光音響画像を生成してもよい。例えば、光微分波形のデコンボリューションを行ったときは、光音響信号を赤・黒の色に対応付けて表示し、デコンボリューションなしのときは、光音響信号を青・黒の色に対応付けて表示してもよい。
 また、デコンボリューションなしの場合の光音響画像を生成し、コンピュータがその光音響画像を解析することで、血管部分が2本に分かれているか否かを判定し、血管が2本に分かれていると判定されたときに、その血管部分のみを対象に光微分波形のデコンボリューション処理を行うようにしてもよい。その際、デコンボリューション処理を実施した血管部分の表示色を、他の未処理の血管部分の表示色とは異なる色とし、デコンボリューション処理が行われた血管と、他の未処理の血管とが容易に判別可能になるようにしてもよい。

Claims (17)

  1.  被検体に向けて測定光を出射する光出射部、および、前記測定光の出射に起因して前記被検体内で発生した光音響波を検出する音響検出素子を有するプローブと、
     前記プローブの実空間における位置および/またはその向きを規定する空間情報を取得する位置情報取得手段と、
     前記プローブによって検出された前記光音響波の光音響信号と前記位置情報取得手段によって取得された前記空間情報とを使用して、前記光音響信号についての断層データおよび/またはボリュームデータを生成する光音響画像生成手段とを備え、
     前記光音響画像生成手段が、前記測定光の光強度の時間波形の微分波形である光微分波形を前記光音響信号からデコンボリューションする光微分波形逆畳込み手段を有し、断層データおよび/またはボリュームデータを生成するに際し、前記光微分波形逆畳込み手段によってデコンボリューションされた前記光音響信号を使用するものであることを特徴とする光音響画像生成装置。
  2.  前記光微分波形逆畳込み手段が、前記測定光の前記光微分波形を取得する光微分波形取得手段を更に備えることを特徴とする請求項1に記載の光音響画像生成装置。
  3.  前記光微分波形逆畳込み手段が、
     前記光音響信号をフーリエ変換する第1のフーリエ変換手段と、
     前記光微分波形を所定のサンプリングレートでサンプリングした信号をフーリエ変換する第2のフーリエ変換手段と、
     フーリエ変換された前記光微分波形の逆数を逆フィルタとして求める逆フィルタ演算手段と、
     フーリエ変換された前記光音響信号に前記逆フィルタを適用するフィルタ適用手段と、
     前記逆フィルタが適用された前記光音響信号をフーリエ逆変換するフーリエ逆変換手段とを有するものであることを特徴とする請求項1または2に記載の光音響画像生成装置。
  4.  前記光音響信号が第1のサンプリングレートでサンプリングされたものであり、
     前記光微分波形が前記第1のサンプリングレートよりも高い第2のサンプリングレートでサンプリングされたものであり、
     前記光微分波形逆畳込み手段が、前記第1のサンプリングレートでサンプリングされた前記光音響信号を、前記第2のサンプリングレートでリサンプルするリサンプル手段を更に備え、
     前記第1のフーリエ変換手段が、前記リサンプル手段でリサンプルされた前記光音響信号をフーリエ変換するものであることを特徴とする請求項3に記載の光音響画像生成装置。
  5.  前記光音響信号が第1のサンプリングレートでサンプリングされたものであり、
     前記光微分波形が前記第1のサンプリングレートよりも高い第2のサンプリングレートでサンプリングされたものであり、
     前記第1のフーリエ変換手段が第1のデータ点数でフーリエ変換を行うものであり、
     前記第2のフーリエ変換手段が前記第1のデータ点数よりも多い第2のデータ点数でフーリエ変換を行うものであり、
     前記光微分波形逆畳込み手段が、フーリエ変換された前記光音響信号に対して、前記第1のデータ点数と前記第2のデータ点数との差の分だけ中央に0を付加するゼロパディングを行うゼロパディング手段を更に備え、
     前記フィルタ適用手段が、前記ゼロパディング手段でゼロパディングが行われた前記光音響信号に対して前記逆フィルタを適用するものであることを特徴とする請求項3に記載の光音響画像生成装置。
  6.  前記光音響信号が第1のサンプリングレートでサンプリングされたものであり、
     前記光微分波形が前記第1のサンプリングレートよりも高い第2のサンプリングレートでサンプリングされたものであり、
     前記第1のフーリエ変換手段が第1のデータ点数でフーリエ変換を行うものであり、
     前記第2のフーリエ変換手段が前記第1のデータ点数よりも多い第2のデータ点数でフーリエ変換を行うものであり、
     前記光微分波形逆畳込み手段が、フーリエ変換された前記光微分波形から、前記第1のデータ点数と前記第2のデータ点数の差の分だけ高周波成分サンプル点を除去する高周波成分サンプル点除去手段を更に備え、
     前記逆フィルタ演算手段が、フーリエ変換された前記光微分波形から高周波成分サンプル点を除去した波形の逆数を前記逆フィルタとして求めるものであることを特徴とする請求項3に記載の光音響画像生成装置。
  7.  前記光微分波形逆畳込み手段が、前記測定光が複数の波長の光を含む場合において、各波長の光に対応した光音響信号から光微分波形をデコンボリューションした信号を生成するものであり、
     前記光音響画像生成手段が、各波長の光に対応したデコンボリューション後の信号同士を演算処理する2波長データ演算手段を更に備えることを特徴とする請求項1から6いずれかに記載の光音響画像生成装置。
  8.  前記光音響画像生成手段が、デコンボリューションされた前記光音響信号から、前記光音響信号を検出する検出器の受信角度依存特性の影響を除去するように、デコンボリューションされた前記光音響信号を補正する補正手段を更に備えることを特徴とする請求項1から7いずれかに記載の光音響画像生成装置。
  9.  前記ボリュームデータの観察方式を選択する観察方式選択手段を更に備え、
     前記光音響画像生成手段が、前記ボリュームデータに基づいて、前記観察方式選択手段によって選択された観察方式に従って光音響画像を生成するものであることを特徴とする請求項1から8いずれかに記載の光音響画像生成装置。
  10.  前記位置情報取得手段が、磁気センサユニットを含み、該磁気センサユニットを用いて前記空間情報を取得するものであることを特徴とする請求項1から9いずれかに記載の光音響画像生成装置。
  11.  前記プローブが、前記被検体に対して送信された音響波に対する反射音響波を検出するものであり、
     前記プローブによって検出された前記反射音響波の反射音響波信号に基づいて反射音響波画像を生成する反射音響波画像生成手段を更に備えることを特徴とする請求項1から10いずれかに記載の光音響画像生成装置。
  12.  光出射部および音響検出素子を有するプローブを備えた光音響画像生成装置を用いて、
     測定光の出射に起因して被検体内で発生した光音響波を検出し、
     前記プローブの実空間における位置および/またはその向きを規定する空間情報を取得し、
     前記測定光の光強度の時間波形の微分波形である光微分波形を前記光音響波の光音響信号からデコンボリューションし、
     デコンボリューションされた前記光音響信号と前記空間情報とを使用して、前記光音響信号についての断層データおよび/またはボリュームデータを生成することを特徴とする光音響画像生成方法。
  13.  前記デコンボリューションを、前記光音響信号をフーリエ変換し、前記光微分波形を所定のサンプリングレートでサンプリングした信号をフーリエ変換し、フーリエ変換された前記光微分波形の逆数を逆フィルタとして求め、フーリエ変換された前記光音響信号に前記逆フィルタを適用し、前記逆フィルタが適用された前記光音響信号をフーリエ逆変換することによって行うことを特徴とする請求項12に記載の光音響画像生成方法。
  14.  前記光音響信号が第1のサンプリングレートでサンプリングされたものであり、前記光微分波形が前記第1のサンプリングレートよりも高い第2のサンプリングレートでサンプリングされたものである場合において、
     前記第1のサンプリングレートでサンプリングされた前記光音響信号を、前記第2のサンプリングレートでリサンプルし、リサンプルされた前記光音響信号をフーリエ変換することを特徴とする請求項13に記載の光音響画像生成方法。
  15.  前記光音響信号が第1のサンプリングレートでサンプリングされたものであり、前記光微分波形が前記第1のサンプリングレートよりも高い第2のサンプリングレートでサンプリングされたものである場合において、
     前記光音響信号のフーリエ変換を第1のデータ点数で行い、
     前記光微分波形を所定のサンプリングレートでサンプリングした信号のフーリエ変換を、前記第1のデータ点数よりも多い第2のデータ点数で行い、
     フーリエ変換された前記光音響信号に対して、前記第1のデータ点数と前記第2のデータ点数との差の分だけ中央に0を付加するゼロパディングを行い、
     ゼロパディングが行われた前記光音響信号に対して前記逆フィルタを適用することを特徴とする請求項13に記載の光音響画像生成方法。
  16.  前記光音響信号が第1のサンプリングレートでサンプリングされたものであり、前記光微分波形が前記第1のサンプリングレートよりも高い第2のサンプリングレートでサンプリングされたものである場合において、
     前記光音響信号のフーリエ変換を第1のデータ点数で行い、
     前記光微分波形を所定のサンプリングレートでサンプリングした信号のフーリエ変換を、前記第1のデータ点数よりも多い第2のデータ点数で行い、
     フーリエ変換された前記光微分波形の信号から、前記第1のデータ点数と前記第2のデータ点数の差の分だけ高周波成分サンプル点を除去し、
     高周波成分サンプル点を除去した後の前記光微分波形の逆数を前記逆フィルタとして求めることを特徴とする請求項13に記載の光音響画像生成方法。
  17.  前記測定光が複数の波長の光を含む場合において、
     各波長の光に対応した光音響信号から光微分波形をデコンボリューションした信号を生成し、各波長の光に対応したデコンボリューション後の信号同士を演算処理することを特徴とする請求項12から16いずれかに記載の光音響画像生成方法。
PCT/JP2012/007496 2011-11-22 2012-11-21 光音響画像生成装置および光音響画像生成方法 WO2013076987A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011-254656 2011-11-22
JP2011254656 2011-11-22
JP2012-247101 2012-11-09
JP2012247101A JP2013128760A (ja) 2011-11-22 2012-11-09 光音響画像生成装置および光音響画像生成方法

Publications (1)

Publication Number Publication Date
WO2013076987A1 true WO2013076987A1 (ja) 2013-05-30

Family

ID=48469450

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/007496 WO2013076987A1 (ja) 2011-11-22 2012-11-21 光音響画像生成装置および光音響画像生成方法

Country Status (2)

Country Link
JP (1) JP2013128760A (ja)
WO (1) WO2013076987A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016132720A1 (en) * 2015-02-20 2016-08-25 Canon Kabushiki Kaisha Object information acquiring apparatus and signal processing method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6381003B2 (ja) * 2014-09-24 2018-08-29 富士フイルム株式会社 光音響画像生成方法および装置
CN108113650A (zh) * 2016-11-30 2018-06-05 佳能株式会社 显示控制装置、显示控制方法和存储介质
JP2019068914A (ja) * 2017-10-06 2019-05-09 キヤノン株式会社 光音響装置、情報取得方法、プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09269370A (ja) * 1996-04-01 1997-10-14 Furuno Electric Co Ltd 探知画像データ処理方法、物体探知装置、超音波診断装置、およびレーダ
JP2010167167A (ja) * 2009-01-26 2010-08-05 Fujifilm Corp 光超音波断層画像化装置および光超音波断層画像化方法
JP2010259536A (ja) * 2009-04-30 2010-11-18 Canon Inc 画像処理装置及びその制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09269370A (ja) * 1996-04-01 1997-10-14 Furuno Electric Co Ltd 探知画像データ処理方法、物体探知装置、超音波診断装置、およびレーダ
JP2010167167A (ja) * 2009-01-26 2010-08-05 Fujifilm Corp 光超音波断層画像化装置および光超音波断層画像化方法
JP2010259536A (ja) * 2009-04-30 2010-11-18 Canon Inc 画像処理装置及びその制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YI WANG ET AL.: "Photoacoustic imaging with deconvolution algorithm", PHYSICS IN MEDICINE AND BIOLOGY, vol. 49, 28 June 2004 (2004-06-28), pages 3117 - 3124, XP020023793 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016132720A1 (en) * 2015-02-20 2016-08-25 Canon Kabushiki Kaisha Object information acquiring apparatus and signal processing method

Also Published As

Publication number Publication date
JP2013128760A (ja) 2013-07-04

Similar Documents

Publication Publication Date Title
JP5779567B2 (ja) 光音響信号処理装置及び方法
JP5810050B2 (ja) 音響画像生成装置および音響画像生成方法
US9974440B2 (en) Photoacoustic image generation device and method
EP2510382B1 (en) Image generating apparatus, image generating method, and program
US9888856B2 (en) Photoacoustic image generation apparatus, system and method
US8260403B2 (en) Photoacoustic imaging apparatus and photoacoustic imaging method
JP5840181B2 (ja) 光音響画像生成装置及び方法
WO2013076986A1 (ja) 光音響信号処理装置及び方法
JP6289050B2 (ja) 被検体情報取得装置、情報処理方法、およびプログラム
JP2013233386A (ja) 光音響画像生成装置、システム、及び方法
WO2013076987A1 (ja) 光音響画像生成装置および光音響画像生成方法
JP5864905B2 (ja) 被検体情報取得装置及び被検体情報取得方法
Hakakzadeh et al. Unipolar back-projection algorithm for photoacoustic tomography
JP2013106822A (ja) 光音響画像生成装置および光音響画像生成方法
EP3319507B1 (en) Device for acquiring information relating to position displacement of multiple image data sets, method, and program
JP6562800B2 (ja) 処理装置および処理方法
EP3329843B1 (en) Display control apparatus, display control method, and program
WO2013076988A1 (ja) 光音響信号処理装置及び方法
Mustafa et al. In vivo three-dimensional raster scan optoacoustic mesoscopy using frequency domain inversion
JP2014147825A (ja) 画像生成装置、画像生成方法、及び、プログラム
JP6113330B2 (ja) 装置および画像生成方法
JP2016013189A (ja) 光音響装置
JP2022034766A (ja) 画像生成方法、画像生成プログラムおよび画像生成装置
JP2019136520A (ja) 処理装置、光音響画像の表示方法、及びプログラム
JP2017124219A (ja) 装置および画像生成方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12851146

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12851146

Country of ref document: EP

Kind code of ref document: A1