WO2017056462A1 - 光音響計測装置および光音響計測装置の信号処理方法 - Google Patents

光音響計測装置および光音響計測装置の信号処理方法 Download PDF

Info

Publication number
WO2017056462A1
WO2017056462A1 PCT/JP2016/004307 JP2016004307W WO2017056462A1 WO 2017056462 A1 WO2017056462 A1 WO 2017056462A1 JP 2016004307 W JP2016004307 W JP 2016004307W WO 2017056462 A1 WO2017056462 A1 WO 2017056462A1
Authority
WO
WIPO (PCT)
Prior art keywords
photoacoustic
filtering process
region
wave detection
artifact
Prior art date
Application number
PCT/JP2016/004307
Other languages
English (en)
French (fr)
Inventor
温之 橋本
覚 入澤
大澤 敦
井上 知己
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2017542731A priority Critical patent/JP6411667B2/ja
Priority to EP16850642.6A priority patent/EP3357430B1/en
Priority to CN201680052467.8A priority patent/CN108024794B/zh
Publication of WO2017056462A1 publication Critical patent/WO2017056462A1/ja
Priority to US15/901,041 priority patent/US11083376B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0093Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy
    • A61B5/0095Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy by applying light and detecting acoustic waves, i.e. photoacoustic measurements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/725Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters

Definitions

  • the present invention relates to a photoacoustic measurement apparatus that generates a photoacoustic image based on a photoacoustic signal generated in a subject, and a signal processing method used therefor.
  • This measurement method emits pulsed light having a certain appropriate wavelength (for example, visible light, near-infrared light, or mid-infrared light wavelength band) toward the subject, and the absorbing substance in the subject is subjected to this pulse.
  • a photoacoustic wave which is an elastic wave generated as a result of absorbing light energy, is detected, and the concentration of the absorbing substance is quantitatively measured.
  • the absorbing substance in the subject is, for example, glucose or hemoglobin contained in blood.
  • a technique for detecting such a photoacoustic wave and generating a photoacoustic image based on the detection signal is called photoacoustic imaging (PAI) or photoacoustic tomography (PAT). Yes.
  • a probe having an acoustic wave detection unit for detecting the generated photoacoustic wave is often used.
  • the inventors of the present application are able to detect photoacoustic waves generated on the surface portion of the subject on which the measurement light is incident. It was detected by the acoustic wave detection unit along with the other signals along the surface of the specimen, and it was found that this causes an artifact (fake image). Such artifacts impair the diagnostic performance of the displayed photoacoustic image.
  • Patent Document 1 describes a technique for suppressing artifacts by changing processing on a photoacoustic wave detection signal for each region different in the depth direction of a subject.
  • Patent Document 2 describes a technique for removing artifacts by performing low-frequency cut processing on a photoacoustic wave detection signal.
  • Patent Document 1 is premised on elastography measurement and B-mode measurement. In these measurements, the measurement results from photoacoustic waves generated on the surface portion of the subject on which the measurement light is incident. It is not possible to detect an artifact occurrence area. Therefore, with the technique described in Patent Document 1, it is impossible to accurately reduce or eliminate artifacts caused by photoacoustic waves generated on the surface portion of the subject on which the measurement light is incident.
  • Patent Document 2 since the technique described in Patent Document 2 performs the low-frequency cut process without recognizing the area where the artifact occurs, the photoacoustic generated in the surface portion of the subject on which the measurement light is incident also in this technique. It is impossible to accurately reduce or eliminate artifacts caused by waves.
  • the present invention has been made in view of the above problems, and is a photoacoustic measurement device capable of accurately reducing or removing artifacts caused by photoacoustic waves generated on the surface portion of a subject on which measurement light is incident, and is used for the same.
  • An object of the present invention is to provide a signal processing method.
  • the photoacoustic measuring device is: A probe having a light emitting unit that emits measurement light to the subject, and an acoustic wave detection unit that is arranged in parallel with the light emitting unit and detects a photoacoustic wave generated in the subject by the emission of the measurement light, An image generation unit that generates a photoacoustic image based on the photoacoustic wave detection signal output by the acoustic wave detection unit; Region discriminating means for discriminating an artifact occurrence region and an artifact non-occurrence region in the photoacoustic image based on at least a positional relationship between the light emitting unit and the acoustic wave detection unit; and Among the photoacoustic wave detection signals, a first filtering process is performed on the first photoacoustic wave detection signal corresponding to the photoacoustic image of the artifact non-occurrence area determined by the area determination unit, and the photoacoustic wave Among the wave detection signals, a filter unit that performs
  • photoacoustic wave detection signal “first photoacoustic wave detection signal”, and “second photoacoustic wave detection signal” are signals that are output from the acoustic wave detection unit by detecting the photoacoustic wave. It means not only the signal itself but also a signal (including digitized data) after the signal has undergone some processing.
  • predetermined frequency does not mean a constant frequency of a certain value, but means a predetermined frequency, and the value itself can be arbitrarily set. .
  • the filter means includes a bandpass filter for performing a bandpass filtering process; It is desirable that the bandpass filtering process as the second filtering process sets the cut-off frequency on the low frequency side to the higher frequency side than the bandpass filtering process as the first filtering process.
  • the filter means includes a high-pass filter that performs high-pass filtering processing,
  • the high-pass filtering process as the second filtering process may be such that the cutoff frequency is set on the higher frequency side than the high-pass filtering process as the first filtering process.
  • the region discriminating unit is based on a correspondence table in which the positional relationship between the light emitting unit and the acoustic wave detecting unit is associated with the boundary between the artifact generation region and the artifact non-generation region.
  • a correspondence table in which the positional relationship between the light emitting unit and the acoustic wave detecting unit is associated with the boundary between the artifact generation region and the artifact non-generation region.
  • the region discriminating means generates the artifact by calculating the boundary between the artifact generation region and the artifact non-generation region from the positional relationship between the light emitting unit and the acoustic wave detection unit. An area and an artifact non-occurrence area may be discriminated.
  • the region discriminating unit corrects the discrimination according to the sound velocity at the site of the subject through which the photoacoustic wave propagates.
  • the filter means applies the first detection signal to the photoacoustic wave detection signal related to at least one boundary region set within a range including the boundary between the artifact non-occurrence region and the artifact generation region. It is desirable to perform boundary region filtering processing different from the first filtering processing and the second filtering processing.
  • the above boundary region filtering process is preferably an intermediate filtering process between the first filtering process and the second filtering process.
  • the pass characteristic of the boundary region filtering process is determined according to the depth direction position of the boundary region based on the pass characteristic of the first filtering process and the pass characteristic of the second filtering process. It is desirable that
  • the photoacoustic measurement device provides the first light that has been subjected to the first filtering process, with respect to an image relating to at least one boundary region set within a range including the boundary between the artifact non-occurrence region and the artifact generation region.
  • Means comprising an acoustic wave detection signal and a signal obtained by weighting and adding the second photoacoustic wave detection signal subjected to the second filtering process in accordance with the depth direction position of the boundary region It is desirable to have more.
  • the signal processing method of the photoacoustic measuring device is: A probe having a light emitting unit that emits measurement light to the subject, and an acoustic wave detection unit that is arranged in parallel with the light emitting unit and detects a photoacoustic wave generated in the subject by the emission of the measurement light; and
  • the photoacoustic measurement device including the image generation unit that generates the photoacoustic image based on the photoacoustic wave detection signal output by the acoustic wave detection unit, Based on at least the positional relationship between the light emitting part and the acoustic wave detection part, the artifact generation region and the artifact non-generation region in the photoacoustic image are determined,
  • the first filtering process is performed on the first photoacoustic wave detection signal corresponding to the photoacoustic image of the artifact non-occurrence region,
  • a second filtering process is performed on the first photoacoustic wave detection signal corresponding to the photoacoustic image of the arti
  • the filtering process is a bandpass filtering process, It is desirable that the bandpass filtering process as the second filtering process sets the cut-off frequency on the low frequency side to the higher frequency side than the bandpass filtering process as the first filtering process.
  • the filtering process is a high-pass filtering process
  • the high-pass filtering process as the second filtering process may be such that the cutoff frequency is set on the higher frequency side than the high-pass filtering process as the first filtering process.
  • the signal processing method of the photoacoustic measurement device based on the correspondence table in which the positional relationship between the light emitting unit and the acoustic wave detecting unit is associated with the boundary between the artifact generation region and the artifact non-generation region. It is desirable to discriminate between an artifact occurrence region and an artifact non-occurrence region.
  • the artifact generation region is calculated by a calculation formula for calculating the boundary between the artifact generation region and the artifact non-generation region from the positional relationship between the light emitting unit and the acoustic wave detection unit. And an artifact non-occurrence region may be discriminated.
  • the signal processing method of the photoacoustic measurement apparatus it is desirable to correct the discrimination according to the sound velocity at the site of the subject through which the photoacoustic wave propagates.
  • the photoacoustic wave detection signal related to at least one boundary region set within the range including the boundary between the artifact non-occurrence region and the artifact generation region is It is desirable to perform boundary region filtering processing different from the first filtering processing and the second filtering processing.
  • the above boundary region filtering process is preferably an intermediate filtering process between the first filtering process and the second filtering process.
  • the pass characteristic of the boundary region filtering process is determined according to the depth direction position of the boundary region based on the pass characteristic of the first filtering process and the pass characteristic of the second filtering process. It is desirable to be a thing.
  • an image relating to at least one boundary region set within a range including the non-artifact generation region and the boundary of the artifact generation region is subjected to the first filtering process.
  • a signal obtained by weighting and adding the first photoacoustic wave detection signal and the second photoacoustic wave detection signal subjected to the second filtering process according to the position of the boundary region in the depth direction of the subject It is desirable to constitute by.
  • the photoacoustic measuring device is: A probe having a light emitting unit that emits measurement light to the subject, and an acoustic wave detection unit that is arranged in parallel with the light emitting unit and detects a photoacoustic wave generated in the subject by the emission of the measurement light, An image generation unit that generates a photoacoustic image based on the photoacoustic wave detection signal output by the acoustic wave detection unit; Region discriminating means for discriminating an artifact occurrence region and an artifact non-occurrence region in the photoacoustic image based on at least a positional relationship between the light emitting unit and the acoustic wave detection unit; and Among the photoacoustic wave detection signals, a first filtering process is performed on the first photoacoustic wave detection signal corresponding to the photoacoustic image of the artifact non-occurrence area determined by the area determination unit, and the photoacoustic wave Among the wave detection signals, a filter unit that performs
  • Diagram explaining generation of fake image (A) to (D) are diagrams showing photoacoustic images in which artifact regions are generated due to photoacoustic waves generated on the surface of the object, and (E) and (F) are (A) and (A) in this figure, respectively.
  • (D) Schematic which shows the positional relationship of the light emission part at the time of producing
  • a graph showing an example of the relationship between the distance between the light emitting part and the transducer array and the observable depth
  • Schematic showing yet another example of filter pass characteristics The figure explaining the distance of a light emission part and a vibrator array Schematic which shows the whole structure of the photoacoustic measuring device by another embodiment of this invention.
  • FIG. 1 is a schematic diagram showing an overall configuration of a photoacoustic measurement apparatus 10 according to an embodiment of the present invention.
  • the photoacoustic measuring apparatus 10 of this embodiment has a function which produces
  • a probe 11, an ultrasonic unit 12, a laser unit 13, a display unit 14, an input unit 15 and the like are provided.
  • those components will be sequentially described.
  • the probe 11 has a function of emitting measurement light and ultrasonic waves toward the subject M, which is a living body, for example, and a function of detecting an acoustic wave U propagating in the subject M. That is, the probe 11 can emit (transmit) ultrasonic waves to the subject M and detect (receive) reflected ultrasonic waves (reflected acoustic waves) reflected by the subject M and returning.
  • acoustic wave is a term that includes ultrasonic waves and photoacoustic waves.
  • ultrasonic wave means an elastic wave transmitted by the probe and its reflected wave
  • photoacoustic wave means an elastic wave emitted when the absorber 65 absorbs measurement light.
  • the acoustic wave emitted from the probe 11 is not limited to the ultrasonic wave, and an acoustic wave having an audible frequency may be used as long as an appropriate frequency is selected according to the test object, measurement conditions, and the like.
  • Examples of the absorber 65 in the subject M include blood vessels and metal members.
  • the probe 11 is generally prepared for sector scanning, linear scanning, convex scanning, or the like, and an appropriate one is selected and used according to the imaging region.
  • an optical fiber 60 is connected to the probe 11 as a connecting portion that guides laser light L, which is measurement light emitted from a laser unit 13 described later, to the light emitting portion 40.
  • the probe 11 includes a transducer array 20 that is an acoustic wave detector, and a total of two light emitting units 40 that are disposed on both sides of the transducer array 20 with the transducer array 20 in between. And a housing 50 in which the transducer array 20 and the two light emitting portions 40 are accommodated.
  • the transducer array 20 also functions as an ultrasonic transmission element.
  • the transducer array 20 is connected to a circuit for transmitting ultrasonic waves, a circuit for receiving acoustic waves, and the like via wires not shown.
  • the transducer array 20 includes a plurality of ultrasonic transducers that are electroacoustic transducers arranged in parallel in one direction.
  • the ultrasonic vibrator is a piezoelectric element made of a polymer film such as piezoelectric ceramics or polyvinylidene fluoride (PVDF).
  • the ultrasonic transducer has a function of converting the received acoustic wave U into an electrical signal.
  • the transducer array 20 may include an acoustic lens.
  • the transducer array 20 in the present embodiment is formed by arranging a plurality of ultrasonic transducers in a one-dimensional manner.
  • the transducer array in which a plurality of ultrasonic transducers are arranged in a two-dimensional manner. May be used.
  • the ultrasonic transducer has a function of transmitting ultrasonic waves as described above. That is, when an alternating voltage is applied to the ultrasonic vibrator, the ultrasonic vibrator generates an ultrasonic wave having a frequency corresponding to the frequency of the alternating voltage. Note that transmission and reception of ultrasonic waves may be separated from each other. That is, for example, ultrasonic waves may be transmitted from a position different from the probe 11, and reflected ultrasonic waves with respect to the transmitted ultrasonic waves may be received by the probe 11.
  • the light emitting unit 40 is a part that emits the laser light L guided by the optical fiber 60 toward the subject M.
  • the light emitting portion 40 is configured by the tip portion of the optical fiber 60, that is, the end portion far from the laser unit 13 that is a light source of measurement light.
  • two light emitting units 40 are disposed on both sides of the transducer array 20 in the elevation direction, for example, with the transducer array 20 interposed therebetween.
  • the elevation direction is a direction perpendicular to the arrangement direction and parallel to the detection surface of the transducer array 20 when a plurality of ultrasonic transducers are arranged one-dimensionally.
  • the light emitting part may be composed of a light guide plate and a diffusion plate that are optically coupled to the tip of the optical fiber 60.
  • a light guide plate can be composed of, for example, an acrylic plate or a quartz plate.
  • the diffusion plate a lens diffusion plate in which microlenses are randomly arranged on the substrate, for example, a quartz plate in which diffusion fine particles are dispersed, or the like can be used.
  • a holographic diffusion plate or an engineering diffusion plate may be used as the lens diffusion plate.
  • the laser unit 13 shown in FIG. 1 has a flash lamp excitation Q-switch solid laser such as a Q-switch alexandrite laser, for example, and emits laser light L as measurement light.
  • the laser unit 13 is configured to receive a trigger signal from the control unit 34 of the ultrasonic unit 12 and output the laser light L.
  • the laser unit 13 preferably outputs pulsed laser light L having a pulse width of 1 to 100 nsec (nanoseconds).
  • the wavelength of the laser light L is appropriately selected according to the light absorption characteristics of the absorber 65 in the subject M to be measured.
  • the wavelength be a wavelength belonging to the near-infrared wavelength region.
  • the near-infrared wavelength region means a wavelength region of about 700 to 850 nm.
  • the wavelength of the laser beam L is naturally not limited to this.
  • the laser beam L may be a single wavelength or may include a plurality of wavelengths such as 750 nm and 800 nm. When the laser beam L includes a plurality of wavelengths, the light beams having these wavelengths may be emitted at the same time or may be emitted while being switched alternately.
  • the laser unit 13 is also capable of outputting laser light in the near-infrared wavelength region as well as YAG-SHG (Second harmonic generation) -OPO (Optical Parametric Oscillation). : Optical parametric oscillation) laser, Ti-Sapphire (titanium-sapphire) laser, or the like.
  • the optical fiber 60 guides the laser light L emitted from the laser unit 13 to the two light emitting units 40.
  • the optical fiber 60 is not particularly limited, and a known fiber such as a quartz fiber can be used.
  • a known fiber such as a quartz fiber can be used.
  • one thick optical fiber may be used, or a bundle fiber in which a plurality of optical fibers are bundled may be used.
  • the bundle fiber is arranged so that the laser light L is incident from the light incident end face of the bundled fiber portion, and the fiber portion branched into two of the bundle fiber is used.
  • Each tip portion constitutes the light emitting portion 40 as described above.
  • the ultrasonic unit 12 includes a reception circuit 21, a reception memory 22, a data separation unit 23, a photoacoustic image generation unit 24, an ultrasonic image generation unit 29, a display control unit 30, a transmission control circuit 33, and a control unit 34.
  • the control unit 34 controls each unit of the photoacoustic measurement apparatus 10, and includes a trigger control circuit (not shown) in the present embodiment.
  • This trigger control circuit sends a light trigger signal to the laser unit 13 when acquiring a photoacoustic image, for example.
  • the flash lamp of the excitation source is turned on in the Q-switch solid-state laser of the laser unit 13, and excitation of the laser rod is started. While the excited state of the laser rod is maintained, the laser unit 13 can output the laser light L.
  • the control unit 34 then transmits a Q switch trigger signal from the trigger control circuit to the laser unit 13. That is, the control unit 34 controls the output timing of the laser light L from the laser unit 13 by this Q switch trigger signal. Further, the control unit 34 transmits a sampling trigger signal to the receiving circuit 21 simultaneously with transmission of the Q switch trigger signal.
  • This sampling trigger signal defines the start timing of the photoacoustic signal sampling in the AD converter (Analog-to-Digital converter) of the receiving circuit 21. As described above, by using the sampling trigger signal, it is possible to sample the photoacoustic signal in synchronization with the output of the laser light L.
  • the control unit 34 transmits an ultrasonic trigger signal that instructs the transmission control circuit 33 to transmit an ultrasonic wave when acquiring an ultrasonic image.
  • the transmission control circuit 33 transmits ultrasonic waves from the probe 11.
  • the control unit 34 transmits a sampling trigger signal to the receiving circuit 21 in synchronization with the timing of ultrasonic transmission, and starts sampling of the reflected ultrasonic signal.
  • the position of the probe 11 is gradually changed with respect to the subject M, for example, in the above-described elevation direction, and the subject M is irradiated with the laser light L or ultrasonic waves. Are scanned. Therefore, sampling of the photoacoustic signal or reflected ultrasonic signal is performed while shifting the acoustic wave detection line one line at a time in synchronization with this scanning.
  • the scanning may be performed by the operator manually moving the probe 11 or may be performed using an automatic scanning mechanism.
  • the reception circuit 21 receives the photoacoustic wave detection signal output from the transducer array 20 of the probe 11 and stores the received detection signal in the reception memory 22.
  • the reception circuit 21 typically includes a low noise amplifier, a variable gain amplifier, a low-pass filter, and an AD converter.
  • the photoacoustic wave detection signal output from the probe 11 is amplified by a low-noise amplifier, then gain-adjusted according to the depth by a variable gain amplifier, and after a high-frequency component is cut by a low-pass filter, a digital signal is output by an AD converter. And stored in the reception memory 22.
  • the receiving circuit 21 is composed of, for example, one IC (Integrated Circuit).
  • the high-frequency component cut by the low-pass filter is for preventing aliasing noise during AD conversion. Generally, the cut-off frequency is about 10 to 30 MHz, which is about half the sampling frequency of AD conversion. It is said.
  • the probe 11 outputs a photoacoustic wave detection signal and a reflected ultrasonic detection signal. Therefore, the reception memory 22 stores the digitized photoacoustic wave detection signal and reflected ultrasonic wave detection signal.
  • the data separation unit 23 reads out the photoacoustic image data, that is, the digitized photoacoustic wave detection signal from the reception memory 22, and transmits it to the photoacoustic image generation unit 24.
  • the data separation unit 23 reads the data for the reflected ultrasound image from the reception memory 22, that is, the digitized reflected ultrasound detection signal, and transmits it to the ultrasound image generation unit 29.
  • the photoacoustic image generation unit 24 reconstructs the photoacoustic wave detection signal received from the reception memory 23 to generate a photoacoustic image. Specifically, the photoacoustic image generation unit 24 adds a photoacoustic wave detection signal based on a signal from each ultrasonic transducer with a delay time corresponding to the position of each ultrasonic transducer in the transducer array 20, A photoacoustic wave detection signal for one line is generated (delay addition method). The photoacoustic image generation unit 24 may perform reconstruction by the CBP method (Circular Back Projection) instead of the delay addition method. Alternatively, the photoacoustic image generation unit 24 may perform reconstruction using the Hough transform method or the Fourier transform method. The reconstructed photoacoustic wave detection signals for a plurality of lines are sent to the display control unit 30 as a signal for displaying a photoacoustic image (tomographic image) through signal processing such as detection processing and logarithmic conversion processing.
  • the photoacoustic wave detection signals for the plurality of lines have been subjected to processing such as digitization and reconstruction, and are not the photoacoustic wave detection signals themselves output from the transducer array 20 of the probe 11, but this vibration Since it is based on the photoacoustic wave detection signal output from the child array 20, it will be referred to as a “photoacoustic wave detection signal”.
  • the above-described filtering process is performed in the photoacoustic image generation unit 24. The process will be described in detail later.
  • the ultrasonic image generation unit 29 performs basically the same processing as the above-described photoacoustic wave detection signal on the reflected ultrasonic detection signal stored in the reception memory 22 to obtain an ultrasonic image (tomographic image). A reflected ultrasonic detection signal for a plurality of lines is generated. The ultrasonic image generation unit 29 outputs the reflected ultrasonic detection signal thus generated to the display control unit 30.
  • the display control unit 30 causes the display unit 14 to display a photoacoustic image based on the photoacoustic wave detection signal and an ultrasonic image based on the reflected ultrasonic detection signal. These two images are displayed separately or combined and displayed on the display unit 14 as a combined image. In the latter case, the display control unit 30 performs image composition by superimposing a photoacoustic image and an ultrasonic image, for example. Thus, if an ultrasonic image is generated and displayed in addition to the photoacoustic image, a portion that cannot be imaged by the photoacoustic image can be observed in the ultrasonic image.
  • FIG. 2 is a schematic diagram illustrating a state in which a photoacoustic wave generated from the blood vessel V as an example of the absorber 65 illustrated in FIG. 1 and a photoacoustic wave generated on the surface of the subject on which the measurement light is incident are detected. is there.
  • the measurement light L is irradiated onto the subject M, it is ideally desired to detect only the photoacoustic wave U1 from the blood vessel V. However, in actuality, it occurs at the subject surface portion 44 where the measurement light L is incident.
  • the photoacoustic wave U2 thus detected is also detected. This photoacoustic wave U2 causes an artifact (false image).
  • the time from when the photoacoustic wave U2 is generated until it is detected is the interval between the light emitting unit 40 and the transducer array 20 (or individual ultrasonic transducers; the same applies hereinafter), more specifically, the measurement light L Depends on the distance between the arrival area on the contact plane and the acoustic wave detection unit. That is, as the distance between the light emitting unit 40 and the transducer array 20 is larger, the distance that the photoacoustic wave U2 travels through the subject is longer, so the time from when the photoacoustic wave U2 is generated until it is detected is longer. Become.
  • the “contact plane” is parallel to the detection surface of the acoustic wave detection unit through the tip of the probe 11 (that is, the intersection of the probe surface in contact with the subject M and the central axis of the acoustic wave detection unit). It means a plane.
  • the “arrival area” means an area where the contact plane and the measurement light L intersect.
  • FIGS. 3A to 3F are diagrams showing the photoacoustic image P in which the artifact generation region R2 is generated due to the photoacoustic wave U2 generated on the surface of the subject.
  • FIGS. 3E and 3F are schematic views showing the positional relationship between the light emitting unit 40 and the transducer array 20 when the photoacoustic images P of FIGS. 3A and 3D are generated, respectively.
  • the boundary B between the artifact non-occurrence region R1 and the artifact occurrence region R2 decreases, that is, moves to the deeper side of the subject M as the distance W1 between the light emitting unit 40 and the transducer array 20 increases.
  • the vertical direction of the photoacoustic image P corresponds to the time axis, and the longer the interval W1 between the light emitting unit 40 and the transducer array 20, the longer the time until the signal of the photoacoustic wave U2 is detected. It is to become.
  • FIG. 4 shows an example of the relationship between the boundary B1 between the artifact non-occurrence region R1 and the artifact occurrence region R2 with respect to the interval W1 between the light emitting unit 40 and the transducer array 20 described above.
  • the horizontal axis in FIG. 4 is the interval W1
  • the “observable depth” on the vertical axis is the depth of the artifact non-occurrence region R1, that is, the depth position of the boundary B.
  • the following filtering process is performed by a bandpass filter.
  • This filtering process is performed by an arithmetic process based on a program given in advance.
  • This band-pass filtering process includes a photoacoustic wave detection signal (first photoacoustic wave detection signal) related to the artifact non-occurrence region R1 among the photoacoustic wave detection signals reconstructed as described above and indicating a photoacoustic image. This is performed by changing the pass characteristic of the filter with the photoacoustic wave detection signal (second photoacoustic wave detection signal) related to the artifact generation region R2.
  • the bandpass filtering process for the first photoacoustic wave detection signal is referred to as a first bandpass filtering process (first filtering process in the present invention), and the bandpass filtering for the second photoacoustic wave detection signal is performed.
  • the filtering process is referred to as a second bandpass filtering process (second filtering process in the present invention).
  • Fig. 5 shows the basic pass characteristics of the above bandpass filtering process.
  • the broken line indicates the pass characteristic in the first bandpass filtering process
  • the solid line indicates the pass characteristic in the second bandpass filtering process. That is, the cut-off frequency fL2 on the low frequency side for the second photoacoustic wave detection signal is set on the higher frequency side than the cut-off frequency fL1 on the low frequency side for the first photoacoustic wave detection signal. ing. More specifically, for example, when the detection center frequency of the transducer array 20 of the probe 11 is 6.5 MHz, the cutoff frequency fL1 on the low frequency side with respect to the first photoacoustic wave detection signal is about 1 MHz, and the cutoff on the high frequency side. The frequency fH is about 10 MHz, the cut-off frequency fL2 on the low frequency side for the second photoacoustic wave detection signal is about 2 MHz, and the cut-off frequency fH on the high frequency side is about 10 MHz.
  • the second bandpass filtering process for the second photoacoustic wave detection signal is performed at a predetermined frequency (as compared to the first bandpass filtering process for the first photoacoustic wave detection signal).
  • the number of photoacoustic wave detection signals in a frequency range lower than 2 MHz) is further reduced.
  • the “frequency range lower than the predetermined frequency” is not limited to a frequency range lower than 2 MHz, but a frequency having a certain width that is present on the lowest frequency side of the photoacoustic wave detection signal.
  • the numerical value of “predetermined frequency” is a range and can be set as appropriate.
  • the photoacoustic wave U2 that is generated in the subject surface portion 44 and causes artifacts is generated from the entire surface portion of the subject M on which the laser light L is incident.
  • the signal from which the photoacoustic wave U2 is detected has a relatively low frequency range. Therefore, as described above, if more signal components in the low frequency range of the second photoacoustic wave detection signal are removed compared to the first photoacoustic wave detection signal, the photoacoustic displayed on the display unit 14 will be described. Artifacts are not generated or reduced in the image artifact generation region R2.
  • the display unit 14 can display a photoacoustic image having high diagnostic performance as a whole.
  • a signal component in a low frequency range that is significant in diagnosis may be removed.
  • the boundary B In order to discriminate between the artifact non-occurrence area R1 and the artifact occurrence area R2, it is necessary to know the boundary B between these areas. As described above with reference to FIGS. 3 and 4, the position in the subject depth direction of the boundary B basically corresponds to the interval W ⁇ b> 1 between the light emitting unit 40 and the transducer array 20. Therefore, in the present embodiment, a correspondence table between the object depth direction position of the boundary B and the interval W1 for each probe 11 is stored in the internal memory of the photoacoustic image generation unit 24 shown in FIG. The photoacoustic image generation unit 24 refers to the lookup table to determine the boundary B, that is, the artifact non-occurrence region R1 and the artifact occurrence region R2.
  • the photoacoustic image generation unit 24 constitutes a region discriminating unit and a filter unit in the present invention.
  • the filter means it is desirable to apply a filter whose side lobe is reduced by a window function such as a Hamming window, Hanning window, Blackman window, or Kaiser window.
  • a window function such as a Hamming window, Hanning window, Blackman window, or Kaiser window.
  • the relationship between the subject depth direction position of the boundary B and the interval W1 changes according to the sound velocity at the observation site, that is, the sound velocity at the site of the subject M where the photoacoustic wave propagates. Therefore, the relationship between the position in the subject depth direction of the boundary B and the interval W1 in the correspondence table may be corrected according to the sound velocity. By this correction, the position of the boundary B in the subject depth direction is corrected, that is, the discrimination between the artifact non-occurrence region R1 and the artifact occurrence region R2 is corrected.
  • the sound speed may be input from the input unit 15 shown in FIG. 1, or the correspondence between the sound speed and the observation site is stored in a storage unit (not shown) and input from the input unit 15.
  • the speed of sound may be known from the information on the observed site by referring to the correspondence relationship.
  • the intensity of the laser L as the measurement light, the pulse width of the laser L, and detection of the transducer array 20 You may make it correct
  • the boundary B may be obtained from the interval W1 input from the input unit 15 shown in FIG.
  • the operator may input information specifying the boundary B from the input unit 15 while confirming the display of the artifact non-occurrence region R1 and the artifact generation region R2 shown on the display unit 14.
  • the information specifying the boundary B may not be information indicating the position of the boundary B in the subject depth direction itself.
  • x distance from the position of the optical axis at the output end of the light output unit 40 to the central axis of the transducer array 20
  • y from the position of the optical axis at the output end of the light output unit 40
  • the distance to the contact plane S1) and ⁇ may be used. If x, y, and ⁇ are obtained, the distance W1 between the light emitting section 40 and the transducer array 20 is obtained, and the subject depth direction position of the boundary B can be further obtained therefrom.
  • the “interval between the arrival area of the measurement light on the contact plane and the acoustic wave detection unit” is as follows. Can be defined. For example, as shown in FIG. 11, when nothing is mounted on the detection surface, the intersection of the detection surface and the central axis of the transducer array 20 is P1, and the energy profile EP in the measurement light arrival region is a Gaussian distribution. Let P2 be the maximum point when approximated. At this time, the point P1 becomes the tip of the probe through which the contact plane passes. The distance W2 between the point P1 and the point P2 can be set as “the distance between the reaching region and the acoustic wave detection unit”.
  • the operator confirms the display of the artifact non-occurrence area R1 and the artifact occurrence area R2 determined based on the correspondence table and the calculation formula described above on the display unit 14, and more appropriate area division can be considered.
  • the operator may input information specifying the boundary B of the region division from the input unit 15 and reset the artifact non-occurrence region R1 and the artifact occurrence region R2.
  • FIG. 6 shows an example of basic pass characteristics of such a high-pass filter.
  • the broken line indicates the pass characteristic of the first high-pass filtering process (first filtering process in the present invention) for the first photoacoustic wave detection signal
  • the solid line indicates the second light. It is a passage characteristic of the 2nd high pass filtering process (the 2nd filtering process in the present invention) to an acoustic wave detection signal. That is, in this case, the cutoff frequency f2 for the second photoacoustic wave detection signal is set to be higher than the cutoff frequency f1 for the first photoacoustic wave detection signal.
  • the cutoff frequency f1 is about 1 MHz
  • the cutoff frequency f2 is about 2 MHz.
  • the pass characteristic is shown in FIG. The same effect as that obtained when the bandpass filter shown is used.
  • a bandpass filter having a pass characteristic shown in FIG. 7 or a pass characteristic shown in FIG. 8 can be applied.
  • the broken line indicates the pass characteristic of the first bandpass filtering process for the first photoacoustic wave detection signal
  • the solid line indicates the second characteristic for the second photoacoustic wave detection signal. It is a pass characteristic of a band pass filtering process.
  • the pass characteristic shown in FIG. 7 is continuous in a roll-off state when the cut-off frequency on the low frequency side with respect to the first photoacoustic wave detection signal is between fL1 and fL2. It is different in that it has changed. Also in this case, since the signal components in the low frequency range of the second photoacoustic wave detection signal can be removed more than the first photoacoustic wave detection signal, the bandpass filter whose pass characteristics are shown in FIG. Basically, the same effect can be obtained as when used.
  • the cut-off frequency on the low frequency side of the first bandpass filtering process for the first photoacoustic wave detection signal continuously changes between fL1 and fL2.
  • the cutoff frequency may be changed stepwise between fL1 and fL2.
  • the pass characteristic shown in FIG. 8 is set such that the gain of filtering for the second photoacoustic wave detection signal is higher than the gain of filtering for the first photoacoustic wave detection signal, compared to the pass characteristic shown in FIG. Is different. Also in this case, since the signal components in the low frequency range of the second photoacoustic wave detection signal can be removed more than the first photoacoustic wave detection signal, the bandpass filter whose pass characteristics are shown in FIG. Basically, the same effect can be obtained as when used. In this case, the amount of the overall signal strength of the second photoacoustic wave detection signal is reduced by removing more signal components in the low frequency range of the second photoacoustic wave detection signal. Thus, it is possible to compensate by increasing the gain of filtering for the second photoacoustic wave detection signal.
  • the filtering characteristics for the photoacoustic wave detection signal related to the artifact non-occurrence region R1 and the filtering characteristics for the photoacoustic wave detection signal related to the artifact generation region R2 are different from each other.
  • the frequency characteristics of the image are likely to change abruptly at the boundary B between the artifact non-occurrence region R1 and the artifact generation region R2.
  • an embodiment in which a sudden change in the frequency characteristic is suppressed will be described.
  • two boundary regions BR1 and BR2 are set as an example within a range including the boundary B between the artifact non-occurrence region R1 and the artifact generation region R2 shown in FIG.
  • the boundary region BR1 belongs to the artifact non-occurrence region R1
  • the boundary region BR2 belongs to the artifact generation region R2.
  • the bandpass filtering process is performed on the photoacoustic wave detection signals corresponding to the respective photoacoustic images in the boundary region BR1 and the boundary region BR2 by the bandpass filter described above.
  • the first photoacoustic wave detection signal corresponding to the first photoacoustic wave detection signal corresponding to the photoacoustic image of the artifact non-occurrence region R1 and the second photoacoustic wave corresponding to the photoacoustic image of the artifact occurrence region R2 This is a boundary region band-pass filtering process that is different from the second band-pass filtering process for the detection signal.
  • FIG. 10 shows basic pass characteristics in each of the above bandpass filtering.
  • the broken line indicates the pass characteristic for the first photoacoustic wave detection signal
  • the solid line indicates the pass characteristic for the second photoacoustic wave detection signal
  • the two-dot chain line indicates the boundary region.
  • the pass characteristic with respect to the photoacoustic wave detection signal corresponding to the photoacoustic image of BR1 and the pass characteristic with respect to the photoacoustic wave detection signal corresponding to the photoacoustic image of the boundary area BR2 are indicated by a one-dot chain line.
  • the boundary region band-pass filtering process for the photoacoustic wave detection signal corresponding to the photoacoustic image of the boundary region BR1 and the boundary region bandpass for the photoacoustic wave detection signal corresponding to the photoacoustic image of the boundary region BR2 are performed.
  • the filtering process includes a first bandpass filtering process for the first photoacoustic wave detection signal corresponding to the photoacoustic image in the artifact non-occurrence region R1, and a second photoacoustic corresponding to the photoacoustic image in the artifact occurrence region R2. This is an intermediate process to the second band-pass filtering process for the wave detection signal.
  • the frequency characteristics of the photoacoustic image sharply change at the boundary B between the artifact non-generation area R1 and the artifact generation area R2. There is no change. That is, in the photoacoustic image displayed on the display unit 14, the frequency characteristics gradually change at each boundary of the artifact non-occurrence region R1, the boundary region BR1, the boundary region BR2, and the artifact generation region R2, and the photoacoustic image is displayed. The diagnostic performance of the image is improved.
  • two boundary regions BR1 and BR2 are set in a range including the boundary B between the artifact non-occurrence region R1 and the artifact generation region R2.
  • one or more boundary regions are provided. Any number can be set. When only one boundary area is set, the edge of the boundary area may be aligned with the boundary B. The more boundary regions are set, the smoother the change in frequency characteristics at the boundaries of each region is. However, the time required for the filtering process increases accordingly. It is better to set it to a number.
  • At least one boundary region is set within a range including the boundary between the artifact non-occurrence region R1 and the artifact generation region R2.
  • two boundary regions BR1 and BR2 are set as in the example of FIG. Then, the first photoacoustic wave detection signal corresponding to the photoacoustic image in the artifact non-occurrence region R1 is subjected to a first bandpass filtering process in which the cut-off frequency fL1 on the low frequency side is set to 1 MHz.
  • One processed photoacoustic wave detection signal is obtained.
  • the second photoacoustic wave detection signal corresponding to the photoacoustic image in the artifact occurrence region R2 is subjected to a second bandpass filtering process in which the cut-off frequency fL2 on the low frequency side is set to 2 MHz. Two processed photoacoustic wave detection signals are obtained.
  • the first processed photoacoustic wave detection signal and the second processed photoacoustic wave detection signal are weighted and added according to the subject depth direction positions of the boundary region BR1 and the boundary region BR2, and the boundary region BR1 And a photoacoustic wave detection signal for the boundary region BR2.
  • a weighting coefficient of 0.7 is given to the first processed photoacoustic wave detection signal
  • a weighting coefficient of 0.3 is given to the second processed photoacoustic wave detection signal
  • weighted addition is performed.
  • a photoacoustic wave detection signal for BR1 is obtained.
  • a weighting coefficient of 0.3 is given to the first processed photoacoustic wave detection signal
  • a weighting coefficient of 0.7 is given to the second processed photoacoustic wave detection signal
  • weighted addition is performed.
  • the photoacoustic wave detection signal is obtained.
  • a photoacoustic image of the boundary region BR1 is generated from the photoacoustic wave detection signal for the boundary region BR1 obtained as described above, and a photoacoustic image of the boundary region BR2 is generated from the photoacoustic wave detection signal for the boundary region BR2.
  • a photoacoustic image is generated by the first processed photoacoustic wave detection signal for portions other than the boundary region BR1 of the artifact non-occurrence region R1, and the portions other than the boundary region BR2 of the artifact generation region R2 are described above.
  • a photoacoustic image is generated by the second processed photoacoustic wave detection signal, and the photoacoustic images are combined to generate and display one photoacoustic image.
  • the photoacoustic image displayed on the display unit 14 has a frequency characteristic slightly changed at each boundary of the artifact non-occurrence region R1, the boundary region BR1, the boundary region BR2, and the artifact generation region R2.
  • the diagnostic performance of the photoacoustic image is improved.
  • the filtering process for the photoacoustic wave detection signals in the artifact non-occurrence region R1, the artifact occurrence region R2, the boundary region BR1, and the boundary region BR2 Compared to the case of changing the characteristics, the calculation processing is lighter.
  • FIG. 12 shows an example of the photoacoustic measuring apparatus 10 configured as described above.
  • the photoacoustic measurement apparatus 10 shown in FIG. 12 has a configuration in which the data separation means 23, the ultrasonic image generation unit 29, and the transmission control circuit 33 are removed as compared with the one shown in FIG.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)

Abstract

【課題】測定光が入射する被検体の表面部分で生じた光音響波に起因するアーチファクトを低減できる光音響計測装置、およびその信号処理方法を得る。 【解決手段】光音響計測装置(10)は、光出射部(40)と音響波検出部(20)との位置関係に基づいて、光音響画像中のアーチファクト発生領域とアーチファクト非発生領域とを判別する領域判別手段(24)、およびアーチファクト非発生領域の光音響画像に対応する第一の光音響波検出信号に第一のフィルタリング処理を行い、アーチファクト発生領域の光音響画像に対応する第二の光音響波検出信号に第二のフィルタリング処理を行うフィルタ手段(24)を有する。第二のフィルタリング処理は、第一のフィルタリング処理に比べて、所定の周波数よりも低い周波数範囲の光音響波検出信号をより多く低減する。

Description

光音響計測装置および光音響計測装置の信号処理方法
 本発明は、被検体内で発生した光音響信号に基づいて光音響画像を生成する光音響計測装置、並びにそれに利用される信号処理方法に関する。
 近年、光音響効果を利用した非侵襲の計測法が注目されている。この計測法は、ある適宜の波長(例えば、可視光、近赤外光または中間赤外光の波長帯域)を有するパルス光を被検体に向けて出射し、被検体内の吸収物質がこのパルス光のエネルギーを吸収した結果生じる弾性波である光音響波を検出して、その吸収物質の濃度を定量的に計測するものである。被検体内の吸収物質とは、例えば血液中に含まれるグルコースやヘモグロビンなどである。また、このような光音響波を検出しその検出信号に基づいて光音響画像を生成する技術は、光音響イメージング(PAI:Photoacoustic Imaging)あるいは光音響トモグラフィー(PAT:Photo Acoustic Tomography)と呼ばれている。
 光音響イメージングでは、例えば特許文献1および2に示されるように、被検体に向けて測定光を出射する光出射部と、この光出射部と並設され、測定光の出射によって被検体内に生じた光音響波を検出する音響波検出部とを有するプローブが多く使用される。
特開2013-158531号公報 特表2015-519183号公報
 本願発明者らは、上述のように光出射部と音響波検出部とが並設されてなるプローブを使用した場合、測定光が入射する被検体の表面部分で生じた光音響波が、被検体表面を伝って他の信号と一緒に音響波検出部により検出され、アーチファクト(偽画像)の発生原因となることを見出した。このようなアーチファクトは、表示された光音響画像の診断性能を損なうものである。
 特許文献1には、被検体の深さ方向に相異なる領域ごとに、光音響波検出信号に対する処理を変えてアーチファクトを抑制する技術が記載されている。また特許文献2には、光音響波検出信号に対して低周波カット処理を施すことにより、アーチファクトを除去する技術が記載されている。
 しかし、特許文献1に記載された技術は、エラストグラフィー測定やBモード測定を前提とするものであり、それらの測定では、測定光が入射する被検体の表面部分で生じた光音響波に起因するアーチファクト発生領域を検出することができない。したがって特許文献1に記載された技術では、測定光が入射する被検体の表面部分で生じた光音響波に起因するアーチファクトを精度良く低減あるいは除去することは不可能である。
 また、特許文献2に記載された技術は、アーチファクトが発生する領域を認識しないで低周波カット処理を行っているので、この技術でも、測定光が入射する被検体の表面部分で生じた光音響波に起因するアーチファクトを精度良く低減あるいは除去することは不可能である。
 本発明は上記問題に鑑みてなされたものであり、測定光が入射する被検体の表面部分で生じた光音響波に起因するアーチファクトを精度良く低減あるいは除去できる光音響計測装置、並びにそれに利用される信号処理方法を提供することを目的とする。
 本発明による光音響計測装置は、
 被検体に測定光を出射する光出射部と、光出射部に並設され、測定光の出射によって被検体内に生じた光音響波を検出する音響波検出部とを有するプローブ、
 音響波検出部が出力した光音響波検出信号に基づいて光音響画像を生成する画像生成部、
 少なくとも光出射部と音響波検出部との位置関係に基づいて、光音響画像中のアーチファクト発生領域とアーチファクト非発生領域とを判別する領域判別手段、および、
 上記光音響波検出信号のうち、領域判別手段が判別したアーチファクト非発生領域の光音響画像に対応する第一の光音響波検出信号に対して第一のフィルタリング処理を行い、かつ、上記光音響波検出信号のうち、領域判別手段が判別したアーチファクト発生領域の光音響画像に対応する第二の光音響波検出信号に対して第二のフィルタリング処理を行うフィルタ手段を有し、
 第二のフィルタリング処理は、第一のフィルタリング処理に比べて、所定の周波数よりも低い周波数範囲の光音響波検出信号をより多く低減することを特徴とするものである。
 なお、上記「光音響波検出信号」、「第一の光音響波検出信号」および「第二の光音響波検出信号」は、光音響波を検出して音響波検出部から出力された信号そのものだけでなく、その信号が何らかの処理を受けた後の信号(デジタル化されたデータ等も含む)も含んで意味するものである。
 また、上記「所定の周波数」とは、或る値の一定の周波数を意味するものではなく、予め定められた周波数を意味するものであって、その値自体は任意に設定され得るものである。
 本発明の光音響計測装置においては、
 フィルタ手段がバンドパスフィルタリング処理を行うバンドパスフィルタを含み、
 第二のフィルタリング処理としてのバンドパスフィルタリング処理が、第一のフィルタリング処理としてのバンドパスフィルタリング処理よりも、低周波数側のカットオフ周波数をより高周波数側に設定したものであることが望ましい。
 また、本発明の光音響計測装置においては、
 フィルタ手段がハイパスフィルタリング処理を行うハイパスフィルタを含み、
 第二のフィルタリング処理としてのハイパスフィルタリング処理が、第一のフィルタリング処理としてのハイパスフィルタリング処理よりも、カットオフ周波数をより高周波数側に設定したものであってもよい。
 また、本発明の光音響計測装置においては、領域判別手段が、光出射部と音響波検出部との位置関係と、アーチファクト発生領域およびアーチファクト非発生領域の境界とを対応させた対応表に基づいて、アーチファクト発生領域とアーチファクト非発生領域とを判別するものであることが望ましい。
 また、本発明の光音響計測装置においては、領域判別手段が、光出射部と音響波検出部との位置関係から、アーチファクト発生領域およびアーチファクト非発生領域の境界を算出する計算式により、アーチファクト発生領域とアーチファクト非発生領域とを判別するものであってもよい。
 また、本発明の光音響計測装置においては、領域判別手段が、光音響波が伝搬する被検体の部位における音速に応じて上記判別を補正するものであることが望ましい。
 また、本発明の光音響計測装置においては、フィルタ手段が、アーチファクト非発生領域およびアーチファクト発生領域の境界を含む範囲内に設定された少なくとも1つの境界領域に関する光音響波検出信号に対して、第一のフィルタリング処理および第二のフィルタリング処理とは異なる境界領域用フィルタリング処理を行うものであることが望ましい。
 上記の境界領域用フィルタリング処理は、第一のフィルタリング処理と第二のフィルタリング処理との中間的なフィルタリング処理であることが望ましい。
 さらに、上記境界領域用フィルタリング処理の通過特性は、第一のフィルタリング処理の通過特性と、第二のフィルタリング処理の通過特性とに基づいて、境界領域の被検体深さ方向位置に応じて定められたものであることが望ましい。
 また、本発明の光音響計測装置は、アーチファクト非発生領域およびアーチファクト発生領域の境界を含む範囲内に設定された少なくとも1つの境界領域に関する画像を、第一のフィルタリング処理を受けた第一の光音響波検出信号と、第二のフィルタリング処理を受けた第二の光音響波検出信号とを、境界領域の被検体深さ方向位置に応じて重み付け加算して得られた信号によって構成する手段をさらに備えていることが望ましい。
 一方、本発明による光音響計測装置の信号処理方法は、
 被検体に測定光を出射する光出射部と、光出射部に並設され、測定光の出射によって被検体内に生じた光音響波を検出する音響波検出部とを有するプローブ、および、
 音響波検出部が出力した光音響波検出信号に基づいて光音響画像を生成する画像生成部を備えた光音響計測装置において、
 少なくとも光出射部と音響波検出部との位置関係に基づいて、光音響画像中のアーチファクト発生領域とアーチファクト非発生領域とを判別し、
 上記光音響波検出信号のうち、アーチファクト非発生領域の光音響画像に対応する第一の光音響波検出信号に対して第一のフィルタリング処理を行い、
 上記光音響波検出信号のうち、アーチファクト発生領域の光音響画像に対応する第二の光音響波検出信号に対して第二のフィルタリング処理を行い、
 第二のフィルタリング処理を、第一のフィルタリング処理に比べて、所定の周波数よりも低い周波数範囲の光音響波検出信号をより多く低減するものとすることを特徴とするものである。
 なお、本発明による光音響計測装置の信号処理方法においては、
 フィルタリング処理がバンドパスフィルタリング処理であり、
 第二のフィルタリング処理としてのバンドパスフィルタリング処理が、第一のフィルタリング処理としてのバンドパスフィルタリング処理よりも、低周波数側のカットオフ周波数をより高周波数側に設定したものであることが望ましい。
 また、本発明による光音響計測装置の信号処理方法においては、
 フィルタリング処理がハイパスフィルタリング処理であり、
 第二のフィルタリング処理としてのハイパスフィルタリング処理が、第一のフィルタリング処理としてのハイパスフィルタリング処理よりも、カットオフ周波数をより高周波数側に設定したものであってもよい。
 また、本発明による光音響計測装置の信号処理方法においては、光出射部と音響波検出部との位置関係と、アーチファクト発生領域およびアーチファクト非発生領域の境界とを対応させた対応表に基づいて、アーチファクト発生領域とアーチファクト非発生領域とを判別することが望ましい。
 あるいは、本発明による光音響計測装置の信号処理方法においては、光出射部と音響波検出部との位置関係から、アーチファクト発生領域およびアーチファクト非発生領域の境界を算出する計算式により、アーチファクト発生領域とアーチファクト非発生領域とを判別するようにしてもよい。
 また、本発明による光音響計測装置の信号処理方法においては、光音響波が伝搬する被検体の部位における音速に応じて上記判別を補正することが望ましい。
 また、本発明による光音響計測装置の信号処理方法においては、アーチファクト非発生領域およびアーチファクト発生領域の境界を含む範囲内に設定された少なくとも1つの境界領域に関する光音響波検出信号に対して、第一のフィルタリング処理および第二のフィルタリング処理とは異なる境界領域用フィルタリング処理を行うことが望ましい。
 上記の境界領域用フィルタリング処理は、第一のフィルタリング処理と第二のフィルタリング処理との中間的なフィルタリング処理であることが望ましい。
 そして上記境界領域用フィルタリング処理の通過特性は、第一のフィルタリング処理の通過特性と、第二のフィルタリング処理の通過特性とに基づいて、境界領域の被検体深さ方向位置に応じて定められたものであることが望ましい。
 また、本発明による光音響計測装置の信号処理方法においては、アーチファクト非発生領域およびアーチファクト発生領域の境界を含む範囲内に設定された少なくとも1つの境界領域に関する画像を、第一のフィルタリング処理を受けた第一の光音響波検出信号と、第二のフィルタリング処理を受けた第二の光音響波検出信号とを、境界領域の被検体深さ方向位置に応じて重み付け加算して得られた信号によって構成することが望ましい。
 本発明による光音響計測装置は、
 被検体に測定光を出射する光出射部と、光出射部に並設され、測定光の出射によって被検体内に生じた光音響波を検出する音響波検出部とを有するプローブ、
 音響波検出部が出力した光音響波検出信号に基づいて光音響画像を生成する画像生成部、
 少なくとも光出射部と音響波検出部との位置関係に基づいて、光音響画像中のアーチファクト発生領域とアーチファクト非発生領域とを判別する領域判別手段、および、
 上記光音響波検出信号のうち、領域判別手段が判別したアーチファクト非発生領域の光音響画像に対応する第一の光音響波検出信号に対して第一のフィルタリング処理を行い、かつ、上記光音響波検出信号のうち、領域判別手段が判別したアーチファクト発生領域の光音響画像に対応する第二の光音響波検出信号に対して第二のフィルタリング処理を行うフィルタ手段を有し、
 第二のフィルタリング処理は、第一のフィルタリング処理に比べて、所定の周波数よりも低い周波数範囲の光音響波検出信号をより多く低減するように構成されているので、
 測定光が入射する被検体の表面部分で生じた光音響波に起因するアーチファクトを精度良く低減あるいは除去可能となる。
本発明の一実施形態による光音響計測装置の全体構成を示す概略図 偽画像の発生を説明する図 (A)~(D)は、被検体表面で生じた光音響波に起因してアーチファクト領域が発生した光音響画像を示す図、(E)および(F)はそれぞれ本図の(A)および(D)の光音響画像を生成した際の光出射部と振動子アレイの位置関係を示す概略図 光出射部と振動子アレイとの距離と、観察可能深度との関係例を示すグラフ フィルタの通過特性の一例を示す概略図 フィルタの通過特性の別の例を示す概略図 フィルタの通過特性のさらに別の例を示す概略図 フィルタの通過特性のさらに別の例を示す概略図 境界領域を説明する概略図 フィルタの通過特性のさらに別の例を示す概略図 光出射部と振動子アレイとの距離を説明する図 本発明の別の実施形態による光音響計測装置の全体構成を示す概略図
 以下、図面を参照して、本発明の実施形態について詳しく説明する。
 図1は、本発明の一実施形態による光音響計測装置10の全体構成を示す概略図である。なお図1において、プローブ11の形状は概略的に示してある。本実施形態の光音響計測装置10は、一例として、光音響信号に基づいて光音響画像を生成する機能を有するものであり、図1に概略的に示すように、超音波探触子からなるプローブ11、超音波ユニット12、レーザユニット13、表示部14および入力部15等を備えている。以下、それらの構成要素について順次説明する。
 プローブ11は、例えば生体である被検体Mに向けて測定光および超音波を出射する機能と、被検体M内を伝搬する音響波Uを検出する機能とを有する。すなわちプローブ11は、被検体Mに対する超音波の出射(送信)、および被検体Mで反射して戻って来た反射超音波(反射音響波)の検出(受信)を行うことができる。
 本明細書において「音響波」とは、超音波および光音響波を含む用語である。ここで、「超音波」とはプローブにより送信された弾性波およびその反射波を意味し、「光音響波」とは吸収体65が測定光を吸収することにより発する弾性波を意味する。また、プローブ11が発する音響波は超音波に限定されるものでは無く、被検対象や測定条件等に応じて適切な周波数を選択してさえいれば、可聴周波数の音響波を用いてもよい。なお被検体M内の吸収体65としては、例えば血管、金属部材等が挙げられる。
 プローブ11は一般に、セクタ走査対応のもの、リニア走査対応のもの、コンベックス走査対応のもの等が用意され、それらの中から適宜のものが撮像部位に応じて選択使用される。またプローブ11には、後述するレーザユニット13から発せられた測定光であるレーザ光Lを、光出射部40まで導光させる接続部としての光ファイバ60が接続されている。
 プローブ11は、音響波検出器である振動子アレイ20と、この振動子アレイ20を間に置いて、振動子アレイ20の両側に各々1つずつ配設された合計2つの光出射部40と、振動子アレイ20および2つの光出射部40等を内部に収容した筐体50とを備えている。
 本実施形態において振動子アレイ20は、超音波送信素子としても機能する。振動子アレイ20は、図示外の配線を介して、超音波送信用の回路および音響波受信用の回路等と接続されている。
 振動子アレイ20は、電気音響変換素子である超音波振動子が複数、一方向に並設されてなるものである。超音波振動子は、例えば圧電セラミクス、またはポリフッ化ビニリデン(PVDF)のような高分子フィルムから構成された圧電素子である。超音波振動子は、受信した音響波Uを電気信号に変換する機能を有している。なお、振動子アレイ20は音響レンズを含んでもよい。
 本実施形態における振動子アレイ20は、上述の通り、複数の超音波振動子が一次元に配列されてなるものであるが、複数の超音波振動子が二次元に配列されてなる振動子アレイが用いられてもよい。
 上記超音波振動子は、上述した通り超音波を送信する機能も有する。すなわち、この超音波振動子に交番電圧が印加されると、超音波振動子は交番電圧の周波数に対応した周波数の超音波を発生させる。なお、超音波の送信と受信は互いに分離させてもよい。つまり、例えばプローブ11とは異なる位置から超音波の送信を行い、その送信された超音波に対する反射超音波をプローブ11で受信するようにしてもよい。
 光出射部40は、光ファイバ60によって導光されたレーザ光Lを被検体Mに向けて出射させる部分である。本実施形態において光出射部40は、光ファイバ60の先端部、つまり測定光の光源であるレーザユニット13から遠い方の端部によって構成されている。図1に示されるように、本実施形態では2つの光出射部40が、振動子アレイ20を間に置いて、振動子アレイ20の例えばエレベーション方向の両側に配置されている。このエレベーション方向とは、複数の超音波振動子が一次元に配列された場合、その配列方向に対して直角で、振動子アレイ20の検出面に平行な方向である。
 なお光出射部は、光ファイバ60の先端に光学的に結合させた導光板および拡散板から構成されてもよい。そのような導光板は、例えばアクリル板や石英板から構成することができる。また拡散板としては、マイクロレンズが基板上にランダムに配置されているレンズ拡散板や、例えば拡散微粒子が分散された石英板等を使用することができる。レンズ拡散板としてはホログラフィック拡散板やエンジニアリング拡散板を用いてもよい。
 図1に示されるレーザユニット13は、例えばQスイッチアレキサンドライトレーザ等のフラッシュランプ励起Qスイッチ固体レーザを有し、測定光としてのレーザ光Lを発する。レーザユニット13は、例えば超音波ユニット12の制御部34からのトリガ信号を受けてレーザ光Lを出力するように構成されている。レーザユニット13は、1~100nsec(ナノ秒)のパルス幅を有するパルスレーザ光Lを出力するものであることが好ましい。
 レーザ光Lの波長は、計測の対象となる被検体M内の吸収体65の光吸収特性に応じて適宜選択される。例えば計測対象が生体内のヘモグロビンである場合、つまり血管を撮像する場合、一般的にその波長は、近赤外波長域に属する波長であることが好ましい。近赤外波長域とはおよそ700~850nmの波長域を意味する。しかし、レーザ光Lの波長は当然これに限られるものではない。またレーザ光Lは、単波長のものでもよいし、例えば750nmおよび800nm等の複数波長を含むものでもよい。レーザ光Lが複数の波長を含む場合、これらの波長の光は、同時に出射されてもよいし、交互に切り替えながら出射されてもよい。
 なおレーザユニット13は、上に述べたアレキサンドライトレーザの他、同様に近赤外波長域のレーザ光を出力可能なYAG-SHG(Second harmonic generation:第二次高調波発生)-OPO(Optical Parametric Oscillation:光パラメトリック発振)レーザや、Ti-Sapphire(チタン-サファイア)レーザ等を用いて構成することもできる。
 光ファイバ60は、レーザユニット13から出射されたレーザ光Lを、2つの光出射部40まで導く。光ファイバ60は特に限定されず、石英ファイバ等の公知のものを使用することができる。例えば1本の太い光ファイバが用いられてもよいし、あるいは複数の光ファイバが束ねられてなるバンドルファイバが用いられてもよい。一例としてバンドルファイバが用いられる場合、1つにまとめられたファイバ部分の光入射端面から上記レーザ光Lが入射するようにバンドルファイバが配置され、そしてバンドルファイバの2つに分岐されたファイバ部分の各先端部が前述した通り光出射部40を構成する。
 超音波ユニット12は、受信回路21、受信メモリ22、データ分離手段23、光音響画像生成部24、超音波画像生成部29、表示制御部30、送信制御回路33および制御部34を有する。
 制御部34は、光音響計測装置10の各部を制御するものであり、本実施形態では図示外のトリガ制御回路を備える。このトリガ制御回路は、例えば光音響画像を取得する場合には、レーザユニット13に光トリガ信号を送る。これによりレーザユニット13のQスイッチ固体レーザにおいて励起源のフラッシュランプが点灯し、レーザロッドの励起が開始される。このレーザロッドの励起状態が維持されている間、レーザユニット13はレーザ光Lを出力可能な状態となる。
 制御部34は、その後トリガ制御回路からレーザユニット13へQスイッチトリガ信号を送信する。つまり制御部34は、このQスイッチトリガ信号によって、レーザユニット13からのレーザ光Lの出力タイミングを制御する。また制御部34は、Qスイッチトリガ信号の送信と同時に、サンプリングトリガ信号を受信回路21に送信する。このサンプリングトリガ信号は、受信回路21のAD変換器(Analog to Digital convertor)における光音響信号のサンプリングの開始タイミングを規定する。このように、サンプリングトリガ信号を使用することにより、レーザ光Lの出力と同期して光音響信号をサンプリングすることが可能となる。
 制御部34は、超音波画像を取得する場合は、送信制御回路33に超音波送信を指示する超音波トリガ信号を送信する。送信制御回路33は、超音波送信トリガ信号を受けると、プローブ11から超音波を送信させる。制御部34は、超音波送信のタイミングに合わせて受信回路21にサンプリングトリガ信号を送信し、反射超音波信号のサンプリングを開始させる。
 以上述べた光音響画像あるいは超音波画像を取得する際、プローブ11は、被検体Mに対して例えば前述したエレベーション方向に少しずつ位置が変えられて、レーザ光Lあるいは超音波により被検体Mが走査される。そこで上記光音響信号あるいは反射超音波信号のサンプリングはこの走査と同期して、音響波検出ラインを一ラインずつずらしながらなされる。なお上記走査は、術者がプローブ11を手操作で動かすことによってなされてもよいし、あるいは自動走査機構を用いてなされてもよい。
 受信回路21は、プローブ11の振動子アレイ20が出力する光音響波検出信号を受信し、受信した検出信号を受信メモリ22に格納する。受信回路21は典型的には、低ノイズアンプ、可変ゲインアンプ、ローパスフィルタ、およびAD変換器を含んで構成される。プローブ11が出力する光音響波検出信号は、低ノイズアンプで増幅された後に、可変ゲインアンプで深度に応じたゲイン調整がなされ、ローパスフィルタで高周波成分がカットされた後にAD変換器でデジタル信号に変換され、受信メモリ22に格納される。受信回路21は、例えば1つのIC(Integrated Circuit)で構成される。なお、上記ローパスフィルタによる高周波成分のカットは、AD変換時に折り返し雑音が発生することを防止するためのものであり、一般にそのカットオフ周波数は、AD変換のサンプリング周波数の半分程度の10MHz~30MHz程度とされる。
 本実施形態においてプローブ11は、光音響波の検出信号と反射超音波の検出信号とを出力する。そこで受信メモリ22には、デジタル化された光音響波検出信号および反射超音波検出信号が格納される。データ分離手段23は、受信メモリ22から光音響画像用のデータ、つまりデジタル化された光音響波検出信号を読み出して、光音響画像生成部24に送信する。またデータ分離手段23は、受信メモリ22から反射超音波画像用のデータ、つまりデジタル化された反射超音波検出信号を読み出して、超音波画像生成部29に送信する。
 光音響画像生成部24は、受信メモリ23から受信した光音響波検出信号を再構成して、光音響画像を生成する。具体的には、光音響画像生成部24は、振動子アレイ20の各超音波振動子の位置に応じた遅延時間で各超音波振動子からの信号に基づく光音響波検出信号を加算し、1ライン分の光音響波検出信号を生成する(遅延加算法)。光音響画像生成部24は、遅延加算法に代えて、CBP法(Circular Back Projection)により再構成を行ってもよい。あるいは光音響画像生成部24は、ハフ変換法又はフーリエ変換法を用いて再構成を行ってもよい。再構成された複数ライン分の光音響波検出信号は、検波処理および対数変換処理等の信号処理を経て、光音響画像(断層画像)を表示するための信号として表示制御部30に送られる。
 なお上記複数ライン分の光音響波検出信号は、デジタル化や再構成等の処理が施されたもので、プローブ11の振動子アレイ20が出力した光音響波検出信号そのものではないが、この振動子アレイ20が出力した光音響波検出信号に基づくものであるので、「光音響波検出信号」と称することとする。また本実施形態では、光音響画像生成部24において前述したフィルタリング処理がなされるが、その処理については後に詳しく説明する。
 超音波画像生成部29は、受信メモリ22に格納された反射超音波検出信号に対して、基本的に上記光音響波検出信号に対するのと同様の処理を施して、超音波画像(断層画像)を示す複数ライン分の反射超音波検出信号を生成する。超音波画像生成部29は、そのようにして生成された反射超音波検出信号を表示制御部30に出力する。
 表示制御部30は、上記光音響波検出信号に基づいて光音響画像を、また上記反射超音波検出信号に基づいて超音波画像を、それぞれ表示部14に表示させる。これら2つの画像は別々に、あるいは合成されて合成画像として表示部14に表示される。後者の場合、表示制御部30は、例えば光音響画像と超音波画像とを重畳させて画像合成を行う。このように、光音響画像に加えて超音波画像を生成し表示させれば、光音響画像では画像化することができない部分を超音波画像において観察可能となる。
 次に、以上の述べた通りの基本構成を有する光音響計測装置10において、前述したアーチファクトの発生を防止する点について説明する。まず図2および図3を参照して、このアーチファクトについて詳しく説明する。
 図2は、図1に示す吸収体65の一例である血管Vから生じた光音響波と、測定光が入射する被検体表面で生じた光音響波とが検出される様子を示す概略図である。測定光Lを被検体Mに照射した際、理想的には血管Vからの光音響波U1のみを検出することが望まれるが、実際には測定光Lが入射する被検体表面部分44で発生した光音響波U2も検出される。この光音響波U2がアーチファクト(偽画像)の原因となる。光音響波U2が発生してから検出されるまでの時間は、光出射部40と振動子アレイ20(または個々の超音波振動子。以下同じ)との間隔、より詳細には、測定光Lの当接平面上の到達領域と音響波検出部との間隔に依存する。つまり、光出射部40と振動子アレイ20との間隔が大きい程、光音響波U2が被検体中を伝わる距離が長いため、光音響波U2が発生してから検出されるまでの時間は長くなる。
 なお、上記「当接平面」とは、プローブ11の先端(つまり、被検体Mと接触するプローブ表面と音響波検出部の中心軸との交点)を通り音響波検出部の検出面に平行な平面を意味する。また、「到達領域」とは、当接平面と測定光Lが交わる領域を意味する。
 そして、光音響波U2が発生してから検出されるまでの時間は、光音響画像中のアーチファクト領域の現れる範囲に影響する。図3の(A)~(F)は、光出射部40と振動子アレイ20との間隔W1に依存して、観察領域(アーチファクト非発生領域)R1およびアーチファクト発生領域R2の大きさが変化する様子を示す図である。具体的に、図3の(A)~(D)は、被検体表面で生じた光音響波U2に起因してアーチファクト発生領域R2が生じた光音響画像Pを示す図である。また、図3の(E)および(F)はそれぞれ、図3の(A)および(D)の光音響画像Pを生成した際の光出射部40と振動子アレイ20の位置関係を示す概略図である。
 この図3から、光出射部40と振動子アレイ20との間隔W1が大きい程、アーチファクト非発生領域R1とアーチファクト発生領域R2との境界Bが下がる、つまり被検体Mのより深い方に移動することが分かる。これは、光音響画像Pの上下方向は、時間軸に対応し、光出射部40と振動子アレイ20との間隔W1が大きい程、光音響波U2の信号が検出されるまでの時間が遅くなるためである。以上述べた光出射部40と振動子アレイ20との間隔W1に対する、アーチファクト非発生領域R1とアーチファクト発生領域R2との境界Bの関係の一例を図4に示す。この図4の横軸が上記間隔W1であり、また縦軸の「観察可能深度」がすなわちアーチファクト非発生領域R1の深度、つまりは上記境界Bの深さ位置である。
 以上の知見に基づいて本実施形態では、一例として図1の光音響画像生成部24において、バンドパスフィルタにより以下のフィルタリング処理がなされる。なお、このフィルタリング処理は、予め与えられたプログラムに基づいて、演算処理によってなされるものである。
 このバンドパスフィルタリング処理は、前述したように再構成されて光音響画像を示す光音響波検出信号のうち、アーチファクト非発生領域R1に関する光音響波検出信号(第一の光音響波検出信号)と、アーチファクト発生領域R2に関する光音響波検出信号(第二の光音響波検出信号)とでフィルタの通過特性を変えて行われる。ここで、上記第一の光音響波検出信号に対するバンドパスフィルタリング処理を第一のバンドパスフィルタリング処理(本発明における第一のフィルタリング処理)と称し、上記第二の光音響波検出信号に対するバンドパスフィルタリング処理を第二のバンドパスフィルタリング処理(本発明における第二のフィルタリング処理)と称する。
 上記バンドパスフィルタリング処理の基本的な通過特性を図5に示す。この図5中、破線で示すのが上記第一のバンドパスフィルタリング処理における通過特性であり、実線で示すのが上記第二のバンドパスフィルタリング処理における通過特性である。つまり、第一の光音響波検出信号に対する低周波数側のカットオフ周波数fL1よりも、第二の光音響波検出信号に対する低周波数側のカットオフ周波数fL2の方が、より高周波数側に設定されている。より詳しくは、例えばプローブ11の振動子アレイ20の検出中心周波数が6.5MHzの場合、第一の光音響波検出信号に対する低周波数側のカットオフ周波数fL1は1MHz程度、高周波数側のカットオフ周波数fHは10MHz程度とされ、第二の光音響波検出信号に対する低周波数側のカットオフ周波数fL2は2MHz程度、高周波数側のカットオフ周波数fHは10MHz程度とされる。
 以上の通り本実施形態では、第二の光音響波検出信号に対する第二のバンドパスフィルタリング処理は、第一の光音響波検出信号に対する第一のバンドパスフィルタリング処理に比べて、所定の周波数(2MHz)よりも低い周波数範囲の光音響波検出信号をより多く低減するものとなっている。ここで、「所定の周波数よりも低い周波数範囲」とは、2MHzよりも低い周波数範囲に限られるものではなく、光音響波検出信号の最も低周波数側に存在する、或る幅を持った周波数範囲であり、「所定の周波数」の数値は、適宜設定され得るものである。
 先に図2を参照して説明したように、被検体表面部分44で発生してアーチファクトの原因となる光音響波U2は、レーザ光Lが入射する被検体Mの表面部分全体から発生するため、この光音響波U2を検出した信号は比較的低周波数域のものとなる。そこで、上述したように、第一の光音響波検出信号と比べて、第二の光音響波検出信号の低周波数範囲の信号成分をより多く除去すれば、表示部14に表示される光音響画像のアーチファクト発生領域R2においてアーチファクトが発生しなくなるか、あるいは低減される。その一方、アーチファクト非発生領域R1において、被検体Mの診断上有意な低周波数範囲の信号成分が不用意に除去されることもなくなる。そこで表示部14において、全体として診断性能の高い光音響画像を表示可能となる。それに対して、先に述べた特許文献2に記載された技術では、診断上有意な低周波数範囲の信号成分が除去される可能性がある。
 なお、上記のアーチファクト非発生領域R1とアーチファクト発生領域R2とを判別するためには、それら両領域の境界Bを知ることが必要である。先に図3および図4を参照して説明した通り、上記境界Bの被検体深さ方向位置は基本的に、光出射部40と振動子アレイ20との間隔W1と対応している。そこで本実施形態では、図1に示した光音響画像生成部24の内部メモリに、プローブ11毎の上記境界Bの被検体深さ方向位置と上記間隔W1との対応表をルックアップテーブルの形で記憶させておき、光音響画像生成部24はこのルックアップテーブルを参照して境界Bを、つまりはアーチファクト非発生領域R1およびアーチファクト発生領域R2を判別するようにしている。こうすることにより、光音響計測装置10に対して複数種類のプローブ11が交換可能に取り付けられる場合でも、使用されるプローブ11の認識情報を例えば入力部15から入力して、そのプローブ11に関して正しくアーチファクト非発生領域R1およびアーチファクト発生領域R2を判別可能となる。以上の説明から明らかな通り、本実施形態では光音響画像生成部24が、本発明における領域判別手段およびフィルタ手段を構成している。
 ここで、フィルタ手段としては、ハミング窓、ハニング窓、ブラックマン窓、あるいはカイザー窓等の窓関数によりサイドローブの影響が低減されているものを適用することが望ましい。
 なお、上記境界Bの被検体深さ方向位置と上記間隔W1との関係は、観察部位での音速、つまり光音響波が伝搬する被検体Mの部位における音速に応じて変化する。そこで、上記対応表における境界Bの被検体深さ方向位置と間隔W1との関係を、上記音速に応じて補正してもよい。この補正により、境界Bの被検体深さ方向位置が補正され、つまりはアーチファクト非発生領域R1とアーチファクト発生領域R2の判別が補正されることになる。
 上記音速は、図1に示す入力部15から入力するようにしてもよいし、あるいは、この音速と観察部位との対応関係を図示外の記憶手段に記憶させておき、入力部15から入力された観察部位の情報から上記対応関係を参照して音速を知るようにしてもよい。
 さらに、境界Bの被検体深さ方向位置と間隔W1との関係を、上記音速に応じて補正する他、測定光であるレーザLの強度、レーザLのパルス幅、および振動子アレイ20の検出面上における音響部材の有無、のうちの少なくとも1つに基づいて上記関係を補正するようにしてもよい。
 また、境界Bの被検体深さ方向位置と間隔W1との対応表から境界Bを求める代わりに、間隔W1から境界Bの被検体深さ方向位置を算出する計算式を記憶させておき、図1に示す入力部15から入力された間隔W1から上記計算式によって境界Bを求めるようにしてもよい。
 さらには、操作者が表示部14に示されるアーチファクト非発生領域R1とアーチファクト発生領域R2の表示を確認しながら、境界Bを指定する情報を入力部15から入力するようにしてもよい。
 上記境界Bを指定する情報とは、境界Bの被検体深さ方向位置そのものを示す情報でなくてもよい。例えば図11に示されるようなx(光出射部40の出射端における光軸の位置から振動子アレイ20の中心軸までの距離)、y(光出射部40の出射端における光軸の位置から当接平面S1までの距離)およびθ(当接平面S1と測定光の光軸とが成す角度)でもよい。x、yおよびθが得られれば、光出射部40と振動子アレイ20の間隔W1が得られ、これからさらに境界Bの被検体深さ方向位置を得ることができる。
 また、光出射部40の出射端における光軸が当接平面に対して傾いている場合には、次のようにして「測定光の当接平面上の到達領域と音響波検出部との間隔」を定義することができる。例えば図11に示すように検出面に何も装着されていない場合には、検出面と振動子アレイ20の中心軸との交点をP1とし、測定光の到達領域におけるエネルギープロファイルEPをガウス分布で近似したときの最大点をP2とする。この際、上記点P1が、当接平面が通るプローブの先端となる。そして、この点P1および点P2の距離W2を「到達領域と音響波検出部との間隔」とすることができる。
 また、先に述べた対応表や計算式に基づいて定められたアーチファクト非発生領域R1とアーチファクト発生領域R2の表示を操作者が表示部14で確認し、それよりも適正な領域分けが考えられる場合は、その領域分けの境界Bを指定する情報を操作者が入力部15から入力して、アーチファクト非発生領域R1とアーチファクト発生領域R2を再設定するようにしてもよい。
 なお、以上述べたバンドパスフィルタリング処理により、第一の光音響波検出信号および第二の光音響波検出信号の低周波数範囲の信号成分を除去する代わりに、ハイパスフィルタを用いて上記低周波数範囲の信号成分を除去するようにしてもよい。図6に、そのようなハイパスフィルタの基本的な通過特性例を示す。この図6中、破線で示すのが第一の光音響波検出信号に対する第一のハイパスフィルタリング処理(本発明における第一のフィルタリング処理)の通過特性であり、実線で示すのが第二の光音響波検出信号に対する第二のハイパスフィルタリング処理(本発明における第二のフィルタリング処理)の通過特性である。つまりこの場合は、第一の光音響波検出信号に対するカットオフ周波数f1よりも、第二の光音響波検出信号に対するカットオフ周波数f2の方が、より高周波数側に設定されている。
 例えば上記カットオフ周波数f1は1MHz程度、カットオフ周波数f2は2MHz程度とされる。以上のようにして、この場合も、第一の光音響波検出信号と比べて、第二の光音響波検出信号の低周波数範囲の信号成分をより多く除去すれば、図5に通過特性を示したバンドパスフィルタを用いる場合と、基本的に同様の効果が得られる。
 また、バンドパスフィルタを用いる場合、図7に示す通過特性や、あるいは図8に示す通過特性のバンドパスフィルタを適用することもできる。これらの図においても、破線で示すのが第一の光音響波検出信号に対する第一のバンドパスフィルタリング処理の通過特性であり、実線で示すのが第二の光音響波検出信号に対する第二のバンドパスフィルタリング処理の通過特性である。
 図7に示す通過特性は、図5に示した通過特性と比べると、第一の光音響波検出信号に対する低周波数側のカットオフ周波数がfL1とfL2との間で、ロールオフ状に連続的に変化している点で異なるものである。この場合も、第一の光音響波検出信号と比べて、第二の光音響波検出信号の低周波数範囲の信号成分をより多く除去できるので、図5に通過特性を示したバンドパスフィルタを用いる場合と、基本的に同様の効果が得られる。
 なお図7に示す例では、第一の光音響波検出信号に対する第一のバンドパスフィルタリング処理の低周波数側のカットオフ周波数がfL1とfL2との間で連続的に変化しているが、このカットオフ周波数がfL1とfL2との間で段階的に変化するようにしてもよい。
 図8に示す通過特性は、図5に示した通過特性と比べると、第二の光音響波検出信号に対するフィルタリングの利得が、第一の光音響波検出信号に対するフィルタリングの利得よりも高く設定されている点で異なるものである。この場合も、第一の光音響波検出信号と比べて、第二の光音響波検出信号の低周波数範囲の信号成分をより多く除去できるので、図5に通過特性を示したバンドパスフィルタを用いる場合と、基本的に同様の効果が得られる。またこの場合は、第二の光音響波検出信号の低周波数範囲の信号成分をより多く除去することにより、第二の光音響波検出信号の全体的な信号強度が低減する分を、上述のように第二の光音響波検出信号に対するフィルタリングの利得を上げることによって補償可能となる。
 なお、以上述べたようにアーチファクト非発生領域R1に関する光音響波検出信号に対するフィルタリングの特性と、アーチファクト発生領域R2に関する光音響波検出信号に対するフィルタリングの特性を互いに異なるものとすると、フィルタリング後の光音響波検出信号に基づいて作成かつ表示された光音響画像において、アーチファクト非発生領域R1とアーチファクト発生領域R2の境界Bで画像の周波数特性が急激に変化しやすい。以下、この周波数特性の急激な変化を抑制するようにした実施形態について説明する。
 なお、以下に説明する処理は、例えば図1の光音響画像生成部24において行われる。この実施形態では、図9に概略的に示すアーチファクト非発生領域R1とアーチファクト発生領域R2の境界Bを含む範囲内に、一例として2つの境界領域BR1および境界領域BR2を設定する。本例では、境界領域BR1はアーチファクト非発生領域R1内に属し、境界領域BR2はアーチファクト発生領域R2内に属している。そしてこの場合、境界領域BR1および境界領域BR2の各光音響画像に対応する光音響波検出信号に対して、前述したバンドパスフィルタによりバンドパスフィルタリング処理が施されるが、それらのバンドパスフィルタリング処理は、アーチファクト非発生領域R1の光音響画像に対応する第一の光音響波検出信号に対する第一のバンドパスフィルタリング処理とも、またアーチファクト発生領域R2の光音響画像に対応する第二の光音響波検出信号に対する第二のバンドパスフィルタリング処理とも異なる、境界領域用バンドパスフィルタリング処理とされている。
 ここで、上記各バンドパスフィルタリングにおける基本的な通過特性を図10に示す。この図10中、破線で示すのが上記第一の光音響波検出信号に対する通過特性、実線で示すのが上記第二の光音響波検出信号に対する通過特性、2点鎖線で示すのが境界領域BR1の光音響画像に対応する光音響波検出信号に対する通過特性、そして1点鎖線で示すのが境界領域BR2の光音響画像に対応する光音響波検出信号に対する通過特性である。
 以上のように、境界領域BR1の光音響画像に対応する光音響波検出信号に対する境界領域用バンドパスフィルタリング処理および境界領域BR2の光音響画像に対応する光音響波検出信号に対する境界領域用バンドパスフィルタリング処理は、アーチファクト非発生領域R1の光音響画像に対応する第一の光音響波検出信号に対する第一のバンドパスフィルタリング処理と、アーチファクト発生領域R2の光音響画像に対応する第二の光音響波検出信号に対する第二のバンドパスフィルタリング処理との中間的な処理とされている。
 より具体的には、境界領域BR1用のバンドフィルタリング処理の通過特性の一つである低周波数側のカットオフ周波数fL3(=1.3MHz)と、境界領域BR2用のバンドフィルタリング処理の低周波数側のカットオフ周波数fL4(=1.7MHz)が各々、アーチファクト非発生領域R1用の第一のバンドパスフィルタリング処理の低周波数側のカットオフ周波数fL1(=1MHz)と、アーチファクト発生領域R2用の第二のバンドパスフィルタリング処理の低周波数側のカットオフ周波数fL2(=2MHz)とに基づいて、境界領域BR1、境界領域BR2の被検体深さ方向位置に応じて定められている。
 以上のように各バンドパスフィルタリング処理の低周波数側のカットオフ周波数fL1~fL4を設定することにより、アーチファクト非発生領域R1とアーチファクト発生領域R2の境界Bにおいて、光音響画像の周波数特性が急激に変化することが無くなる。つまり表示部14に表示される光音響画像においては、アーチファクト非発生領域R1、境界領域BR1、境界領域BR2、およびアーチファクト発生領域R2の各境界において周波数特性が少しずつ変化するようになり、光音響画像の診断性能が高められる。
 なお、以上説明した実施形態においては、アーチファクト非発生領域R1とアーチファクト発生領域R2の境界Bを含む範囲に、2つの境界領域BR1および境界領域BR2を設定しているが、境界領域は1つ以上、いくつ設定しても構わない。そして境界領域を1つだけ設定する場合は、その境界領域の端縁が境界Bと揃った状態となっていてもよい。境界領域を多く設定するほど、各領域の境界における周波数特性の変化をより滑らかにすることができるが、それに伴ってフィルタリング処理に要する時間も長くなるので、それらの点を双方考慮して適切な数に設定するのがよい。
 次に、アーチファクト非発生領域R1とアーチファクト発生領域R2の境界Bで画像の周波数特性が急激に変化することを抑制可能とした、本発明の別の実施形態について説明する。なお、以下に説明する処理は、例えば図1の光音響画像生成部24において行われる。
 この実施形態でも、図9に示すように、アーチファクト非発生領域R1およびアーチファクト発生領域R2の境界を含む範囲内に、少なくとも1つの境界領域を設定する。本実施形態では図9の例と同じように、2つの境界領域BR1および境界領域BR2を設定する。そしてアーチファクト非発生領域R1の光音響画像に対応する第一の光音響波検出信号に対しては、低周波数側のカットオフ周波数fL1を1MHzとした第一のバンドパスフィルタリング処理を施して、第一の処理済み光音響波検出信号を得る。一方、アーチファクト発生領域R2の光音響画像に対応する第二の光音響波検出信号に対しては、低周波数側のカットオフ周波数fL2を2MHzとした第二のバンドパスフィルタリング処理を施して、第二の処理済み光音響波検出信号を得る。
 そして上記第一の処理済み光音響波検出信号および第二の処理済み光音響波検出信号を、境界領域BR1および境界領域BR2の被検体深さ方向位置に応じて重み付け加算して、境界領域BR1用の光音響波検出信号、並びに境界領域BR2用の光音響波検出信号を得る。この場合は、例えば第一の処理済み光音響波検出信号に重み付け係数0.7を与え、第二の処理済み光音響波検出信号に重み付け係数0.3を与えて重み付け加算を行い、境界領域BR1用の光音響波検出信号を得る。また、例えば第一の処理済み光音響波検出信号に重み付け係数0.3を与え、第二の処理済み光音響波検出信号に重み付け係数0.7を与えて重み付け加算を行い、境界領域BR2用の光音響波検出信号を得る。
 以上の通りにして得た境界領域BR1用の光音響波検出信号により境界領域BR1の光音響画像を生成し、境界領域BR2用の光音響波検出信号により境界領域BR2の光音響画像を生成し、またアーチファクト非発生領域R1の境界領域BR1以外の部分については上記第一の処理済み光音響波検出信号により光音響画像を生成し、そしてアーチファクト発生領域R2の境界領域BR2以外の部分については上記第二の処理済み光音響波検出信号により光音響画像を生成し、それらの光音響画像を合成して1枚の光音響画像を生成し表示する。
 そのようにして表示部14に表示される光音響画像は、アーチファクト非発生領域R1、境界領域BR1、境界領域BR2、およびアーチファクト発生領域R2の各境界において周波数特性が少しずつ変化するようになり、光音響画像の診断性能が高められる。
 また本実施形態は、周波数特性の急激な変化を抑制するために、前述したようにアーチファクト非発生領域R1、アーチファクト発生領域R2、境界領域BR1および境界領域BR2の各光音響波検出信号に対するフィルタリング処理の特性を変える場合と比べれば、計算処理が軽くなる点で優れている。
 以上、光音響画像と共に反射超音波画像も生成かつ表示可能とされた光音響計測装置10について説明したが、本発明は、反射超音波画像の生成および表示は行わず、光音響画像の生成および表示のみを行うように構成された光音響計測装置に適用することも勿論可能である。図12は、そのように構成された光音響計測装置10の一例を示すものである。この図12に示す光音響計測装置10は、図1に示したものと比べると、データ分離手段23、超音波画像生成部29および送信制御回路33が除かれた形のものとなっている。
   10  光音響計測装置
   11  プローブ
   12  超音波ユニット
   13  レーザユニット
   14  表示部
   15  入力部
   20  振動子アレイ
   21  受信回路
   22  受信メモリ
   23  データ分離手段
   24  光音響画像生成部
   29  超音波画像生成部
   30  表示制御部
   33  送信制御回路
   34  制御部
   40  光出射部
   50  筺体
   60  光ファイバ
   65  吸収体
   B  アーチファクト非発生領域とアーチファクト発生領域との境界
   L  レーザ光(測定光)
   M  被検体
   R1 アーチファクト非発生領域
   R2 アーチファクト発生領域
   U  音響波
   U1、U2  光音響波

Claims (20)

  1.  被検体に測定光を出射する光出射部と、該光出射部に並設され、前記測定光の出射によって前記被検体内に生じた光音響波を検出する音響波検出部とを有するプローブ、
     前記音響波検出部が出力した光音響波検出信号に基づいて光音響画像を生成する画像生成部、
     少なくとも前記光出射部と前記音響波検出部との位置関係に基づいて、前記光音響画像中のアーチファクト発生領域とアーチファクト非発生領域とを判別する領域判別手段、および、
     前記光音響波検出信号のうち、前記領域判別手段が判別したアーチファクト非発生領域の光音響画像に対応する第一の光音響波検出信号に対して第一のフィルタリング処理を行い、かつ、前記光音響波検出信号のうち、前記領域判別手段が判別したアーチファクト発生領域の光音響画像に対応する第二の光音響波検出信号に対して第二のフィルタリング処理を行うフィルタ手段を有し、
     前記第二のフィルタリング処理は、前記第一のフィルタリング処理に比べて、所定の周波数よりも低い周波数範囲の光音響波検出信号をより多く低減することを特徴とする光音響計測装置。
  2.  前記フィルタ手段がバンドパスフィルタリング処理を行うバンドパスフィルタを含み、
     前記第二のフィルタリング処理としての前記バンドパスフィルタリング処理が、前記第一のフィルタリング処理としての前記バンドパスフィルタリング処理よりも、低周波数側のカットオフ周波数をより高周波数側に設定したものである請求項1記載の光音響計測装置。
  3.  前記フィルタ手段がハイパスフィルタリング処理を行うハイパスフィルタを含み、
     前記第二のフィルタリング処理としての前記ハイパスフィルタリング処理が、前記第一のフィルタリング処理としての前記ハイパスフィルタリング処理よりも、カットオフ周波数をより高周波数側に設定したものである請求項1記載の光音響計測装置。
  4.  前記領域判別手段が、前記光出射部と前記音響波検出部との位置関係と、前記アーチファクト発生領域およびアーチファクト非発生領域の境界とを対応させた対応表に基づいて、前記アーチファクト発生領域とアーチファクト非発生領域とを判別する請求項1から3いずれか1項記載の光音響計測装置。
  5.  前記領域判別手段が、前記光出射部と前記音響波検出部との位置関係から、前記アーチファクト発生領域およびアーチファクト非発生領域の境界を算出する計算式により、前記アーチファクト発生領域とアーチファクト非発生領域とを判別する請求項1から3いずれか1項記載の光音響計測装置。
  6.  前記領域判別手段が、前記光音響波が伝搬する被検体の部位における音速に応じて前記判別を補正する請求項1から5いずれか1項記載の光音響計測装置。
  7.  前記フィルタ手段が、前記アーチファクト非発生領域およびアーチファクト発生領域の境界を含む範囲内に設定された少なくとも1つの境界領域に関する光音響波検出信号に対して、前記第一のフィルタリング処理および前記第二のフィルタリング処理とは異なる境界領域用フィルタリング処理を行う請求項1から6いずれか1項記載の光音響計測装置。
  8.  前記境界領域用フィルタリング処理が、前記第一のフィルタリング処理と前記第二のフィルタリング処理との中間的なフィルタリング処理である請求項7記載の光音響計測装置。
  9.  前記境界領域用フィルタリング処理の通過特性が、前記第一のフィルタリング処理の通過特性と、前記第二のフィルタリング処理の通過特性とに基づいて、前記境界領域の被検体深さ方向位置に応じて定められたものである請求項8記載の光音響計測装置。
  10.  前記アーチファクト非発生領域およびアーチファクト発生領域の境界を含む範囲内に設定された少なくとも1つの境界領域に関する画像を、前記第一のフィルタリング処理を受けた前記第一の光音響波検出信号と、前記第二のフィルタリング処理を受けた前記第二の光音響波検出信号とを、前記境界領域の被検体深さ方向位置に応じて重み付け加算して得られた信号によって構成する手段をさらに備えた請求項1から6いずれか1項記載の光音響計測装置。
  11.  被検体に測定光を出射する光出射部と、該光出射部に並設され、前記測定光の出射によって前記被検体内に生じた光音響波を検出する音響波検出部とを有するプローブ、および、
     前記音響波検出部が出力した光音響波検出信号に基づいて光音響画像を生成する画像生成部を備えた光音響計測装置において、
     少なくとも前記光出射部と前記音響波検出部との位置関係に基づいて、前記光音響画像中のアーチファクト発生領域とアーチファクト非発生領域とを判別し、
     前記光音響波検出信号のうち、前記アーチファクト非発生領域の光音響画像に対応する第一の光音響波検出信号に対して第一のフィルタリング処理を行い、
     前記光音響波検出信号のうち、前記アーチファクト発生領域の光音響画像に対応する第二の光音響波検出信号に対して第二のフィルタリング処理を行い、
     前記第二のフィルタリング処理を、前記第一のフィルタリング処理に比べて、所定の周波数よりも低い周波数範囲の光音響波検出信号をより多く低減するものとすることを特徴とする光音響計測装置の信号処理方法。
  12.  前記フィルタリング処理がバンドパスフィルタリング処理であり、
     前記第二のフィルタリング処理としての前記バンドパスフィルタリング処理が、前記第一のフィルタリング処理としての前記バンドパスフィルタリング処理よりも、低周波数側のカットオフ周波数をより高周波数側に設定したものである請求項11記載の光音響計測装置の信号処理方法。
  13.  前記フィルタリング処理がハイパスフィルタリング処理であり、
     前記第二のフィルタリング処理としての前記ハイパスフィルタリング処理が、前記第一のフィルタリング処理としての前記ハイパスフィルタリング処理よりも、カットオフ周波数をより高周波数側に設定したものである請求項11記載の光音響計測装置の信号処理方法。
  14.  前記光出射部と前記音響波検出部との位置関係と、前記アーチファクト発生領域およびアーチファクト非発生領域の境界とを対応させた対応表に基づいて、前記アーチファクト発生領域とアーチファクト非発生領域とを判別する請求項11から13いずれか1項記載の光音響計測装置の信号処理方法。
  15.  前記光出射部と前記音響波検出部との位置関係から、前記アーチファクト発生領域およびアーチファクト非発生領域の境界を算出する計算式により、前記アーチファクト発生領域とアーチファクト非発生領域とを判別する請求項11から13いずれか1項記載の光音響計測装置の信号処理方法。
  16.  前記光音響波が伝搬する被検体の部位における音速に応じて前記判別を補正する請求項11から15いずれか1項記載の光音響計測装置の信号処理方法。
  17.  前記アーチファクト非発生領域およびアーチファクト発生領域の境界を含む範囲内に設定された少なくとも1つの境界領域に関する光音響波検出信号に対して、前記第一のフィルタリング処理および前記第二のフィルタリング処理とは異なる境界領域用フィルタリング処理を行う請求項11から16いずれか1項記載の光音響計測装置の信号処理方法。
  18.  前記境界領域用フィルタリング処理が、前記第一のフィルタリング処理と前記第二のフィルタリング処理との中間的なフィルタリング処理である請求項17記載の光音響計測装置の信号処理方法。
  19.  前記境界領域用フィルタリング処理の通過特性が、前記第一のフィルタリング処理の通過特性と、前記第二のフィルタリング処理の通過特性とに基づいて、前記境界領域の被検体深さ方向位置に応じて定められたものである請求項18記載の光音響計測装置の信号処理方法。
  20.  前記アーチファクト非発生領域およびアーチファクト発生領域の境界を含む範囲内に設定された少なくとも1つの境界領域に関する画像を、前記第一のフィルタリング処理を受けた前記第一の光音響波検出信号と、前記第二のフィルタリング処理を受けた前記第二の光音響波検出信号とを、前記境界領域の被検体深さ方向位置に応じて重み付け加算して得られた信号によって構成する請求項11から16いずれか1項記載の光音響計測装置の信号処理方法。
PCT/JP2016/004307 2015-09-29 2016-09-21 光音響計測装置および光音響計測装置の信号処理方法 WO2017056462A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017542731A JP6411667B2 (ja) 2015-09-29 2016-09-21 光音響計測装置および光音響計測装置の信号処理方法
EP16850642.6A EP3357430B1 (en) 2015-09-29 2016-09-21 Photoacoustic measurement device and signal processing method of photoacoustic measurement device
CN201680052467.8A CN108024794B (zh) 2015-09-29 2016-09-21 光声测量装置及光声测量装置的信号处理方法
US15/901,041 US11083376B2 (en) 2015-09-29 2018-02-21 Photoacoustic measurement device and signal processing method of photoacoustic measurement device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015191727 2015-09-29
JP2015-191727 2015-09-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/901,041 Continuation US11083376B2 (en) 2015-09-29 2018-02-21 Photoacoustic measurement device and signal processing method of photoacoustic measurement device

Publications (1)

Publication Number Publication Date
WO2017056462A1 true WO2017056462A1 (ja) 2017-04-06

Family

ID=58423089

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/004307 WO2017056462A1 (ja) 2015-09-29 2016-09-21 光音響計測装置および光音響計測装置の信号処理方法

Country Status (5)

Country Link
US (1) US11083376B2 (ja)
EP (1) EP3357430B1 (ja)
JP (1) JP6411667B2 (ja)
CN (1) CN108024794B (ja)
WO (1) WO2017056462A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107345345A (zh) * 2017-06-30 2017-11-14 浙江众邦机电科技有限公司 一种用于缝纫机的布料检测系统及方法
CN107607473A (zh) * 2017-08-31 2018-01-19 华南师范大学 一种同时多点激发与匹配接收的光声三维成像装置及方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8997572B2 (en) 2011-02-11 2015-04-07 Washington University Multi-focus optical-resolution photoacoustic microscopy with ultrasonic array detection
WO2015077355A1 (en) 2013-11-19 2015-05-28 Washington University Systems and methods of grueneisen-relaxation photoacoustic microscopy and photoacoustic wavefront shaping
WO2018209046A1 (en) 2017-05-10 2018-11-15 Washington University Snapshot photoacoustic photography using an ergodic relay
EP3836831A4 (en) 2018-08-14 2022-05-18 California Institute of Technology MULTIFOCAL PHOTOACOUSTIC MICROSCOPY THROUGH AN ERGODIC RELAY
EP3847453A4 (en) 2018-09-04 2022-06-22 California Institute of Technology PHOTOACOUSTIC INFRARED MICROSCOPY AND SPECTROSCOPY WITH INCREASED RESOLUTION
CN109674490B (zh) * 2019-01-17 2021-09-10 南京大学深圳研究院 一种超声引导的低反射伪像光声显微镜成像方法
WO2021092250A1 (en) * 2019-11-05 2021-05-14 California Institute Of Technology Spatiotemporal antialiasing in photoacoustic computed tomography
CN112842264B (zh) * 2020-12-31 2023-04-25 哈尔滨工业大学(威海) 多模态成像中数字滤波方法、装置和多模态成像技术系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011217767A (ja) * 2010-04-02 2011-11-04 Canon Inc 光音響イメージング装置及び光音響イメージング方法
JP2013005957A (ja) * 2011-06-27 2013-01-10 Fujifilm Corp ドプラ画像表示方法および装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5873830A (en) * 1997-08-22 1999-02-23 Acuson Corporation Ultrasound imaging system and method for improving resolution and operation
US6936008B2 (en) * 1999-08-20 2005-08-30 Zonare Medical Systems, Inc. Ultrasound system with cableless coupling assembly
KR100856043B1 (ko) * 2006-10-17 2008-09-03 주식회사 메디슨 초음파 공간 합성 영상의 형성 방법
US9451884B2 (en) * 2007-12-13 2016-09-27 Board Of Trustees Of The University Of Arkansas Device and method for in vivo detection of clots within circulatory vessels
US8233482B2 (en) 2010-04-22 2012-07-31 Robert Paul Morris Methods, systems, and computer program products for disabling an operative coupling to a network
JP5570877B2 (ja) * 2010-06-04 2014-08-13 株式会社東芝 超音波診断装置
US8823928B2 (en) * 2011-11-02 2014-09-02 Seno Medical Intruments, Inc. Light output calibration in an optoacoustic system
US8839672B2 (en) * 2010-10-19 2014-09-23 Board Of Regents, The University Of Texas System Combined ultrasound and photoacoustic imaging of metal objects
JP6151882B2 (ja) * 2010-12-24 2017-06-21 キヤノン株式会社 被検体情報取得装置及び被検体情報取得方法
JP5850633B2 (ja) * 2011-04-12 2016-02-03 キヤノン株式会社 被検体情報取得装置
JP6132466B2 (ja) 2012-02-07 2017-05-24 キヤノン株式会社 被検体情報取得装置及び被検体情報取得方法
JP6146956B2 (ja) * 2012-03-13 2017-06-14 キヤノン株式会社 装置、表示制御方法、及びプログラム
JP6146955B2 (ja) * 2012-03-13 2017-06-14 キヤノン株式会社 装置、表示制御方法、及びプログラム
SG11201407748SA (en) 2012-06-13 2015-01-29 Seno Medical Instr Inc System and method for producing parametric maps of optoacoustic data
KR20140084828A (ko) * 2012-12-27 2014-07-07 삼성전자주식회사 광음향 프로브 및 이를 포함하는 광음향 장치
KR102094502B1 (ko) * 2013-02-21 2020-03-30 삼성전자주식회사 의료 영상들의 정합 방법 및 장치
JP5907918B2 (ja) * 2013-03-21 2016-04-26 富士フイルム株式会社 光音響計測装置および光音響計測方法並びにプローブの接触判断方法
US10217213B2 (en) * 2013-09-30 2019-02-26 The United States Of America As Represented By The Secretary Of The Army Automatic focused assessment with sonography for trauma exams
JP6049215B2 (ja) * 2014-01-16 2016-12-21 富士フイルム株式会社 光音響計測装置並びにそれに利用される信号処理装置および信号処理方法
JP6504826B2 (ja) * 2014-02-10 2019-04-24 キヤノン株式会社 情報処理装置および情報処理方法
CN105326524B (zh) * 2014-07-31 2018-10-26 通用电气公司 可减少图像中的伪影的医学成像方法和装置
KR20160056614A (ko) * 2014-11-12 2016-05-20 삼성전자주식회사 영상 처리 장치, 영상 처리 장치 제어 방법 및 초음파 영상 장치
KR102301379B1 (ko) * 2015-01-20 2021-09-14 삼성전자주식회사 영상 처리 장치, 영상 촬영 장치, 영상 처리 방법 및 영상 촬영 장치의 제어 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011217767A (ja) * 2010-04-02 2011-11-04 Canon Inc 光音響イメージング装置及び光音響イメージング方法
JP2013005957A (ja) * 2011-06-27 2013-01-10 Fujifilm Corp ドプラ画像表示方法および装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107345345A (zh) * 2017-06-30 2017-11-14 浙江众邦机电科技有限公司 一种用于缝纫机的布料检测系统及方法
CN107607473A (zh) * 2017-08-31 2018-01-19 华南师范大学 一种同时多点激发与匹配接收的光声三维成像装置及方法

Also Published As

Publication number Publication date
CN108024794B (zh) 2020-12-18
EP3357430A1 (en) 2018-08-08
JPWO2017056462A1 (ja) 2018-02-08
US20180177407A1 (en) 2018-06-28
EP3357430A4 (en) 2018-08-08
JP6411667B2 (ja) 2018-10-24
EP3357430B1 (en) 2019-09-18
CN108024794A (zh) 2018-05-11
US11083376B2 (en) 2021-08-10

Similar Documents

Publication Publication Date Title
JP6411667B2 (ja) 光音響計測装置および光音響計測装置の信号処理方法
US9974440B2 (en) Photoacoustic image generation device and method
US9888856B2 (en) Photoacoustic image generation apparatus, system and method
JP5719242B2 (ja) ドプラ画像表示方法および装置
US20170343515A1 (en) Apparatus and method for obtaining object information and non-transitory computer-readable storage medium
JP5863345B2 (ja) 被検体情報取得装置および被検体情報取得方法
US10064558B2 (en) Subject information acquisition device, method for controlling subject information acquisition device, and storage medium storing program therefor
JP6049215B2 (ja) 光音響計測装置並びにそれに利用される信号処理装置および信号処理方法
JP2013233386A (ja) 光音響画像生成装置、システム、及び方法
US11119199B2 (en) Acoustic wave image generation apparatus and acoustic wave image generation method
JP5864905B2 (ja) 被検体情報取得装置及び被検体情報取得方法
US20190142277A1 (en) Photoacoustic apparatus and object information acquiring method
WO2019044594A1 (ja) 光音響画像生成装置および画像取得方法
US11333599B2 (en) Photoacoustic image generation apparatus, photoacoustic image generation method, and photoacoustic image generation program
JP6482686B2 (ja) 光音響画像生成システム、装置、及び方法
JP2014184025A (ja) 光音響計測装置、プローブおよび音響整合部材並びに光音響計測方法およびプローブの接触判断方法
JP2014023680A (ja) 被検体情報取得装置およびその制御方法ならびに提示方法
WO2018235781A1 (ja) 音響波画像生成装置および光音響画像解析方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16850642

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017542731

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE