WO2014125853A1 - 光音響画像生成装置及び方法 - Google Patents

光音響画像生成装置及び方法 Download PDF

Info

Publication number
WO2014125853A1
WO2014125853A1 PCT/JP2014/050472 JP2014050472W WO2014125853A1 WO 2014125853 A1 WO2014125853 A1 WO 2014125853A1 JP 2014050472 W JP2014050472 W JP 2014050472W WO 2014125853 A1 WO2014125853 A1 WO 2014125853A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
photoacoustic
subject
infiltration range
infiltration
Prior art date
Application number
PCT/JP2014/050472
Other languages
English (en)
French (fr)
Inventor
和弘 広田
白水 豪
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2014125853A1 publication Critical patent/WO2014125853A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0093Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy
    • A61B5/0095Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy by applying light and detecting acoustic waves, i.e. photoacoustic measurements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • A61B5/6848Needles

Definitions

  • the present invention relates to a photoacoustic image generation apparatus and method for generating a photoacoustic image based on a photoacoustic wave generated due to light irradiation.
  • An ultrasonic inspection method is known as a kind of image inspection method capable of non-invasively examining the state inside a living body.
  • an ultrasonic probe capable of transmitting and receiving ultrasonic waves is used.
  • the ultrasonic waves travel inside the living body and are reflected at the tissue interface.
  • the internal state can be imaged.
  • photoacoustic imaging in which the inside of a living body is imaged using the photoacoustic effect.
  • a living body is irradiated with pulsed laser light such as a laser pulse. Inside the living body, the living tissue absorbs the energy of the pulsed laser light, and ultrasonic waves (photoacoustic waves) are generated by adiabatic expansion due to the energy.
  • ultrasonic waves photoacoustic waves
  • Patent Document 1 describes generation of a photoacoustic image using a contrast agent that absorbs light and generates a photoacoustic wave.
  • a contrast agent indocyanine green (ICG), gold nanoparticle, or the like is used.
  • Light is irradiated after the introduction of the contrast agent into the living body, photoacoustic waves generated due to the light irradiation are detected, and light representing the absorption coefficient distribution of the subject based on the detected photoacoustic waves An acoustic image is generated.
  • it is possible to image a contrast agent accumulation location and a concentration distribution introduced into a living body.
  • the generated photoacoustic image is used for diagnosis of a malignant tumor, diagnosis of Alzheimer's disease, carotid artery plaque, and the like.
  • an object of the present invention is to provide a photoacoustic image generation apparatus and method that can visualize the infiltration range of a liquid injected into a subject using a photoacoustic image.
  • the present invention is based on light emission after a light-absorbing liquid is injected into a subject through a needle punctured into the subject and light is emitted to the subject.
  • a photoacoustic image generating means for generating a photoacoustic image based on a photoacoustic signal that is a detection signal of a photoacoustic wave generated in the subject, and an infiltration range of the injected liquid based on the photoacoustic image.
  • a photoacoustic image generation apparatus comprising an infiltration range image generation means for generating an infiltration range image to be shown.
  • the infiltration range image generation means generates an infiltration range image based on changes over time of a plurality of photoacoustic images corresponding to a plurality of times after liquid injection.
  • the infiltration range image generation means may generate a difference image between a plurality of photoacoustic images.
  • the infiltration range image generation unit may extract a boundary between a portion where the photoacoustic wave is generated and a portion where the photoacoustic wave is not generated from the difference image, and generate an image indicating the extracted boundary as the infiltration range image.
  • the infiltration range image generation means searches for a portion where the photoacoustic wave is generated in a range including the tip position of the needle injected into the subject, and a portion where the photoacoustic wave is generated and a portion where the photoacoustic wave is not generated An image indicating the boundary between the two may be generated as an infiltration range image.
  • the infiltration range image generation means may generate an image in which the inside of the extracted boundary is filled.
  • the photoacoustic image generation apparatus of the present invention can employ a configuration further comprising image synthesizing means for synthesizing the photoacoustic image and the infiltration range image and displaying the synthesized image on the display screen.
  • the apparatus further includes a reflected acoustic wave image generation unit that generates a reflected acoustic wave image based on a reflected acoustic wave transmitted to the subject, and the image synthesis unit replaces the photoacoustic image or light.
  • the reflected acoustic wave image may be combined with the infiltration range image.
  • the image composition means may perform image composition by assigning a color different from at least one of the ultrasonic image and the photoacoustic image to the infiltration range image.
  • the liquid may contain an anesthetic.
  • the infiltration range image generation means may extract an outer boundary viewed from the tip position of the needle and generate it as an infiltration range image.
  • the range searched by the infiltration range image generation means may be expanded with the passage of time from the liquid injection time.
  • the present invention is also generated in a subject due to light emission after light absorbing liquid is injected into the subject through a needle punctured into the subject and light is emitted to the subject. And a step of generating a photoacoustic image based on a photoacoustic signal that is a detection signal of the photoacoustic wave, and a step of generating an infiltration range image indicating a liquid infiltration range based on the photoacoustic image.
  • a photoacoustic image generation method is provided.
  • a light-absorbing liquid is injected into the subject through a needle punctured in the subject, and is generated in the subject due to light emission after light is emitted to the subject.
  • Detect photoacoustic waves A photoacoustic image is generated based on a photoacoustic signal that is a detection signal of the detected photoacoustic wave, and an infiltration range image indicating the infiltration range of the liquid injected into the subject is generated based on the photoacoustic image. .
  • the infiltration range of the liquid injected into the subject can be visualized using the photoacoustic image. Doctors and others can check the infiltration range image to see how far the liquid that expands over time has infiltrated and whether the injected liquid has infiltrated to the desired location. Can be confirmed.
  • the block diagram which shows the photoacoustic image generation system of one Embodiment of this invention.
  • the flowchart which shows the operation
  • (A)-(d) is a figure which shows the photoacoustic image produced
  • (A)-(d) is a figure which shows the difference image of the photoacoustic image of the time before and behind.
  • (A)-(d) is a figure which shows the boundary extracted from the difference image.
  • (A)-(d) is a figure which shows the synthesized image which synthesize
  • FIG. 1 shows a photoacoustic image generation system according to an embodiment of the present invention.
  • the photoacoustic image generation system 10 includes an ultrasonic probe (probe) 11, an ultrasonic unit 12, and a laser light source unit 13.
  • an ultrasonic wave is used as an acoustic wave.
  • the ultrasonic wave is not limited to an ultrasonic wave, and is audible as long as an appropriate frequency is selected in accordance with an object to be examined and measurement conditions.
  • An acoustic wave having a frequency may be used.
  • the laser light source unit 13 is a light source that emits light that irradiates the subject.
  • the laser light source unit 13 is configured, for example, as a Q-switch solid state laser and emits pulsed laser light.
  • the pulsed laser light emitted from the laser light source unit 13 is guided to the probe 11 using light guide means such as an optical fiber, and is irradiated from the probe 11 toward the subject.
  • the irradiation position of the pulse laser beam is not particularly limited, and the pulse laser beam may be irradiated from a place other than the probe 11.
  • the subject is injected with a light-absorbing liquid through a needle punctured into the subject. After the liquid is injected into the subject, the subject is irradiated with pulsed laser light from the laser light source unit 13. In the subject, an ultrasonic wave (photoacoustic wave) is generated by absorbing the energy of the pulse laser beam irradiated by the light absorber.
  • an ultrasonic wave photoacoustic wave
  • the probe 11 detects acoustic waves generated from within the subject and transmits acoustic waves (ultrasound) to the subject.
  • the probe 11 has, for example, a plurality of ultrasonic detector elements (ultrasonic transducers) arranged one-dimensionally, and transmits ultrasonic waves from the ultrasonic transducers arranged one-dimensionally. Further, an acoustic wave generated from within the subject is detected by a one-dimensionally arranged ultrasonic transducer.
  • the acoustic wave detected by the probe 11 includes a photoacoustic wave generated in the subject due to light irradiation on the subject, and a reflected ultrasonic wave (reflected acoustic wave) for the ultrasonic wave transmitted toward the subject. including.
  • the transmission and detection of ultrasonic waves are not necessarily performed with a single probe, and the transmission and detection of ultrasonic waves may be separated and performed with separate probes.
  • the ultrasonic unit 12 includes a reception circuit 21, an AD conversion unit 22, a reception memory 23, a data separation unit 24, a photoacoustic image reconstruction unit 25, a detection / logarithm conversion unit 26, a photoacoustic image construction unit 27, and a difference image generation unit. 28, boundary detection means 29, ultrasonic image reconstruction means 30, detection / logarithm conversion means 31, ultrasonic image construction means 32, image composition means 33, trigger control circuit 35, transmission control circuit 36, and control means 37. .
  • the ultrasonic unit 12 constitutes a photoacoustic image generation apparatus.
  • the receiving circuit 21 receives a photoacoustic wave detection signal (photoacoustic signal) and a reflected ultrasonic detection signal (reflected ultrasonic signal) detected by the probe 11.
  • the AD conversion means 22 is a detection means, which samples the photoacoustic signal and the reflected ultrasonic signal received by the receiving circuit 21 and converts them into digital data.
  • the AD conversion means 22 samples the signal at a predetermined sampling period in synchronization with the AD clock signal.
  • the AD conversion means 22 stores the sampled photoacoustic signal and reflected ultrasonic signal in the reception memory 23.
  • the data separation means 24 separates the photoacoustic signal and the reflected ultrasonic signal.
  • the data separation unit 24 reads the photoacoustic signal from the reception memory 23 and passes it to the photoacoustic image reconstruction unit 25. Further, the data separation unit 24 reads the reflected ultrasonic signal from the reception memory 23 and transmits it to the ultrasonic image reconstruction unit 30.
  • the photoacoustic image reconstruction means 25 reconstructs the received photoacoustic signal by, for example, a delay addition method, and generates data for each line of the photoacoustic image.
  • the photoacoustic image reconstruction unit 25 adds data detected by, for example, 64 ultrasonic transducers of the probe 11 with a delay time corresponding to the position of the ultrasonic transducer, and generates data for one line.
  • the reconstruction method is not particularly limited, and image reconstruction may be performed by a Fourier transform method (FTA method).
  • FFA method Fourier transform method
  • the detection / logarithmic conversion means 26 generates an envelope of the reconstructed photoacoustic signal, and then logarithmically converts the envelope to widen the dynamic range.
  • the photoacoustic image construction unit 27 generates a photoacoustic image that is a distribution image of the light absorber based on the photoacoustic signal after the detection and logarithmic conversion processing.
  • the photoacoustic image reconstruction means 25, the detection / logarithm conversion means 26, and the photoacoustic image construction means 27 constitute a photoacoustic image generation means.
  • the difference image generation means 28 and the boundary detection means 29 constitute an infiltration range image generation means for generating an infiltration range image based on the photoacoustic image.
  • the infiltration range image generation means generates an infiltration range image based on changes over time of a plurality of photoacoustic images corresponding to a plurality of times after liquid injection. In particular, a difference image between a plurality of photoacoustic images is generated, and an infiltration range image is generated using the difference image.
  • the difference image generation means 28 generates a difference image between a plurality of photoacoustic images (photoacoustic signals after detection / logarithmic conversion processing) corresponding to a plurality of times after the liquid is injected into the subject.
  • the difference image generation unit 28 generates, for example, a difference image between a photoacoustic image at the current time (latest) and a photoacoustic image at a time before that.
  • the boundary detection unit 29 extracts a boundary between a portion where the photoacoustic wave is generated and a portion where the photoacoustic wave is not generated from the difference image, and an image indicating the extracted boundary is an infiltration range of the liquid injected into the subject. Generated as an infiltration range image.
  • the ultrasonic image reconstruction unit 30 reconstructs the reflected ultrasonic signal received from the data separation unit 24 using, for example, a delay addition method, and generates data of each line of the ultrasonic image (reflected acoustic wave image).
  • the ultrasonic image reconstruction unit 30 adds data detected by, for example, 64 ultrasonic transducers of the probe 11 with a delay time corresponding to the position of the ultrasonic transducer, and generates data for one line.
  • the reconstruction method is not particularly limited.
  • the detection / logarithm conversion means 31 obtains the envelope of the reconstructed reflected ultrasonic signal and logarithmically transforms the obtained envelope.
  • the ultrasonic image construction unit 32 generates an ultrasonic image based on the reflected ultrasonic signal that has been logarithmically transformed.
  • the ultrasonic image reconstruction means 30, the detection / logarithm conversion means 31, and the ultrasonic image construction means 32 are an ultrasonic image generation means (reflected acoustic wave image generation means) that generates an ultrasonic image based on the reflected ultrasonic waves. Constitute.
  • the image synthesis means 33 synthesizes the photoacoustic image, the ultrasonic image, and the infiltration range image.
  • the image composition means 33 performs image composition by superimposing, for example, a photoacoustic image, an ultrasonic image, and an infiltration range image. At that time, it is preferable that the image synthesizing unit 33 performs alignment so that the corresponding points of the images are at the same position.
  • the synthesized image is displayed on the image display means 14. Without performing image synthesis, the image display means 14 displays the photoacoustic image, the ultrasonic image, and the infiltration range image side by side, or alternatively displays the photoacoustic image, the ultrasonic image, and the infiltration range image. Also good.
  • the control means 37 controls each part in the ultrasonic unit 12.
  • the trigger control circuit 35 sends a flash lamp trigger signal and a Q switch trigger signal to the laser light source unit 13.
  • the laser light source unit 13 receives the flash lamp trigger signal, the laser lamp is turned on to excite the laser medium, and when the Q switch trigger signal is received, the Q switch is turned on to emit pulsed laser light.
  • the trigger control circuit 35 outputs a sampling trigger signal (AD trigger signal) to the AD conversion means 22 at the timing when the pulse laser beam is emitted.
  • the AD conversion unit 22 starts sampling of the photoacoustic signal based on the sampling trigger signal.
  • the trigger control circuit 35 sends an ultrasonic transmission trigger signal for instructing ultrasonic transmission to the transmission control circuit 36 when an ultrasonic image is generated.
  • the transmission control circuit 36 transmits an ultrasonic wave from the probe 11.
  • the trigger control circuit 35 sends a sampling trigger signal to the AD conversion means 22 in accordance with the timing of ultrasonic transmission.
  • the AD conversion means 22 starts sampling the reflected ultrasonic signal based on the sampling trigger signal.
  • FIG. 2 shows an image obtained by synthesizing an ultrasonic image and a photoacoustic image.
  • the shape of the tissue is visualized by the ultrasonic image, and the distribution of the light absorber is visualized by the photoacoustic image.
  • the photoacoustic image for example, a needle 40 or a blood vessel 41 punctured in the subject is imaged. Note that the infiltration range image need not be generated before the liquid is injected from the needle 40.
  • FIG. 3 shows a syringe used for liquid injection.
  • the anesthetic itself may not have light absorption.
  • a substance having a light absorption property may be mixed with the anesthetic.
  • the blood of the person who injects the anesthetic can be used.
  • the anesthetic (liquid) injected into the subject can have light absorption.
  • FIG. 4 shows an operation procedure of the photoacoustic image generation system 10.
  • a doctor or the like injects liquid into the subject through the needle (step S1).
  • the trigger control circuit 35 transmits ultrasonic waves from the probe 11 to the subject via the transmission control circuit 36 (step S2).
  • the probe 11 detects reflected ultrasonic waves with respect to the transmitted ultrasonic waves (step S3).
  • the detected reflected ultrasound is sampled by the AD conversion means 22 via the receiving circuit 21, and the reflected ultrasound signal is stored in the reception memory 23.
  • the data separation unit 24 reads the reflected ultrasonic signal from the reception memory 23 and transmits it to the ultrasonic image reconstruction unit 30.
  • the ultrasonic image reconstruction unit 30 generates data of each line of the ultrasonic image by, for example, a delay addition method.
  • the detection / logarithm conversion means 31 obtains the envelope of the data of each line output from the ultrasonic image reconstruction means 30 and logarithmically transforms the obtained envelope.
  • the ultrasonic image construction unit 32 generates an ultrasonic image based on the data of each line subjected to logarithmic transformation (step S4).
  • the trigger control circuit 35 sends a flash lamp trigger signal to the laser light source unit 13 and then sends a Q switch trigger signal.
  • the laser light source unit 13 turns on the flash lamp in response to the flash lamp trigger signal, turns on the Q switch in response to the Q switch trigger signal, and emits pulsed laser light (step S5).
  • a photoacoustic wave is generated by absorbing the energy of the pulsed laser light irradiated by the light absorber.
  • the probe 11 detects photoacoustic waves generated in the subject (step S6).
  • the detected photoacoustic wave is sampled by the AD conversion means 22 via the receiving circuit 21, and the photoacoustic signal is stored in the reception memory 23. It is also possible to divide the region of the subject irradiated with laser light into a plurality of partial regions, and perform light irradiation and photoacoustic signal detection for each partial region.
  • the data separation unit 24 reads the photoacoustic signal from the reception memory 23 and transmits it to the photoacoustic image reconstruction unit 25.
  • the photoacoustic image reconstruction unit 25 generates data of each line of the photoacoustic image by, for example, a delay addition method.
  • the detection / logarithm conversion means 26 obtains an envelope of the data of each line output from the ultrasonic image reconstruction means 30 and logarithmically converts the obtained envelope.
  • the photoacoustic image construction unit 27 generates a photoacoustic image based on the data of each line subjected to logarithmic transformation (step S7).
  • the detected photoacoustic wave includes a photoacoustic wave generated from a liquid having a light absorption property, and the generation position of the photoacoustic wave generated from the liquid injected into the subject is visualized by a photoacoustic image. it can.
  • the difference image generation means 28 generates a difference image between the photoacoustic image at the current time and the photoacoustic image at the previous time (step S8). Since the liquid injected into the subject spreads over time, a range in which the injected liquid has spread can be determined by generating a difference image.
  • the boundary detection means 29 extracts the boundary between the part where the photoacoustic wave exists and the part where it does not exist from the difference image (step S9). In step S9, the boundary detection means 29 extracts an outer boundary as viewed from the tip position of the needle.
  • the boundary detection means 29 generates an infiltration range image indicating the position of the extracted boundary (step S10).
  • the image synthesizing unit 33 synthesizes the ultrasonic image generated in step S4, the photoacoustic image generated in step S7, and the infiltration range image generated in step S10, and displays them on the image display unit 14 ( Step S11). It is only necessary that the infiltration range image is displayed at least on the image display means 14, and it is possible to omit display of one or both of the ultrasonic image and the photoacoustic image. That is, it is not always necessary to combine the three images of the ultrasonic image, the photoacoustic image, and the infiltration range image. The photoacoustic image and the infiltration range image may be combined. May be synthesized. Then, it returns to step S2. By repeatedly executing steps S2 to S11, the image can be displayed as a moving image.
  • the ultrasonic image and the photoacoustic image are generated after the liquid is injected, but the ultrasonic image and the photoacoustic image can be generated before the liquid is injected. In that case, step S8 to step S10 may be omitted, and generation of the infiltration range image may be omitted.
  • either the generation of the ultrasonic image or the generation of the photoacoustic image may be performed first.
  • the light irradiation is performed after the generation of the ultrasonic image. However, the light irradiation is performed following the detection of the reflected ultrasonic signal, and both the reflected ultrasonic signal and the photoacoustic signal are stored in the reception memory 23. After that, each image may be generated.
  • the ultrasonic image and the photoacoustic image are not necessarily generated at the same frame rate.
  • one photoacoustic image may be generated while a plurality of ultrasonic images are generated.
  • one difference image may be generated for generation of five photoacoustic images. In that case, the five photoacoustic images may be averaged and the difference between the photoacoustic images that have been averaged may be calculated.
  • the generation of the difference image is not limited to the detection and logarithmic conversion, and a difference image between the photoacoustic signals (photoacoustic image) reconstructed by the photoacoustic image reconstruction means 25 may be generated.
  • a difference image between the photoacoustic images generated by the photoacoustic image construction unit 27 may be generated.
  • FIGS. 5A to 5D show photoacoustic images generated after liquid injection.
  • the photoacoustic image changes with time as shown in FIGS. 5A, 5B, 5C, and 5D.
  • the photoacoustic image includes a needle 40, a blood vessel 41, and a liquid 42.
  • the position and size of the needle 40 and blood vessel 41 do not change, but the liquid 42 gradually spreads over time.
  • a liquid having a light absorption property can be imaged by the photoacoustic image, the photoacoustic signal generated from the liquid is weak, and it is difficult to understand the infiltration range of the liquid only by looking at the photoacoustic image.
  • FIG. 6A shows a difference image between the photoacoustic image shown in FIG. 5A and the photoacoustic image before liquid injection or just after liquid injection.
  • FIG. 6B shows a difference image between the photoacoustic image shown in FIG. 5B and the photoacoustic image shown in FIG. 5A
  • FIG. 6C shows the light shown in FIG.
  • FIG. 6 (d) shows a difference image between the acoustic image and the photoacoustic image shown in FIG. 5 (b)
  • FIG. 6 (d) shows the photoacoustic image shown in FIG. 5 (d) and the photoacoustic image shown in FIG. 5 (c).
  • a difference image is shown. By generating the difference image, a portion where the photoacoustic image has changed with respect to the previous time can be visualized.
  • a change portion 51 shown in FIGS. 6A to 6D represents a portion where the liquid has spread from the previous time. By tracking the photoacoustic signal generated from the liquid in time series, the spread of the liquid over time can be tracked.
  • FIGS. 7A to 7D show the boundaries extracted from the difference image.
  • the boundary detection unit 29 extracts a boundary between a portion where the photoacoustic signal exists and a portion where the photoacoustic signal does not exist (a portion where the signal does not exist in the difference image) in the difference images shown in FIGS.
  • the boundary to be extracted is an outer boundary when viewed from the tip position of the needle.
  • the boundary detection unit 29 generates the extracted boundary 52 as an infiltration range image indicating the liquid infiltration range.
  • FIGS. 8A to 8D show composite images obtained by combining an ultrasonic image, a photoacoustic image, and an infiltration range image.
  • the composite image displayed on the image display unit 14 changes as shown in FIG. 8A, FIG. 8B, FIG. 8C, and FIG.
  • the outline of the expanding liquid 42 (FIGS. 5A to 5D) is emphasized, and the infiltration range of the liquid injected into the subject can be easily confirmed.
  • the color of the infiltration range image may be different from at least one of the ultrasonic image and the photoacoustic image. Further, an image in which the inside of the boundary 52 is filled may be displayed.
  • the image in which the inside of the boundary 52 is filled is an image in which a color different from the ultrasonic image and the photoacoustic image is given to the inside of the boundary 52.
  • the color different from the ultrasonic image and the photoacoustic image is preferably translucent so that the position of the needle 40 can be confirmed.
  • light is irradiated after injecting a light-absorbing liquid into the subject, and photoacoustic waves generated in the subject are detected.
  • the detected photoacoustic wave includes a photoacoustic wave generated from the liquid injected into the subject.
  • a photoacoustic image is generated based on the detected photoacoustic wave, and an infiltration range image indicating the infiltration range of the liquid injected into the subject is generated based on the photoacoustic wave.
  • a doctor or the like can check how far the liquid in which the infiltration range expands with time has passed by looking at the infiltration range image. Thereby, the doctor or the like can proceed to the next treatment after confirming that the liquid such as the injected anesthetic has infiltrated to a desired location.
  • the infiltration range image is generated based on changes over time of a plurality of photoacoustic images corresponding to a plurality of times after the liquid is injected. If the influence of body movement is not taken into account, it is possible to track a photoacoustic signal generated from a liquid spreading in the subject after injection by taking a difference image. By extracting the boundary between the portion where the photoacoustic signal exists and the portion where the photoacoustic signal does not exist from such a difference image, the infiltration range of the liquid can be obtained. By superimposing the infiltration range image indicating the extracted boundary portion on the ultrasonic image or the photoacoustic image, the boundary is emphasized, and the confirmation of the infiltration range is facilitated. A doctor or the like can confirm, for example, whether the anesthetic has sufficiently infiltrated the nerve. In addition, when the image is displayed as a moving image, the liquid injection speed can be adjusted while observing the speed at which the infiltration range widens.
  • Fig. 9 shows the search range of the liquid.
  • the infiltration range image generation means sets the search range 60 within a predetermined range including the tip position of the needle punctured by the subject.
  • the tip position of the needle may be designated by a user such as a doctor, or may be automatically set by extracting the needle from the photoacoustic image.
  • the liquid search range 60 may be expanded with the passage of time from the liquid injection time.
  • the boundary detection unit 29 extracts a boundary with a portion that is not a portion where the photoacoustic wave is generated within the search range 60.
  • the boundary detection unit 29 generates an image indicating the extracted boundary as an infiltration range image. Also in this modified example, the inside of the boundary may be filled and displayed.
  • one of the blood vessels is included in the search range 60.
  • the photoacoustic wave generated from the blood vessel does not change over time, and this is a particular problem in image observation. Not.
  • the photoacoustic image generation apparatus and method of the present invention are not limited to the above embodiment, and various modifications can be made from the configuration of the above embodiment. Further, modifications and changes are also included in the scope of the present invention.
  • Photoacoustic image generation system 11 Probe 12: Ultrasonic unit 13: Laser light source unit 14: Image display means 21: Reception circuit 22: AD conversion means 23: Reception memory 24: Data separation means 25: Photoacoustic image reconstruction Means 26: Detection / logarithm conversion means 27: Photoacoustic image construction means 28: Difference image generation means 29: Boundary detection means 30: Ultrasound image reconstruction means 31: Detection / logarithm conversion means 32: Ultrasound image construction means 33: Image composition means 35: trigger control circuit 36: transmission control circuit 37: control means 40: needle 41: blood vessel 42: liquid 51: change portion 52: boundary 60: search range

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Acoustics & Sound (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

本発明は、光音響画像において、被検体に注入された液体の浸潤範囲を視覚化することを可能とする、光音響画像生成装置及び光音響画像生成方法を提供する。光吸収性を有する液体が被検体に穿刺された針を通して被検体内に注入され、かつ被検体に対して光が出射された後に、光出射に起因して被検体内で発生した光音響波を検出する。光音響画像生成手段は、検出された光音響波に基づいて光音響画像を生成する。浸潤範囲画像生成手段は、光音響画像に基づいて、液体の浸潤範囲を示す浸潤範囲画像を生成する。

Description

光音響画像生成装置及び方法
 本発明は、光照射に起因して生じた光音響波に基づいて光音響画像を生成する光音響画像生成装置及び方法に関する。
 生体内部の状態を非侵襲で検査できる画像検査法の一種として、超音波検査法が知られている。超音波検査では、超音波の送信及び受信が可能な超音波探触子を用いる。超音波探触子から被検体(生体)に超音波を送信させると、その超音波は生体内部を進んでいき、組織界面で反射する。超音波探触子でその反射音波を受信し、反射超音波が超音波探触子に戻ってくるまでの時間に基づいて距離を計算することで、内部の様子を画像化することができる。
 また、光音響効果を利用して生体の内部を画像化する光音響イメージングが知られている。一般に光音響イメージングでは、レーザパルスなどのパルスレーザ光を生体内に照射する。生体内部では、生体組織がパルスレーザ光のエネルギーを吸収し、そのエネルギーによる断熱膨張により超音波(光音響波)が発生する。この光音響波を超音波プローブなどで検出し、検出信号に基づいて光音響画像を構成することで、光音響波に基づく生体内の可視化が可能である。
 ここで、特許文献1には、光を吸収して光音響波を発生する造影剤を用いた光音響画像の生成が記載されている。造影剤には、インドシアニングリーン(ICG)や金ナノ微粒子などが用いられる。生体内への造影剤の導入後、光照射を行い、その光照射に起因して発生した光音響波を検出し、検出された光音響波に基づいて、被検体の吸収係数分布を表す光音響画像を生成する。特許文献1では、生体内に導入された造影剤集積場所及び濃度分布などを画像化することができる。生成された光音響画像は、悪性腫瘍の診断やアルツハイマー病や頚動脈プラークなどの診断に利用される。
国際公開第WO2010/024290号公報
 ところで、麻酔薬などの浸透性を有する液体を被検体に注入するときに、液体がどの範囲まで浸潤しているかを画像で確認できると、便利であると考えられる。医師などは、例えば麻酔薬が所望の範囲にまで浸潤したことを確認した後に、次の処置を開始することができる。しかしながら、これまで、光音響画像を用いて液体の浸潤範囲を画像化して提供することは行われていなかった。特許文献1では、生体内に導入された造影剤集積場所及び濃度分布を画像化しており、特許文献1は注入された液体の広がりを視覚的に提供するものではない。
 本発明は、上記に鑑み、光音響画像を用いて被検体に注入された液体の浸潤範囲を視覚化できる光音響画像生成装置及び方法を提供することを目的とする。
 上記目的を達成するために、本発明は、光吸収性を有する液体が被検体に穿刺された針を通して被検体内に注入されかつ被検体に対して光が出射された後にその光出射に起因して被検体内で発生した光音響波の検出信号である光音響信号に基づいて光音響画像を生成する光音響画像生成手段と、光音響画像に基づいて、注入された液体の浸潤範囲を示す浸潤範囲画像を生成する浸潤範囲画像生成手段とを備えたことを特徴とする光音響画像生成装置を提供する。
 本発明では、浸潤範囲画像生成手段が、液体の注入後の複数の時刻に対応した複数の光音響画像の経時的な変化に基づいて浸潤範囲画像を生成することが好ましい。
 上記において、浸潤範囲画像生成手段が、複数の光音響画像間の差分画像を生成してもよい。この場合、浸潤範囲画像生成手段が、差分画像から、光音響波が発生した部分と発生していない部分との境界を抽出し、抽出した境界を示す画像を浸潤範囲画像として生成してもよい。
 上記に代えて、浸潤範囲画像生成手段は、被検体に注入された針の先端位置を含む範囲で光音響波が発生した部分を検索し、光音響波が発生した部分と発生していない部分との境界を示す画像を浸潤範囲画像として生成してもよい。
 浸潤範囲画像生成手段が、抽出した境界の内部を塗りつぶした画像を生成してもよい。
 本発明の光音響画像生成装置では、光音響画像と浸潤範囲画像とを合成し、表示画面上に表示させる画像合成手段を更に備える構成を採用できる。
 被検体に向けて送信された音響波に対する反射音響波に基づいて反射音響波画像を生成する反射音響波画像生成手段を更に備える構成とし、画像合成手段が、光音響画像に代えて、又は光音響画像に加えて、反射音響波画像を浸潤範囲画像に合成してもよい。
 画像合成手段は、浸潤範囲画像に、超音波画像及び前記光音響画像の少なくとも一方とは異なる色を割り当てて画像合成を行ってもよい。
 液体が麻酔薬を含んでいてもよい。
 浸潤範囲画像生成手段は、針の先端位置から見て外側の境界を抽出して浸潤範囲画像として生成してもよい。
 浸潤範囲画像生成手段が検索する範囲は、液体の注入時刻からの時間経過と共に拡大してもよい。
 本発明は、また、光吸収性を有する液体が被検体に穿刺された針を通して被検体内に注入されかつ被検体に対して光が出射された後に光出射に起因して被検体内で発生した光音響波の検出信号である光音響信号に基づいて光音響画像を生成するステップと、光音響画像に基づいて、液体の浸潤範囲を示す浸潤範囲画像を生成するステップとを有することを特徴とする光音響画像生成方法を提供する。
 本発明では、光吸収性を有する液体が被検体に穿刺された針を通して被検体内に注入され、かつ被検体に対して光が出射された後に光出射に起因して被検体内で発生した光音響波を検出する。検出された光音響波の検出信号である光音響信号に基づいて光音響画像を生成し、光音響画像に基づいて、被検体内に注入された液体の浸潤範囲を示す浸潤範囲画像を生成する。これにより、光音響画像を用いて被検体に注入された液体の浸潤範囲を視覚化することができる。医師などは、浸潤範囲画像を観察することで、時間経過と共に浸潤範囲が広がっていく液体がどこまで浸潤したかを確認することができ、注入された液体が所望の箇所まで浸潤したか否かを確認することができる。
本発明の一実施形態の光音響画像生成システムを示すブロック図。 超音波画像と光音響画像の合成画像を示す図。 液体の注入に使用される注射器を示す図。 光音響画像生成システムの動作手順を示すフローチャート。 (a)~(d)は、液体の注入後に生成される光音響画像を示す図。 (a)~(d)は、前後の時刻の光音響画像の差分画像を示す図。 (a)~(d)は、差分画像から抽出された境界を示す図。 (a)~(d)は、超音波画像と光音響画像と浸潤範囲画像とを合成した合成画像を示す図。 光音響画像における液体の探索範囲を示す図。
 以下、図面を参照し、本発明の実施の形態を詳細に説明する。図1は、本発明の一実施形態の光音響画像生成システムを示す。光音響画像生成システム10は、超音波探触子(プローブ)11と、超音波ユニット12と、レーザ光源ユニット13とを備える。なお、本発明の実施形態では、音響波として超音波を用いるが、超音波に限定されるものでは無く、被検対象や測定条件等に応じて適切な周波数を選択してさえいれば、可聴周波数の音響波を用いても良い。
 レーザ光源ユニット13は、被検体に照射する光を出射する光源である。レーザ光源ユニット13は、例えばQスイッチ固体レーザとして構成され、パルスレーザ光を出射する。レーザ光源ユニット13から出射したパルスレーザ光は、例えば光ファイバなどの導光手段を用いてプローブ11まで導光され、プローブ11から被検体に向けて照射される。パルスレーザ光の照射位置は特に限定されず、プローブ11以外の場所からパルスレーザ光の照射を行ってもよい。
 被検体には、被検体に穿刺された針を通して、光吸収性を有する液体が注入される。被検体に対する液体の注入後、レーザ光源ユニット13からのパルスレーザ光が被検体に照射される。被検体内では、光吸収体が照射されたパルスレーザ光のエネルギーを吸収することで超音波(光音響波)が生じる。
 プローブ11は、被検体内から発生する音響波の検出、及び、被検体への音響波(超音波)の送信を行う。プローブ11は、例えば一次元的に配列された複数の超音波検出器素子(超音波振動子)を有し、その一次元配列された超音波振動子から超音波を送信する。また、一次元配列された超音波振動子により、被検体内から発生する音響波を検出する。プローブ11が検出する音響波は、被検体への光照射に起因して被検体内で発生した光音響波と、被検体に向けて送信された超音波に対する反射超音波(反射音響波)とを含む。超音波の送信と検出とは、必ずしも単一のプローブで行われる必要はなく、超音波の送信と検出とを分離し、別個のプローブで行うこととしてもよい。
 超音波ユニット12は、受信回路21、AD変換手段22、受信メモリ23、データ分離手段24、光音響画像再構成手段25、検波・対数変換手段26、光音響画像構築手段27、差分画像生成手段28、境界検出手段29、超音波画像再構成手段30、検波・対数変換手段31、超音波画像構築手段32、画像合成手段33、トリガ制御回路35、送信制御回路36、及び制御手段37を有する。超音波ユニット12は、光音響画像生成装置を構成する。
 受信回路21は、プローブ11が検出した光音響波の検出信号(光音響信号)及び反射超音波の検出信号(反射超音波信号)を受信する。AD変換手段22は検出手段であり、受信回路21が受信した光音響信号及び反射超音波信号をサンプリングし、デジタルデータに変換する。AD変換手段22は、ADクロック信号に同期して、所定のサンプリング周期で信号のサンプリングを行う。AD変換手段22は、サンプリングした光音響信号及び反射超音波信号を受信メモリ23に格納する。
 データ分離手段24は、光音響信号と反射超音波信号とを分離する。データ分離手段24は、受信メモリ23から光音響信号を読み出し、光音響画像再構成手段25に渡す。また、データ分離手段24は、受信メモリ23から反射超音波信号を読み出し、超音波画像再構成手段30に送信する。
 光音響画像再構成手段25は、受け取った光音響信号を例えば遅延加算法により再構成し、光音響画像の各ラインのデータを生成する。光音響画像再構成手段25は、例えばプローブ11の64個の超音波振動子によって検出したデータを、超音波振動子の位置に応じた遅延時間で加算し、1ライン分のデータを生成する。再構成の手法は特に問わず、フーリエ変換法(FTA法)により画像再構成を行うこととしてもよい。再構成された光音響信号は光音響画像とみなすことができる。
 検波・対数変換手段26は、再構成された光音響信号の包絡線を生成し、次いでその包絡線を対数変換してダイナミックレンジを広げる。光音響画像構築手段27は、検波・対数変換処理後の光音響信号に基づいて、光吸収体の分布画像である光音響画像を生成する。光音響画像再構成手段25、検波・対数変換手段26、及び光音響画像構築手段27は、光音響画像生成手段を構成する。
 差分画像生成手段28及び境界検出手段29は、光音響画像に基づいて浸潤範囲画像を生成する浸潤範囲画像生成手段を構成する。本実施形態では、浸潤範囲画像生成手段は、液体の注入後の複数の時刻に対応した複数の光音響画像の経時的な変化に基づいて浸潤範囲画像を生成する。特に、複数の光音響画像間の差分画像を生成し、差分画像を用いて浸潤範囲画像を生成する。
 差分画像生成手段28は、被検体への液体の注入後の複数の時刻に対応した複数の光音響画像(検波・対数変換処理後の光音響信号)の間の差分画像を生成する。差分画像生成手段28は、例えば現時刻(最新)の光音響画像とそれよりも1つ前の時刻の光音響画像との差分画像を生成する。境界検出手段29は、差分画像から、光音響波が発生した部分と発生していない部分との境界を抽出し、抽出した境界を示す画像を、被検体に注入された液体の浸潤範囲を示す浸潤範囲画像として生成する。
 超音波画像再構成手段30は、データ分離手段24から受け取った反射超音波信号を例えば遅延加算法を用いて再構成し、超音波画像(反射音響波画像)の各ラインのデータを生成する。超音波画像再構成手段30は、例えばプローブ11の64個の超音波振動子によって検出したデータを、超音波振動子の位置に応じた遅延時間で加算し、1ライン分のデータを生成する。反射超音波信号についても、再構成の手法は特に問わない。
 検波・対数変換手段31は、再構成された反射超音波信号の包絡線を求め、求めた包絡線を対数変換する。超音波画像構築手段32は、対数変換が施された反射超音波信号に基づいて、超音波画像を生成する。超音波画像再構成手段30、検波・対数変換手段31、及び超音波画像構築手段32は、反射超音波に基づいて超音波画像を生成する超音波画像生成手段(反射音響波画像生成手段)を構成する。
 画像合成手段33は、光音響画像と超音波画像と浸潤範囲画像とを合成する。画像合成手段33は、例えば光音響画像と超音波画像と浸潤範囲画像とを重畳することで画像合成を行う。その際、画像合成手段33は、各画像の対応点が同一の位置となるように位置合わせをすることが好ましい。合成された画像は、画像表示手段14に表示される。画像合成を行わずに、画像表示手段14に、光音響画像と超音波画像と浸潤範囲画像を並べて表示し、或いは光音響画像と超音波画像と浸潤範囲画像とを切り替えて表示するようにしてもよい。
 制御手段37は、超音波ユニット12内の各部の制御を行う。トリガ制御回路35は、レーザ光源ユニット13に対して、フラッシュランプトリガ信号及びQスイッチトリガ信号を送る。レーザ光源ユニット13は、フラッシュランプトリガ信号を受けるとフラッシュランプを点灯してレーザ媒質を励起し、Qスイッチトリガ信号を受けるとQスイッチをオンにしてパルスレーザ光を出射する。また、トリガ制御回路35は、パルスレーザ光が出射するタイミングでAD変換手段22にサンプリングトリガ信号(ADトリガ信号)を出力する。AD変換手段22は、サンプリングトリガ信号に基づいて光音響信号のサンプリングを開始する。
 トリガ制御回路35は、超音波画像の生成時は、送信制御回路36に超音波送信を指示する旨の超音波送信トリガ信号を送る。送信制御回路36は、トリガ信号を受けると、プローブ11から超音波を送信させる。トリガ制御回路35は、超音波送信のタイミングに合わせてAD変換手段22にサンプリングトリガ信号を送る。AD変換手段22は、サンプリングトリガ信号に基づいて反射超音波信号のサンプリングを開始する。
 図2は、超音波画像と光音響画像とを合成した画像を示す。超音波画像により組織の形状が視覚化され、光音響画像により光吸収体の分布が視覚化される。光音響画像では、例えば被検体内に穿刺された針40や、血管41などが画像化される。なお、針40から液体が注入される前は、浸潤範囲画像は生成しなくてよい。
 図3は、液体の注入に使用される注射器を示す。例えば被検体に注入される液体が麻酔薬である場合、麻酔薬それ自体は光吸収性を有していない場合もある。そのような場合は、麻酔薬に光吸収性を有する物質を混合すればよい。麻酔薬に混合する光吸収性を有する物質としては、麻酔薬を注射する本人の血液を用いることができる。例えば図3に示すような注射器を用い、点線で示す目盛り位置まで自己血を採取しておく。その後、麻酔薬を混合することで、被検体に注入される麻酔薬(液体)に光吸収性を持たせることができる。
 図4は、光音響画像生成システム10の動作手順を示す。医師などにより、被検体内に針を通して液体が注入される(ステップS1)。トリガ制御回路35は、送信制御回路36を介してプローブ11から被検体に超音波を送信させる(ステップS2)。プローブ11は、送信した超音波に対する反射超音波を検出する(ステップS3)。検出された反射超音波は、受信回路21を経てAD変換手段22でサンプリングされ、反射超音波信号が受信メモリ23に格納される。
 データ分離手段24は、受信メモリ23から反射超音波信号を読み出し、超音波画像再構成手段30に送信する。超音波画像再構成手段30は、例えば遅延加算法により、超音波画像の各ラインのデータを生成する。検波・対数変換手段31は、超音波画像再構成手段30が出力する各ラインのデータの包絡線を求め、求めた包絡線を対数変換する。超音波画像構築手段32は、対数変換が施された各ラインのデータに基づいて、超音波画像を生成する(ステップS4)。
 トリガ制御回路35は、レーザ光源ユニット13にフラッシュランプトリガ信号を送り、次いで、Qスイッチトリガ信号を送る。レーザ光源ユニット13は、フラッシュランプトリガ信号に応答してフラッシュランプを点灯し、Qスイッチトリガ信号に応答してQスイッチをオンにし、パルスレーザ光を出射する(ステップS5)。被検体内では、光吸収体が照射されたパルスレーザ光のエネルギーを吸収することで、光音響波が発生する。プローブ11は、被検体内で発生した光音響波を検出する(ステップS6)。検出された光音響波は、受信回路21を経てAD変換手段22でサンプリングされ、光音響信号が受信メモリ23に格納される。被検体のレーザ光が照射される領域を複数の部分領域に分割し、部分領域ごとに光照射と光音響信号の検出とを行うこととしてもよい。
 データ分離手段24は、受信メモリ23から光音響信号を読み出し、光音響画像再構成手段25に送信する。光音響画像再構成手段25は、例えば遅延加算法により、光音響画像の各ラインのデータを生成する。検波・対数変換手段26は、超音波画像再構成手段30が出力する各ラインのデータの包絡線を求め、求めた包絡線を対数変換する。光音響画像構築手段27は、対数変換が施された各ラインのデータに基づいて、光音響画像を生成する(ステップS7)。検出された光音響波には、光吸収性を有する液体から発生した光音響波が含まれており、光音響画像により被検体に注入された液体から発生した光音響波の発生位置が視覚化できる。
 差分画像生成手段28は、今回の時刻の光音響画像と前の時刻の光音響画像との差分画像を生成する(ステップS8)。被検体内に注入された液体は時間経過と共に広がっていくため、差分画像を生成することで、注入された液体が広がった範囲を判別可能となる。境界検出手段29は、差分画像から、光音響波が存在する部分と存在しない部分との境界を抽出する(ステップS9)。境界検出手段29は、ステップS9では、針の先端位置から見て外側の境界を抽出する。境界検出手段29は、抽出した境界の位置を示す浸潤範囲画像を生成する(ステップS10)。
 画像合成手段33は、ステップS4で生成された超音波画像と、ステップS7で生成された光音響画像と、ステップS10で生成された浸潤範囲画像とを合成し、画像表示手段14に表示する(ステップS11)。画像表示手段14には、最低限浸潤範囲画像が表示されればよく、超音波画像と光音響画像の何れか一方又は双方の表示を省略することも可能である。すなわち、必ずしも超音波画像、光音響画像、及び浸潤範囲画像の3つの画像を合成する必要はなく、光音響画像と浸潤範囲画像とを合成してもよいし、超音波画像と浸潤範囲画像とを合成してもよい。その後、ステップS2に戻る。ステップS2~S11を繰り返し実行することで、画像を動画的に表示することができる。
 なお、図4に示すフローチャートでは、液体の注入後に超音波画像及び光音響画像を生成しているが、液体の注入前に超音波画像及び光音響画像を生成することも可能である。その場合、ステップS8からステップS10を省略し、浸潤範囲画像の生成を省略してもよい。また、超音波画像の生成と光音響画像の生成は、どちらが先でもよい。図4では、超音波画像の生成後に光照射を行うこととしているが、反射超音波信号の検出に続けて光照射を行い、反射超音波信号及び光音響信号の双方が受信メモリ23に格納された後に各画像を生成するようにしてもよい。
 超音波画像と光音響画像とは、必ずしも同一のフレームレートで生成する必要はなく、例えば複数の超音波画像を生成する間に1枚の光音響画像を生成するようにしてもよい。また、光音響画像を生成するたびに差分画像を生成する必要はなく、例えば5枚の光音響画像の生成に対して1つの差分画像が生成されるようにしてもよい。その場合、5枚の光音響画像を加算平均し、加算平均された光音響画像間の差分を取るようにしてもよい。差分画像の生成は、検波・対数変換の後に限定されるものではなく、光音響画像再構成手段25で再構成された光音響信号(光音響画像)間の差分画像を生成してもよいし、光音響画像構築手段27で生成された光音響画像間の差分画像を生成してもよい。
 図5(a)~(d)は、液体の注入後に生成される光音響画像を示す。光音響画像は、時間経過につれて、図5(a)、図5(b)、図5(c)、図5(d)に示すように変化していく。光音響画像には、針40、血管41、及び液体42が含まれる。光音響画像では、針40や血管41の位置や大きさなどは変化しないが、液体42は、時間経過と共に徐々に広がっていく。光音響画像により光吸収性を有する液体を画像化できるものの、液体から発生する光音響信号は弱く、光音響画像を見るだけでは液体の浸潤範囲はわかりにくい。
 図6(a)~(d)は、前後の時刻の光音響画像の差分画像を示す。図6(a)は、図5(a)に示す光音響画像と、液体注入前又は液体注入直後の光音響画像との差分画像を示す。図6(b)は、図5(b)に示す光音響画像と図5(a)に示す光音響画像との差分画像を示し、図6(c)は、図5(c)に示す光音響画像と図5(b)に示す光音響画像との差分画像を示し、図6(d)は、図5(d)に示す光音響画像と図5(c)に示す光音響画像との差分画像を示す。差分画像を生成することで、前の時刻に対して光音響画像が変化した部分が視覚化できる。図6(a)~(d)に示す変化部分51は、前の時刻から液体が広がった部分を表す。液体から発生した光音響信号を時系列で追うことで、時間経過に伴う液体の広がりを追跡できる。
 図7(a)~(d)は、差分画像から抽出された境界を示す。境界検出手段29は、図6(a)~(d)に示す差分画像において、光音響信号が存在する部分としない部分(差分画像において信号がある部分とない部分)との境界を抽出する。抽出する境界は、針の先端位置から見て外側の境界である。境界検出手段29は、抽出した境界52を、液体の浸潤範囲を示す浸潤範囲画像として生成する。
 図8(a)~(d)は、超音波画像と光音響画像と浸潤範囲画像とを合成した合成画像を示す。例えば画像表示手段14に表示される合成画像は、時間経過と共に、図8(a)、図8(b)、図8(c)、図8(d)と変化する。境界52が重ねられることで、広がっていく液体42(図5(a)~(d))の輪郭が強調され、被検体に注入された液体の浸潤範囲の確認が容易となる。合成画像を生成する際には、浸潤範囲画像の色を、超音波画像及び光音響画像の少なくとも一方とは異なる色にするとよい。また、境界52の内部を塗りつぶした画像を表示してもよい。ここで、境界52の内部を塗りつぶした画像とは、境界52の内部に、超音波画像および光音響画像とは異なる色を付した画像をいう。なお、超音波画像および光音響画像とは異なる色は、針40の位置を確認可能とするために半透明であることが望ましい。
 本実施形態では、光吸収性を有する液体を被検体に注入した後に光照射を行い、被検体内で発生した光音響波を検出する。検出される光音響波には、被検体に注入された液体から発生した光音響波が含まれる。検出された光音響波に基づいて光音響画像を生成し、その光音響波に基づいて、被検体に注入された液体の浸潤範囲を示す浸潤範囲画像を生成する。医師などは、浸潤範囲画像を見ることで、時間経過と共に浸潤範囲が広がっていく液体がどこまで広がったかを確認することができる。これにより、医師などは、注入された麻酔薬などの液体が所望の箇所まで浸潤したことを確認した後に、次の処置へ移行することができる。
 本実施形態では、液体の注入後の複数の時刻に対応した複数の光音響画像の経時的な変化に基づいて浸潤範囲画像を生成している。体動の影響を考慮しなければ、差分画像を取ることで、注入後に被検体内で広がっていく液体から発生する光音響信号が追跡可能となる。そのような差分画像から、光音響信号が存在する部分としない部分との境界を抽出することで、液体の浸潤範囲を求めることができる。抽出された境界部分を示す浸潤範囲画像を超音波画像や光音響画像に重ねることで、上記の境界が強調され、浸潤範囲の確認が容易となる。医師などは、例えば麻酔薬が神経の位置まで十分に浸潤したかを確認することができる。また、画像を動画的に表示する場合は、浸潤範囲が広がる速度を見ながら、液体の注入速度を調整することができる。
 次いで、本発明の変形例について説明する。上記実施形態では、光音響画像の時系列的な変化に基づいて浸潤範囲画像を生成する態様を説明した。これに代えて、被検体内に穿刺された針の先端位置を含む範囲で光音響波が発生した部分を検索し、光音響波が発生した部分と発生していない部分との境界を示す画像を浸潤範囲画像として生成してもよい。この場合、差分画像生成手段28は省略可能である。
 図9に、液体の探索範囲を示す。浸潤範囲画像生成手段(境界検出手段29)は、被検体に穿刺された針の先端位置を含む所定の範囲で探索範囲60を設定する。針の先端位置は、医師などのユーザが指定してもよいし、光音響画像から針を抽出して自動的に設定してもよい。液体の探索範囲60は、液体の注入時刻からの時間経過と共に拡大するようにしてもよい。境界検出手段29は、探索範囲60内で、光音響波が発生している部分としていない部分との境界を抽出する。境界検出手段29は、抽出した境界を示す画像を浸潤範囲画像として生成する。この変形例においても、境界の内部を塗りつぶして表示してもよい。なお、この例では、血管のうちの1つが探索範囲60に含まれているが、血管から発生する光音響波は、時間が経過してもその発生範囲が変化しないため、画像観察において特に問題とならない。
 以上、本発明をその好適な実施形態に基づいて説明したが、本発明の光音響画像生成装置及び方法は、上記実施形態にのみ限定されるものではなく、上記実施形態の構成から種々の修正及び変更を施したものも、本発明の範囲に含まれる。
10:光音響画像生成システム
11:プローブ
12:超音波ユニット
13:レーザ光源ユニット
14:画像表示手段
21:受信回路
22:AD変換手段
23:受信メモリ
24:データ分離手段
25:光音響画像再構成手段
26:検波・対数変換手段
27:光音響画像構築手段
28:差分画像生成手段
29:境界検出手段
30:超音波画像再構成手段
31:検波・対数変換手段
32:超音波画像構築手段
33:画像合成手段
35:トリガ制御回路
36:送信制御回路
37:制御手段
40:針
41:血管
42:液体
51:変化部分
52:境界
60:探索範囲

Claims (13)

  1.  光吸収性を有する液体が被検体に穿刺された針を通して被検体内に注入されかつ被検体に対して光が出射された後に該光出射に起因して被検体内で発生した光音響波の検出信号である光音響信号に基づいて光音響画像を生成する光音響画像生成手段と、
     前記光音響画像に基づいて、前記液体の浸潤範囲を示す浸潤範囲画像を生成する浸潤範囲画像生成手段とを備えたことを特徴とする光音響画像生成装置。
  2.  前記浸潤範囲画像生成手段が、前記液体の注入後の複数の時刻に対応した複数の光音響画像の経時的な変化に基づいて前記浸潤範囲画像を生成する請求項1に記載の光音響画像生成装置。
  3.  前記浸潤範囲画像生成手段が、前記複数の光音響画像間の差分画像を生成する請求項2に記載の光音響画像生成装置。
  4.  前記浸潤範囲画像生成手段が、前記差分画像から、光音響波が発生した部分と発生していない部分との境界を抽出し、該抽出した境界を示す画像を前記浸潤範囲画像として生成する請求項3に記載の光音響画像生成装置。
  5.  前記浸潤範囲画像生成手段が、前記光音響画像から、前記針の先端位置を含む範囲で前記光音響波が発生した部分を検索し、前記光音響波が発生した部分と発生していない部分との境界を示す画像を前記浸潤範囲画像として生成する請求項1に記載の光音響画像生成装置。
  6.  前記浸潤範囲画像生成手段が、前記境界の内部を塗りつぶした画像を生成する請求項4又は5に記載の光音響画像生成装置。
  7.  前記光音響画像と前記浸潤範囲画像とを合成し、表示画面上に表示させる画像合成手段を更に備えた請求項1から6何れか1項に記載の光音響画像生成装置。
  8.  被検体に向けて送信された音響波に対する反射音響波に基づいて反射音響波画像を生成する反射音響波画像生成手段を更に備え、
     前記画像合成手段が、前記光音響画像に代えて、又は前記光音響画像に加えて、前記反射音響波画像を前記浸潤範囲画像に合成する請求項7に記載の光音響画像生成装置。
  9.  前記画像合成手段が、前記浸潤範囲画像に、前記超音波画像及び前記光音響画像の少なくとも一方とは異なる色を割り当てて画像合成を行う請求項8に記載の光音響画像生成装置。
  10.  前記液体が麻酔薬を含む請求項1から9何れか1項に記載の光音響画像生成装置。
  11.  前記浸潤範囲画像生成手段は、前記針の先端位置から見て外側の境界を抽出して前記浸潤範囲画像を生成する請求項4に記載の光音響画像生成装置。
  12.  前記浸潤範囲画像生成手段が検索する範囲は、液体の注入時刻からの時間経過と共に拡大する請求項5に記載の光音響画像生成装置。
  13.  光吸収性を有する液体が被検体に穿刺された針を通して被検体内に注入されかつ被検体に対して光が出射された後に該光出射に起因して被検体内で発生した光音響波の検出信号である光音響信号に基づいて光音響画像を生成するステップと、
     前記光音響画像に基づいて、前記液体の浸潤範囲を示す浸潤範囲画像を生成するステップとを有することを特徴とする光音響画像生成方法。
PCT/JP2014/050472 2013-02-15 2014-01-14 光音響画像生成装置及び方法 WO2014125853A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013027815A JP2014155596A (ja) 2013-02-15 2013-02-15 光音響画像生成装置及び方法
JP2013-027815 2013-02-15

Publications (1)

Publication Number Publication Date
WO2014125853A1 true WO2014125853A1 (ja) 2014-08-21

Family

ID=51353864

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/050472 WO2014125853A1 (ja) 2013-02-15 2014-01-14 光音響画像生成装置及び方法

Country Status (2)

Country Link
JP (1) JP2014155596A (ja)
WO (1) WO2014125853A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016042641A1 (ja) * 2014-09-18 2016-03-24 オリンパス株式会社 浸透性薬液投与システム及び浸透性薬液投与方法
EP3011897A1 (en) * 2014-10-21 2016-04-27 PreXion Corporation Photoacoustic imager and photoacoustic imaging method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101621622B1 (ko) 2014-09-24 2016-05-17 한국표준과학연구원 항문 농양 배농 수술시 초음파 이미지를 이용한 치루내관 분석시스템
WO2016051738A1 (ja) * 2014-09-29 2016-04-07 富士フイルム株式会社 光音響画像生成装置
JP6643108B2 (ja) * 2016-01-26 2020-02-12 キヤノン株式会社 被検体情報取得装置および被検体情報取得方法
WO2017138086A1 (ja) * 2016-02-09 2017-08-17 本多電子株式会社 超音波画像表示装置及び方法、並びにプログラムを格納した記録媒体

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AKIRA SATO ET AL.: "Analysis of Swelling and Homogenization Process of Bentonite by X-ray CT Method", JOURNAL OF MMIJ, vol. 128, no. 2, 2012, pages 86 - 93 *
DAISUKE FUKAHORI ET AL.: "Application of X-ray CT Method to Permeability Tests of Rock under Low Pressure Condition", JOURNAL OF MMIJ, vol. 126, no. 7, 2010, pages 401 - 407 *
GENTARO TAKAHASHI ET AL.: "Psoas compartment block ni yoru Tanshinkei Block-ho", PAIN CLINIC, vol. 28, no. 9, September 2007 (2007-09-01), pages 1240 - 1245 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016042641A1 (ja) * 2014-09-18 2016-03-24 オリンパス株式会社 浸透性薬液投与システム及び浸透性薬液投与方法
EP3011897A1 (en) * 2014-10-21 2016-04-27 PreXion Corporation Photoacoustic imager and photoacoustic imaging method
JP2016077712A (ja) * 2014-10-21 2016-05-16 プレキシオン株式会社 光音響画像化装置および光音響画像化方法

Also Published As

Publication number Publication date
JP2014155596A (ja) 2014-08-28

Similar Documents

Publication Publication Date Title
WO2014125853A1 (ja) 光音響画像生成装置及び方法
JP5840069B2 (ja) 光音響画像生成装置、システム、及び方法
CN103908294B (zh) 对象信息获取装置
JP5762995B2 (ja) 光音響画像生成装置及び方法
JP6041832B2 (ja) 光音響画像生成装置及びその作動方法
JP5655021B2 (ja) 光音響画像化方法および装置
WO2012169178A1 (ja) 光音響画像生成装置及び方法
TWI405560B (zh) 鈣化點成像方法及系統
JP6071260B2 (ja) 被検体情報取得装置および情報処理方法
JP2012187389A (ja) 光音響画像生成装置、及び方法
JP5647583B2 (ja) 光音響分析装置および光音響分析方法
CN106470614A (zh) 光声图像生成装置及插入件
CN105934203A (zh) 光声信号处理装置、光声信号处理系统及光声信号处理方法
KR20080108918A (ko) 초음파와 광의 상호 작용을 이용하여 피검체의 내부 정보를얻는 의료 기구
JP6177530B2 (ja) ドプラ計測装置およびドプラ計測方法
JP2019093140A (ja) 光超音波診断装置、医用画像処理装置、医用画像処理プログラム、及び超音波診断装置
JP2012231878A (ja) 光音響画像化方法および装置
JP5936559B2 (ja) 光音響画像生成装置および光音響画像生成方法
US20180368696A1 (en) Object information acquiring apparatus and object information acquiring method
JP6328778B2 (ja) 光音響画像生成装置の作動方法および光音響画像生成装置
JP5839688B2 (ja) 光音響画像処理装置、及び方法
JP6066230B2 (ja) 光音響画像生成装置およびその作動方法
JP5946230B2 (ja) 光音響画像化方法および装置
JP2017164222A (ja) 処理装置および処理方法
JP2018196789A (ja) 被検体情報取得装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14752222

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14752222

Country of ref document: EP

Kind code of ref document: A1