WO2020158301A1 - 超音波撮像装置、治療支援システム、及び、画像処理方法 - Google Patents

超音波撮像装置、治療支援システム、及び、画像処理方法 Download PDF

Info

Publication number
WO2020158301A1
WO2020158301A1 PCT/JP2020/000128 JP2020000128W WO2020158301A1 WO 2020158301 A1 WO2020158301 A1 WO 2020158301A1 JP 2020000128 W JP2020000128 W JP 2020000128W WO 2020158301 A1 WO2020158301 A1 WO 2020158301A1
Authority
WO
WIPO (PCT)
Prior art keywords
ultrasonic
signal
generation source
image
unit
Prior art date
Application number
PCT/JP2020/000128
Other languages
English (en)
French (fr)
Inventor
田中 智彦
亮 今井
美咲 広島
川畑 健一
栗原 浩
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to US17/416,707 priority Critical patent/US12036068B2/en
Priority to CN202080005549.3A priority patent/CN112822985B/zh
Publication of WO2020158301A1 publication Critical patent/WO2020158301A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4209Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames
    • A61B8/4218Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames characterised by articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • A61B8/445Details of catheter construction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • A61B8/4494Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer characterised by the arrangement of the transducer elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • A61B2090/3788Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument transmitter only
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3925Markers, e.g. radio-opaque or breast lesions markers ultrasonic
    • A61B2090/3929Active markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography

Definitions

  • the present invention relates to a technique of assisting using an ultrasonic imaging device when inserting a guide wire equipped with an ultrasonic wave generation source such as photoacoustic into the body.
  • ⁇ Catheter treatment is widely used mainly for the treatment of vascular stenosis, etc., because it is a surgical method that places less burden on the patient compared to surgery such as thoracotomy.
  • catheter treatment it is important to understand the relationship between the region to be treated and the catheter, and fluoroscopy is used as an imaging method that supports this.
  • ultrasonic image it is not easy to visualize the tip of the guide wire with ultrasonic waves, and it has not become widespread.
  • the photoacoustic technology that generates a photoacoustic signal from the tip of the needle is mounted on the puncture needle, and the position of the tip of the needle is detected by detecting the photoacoustic signal with the ultrasonic probe of the ultrasonic imaging device.
  • Techniques for detecting the are also proposed (Patent Documents 1 and 2).
  • Patent Document 1 laser light is emitted from a pulse laser generation source to a needle, and a photoacoustic wave generated from the tip of the needle by light propagating through the needle is generated by an ultrasonic probe of an ultrasonic imaging apparatus.
  • a technique of detecting and rendering as a photoacoustic image is disclosed.
  • Patent Document 2 a photoacoustic image is acquired while changing the attitude of the ultrasonic probe, and the position (orientation) of the ultrasonic probe having the strongest signal and imaging by the ultrasonic imaging apparatus (in normal mode).
  • a technique that makes it possible to determine whether or not the position of the ultrasonic probe in (imaging) matches and to grasp the positional relationship of the needle tip with respect to the ultrasonic image (for example, B-mode image).
  • the operation for imaging (operation of the probe) is minimized in order to concentrate on the catheter insertion work while observing the image, and the position of the treatment target and the treatment tool is minimized. It is desirable to understand the relationship sequentially with good visibility.
  • the present invention visually evaluates the relationship between a region (imaging region) where an image can be obtained by reflected waves from a living body using an ultrasonic probe and an insert located outside the region, particularly a guide wire tip.
  • the objective is to provide a technology that can be easily grasped.
  • the present invention provides a catheter treatment support technique in which a guide wire equipped with an ultrasonic wave generation source and an ultrasonic imaging apparatus are combined to reach an element array forming an ultrasonic probe.
  • the position of the guide wire tip is estimated using the image of the ultrasonic wave generation source that depends on the arrival time difference of the sound wave (ultrasonic wave from the ultrasonic wave generation source) or the distance from the imaging area, and the imaging position and the guide position are estimated using this estimation result. Understand the relationship with the wire tip position.
  • the ultrasonic imaging apparatus of the present invention transmits a beam-formed ultrasonic signal to an object through an ultrasonic probe and receives a reflected ultrasonic signal from an irradiation region of the ultrasonic signal.
  • An image pickup unit for picking up an ultrasonic image of a diffracted wave region determined by the irradiation region, and an ultrasonic wave from an ultrasonic wave generation source inserted inside the subject are received via the ultrasonic probe.
  • An ultrasonic signal analyzing unit for analyzing the ultrasonic signal analyzing unit, wherein the ultrasonic signal analyzing unit detects the ultrasonic waves (ultrasonic waves from the ultrasonic wave generating source) received by each of the plurality of elements forming the ultrasonic probe.
  • the position of the ultrasonic wave generation source located outside the diffracted wave region is estimated using the difference between the reception time or the arrival time.
  • the treatment support system of the present invention transmits an ultrasonic signal beam-formed to an object through an ultrasonic probe and receives a reflected ultrasonic signal from a region irradiated with the ultrasonic signal.
  • An ultrasonic imaging device including an imaging unit that captures an ultrasonic image of the region; and an ultrasonic wave generation source fixed to a treatment tool inserted into the subject, and an ultrasonic wave signal to the ultrasonic wave generation source.
  • a treatment support system including a photoacoustic device, comprising: a light generation unit that generates a light signal for generating the light signal; and a light guide path that guides the light signal from the light generation unit to the photoacoustic generation source.
  • the ultrasonic imaging apparatus further includes an ultrasonic signal analysis unit that receives and analyzes ultrasonic waves from the ultrasonic wave generation source inserted inside the subject through the ultrasonic probe.
  • the ultrasonic signal analysis unit uses the difference in the reception time (arrival time) of the ultrasonic waves received by each of the plurality of elements forming the ultrasonic probe to detect the ultrasonic wave at a position outside the region. It is characterized in that the position of the sound source is estimated.
  • the present invention it is possible to calculate the geometrical positional relationship between the element array and the ultrasonic wave generation source by using the time difference of the ultrasonic waves reaching the element array. It is possible to grasp the position of the tip of the insert existing outside the area irradiated with. Further, since such position information can be obtained in a short time after the generation of ultrasonic waves, it can be immediately displayed on the image being picked up.
  • the figure showing the whole outline of the embodiment of the medical treatment support system of the present invention The figure which shows the partial cross section of the ultrasonic source mounting wire.
  • the figure which shows the detail of the ultrasonic imaging part (ultrasonic imaging device) of the treatment assistance system of FIG. The figure which shows the flow of operation
  • the figure which shows the general outline of the treatment assistance system of a modification The figure which shows the flow of a process of the analysis part in 2nd embodiment.
  • FIG. 7A is a diagram explaining operation of a tilt angle
  • FIG. 7B is a graph which shows the relationship between a tilt angle and signal intensity.
  • FIG. 7A and 7B are diagrams for explaining the processing of the analysis unit in the third embodiment
  • FIG. 7A is a diagram showing the position of the ultrasonic wave generation source with respect to the diffracted wave region
  • (A) And (b) is a figure which shows the example of a display which respectively displays a direction as positional information on the tip of a guide wire.
  • a support system 100 includes a living body insertion tool 11 equipped with an ultrasonic wave generation device 10 and an ultrasonic probe 20, and includes a subject 80 into which the living body insertion tool is inserted.
  • An ultrasonic imaging unit 30 that acquires an ultrasonic image and a display unit 60 thereof are provided.
  • the living body insertion tool 11 is, for example, a treatment instrument such as a balloon catheter or a microcatheter, or a guide wire for carrying these treatment instruments to a target site.
  • a case where the living body insertion tool is a guide wire will be described as an example.
  • the ultrasonic wave generation device 10 is a PA signal generation source that generates a photoacoustic signal (hereinafter referred to as a PA signal) will be described as an example.
  • the ultrasonic wave generation device 10 generates an ultrasonic wave.
  • a piezoelectric element may be used for the purpose. As shown in FIG.
  • the ultrasonic wave generation device 10 includes an optical fiber 12 arranged in the hollow portion of a flexible hollow guide wire 11 and an ultrasonic wave generation source (PA) fixed to an end face of the optical fiber 12 on the insertion side.
  • the fiber 12 functions as a light guide member that guides the laser light generated by the light generator 15 to the ultrasonic wave generation source 13 at the tip.
  • These ultrasonic wave generation devices 10 including the hollow guide wire 11 are called a photoacoustic source mounting wire.
  • the PA signal generation source 13 is composed of a material that emits ultrasonic waves such as a PA signal by receiving laser light and adiabatically expanding, for example, known dyes (photosensitizers), metal nanoparticles, carbon-based compound bodies, and the like. To be done.
  • the tip of the optical fiber 12 including the PA signal generation source 13 is covered with a resin sealing member 14.
  • the PA signal generation source 13 is positioned at the tip of the wire 11, but it is not limited to the tip of the wire.
  • the ultrasonic imaging unit 30 has the same configuration as a general ultrasonic imaging apparatus except that a function of processing a PA signal (ultrasonic signal analysis unit) is added, and as shown in FIG.
  • a transmitter 31 that transmits an ultrasonic signal to the ultrasonic probe 20, a receiver 32 that receives a reflected wave (RF signal) detected by the ultrasonic probe 20 and performs processing such as phasing and addition, and
  • a signal processing unit 35 that processes the RF signal received by the receiving unit 32 is provided.
  • the ultrasonic imaging unit 30 includes a control unit 40 that controls the ultrasonic imaging unit 30 and its accessory devices and the photoacoustic device 10 as necessary, and an input unit 50 for a user to input conditions and commands necessary for imaging.
  • a display unit 60 for displaying an ultrasonic image acquired by the ultrasonic imaging unit 30 and a GUI (Graphical User Interface), a memory 70 for storing an image as a processing result of the signal processing unit 35, and the like.
  • the signal processing unit 35 includes an ultrasonic image forming unit 351 that creates an ultrasonic image such as a B-mode image using an RF signal that is a reflected wave, and an ultrasonic probe 20 that is emitted from the PA signal generation source 13.
  • An ultrasonic signal analysis unit (PA signal analysis unit) 353 (hereinafter, simply referred to as analysis unit) that detects the PA signal detected by the transducer element and estimates information about the position of the PA signal generation source 13, and a display unit 60.
  • a display image forming unit 355 that generates an image to be displayed on the display.
  • the ultrasonic image forming unit 351 may have a function of creating an image (photoacoustic image) of the PA signal generation source 13 using the PA signal, in addition to the ultrasonic image of the subject such as the B mode.
  • the analysis unit 353 estimates the position and direction of the PA signal generation source 13 (collectively referred to as position information).
  • Some or all of the functions of the respective units constituting the signal processing unit 35 and the control unit 40 can be realized by uploading the software having the functions programmed to a computer having a CPU or GPU and a memory. .. Further, some or all of the functions of each unit can be realized by an electronic circuit or hardware such as ASIC and FPGA.
  • the control unit 40 may use a computer other than the signal processing unit 35.
  • the ultrasonic probe 20 has a 1D array probe in which a large number of transducer elements are arranged in a one-dimensional direction, and has an array arrangement of 2 to 3 rows in a direction orthogonal to the array arrangement direction of the 1D array probe.
  • Various ultrasonic probes 20 such as a 1D3 array probe and a 2D array probe having a large number of array arrays in a two-dimensional direction can be used.
  • the analysis unit 353 can employ an analysis method according to the type of ultrasonic probe used.
  • a guide wire equipped with a photoacoustic device 10 for guiding a catheter or the like is inserted into the body of a subject while normal ultrasonic imaging is performed, and the tip position of the guide wire is monitored by a PA signal.
  • Normal imaging is called an imaging mode
  • monitoring using a PA signal is called a PA analysis mode.
  • the operation in the imaging mode is similar to that of the conventional ultrasonic imaging apparatus, in which ultrasonic waves are transmitted from the transmission unit 31 through the ultrasonic probe 20, and the transmitted ultrasonic waves are reflected waves reflected from the tissue inside the subject. Is received by the ultrasonic probe 20.
  • the receiving unit 32 performs processing such as phasing and addition on the received signal received for each frame, and sends it to the signal processing unit 35.
  • the 2D ultrasonic probe 20 is used, information corresponding to the intensity of the reflected wave in the three-dimensional direction including the two-dimensional direction and the depth direction can be obtained.
  • the ultrasonic image forming unit 351 of the signal processing unit 35 uses the frame signal from the receiving unit 32 to create an ultrasonic image, for example, a B-mode image, and transfers the ultrasonic image to the display image forming unit 355.
  • the display image forming unit 355 displays the B-mode image on the display unit 60 together with the supplementary information.
  • the operation of the transmitter 31 is temporarily stopped (S401) and the light generator 15 is operated. Then, the pulsed laser light is emitted from the light generator 15 (S402).
  • the PA signal is generated from the photoacoustic material forming the PA signal generation source 13. (Ultrasound) is generated (S403) and detected by each element of the ultrasonic probe 20 (S404).
  • the ultrasonic signal received by the ultrasonic probe 20 is a range (indicated by diagonal lines) in which the ultrasonic beam emitted from the ultrasonic probe 20 is beamformed and spread.
  • the reflected wave is reflected from the subject tissue 80A in the range, and the imaging area 81 is within this range. That is, it is a region where the diffracted wave propagates spherically from each element of the probe array, and is also referred to as a diffracted wave region here.
  • the time required for the reflected wave from the diffracted wave region 81 to reach the probe array substantially depends on the depth.
  • the PA signal from the PA signal generation source 13 is not a reflected wave but a signal that directly reaches each element of the probe array, and the PA signal generation source 13 generates a photoacoustic signal from the time when the element is generated.
  • the time until detection is proportional to the distance between the PA signal generation source 13 and the element.
  • the receiving unit 32 passes the PA signal detected by each element with a time difference to the analyzing unit 353 without performing processing such as phasing.
  • the analysis unit 353 estimates the position information of the PA signal generation source 13 by using the PA signal detected for each element and the information about the reception time (PA signal arrival time) for each element (S405).
  • the display image forming unit 355 receives information regarding the position of the PA signal generation source 13 from the analysis unit 353, creates a display image superimposed on the B-mode image and a display image shown as additional information, and displays the display image on the display unit 60. (S406). There are various modes of displaying the position information on the display unit 60, which will be described in an embodiment described later.
  • the transmission unit 21 After irradiating the laser light from the light generation unit 15, the transmission unit 21 restarts the stopped ultrasonic transmission (measurement of the imaging mode) after a predetermined waiting time (S407, S408), and displays the acquired ultrasonic image on the display unit. 60 is displayed.
  • the standby time for resuming the imaging mode may be the time required for the detection of the photoacoustic signal by the ultrasonic probe 20 and the analysis by the analysis unit 353, and the control unit 40 controls the light intensity in the light generation unit 15.
  • the irradiation can be used as a trigger signal to restart the imaging mode with a predetermined waiting time.
  • the imaging in the imaging mode and the analysis mode is repeated a plurality of times until the tip of the guide wire enters the diffracted wave region or the target position is reached (S409).
  • Such mode switching is performed by the control of the control unit 40, but the adjustment by the user may be accepted via the input unit 50 as appropriate.
  • the ultrasonic image forming unit 351 processes the PA signal similarly to the ultrasonic reflection signal in the imaging mode, and the image of the PA signal generation source 13 is processed.
  • PA image may be created. This image is an image in which only the PA signal generation source 13 has luminance information, and the position of the PA signal generation source 13 is a position where the depth of the diffracted wave region is relatively deep.
  • the PA image may be displayed together with the B-mode image, or the analysis unit 353 may use the information of the PA image for position estimation.
  • the ultrasonic imaging apparatus of the present embodiment while imaging the target site, the position of the guide wire tip that guides the catheter in the analysis mode executed during that is monitored, and the ultrasonic image acquired in the imaging mode is monitored. By displaying the information related to the position, the user can confirm on the image how the guide wire approaches the part to be imaged.
  • each embodiment of a method of analyzing the position of the PA signal generation source 13 in the analysis unit 353 and a method of displaying the analysis result will be described.
  • the configurations of the ultrasonic imaging apparatus and the signal processing thereof are the same unless otherwise specified, and the configuration of FIG. 3 is referred to as appropriate.
  • the analysis unit 353 uses the time difference of the arrival time of the ultrasonic wave (beacon ultrasonic signal) from the ultrasonic wave source 13 detected by each element of the 1D array probe 20A. Estimate 13 lateral distances. Also in the present embodiment, a case where the ultrasonic wave generated by the ultrasonic wave generation source 13 is a PA signal will be described as an example.
  • the guide wire 11 when the guide wire 11 is inserted into the blood vessel (80A) and advanced to the treatment site (target), when the surface along the running of the blood vessel is imaged as an imaging cross section, the guide wire is removed from the imaging region. It advances to the imaging area from either the left or the right. Therefore, by estimating the lateral distance, it is possible to know how close the guide wire is to the target.
  • the arrival time of the PA signal from the PA signal generation source 13 to each element of the ultrasonic probe is proportional to the distance between the PA signal generation source 13 and the element.
  • the arrival time is the time from the generation time of the PA signal to the reception time of the element, and if the PA signal generation time is known, the arrival time can be calculated from the information of the reception time received by the receiver 32. Since the time when the PA signal is emitted from the PA signal generation source 13 can be regarded as the same time as the time when the laser light is emitted from the light generating unit 15, the ultrasonic wave is transmitted from the light generating unit 15 when the laser light is generated. When the trigger signal for the above is sent to the control unit 40, the laser generation time, that is, the PA signal generation time can be calculated from the time when the trigger signal is received.
  • the control unit 40 can receive the pulse generation timing and obtain the PA signal generation time.
  • the analysis unit 353 calculates the position (xc, yc) of the PA signal generation source 13 from the ultrasonic probe (each element) according to the following equations (1) and (2) based on the PA signal generation time.
  • xc is the distance in the lateral direction of the ultrasonic probe
  • yc is the distance in the depth direction of the ultrasonic probe
  • the center position of the array is the origin.
  • N is the number of elements in the 1D array
  • n is an integer from 1 to N
  • xn is the coordinates of the nth element
  • tn is the arrival time at the nth element
  • ⁇ x is the calculation grid interval (adjacent C may be the speed of sound.
  • the position information calculated in this manner is stored in, for example, the memory 70, and is displayed on the display unit 60 together with the ultrasonic image (B mode image) formed by the ultrasonic image forming unit 351.
  • the analysis unit 353 updates the position information stored in the memory 70 and the displayed position information for each repetition.
  • the user does not need to move the ultrasonic probe 20 to detect the position of the tip of the guide wire while keeping the ultrasonic probe 20 fixed at a position where the target treatment site can be imaged. It is possible to proceed with the procedure while confirming on the display image the tip position, which changes from moment to moment with the entry of the guide wire, while always imaging the target site).
  • the relationship between the element number of the array and the arrival time is as shown in the graph of FIG. 6, when the PA signal generation source 13 is located at a position deviating from the diffracted wave region in the lateral direction, from the right end to the left end or The curve changes from the left end to the right end. It is also possible to estimate the shift of the PA signal generation source 13 in the lateral direction based on this curvature.
  • the analysis unit 353 does not calculate the position information, but based on the inclination of the graph showing the relationship between the element position and the arrival time, the distance to the target is “far”, “near”, It is also possible to make a qualitative determination such as “enter the diffracted wave region” and display it on the display unit.
  • each of the ultrasonic probes is The position of the PA signal generation source, that is, the position of the tip of the guide wire can be estimated by using the time difference between the PA signals reaching the element.
  • the ultrasonic image forming unit 351 creates a PA image of the PA signal generation source 13, it may be created sequentially before the PA signal generation source 13 enters the diffracted wave region 81, for example, at the same time when the analysis mode is started. However, it may be created at the time when it is estimated that the PA signal generation source 13 has entered the diffracted wave region 81 from the distance of the PA signal generation source estimated by the analysis unit 353 in the analysis mode. Since the image of the PA signal generation source 13 existing in the diffracted wave region 81 is a dot-shaped image of the position of the PA signal generation source 13 in the diffracted wave region 81, it is an ultrasonic image of the imaging target tissue acquired in the imaging mode. By superimposing, the position of the PA signal generation source 13 in the tissue can be confirmed.
  • the analysis unit 353 receives the information on the light generation time from the light generation unit 15 and calculates the arrival time of the PA signal.
  • the photoacoustic device 10 (light generation unit 15) and the ultrasonic imaging apparatus 20 are connected to each other. Even if the system does not exchange signals, the PA signal generation source can be calculated using the PA signal reception time.
  • the system configuration of this modification is the same as the system configuration shown in FIG. 3, except that there is no signal line for transmitting a trigger signal from the light generator 15 to the ultrasonic imaging device 20, as shown in FIG. Switching between the imaging mode and the analysis mode is performed by manually operating the photoacoustic device 10 in the analysis mode while the imaging mode is frozen.
  • the analysis unit 353 calculates the position (xc) of the PA signal generation source 13 by the following equation (3) using the PA signal acquired by the reception unit 32 (PA signal detection unit) and the information on the reception time.
  • Expression (3) describes the simultaneous equations of Expression (1) for each detection element in a matrix, and the same symbols as in Expression (1) have the same meaning.
  • t F is the generation time of the PA signal, which is an unknown number here. That is, in this simultaneous equation, there are two unknowns, t F and xc (distance in the lateral direction), and these unknowns can be obtained by solving the inverse matrix problem.
  • the distance yc in the depth direction can be calculated by the equation (4) similar to the equation (2) using the thus obtained t F and xc.
  • the position detection method is not limited to the above-described embodiment and modification, and for example, based on a beacon ultrasonic signal (PA signal) received by each element of the ultrasonic probe, a normal ultrasonic imaging region is detected. Also, the phasing process may be performed in a large area and the position where the beacon ultrasonic signal is combined may be specified as the position. Alternatively, a rough phasing process may be performed to identify the region where the signal intensity is concentrated.
  • PA signal beacon ultrasonic signal
  • the position (distance in the lateral direction) of the PA signal generation source 13 is estimated by using the time difference of the PA signals reaching each element of the ultrasonic probe.
  • the analysis unit 353 of 3 estimates the three-dimensional position of the PA signal generation source 13.
  • a method (first method) that makes it possible to grasp a three-dimensional position by operating the 1D ultrasonic probe 20A and an ultrasonic probe 20B that makes it possible to grasp a three-dimensional position are used.
  • a method (second method) In any case, the same method as in the first embodiment is adopted for the lateral direction. First, the first method will be described.
  • FIG. 8 is a diagram showing a flow of processing by the first method.
  • the position (xc, yc) of the PA signal generation source 13 is calculated using the arrival time difference of the PA signals of the respective elements (S801). ), the reception intensity (integrated value) of the PA signal received by each element is calculated (S802).
  • the display image forming unit 355. forms a GUI that prompts a tilting operation of the ultrasonic probe 20, and displays the GUI on the display unit 60 (S804).
  • the light generation unit 15 continues to generate pulsed laser light, and the analysis unit 353 continues to calculate the signal intensity in step S802 (S805, S806).
  • the sensitivity increases due to the directivity, and the signal strength also increases.
  • FIG. 9 shows an example of the relationship between the tilt angle and the signal strength.
  • 9A is a diagram of the 1D array ultrasonic probe 20A viewed from the lateral direction
  • FIG. 9B is a graph showing the relationship between the tilt angle and the signal intensity.
  • the analysis unit 353 detects such a change in the signal strength associated with the change in the tilt angle and obtains the tilt angle at which the signal strength is maximum (S807). As a result, the position of the PA signal generation source 13 in the elevation direction can be detected. In this case, since the position of the PA signal generation source 13 in the lateral direction is known in step S801, the position in the elevation direction is geometrically calculated by using this position and the tilt angle that maximizes the signal strength. It is possible (S808).
  • the GUI for prompting the tilting operation of the user is displayed on the display unit 60.
  • the GUI display (S803, S804) can be omitted, and the calculation of the signal strength in step S802 and the maximum signal strength in step S807 are simply accompanied by the user's operation.
  • the corner may be detected automatically to detect the position of the PA signal generation source 13.
  • the position of the PA signal generation source 13 at the position deviated from the imaging region (imaging cross section) in the elevation direction is estimated by operating the ultrasonic probe 20 and changing the tilt angle.
  • the second method detects a position in two directions by using a 2D array probe in which elements are arranged in a two-dimensional direction.
  • the detection of the positions in the two arrangement directions is the same as the position estimation in the lateral direction using the time difference between the elements of the PA signal arrival time in the first embodiment.
  • the positions in the two directions can be calculated by the equations (1) and (2) or the equations (3) and (4) using the time difference between the elements.
  • xc is read as the distance in the first direction or the distance in the second direction of the ultrasonic probe.
  • the three-dimensional position of the PA signal generation source 13 can be calculated using the separately calculated distances in the first and second directions thus obtained.
  • the ultrasonic probe 20 includes a probe called a 1D3 row probe in which 1D arrays are arranged in about 3 rows.
  • a probe called a 1D3 row probe in which 1D arrays are arranged in about 3 rows.
  • Such an ultrasonic probe is distinguished from the lateral direction (direction in which the number of array elements is large) and the elevation direction (direction in which the number of array elements is small) and is used similarly to the 1D array.
  • the ultrasonic probe 20 is a 1D3 row probe, similar to the 1D array, the PA signal generation source 13 in the elevation direction from the tilt angle is based on the change in the signal intensity when the tilt operation is performed. The position may be detected.
  • the positional information in the lateral direction may be calculated by using the time difference between the elements of each of the arrays in the three columns, and may be averaged, or may be used by considering the distance relationship between each element and the sound source position.
  • the position calculation accuracy of can be improved.
  • the position of the ultrasonic wave generation source can be grasped more accurately.
  • the guide wire tip position is in the diffracted wave region from the lateral distance of the ultrasonic wave generation source estimated in the first embodiment.
  • the analysis unit 353 uses the difference between the elements (arrival time difference) of the time when the ultrasonic wave from the ultrasonic wave generation source reaches the ultrasonic probe, and Although the position of the generation source is estimated, in the present embodiment, the distance is estimated using the feature of the image generated in the beacon ultrasonic image (PA image) according to the arrival time difference, specifically, split. That is, in the ultrasonic imaging apparatus according to the present embodiment, the ultrasonic image forming unit 351 has a function of forming an image of the ultrasonic generation source using the beacon ultrasonic signal, and the analyzing unit 353 is the ultrasonic image forming unit. The position of the ultrasonic wave generation source 13 is estimated from the information of the image of the ultrasonic wave generation source created by 351.
  • the influence of the arrival time difference occurring in the beacon ultrasonic image will be described.
  • the PA signal will be described as a representative example of the beacon ultrasonic signal, but the same applies to other ultrasonic waves. Since the PA signal is an ultrasonic wave, the phase of the wave reaching each element differs from element to element.
  • the PA image is obtained by convolving the signals out of phase with each other. At this time, if the signal is generated from within the diffracted wave region, it is phased into a single image, but the image of the PA signal generation source located outside the diffracted wave region is affected by the convolution.
  • FIG. 10A is a diagram showing a plurality of positions (four positions) of the PA signal generation source 13 having different distances from the diffracted wave region 81
  • FIG. 10B is a diagram showing a PA image at each position. .. As shown in the figure, the number of splits increases as the distance from the diffracted wave region increases, and the interval between the split images increases.
  • the analysis unit 353 of the present embodiment calculates the position of the PA signal generation source by the following equations (5) and (6).
  • the approach degree (separation degree) of the guide wire to the diffracted wave region is determined and displayed based on the distance thus calculated.
  • the analysis method of the present embodiment can be combined with the analysis of the first embodiment or the second embodiment, and thereby more detailed information regarding the guide wire position can be presented to the user.
  • the PA image used for the analysis may be displayed on the display unit 60 itself, but may be displayed by being superimposed on the ultrasonic image acquired in the imaging mode. Since the image of the PA signal generation source 13 superimposed on the ultrasonic image is displayed at a deep depth of the ultrasonic image when the PA signal generation source 13 is far from the diffracted wave region, the user can see the image of the tissue. It is possible to confirm how the PA signal generation source approaches by observing the split of the point image that appears in the deep part of the.
  • the split appearing in the PA image by using the split appearing in the PA image, it is possible to easily visually recognize the approach situation from the diffracted wave region and estimate the distance.
  • the position of the PA signal generation source is calculated from the split appearing in the PA image, but in this case, information on the direction in which the PA signal generation source travels in the diffracted wave region cannot be obtained.
  • the ultrasonic probe has an asymmetric array structure, and the direction information is acquired by detecting the effect of the asymmetry on the split.
  • Fig. 11 shows an example of an asymmetric array structure.
  • the ultrasonic probe 20D is a 1D array probe and makes a part (for example, one element) of the elements on one side from the center of the element array direction inoperative in the analysis mode.
  • the control for deactivating one element may be performed by the control unit 40 that receives a trigger signal from the light generation unit 15 to notify the irradiation of the laser light, or when the control unit 40 controls switching between the imaging mode and the analysis mode. May be performed when switching modes.
  • the split also shows asymmetry vertically.
  • the image of the PA signal generation source 13A located at a position distant from the diffracted wave region of the ultrasonic probe becomes a plurality of images.
  • the image is split, one of a plurality of images that are split and aligned in the vertical direction is lost at this time, and the image loss position differs depending on whether the non-actuating element is the left side or the right side. Therefore, it is possible to estimate the position of the PA signal generation source with respect to the diffracted wave region, that is, which side of the target tissue of the displayed ultrasonic image the tip of the guide wire is, from the shape of the split (asymmetry).
  • the present embodiment is characterized in that the ultrasonic probe 20 is operated by the robot arm, not by the user.
  • the illustrated guide support system includes a robot arm 25 to which the ultrasonic probe 20 is attached and a drive device 27 for the robot arm 25.
  • the robot arm 25 is, for example, a support portion that detachably supports the ultrasonic probe 20, an arm member that is rotatably connected to the support portion in the axial direction, and has a plurality of arms linked to each other.
  • a mechanism part for driving the arm member in the vertical direction and the horizontal direction is provided, and by moving these mechanism parts, the ultrasonic probe 20 is brought into contact with the subject 80, or rotated or moved in parallel while being in contact with the subject 80. You can change the tilt angle.
  • a gel-like sheet member 90 is arranged between the ultrasonic probe 20 and the surface of the subject 80, as shown by being circled in the figure.
  • the drive device 27 includes a motor that drives each mechanism of the robot arm 25, is connected to the control unit 40 of the ultrasonic imaging apparatus 30, and operates under the control of the control unit 40.
  • the operation of the support system 100A is basically the same as that of the modified example 1 of the second embodiment described above, and two-dimensional information is acquired by changing the posture of the ultrasonic probe.
  • the angle is changed by manual operation, whereas in the present embodiment, the tilt angle is changed by the control of the robot arm attached to the probe.
  • the analysis mode is started at this position.
  • the information on the initial position is stored in the memory 70, for example (S901).
  • the laser beam is emitted from the light generator 15 as in the first embodiment, a PA signal is generated from the PA signal generation source, and the PA signal is received by the ultrasonic probe 20 (S902).
  • the analysis unit 353 estimates the distance of the PA signal generation source using the PA signal arrival time difference to each element of the ultrasonic probe 20, and stores the signal strength (stored in the memory) (S903).
  • the control unit 40 determines whether or not the signal intensity is less than or equal to a predetermined threshold value (S904), and if it is less than or equal to the threshold value, sends a control signal to the driving device 27, and, for example, a support unit 251 that supports the ultrasonic probe 20. Is controlled with respect to the arm 252 to change the tilt angle (S905), and measurement in the analysis mode is executed (S906). For example, the change of the tilt angle and the measurement of the analysis mode are repeated within a predetermined tilt angle range set in advance (S907), and the signal strength information of a plurality of tilt angles including positive and negative is acquired.
  • the analysis unit 353 obtains the tilt angle at which the signal strength is the highest among the signal strengths for each tilt angle (S908), and from this tilt angle, which side in the elevation direction the tip of the guide wire is with respect to the imaging region. Is determined (S909).
  • the accurate distance (distance to the diffracted wave region) at the tip of the guide wire may be estimated by using the tilt angle at which the signal intensity is maximum and the positional information in the lateral direction estimated in step S903.
  • control unit 40 controls the drive mechanism 27 to return the position of the ultrasonic probe 20 to the initial position stored in the memory 70 in step S901, and executes the imaging mode.
  • the estimation of the distance of the PA signal generation source may be directly calculated from the difference in arrival time of the PA signal to the element as in the first embodiment, or may be calculated in the PA image as in the third embodiment. You may calculate from the space
  • the guidewire is used to present the most important information for assisting the operation, that is, how close and how close the guidewire is to the part being observed on the ultrasound image.
  • FIG. 15 shows an example of the direction information.
  • an arrow (beacon) 1501 indicating from which direction the guide wire is approaching is displayed on a screen 1500 displaying an ultrasonic image including a subject tissue.
  • This display allows the user to know that the guide wire is approaching in the direction indicated by the arrow.
  • the ultrasonic image (PA) of the PA signal generation source 13 may be superimposed and displayed on the ultrasonic image (not shown). ..
  • direction display sections 1502A and 1502B for notifying the approach of the guide wire are provided on both sides of the screen displaying the ultrasonic image.
  • the left direction display unit 1502A lights up and becomes bright.
  • the right direction display portion 1502B remains dark. This allows the user to know that the guide wire is approaching from the side where the direction display unit is lit.
  • the brightness of the direction indicator on the side where the guide wire is present may be changed according to the distance of the guide wire. For example, when the guide wire is far from the diffracted wave region, the direction indicator is turned off, and when the guide wire approaches a predetermined distance, the direction indicator is turned on with low brightness. Thereafter, as the distance to the diffracted wave region is reduced, the brightness of the direction display portion is increased.
  • the position information of the guide wire calculated in the first to third embodiments may be displayed together with the end portion of the display screen of the ultrasonic image.
  • the position information may be a position of the PA signal generation source 13 calculated in the first embodiment, a numerical value such as a distance to a specific tissue (for example, a target) on the ultrasonic image, or “far (200 mm or more)”. It may be a qualitative display such as "near (within 100 mm)". Since the position information estimated by the analysis unit changes by repeating the analysis mode, the display is updated according to the change.
  • the direction and approach of the guide wire which is the most important information, can be presented on the ultrasonic image when the surgery is supported using the guide wire. This allows the operator to visually check the progress of the guide wire while focusing on the insertion of the guide wire.
  • ⁇ Display example 2> In this display example, when the three-dimensional information of the PA signal generation source is acquired, the position of the PA signal generation source is displayed on the three-dimensional image of ultrasonic waves.
  • the display image forming unit 355 creates a rendering image 1600 as shown in FIG. 16 using the three-dimensional image data, and a predetermined mark is provided at a position in the rendering image corresponding to the position of the PA signal generation source.
  • the image 1601 is superimposed.
  • the mark is not particularly limited, but may be a spherical mark indicating the PA signal generation source or an arrow mark indicating the traveling direction of the PA signal generation source. Further, a linear mark connecting the positions of the PA signal generation source that changes with time may be shown.
  • FIG. 17 shows a display example.
  • a PA signal strength display unit 1701 that changes momentarily is provided at a position that does not overlap the image on the screen 1700, and the temporal change of the signal strength is displayed in a graph.
  • the signal intensity of the PA signal changes depending on the distance from the ultrasonic probe to the PA signal generation source 13 (distance from the diffracted wave region), and as in Modification 1 of the second embodiment and the fourth embodiment. , It also changes when the tilt angle of the ultrasonic probe is changed.
  • the display image forming unit 355 creates a graph in which the horizontal axis represents time and the vertical axis represents signal strength, using the information on the change in the signal strength at each time received from the analysis unit 353, and displays the graph. It is displayed on the signal strength display portion 1701 of the screen. This graph is updated every time the measurement in the analysis mode is repeated.
  • a graph having the tilt angle on the horizontal axis may be created and displayed.
  • the progress of the guide wire can be viewed as a change in signal strength.
  • the display according to another display example may be performed together.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Gynecology & Obstetrics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

光音響技術を搭載したガイドワイヤと、超音波撮像装置とを組み合わせたカテーテル治療支援技術において、超音波探触子を構成する素子アレイに到達する光音響波の到達時間差、又は撮像領域からの距離に依存する光音響信号発生源の画像の変化を用いてガイドワイヤ先端位置を推定し、この推定結果を用いて撮像位置とガイドワイヤ先端位置との関係を把握する。これにより、超音波探触子を用いて生体からの反射波により画像を得ることができる領域(撮像領域)と、その領域外にある挿入物、特にガイドワイヤ先端との関係を視覚的に容易に把握することが可能となる。

Description

超音波撮像装置、治療支援システム、及び、画像処理方法
 本発明は、光音響等の超音波発生源を搭載したガイドワイヤを体内に挿入する際に、超音波撮像装置を用いて支援する技術に関する。
 カテーテル治療は、開胸等の手術と比較し、患者負担が少ない術式であるため、主に血管狭窄などの治療に広く採用されている。カテーテル治療では、治療対象となる領域とカテーテルとの関係を把握することが重要であり、それを支援する撮像方法としてX線透視が利用されている。超音波画像を支援画像として用いる試みもあるが、ガイドワイヤ先端を超音波で描出することは容易ではなく、普及には至っていない。
 一方、穿刺針については、針の先端から光音響信号を発生させる光音響技術を穿刺針に搭載し、超音波撮像装置の超音波探触子で光音響信号を検出することにより針先端の位置を検出する技術も提案されている(特許文献1、特許文献2)。
 具体的には、特許文献1には、パルスレーザ発生源からレーザ光を針に照射し、針を伝播した光によって針先端から発生する光音響波を超音波撮像装置の超音波探触子で検出し、光音響画像として描出する技術が開示されている。特許文献2には、超音波探触子の姿勢を変えながら光音響画像を取得し、信号が最も強くなる超音波探触子の位置(姿勢)と、超音波撮像装置による撮像(ノーマルモードの撮像)における超音波探触子の位置とが一致するか否かを判定し、超音波画像(例えばBモード画像)に対する針先端の位置関係を把握可能にする技術が開示されている。
特表2013-511355号公報 特開2015-139465号公報
 特許文献2に記載された技術では、挿入物(穿刺針)の先端が、超音波探触子の真下にあるか否かを判定することができ、それにより、表示超音波画像上に描画されている針先端が、実際には、ずれた位置にあることやずれている方向を知ることができるが、治療対象領域と実際に挿入物先端が存在する位置との関係を視覚的に把握することができない。また、この技術では超音波探触子の姿勢を変えながら複数の光音響画像を取得するピーク検索モードの撮像を必須とし、高い時間分解能で超音波画像(ノーマルモード撮像)を表示させることができない。
 被検体内にカテーテル等を挿入する場合、画像を見ながらカテーテル挿入作業に集中するために、撮像のための操作(探触子の操作)は極力少なく、且つ治療のターゲットと治療具との位置関係を逐次視認性よく把握することが望まれる。
 本発明は、超音波探触子を用いて生体からの反射波により画像を得ることができる領域(撮像領域)と、その領域外にある挿入物、特にガイドワイヤ先端との関係を視覚的に容易に把握することができる技術を提供することを課題とする。
 上記課題を解決するため、本発明は、超音波発生源を搭載したガイドワイヤと、超音波撮像装置とを組み合わせたカテーテル治療支援技術において、超音波探触子を構成する素子アレイに到達する超音波(超音波発生源からの超音波)の到達時間差或いは撮像領域からの距離に依存する超音波発生源の画像を用いてガイドワイヤ先端位置を推定し、この推定結果を用いて撮像位置とガイドワイヤ先端位置との関係を把握する。
 即ち、本発明の超音波撮像装置は、被検体に対し超音波探触子を介してビームフォームされた超音波信号を送信し、当該超音波信号の照射領域からの反射超音波信号を受信し、前記照射領域で決まる回折波領域の超音波画像を撮像する撮像部と、前記被検体の内部に挿入された超音波発生源からの超音波を、前記超音波探触子を介して受信し、解析する超音波信号解析部と、を備え、前記超音波信号解析部は、前記超音波探触子を構成する複数の素子がそれぞれ受信する超音波(超音波発生源からの超音波)の受信時間或いは到達時刻の差を利用して、前記回折波領域から外れた位置にある前記超音波発生源の位置を推定する。
 また本発明の治療支援システムは、被検体に対し超音波探触子を介してビームフォームされた超音波信号を送信し、当該超音波信号が照射された領域からの反射超音波信号を受信し、前記領域の超音波画像を撮像する撮像部を備えた超音波撮像装置、及び、被検体内に挿入される治療具に固定された超音波発生源と、前記超音波発生源に超音波信号を発生させるための光信号を生成する光発生部と、前記光発生部から前記光音響発生源に前記光信号を導光する導光路と、を備えた光音響デバイスを含む治療支援システムであって、前記超音波撮像装置は、前記被検体の内部に挿入された超音波発生源からの超音波を、前記超音波探触子を介して受信し、解析する超音波信号解析部をさらに備え、前記超音波信号解析部は、前記超音波探触子を構成する複数の素子がそれぞれ受信する超音波の受信時間(到達時刻)の差を用いて、前記領域から外れた位置にある前記超音波発生源の位置を推定することを特徴とする。
 本発明によれば、素子アレイに到達する超音波の時間差を用いることにより、素子アレイと超音波発生源との幾何学的な位置関係を算出することができ、これにより素子アレイから超音波信号が照射される領域の外に存在する挿入物先端の位置を把握することができる。また、このような位置情報は、超音波の発生後の短時間で得ることができるので、撮像中の画像上に直ちに表示させることができる。
本発明の治療支援システムの実施形態の全体概要を示す図。 超音波源搭載ワイヤの一部断面を示す図。 図1の治療支援システムの超音波撮像部(超音波撮像装置)の詳細を示す図。 撮像及び超音波信号解析時の動作の流れを示す図。 撮像領域と超音波発生源との関係を説明する図。 素子位置と時間差との関係を示す図。 変形例の治療支援システムの全体概要を示す図。 第二実施形態における解析部の処理の流れを示す図。 (a)はあおり角の操作を説明する図、(b)はあおり角と信号強度との関係を示すグラフ。 第三実施形態における解析部の処理を説明する図で、(a)は回折波領域に対する超音波発生源の位置を示す図、(b)各位置における超音波発生源の画像を示す図。 第三実施形態の変形例で用いる非対称超音波探触子の一例を示す図。 第三実施形態の変形例で取得される超音波発生源の画像の一例を示す図。 第四実施形態の治療支援システムの実施形態の全体概要を示す図。 第四実施形態の制御部及び解析部の処理の流れを示す図。 (a)、(b)は、それぞれ、ガイドワイヤ先端の位置情報として方向を表示する表示例を示す図。 三次元画像におけるガイドワイヤ先端位置の表示例を示す図。 信号強度変化の表示例を示す図。
 以下、本発明の超音波撮像装置と、それを用いたカテーテル治療支援システム(以下、支援システムと略す。)の実施形態を説明する。
 まず支援システムの全体概要を、図1を参照して説明する。図1に示すように、本実施形態の支援システム100は、超音波発生デバイス10を搭載した生体挿入具11と、超音波探触子20を備え、生体挿入具が挿入された被検体80の超音波画像を取得する超音波撮像部30及びその表示部60と、を備える。
 生体挿入具11は、例えば、バルーンカテーテルやマイクロカテーテル等の治療用器具やこれら治療用器具を目的部位に運ぶためのガイドワイヤである。本実施形態では一例として生体挿入具がガイドワイヤである場合を説明する。以下の実施形態では、超音波発生デバイス10が光音響信号(以下、PA信号という)を発生するPA信号発生源である場合を例に説明するが、超音波発生デバイス10は、超音波を発生させる目的としては圧電素子を用いてもよい。超音波発生デバイス10は、図2に示すように、フレキスブルな中空のガイドワイヤ11の中空部内に配置された光ファイバ12と、光ファイバ12の挿入側端面に固定された超音波発生源(PA信号発生源)13と、光ファイバ12の他端(超音波発生源13が固定された端部と反対側の端部)に接続され、レーザ光を発生する光発生部15とを備え、光ファイバ12は光発生部15が発生するレーザ光を先端の超音波発生源13に導く導光部材として機能する。これら超音波発生デバイス10は中空のガイドワイヤ11を含めて光音響源搭載ワイヤという。
 PA信号発生源13は、レーザ光を受けて断熱膨張することによってPA信号等の超音波を発する材料、例えば、公知の色素(光増感剤)、金属ナノ粒子、炭素ベース化合物体などで構成される。PA信号発生源13を含む光ファイバ12の先端は、樹脂性の封止部材14で覆われている。なお図2では、PA信号発生源13はワイヤ11の先端に位置つけられているが、ワイヤ先端には限られない。
 超音波撮像部30は、PA信号を処理する機能(超音波信号解析部)が追加されている以外は、一般的な超音波撮像装置と同様の構成を有し、図3に示すように、超音波探触子20に超音波信号を送信する送信部31、超音波探触子20が検出した反射波(RF信号)を受信し、整相、加算等の処理を行う受信部32、及び、受信部32が受信したRF信号の処理を行う信号処理部35を備える。また超音波撮像部30は、超音波撮像部30及びその付属装置や必要に応じて光音響デバイス10を制御する制御部40、ユーザが撮像に必要な条件や指令を入力するための入力部50、超音波撮像部30が取得した超音波画像やGUI(Graphic User Interface)等を表示する表示部60、信号処理部35の処理結果である画像等を記憶するメモリ70を備えている。
 信号処理部35は、反射波であるRF信号を用いてBモード画像等の超音波画像を作成する超音波画像形成部351と、PA信号発生源13から発せられ超音波探触子20の各トランスデユーサ素子が検出したPA信号を検出し、PA信号発生源13の位置に関する情報を推定する超音波信号解析部(PA信号解析部)353(以下、単に解析部という)と、表示部60に表示する画像を生成する表示画像形成部355とを備える。超音波画像形成部351は、Bモード等の被検体の超音波画像のほかに、PA信号を用いてPA信号発生源13の画像(光音響画像)を作成する機能を備えていてもよい。解析部353は、PA信号発生源13の位置や方向(まとめて位置情報という)を推定する。
 信号処理部35を構成する各部と制御部40の機能の一部又は全部は、CPU或いはGPUとメモリとを備えた計算機にその機能をプログラムしたソフトウェアをアップロードすることにより実現することが可能である。また各部の機能の一部又は全部を、電子回路や、ASIC、FPGAなどのハードウェアで実現することも可能である。なお制御部40は信号処理部35とは別の計算機を用いてもよい。
 超音波探触子20は、多数のトランスデユーサ素子が一次元方向に配列した1Dアレイ探触子、1Dアレイ探触子のアレイ配列方向と直交する方向に2ないし3列のアレイ配列を持つ1D3配列探触子や、二次元方向に多数のアレイ配列を持つ2Dアレイ探触子、など種々の超音波探触子20を用いることができる。解析部353は、用いる超音波探触子の種類に応じた解析手法を採用することができる。
 次に、このような構成の超音波撮像装置の動作の概要を説明する。ここでは、通常の超音波撮像を行いながら、カテーテル等をガイドする光音響デバイス10搭載ガイドワイヤを被検体の体内に挿入し、ガイドワイヤの先端位置をPA信号によってモニタリングする場合を説明する。通常の撮像を撮像モード、PA信号を用いたモニタリングをPA解析モードという。
 撮像モードの動作は、従来の超音波撮像装置と同様であり、超音波探触子20を通じて送信部31から超音波の送信を行い、送信した超音波が被検体内部の組織から反射する反射波を超音波探触子20で受信する。受信部32は、フレームごとに受信した受信信号に対し整相、加算などの処理を行い、信号処理部35に送る。2D超音波探触子20を用いた場合、二次元方向と深度方向とを合わせた三次元方向の反射波の強度に対応する情報が得られる。信号処理部35の超音波画像形成部351は、受信部32からのフレーム信号を用いて超音波画像、例えば、Bモード画像を作成し、表示画像形成部355に渡す。表示画像形成部355は、Bモード画像を付帯情報とともに表示部60に表示する。
 一方、PA解析モードでは、図4に示すように、カテーテルを被検体の体内、例えば血管内に挿入しながら、一時、送信部31の動作を停止して(S401)、光発生部15を作動させて、光発生部15からパルス状のレーザ光を照射する(S402)。光発生部15が発した光が、体内に挿入されたガイドワイヤ10の光ファイバ12を介してPA信号発生源13に照射されると、PA信号発生源13を構成する光音響材料からPA信号(超音波)が発生し(S403)、超音波探触子20の各素子で検出される(S404)。
 図5に示すように、超音波探触子20で受信する超音波信号は、撮像モードにおいては、超音波探触子20から照射される超音波ビームがビームフォーミングされて広がる範囲(斜線で示す範囲)にある被検体組織80Aから反射した反射波であり、この範囲内が撮像領域81である。即ち、探触子アレイの各素子から回折波が球面状に伝播する領域であり、ここでは回折波領域とも呼ぶ。この回折波領域81からの反射波が探触子アレイに到達する時間は概ね深度に依存する。これに対し、PA信号発生源13からのPA信号は、反射波ではなく、直接、探触子アレイの各素子に到達する信号であり、PA信号発生源13における光音響信号の発生時から素子検出時までの時間は、PA信号発生源13と素子との間の距離に比例する。
 ここでPA信号発生源13の位置が超音波探触子20のラテラル方向(素子の配列方向)について回折波領域より外側にずれているとすると、PA信号が各素子に到達する時間には時間差を生じる。
 受信部32は、時間差を持って各素子が検出したPA信号を整相等の処理を行うことなく、解析部353に渡す。解析部353は、素子毎に検出したPA信号と素子毎の受信時間(PA信号の到達時間)に関する情報を用いてPA信号発生源13の位置情報を推定する(S405)。
 表示画像形成部355は、解析部353からPA信号発生源13の位置に関する情報を受け取り、Bモード画像に重ねた表示画像や、付加的情報として示す表示画像を作成し、表示部60に表示させる(S406)。表示部60に位置情報を表示する仕方には種々の態様があり、後述の実施形態において説明する。
 光発生部15からのレーザ光照射後、所定の待機時間後に送信部21は停止していた超音波送信(撮像モードの計測)を再開し(S407、S408)、取得した超音波画像を表示部60に表示する。撮像モードを再開するための待機時間は、超音波探触子20による光音響信号の検出と解析部353による解析に必要な時間であればよく、制御部40は、光発生部15における光の照射をトリガー信号として、所定の待機時間を持って撮像モードを再開させることができる。
 このような撮像モードと解析モードの撮像を、例えば、ガイドワイヤの先端が回折波領域に侵入するまで、或いはターゲット位置に到達するまで複数回繰り返す(S409)。このようなモードの切り替えは制御部40の制御のものとで行われるが、適宜、入力部50を介してユーザによる調整を受け入れてもよい。
 なお解析モードでは、PA信号を用いた解析のみを行うこととしたが、超音波画像形成部351が、撮像モードにおける超音波反射信号と同様にPA信号を処理し、PA信号発生源13の画像(PA画像という)を作成してもよい。この画像は、PA信号発生源13のみが輝度情報を持つ画像であり、PA信号発生源13の位置は、回折波領域の比較的深度の深い位置になる。PA画像は、Bモード画像とともに表示してもよいし、解析部353が位置推定にPA画像の情報を用いてもよい。
 本実施形態の超音波撮像装置によれば、目的部位を撮像しながら、その間に実行される解析モードにおいてカテーテルをガイドするガイドワイヤ先端位置をモニタリングして、撮像モードで取得した超音波画像上に位置に関する情報を表示させることにより、ユーザは撮像対象である部位にガイドワイヤが近づく様子をその画像上で確認することができる。
 次に、解析部353においてPA信号発生源13の位置を解析する手法と、解析結果の表示方法の各実施形態を説明する。各実施形態において、超音波撮像装置及びその信号処理の構成は特に断らない限り同様であり、適宜、図3の構成を参照する。
<第一実施形態>
 本実施形態では、解析部353は、1Dアレイ探触子20Aの各素子が検出した超音波発生源13からの超音波(ビーコン超音波信号)の到達時間の時間差を用いて、超音波発生源13のラテラル方向の距離を推定する。本実施形態でも、超音波発生源13が発する超音波がPA信号である場合を例として説明する。
 図5に示したように、ガイドワイヤ11を血管(80A)内に挿入して治療部位(ターゲット)に進める場合、血管の走行に沿った面を撮像断面として撮像すると、ガイドワイヤは撮像領域から左右いずれかから撮像領域に進行してくる。従ってラテラル方向の距離を推定することにより、ガイドワイヤがどの程度ターゲットに近づいているかを知ることができる。
 PA信号発生源13からのPA信号の超音波探触子の各素子への到達時間は、PA信号発生源13と素子との間の距離に比例する。到達時間は、PA信号の発生時刻から素子の受信時刻までの時間であり、PA信号発生時刻がわかれば、受信部32が受信した受信時刻の情報から算出することができる。PA信号発生源13からPA信号が発せられた時刻は、光発生部15からレーザ光を発した時刻と同時とみなすことができるので、レーザ光の発生時に、光発生部15から超音波送信のためのトリガー信号が制御部40に送られている場合には、このトリガー信号を受信した時刻から、レーザ発生時刻即ちPA信号発生時刻を計算することができる。
 また光発生部15がパルス状レーザ光を照射する際に、パルス発生タイミングを制御部40が受け取り、PA信号発生時刻を得ることも可能である。
 解析部353は、PA信号発生時刻をもとに、次式(1)、(2)により超音波探触子(各素子)からPA信号発生源13の位置(xc、yc)を算出する。xcは超音波探触子のラテラル方向の距離、ycは超音波探触子の深度方向の距離であり、アレイの中心位置を原点とする。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 式中、Nは1Dアレイの素子数、nは1~Nのいずれかの整数で、xnはn番目の素子の座標、tnはn番目の素子への到達時間、δxは演算格子間隔(隣接する素子間の間隔でもよい)、Cは音速である。
 こうして算出された位置情報は、例えば、メモリ70に格納されるとともに、超音波画像形成部351により形成された超音波画像(Bモード画像)とともに表示部60に表示される。また解析部353は解析モードを繰り返し実行する場合、繰り返しごとにメモリ70に格納された位置情報や表示される位置情報を更新する。これによりユーザは、超音波探触子20を目的とする治療部位が撮像できる位置に固定したままで(即ち、ガイドワイヤ先端位置を検出するための超音波探触子20の移動を不要とし、目的部位を常に撮像しながら)、ガイドワイヤの侵入にともない時々刻々変化する先端位置を表示画像上で確認しながら手技を進めることができる。
 なおPA信号発生源13が回折波領域(撮像面)に対しラテラル方向のみならずエレベーション方向(アレイの配列方向と直交する方向)にもずれている場合、式(1)、(2)だけでは、正確なラテラル方向の位置を算出するはできない。しかし、超音波探触子のアレイ配列方向が血管の走行方向と概ね一致している限り、ターゲットに向かうガイドワイヤ先端のエレベーション方向へは大幅にずれることはないので、式(1)、(2)で算出された位置情報はガイドワイヤ先端がターゲットに対しどの程度近づいているかを知る情報として、十分にガイド支援に役立つ。
 また、アレイの素子番号と到達時間との関係は、図6のグラフに示すように、PA信号発生源13が回折波領域からラテラル方向に外れた位置にある場合、右端から左端に向かって或いは左端から右端に向かって曲線状に変化する。この曲率をもとに、PA信号発生源13のラテラル方向へのずれを推定することも可能である。この場合には、解析部353は位置情報の算出を行うのではなく、素子位置と到達時間との関係を示すグラフの傾きをもとに、ターゲットまでの距離について「遠い」、「近い」、「回折波領域に侵入」などの定性的な判定を行い、表示部に表示させてもよい。
 本実施形態によれば、被検体内に挿入されたガイドワイヤの先端位置が、超音波探触子の回折波領域外にあってラテラル方向に離れている場合において、超音波探触子の各素子に到達するPA信号の時間差を利用することにより、PA信号発生源の位置即ちガイドワイヤの先端の位置を推定することができる。
 なお、超音波画像形成部351がPA信号発生源13のPA画像を作成する場合、PA信号発生源13が回折波領域81に入る前から、例えば解析モードを開始すると同時に順次作成してもよいが、解析モードにおいて解析部353が推定したPA信号発生源の距離からPA信号発生源13が回折波領域81に入ったと推定された時点で作成してもよい。回折波領域81に存在するPA信号発生源13の画像は、回折波領域81におけるPA信号発生源13の位置の点状の画像であるので、撮像モードで取得した撮像対象組織の超音波画像と重畳することにより、組織におけるPA信号発生源13の位置を確認することができる。
<第一実施形態の変形例>
 第一実施形態では、解析部353は光発生部15から光発生時刻の情報を受け取り、PA信号の到達時間を算出したが、光音響デバイス10(光発生部15)と超音波撮像装置20とが信号のやり取りを行わないシステムであっても、PA信号の受信時間を用いてPA信号発生源を算出することが可能である。
 本変形例のシステム構成は、図7に示すように、光発生部15から超音波撮像装置20にトリガー信号を送出する信号線がないことを除き、図3に示すシステム構成と同様である。撮像モードと解析モードとの切り替えは、例えば、撮像モードをフリーズした状態で、マニュアルで光音響デバイス10を動作させて解析モードを実行する。
 解析モードで、光発生部15からレーザ光を照射し、PA信号発生源13からPA信号を発生させること、このPA信号を超音波探触子(1Dアレイ探触子)の各素子で受信することは、第一実施形態と同様である。解析部353は、受信部32(PA信号検出部)が取得したPA信号と受信時間に関する情報を用いて、次式(3)により、PA信号発生源13の位置(xc)を算出する。
Figure JPOXMLDOC01-appb-M000003
 式(3)は検出素子毎の式(1)の連立方程式を行列で記述したものであり、式(1)と同じ符号のものは同じ意味を持つ。式(3)において、tはPA信号の発生時刻であり、ここでは未知数である。つまり、この連立方程式ではtとxc(ラテラル方向の距離)の2つの未知数があり、これら未知数は行列の逆問題を解くことで求めることができる。
 こうして求めたtとxcを用いて式(2)と同様の式(4)により、深度方向の距離ycを算出することができる。
Figure JPOXMLDOC01-appb-M000004
 本変形例によれば、トリガー信号によってPA信号の発生時刻を得ることができない場合にも、PA信号発生源13の位置を推定することが可能である。
 なお、位置検出方法は、上記実施形態及び変形例に限定されず、例えば、超音波探触子の各素子で受信したビーコン超音波信号(PA信号)を基に、通常の超音波撮像領域よりも大きい領域で整相処理を実施し、ビーコン超音波信号が結合した位置を位置特定としてもよい。あるいは、粗い整相処理を行い、信号強度が集中している領域を特定してもよい。
<第二実施形態>
 第一実施形態及びその変形例では、超音波探触子の各素子に到達するPA信号の時間差を利用してPA信号発生源13の位置(ラテラル方向の距離)を推定したが、本実施形態の解析部353は、PA信号発生源13の三次元的な位置を推定する。推定には、1D超音波探触子20Aの操作によって三次元的な位置を把握可能にする手法(第一の手法)と、三次元的な位置を把握可能な超音波探触子20Bを用いる手法(第二の手法)とがある。いずれの場合にも、ラテラル方向については第一実施形態と同様の手法を採用する。まず、第一の手法について説明する。
 [第一の手法]
 図8は、第一の手法による処理の流れを示す図である。図示するように、本実施形態においても、第一実施形態と同様に、まず各素子のPA信号の到達時間差を用いて、PA信号発生源13の位置(xc、yc)を算出するとともに(S801)、各素子が受信したPA信号の受信強度(積算値)を算出する(S802)。次に、ステップS802で算出したPA信号の強度が、所定の閾値よりも低い場合(S803)、表示画像形成部355にその情報を送る。表示画像形成部355は、超音波探触子20のあおり操作を促すGUIを形成し、表示部60に表示させる(S804)。
 この間、例えば、光発生部15はパルス状のレーザ光の発生を継続しており、解析部353はステップS802の信号強度の算出が継続する(S805、S806)。そして、表示部60に表示されたGUIに従って、ユーザが超音波探触子20をエレベーション方向(ラテラル方向と直交する方向)にあおり操作を行うと、指向性によって感度が上がり信号強度も上がる。図9にあおり角と信号強度との関係の一例を示す。図9(a)は1Dアレイの超音波探触子20Aをラテラル方向から見た図、図9(b)はあおり角と信号強度との関係を示すグラフである。解析部353は、このような、あおり角の変化に伴う信号強度の変化を検出し、信号強度が最大となるあおり角を求める(S807)。これにより、エレベーション方向のPA信号発生源13の位置を検出することができる。この場合、ステップS801でPA信号発生源13のラテラル方向の位置がわかっているので、この位置と信号強度が最大となるあおり角とを用いることで幾何学的にエレベーション方向の位置を算出することができる(S808)。
 なお上記説明では、ユーザのあおり操作を促すGUIを表示部60に表示させることとしたが、ユーザによっては、GUI等による促しがなくても習慣的に超音波探触子のあおり操作を行う場合もありえる。そのような場合には、GUIの表示(S803、S804)を省略することも可能であり、単にユーザの操作に伴ってステップS802の信号強度の算出と、ステップS807の信号強度が最大となるあおり角の検出を自動で行い、PA信号発生源13の位置を検出してもよい。
[第二の手法]
 第一の手法では、超音波探触子20を操作してあおり角を変えることにより、撮像領域(撮像断面)からエレベーション方向に外れた位置にあるPA信号発生源13の位置を推定したが、第二の手法は、2次元方向に素子が配列した2Dアレイ探触子を用いることにより2方向の位置を検出する。
 2つの配列方向(第一の方向と第二の方向)の位置の検出は、第一実施形態において、PA信号到達時間の素子間の時間差を用いてラテラル方向の位置推定を行ったのと同様であり、各方向の素子の配列において、素子間の時間差を用いて、式(1)、(2)或いは式(3)、(4)により、それぞれ2方向の位置を算出することができる。但し、これら式において、xcは超音波探触子の第一の方向の距離、或いは第二の方向の距離と読み替える。
 別途算出したこうして求めた第一及び第二の方向の距離を用いて、PA信号発生源13の三次元位置を算出することができる。
 なお超音波探触子20には、いわゆる2Dアレイ探触子とは別に、1Dアレイを3列程度配列した1D3列探触子と呼ばれる探触子がある。このような超音波探触子は、ラテラル方向(配列素子数が多い方向)とエレベーション方向(配列素子数が少ない方向)とが区別され、1Dアレイと同様と同様の用いられ方をする。超音波探触子20が1D3列探触子の場合には、1Dアレイと同様に、あおり操作を行った場合の信号強度の変化に基づき、あおり角からエレベーション方向のPA信号発生源13の位置を検出してもよい。その場合、ラテラル方向の位置情報は、3列のアレイそれぞれの素子間時間差を用いて算出し平均化して用いてもよいし、個々の素子と音源位置との距離関係を考慮することでラテラル方向の位置算出精度を高めることができる。
 一般に血管は組織内で直線状に走行しているだけでなく、曲がったり分岐したりしている。従ってラテラル方向の位置だけでは、正確にその進行状況を把握することができない場合がある。本実施形態によれば、エレベーション方向の位置情報を取得することで、より正確に超音波発生源の位置の把握が可能になる。
 またガイドワイヤが目的とする血管から逸れて別の血管に入り込んだりする場合、第一実施形態で推定した超音波発生源のラテラル方向の距離からガイドワイヤ先端位置が回折波領域に入っていると判定される可能性があるが、本実施形態によれば、ラテラル方向のみならずエレベーション方向についても位置情報を取得することにより、ガイドワイヤが目的血管から外れていることなどを推定することができる。
<第三実施形態>
 第一実施形態および第二実施形態では、解析部353は、超音波発生源からの超音波が超音波探触子に到達する時間の素子間の差(到達時間差)を利用して、超音波発生源の位置を推定したが、本実施形態では、到達時間差に応じてビーコン超音波画像(PA画像)に生じる画像の特徴、具体的にはスプリットを用いて距離を推定する。即ち、本実施形態の超音波撮像装置は、超音波画像形成部351が、ビーコン超音波信号を用いて超音波発生源の画像を形成する機能を有し、解析部353は超音波画像形成部351が作成した超音波発生源の画像の情報から超音波発生源13の位置を推定する。
 ビーコン超音波画像に生じる到達時間差の影響について説明する。ビーコン超音波信号の代表例としてPA信号について説明するが、それ以外の超音波でも同様である。
 PA信号は超音波なので、各素子に到達する波の位相が素子毎に異なる。PA画像の作成はこれら位相がずれた信号をコンボリューションすることにより得られる。この際、回折波領域内から発生する信号であれば、整相されて一つの像となるが、回折波領域から外れた位置にあるPA信号発生源の画像は、コンボリューションの影響(コンボリューション効果)により回折波領域から外れるに従い画像がぼけ、一定以上外れると上下にスプリット(分離)して複数の画像に分かれる。スプリットが生じたPA画像を図10に示す。図10の(a)は、回折波領域81との距離が異なるPA信号発生源13の複数の位置(4つの位置)を示す図で、(b)は各位置におけるPA画像を示す図である。図示するように、スプリットは、回折波領域からの距離が離れるほどスプリット数が増加し、スプリットした画像間の間隔は広がる。
 本実施形態の解析部353は、PA画像のスプリット間の間隔を用いてた場合は、次式(5)、(6)により、PA信号発生源の位置を算出する。
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
 式(5)、(6)中の符号は次のとおりである。
Yc:ラテラル方向の音源位置
Zc: エレベーション方向の音源位置
d:(エレベーション方向)短軸口径
 こうして算出した距離をもとに、ガイドワイヤの回折波領域への接近度合い(離間度合い)を判定し、表示することは第一実施形態と同様である。また本実施形態の解析手法は第一実施形態や第二実施形態の解析と組み合わせることも可能であり、これにより、ガイドワイヤ位置に関するより詳細な情報をユーザに提示することができる。なお解析に用いたPA画像は、それ自体を表示部60に表示させてもよいが、撮像モードで取得した超音波画像に重畳して表示させることも可能である。超音波画像に重畳されたPA信号発生源13の画像は、PA信号発生源13が回折波領域から離れている場合、超音波画像の深度の深いところに表示されるので、ユーザは組織の画像の深部に現れた点画像のスプリットを見ることで、PA信号発生源が近づく様子を確認することができる。
 本実施形態によれば、PA画像に現れるスプリットを利用することにより、簡単に回折波領域からの接近状況を視認し、またその距離を推定することができる。
<第三実施形態の変形例>
 第三実施形態は、PA画像に現れるスプリットからPA信号発生源の位置を算出するが、この場合、PA信号発生源が回折波領域に進行する方向の情報は得られない。本変形例では、超音波探触子に非対称なアレイ構造を採用するとともに、非対称性がスプリットに与える効果を検出することにより、方向の情報を取得する。
 図11に非対称なアレイ構造の例を示す。この超音波探触子20Dは、1Dアレイ探触子であり、素子配列方向の中心から一方の側の素子のうち一部(例えば1素子)を解析モードにおいて非作動にする。1素子を非作動する制御は、光発生部15からレーザ光の照射を知らせるトリガー信号を受ける制御部40が行ってもよいし、制御部40が撮像モードと解析モードの切り替えを制御する場合にはモード切り替え時に行ってもよい。
 この超音波探触子でも、PA信号発生源13が回折波領域から離れていると、PA画像にはスプリットができ、そのスプリット数は距離が離れるほど増加する。ここで超音波探触子に非対称性がある場合には、スプリットも上下に非対称性が現れる。例えば図12に示すように、配列した素子の1つの非作動素子が存在する場合、超音波探触子の回折波領域から離れた位置にあるPA信号発生源13Aの画像は、複数の画像にスプリットするが、この際スプリットして上下方向に並ぶ複数の画像うち一つが欠損し、非作動素子が左側か右側かによって、画像欠損位置が異なる。従ってスプリットの形状(非対称性)によって回折波領域に対するPA信号発生源の位置、すなわち表示された超音波画像の対象組織に対しどちら側にガイドワイヤ先端があるか、を推定することができる。
 本変形例によれば、第三実施形態の解析部が推定した位置情報に加えて方向情報を提示することができる。なお上記説明では、非対称アレイ構造にする手段として素子の一つを非作動にする場合を示したが、素子の表面(接触側)に超音波を伝達しない材料からなるシール部材を貼付するなど物理的に非作動にすることも可能である。この場合でも、シールする素子が一つ程度であれば撮像モードへの影響は無視することができる。
<第四実施形態>
 本実施形態では、超音波探触子20をユーザが操作するのではなく、ロボットアームにより操作することが特徴である。
 本変形例を実現するための治療支援システム100Aの一例を図13に示す。図13において、図1に示す要素と同じ要素は同じ符号で示し、重複する説明は省略する。図示するガイド支援システムは、超音波探触子20を取り付けたロボットアーム25と、ロボットアーム25の駆動装置27とを備える。
 ロボットアーム25は、図示していないが、例えば、超音波探触子20を着脱自在に支持する支持部、支持部に対し軸方向に回転可能に連結され、複数のアームをリンク結合したアーム部材、アーム部材を上下方向や水平方向に駆動する機構部などを備え、これら機構部を動かすことにより、超音波探触子20を被検体80に接触させたり、接触させた状態で回転や平行移動させたり、あおり角を変えたりすることができる。超音波探触子20と被検体80の表面との間には、図中、丸で囲って示すように、ゲル状のシート部材90が配置されている。
 駆動装置27はロボットアーム25の各機構部を駆動するモータ等を備え、超音波撮像装置30の制御部40に接続され、制御部40の制御のもとで作動する。
 この支援システム100Aの動作は、基本的には上述した第二実施形態の変形例1と同様であり、超音波探触子の姿勢を変化させることによって二次元的な情報を取得する。但し、第二実施形態の変形例1ではマニュアル操作であおり角を変えたのに対し、本実施形態では、探触子に取り付けたロボットアームの制御によって、あおり角を異ならせる。
 本実施形態における解析モードの動作の一例を、図14を参照して説明する。
 前提として撮像モードにおいて目的とする撮像部位を撮像領域とする超音波探触子1の位置(初期位置)が決まると、この位置で解析モードを開始する。初期位置の情報は、例えばメモリ70に記憶される(S901)。解析モードでは、第一実施形態と同様に光発生部15からレーザ光を照射し、PA信号発生源からPA信号を発生させて、これを超音波探触子20が受信する(S902)。解析部353は、超音波探触子20の各素子へのPA信号到達時間差を用いてPA信号発生源の距離を推定するとともに、その信号強度を記憶する(メモリに格納)(S903)。
 制御部40は信号強度が所定の閾値以下か否かを判断し(S904)、閾値以下であれば、駆動装置27に制御信号を送り、例えば、超音波探触子20を支持する支持部251をアーム部252に対し回転させてあおり角を変える制御を行い(S905)、解析モードの計測を実行する(S906)。例えば予め設定した所定のあおり角の範囲であおり角の変更と解析モードの計測を繰り返し(S907)、正負を含む複数のあおり角の信号強度の情報を取得する。解析部353は、あおり角毎の信号強度のうち最も信号強度が高くなるあおり角を求め(S908)、このあおり角から、ガイドワイヤの先端が撮像領域に対しエレベーション方向のどちら側にあるのかを判定する(S909)。また信号強度が最大となるあおり角と、ステップS903で推定したラテラル方向の位置情報とを用いることにより、ガイドワイヤ先端の正確な距離(回折波領域までの距離)を推定してもよい。
 解析モードから撮像モードに切り替わると、制御部40は超音波探触子20の位置をステップS901においてメモリ70に記憶された初期位置に戻すように駆動機構27を制御し、撮像モードを実行する。
 本実施形態によれば、第二実施形態と同様に、ガイドワイヤ先端の三次元位置情報を取得することができ、その際、術者の手を煩わせることなく、正確なガイドワイヤ先端位置を提示できる。これにより術者は、ガイドワイヤの挿入とそれに続くカテーテル治療に専念することができ、高い支援効果が得られる。
 なお本実施形態においても、PA信号発生源の距離の推定は、第一実施形態のように素子へのPA信号到達時間差から直接算出してもよいし、第三実施形態のようにPA画像に生じたスプリットの間隔から算出してもよい。
<<表示の実施形態>>
 次に、上述した各実施形態により解析部が算出し推定したPA信号発生源の位置や方向を提示する手法(表示画像形成部による処理)の実施形態を説明する。
<表示例1>
 本表示例では、超音波画像で観察している部位にガイドワイヤが近づいてくる方向とどの程度近づいているのかという、ガイドワイヤを用いて手術の支援で最も重要な情報を提示する。図15に方向情報を示す例を示す。
 図15(a)に示す例では、被検体組織を含む超音波画像を表示する画面1500上に、どちらからガイドワイヤが近づいているかを示す矢印(ビーコン)1501を表示する。ユーザは、この表示により矢印で示す方向からガイドワイヤが近づいてくることを知ることができる。ガイドワイヤ先端が、表示されている超音波画像の撮像領域に入ったならば、PA信号発生源13の超音波画像(PA)を超音波画像に重畳して表示してもよい(不図示)。
 図15(b)に示す例は、超音波画像を表示する画面の両側に、ガイドワイヤ接近を知らせる方向表示部1502A、1502Bを設けたものである。例えば、表示された超音波画像の左側からガイドワイヤが近づいている場合には、左側の方向表示部1502Aが点灯し、明るくなる。右側の方向表示部1502Bは暗いままである。これによりユーザは、方向表示部が点灯している側からガイドワイヤが近づいてくることを知ることができる。この際、ガイドワイヤが存在する側の方向表示部の明度をガイドワイヤの距離に応じて変化させてもよい。例えば、ガイドワイヤが回折波領域から遠いところにあるときには、方向表示部は非点灯とし、所定の距離に近づいたときに低い明度で点灯させる。その後回折波領域との距離が縮まるにつれて方向表示部の明度を高める。
 また図15の方向を提示する表示に加えて、例えば第一~第三実施形態で算出したガイドワイヤの位置情報を超音波画像の表示画面の端部などに併せて表示してもよい。位置情報としては、第一実施形態で算出したPA信号発生源13の位置や、超音波画像上の特定の組織(例えばターゲット)までの距離などの数値でもよいし、「遠(200mm以上)」「近(100mm以内)」などの定性的な表示でもよい。解析部が推定する位置情報は、解析モードを繰り返すことによって変化するので、変化に合わせて表示を更新する。
 本表示実施形態によれば、ガイドワイヤを用いて手術の支援を行う際に、最も重要な情報であるガイドワイヤの方向と接近とを超音波画像上に提示することができる。これにより術者はガイドワイヤの挿入に注力しながらその進行具合を視覚的に確認することができる。
<表示例2>
 本表示例では、PA信号発生源の三次元的な情報を取得した場合に、超音波の三次元画像上にPA信号発生源の位置を表示する。
 2Dアレイ探触子20Bを用いた場合や1Dアレイ探触子をエレベーション方向に掃引操作して撮像した場合には、三次元の超音波画像データが得られる。表示画像形成部355は、三次元画像データを用いて、図16に示すような、レンダリング画像1600を作成し、そのレンダリング画像中の、PA信号発生源の位置に相当する位置に、所定のマーク画像1601を重畳する。マークは、特に限定されないが、PA信号発生源を表す球状のマークでもよいし、PA信号発生源の進行方向を示す矢印のマークでもよい。さらに時間的に変化するPA信号発生源の各位置をつなげた線状のマークを示してもよい。
<表示例3>
 本実施形態は、超音波画像を表示する画面に、受信したPA信号の信号強度を表示する信号強度表示部を設けたものである。図17に表示例を示す。この表示例では、画面1700の画像と重複しない位置に時々刻々変化するPA信号強度の表示部1701を設けたものであり、信号強度の時間変化がグラフ状に表示される。PA信号の信号強度は、PA信号発生源13が超音波探触子からの距離(回折波領域からの距離)によって変化し、また第二実施形態の変形例1や第四実施形態のように、超音波探触子のあおり角を変化させた場合にも変化する。
 本実施形態では、表示画像形成部355は、解析部353から受け取った時刻毎の信号強度の変化の情報を用いて、例えば横軸を時間、縦軸を信号強度とするグラフを作成し、表示画面の信号強度表示部1701に表示する。このグラフは解析モードの計測が繰り返されるたびに更新される。あおり角を変化させる場合には、横軸をあおり角とするグラフを作成し、表示してもよい。
 本実施形態によれば、ガイドワイヤの進行状況を信号強度の変化として見ることができる。なお信号強度を示すグラフの表示とともに、他の表示例による表示を併せて行ってもよい。
 以上、本発明の超音波撮像装置およびカテーテル治療支援システムの各実施形態を説明したが、各実施形態は技術的に矛盾しない限り、適宜組み合わせることが可能であり、そのような組み合わせも本発明に包含される。
10:光音響デバイス、11:ワイヤ、12:光ファイバ、13:PA信号発生源、15:光発生部、20:超音波探触子、30:超音波撮像部(超音波撮像装置)、31:送信部、32:受信部、35:信号処理部、40:制御部、50:入力部、60:表示部、70:メモリ、80:被検体、81:撮像領域(回折波領域)、351:超音波画像形成部、353:PA信号解析部、355:表示画像形成部

Claims (17)

  1.  被検体に対し超音波探触子を介してビームフォームされた送信超音波信号を送信し、当該超音波信号が照射された領域からの反射超音波信号を受信し、前記領域の超音波画像を撮像する撮像部と、
     前記被検体の内部に挿入された超音波発生源からの超音波を、前記超音波探触子を介して受信し、解析する超音波信号解析部と、を備え、
     前記超音波信号解析部は、前記超音波探触子を構成する複数の素子がそれぞれ受信する超音波の受信時間の差を利用して、前記領域から外れた位置にある前記超音波発生源の位置を推定することを特徴とする超音波撮像装置。
  2.  請求項1に記載の超音波撮像装置であって、
     前記超音波信号解析部は、前記超音波の各素子への到達時間の時間差を用いて前記領域に対する前記超音波発生源の位置を推定することを特徴とする超音波撮像装置。
  3.  請求項2に記載の超音波撮像装置であって、
     前記超音波信号解析部は、前記超音波発生源に超音波を発生させるための光信号を生成する光発生部から、前記光信号の発生時刻に関する情報を受け取り、前記到達時間の時間差を算出することを特徴とする超音波撮像装置。
  4.  請求項2に記載の超音波撮像装置であって、
     前記超音波信号解析部は、前記超音波の受信時間の時間差と各素子間の距離とを用いた連立方程式に基づき解析を行うことにより、前記到達時間の時間差及び前記超音波発生源の位置を推定することを特徴とする超音波撮像装置。
  5.  請求項1に記載の超音波撮像装置であって、
     前記超音波探触子は、前記素子が一次元方向に配列した1Dアレイ探触子であって、
     前記超音波信号解析部は、前記超音波探触子のエレベーション方向のあおり角を異ならせて取得した超音波を用いて、あおり角と前記超音波の信号強度との関係を取得し、前記関係を用いて、前記超音波発生源のエレベーション方向の距離を算出する距離算出部を備えたことを特徴とする超音波撮像装置。
  6.  請求項1に記載の超音波撮像装置であって、
     前記超音波探触子は、前記素子が二次元方向に配列した2Dアレイ探触子であって、
     前記超音波信号解析部は、第一の方向に配列する素子群が受信する超音波を用いて、前記超音波発生源の前記第一の方向の距離を算出する第一距離算出部と、前記第一の方向に直交する第二の方向に配列する素子群が受信する超音波を用いて、前記超音波発生源の前記第二の方向の距離を算出する第二距離算出部と、を備えたことを特徴とする超音波撮像装置。
  7.  請求項5に記載の超音波撮像装置であって、
     前記超音波探触子は、一次元方向に配列した素子列を複数有する1Dアレイ探触子であることを特徴とする超音波撮像装置。
  8.  請求項1に記載の超音波撮像装置であって、
     前記超音波探触子が受信した超音波信号を用いて超音波画像を形成する超音波画像形成部をさらに備え、
     前記超音波形成部は、前記超音波発生源からの前記超音波を用いて、前記超音波発生源の画像を生成することを特徴とする超音波撮像装置。
  9.  請求項8に記載の超音波撮像装置であって、
     前記超音波信号解析部は、前記超音波発生源の画像における、前記超音波発生源のスプリットを検出し、検出したスプリットの間隔を用いて前記超音波発生源のラテラル方向の距離を算出することを特徴とする超音波撮像装置。
  10.  請求項9に記載の超音波撮像装置であって、
     前記超音波探触子は、一次元方向に配列した素子列が中央位置に対し非対称であり、
     前記超音波信号解析部は、前記スプリットの間隔に現われる非対称性をもとに、前記領域に対する前記超音波発生源の方向を判定することを特徴とする超音波撮像装置。
  11.  請求項1に記載の超音波撮像装置であって、
     前記撮像部が取得した前記超音波画像を表示装置に表示させる表示画像作成部をさらに備え、
     前記表示画像作成部は、前記超音波信号解析部が推定した前記超音波発生源の位置に関する情報を前記超音波画像とともに前記表示装置に表示させることを特徴とする超音波撮像装置。
  12.  請求項11に記載の超音波撮像装置であって、
     前記表示装置に表示させる情報は、前記領域に対する前記超音波発生源の方向及び位置の少なくとも一方を識別可能にする情報であることを特徴とする超音波撮像装置。
  13.  請求項1に記載の超音波撮像装置であって、
     前記超音波探触子を自動操作するロボットアームと、当該ロボットアームの動きを制御する制御部と、をさらに備え、
     前記制御部は、前記超音波信号解析部の解析結果を用いて、前記超音波探触子のあおり動作を制御することを特徴とする超音波撮像装置。
  14.  請求項1に記載の超音波撮像装置であって、
     前記撮像部の動作を制御する制御部をさらに備え、
     前記制御部は、前記超音波発生源に超音波を発生させるための光信号を生成する光発生部から、前記光信号の発生時刻に関する情報を受け取り、前記光信号の発生から所定の遅延時間経過後に前記撮像部による撮像を実行するよう前記撮像部を制御することを特徴とする超音波撮像装置。
  15.  被検体に対し超音波探触子を介してビームフォームされた超音波信号を送信し、当該超音波信号が照射された領域からの反射超音波信号を受信し、前記領域の超音波画像を撮像する撮像部を備えた超音波撮像装置、及び、
     被検体内に挿入される治療具に固定された超音波発生源と、前記超音波発生源に超音波を発生させるための光信号を生成する光発生部と、前記光発生部から前記超音波発生源に前記光信号を導光する導光路と、を備えた治療デバイスを含む治療支援システムであって、
     前記超音波撮像装置は、前記被検体の内部に挿入された超音波発生源からの超音波を、前記超音波探触子を介して受信し、解析する超音波信号解析部をさらに備え、
     前記超音波信号解析部は、前記超音波探触子を構成する複数の素子がそれぞれ受信する超音波の受信時間の差を用いて、前記領域から外れた位置にある前記超音波発生源の位置を推定することを特徴とする治療支援システム。
  16.  請求項15に記載の治療支援システムであって、
     前記超音波探触子を自動操作するロボットと、当該ロボットを制御する制御部とをさらに備え、
     前記制御部は、前記超音波信号解析部の結果に応じて、前記ロボットを制御し、前記超音波探触子の位置及び姿勢の少なくとも一方を変化させることを特徴とする治療支援システム。
  17.  超音波探触子を解して被検体に照射された超音波信号の反射波を受信し、超音波信号が照射された領域の超音波画像を作成するとともに、前記被検体内部に挿入された超音波発生源が発生する超音波を前記超音波探触子で受信し、受信した超音波を用いて、前記領域に対する前記超音波発生源の位置を検出し、前記超音波画像とともに表示する画像処理方法であって、
     前記超音波探触子を構成する各素子への超音波の到達時間の差または前記超音波から作成した前記超音波発生源の画像に現われるスプリット間の間隔を用いて、前記領域までの前記超音波発生源の距離を算出することを特徴とする画像処理方法。
PCT/JP2020/000128 2019-01-31 2020-01-07 超音波撮像装置、治療支援システム、及び、画像処理方法 WO2020158301A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/416,707 US12036068B2 (en) 2019-01-31 2020-01-07 Ultrasonic imaging device, treatment support system, and image processing method
CN202080005549.3A CN112822985B (zh) 2019-01-31 2020-01-07 超声波摄像装置、治疗辅助系统以及图像处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019016072A JP7168474B2 (ja) 2019-01-31 2019-01-31 超音波撮像装置、治療支援システム、及び、画像処理方法
JP2019-016072 2019-07-17

Publications (1)

Publication Number Publication Date
WO2020158301A1 true WO2020158301A1 (ja) 2020-08-06

Family

ID=71840511

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/000128 WO2020158301A1 (ja) 2019-01-31 2020-01-07 超音波撮像装置、治療支援システム、及び、画像処理方法

Country Status (4)

Country Link
US (1) US12036068B2 (ja)
JP (1) JP7168474B2 (ja)
CN (1) CN112822985B (ja)
WO (1) WO2020158301A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000185041A (ja) * 1998-10-14 2000-07-04 Toshiba Corp 超音波診断装置
JP2009095379A (ja) * 2007-10-12 2009-05-07 Toshiba Corp 超音波診断装置
JP2015016300A (ja) * 2013-06-13 2015-01-29 キヤノン株式会社 生検支援装置及び生検支援方法
JP2015037519A (ja) * 2013-01-09 2015-02-26 富士フイルム株式会社 光音響画像生成装置及び挿入物
JP2017148407A (ja) * 2016-02-26 2017-08-31 コニカミノルタ株式会社 超音波診断装置、及び制御プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6425865B1 (en) * 1998-06-12 2002-07-30 The University Of British Columbia Robotically assisted medical ultrasound
US20130016185A1 (en) 2009-11-19 2013-01-17 The John Hopkins University Low-cost image-guided navigation and intervention systems using cooperative sets of local sensors
CN103747729B (zh) * 2011-06-13 2016-07-13 皇家飞利浦有限公司 利用二维成像探头的三维针定位
GB201307551D0 (en) * 2013-04-26 2013-06-12 Ucl Business Plc A method and apparatus for determining the location of a medical instrument with respect to ultrasound imaging and a medical instrument
JP6218447B2 (ja) 2013-06-14 2017-10-25 キヤノン株式会社 画像形成装置、その制御方法、及びプログラム
CN104640506B (zh) * 2013-09-18 2017-06-30 东芝医疗系统株式会社 超声波诊断装置、医用图像处理装置和医用图像处理方法
JP2015100546A (ja) * 2013-11-26 2015-06-04 セイコーエプソン株式会社 針抜け検出装置、人工透析器および針抜け検出方法
US20150173723A1 (en) * 2013-12-20 2015-06-25 General Electric Company Method and system for automatic needle recalibration detection
JP6049215B2 (ja) * 2014-01-16 2016-12-21 富士フイルム株式会社 光音響計測装置並びにそれに利用される信号処理装置および信号処理方法
JP6049208B2 (ja) 2014-01-27 2016-12-21 富士フイルム株式会社 光音響信号処理装置、システム、及び方法
US11413011B2 (en) * 2015-12-22 2022-08-16 Koninklijke Philips N.V. Ultrasound based tracking
JP6732054B2 (ja) * 2017-02-10 2020-07-29 富士フイルム株式会社 光音響画像生成装置
EP3582692A1 (en) * 2017-02-14 2019-12-25 Koninklijke Philips N.V. Path tracking in ultrasound system for device tracking
CN116392163A (zh) * 2017-03-29 2023-07-07 富士胶片株式会社 超声波诊断装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000185041A (ja) * 1998-10-14 2000-07-04 Toshiba Corp 超音波診断装置
JP2009095379A (ja) * 2007-10-12 2009-05-07 Toshiba Corp 超音波診断装置
JP2015037519A (ja) * 2013-01-09 2015-02-26 富士フイルム株式会社 光音響画像生成装置及び挿入物
JP2015016300A (ja) * 2013-06-13 2015-01-29 キヤノン株式会社 生検支援装置及び生検支援方法
JP2017148407A (ja) * 2016-02-26 2017-08-31 コニカミノルタ株式会社 超音波診断装置、及び制御プログラム

Also Published As

Publication number Publication date
US20210378632A1 (en) 2021-12-09
JP7168474B2 (ja) 2022-11-09
US12036068B2 (en) 2024-07-16
CN112822985B (zh) 2024-07-19
CN112822985A (zh) 2021-05-18
JP2020121039A (ja) 2020-08-13

Similar Documents

Publication Publication Date Title
JP4443672B2 (ja) 超音波診断装置
EP2713888B1 (en) Ablation probe with ultrasonic imaging capabilities
JP5416900B2 (ja) 超音波診断装置及び穿刺支援用制御プログラム
US20070021744A1 (en) Apparatus and method for performing ablation with imaging feedback
WO2014003070A1 (ja) 超音波診断装置及び超音波画像処理方法
JP2015507514A (ja) 生検における針経路の超音波誘導
JP2017070362A (ja) 超音波診断装置及び医用画像診断装置
JP6097258B2 (ja) 超音波装置および超音波装置の作動方法
WO2012024201A1 (en) Steerable catheter navigation with the use of interference ultrasonography
CN105518482A (zh) 超声成像仪器可视化
JP5477889B2 (ja) 医療用ナビゲーションシステム
JP2018023610A (ja) 超音波測定装置および制御方法
CN115348839A (zh) 超声探头、用户控制台、系统和方法
US20240050060A1 (en) Ultrasonic diagnostic apparatus
WO2019239647A1 (ja) 超音波撮像装置
WO2020158301A1 (ja) 超音波撮像装置、治療支援システム、及び、画像処理方法
JP2014204904A (ja) 医用ガイドシステム
JP2015134132A (ja) 超音波診断装置
US11986270B2 (en) Ultrasound imaging apparatus that alternates between monitoring and imaging modes, surgical operation support system, and method using the same
JPWO2011033793A1 (ja) 超音波診断装置とそれを用いた診断方法
JP5276465B2 (ja) 超音波診断装置及び医療システム
JP4943969B2 (ja) 超音波診断装置
JP2023532067A (ja) 超音波トランシーバを持つ介入デバイス

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20748111

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20748111

Country of ref document: EP

Kind code of ref document: A1