WO2013035393A1 - 超音波診断装置及び超音波画像表示方法 - Google Patents

超音波診断装置及び超音波画像表示方法 Download PDF

Info

Publication number
WO2013035393A1
WO2013035393A1 PCT/JP2012/063846 JP2012063846W WO2013035393A1 WO 2013035393 A1 WO2013035393 A1 WO 2013035393A1 JP 2012063846 W JP2012063846 W JP 2012063846W WO 2013035393 A1 WO2013035393 A1 WO 2013035393A1
Authority
WO
WIPO (PCT)
Prior art keywords
reference image
ultrasonic
image
ultrasound
probe
Prior art date
Application number
PCT/JP2012/063846
Other languages
English (en)
French (fr)
Inventor
正尚 近藤
Original Assignee
株式会社 日立メディコ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 日立メディコ filed Critical 株式会社 日立メディコ
Priority to CN201280043713.5A priority Critical patent/CN103781426B/zh
Priority to JP2013532478A priority patent/JP5775164B2/ja
Priority to US14/342,430 priority patent/US9480457B2/en
Priority to EP12830733.7A priority patent/EP2754396A4/en
Publication of WO2013035393A1 publication Critical patent/WO2013035393A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • A61B8/5276Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts due to motion
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • A61B8/145Echo-tomography characterised by scanning multiple planes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52073Production of cursor lines, markers or indicia by electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52074Composite displays, e.g. split-screen displays; Combination of multiple images or of images and alphanumeric tabular information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52079Constructional features
    • G01S7/52084Constructional features related to particular user interfaces

Definitions

  • the present invention relates to an ultrasonic diagnostic apparatus and an ultrasonic image display method, and more particularly to an ultrasonic image display technique.
  • an ultrasonic tomographic image is a tomographic image obtained by a magnetic resonance imaging apparatus (hereinafter referred to as an MRI apparatus) or an X-ray computed tomographic apparatus (hereinafter referred to as an X-ray CT apparatus). It is hard to see as morphological information from the whole body of the subject.
  • Patent Document 1 by detecting the position and posture of the ultrasonic endoscope based on a position detection sensor attached to the ultrasonic endoscope, an image having the same cross section as the ultrasonic image is previously stored.
  • An ultrasonic diagnostic apparatus is disclosed that reconstructs from the volume data of a captured MRI image or CT image, synchronizes the reconstructed image and the ultrasonic image, and displays the image on a monitor.
  • Patent Document 1 has a problem that the positional relationship between the ultrasonic image and the ultrasonic probe is unclear even though the morphological information of the ultrasonic image can be complemented. In particular, in the procedure of inserting and imaging an ultrasonic probe in the body cavity of the subject, the position of the ultrasonic probe cannot be visually observed, so the above problem tended to become more prominent. .
  • the present invention has been made in view of the above problems, and an object thereof is to provide an ultrasonic diagnostic apparatus and an ultrasonic image display method capable of presenting a positional relationship between an ultrasonic probe and a display screen.
  • an ultrasonic diagnostic apparatus radiates ultrasonic waves and receives the reflected waves of the ultrasonic waves, and positions of the ultrasonic probes.
  • First position detecting means for detecting ultrasonic image generating means for generating an ultrasonic image using a reflected echo signal based on the reflected wave, and a reference image of an arbitrary cross section using three-dimensional volume data of the subject
  • An ultrasonic image display method including a step of displaying an ultrasonic image based on a reflected wave received from an acoustic probe and a reference image.
  • an ultrasonic diagnostic apparatus and an ultrasonic image display method capable of presenting a positional relationship between an ultrasonic probe and a display screen by displaying a reference image in which an ultrasonic probe mark is superimposed and displayed. Can be provided.
  • the third reference image is an explanatory diagram showing a concept of switching continuously in the depth direction
  • (a) is an operation of the trackball
  • (b) shows the position of the third reference image accompanying the operation of the trackball and the movement of the mark indicating it.
  • the third reference image is an explanatory diagram showing a concept of continuously switching in the direction opposite to the depth direction
  • (a) is a track The operation of the ball and the accompanying screen transition are shown.
  • (B) shows the position of the third reference image accompanying the operation of the trackball and the movement of the mark indicating it.
  • FIG. 4A is a diagram illustrating the operation of the trackball and the accompanying screen transition
  • FIG. 5B is the position of the second reference image associated with the operation of the trackball and the movement of the mark indicating it. It is an explanatory view showing the screen transition when the trackball is rotated to the right in a state where the third reference image is selected, (a) shows the screen transition including the third reference image, (b) Indicates the movement of the position of the third reference image.
  • FIG. 6A is an explanatory diagram showing a second reference image displayed in FIG. 5A, in which FIG. 5A shows the rotation direction of the second reference image and the operation direction of the trackball, and FIG. 5B shows the second reference image after rotation.
  • FIG. 5A shows the rotation direction of the second reference image and the operation direction of the trackball
  • FIG. 5B shows the second reference image after rotation.
  • FIG. 5 is an explanatory diagram showing an example of a display screen according to the second embodiment, and shows a display example when the ultrasonic probe C of FIG. 2 is used.
  • FIG. 5 is an explanatory diagram showing an example of a display screen according to the second embodiment, and shows a display example when the ultrasonic radiation surface 21 of the ultrasonic probe A of FIG. 2 is used.
  • FIG. 1 is a schematic diagram showing an overall schematic configuration of an ultrasonic diagnostic apparatus according to an embodiment of the present invention.
  • the ultrasonic diagnostic apparatus 10 mainly includes an ultrasonic diagnostic apparatus main body 1, an ultrasonic probe 2, a position sensor 4, a source generation source 5, and a monitor 15.
  • the ultrasonic diagnostic apparatus main body 1 is roughly divided into a system for generating an ultrasonic image and a system for generating a reference image to be referred to when diagnosing the ultrasonic image.
  • the ultrasonic image generation system includes an ultrasonic image generation unit 6 that generates an ultrasonic image based on a reflected echo signal from the ultrasonic probe 2, and a cine memory that temporarily stores a plurality of ultrasonic images. 7 and an ultrasonic volume data generation unit 8 that generates three-dimensional ultrasonic volume data based on a plurality of ultrasonic images.
  • a system for generating a reference image includes, for example, a volume data recording unit 9 that stores three-dimensional volume data captured by a medical image diagnostic apparatus 17 such as an MRI apparatus, a CT apparatus, and other ultrasonic diagnostic apparatuses, and a position sensor 4 and Based on the signal of the source generation source 5, a scan plane acquisition unit 11 that detects the position and orientation of the ultrasound probe 2, and a reference image that is referred to when diagnosing an ultrasound image, a volume data storage unit A reference image generation unit 12 that generates a reference image based on the three-dimensional volume data and ultrasonic volume data of the subject stored in 9, and a guide image generation unit 13 that generates a guide image indicating a cross-sectional position of the reference image; A movement / rotation signal input unit 16 that receives input of the type / movement of the reference image, the movement amount / rotation amount, and the movement direction / rotation direction. Furthermore, the ultrasonic diagnostic apparatus main body 1 includes an image processing unit 14 that performs display processing in association with cross-sectional positions of the
  • the ultrasonic diagnostic apparatus main body 1 includes a route calculation unit 53.
  • the route calculation unit 53 calculates the entry route of the puncture needle 51. Further, based on output signals from the position sensor 52 fixed to the puncture needle 51 by the position sensor fixing mechanism 73 and the source generating source 5, the current position and inclination of the puncture needle 51 are calculated, and the extension of the core wire is determined as the extension of the core wire. You may calculate as an approach route.
  • the puncture needle 51, the position sensor 52, the route calculation unit 53, and the position sensor fixing mechanism 54 are used in the second embodiment.
  • the ultrasonic diagnostic apparatus main body 1 inputs the three-dimensional volume data of the subject imaged by the medical image diagnostic apparatus 17, the ultrasonic volume data imaged by another ultrasonic diagnostic apparatus, and the like. It has an interface. Then, the ultrasonic diagnostic apparatus body 1 is directly connected to the medical image diagnostic apparatus 17 via the interface, receives the three-dimensional volume data, and stores it in the volume data recording unit 9. Furthermore, the three-dimensional volume data can be stored in the volume data recording unit 9 in the ultrasonic diagnostic apparatus main body 1 via a network or a portable recording medium such as a USB memory. Details of each component will be described below.
  • the ultrasonic probe 2 transmits an ultrasonic wave from the ultrasonic radiation surface, receives a reflected wave of the ultrasonic wave, and outputs a reflected echo signal to the ultrasonic image generation unit 6.
  • the ultrasonic image generation unit 6 is at each position in the advancing / retreating direction of the ultrasound probe 2 (corresponding to the insertion direction if the ultrasound probe 2 is inserted into the body cavity of the subject). An ultrasonic image for one frame is generated. As the position of the ultrasound probe 2 moves, ultrasound images for a plurality of frames are generated from a plurality of positions.
  • the cine memory 7 temporarily stores ultrasonic images for a plurality of frames.
  • the ultrasonic volume data generation unit 8 is a three-dimensional image obtained by accumulating multiple frames of ultrasonic images along one direction (the advancing and retreating direction of the ultrasonic probe 2) based on the ultrasonic images temporarily stored in the cine memory 7. Generate ultrasonic volume data.
  • the volume data recording unit 9 records the generated three-dimensional ultrasonic volume data, and also records the three-dimensional volume data imaged by the medical image diagnostic apparatus 17.
  • a position sensor 4 such as a magnetic sensor for detecting the position and orientation of the ultrasonic probe 2 is fixed to the ultrasonic probe 2 by a position sensor fixing mechanism 3 attached to the ultrasonic probe 2.
  • a source generation source 5 that generates a source such as a magnetic field in a coordinate system including the subject is disposed, for example, next to a bed on which the subject lies.
  • the position sensor 4 and the source generation source 5 are electrically connected to the scan plane acquisition unit 11, and output signals from the position sensor 4 and the source generation source 5 are output to the scan plane acquisition unit 11.
  • the scan plane acquisition unit 11 acquires position information such as the position / tilt angle of the ultrasonic probe 2 based on the output signals from the position sensor 4 and the source generation source 5, and the ultrasonic probe 2 3 Calculating the dimensional position and tilt angle, etc., and calculating the coordinates of the scan plane (cross section of the ultrasonic image) of the ultrasound probe 2, and the calculated coordinates of the scan plane are recorded A scan surface recording unit 11b.
  • the position detection by the magnetic field is illustrated as an example of the position detection of the ultrasound probe 2.
  • the present invention is not limited to this, and various known position detection methods can be used.
  • the calculated coordinates of the scan plane are output to the reference image generation unit 12 and the image processing unit 14.
  • the reference image generation unit 12 uses the coordinates calculated by the scan plane acquisition unit 11, from the three-dimensional volume data recorded in the volume data recording unit 9, a reference image having the same cross section as the ultrasound image (hereinafter, A first reference image), a reference image rotated by 90 ° or 270 ° about the depth direction of the first reference image (hereinafter referred to as a second reference image), and an ultrasonic probe 2 A reference image parallel to the sound wave emitting surface (hereinafter referred to as a third reference image) or a reference image having an arbitrary cross section is generated. Further, the reference image generation unit 12 performs a process of superimposing and displaying dotted lines indicating the positions of other reference images on each generated reference image or hiding those dotted lines.
  • the reference image generation unit 12 calculates the coordinates of the ultrasonic radiation area (also referred to as the visual field area) in the ultrasonic image, and performs superimposition on the first, second, and third reference images. A process of reducing the luminance of the area outside the sound wave radiation area or hiding the area outside the radiation area is performed.
  • the reference image generation unit 12 can change the speed of reconstructing the reference image by changing the image size and the frame rate of the reference image according to the movement of the ultrasound probe 2. That is, when the ultrasonic probe 2 moves fast in the forward / backward direction, the frame rate is prioritized over the image quality, and the reference image is drawn at high speed. Conversely, when the moving speed of the ultrasound probe 2 is slow, the image quality is prioritized over the frame rate, and the reference image is reconstructed and drawn. As a result, the reference image can be displayed following the movement of the ultrasound probe 2.
  • the reference image generation unit 12 outputs position information indicating the cross-sectional position of each reference image and the generated reference image to the image processing unit 14. Position information indicating the cross-sectional position of each reference image is also output to the guide image generation unit 13. That is, the reference image generation unit (reference image generation unit 12) generates a plurality of reference images having different cross sections, and displays a mark indicating the slice pitch of the other reference image on one reference image in a superimposed manner. A mark indicating the slice pitch indicating the cross-sectional position of another reference image displayed on the (monitor 15) is highlighted.
  • a first image that superimposes a mark indicating the slice pitch of the reference image on the ultrasonic image and highlights a mark indicating the slice pitch indicating the cross-sectional position of the reference image displayed on the display means (monitor 15).
  • Processing means (guide image generation unit 13) is further provided.
  • the guide image generation unit 13 uses the 3D volume data of the subject recorded in the volume data recording unit 9 and the cross-sectional position information of the reference image obtained from the reference image generation unit 12 to generate a 3D visible image of the subject.
  • a guide image is generated by superimposing and displaying a cross section of the reference image in a translucent color.
  • a known method such as volume rendering or surface rendering can be applied.
  • the generated guide image is output to the image processing unit 14.
  • the correspondence between the three-dimensional volume data of the subject acquired by the medical image cutting device 17 and the position of the ultrasound probe 2 is, for example, a subject image composed of the three-dimensional volume data of the subject.
  • the ultrasonic image obtained by the ultrasonic probe 2 is displayed on the monitor 15, the characteristic part included in the subject image, and the same characteristic part included in the ultrasonic image, Can be realized by applying a well-known technique such as instructing the operator with a pointing device.
  • the ultrasonic image is stored in association with positional information in the advancing / retreating direction when it is acquired.
  • the image processing unit 14 is connected to the scan plane acquisition unit 11, the cine memory 7, the reference image generation unit 12, and the guide image generation unit 13.
  • An ultrasonic image is acquired from the cine memory 7, a reference image is acquired from the reference image generation unit 12, and a guide image is acquired from the guide image generation unit 13.
  • a process of superimposing / not displaying the dotted line indicating the position of the reference image on the ultrasonic image is performed.
  • the process for displaying on the monitor 15 in association with the positions of the ultrasound image, the reference image, and the guide image is performed.
  • the ultrasonic image and the reference image may be displayed side by side, or the reference image may be translucent and displayed superimposed on the ultrasonic image. When superimposed, it is possible to easily compare the ultrasonic image and the reference image with one image.
  • images generated by the cine memory 7, the reference image generation unit 12, and the guide image generation unit 13 can be appropriately combined and displayed.
  • the image processing unit 14 performs image processing for superimposing the scan surface on the guide image in a translucent color.
  • the surgeon can grasp the positional relationship between the subject and the scan surface of the ultrasound probe 2 three-dimensionally.
  • the position of the first reference image and the position of the scan surface of the ultrasonic image coincide with each other, in the following description, an example in which the position of the first reference image is displayed on the guide image is taken up.
  • the first reference image may be read as the scan surface of the ultrasonic image.
  • the image processing unit 14 is also connected to the path calculation unit 53, and the path and position of the puncture needle 51 acquired from the path calculation unit 53, or the position of the extension line of the core wire, It is also possible to superimpose and display on an ultrasonic image.
  • the movement / rotation signal input unit 16 is connected to a pointing device such as a mouse or a trackball and an input device such as a keyboard. Then, when the surgeon operates these input devices, selects the type of movement or rotation, and the movement direction or rotation direction, and further inputs the movement amount and rotation angle, the movement / rotation signal input unit 16 An input value is acquired and output to the reference image generation unit 12. Further, the movement / rotation signal input unit 16 may accept selection input of an image to be moved or rotated.
  • the reference image generation unit 12 moves and rotates the reference image according to the input value, and the guide image generation unit 13 determines the position of the reference image on the guide image based on the position information of the reference image acquired from the reference image generation unit 12. To move. Following this, the image processing unit 14 moves a mark indicating the position of the reference image superimposed on the ultrasonic image.
  • the position of the reference image superimposed on the guide image or the position of the reference image superimposed on the ultrasound image is moved / rotated using an operating device such as a pointing device such as a mouse or a trackball
  • the movement / rotation signal input unit 16 detects the movement amount / rotation amount, and the reference image generation unit 12 generates a new reference image according to the detected input value, and the reference image of the monitor 15 is also updated and displayed.
  • the ultrasonic diagnostic apparatus 10 is provided with an operation input device for zooming in / out the observation site.
  • the display magnification of the observation region is changed in the ultrasonic image generated by the ultrasonic image generation unit 6.
  • the reference image generation unit 12 changes the display magnification of the reference image so as to coincide with the display magnification of the new ultrasonic image (new generation).
  • the ultrasonic image and the reference image whose display magnification is changed are updated and displayed on the monitor 15.
  • FIG. 2 is an explanatory diagram showing a schematic configuration of the ultrasonic probe 2. As shown in FIG.
  • biplane ultrasonic probe A that acquires two ultrasonic images simultaneously from two ultrasonic emission surfaces and one ultrasonic image by switching between two ultrasonic emission surfaces
  • a non-biplane type ultrasonic probe B for acquiring the ultrasonic wave and an ultrasonic probe C having one ultrasonic radiation surface can be used.
  • the ultrasonic probe A is inserted into the body cavity of the subject including the prostate region, and transmits and receives ultrasound within the body cavity.
  • the ultrasonic probe A includes two ultrasonic emission surfaces 20 and 21.
  • the ultrasonic radiation surface 20 is provided at the tip of the ultrasonic probe A.
  • the depth direction dp1 of the ultrasonic waves emitted from the ultrasonic radiation surface 20 is perpendicular to the ultrasonic radiation surface 20.
  • An image captured by the ultrasonic waves emitted from the ultrasonic radiation surface 20 is a first cross-sectional image 22.
  • the ultrasonic radiation surface 21 is provided closer to the center of the ultrasonic probe A than the ultrasonic radiation surface 20.
  • the depth direction of the ultrasonic waves emitted from the ultrasonic radiation surface 21 is perpendicular to the ultrasonic radiation surface 21.
  • An image captured by the ultrasonic waves emitted from the ultrasonic radiation surface 21 is a second cross-sectional image 23.
  • the ultrasonic probe B includes two ultrasonic emission surfaces 24 and 25, and switches between the ultrasonic emission surfaces 24 and 25 to acquire an ultrasonic image from one of the ultrasonic emission surfaces. It is an ultrasonic probe.
  • An image obtained from the ultrasonic radiation surface 24 is a third cross-sectional image 26, and an image obtained from the ultrasonic radiation surface 25 is a fourth cross-sectional image 27.
  • the depth direction of each ultrasonic radiation surface 24, 25 is perpendicular to each ultrasonic radiation surface.
  • the ultrasonic probe C is an ultrasonic probe including one ultrasonic radiation surface 28.
  • An image obtained from the ultrasonic radiation surface 28 is a fifth cross-sectional image 29.
  • the ultrasonic probe 2 used in this embodiment may be any of the ultrasonic probes A, B, and C.
  • the present invention is not limited to being inserted into a body cavity of a subject, and the present invention can also be applied to an ultrasound probe that transmits and receives ultrasound from the body surface toward the body, for example, used for abdominal echo. it can.
  • the ultrasound diagnostic apparatus 10 of the first embodiment displays a reference image having three orthogonal cross sections and a guide image in which the cross-sectional positions of these reference images are superimposed on a three-dimensional subject image, and the ultrasonic wave is displayed on the reference image.
  • a first reference image composed of an image having the same cross section as the ultrasonic image, and the first reference image are converted into ultrasonic waves.
  • a second reference image rotated by 90 ° or 270 ° along the depth direction of the image and a third reference image having a cross section parallel to the ultrasonic radiation surface are generated, and an ultrasonic probe is generated on these reference images.
  • a mark indicating the position of is superimposed and displayed.
  • the reference image is generated based on the ultrasonic volume data, but the reference image is based on the three-dimensional volume data obtained by the MRI apparatus or the X-ray CT apparatus recorded in the volume data recording unit 9. May be generated.
  • FIG. 3 is an explanatory view showing the positional relationship between the ultrasonic radiation surface and the ultrasonic image, and the first reference image, the second reference image, and the third reference image, and (a) shows the ultrasonic radiation surface and the same. The positional relationship with the ultrasonic image by the emitted ultrasonic wave is shown, and (b) shows the respective reference images and their positional relationship.
  • FIG. 4 is an explanatory view showing a screen display example in the first embodiment.
  • FIG. 5 is an explanatory diagram showing a concept that the third reference image is continuously switched in the depth direction when the trackball is rotated upward with the third reference image selected, (a) The operation of the trackball and the accompanying screen transition are shown. (B) shows the position of the third reference image accompanying the operation of the trackball and the movement of the mark indicating it.
  • FIG. 6 is an explanatory diagram showing a concept that the third reference image is continuously switched in the direction opposite to the depth direction when the trackball is rotated downward with the third reference image selected. a) shows the operation of the trackball and the accompanying screen transition, and (b) shows the position of the third reference image and the movement of the mark indicating it in accordance with the operation of the trackball.
  • FIG. 7 shows that when the trackball is rotated rightward with the second reference image selected, the second reference image is continuous in the direction orthogonal to the depth direction (rightward on the paper surface of FIG. 7).
  • (A) shows the operation of the trackball and the accompanying screen transition
  • (b) shows the second reference image accompanying the operation of the trackball and the position of the mark indicating it. Indicates movement.
  • FIG. 8 is an explanatory diagram showing a screen transition when the trackball is rotated to the right in a state where the third reference image 33 is selected, and (a) shows a screen transition including the third reference image.
  • (B) shows the movement of the position of the third reference image.
  • FIG. 9 is an explanatory view showing a state in which the third reference image is moved in a plurality of directions within the ultrasonic radiation surface, where (a) shows the operation direction of the trackball, and (b) shows each operation direction.
  • the 3rd reference image after the movement corresponding to is shown.
  • FIG. 10 shows the state in which the second reference image is selected and the rotation direction switch button 49 is used to set the rotation direction to “depth / near / left / right”, and the trackball 16t is moved vertically and horizontally.
  • the positional relationship between the ultrasonic radiation surface, the ultrasonic image, the first reference image, the second reference image, and the third reference image will be described.
  • the ultrasonic probe C of FIG. 2 is used as the ultrasonic probe 2
  • ultrasonic waves acquired from the ultrasonic emission surfaces of the ultrasonic probes A and B are described.
  • the present invention can also be applied to images.
  • the ultrasonic image 29 generated from the ultrasonic wave radiated from the ultrasonic radiation surface 28 provided at the tip of the ultrasonic probe C is directed in the depth direction dp1. It becomes a fan-shaped area that spreads out.
  • first reference image 31 an image extracted from the same cross section as the ultrasonic image 29 is referred to as a first reference image 31.
  • the first reference image 31 is orthogonal to a third reference image 33 that is parallel to an ultrasonic radiation surface 28 described later (see (b-2) in FIG. 3 (b)).
  • a second reference image 32 An image obtained by rotating the first reference image 31 by 90 ° or 270 ° about the depth direction dp 1 as a rotation axis is referred to as a second reference image 32 in the present embodiment.
  • the second reference image 32 and the first reference image 31 are orthogonal.
  • the second reference image 32 is also orthogonal to a third reference image 33 that is parallel to the ultrasonic radiation surface 28 described later (see (b-3) in FIG. 3B).
  • a third reference image 33 an image extracted from a cross section parallel to the ultrasonic radiation surface 28 is referred to as a third reference image 33 in this embodiment.
  • the third reference image 33 is orthogonal to each of the first reference image 31 and the second reference image 32 (see (b-3) in (b) of FIG. 3).
  • the field of view of the ultrasonic image 29 and the first reference image 31, and the mark 31m indicating the position of the first reference image 31 in the guide image to be described later are drawn with black dots on a white background.
  • a black dot with a white dot indicates a region in the visual field region and an image of the intestine of the subject.
  • the visual field area of the second reference image 32 and the mark 32m indicating the position of the second reference image 32 in the guide image to be described later are depicted by hatching of the lower right oblique line, the visual field area of the third reference image 33, and a guide image to be described later
  • a mark 33m indicating the position of the third reference image 33 is depicted by hatching in the lower left oblique line.
  • the out-of-view area is depicted using grid-like hatching in the lower right and lower left oblique lines.
  • white circles in the out-of-field region of the ultrasonic image 29 and the first reference image are marks (orientation marks) indicating the viewpoint positions of the ultrasonic image 29 and the first reference image. The same applies to FIGS. 11 and 12 used in the description of the second embodiment.
  • the reference image generation unit 12 extracts a visual field region (or a region outside the visual field) of the ultrasonic image 29 obtained from the ultrasonic probe 2, and each reference image (first reference image 31, second reference image 32, The third reference image 33) has a function of reducing the luminance of the region corresponding to the out-of-view region. Further, the reference image generation unit 12 has a function of hiding a region corresponding to the out-of-view region in each reference image (first reference image 31, second reference image 32, and third reference image 33). . Each reference image (first reference image 31, second reference image 32, third reference image 33) is orthogonal to each other.
  • the reference image generation means has a function of extracting the field of view of the ultrasonic image and reducing the luminance of the region corresponding to the out-of-field region in each reference image orthogonal to each other.
  • the reference image generation means has a function of extracting the visual field region of the ultrasonic image and hiding the region corresponding to the out-of-field region in each reference image orthogonal to each other.
  • each reference image first reference image 31, second reference image 32, third reference image 33
  • the correspondence between the ultrasound image and each reference image is clarified, and the operator can easily determine the correspondence between the two images. I can grasp it.
  • the image shown in (b-4) of (b) of FIG. 3 is the first reference image 31 generated by extracting from the three-dimensional volume data 30.
  • a dotted line 34 in the first reference image 31 indicates the position of the second reference image 32
  • a dotted line 35 indicates the position of the third reference image 33. This makes it easier to grasp the positional relationship between the displayed first reference image 31 and the second and third reference images 32 and 33. Further, dotted lines 34 and 35 indicating the positions of the second reference image 32 and the third reference image 33 are also displayed on the ultrasonic image 29, respectively.
  • the image shown in (b-5) of (b) of FIG. 3 is a second reference image 32 generated by extracting from the three-dimensional volume data 30.
  • An illustration 37 indicating the position of the ultrasound probe 2 is superimposed on the second reference image 32.
  • the illustration 37 shows the cross-sectional shape of the ultrasound probe 2 in the second reference image 32 by a region 37r, and the outline of the ultrasound probe 2 viewed from the second reference image 32 by a dotted line 37l.
  • the dotted line 37l is a contour line when the ultrasound probe 2 is projected in parallel on the second reference image 32. That is, the ultrasonic probe mark is displayed using an outline indicating the shape of the ultrasonic probe 2 projected onto the cross section of the reference image. The ultrasonic probe mark is displayed using an area indicating a cross-sectional shape in the cross section of the ultrasonic probe 2.
  • an out-of-view area 38 displayed on the first reference image 31 is displayed.
  • the out-of-view area 38 is displayed lower than the view area.
  • a dotted line 36 indicating the position of the first reference image 31 and a dotted line 35 indicating the position of the third reference image 33 are superimposed and displayed.
  • the image shown in (b-6) of FIG. 3 (b) is a third reference image 33 generated by extracting from the three-dimensional volume data 30.
  • an illustration 39 indicating the position of the ultrasound probe 2 is superimposed and displayed.
  • the illustration 39 shows the cross-sectional shape of the ultrasonic probe 2 in the third reference image 33 by a region 39r, and the outline of the ultrasonic probe 2 viewed from the third reference image 33 by a dotted line 39l.
  • the dotted line 39l is a contour line when the ultrasound probe 2 is projected in parallel on the third reference image 33.
  • the ultrasound emitting surface 28 of the ultrasound probe 2 is in the third reference image 33
  • a rectangular region 39r is drawn in the illustration 39, and in the case where it is not in the third reference image 33
  • the rectangular area 39r is not drawn in the illustration 39, and only the outline 39l is drawn.
  • the illustration 39 including the rectangular region 39r is drawn. .
  • an out-of-view area 40 displayed on the first reference image 31 is displayed.
  • the out-of-view area 40 is displayed with lower brightness than the view area.
  • a dotted line 36 indicating the position of the first reference image 31 and a dotted line 34 indicating the position of the second reference image 32 are superimposed and displayed.
  • the color of the dotted line is changed for each cross section, the type of the dotted line is distinguished by a display mode such as a one-dot chain line, a two-dot chain line, or a broken line, or two types of dotted line color and type are used.
  • each reference image may be distinguished.
  • the reference image display area is bordered by the corresponding dotted line color, the same color or You may attach the image identification mark which consists of the same display mode.
  • the process of superimposing and displaying these dotted lines 34 to 36 on the reference image is executed by the reference image generating unit 12.
  • the rectangular regions 37r and 39r and the contour lines 37l and 39l are used in combination, but only one of them may be used.
  • the ultrasonic image 29, the first reference image 31 having the same cross section as the ultrasonic image 29, and the first reference image 31 are rotated by 90 ° or 270 °.
  • the second reference image 32, the third reference image 33 parallel to the ultrasonic radiation surface, and the guide image 42 are displayed.
  • the screen 41 is provided with soft buttons for executing various functions. These soft buttons include a guide line ON / OFF switch button 43 on the ultrasound image, a guide line ON / OFF switch button 44 on the reference image, and an illustration showing the position of the ultrasound probe on the reference image.
  • ON / OFF switching button 45 navigation function ON / OFF switching button 46, image selection button 47 for selecting either the second reference image or the third reference image as the moving or rotating image, the moving direction (depth A front direction / arbitrary direction in the same plane) switching button 48 and a rotation direction (depth / front direction / left / right / vertical direction) switching button 49 are included.
  • the guide image 42 is a three-dimensional visualization image that visualizes the three-dimensional internal structure of the subject, for example, by performing volume rendering based on the three-dimensional volume data of the subject imaged by the MRI apparatus or CT apparatus.
  • the mark 31m indicating the position of the first reference image, the mark 32m indicating the position of the second reference image, and the mark 33m indicating the position of the third reference image are superimposed and displayed.
  • the ON / OFF switch button 45 of the illustration display showing the position of the ultrasound probe When the operator depresses the ON / OFF switch button 45 of the illustration display showing the position of the ultrasound probe, the position of the ultrasound probe superimposed on the second reference image 32 and the third reference image 33 is displayed.
  • the display / non-display of the illustrated illustrations 37 and 39 can be selected.
  • the mode is switched to the navigation mode, and the second reference image 32 or the third reference image 33 set as a default is highlighted. Details of the navigation mode function will be described later.
  • the image selection button 47 When the surgeon depresses the image selection button 47, either the second reference image 32 or the third reference image 33 can be selected.
  • an image selection button on the console of the ultrasonic diagnostic apparatus 10 (not shown) may be used. Further, after a pointer display button on the console of the ultrasonic diagnostic apparatus 10 (not shown) is pressed to display the pointer on the monitor 15, the second reference image 32 or the third reference image 33 is directly displayed with the pointer. You may choose.
  • the selected image (the third reference image 33 on the screen 41) is moved along the depth and front direction on the paper surface of FIG. 4 or within the same plane. It is possible to select whether to move in any direction.
  • the selected image (the third reference image 33 on the screen 41) is set to the horizontal direction on the paper surface of FIG. 4 or the vertical direction on the paper surface of FIG. You can choose either rotation to do.
  • a reference image set as a default is highlighted in advance, but there are some highlights associated therewith.
  • the second reference image 32 is set as a default will be described as an example.
  • the third reference image 33 can be selected as an image to be used in the navigation mode by depressing the image selection button 47 while the second reference image 32 is selected as the default image.
  • the highlight display in the navigation mode can be realized by using different display forms depending on the presence or absence of the highlight display, for example, the periphery of the image is bordered with a color or a thick line.
  • the screen 41 shows a state where the third reference image 33 is highlighted by superimposing the display frame 50 and the highlighting of the second reference image 32 is released.
  • the emphasized reference image that is, the third reference image 33 displayed on the ultrasound image 29 and the unenhanced reference image, that is, the first reference image 31 and the second reference image 32 is displayed.
  • a dotted line 35 indicating the display position is highlighted.
  • the highlighted reference image displayed on the guide image 42 that is, the mark 33m indicating the position of the third reference image 33 is also highlighted.
  • the highlighted reference image that is, the screen 41 displayed on the image that is not highlighted (that is, the ultrasound image 29, the first reference image 31, and the second reference image 32 on the screen 41).
  • a dotted line 35 indicating the current display position of the third reference image 33 is displayed.
  • the dotted line 35 is always displayed while moving along the dotted lines 35A, 35B, 35C..., 35a, 35b, 35c... According to the movement pitch of the third reference image 33.
  • uppercase letters are drawn as A, B, C, etc. in the order of increasing depth from the current display position
  • lowercase letters are drawn in the direction of decreasing depth. It is drawn as a, b, c, etc. in order from the display position.
  • the third reference image 33 shown in (a-2) of FIG. 5 (a) is switched to 36A, 36B, 36C...
  • (a-3) of FIG. The highlighted display of the dotted line 35 displayed on the sound wave image 29, the first reference image 31, and the second reference image 32 sequentially moves to 35A, 35B, 35C,.
  • the illustration 39 showing the position of the ultrasound probe 2 displayed in the third reference image 33 is a rectangular region 39r when the third reference image moves deeper along the depth direction dp1. Gradually becomes smaller and the display changes to leave only the dotted line 39l.
  • the cross-sectional mark 33m displayed in the guide image 42 also moves along the depth direction dp1 (from (b-1) mark 33m in FIG. 5 (b) to 33mC in (b-2)) Do).
  • the third reference image 33 shown in (a-2) of (a) of FIG. 6 is sequentially switched to 36a, 36b, 36c, as shown in (a-3) of (a) of FIG.
  • the highlighted display of the dotted line 35 displayed on the ultrasonic image 29, the first reference image 31, and the second reference image 32 also sequentially moves to 35a, 35b, 35c.
  • the illustration 39 showing the position of the ultrasound probe 2 displayed in the third reference image 33 is an illustration 39 as the third reference image 33 moves to a shallower direction along the depth direction dp1.
  • the area of the rectangular region 39r indicating the portion included in the third reference image 33 of the third reference image 33 is displayed gradually larger.
  • the trackball 16t is moved as shown in (a-1) of FIG.
  • the second reference image 32 moves along the direction of arrow D from the reference position in the ultrasonic volume data 30, as shown in (b-3) of (b) of FIG. Transition to the second reference image 32C shown in FIG. That is, in the positional relationship with the ultrasound probe 2, as shown in (b-5) of FIG. 7 (b), the reference position is the central axis of the ultrasound radiated from the ultrasound probe 2.
  • the rectangular region 37r gradually becomes smaller each time the display section of the second reference image 32 is switched, and eventually the dotted line The display changes to 37l only. This is because the field of view is updated each time the cross section of the second reference image 32 is switched, so that the positional relationship between the ultrasound probe 2 and the second reference image 32 changes.
  • the monitor 15 has an ultrasonic image 29, a first reference image 31 at the reference position, and a second reference image as shown in (a-1) of FIG. 32. Assume that the third reference image 33 is displayed. On the ultrasonic image 29, the first reference image 31, and the second reference image 32, a dotted line 35 indicating the position of the third reference image 33 is displayed.
  • the third reference image 33 is moved from the reference position in the ultrasonic volume data 30. Transition to the third reference image 33R (see (b) of FIG. 8). As a result, the third reference image 33R is updated and displayed on the monitor 15 (see (a-2) in (a) of FIG. 8). Even if the third reference image 33 moves to the third reference image 33R, the position of the dotted line 35 indicating the third reference image 33 on the ultrasonic image 29, the first reference image 31, and the second reference image 32 is These images do not change because they do not change.
  • the third reference image 33 when the trackball 16t is rotated in the directions a1 to a8, the cross-sectional position from which the third reference image 33 is extracted moves according to the rotation direction and the rotation amount of the trackball 16t. To do.
  • the third reference image 33 when the trackball 16t is rotated in each of the rotation directions a1, a2, a3, a4, a5, a6, a7, a8, the third reference image 33 is shown in FIG.
  • the third reference image 33 transitions to the third reference images 33Front, 33FrontR, 33R, 33BackR, 33Back, 33BackL, 33L, and 33FrontL.
  • a mark 39 indicating the position of the moving ultrasonic probe is displayed in the image after the transition.
  • the a1 and a5 directions are movements along the depth direction.
  • the dotted line 35 superimposed on the ultrasonic image 29, the first reference image 31, and the second reference image 35 is, for example, as shown in (a-2) of (a) of FIG. Move to 35A, 35B, 35C.
  • the a3 and a7 directions are movements along the direction perpendicular to the depth direction within the ultrasonic radiation plane. In this case, since the position of the third reference image 33 in the depth direction does not change, the position of the dotted line 35 indicating the third reference image 33 on the ultrasonic image 29, the first reference image 31, and the second reference image 32 changes. do not do.
  • the a2 and a8 directions are movements accompanied by right or left movement along the direction perpendicular to the depth direction and the depth direction along the depth direction.
  • the position of the dotted line 35 indicating the third reference image 33 on the ultrasonic image 29, the first reference image 31, and the second reference image 32 changes by the amount of movement along the depth direction of the third reference image 33.
  • the a4 and a6 directions are movements accompanied by right or left movement along the direction perpendicular to the depth direction and the shallow direction along the depth direction.
  • the position of the dotted line 35 indicating the third reference image 33 on the ultrasonic image 29, the first reference image 31, and the second reference image 32 changes by the amount of movement along the depth direction of the third reference image 33.
  • the rotation direction is set to “depth / front / left / right” by the rotation direction switching button 49, and then the track is selected.
  • the second reference image 32 at the reference position see (a-1) of (a) in FIG. 10
  • the monitor 15 rotates in the depth direction (see (a-2) in FIG. 10 (a)), and transitions to the second reference image 32s3 (see (b) in FIG. 10).
  • the second reference image 32 When the trackball 16t is rotated to the left, the second reference image 32 is rotated to the left with the depth / front direction of the second reference image 32 as the rotation axis Ax1 ((a-5) in FIG. (Refer to FIG. 10 (b)). Similarly, when the trackball 16t is rotated to the right, the second reference image 32 is rotated to the right with the depth / front direction of the second reference image 32 as the rotation axis Ax1 ((a- 4)), transition to the second reference image 32s1 (see (b) of FIG. 10).
  • the mark 32m indicating the position of the second reference image 32 displayed on the guide image 42 also rotates following the movement of the trackball 16t.
  • the ultrasonic probe 2 that radiates ultrasonic waves and receives the reflected waves of the ultrasonic waves, and the first position detection means (position sensor 4) that detects the position of the ultrasonic probe 2 ),
  • Ultrasonic image generation means (ultrasonic image generation unit 6) that generates an ultrasonic image using a reflected echo signal based on the reflected wave, and a reference image of an arbitrary cross section using the three-dimensional volume data of the subject
  • a reference image generation means (reference image generation unit 12) that superimposes and displays an ultrasonic probe mark indicating the position of the ultrasonic probe on the reference image, and displays the ultrasonic image and the reference image.
  • Display means (monitor 15).
  • An ultrasonic image display method including a step of displaying an ultrasonic image based on a reflected wave received from a probe 2 and a reference image. Therefore, the positional relationship between the reference image and the ultrasound probe 2 can be easily grasped by the mark indicating the position of the ultrasound probe 2 displayed on the reference image.
  • the position of the ultrasound probe cannot be visually observed, so that it is easy to grasp the positional relationship with the reference image, which can contribute to the improvement of diagnostic ability. it can.
  • FIG. 11 is an explanatory diagram showing an example of a display screen according to the second embodiment, and shows a display example when the ultrasonic probe C of FIG. 2 is used.
  • FIG. 12 is an explanatory view showing an example of a display screen according to the second embodiment, and shows a display example when the ultrasonic emission surface 21 of the ultrasonic probe A of FIG. 2 is used.
  • the operator presses a “puncture guide” button on the console of the ultrasonic diagnostic apparatus (not shown).
  • the route calculation unit 53 extends the core wire of the puncture needle 51 based on the information of the shape of the ultrasound probe connected to the ultrasound diagnosis apparatus and the physical position where the puncture needle 51 enters and exits.
  • the approach path of the puncture needle 51 is calculated using the line as the path of the puncture needle 51, and data indicating the path is output to the reference image generation unit 12, the guide image generation unit 13, and the image processing unit.
  • the reference image generation unit 12 superimposes and displays the path of the puncture needle 51 on each reference image
  • the guide image generation unit 13 displays the path of the puncture needle 51 on the guide image 42
  • the image processing unit 14 The path of the puncture needle 51 is superimposed on the sound image 29.
  • the puncture needle 51 used in the present embodiment includes a position sensor 52
  • the path calculation unit 53 calculates the current position and inclination of the puncture needle 51 based on the outputs from the source generation source 5 and the position sensor 52. It has a function of calculating and calculating an extension of the core line of the puncture needle 51 as a path of the puncture needle 51, and may be displayed in a superimposed manner.
  • a puncture guideline (hereinafter abbreviated as “guideline”) 55 indicating the entry route of the puncture needle 51 used when performing puncture is displayed.
  • the guideline 55 is displayed on the first reference image 31 at the same position and the same size as the guideline 55 displayed on the ultrasonic image 29.
  • a guideline 55 is superimposed on the second reference image 32.
  • a guideline mark 56 is superimposed and displayed at a position where the puncture needle 51 passes.
  • an arrow 57 indicating the position of the guideline 55 is displayed.
  • the navigation function ON / OFF switch button 46 is pressed to enter the navigation mode.
  • FIG. 11 shows an example in which the position of the guideline 55 is confirmed on the second reference image 32. Therefore, on the second reference image 32, the guideline 55 is located at the center of the second reference image 32 and at the top and bottom of the display screen. It is displayed along the direction.
  • the trajectory through which the guideline 55 passes on the third reference image 33 that is, the position of the guideline mark 56 can be confirmed.
  • the third reference image is displayed by pressing the image selection button 47, switching the selection to the third reference image 33, rotating the trackball, and displaying the cross section on which the guideline mark 56 is displayed. The position of the guideline mark 56 on 33 can be confirmed.
  • the guideline 55 is oblique because of the characteristic that the depth direction of the ultrasonic radiation surface 21 is inclined with respect to the traveling direction of the ultrasonic probe A. Pulled in the direction.
  • the guideline mark is located at the position where the puncture needle 51 passes on the ultrasonic image 29, the first reference image 31, and the third reference image 33.
  • 56 is superimposed and a guide line 55 indicating the entry route of the puncture needle 51 is displayed on the second reference image 32.
  • the mark 37 indicating the position of the ultrasound probe 2 displayed on the second reference image 32 and the mark 39 indicating the position of the ultrasound probe 2 displayed on the third reference image 33 are super Display according to the cross-sectional shape of each reference image of the acoustic probe B. Confirmation of the position of the guideline 55 and the guideline mark 56 enters the navigation mode as in the case of the ultrasonic probe A, and is performed with a trackball.
  • the second position detecting means for detecting the position and posture of the puncture needle 51 that punctures the subject, and the puncture needle 51 based on the detected position and posture of the puncture needle 51.
  • Path calculating means for calculating the position of the extension line of the core wire
  • the reference image generating means includes a mark indicating the calculated extension line of the core line of the puncture needle 51. And superimposed on the reference image.
  • the reference image generation means (reference image generation unit 12) generates a reference image that includes an extension line of the core line of the puncture needle 51 and has a cross section parallel to the extension line.
  • Second position detection means for detecting the position and posture of the puncture needle 51 that punctures the subject (based on the position sensor 52 and the detected position and posture of the puncture needle 51, the position of the extension line of the core of the puncture needle 51 is determined. It further comprises a route calculating means for calculating, and a second image processing means (image processing unit 14) for superimposing and displaying a mark indicating the calculated extension of the core line of the puncture needle 51 on the ultrasonic image.
  • the position of the ultrasonic probe 2 cannot be visually observed. Since it is possible to confirm the passing site with the first, second, and third reference images 31, 32, 33, the ultrasonic image 29, and the guide image 42, it becomes possible to perform puncturing more safely. . Furthermore, by displaying the position of the ultrasonic probe, it is possible to confirm the entry path of the puncture needle with the current position of the ultrasonic probe as a reference.
  • 1 ultrasonic diagnostic layer device body 2 ultrasonic probe, 3 position sensor fixing mechanism, 4 position sensor, 5 source generation source, 6 ultrasonic image generation unit, 7 cine memory, 8 ultrasonic volume data generation unit, 9 volume Data recording unit, 10 ultrasonic diagnostic device, 11 scan plane acquisition unit, 12 reference image generation unit, 13 guide image generation unit, 14 image processing unit, 15 monitor, 16 movement / rotation amount input unit, 17 medical image diagnostic device , 51 Puncture needle, 52 Position sensor, 53 Route calculation unit

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

 超音波探触子との位置関係を明瞭にしつつ、超音波画像を表示する。超音波診断装置10は、超音波探触子2と、超音波探触子2の位置を検出する第一位置検出手段4,5と、反射エコー信号を用いて超音波画像を生成する超音波画像生成手段6と、超音波画像を積み重ねて3次元の超音波ボリュームデータを生成する超音波ボリュームデータ生成手段9と、超音波ボリュームデータを用いて、任意断面の超音波リファレンス画像を生成し、当該超音波リファレンス画像における、第一位置検出手段により検出された超音波探触子の位置に応じた位置に、超音波探触子の位置を示す超音波探触子マークを重畳表示するリファレンス画像生成手段12と、超音波画像と超音波リファレンス画像とを表示する表示手段15と、を備える。

Description

超音波診断装置及び超音波画像表示方法
 本発明は、超音波診断装置及び超音波画像表示方法に係り、特に、超音波画像の表示技術に関する。
 超音波診断装置による診断は、医師等の術者が超音波探触子で診断部位を走査することによって、容易にリアルタイムで診断部位の断層像が得られるという利点がある。一方、超音波断層像(以下、超音波画像という。)は、磁気共鳴撮像装置(以下、MRI装置という。)やX線コンピュータ断層装置(以下、X線CT装置という。)で得られる断層像よりも被検体の全身からの形態的情報としては見え難い。
 そのため、例えば、特許文献1には、超音波内視鏡に取り付けた位置検出センサに基づいて超音波内視鏡の位置および姿勢を検出することにより、超音波画像と同一断面の画像を、予め撮像されたMRI画像やCT画像のボリュームデータから再構成し、この再構成画像と超音波画像を同期させ、モニタに表示する超音波診断装置が開示されている。
特開2009-095371号公報
 特許文献1では、超音波画像の形態的情報の補完をすることはできても、超音波画像と超音波探触子との位置関係が不明確であるという問題があった。特に、被検体の体腔内に超音波探触子を挿入して撮像する手技においては、超音波探触子の位置を目視することができないので、上記の問題がより顕著となる傾向があった。
 本発明は、上記問題に鑑みてなされたものであり、超音波探触子と表示画面との位置関係を提示できる超音波診断装置及び超音波画像表示方法を提供することを目的とする。
 上記課題を解決するために、本発明に係る超音波診断装置は、超音波を放射すると共に、前記超音波の反射波を受信する超音波探触子と、前記超音波探触子の位置を検出する第一位置検出手段と、前記反射波に基づく反射エコー信号を用いて超音波画像を生成する超音波画像生成手段と、被検体の3次元ボリュームデータを用いて、任意断面のリファレンス画像を生成し、当該リファレンス画像に、前記検出された超音波探触子の位置を示す超音波探触子マークを重畳表示するリファレンス画像生成手段と、前記超音波画像とリファレンス画像とを表示する表示手段と、を備えることを特徴とする。
 また、被検体の3次元ボリュームデータを用いて、任意断面のリファレンス画像を生成するステップと、リファレンス画像に超音波探触子の位置を示す超音波探触子マークを重畳表示するステップと、超音波探触子から受信した反射波に基づく超音波画像とリファレンス画像とを表示するステップとを含む超音波画像表示方法である。
 本発明によれば、超音波探触子マークを重畳表示したリファレンス画像を表示することにより、超音波探触子と表示画面との位置関係を提示できる超音波診断装置及び超音波画像表示方法を提供することができる。
超音波診断装置の全体概略構成を示す模式図 超音波探触子2の概略構成を示す説明図 超音波放射面と超音波画像、及び第一リファレンス画像、第二リファレンス画像及び第三リファレンス画像の位置関係を示す説明図であって、(a)は超音波放射面とそこから放射される超音波による超音波画像との位置関係を示し、(b)は、各リファレンス画像、及びそれらの位置関係を示す。 第一実施形態における画面表示例を示す説明図 第三リファレンス画像を選択した状態でトラックボールを上方向に回転させた場合に、第三リファレンス画像が深度方向へ連続的に切り替わる概念を示す説明図であって、(a)はトラックボールの操作とそれに伴う画面遷移を示し、(b)は、トラックボールの操作に伴う第三リファレンス画像の位置及びそれを示すマークの移動を示す。 第三リファレンス画像を選択した状態でトラックボールを下方向に回転させた場合に、第三リファレンス画像が深度方向と反対方向へ連続的に切り替わる概念を示す説明図であって、(a)はトラックボールの操作とそれに伴う画面遷移を示し、(b)は、トラックボールの操作に伴う第三リファレンス画像の位置及びそれを示すマークの移動を示す。 第二リファレンス画像を選択した状態でトラックボールを右方向に回転させた場合に、第二リファレンス画像が深度方向に対し直交する方向(図7の紙面上における右方向)へ連続的に切り替わる概念を示す説明図であって、(a)はトラックボールの操作とそれに伴う画面遷移を示し、(b)は、トラックボールの操作に伴う第二リファレンス画像の位置及びそれを示すマークの移動を示す。 第三リファレンス画像を選択している状態で、トラックボールを右に回転させたときの画面遷移を示す説明図であって、(a)は第三リファレンス画像を含む画面遷移を示し、(b)は第三リファレンス画像の位置の移動を示す。 第三リファレンス画像を超音波放射面内の複数の方向に移動させた状態を示す説明図であって、(a)はトラックボールの操作方向を示し、(b)は各操作方向に対応する移動後の第三リファレンス画像を示す。 第二リファレンス画像を選択している状態で、回転方向切替えボタン49によって、回転方向を「奥行き・手前・左・右」に設定した上で、トラックボール16tを上下、左右方向に回転させた場合に表示される第二リファレンス画像を示す説明図であって、(a)は第二リファレンス画像の回転方向及びトラックボールの操作方向を示し、(b)は回転後の第二リファレンス画像を示す。 第二実施形態に係る表示画面の一例を示す説明図であって、図2の超音波探触子Cを用いた場合の表示例を示す。 第二実施形態に係る表示画面の一例を示す説明図であって、図2の超音波探触子Aの超音波放射面21を用いた場合の表示例を示す。
 以下、本発明の実施形態について、図面を基に説明をする。なお、以下の説明では、同一機能部分については同一符号を付して重複説明を省略する。
 まず、図1に基づいて本発明の実施形態に係る超音波診断装置の概略構成について説明する。図1は、本発明の実施形態に係る超音波診断装置の全体概略構成を示す模式図である。超音波診断装置10は、主に超音波診断装置本体1、超音波探触子2、位置センサ4、ソース発生源5、及びモニタ15を有して構成されている。超音波診断装置本体1は、概ね、超音波画像を生成する系統と、超音波画像を診断するときに参照するリファレンス画像を生成する系統に分けられる。超音波画像を生成する系統は、超音波探触子2からの反射エコー信号に基づいて超音波画像を生成する超音波画像生成部6と、複数枚の超音波画像を一時的に記憶するシネメモリ7と、複数枚の超音波画像を基に3次元の超音波ボリュームデータを生成する超音波ボリュームデータ生成部8と、を含む。リファレンス画像を生成する系統は、例えばMRI装置、CT装置、他の超音波診断装置等の医療用画像診断装置17が撮像した3次元ボリュームデータを格納するボリュームデータ記録部9と、位置センサ4及びソース発生源5の信号を基に、超音波探触子2の位置及び姿勢を検出するスキャン面取得部11と、超音波画像を診断する際に参照する参照画像であって、ボリュームデータ記憶部9に記憶された被検体の3次元ボリュームデータや超音波ボリュームデータを基にリファレンス画像を生成するリファレンス画像生成部12と、リファレンス画像の断面位置を示すガイド画像を生成するガイド画像生成部13と、リファレンス画像の移動/回転の種別、移動量/回転量、移動方向/回転方向の入力を受け付ける移動・回転信号入力部16と、を備える。更に、超音波診断装置本体1は、超音波画像とリファレンス画像との断面位置を対応付けて表示処理を行う画像処理部14を含む。
 更に、超音波診断装置本体1は、経路算出部53を備える。この経路算出部53は、穿刺針51の進入経路を算出するものである。また位置センサ固定機構73により穿刺針51に固定された位置センサ52とソース発生源5との出力信号を基に、穿刺針51の現在位置、傾きを算出し、その芯線の延長を穿刺針51の進入経路として算出してもよい。穿刺針51、位置センサ52、経路算出部53、及び位置センサ固定機構54は、第二実施形態で用いるものである。
 なお、図示を省略するものの、超音波診断装置本体1は、医療用画像診断装置17で撮像した被検体の3次元ボリュームデータや別の超音波診断装置で撮像した超音波ボリュームデータ等を入力するインターフェイスを具備している。そして、超音波診断装置本体1を、インターフェイスを介して医療用画像診断装置17に直接接続し、3次元ボリュームデータを受け取り、ボリュームデータ記録部9に保存する。更に、ネットワーク経由又はUSBメモリ等の持ち運び可能な記録媒体を経由し、3次元ボリュームデータを超音波診断装置本体1内のボリュームデータ記録部9に保存することも可能である。以下、各構成要素の詳細について説明する。
 超音波探触子2は、超音波を超音波放射面から送波するとともに、超音波の反射波を受信し、反射エコー信号を超音波画像生成部6に出力する。
 超音波画像生成部6は、超音波探触子2の進退方向(超音波探触子2が被検体の体腔内への挿入するものにあっては、挿入方向に相当)の各位置において、1フレーム分の超音波画像を生成する。そして、超音波探触子2の位置の移動に伴って、複数の位置から複数フレーム分の超音波画像を生成する。シネメモリ7は、複数フレーム分の超音波画像を一時記憶する。超音波ボリュームデータ生成部8は、シネメモリ7に一時記憶された超音波画像に基づいて一方向(超音波探触子2の進退方向)に沿った複数フレームの超音波画像を積み上げた3次元の超音波ボリュームデータを生成する。ボリュームデータ記録部9は、生成された3次元の超音波ボリュームデータを記録したり、すると共に、医療用画像診断装置17が撮像した3次元ボリュームデータを記録したりする。
 超音波探触子2には、超音波探触子2の位置及び姿勢を検出するための磁気センサ等の位置センサ4が、超音波探触子2に取り付けた位置センサ固定機構3によって固定されている。また、被検体を含む座標系に磁界等のソースを発生させるソース発生源5が、例えば、被検体の横たわるベッドの傍ら等に配置される。これら位置センサ4及びソース発生源5は、スキャン面取得部11と電気的に接続され、位置センサ4とソース発生源5からの出力信号は、スキャン面取得部11に出力される。
 スキャン面取得部11は、位置センサ4やソース発生源5からの出力信号に基づいて、超音波探触子2の位置・傾斜角度等の位置情報を取得し、超音波探触子2の3次元的な位置及び傾斜角等を演算し、超音波探触子2のスキャン面(超音波画像の断面)の座標を算出するスキャン面演算部11aと、算出されたスキャン面の座標を記録するスキャン面記録部11bと、を有する。本実施形態では、超音波探触子2の位置検出の例として磁界による位置検出を例示したが、これに限定されるものではなく、種々の公知の位置検出方法を用いることが可能である。算出されたスキャン面の座標は、リファレンス画像生成部12及び画像処理部14に出力される。
 リファレンス画像生成部12は、スキャン面取得部11で算出された座標を用いて、ボリュームデータ記録部9に記録されている3次元ボリュームデータから、超音波画像と同一断面となるリファレンス画像(以下、第一リファレンス画像という。)や第一リファレンス像の深度方向を回転軸として、90°もしくは270°回転させたリファレンス画像(以下、第二リファレンス画像という。)及び、超音波探触子2の超音波放射面に対し、平行なリファレンス画像(以下、第三リファレンス画像)、また任意断面のリファレンス画像を生成する。更にリファレンス画像生成部12は、生成した各リファレンス画像上に、他のリファレンス画像の位置を示す点線を重畳表示したり、それらの点線を非表示にしたりする処理を行う。
 リファレンス画像生成部12は、スキャン面座標を基に、超音波画像内における超音波の放射領域(視野領域ともいう)の座標を演算し、第一、第二、第三リファレンス画像に対し、超音波の放射領域外の領域の輝度を落としたり、放射領域外の領域を非表示にしたりする処理を行う。
 更に、リファレンス画像生成部12は、超音波探触子2の動きに応じて、リファレンス画像の画像サイズ及びフレームレートを変更することでリファレンス画像を再構成する速度を変更することが可能である。つまり、超音波探触子2の進退方向への動きが速い場合、画質よりもフレームレートを優先し、リファレンス画像を高速に描画する。逆に超音波探触子2の動く速度が遅い場合は、フレームレートより画質を優先し、リファレンス画像を再構成して描画する。これにより、超音波探触子2の動きに追従してリファレンス画像を表示することができる。
 リファレンス画像生成部12は、各リファレンス画像の断面位置を示す位置情報と生成されたリファレンス画像とを画像処理部14に出力する。各リファレンス画像の断面位置を示す位置情報は、ガイド画像生成部13にも出力される。つまり、リファレンス画像生成手段(リファレンス画像生成部12)は、異なる断面からなる複数のリファレンス画像を生成し、一のリファレンス画像に、他のリファレンス画像のスライスピッチを示すマークを重畳表示し、表示手段(モニタ15)に表示されている他のリファレンス画像の断面位置を示すスライスピッチを示すマークを強調表示する。
 また、超音波画像に、リファレンス画像のスライスピッチを示すマークを重畳表示し、表示手段(モニタ15)に表示されているリファレンス画像の断面位置を示すスライスピッチを示すマークを強調表示する第一画像処理手段(ガイド画像生成部13)を更に備える。
 ガイド画像生成部13は、ボリュームデータ記録部9に記録された被検体の3次元ボリュームデータとリファレンス画像生成部12から得たリファレンス画像の断面位置情報とを用い、被検体の3次元可視画像にリファレンス画像の断面を半透明カラーで重畳表示したガイド画像を生成する。ガイド画像に用いる被検体の3次元画像の作成手法としては、例えば、ボリュームレンダリングやサーフェスレンダリング等の周知の方法を適用できる。生成されたガイド画像は画像処理部14に出力される。
 なお、医療用画像断装置17により取得された被検体の3次元ボリュームデータと、超音波探触子2の位置との対応付けは、例えば、被検体の3次元ボリュームデータからなる被検体画像と、超音波探触子2で得た超音波画像と、をモニタ15に表示し、上記被検体画像に含まれる特徴的な部位と、上記超音波画像に含まれる同一の特徴的な部位と、を操作者にポインティングデバイスで指示させる等、周知の手法を適用して実現することができる。また、超音波画像は、それが取得された時の進退方向の位置情報を関連づけて記憶する。
 画像処理部14は、スキャン面取得部11、シネメモリ7、リファレンス画像生成部12、ガイド画像生成部13に接続される。そして、シネメモリ7からは超音波画像、リファレンス画像生成部12からはリファレンス画像、ガイド画像生成部13からはガイド画像を取得する。そして、スキャン面取得部11が算出したスキャン面の座標とリファレンス画像の断面位置情報とを用いて、超音波画像上にリファレンス画像の位置を示す点線を重畳表示/非表示の処理を行う。更に、超音波画像、リファレンス画像、及びガイド画像の位置を対応付けて、モニタ15に表示させるための処理を行う。
 例えば、超音波画像とリファレンス画像を並べて表示してもよいし、リファレンス画像を半透明化し、超音波画像に重畳上表示してもよい。重畳した場合、1つの画像で超音波画像とリファレンス画像との比較が容易に可能となる。その他、シネメモリ7、リファレンス画像生成部12、ガイド画像生成部13で生成される画像を適宜合成して表示させることが可能である。
 更に、画像処理部14は、ガイド画像にスキャン面を半透明カラーで重ね合わせる画像処理を行う。これによって、術者は被検体と超音波探触子2のスキャン面との位置関係を3次元的に把握することができる。なお、本実施形態では、第一リファレンス画像の位置と超音波画像のスキャン面の位置とは一致するので、以下の説明では、第一リファレンス画像の位置をガイド画像に表示する例を取り上げるが、第一リファレンス画像を超音波画像のスキャン面に読み替えてもよい。
 また、後述する第二実施形態では、画像処理部14は、経路算出部53にも接続され、経路算出部53から取得した穿刺針51の経路や位置、又はその芯線の延長線の位置を、超音波画像に重畳表示することも可能である。
 移動・回転信号入力部16には、マウスやトラックボール等のポインティングデバイスやキーボードなどの入力装置が接続される。そして、術者がこれらの入力装置を操作して、移動又は回転の種別、及び移動方向又は回転方向を選択し、更に移動量及び回転角度を入力すると、移動・回転信号入力部16はそれらの入力値を取得し、リファレンス画像生成部12に出力する。また、移動・回転信号入力部16は、移動又は回転の対象となる画像の選択入力を受け付けてもよい。
 リファレンス画像生成部12は、入力値に従ってリファレンス画像を移動、回転し、ガイド画像生成部13は、リファレンス画像生成部12から取得したリファレンス画像の位置情報を基に、ガイド画像上のリファレンス画像の位置を移動する。これに追従して画像処理部14は、超音波画像に重畳したリファレンス画像の位置を示すマークを移動する。
 又は、ガイド画像に重畳されたリファレンス画像の位置や、超音波画像に重畳されたリファレンス画像の位置を、マウスやトラックボールなどのポインティングデバイス等からなる操作装置を用いて移動・回転させると、この移動量・回転量を移動・回転信号入力部16が検出し、リファレンス画像生成部12は、検出された入力値に従って新たなリファレンスが画像を生成し、モニタ15のリファレンス画像も更新表示される。
 更に超音波診断装置10には、観察部位をズームイン・アウトする操作入力装置を備える。観察部位をズームイン・アウトすると、超音波画像生成部6で生成される超音波画像では、観察部位の表示倍率が変更される。これに追従して、リファレンス画像生成部12は、新たな超音波画像の表示倍率と一致するように、リファレンス画像の表示倍率を変更させる(新たに生成する)。表示倍率が変更された超音波画像やリファレンス画像は、モニタ15において更新表示される。
 次に、図2に基づいて超音波探触子2について説明する。図2は、超音波探触子2の概略構成を示す説明図である。
 超音波探触子2として、二つの超音波放射面から同時に二つの超音波画像を取得するバイプレイン形式の超音波探触子Aと、二つの超音波放射面を切り替えて一つの超音波画像を取得する非バイプレイン形式の超音波探触子Bと、一つの超音波放射面を備える超音波探触子Cとを用いることができる。
 超音波探触子Aは、前立腺領域を含む被検体の体腔内に挿入され、体腔内で超音波を送受信するものである。超音波探触子Aは、二つの超音波放射面20、21を備える。超音波放射面20は、超音波探触子Aの先端部に備えられる。そして、超音波放射面20から放射される超音波の深度方向dp1は、超音波放射面20に垂直となる。超音波放射面20から放射される超音波により撮像される画像は、第一断面画像22となる。超音波放射面21は、超音波放射面20よりも超音波探触子Aの中央寄りに備えられる。そして、超音波放射面21から放射される超音波の深度方向は、超音波放射面21に垂直となる。超音波放射面21から放射される超音波により撮像される画像は、第二断面画像23となる。
 超音波探触子Bは、二つの超音波放射面24、25を備え、各超音波放射面24、25を切り替えてどちらか一方の超音波放射面からの超音波画像を取得する非バイプレイン超音波探触子である。超音波放射面24から得られる画像は第三断面画像26であり、超音波放射面25から得られる画像は第四断面画像27である。各超音波放射面24、25の深度方向は、各超音波放射面に対して垂直になる。
 超音波探触子Cは、一つの超音波放射面28を備える超音波探触子である。超音波放射面28から得られる画像は第五断面画像29である。
 本実施形態に用いる超音波探触子2は、超音波探触子A、B、Cのいずれでもよい。また、被検体の体腔内に挿入するものに限らず、例えば腹部エコーに用いるような、体表面から体内に向けて超音波を送受信する超音波探触子にも、本発明を適用することができる。
 <第一実施形態>
 第一実施形態の超音波診断装置10は、直交3断面のリファレンス画像と、これらリファレンス画像の断面位置を3次元被検体画像に重畳表示したガイド画像と、を表示し、リファレンス画像上に超音波探触子2の位置を示すマークを重畳表示する実施形態である。
 より具体的には、第一実施形態は、ボリュームデータ記録部9に記録されている3次元ボリュームデータより、超音波画像と同一断面の画像からなる第一リファレンス画像、第一リファレンス画像を超音波の深度方向に沿って90°又は270°回転させた第二リファレンス画像、また超音波放射面と平行な断面からなる第三リファレンス画像を生成し、これらのリファレンス画像上に、超音波探触子の位置を示すマークを重畳表示する。
 本実施形態では、上記の如く、超音波画像の断面と同一断面及び超音波画像の断面と直交する2軸の断面のリファレンス画像を表示する場合を例に説明するが、リファレンス画像は、これらの3軸断面に限らず、これらの3軸断面を任意の位置に移動・回転してなる任意の断面からなる画像でもよい。また、本実施形態では、超音波ボリュームデータを基にリファレンス画像を生成するが、ボリュームデータ記録部9に記録されたMRI装置やX線CT装置により得られた3次元ボリュームデータに基づいてリファレンス画像を生成してもよい。
 以下、図3乃至図10に基づいて、第一実施形態について説明する。図3は、超音波放射面と超音波画像、及び第一リファレンス画像、第二リファレンス画像及び第三リファレンス画像の位置関係を示す説明図であって、(a)は超音波放射面とそこから放射される超音波による超音波画像との位置関係を示し、(b)は、各リファレンス画像、及びそれらの位置関係を示す。図4は、第一実施形態における画面表示例を示す説明図である。
 図5は、第三リファレンス画像を選択した状態でトラックボールを上方向に回転させた場合に、第三リファレンス画像が深度方向へ連続的に切り替わる概念を示す説明図であって、(a)はトラックボールの操作とそれに伴う画面遷移を示し、(b)は、トラックボールの操作に伴う第三リファレンス画像の位置及びそれを示すマークの移動を示す。図6は、第三リファレンス画像を選択した状態でトラックボールを下方向に回転させた場合に、第三リファレンス画像が深度方向と反対方向へ連続的に切り替わる概念を示す説明図であって、(a)はトラックボールの操作とそれに伴う画面遷移を示し、(b)は、トラックボールの操作に伴う第三リファレンス画像の位置及びそれを示すマークの移動を示す。
 図7は、第二リファレンス画像を選択した状態でトラックボールを右方向に回転させた場合に、第二リファレンス画像が深度方向に対し直交する方向(図7の紙面上における右方向)へ連続的に切り替わる概念を示す説明図であって、(a)はトラックボールの操作とそれに伴う画面遷移を示し、(b)は、トラックボールの操作に伴う第二リファレンス画像及びそれを示すマークの位置の移動を示す。図8は、第三リファレンス画像33を選択している状態で、トラックボールを右に回転させたときの画面遷移を示す説明図であって、(a)は第三リファレンス画像を含む画面遷移を示し、(b)は第三リファレンス画像の位置の移動を示す。
 図9は、第三リファレンス画像を超音波放射面内の複数の方向に移動させた状態を示す説明図であって、(a)はトラックボールの操作方向を示し、(b)は各操作方向に対応する移動後の第三リファレンス画像を示す。図10は、第二リファレンス画像を選択している状態で、回転方向切替えボタン49によって、回転方向を「奥行き・手前・左・右」に設定した上で、トラックボール16tを上下、左右方向に回転させた場合に表示される第二リファレンス画像を示す説明図であって、(a)は第二リファレンス画像の回転方向及びトラックボールの操作方向を示し、(b)は回転後の第二リファレンス画像を示す。
 まず、超音波放射面と超音波画像、及び第一リファレンス画像、第二リファレンス画像及び第三リファレンス画像の位置関係について説明する。以下の説明では、超音波探触子2として図2の超音波探触子Cを用いた例を説明するが、超音波探触子A、Bの各超音波放射面から取得される超音波画像にも本発明を適用することができる。
 図3の(a)に示すように、超音波探触子Cの先端部に備えられた超音波放射面28から放射される超音波より生成される超音波画像29は、深度方向dp1に向かって広がる扇状の領域となる。
 図3の(b)の(b-1)に示す3次元ボリュームデータ30において、超音波画像29と同一の断面から抽出した画像を、第一リファレンス画像31という。第一リファレンス画像31は、後述の超音波放射面28と平行な第三リファレンス画像33と直交する(図3の(b)の(b-2)参照)。
 また、第一リファレンス画像31を、深度方向dp1を回転軸として90°若しくは270°回転させた画像を本実施形態では第二リファレンス画像32という。第二リファレンス画像32と第一リファレンス画像31とは直交する。また、第二リファレンス画像32は、後述の超音波放射面28と平行な第三リファレンス画像33とも直交する(図3の(b)の(b-3)参照)。
 更に、超音波放射面28に対して平行な断面から抽出した画像を本実施形態では第三リファレンス画像33という。第三リファレンス画像33は、第一リファレンス画像31及び第二リファレンス画像32のそれぞれと直交する(図3の(b)の(b-3)参照)。
 なお、図3から図10において、超音波画像29及び第一リファレンス画像31の視野領域、及び後述するガイド画像における第一リファレンス画像31の位置を示すマーク31mを白地に黒点のドットで描出する。なお、黒字に白点のドットは、視野領域内にあり、かつ被検体の腸内が撮像された領域を示すものである。第二リファレンス画像32の視野領域、及び後述するガイド画像における第二リファレンス画像32の位置を示すマーク32mを右下斜線のハッチングで描出し、第三リファレンス画像33の視野領域、及び後述するガイド画像における第三リファレンス画像33の位置を示すマーク33mを左下斜線のハッチングで描出する。さらに、視野外領域は右下及び左下斜線の格子状のハッチングを用いて描出する。また、超音波画像29及び第一リファレンス画像の視野外領域内にある白丸は、超音波画像29及び第一リファレンス画像の視点位置を示す目印(オリエンテーションマーク)である。第二実施形態の説明で用いる図11、図12についても同様である。
 リファレンス画像生成部12は、超音波探触子2より得られた超音波画像29の視野領域(又は視野外領域)を抽出し、各リファレンス画像(第一リファレンス画像31、第二リファレンス画像32、第三リファレンス画像33)において視野外領域に対応する領域の輝度を低下させる機能を有している。また、リファレンス画像生成部12は、各リファレンス画像(第一リファレンス画像31、第二リファレンス画像32、第三リファレンス画像33)において視野外領域に対応する領域を非表示にする機能を有している。各リファレンス画像(第一リファレンス画像31、第二リファレンス画像32、第三リファレンス画像33)は互いに直交している。
 つまり、リファレンス画像生成手段(リファレンス画像生成部12)は、超音波画像の視野領域を抽出し、互いに直交する各リファレンス画像において視野外領域に対応する領域の輝度を低下させる機能を有している。また、リファレンス画像生成手段(リファレンス画像生成部12)は、超音波画像の視野領域を抽出し、互いに直交する各リファレンス画像において視野外領域に対応する領域を非表示にする機能を有している。
 また、術者の設定によって、各リファレンス画像(第一リファレンス画像31、第二リファレンス画像32、第三リファレンス画像33)の視野外領域に対応する部分を表示又は非表示を選択することも可能とする。これらの機能により、超音波画像と各リファレンス画像(第一リファレンス画像31、第二リファレンス画像32、第三リファレンス画像33)との対応関係が明確となり、術者は両画像の対応関係を容易に把握することができる。
 図3の(b)の(b-4)に示す画像は、3次元ボリュームデータ30から抽出して生成した第一リファレンス画像31である。また、第一リファレンス画像31内の点線34は、第二リファレンス画像32の位置を示し、点線35は、第三リファレンス画像33の位置を示す。これにより、表示されている第一リファレンス画像31と、第二、第三リファレンス画像32、33との位置関係を把握しやすくなる。また、超音波画像29にも、第二リファレンス画像32及び第三リファレンス画像33の位置を示す点線34、35をそれぞれ表示させる。
 図3の(b)の(b-5)に示す画像は、3次元ボリュームデータ30から抽出して生成した第二リファレンス画像32である。第二リファレンス画像32には、超音波探触子2の位置を示すイラスト37が重畳表示される。イラスト37は、第二リファレンス画像32における超音波探触子2の断面形状を領域37rで示し、第二リファレンス画像32から見た超音波探触子2の輪郭を点線37lで示したものである。換言すると、点線37lは、超音波探触子2を第二リファレンス画像32に平行投影したときの輪郭線である。つまり、超音波探触子マークは、超音波探触子2をリファレンス画像の断面に投影した形状を示す輪郭線を用いて表示される。超音波探触子マークは、超音波探触子2の断面における断面形状を示す領域を用いて表示される。
 よって、超音波探触子2の超音波放射面28が第二リファレンス画像32内にある場合には、イラスト37内には矩形領域37r(その縁どりが点線37lとなる)が描出され、第二リファレンス画像32内にない場合には、イラスト37内に矩形領域37rは描出されず、輪郭線37lのみが描出される。図3の第二リファレンス画像32の場合、超音波探触子2の超音波放射面28の一部が第二リファレンス画像32に含まれるため、矩形領域37rを含んだイラスト37が描出されている。
 更に、第二リファレンス画像32には、第一リファレンス画像31上に表示されている視野外領域38が表示されている。視野外領域38は、視野領域よりも低下させて表示される。更に、第二リファレンス像画像32は、第一リファレンス画像31の位置を示す点線36及び、第三リファレンス画像33の位置を示す点線35が重畳表示される。
 図3の(b)の(b-6)に示す画像は、3次元ボリュームデータ30から抽出して生成した第三リファレンス画像33である。第三リファレンス画像33には、超音波探触子2の位置を示すイラスト39が重畳表示される。イラスト39は、第三リファレンス画像33における超音波探触子2の断面形状を領域39rで示し、第三リファレンス画像33から見た超音波探触子2の輪郭を点線39lで示したものである。換言すると、点線39lは、超音波探触子2を第三リファレンス画像33に平行投影したときの輪郭線である。
 よって、超音波探触子2の超音波放射面28が第三リファレンス画像33内にある場合には、イラスト39内には矩形領域39rが描出され、第三リファレンス画像33内にない場合には、イラスト39内に矩形領域39rは描出されず、輪郭線39lのみが描出される。図3の第三リファレンス画像33の場合、超音波探触子2の超音波放射面28の一部が第三リファレンス画像33に含まれるため、矩形領域39rを含んだイラスト39が描出されている。
 更に、第三リファレンス画像33には、第一リファレンス画像31上に表示されている視野外領域40が表示されている。視野外領域40は、視野領域よりも輝度を低下させて表示される。更に、第三リファレンス像画像33は、第一リファレンス画像31の位置を示す点線36及び、第二リファレンス画像32の位置を示す点線34が重畳表示される。
 上記点線34~36は、例えば、断面毎に点線の色を変えたり、点線の種類を一点鎖線や二点鎖線、破線などの表示態様で区別したり、点線の色と種類の2種類を用い、リファレンス画像毎に区別したりしても良い。また、点線の色でリファレンス画像を区別する場合には、その点線に対応するリファレンス画像との対応関係を明確にするため、リファレンス画像の表示エリアを対応する点線の色で縁取ったり、同色又は同一の表示態様からなる画像識別マークを付けてもよい。これら点線34~36をリファレンス画像に重畳表示する処理は、リファレンス画像生成部12により実行される。また、本実施形態では、超音波探触子2を示すイラスト37、39において、矩形状領域37r、39rと輪郭線37l、39lとを併用したが、どちらか一つのみを用いてもよい。
 次に図4乃至図9に基づいて、第一実施形態の表示画面を説明する。
 図4に示すように、本実施形態に係る画面41には、超音波画像29、超音波画像29と同一断面からなる第一リファレンス画像31、第一リファレンス画像31を90°または270°回転させた第二リファレンス画像32、超音波放射面と平行な第三リファレンス画像33、及びガイド画像42が表示される。更に、画面41には、各種機能を実行させるソフトボタンが備えられる。これらソフトボタンには、超音波画像上のガイド線のON/OFF切替ボタン43、リファレンス画像上のガイド線のON/OFF切替ボタン44、リファレンス画像上に超音波探触子の位置を示すイラスト表示のON/OFF切替ボタン45、ナビゲーション機能のON/OFF切替ボタン46、移動又は回転する画像として、第二リファレンス画像又は第三リファレンス画像のいずれかを選択する画像選択ボタン47、移動方向(奥行き・手前方向/同一平面内の任意方向)切替ボタン48、及び回転方向(奥行き・手前方向・左・右/上下方向)切替ボタン49が含まれる。
 ガイド画像42は、MRI装置やCT装置で撮像された被検体の3次元のボリュームデータを基に、例えばボリュームレンダリングを施すことで、被検体の3次元の内部構造を可視化した3次元可視化画像に、第一リファレンス画像の位置を示すマーク31mと第二リファレンス画像の位置を示すマーク32mと第三リファンレス画像の位置を示すマーク33mとを重畳表示したものである。
 術者が超音波画像上のガイド線のON/OFFの切替ボタン43を押し下げると、超音波画面上にも対応する点線34、35の表示/非表示を選択することができる。なお、超音波画像29上に点線34、35を重畳表示する処理は、画像処理部14が行う。
 術者がリファレンス画像上のガイド線のON/OFFの切替ボタン44を押し下げると、第一リファレンス画像31、第二リファレンス画像32、第三リファレンス画像33に重畳表示された他のリファレンス画像の位置を示す点線34、35、36の表示/非表示を選択することができる。
 術者が、超音波探触子の位置を示すイラスト表示のON/OFF切替ボタン45を押し下げると、第二リファレンス画像32、第三リファレンス画像33に重畳表示された超音波探触子の位置を示すイラスト37、39の表示/非表示を選択することができる。
 術者が、ナビゲーション機能のON/OFF切替ボタン46を押し下げると、ナビゲーションモードに切り替わり、予め、デフォルトとして設定されている第二リファレンス画像32又は第三リファレンス画像33を強調表示する。ナビゲーションモードの機能の詳細については、後述する。
 術者が、画像選択ボタン47を押し下げると、第二リファレンス画像32又は第三リファレンス画像33の何れか一方を選択することができる。画像選択方法は、モニタ15上に搭載されたスクリーンボタンで構成される画像選択ボタン47の他、図示されていない超音波診断装置10のコンソール上の画像選択ボタンを用いてもよい。更に、図示されていない超音波診断装置10のコンソール上にあるポインタ表示ボタンを押し、モニタ15上にポインタを表示させた後、そのポインタで直接、第二リファレンス画像32又は第三リファレンス画像33を選択してもよい。
 また、ナビゲーションモードに入る前に、予め、画像選択ボタン47によって、ナビゲーションモードに入った際に選択される画像をデフォルト設定として設定しておくことも可能である。
 術者が、移動方向切替ボタン48を押し下げると、選択された画像(画面41では第三リファレンス画像33)を図4の紙面上における奥行き・手前方向に沿って移動させるか、又は同一平面内の任意の方向に移動させるかを選択することができる。
 術者が、回転方向切替ボタン49を押し下げると、選択された画像(画面41では第三リファレンス画像33)を図4の紙面上における左右方向若しくは、図4の紙面上における上下方向を回転軸とする回転のどちらかを選択することができる。
 上記ナビゲーションモードでは、予め、デフォルトとして設定されているリファレンス画像が強調表示されるが、それに伴ういくつかの強調表示がある。以下では、第二リファレンス画像32がデフォルトとして設定されている場合を例に説明する。
 第二リファレンス画像32がデフォルト画像として選択されている状態で画像選択ボタン47を押し下げて、第三リファレンス画像33をナビゲーションモードに使用する画像として選択できる。ナビゲーションモードによる強調表示は、例えば、画像の周りを色や太い線などで縁取るなど、強調表示の有無によって異なる表示形態を用いることで実現できる。画面41は、第三リファレンス画像33が表示枠50を重畳表示することで強調表示されると共に、第二リファレンス画像32の強調表示を解除した状態を示す。
 また、ナビゲーションモードでは、超音波画像29上及び強調されていないリファレンス画像、即ち第一リファレンス画像31及び第二リファレンス画像32上に表示されている、強調されたリファレンス画像、即ち第三リファレンス画像33の表示位置を示す点線35が強調表示される。
 更に、ガイド画像42上に表示している強調させたリファレンス画像、即ち第三リファレンス画像33の位置を示すマーク33mも合わせて強調表示される。
 またナビゲーションモードでは、強調表示されていない画像(即ち画面41では、超音波画像29、第一リファレンス画像31、及び第二リファレンス画像32)に表示されている、強調されたリファレンス画像(即ち画面41では、第三リファレンス画像33)の現在の表示位置を示す点線35が表示される。点線35は、第三リファレンス画像33の移動ピッチに応じて、点線35A、35B、35C…、35a、35b、35c…と移動しながら、常時表示される。なお、点線35の添え字のうち、大文字は深度が深くなる方向に向かって現在の表示位置から離れていく順にA、B、C…と描出し、小文字は深度が浅くなる方向に向かって現在の表示位置から離れていく順にa、b、c…と描出する。
 図4の状態で、移動方向切替ボタン48を押し下げ、移動方向として奥行き・手前方向を選択した後、図5の(a)の(a-1)に示すように超音波診断装置10上のトラックボール16tを上方向に回転させる、若しくは、超音波診断装置10に接続可能な図示されていないポインティングデバイス、例えば、マウスのマウスホイールを上方向に回転させると、第三リファレンス画像33は、超音波の深度方向に沿って深い方向(超音波探触子2から遠ざかる方向:図5の(b)の(b-5)における矢印B方向)に移動する。
 よって図5の(a)の(a-2)に示す第三リファレンス画像33は、図5の(a)の(a-3)に示すように、36A、36B、36C…に切り替わると共に、超音波画像29、第一リファレンス画像31、第二リファレンス画像32上に表示されている点線35の強調表示が、順に35A、35B、35C…へ連続的に移動する。この時、第三リファレンス画像33に表示されている超音波探触子2の位置を示すイラスト39は、第三リファレンス画像が、深度方向dp1に沿ってより深い方へ移動すると、矩形状領域39rが徐々に小さくなり点線39lのみを残す表示に変わる。また、図5の(b)の(b-3)に示す第三リファレンス画像33が、深度方向dp1に沿ってより深い方向へ移動し、同(b-4)に示す第三リファレンス画像33Cに遷移すると、ガイド画像42に表示される断面のマーク33mも深度方向dp1に沿って移動する(図5の(b)の(b-1)のマーク33mから同(b-2)の33mCへ移動する)。
 反対に、図4の状態で、移動方向切替ボタン48を押し下げ、移動方向として奥行き・手前方向を選択した後、図6の(a)の(a-1)に示すように超音波診断装置10上のトラックボール16tを下方向に回転させる、若しくは、超音波診断装置10に接続可能な図示されていないポインティングデバイス、例えば、マウスのマウスホイールを下方向に回転させると、第三リファレンス画像33は、超音波の深度方向dp1に沿って浅い方向(超音波探触子2に近くなる方向:矢印C方向)に移動する。
 よって図6の(a)の(a-2)に示す第三リファレンス画像33は、図6の(a)の(a-3)に示すように、順に36a、36b、36c…に切り替わると共に、超音波画像29、第一リファレンス画像31、第二リファレンス画像32上に表示されている点線35の強調表示も、順に35a、35b、35c…へ連続的に移動する。この時、第三リファレンス画像33に表示されている超音波探触子2の位置を示すイラスト39は、第三リファレンス画像33が、深度方向dp1に沿ってより浅い方へ移動するにつれて、イラスト39内のうち、第三リファレンス画像33の第三リファレンス画像33に含まれる部分を示す矩形状領域39rの面積は、徐々に大きく表示される。
 また、図6の(b)の(b-3)に示す第三リファレンス画像33が、深度方向dp1に沿って移動し、同(b-4)に示す第三リファレンス画像33cに遷移すると、ガイド画像42に表示される第三リファレンス画像33の位置を示すマーク33mも深度方向dp1に沿って移動する(図6の(b)の(b-1)のマーク33mから同(b-2)の33mcへ移動する)。
 次に図7に基づいて、第二リファレンス画像32を移動する処理について説明する。第二リファレンス画像32を選択した状態で移動方向選択ボタン48により移動方向として「奥行き・手前方向」を選択した後、図7の(a)の(a-1)に示すようにトラックボール16tを右方向に回転させると、第二リファレンス画像32は、図7の(b)の(b-3)に示すように、超音波ボリュームデータ30内において基準位置から矢印D方向へ沿って移動し、同(b-4)に示す第二リファレンス画像32Cへ遷移する。すなわち、超音波探触子2との位置関係では、図7の(b)の(b-5)に示すように、基準位置は超音波探触子2から放射される超音波の中心軸の位置にあるが、トラックボール16tの回転に伴って矢印D方向に沿って移動し、第二リファレンス画像32Cへと遷移する。これに伴い、図7の(b)の(b-1)に示すガイド画像42の位置を示すマーク32mは、同(b-2)に示すマーク32mCへ遷移する。
 更に、トラックボール16tの右方向の回転に伴って、図7の(a)の(a-2)に示す第二リファレンス画像32は、同(a-3)に示すように、順に32A、32B、32C…に切り替わると共に、超音波画像29、第一リファレンス画像31、第三リファレンス画像33上に表示されている点線34はそれぞれ、順に34A、34B、34C…へ連続的に移動する。この時、第二リファレンス画像32に表示されている超音波探触子2の位置を示すイラスト37は第二リファレンス画像32の表示断面が切り替わる毎に徐々に矩形状領域37rが小さくなり、やがて点線37lのみの表示に変わる。これは第二リファレンス画像32の断面が切り替わる毎に視野が更新されるため、超音波探触子2と第二リファレンス画像32との位置関係が変化するためである。
 次に図8に基づいて超音波放射面内における移動について説明する。図8に示すように、モニタ15には、初期状態では図8の(a)の(a-1)に示すように、超音波画像29と基準位置における第一リファレンス画像31、第二リファレンス画像32、第三リファレンス画像33が表示されているとする。超音波画像29、第一リファレンス画像31、第二リファレンス画像32上には、第三リファレンス画像33の位置を示す点線35が表示されている。
 ここで、移動方向選択ボタン48により移動方向として「同一平面」を選択した後、トラックボール16tを右方向に回転させると、第三リファレンス画像33は、超音波ボリュームデータ30内において、基準位置から第三リファレンス画像33Rへ遷移する(図8の(b)参照)。その結果、モニタ15には、第三リファレンス画像33Rが更新表示される(図8の(a)の(a-2)参照)。なお、第三リファレンス画像33が第三リファレンス画像33Rに移動しても、超音波画像29、第一リファレンス画像31、第二リファレンス画像32上での第三リファレンス画像33を示す点線35の位置は変化しないので、これらの画像は変化しない。
 また図9の(a)に示すように、トラックボール16tをa1~a8の各方向に回転操作すると、第三リファレンス画像33を抽出する断面位置は、トラックボール16tの回転方向及び回転量に従って移動する。図9の(a)において、トラックボール16tを回転方向a1、a2、a3、a4、a5、a6、a7、a8のそれぞれに回転すると、第三リファレンス画像33は、図9の(b)に示すように、第三リファレンス画像33から第三リファレンス画像33Front、33FrontR、33R、33BackR、33Back、33BackL、33L、33FrontLのそれぞれに遷移する。これら遷移後の画像には、移動の超音波探触子の位置を示すマーク39が表示される。
 a1、a5方向は、深度方向に沿った移動である。a1方向に沿って移動した場合、超音波画像29、第一リファレンス画像31、第二リファレンス画像35に重畳表示した点線35は、例えば図8の(a)の(a-2)に示すように35A、35B、35Cへと移動する。
 a3、a7方向は、超音波の放射面内において、深度方向に直交する方向に沿った移動である。この場合、第三リファレンス画像33の深度方向における位置は変化しないので、超音波画像29、第一リファレンス画像31、第二リファレンス画像32上での第三リファレンス画像33を示す点線35の位置は変化しない。
 a2、a8方向は、深度方向に沿って深い方向と深度方向に直交する方向に沿って右又は左移動を伴った移動である。この場合、第三リファレンス画像33の深度方向に沿った移動分だけ、超音波画像29、第一リファレンス画像31、第二リファレンス画像32上での第三リファレンス画像33を示す点線35の位置が変化する。
 a4、a6方向は、深度方向に沿って浅い方向と深度方向に直交する方向に沿って右又は左移動を伴った移動である。この場合、第三リファレンス画像33の深度方向に沿った移動分だけ、超音波画像29、第一リファレンス画像31、第二リファレンス画像32上での第三リファレンス画像33を示す点線35の位置が変化する。
 次に、図10に基づいて回転移動について説明する。図10に示すように、画像選択ボタン47により第二リファレンス画像32を選択している状態で、回転方向切替ボタン49によって、回転方向を「奥行き・手前・左・右」に設定した上でトラックボール16tを上方向に回転させると、基準位置にある第二リファレンス画像32(図10の(a)の(a-1)参照)は、第二リファレンス画像32の左右方向を回転軸Ax2として、モニタ15に対し、奥行き方向に回転し(図10の(a)の(a-2)参照)、第二リファレンス画像32s3へ遷移する(図10の(b)参照)。
 同様にトラックボール16tを下方向に回転させると、第二リファレンス画像32はモニタ15に対し、回転軸Ax2として手前方向に回転し(図10の(a)の(a-3)参照)、第二リファレンス画像32s4へ遷移する(図10の(b)参照)。
 トラックボール16tを左方向に回転させると、第二リファレンス画像32の奥行き・手前方向を回転軸Ax1として、第二リファレンス画像32は左に回転し(図10の(a)の(a-5)参照)、第二リファレンス画像32s2へ遷移する(図10の(b)参照)。同様にトラックボール16tを右方向に回転させると、第二リファレンス画像32の奥行き・手前方向を回転軸Ax1として、第二リファレンス画像32は右に回転し(図10の(a)の(a-4)参照)、第二リファレンス画像32s1へ遷移する(図10の(b)参照)。
 これらの回転に伴い、ガイド画像42上に表示している第二リファレンス画像32の位置を示すマーク32mも、トラックボール16tの動きに追従して回転する。
 本実施形態によれば、超音波を放射すると共に、超音波の反射波を受信する超音波探触子2と、超音波探触子2の位置を検出する第一位置検出手段(位置センサ4)と、反射波に基づく反射エコー信号を用いて超音波画像を生成する超音波画像生成手段(超音波画像生成部6)と、被検体の3次元ボリュームデータを用いて、任意断面のリファレンス画像を生成し、当該リファレンス画像に、超音波探触子の位置を示す超音波探触子マークを重畳表示するリファレンス画像生成手段(リファレンス画像生成部12)と、超音波画像とリファレンス画像とを表示する表示手段(モニタ15)を備える。
 被検体の3次元ボリュームデータを用いて、任意断面のリファレンス画像を生成するステップと、リファレンス画像に超音波探触子2の位置を示す超音波探触子マークを重畳表示するステップと、超音波探触子2から受信した反射波に基づく超音波画像とリファレンス画像とを表示するステップとを含む超音波画像表示方法である。よって、リファレンス画像上に表示される超音波探触子2の位置を示すマークにより、リファレンス画像と超音波探触子2との位置関係が把握しやすくなる。
 特に、体腔内に挿入する超音波探触子の場合、超音波探触子の位置を目視できないため、リファレンス画像との位置関係を把握しやすくすることにより、診断能の向上に寄与することができる。
 また、リファレンス画像や超音波画像、またガイド画像上に、各リファレンス画像の位置を示すマークを表示することで、これらの画像の相互の位置関係が把握しやすくなり、更なる診断能の向上に起用することができる。
 <第二実施形態>
 第二実施形態は、穿刺を行う際に、穿刺針の進入経路も合わせて表示する実施形態である。以下、図11及び図12に基づいて第二実施形態について説明する。図11は、第二実施形態に係る表示画面の一例を示す説明図であって、図2の超音波探触子Cを用いた場合の表示例を示す。図12は、第二実施形態に係る表示画面の一例を示す説明図であって、図2の超音波探触子Aの超音波放射面21を用いた場合の表示例を示す。
 本実施形態に係る表示を行う場合には、操作者が、図示されていない超音波診断装置のコンソール上の「穿刺ガイド」ボタンを押す。これに応じて、経路算出部53は、超音波診診断装置に接続している超音波探触子の形状及び穿刺針51が出入りする物理的位置の情報に基づいて穿刺針51の芯線の延長線を穿刺針51の経路として穿刺針51の進入経路を算出し、その経路を示すデータをリファレンス画像生成部12、ガイド画像生成部13、及び画像処理部14に出力する。リファレンス画像生成部12は、各リファレンス画像に穿刺針51の経路を重畳表示し、ガイド画像生成部13は、ガイド画像42上に穿刺針51の経路を重畳表示し、画像処理部14は、超音波画像29に穿刺針51の経路を重畳表示する。または、本実施形態に用いる穿刺針51には、位置センサ52を備え、経路算出部53は、ソース発生源5及び位置センサ52からの出力に基づいて、穿刺針51の現在位置と傾きとを算出し、穿刺針51の芯線の延長線を、穿刺針51の経路として算出する機能を有し、重畳表示をしてもよい。
 図11に示すように、超音波画像29上には、穿刺を行う際に使用する穿刺針51の進入経路を示す穿刺ガイドライン(以下「ガイドライン」と略記する。)55が表示される。その際、第一リファレンス画像31上には、超音波画像29上に表示されているガイドライン55と同位置、同じ大きさでガイドライン55が表示される。第二リファレンス画像32にはガイドライン55が重畳表示される。第三リファレンス画像33上において、穿刺針51が通過する位置にガイドラインマーク56が重畳表示される。
 ガイド画像42上には、ガイドライン55の位置を示す矢印57が表示される。第一リファレンス画像31上に表示したガイドライン55の位置を、第二、第三リファレンス画像32、33上で確認する場合には、ナビゲーション機能のON/OFF切替ボタン46を押して、ナビゲーションモードに入る。
 次いで画像選択ボタン47を押し、第二リファレンス画像32もしく第三リファレンス画像33を選択した上で、トラックボール16tを回転させ、ガイドライン55が表示されている断面を表示し、ガイドライン55の位置を確認する。ナビゲーションモードへの切替えは、「穿刺ガイド」ボタンを押した時点で自動的に切替えるような仕組みとしても良い。図11には、第二リファレンス画像32上でガイドライン55の位置を確認した例を示しているので、第二リファレンス画像32上では、ガイドライン55が第二リファレンス画像32の中央、かつ表示画面の上下方向に沿って表示されている。
 また、第三リファレンス画像33上でガイドライン55が通過する軌跡、つまりガイドラインマーク56の位置を確認することもできる。この場合には、画像選択ボタン47を押し、第三リファレンス画像33に選択を切替えた上で、トラックボールを回転させ、ガイドラインマーク56が表示されている断面を表示させることによって、第三レファレンス画像33上のガイドラインマーク56の位置を確認することができる。
 次に、図12に基づいて、図2の超音波探触子Aを用いた場合について説明する。図2に示すように超音波探触子Aは超音波放射面20、21を搭載しているので、以下では、超音波放射面21を使用した場合について説明するが、超音波放射面20及び図2の超音波探触子Bについても、以下に説明する実施形態を適用することができる。
 図12に示すように、超音波探触子Aを用いた場合、超音波放射面21の深度方向が超音波探触子Aの進行方向に対して傾いているという特徴上、ガイドライン55は斜め方向に引かれる。
 したがって、超音波画像29、第一リファレンス画像31、第三リファレンス画像33上には、超音波画像29、第一リファレンス画像31、第三リファレンス画像33上で穿刺針51が通過する位置にガイドラインマーク56を重畳表示し、第二リファレンス画像32上には、穿刺針51の進入経路を示すガイドライン55を表示する。この時、第二リファレンス画像32上に表示される超音波探触子2の位置を示すマーク37および第三リファレンス画像33上に表示される超音波探触子2の位置を示すマーク39は超音波探触子Bの各リファレンス画像における断面形状に合わせて表示する。ガイドライン55およびガイドラインマーク56の位置の確認は、超音波探触子Aの場合と同様にナビゲーションモードに入り、トラックボールで行う。
 本実施形態によれば、被検体に穿刺する穿刺針51の位置及び姿勢を検出する第二位置検出手段(位置センサ52)と、検出された穿刺針51位置及び姿勢に基づき、穿刺針51の芯線の延長線の位置を算出する経路算出手段(経路算出部53)とを備え、リファレンス画像生成手段(リファレンス画像生成部12)は、算出された穿刺針51の芯線の延長線を示すマークを、リファレンス画像に重畳表示する。また、リファレンス画像生成手段(リファレンス画像生成部12)は、穿刺針51の芯線の延長線を含み、当該延長線と平行な断面からなるリファレンス画像を生成する。
 被検体に穿刺する穿刺針51の位置及び姿勢を検出する第二位置検出手段(位置センサ52と、検出された穿刺針51の位置及び姿勢に基づき、穿刺針51の芯線の延長線の位置を算出する経路算出手段と、算出された穿刺針51の芯線の延長線を示すマークを超音波画像に重畳表示する第二画像処理手段(画像処理部14)と、を更に備える。
 第一、第二、第三リファレンス画像31、32、33の互いの位置関係および穿刺針51が通過する位置を把握し易くなる。特に、被検体の体腔内で超音波探触子2を用いた穿刺を実施した場合、超音波探触子2の位置を目視することができないが、その場合であっても、穿刺針51が通過する部位を第一、第二、第三リファレンス画像31、32、33、超音波画像29及びガイド画像42で確認することが可能となるので、より安全に穿刺を実施することが可能となる。更に、超音波探触子の位置を示す表示も行うことで、超音波探触子の現在位置を基準とした穿刺針の進入経路を確認することもできる。
 1 超音波診断層装置本体、2 超音波探触子、3 位置センサ固定機構、4 位置センサ、5 ソース発生源、6 超音波画像生成部、7 シネメモリ、8 超音波ボリュームデータ生成部、9 ボリュームデータ記録部、10 超音波診断装置、11 スキャン面取得部、12 リファレンス画像生成部、13 ガイド画像生成部、14 画像処理部、15 モニタ、16 移動・回転量入力部、17 医療用画像診断装置、51 穿刺針、52 位置センサ、53 経路算出部

Claims (12)

  1.  超音波を放射すると共に、前記超音波の反射波を受信する超音波探触子と、
     前記超音波探触子の位置を検出する第一位置検出手段と、
     前記反射波に基づく反射エコー信号を用いて超音波画像を生成する超音波画像生成手段と、
     被検体の3次元ボリュームデータを用いて、任意断面のリファレンス画像を生成し、当該リファレンス画像に、前記超音波探触子の位置を示す超音波探触子マークを重畳表示するリファレンス画像生成手段と、
     前記超音波画像と前記リファレンス画像とを表示する表示手段と、
     を備えることを特徴とする超音波診断装置。
  2.  複数の前記超音波画像を基に、被検体の3次元の超音波ボリュームデータを生成する超音波ボリュームデータ生成手段と、を更に備え、
     前記リファレンス画像生成手段は、前記生成された超音波ボリュームデータを用いて、前記リファレンス画像を生成する、
     ことを特徴とする請求項1に記載の超音波診断装置。
  3.  前記超音波探触子マークは、前記超音波探触子を前記リファレンス画像の断面に投影した形状を示す輪郭線を用いて表示される、
     ことを特徴とする請求項1に記載の超音波診断装置。
  4.  前記超音波探触子マークは、前記超音波探触子の断面における断面形状を示す領域を用いて表示される、
     ことを特徴とする請求項1に記載の超音波診断装置。
  5.  前記リファレンス画像生成手段は、異なる断面からなる複数のリファレンス画像を生成し、一のリファレンス画像に、他のリファレンス画像のスライスピッチを示すマークを重畳表示し、前記表示手段に表示されている他のリファレンス画像のスライスピッチを示すマークを強調表示する、
     ことを特徴とする請求項1に記載の超音波診断装置。
  6.  前記超音波画像に、前記リファレンス画像のスライスピッチを示すマークを重畳表示し、前記表示手段に表示されているリファレンス画像の断面位置を示すスライスピッチを示すマークを強調表示する第一画像処理手段を更に備える、
     ことを特徴とする請求項1に記載の超音波診断装置。
  7.  被検体に穿刺する穿刺針の位置及び姿勢を検出する第二位置検出手段と、
     検出された穿刺針の位置及び姿勢に基づき、前記穿刺針の芯線の延長線の位置を算出する経路算出手段と、を更に備え、
     前記リファレンス画像生成手段は、算出された穿刺針の芯線の延長線を示すマークを、前記リファレンス画像に重畳表示する、
     ことを特徴とする請求項1に記載の超音波診断装置。
  8.  前記リファレンス画像生成手段は、前記穿刺針の芯線の延長線を含み、当該延長線と平行な断面からなる前記リファレンス画像を生成する、
     ことを特徴とする請求項7に記載の超音波診断装置。
  9.  被検体に穿刺する穿刺針の位置及び姿勢を検出する第二位置検出手段と、
     検出された穿刺針の位置及び姿勢に基づき、前記穿刺針の芯線の延長線の位置を算出する経路算出手段と、
     算出された前記穿刺針の芯線の延長線を示すマークを前記超音波画像に重畳表示する第二画像処理手段と、を更に備える、
     ことを特徴とする請求項1に記載の超音波診断装置。
  10.  前記リファレンス画像生成手段は、前記超音波画像の視野領域を抽出し、互いに直交する各リファレンス画像において視野外領域に対応する領域の輝度を低下させる機能を有していることを特徴とする請求項1に記載の超音波診断装置。
  11.  前記リファレンス画像生成手段は、前記超音波画像の視野領域を抽出し、互いに直交する各リファレンス画像において視野外領域に対応する領域を非表示にする機能を有していることを特徴とする請求項1に記載の超音波診断装置。
  12.  被検体の3次元ボリュームデータを用いて、任意断面のリファレンス画像を生成するステップと、リファレンス画像に超音波探触子の位置を示す超音波探触子マークを重畳表示するステップと、超音波探触子から受信した反射波に基づく超音波画像とリファレンス画像とを表示するステップとを含む超音波画像表示方法。
PCT/JP2012/063846 2011-09-08 2012-05-30 超音波診断装置及び超音波画像表示方法 WO2013035393A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201280043713.5A CN103781426B (zh) 2011-09-08 2012-05-30 超声波诊断装置以及超声波图像显示方法
JP2013532478A JP5775164B2 (ja) 2011-09-08 2012-05-30 超音波診断装置及び超音波画像表示方法
US14/342,430 US9480457B2 (en) 2011-09-08 2012-05-30 Ultrasound diagnostic device and ultrasound image display method
EP12830733.7A EP2754396A4 (en) 2011-09-08 2012-05-30 ULTRASONIC DIAGNOSTIC DEVICE AND ULTRASONIC IMAGE DISPLAY METHOD

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011195954 2011-09-08
JP2011-195954 2011-09-08

Publications (1)

Publication Number Publication Date
WO2013035393A1 true WO2013035393A1 (ja) 2013-03-14

Family

ID=47831855

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/063846 WO2013035393A1 (ja) 2011-09-08 2012-05-30 超音波診断装置及び超音波画像表示方法

Country Status (5)

Country Link
US (1) US9480457B2 (ja)
EP (1) EP2754396A4 (ja)
JP (1) JP5775164B2 (ja)
CN (1) CN103781426B (ja)
WO (1) WO2013035393A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2893880A1 (en) * 2014-01-08 2015-07-15 Samsung Medison Co., Ltd. Ultrasound diagnostic apparatus and method of operating the same
EP2926736A1 (en) * 2014-03-31 2015-10-07 Esaote S.p.A. Apparatus and method for ultrasound image acquisition, generation and display
JP2018134271A (ja) * 2017-02-22 2018-08-30 キヤノンメディカルシステムズ株式会社 超音波診断装置、及び超音波診断支援プログラム
JP2021534857A (ja) * 2018-08-22 2021-12-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. インターベンショナル医療機器の3dトラッキング

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5831000B2 (ja) * 2011-07-21 2015-12-09 ソニー株式会社 信号処理装置、制御方法、並びに信号処理システムおよび方法
CN103781424A (zh) * 2012-09-03 2014-05-07 株式会社东芝 超声波诊断装置以及图像处理方法
EP3099244B1 (en) * 2014-01-28 2019-03-13 Koninklijke Philips N.V. Ultrasound systems for multi-plane acquisition with single- or bi-plane real-time imaging, and methods of operation thereof
KR20160012590A (ko) * 2014-07-24 2016-02-03 삼성메디슨 주식회사 초음파 영상 장치 및 그 제어방법
US11123041B2 (en) 2014-08-28 2021-09-21 Samsung Electronics Co., Ltd. Ultrasound diagnosis apparatus for self-diagnosis and remote-diagnosis, and method of operating the ultrasound diagnosis apparatus
KR101705120B1 (ko) 2014-08-28 2017-02-09 삼성전자 주식회사 자가 진단 및 원격 진단을 위한 초음파 진단 장치 및 초음파 진단 장치의 동작 방법
KR102312267B1 (ko) * 2014-10-31 2021-10-14 삼성메디슨 주식회사 초음파 영상 장치 및 그 동작 방법
WO2016175758A2 (en) 2015-04-28 2016-11-03 Analogic Corporation Image guided steering of a transducer array and/or an instrument
CN106691500B (zh) * 2015-07-23 2020-06-23 中山大学附属第三医院 基于穿刺针尖自动识别的超声穿刺引导线成像方法
KR102551252B1 (ko) * 2015-11-11 2023-07-05 삼성메디슨 주식회사 초음파 진단 장치 및 그 동작방법
WO2017200521A1 (en) * 2016-05-16 2017-11-23 Analogic Corporation Real-time sagittal plane navigation in ultrasound imaging
AU2017281281B2 (en) 2016-06-20 2022-03-10 Butterfly Network, Inc. Automated image acquisition for assisting a user to operate an ultrasound device
JP6833427B2 (ja) * 2016-09-26 2021-02-24 キヤノンメディカルシステムズ株式会社 超音波診断装置及び医用画像処理プログラム
US10588596B2 (en) * 2017-03-14 2020-03-17 Clarius Mobile Health Corp. Systems and methods for detecting and enhancing viewing of a needle during ultrasound imaging
US20210093298A1 (en) * 2019-09-27 2021-04-01 Butterfly Network, Inc. Methods and apparatuses for providing feedback for positioning an ultrasound device
JP7368247B2 (ja) * 2020-01-23 2023-10-24 キヤノンメディカルシステムズ株式会社 超音波診断装置および画像処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006167267A (ja) * 2004-12-17 2006-06-29 Hitachi Medical Corp 超音波診断装置
JP2009095371A (ja) 2007-10-12 2009-05-07 Hitachi Medical Corp 超音波内視鏡、超音波診断装置、及び超音波内視鏡における位置センサ固定方法
WO2010007860A1 (ja) * 2008-07-15 2010-01-21 株式会社 日立メディコ 超音波診断装置とその探触子操作ガイド表示方法
JP2010069018A (ja) * 2008-09-18 2010-04-02 Olympus Medical Systems Corp 医用ガイドシステム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4088104B2 (ja) 2002-06-12 2008-05-21 株式会社東芝 超音波診断装置
US8102392B2 (en) * 2003-06-27 2012-01-24 Kabushiki Kaisha Toshiba Image processing/displaying apparatus having free moving control unit and limited moving control unit and method of controlling the same
JP4828802B2 (ja) * 2004-05-12 2011-11-30 株式会社東芝 穿刺治療のための超音波診断装置
JP4467927B2 (ja) * 2003-08-19 2010-05-26 株式会社東芝 超音波診断装置
US8123691B2 (en) * 2003-08-19 2012-02-28 Kabushiki Kaisha Toshiba Ultrasonic diagnostic apparatus for fixedly displaying a puncture probe during 2D imaging
WO2006085571A1 (ja) * 2005-02-09 2006-08-17 Hitachi Medical Corporation 超音波診断装置及び超音波撮像方法
WO2007027703A2 (en) * 2005-08-29 2007-03-08 University Of Toledo System for extended high frame rate imaging with limited-diffraction beams
JP4850841B2 (ja) * 2005-10-04 2012-01-11 株式会社日立メディコ 超音波探触子及びそれを用いた超音波診断装置
CN101351156B (zh) * 2005-10-07 2010-12-01 株式会社日立医药 图像显示方法和医用图像诊断系统
JP5738507B2 (ja) * 2006-01-19 2015-06-24 東芝メディカルシステムズ株式会社 超音波プローブの軌跡表現装置及び超音波診断装置
CN100556360C (zh) * 2006-01-19 2009-11-04 东芝医疗系统株式会社 超声波探头轨迹显示装置及方法和超声波诊断装置及方法
JP2007301030A (ja) * 2006-05-09 2007-11-22 Toshiba Corp 超音波診断装置
JP2007185526A (ja) * 2007-03-15 2007-07-26 Olympus Corp 超音波診断装置
JP4934513B2 (ja) * 2007-06-08 2012-05-16 株式会社日立メディコ 超音波撮像装置
JP2009089736A (ja) * 2007-10-03 2009-04-30 Toshiba Corp 超音波診断装置
DE102009006148B4 (de) * 2009-01-07 2010-11-18 Siemens Aktiengesellschaft Verfahren, Monitor-Steuermodul, System und Computerprogramm zum Darstellen medizinischer Bilder
JP5404066B2 (ja) * 2009-01-13 2014-01-29 株式会社東芝 医用画像表示システム
JP5537171B2 (ja) * 2009-02-27 2014-07-02 株式会社東芝 超音波撮影装置、画像処理装置、画像処理方法及び画像処理プログラム
US20100286526A1 (en) 2009-05-11 2010-11-11 Yoko Okamura Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus and ultrasonic image processing method
US10039527B2 (en) * 2009-05-20 2018-08-07 Analogic Canada Corporation Ultrasound systems incorporating spatial position sensors and associated methods

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006167267A (ja) * 2004-12-17 2006-06-29 Hitachi Medical Corp 超音波診断装置
JP2009095371A (ja) 2007-10-12 2009-05-07 Hitachi Medical Corp 超音波内視鏡、超音波診断装置、及び超音波内視鏡における位置センサ固定方法
WO2010007860A1 (ja) * 2008-07-15 2010-01-21 株式会社 日立メディコ 超音波診断装置とその探触子操作ガイド表示方法
JP2010069018A (ja) * 2008-09-18 2010-04-02 Olympus Medical Systems Corp 医用ガイドシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2754396A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2893880A1 (en) * 2014-01-08 2015-07-15 Samsung Medison Co., Ltd. Ultrasound diagnostic apparatus and method of operating the same
EP2926736A1 (en) * 2014-03-31 2015-10-07 Esaote S.p.A. Apparatus and method for ultrasound image acquisition, generation and display
JP2018134271A (ja) * 2017-02-22 2018-08-30 キヤノンメディカルシステムズ株式会社 超音波診断装置、及び超音波診断支援プログラム
JP2021534857A (ja) * 2018-08-22 2021-12-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. インターベンショナル医療機器の3dトラッキング
JP7319354B2 (ja) 2018-08-22 2023-08-01 コーニンクレッカ フィリップス エヌ ヴェ インターベンショナル医療機器の3dトラッキング

Also Published As

Publication number Publication date
EP2754396A1 (en) 2014-07-16
US20140236001A1 (en) 2014-08-21
CN103781426A (zh) 2014-05-07
US9480457B2 (en) 2016-11-01
CN103781426B (zh) 2016-03-30
JPWO2013035393A1 (ja) 2015-03-23
JP5775164B2 (ja) 2015-09-09
EP2754396A4 (en) 2015-06-03

Similar Documents

Publication Publication Date Title
JP5775164B2 (ja) 超音波診断装置及び超音波画像表示方法
JP5814370B2 (ja) 超音波診断装置及び超音波画像表示方法
CN104411249B (zh) 用于图像引导流程的超声成像系统和方法
EP3003161B1 (en) Method for 3d acquisition of ultrasound images
JP5586465B2 (ja) 超音波診断装置
JP5705403B2 (ja) 超音波画像内の所定の点を追跡するための方法及び装置
JP6242569B2 (ja) 医用画像表示装置及びx線診断装置
JP5417609B2 (ja) 医用画像診断装置
JP5830576B1 (ja) 医療システム
US20130018263A1 (en) Ultrasound diagnostic apparatus and ultrasound diagnostic system
JP2005058584A (ja) 超音波診断装置
JP6026455B2 (ja) 医用画像表示装置およびその作動方法並びにプログラム
JP6112689B1 (ja) 重畳画像表示システム
JP2008178500A (ja) 超音波診断装置
JP6078134B1 (ja) 医療システム
JP6142462B1 (ja) 重畳画像表示システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201280043713.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12830733

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013532478

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14342430

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE