WO2012164919A1 - 超音波画像生成装置および超音波画像生成方法 - Google Patents

超音波画像生成装置および超音波画像生成方法 Download PDF

Info

Publication number
WO2012164919A1
WO2012164919A1 PCT/JP2012/003523 JP2012003523W WO2012164919A1 WO 2012164919 A1 WO2012164919 A1 WO 2012164919A1 JP 2012003523 W JP2012003523 W JP 2012003523W WO 2012164919 A1 WO2012164919 A1 WO 2012164919A1
Authority
WO
WIPO (PCT)
Prior art keywords
movement
ultrasonic
movement vector
image
vector
Prior art date
Application number
PCT/JP2012/003523
Other languages
English (en)
French (fr)
Inventor
遠間 正真
淳 大宮
文平 田路
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to EP12792497.5A priority Critical patent/EP2716230A4/en
Priority to JP2012540616A priority patent/JP5862571B2/ja
Priority to US13/812,062 priority patent/US20130131510A1/en
Publication of WO2012164919A1 publication Critical patent/WO2012164919A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • A61B8/5276Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts due to motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0891Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4263Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors not mounted on the probe, e.g. mounted on an external reference frame
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8934Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration
    • G01S15/8936Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration using transducers mounted for mechanical movement in three dimensions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems

Definitions

  • the present invention relates to an ultrasonic image generating apparatus and an ultrasonic image generating method.
  • the present invention relates to an ultrasonic image generation apparatus and an ultrasonic image generation method for generating an ultrasonic diagnostic image using a plurality of ultrasonic signals obtained from a subject while moving an ultrasonic probe.
  • X-ray diagnostic apparatuses X-ray diagnostic apparatuses, MR (magnetic resonance) diagnostic apparatuses, and ultrasonic diagnostic apparatuses are widely used as biological image diagnostic apparatuses.
  • An ultrasonic diagnostic apparatus has advantages such as noninvasiveness and real-time characteristics, and is widely used for diagnosis including medical examination.
  • the diagnostic site of the ultrasonic diagnostic apparatus has a wide variety of blood vessels such as the heart or carotid artery, liver, or breast. Among them, the carotid artery is one of the most important diagnostic sites due to the recent increase in the number of people suffering from arteriosclerosis.
  • the carotid artery Intima Thickness
  • IMT Intima Thickness
  • plaque the thickness of the intima-media complex
  • the position information (position and orientation) of the ultrasonic probe at the time of acquiring the ultrasonic image is acquired, and each ultrasonic image is three-dimensionally based on the position information. Map in space.
  • a method for estimating the position information there is a method in which a marker attached to the ultrasonic probe is photographed with a camera, and the position of the ultrasonic probe is estimated based on a change in the position and shape of the marker in the photographed image (for example, a patent) Reference 1).
  • an object of the present invention is to provide an ultrasonic image generation apparatus that suppresses the direction dependency of the position acquisition accuracy of an ultrasonic probe, in view of such problems.
  • an ultrasonic image generating apparatus generates an ultrasonic diagnostic image using a plurality of ultrasonic signals obtained from a subject while moving an ultrasonic probe.
  • An ultrasonic image generation apparatus wherein a movement vector indicating movement of the ultrasonic probe when a plurality of images corresponding to each of the plurality of ultrasonic signals is acquired is obtained by a first estimation method using a first movement vector
  • the first movement estimation unit for estimating the movement vector when the plurality of images corresponding to each of the plurality of ultrasonic signals are acquired is different from the first estimation method in the direction dependency of the estimation accuracy.
  • a second movement estimation unit that estimates the second movement vector by a second estimation method; the first movement vector that is estimated by the first movement estimation unit; and the second movement that is estimated by the second movement estimation unit.
  • a vector is combined with weighting based on the direction of the first movement vector or the second movement vector, thereby calculating a combined movement vector and using the combined movement vector and the plurality of images.
  • a position reconstruction unit that constitutes an ultrasound diagnostic image of the specimen.
  • ultrasonic image generation device highly accurate position information can be acquired in any direction of movement of the ultrasonic probe, and a three-dimensional image with higher accuracy than a conventional ultrasonic image generation device can be obtained. Can be built.
  • FIG. 1A is a configuration diagram of an example of the ultrasonic image generation apparatus according to the first embodiment.
  • FIG. 1B is a configuration diagram of another example of the ultrasonic image generating apparatus according to the first embodiment.
  • FIG. 2 is an explanatory diagram of a movement vector acquisition method by image processing.
  • FIG. 3 is a flowchart showing the operation of the ultrasonic image generating apparatus according to the first embodiment.
  • FIG. 4 is a diagram illustrating the configuration of the position reconstruction unit.
  • FIG. 5 is an explanatory diagram of an angle formed by the reference direction and the movement vector.
  • FIG. 6 is a flowchart showing the operation of the position reconstruction means.
  • FIG. 7 is a diagram illustrating a method of decomposing a movement vector into a reference direction component and an orthogonal component.
  • FIG. 1A is a configuration diagram of an example of the ultrasonic image generation apparatus according to the first embodiment.
  • FIG. 1B is a configuration diagram of another example of the ultrasonic image generating apparatus
  • FIG. 8 is a diagram illustrating a method of decomposing a movement vector into absolute coordinate space components.
  • FIG. 9 is an explanatory diagram of a position information acquisition method using a plurality of cameras.
  • FIG. 10 is a diagram illustrating an effect of the ultrasonic image generating apparatus according to the first embodiment.
  • FIG. 11 is a diagram illustrating an effect of the ultrasonic image generation apparatus according to the second embodiment.
  • FIG. 12 is a flowchart illustrating the operation of the ultrasonic image generating apparatus according to the second embodiment.
  • FIG. 13 is an explanatory diagram of camera arrangement and auxiliary information for camera arrangement.
  • FIG. 14A is a flowchart illustrating an operation of a modification of the ultrasonic image generating apparatus according to the second embodiment.
  • FIG. 14B is a configuration diagram of an example of an ultrasound image generation apparatus including a feedback unit.
  • FIG. 15 is a configuration diagram of an example of a conventional ultrasonic image generation apparatus.
  • FIG. 16 is a flowchart showing the operation of the conventional ultrasonic image generating apparatus.
  • FIG. 17 is an explanatory diagram of a position acquisition method of a conventional ultrasonic image generation apparatus.
  • FIG. 18 is an explanatory diagram when the ultrasonic image generation method is implemented by a computer system using a program recorded on a recording medium such as a flexible disk.
  • a conventional ultrasonic diagnostic apparatus that constructs a three-dimensional image based on the position information of the ultrasonic probe acquired at the time of scanning will be described with reference to FIGS. 15 and 16.
  • FIG. 15 is a configuration diagram of an example of a conventional ultrasonic diagnostic apparatus 1501.
  • the ultrasonic diagnostic apparatus 1501 includes an ultrasonic probe 101, a transmission unit 102, a reception unit 103, a transmission / reception control unit 104, an ultrasonic image generation unit 105, an image memory 1506, A position acquisition unit 1507, a position reconstruction unit 1508, and a display unit 1509 are provided.
  • An element such as a piezoelectric element arranged in the ultrasonic probe 101 generates an ultrasonic signal based on a drive signal output from the transmission unit 102.
  • the ultrasonic signal is reflected by the in-vivo structure of the subject, such as a blood vessel wall or muscle, and a part of the reflected component is received by the ultrasonic probe 101.
  • the receiving unit 103 sequentially performs amplification, A / D (analog / digital) conversion, delay addition processing of the signal of each element, and the like on the received reflected signal to generate a received RF (Radio Frequency) signal.
  • the transmission / reception control unit 104 controls operations of the transmission unit 102 and the reception unit 103.
  • For the transmission unit 102 switching of a driving voltage, setting of a transmission frequency, and the like are performed in order to perform predetermined scanning.
  • the receiver 103 is set with a delay time for performing reception beamforming.
  • the ultrasonic image generation unit 105 converts the received RF signal into an ultrasonic image and stores it in the image memory 1506.
  • Examples of the ultrasonic image to be generated include a B-mode image in which the signal intensity is represented by the magnitude of luminance, or a Doppler image indicating the blood flow or the motion speed of the tissue calculated based on the Doppler effect of the received RF signal. is there.
  • the position acquisition unit 1507 acquires the position information LocInf0 of the ultrasonic probe and outputs it to the position reconstruction unit 1508.
  • the position acquisition unit 1507 is realized by a camera, for example.
  • the position reconstruction unit 1508 maps the ultrasonic image stored in the image memory 1506 in the three-dimensional space based on the position information LocInf0 received from the position acquisition unit 1507, and configures a three-dimensional image ProcImg0 to be imaged.
  • Display unit 1509 displays the three-dimensional image ProcImg0 on a display device such as a monitor.
  • FIG. 16 is a flowchart showing the operation of the conventional ultrasonic diagnostic apparatus 1501.
  • the conventional ultrasonic diagnostic image 1501 acquires an ultrasonic image in step S1601.
  • step S1602 position information corresponding to the ultrasonic image acquired in step S1601 is acquired from the position acquisition unit 1507.
  • step S1603 it is determined whether or not the acquisition of the ultrasound image has ended.
  • steps S1601 and S1602 are repeated until it is determined in step S1603 that the acquisition of the ultrasound image has ended.
  • step S1604 the acquired ultrasonic image is mapped in the three-dimensional space based on the position information.
  • step S1605 a three-dimensional image of the ultrasonic image is displayed.
  • position information is determined based on information from a single position acquisition unit.
  • position information acquisition accuracy of the position acquisition means is direction-dependent, there is a problem that the accuracy of the position information in the direction where the position acquisition accuracy is low is lowered and the construction accuracy of the three-dimensional image is lowered.
  • the position information acquisition method includes a method using a position sensor such as a camera and a method using image processing using an ultrasonic image.
  • a position sensor such as a camera
  • image processing using an ultrasonic image the direction dependency of the position resolution will be described by taking the position estimation by the camera and image processing as an example.
  • FIG. 17 is an explanatory diagram of a position information acquisition method of a conventional ultrasonic image generation apparatus.
  • FIG. 17 is explanatory drawing about the positional information acquisition method by a camera.
  • the camera is arranged in the x-axis direction, tracks an optical marker (marker) attached to the ultrasonic probe, and determines marker position information based on the marker shape or posture change amount.
  • the amount of change in the shape or posture of the marker when moving the same distance differs depending on the moving direction of the marker, and the amount of change is smaller in the x-axis direction than in the y-axis direction or the z-axis direction. If the amount of change is small, the resolution of the position information decreases. Therefore, in the position information acquisition by the camera, the resolution in the x-axis direction, that is, the depth direction of the camera is lowered.
  • (B) of FIG. 17 is explanatory drawing about the positional information acquisition method by image processing.
  • the relative positional relationship between images is determined by determining the amount of positional deviation between continuously scanned ultrasonic images based on the correlation between images.
  • the movement vector between the (N ⁇ 1) th and Nth images can be determined by examining the amount of positional deviation between two (N ⁇ 1) th and Nth consecutive B-mode images.
  • the resolution in the traveling direction of the probe (corresponding to the y-axis direction) is lower than the positional deviation amount in the image plane (the plane formed by the x-axis and the z-axis).
  • the position information acquired by a single method has direction dependency on the resolution, there is a direction in which the resolution of the position information decreases when imaging while moving the probe in an arbitrary direction.
  • the ultrasound image is mapped in a three-dimensional space based on position information, so that the construction accuracy of the three-dimensional image is reduced due to a decrease in resolution of the position information.
  • an object of the present invention is to provide an ultrasonic image generation apparatus that suppresses the direction dependency of the position acquisition accuracy of an ultrasonic probe, in view of such problems.
  • an ultrasonic image generation apparatus uses a plurality of ultrasonic signals obtained from a subject to move an ultrasonic diagnostic image while moving an ultrasonic probe.
  • An ultrasonic image generation device for generating a movement vector indicating movement of the ultrasonic probe when a plurality of images corresponding to each of the plurality of ultrasonic signals is acquired by a first estimation method.
  • a first movement estimation unit that estimates as a movement vector, and the movement vector when a plurality of images corresponding to each of the plurality of ultrasonic signals are acquired.
  • the first estimation method is a direction dependency of estimation accuracy.
  • a second movement estimation unit that estimates as a second movement vector by a different second estimation method, the first movement vector estimated by the first movement estimation unit, and the second movement estimation unit By combining the two movement vectors with weighting based on the direction of the first movement vector or the second movement vector, a combined movement vector is calculated, and the combined movement vector and the plurality of images are used.
  • a position reconstruction unit that constitutes an ultrasound diagnostic image of the subject.
  • a plurality of movement vectors are estimated using the first and second estimation methods having different direction dependences of the estimation accuracy, and they are combined to obtain a direction in which the estimation accuracy is relatively low in the first estimation method.
  • the movement vector of the ultrasonic probe can be calculated.
  • the direction dependency of the position acquisition accuracy of the ultrasonic probe can be suppressed.
  • the first movement estimation unit may acquire one of the two images after acquiring the other based on an image shift between two images of the plurality of images.
  • the movement vector of the ultrasonic probe is estimated by calculating the movement vector between the two.
  • the displacement of the two images can be analyzed and the amount of movement of the ultrasonic probe can be estimated.
  • the movement of the ultrasonic probe in the plane including the cross section of the subject that has transmitted the ultrasonic signal corresponding to the image can be detected with relatively high accuracy.
  • the first movement estimation unit detects an image shift amount between the two images based on a correlation between pixel values constituting the two images of the plurality of images.
  • the movement vector of the ultrasonic probe from when one of the two images is acquired until the other is acquired is estimated.
  • the movement amount of a corresponding pixel or a region that is a collection of a plurality of pixels is calculated, and the movement amount of the ultrasonic probe is estimated from the movement amount. can do.
  • the movement of the ultrasonic probe in the plane including the cross section of the subject corresponding to the image can be detected with relatively high accuracy.
  • the position reconstruction unit has a large angle between the moving direction of the ultrasonic probe and the reference direction used as a reference in the estimation by the first movement estimating unit or the second movement estimating unit.
  • the ultrasonic diagnostic image is configured by increasing the weight of the first movement vector or the second movement vector and calculating the combined movement vector.
  • the weight of the component in the direction in which the estimation accuracy is relatively high is set large, and the estimated position vector is weighted to generate the combined position vector, thereby improving the accuracy of the combined movement vector. Can be high. Therefore, the direction dependency of the position acquisition accuracy of the ultrasonic probe can be suppressed.
  • the position reconstruction unit increases the first movement estimation as the angle formed between the moving direction of the ultrasonic probe and the direction in which the estimation accuracy that is the reference direction in the first movement estimating unit is low.
  • the ultrasonic diagnostic image is constructed by increasing the weight of the movement vector estimated by the unit and calculating the combined movement vector.
  • the weight of the direction component in the plane including the cross section of the subject corresponding to the image is set large, and then the synthesized position vector is generated.
  • the accuracy of the combined movement vector can be increased.
  • At least one of the first movement estimation unit and the second movement estimation unit images an optical marker attached to the ultrasonic probe with a camera, and the position or shape of the captured optical marker Based on the above, the position and angle of the ultrasonic probe are calculated.
  • the movement vector of the ultrasonic probe can be estimated by the optical marker and the camera. Thereby, the movement of the ultrasonic probe in a plane parallel to the imaging surface of the camera can be detected with relatively high accuracy.
  • the position reconstruction unit increases the optical movement as the angle formed between the moving direction of the ultrasonic probe and the normal direction of the imaging surface of the camera, which is the reference direction in the optical movement estimating unit.
  • the plurality of images are configured by increasing the weight of the movement vector estimated by the estimation unit and combining the movement vectors.
  • the combined movement is performed by generating the combined position vector after setting the weight of the direction component in the plane parallel to the imaging surface of the camera to be large.
  • the accuracy of the vector can be increased.
  • the first movement estimation unit may acquire one of the two images after acquiring the other based on an image shift between two images of the plurality of images.
  • the movement vector of the ultrasonic probe between the two is estimated by calculating the movement vector of the ultrasonic probe between, and the second movement estimation unit images the optical marker attached to the ultrasonic probe with a camera. Then, the movement vector of the ultrasonic probe is estimated by calculating the position and angle of the ultrasonic probe based on the imaged position or shape of the optical marker.
  • the position estimation of the ultrasonic probe by image processing and the position estimation of the ultrasonic probe by the optical marker and the camera are used together, and the position vector of the ultrasonic probe estimated by each method is synthesized, A composite position vector can be generated.
  • the ultrasonic image generation device may further change the reference direction by an operator so that the reference directions in the first movement estimation unit and the second movement estimation unit are substantially orthogonal to each other.
  • An arrangement assist unit that presents information for prompting an operation is provided.
  • the operator can suppress the direction dependency of the estimation accuracy of the synthesized position vector.
  • the direction of the estimation method can be set. Therefore, the direction dependency of the position acquisition accuracy of the ultrasonic probe can be suppressed.
  • An ultrasonic image generation method is an ultrasonic image generation method that generates an ultrasonic diagnostic image using a plurality of ultrasonic signals obtained from a subject while moving an ultrasonic probe.
  • An estimation step and a second estimation method in which the movement vector when a plurality of images corresponding to each of the plurality of ultrasonic signals is acquired is different from the first estimation method by a second estimation method that is different in direction dependency of estimation accuracy.
  • a second movement estimation step for estimating two movement vectors By combining the determined second movement vector with weighting based on the direction of the first movement vector or the second movement vector, a combined movement vector is calculated, and the combined movement vector and the plurality of movement vectors And a position reconstruction step of constructing an ultrasonic diagnostic image of the subject using the image.
  • the ultrasonic image generation method in the first movement estimation step, based on the image shift between two images of the plurality of images, the two images
  • the movement vector of the ultrasonic probe is estimated by calculating the movement vector from when one is acquired until the other is acquired.
  • FIG. 1A is a configuration diagram of the ultrasonic image generating apparatus 10 according to the first embodiment of the present invention.
  • the ultrasonic image generating apparatus 10 includes a first movement estimation unit 10A, a second movement estimation unit 10B, and a position reconstruction unit 10C.
  • the first movement estimation unit 10A estimates the movement vector of the ultrasonic probe when a plurality of images corresponding to each of the plurality of ultrasonic signals are acquired by the first estimation method.
  • the second movement estimation unit 10B estimates the movement vector of the ultrasonic probe by a second estimation method that is different from the first estimation method in the direction dependency of estimation accuracy.
  • the position reconstruction unit 10C calculates a synthesized movement vector by weighting and synthesizing the movement vectors estimated by the first movement estimation unit and the second movement estimation unit based on the moving direction of the ultrasonic probe.
  • An ultrasonic diagnostic image of the subject is generated by constructing a plurality of images according to the movement vector.
  • FIG. 1B is a configuration diagram of the ultrasonic image generating apparatus 11 according to the first embodiment of the present invention.
  • the ultrasonic image generation device 11 includes an ultrasonic probe 101, a transmission unit 102, a reception unit 103, a transmission / reception control unit 104, an ultrasonic image generation unit 105, an image memory 105, a position acquisition unit 111, An image position estimation unit 112, a position reconstruction unit 113, and a display unit 114 are included. Since the operation of the functional block that transmits and receives an ultrasonic signal and performs processing for generating a B-mode image or a Doppler image to generate an ultrasonic image is the same as that of the conventional ultrasonic diagnostic apparatus 1501, the same symbol is used. The description is omitted.
  • the image position estimation unit 112 corresponds to the first movement estimation unit 10A.
  • the position acquisition unit 111 corresponds to the second movement estimation unit 10B.
  • a linear probe that is composed of at least one row of ultrasonic probes and obtains a two-dimensional image, or a row of ultrasonic probes oscillates or translates to continuously generate a two-dimensional image.
  • an oscillating 3D probe that obtains a three-dimensional image or a matrix probe that obtains a three-dimensional image using a probe arranged two-dimensionally can be used.
  • a linear probe will be described as an example.
  • the position acquisition unit 111 acquires the position information LocInf1 of the ultrasonic probe 101 and inputs it to the position reconstruction unit 113.
  • the position information is information indicating the position in the three-dimensional space (corresponding to the coordinate values of the x, y, and z axes) and the direction (the amount of rotation around each of the three axes, and the ultrasonic probe in the three-dimensional space. Information for determining the attitude of the user).
  • various systems such as an optical system such as a camera, a magnetic sensor, a gyroscope, an acceleration sensor, or a GPS can be used. In this embodiment, a camera will be described as an example.
  • the image position estimation unit 112 estimates the movement vector MEInf between images based on the correlation between the images based on the ultrasonic image held in the image memory 115 and inputs the estimated vector to the position reconstruction unit 113.
  • FIG. 2 is an explanatory diagram of a method for acquiring a movement vector by image processing.
  • 2A shows the Nth acquired ultrasonic image
  • the solid line in FIG. 2B shows the (N + 1) th ultrasonic image.
  • This displacement is determined based on the evaluation value for the entire image or for each evaluation unit obtained by dividing the image. For example, an evaluation unit having a minimum evaluation value in the (N + 1) th image with respect to an evaluation unit at a specific position in the Nth image, using the sum of differences in pixel values between evaluation units as an evaluation value. And may be determined by calculating the positional deviation between the two evaluation units.
  • the contour of the imaging target may be extracted from the image, and a region including the extracted contour may be used.
  • a measure such as a correlation of pixel values between evaluation units or a mutual information amount.
  • feature points are detected based on a dynamic contour model such as SIFT method (Scale-Invariant Feature Transform) or SNAKES method, and a displacement vector is determined from the average or intermediate value of displacements of multiple feature points. May be.
  • the center of gravity of the contour may be calculated from the detected feature points, and the position shift of the center of gravity may be used as a position shift vector.
  • the contour of the imaging target may be extracted from the image, and a region including the extracted contour may be used.
  • the positional deviation vector may be obtained using the extracted points on the contour as feature points. Since the positional deviation vector shown in FIG. 2B is a vector in the image plane, the positional deviation vector is converted into a vector in a three-dimensional space based on the positional information of the Nth image. Hereinafter, a vector in a three-dimensional space indicating a positional deviation between two images is referred to as a movement vector.
  • FIG. 2C shows the result of converting the displacement vector of FIG. 2B into a movement vector.
  • the moving direction and moving distance of the ultrasonic probe in the three-dimensional space correspond to the moving vector. Note that the conversion into the movement vector may be performed by the position reconstruction unit 113.
  • the movement vector can be calculated from the difference between the position information of the Nth image and the (N + 1) th image acquired by the position acquisition unit 111.
  • the position reconstruction unit 113 maps the ultrasonic image in the three-dimensional space based on the position information determined by weighting the position information LocInf1 and the movement vector MEinf, constructs a three-dimensional image, and displays 3 for display. A dimensional image ProcImg1 is generated. Finally, the display unit 114 displays the three-dimensional image ProcImg1 on an output device such as a monitor. Since the ultrasonic image generation device 11 of the present invention is characterized by the operations of the position acquisition unit 111, the image position estimation unit 112, and the position reconstruction unit 113, the operation of these functional blocks will be mainly described below. Description of other functional blocks is omitted as appropriate.
  • FIG. 3 is a flowchart showing the operation of the ultrasonic image generating apparatus 11.
  • the ultrasonic image generating device 11 acquires an ultrasonic image in step S ⁇ b> 101.
  • step S102 position information corresponding to the ultrasound image acquired in step S101 is acquired from the position acquisition unit 101.
  • step S103 it is determined whether or not the acquisition of the ultrasonic image has ended.
  • step S103 the processes in steps S101 and S102 are repeated until it is determined that the acquisition of the ultrasound image is completed.
  • step S104 the amount of relative positional deviation between the ultrasonic images is estimated by image processing, and a movement vector is calculated.
  • step S105 the position information of the ultrasonic image is determined by weighting both the movement vector calculated based on the position information acquired from the position acquisition unit 111 and the movement vector acquired by image processing.
  • step S106 a three-dimensional image is constructed by mapping each ultrasonic image in the three-dimensional coordinate space based on the position information determined in step S105.
  • step S107 a three-dimensional image of the ultrasonic image is displayed.
  • FIG. 4 is a block diagram showing the configuration of the position reconstruction unit 113.
  • the position reconstruction unit 113 includes a direction difference acquisition unit 1131, a weight determination unit 1132, and a 3D image construction unit 1133.
  • the direction difference acquisition unit 1131 calculates the direction difference Diff between the movement vector acquired by the position acquisition unit 111 and the reference direction, that is, the angle formed by both vectors.
  • the reference direction indicates a specific direction with respect to the position acquisition unit 111.
  • the reference direction is, for example, the depth direction of the camera.
  • the reference direction may be the normal direction of the imaging surface of the camera.
  • the weight determination unit 1132 weights the movement vector acquired by the position acquisition unit 111 and the image position estimation unit 112 based on the direction difference Diff to determine a final movement vector. Further, the movement vector is added to the position information of the immediately preceding image of the processing target image, the position information of the processing target image is determined, and input to the three-dimensional image construction unit 1133 as the position information LocInf2.
  • the 3D image construction unit 1133 maps the ultrasound image in the 3D space based on the position information LocInf2 to construct a 3D image.
  • the position information itself can be added or subtracted when using a representation format that can be added or subtracted, such as a Quaternian, but the orientation in the location information is converted to a format that can be added or subtracted when using a representation format such as Euler angle. After that, position information is added or subtracted. Further, since the position acquisition unit 111 obtains position information with respect to the reference position of the marker, when mapping the ultrasonic image in the three-dimensional space, the pixel position on the ultrasonic image and the reference position and orientation of the marker are Rotate and translate in consideration of the offset.
  • a representation format such as a Quaternian
  • FIG. 5 is an explanatory diagram of the angle formed by the reference direction and the movement vector.
  • the depth direction of the camera where the position resolution of the camera is lowered is set as the reference direction. If the angle between the two is ⁇ , the angle ⁇ corresponds to the direction difference Diff. Note that the movement vector obtained from the camera is used as the movement vector when determining the angle ⁇ .
  • the weight determination unit 1132 weights the movement vector obtained from the position acquisition unit 111 and the movement vector obtained by image processing based on the angle ⁇ by the method exemplified in (Equation 1).
  • mv_3 represents a weighted movement vector
  • mv_1 represents a movement vector obtained from the position acquisition unit
  • mv_2 represents a movement vector obtained by image processing.
  • the weight of mv_1 decreases as the movement vector approaches the depth direction, that is, cos ⁇ approaches 1.
  • the method of calculating the movement vector is not limited to the method of (Equation 1). It is also possible to use a function that monotonically increases or decreases as ⁇ changes.
  • FIG. 6 is a flowchart showing the operation of the position reconstruction unit 113.
  • the position reconstruction unit 113 calculates a movement vector 1 that is a difference in position between the (N ⁇ 1) -th image obtained from the position acquisition unit 101 and the N-th image.
  • a movement vector 2 indicating the amount of positional deviation between the two is calculated.
  • an angle ⁇ that is an angle formed by the movement vector 1 and the reference direction is calculated.
  • the movement vector 1 and the movement vector 2 are weighted based on the angle ⁇ , and the movement vector 3 that is the final movement vector of the Nth image is determined.
  • step S1035 the movement vector 3 is added to the position vector of the (N ⁇ 1) th image to determine the position of the Nth image.
  • the position vector is a vector determined by the position and orientation of the image.
  • the angle ⁇ may be calculated based on the angle formed by the movement vector 3 of the (N ⁇ 1) th image and the reference direction.
  • the movement vector 1 is regarded as the movement vector 3.
  • step S1036 the ultrasonic image is mapped in the three-dimensional space based on the position information to construct a three-dimensional image.
  • Equation 1 the movement vector 1 and the movement vector 2 are weighted together based on the angle ⁇ .
  • the movement vector may be weighted after being decomposed into direction components.
  • FIG. 7 shows an example of decomposing the movement vector based on the reference direction.
  • FIG. 7A shows the relationship between the movement vector 1 and the reference direction.
  • FIG. 7B shows an example in which the movement vector 1 is decomposed into three components: a reference direction component, a first orthogonal component in the reference direction, and a second orthogonal component in the reference direction. Since the reference direction component is significantly affected by a decrease in the position resolution of the camera, the reference direction component is weighted differently from the other two directions. (Equation 2) shows an example of weighting.
  • each vector of mv_1, mv_2, mv_3 is the same as (Equation 1).
  • [ref], [crs1], and [crs2] indicate a reference direction component of the movement vector, a first orthogonal component of the reference direction, and a second orthogonal component of the reference direction, respectively.
  • represents a weight for the first orthogonal component
  • represents a weight for the second orthogonal component. It should be noted that by setting ⁇ or ⁇ to 0, it is possible to eliminate the contribution of the component in the corresponding direction (not to contribute at all).
  • FIG. 8 shows an example in which a movement vector is decomposed into components of an absolute coordinate space.
  • the absolute coordinate space is a three-dimensional space determined by preset three axes orthogonal to each other (the x axis, the y axis, and the z axis in FIG. 8), and the movement vector 1 is in the three axis directions of x, y, and z. It is decomposed into components.
  • the components in the respective axial directions are determined based on angles formed by the respective axes, the reference direction C (camera reference direction), and the reference direction I (image processing reference direction).
  • the reference direction I reference direction for image processing
  • An example of movement vector weighting is shown in (Equation 3).
  • represents an angle formed by the reference direction C and the x axis
  • represents an angle formed by the reference direction I and the x axis
  • [x] represents an x axis direction component of the movement vector.
  • c1 and c2 are coefficients for normalizing the sum of weights for mv_1 [x] and mv_2 [x] to 1, respectively. The same process can be performed for the y-axis direction and the z-axis direction. According to this method, there is an advantage that the weighting of the movement vector obtained from the camera and the movement vector obtained from the image processing can be made flexible.
  • the ratio of the contribution of mv_1 [x] and mv_2 [x] to each mv_3 [x] can be set. For example, by making c1 and c2 the same value, the respective contributions of mv_1 [x] and mv_2 [x] can be made equal. Further, by making c1 a constant multiple of c2, the contribution of mv_1 [x] can be made the constant multiple of the contribution of mv_2 [x].
  • FIG. 9 is an explanatory diagram of a position information acquisition method using a plurality of cameras.
  • FIG. 9A shows an example in which position information is acquired by two cameras, a camera 901 and a camera 902. At this time, it is desirable to arrange the cameras so that they are spatially separated and face different directions. By arranging in this way, (1) it is possible to prevent the marker from being obstructed by the operator of the ultrasonic probe or the subject, and (2) the reference direction for each camera is different from each other. By arranging in the position, the direction in which the position resolution decreases can be reduced. FIG.
  • FIG. 9B shows the angle between the reference direction C1 (reference direction of the camera 901) and the reference direction C2 (reference direction of the camera 2) and the movement vector.
  • the movement vector for determining the angle ⁇ the movement vector acquired by the camera 1, the movement vector acquired by the camera 2, or the movement vector 3 of the immediately preceding image can be used.
  • the movement vector 3 which is the final movement vector is obtained by combining the movement vectors acquired by each of the plurality of cameras to determine the movement vector 1, and then calculating by weighting the movement vector 2 as in (Equation 1). .
  • a plurality of movement vectors obtained from the camera and the movement vector 2 may be weighted to each other.
  • the former example is shown in (Formula 4).
  • mv_1, mv_11, and mv_12 represent a movement vector 1 obtained by combining movement vectors of a plurality of cameras, a movement vector obtained from the camera 1, and a movement vector obtained from the camera 2, respectively.
  • [ref], [crs1], and [crs2] indicate a reference direction component of the movement vector, a first orthogonal component in the reference direction, and a second orthogonal component in the reference direction, respectively.
  • represents a weight for the first orthogonal component
  • represents a weight for the second orthogonal component.
  • the camera 1 has a low resolution with respect to movement in the x-axis direction
  • the amount of movement in the x-axis direction obtained by the camera 2 is used when determining position information in the camera 1, thereby The position resolution is improved.
  • FIG. 9 demonstrated the case where two cameras were used, it can be extended when using three or more cameras.
  • a plurality of types of position sensors such as a camera and a gyro may be used in combination.
  • the position acquisition unit 101 and image processing are used together and only a relative positional relationship can be obtained in the image processing, a movement vector is introduced in determining position information.
  • the position acquisition unit 101 such as a camera
  • the absolute value of the position information based on the origin of the position acquisition unit 101 is obtained. Therefore, when determining the position information only from the position information of the plurality of position acquisition units 101, the absolute value of the position information obtained from each position acquisition unit may be weighted without using the movement vector.
  • FIG. 10 is a diagram showing the effect of the ultrasonic image generating apparatus 11 according to the first embodiment of the present invention.
  • the ultrasonic probe moves in the y-axis direction
  • the reference direction of the camera is the x-axis direction. Therefore, the camera can acquire the position information with high resolution with respect to the movement of the ultrasonic probe in the yz plane and in the image processing in the zz plane. Therefore, by combining the camera and image processing, high-resolution position information can be acquired in all directions. In this way, by combining a plurality of position information acquisition methods, position information can be acquired with high resolution with respect to movement of the ultrasonic probe in an arbitrary direction.
  • the plurality of movement vectors are estimated using the first and second estimation methods having different direction dependencies of the estimation accuracy, and are combined.
  • the movement vector of the ultrasonic probe can be calculated by combining the component in the direction with a relatively low estimation accuracy in the first estimation method with the component in the direction with a relatively high estimation accuracy by the second estimation method. it can.
  • the weight of the component with the lower estimation accuracy and increasing the weight of the component with the higher estimation accuracy it is possible to calculate a movement vector with high accuracy in all directions. Therefore, the direction dependency of the position acquisition accuracy of the ultrasonic probe can be suppressed.
  • the displacement of the two images can be analyzed and the amount of movement of the ultrasonic probe can be estimated.
  • the movement of the ultrasonic probe in the plane including the cross section of the subject that has transmitted the ultrasonic signal corresponding to the image can be detected with relatively high accuracy.
  • the movement amount of the corresponding pixel or a region that is a collection of a plurality of pixels can be calculated, and the movement amount of the ultrasonic probe can be estimated from the movement amount. it can.
  • the movement of the ultrasonic probe in the plane including the cross section of the subject corresponding to the image can be detected with relatively high accuracy.
  • the weight of the component in the direction where the estimation accuracy is relatively high is set large, and then the estimated position vector is weighted to generate a combined position vector, thereby increasing the accuracy of the combined moving vector. Can do. Therefore, the direction dependency of the position acquisition accuracy of the ultrasonic probe can be suppressed.
  • the weight of the direction component in the plane including the cross section of the subject corresponding to the image is set large, and then the combined movement is generated by generating the combined position vector.
  • the accuracy of the vector can be increased.
  • the movement vector of the ultrasonic probe can be estimated by the optical marker and the camera. Thereby, the movement of the ultrasonic probe in a plane parallel to the imaging surface of the camera can be detected with relatively high accuracy.
  • the weight of a direction component in a plane parallel to the imaging surface of the camera is set to a large value, and then the combined position vector is generated, thereby improving the accuracy of the combined moving vector. Can be high.
  • the position estimation of the ultrasonic probe by image processing and the position estimation of the ultrasonic probe by the optical marker and the camera are used together, and the position vector of the ultrasonic probe estimated by each method is synthesized, and the combined position vector Can be generated.
  • FIG. 11 is a block diagram showing a configuration of the ultrasonic image generating apparatus 12 according to the second embodiment of the present invention.
  • the ultrasonic image generation device 12 includes an ultrasonic probe 101, a transmission unit 102, a reception unit 103, a transmission / reception control unit 104, an ultrasonic image generation unit 105, an image memory 115, an image position estimation unit 112, a position reconstruction unit 113, a position An acquisition unit 201, an arrangement assist unit 202, and a display unit 203 are included.
  • the position resolution decreases between the plurality of position acquisition units or between the position acquisition unit and the image processing. Reduce.
  • the ultrasonic image generation device 12 is a device in which an arrangement assist unit 202 for determining the arrangement position of the position acquisition unit 201 such as a camera is newly added to the ultrasonic image generation device 11. Note that the same functional blocks as those of the ultrasonic image generating apparatus 11 are denoted by the same reference numerals and description thereof is omitted.
  • the arrangement assist unit 202 determines the arrangement target position of the position acquisition unit 201 based on the initial position information LocInf2 acquired from the position acquisition unit 201, and generates auxiliary information NaviInf for arranging the position acquisition unit at the arrangement target position. To the display unit 203. The display unit 203 displays the auxiliary information NaviInf on the display device.
  • FIG. 12 is a flowchart showing the operation of the ultrasonic image generating apparatus 12.
  • step S301 the current position of the position acquisition unit 201 is acquired, and the arrangement target position of the position acquisition unit 201 is determined so that the position acquisition unit 201 is a predetermined position with respect to the imaging target.
  • processing when a camera is used as the position acquisition unit 201 will be described.
  • a calibration marker placed near the imaging target site of the subject at the current position is photographed with a camera, and the relative position of the camera with respect to the calibration marker is calculated.
  • the relative position of the camera with respect to the imaging target position may be determined by scanning the imaging target site with an ultrasonic probe to which the marker is attached to acquire the marker position.
  • a method for determining the arrangement target position will be described. In the image processing, the position resolution in the normal direction of the imaging section of the ultrasonic probe is lowered. Therefore, the camera is arranged so that the difference between the direction in which the position resolution of the camera is high and the normal direction of the imaging section is equal to or less than the threshold value.
  • the normal direction of the imaging cross section can be acquired by arranging the calibration marker so that the calibration marker and the normal direction have a predetermined positional relationship, and imaging the calibration marker with a camera.
  • the normal direction of the imaging section can also be obtained by scanning the imaging region and photographing the moving direction of the ultrasonic probe with a camera. Further, in the camera, the position resolution in the depth direction is reduced. Therefore, when using a plurality of cameras, the depth direction of each camera is set to be a direction in which the position resolution of the other camera is high.
  • the angle formed by the depth direction of each camera is close to 90 degrees (substantially orthogonal). If the angle formed by the depth direction of each camera is 90 degrees, the position resolution of the camera greatly decreases when the movement vector of the ultrasonic probe matches the depth direction of one camera. It does not match the depth direction of the camera. For this reason, the resolution of position acquisition by both cameras is maintained above a certain level.
  • the angle formed by the depth direction of each camera may be set within a predetermined range near 90 degrees. For example, it may be from 80 degrees to 100 degrees, or may be other ranges. Note that the distance between the camera and the imaging target region is determined so that the moving range of the ultrasonic probe is within the field of view of the camera.
  • step S302 auxiliary information for guiding the position acquisition unit 201 to the arrangement target position is generated and displayed based on the current position and the arrangement target position of the position acquisition unit 201. Thereafter, the user moves the position of the position acquisition unit 201 so as to be aligned with the arrangement target position according to the auxiliary information.
  • step S303 it is determined whether or not the difference in position and orientation between the current position and the arrangement target position is equal to or less than a threshold value, and the processes in steps S301 and S302 are repeated until the difference is equal to or less than the threshold value.
  • step S303 If it is determined in step S303 that the difference in position and orientation between the current position and the arrangement target position is equal to or smaller than the threshold value, auxiliary information indicating that the arrangement of the position acquisition unit 201 is completed is displayed in step S304. Thereafter, the same operation flow as that of the ultrasonic image generating apparatus 11 is performed.
  • the position acquisition unit 201 may be attached to a movable device such as an electric stage or a robot arm and automatically moved to the arrangement target position.
  • the position acquisition unit 201 is arranged only once before the ultrasonic image is picked up.
  • the arrangement target position changes when the traveling direction changes. Therefore, when the position acquisition unit 201 can be automatically moved, the arrangement target position may be calculated according to the traveling direction, and the position acquisition unit 201 may be moved to the arrangement target position.
  • FIG. 13 is an explanatory diagram of camera arrangement and auxiliary information for camera arrangement.
  • (A) of FIG. 13 is an example of the target position of the camera when imaging the carotid artery located near the human neck.
  • the camera 1 (1301) and the camera 2 (1302) are arranged so that the neck 1313 that is an imaging target part enters the field of view, and the depth direction of both forms an angle close to a right angle.
  • the calibration marker 1312 is used to acquire the current position, and is installed so that the relative position between the neck 1313 and the calibration marker 1312 is constant. In this way, the relative position between the neck 1313 and the cameras (1301 and 1302) can be acquired.
  • FIG. 13 shows a display example of auxiliary information.
  • the current position (1301A) of the camera 1 and the current position (1302A) of the camera 2 are indicated by solid lines.
  • the broken line indicates the target placement position (1301B) of the camera 1 and the placement target position (1302B) of the camera 2.
  • the arrows in the figure indicate the movement directions for guiding the respective cameras to the arrangement target positions, and the user moves the cameras in the direction indicated by the arrows.
  • the ultrasonic probe is often moved in the x-axis or y-axis direction as compared to the z-direction shown in FIG.
  • the x-axis or the y-axis reduces the position resolution by image processing by arranging the camera at a position looking down at the neck like the camera 2 (1302) in the figure.
  • Directional movement can be acquired with high resolution.
  • FIG. 14A is a flowchart showing the operation of a modification of the ultrasonic image generation apparatus 11 according to Embodiment 1, and weights the movement vectors obtained from one or more position acquisition units to obtain the movement vectors of the ultrasonic image. Once determined, the movement vector is corrected by image processing. The same steps as those in the flowchart of FIG.
  • step S201 position information is acquired from one or more position acquisition units.
  • step S202 the movement vector is determined by weighting the position information from the one or more position acquisition units acquired in step S201.
  • step S203 a relative displacement amount between the ultrasonic images is estimated by image processing, and a correction vector obtained by converting the displacement amount into a vector in a three-dimensional space is calculated.
  • the amount of displacement between the (N-1) th image and the Nth image may be estimated after the Nth image is moved based on the movement vector of the Nth image determined in step S202. In this way, it is possible to roughly estimate the amount of displacement using the movement vector obtained from the position acquisition unit, and then perform highly accurate estimation by image processing, reduce the amount of processing, and position estimation Increases robustness.
  • the correction vector may be set so that the movement vector changes smoothly in consideration of the continuity of the movement amount between a plurality of consecutive images.
  • the movement vector obtained from the position acquisition unit fluctuates due to camera shake or an error in the position acquisition unit
  • the movement vector is smoothed by image processing, thereby reducing fluctuations and accurate position. Can be approached.
  • the movement vector in the position acquisition unit is smoothed by interpolation processing such as spline interpolation or filtering processing, not correlation between ultrasonic images, and the movement vector before and after smoothing is obtained.
  • the difference may be used as a correction vector.
  • the position information acquired from the position acquisition unit may be smoothed, and the difference between the position information before and after the smoothing may be used as the movement vector.
  • step S204 the correction vector is added to the movement vector to correct the movement vector.
  • step S205 a three-dimensional image is constructed by mapping an ultrasonic image in the three-dimensional space based on the corrected movement vector, and is displayed in step S107.
  • the position reconstruction unit 103 may perform the following operation.
  • the reliability of the position information obtained by the position acquisition unit or the image processing may be set, and the position information with low reliability may not be used. For example, when using one camera and position information obtained by image processing, if the reliability of the position information obtained by image processing is equal to or less than a threshold, only the position information obtained by the camera is used. Alternatively, in the case of using position information from two cameras and image processing, if the reliability of the position information of one camera is low, position information from another camera and image processing is used.
  • the ultrasonic image may not be used for 3D image construction.
  • the reliability of the position acquisition unit the amount of change in the movement vector between successive images can be used. For example, if the absolute value difference between the movement vector of the (N ⁇ 1) th image and the movement vector of the Nth image or the difference in direction exceeds a threshold value, the position information of the Nth image is invalidated.
  • the position information may be invalidated if the minimum evaluation value exceeds a threshold value.
  • the position information of the image may be determined only from the position information with respect to the processing target image by resetting the position information for each predetermined scanning time interval or every specific number of acquired images, and the accumulation of errors may be reduced.
  • the position information is weighted based on the difference in direction between the reference direction and the movement vector, taking the camera as an example of the position acquisition unit.
  • the weighting scale is not limited to the difference in direction. For example, when the resolution differs depending on the distance between the magnetic transmitter and the probe in the magnetic sensor or the rotation direction as in a gyro, weighting may be performed according to the rotation direction.
  • an apparatus for constructing a three-dimensional image based on position information acquired with high position resolution has been described.
  • the application is not limited to construction of a three-dimensional image, and other than ultrasound such as CT and MRI.
  • the present invention can also be applied to alignment of a two-dimensional or three-dimensional image captured in a modal manner and an ultrasonic image, or alignment of ultrasonic images captured at different dates and times such as periodic diagnosis.
  • the combined use of the position acquisition unit and the image processing is not essential, and in particular, when using a plurality of position acquisition units, the position information may be determined only from the position acquisition unit.
  • the improvement in the accuracy of position acquisition in the position acquisition unit 111 and the image position estimation unit 112 and the improvement in the frequency are in a trade-off relationship.
  • the frequency of position acquisition by the position acquisition unit 111 and the image position estimation unit 112 is changed according to the accuracy of the positions acquired by the position acquisition unit 111 and the image position estimation unit 112. Specifically, the difference between the position information acquired by the position acquisition unit 111 and the image position estimation unit 112 is feedback-controlled to the frequency of position acquisition.
  • the position acquisition unit 111 and the image position estimation unit 112 are respectively an operation mode (high frequency mode) with low accuracy or robustness and high position acquisition frequency, and an operation mode (high accuracy) with high accuracy or robustness and low position acquisition frequency. These operation modes are switched by feedback information. By doing so, the accuracy or frequency of position acquisition of the position acquisition unit 111 and the image position estimation unit 112 can be improved according to the position acquisition situation.
  • An example of feedback control is shown in FIG. 14B.
  • FIG. 14B is a configuration diagram of an example of an ultrasonic image generation apparatus including a feedback unit. As shown in FIG. 14B, in this example, the ultrasonic image generating apparatus includes a feedback unit 116. Since the operation of other functional blocks is the same as that of the ultrasonic diagnostic apparatus 11, the same reference numerals are given and the description thereof is omitted.
  • the feedback unit 116 acquires position information acquired by the position acquisition unit 111 and the image position estimation unit 112. Then, the difference between these pieces of position information is calculated. If the difference is larger than the threshold value, the position acquisition unit 111 and the image position estimation unit 112 are changed to the high accuracy mode. If the difference in position information is smaller than the threshold, the position acquisition unit 111 and the image position estimation unit 112 are changed to the high frequency mode. By doing in this way, according to a position acquisition situation, the accuracy or frequency of position acquisition of the position acquisition part 111 and the image position estimation part 112 can be improved.
  • the direction of the estimation method in the estimation method is matched with the direction in which the estimation accuracy in the other estimation methods is high.
  • the operator can set the direction of the estimation method so as to suppress the direction dependency of the estimation accuracy. Therefore, the direction dependency of the position acquisition accuracy of the ultrasonic probe can be suppressed.
  • FIG. 18 is an explanatory diagram when the ultrasonic image generation method of each of the above embodiments is executed by a computer system using a program recorded on a recording medium such as a flexible disk.
  • FIG. 18B shows the appearance, sectional structure, and flexible disk as seen from the front of the flexible disk
  • FIG. 18A shows an example of the physical format of the flexible disk that is the main body of the recording medium.
  • the flexible disk FD is built in the case F, and a plurality of tracks Tr are formed concentrically on the surface of the disk from the outer periphery toward the inner periphery, and each track is divided into 16 sectors Se in the angular direction. ing. Therefore, in the flexible disk storing the program, the program is recorded in an area allocated on the flexible disk FD.
  • FIG. 18C shows a configuration for recording and reproducing the program on the flexible disk FD.
  • the program for realizing the image processing method is recorded on the flexible disk FD
  • the program is written from the computer system Cs via the flexible disk drive.
  • the image processing method for realizing the image processing method by the program in the flexible disk is constructed in the computer system
  • the program is read from the flexible disk by the flexible disk drive and transferred to the computer system.
  • the recording medium is not limited to this, and any recording medium such as an IC card or a ROM cassette capable of recording a program can be similarly implemented.
  • blocks such as the ultrasonic image generation unit 105, the position acquisition unit 111, the image position estimation unit 112, the position reconstruction unit 113, and the image memory 115 in FIG. 1B are typically integrated circuits such as LSI (Large Scale). Integration). These may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
  • LSI Large Scale
  • LSI Integrated Circuit
  • IC Integrated Circuit
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
  • a dedicated circuit for graphics processing such as GPU (Graphic Processing Unit) can be used.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • the software that realizes the image decoding apparatus of each of the above embodiments is the following program.
  • this program is an ultrasonic image generation method for generating an ultrasonic diagnostic image using a plurality of ultrasonic signals obtained from a subject while moving an ultrasonic probe to a computer
  • a first movement estimation step of estimating a movement vector indicating movement of the ultrasonic probe when a plurality of images corresponding to each of the sound wave signals is acquired as a first movement vector by a first estimation method
  • the movement vector when a plurality of images corresponding to each of the ultrasonic signals is acquired is estimated as a second movement vector by a second estimation method that is different in direction dependency of estimation accuracy from the first estimation method.
  • the second movement vector is combined with weighting based on the direction of the first movement vector or the second movement vector to calculate a combined movement vector, and the combined movement vector and the plurality of images And a position reconstruction step of constructing an ultrasonic diagnostic image of the subject.
  • the program may cause the computer to acquire the other of the two images after acquiring one of the two images based on the image shift between the two images of the plurality of images in the first movement estimation step.
  • the step of estimating the movement vector of the ultrasonic probe is executed by calculating the movement vector until is acquired.
  • the ultrasonic image generation apparatus has been described based on the embodiment, but the present invention is not limited to this embodiment. Unless it deviates from the gist of the present invention, one or more of the present invention may be applied to various modifications that can be conceived by those skilled in the art, or forms constructed by combining components in different embodiments. It may be included within the scope of the embodiments.
  • the ultrasonic image generating apparatus and method of the present invention when constructing a three-dimensional image based on an ultrasonic image obtained by scanning an imaging target from an arbitrary direction and position information, position information from a plurality of position acquisition units. Is used to determine the final position information, so that highly accurate position information can be acquired with respect to movement in an arbitrary direction, and a three-dimensional image can be constructed with high accuracy. Therefore, since the ultrasonic image generating apparatus and method according to the present invention can observe the three-dimensional shape of the diagnostic region with high accuracy, it can be expected to improve the diagnostic accuracy, and particularly has high applicability in the medical diagnostic equipment industry.

Abstract

 超音波プローブの位置取得精度の方向依存性を抑制する超音波画像生成装置(10)であって、複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの超音波プローブの移動を示す移動ベクトルを、第一推定方法により第一移動ベクトルとして推定する第一移動推定部(10A)と、複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの移動ベクトルを、第一推定方法とは推定精度の方向依存性が異なる第二推定方法により第二移動ベクトルとして推定する第二移動推定部(10B)と、第一移動推定部(10A)が推定した第一移動ベクトルと第二移動推定部(10B)が推定した第二移動ベクトルとを、第一移動ベクトルまたは第二移動ベクトルの方向に基づいて重み付けして合成することで、合成移動ベクトルを算出し、合成移動ベクトルと複数の画像とを用いて被検体の超音波診断画像を構成する位置再構成部(10C)とを備える。

Description

超音波画像生成装置および超音波画像生成方法
 本発明は、超音波画像生成装置および超音波画像生成方法に関する。特に、超音波プローブを移動させながら、被検体から得られる複数の超音波信号を用いて超音波診断画像を生成する超音波画像生成装置および超音波画像生成方法に関する。
 生体の画像診断装置としては、エックス線診断装置、MR(磁気共鳴)診断装置、あるいは、超音波診断装置が普及している。超音波診断装置は非侵襲性及び実時間性などの利点を持ち、検診も含めて広く診断に利用されている。超音波診断装置の診断部位は、心臓または頚動脈などの血管、肝臓、あるいは、乳房など多岐に渡る。その中で、近年の動脈硬化罹患者数の増加などから、頚動脈は特に重要度の高い診断部位の一つである。
 以下、頚動脈を例として説明する。超音波による頚動脈の診断では、内中膜複合体の厚み(IMT:Intima Media Thickness)またはプラークの有無などを総頚動脈から内頚動脈、あるいは外頚動脈に沿って観察する。このとき、超音波プローブを複数の方向から走査し、血管内を取りこぼしのないように観察する必要がある。しかし、上記の方法によると、血管構造の把握が困難で検査に時間がかかる、あるいは、観察結果が手技に依存して再現性確保が困難であるなどの問題がある。この問題を解決すべく、走査画像から構築した血管の3次元像に基づく診断に対するニーズが高まっている。
 走査した超音波画像から3次元像を構築する際には、超音波画像取得時の超音波プローブの位置情報(位置と向き)を取得し、それぞれの超音波画像を位置情報に基づいて3次元空間内にマッピングする。位置情報を推定する方法として、超音波プローブに取り付けたマーカーをカメラで撮影し、撮影した画像におけるマーカーの位置と形状の変化に基づいて超音波プローブの位置を推定する方法がある(例えば、特許文献1)。
特開2010-75503号公報
 しかしながら、超音波プローブの位置取得精度には方向依存性があるという問題がある。
 そこで本発明の目的は、かかる問題に鑑みてなされたものであって、超音波プローブの位置取得精度の方向依存性を抑制する超音波画像生成装置を提供することにある。
 上記目的を達成するために、本発明の一態様に係る超音波画像生成装置は、超音波プローブを移動させながら、被検体から得られる複数の超音波信号を用いて超音波診断画像を生成する超音波画像生成装置であって、前記複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの前記超音波プローブの移動を示す移動ベクトルを、第一推定方法により第一移動ベクトルとして推定する第一移動推定部と、前記複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの前記移動ベクトルを、前記第一推定方法とは推定精度の方向依存性が異なる第二推定方法により第二移動ベクトルとして推定する第二移動推定部と、前記第一移動推定部が推定した前記第一移動ベクトルと前記第二移動推定部が推定した前記第二移動ベクトルとを、前記第一移動ベクトルまたは前記第二移動ベクトルの方向に基づいて重み付けして合成することで、合成移動ベクトルを算出し、前記合成移動ベクトルと前記複数の画像とを用いて前記被検体の超音波診断画像を構成する位置再構成部とを備える。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本発明の一態様に係る超音波画像生成装置により、超音波プローブの任意の移動方向に対して高精度な位置情報が取得でき、従来の超音波画像生成装置よりも高精度な3次元像が構築できる。
図1Aは、実施の形態1の超音波画像生成装置の一例の構成図である。 図1Bは、実施の形態1の超音波画像生成装置の他の一例の構成図である。 図2は、画像処理による移動ベクトルの取得方法についての説明図である。 図3は、実施の形態1の超音波画像生成装置の動作を示すフローチャートである。 図4は、位置再構成部の構成を示す図である。 図5は、基準方向と移動ベクトルとのなす角の説明図である。 図6は、位置再構成手段の動作を示すフローチャートである。 図7は、移動ベクトルを基準方向成分、および、直交成分に分解する方法を示す図である。 図8は、移動ベクトルを絶対座標空間成分に分解する方法を示す図である。 図9は、複数のカメラによる位置情報取得方法の説明図である。 図10は、実施の形態1の超音波画像生成装置の効果を示す図である。 図11は、実施の形態2の超音波画像生成装置の効果を示す図である。 図12は、実施の形態2の超音波画像生成装置の動作を示すフローチャートである。 図13は、カメラ配置、および、カメラ配置のための補助情報についての説明図である。 図14Aは、実施の形態2の超音波画像生成装置の変形例の動作を示すフローチャートである。 図14Bは、フィードバック部を含む超音波画像生成装置の一例の構成図である。 図15は、従来の超音波画像生成装置の一例の構成図である。 図16は、従来の超音波画像生成装置の動作を示すフローチャートである。 図17は、従来の超音波画像生成装置の位置取得方法についての説明図である。 図18は、超音波画像生成方法を、フレキシブルディスク等の記録媒体に記録されたプログラムを用いて、コンピュータシステムにより実施する場合の説明図である。
(本発明の基礎となった知見)
 本発明者は、「背景技術」の欄において記載した超音波診断装置に関し、以下の問題が生ずることを見出した。
 走査時に取得した超音波プローブの位置情報に基づいて3次元像を構築する従来の超音波診断装置について図15と図16とを参照して説明する。
 図15は従来の超音波診断装置1501の一例の構成図である。図15に示されるように、超音波診断装置1501は、超音波プローブ101と、送信部102と、受信部103と、送受信制御部104と、超音波画像生成部105と、画像メモリ1506と、位置取得部1507と、位置再構成部1508と、表示部1509とを備える。
 超音波プローブ101内に配置された圧電素子などのエレメントは、送信部102から出力される駆動信号に基づいて超音波信号を発生する。超音波信号は、血管壁や筋肉など被検体の生体内の構造により反射され、反射成分の一部は超音波プローブ101に受信される。
 受信部103は、受信した反射信号に対して、増幅、A/D(アナログ/デジタル)変換、各エレメントの信号の遅延加算処理などを順に行い、受信RF(Radio Frequency)信号を生成する。
 送受信制御部104は、送信部102、および、受信部103の動作を制御する。送信部102に対しては、所定の走査を行うために駆動電圧の切り替えや送信周波数の設定などが行われる。受信部103に対しては、受信ビームフォーミングを実施するための遅延時間の設定などが行われる。
 超音波画像生成部105は、受信RF信号を超音波画像に変換し、画像メモリ1506に格納する。生成される超音波画像としては、信号強度が輝度の大きさで表されるBモード画像、または、受信RF信号のドップラー効果に基づいて計算した血流や組織の運動速度を示すドップラー画像などがある。
 位置取得部1507は超音波プローブの位置情報LocInf0を取得し、位置再構成部1508へ出力する。位置取得部1507は例えば、カメラにより実現される。
 位置再構成部1508は、位置取得部1507から受信した位置情報LocInf0に基づいて画像メモリ1506に格納された超音波画像を3次元空間内にマッピングし、撮像対象の3次元像ProcImg0を構成する。
 表示部1509は、3次元像ProcImg0をモニタなどの表示デバイス上に表示する。
 図16は、従来の超音波診断装置1501の動作を示すフローチャートである。
 従来の超音波診断画像1501は、ステップS1601において超音波画像を取得する。ステップS1602において、ステップS1601で取得した超音波画像に対応する位置情報を位置取得部1507から取得する。ステップS1603において、超音波画像の取得が終了したか否か判定する。ステップS1603において超音波画像の取得が終了したと判定されるまで、ステップS1601及びステップS1602の処理を繰り返す。ステップS1604において、取得した超音波画像を位置情報に基づいて3次元空間内にマッピングする。ステップS1605において超音波画像の3次元像を表示する。
 3次元像に基づく診断の精度を向上させるためには、高精度な3次元像が不可欠である。高精度な3次元像を得るためには、位置情報を高精度に取得する必要がある。しかしながら、従来の超音波診断装置では、単一の位置取得手段による情報に基づいて位置情報を決定する。位置取得手段の位置情報取得精度に方向依存性がある場合に、位置取得精度の低い方向における位置情報の精度が低下し、3次元像の構築精度が低下するという問題がある。
 位置情報の取得方法としては、カメラなど位置センサーによる方法と、超音波画像を利用した画像処理による方法とがある。以下に、カメラ、および、画像処理による位置推定を例に、位置分解能の方向依存性について説明する。
 図17は、従来の超音波画像生成装置の位置情報取得方法についての説明図である。
 図17の(a)は、カメラによる位置情報取得方法についての説明図である。カメラはx軸方向に向けて配置され、超音波プローブに取り付けられた光学マーカー(マーカー)をトラッキングし、マーカーの形状または姿勢変化量に基づいてマーカーの位置情報を決定する。同一距離を移動した際のマーカーの形状または姿勢の変化量はマーカーの移動方向に依存して異なり、x軸方向では、y軸方向またはz軸方向に比べて変化量が小さい。変化量が小さいと位置情報の分解能が低下する。そのため、カメラによる位置情報取得では、x軸方向、すなわち、カメラの奥行き方向の分解能が低下する。
 図17の(b)は、画像処理による位置情報取得方法についての説明図である。本方式では、連続的に走査した超音波画像間の位置ずれ量を、画像間の相関などに基づいて決定することで、画像間の相対的な位置関係を決定する。例えば、(N-1)番目とN番目の連続する2枚のBモード画像の位置ずれ量を調べることで、(N-1)番目とN番目の画像間での移動ベクトルが決定できる。しかしながら、画像の相関に基づく方法では、画像平面内(x軸とz軸が作る平面)の位置ずれ量に比べて、プローブの進行方向(y軸方向に相当)の分解能が低下する。
 このように、単一の手法により取得した位置情報では、分解能に方向依存性があるため、プローブを任意方向に移動しながら撮像する際に、位置情報の分解能が低下する方向が存在する。超音波画像からの3次元像の構築では、超音波画像を位置情報に基づいて3次元空間内にマッピングするため、位置情報の分解能低下に起因して、3次元像の構築精度が低下するという問題がある。
 そこで本発明の目的は、かかる問題に鑑みてなされたものであって、超音波プローブの位置取得精度の方向依存性を抑制する超音波画像生成装置を提供することにある。
 このような問題を解決するために、本発明の一態様に係る超音波画像生成装置は、超音波プローブを移動させながら、被検体から得られる複数の超音波信号を用いて超音波診断画像を生成する超音波画像生成装置であって、前記複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの前記超音波プローブの移動を示す移動ベクトルを、第一推定方法により第一移動ベクトルとして推定する第一移動推定部と、前記複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの前記移動ベクトルを、前記第一推定方法とは推定精度の方向依存性が異なる第二推定方法により第二移動ベクトルとして推定する第二移動推定部と、前記第一移動推定部が推定した前記第一移動ベクトルと前記第二移動推定部が推定した前記第二移動ベクトルとを、前記第一移動ベクトルまたは前記第二移動ベクトルの方向に基づいて重み付けして合成することで、合成移動ベクトルを算出し、前記合成移動ベクトルと前記複数の画像とを用いて前記被検体の超音波診断画像を構成する位置再構成部とを備える。
 これによれば、推定精度の方向依存性が異なる第一及び第二推定方法を用いて複数の移動ベクトルを推定し、それらを合成することにより、第一推定方法において推定精度が比較的低い方向の成分を、第二推定方法による推定精度が比較的高い方向の成分と合成することで、超音波プローブの移動ベクトルを算出することができる。その際、推定精度が低い方の成分の重みを小さく、推定精度が高い方の成分の重みを大きくすることにより、すべての方向において精度が高い移動ベクトルを算出することができる。よって、超音波プローブの位置取得精度の方向依存性を抑制することができる。
 また、例えば、前記第一移動推定部は、前記複数の画像のうちの2枚の画像間の画像のずれに基づいて、前記2枚の画像の一方が取得されてから他方が取得されるまでの間の前記移動ベクトルを算出することで、前記超音波プローブの移動ベクトルを推定する。
 これによれば、2枚の画像のずれを解析し、超音波プローブの移動量を推定することができる。これにより画像に対応する超音波信号を送信した被検体の断面を含む平面内の超音波プローブの移動を比較的高い精度で検出することができる。
 また、例えば、前記第一移動推定部は、前記複数の画像のうちの2枚の画像を構成する画素値の相関に基づいて、前記2枚の画像間の画像のずれ量を検出することで、前記2枚の画像の一方が取得されてから他方が取得されるまでの間の前記超音波プローブの移動ベクトルを推定する。
 これによれば、2枚の画像を構成する画素を解析することで、対応する画素または複数の画素の集まりである領域の移動量を算出し、当該移動量から超音波プローブの移動量を推定することができる。これにより画像に対応する被検体の断面を含む平面内の超音波プローブの移動を比較的高い精度で検出することができる。
 また、例えば、前記位置再構成部は、前記超音波プローブの移動方向と、前記第一移動推定部または前記第二移動推定部における推定の際に基準となった基準方向とのなす角度が大きいほど、前記第一移動ベクトルまたは前記第二移動ベクトルの重みを大きくし、前記合成移動ベクトルを算出することで、前記超音波診断画像を構成する。
 これによれば、推定方法において推定精度が比較的高い方向の成分の重みを大きく設定した上で、推定された位置ベクトルを重み付けして合成位置ベクトルを生成することで、合成移動ベクトルの精度を高くすることができる。よって、超音波プローブの位置取得精度の方向依存性を抑制することができる。
 また、例えば、前記位置再構成部は、前記超音波プローブの移動方向と、前記第一移動推定部における前記基準方向である推定精度が低い方向とのなす角度が大きいほど、前記第一移動推定部が推定した前記移動ベクトルの重みを大きくし、前記合成移動ベクトルを算出することで、前記超音波診断画像を構成する。
 これによれば、画像解析による超音波プローブの移動ベクトルの推定において、画像に対応する被検体の断面を含む平面内の方向成分の重みを大きく設定した上で、合成位置ベクトルを生成することで、合成移動ベクトルの精度を高くすることができる。
 また、例えば、前記第一移動推定部及び前記第二移動推定部のうちの少なくとも一方は、前記超音波プローブに取り付けられた光学マーカーをカメラにより撮像し、撮像された前記光学マーカーの位置または形状に基づいて、前記超音波プローブの位置および角度を算出する。
 これによれば、光学マーカーとカメラとにより超音波プローブの移動ベクトルを推定することができる。これにより、カメラの撮像面に平行な平面内の超音波プローブの移動を比較的高い精度で検出できる。
 また、例えば、前記位置再構成部は、前記超音波プローブの移動方向と、前記光学移動推定部における基準方向である前記カメラの撮像面の法線方向とのなす角度が大きいほど、前記光学移動推定部が推定した前記移動ベクトルの重みを大きくし、前記移動ベクトルを合成することで、前記複数の画像を構成する。
 これによれば、光学マーカーとカメラとによる超音波プローブの推定において、カメラの撮像面に平行な平面内の方向成分の重みを大きく設定した上で、合成位置ベクトルを生成することで、合成移動ベクトルの精度を高くすることができる。
 また、例えば、前記第一移動推定部は、前記複数の画像のうちの2枚の画像間の画像のずれに基づいて、前記2枚の画像の一方が取得されてから他方が取得されるまでの間の前記超音波プローブの移動ベクトルを算出することで、前記超音波プローブの移動ベクトルを推定し、前記第二移動推定部は、前記超音波プローブに取り付けられた光学マーカーをカメラにより撮像し、撮像された前記光学マーカーの位置または形状に基づいて、前記超音波プローブの位置および角度を算出することで、前記超音波プローブの移動ベクトルを推定する。
 これによれば、画像処理による超音波プローブの位置推定と、光学マーカー及びカメラによる超音波プローブの位置推定とを併用し、それぞれの方法により推定された超音波プローブの位置ベクトルを合成して、合成位置ベクトルを生成することができる。
 また、例えば、前記超音波画像生成装置は、さらに、前記第一移動推定部及び前記第二移動推定部における前記基準方向が互いに略直交するように、操作者による前記基準方向の変更のための操作を促すための情報を提示する配置アシスト部を備える。
 これによれば、推定方法における推定精度が低い方向を、他の推定方法における推定精度が高い方向と一致させることにより、合成位置ベクトルの推定精度の方向依存性を抑制するように、操作者が推定方法の方向を設定することができる。よって、超音波プローブの位置取得精度の方向依存性を抑制することができる。
 また、本発明の一態様に係る超音波画像生成方法は、超音波プローブを移動させながら、被検体から得られる複数の超音波信号を用いて超音波診断画像を生成する超音波画像生成方法であって、前記複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの前記超音波プローブの移動を示す移動ベクトルを、第一推定方法により第一移動ベクトルとして推定する第一移動推定ステップと、前記複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの前記移動ベクトルを、前記第一推定方法とは推定精度の方向依存性が異なる第二推定方法により第二移動ベクトルとして推定する第二移動推定ステップと、前記第一移動推定ステップにおいて推定された前記第一移動ベクトルと前記第二移動推定ステップにおいて推定された前記第二移動ベクトルとを、前記第一移動ベクトルまたは前記第二移動ベクトルの方向に基づいて重み付けして合成することで、合成移動ベクトルを算出し、前記合成移動ベクトルと前記複数の画像とを用いて前記被検体の超音波診断画像を構成する位置再構成ステップとを含む。
 これにより、上記の超音波画像生成装置と同様の効果を奏する。
 また、本発明の一態様に係る超音波画像生成方法は、前記第一移動推定ステップにおいて、前記複数の画像のうちの2枚の画像間の画像のずれに基づいて、前記2枚の画像の一方が取得されてから他方が取得されるまでの間の前記移動ベクトルを算出することで、前記超音波プローブの移動ベクトルを推定する。
 これにより、上記の超音波画像生成装置と同様の効果を奏する。
 以下、本発明の一態様に係る超音波画像生成装置について、図面を参照しながら説明する。
 なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態1)
 図1Aは、本発明の実施の形態1の超音波画像生成装置10の構成図である。
 図1Aに示されるように、本発明の実施の形態1の超音波画像生成装置10は、第一移動推定部10Aと、第二移動推定部10Bと、位置再構成部10Cとを備える。
 第一移動推定部10Aは、複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの超音波プローブの移動ベクトルを、第一推定方法により推定する。
 第二移動推定部10Bは、超音波プローブの移動ベクトルを、第一の推定方法とは推定精度の方向依存性が異なる第二推定方法により推定する。
 位置再構成部10Cは、第一移動推定部及び第二移動推定部が推定した移動ベクトルを、超音波プローブの移動方向に基づいて重み付けして合成することで、合成移動ベクトルを算出し、合成移動ベクトルに従って複数の画像を構成することで、被検体の超音波診断画像を生成する。
 図1Bは、本発明の実施の形態1の超音波画像生成装置11の構成図である。
 図1Bに示されるように、超音波画像生成装置11は、超音波プローブ101、送信部102、受信部103、送受信制御部104、超音波画像生成部105、画像メモリ105、位置取得部111、画像位置推定部112、位置再構成部113、および、表示手段114を有する。超音波信号を送受信し、Bモード画像またはドップラー画像を生成するための処理を行って超音波画像を生成する機能ブロックの動作は従来の超音波診断装置1501と同様であるため、同一の符号を付し説明を省略する。画像位置推定部112は、第一移動推定部10Aに相当する。位置取得部111は、第二移動推定部10Bに相当する。
 超音波プローブ101としては、少なくとも一列の超音波探触子から構成され2次元画像を得るリニア型プローブ、一列の超音波探蝕子が揺動あるいは平行移動して2次元画像を連続的に生成することにより3次元画像を得る揺動3D型プローブ、あるいは、2次元に配列された探蝕子により3次元画像を取得するマトリクス型プローブなどが使用できる。本実施の形態ではリニア型プローブを例に説明する。
 位置取得部111は、超音波プローブ101の位置情報LocInf1を取得して位置再構成部113に入力する。位置情報の取得タイミングと超音波画像の取得タイミングとを一致させるため、両者は同期しながら、あるいは、それぞれが既知の基準クロックに従って動作する。位置情報は、3次元空間内での位置(x、y、z軸の座標値に相当する)と向き(3軸の各軸周りの回転量を示す情報であり、3次元空間における超音波プローブの姿勢を決定する情報)の計6個のパラメータを含む。位置取得部101としては、カメラなどの光学方式、磁気センサー、ジャイロ、加速度センサー、あるいはGPSなど多様な方式を使用可能である。本実施の形態ではカメラを例に説明する。
 画像位置推定部112は、画像メモリ115に保持した超音波画像に基づき、画像間の相関に基づいて画像間の移動ベクトルMEInfを推定し、位置再構成部113に入力する。
 図2は、画像処理による移動ベクトルの取得方法についての説明図である。図2の(a)はN番目に取得された超音波画像、図2の(b)の実線は(N+1)番目の超音波画像をそれぞれ示す。N番目から(N+1)番目の画像間には、図2の(b)内に示された位置ずれベクトルに相当する位置ずれが存在する。この位置ずれは、画像全体、あるいは、画像を分割した評価単位毎の評価値に基づいて決定される。例えば、評価単位の間での画素値の差分の総和を評価値として、N番目の画像内における特定位置の評価単位に対して、(N+1)番目の画像内で評価値が最小となる評価単位を探索し、両評価単位の位置ずれを算出することにより決定されてもよい。また、評価単位間での画素値の相関や相互情報量などの尺度を用いた評価により決定されてもよい。また、SIFT法(Scale-Invariant Feature Transform)、あるいは、SNAKES法などの動的輪郭モデルに基づいて特徴点を検出し、複数の特徴点の位置ずれの平均や中間値などから位置ずれベクトルが決定されてもよい。また、検出した特徴点から輪郭の重心などを計算し、重心の位置ずれを位置ずれベクトルとしてもよい。評価単位としては、例えば、血管のように輪郭が比較的明瞭な部位を撮像する際には、画像内で撮像対象の輪郭を抽出して、抽出された輪郭を含む領域を用いてもよい。さらには、抽出された輪郭上の点を特徴点として位置ずれベクトルを求めてもよい。図2の(b)に示される位置ずれベクトルは画像平面内のベクトルであるため、N番目画像の位置情報に基づいて、位置ずれベクトルを3次元空間内でのベクトルに変換する。以降、2枚の画像間の位置ずれを示す3次元空間内のベクトルを移動ベクトルと呼ぶ。図2の(c)は、図2の(b)の位置ずれベクトルを移動ベクトルに変換した結果を示す。3次元空間内での超音波プローブの移動方向と移動距離とが、移動ベクトルに相当する。なお、移動ベクトルへの変換は位置再構成部113で行ってもよい。また、位置取得部111において取得したN番目画像と(N+1)番目画像の位置情報の差分からも同様に移動ベクトルが算出できる。
 位置再構成部113は、位置情報LocInf1と移動ベクトルMEinfとを重み付けして決定した位置情報に基づいて超音波画像を3次元空間内にマッピングし、3次元像を構築して、表示用の3次元像ProcImg1を生成する。最後に、表示部114は3次元像ProcImg1をモニタなどの出力デバイスに表示する。本願発明の超音波画像生成装置11は位置取得部111、画像位置推定部112、および、位置再構成部113の動作に特徴を有するため、以下では主にこれらの機能ブロックの動作について説明し、その他の機能ブロックについては適宜説明を省略する。
 図3は、超音波画像生成装置11の動作を示すフローチャートである。図3に示されるように、超音波画像生成装置11は、ステップS101において超音波画像を取得する。ステップS102において、ステップS101で取得した超音波画像に対応する位置情報を位置取得部101から取得する。ステップS103において、超音波画像の取得が終了した否かを判定する。ステップS103において、超音波画像の取得が終了したと判定されるまで、ステップS101及びステップS102の処理を繰り返す。ステップS104において、超音波画像間の相対的な位置ずれ量を画像処理により推定し、移動ベクトルを算出する。ステップS105において、位置取得部111から取得した位置情報に基づき算出した移動ベクトルと、画像処理により取得した移動ベクトルに基づき、両者を重み付けして超音波画像の位置情報を決定する。ステップS106において、各超音波画像を、ステップS105で決定した位置情報に基づいて超音波画像を3次元座標空間内にマッピングして3次元像を構築する。ステップS107において、超音波画像の3次元像を表示する。
 図4は、位置再構成部113の構成を示すブロック図である。位置再構成部113は、方向差分取得部1131、重み決定部1132、および、3次元像構築部1133とを有する。
 方向差分取得部1131は、位置取得部111において取得した移動ベクトルと基準方向との方向差分Diff、すなわち、両ベクトルのなす角を算出する。ここで、基準方向とは、位置取得部111に対する特定の方向を示すものである。基準方向は、例えば、カメラの奥行き方向である。また、基準方向は、カメラの撮像面の法線方向としてもよい。
 重み決定部1132は、位置取得部111、および、画像位置推定部112で取得した移動ベクトルを、方向差分Diffに基づいて重み付けして最終的な移動ベクトルを決定する。さらに、処理対象画像の直前画像の位置情報に移動ベクトルを加算して、処理対象画像の位置情報を決定し、位置情報LocInf2として3次元像構築部1133に入力する。
 3次元像構築部1133は、位置情報LocInf2に基づいて超音波画像を3次元空間内にマッピングし、3次元像を構築する。
 なお、位置情報における方向を、クオータニアンなど加減算の可能な表現形式を用いる際には、位置情報そのものを加減算できるが、オイラー角などの表現形式を用いる際には、加減算が可能な形式に変換した上で位置情報を加減算する。また、位置取得部111ではマーカーの基準位置に対する位置情報が得られるため、超音波画像を3次元空間内にマッピングする際には、超音波画像上の画素位置とマーカーの基準位置及び向きとのオフセットを考慮して回転および平行移動を行う。
 図5は、基準方向と移動ベクトルとのなす角の説明図である。ここでは、カメラにおける位置分解能が低下するカメラの奥行き方向を基準方向として設定する。また、両者のなす角をθとすると、角度θが方向差分Diffに相当する。なお、角度θを決定する際の移動ベクトルとしては、カメラから得た移動ベクトルを使用する。重み決定部1132は、(式1)に例示する方法などにより、角度θに基づいて、位置取得部111から得られた移動ベクトルと、画像処理により得られた移動ベクトルとの重み付けを行う。
Figure JPOXMLDOC01-appb-M000001
 ここで、mv_3は重み付け後の移動ベクトル、mv_1は位置取得部から得られた移動ベクトル、mv_2は画像処理により得られた移動ベクトルを示す。カメラにおいては、奥行き方向の位置分解能が低いため、移動ベクトルが奥行き方向に近づく、すなわち、cosθが1に近づくほどmv_1の重みが小さくなる。
 なお、移動ベクトルの算出方法は(式1)の方法に限られない。θが変化する際に、単調増加または単調減少するような関数を使用することも可能である。
 図6は、位置再構成部113の動作を示すフローチャートである。位置再構成部113は、ステップS1031において、位置取得部101から得られた(N-1)番目画像とN番目画像との位置の差分である移動ベクトル1を算出する。ステップS1032において、(N-1)番目画像とN番目画像との相関に基づき、両者の位置ずれ量を示す移動ベクトル2を算出する。ステップS1033において、移動ベクトル1と基準方向とのなす角である角度θを算出する。ステップS1034において、角度θに基づいて移動ベクトル1と移動ベクトル2とを重み付けし、N番目画像の最終的な移動ベクトルである移動ベクトル3を決定する。ステップS1035において、(N-1)番目画像の位置ベクトルに移動ベクトル3を加算して、N番目画像の位置を決定する。ここで、位置ベクトルとは、画像の位置と向きにより決定されるベクトルである。なお、角度θの算出は、(N-1)番目画像の移動ベクトル3と基準方向とのなす角に基づいて決定してもよい。また、先頭フレームについては、移動ベクトル1を移動ベクトル3とみなす。ステップS1036において、位置情報に基づいて超音波画像を3次元空間内にマッピングし、3次元像を構築する。
 次に、角度θに基づく重み付け方法の他の例について説明する。まず、(式1)の方法では角度θに基づいて移動ベクトル1と移動ベクトル2とをまとめて重み付けしたが、移動ベクトルを方向成分に分解した上で重み付けしてもよい。
 図7は、移動ベクトルを基準方向に基づいて分解する例を示す。図7の(a)は、移動ベクトル1と基準方向との関係を示す。図7の(b)は、移動ベクトル1を基準方向成分、基準方向の第1直交成分、および、基準方向の第2直交成分の3つの成分に分解した例を示す。基準方向成分は、カメラの位置分解能低下の影響が顕著であるため、他の2方向と異なる重み付けを行う。(式2)に、重み付けの例を示す。
Figure JPOXMLDOC01-appb-M000002
 ここで、mv_1、mv_2、mv_3の各ベクトルの定義は(式1)と同一である。[ref]、[crs1]、[crs2]は、それぞれ、移動ベクトルの基準方向成分、基準方向の第1直交成分、および、基準方向の第2直交成分を示す。また、αは第1直交成分に対する重み、βは第2直交成分に対する重みを示す。なお、αまたはβを0とすることで、対応する方向の成分の寄与をなくす(全く寄与しないようにする)ことも可能である。
 図8は、移動ベクトルを絶対座標空間の成分に分解する例を示す。絶対座標空間は、予め設定した互いに直交する3軸(図8のx軸、y軸、z軸)により決定される3次元空間であり、移動ベクトル1は、x、y、zの3軸方向の成分に分解される。このとき、各軸方向の成分は、それぞれの軸と基準方向C(カメラの基準方向)および基準方向I(画像処理の基準方向)とのなす角に基づいて決定される。ここで、基準方向I(画像処理の基準方向)は、画像処理による位置分解能が低下する方向であり、超音波画像の撮像面の法線方向を示す。移動ベクトルの重み付けの例を(式3)に示す。
Figure JPOXMLDOC01-appb-M000003
 ここで、φは基準方向Cとx軸とのなす角、τは基準方向Iとx軸とのなす角を示し、[x]は、移動ベクトルのx軸方向成分を示す。c1とc2とは、それぞれ、mv_1[x]とmv_2[x]とに対する重みの和を1に正規化するための係数である。なお、y軸方向とz軸方向についても同様に処理できる。本方法によれば、カメラから得られた移動ベクトルと画像処理から得られた移動ベクトルとの重み付けを柔軟にすることができるという利点がある。
 なお、c1及びc2を変更することにより、mv_1[x]及びmv_2[x]のそれぞれのmv_3[x]への寄与の比率を設定することができる。例えば、c1とc2とを同一の値とすることによりmv_1[x]及びmv_2[x]のそれぞれの寄与を等しくすることができる。また、c1をc2の定数倍とすることによりmv_1[x]の寄与をmv_2[x]の寄与の当該定数倍にすることができる。
 また、位置取得部111として複数のカメラを用いてもよい。図9は、複数のカメラによる位置情報取得方法の説明図である。図9の(a)は、カメラ901及びカメラ902の2台のカメラにより位置情報を取得する例を示す。このとき、カメラは空間的に離して、かつ、異なる方向を向くように配置することが望ましい。このように配置することにより、(1)超音波プローブの操作者、あるいは、被験者によりマーカーが遮られてカメラに写らなくなることを防ぐこと、および、(2)カメラ毎の基準方向が互いに異なるように配置することで、位置分解能が低下する方向を減らすことができる。図9の(b)は、基準方向C1(カメラ901の基準方向)、および、基準方向C2(カメラ2の基準方向)と移動ベクトルとのなす角を示す。ここで、角度θを決定する際の移動ベクトルとしては、カメラ1により取得された移動ベクトル、カメラ2により取得された移動ベクトル、あるいは、直前画像の移動ベクトル3を用いることができる。
 最終的な移動ベクトルである移動ベクトル3は、複数のカメラのそれぞれにより取得された移動ベクトルを合成して移動ベクトル1を決定し、その後(式1)のように移動ベクトル2と重み付けて算出する。あるいは、カメラ毎の移動ベクトルを合成して単一のベクトルとせずに、カメラから得られる複数の移動ベクトルと、移動ベクトル2とを互いに重み付けてもよい。前者の例を(式4)に示す。
Figure JPOXMLDOC01-appb-M000004
 ここで、mv_1、mv_11、mv_12は、それぞれ、複数カメラの移動ベクトルを合成して得た移動ベクトル1、カメラ1から得た移動ベクトル、カメラ2から得た移動ベクトルを示す。[ref]、[crs1]、[crs2]は、それぞれ、移動ベクトルの基準方向成分、基準方向の第1直交成分、および、基準方向の第2直交成分を示す。また、αは第1直交成分に対する重み、βは第2直交成分に対する重みを示す。mv_11、および、mv_12の決定時には、他方のカメラで取得した位置情報をフィードバックしてもよい。例えば、カメラ1ではx軸方向の移動に対して低分解能となるが、カメラ2で得たx軸方向の移動量をカメラ1における位置情報決定時に使用することで、カメラ1におけるx軸方向の位置分解能が向上する。なお、図9ではカメラが2台の場合について説明したが、3台以上のカメラを用いる際にも拡張できる。さらには、カメラとジャイロなど複数種類の位置センサーを組み合わせて使用してもよい。
 以上では、位置取得部101と画像処理とを併用し、画像処理では相対的な位置関係のみ得られることから、位置情報の決定に移動ベクトルを導入した。しかしながら、カメラなどの位置取得部101においては、位置取得部101の原点を基準とした位置情報の絶対値が得られる。従って、複数の位置取得部101の位置情報のみから位置情報を決定する際には、移動ベクトルを用いずに、それぞれの位置取得部から得た位置情報の絶対値を重み付けしてもよい。
 図10は、本発明の実施の形態1の超音波画像生成装置11の効果を示す図である。この例では超音波プローブがy軸方向に移動し、カメラの基準方向がx軸方向となる。従って、カメラはyz平面内、画像処理ではzx平面内の超音波プローブの移動に対して、位置情報を高分解能に取得できる。従って、カメラと画像処理とを組み合わせることにより、全方向において高分解能な位置情報を取得できる。このように、複数の位置情報取得方式を組み合わせることで、超音波プローブの任意方向の移動に対して位置情報を高分解能に取得できる。
 以上のように、本発明の一態様による超音波画像生成装置によれば、推定精度の方向依存性が異なる第一及び第二推定方法を用いて複数の移動ベクトルを推定し、それらを合成することにより、第一推定方法において推定精度が比較的低い方向の成分を、第二推定方法による推定精度が比較的高い方向の成分と合成することで、超音波プローブの移動ベクトルを算出することができる。その際、推定精度が低い方の成分の重みを小さく、推定精度が高い方の成分の重みを大きくすることにより、すべての方向において精度が高い移動ベクトルを算出することができる。よって、超音波プローブの位置取得精度の方向依存性を抑制することができる。
 また、2枚の画像のずれを解析し、超音波プローブの移動量を推定することができる。これにより画像に対応する超音波信号を送信した被検体の断面を含む平面内の超音波プローブの移動を比較的高い精度で検出することができる。
 また、2枚の画像を構成する画素を解析することで、対応する画素または複数の画素の集まりである領域の移動量を算出し、当該移動量から超音波プローブの移動量を推定することができる。これにより画像に対応する被検体の断面を含む平面内の超音波プローブの移動を比較的高い精度で検出することができる。
 また、推定方法において推定精度が比較的高い方向の成分の重みを大きく設定した上で、推定された位置ベクトルを重み付けして合成位置ベクトルを生成することで、合成移動ベクトルの精度を高くすることができる。よって、超音波プローブの位置取得精度の方向依存性を抑制することができる。
 また、画像解析による超音波プローブの移動ベクトルの推定において、画像に対応する被検体の断面を含む平面内の方向成分の重みを大きく設定した上で、合成位置ベクトルを生成することで、合成移動ベクトルの精度を高くすることができる。
 また、光学マーカーとカメラとにより超音波プローブの移動ベクトルを推定することができる。これにより、カメラの撮像面に平行な平面内の超音波プローブの移動を比較的高い精度で検出できる。
 また、光学マーカーとカメラとによる超音波プローブの推定において、カメラの撮像面に平行な平面内の方向成分の重みを大きく設定した上で、合成位置ベクトルを生成することで、合成移動ベクトルの精度を高くすることができる。
 また、画像処理による超音波プローブの位置推定と、光学マーカー及びカメラによる超音波プローブの位置推定とを併用し、それぞれの方法により推定された超音波プローブの位置ベクトルを合成して、合成位置ベクトルを生成することができる。
 (実施の形態2)
 図11は、本発明の実施の形態2の超音波画像生成装置12の構成を示すブロック図である。超音波画像生成装置12は、超音波プローブ101、送信部102、受信部103、送受信制御部104、超音波画像生成部105、画像メモリ115、画像位置推定部112、位置再構成部113、位置取得部201、配置アシスト部202、および、表示部203を有する。図10で説明したように、本発明の超音波画像生成装置においては、複数の位置取得部の間、あるいは、位置取得部と画像処理との間で互いに補完して、位置分解能が低下する方向を低減する。超音波画像生成装置12は、超音波画像生成装置11に対して、カメラなどの位置取得部201の配置位置を決定するための配置アシスト部202を新たに追加したものである。なお、超音波画像生成装置11と同一の機能ブロックについては同一符号を付し、説明を省略する。
 配置アシスト部202は、位置取得部201から取得した初期位置情報LocInf2に基づいて位置取得部201の配置目標位置を決定し、位置取得部を配置目標位置に配置するための補助情報NaviInfを生成して、表示部203に入力する。表示部203は、補助情報NaviInfを表示デバイス上に表示する。
 図12は、超音波画像生成装置12の動作を示すフローチャートである。まず、ステップS301において、位置取得部201の現在位置を取得すると共に、位置取得部201がイメージング対象に対して所定の位置となるように位置取得部201の配置目標位置を決定する。以下に、位置取得部201としてカメラを用いた場合の処理について説明する。
 まず、現在位置において被験者のイメージング対象部位の近くに配置したキャリブレーション用マーカーをカメラで撮影して、キャリブレーション用マーカーに対するカメラの相対位置を算出する。あるいは、マーカーが取り付けられた超音波プローブによりイメージング対象部位を走査してマーカーの位置を取得することで、イメージング対象位置に対するカメラの相対位置を決定してもよい。次に、配置目標位置の決定方法について説明する。画像処理では超音波プローブの撮像断面の法線方向における位置分解能が低下する。従って、カメラの位置分解能が高くなる方向と、撮像断面の法線方向との差異が閾値以下となるようにカメラを配置する。撮像断面の法線方向は、キャリブレーション用マーカーと法線方向とが所定の位置関係となるようにキャリブレーション用マーカーを配置しておき、カメラでキャリブレーション用マーカーを撮像することにより取得できる。また、撮像断面の法線方向は、イメージング部位を走査して超音波プローブの移動方向をカメラにより撮影することでも取得できる。また、カメラにおいては、奥行き方向の位置分解能が低下する。従って、複数のカメラを使う場合には、各カメラの奥行き方向が、他のカメラにおける位置分解能が高い方向となるようにする。
 例えば、2台のカメラを使う場合には、各カメラの奥行き方向のなす角が90度に近くなるように(略直交するように)配置する。各カメラの奥行き方向のなす角がなす角が90度となると、超音波プローブの移動ベクトルは、一方のカメラの奥行き方向に一致する際に当該カメラの位置分解能が大きく低下するが、同時に他方のカメラの奥行き方向に一致することはない。そのため、両方のカメラによる位置取得の分解能が一定以上に維持される。なお、各カメラの奥行き方向のなす角を90度近傍の所定の範囲内に設定してもよい。例えば、80度から100度までとしてもよいし、その他の範囲としてもよい。なお、カメラとイメージング対象部位との距離については、超音波プローブの移動範囲がカメラの視野に収まるように決定する。
 ステップS302において、位置取得部201の現在位置と配置目標位置とに基づいて、位置取得部201を配置目標位置へと誘導するための補助情報を生成して、表示する。この後、ユーザーが補助情報に従って、配置目標位置と整合するように位置取得部201の位置を移動する。
 ステップS303において、現在位置と配置目標位置との間の位置及び向きの差異が閾値以下であるか否かを判定し、当該差異が閾値以下になるまでステップS301及びステップS302の処理を繰り返す。
 ステップS303において、現在位置と配置目標位置との間の位置と向きの差異が閾値以下と判定されると、ステップS304において、位置取得部201の配置が完了した旨を示す補助情報を表示し、以降は、超音波画像生成装置11と同様の動作フローを実施する。
 なお、位置取得部201は複数あってもよい。位置取得部201が複数ある場合は、ステップS302において位置取得部201毎の現在位置と配置目標位置とを決定する。また、ユーザーが位置取得部201を配置するのではなく、位置取得部201を電動ステージ、あるいはロボットアームなどの可動デバイスに取り付け、配置目標位置に自動的に移動させてもよい。上記では、超音波画像の撮像前に1度だけ位置取得部201の配置を行ったが、実際には、進行方向が変動すると配置目標位置も変化する。従って、位置取得部201を自動的に移動可能な場合には、進行方向に応じて配置目標位置を計算し、その配置目標位置へと位置取得部201を移動させてもよい。
 図13は、カメラ配置、および、カメラ配置のための補助情報についての説明図である。図13の(a)は、ヒトの首付近に位置する頚動脈を撮像する際のカメラの配置目標位置の例である。カメラ1(1301)とカメラ2(1302)とは、イメージング対象部位である首1313が視野に入り、かつ、両者の奥行き方向が互いに直角に近い角をなすように配置される。キャリブレーション用マーカー1312は、現在位置の取得に用いられ、かつ、首1313とキャリブレーション用マーカー1312との相対位置が一定となるように設置する。こうすることで、首1313とカメラ(1301及び1302)との相対位置を取得できる。
 図13の(b)は、補助情報の表示例を示す。図13において、実線によりカメラ1の現在位置(1301A)及びカメラ2の現在位置(1302A)が示される。また、破線によりカメラ1の配置目標位置(1301B)及びカメラ2の配置目標位置(1302B)を示す。図中の矢印は、それぞれのカメラを配置目標位置に誘導するための移動方向を示し、ユーザーは矢印で示される方向に向けてカメラを移動する。なお、首を撮像する際には、図13の(a)に示すz方向に比べて、x軸またはy軸方向へ超音波プローブを移動させることが多い。従って、カメラが1台の場合には、図中のカメラ2(1302)のように、首を見下ろす位置にカメラを配置することで、画像処理による位置分解能が低下するx軸、あるいは、y軸方向の移動を高分解能に取得できる。
 以下に、各実施の形態の変形例について示す。
 図14Aは、実施の形態1に係る超音波画像生成装置11の変形例の動作を示すフローチャートであり、1つ以上の位置取得部から得た移動ベクトルを重み付けして超音波画像の移動ベクトルを一旦決定した後に、画像処理により移動ベクトルを補正する。図3のフローチャートと同一のステップについては同一符号を付し説明を省略する。
 まず、ステップS103までの処理において超音波画像の取得、および、位置取得部からの位置情報の取得を完了する。ステップS201では、1つ以上の位置取得部から位置情報を取得する。
 ステップS202において、ステップS201で取得した1つ以上の位置取得部からの位置情報を重み付けして移動ベクトルを決定する。
 ステップS203において、超音波画像間の相対的な位置ずれ量を画像処理により推定し、位置ずれ量を3次元空間内でのベクトルに変換した補正ベクトルを算出する。(N-1)番目画像とN番目画像との間の位置ずれ量は、ステップS202で決定したN番目画像の移動ベクトルに基づいてN番目画像を移動した後に、推定してもよい。こうすることで、位置取得部から得た移動ベクトルを用いて大まかに位置ずれ量を推定した上で、画像処理により高精度な推定を行うことができ、処理量を削減できると共に、位置推定のロバスト性が高まる。また、補正ベクトルは、連続する複数の画像間の移動量の連続性を考慮して、移動ベクトルが滑らかに変化するように設定してもよい。例えば、手振れや位置取得部の誤差などに起因して位置取得部から得られる移動ベクトルが揺らぐ際には、画像処理により移動ベクトルの変化を平滑化することで、揺らぎを低減して正確な位置に近づけることができる。さらに、位置ずれ量の推定においては、超音波画像間の相関ではなく、位置取得部における移動ベクトルを、スプライン補間などの補間処理、あるいは、フィルタ処理などにより平滑化して、平滑化前後の移動ベクトルの差異を補正ベクトルとしてもよい。なお、移動ベクトルを使わずに、位置取得部から取得した位置情報に対して平滑化処理を行い、平滑化前後の位置情報の差異を移動ベクトルとしてもよい。
 ステップS204において、移動ベクトルに補正ベクトルを加算して移動ベクトルを補正する。
 ステップS205において、補正後の移動ベクトルに基づいて3次元空間内に超音波画像をマッピングして3次元像を構築し、ステップS107において表示する。
 また、位置情報取得時の誤差や手ぶれの影響などを低減するために、位置再構成部103では、以下のような動作を行ってもよい。まず、位置取得部、あるいは画像処理により得られた位置情報の信頼度を設定し、信頼度が低い位置情報は使用しないことにしてもよい。例えば、カメラ1台と画像処理による位置情報を用いる場合に、画像処理による位置情報の信頼度が閾値以下であれば、カメラによる位置情報のみを利用する。あるいは、カメラ2台と画像処理とによる位置情報を用いる場合に、1台のカメラの位置情報の信頼度が低ければ、他の1台のカメラと画像処理とによる位置情報を利用する。また、信頼度が閾値を越える位置情報が存在しないケースなどでは、当該超音波画像は3次元像構築に使用しないこととしてもよい。位置取得部の信頼度としては、連続する画像間の移動ベクトルの変化量が使用可能である。例えば、(N-1)番目画像の移動ベクトルとN番目画像の移動ベクトルとの絶対値の差分、あるいは、方向の差分が閾値を越える場合には、N番目画像の位置情報を無効とする。画像処理では、同様の尺度に加え、位置ずれ推定時に評価値が最小となる評価単位を探索する際に、最小の評価値が閾値を越える場合には位置情報を無効とするなどとしてもよい。さらに、移動ベクトル3、あるいは、移動ベクトル3に基づいて最終的な位置情報を決定する際に、前の画像の位置情報を利用すると、位置情報の誤差が累積することがある。このため、所定の走査時間間隔、あるいは、特定の取得画像枚数毎に位置情報をリセットして処理対象画像に対する位置情報のみから当該画像の位置情報を決定し、誤差の累積を低減してもよい。
 また、上記では位置取得部としてカメラを例に、基準方向と移動ベクトルとの向きの差分に基づいて位置情報を重み付けしたが、重み付けの尺度は向きの差分に限定されるものではない。例えば、磁気センサーにおける磁気発信器とプローブとの距離、あるいは、ジャイロのように回転方向に依存して分解能が異なる場合には回転方向に応じて重み付けしてもよい。
 なお、以上では高い位置分解能で取得した位置情報に基づいて3次元像を構築する装置について述べたが、用途は3次元像の構築に限定されるものではなく、CTやMRIなど超音波以外のモーダルで撮像した2次元あるいは3次元像と超音波画像との位置合わせ、あるいは、定期的な診断など異なる日時で撮像した超音波画像同士の位置合わせなどにも適用できる。また、位置取得部と画像処理との併用は必須ではなく、特に、複数の位置取得部を用いる際には、位置取得部のみから位置情報を決定してもよい。
 なお、以下のようにすることで、位置取得部111及び画像位置推定部112の位置取得の精度を向上させることができる。
 位置取得部111及び画像位置推定部112における位置取得の精度の向上と、頻度の向上とはトレードオフの関係にある。位置取得部111及び画像位置推定部112において、取得された情報に対して反復演算などによる高精度あるいはロバストな位置情報決定処理を施すことにより情報の精度を向上させることができるが、当該位置情報決定処理を施すためには所定の時間を要し、位置取得の頻度が低下するためである。
 そこで、位置取得部111及び画像位置推定部112の位置取得の頻度を、位置取得部111及び画像位置推定部112で取得される位置の精度によって変更するようにする。具体的には、位置取得部111及び画像位置推定部112で取得される位置情報の差分を、位置取得の頻度へフィードバック制御するようにする。位置取得部111及び画像位置推定部112は、それぞれ、精度あるいはロバスト性が低く位置取得頻度が高い動作モード(高頻度モード)と、精度あるいはロバスト性が高く位置取得頻度が低い動作モード(高精度モード)とを有し、これらの動作モードを、フィードバック情報により切り替えるようにする。こうすることにより、位置取得状況に応じて、位置取得部111及び画像位置推定部112の位置取得の精度または頻度を向上させることができる。フィードバック制御の一例について、図14Bに示す。
 図14Bは、フィードバック部を含む超音波画像生成装置の一例の構成図である。図14Bに示されるように、この例において、超音波画像生成装置はフィードバック部116を備える。その他の機能ブロックの動作は超音波診断装置11と同様であるため、同一の符号を付し説明を省略する。
 フィードバック部116は、位置取得部111及び画像位置推定部112で取得される位置情報を取得する。そして、これらの位置情報の差を算出し、その差が閾値より大きい場合には、位置取得部111及び画像位置推定部112を高精度モードへ変更する。また、位置情報の差が閾値より小さい場合には、位置取得部111及び画像位置推定部112を高頻度モードへ変更する。このようにすることにより、位置取得状況に応じて、位置取得部111及び画像位置推定部112の位置取得の精度または頻度を向上させることができる。
 以上のように、本発明の一態様による超音波画像生成装置によれば、推定方法における推定精度が低い方向を、他の推定方法における推定精度が高い方向と一致させることにより、合成位置ベクトルの推定精度の方向依存性を抑制するように、操作者が推定方法の方向を設定することができる。よって、超音波プローブの位置取得精度の方向依存性を抑制することができる。
 (実施の形態3)
 上記各実施の形態で示した超音波画像生成方法を実現するためのプログラムを、フレキシブルディスク等の記録媒体に記録するようにすることにより、上記実施の形態で示した処理を、独立したコンピュータシステムにおいて簡単に実施することが可能となる。
 図18は、上記各実施の形態の超音波画像生成方法を、フレキシブルディスク等の記録媒体に記録されたプログラムを用いて、コンピュータシステムにより実施する場合の説明図である。
 図18の(b)は、フレキシブルディスクの正面からみた外観、断面構造、及びフレキシブルディスクを示し、図18の(a)は、記録媒体本体であるフレキシブルディスクの物理フォーマットの例を示している。フレキシブルディスクFDはケースF内に内蔵され、該ディスクの表面には、同心円状に外周からは内周に向かって複数のトラックTrが形成され、各トラックは角度方向に16のセクタSeに分割されている。従って、上記プログラムを格納したフレキシブルディスクでは、上記フレキシブルディスクFD上に割り当てられた領域に、上記プログラムが記録されている。
 また、図18の(c)は、フレキシブルディスクFDに上記プログラムの記録再生を行うための構成を示す。画像処理方法を実現する上記プログラムをフレキシブルディスクFDに記録する場合は、コンピュータシステムCsから上記プログラムをフレキシブルディスクドライブを介して書き込む。また、フレキシブルディスク内のプログラムにより画像処理方法を実現する上記画像処理方法をコンピュータシステム中に構築する場合は、フレキシブルディスクドライブによりプログラムをフレキシブルディスクから読み出し、コンピュータシステムに転送する。
 なお、上記説明では、記録媒体としてフレキシブルディスクを用いて説明を行ったが、光ディスクを用いても同様に行うことができる。また、記録媒体はこれに限らず、ICカード、ROMカセット等、プログラムを記録できるものであれば同様に実施することができる。
 なお、図1Bの超音波画像生成部105、位置取得部111、画像位置推定部112、位置再構成部113、および、画像メモリ115などのブロックは典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
 ここでは、LSIとしたが、集積度の違いにより、IC(Integrated Circuit)、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサーで実現してもよい。例えば、GPU(Graphic Processing Unit)などのグラフィクス処理用の専用回路が使用できる。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用してもよい。
 さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
 なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の画像復号化装置などを実現するソフトウェアは、次のようなプログラムである。
 すなわち、このプログラムは、コンピュータに、超音波プローブを移動させながら、被検体から得られる複数の超音波信号を用いて超音波診断画像を生成する超音波画像生成方法であって、前記複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの前記超音波プローブの移動を示す移動ベクトルを、第一推定方法により第一移動ベクトルとして推定する第一移動推定ステップと、前記複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの前記移動ベクトルを、前記第一推定方法とは推定精度の方向依存性が異なる第二推定方法により第二移動ベクトルとして推定する第二移動推定ステップと、前記第一移動推定ステップにおいて推定された前記第一移動ベクトルと前記第二移動推定ステップにおいて推定された前記第二移動ベクトルとを、前記第一移動ベクトルまたは前記第二移動ベクトルの方向に基づいて重み付けして合成することで、合成移動ベクトルを算出し、前記合成移動ベクトルと前記複数の画像とを用いて前記被検体の超音波診断画像を構成する位置再構成ステップとを実行させる。
 また、このプログラムは、コンピュータに、前記第一移動推定ステップにおいて、前記複数の画像のうちの2枚の画像間の画像のずれに基づいて、前記2枚の画像の一方が取得されてから他方が取得されるまでの間の前記移動ベクトルを算出することで、前記超音波プローブの移動ベクトルを推定するステップを実行させる。
 以上、本発明の一つまたは複数の態様に係る超音波画像生成装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。
 本発明に係る超音波画像生成装置および方法によれば、イメージング対象を任意方向から走査した超音波画像と位置情報に基づいて3次元像を構築する際に、複数の位置取得部からの位置情報を重み付けして最終的な位置情報を決定するため、任意方向の移動に対して高精度な位置情報が取得でき、3次元像を高精度に構築できる。故に本発明に係る超音波画像生成装置および方法は、診断部位の3次元形状を高精度に観察できることから、診断精度の向上が期待でき、特に医療診断機器産業において特に高い利用可能性を持つ。
 10、11、12  超音波画像生成装置
 10A  第一移動推定部
 10B  第二移動推定部
 10C、113、1508  位置再構成部
 101  超音波プローブ
 102  送信部
 103  受信部
 104  送受信制御部
 105  超音波画像生成部
 111、201、1507  位置取得部
 112  画像位置推定部
 114、203、1509  表示部
 115、1506  画像メモリ
 1131  方向差分取得部
 1132  重み決定部
 1133  3次元像構築部

Claims (13)

  1.  超音波プローブを移動させながら、被検体から得られる複数の超音波信号を用いて超音波診断画像を生成する超音波画像生成装置であって、
     前記複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの前記超音波プローブの移動を示す移動ベクトルを、第一推定方法により第一移動ベクトルとして推定する第一移動推定部と、
     前記複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの前記移動ベクトルを、前記第一推定方法とは推定精度の方向依存性が異なる第二推定方法により第二移動ベクトルとして推定する第二移動推定部と、
     前記第一移動推定部が推定した前記第一移動ベクトルと前記第二移動推定部が推定した前記第二移動ベクトルとを、前記第一移動ベクトルまたは前記第二移動ベクトルの方向に基づいて重み付けして合成することで、合成移動ベクトルを算出し、前記合成移動ベクトルと前記複数の画像とを用いて前記被検体の超音波診断画像を構成する位置再構成部とを備える
     超音波画像生成装置。
  2.  前記第一移動推定部は、
     前記複数の画像のうちの2枚の画像間の画像のずれに基づいて、前記2枚の画像の一方が取得されてから他方が取得されるまでの間の前記移動ベクトルを算出することで、前記超音波プローブの移動ベクトルを推定する
     請求項1に記載の超音波画像生成装置。
  3.  前記第一移動推定部は、
     前記複数の画像のうちの2枚の画像を構成する画素値の相関に基づいて、前記2枚の画像間の画像のずれ量を検出することで、前記2枚の画像の一方が取得されてから他方が取得されるまでの間の前記超音波プローブの移動ベクトルを推定する
     請求項2に記載の超音波画像生成装置。
  4.  前記位置再構成部は、
     前記超音波プローブの移動方向と、前記第一移動推定部または前記第二移動推定部における推定の際に基準となった基準方向とのなす角度が大きいほど、前記第一移動ベクトルまたは前記第二移動ベクトルの重みを大きくし、前記合成移動ベクトルを算出することで、前記超音波診断画像を構成する
     請求項1~3のいずれか1項に記載の超音波画像生成装置。
  5.  前記位置再構成部は、
     前記超音波プローブの移動方向と、前記第一移動推定部における前記基準方向である推定精度が低い方向とのなす角度が大きいほど、前記第一移動推定部が推定した前記移動ベクトルの重みを大きくし、前記合成移動ベクトルを算出することで、前記超音波診断画像を構成する
     請求項4に記載の超音波画像生成装置。
  6.  前記第一移動推定部及び前記第二移動推定部のうちの少なくとも一方は、
     前記超音波プローブに取り付けられた光学マーカーをカメラにより撮像し、撮像された前記光学マーカーの位置または形状に基づいて、前記超音波プローブの位置および角度を算出する
     請求項1に記載の超音波画像生成装置。
  7.  前記位置再構成部は、
     前記超音波プローブの移動方向と、前記光学移動推定部における基準方向である前記カメラの撮像面の法線方向とのなす角度が大きいほど、前記光学移動推定部が推定した前記移動ベクトルの重みを大きくし、前記移動ベクトルを合成することで、前記複数の画像を構成する
     請求項6に記載の超音波画像生成装置。
  8.  前記第一移動推定部は、
     前記複数の画像のうちの2枚の画像間の画像のずれに基づいて、前記2枚の画像の一方が取得されてから他方が取得されるまでの間の前記超音波プローブの移動ベクトルを算出することで、前記超音波プローブの移動ベクトルを推定し、
     前記第二移動推定部は、
     前記超音波プローブに取り付けられた光学マーカーをカメラにより撮像し、撮像された前記光学マーカーの位置または形状に基づいて、前記超音波プローブの位置および角度を算出することで、前記超音波プローブの移動ベクトルを推定する
     請求項1に記載の超音波画像生成装置。
  9.  前記超音波画像生成装置は、さらに、
     前記第一移動推定部及び前記第二移動推定部における前記基準方向が互いに略直交するように、操作者による前記基準方向の変更のための操作を促すための情報を提示する配置アシスト部を備える
     請求項1~8のいずれか1項に記載の超音波画像生成装置。
  10.  超音波プローブを移動させながら、被検体から得られる複数の超音波信号を用いて超音波診断画像を生成する超音波画像生成方法であって、
     前記複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの前記超音波プローブの移動を示す移動ベクトルを、第一推定方法により第一移動ベクトルとして推定する第一移動推定ステップと、
     前記複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの前記移動ベクトルを、前記第一推定方法とは推定精度の方向依存性が異なる第二推定方法により第二移動ベクトルとして推定する第二移動推定ステップと、
     前記第一移動推定ステップにおいて推定された前記第一移動ベクトルと前記第二移動推定ステップにおいて推定された前記第二移動ベクトルとを、前記第一移動ベクトルまたは前記第二移動ベクトルの方向に基づいて重み付けして合成することで、合成移動ベクトルを算出し、前記合成移動ベクトルと前記複数の画像とを用いて前記被検体の超音波診断画像を構成する位置再構成ステップとを含む
     超音波画像生成方法。
  11.  前記第一移動推定ステップにおいて、
     前記複数の画像のうちの2枚の画像間の画像のずれに基づいて、前記2枚の画像の一方が取得されてから他方が取得されるまでの間の前記移動ベクトルを算出することで、前記超音波プローブの移動ベクトルを推定する
     請求項10に記載の超音波画像生成方法。
  12.  請求項10に記載の方法をコンピュータに実行させるためのプログラム。
  13.  超音波プローブを移動させながら、被検体から得られる複数の超音波信号を用いて超音波診断画像を生成する集積回路であって、
     前記複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの前記超音波プローブの移動を示す移動ベクトルを、第一推定方法により第一移動ベクトルとして推定する第一移動推定部と、
     前記複数の超音波信号のそれぞれに対応する複数の画像が取得されたときの前記移動ベクトルを、前記第一推定方法とは推定精度の方向依存性が異なる第二推定方法により第二移動ベクトルとして推定する第二移動推定部と、
     前記第一移動推定部が推定した前記第一移動ベクトルと前記第二移動推定部が推定した前記第二移動ベクトルとを、前記第一移動ベクトルまたは前記第二移動ベクトルの方向に基づいて重み付けして合成することで、合成移動ベクトルを算出し、前記合成移動ベクトルと前記複数の画像とを用いて前記被検体の超音波診断画像を構成する位置再構成部とを備える
     集積回路。
PCT/JP2012/003523 2011-05-30 2012-05-30 超音波画像生成装置および超音波画像生成方法 WO2012164919A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP12792497.5A EP2716230A4 (en) 2011-05-30 2012-05-30 ULTRASONIC IMAGE GENERATING DEVICE AND ULTRASONIC IMAGE GENERATION METHOD
JP2012540616A JP5862571B2 (ja) 2011-05-30 2012-05-30 超音波画像生成装置および超音波画像生成方法
US13/812,062 US20130131510A1 (en) 2011-05-30 2012-05-30 Ultrasound image generation apparatus and ultrasound image generation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011119986 2011-05-30
JP2011-119986 2011-05-30

Publications (1)

Publication Number Publication Date
WO2012164919A1 true WO2012164919A1 (ja) 2012-12-06

Family

ID=47258792

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/003523 WO2012164919A1 (ja) 2011-05-30 2012-05-30 超音波画像生成装置および超音波画像生成方法

Country Status (4)

Country Link
US (1) US20130131510A1 (ja)
EP (1) EP2716230A4 (ja)
JP (1) JP5862571B2 (ja)
WO (1) WO2012164919A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016527998A (ja) * 2013-08-20 2016-09-15 キュアファブ テクノロジーズ ゲゼルシャフト ミット ベシュレンクテル ハフツング 光学追跡
WO2022044391A1 (ja) * 2020-08-26 2022-03-03 富士フイルム株式会社 超音波診断システムおよび超音波診断システムの制御方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160135782A1 (en) * 2014-11-14 2016-05-19 General Electric Company Finger joint ultrasound imaging
JP6405058B2 (ja) 2015-03-31 2018-10-17 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療イメージング装置
WO2017100920A1 (en) * 2015-12-14 2017-06-22 The Governors Of The University Of Alberta Apparatus and method for generating a fused scan image of a patient
USD843399S1 (en) 2016-07-29 2019-03-19 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08332187A (ja) * 1995-06-08 1996-12-17 Aloka Co Ltd 超音波画像処理装置
JPH11313822A (ja) * 1998-03-20 1999-11-16 General Electric Co <Ge> 3次元イメ―ジング・システム並びに走査平面の動きを追跡する方法及び装置
JP2001157677A (ja) * 1999-12-01 2001-06-12 Hitachi Medical Corp 超音波診断装置
JP2002102223A (ja) * 2000-10-03 2002-04-09 Mitani Sangyo Co Ltd 超音波断層画像における面座標検出方法ならびにシステムおよび同方法がプログラムされ記録された記録媒体
JP2005103328A (ja) * 2005-01-18 2005-04-21 Hitachi Ltd 超音波像診断装置及びそれに使用するプログラム
JP2008125692A (ja) * 2006-11-20 2008-06-05 Aloka Co Ltd 超音波診断装置
JP2010075503A (ja) 2008-09-26 2010-04-08 Hitachi Medical Corp マルチモダリティ手術支援装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5608849A (en) * 1991-08-27 1997-03-04 King, Jr.; Donald Method of visual guidance for positioning images or data in three-dimensional space
US5899861A (en) * 1995-03-31 1999-05-04 Siemens Medical Systems, Inc. 3-dimensional volume by aggregating ultrasound fields of view
US5566674A (en) * 1995-06-30 1996-10-22 Siemens Medical Systems, Inc. Method and apparatus for reducing ultrasound image shadowing and speckle
AU1983397A (en) * 1996-02-29 1997-09-16 Acuson Corporation Multiple ultrasound image registration system, method and transducer
JP4636696B2 (ja) * 1999-04-20 2011-02-23 アーオー テクノロジー アクチエンゲゼルシャフト ヒト又は動物の器官の表面における3d座標の経皮的獲得用の装置
WO2006127142A2 (en) * 2005-03-30 2006-11-30 Worcester Polytechnic Institute Free-hand three-dimensional ultrasound diagnostic imaging with position and angle determination sensors
US7844094B2 (en) * 2005-04-29 2010-11-30 Varian Medical Systems, Inc. Systems and methods for determining geometric parameters of imaging devices
CA2751629C (en) * 2007-10-19 2016-08-23 Metritrack, Llc Three dimensional mapping display system for diagnostic ultrasound machines and method
WO2009070696A1 (en) * 2007-11-26 2009-06-04 Proiam, Llc Enrollment apparatus, system, and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08332187A (ja) * 1995-06-08 1996-12-17 Aloka Co Ltd 超音波画像処理装置
JPH11313822A (ja) * 1998-03-20 1999-11-16 General Electric Co <Ge> 3次元イメ―ジング・システム並びに走査平面の動きを追跡する方法及び装置
JP2001157677A (ja) * 1999-12-01 2001-06-12 Hitachi Medical Corp 超音波診断装置
JP2002102223A (ja) * 2000-10-03 2002-04-09 Mitani Sangyo Co Ltd 超音波断層画像における面座標検出方法ならびにシステムおよび同方法がプログラムされ記録された記録媒体
JP2005103328A (ja) * 2005-01-18 2005-04-21 Hitachi Ltd 超音波像診断装置及びそれに使用するプログラム
JP2008125692A (ja) * 2006-11-20 2008-06-05 Aloka Co Ltd 超音波診断装置
JP2010075503A (ja) 2008-09-26 2010-04-08 Hitachi Medical Corp マルチモダリティ手術支援装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2716230A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016527998A (ja) * 2013-08-20 2016-09-15 キュアファブ テクノロジーズ ゲゼルシャフト ミット ベシュレンクテル ハフツング 光学追跡
WO2022044391A1 (ja) * 2020-08-26 2022-03-03 富士フイルム株式会社 超音波診断システムおよび超音波診断システムの制御方法
JP7476320B2 (ja) 2020-08-26 2024-04-30 富士フイルム株式会社 超音波診断システムおよび超音波診断システムの制御方法

Also Published As

Publication number Publication date
JP5862571B2 (ja) 2016-02-16
US20130131510A1 (en) 2013-05-23
JPWO2012164919A1 (ja) 2015-02-23
EP2716230A1 (en) 2014-04-09
EP2716230A4 (en) 2014-10-29

Similar Documents

Publication Publication Date Title
JP5862571B2 (ja) 超音波画像生成装置および超音波画像生成方法
US9492141B2 (en) Ultrasonic image generating device and image generating method
CN102047140B (zh) 具有引导efov扫描的扩展视野超声成像
US20090306509A1 (en) Free-hand three-dimensional ultrasound diagnostic imaging with position and angle determination sensors
US20050085729A1 (en) Ultrasonic image processor and ultrasonic diagnostic instrument
US20090054776A1 (en) Ultrasound diagnosis apparatus and method for acquiring 3-d images
US20180092628A1 (en) Ultrasonic diagnostic apparatus
US9592028B2 (en) Ultrasonic diagnostic apparatus
CN107072635A (zh) 用于中间用户反馈的多跳超声心动图采集的质量度量
US20130261460A1 (en) Ultrasonic processing apparatus and probe supporting apparatus
JP4598652B2 (ja) 超音波診断装置
JP4276595B2 (ja) 超音波診断装置
JP3263131B2 (ja) 超音波診断装置
JP7275261B2 (ja) 3次元超音波画像生成装置、方法、及びプログラム
EP3752984B1 (en) An imaging system and method with stitching of multiple images
CN112022202A (zh) 用于确定超声探头运动的技术
JP4944582B2 (ja) 超音波診断装置
JP2005152192A (ja) 超音波診断装置
JP5182932B2 (ja) 超音波ボリュームデータ処理装置
US20220287686A1 (en) System and method for real-time fusion of acoustic image with reference image
JP2005130877A (ja) 超音波診断装置
KR101487688B1 (ko) 단면의 위치를 가이드하기 위한 내비게이터를 제공하는 초음파 시스템 및 방법
Abbas et al. MEMS Gyroscope and the Ego-Motion Estimation Information Fusion for the Low-Cost Freehand Ultrasound Scanner
JP5383253B2 (ja) 超音波診断装置及び画像データ生成装置
US20220207743A1 (en) System and method for two dimensional acoustic image compounding via deep learning

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2012540616

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12792497

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13812062

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2012792497

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE