WO2018205274A1 - 一种超声设备及其三维超声图像的显示变换方法、系统 - Google Patents

一种超声设备及其三维超声图像的显示变换方法、系统 Download PDF

Info

Publication number
WO2018205274A1
WO2018205274A1 PCT/CN2017/084197 CN2017084197W WO2018205274A1 WO 2018205274 A1 WO2018205274 A1 WO 2018205274A1 CN 2017084197 W CN2017084197 W CN 2017084197W WO 2018205274 A1 WO2018205274 A1 WO 2018205274A1
Authority
WO
WIPO (PCT)
Prior art keywords
fetal
volume data
ultrasound
dimensional volume
orientation
Prior art date
Application number
PCT/CN2017/084197
Other languages
English (en)
French (fr)
Inventor
梁天柱
邹耀贤
林穆清
龚闻达
朱磊
冯赫林
Original Assignee
深圳迈瑞生物医疗电子股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳迈瑞生物医疗电子股份有限公司 filed Critical 深圳迈瑞生物医疗电子股份有限公司
Priority to CN202211223153.3A priority Critical patent/CN115486877A/zh
Priority to CN201780079290.5A priority patent/CN110087555B/zh
Priority to US16/612,745 priority patent/US11521363B2/en
Priority to PCT/CN2017/084197 priority patent/WO2018205274A1/zh
Publication of WO2018205274A1 publication Critical patent/WO2018205274A1/zh

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30044Fetus; Embryo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Definitions

  • the present invention relates to an ultrasound apparatus, and in particular to a technique of rotating a three-dimensional ultrasound image on an ultrasound apparatus.
  • Prenatal ultrasound is one of the most important items that must be examined during pregnancy.
  • the main functions include measuring fetal age, analyzing fetal development, detecting fetal malformations or abnormalities, taking photos and dynamic recordings for the fetus. and many more.
  • fetal facial ultrasound examination can automatically record the fetal face and the facial deformity for the expectant mother, and it is also one of the necessary items for prenatal ultrasound examination.
  • prenatal ultrasound examinations of the fetus may be in various positions, the current fetal facial ultrasound examination requires an experienced doctor to move the probe to find the appropriate orientation for imaging based on the fetal position, or to require appropriate movement of the pregnant woman. Adjusting the position of the fetus for imaging will inevitably result in an increase in the cost of the examination and an extension of the examination, and the requirements for the doctor are also high.
  • the present invention mainly provides an ultrasonic device and a display and transformation method and system thereof for three-dimensional ultrasonic images, aiming at solving the problem that the three-dimensional volume data of the measured object cannot be automatically rotated to a desired orientation.
  • an embodiment provides a three-dimensional ultrasound image display transformation method, including: [0005] acquiring original ultrasound three-dimensional volume data including a measured object;
  • an embodiment provides a three-dimensional ultrasound image display transformation method, including: Obtaining original ultrasound three-dimensional volume data including a fetal face;
  • an ultrasound apparatus including:
  • an ultrasound probe for transmitting ultrasound waves to a region of interest within the biological tissue and receiving echoes of the ultrasound waves
  • a transmit/receive sequence controller for generating a transmit sequence and/or a receive sequence, and outputting the transmit sequence and/or the receive sequence to an ultrasound probe, controlling the ultrasound probe to transmit ultrasound waves to the region of interest and receiving echoes of the ultrasound waves ;
  • a processor configured to generate original ultrasound three-dimensional volume data including the measured object according to the ultrasonic echo data; and detect an orientation of the measured object from the original ultrasonic three-dimensional volume data according to the image feature of the measured object; Comparing the orientation of the object with the desired orientation, obtaining a rotation transformation parameter in the three-dimensional coordinate system; rotating and transforming the original ultrasound three-dimensional volume data according to the rotation transformation parameter to obtain the transformed three-dimensional volume data, and transforming the three-dimensional volume data Output to the display for display to obtain an ultrasound image.
  • an ultrasound apparatus including:
  • a memory configured to store a program
  • a processor for implementing the method as described above by executing the program stored by the memory.
  • an ultrasound apparatus including:
  • an ultrasound probe for transmitting ultrasound waves to a region of interest within the biological tissue and receiving echoes of the ultrasound waves
  • a transmit/receive sequence controller for generating a transmit sequence and/or a receive sequence, and outputting the transmit sequence and/or the receive sequence to an ultrasound probe, controlling the ultrasound probe to transmit ultrasound waves to the region of interest and receiving echoes of the ultrasound waves ;
  • a processor configured to generate raw ultrasound three-dimensional volume data including a fetal face according to the ultrasonic echo data; and detect the orientation of the measured object from the original ultrasonic three-dimensional volume data according to the image feature of the fetal face; The orientation of the fetal face is obtained, and the transformed three-dimensional volume data is obtained, and the transformed three-dimensional volume data is output to the display to obtain an ultrasonic image of a preset viewing angle.
  • an embodiment provides a computer readable storage medium, including:
  • a program is included, the program being executable by a processor to implement the method as described above.
  • a display transformation system for providing a three-dimensional ultrasound image includes: [0031] an acquisition unit for acquiring original ultrasound three-dimensional volume data including a measured object;
  • a position detecting unit for detecting an orientation of the measured object from the original ultrasonic three-dimensional volume data according to the image feature of the measured object
  • a comparison unit for comparing the orientation of the measured object with the desired orientation to obtain a rotation transformation parameter in the three-dimensional coordinate system
  • a transform unit for performing rotational transformation on the original ultrasound three-dimensional volume data according to the rotation transformation parameter to obtain transformed three-dimensional volume data
  • an image output unit for outputting the transformed three-dimensional volume data to the display to obtain an ultrasound image.
  • a display transformation system for providing a three-dimensional ultrasound image includes: [0037] an acquisition unit for acquiring original ultrasound three-dimensional volume data including a fetal face;
  • a position detecting unit for detecting an orientation of the measured object from the original ultrasonic three-dimensional volume data according to an image feature of the fetal face
  • a rotation unit for rotating the orientation of the fetal face to obtain transformed three-dimensional volume data
  • an image output unit for outputting the transformed three-dimensional volume data to the display to obtain an ultrasound image.
  • the ultrasound apparatus and the display transformation method and system thereof for the three-dimensional ultrasound image first acquire original ultrasound three-dimensional volume data including the measured object; and from the original ultrasound three-dimensional volume data according to the image feature of the measured object Detecting the orientation of the measured object; and comparing the orientation of the measured object with the desired orientation to obtain a rotation transformation parameter in the three-dimensional coordinate system; and then rotating the original ultrasonic three-dimensional volume data according to the rotation transformation parameter to obtain the transformed three-dimensional shape Volume data; Finally, the transformed 3D volume data is output. Therefore, the ultrasonic three-dimensional volume data of the measured object can be automatically rotated to a desired orientation, and the orientation adjustment is not required manually, thereby improving the efficiency.
  • FIG. 1 is a structural block diagram of an embodiment of an ultrasound apparatus provided by the present invention.
  • FIG. 2 is a structural block diagram of an embodiment of a display conversion system for a three-dimensional ultrasonic image provided by the present invention
  • FIG. 3 is a flowchart of a method for transforming a three-dimensional ultrasound image according to the present invention
  • FIG. 4 is an image of an original ultrasonic three-dimensional volume data in a display in an embodiment of an ultrasound apparatus provided by the present invention
  • FIG. 5 is an image of a three-dimensional volume data after rotation transformation in a display in an embodiment of an ultrasound apparatus according to the present invention
  • FIG. 6 is a first schematic diagram of a first connection and a second connection in an embodiment of an ultrasound apparatus according to the present invention.
  • FIG. 7 is a first embodiment of an ultrasound apparatus according to an embodiment of the present invention.
  • Second schematic diagram of a line and a second connection is a third schematic diagram of a first connection and a second connection in an embodiment of an ultrasound apparatus provided by the present invention.
  • connection and “connection” as used in this application include direct and indirect connections (connections) unless otherwise stated.
  • an ultrasound apparatus includes: an ultrasound probe 10, a transmit/receive sequence controller 20, an echo processing module 30, a processor 40, a display 50, and a memory 60.
  • the transmit/receive sequence controller 20 is coupled to the ultrasonic probe 10, the ultrasonic probe 10 is coupled to the processor 40 via an echo processing module 30, and the output of the processor 40 is coupled to the display 50.
  • the ultrasonic probe 10 emits ultrasonic waves to the region of interest A in the biological tissue, and receives echoes of the ultrasonic waves.
  • the ultrasonic probe 10 includes at least one array element for transmitting ultrasonic waves according to an excitation electric signal output from the transmission/reception control circuit 120, or converting the received ultrasonic waves into electric signals.
  • each array element can be used to transmit ultrasound waves to a biological tissue's target of interest, as well as to receive ultrasonic echoes that are returned by tissue. After performing ultrasonic testing, it is possible to control which array elements are used to transmit ultrasonic waves, which array elements are used to receive ultrasonic waves, or to control the array element splitting gaps for transmitting ultrasonic waves or receiving ultrasonic echoes by the transmitting sequence and the receiving sequence.
  • the array elements participating in the ultrasonic transmission may be excited by the electric signal to transmit the ultrasonic waves simultaneously; or the array elements participating in the ultrasonic beam emission may also be excited by a plurality of electrical signals having a certain inter-turn interval, so that the continuous emission has a certain inter-turn interval.
  • the ultrasonic probe 10 can be an area array probe or a volume probe.
  • the volume probe can be used with an abdominal volume probe or a cavity volume probe.
  • the transmitting/receiving sequence controller 20 is for controlling the ultrasonic probe 10 to emit an ultrasonic beam to the biological tissue, and on the other hand for controlling the ultrasonic probe 10 to receive the ultrasonic echo of the ultrasonic beam reflected by the tissue.
  • the transmit/receive sequence controller 20 is configured to generate a transmit sequence and/or receive sequence, and output the transmit sequence and/or receive sequence to the ultrasound probe 10, and control the ultrasound probe 10 to transmit ultrasound to the region of interest A.
  • the wave receives the echo of the ultrasonic wave.
  • the transmission sequence is used to control part or all of the plurality of array elements to transmit ultrasonic waves to the biological tissue's target of interest, and the transmission sequence parameters include the number of array elements for transmission and the ultrasonic transmission parameters (eg, amplitude, frequency, number of waves, and transmission interval). , launch angle, wave shape, etc.).
  • the receiving sequence is used to control some or all of the plurality of array elements to receive the echoes of the ultrasonic tissue, and the receiving sequence parameters include the number of array elements for receiving and the receiving parameters of the echo (eg, receiving angle, depth, etc.).
  • the ultrasonic parameters in the transmitted sequence and the echo parameters in the received sequence are also different for different purposes of ultrasonic echo or depending on the image generated by the ultrasonic echo.
  • the echo processing module 30 is configured to process the ultrasonic echo, such as filtering, amplifying, beam synthesizing, etc., the ultrasonic echo signal.
  • the ultrasonic echo received by the ultrasonic probe 10 is processed by the echo processing module 30 and output to the processor 40.
  • the echo processing module 30 may also be omitted when it is not necessary to perform filtering, amplification, beamforming, etc. processing on the ultrasound echo.
  • the memory 60 is used to store programs and data, such as ultrasonic echo data or image data.
  • the processor 40 is configured to execute a program or process data.
  • the processor is configured to implement display transformation of the three-dimensional ultrasound image, specifically, generating an original ultrasound three-dimensional body including the measured object according to the ultrasonic echo data. Data; detecting the orientation of the measured object from the original ultrasonic three-dimensional volume data according to the image feature of the measured object; comparing the orientation of the measured object with the desired orientation to obtain a rotation transformation parameter in the three-dimensional coordinate system;
  • the original ultrasonic three-dimensional volume data is subjected to rotational transformation to obtain transformed three-dimensional volume data, and the transformed three-dimensional volume data is output to a display for display to obtain an ultrasound image.
  • the rotation transformation may be implemented by a rotation axis plus a rotation angle.
  • the rotation transformation parameter includes the rotation axis position and the rotation angle (e.g., Euler angle); the rotation axis and the rotation angle may have a plurality of.
  • the rotation transformation can also be implemented by a rotation matrix, and correspondingly, the rotation transformation parameter includes the rotation matrix.
  • the image features include: image characteristics corresponding to the anatomical structure of one or more tissue structures on the object under test in the ultrasound three-dimensional volume data.
  • Image features may have color features, texture features, shape features, spatial relationship features, and the like.
  • a system for implementing display transformation of a three-dimensional ultrasound image in an ultrasound apparatus includes an acquisition unit 410, an orientation detection unit 420, a calculation unit 430, a transformation unit 440, and an image output unit. 450.
  • the functionality of the system is accomplished in whole or in part by the processor 40.
  • the obtaining unit 410 is configured to acquire original ultrasound three-dimensional volume data including the measured object.
  • the orientation detecting unit 420 is configured to detect the orientation of the measured object from the original ultrasound three-dimensional volume data according to the image feature of the measured object.
  • the calculating unit 430 is configured to compare the orientation of the measured object with the desired orientation to obtain a rotation transformation parameter in the three-dimensional coordinate system.
  • the transform unit 440 is configured to perform rotation transformation on the original ultrasound three-dimensional volume data according to the rotation transformation parameter.
  • the image output unit 450 is configured to output the transformed three-dimensional volume data to the display to obtain an ultrasonic image.
  • the acquiring unit 410 acquires original ultrasound three-dimensional volume data including the measured object; in other words, generates original ultrasound three-dimensional volume data including the measured object according to the ultrasonic echo data. Specifically, the acquiring unit 410 generates a plurality of two-dimensional images according to the ultrasonic echo data scanned by the ultrasound probe 10 from the plurality of scanning planes; and the plurality of two-dimensional images according to spatial positions of the plurality of scanning planes of the ultrasound probe 10 Coordinate transformation is performed, and the original ultrasonic three-dimensional volume data of the measured object is generated after interpolation. The obtaining unit 410 may also perform image optimization processing on the generated original ultrasonic three-dimensional volume data, for example, performing smoothing, denoising, etc., for subsequent processing.
  • the orientation detecting unit 420 detects the orientation of the measured object from the original ultrasonic three-dimensional volume data according to the image feature of the measured object.
  • the calculating unit 430 compares the orientation of the measured object with the desired orientation to obtain a rotation transformation parameter in the three-dimensional coordinate system.
  • the transform unit 440 performs rotational transformation on the original ultrasonic three-dimensional volume data according to the rotation transformation parameter to obtain transformed three-dimensional volume data.
  • the transform unit 440 can also be used for cropping, image editing, and volume data segmentation processing of the three-dimensional volume data.
  • the cropping includes VOI cropping, plane cropping, geometric cropping, and erasing (eraser).
  • the image output unit 450 outputs the transformed three-dimensional volume data to the display 50 for display to obtain an ultrasound image.
  • the object to be measured as the fetal face Take the object to be measured as the fetal face as an example. Please refer to Figure 4 and Figure 5 together for the original ultrasound three-dimensional body. The data is not rotated. The picture in the display 50 is as shown in FIG. 4. The position of the fetal face is not directly facing the user, and the left face is completely blocked. With the ultrasound device provided in this embodiment, the three-dimensional volume data can be realized. Automatic rotation, the face image shown in Figure 5 is obtained, so that the user can see the face of the fetus. In Fig. 5, the face of the fetus is 45° laterally, and most of the facial features can be seen. The outline is clear and the center contour can be very Show well. Therefore, the ultrasonic three-dimensional volume data of the measured object can be automatically rotated to a desired orientation, and the manual inspection is not required by the doctor, which improves the efficiency of the ultra
  • the desired orientation may be set in advance by the user, may also adopt a default setting, or may be an optimal orientation determined based on the current original three-dimensional volume data.
  • the desired orientation may specifically include a preset viewing angle.
  • the optimal orientation is determined based on the current original three-dimensional volume data.
  • the optimal orientation may be an orientation that can completely display the measured object in the display window of the display 50 screen.
  • the desired orientation may be that the ultrasonic image of the measured object is facing the user in the display window (the frontal orientation), that is, the positive viewing angle; or the side of the three-dimensional volume data of the measured object in the display window is opposite.
  • the user displays the orientation (side orientation) of the crucible, that is, the left or right perspective; and may also be the orientation (top view) of the top of the ultrasound image of the object to be measured in the display window, that is, the top view angle.
  • the desired position may also be multiple, for example, setting three desired orientations, namely a front orientation, a side orientation, and a top orientation.
  • the desired orientation is a plurality of frames, and the ultrasound images of the respective orientations may be sequentially displayed according to the user's selection or a preset order.
  • the display conversion system of the three-dimensional ultrasonic image further includes a position detecting unit 460.
  • the position detecting unit 460 detects the position of the measured object from the original ultrasonic three-dimensional volume data according to the image feature of the measured object before or after the transformed unit 440 obtains the transformed three-dimensional volume data.
  • the calculating unit 430 determines the relative position of the measured object in the display window according to the position of the measured object, compares the relative position of the measured object with the expected position of the measured object in the display window, and obtains the displacement vector in the three-dimensional coordinate system. Or coordinate difference. Further, the transform unit 440 moves the three-dimensional volume data according to the displacement vector or the coordinate difference value, and shifts the measured object to a desired position in the display window.
  • the desired position can be preset or the optimal position determined based on the current original three-dimensional volume data.
  • the desired position is where the object under test is in the center of the display window.
  • the position of the measured object is the position coordinate of the measured object in the three-dimensional coordinate system.
  • the orientation detecting unit 420 detects the orientation of the measured object from the original ultrasonic three-dimensional volume data according to the image feature of the measured object, and the position detecting unit 460 detects the measured from the original ultrasonic three-dimensional volume data according to the image feature of the measured object.
  • the position of the object can be the same or different.
  • the orientation detecting unit 420 detects the orientation of the measured object from the original ultrasound three-dimensional volume data according to the image feature of the measured object, specifically adopting the following manner: the orientation detecting unit 420 inputs the original ultrasonic three-dimensional volume data.
  • the machine learning model After the machine learning model obtains the orientation of the measured object, the machine learning model is trained by using the sample of the correspondence between the image features and the orientation of the marked object.
  • the training of machine learning models can be performed using one or more of deep learning, support vector machines, random forests, and adaboost.
  • the position detecting unit 460 can also detect the square position of the measured object by using the above method. Specifically, the position detecting unit 460 inputs the original ultrasonic three-dimensional volume data into the machine learning model to obtain the position of the measured object, The machine learning model is trained by using samples that have been mapped to the correspondence between image features and positions of the measured object.
  • the orientation detecting unit 420 detects the orientation of the measured object from the original ultrasound three-dimensional volume data according to the image feature of the measured object, and specifically adopts the following manner:
  • the orientation detecting unit 420 is configured according to the image of the measured object.
  • the feature automatically extracts one or more tissue structures from the original ultrasound three-dimensional volume data, and obtains the orientation of the measured object according to the extracted tissue structure.
  • one or more organizational structures are automatically extracted, and one or more organizational structures may be extracted by using an image processing algorithm, and the image processing algorithms include a template matching algorithm, an edge extraction algorithm, an image transformation algorithm, a morphological operation algorithm, and an image segmentation algorithm.
  • the image processing algorithms include a template matching algorithm, an edge extraction algorithm, an image transformation algorithm, a morphological operation algorithm, and an image segmentation algorithm.
  • an image segmentation algorithm is used to extract one or more organizational structures
  • the image segmentation algorithm includes one or more of a gmphcut algorithm, an active contour model algorithm, and an active shape model algorithm.
  • the extraction of one or more organizational structures may also be based on the image characteristics of the measured object, and an image processing algorithm is used to construct a mathematical model of the measured object from the original ultrasonic three-dimensional volume data, and the original ultrasonic three-dimensional volume data is performed by using the mathematical model. Analyze to extract the organizational structure of one or more measured objects.
  • the position detecting unit 460 automatically extracts one or more tissue structures from the original ultrasound three-dimensional volume data according to the image features of the measured object, and obtains the position of the measured object according to the extracted tissue structure.
  • the ultrasound apparatus may further include human-machine interaction means such as a trackball, a mouse, a keyboard, a touch screen, and the like.
  • the orientation detecting unit 420 detects the orientation of the measured object from the original ultrasonic three-dimensional volume data according to the image feature of the measured object, and specifically adopts the following manner:
  • the orientation detecting unit 420 outputs the original ultrasonic three-dimensional volume data to the display for display to obtain an ultrasonic image, and detects One or more marker points input by the user on the ultrasound image through the human-machine interaction device, and obtaining the orientation of the object to be measured according to the marker point, the one or more marker points corresponding to one object to be measured on the ultrasound image Organizational structure or multiple organizational structures. That is, in the third embodiment, the identification of one organizational structure or multiple organizational structures of the measured object is completed by the user through the human-machine interaction device, and belongs to the semi-automatic detection mode (the first embodiment and the second embodiment are fully automatic detection)
  • the position detecting unit 460 outputs the original ultrasonic three-dimensional volume data to the display for display to obtain an ultrasonic image, detects one or more marker points input by the user on the ultrasound image, and obtains the measured object according to the marker point. s position.
  • the display conversion system of the three-dimensional ultrasound image may also use the above two or three embodiments to refer to the method for obtaining the orientation or position of the measured object, that is, the method described in the fourth embodiment.
  • the display transformation system can use the corresponding method according to the user's selection to obtain the orientation and position of the measured object. A variety of methods are used to determine the orientation or position of the object being measured, which improves accuracy.
  • the region of interest A may be each organ, and the object to be measured corresponds to a portion of the organ that needs to be inspected.
  • the region of interest A is a uterus
  • the object to be measured is a fetal face.
  • the image features of the fetal face include: image characteristics corresponding to at least two organizational structures located on the fetal face.
  • the at least two tissue structures can be selected from the fetal eye, the fetal nose, the fetal mouth, the fetal forehead, the fetal chin, the fetal cheek, the fetal face contour, and the fetal ears.
  • the display transformation system recognizes the orientation of the fetal face in the three-dimensional volume data according to the position of the image feature of the fetal face, and can also recognize the relative position of the fetal face in the display window (ie, the fetal face is in the three-dimensional coordinate system) coordinate of
  • the orientation includes a front orientation and a top orientation of the object to be measured.
  • the orientation includes a tire
  • a specific processing process for performing display transformation on the three-dimensional ultrasonic image includes: [0086] S10.
  • the acquiring unit 410 acquires original ultrasound three-dimensional volume data including a fetal face.
  • the orientation detecting unit 420 detects the orientation of the fetal face from the original ultrasound three-dimensional volume data according to the image feature of the fetal face.
  • the transform unit 440 rotates the orientation of the fetal face to obtain the transformed three-dimensional volume data.
  • the image output unit 450 outputs the transformed three-dimensional volume data to the display 50, and displays the transformed three-dimensional volume data by the display 50 to obtain an ultrasound image of a preset viewing angle.
  • the method further includes the steps of: the image output unit 450 outputs the original ultrasound three-dimensional volume data to the display 50, and the display 50 displays the original ultrasound three-dimensional volume data to obtain the first ultrasound image. That is, the user sees through the display 50 the first ultrasound image of the original ultrasound three-dimensional volume data.
  • Step S40 specifically includes: the transform unit 440 receives, by the human-machine interaction device, a first rotation instruction generated by the user inputting one or more flag points on the first ultrasound image; according to the first rotation instruction, The rotation center axis is established by the one or more marker points, and the orientation of the fetal face is rotated to form three-dimensional volume data corresponding to the preset angle of view of the fetal face, as the transformed three-dimensional volume data.
  • Step S50 specifically includes: the image output unit 450 outputs the three-dimensional volume data corresponding to the preset angle of view of the fetal face to the display 50, and displays the three-dimensional volume data by the display 50, thereby obtaining an ultrasonic image of the preset viewing angle.
  • the preset viewing angle includes at least one of: a front side of the fetal face, a side of the fetal face, and a 45 degree angle of the front of the fetal face.
  • the one or more marker points correspond to one tissue structure or multiple tissues in a fetal eye, a fetal nose, a fetal mouth, a fetal forehead, a fetal chin, a fetal cheek, and a fetal ear on the first ultrasound image Structure
  • the above rotation command is automatically generated according to the marker point.
  • the rotation command can also be directly input by the user.
  • the transform unit 440 receives the second rotation command obtained by the user for one input through the human-machine interaction device. Further, in step S40, the transforming unit 440 rotates the orientation of the fetal face based on the second rotation instruction to obtain the converted three-dimensional volume data.
  • the second rotation instruction may be associated with one or more preset angles of view, for example, the second rotation instruction is associated with the front of the fetal face, the 45-degree angle of the front of the fetal face, and the side of the fetal face.
  • Three corresponding buttons are set on the human-machine interaction device, for example, buttons with 0°, 45° and 90° as identifications.
  • the operation of the 45° button and the 90° button is similar. Of course, it is also possible to set only one button, and the number of times the button is pressed is cycled in the above three preset angles.
  • the orientation detecting unit 420 obtains the orientation of the fetal face according to the extracted tissue structure or obtains the orientation of the fetal face according to the foregoing marker points, and specifically includes:
  • the orientation detecting unit 420 obtains the first connection L1 based on the detected fetal eyes.
  • the eye comprises an eye corner of both eyes.
  • the orientation detecting unit 420 connects the corners of the eyes of the eyes to obtain the first line L1.
  • the detected fetal eye may be obtained by automatic detection and extraction from the original ultrasound three-dimensional volume data, or may be based on the marker point of the fetal eye position input by the user on the ultrasound image.
  • the orientation detecting unit 420 obtains the second connection L2 according to any two of the midpoint of the first connection line L1, the fetal nose, and the fetal mouth.
  • the fetal nose can be represented by a tip of the nose. Connect the midpoint of the first line L1 to the tip of the nose of the fetus or fit a nearest line to obtain the second line L2, as shown in Figure 6.
  • the fetal mouth can be represented by the corner of the mouth and/or the midpoint of the mouth.
  • the midpoint of the first line L1 is wired to the midpoint of the fetal mouth to obtain a second line L2, as shown in FIG.
  • Other arrangements and the like are not mentioned here.
  • the orientation detecting unit 420 can obtain the orientation of the fetal face according to the first connection L1 and the second connection L2.
  • the orientation of the fetal face includes at least two aspects of the left and right direction of the face, the up and down direction of the face (the orientation of the fetal head), and the front and rear direction of the face (the fetal face orientation).
  • the orientation described in this embodiment includes the above. Three.
  • the orientation detecting unit 420 forms the first connection line L1 and the second connection line L2 into a plane whose normal to the outside of the three-dimensional volume data is the fetal face orientation, or according to the plane and the nose tip as the face.
  • the high point feature determines the fetal face orientation, ie the anteroposterior direction of the fetal face.
  • the square detecting unit 420 can determine the left and right direction of the face based on the fetal face orientation and the two extending directions of the first line L1.
  • the orientation detecting unit 420 can determine the vertical direction of the face based on the left and right directions of the fetal face and the two extending directions of the second connecting line L2.
  • the first connection is derived from the detection of the fetal eye, and of course, the fetal eye, the fetal forehead, the fetal chin, the fetal cheek, the fetal ear, the fetal face contour, and the fetal mouth can be replaced with any one of the fetal eyes.
  • the second connection to obtain the orientation of the fetal face.
  • the anatomical structure of at least two tissue structures according to the fetal eye, the fetal nose, the fetal mouth, the fetal forehead, the fetal chin, the fetal cheek, the fetal face contour, and the fetal ear corresponds to the ultrasound three-dimensional volume data.
  • the aforementioned ultrasound image includes a virtual rendering that reflects the face of the fetus.
  • the image output unit 450 renders the original ultrasonic three-dimensional volume data or the transformed three-dimensional volume data, draws the virtual rendering image according to the transformed three-dimensional volume data, and outputs the virtual rendering image to the display 50 for display.
  • the user can see a virtual rendering on the display 50 that reflects the fetal face.
  • the foregoing ultrasound image further includes a cross-sectional view of a clinical standard cut surface of the fetal face; the image output unit 450 extracts a clinical standard cut surface of the fetal face according to the original three-dimensional volume data, and draws and obtains a sectional view of the clinical standard cut surface of the fetal face.
  • the cross-sectional view data is output to the display 50 for display to obtain a cross-sectional view of the clinical standard cut surface of the fetal face.
  • the clinical standard cut surface of the fetal face may be one or more of a horizontal cross section, a median sagittal section, a denomination crown section, and a nasolabial coronal section.
  • the cross-sectional view may be a cross-sectional view, a sagittal cut-away view, a coronal cut-away view, or a cutaway view at any other angle.
  • the image output unit 450 can also perform virtual rendering on the cross-sectional view to obtain a corresponding rendered image output display.
  • the display conversion system of the three-dimensional ultrasonic image further includes a setting unit (not shown), and the setting unit is responsible for setting the working modes and parameters of other units in the system.
  • the setting unit provides a selection function of whether to enable the transformation unit 440 to perform rotational transformation and movement on the original ultrasound three-dimensional volume data, and if enabled, whether to enable the image output unit 450 to acquire the selected function of the transformed three-dimensional volume data; After the user selects the instruction, the corresponding startup or shutdown is performed.
  • the setting unit further provides a selection function of activating the orientation detecting unit 420/position detecting unit 460 to detect the orientation and/or position of the measured object before performing the rotation and/or movement of the three-dimensional volume data; if there is a detecting link, selecting Different detection modes, such as different detection targets (tissue structure, marker points, face position, face orientation, etc.) Etc.), different detection methods (image processing methods, image segmentation methods, machine learning methods, whether to build facial models, etc.), fully automatic detection or semi-automatic detection, semi-automatic detection, what kind of information is required by the user, and so on.
  • different detection targets tissue structure, marker points, face position, face orientation, etc.
  • different detection methods image processing methods, image segmentation methods, machine learning methods, whether to build facial models, etc.
  • fully automatic detection or semi-automatic detection semi-automatic detection, what kind of information is required by the user, and so on.
  • the ultrasound apparatus may further include an adjustment unit (not shown) that provides the user with the function of manually adjusting the virtual rendering map and the profile of the fetal face clinical standard section.
  • the adjusting unit is configured to adjust the preset viewing angle (the angle of view of the virtual rendering image) according to an instruction input by the user, for example, adjusting from the current viewing angle to the front of the fetal face, the side of the fetal face, and the fetal face of the top view/upward view The viewing angle, and the angle of view formed by deflecting a certain angle based on these viewing angles, and combinations thereof.
  • the adjustment unit can also adjust the profile of the clinical standard cut surface of the fetal face according to the instruction input by the user, for example, by rotating and/or moving the three-dimensional volume data to adjust the angle and/or position of the profile to obtain a better standard. Cutaway section view.
  • all or part of the functions of the various methods in the foregoing embodiments may be implemented by means of hardware (such as the processor described above) or by a computer program.
  • the program may be stored in a computer readable storage medium, and the storage medium may include: a read only memory, a random access memory, a magnetic disk, an optical disk, a hard disk, etc.
  • the computer executes the program to implement the above functions.
  • the program is stored in the memory of the device, and when the program in the memory is executed by the processor, all or part of the above functions can be realized.
  • the program may also be stored in a storage medium such as a server, another computer, a magnetic disk, an optical disk, a flash disk or a mobile hard disk, and may be saved by downloading or copying.
  • the memory of the local device is updated, or the system of the local device is updated.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Pregnancy & Childbirth (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Quality & Reliability (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

一种超声设备及其三维超声图像的显示变换方法、系统,先获取包含有被测对象的原始超声三维体数据(S10);根据被测对象的图像特征从原始超声三维体数据中检测被测对象的方位(S20);进而将被测对象的方位和期望方位相比较,得到三维坐标系中的旋转变换参数(S30);再根据旋转变换参数对原始超声三维体数据进行旋转变换,得到变换后的三维体数据(S40);最后输出变换后的三维体数据(S50)。由此被测对象的超声三维体数据可实现自动旋转到期望方位,无需手动调整,提高了效率。

Description

说明书 发明名称:一种超声设备及其三维超声图像的显示变换方法、 系统 技术领域
[0001] 本发明涉及一种超声设备, 具体涉及在超声设备上对三维超声图像进行旋转的 技术。
背景技术
[0002] 产前超声检査是准妈妈在妊娠期间必须检査的最重要项目之一, 其主要作用包 括测定胎儿年齢、 分析胎儿发育情况、 检测胎儿畸形或异常、 为胎儿拍摄照片 与动态录像等等。 其中胎儿脸部超声检査能自动为准妈妈记录胎儿脸部长相以 及检测脸部畸形, 也是产前超声检査的必査项目之一。 由于产前超声检査吋胎 儿可能是处于各种体位的, 因此目前胎儿脸部超声检査需要有经验的医生, 依 据胎儿位置来移动探头寻找合适的方位进行成像, 或者需要孕妇进行适当移动 来调整胎儿位置进行成像, 这必然造成检査成本的增加和检査吋间的延长, 并 且对医生的要求也很高。
技术问题
[0003] 本发明主要提供一种超声设备及其三维超声图像的显示变换方法、 系统, 旨在 解决被测对象的三维体数据无法自动旋转到期望方位的问题。
问题的解决方案
技术解决方案
[0004] 根据第一方面, 一种实施例中提供一种三维超声图像显示变换方法, 包括: [0005] 获取包含有被测对象的原始超声三维体数据;
[0006] 根据被测对象的图像特征从原始超声三维体数据中检测被测对象的方位; [0007] 将被测对象的方位和期望方位相比较, 得到三维坐标系中的旋转变换参数; [0008] 根据所述旋转变换参数对原始超声三维体数据进行旋转变换, 得到变换后的三 维体数据; 和,
[0009] 输出变换后的三维体数据。
[0010] 根据第二方面, 一种实施例中提供一种三维超声图像显示变换方法, 包括: [0011] 获取包含有胎儿脸部的原始超声三维体数据;
[0012] 根据胎儿脸部的图像特征从原始超声三维体数据中检测胎儿脸部的方位;
[0013] 旋转胎儿脸部的方位, 得到变换后的三维体数据; 和,
[0014] 显示变换后的三维体数据。
[0015] 根据第三方面, 一种实施例中提供一种超声设备, 包括:
[0016] 显示器;
[0017] 超声探头, 用于向生物组织内的感兴趣区域发射超声波, 并接收超声波的回波
[0018] 发射 /接收序列控制器, 用于产生发射序列和 /或接收序列, 并将发射序列和 /或 接收序列输出至超声探头, 控制超声探头向感兴趣区域发射超声波并接收超声 波的回波;
[0019] 处理器, 用于根据超声波回波数据生成包含有被测对象的原始超声三维体数据 ; 根据被测对象的图像特征从原始超声三维体数据中检测被测对象的方位; 将 被测对象的方位和期望方位相比较, 得到三维坐标系中的旋转变换参数; 根据 所述旋转变换参数对原始超声三维体数据进行旋转变换, 得到变换后的三维体 数据, 将变换后的三维体数据输出至显示器进行显示以得到超声图像。
[0020] 根据第四方面, 一种实施例中提供一种超声设备, 包括:
[0021] 存储器, 用于存储程序;
[0022] 处理器, 用于通过执行所述存储器存储的程序以实现如上所述的方法。
[0023] 根据第五方面, 一种实施例中提供一种超声设备, 包括:
[0024] 显示器;
[0025] 超声探头, 用于向生物组织内的感兴趣区域发射超声波, 并接收超声波的回波
[0026] 发射 /接收序列控制器, 用于产生发射序列和 /或接收序列, 并将发射序列和 /或 接收序列输出至超声探头, 控制超声探头向感兴趣区域发射超声波并接收超声 波的回波;
[0027] 处理器, 用于根据超声波回波数据生成包含有胎儿脸部的原始超声三维体数据 ; 根据胎儿脸部的图像特征从原始超声三维体数据中检测被测对象方位; 旋转 胎儿脸部的方位, 得到变换后的三维体数据, 输出变换后的三维体数据给显示 器显示以得到预设视角的超声图像。
[0028] 根据第六方面, 一种实施例中提供一种计算机可读存储介质, 包括:
[0029] 包括程序, 所述程序能够被处理器执行以实现如上所述的方法。
[0030] 根据第七方面, 一种实施例中提供一种三维超声图像的显示变换系统, 包括: [0031] 用于获取包含有被测对象的原始超声三维体数据的获取单元;
[0032] 用于根据被测对象的图像特征从原始超声三维体数据中检测被测对象方位的方 位检测单元;
[0033] 用于将被测对象的方位和期望方位相比较, 得到三维坐标系中的旋转变换参数 的计算单元;
[0034] 用于根据所述旋转变换参数对原始超声三维体数据进行旋转变换, 得到变换后 的三维体数据的变换单元;
[0035] 用于输出变换后的三维体数据给显示器显示以得到超声图像的图像输出单元。
[0036] 根据第八方面, 一种实施例中提供一种三维超声图像的显示变换系统, 包括: [0037] 用于获取包含有胎儿脸部的原始超声三维体数据的获取单元;
[0038] 用于根据胎儿脸部的图像特征从原始超声三维体数据中检测被测对象方位的方 位检测单元;
[0039] 用于旋转胎儿脸部的方位, 得到变换后的三维体数据的变换单元;
[0040] 用于输出变换后的三维体数据给显示器显示以得到超声图像的图像输出单元。
发明的有益效果
有益效果
[0041] 依据上述实施例的超声设备及其三维超声图像的显示变换方法、 系统, 先获取 包含有被测对象的原始超声三维体数据; 根据被测对象的图像特征从原始超声 三维体数据中检测被测对象的方位; 进而将被测对象的方位和期望方位相比较 , 得到三维坐标系中的旋转变换参数; 再根据旋转变换参数对原始超声三维体 数据进行旋转变换, 得到变换后的三维体数据; 最后输出变换后的三维体数据 。 由此被测对象的超声三维体数据可实现自动旋转到期望方位, 无需手动进行 方位调整, 提高了效率。 对附图的简要说明
附图说明
[0042] 图 1为本发明提供的超声设备一实施例的结构框图;
[0043] 图 2为本发明提供的三维超声图像的显示变换系统一实施例的结构框图;
[0044] 图 3为本发明提供的三维超声图像显示变换方法的流程图;
[0045] 图 4为本发明提供的超声设备一实施例中, 原始超声三维体数据在显示器中的 图像;
[0046] 图 5为本发明提供的超声设备一实施例中, 旋转变换后的三维体数据在显示器 中的图像;
[0047] 图 6为本发明提供的超声设备一实施例中, 第一连线和第二连线的第一示意图 [0048] 图 7为本发明提供的超声设备一实施例中, 第一连线和第二连线的第二示意图 [0049] 图 8为本发明提供的超声设备一实施例中, 第一连线和第二连线的第三示意图 实施该发明的最佳实施例
本发明的最佳实施方式
[0050] 在此处键入本发明的最佳实施方式描述段落。
本发明的实施方式
[0051] 具体实施方式
[0052] 下面通过具体实施方式结合附图对本发明作进一步详细说明。 其中不同实施方 式中类似元件采用了相关联的类似的元件标号。 在以下的实施方式中, 很多细 节描述是为了使得本申请能被更好的理解。 然而, 本领域技术人员可以毫不费 力的认识到, 其中部分特征在不同情况下是可以省略的, 或者可以由其他元件 、 材料、 方法所替代。 在某些情况下, 本申请相关的一些操作并没有在说明书 中显示或者描述, 这是为了避免本申请的核心部分被过多的描述所淹没, 而对 于本领域技术人员而言, 详细描述这些相关操作并不是必要的, 他们根据说明 书中的描述以及本领域的一般技术知识即可完整了解相关操作。
[0053] 另外, 说明书中所描述的特点、 操作或者特征可以以任意适当的方式结合形成 各种实施方式。 同吋, 方法描述中的各步骤或者动作也可以按照本领域技术人 员所能显而易见的方式进行顺序调换或调整。 因此, 说明书和附图中的各种顺 序只是为了清楚描述某一个实施例, 并不意味着是必须的顺序, 除非另有说明 其中某个顺序是必须遵循的。
[0054] 本文中为部件所编序号本身, 例如"第一"、 "第二 "等, 仅用于区分所描述的对 象, 不具有任何顺序或技术含义。 而本申请所说 "连接"、 "联接", 如无特别说明 , 均包括直接和间接连接 (联接) 。
[0055] 本发明提供一种超声设备,请参阅图 1, 超声设备包括: 超声探头 10、 发射 /接收 序列控制器 20、 回波处理模块 30、 处理器 40、 显示器 50和存储器 60。 发射 /接收 序列控制器 20与超声探头 10信号连接, 超声探头 10通过回波处理模块 30与处理 器 40信号连接, 处理器 40的输出端与显示器 50信号连接。
[0056] 超声探头 10向生物组织内的感兴趣区域 A发射超声波, 并接收超声波的回波。
超声探头 10包括至少一个阵元, 阵元用于根据发射 /接收控制电路 120输出的激励 电信号发射超声波, 或将接收的超声波变换为电信号。 因此每个阵元可用于向 生物组织的感兴趣目标发射超声波, 也可用于接收经组织返回的超声波回波。 在进行超声检测吋, 可通过发射序列和接收序列控制哪些阵元用于发射超声波 , 哪些阵元用于接收超声波, 或者控制阵元分吋隙用于发射超声波或接收超声 回波。 参与超声波发射的阵元可以同吋被电信号激励, 从而同吋发射超声波; 或者参与超声波束发射的阵元也可以被具有一定吋间间隔的若干电信号激励, 从而持续发射具有一定吋间间隔的超声波。 超声探头 10可以采用面阵探头或者 容积探头。 容积探头可选用腹部容积探头或者腔内容积探头。
[0057] 发射 /接收序列控制器 20—方面用于控制超声探头 10向生物组织发射超声波束 , 另一方面用于控制超声探头 10接收超声波束经组织反射的超声回波。 具体实 施例中, 发射 /接收序列控制器 20用于产生发射序列和 /或接收序列, 并将发射序 列和 /或接收序列输出至超声探头 10, 控制超声探头 10向感兴趣区域 A发射超声 波并接收超声波的回波。 发射序列用于控制多个阵元中的部分或者全部向生物 组织的感兴趣目标发射超声波, 发射序列参数包括发射用的阵元数和超声波发 射参数 (例如幅度、 频率、 发波次数、 发射间隔、 发射角度、 波型等) 。 接收 序列用于控制多个阵元中的部分或者全部接收超声波经组织后的回波, 接收序 列参数包括接收用的阵元数以及回波的接收参数 (例如接收角度、 深度等) 。 对超声回波的用途不同或根据超声回波生成的图像不同, 发射序列中的超声波 参数和接收序列中的回波参数也有所不同。
[0058] 回波处理模块 30用于对超声回波进行处理, 例如对超声回波信号进行滤波、 放 大、 波束合成等处理。 超声探头 10接收到的超声回波通过回波处理模块 30处理 后输出给处理器 40。 本领域技术人员应当理解, 在有的实施例中, 当不需要对 超声回波进行滤波、 放大、 波束合成等处理吋, 回波处理模块 30也可以省略。
[0059] 存储器 60用于存储程序和数据, 例如超声波回波数据或图像数据。
[0060] 处理器 40用于执行程序或对数据进行处理, 本实施例中, 处理器用于实现三维 超声图像的显示变换, 具体为根据超声波回波数据生成包含有被测对象的原始 超声三维体数据; 根据被测对象的图像特征从原始超声三维体数据中检测被测 对象的方位; 将被测对象的方位和期望方位相比较, 得到三维坐标系中的旋转 变换参数; 根据旋转变换参数对原始超声三维体数据进行旋转变换, 得到变换 后的三维体数据, 将变换后的三维体数据输出至显示器进行显示以得到超声图 像。 所述旋转变换可以由一个旋转轴加旋转角度实现, 相应的, 所述旋转变换 参数包括该旋转轴位置和旋转角度 (如欧拉角) ; 所述旋转轴和旋转角度可以 有多个。 当然, 所述旋转变换也可以由一个旋转矩阵实现, 相应的, 所述旋转 变换参数包括该旋转矩阵。
[0061] 所述图像特征包括: 在超声三维体数据中被测对象上一个或多个组织结构的解 剖学结构对应的图像特性。 图像特征可以有颜色特征、 纹理特征、 形状特征、 空间关系特征等。
[0062] 在一种实施例中, 请参阅图 2, 超声设备中用于实现三维超声图像的显示变换 的系统包括获取单元 410、 方位检测单元 420、 计算单元 430、 变换单元 440和图 像输出单元 450。 所述系统的功能全部或者部分由所述处理器 40完成。 [0063] 获取单元 410用于获取包含有被测对象的原始超声三维体数据。
[0064] 方位检测单元 420用于根据被测对象的图像特征从原始超声三维体数据中检测 被测对象方位。
[0065] 计算单元 430用于将被测对象的方位和期望方位相比较, 得到三维坐标系中的 旋转变换参数。
[0066] 变换单元 440用于根据所述旋转变换参数对原始超声三维体数据进行旋转变换
, 得到变换后的三维体数据。
[0067] 图像输出单元 450用于输出变换后的三维体数据给显示器显示以得到超声图像
, 即从显示器中看到该三维体数据对应的超声图像。
[0068] 基于上述超声设备, 对三维超声图像进行显示变换的具体处理过程如图 3所示
, 包括如下步骤:
[0069] S10、 获取单元 410获取包含有被测对象的原始超声三维体数据; 换而言之, 根 据超声波回波数据生成包含有被测对象的原始超声三维体数据。 具体的, 获取 单元 410根据超声探头 10从多个扫描平面扫描得到的超声波回波数据生成多个二 维图像; 根据超声探头 10的多个扫描平面的空间位置, 对所述多个二维图像进 行坐标转换, 并进行插值后生成被测对象的原始超声三维体数据。 获取单元 410 还可对生成的原始超声三维体数据进行图像优化处理, 例如, 进行平滑、 去噪 等, 便于后续处理。
[0070] S20、 方位检测单元 420根据被测对象的图像特征从原始超声三维体数据中检测 被测对象方位。
[0071] S30、 计算单元 430将被测对象的方位和期望方位相比较, 得到三维坐标系中的 旋转变换参数。
[0072] S40、 变换单元 440根据所述旋转变换参数对原始超声三维体数据进行旋转变换 , 得到变换后的三维体数据。 变换单元 440还可用于对三维体数据进行裁剪、 图 像编辑和体数据分割处理。 其中, 所述裁剪包括 VOI裁剪、 平面裁剪、 几何体裁 剪以及擦除 (橡皮擦) 等。
[0073] S50、 图像输出单元 450输出变换后的三维体数据给显示器 50进行显示以得到超 声图像。 以被测对象为胎儿脸部为例, 请一并参阅图 4和图 5, 原始超声三维体 数据未旋转吋在显示器 50中的画面如图 4所示, 胎儿脸部的位置并未正对着用户 , 导致左脸完全被遮挡, 而采用本实施例提供超声设备, 即可实现三维体数据 的自动旋转, 得到图 5所示的脸部图像, 使得用户能看到胎儿的脸部, 图 5中胎 儿脸部侧向 45°, 能够看见大部分五官, 轮廓清晰, 中心轮廓线也能很好地展示 。 由此被测对象的超声三维体数据可实现自动旋转到期望方位, 无需医生手动 调整, 提高了超声检査的效率。
[0074] 期望方位可预先由用户进行设置, 也可以采用默认的设置, 还可以是根据当前 的原始三维体数据而确定的最佳方位。 所述期望方位具体可包括预设视角。 根 据当前的原始三维体数据而确定最佳方位, 例如, 最佳方位可以是能完全将被 测对象在显示器 50屏幕的显示窗口中显示出来的方位。 具体的, 期望方位可以 是被测对象的超声图像在显示窗口中正对着用户显示吋的方位 (正面方位) , 即正视角; 也可以是在显示窗口中被测对象的三维体数据侧面对着用户显示吋 的方位 (侧面方位) , 即左视角或右视角; 还可以是在显示窗口中被测对象的 超声图像顶部对着用户显示吋的方位 (俯视方位) , 即俯视角。 当然, 期望方 位也可以是多个, 例如, 设置三个期望方位, 分别是一个正面方位、 侧面方位 和俯视方位等。 期望方位是多个吋, 可根据用户的选择或者预设的顺序依次显 示各个方位的超声图像。
[0075] 进一步的, 三维超声图像的显示变换系统还包括位置检测单元 460。 位置检测 单元 460在变换单元 440得到变换后的三维体数据之前或之后, 根据被测对象的 图像特征从原始超声三维体数据中检测被测对象的位置。 计算单元 430根据被测 对象的位置确定被测对象在显示窗口中的相对位置, 将被测对象的相对位置和 被测对象在显示窗口中的期望位置相比较, 得到三维坐标系中的位移向量或坐 标差值。 进而由变换单元 440将三维体数据根据位移向量或坐标差值进行移动, 使被测对象平移到显示窗口中的期望位置。 用户只需设置被测对象在显示窗口 中的期望位置, 即可实现三维超声图像的位置调整和移动, 加上上述的自动旋 转, 使得三维超声图像的显示变换可以多样, 可满足用户不同的超声检査需求 。 同样的, 期望位置可以预先设置, 或者根据当前原始三维体数据而确定的最 佳位置。 例如, 期望位置为被测对象处于显示窗口正中央的位置。 本实施例中 , 被测对象的位置, 为被测对象在三维坐标系中的位置坐标。 将三维坐标系设 定为以显示窗口为参照物的三维坐标系, 则可省略"根据被测对象的位置确定被 测对象在显示窗口中的相对位置"这一过程, 节约处理流程。
[0076] 方位检测单元 420根据被测对象的图像特征从原始超声三维体数据中检测被测 对象的方位、 位置检测单元 460根据被测对象的图像特征从原始超声三维体数据 中检测得到被测对象的位置, 可采用相同或不同的方式。 例如, 在第一实施例 中, 方位检测单元 420根据被测对象的图像特征从原始超声三维体数据中检测被 测对象的方位, 具体采用如下方式: 方位检测单元 420将原始超声三维体数据输 入机器学习模型后获得被测对象的方位, 机器学习模型利用已标记被测对象的 图像特征与方位之间对应关系的样本进行训练获得。 机器学习模型的训练可采 用深度学习、 支持向量机、 随机森林、 adaboost中的一种或多种进行。
[0077] 同样的, 位置检测单元 460也可采用上述方法检测被测对象的方位置, 具体的 : 位置检测单元 460将原始超声三维体数据输入机器学习模型后获得被测对象的 位置, 所述机器学习模型利用已标记被测对象的图像特征与位置之间对应关系 的样本进行训练获得。
[0078] 在第二实施例中, 方位检测单元 420根据被测对象的图像特征从原始超声三维 体数据中检测被测对象的方位, 具体采用如下方式: 方位检测单元 420根据被测 对象的图像特征从原始超声三维体数据中自动提取一个或多个组织结构, 根据 提取到的组织结构得到被测对象的方位。 其中, 自动提取一个或多个组织结构 , 可以采用图像处理算法提取一个或多个组织结构, 图像处理算法包括模板匹 配算法、 边缘提取算法、 图像变换算法、 形态学操作算法、 图像分割算法中的 一种或多种。 例如, 采用图像分割算法提取一个或多个组织结构, 图像分割算 法包括 gmphcut算法、 主动轮廓模型算法、 主动形状模型算法中的一种或多种。 一个或多个组织结构的提取, 也可以根据被测对象的图像特征, 从原始超声三 维体数据中采用图像处理算法构建被测对象的数学模型, 采用所述数学模型对 原始超声三维体数据进行分析, 从而提取一个或多个被测对象的组织结构。
[0079] 同样的, 位置检测单元 460根据被测对象的图像特征从原始超声三维体数据中 自动提取一个或多个组织结构, 根据提取到的组织结构得到被测对象的位置。 [0080] 在第三实施例中, 超声设备还可以包括人机交互装置, 如轨迹球、 鼠标、 键盘 、 触控屏等。 方位检测单元 420根据被测对象的图像特征从原始超声三维体数据 中检测被测对象的方位, 具体采用如下方式: 方位检测单元 420将原始超声三维 体数据输出至显示器进行显示获得超声图像, 检测用户通过人机交互装置在超 声图像上输入的 1个或多个标志点, 根据该标志点得到被测对象的方位, 此 1个 或多个标志点对应于超声图像上被测对象的 1个组织结构或多个组织结构。 即第 三实施例中, 被测对象的 1个组织结构或多个组织结构的识别由用户通过人机交 互装置完成, 属于半自动检测模式 (第一实施例和第二实施例为全自动检测)
[0081] 同样的, 位置检测单元 460将原始超声三维体数据输出至显示器进行显示获得 超声图像, 检测用户在超声图像上输入的 1个或多个标志点, 根据所述标志点得 到被测对象的位置。
[0082] 在第四实施例中, 三维超声图像的显示变换系统还可以将以上两个或三个实施 例提到被测对象方位或位置获取的方法一同使用, 即第四实施例中所述显示变 换系统可根据用户的选择来使用对应的方法以获取被测对象方位和位置。 采用 多种方法来确定被测对象的方位或位置, 可提高精度。
[0083] 请参阅图 6和图 7, 感兴趣区域 A可以是各个器官, 被测对象相应的是器官中需 要检査的部位。 本实施例中, 感兴趣区域 A为子宫, 被测对象为胎儿脸部, 相应 的, 所述胎儿脸部的图像特征包括: 位于胎儿脸部上的至少两个组织结构对应 的图像特性。 所述至少两个组织结构可从胎儿眼睛、 胎儿鼻子、 胎儿嘴、 胎儿 额头、 胎儿下巴、 胎儿脸颊、 胎儿脸轮廓和胎儿耳朵中选择。 显示变换系统根 据胎儿脸部的图像特征的位置识别出三维体数据中胎儿脸部的方位, 同吋也能 识别出胎儿脸部在显示窗口中的相对位置 (即胎儿脸部在三维坐标系中的坐标
[0084] 所述方位包括被测对象的正面朝向和顶面朝向。 本实施例中, 所述方位包括胎
L脸部的朝向和胎儿头顶的朝向。
[0085] 以被测对象为胎儿脸部为例, 对三维超声图像进行显示变换的具体处理过程, 具体包括: [0086] S10、 获取单元 410获取包含有胎儿脸部的原始超声三维体数据。
[0087] S20、 方位检测单元 420根据胎儿脸部的图像特征从原始超声三维体数据中检测 胎儿脸部的方位。
[0088] S40、 变换单元 440旋转胎儿脸部的方位, 得到变换后的三维体数据。
[0089] S50、 图像输出单元 450输出变换后的三维体数据给显示器 50, 由显示器 50显示 变换后的三维体数据, 获得预设视角的超声图像。
[0090] 在步骤 S40之前, 还包括步骤: 图像输出单元 450输出原始超声三维体数据给显 示器 50, 显示器 50显示原始超声三维体数据获得第一超声图像。 即用户通过显 示器 50看到反应原始超声三维体数据的第一超声图像。
[0091] 步骤 S40具体包括: 变换单元 440通过人机交互装置接收用户在所述第一超声图 像上输入 1个或多个标志点吋产生的第一旋转指令; 根据所述第一旋转指令, 以 所述 1个或多个标志点建立旋转中心轴, 旋转胎儿脸部的方位, 形成胎儿脸部位 于预设视角吋对应的三维体数据, 作为所述变换后的三维体数据。
[0092] 步骤 S50具体包括: 图像输出单元 450输出胎儿脸部位于预设视角吋对应的三维 体数据给显示器 50, 由显示器 50显示以该三维体数据, 从而获得预设视角的超 声图像。 所述预设视角至少包括以下之一: 胎儿脸部的正面, 胎儿脸部的侧面 , 和, 胎儿脸部斜前方 45度角。
[0093] 所述 1个或多个标志点对应于第一超声图像上的胎儿眼睛、 胎儿鼻子、 胎儿嘴 、 胎儿额头、 胎儿下巴、 胎儿脸颊和胎儿耳朵中的 1个组织结构或多个组织结构
[0094] 上述的旋转指令是根据标志点自动生成的, 当然, 旋转指令也可以由用户直接 输入。 例如, 在步骤 S40之前, 变换单元 440通过人机交互装置接收用户一次输 入获得的第二旋转指令。 进而在步骤 S40中, 变换单元 440根据所述第二旋转指 令, 旋转胎儿脸部的方位, 得到所述变换后的三维体数据。
[0095] 所述第二旋转指令可以与一个或多个预设视角对应起来, 例如, 第二旋转指令 与胎儿脸部的正面, 胎儿脸部斜前方 45度角和胎儿脸部的侧面对应起来, 人机 交互装置上设置三个对应的按键, 例如以 0°、 45°和 90°作为标识的按键。 用户按 下 0°按键, 由于 0°按键与胎儿脸部斜前方 45度角的预设角度对应, 则变换单元 44 0旋转胎儿脸部的方位, 使用户从显示器 50中看到胎儿脸部斜前方 45度角对应的 超声图像。 45°按键和 90°按键的操作以此类推。 当然, 也可以只设置一个按键, 通过按键按下的次数在上述三个预设角度中循环。
[0096] 请参阅图 6, 方位检测单元 420根据提取到的组织结构得到胎儿脸部的方位或根 据前述标志点得到胎儿脸部的方位具体包括:
[0097] 方位检测单元 420依据检测出的胎儿眼睛得到第一连线 Ll。 其中, 所述眼睛包 括双眼的眼角。 例如, 一个实施例中, 方位检测单元 420对双眼的眼角进行连线 , 得到第一连线 Ll。 当然, 检测出的胎儿眼睛可以是从原始超声三维体数据中 自动检测提取获得的, 还可以是基于用户在超声图像上输入的关于胎儿眼睛位 置的标志点。
[0098] 方位检测单元 420根据前述第一连线 L1的中点、 胎儿鼻子、 胎儿嘴中的任意两 个得到第二连线 L2。 例如, 一个实施例中, 胎儿鼻子可用鼻尖表示。 将第一连 线 L1的中点与胎儿鼻子的鼻尖进行连线、 或者拟合一条最近的直线得到第二连 线 L2, 如图 6所示。 胎儿嘴可用嘴角和 /或嘴的中点表示。 在其他实施例中, 将第 一连线 L1的中点与胎儿嘴的中点进行连线得到第二连线 L2, 如图 7所示。 其他的 排列组合以此类推, 不赘述。 当然, 还可以对原始超声三维体数据中胎儿脸部 正中的脸轮廓线上的多点进行连线或拟合一条最近的直线得到第二连线 L2, 如 图 8所示。
[0099] 方位检测单元 420根据第一连线 L1和第二连线 L2可得到胎儿脸部的方位。 具体 的, 胎儿脸部的方位至少包括脸部左右方向、 脸部上下方向 (胎儿头顶的朝向 ) 和脸部前后方向 (胎儿脸部朝向) 中的两者, 本实施例所述的方位包括上述 三者。 方位检测单元 420将第一连线 L1和第二连线 L2形成一个平面, 该平面的法 线向三维体数据外部延伸的方向即为胎儿脸部朝向, 或者根据该平面以及鼻尖 为脸部的高点这一特征, 即可确定胎儿脸部朝向, 即胎儿脸部的前后方向。 方 位检测单元 420根据胎儿脸部朝向和第一连线 L1的两个延伸方向, 即可确定脸部 左右方向。 同样的, 方位检测单元 420根据胎儿脸部左右方向和第二连线 L2的两 个延伸方向, 即可确定脸部上下方向。
[0100] 无论初始检测到的是哪个组织结构, 都可以依据此组织结构的标记点或自动提 取来识别与其他组织结构的位置对应关系, 从而检测中被测对象在原始超声三 维体数据中的方位。 例如, 前述实施例中第一连线源于胎儿眼睛的检测, 当然 还可以用胎儿鼻子、 胎儿额头、 胎儿下巴、 胎儿脸颊、 胎儿耳朵、 胎儿脸轮廓 和胎儿嘴中的任意一个去替换胎儿眼睛来获得第一连线, 并依据其余的组织结 构来获得第二连线, 从而用以确定胎儿脸部的方位。 可以, 在其中一个实施例 中, 根据胎儿眼睛、 胎儿鼻子、 胎儿嘴、 胎儿额头、 胎儿下巴、 胎儿脸颊、 胎 儿脸轮廓和胎儿耳朵等中至少两个组织结构的解剖学结构对应超声三维体数据 中的位置的连线组合, 来定位检测胎儿脸部在原始超声三维体数据中的方位。
[0101] 前述超声图像包括反映胎儿脸部的虚拟渲染图。 图像输出单元 450对原始超声 三维体数据或者变换后的三维体数据进行渲染, 根据变换后的三维体数据绘制 所述虚拟渲染图, 将虚拟渲染图输出至显示器 50进行显示。 由此, 用户可以在 显示器 50上看到能反映胎儿脸部长相的虚拟渲染图。
[0102] 进一步的, 前述超声图像还包括胎儿脸部临床标准切面的剖面图; 图像输出单 元 450根据原始三维体数据提取胎儿脸部临床标准切面, 绘制并得到胎儿脸部临 床标准切面的剖面图数据, 将前述剖面图数据输出至显示器 50进行显示以得到 胎儿脸部临床标准切面的剖面图。 胎儿脸部临床标准切面可以是双眼眶水平横 切面、 正中矢状切面、 面额冠状切面和鼻唇冠状切面中的一种或多种。 所述剖 面图可以是横切面图、 矢状切面图、 冠状切面图或者其他任意角度的切面图。 图像输出单元 450还可以对所述剖面图进行虚拟渲染, 得到对应的渲染图输出显 示。
[0103] 进一步的, 三维超声图像的显示变换系统还包括设置单元 (图中未示出) , 设 置单元负责系统中其它单元工作模式与参数的设定。 具体的, 设置单元提供是 否启用变换单元 440对原始超声三维体数据进行旋转变换、 移动的选择功能, 如 果启用, 则是否启用图像输出单元 450获取变换后的三维体数据的选择功能; 在 接受到用户的选择指令后, 执行对应的启动或关闭工作。 设置单元还提供在进 行三维体数据的旋转和 /或移动之前, 是否启动方位检测单元 420/位置检测单元 4 60检测被测对象的方位和 /或位置的选择功能; 如果存在检测环节, 则选择不同 的检测模式, 如不同的检测目标 (组织结构、 标志点、 脸部位置、 脸部方向等 等) 、 不同的检测方法 (图像处理方法、 图像分割方法、 机器学习方法、 是否 构建脸部模型等等) 、 全自动检测或是半自动检测、 半自动检测吋需要用户指 定何种信息等等。
[0104] 超声设备还可以包括调整单元 (图中未示出) , 调整单元给用户提供手动调整 虚拟渲染图和胎儿脸部临床标准切面的剖面图的功能。 具体的, 调整单元用于 根据用户输入的指令, 调整所述预设视角 (虚拟渲染图的视角) , 例如从当前 视角调整至胎儿脸部的正面、 胎儿脸部侧面、 俯视 /仰视胎儿脸部的视角、 以及 在这些视角的基础上偏转一定角度形成的视角及其组合等。 调整单元也可根据 用户输入的指令, 调整胎儿脸部临床标准切面的剖面图, 例如通过对三维体数 据进行旋转和 /或移动, 从而调整剖面图的角度和 /或位置以获取更佳的标准切面 剖面图。
[0105] 本领域技术人员可以理解, 上述实施方式中各种方法的全部或部分功能可以通 过硬件 (如上述的处理器) 的方式实现, 也可以通过计算机程序的方式实现。 当上述实施方式中全部或部分功能通过计算机程序的方式实现吋, 该程序可以 存储于一计算机可读存储介质中, 存储介质可以包括: 只读存储器、 随机存储 器、 磁盘、 光盘、 硬盘等, 通过计算机执行该程序以实现上述功能。 例如, 将 程序存储在设备的存储器中, 当通过处理器执行存储器中程序, 即可实现上述 全部或部分功能。 另外, 当上述实施方式中全部或部分功能通过计算机程序的 方式实现吋, 该程序也可以存储在服务器、 另一计算机、 磁盘、 光盘、 闪存盘 或移动硬盘等存储介质中, 通过下载或复制保存到本地设备的存储器中, 或对 本地设备的系统进行版本更新, 当通过处理器执行存储器中的程序吋, 即可实 现上述实施方式中全部或部分功能。
[0106] 以上应用了具体个例对本发明进行阐述, 只是用于帮助理解本发明, 并不用以 限制本发明。 对于本发明所属技术领域的技术人员, 依据本发明的思想, 还可 以做出若干简单推演、 变形或替换。

Claims

权利要求书
一种三维超声图像显示变换方法,其特征在于包括:
获取包含有被测对象的原始超声三维体数据;
根据被测对象的图像特征从原始超声三维体数据中检测被测对象的方 位;
将被测对象的方位和期望方位相比较, 得到三维坐标系中的旋转变换 参数;
根据所述旋转变换参数对原始超声三维体数据进行旋转变换, 得到变 换后的三维体数据; 和,
输出变换后的三维体数据。
如权利要求 1所述的方法, 其特征在于, 所述图像特征包括: 在超声 三维体数据中被测对象上一个或多个组织结构的解剖学结构对应的图 像特性。
如权利要求 1所述的方法, 其特征在于, 根据被测对象的图像特征从 原始超声三维体数据中检测被测对象的方位的步骤采用以下方式之一 实现:
将原始超声三维体数据输入机器学习模型后获得被测对象的方位, 所 述机器学习模型利用已标记被测对象的图像特征与方位之间对应关系 的样本进行训练获得;
将原始超声三维体数据输出至显示器进行显示获得超声图像, 检测用 户在超声图像上输入的 1个或多个标志点, 根据所述标志点得到被测 对象的方位, 所述 1个或多个标志点对应于超声图像上被测对象的 1个 组织结构或多个组织结构; 和,
根据被测对象的图像特征从原始超声三维体数据中自动提取一个或多 个组织结构, 根据提取到的组织结构得到被测对象的方位。
如权利要求 1或 3所述的方法, 其特征在于, 被测对象为胎儿脸部。 如权利要求 2或 3所述的方法, 其特征在于, 所述 1个或多个组织结构 从胎儿眼睛、 胎儿鼻子、 胎儿额头、 胎儿下巴、 胎儿脸颊、 胎儿耳朵 、 胎儿脸轮廓和胎儿嘴中选择。
如权利要求 5所述的方法, 其特征在于, 所述根据提取到的组织结构 得到被测对象的方位或所述根据所述标志点得到被测对象的方位的步 骤中包括:
依据检测出的胎儿眼睛, 得到第一连线;
根据第一连线的中点、 胎儿鼻子、 胎儿嘴中的任意两个得到第二连线 , 或者, 依据胎儿脸部正中的胎儿脸轮廓上的多点得到第二连线; 根据第一连线和第二连线可得到胎儿脸部的方位。
如权利要求 4所述的方法, 其特征在于, 所述方位包括胎儿脸部的朝 向和胎儿头顶的朝向。
如权利要求 4所述的方法, 其特征在于, 输出变换后的三维体数据的 步骤包括: 对原始超声三维体数据或者变换后的三维体数据进行渲染 , 根据变换后的三维体数据绘制反映胎儿脸部的虚拟渲染图, 并输出 所述虚拟渲染图。
如权利要求 8所述的方法, 其特征在于, 输出变换后的三维体数据的 步骤还包括: 根据三维体数据提取胎儿脸部临床标准切面, 绘制胎儿 脸部临床标准切面的剖面图, 并输出所述胎儿脸部临床标准切面的剖 面图。
如权利要求 1所述的方法, 其特征在于, 得到变换后的三维体数据之 前或之后还包括步骤: 根据被测对象的图像特征从原始超声三维体数 据中检测被测对象的位置; 根据被测对象的位置确定被测对象在显示 窗口中的相对位置, 将被测对象的相对位置和被测对象在显示窗口中 的期望位置相比较, 得到三维坐标系中的位移向量或坐标差值; 将三 维体数据根据位移向量或坐标差值进行坐标变换, 使被测对象平移到 显示窗口中的期望位置。
一种三维超声图像显示变换方法,其特征在于包括:
获取包含有胎儿脸部的原始超声三维体数据;
根据胎儿脸部的图像特征从原始超声三维体数据中检测胎儿脸部的方 位;
旋转胎儿脸部的方位, 得到变换后的三维体数据; 和,
显示变换后的三维体数据, 获得预设视角的超声图像。
[权利要求 12] 如权利要求 11所述的方法, 其特征在于, 所述图像特征包括: 位于胎 儿脸部上的至少两个组织结构对应的图像特性。
[权利要求 13] 如权利要求 12所述的方法, 其特征在于, 所述至少两个组织结构可从 胎儿眼睛、 胎儿鼻子、 胎儿嘴、 胎儿额头、 胎儿下巴、 胎儿脸颊、 胎 儿脸轮廓和胎儿耳朵中选择。
[权利要求 14] 如权利要求 11所述的方法, 其特征在于, 在所述旋转胎儿脸部的方位
, 得到变换后的三维体数据之前还包括:
显示原始超声三维体数据获得第一超声图像, 接收用户在所述第一超 声图像上输入 1个或多个标志点吋产生的第一旋转指令;
所述旋转胎儿脸部的方位, 得到变换后的三维体数据包括: 根据所述第一旋转指令, 以所述 1个或多个标志点建立旋转中心轴, 旋转胎儿脸部的方位, 形成胎儿脸部位于预设视角吋对应的三维体数 据, 作为所述变换后的三维体数据; 和,
显示胎儿脸部位于预设视角吋对应的三维体数据, 获得所述预设视角 的超声图像。
[权利要求 15] 如权利要求 11所述的方法, 其特征在于, 在所述旋转胎儿脸部的方位 , 得到变换后的三维体数据之前还包括:
接收用户一次输入获得的第二旋转指令; 和,
所述旋转胎儿脸部的方位, 得到变换后的三维体数据和显示变换后的 三维体数据包括:
根据所述第二旋转指令, 旋转胎儿脸部的方位, 得到所述变换后的三 维体数据, 和,
显示所述显示变换后的三维体数据, 获得所述预设视角的超声图像。
[权利要求 16] 如权利要求 11或 14所述的方法, 其特征在于, 所述预设视角至少包括 以下之一: 胎儿脸部的正面, 胎儿脸部的侧面, 和, 胎儿脸部斜前方 45度角。
如权利要求 14所述的方法, 其特征在于, 所述 1个或多个标志点对应 于第一超声图像上的胎儿眼睛、 胎儿鼻子、 胎儿嘴、 胎儿额头、 胎儿 下巴、 胎儿脸颊和胎儿耳朵中的 1个组织结构或多个组织结构。
如权利要求 11所述的方法, 其特征在于, 所述根据胎儿脸部的图像特 征从原始超声三维体数据中检测胎儿脸部的方位的步骤采用以下方式 之一实现:
将原始超声三维体数据输入机器学习模型后获得胎儿脸部的方位, 所 述机器学习模型利用已标记胎儿脸部的图像特征与方位之间对应关系 的样本进行训练获得;
将原始超声三维体数据输出至显示器进行显示获得超声图像, 检测用 户在超声图像上输入的 1个或多个标志点, 根据所述标志点得到胎儿 脸部的方位, 所述 1个或多个标志点对应于超声图像上的胎儿眼睛、 胎儿鼻子、 胎儿嘴、 胎儿额头、 胎儿下巴、 胎儿脸颊、 胎儿脸轮廓和 胎儿耳朵中的 1个组织结构或多个组织结构; 和,
根据胎儿脸部的图像特征从原始超声三维体数据中自动提取 1个或多 个组织结构, 根据自动提取的 1个或多个组织结构得到胎儿脸部的方 位。
一种超声设备,其特征在于包括:
显示器;
超声探头, 用于向生物组织内的感兴趣区域发射超声波, 并接收超声 波的回波;
发射 /接收序列控制器, 用于产生发射序列和 /或接收序列, 并将发射 序列和 /或接收序列输出至超声探头, 控制超声探头向感兴趣区域发 射超声波并接收超声波的回波;
处理器, 用于根据超声波回波数据生成包含有被测对象的原始超声三 维体数据; 根据被测对象的图像特征从原始超声三维体数据中检测被 测对象的方位; 将被测对象的方位和期望方位相比较, 得到三维坐标 系中的旋转变换参数; 根据所述旋转变换参数对原始超声三维体数据 进行旋转变换, 得到变换后的三维体数据, 将变换后的三维体数据输 出至显示器进行显示以得到超声图像。
如权利要求 19所述的超声设备, 其特征在于, 所述图像特征包括: 位 于胎儿脸部上的至少两个组织结构对应的图像特性。
如权利要求 19所述的超声设备, 其特征在于, 所述处理器根据被测对 象的图像特征从原始超声三维体数据中检测被测对象的方位采用以下 方式之一实现:
所述处理器将原始超声三维体数据输入机器学习模型后获得被测对象 的方位, 所述机器学习模型利用已标记被测对象的图像特征与方位之 间对应关系的样本进行训练获得;
所述处理器将原始超声三维体数据输出至显示器进行显示获得超声图 像; 检测用户在超声图像上输入一个或多个标志点; 根据所述标志点 得到被测对象的方位; 和,
所述处理器根据被测对象的图像特征从原始超声三维体数据中自动提 取一个或多个组织结构, 根据提取到的组织结构得到被测对象的方位 如权利要求 19所述的超声设备, 其特征在于, 被测对象为胎儿脸部。 如权利要求 20所述的超声设备, 其特征在于, 所述 1个或多个组织结 构从胎儿眼睛、 胎儿鼻子、 胎儿额头、 胎儿下巴、 胎儿脸颊、 胎儿耳 朵、 胎儿脸轮廓和胎儿嘴中选择。
如权利要求 23所述的超声设备, 其特征在于, 所述处理器根据提取到 的组织结构得到被测对象的方位或根据所述标志点得到被测对象的方 位具体包括:
处理器依据检测出的胎儿眼睛得到第一连线; 根据第一连线的中点、 胎儿鼻子、 胎儿嘴中的任意两个得到第二连线, 或者, 依据胎儿脸部 正中的胎儿轮廓线上的多点得到第二连线; 根据第一连线和第二连线 可得到胎儿脸部的方位。 如权利要求 22所述的超声设备, 其特征在于, 所述方位包括胎儿脸部 的朝向和胎儿头顶的朝向。
如权利要求 22所述的超声设备, 其特征在于, 所述超声图像包括反映 胎儿脸部的虚拟渲染图; 处理器对原始超声三维体数据或者变换后的 三维体数据进行渲染, 将变换后且经过了渲染的三维体数据输出至显 示器进行显示以得到所述虚拟渲染图。
如权利要求 26所述的超声设备, 其特征在于, 所述超声图像还包括胎 儿脸部临床标准切面的剖面图; 所述处理器根据三维体数据提取胎儿 脸部临床标准切面, 绘制并得到胎儿脸部临床标准切面的剖面图数据 , 将所述剖面图数据输出至显示器进行显示以得到所述胎儿脸部临床 标准切面的剖面图。
如权利要求 19所述的超声设备, 其特征在于, 所述处理器在得到变换 后的三维体数据之前或之后, 根据被测对象的图像特征从原始超声三 维体数据中检测被测对象的位置; 根据被测对象的位置确定被测对象 在显示窗口中的相对位置, 将被测对象的相对位置和被测对象在显示 窗口中的期望位置相比较, 得到三维坐标系中的位移向量或坐标差值 ; 将三维体数据根据位移向量或坐标差值进行移动, 使被测对象平移 到显示窗口中的期望位置。
一种超声设备, 其特征在于包括:
显示器;
超声探头, 用于向生物组织内的感兴趣区域发射超声波, 并接收超声 波的回波;
发射 /接收序列控制器, 用于产生发射序列和 /或接收序列, 并将发射 序列和 /或接收序列输出至超声探头, 控制超声探头向感兴趣区域发 射超声波并接收超声波的回波;
处理器, 用于根据超声波回波数据生成包含有胎儿脸部的原始超声三 维体数据; 根据胎儿脸部的图像特征从原始超声三维体数据中检测被 测对象方位; 旋转胎儿脸部的方位, 得到变换后的三维体数据, 输出 变换后的三维体数据给显示器显示以得到预设视角的超声图像。 如权利要求 29所述的超声设备, 其特征在于, 所述图像特征包括: 位 于胎儿脸部上的至少两个组织结构对应的图像特性。
如权利要求 30所述的超声设备, 其特征在于, 所述至少两个组织结构 可从胎儿眼睛、 胎儿鼻子、 胎儿嘴、 胎儿额头、 胎儿下巴、 胎儿脸颊 、 胎儿脸轮廓和胎儿耳朵中选择。
如权利要求 29所述的超声设备, 其特征在于, 处理器具体用于: 根据 超声波回波数据生成包含有胎儿脸部的原始超声三维体数据; 根据胎 儿脸部的图像特征从原始超声三维体数据中检测被测对象方位; 通过 显示器显示原始超声三维体数据获得第一超声图像, 接收用户在所述 第一超声图像上输入 1个或多个标志点吋产生的第一旋转指令; 根据 所述第一旋转指令, 以所述 1个或多个标志点建立旋转中心轴, 旋转 胎儿脸部的方位, 形成胎儿脸部位于预设视角吋对应的三维体数据, 作为所述变换后的三维体数据, 输出变换后的三维体数据给显示器显 示以得到预设视角的超声图像。
如权利要求 29所述的超声设备, 其特征在于, 处理器具体用于: 根据 超声波回波数据生成包含有胎儿脸部的原始超声三维体数据; 根据胎 儿脸部的图像特征从原始超声三维体数据中检测被测对象方位; 接收 用户一次输入获得的第二旋转指令; 根据所述第二旋转指令, 旋转胎 儿脸部的方位, 得到所述变换后的三维体数据, 输出变换后的三维体 数据给显示器显示以得到预设视角的超声图像。
如权利要求 29或 32所述的超声设备, 其特征在于, 所述预设视角至少 包括以下之一: 胎儿脸部的正面, 胎儿脸部的侧面, 和, 胎儿脸部斜 前方 45度角。
如权利要求 32所述的超声设备, 其特征在于, 所述 1个或多个标志点 对应于第一超声图像上的胎儿眼睛、 胎儿鼻子、 胎儿嘴、 胎儿额头、 胎儿下巴、 胎儿脸颊和胎儿耳朵中的 1个组织结构或多个组织结构。 如权利要求 29所述的超声设备, 其特征在于, 所述处理器根据胎儿脸 部的图像特征从原始超声三维体数据中检测胎儿脸部的方位, 采用以 下方式之一实现:
将原始超声三维体数据输入机器学习模型后获得胎儿脸部的方位, 所 述机器学习模型利用已标记胎儿脸部的图像特征与方位之间对应关系 的样本进行训练获得;
将原始超声三维体数据输出至显示器进行显示获得超声图像, 检测用 户在超声图像上输入的 1个或多个标志点, 根据所述标志点得到胎儿 脸部的方位, 所述 1个或多个标志点对应于超声图像上的胎儿眼睛、 胎儿鼻子、 胎儿嘴、 胎儿额头、 胎儿下巴、 胎儿脸颊、 胎儿脸轮廓和 胎儿耳朵中的 1个组织结构或多个组织结构; 和, 根据胎儿脸部的图像特征从原始超声三维体数据中自动提取 1个或多 个组织结构, 根据自动提取的 1个或多个组织结构得到胎儿脸部的方 位。
[权利要求 37] —种超声设备, 其特征在于包括:
存储器, 用于存储程序;
处理器, 用于通过执行所述存储器存储的程序以实现如权利要求 1-18 中任一项所述的方法。
[权利要求 38] —种计算机可读存储介质, 其特征在于, 包括程序, 所述程序能够被 处理器执行以实现如权利要求 1-18中任一项所述的方法。
[权利要求 39] —种三维超声图像的显示变换系统,其特征在于包括:
用于获取包含有被测对象的原始超声三维体数据的获取单元; 用于根据被测对象的图像特征从原始超声三维体数据中检测被测对象 方位的方位检测单元;
用于将被测对象的方位和期望方位相比较, 得到三维坐标系中的旋转 变换参数的计算单元;
用于根据所述旋转变换参数对原始超声三维体数据进行旋转变换, 得 到变换后的三维体数据的变换单元;
用于输出变换后的三维体数据给显示器显示以得到超声图像的图像输 出单元。
[权利要求 40] 如权利要求 39所述的系统,其特征在于, 所述图像输出单元具体用于 , 对原始超声三维体数据或者变换后的三维体数据进行渲染, 根据变 换后的三维体数据绘制反映胎儿脸部的虚拟渲染图, 并输出所述虚拟 渲染图; 和 /或根据三维体数据提取胎儿脸部临床标准切面, 绘制胎 儿脸部临床标准切面的剖面图, 并输出所述胎儿脸部临床标准切面的 剖面图。
[权利要求 41] 一种三维超声图像的显示变换系统,其特征在于包括:
用于获取包含有胎儿脸部的原始超声三维体数据的获取单元; 用于根据胎儿脸部的图像特征从原始超声三维体数据中检测被测对象 方位的方位检测单元;
用于旋转胎儿脸部的方位, 得到变换后的三维体数据的变换单元; 用于输出变换后的三维体数据给显示器显示以得到预设视角的超声图 像的图像输出单元。
PCT/CN2017/084197 2017-05-12 2017-05-12 一种超声设备及其三维超声图像的显示变换方法、系统 WO2018205274A1 (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202211223153.3A CN115486877A (zh) 2017-05-12 2017-05-12 一种超声设备及其显示三维超声图像的方法
CN201780079290.5A CN110087555B (zh) 2017-05-12 2017-05-12 一种超声设备及其三维超声图像的显示变换方法、系统
US16/612,745 US11521363B2 (en) 2017-05-12 2017-05-12 Ultrasonic device, and method and system for transforming display of three-dimensional ultrasonic image thereof
PCT/CN2017/084197 WO2018205274A1 (zh) 2017-05-12 2017-05-12 一种超声设备及其三维超声图像的显示变换方法、系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/084197 WO2018205274A1 (zh) 2017-05-12 2017-05-12 一种超声设备及其三维超声图像的显示变换方法、系统

Publications (1)

Publication Number Publication Date
WO2018205274A1 true WO2018205274A1 (zh) 2018-11-15

Family

ID=64104151

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2017/084197 WO2018205274A1 (zh) 2017-05-12 2017-05-12 一种超声设备及其三维超声图像的显示变换方法、系统

Country Status (3)

Country Link
US (1) US11521363B2 (zh)
CN (2) CN115486877A (zh)
WO (1) WO2018205274A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111403007A (zh) * 2018-12-29 2020-07-10 深圳迈瑞生物医疗电子股份有限公司 一种超声成像的优化方法、超声成像系统和计算机可读存储介质
CN112237446A (zh) * 2019-07-16 2021-01-19 通用电气精准医疗有限责任公司 用于处理和显示胎儿图像的方法和系统
US11521363B2 (en) * 2017-05-12 2022-12-06 Shenzhen Mindray Bio-Medical Electronics Co., Ltd. Ultrasonic device, and method and system for transforming display of three-dimensional ultrasonic image thereof

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019021456A1 (ja) * 2017-07-28 2019-01-31 株式会社ソニー・インタラクティブエンタテインメント 学習装置、認識装置、学習方法、認識方法及びプログラム
WO2021056498A1 (zh) * 2019-09-29 2021-04-01 深圳迈瑞生物医疗电子股份有限公司 超声成像方法、系统及计算机可读存储介质
CN111161429B (zh) * 2019-12-19 2023-09-26 武汉中科医疗科技工业技术研究院有限公司 模型图像显示方法、装置、计算机设备和存储介质
CN111105348A (zh) * 2019-12-25 2020-05-05 北京市商汤科技开发有限公司 图像处理方法及装置、图像处理设备及存储介质
WO2023245505A1 (en) * 2022-06-22 2023-12-28 Syngular Technology Limited A system and a method for 3d image processing, and a method for rendering a 3d image
CN116051553B (zh) * 2023-03-30 2023-06-09 天津医科大学朱宪彝纪念医院(天津医科大学代谢病医院、天津代谢病防治中心) 一种在三维医学模型内部进行标记的方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006167100A (ja) * 2004-12-15 2006-06-29 Toshiba Corp 超音波診断装置
CN101035470A (zh) * 2004-10-08 2007-09-12 皇家飞利浦电子股份有限公司 具有图像反向和颠倒的三维诊断超声成像系统
CN101102721A (zh) * 2005-02-09 2008-01-09 株式会社日立医药 超声波诊断装置以及超声波摄像方法
CN101534717A (zh) * 2006-12-28 2009-09-16 株式会社东芝 超声波图像取得装置、以及超声波图像的取得方法
EP2365356A2 (en) * 2010-03-10 2011-09-14 Samsung Medison Co., Ltd. Three-dimensional (3D) ultrasound system for scanning object inside human body and method for operating 3D ultrasound system
US20110282202A1 (en) * 2010-05-17 2011-11-17 Medison Co, Ltd. Display system and method of ultrasound apparatus
CN105433981A (zh) * 2015-12-07 2016-03-30 深圳开立生物医疗科技股份有限公司 一种超声成像方法、装置及其超声设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100948047B1 (ko) * 2006-06-29 2010-03-19 주식회사 메디슨 초음파 영상을 형성하는 초음파 시스템 및 방법
US8556814B2 (en) * 2007-10-04 2013-10-15 Siemens Medical Solutions Usa, Inc. Automated fetal measurement from three-dimensional ultrasound data
KR101150005B1 (ko) * 2008-11-19 2012-06-01 삼성메디슨 주식회사 Imt 측정 영역 설정 방법 및 초음파 장치
WO2010109514A1 (ja) * 2009-03-23 2010-09-30 株式会社島津製作所 超音波診断装置
EP2312534A3 (en) * 2009-10-15 2011-07-06 Hitachi Aloka Medical, Ltd. Ultrasonic volume data processing device
CN103068315B (zh) * 2010-08-06 2015-03-25 株式会社日立医疗器械 超声波图像装置和使用超声波图像的三维图像显示方法
KR101386102B1 (ko) * 2012-03-09 2014-04-16 삼성메디슨 주식회사 초음파 영상 제공 방법 및 그를 위한 초음파 장치
JP2015171476A (ja) * 2014-03-12 2015-10-01 日立アロカメディカル株式会社 超音波診断装置及び超音波画像処理方法
RU2689172C2 (ru) 2014-05-09 2019-05-24 Конинклейке Филипс Н.В. Системы визуализации и способы для расположения трехмерного ультразвукового объема в требуемой ориентации
JP6196951B2 (ja) * 2014-08-22 2017-09-13 株式会社日立製作所 超音波診断画像生成装置、及び方法
KR102270718B1 (ko) * 2014-11-11 2021-06-30 삼성메디슨 주식회사 초음파 진단장치, 그에 따른 초음파 진단 장치의 동작 방법 및 그에 따른 컴퓨터 판독 가능한 저장매체
KR102388130B1 (ko) * 2015-01-12 2022-04-19 삼성메디슨 주식회사 의료 영상 표시 방법 및 장치
CN110063737B (zh) 2015-03-03 2023-08-01 东芝医疗系统株式会社 医学图像处理装置和方法、医学图像诊断装置
WO2016176863A1 (zh) * 2015-05-07 2016-11-10 深圳迈瑞生物医疗电子股份有限公司 三维超声成像方法和装置
EP3106096B1 (en) * 2015-06-12 2020-02-19 Samsung Medison Co., Ltd. Method and apparatus for displaying ultrasound images
KR20170068944A (ko) * 2015-12-10 2017-06-20 삼성메디슨 주식회사 초음파 영상을 디스플레이하는 방법 및 이를 위한 초음파 장치
CN106963378A (zh) 2017-03-03 2017-07-21 华南理工大学 一种基于电磁定位与超声成像的胎头方位测量方法
CN115486877A (zh) * 2017-05-12 2022-12-20 深圳迈瑞生物医疗电子股份有限公司 一种超声设备及其显示三维超声图像的方法
EP3435324A1 (en) * 2017-07-27 2019-01-30 Koninklijke Philips N.V. Fetal ultrasound image processing
US20200113544A1 (en) * 2018-10-15 2020-04-16 General Electric Company Method and system for enhanced visualization of ultrasound probe positioning feedback
EP3685739A1 (en) * 2019-01-09 2020-07-29 Nemo Healthcare B.V. Device for classifying fetal ecg

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101035470A (zh) * 2004-10-08 2007-09-12 皇家飞利浦电子股份有限公司 具有图像反向和颠倒的三维诊断超声成像系统
JP2006167100A (ja) * 2004-12-15 2006-06-29 Toshiba Corp 超音波診断装置
CN101102721A (zh) * 2005-02-09 2008-01-09 株式会社日立医药 超声波诊断装置以及超声波摄像方法
CN101534717A (zh) * 2006-12-28 2009-09-16 株式会社东芝 超声波图像取得装置、以及超声波图像的取得方法
EP2365356A2 (en) * 2010-03-10 2011-09-14 Samsung Medison Co., Ltd. Three-dimensional (3D) ultrasound system for scanning object inside human body and method for operating 3D ultrasound system
US20110282202A1 (en) * 2010-05-17 2011-11-17 Medison Co, Ltd. Display system and method of ultrasound apparatus
CN105433981A (zh) * 2015-12-07 2016-03-30 深圳开立生物医疗科技股份有限公司 一种超声成像方法、装置及其超声设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11521363B2 (en) * 2017-05-12 2022-12-06 Shenzhen Mindray Bio-Medical Electronics Co., Ltd. Ultrasonic device, and method and system for transforming display of three-dimensional ultrasonic image thereof
CN111403007A (zh) * 2018-12-29 2020-07-10 深圳迈瑞生物医疗电子股份有限公司 一种超声成像的优化方法、超声成像系统和计算机可读存储介质
CN112237446A (zh) * 2019-07-16 2021-01-19 通用电气精准医疗有限责任公司 用于处理和显示胎儿图像的方法和系统

Also Published As

Publication number Publication date
US20200202635A1 (en) 2020-06-25
US11521363B2 (en) 2022-12-06
CN110087555B (zh) 2022-10-25
CN110087555A (zh) 2019-08-02
CN115486877A (zh) 2022-12-20

Similar Documents

Publication Publication Date Title
WO2018205274A1 (zh) 一种超声设备及其三维超声图像的显示变换方法、系统
JP5606076B2 (ja) 超音波診断装置、医用画像処理装置及び医用画像処理プログラム
CN110087550B (zh) 一种超声图像显示方法、设备及存储介质
JP5462598B2 (ja) 超音波診断システム
JP6629094B2 (ja) 超音波診断装置、医用画像処理装置及び医用画像処理プログラム
US20060034513A1 (en) View assistance in three-dimensional ultrasound imaging
US11607200B2 (en) Methods and system for camera-aided ultrasound scan setup and control
US9730675B2 (en) Ultrasound imaging system and an ultrasound imaging method
CN102283674A (zh) 用于在超声数据中确定感兴趣区的方法和系统
JP7010948B2 (ja) 胎児超音波撮像
EP3139838B1 (en) Imaging systems and methods for positioning a 3d ultrasound volume in a desired orientation
US11931201B2 (en) Device and method for obtaining anatomical measurements from an ultrasound image
US11337677B2 (en) Volume rendered ultrasound imaging
KR20110064842A (ko) 2차원 초음파 영상과 3차원 초음파 영상의 합성영상을 제공하는 초음파 시스템 및 방법
US11484286B2 (en) Ultrasound evaluation of anatomical features
WO2022099704A1 (zh) 中晚孕期胎儿的超声成像方法和超声成像系统
WO2020133236A1 (zh) 一种脊柱的成像方法以及超声成像系统
CN111403007A (zh) 一种超声成像的优化方法、超声成像系统和计算机可读存储介质
WO2022134049A1 (zh) 胎儿颅骨的超声成像方法和超声成像系统
KR20160086126A (ko) 초음파 진단 방법 및 장치
CN115886876A (zh) 胎儿姿态的评估方法、超声成像方法及超声成像系统
CN114098687A (zh) 用于超声运动模式的自动心率测量的方法和系统
CN116327237A (zh) 超声成像系统及方法、超声图像处理系统及方法
CN114680928A (zh) 超声扫查反馈系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17908783

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17908783

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC, EPO FORM 1205A DATED 10/07/20

122 Ep: pct application non-entry in european phase

Ref document number: 17908783

Country of ref document: EP

Kind code of ref document: A1