WO2020153583A1 - 초음파 영상 장치 및 그 표시 방법 - Google Patents

초음파 영상 장치 및 그 표시 방법 Download PDF

Info

Publication number
WO2020153583A1
WO2020153583A1 PCT/KR2019/014727 KR2019014727W WO2020153583A1 WO 2020153583 A1 WO2020153583 A1 WO 2020153583A1 KR 2019014727 W KR2019014727 W KR 2019014727W WO 2020153583 A1 WO2020153583 A1 WO 2020153583A1
Authority
WO
WIPO (PCT)
Prior art keywords
scanning line
ultrasound
body shape
user
information
Prior art date
Application number
PCT/KR2019/014727
Other languages
English (en)
French (fr)
Inventor
박진기
이진용
장혁재
Original Assignee
삼성메디슨 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성메디슨 주식회사 filed Critical 삼성메디슨 주식회사
Priority to EP19911738.3A priority Critical patent/EP3915486A4/en
Priority to US17/424,111 priority patent/US20220061817A1/en
Publication of WO2020153583A1 publication Critical patent/WO2020153583A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • A61B8/145Echo-tomography characterised by scanning multiple planes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • A61B8/5253Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode combining overlapping images, e.g. spatial compounding
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4405Device being mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4427Device being portable or laptop-like

Definitions

  • the present invention relates to an ultrasound imaging apparatus and method. More specifically, the present invention relates to an ultrasound imaging apparatus and a method capable of acquiring an ultrasound image volume from ultrasound data based on information on a scanning line.
  • the ultrasound imaging apparatus irradiates an ultrasound signal generated from a probe transducer to an object, receives information of a signal reflected from the object, and transmits information to a region (eg, soft tissue or blood flow) inside the object. For at least one video.
  • the ultrasound imaging apparatus is used for medical purposes, such as observation inside a subject, foreign object detection, and injury measurement.
  • Such an ultrasound imaging apparatus has advantages such as high stability, display of images in real time, and safety without radiation exposure compared to a diagnostic apparatus using X-rays.
  • ultrasound imaging devices are widely used in conjunction with other imaging diagnostic devices, including computed tomography (CT) devices, magnetic resonance imaging (MRI) devices, and the like.
  • a method and apparatus for more accurately providing an ultrasound image volume are provided.
  • a method for displaying an ultrasound image includes obtaining ultrasound data using a probe moving based on a scanning line, displaying a user's body shape, and information on the scanning line through a user interface And acquiring an ultrasound image volume from the ultrasound data based on the information on the body shape and the scanning line.
  • the step of obtaining an ultrasound image volume from the ultrasound data may include calculating the length of the scanning line based on the information on the height, the body shape, and the scanning line, and the ultrasound based on the calculated length. And acquiring a data volume.
  • the body shape may be a shape showing a part of the user's body.
  • the step of displaying the user's body shape may include displaying a plurality of symbols corresponding to a plurality of parts of the user's body, and selecting a part of the plurality of parts through a user interface.
  • the method may include acquiring a signal and displaying a selected portion based on the signal in the shape of the body.
  • the information on the scanning line may be obtained in the form of information indicating a starting point and an ending point of the scanning line on the displayed body shape.
  • the scanning line may be approximated in the form of a straight line connecting the start point and the end point.
  • the scanning line may be approximated in the form of a free curve connecting the start point and the end point based on the shape of the user's body.
  • the information on the scanning line may be obtained in the form of a line indicating the scan line on the displayed body shape.
  • the body shape may be provided in at least one type of a front view, a rear view, a cross-sectional view, and a 3D image of the user's body.
  • the ultrasound imaging apparatus acquires ultrasound data using a display unit, a user interface, a memory storing one or more instructions, and a probe moving based on a scanning line by executing the one or more instructions, and the user Control the display unit so that the body shape of the display is displayed, control the user interface to obtain information about the scanning line, and obtain an ultrasound image volume from the ultrasound data based on the body shape and information about the scanning line It may include a processor.
  • the processor may control the user interface to obtain the height of the user, and obtain an ultrasound data volume from the ultrasound data based on information about the height, the body shape, and the scanning line.
  • the processor may calculate the length of the scanning line based on the information about the height, the body shape, and the scanning line, and obtain the ultrasound data volume based on the calculated length.
  • the body shape may be a shape showing a part of the user's body.
  • the processor controls the display unit to display a plurality of symbols corresponding to a plurality of parts of the user's body, and obtains a signal for selecting one of the plurality of parts through the user interface , It is possible to control the display unit so that the selected portion based on the signal is displayed in the body shape.
  • the information on the scanning line may be obtained in the form of information indicating a starting point and an ending point of the scanning line on the displayed body shape.
  • the scanning line may be approximated in the form of a straight line connecting the start point and the end point.
  • the scanning line may be approximated in the form of a free curve connecting the start point and the end point based on the shape of the user's body.
  • the information on the scanning line may be obtained in the form of a line indicating the scan line on the displayed body shape.
  • the ultrasound image display method moves based on a scanning line Acquiring ultrasound data using a probe, displaying a user's body shape, obtaining information about the scanning line through a user interface, and based on information about the body shape and the scanning line , Obtaining an ultrasound image volume from the ultrasound data.
  • FIG. 1 is a block diagram showing the configuration of an ultrasound imaging apparatus according to an embodiment.
  • FIGS. 2A to 2C are diagrams illustrating an ultrasound imaging apparatus according to an embodiment.
  • FIG. 3 is a block diagram showing the configuration of an ultrasound imaging apparatus according to an embodiment.
  • FIG. 4 is a flowchart illustrating an ultrasound image display method according to an embodiment.
  • 5A and 5B are diagrams for describing a probe according to an embodiment.
  • FIG. 6 is a view for explaining the movement of the probe according to an embodiment.
  • FIG. 7 is a view for explaining a method of acquiring ultrasound data of an object using the probe of FIG. 5A.
  • FIG. 8 is a view for explaining a method of obtaining ultrasound data of an object using the probe of FIG. 5B.
  • FIG. 9 is a view for explaining a method of acquiring an ultrasound image volume based on ultrasound data according to an embodiment.
  • FIG. 10 is a view for explaining a body shape selected based on user's body information according to an embodiment.
  • FIG. 11 is a view for explaining a method of selecting a body shape according to an embodiment.
  • FIG. 12 is a view for explaining a method of acquiring an ultrasound image volume according to an embodiment.
  • FIG. 13 is a view for explaining a method of inputting information on a scanning line according to an embodiment.
  • FIG. 14 is a view for explaining a method of inputting information on a scanning line according to an embodiment.
  • the image may include a medical image obtained by a medical imaging device such as a magnetic resonance imaging (MRI) device, a computed tomography (CT) device, an ultrasound imaging device, or an x-ray imaging device.
  • a medical imaging device such as a magnetic resonance imaging (MRI) device, a computed tomography (CT) device, an ultrasound imaging device, or an x-ray imaging device.
  • the term'object' is an object of photography, and may include a person, an animal, or a part thereof.
  • the subject may include a part of the body (organ or organ; organ) or a phantom.
  • an “ultrasound image” refers to an image of an object transmitted to an object and processed based on an ultrasound signal reflected from the object.
  • the ultrasound imaging apparatus 100 includes a probe 20, an ultrasound transceiving unit 110, a control unit 120, an image processor 130, a display unit 140, a storage unit 150, and a communication unit 160 ), and an input unit 170.
  • the ultrasound imaging apparatus 100 may be implemented not only in a cart type, but also in a portable type.
  • Examples of the portable ultrasound imaging device may include, but are not limited to, a smart phone including a probe and an application, a laptop computer, a PDA, and a tablet PC.
  • the probe 20 may include a plurality of transducers.
  • the plurality of transducers may transmit an ultrasonic signal to the object 10 according to the transmitted signal applied from the transmitter 113.
  • the plurality of transducers may receive an ultrasonic signal reflected from the object 10 and form a received signal.
  • the probe 20 may be implemented integrally with the ultrasound imaging apparatus 100 or may be implemented as a separate type connected to the ultrasound imaging apparatus 100 by wire or wireless.
  • the ultrasound imaging apparatus 100 may include one or a plurality of probes 20 according to an implementation form.
  • the controller 120 controls the transmitter 113 to form a transmission signal to be applied to each of the plurality of transducers in consideration of the positions and focal points of the plurality of transducers included in the probe 20.
  • the control unit 120 converts a received signal received from the probe 20 into analog-digital conversion, and adds the digitally converted received signal in consideration of the positions and focal points of a plurality of transducers to generate ultrasonic data. ) Control.
  • the image processor 130 uses the ultrasound data generated by the ultrasound receiver 115 to generate ultrasound images.
  • the display 140 may display the generated ultrasound image and various information processed by the ultrasound imaging apparatus 100.
  • the ultrasound imaging apparatus 100 may include one or a plurality of display units 140 according to an implementation form. Further, the display unit 140 may be implemented as a touch screen in combination with a touch panel.
  • the controller 120 may control overall operation of the ultrasound imaging apparatus 100 and signal flow between internal components of the ultrasound imaging apparatus 100.
  • the controller 120 may include a memory for storing a program or data for performing the function of the ultrasound imaging apparatus 100, and a processor for processing the program or data.
  • the control unit 120 may control the operation of the ultrasound imaging apparatus 100 by receiving a control signal from the input unit 170 or an external device.
  • the ultrasound imaging apparatus 100 includes a communication unit 160 and can be connected to an external device (for example, a server, a medical device, or a portable device (smartphone, tablet PC, wearable device, etc.)) through the communication unit 160. have.
  • an external device for example, a server, a medical device, or a portable device (smartphone, tablet PC, wearable device, etc.)
  • the communication unit 160 may include one or more components that enable communication with an external device, and may include, for example, at least one of a short range communication module, a wired communication module, and a wireless communication module.
  • the communication unit 160 receives control signals and data from an external device, and transmits the received control signals to the control unit 120 so that the control unit 120 controls the ultrasound imaging apparatus 100 according to the received control signals. It is also possible.
  • control unit 120 may control the external device according to the control signal of the control unit by transmitting a control signal to the external device through the communication unit 160.
  • the external device may process data of the external device according to the control signal of the control unit received through the communication unit.
  • a program capable of controlling the ultrasound imaging apparatus 100 may be installed in the external device, and the program may include a command for performing part or all of the operation of the controller 120.
  • the program may be installed in advance on an external device, or a user of the external device may download and install the program from a server providing an application.
  • the server providing the application may include a recording medium in which the corresponding program is stored.
  • the storage unit 150 may store various data or programs for driving and controlling the ultrasound imaging apparatus 100, input/output ultrasound data, and acquired ultrasound images.
  • the input unit 170 may receive a user input for controlling the ultrasound imaging apparatus 100.
  • the user's input includes buttons, keypad, mouse, trackball, jog switch, input for manipulating the knob, input for touching the touch pad or touch screen, voice input, motion input, and biometric information input (for example, iris recognition, fingerprint recognition, and the like), but are not limited thereto.
  • FIGS. 2A to 2C are diagrams illustrating an ultrasound imaging apparatus according to an embodiment.
  • the ultrasound imaging apparatuses 100a and 100b may include a main display unit 121 and a sub display unit 122.
  • One of the main display unit 121 and the sub display unit 122 may be implemented as a touch screen.
  • the main display unit 121 and the sub display unit 122 may display various types of information processed by the ultrasound image or the ultrasound imaging devices 100a and 100b.
  • the main display unit 121 and the sub display unit 122 are implemented as a touch screen, and by providing a GUI, data for controlling the ultrasound imaging apparatuses 100a and 100b can be received from a user.
  • the main display unit 121 may display an ultrasound image
  • the sub display unit 122 may display a control panel for controlling the display of the ultrasound image in a GUI form.
  • the sub display unit 122 may receive data for controlling display of an image through a control panel displayed in a GUI form.
  • the ultrasound imaging apparatuses 100a and 100b may control the display of the ultrasound image displayed on the main display unit 121 using the received control data.
  • the ultrasound imaging apparatus 100b may further include a control panel 165 in addition to the main display unit 121 and the sub display unit 122.
  • the control panel 165 may include buttons, trackballs, jog switches, knobs, and the like, and may receive data for controlling the ultrasound imaging apparatus 100b from a user.
  • the control panel 165 may include a Time Gain Compensation (TGC) button 171, a Freeze button 172, and the like.
  • TGC button 171 is a button for setting the TGC value for each depth of the ultrasound image.
  • the Freeze button 172 input is detected while scanning the ultrasound image, the ultrasound imaging apparatus 100b may maintain a state in which the frame image of the corresponding time is displayed.
  • buttons, trackballs, jog switches, and knobs included in the control panel 165 may be provided as a GUI to the main display unit 121 or the sub display unit 122.
  • the ultrasound imaging apparatus 100c may also be implemented as a portable type.
  • Examples of the portable ultrasound imaging apparatus 100c may include, but are not limited to, a smart phone including a probe and an application, a laptop computer, a PDA, and a tablet PC.
  • the ultrasound imaging apparatus 100c includes a probe 20 and a body 40, and the probe 20 may be connected to one side of the body 40 by wire or wireless.
  • the body 40 may include a touch screen 145.
  • the touch screen 145 may display an ultrasound image, various information processed by the ultrasound imaging apparatus, and a GUI.
  • FIG. 3 is a block diagram showing the configuration of an ultrasound imaging apparatus according to an embodiment.
  • the ultrasound imaging apparatus 300 includes an input unit 310, a processor 320, and a display unit 330.
  • the ultrasound imaging apparatus 300 may correspond to the ultrasound imaging apparatus 100 of FIG. 1.
  • the ultrasound imaging apparatus 300 may be implemented in the form illustrated in the ultrasound imaging apparatus 100a, 100b, and 100c of FIG. 2.
  • the input unit 310 of FIG. 3 may include the input unit 170 of FIG. 1.
  • the processor 320 may correspond to the controller 120 and the image processor 130 of FIG. 1.
  • the processor 320 may include one or more processors.
  • the display unit 330 may correspond to the display unit 140 of FIG. 1.
  • the ultrasound imaging apparatus 300 may include fewer components than those illustrated in FIG. 3, or may further include additional other components.
  • the ultrasound imaging apparatus 300 may receive a user input from a separate device instead of including the input unit 310.
  • the ultrasound imaging apparatus 300 may include a probe that transmits an ultrasound signal to an object and detects an ultrasound echo signal.
  • the probe moves based on the scanning line, transmits an ultrasonic signal to the object, and receives an ultrasonic echo signal reflected from the object.
  • the scanning line may mean a moving line in which the probe moves from the scan start position to the scan end position in order to scan the object.
  • the scan start position may be the position of the probe when starting to acquire ultrasound data for the object.
  • the scan end position may be the position of the probe when the acquisition of ultrasound data for the object ends.
  • the probe may be a freehand type probe.
  • the probe may be a linear probe or a two-dimensional matrix array probe, but the type of probe in this embodiment is not limited to the above-described example.
  • the processor 320 may acquire ultrasound data on the object from the ultrasound echo signal.
  • the processor 320 may acquire B-mode (brightness mode) image data from an ultrasonic echo signal.
  • the processor 320 may acquire ultrasound image data including at least one of spectral Doppler image data, color Doppler image data, elastic image data, and M mode (motion mode) image data from the ultrasound echo signal,
  • the type of ultrasound image data that the processor 320 can acquire is not limited thereto.
  • the color Doppler image data may include at least one of blood flow Doppler image data and tissue Doppler image data.
  • the ultrasound data may be object cross-section data.
  • the object cross-section data may include data based on a predetermined volume centered on the cross-section or cross-section of the object.
  • the object cross-section data may be 2D image data showing a cross-section of the object or 3D image data for a predetermined volume centered on the cross-section of the object.
  • the processor 320 may control the display unit 330 to display the user's body shape.
  • the user's body shape may be provided in the form of at least one of a front view, a rear view, a cross-sectional view, and a 3D image of the user's body, or an outline thereof.
  • the user's body shape may be provided for the whole body of the user's body or a part of the user's body.
  • the processor 320 may obtain information about the scanning line through the input unit 310.
  • information about the scanning line may be obtained in the form of information indicating a scan start position and a scan end position on the displayed body shape.
  • the input unit 310 may provide a user interface for inputting a point (hereinafter, a start point) indicating a scan start position on the displayed body shape.
  • the input unit 310 may provide a user interface for inputting a point (hereinafter referred to as an end point) indicating a scan end position on the displayed body shape.
  • the processor 320 may approximate the scanning line in the form of a line connecting the scan start position and the scan end position described above.
  • the scanning line may be approximated in the form of a straight line connecting the above-described scan start position and scan end position with the shortest distance.
  • the scanning line may be approximated in the form of a free curve connecting the scan start position and the scan end position described above based on the body shape.
  • the scanning line may be approximated in the form of a free curve connecting the scan start position and the scan end position described above according to the curvature of the body shape.
  • information about the scanning line may be obtained in the form of any line representing the scanning line on the displayed body shape.
  • the input unit 310 may provide an interface for drawing a free curve representing a scanning line on a displayed body shape.
  • the processor 320 may determine a position at which the input of the free-form curve described above is started as a starting point and a position at which the input is ended as an ending point.
  • the processor 320 may obtain an ultrasound image volume from ultrasound data based on body shape and information on the scanning line.
  • the ultrasound image volume may be a volume representing an image of a portion (hereinafter, an object measurement portion) that is scanned corresponding to a scanning line among objects.
  • the processor 320 may calculate the length of the object measurement part based on information about the body shape and the scanning line, and obtain an ultrasound image volume from the ultrasound data based on the calculated length.
  • the ultrasound imaging apparatus may calculate the length of the scanning line using the scale of the body shape. The ultrasound imaging apparatus may approximate the calculated length of the scanning line as the length of the object measurement part.
  • the processor 320 is a memory for storing at least one of a program, an algorithm, and application data for acquiring an ultrasound image volume from ultrasound data based on information about the body shape and the scanning line, and a program, algorithm, or application data stored in the memory It may be configured as a hardware unit including a processor for processing.
  • the processor 320 may be configured as a processor including at least one of a central processing unit, a microprocessor, and a graphic processing unit.
  • the memory and the processor may be configured as a single chip, but is not limited thereto.
  • FIG. 4 is a flowchart illustrating an ultrasound image display method according to an embodiment.
  • ultrasound data may be obtained.
  • the ultrasound data can be obtained using a probe moving based on the scanning line.
  • the scanning line may mean a moving line in which the probe moves from the scan start position to the scan end position in order to scan the object.
  • the probe may continuously acquire ultrasound data while moving along the scanning line.
  • the probe may acquire ultrasonic data at regular intervals at a predetermined time.
  • the probe may acquire ultrasound data at variable time intervals.
  • the method by which the probe acquires ultrasound data is not limited to the above-described example.
  • the ultrasound data may be object cross-section data.
  • the object cross-section data may include data based on a predetermined volume centered on the cross-section or cross-section of the object.
  • the object cross-section data may be a two-dimensional image showing a cross-section of the object or a three-dimensional image of a predetermined volume centered on the cross-section of the object.
  • the type of object cross-section data may be determined according to the type of probe.
  • the user's body shape may be displayed.
  • the user's body shape may be provided in the form of at least one of a front view, a rear view, a cross-sectional view, and a 3D image of the user's body, or an outline thereof.
  • the user's body shape may be provided for the whole body of the user's body or a part of the user's body.
  • a plurality of symbols corresponding to each of a plurality of parts of the user's body may be displayed.
  • the symbol may be an icon indicating a corresponding body part or text indicating a name of a body part, but is not limited to the above-described example.
  • a signal for selecting one of the plurality of parts of the body described above can be obtained.
  • a signal for selecting a portion may be obtained by selecting one of the plurality of symbols described above.
  • the shape of the selected portion among the plurality of parts of the user's body may be provided as the user's body shape described above.
  • the user's body shape may be displayed using the user's body information.
  • the user's body information may include the user's height.
  • the user's body information may include at least one of the user's age, gender and weight.
  • the scale of the displayed user's body shape may be determined based on the user's height.
  • the ultrasound imaging apparatus may store a library including a plurality of standard body shapes, or obtain a body shape from an externally stored library.
  • the displayed user's body shape may be determined based on the body information described above among a plurality of standard body shapes stored in the library.
  • the user's body information may include the user's identification information.
  • the ultrasound imaging apparatus may display a pre-stored body shape as a user's body shape based on the user's identification information.
  • the user's body information may be obtained through a user interface.
  • the user interface may provide a text field for entering the user's height.
  • the ultrasound imaging apparatus may use the value obtained using the text field as the height of the user.
  • step S430 information about the scanning line may be obtained.
  • information about the scanning line may be obtained using a user interface.
  • information about the scanning line may be obtained in the form of information indicating a scan start position and a scan end position on the displayed body shape.
  • the user interface may provide an interface for inputting a point (hereinafter, a start point) indicating a scan start position on the displayed body shape.
  • the user interface may provide an interface for inputting a point (hereinafter referred to as an end point) indicating a scan end position on the displayed body shape.
  • the scanning line may be approximated in the form of a line connecting the scan start position and the scan end position described above.
  • the scanning line may be approximated in the form of a straight line connecting the above-described scan start position and scan end position with the shortest distance.
  • the scanning line may be approximated in the form of a free curve connecting the scan start position and the scan end position described above based on the body shape.
  • the scanning line may be approximated in the form of a free curve connecting the scan start position and the scan end position described above according to the curvature of the body shape.
  • the scan position information obtained to approximate the scanning line and the scan start position It is not limited to the scan end position.
  • information about the scanning line may be obtained in the form of information indicating a plurality of positions, including information indicating a scan start position and a scan end position, on the displayed body shape. That is, the user interface may provide an interface for inputting a plurality of points including a start point and an end point, representing a plurality of scan positions on the body shape. The user interface may provide an interface for sorting a plurality of points in a scan time series. At this time, the scanning line may be approximated in the form of a line connecting a plurality of scan positions.
  • the scanning line can be obtained in the form of any line representing the scanning line, on the displayed body shape.
  • the user interface may provide an interface for drawing a freehand curve representing a scanning line on a displayed body shape.
  • the ultrasound imaging apparatus may determine the position at which the input of the free curve is started as a starting point, and the position at which the input is ended as an ending point.
  • an ultrasound image volume may be obtained from ultrasound data based on body shape and information on the scanning line.
  • the ultrasound image volume may be a volume representing an image of a portion (hereinafter, an object measurement portion) that is scanned corresponding to a scanning line among objects.
  • the ultrasound imaging apparatus may calculate the length of the object measurement part based on information about the body shape and the scanning line, and obtain an ultrasound image volume from ultrasound data based on the calculated length.
  • the ultrasound imaging apparatus may calculate the length of the scanning line using the length of the line representing the scanning line on the body shape and the scale of the body shape.
  • the ultrasound imaging apparatus may approximate the calculated length of the scanning line as the length of the object measurement part.
  • the above-described steps for displaying the ultrasound images may not necessarily be sequential.
  • information about the scanning line may be obtained prior to obtaining ultrasound data.
  • the ultrasound imaging apparatus may generate and store a profile for the acquired ultrasound image volume.
  • the profile can include information about the body shape and scanning lines displayed to obtain the ultrasound image volume.
  • the profile may include identification information for identifying the acquired ultrasound image volume and/or identification information for a user to be measured.
  • the ultrasound imaging apparatus may provide a guideline for the scanning line based on the stored profile.
  • 5A and 5B are diagrams for describing a probe according to an embodiment.
  • the probe 500a may be a freehand type probe.
  • the probe 500a may be a linear probe.
  • the probe 500a may include a transducer arranged in a straight shape.
  • the probe 500a may continuously acquire ultrasound data of an object while moving along the scanning line from the scan start position to the scan end position.
  • the probe 500b may be a two-dimensional matrix array probe.
  • the probe 500b may include a transducer arranged in a two-dimensional matrix form.
  • the probe 500b may continuously acquire ultrasound data for providing a 3D ultrasound stereoscopic image of the object while moving along the scanning line from the scan start position to the scan end position.
  • the technical features of the present disclosure are not limited to the types of probes described above, and the probes may be provided in various forms such as a phased array probe, a 3D matrix probe, and the like.
  • FIG. 6 is a view for explaining the movement of the probe according to an embodiment.
  • an axial direction (A), a lateral direction (L), and an elevation direction (E) may be respectively defined.
  • the direction in which the ultrasonic signal is irradiated is in the axial direction (A), the direction in which the transducer forms heat in the lateral direction (L), and the remainder perpendicular to the axial direction (A) and the lateral direction (L)
  • One direction can be defined as the elevation direction (E).
  • the movement of the probe can be expressed based on the above-described direction.
  • the scanning line may include all information regarding the three directions described above. However, this is exemplary, and the scanning line may be provided in other forms known in the art in addition to those illustrated, including only information related to the movement of the center position of the probe or only some of the information related to the three directions described above. have.
  • the probe 500a may acquire ultrasound data for an object while moving in a traveling direction along a scanning line from a scan start position to a scan end position.
  • the scan start position may be the position of the probe 500a when starting to acquire ultrasound data for the object.
  • the scan end position may be the position of the probe 500a when the acquisition of ultrasound data for the object ends.
  • the probe 500a may continuously acquire ultrasound data. Alternatively, the probe 500a may acquire ultrasound data at regular intervals at a predetermined time. Alternatively, the probe 500a may acquire ultrasound data at variable time intervals.
  • the ultrasound data may be object cross-section data.
  • the object cross-section data may be data based on a cross-section of the object.
  • the object cross-section data may be a two-dimensional image showing a cross-section of the object.
  • the probe 500a may transmit a signal for acquiring ultrasound data at an angle of the transmission angle ⁇ toward the object.
  • the ultrasound data acquired by the probe 500a may be data based on a predetermined volume centered on a cross-section or a cross-section of an object in a transmission angle ( ⁇ ).
  • the probe 500a may have an additional configuration for measuring the transmission angle ⁇ .
  • the probe 500a may be moved at a fixed angle to transmit a signal at a predetermined transmission angle ⁇ .
  • the ultrasound imaging apparatus may acquire an ultrasound image volume based on one or more object cross-section data.
  • the probe 500b may acquire ultrasound data for an object while moving in a traveling direction along a scanning line from a scan start position to a scan end position. In one embodiment, the probe 500b may continuously acquire ultrasound data. Alternatively, the probe 500b may acquire ultrasonic data at regular intervals at a predetermined time. Alternatively, the probe 500b may acquire ultrasound data at variable time intervals.
  • the ultrasound data may be object cross-section data.
  • the object cross-section data may be data based on a predetermined volume centered on the cross-section of the object.
  • the object cross-section data may be a 3D image showing a predetermined volume centered on the cross-section of the object.
  • the ultrasound imaging apparatus may acquire an ultrasound image volume based on one or more object cross-section data.
  • the ultrasound imaging apparatus may acquire an ultrasound image volume of an object portion corresponding to a scanning line.
  • ultrasound data may be object cross-section data.
  • the object cross-section data may include data based on a predetermined volume centered on the cross-section or cross-section of the object.
  • the probe may acquire one or more object cross-section data for an object while moving in a traveling direction along a scanning line from a scan start position to a scan end position.
  • the ultrasound imaging apparatus may acquire an ultrasound image volume based on one or more object cross-section data.
  • the ultrasound image volume is a volume representing an image of a portion (hereinafter referred to as an object measurement portion) that is scanned corresponding to a scanning line among objects.
  • the ultrasound imaging apparatus may acquire one or more object cross-section data to obtain an ultrasound image volume.
  • the ultrasound imaging apparatus may calculate the length of the object measurement part based on the body shape and the scanning line, and obtain an ultrasound image volume from the object cross-section data based on the calculated length.
  • the ultrasound imaging apparatus may acquire the ultrasound image volume from the object cross-section data by further using the shape of the scanning line. For example, when the scanning line is curved, the ultrasound imaging apparatus may acquire an ultrasound image volume formed in a curved shape based on the scanning line.
  • FIG. 10 is a view for explaining a body shape selected based on user's body information according to an embodiment.
  • the user's body information is shown to include the user's age, gender, and height.
  • the body information of this embodiment is not limited to the above-described examples.
  • the body shape and shape of the user's body shape may be differently predicted according to the user's gender, age, and height.
  • the ultrasound imaging apparatus may select a body shape to be displayed among a plurality of standard body shapes stored in the library based on the user's body information.
  • the ultrasound imaging apparatus may provide a user interface for selecting a type of body shape, and a user interface for selecting a part of the user's body as a body shape.
  • the ultrasound imaging apparatus may be provided in various ways, such as providing each user interface or sequentially.
  • the ultrasound imaging apparatus may display a plurality of symbols 1101, 1102, 1103, 1104, and 1105 corresponding to a plurality of body shape types.
  • a plurality of symbols are symbols 1101 corresponding to a front view of the body, and symbols 1102 corresponding to a side view of the body.
  • the symbols 1103 corresponding to the skeletal diagram of the body, the symbols 1104 corresponding to the anatomy diagram of the body, and the symbols 1105 corresponding to the 3D image of the body are shown.
  • the type of body shape type in the present embodiment is not limited to the above-described examples, and may be provided in various forms such as a front view, a rear view, a cross-sectional view, and a 3D image of the body.
  • the ultrasound imaging apparatus may display a plurality of symbols 1111, 1112, 1113, and 1114 corresponding to a plurality of parts of the user's body.
  • a plurality of symbols are illustrated as symbols 1111 corresponding to the left arm, symbols 1112 corresponding to the right arm, symbols 1113 corresponding to the legs, and symbols 1114 corresponding to the torso.
  • the body part is not limited to the above-described examples, and may be provided in various forms such as upper body, lower body, and head.
  • the ultrasound imaging apparatus may provide a user interface capable of receiving a signal for selecting a type of body shape based on a plurality of displayed symbols 1101, 1102, 1103, 1104, and 1105.
  • a signal for selecting a type of body shape may be input by selecting one of the symbols 1101, 1102, 1103, 1104, and 1105.
  • the ultrasound imaging apparatus may provide a user interface capable of receiving a signal for selecting one of the plurality of body parts based on the displayed plurality of symbols 1111, 1112, 1113, and 1114. have.
  • a signal for selecting a body part may be input by selecting one of the symbols 1111, 1112, 1113, and 1114.
  • the ultrasound imaging apparatus may display the selected body part in the selected body shape type.
  • ultrasound data on an object may be obtained using a movable probe, for example, a freehand type probe.
  • the ultrasound imaging apparatus may display a user's body shape.
  • the user's body shape is shown in the form of a front view of the whole body, but it will be fully understood that the type and body portion of the body shape displayed by the ultrasound imaging apparatus are not limited thereto.
  • the ultrasound imaging apparatus may acquire information about a scanning line using a user interface.
  • a user interface for inputting a point indicating a scan start position (hereinafter referred to as a start point) and a point indicating a scan end position (hereinafter referred to as an end point) on the displayed body shape is illustrated.
  • the ultrasound imaging apparatus may approximate the scanning line by using the acquired information on the scanning line.
  • the ultrasound imaging apparatus may acquire an ultrasound image volume from ultrasound data based on body shape and information on a scanning line. For example, the ultrasound imaging apparatus may calculate the length of the scanning line using the length of the line representing the scanning line on the body shape and the scale of the body shape. The ultrasound imaging apparatus may approximate the calculated length of the scanning line as the length of the object measurement part. In FIG. 12, for example, when the user's height is 150 cm and the length of the line representing the scanning line on the body shape is 1/5 of the body shape length, the result of approximating the length of the scanning line to 30 cm is illustrated. The ultrasound imaging apparatus may acquire an ultrasound image volume based on the calculated length.
  • FIG. 13 is a view for explaining a method of inputting information on a scanning line according to an embodiment.
  • information on a scanning line may be input in a form of inputting a position of a dot indicating a scan position on a displayed body shape.
  • the user interface may provide an interface for inputting a start point 1301, which is a point indicating a scan start position on the displayed body shape, and an end point 1302, a point indicating a scan end position on the displayed body shape.
  • the scanning line may be approximated in the form of a line 1303 connecting the above-described scan start position and scan end position.
  • the scan start position and the scan end position are approximated in the form of a straight line connecting the shortest distance.
  • information on the scanning line may be obtained in the form of information indicating a plurality of positions including information indicating a scan start position and a scan end position on the displayed body shape. That is, the user interface may provide an interface for inputting a plurality of points 1311 to 1313 including a start point 1311 and an end point 1313, which represent a plurality of scan positions on the body shape. The user interface may provide an interface in which a plurality of points 1311 to 1313 are arranged in a scan time series. At this time, the scanning line may be approximated in the form of a line 1314 connecting a plurality of scan positions. In FIG. 13, for example, the scan start position, the at least one scan intermediate position, and the scan end position are approximated in the form of a broken line connecting the shortest distance, respectively.
  • FIG. 14 is a view for explaining a method of inputting information on a scanning line according to an embodiment.
  • information about the scanning line may be input in the form of an arbitrary line representing the scanning line on the displayed body shape.
  • the user interface may provide an interface for drawing a free curve 1401 representing the scanning line on the displayed body shape.
  • the ultrasound imaging apparatus may determine a position at which the input of the free curve 1401 described above is started as a starting point, and a position at which the input is ended as an ending point.
  • the user interface may provide an interface for drawing a 3D free curve 1402 representing a scanning line on the displayed body shape.
  • the ultrasound imaging apparatus may determine a position at which the input of the free curve 1402 described above is started as a starting point, and a position at which the input is ended as an ending point.
  • the disclosed embodiments may be implemented in the form of a computer-readable recording medium that stores instructions and data executable by a computer.
  • the instruction may be stored in the form of program code, and when executed by a processor, a predetermined program module may be generated to perform a predetermined operation.
  • the instructions when executed by the processor, may perform certain operations of the disclosed embodiments.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

초음파 영상 장치 및 초음파 영상 표시 방법이 개시된다. 개시된 일 실시 예에 따른 초음파 영상 장치는, 디스플레이부, 사용자 인터페이스, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 하나 이상의 인스트럭션을 실행함으로써,스캐닝 라인에 기초하여 이동하는 프로브를 이용하여 초음파 데이터를 획득하고, 사용자의 신체 형상이 디스플레이되도록 상기 디스플레이부를 제어하고, 상기 스캐닝 라인에 관한 정보가 획득되도록 상기 사용자 인터페이스를 제어하고, 상기 신체 형상과 상기 스캐닝 라인에 관한 정보에 기초하여 상기 초음파 데이터로부터 초음파 영상 볼륨을 획득하는 프로세서를 포함할 수 있다.

Description

초음파 영상 장치 및 그 표시 방법
본 발명은 초음파 영상 장치와 그 방법에 관한 것이다. 보다 상세하게는, 스캐닝 라인에 관한 정보에 기초하여, 초음파 데이터로부터 초음파 영상 볼륨을 획득할 수 있는 초음파 영상 장치 및 그 방법에 관한 것이다.
초음파 영상 장치는, 프로브(probe)의 트랜스듀서(transducer)로부터 생성되는 초음파 신호를 대상체로 조사하고, 대상체로부터 반사된 신호의 정보를 수신하여 대상체 내부의 부위(예를 들면, 연조직 또는 혈류)에 대한 적어도 하나의 영상을 얻는다. 특히, 초음파 영상 장치는 대상체 내부의 관찰, 이물질 검출, 및 상해 측정 등 의학적 목적으로 사용된다. 이러한 초음파 영상 장치는 X선을 이용하는 진단 장치에 비하여 안정성이 높고, 실시간으로 영상의 디스플레이가 가능하며, 방사능 피폭이 없어 안전하다는 장점이 있다. 따라서, 초음파 영상 장치는, 컴퓨터 단층 촬영(computed tomography, CT) 장치, 자기 공명 영상(magnetic resonance imaging, MRI) 장치 등을 포함하는 다른 영상 진단 장치와 함께 널리 이용된다.
일 실시예에 의하면, 초음파 영상 볼륨을 보다 정밀하게 제공하기 위한 방법 및 장치가 제공된다.
일 실시예에 따른 초음파 영상을 표시하는 방법은 스캐닝 라인에 기초하여 이동하는 프로브를 이용하여 초음파 데이터를 획득하는 단계, 사용자의 신체 형상을 디스플레이하는 단계, 사용자 인터페이스를 통해, 상기 스캐닝 라인에 관한 정보를 획득하는 단계 및 상기 신체 형상과 상기 스캐닝 라인에 관한 정보에 기초하여, 상기 초음파 데이터로부터 초음파 영상 볼륨을 획득하는 단계를 포함할 수 있다.
또한, 상기 사용자 인터페이스를 통해 상기 사용자의 신장을 획득하는 단계를 더 포함하고, 상기 초음파 데이터로부터 초음파 영상 볼륨을 획득하는 단계는, 상기 신장, 상기 신체 형상 및 상기 스캐닝 라인에 관한 정보에 기초하여, 상기 초음파 데이터로부터 초음파 데이터 볼륨을 획득하는 단계를 포함할 수 있다.
또한, 상기 초음파 데이터로부터 초음파 영상 볼륨을 획득하는 단계는, 상기 신장, 상기 신체 형상 및 상기 스캐닝 라인에 관한 정보에 기초하여 상기 스캐닝 라인의 길이를 계산하는 단계 및 상기 계산된 길이에 기초하여 상기 초음파 데이터 볼륨을 획득하는 단계를 포함할 수 있다.
또한, 상기 신체 형상은 상기 사용자의 신체 중 일부 부분을 도시하는 형상일 수 있다.
또한, 상기 사용자의 신체 형상을 디스플레이하는 단계는, 상기 사용자의 신체의 복수의 부분들에 대응되는 복수의 심볼들을 디스플레이하는 단계, 사용자 인터페이스를 통해, 상기 복수의 부분들 중 하나의 부분을 선택하는 신호를 획득하는 단계 및 상기 신호에 기초하여 선택된 부분을 상기 신체 형상으로 디스플레이하는 단계를 포함할 수 있다.
또한, 상기 스캐닝 라인에 관한 정보는 상기 디스플레이된 신체 형상 상에서 상기 스캐닝 라인의 시작점과 끝점을 지시하는 정보의 형태로 획득되는 것일 수 있다.
또한, 상기 스캐닝 라인은 상기 시작점과 상기 끝점을 연결하는 직선의 형태로 근사(approximate)되는 것일 수 있다.
또한, 상기 스캐닝 라인은 상기 사용자의 신체 형상에 기초하여 상기 시작점과 상기 끝점을 연결하는 자유 곡선의 형태로 근사(approximate)되는 것일 수 있다.
또한, 상기 스캐닝 라인에 관한 정보는 상기 디스플레이된 신체 형상 상에서 상기 스캔라인을 지시하는 선(line)의 형태로 획득되는 것일 수 있다.
또한, 상기 신체 형상은 상기 사용자의 신체의 정면도, 후면도, 단면도 및 3차원 영상 중 적어도 하나의 유형으로 제공되는 것일 수 있다.
일 실시 예에 따른 초음파 영상 장치는, 디스플레이부, 사용자 인터페이스, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 하나 이상의 인스트럭션을 실행함으로써, 스캐닝 라인에 기초하여 이동하는 프로브를 이용하여 초음파 데이터를 획득하고, 사용자의 신체 형상이 디스플레이되도록 상기 디스플레이부를 제어하고, 상기 스캐닝 라인에 관한 정보가 획득되도록 상기 사용자 인터페이스를 제어하고, 상기 신체 형상과 상기 스캐닝 라인에 관한 정보에 기초하여 상기 초음파 데이터로부터 초음파 영상 볼륨을 획득하는 프로세서를 포함할 수 있다.
또한, 상기 프로세서는 상기 사용자의 신장을 획득하도록 상기 사용자 인터페이스를 제어하고, 상기 신장, 상기 신체 형상 및 상기 스캐닝 라인에 관한 정보에 기초하여, 상기 초음파 데이터로부터 초음파 데이터 볼륨을 획득할 수 있다.
또한, 상기 프로세서는 상기 신장, 상기 신체 형상 및 상기 스캐닝 라인에 관한 정보에 기초하여 상기 스캐닝 라인의 길이를 계산고, 상기 계산된 길이에 기초하여 상기 초음파 데이터 볼륨을 획득할 수 있다.
또한, 상기 신체 형상은 상기 사용자의 신체 중 일부 부분을 도시하는 형상일 수 있다.
또한, 상기 프로세서는 상기 사용자의 신체의 복수의 부분들에 대응되는 복수의 심볼들이 디스플레이되도록 상기 디스플레이부를 제어하고, 상기 사용자 인터페이스를 통해 상기 복수의 부분들 중 하나의 부분을 선택하는 신호를 획득하고, 상기 신호에 기초하여 선택된 부분이 상기 신체 형상으로 디스플레이되도록 상기 디스플레이부를 제어할 수 있다.
또한, 상기 스캐닝 라인에 관한 정보는 상기 디스플레이된 신체 형상 상에서 상기 스캐닝 라인의 시작점과 끝점을 지시하는 정보의 형태로 획득되는 것일 수 있다.
또한, 상기 스캐닝 라인은 상기 시작점과 상기 끝점을 연결하는 직선의 형태로 근사(approximate)되는 것일 수 있다.
또한, 상기 스캐닝 라인은 상기 사용자의 신체 형상에 기초하여 상기 시작점과 상기 끝점을 연결하는 자유 곡선의 형태로 근사(approximate)되는 것일 수 있다.
또한, 상기 스캐닝 라인에 관한 정보는 상기 디스플레이된 신체 형상 상에서 상기 스캔라인을 지시하는 선(line)의 형태로 획득되는 것일 수 있다.
일 실시예에 따른, 프로세서에 의해 판독되어 수행되었을 때, 초음파 영상 표시 방법을 수행하는 컴퓨터 프로그램 코드를 저장하는 컴퓨터로 판독 가능한 기록매체에 있어서, 상기 초음파 영상 표시 방법은, 스캐닝 라인에 기초하여 이동하는 프로브를 이용하여 초음파 데이터를 획득하는 단계, 사용자의 신체 형상을 디스플레이하는 단계, 사용자 인터페이스를 통해, 상기 스캐닝 라인에 관한 정보를 획득하는 단계 및 상기 신체 형상과 상기 스캐닝 라인에 관한 정보에 기초하여, 상기 초음파 데이터로부터 초음파 영상 볼륨을 획득하는 단계를 포함할 수 있다.
본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 일 실시 예에 따른 초음파 영상 장치의 구성을 도시한 블록도이다.
도 2a 내지 도 2c는 일 실시 예에 따른 초음파 영상 장치를 나타내는 도면들이다.
도 3은 일 실시 예에 따른 초음파 영상 장치의 구성을 나타내는 블록도이다.
도 4는 일 실시예에 의한 초음파 영상 표시 방법을 도시하는 흐름도이다.
도 5a 및 도 5b는 일 실시 예에 따른 프로브를 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 프로브의 움직임을 설명하기 위한 도면이다.
도 7은 도 5a의 프로브를 이용하여 대상체의 초음파 데이터를 획득하는 방법을 설명하기 위한 도면이다.
도 8은 도 5b의 프로브를 이용하여 대상체의 초음파 데이터를 획득하는 방법을 설명하기 위한 도면이다.
도 9는 일 실시예에 의한 초음파 데이터에 기초하여 초음파 영상 볼륨을 획득하는 방법을 설명하기 위한 도면이다.
도 10은 일 실시예에 의한 사용자의 신체 정보에 기초하여 선택되는 신체 형상을 설명하기 위한 도면이다.
도 11은 일 실시예에 의한 신체 형상을 선택하는 방법을 설명하기 위한 도면이다.
도 12는 일 실시예에 의한 초음파 영상 볼륨 획득 방법을 설명하기 위한 도면이다.
도 13은 일 실시예에 의한 스캐닝 라인에 관한 정보 입력 방법을 설명하기 위한 도면이다.
도 14는 일 실시예에 의한 스캐닝 라인에 관한 정보 입력 방법을 설명하기 위한 도면이다.
본 명세서는 본 발명의 권리범위를 명확히 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있도록, 본 발명의 원리를 설명하고, 실시 예들을 개시한다. 개시된 실시 예들은 다양한 형태로 구현될 수 있다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시 예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시 예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 ‘부’(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시 예들에 따라 복수의 ‘부’가 하나의 요소(unit, element)로 구현되거나, 하나의 ‘부’가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시 예들에 대해 설명한다.
본 명세서에서 영상은 자기 공명 영상(MRI) 장치, 컴퓨터 단층 촬영(CT) 장치, 초음파 촬영 장치, 또는 엑스레이 촬영 장치 등의 의료 영상 장치에 의해 획득된 의료 영상을 포함할 수 있다.
본 명세서에서 ‘대상체(object)’는 촬영의 대상이 되는 것으로서, 사람, 동물, 또는 그 일부를 포함할 수 있다. 예를 들어, 대상체는 신체의 일부(장기 또는 기관 등; organ) 또는 팬텀(phantom) 등을 포함할 수 있다.
명세서 전체에서 "초음파 영상"이란 대상체로 송신되고, 대상체로부터 반사된 초음파 신호에 근거하여 처리된 대상체(object)에 대한 영상을 의미한다.
이하에서는 도면을 참조하여 실시 예들을 상세히 설명한다.
도 1은 일 실시 예에 따른 초음파 영상 장치(100)의 구성을 도시한 블록도이다. 일 실시 예에 따른 초음파 영상 장치(100)는 프로브(20), 초음파 송수신부(110), 제어부(120), 영상 프로세서(130), 디스플레이부(140), 저장부(150), 통신부(160), 및 입력부(170)를 포함할 수 있다.
초음파 영상 장치(100)는 카트형뿐만 아니라 휴대형으로도 구현될 수 있다. 휴대형 초음파 영상 장치의 예로는 프로브 및 어플리케이션을 포함하는 스마트 폰(smart phone), 랩탑 컴퓨터, PDA, 태블릿 PC 등이 있을 수 있으나, 이에 한정되지 않는다.
프로브(20)는 복수의 트랜스듀서들을 포함할 수 있다. 복수의 트랜스듀서들은 송신부(113)로부터 인가된 송신 신호에 따라 대상체(10)로 초음파 신호를 송출할 수 있다. 복수의 트랜스듀서들은 대상체(10)로부터 반사된 초음파 신호를 수신하여, 수신 신호를 형성할 수 있다. 또한, 프로브(20)는 초음파 영상 장치(100)와 일체형으로 구현되거나, 또는 초음파 영상 장치(100)와 유무선으로 연결되는 분리형으로 구현될수 있다. 또한, 초음파 영상 장치(100)는 구현 형태에 따라 하나 또는 복수의 프로브(20)를 구비할 수 있다.
제어부(120)는 프로브(20)에 포함되는 복수의 트랜스듀서들의 위치 및 집속점을 고려하여, 복수의 트랜스듀서들 각각에 인가될 송신 신호를 형성하도록 송신부(113)를 제어한다.
제어부(120)는 프로브(20)로부터 수신되는 수신 신호를 아날로그 디지털 변환하고, 복수의 트랜스듀서들의 위치 및 집속점을 고려하여, 디지털 변환된 수신 신호를 합산함으로써, 초음파 데이터를 생성하도록 수신부(115)를 제어 한다.
영상 프로세서(130)는 초음파 수신부(115)에서 생성된 초음파 데이터를 이용하여, 초음파 영상을 생성한다.
디스플레이부(140)는 생성된 초음파 영상 및 초음파 영상 장치(100)에서 처리되는 다양한 정보를 표시할 수 있다. 초음파 영상 장치(100)는 구현 형태에 따라 하나 또는 복수의 디스플레이부(140)를 포함할 수 있다. 또한, 디스플레이부(140)는 터치패널과 결합하여 터치 스크린으로 구현될 수 있다.
제어부(120)는 초음파 영상 장치(100)의 전반적인 동작 및 초음파 영상 장치(100)의 내부 구성 요소들 사이의 신호 흐름을 제어할 수 있다. 제어부(120)는 초음파 영상 장치(100)의 기능을 수행하기 위한 프로그램 또는 데이터를 저장하는 메모리, 및 프로그램 또는 데이터를 처리하는 프로세서를 포함할 수 있다. 또한, 제어부(120)는 입력부(170) 또는 외부 장치로부터 제어신호를 수신하여, 초음파 영상 장치(100)의 동작을 제어할 수 있다.
초음파 영상 장치(100)는 통신부(160)를 포함하며, 통신부(160)를 통해 외부 장치(예를 들면, 서버, 의료 장치, 휴대 장치(스마트폰, 태블릿 PC, 웨어러블 기기 등))와 연결할 수 있다.
통신부(160)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.
통신부(160)가 외부 장치로부터 제어 신호 및 데이터를 수신하고, 수신된 제어 신호를 제어부(120)에 전달하여 제어부(120)로 하여금 수신된 제어 신호에 따라 초음파 영상 장치(100)를 제어하도록 하는 것도 가능하다.
또는, 제어부(120)가 통신부(160)를 통해 외부 장치에 제어 신호를 송신함으로써, 외부 장치를 제어부의 제어 신호에 따라 제어하는 것도 가능하다.
예를 들어 외부 장치는 통신부를 통해 수신된 제어부의 제어 신호에 따라 외부 장치의 데이터를 처리할 수 있다.
외부 장치에는 초음파 영상 장치(100)를 제어할 수 있는 프로그램이 설치될 수 있는 바, 이 프로그램은 제어부(120)의 동작의 일부 또는 전부를 수행하는 명령어를 포함할 수 있다.
프로그램은 외부 장치에 미리 설치될 수도 있고, 외부장치의 사용자가 어플리케이션을 제공하는 서버로부터 프로그램을 다운로드하여 설치하는 것도 가능하다. 어플리케이션을 제공하는 서버에는 해당 프로그램이 저장된 기록매체가 포함될 수 있다.
저장부(150)는 초음파 영상 장치(100)를 구동하고 제어하기 위한 다양한 데이터 또는 프로그램, 입/출력되는 초음파 데이터, 획득된 초음파 영상 등을 저장할 수 있다.
입력부(170)는, 초음파 영상 장치(100)를 제어하기 위한 사용자의 입력을 수신할 수 있다. 예를 들어, 사용자의 입력은 버튼, 키 패드, 마우스, 트랙볼, 조그 스위치, 놉(knop) 등을 조작하는 입력, 터치 패드나 터치 스크린을 터치하는 입력, 음성 입력, 모션 입력, 생체 정보 입력(예를 들어, 홍채 인식, 지문 인식 등) 등을 포함할 수 있으나 이에 한정되지 않는다.
일 실시 예에 따른 초음파 영상 장치(100)의 예시는 도 2a 내지 도 2c를 통해 후술된다.
도 2a 내지 도 2c는 일 실시 예에 따른 초음파 영상 장치를 나타내는 도면들이다.
도 2a 및 도 2b를 참조하면, 초음파 영상 장치(100a, 100b)는 메인 디스플레이부(121) 및 서브 디스플레이부(122)를 포함할 수 있다. 메인 디스플레이부(121) 및 서브 디스플레이부(122) 중 하나는 터치스크린으로 구현될 수 있다. 메인 디스플레이부(121) 및 서브 디스플레이부(122)는 초음파 영상 또는 초음파 영상 장치(100a, 100b)에서 처리되는 다양한 정보를 표시할 수 있다. 또한, 메인 디스플레이부(121) 및 서브 디스플레이부(122)는 터치 스크린으로 구현되고, GUI 를 제공함으로써, 사용자로부터 초음파 영상 장치(100a, 100b)를 제어하기 위한 데이터를 입력 받을 수 있다. 예를 들어, 메인 디스플레이부(121)는 초음파 영상을 표시하고, 서브 디스플레이부(122)는 초음파 영상의 표시를 제어하기 위한 컨트롤 패널을 GUI 형태로 표시할 수 있다. 서브 디스플레이부(122)는 GUI 형태로 표시된 컨트롤 패널을 통하여, 영상의 표시를 제어하기 위한 데이터를 입력 받을 수 있다. 초음파 영상 장치(100a, 100b)는 입력 받은 제어 데이터를 이용하여, 메인 디스플레이부(121)에 표시된 초음파 영상의 표시를 제어할 수 있다.
도 2b를 참조하면, 초음파 영상 장치(100b)는 메인 디스플레이부(121) 및 서브 디스플레이부(122) 이외에 컨트롤 패널(165)을 더 포함할 수 있다. 컨트롤 패널(165)은 버튼, 트랙볼, 조그 스위치, 놉(knop) 등을 포함할 수 있으며, 사용자로부터 초음파 영상 장치(100b)를 제어하기 위한 데이터를 입력 받을 수 있다. 예를 들어, 컨트롤 패널(165)은 TGC(Time Gain Compensation) 버튼(171), Freeze 버튼(172) 등을 포함할 수 있다. TGC 버튼(171)은, 초음파 영상의 깊이 별로 TGC 값을 설정하기 위한 버튼이다. 또한, 초음파 영상 장치(100b)는 초음파 영상을 스캔하는 도중에 Freeze 버튼(172) 입력이 감지되면, 해당 시점의 프레임 영상이 표시되는 상태를 유지시킬 수 있다.
한편, 컨트롤 패널(165)에 포함되는 버튼, 트랙볼, 조그 스위치, 놉(knop) 등은, 메인 디스플레이부(121) 또는 서브 디스플레이부(122)에 GUI로 제공될 수 있다.
도 2c를 참조하면, 초음파 영상 장치(100c)는 휴대형으로도 구현될 수 있다. 휴대형 초음파 영상 장치(100c)의 예로는, 프로브 및 어플리케이션을 포함하는 스마트 폰(smart phone), 랩탑 컴퓨터, PDA, 태블릿 PC 등이 있을 수 있으나, 이에 한정되지 않는다.
초음파 영상 장치(100c)는 프로브(20)와 본체(40)를 포함하며, 프로브(20)는 본체(40)의 일측에 유선 또는 무선으로 연결될 수 있다. 본체(40)는 터치 스크린(145)을 포함할 수 있다. 터치 스크린(145)은 초음파 영상, 초음파 영상 장치에서 처리되는 다양한 정보, 및 GUI 등을 표시할 수 있다.
도 3은 일 실시 예에 따른 초음파 영상 장치의 구성을 나타내는 블록도이다.
일 실시 예에 따른 초음파 영상 장치(300)는, 입력부(310), 프로세서(320) 및 디스플레이부(330)를 포함한다. 초음파 영상 장치(300)는 도 1의 초음파 영상 장치(100)에 대응될 수 있다. 또한, 초음파 영상 장치(300)는 도 2의 초음파 영상 장치(100a, 100b, 및 100c)에 예시된 형태로 구현될 수 있다. 실시예에 있어서, 도 3의 입력부(310)는 도 1의 입력부(170)를 포함할 수 있다. 또한, 프로세서(320)는 도 1의 제어부(120) 및 영상 프로세서(130)에 대응될 수 있다. 프로세서(320)는 하나 또는 복수의 프로세서를 포함할 수 있다. 디스플레이부(330)는 도 1의 디스플레이부(140)에 대응될 수 있다.
일 실시예에 따르면, 초음파 영상 장치(300)는 도 3에 도시된 구성요소보다 적은 구성요소를 포함하거나 추가적인 다른 구성을 더 포함할 수도 있다. 예를 들어, 초음파 영상 장치(300)는 입력부(310)를 포함하는 대신 별도의 디바이스로부터 사용자 입력을 수신할 수도 있다.
일 실시예에 따르면, 초음파 영상 장치(300)는 대상체로 초음파 신호를 전송하고 초음파 에코 신호를 검출하는 프로브를 포함할 수 있다. 실시 예에 있어서, 프로브는 스캐닝 라인에 기초하여 이동하며 초음파 신호를 대상체에 송신하고, 대상체로부터 반사되는 초음파 에코 신호를 수신할 수 있다. 이때, 스캐닝 라인은 프로브가 대상체를 스캔하기 위하여 스캔 시작 위치로부터 스캔 종료 위치까지 이동하는 이동선(moving line)을 의미할 수 있다. 스캔 시작 위치는 대상체에 대한 초음파 데이터 획득을 시작할 때의 프로브의 위치일 수 있다. 스캔 종료 위치는 대상체에 대한 초음파 데이터 획득을 종료할 때의 프로브의 위치일 수 있다.
실시예에 있어서, 프로브는 프리핸드(freehand) 유형의 프로브일 수 있다. 프로브는 직선형 프로브(Linear Probe) 혹은 2차원 매트릭스 배열형 프로브일 수 있으나, 본 실시예에서 프로브의 종류는 상술된 예시에 한정되지 않는다.
프로세서(Processor)(320)는 초음파 에코 신호로부터 대상체에 대한 초음파 데이터를 획득할 수 있다. 일 실시 예에 따르면, 프로세서(320)는 초음파 에코 신호로부터 B-모드(brightness mode) 영상 데이터를 획득할 수 있다. 혹은, 프로세서(320)는 초음파 에코 신호로부터 스펙트럴 도플러 영상 데이터, 컬러 도플러 영상 데이터, 탄성 영상 데이터, 및 M 모드(motion mode) 영상 데이터 중 적어도 하나를 포함하는 초음파 영상 데이터를 획득할 수 있으나, 프로세서(320)가 획득할 수 있는 초음파 영상 데이터의 종류가 이에 한정되는 것은 아니다. 한편, 컬러 도플러 영상 데이터는, 혈류의 도플러 영상 데이터 및 조직의 도플러 영상 데이터 중 적어도 하나를 포함할 수 있다.
실시예에 있어서, 실시예에 있어서, 초음파 데이터는 대상체 단면 데이터일 수 있다. 대상체 단면 데이터는 대상체의 단면 혹은 단면을 중심으로 하는 소정의 볼륨에 기초한 데이터를 포함할 수 있다. 예를 들어, 대상체 단면 데이터는 대상체의 단면을 도시하는 2차원 영상 데이터 혹은 대상체의 단면을 중심으로 하는 소정의 부피에 대한 3차원 영상 데이터일 수 있다.
프로세서(320)는 사용자의 신체 형상이 디스플레이되도록 디스플레이부(330)를 제어할 수 있다. 실시예에 있어서, 사용자의 신체 형상은 사용자의 신체의 정면도, 후면도, 단면도 및 3차원 영상 중 적어도 하나의 형태, 혹은 그것들의 외곽선으로 제공될 수 있다. 또한, 사용자의 신체 형상은 사용자의 신체의 전신 혹은 사용자의 신체 중 일부 부분에 대하여 제공될 수 있다.
프로세서(320)는 입력부(310)를 통해 스캐닝 라인에 관한 정보를 획득할 수 있다. 실시예에 있어서, 스캐닝 라인에 관한 정보는, 디스플레이된 신체 형상 상에서, 스캔 시작 위치와 스캔 종료 위치를 지시하는 정보의 형태로 획득될 수 있다. 예시적으로, 입력부(310)는 디스플레이된 신체 형상 상에서 스캔 시작 위치를 나타내는 점(이하 시작점)을 입력하기 위한 사용자 인터페이스를 제공할 수 있다. 또한, 입력부(310)는 디스플레이된 신체 형상 상에서 스캔 종료 위치를 나타내는 점(이하 종료점)을 입력하기 위한 사용자 인터페이스를 제공할 수 있다.
프로세서(320)는 상술된 스캔 시작 위치와 스캔 종료 위치를 연결하는 선의 형태로 스캐닝 라인을 근사할 수 있다. 예시적으로, 스캐닝 라인은 상술된 스캔 시작 위치와 스캔 종료 위치를 최단 거리로 연결하는 직선의 형태로 근사될 수 있다. 혹은, 스캐닝 라인은, 신체 형상에 기초하여, 상술된 스캔 시작 위치와 스캔 종료 위치를 연결하는 자유 곡선의 형태로 근사될 수 있다. 예를 들어, 스캐닝 라인은 신체 형상의 굴곡에 따라, 상술된 스캔 시작 위치와 스캔 종료 위치를 연결하는 자유 곡선의 형태로 근사될 수 있다.
실시예에 있어서, 스캐닝 라인에 관한 정보는, 디스플레이된 신체 형상 상에서, 스캐닝 라인을 나타내는 임의의 선의 형태로 획득될 수 있다. 예시적으로, 입력부(310)는 디스플레이된 신체 형상 상에서 스캐닝 라인을 나타내는 자유 곡선을 그리기(draw) 위한 인터페이스를 제공할 수 있다. 프로세서(320)는 상술된 자유 곡선의 입력이 시작된 위치를 시작점으로, 입력이 종료된 위치를 종료점으로 판별할 수 있다.
프로세서(320)는 신체 형상과 스캐닝 라인에 관한 정보에 기초하여, 초음파 데이터로부터 초음파 영상 볼륨을 획득할 수 있다. 실시예에 있어서, 초음파 영상 볼륨은, 대상체 중 스캐닝 라인에 대응하여 스캔되는 부분(이하, 대상체 측정 부분)의 영상을 나타내는 볼륨일 수 있다.
초음파 영상 볼륨을 높은 구현도로 획득하기 위해서, 대상체 측정 부분의 전체 길이를 판별하는 것이 중요할 수 있다. 실시예에 있어서, 프로세서(320)는 신체 형상 및 스캐닝 라인에 관한 정보에 기초하여 대상체 측정 부분의 길이를 계산하고, 계산된 길이에 기초하여 초음파 데이터로부터 초음파 영상 볼륨을 획득할 수 있다. 예를 들어, 초음파 영상 장치는 신체 형상의 축척을 이용하여 스캐닝 라인의 길이를 계산할 수 있다. 초음파 영상 장치는 계산된 스캐닝 라인의 길이를 대상체 측정 부분의 길이로 근사할 수 있다.
프로세서(320)는 신체 형상 및 스캐닝 라인에 관한 정보에 기초하여 초음파 데이터로부터 초음파 영상 볼륨을 획득하는 프로그램, 알고리즘, 및 애플리케이션 데이터 중 적어도 하나를 저장하는 메모리, 및 메모리에 저장된 프로그램, 알고리즘 또는 애플리케이션 데이터를 처리하는 프로세서를 포함하는 하드웨어 유닛으로 구성될 수 있다. 예를 들어, 프로세서(320)는 중앙 처리 장치(central processing unit), 마이크로 프로세서(microprocessor) 및 그래픽 프로세서(graphic processing unit) 중 적어도 하나를 포함하는 프로세서로 구성될 수 있다. 이때, 메모리와 프로세서는 단일 칩으로 구성될 수 있으나, 이에 한정되는 것은 아니다.
도 4는 일 실시예에 의한 초음파 영상 표시 방법을 도시하는 흐름도이다.
S410 단계에서, 초음파 데이터가 획득될 수 있다. 초음파 데이터는 스캐닝 라인에 기초하여 이동하는 프로브를 이용하여 획득될 수 있다. 실시예에 있어서, 스캐닝 라인은 프로브가 대상체를 스캔하기 위하여 스캔 시작 위치로부터 스캔 종료 위치까지 이동하는 이동선(moving line)을 의미할 수 있다.
실시예에 있어서, 프로브는 스캐닝 라인을 따라 이동하면서 연속적으로 초음파 데이터를 획득할 수 있다. 혹은, 프로브는 소정의 시간을 주기로 하여 등간격으로 초음파 데이터를 획득할 수 있다. 혹은, 프로브는 가변적인 시간 간격으로 초음파 데이터를 획득할 수 있다. 프로브가 초음파 데이터를 획득하는 방법은 상술된 예시에 한정되지 않는다.
실시예에 있어서, 초음파 데이터는 대상체 단면 데이터일 수 있다. 대상체 단면 데이터는 대상체의 단면 혹은 단면을 중심으로 하는 소정의 볼륨에 기초한 데이터를 포함할 수 있다. 예를 들어, 대상체 단면 데이터는 대상체의 단면을 도시하는 2차원 영상 혹은 대상체의 단면을 중심으로 하는 소정의 부피에 대한 3차원 영상일 수 있다. 대상체 단면 데이터의 종류는 프로브의 종류에 따라 결정될 수 있다.
S420 단계에서, 사용자의 신체 형상이 디스플레이 될 수 있다. 실시예에 있어서, 사용자의 신체 형상은 사용자의 신체의 정면도, 후면도, 단면도 및 3차원 영상 중 적어도 하나의 형태, 혹은 그것들의 외곽선으로 제공될 수 있다. 또한, 사용자의 신체 형상은 사용자의 신체의 전신 혹은 사용자의 신체 중 일부 부분에 대하여 제공될 수 있다.
실시예에 있어서, 사용자의 신체의 복수의 부분들 각각에 대응되는 복수의 심볼이 디스플레이될 수 있다. 예를 들어, 심볼은 대응되는 신체 부분을 표시하는 아이콘이거나, 신체 부분의 명칭을 표시하는 텍스트일 수 있으나, 상술된 예시에 한정되는 것은 아니다. 사용자 인터페이스를 통해, 상술된 신체의 복수의 부분들 중 하나의 부분을 선택하는 신호가 획득될 수 있다. 실시예에 있어서, 하나의 부분을 선택하는 신호는 상술된 복수의 심볼 중 하나를 선택하는 방식으로 획득될 수 있다. 또한, 사용자의 신체의 복수의 부분들 중 선택된 부분의 형상이 상술된 사용자의 신체 형상으로 제공될 수 있다.
실시예에 있어서, 사용자의 신체 정보를 이용하여 사용자의 신체 형상이 디스플레이될 수 있다. 사용자의 신체 정보는 사용자의 신장(height)을 포함할 수 있다. 또한, 사용자의 신체 정보는 사용자의 연령, 성별 및 체중 중 적어도 하나의 정보를 포함할 수 있다.
실시예에 있어서, 디스플레이되는 사용자의 신체 형상의 축척(scale)은 사용자의 신장에 기초하여 결정될 수 있다.
실시예에 있어서, 초음파 영상 장치는 복수의 표준 신체 형상들을 포함하는 라이브러리를 저장하거나, 외부에 저장된 라이브러리로부터 신체 형상을 획득할 수 있다. 실시예에 있어서, 디스플레이되는 사용자의 신체 형상은 라이브러리에 저장된 복수의 표준 신체 형상들 중 상술된 신체 정보에 기초하여 결정될 수 있다.
실시예에 있어서, 사용자의 신체 정보는 사용자의 식별 정보를 포함할 수 있다. 초음파 영상 장치는 사용자의 식별 정보에 기초하여, 미리 기저장된 신체 형상을 사용자의 신체 형상으로 디스플레이할 수 있다.
실시예에 있어서, 사용자의 신체 정보는 사용자 인터페이스를 통해 획득될 수 있다. 예시적으로, 사용자 인터페이스는 사용자의 신장을 입력하기 위한 텍스트 필드를 제공할 수 있다. 초음파 영상 장치는 텍스트 필드를 이용하여 획득된 값을 사용자의 신장으로 이용할 수 있다.
S430 단계에서, 스캐닝 라인에 관한 정보가 획득될 수 있다. 실시예에 있어서, 스캐닝 라인에 관한 정보는 사용자 인터페이스를 이용하여 획득될 수 있다.
실시예에 있어서, 스캐닝 라인에 관한 정보는, 디스플레이된 신체 형상 상에서, 스캔 시작 위치와 스캔 종료 위치를 지시하는 정보의 형태로 획득될 수 있다. 예시적으로, 사용자 인터페이스는 디스플레이된 신체 형상 상에서 스캔 시작 위치를 나타내는 점(이하 시작점)을 입력하기 위한 인터페이스를 제공할 수 있다. 또한, 사용자 인터페이스는 디스플레이된 신체 형상 상에서 스캔 종료 위치를 나타내는 점(이하 종료점)을 입력하기 위한 인터페이스를 제공할 수 있다.
실시예에 있어서, 스캐닝 라인은, 상술된 스캔 시작 위치와 스캔 종료 위치를 연결하는 선의 형태로 근사될 수 있다. 예시적으로, 스캐닝 라인은 상술된 스캔 시작 위치와 스캔 종료 위치를 최단 거리로 연결하는 직선의 형태로 근사될 수 있다. 혹은, 스캐닝 라인은, 신체 형상에 기초하여, 상술된 스캔 시작 위치와 스캔 종료 위치를 연결하는 자유 곡선의 형태로 근사될 수 있다. 예를 들어, 스캐닝 라인은 신체 형상의 굴곡에 따라, 상술된 스캔 시작 위치와 스캔 종료 위치를 연결하는 자유 곡선의 형태로 근사될 수 있다.
상술된 실시예에서 스캐닝 라인을 근사하기 위하여 스캔 시작 위치와 스캔 종료 위치를 지시하는 정보를 획득하는 방법이 제안되었으나, 본 실시예에서 스캐닝 라인을 근사하기 위하여 획득되는 스캔 위치 정보가 스캔 시작 위치와 스캔 종료 위치에 한정되는 것은 아니다. 예를 들어, 스캐닝 라인에 관한 정보는, 디스플레이된 신체 형상 상에서, 스캔 시작 위치와 스캔 종료 위치를 지시하는 정보를 포함하는 복수의 위치를 지시하는 정보의 형태로 획득될 수 있다. 즉, 사용자 인터페이스는 신체 형상 상에서, 복수의 스캔 위치를 나타내는, 시작점 및 종료점을 포함하는 복수의 점들을 입력하기 위한 인터페이스를 제공할 수 있다. 사용자 인터페이스는 복수의 점들을 스캔 시계열 순으로 정렬하는 인터페이스를 제공할 수 있다. 이때, 스캐닝 라인은 복수의 스캔 위치를 연결하는 선의 형태로 근사될 수 있다.
다른 실시예에 있어서, 스캐닝 라인은 디스플레이된 신체 형상 상에서, 스캐닝 라인을 나타내는 임의의 선의 형태로 획득될 수 있다. 예시적으로, 사용자 인터페이스는 디스플레이된 신체 형상 상에서 스캐닝 라인을 나타내는 자유 곡선을 그리기(draw) 위한 인터페이스를 제공할 수 있다. 초음파 영상 장치는 상술된 자유 곡선의 입력이 시작된 위치를 시작점으로, 입력이 종료된 위치를 종료점으로 판별할 수 있다.
S440 단계에서, 신체 형상과 스캐닝 라인에 관한 정보에 기초하여, 초음파 데이터로부터 초음파 영상 볼륨이 획득될 수 있다. 실시예에 있어서, 초음파 영상 볼륨은, 대상체 중 스캐닝 라인에 대응하여 스캔되는 부분(이하, 대상체 측정 부분)의 영상을 나타내는 볼륨일 수 있다.
실시예에 있어서, 초음파 영상 장치는 신체 형상 및 스캐닝 라인에 관한 정보에 기초하여 대상체 측정 부분의 길이를 계산하고, 계산된 길이에 기초하여 초음파 데이터로부터 초음파 영상 볼륨을 획득할 수 있다.
예를 들어, 초음파 영상 장치는 스캐닝 라인을 나타내는 선의 신체 형상 상에서의 길이와, 신체 형상의 축척을 이용하여, 스캐닝 라인의 길이를 계산할 수 있다. 초음파 영상 장치는 계산된 스캐닝 라인의 길이를 대상체 측정 부분의 길이로 근사할 수 있다.
실시예에 있어서, 초음파 영상을 표시하기 위한 상술된 단계는 반드시 순차적이지 않을 수 있음은 당업자에게 당연히 이해될 것이다. 예를 들어, 스캐닝 라인에 관한 정보는 초음파 데이터를 획득하는 것보다 앞서 획득될 수도 있다.
실시예에 있어서, 초음파 영상 장치는 획득한 초음파 영상 볼륨에 대한 프로파일을 생성하여 저장할 수 있다. 프로파일은 초음파 영상 볼륨의 획득하기 위하여 디스플레이된 신체 형상 및 스캐닝 라인에 관한 정보를 포함할 수 있다. 또한, 프로파일은 획득한 초음파 영상 볼륨을 식별하기 위한 식별 정보 혹은/및 측정 대상이 된 사용자에 대한 식별 정보를 포함할 수 있다. 초음파 영상 장치는 이후 동일한 사용자에 대하여 동일한 위치의 초음파 영상 획득이 요청되는 경우, 저장된 프로파일에 기초하여 스캐닝 라인에 대한 가이드라인을 제공할 수 있다.
도 5a 및 도 5b는 일 실시 예에 따른 프로브를 설명하기 위한 도면이다.
도 5a 및 도 5b를 참조하면, 프로브(500a)는 프리핸드(freehand) 유형의 프로브일 수 있다. 도 5a를 참조하면, 프로브(500a)는 직선형 프로브(Linear Probe)일 수 있다. 프로브(500a)는 일자 형태로 배열된 트랜드듀서를 포함할 수 있다. 프로브(500a)는 스캔 시작 위치에서 스캔 종료 위치로 스캐닝 라인을 따라 이동하면서, 지속적으로 대상체의 초음파 데이터를 획득할 수 있다.
도 5b를 참조하면, 프로브(500b)는 2차원 매트릭스 배열형 프로브일 수 있다. 프로브(500b)는 2차원 매트릭스 형태로 배열된 트랜스듀서를 포함할 수 있다. 프로브(500b)는 스캔 시작 위치에서 스캔 종료 위치로 스캐닝 라인을 따라 이동하면서, 지속적으로 대상체의 3차원 초음파 입체 영상을 제공하기 위한 초음파 데이터를 획득할 수 있다. 그러나 본 개시의 기술적 특징이 상술된 프로브의 종류에 한정되는 것은 아니며, 프로브는 위상 배열 프로브(Phased Array Probe), 3D Matrix 프로브 등 다양한 형태로 제공될 수 있다.
도 6은 일 실시예에 따른 프로브의 움직임을 설명하기 위한 도면이다.
도 6을 참조하면, 프로브를 중심으로 직각을 이루는 세 방향, 즉, 축 방향(Axial Direction; A), 측 방향(Lateral Direction; L), 및 고도 방향(Elevation Direction; E)이 각각 정의될 수 있다. 실시예에 있어서, 초음파 신호가 조사되는 방향을 축 방향(A)으로, 트랜스듀서가 열을 형성하는 방향을 측 방향(L)으로, 축 방향(A) 및 측 방향(L)과 수직한 나머지 한 방향을 고도 방향(E)으로 정의할 수 있다. 프로브의 움직임은 상술된 방향에 기초하여 표현될 수 있다. 실시예에 있어서, 스캐닝 라인은 상술된 세 방향에 관한 정보를 모두 포함할 수 있다. 그러나 이는 예시적인 것으로, 스캐닝 라인은 프로브의 중심 위치의 이동에 관한 정보만을 포함하거나, 상술된 세 방향에 관한 정보 중 일부만을 포함하는 등 예시된 바 이외에 당업계에 알려진 다른 형태로도 마련될 수 있다.
도 7은 도 5a의 프로브를 이용하여 대상체의 초음파 데이터를 획득하는 방법을 설명하기 위한 도면이다. 도 7을 참조하면, 프로브(500a)는 스캔 시작 위치에서 스캔 종료 위치로 스캐닝 라인을 따라 진행방향으로 이동하면서, 대상체에 대한 초음파 데이터를 획득할 수 있다. 스캔 시작 위치는 대상체에 대한 초음파 데이터 획득을 시작할 때의 프로브(500a)의 위치일 수 있다. 스캔 종료 위치는 대상체에 대한 초음파 데이터 획득을 종료할 때의 프로브(500a)의 위치일 수 있다.
일 실시예에 있어서, 프로브(500a)는 연속적으로 초음파 데이터를 획득할 수 있다. 혹은, 프로브(500a)는 소정의 시간을 주기로 하여 등간격으로 초음파 데이터를 획득할 수 있다. 혹은, 프로브(500a)는 가변적인 시간 간격으로 초음파 데이터를 획득할 수 있다.
실시예에 있어서, 초음파 데이터는 대상체 단면 데이터일 수 있다. 대상체 단면 데이터는 대상체의 단면에 기초한 데이터일 수 있다. 예를 들어, 대상체 단면 데이터는 대상체의 단면을 도시하는 이차원 영상일 수 있다.
실시예에 있어서, 프로브(500a)는 대상체를 향하여 송신각(θ)의 각도로 초음파 데이터를 획득하기 위한 신호를 송신할 수 있다. 실시예에 있어서, 프로브(500a)가 획득하는 초음파 데이터는 대상체의 송신각(θ) 방향 단면 혹은 단면을 중심으로 하는 소정의 볼륨에 기초한 데이터일 수 있다. 실시예에 있어서, 프로브(500a)는 송신각(θ)을 측정하기 위한 추가적인 구성을 구비할 수도 있다. 혹은, 프로브(500a)는 기 설정된 송신각(θ)으로 신호를 송신하도록 고정된 각도로 움직일 수도 있다.
초음파 영상 장치는 하나 이상의 대상체 단면 데이터에 기초하여, 초음파 영상 볼륨을 획득할 수 있다.
도 8은 도 5b의 프로브를 이용하여 대상체의 초음파 데이터를 획득하는 방법을 설명하기 위한 도면이다. 도 8을 참조하면, 프로브(500b)는 스캔 시작 위치에서 스캔 종료 위치로 스캐닝 라인을 따라 진행방향으로 이동하면서, 대상체에 대한 초음파 데이터를 획득할 수 있다. 일 실시예에 있어서, 프로브(500b)는 연속적으로 초음파 데이터를 획득할 수 있다. 혹은, 프로브(500b)는 소정의 시간을 주기로 하여 등간격으로 초음파 데이터를 획득할 수 있다. 혹은, 프로브(500b)는 가변적인 시간 간격으로 초음파 데이터를 획득할 수 있다.
실시예에 있어서, 초음파 데이터는 대상체 단면 데이터일 수 있다. 대상체 단면 데이터는 대상체의 단면을 중심으로 하는 소정의 볼륨에 기초한 데이터일 수 있다. 예를 들어, 대상체 단면 데이터는 대상체의 단면을 중심으로 하는 소정의 볼륨을 도시하는 3차원 영상일 수 있다.
초음파 영상 장치는 하나 이상의 대상체 단면 데이터에 기초하여, 초음파 영상 볼륨을 획득할 수 있다.
도 9는 일 실시예에 의한 초음파 데이터에 기초하여 초음파 영상 볼륨을 획득하는 방법을 설명하기 위한 도면이다. 도 9를 참조하면, 초음파 영상 장치는 스캐닝 라인에 대응되는 대상체 부분의 초음파 영상 볼륨을 획득할 수 있다.
도 9에서, 초음파 데이터는 대상체 단면 데이터일 수 있다. 이하에서, 대상체 단면 데이터는 대상체의 단면 혹은 단면을 중심으로 하는 소정의 볼륨에 기초한 데이터를 포함할 수 있다. 프로브는 스캔 시작 위치에서 스캔 종료 위치로 스캐닝 라인을 따라 진행 방향으로 이동하면서, 대상체에 대한 하나 이상의 대상체 단면 데이터를 획득할 수 있다. 초음파 영상 장치는 하나 이상의 대상체 단면 데이터에 기초하여, 초음파 영상 볼륨을 획득할 수 있다.
초음파 영상 볼륨은, 대상체 중 스캐닝 라인에 대응하여 스캔되는 부분(이하, 대상체 측정 부분)의 영상을 나타내는 볼륨이다. 실시예에 있어서, 초음파 영상 장치는 하나 이상의 대상체 단면 데이터를 정합하여 초음파 영상 볼륨을 획득할 수 있다.
초음파 영상 볼륨을 높은 정확도로 획득하기 위해서, 대상체 측정 부분의 전체 길이를 판별하는 것이 중요할 수 있다. 실시예에 있어서, 초음파 영상 장치는 신체 형상 및 스캐닝 라인에 기초하여 대상체 측정 부분의 길이를 계산하고, 계산된 길이에 기초하여 대상체 단면 데이터로부터 초음파 영상 볼륨을 획득할 수 있다.
한편, 초음파 영상 장치는 스캐닝 라인의 형상을 더 이용하여 대상체 단면 데이터로부터 초음파 영상 볼륨을 획득할 수 있다. 예를 들어, 스캐닝 라인이 곡선형인 경우, 초음파 영상 장치는 스캐닝 라인에 기초하여, 곡선형으로 형성되는 초음파 영상 볼륨을 획득할 수 있다.
도 10은 일 실시예에 의한 사용자의 신체 정보에 기초하여 선택되는 신체 형상을 설명하기 위한 도면이다. 도 10에서는 예시적으로, 사용자의 신체 정보가 사용자의 연령, 성별 및 신장을 포함하는 것으로 도시되었다. 그러나 본 실시예의 신체 정보가 상술된 예시에 한정되지 않음은 당업자들에게 충분히 이해될 것이다.
도 10을 참조하면, 사용자의 성별, 연령 및 신장에 따라, 사용자의 신체 형상의 등신 및 형태가 다르게 예측될 수 있다. 실시예에 있어서, 초음파 영상 장치는 사용자의 신체 정보에 기초하여, 라이브러리에 저장된 복수의 표준 신체 형상들 중, 디스플레이될 신체 형상을 선택할 수 있다.
도 11은 일 실시예에 의한 신체 형상을 선택하는 방법을 설명하기 위한 도면이다. 도 11을 참조하면, 초음파 영상 장치는 신체 형상의 유형을 선택하기 위한 사용자 인터페이스와, 사용자의 신체 중 일부분을 신체 형상으로 선택하기 위한 사용자 인터페이스를 제공할 수 있다. 도 11에서 두 사용자 인터페이스가 하나의 디스플레이부에 디스플레이되었으나 이는 예시적인 것으로, 초음파 영상 장치가 각 사용자 인터페이스를 각각 제공하거나 순차적으로 제공하는 등 다양한 방식으로 제공할 수 있음은 당업자에게 충분히 이해될 것이다.
도 11을 참조하면, 초음파 영상 장치는 복수의 신체 형상 유형들에 대응되는 복수의 심볼들(1101, 1102, 1103, 1104, 1105)을 디스플레이할 수 있다. 도 11에서, 복수의 심볼들은 각각 신체의 정면도에 대응되는 심볼(1101), 신체의 측면도에 대응되는 심볼(1102). 신체의 골격도에 대응되는 심볼(1103), 신체의 해부학도에 대응되는 심볼(1104) 및 신체의 3차원 영상에 대응되는 심볼(1105)로 도시되었다. 그러나 본 실시예에서 신체 형상 유형의 종류는 상술된 예시에 한정되지 않으며, 신체의 정면도, 후면도, 단면도 및 3차원 영상 등 다양한 형태로 제공될 수 있다.
또한, 도 11을 참조하면, 초음파 영상 장치는 사용자의 신체의 복수의 부분들에 대응되는 복수의 심볼들(1111, 1112, 1113, 1114)을 디스플레이할 수 있다. 도 11에서, 복수의 심볼들은 각각 왼팔에 대응되는 심볼(1111), 오른팔에 대응되는 심볼(1112), 다리에 대응되는 심볼(1113) 및 몸통에 대응되는 심볼(1114)로 도시되었다. 그러나 본 실시예에서 신체의 부분은 상술된 예시에 한정되지 않으며, 상체, 하체 및 두부 등 다양한 형태로 제공될 수 있다.
한편, 초음파 영상 장치는 디스플레이된 복수의 심볼들(1101, 1102, 1103, 1104, 1105)에 기초하여, 신체 형상의 유형을 선택하기 위한 신호를 입력받을 수 있는 사용자 인터페이스를 제공할 수 있다. 예시적으로, 신체 형상의 유형을 선택하기 위한 신호는 심볼들(1101, 1102, 1103, 1104, 1105) 중 하나를 선택하는 방식으로 입력될 수 있다.
또한, 초음파 영상 장치는 디스플레이된 복수의 심볼들(1111, 1112, 1113, 1114)에 기초하여, 복수의 신체 부분들 중 하나의 부분을 선택하기 위한 신호를 입력받을 수 있는 사용자 인터페이스를 제공할 수 있다. 예시적으로, 신체 부분을 선택하기 위한 신호는 심볼들(1111, 1112, 1113, 1114) 중 하나를 선택하는 방식으로 입력될 수 있다.
실시예에 있어서, 초음파 영상 장치는 선택된 신체 부분을 선택된 신체 형상 유형으로 디스플레이할 수 있다.
도 12는 일 실시예에 의한 초음파 영상 볼륨 획득 방법을 설명하기 위한 도면이다. 도 12를 참조하면, 이동 가능한 프로브, 예를 들어 프리핸드(freehand) 유형의 프로브, 를 이용하여 대상체에 대한 초음파 데이터가 획득될 수 있다.
한편, 초음파 영상 장치는 사용자의 신체 형상을 디스플레이 할 수 있다. 도 12에서 사용자의 신체 형상은 전신의 정면도의 형태로 도시되었으나, 초음파 영상 장치가 디스플레이하는 신체 형상의 유형 및 신체 부분은 이에 한정되지 않음은 충분히 이해될 것이다.
초음파 영상 장치는 사용자 인터페이스를 이용하여, 스캐닝 라인에 관한 정보를 획득할 수 있다. 도 12에서는 예시적으로, 디스플레이된 신체 형상 상에서 스캔 시작 위치를 나타내는 점(이하 시작점) 및 신체 형상 상에서 스캔 종료 위치를 나타내는 점(이하 종료점)을 입력하는 사용자 인터페이스가 도시되었다. 초음파 영상 장치는 획득한 스캐닝 라인에 관한 정보를 이용하여 스캐닝 라인을 근사할 수 있다.
초음파 영상 장치는 신체 형상 및 스캐닝 라인에 관한 정보에 기초하여, 초음파 데이터로부터 초음파 영상 볼륨을 획득할 수 있다. 예를 들어, 초음파 영상 장치는 스캐닝 라인을 나타내는 선의 신체 형상 상에서의 길이와, 신체 형상의 축척을 이용하여, 스캐닝 라인의 길이를 계산할 수 있다. 초음파 영상 장치는 계산된 스캐닝 라인의 길이를 대상체 측정 부분의 길이로 근사할 수 있다. 도 12에서는 예시적으로, 사용자의 신장이 150cm이고 신체 형상 상에서 스캐닝 라인을 나타내는 선의 길이가 신체 형상 길이의 1/5인 경우, 스캐닝 라인의 길이가 30cm로 근사된 결과가 도시되었다. 초음파 영상 장치는 계산된 길이에 기초하여, 초음파 영상 볼륨을 획득할 수 있다.
도 13은 일 실시예에 의한 스캐닝 라인에 관한 정보 입력 방법을 설명하기 위한 도면이다. 도 13을 참조하면, 스캐닝 라인에 관한 정보는 디스플레이된 신체 형상 상에서 스캔 위치를 나타내는 점의 위치를 입력하는 형태로 입력될 수 있다.
실시예에 있어서, 사용자 인터페이스는 디스플레이된 신체 형상 상에서 스캔 시작 위치를 나타내는 점인 시작점(1301)과 디스플레이된 신체 형상 상에서 스캔 종료 위치를 나타내는 점인 종료점(1302)을 입력하기 위한 인터페이스를 제공할 수 있다. 이때, 스캐닝 라인은, 상술된 스캔 시작 위치와 스캔 종료 위치를 연결하는 선(1303)의 형태로 근사될 수 있다. 도 13에서는 예시적으로, 스캔 시작 위치와 스캔 종료 위치를 최단 거리로 연결하는 직선의 형태로 근사되었다.
한편, 스캐닝 라인에 관한 정보는, 디스플레이된 신체 형상 상에서, 스캔 시작 위치와 스캔 종료 위치를 지시하는 정보를 포함하는 복수의 위치를 지시하는 정보의 형태로 획득될 수 있다. 즉, 사용자 인터페이스는 신체 형상 상에서, 복수의 스캔 위치를 나타내는, 시작점(1311) 및 종료점(1313)을 포함하는 복수의 점들(1311~1313)을 입력하기 위한 인터페이스를 제공할 수 있다. 사용자 인터페이스는 복수의 점들(1311~1313)을 스캔 시계열 순으로 정렬하는 인터페이스를 제공할 수 있다. 이때, 스캐닝 라인은 복수의 스캔 위치를 연결하는 선(1314)의 형태로 근사될 수 있다. 도 13에서는 예시적으로, 스캔 시작 위치, 적어도 하나의 스캔 중간 위치 및 스캔 종료 위치 사이를 각각 최단 거리로 연결하는 꺾은선의 형태로 근사되었다.
도 14는 일 실시예에 의한 스캐닝 라인에 관한 정보 입력 방법을 설명하기 위한 도면이다. 도 14를 참조하면, 스캐닝 라인에 관한 정보는 디스플레이된 신체 형상 상에서 스캐닝 라인을 나타내는 임의의 선의 형태로 입력될 수 있다.
실시예에 있어서, 사용자 인터페이스는 디스플레이된 신체 형상 상에서 스캐닝 라인을 나타내는 자유 곡선(1401)을 그리기(draw) 위한 인터페이스를 제공할 수 있다. 초음파 영상 장치는 상술된 자유 곡선(1401)의 입력이 시작된 위치를 시작점으로, 입력이 종료된 위치를 종료점으로 판별할 수 있다.
한편, 신체 형상이 3차원 영상인 경우, 사용자 인터페이스는 디스플레이된 신체 형상 상에서 스캐닝 라인을 나타내는 3차원 자유 곡선(1402)을 그리기(draw) 위한 인터페이스를 제공할 수 있다. 초음파 영상 장치는 상술된 자유 곡선(1402)의 입력이 시작된 위치를 시작점으로, 입력이 종료된 위치를 종료점으로 판별할 수 있다.
한편, 개시된 실시 예들은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는 컴퓨터로 읽을 수 있는 기록매체의 형태로 구현될 수 있다. 상기 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 상기 명령어는 프로세서에 의해 실행되었을 때, 개시된 실시 예들의 소정의 동작들을 수행할 수 있다.

Claims (15)

  1. 초음파 영상을 표시하는 방법에 있어서,
    스캐닝 라인에 기초하여 이동하는 프로브를 이용하여 초음파 데이터를 획득하는 단계;
    사용자의 신체 형상을 디스플레이하는 단계;
    사용자 인터페이스를 통해, 상기 스캐닝 라인에 관한 정보를 획득하는 단계; 및
    상기 신체 형상과 상기 스캐닝 라인에 관한 정보에 기초하여, 상기 초음파 데이터로부터 초음파 영상 볼륨을 획득하는 단계를 포함하는, 방법.
  2. 제 1항에 있어서,
    상기 사용자 인터페이스를 통해 상기 사용자의 신장을 획득하는 단계를 더 포함하고,
    상기 초음파 데이터로부터 초음파 영상 볼륨을 획득하는 단계는, 상기 신장, 상기 신체 형상 및 상기 스캐닝 라인에 관한 정보에 기초하여, 상기 초음파 데이터로부터 초음파 데이터 볼륨을 획득하는 단계인, 방법.
  3. 제 1항에 있어서, 상기 신체 형상은 상기 사용자의 신체 중 일부 부분을 도시하는 형상인, 방법.
  4. 제 3항에 있어서,
    상기 사용자의 신체 형상을 디스플레이하는 단계는
    상기 사용자의 신체의 복수의 부분들에 대응되는 복수의 심볼들을 디스플레이하는 단계;
    사용자 인터페이스를 통해, 상기 복수의 부분들 중 하나의 부분을 선택하는 신호를 획득하는 단계; 및
    상기 신호에 기초하여 선택된 부분을 상기 신체 형상으로 디스플레이하는 단계를 포함하는, 방법.
  5. 제 1항에 있어서, 상기 스캐닝 라인에 관한 정보는 상기 디스플레이된 신체 형상 상에서 상기 스캐닝 라인의 시작점과 끝점을 지시하는 정보의 형태로 획득되는, 방법.
  6. 제 1항에 있어서, 상기 스캐닝 라인에 관한 정보는 상기 디스플레이된 신체 형상 상에서 상기 스캐닝 라인을 지시하는 선(line)의 형태로 획득되는, 방법.
  7. 제 1항에 있어서, 상기 신체 형상은 상기 사용자의 신체의 정면도, 후면도, 단면도 및 3차원 영상 중 적어도 하나의 유형으로 제공되는, 방법.
  8. 디스플레이부;
    사용자 인터페이스;
    하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 하나 이상의 인스트럭션을 실행함으로써,
    스캐닝 라인에 기초하여 이동하는 프로브를 이용하여 초음파 데이터를 획득하고, 사용자의 신체 형상이 디스플레이되도록 상기 디스플레이부를 제어하고, 상기 스캐닝 라인에 관한 정보가 획득되도록 상기 사용자 인터페이스를 제어하고, 상기 신체 형상과 상기 스캐닝 라인에 관한 정보에 기초하여 상기 초음파 데이터로부터 초음파 영상 볼륨을 획득하는 프로세서를 포함하는, 초음파 영상 장치.
  9. 제 8항에 있어서,
    상기 프로세서는 상기 사용자의 신장을 획득하도록 상기 사용자 인터페이스를 제어하고, 상기 신장, 상기 신체 형상 및 상기 스캐닝 라인에 관한 정보에 기초하여, 상기 초음파 데이터로부터 초음파 데이터 볼륨을 획득하는, 초음파 영상 장치.
  10. 제 8항에 있어서, 상기 신체 형상은 상기 사용자의 신체 중 일부 부분을 도시하는 형상인, 초음파 영상 장치.
  11. 제 10항에 있어서,
    상기 프로세서는 상기 사용자의 신체의 복수의 부분들에 대응되는 복수의 심볼들이 디스플레이되도록 상기 디스플레이부를 제어하고, 상기 사용자 인터페이스를 통해 상기 복수의 부분들 중 하나의 부분을 선택하는 신호를 획득하고, 상기 신호에 기초하여 선택된 부분이 상기 신체 형상으로 디스플레이되도록 상기 디스플레이부를 제어하는, 초음파 영상 장치.
  12. 제 8항에 있어서,
    상기 스캐닝 라인에 관한 정보는 상기 디스플레이된 신체 형상 상에서 상기 스캐닝 라인의 시작점과 끝점을 지시하는 정보의 형태로 획득되는, 초음파 영상 장치.
  13. 제 8항에 있어서, 상기 스캐닝 라인에 관한 정보는 상기 디스플레이된 신체 형상 상에서 상기 스캐닝 라인을 지시하는 선(line)의 형태로 획득되는, 초음파 영상 장치.
  14. 제 8항에 있어서, 상기 신체 형상은 상기 사용자의 신체의 정면도, 후면도, 단면도 및 3차원 영상 중 적어도 하나의 유형으로 제공되는, 초음파 영상 장치.
  15. 프로세서에 의해 판독되어 수행되었을 때, 초음파 영상 표시 방법을 수행하는 컴퓨터 프로그램 코드를 저장하는 컴퓨터로 판독 가능한 기록매체로서, 상기 초음파 영상 표시 방법은,
    스캐닝 라인에 기초하여 이동하는 프로브를 이용하여 초음파 데이터를 획득하는 단계;
    사용자의 신체 형상을 디스플레이하는 단계;
    사용자 인터페이스를 통해, 상기 스캐닝 라인에 관한 정보를 획득하는 단계; 및
    상기 신체 형상과 상기 스캐닝 라인에 관한 정보에 기초하여, 상기 초음파 데이터로부터 초음파 영상 볼륨을 획득하는 단계를 포함하는, 컴퓨터로 판독 가능한 기록 매체.
PCT/KR2019/014727 2019-01-23 2019-11-01 초음파 영상 장치 및 그 표시 방법 WO2020153583A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP19911738.3A EP3915486A4 (en) 2019-01-23 2019-11-01 ULTRASOUND IMAGING DEVICE AND DISPLAY METHOD THEREOF
US17/424,111 US20220061817A1 (en) 2019-01-23 2019-11-01 Ultrasonic imaging apparatus and display method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190008605A KR20200091624A (ko) 2019-01-23 2019-01-23 초음파 영상 장치 및 그 표시 방법
KR10-2019-0008605 2019-01-23

Publications (1)

Publication Number Publication Date
WO2020153583A1 true WO2020153583A1 (ko) 2020-07-30

Family

ID=71735769

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/014727 WO2020153583A1 (ko) 2019-01-23 2019-11-01 초음파 영상 장치 및 그 표시 방법

Country Status (4)

Country Link
US (1) US20220061817A1 (ko)
EP (1) EP3915486A4 (ko)
KR (1) KR20200091624A (ko)
WO (1) WO2020153583A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS623609B2 (ko) * 1978-04-12 1987-01-26 Nippon Electric Co
KR20020071377A (ko) * 2001-03-06 2002-09-12 마이크로소노 테크놀로지스 인코포레이티드 위치센서를 이용한 3차원 영상 검출 장치
KR20120045696A (ko) * 2010-11-01 2012-05-09 삼성메디슨 주식회사 Pw 도플러 영상과 함께 컬러 m 모드 영상을 제공하는 초음파 시스템 및 방법
KR101562569B1 (ko) * 2013-11-05 2015-10-22 한국디지털병원수출사업협동조합 3차원 초음파 스캔 이미지의 합성을 포함한 3차원 초음파 진단 장치 및 방법
KR20160088616A (ko) * 2015-01-16 2016-07-26 지멘스 메디컬 솔루션즈 유에스에이, 인크. 대상체의 영상을 형성하는 방법 및 초음파 시스템

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007202829A (ja) * 2006-02-02 2007-08-16 Hitachi Medical Corp 超音波診断装置
CN102711603B (zh) * 2011-01-11 2017-07-18 东芝医疗系统株式会社 图像诊断装置、图像诊断方法、医用图像服务器以及医用图像保存方法
WO2013101562A2 (en) * 2011-12-18 2013-07-04 Metritrack, Llc Three dimensional mapping display system for diagnostic ultrasound machines
JP2015154885A (ja) * 2014-02-21 2015-08-27 セイコーエプソン株式会社 血圧計測装置
KR101705120B1 (ko) * 2014-08-28 2017-02-09 삼성전자 주식회사 자가 진단 및 원격 진단을 위한 초음파 진단 장치 및 초음파 진단 장치의 동작 방법
RU2748435C2 (ru) * 2016-04-18 2021-05-25 Конинклейке Филипс Н.В. Ультразвуковая система и способ для визуализации ткани груди
EP3485816A1 (en) * 2017-11-21 2019-05-22 Koninklijke Philips N.V. Method and apparatus for guiding an ultrasound probe

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS623609B2 (ko) * 1978-04-12 1987-01-26 Nippon Electric Co
KR20020071377A (ko) * 2001-03-06 2002-09-12 마이크로소노 테크놀로지스 인코포레이티드 위치센서를 이용한 3차원 영상 검출 장치
KR20120045696A (ko) * 2010-11-01 2012-05-09 삼성메디슨 주식회사 Pw 도플러 영상과 함께 컬러 m 모드 영상을 제공하는 초음파 시스템 및 방법
KR101562569B1 (ko) * 2013-11-05 2015-10-22 한국디지털병원수출사업협동조합 3차원 초음파 스캔 이미지의 합성을 포함한 3차원 초음파 진단 장치 및 방법
KR20160088616A (ko) * 2015-01-16 2016-07-26 지멘스 메디컬 솔루션즈 유에스에이, 인크. 대상체의 영상을 형성하는 방법 및 초음파 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3915486A4 *

Also Published As

Publication number Publication date
US20220061817A1 (en) 2022-03-03
EP3915486A4 (en) 2022-10-26
EP3915486A1 (en) 2021-12-01
KR20200091624A (ko) 2020-07-31

Similar Documents

Publication Publication Date Title
US8756033B2 (en) Ultrasonic diagnostic imaging system and control method thereof
WO2015102474A1 (en) Ultrasound diagnostic apparatus, ultrasound image capturing method, and computer-readable recording medium
EP3185778A1 (en) Ultrasound diagnosis apparatus for self-diagnosis and remote-diagnosis, and method of operating the ultrasound diagnosis apparatus
WO2015130070A2 (en) Ultrasound diagnostic apparatus and method of operating the same
WO2019143123A1 (en) Ultrasound imaging apparatus and method of controlling the same
WO2013095032A1 (ko) 초음파 영상을 이용하여 정중 시상면을 자동으로 검출하는 방법 및 그 장치
WO2016182166A1 (en) Method of displaying elastography image and ultrasound diagnosis apparatus performing the method
WO2015088277A1 (ko) 초음파 영상 표시 방법 및 장치
EP3673813B1 (en) Ultrasound diagnosis apparatus
WO2018182308A1 (ko) 초음파 진단 장치 및 그 동작 방법
WO2016052817A1 (en) Method and medical imaging apparatus for generating elastic image by using curved array probe
WO2016047895A1 (en) Ultrasound imaging apparatus and method using synthetic aperture focusing
WO2018092993A1 (ko) 초음파 진단 장치 및 그 동작 방법
WO2015160047A1 (en) Medical imaging apparatus and method of operating the same
WO2017179782A1 (ko) 초음파 진단 장치 및 그 제어 방법
WO2015002400A1 (en) Ultrasonic diagnostic apparatus and method of operating the same
WO2017135500A1 (ko) 대상체의 속도를 출력하는 방법 및 이를 위한 초음파 진단 장치
KR20190094974A (ko) 초음파 진단 장치 및 초음파 진단 장치의 제어 방법
WO2020153583A1 (ko) 초음파 영상 장치 및 그 표시 방법
WO2018139707A1 (ko) 대상체에 관한 횡파 탄성 데이터를 표시하는 초음파 진단 장치 그 동작 방법
WO2021182726A1 (ko) 초음파 진단 장치 및 그 동작방법
WO2020159008A1 (ko) 초음파 영상 장치 및 초음파 영상 생성 방법
WO2017135698A1 (ko) 초음파 진단장치 및 그 제어방법
WO2020246773A1 (ko) 초음파 영상과 3차원 의료 영상의 정렬을 위한 장치 및 방법
WO2018155782A1 (ko) 초음파 영상장치 및 그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19911738

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019911738

Country of ref document: EP

Effective date: 20210823