WO2024090746A1 - Ultrasound image processing method and device - Google Patents

Ultrasound image processing method and device Download PDF

Info

Publication number
WO2024090746A1
WO2024090746A1 PCT/KR2023/011445 KR2023011445W WO2024090746A1 WO 2024090746 A1 WO2024090746 A1 WO 2024090746A1 KR 2023011445 W KR2023011445 W KR 2023011445W WO 2024090746 A1 WO2024090746 A1 WO 2024090746A1
Authority
WO
WIPO (PCT)
Prior art keywords
interest
objects
annotation
image
ultrasound image
Prior art date
Application number
PCT/KR2023/011445
Other languages
French (fr)
Korean (ko)
Inventor
김덕석
최보경
Original Assignee
주식회사 엠티이지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엠티이지 filed Critical 주식회사 엠티이지
Publication of WO2024090746A1 publication Critical patent/WO2024090746A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image

Definitions

  • the technical field of the present disclosure relates to ultrasonic image processing methods and devices for optimal images, and to the technical field of providing a method of providing useful information to users through image processing of ultrasonic images.
  • Video media can record the scene as is and allow viewers to convey content more effectively through audio-visual effects. Due to the advantages of these video media, information delivery using video is being carried out in various fields. For example, YouTube, a leader in the video market, provides users with the information they want more effectively through a search engine for keywords.
  • the problem to be solved in this disclosure concerns an ultrasonic image processing method and device, which can improve user convenience in terms of providing a method for easily utilizing ultrasonic images.
  • a user-optimized ultrasound image processing method includes: acquiring an ultrasound image including one or more objects of interest; Obtaining an optimal image for the one or more objects of interest from the ultrasound image; Obtaining an annotation used to access the optimal image; Obtaining a time table representing a monitoring situation for the one or more objects of interest; and providing the annotation and the time table that operates in conjunction with the annotation.
  • annotation may include information about the start and end points of the optimal image.
  • the time table may include information about when the one or more objects of interest are recognized simultaneously.
  • the step of providing the time table may highlight and display on the time table a point in time when a preset number or more objects of interest among the one or more objects of interest are simultaneously recognized.
  • the step of displaying the one or more objects of interest in different ways may display the one or more objects of interest in different colors.
  • the step of acquiring the optimal image from the ultrasound image may be performed before the step of performing the segmentation.
  • the optimal image may be obtained from the ultrasound image based on a positional relationship between the one or more objects of interest.
  • the one or more objects of interest include an artery, a nervous system, and a rib
  • the step of acquiring the optimal image from the ultrasound image produces an image in which the one or more objects of interest are arranged in the order of the nervous system, the artery, and the ribs. It can be determined based on the optimal image.
  • the step of providing the time table may display editing graphics for editing the start and end points of the optimal image indicated by the annotation and removal graphics for removing the annotation in an area adjacent to the annotation.
  • An ultrasound image processing device comprising: a receiver for acquiring an ultrasound image including one or more objects of interest; and obtaining an optimal image for the one or more objects of interest from the ultrasound image, obtaining an annotation used to access the optimal image, and obtaining a time table indicating a monitoring situation for the one or more objects of interest. It may include a processor that provides annotations and the time table that operates in conjunction with the annotations.
  • annotation may include information about the start and end points of the optimal image.
  • the time table may include information about when the one or more objects of interest are recognized simultaneously.
  • the processor may further include a display that performs segmentation of the one or more objects of interest included in the ultrasound image and displays the one or more objects of interest on which the segmentation has been performed in different ways.
  • the processor may obtain the optimal image from the ultrasound image before performing the segmentation.
  • the optimal image may be obtained from the ultrasound image based on a positional relationship between the one or more objects of interest.
  • the display may further include displaying editing graphics for editing the start and end points of the optimal image indicated by the annotation and removal graphics for removing the annotation in an area adjacent to the annotation.
  • the third aspect of the present disclosure may provide a non-transitory computer-readable recording medium on which a program for implementing the method of the first aspect is recorded.
  • FIG. 1 is a diagram illustrating an example of a device or server implemented on a system according to an embodiment.
  • Figure 2 is a block diagram schematically showing the configuration of a device according to an embodiment.
  • Figure 3 is a flowchart showing each step in which a device operates according to an embodiment.
  • FIG. 4 is a diagram illustrating an example in which a device acquires an optimal image according to an embodiment.
  • FIG. 5 is a diagram illustrating an example in which a device acquires an annotation according to an embodiment.
  • FIG. 6 is a diagram illustrating an example in which a device acquires a time table according to an embodiment.
  • FIG. 7 is a diagram illustrating an example in which a device according to an embodiment provides optimal images, time tables, and annotations in conjunction with each other.
  • Spatially relative terms such as “below”, “beneath”, “lower”, “above”, “upper”, etc. are used as a single term as shown in the drawing. It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms that include different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is flipped over, a component described as “below” or “beneath” another component will be placed “above” the other component. You can. Accordingly, the illustrative term “down” may include both downward and upward directions. Components can also be oriented in other directions, so spatially relative terms can be interpreted according to orientation.
  • FIG. 1 is a diagram illustrating an example in which a device 100 or a server according to an embodiment is implemented on a system.
  • the medical information system includes a device 100, an external server 130, a storage medium 140, a communication device 150, a virtual server 160, a user terminal 170, and a network. It can be included.
  • the medical information system may further include a blockchain server (not shown) that operates in conjunction with the network.
  • a blockchain server not shown
  • those skilled in the art may understand that some of the components shown in FIG. 1 may be omitted.
  • the device 100 may obtain information related to medical procedures such as surgery from various sources.
  • the device 100 may obtain information (e.g., video) related to medical procedures such as surgery from an information acquisition device (not shown).
  • Information acquisition devices may include, but are not limited to, imaging devices, recording devices, and biological signal acquisition devices.
  • the device 100 may obtain information (eg, video) related to medical procedures such as surgery from the network.
  • Biological signals may include signals obtained from living organisms, such as body temperature signals, pulse signals, respiration signals, blood pressure signals, electromyography signals, and brain wave signals, without limitation.
  • An imaging device which is an example of an information acquisition device (not shown), includes a first imaging device (e.g., CCTV, etc.) that photographs the entire operating room situation and a second imaging device (e.g., endoscope, etc.) that focuses on photographing the surgical site. It can be done, but is not limited to this.
  • the device 100 may acquire images (videos, still images, etc.) related to medical procedures such as surgery from an information acquisition device (not shown) or a network.
  • Video can be understood as a concept that includes both moving images and still images.
  • the device 100 may perform image processing on the acquired image.
  • Image processing according to an embodiment may include naming, encoding, storage, transmission, editing, and metadata creation for each image, but is not limited thereto.
  • the device 100 may transmit medical treatment-related information obtained from an information acquisition device (not shown) or a network as is or as updated information to the network.
  • Transmission information transmitted by the device 100 to the network may be transmitted to external devices 130, 140, 150, 160, and 170 through the network.
  • the device 100 may transmit the updated video to the external server 130, storage medium 140, communication device 150, virtual server 160, user terminal 170, etc. through the network.
  • Device 100 may receive various information (eg, feedback information, update request, etc.) from external devices 130, 140, 150, 160, and 170.
  • the communication device 150 may refer to a device used for communication without limitation (eg, a gateway), and the communication device 150 may communicate with a device that is not directly connected to the network, such as the user terminal 180.
  • the device 100 may include an input unit, an output processor, memory, etc., and may also include a display device (not shown). For example, through the display device, the user can view communication status, memory usage status, power status (e.g., battery state of charge, external power supply, etc.), thumbnail images for stored videos, currently operating mode, etc. You can check, etc.
  • display devices include liquid crystal display, thin film transistor-liquid crystal display, organic light-emitting diode, flexible display, and 3D display. display), electrophoretic display, etc.
  • the display device may include two or more displays depending on the implementation type. Additionally, when the touchpad of the display has a layered structure and is configured as a touch screen, the display can be used as an input device in addition to an output device.
  • networks may communicate with each other through wired or wireless communication.
  • a network may be implemented as a type of server and may include a Wi-Fi chip, Bluetooth chip, wireless communication chip, NFC chip, etc.
  • the device 100 can communicate with various external devices using a Wi-Fi chip, Bluetooth chip, wireless communication chip, NFC chip, etc.
  • Wi-Fi chips and Bluetooth chips can communicate using Wi-Fi and Bluetooth methods, respectively.
  • various connection information such as SSID and session key are first transmitted and received, and various information can be transmitted and received after establishing a communication connection using this.
  • a wireless communication chip can perform communication according to various communication standards such as IEEE, Zigbee, 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), and LTE (Long Term Evolution).
  • the NFC chip can operate in the NFC (Near Field Communication) method using the 13.56MHz band among various RF-ID frequency bands such as 135kHz, 13.56MHz, 433MHz, 860 ⁇ 960MHz, 2.45GHz, etc.
  • the input unit may refer to a means through which a user inputs data to control the device 100.
  • the input unit includes a key pad, dome switch, and touch pad (contact capacitive type, pressure resistance type, infrared detection type, surface ultrasonic conduction type, integral tension measurement type, There may be a piezo effect method, etc.), a jog wheel, a jog switch, etc., but it is not limited thereto.
  • the output unit may output an audio signal, a video signal, or a vibration signal, and the output unit may include a display device, a sound output device, and a vibration motor.
  • the user terminal 170 may include, but is not limited to, various wired and wireless communication devices such as a smartphone, SmartPad, and tablet PC.
  • the device 100 may update medical treatment-related information (eg, video) obtained from an information acquisition device (not shown). For example, the device 100 may perform naming, encoding, storage, transmission, editing, metadata creation, etc. on images acquired from an information acquisition device (not shown). As an example, the device 100 may name an image file using metadata (eg, creation time) of the acquired image. As another example, the device 100 may classify images related to medical procedures obtained from an information acquisition device (not shown). The device 100 can use learned AI to classify images related to medical procedures based on various criteria such as type of surgery, operator, and location of surgery.
  • medical treatment-related information eg, video
  • the device 100 may perform naming, encoding, storage, transmission, editing, metadata creation, etc. on images acquired from an information acquisition device (not shown).
  • the device 100 may name an image file using metadata (eg, creation time) of the acquired image.
  • the device 100 may classify images related to medical procedures obtained from an information acquisition device (not shown).
  • the device 100 can use learned AI to
  • the device 100 in FIG. 1 may be implemented as a server, and the scope of physical devices in which the device 100 can be implemented is not interpreted as being limited.
  • 'provision' can be interpreted to include not only the transmission of information but also all actions that provide any object such as information or screens, such as the action of displaying a screen, and is limited to special implementation actions. It doesn't work.
  • a selection input may be obtained as an example of a user input on a screen provided by the device 100 according to an embodiment.
  • Selection input according to one embodiment may be obtained through various methods, such as touch input, click input using a mouse, etc., and typing input using a keyboard.
  • FIG. 2 is a block diagram schematically showing the configuration of the device 100 according to an embodiment.
  • the device 100 may include a receiving unit 210, a processor 220, an output unit 230, and a memory 240.
  • the device 100 may be implemented with more components than those shown in FIG. 2 , or the device 100 may be implemented with fewer components than the components shown in FIG. 2 .
  • the device 100 may further include a communication unit (not shown) or an input unit (not shown) in addition to the receiver 210, processor 220, output unit 230, and memory 240. It may be possible. Additionally, an example of the output unit 230 may include a display (not shown).
  • the receiver 210 may obtain a selection input for a portion of the screen where a plurality of objects are provided in the video. Selective input may be provided in various ways, such as touch input, click input using a mouse, etc., and typing input using a keyboard.
  • the receiver 210 may acquire an ultrasound image including one or more objects of interest.
  • the ultrasound image may be acquired from an ultrasound image acquisition device (not shown) used to acquire the ultrasound image.
  • the receiver 210 may receive an ultrasound image wired or wirelessly using an ultrasound image acquisition device.
  • the receiver 210 may include an ultrasound image acquisition device.
  • the processor 220 acquires an optimal image for one or more objects of interest from an ultrasound image.
  • the processor 220 may learn samples for the optimal image and obtain the optimal image from the ultrasound image based on the learning result.
  • the processor 220 may obtain an optimal image from an ultrasound image based on the positional relationship between one or more objects of interest.
  • the processor 220 acquires an annotation used to access the optimal image.
  • An annotation according to an embodiment can provide a method of accessing an optimal image from an ultrasound image.
  • an annotation according to one example may provide a link to easily access a time section of 30 to 35 seconds, which is the time section corresponding to the optimal image in a 1-minute ultrasound image.
  • the processor 220 obtains a time table representing a monitoring situation for one or more objects of interest.
  • the time table contains information about when the object of interest is determined to be in the ultrasound image. Accordingly, the time table according to one embodiment may include information about when one or more objects of interest are recognized simultaneously.
  • the processor 220 provides annotations and a time table that operates in conjunction with the annotations.
  • the annotation, time table, and ultrasound image may operate in conjunction with each other.
  • FIG. 3 is a flowchart illustrating each step in which the device 100 operates according to an embodiment.
  • the device 100 acquires an ultrasound image including one or more objects of interest.
  • the ultrasound image may be acquired from an ultrasound image acquisition device (not shown) used to acquire the ultrasound image.
  • the device 100 may receive an ultrasound image wired or wirelessly from an ultrasound image acquisition device.
  • the device 100 may include an ultrasound image acquisition device.
  • An ultrasound image according to one embodiment may be provided as a file containing an image that is updated over time.
  • the ultrasound image may include an ultrasound image acquired as the depth is updated for the same viewpoint.
  • the ultrasound image may include an ultrasound image acquired as the aiming viewpoint is updated.
  • the device 100 acquires an optimal image for one or more objects of interest from an ultrasound image.
  • the device 100 can obtain an optimal image from an ultrasound image in various ways. For example, the device 100 may learn samples for the optimal image and obtain the optimal image from the ultrasound image based on the learning result. As another example, the device 100 may obtain an optimal image from an ultrasound image based on the positional relationship between one or more objects of interest.
  • a method for the device 100 according to an embodiment to obtain an optimal image from an ultrasound image based on the positional relationship between one or more objects of interest will be described.
  • One or more objects of interest may include arteries, nervous system, ribs, etc.
  • the device 100 may determine some of the ultrasound images among the plurality of ultrasound images as the optimal image based on the positional relationships of the nervous system, arteries, ribs, etc. For example, the device 100 may determine an ultrasound image arranged in the order of the nervous system, arteries, and ribs as the optimal image.
  • the arteries, nervous system, and ribs are listed in that order according to the direction from one side of the ultrasound image to the other side, and the ribs are arranged to support the arteries and nervous system, it can be determined as the optimal image.
  • the optimal image A more specific example of the optimal image will be described later in Figure 4.
  • the device 100 acquires an annotation used to access the optimal image.
  • An annotation according to an embodiment can provide a method of accessing an optimal image from an ultrasound image.
  • an annotation according to one example may provide a link to easily access a time section of 30 to 35 seconds, which is the time section corresponding to the optimal image in a 1-minute ultrasound image.
  • the device 100 may display an ultrasound image in a time section corresponding to the optimal image.
  • an annotation may include information about the start and end points of the optimal image.
  • the device 100 may display an ultrasound image corresponding to the start point of the optimal image.
  • the device 100 acquires a time table indicating a monitoring situation for one or more objects of interest.
  • the device 100 may provide a time table containing information about when an object of interest is monitored.
  • the time table contains information about when the object of interest is determined to be in the ultrasound image. Accordingly, the time table according to one embodiment may include information about when one or more objects of interest are recognized simultaneously.
  • the device 100 may highlight and display on the time table a point in time when a preset number of objects of interest or more among one or more objects of interest are recognized simultaneously.
  • the device 100 provides an annotation and a time table that operates in conjunction with the annotation.
  • the device 100 may provide annotations, time tables, and ultrasound images.
  • Ultrasound images may include optimal images.
  • the annotation, time table, and ultrasound image may operate in conjunction with each other. An example in which an annotation, a time table, and an ultrasound image are provided in conjunction with each other according to an embodiment will be described later with reference to FIG. 7 .
  • FIG. 4 is a diagram illustrating an example in which the device 100 acquires an optimal image according to an embodiment.
  • the device 100 according to an embodiment can obtain an optimal image in various ways.
  • the device 100 may acquire an optimal image by performing learning.
  • the device 100 may determine the optimal image among a plurality of ultrasound images by learning about a sample optimal image used as an example of the optimal image.
  • Various learning algorithms can be used for learning.
  • the location of the object of interest can be used as a main variable.
  • the device 100 may acquire an optimal image by performing learning.
  • the device 100 may obtain an optimal image from an ultrasound image based on the positional relationship between one or more objects of interest.
  • the device 100 may determine an ultrasound image arranged in the order of the nervous system 410, the artery 420, and the ribs 430 as the optimal image. Specifically, according to the direction from one side (e.g., upper side) of the ultrasound image to the other side (e.g., lower side), the nervous system 410, the artery 420, and the ribs 430 are listed in the order, and the ribs are connected to the artery and the nervous system. If it is arranged in a way that supports the , it can be determined as the optimal image.
  • the device 100 may perform segmentation on one or more objects of interest included in an ultrasound image. For example, the device 100 may distinguish the nervous system 410, arteries 420, and ribs 430 from each other by performing segmentation.
  • the device 100 may display a plurality of objects of interest in different ways.
  • the device 100 may display one or more objects of interest on which segmentation has been performed in different ways.
  • the plurality of objects of interest may be distinguished from each other, and the device 100 may display the plurality of distinct objects of interest in different ways.
  • the device 100 may display the nervous system 410, arteries 420, and ribs 430 in different colors, but is not limited thereto.
  • the device 100 may distinguish and display a plurality of objects of interest in a different manner not shown in FIG. 4 .
  • the device 100 may display the outlines of the nervous system 410, arteries 420, and ribs 430 by overlapping them on the ultrasound image.
  • the device 100 may exclude the ultrasound image and display an image that provides only the object of interest.
  • the device 100 may acquire an optimal image from an ultrasound image before performing segmentation.
  • the device 100 can acquire the optimal image with higher accuracy.
  • errors may occur during the segmentation process, and if these errors accumulate, inaccuracy may increase in the process of acquiring the optimal image.
  • the device 100 first acquires the optimal image before performing segmentation, and once the optimal image is acquired, higher accuracy can be secured by performing segmentation on the obtained optimal image. If segmentation is performed first, significant resource consumption occurs in the process of performing segmentation on all ultrasound images. However, if segmentation is performed only on the optimal images once acquired, resource consumption can be reduced.
  • FIG. 5 is a diagram illustrating an example in which the device 100 acquires an annotation according to an embodiment.
  • An annotation according to an embodiment can provide a method of accessing an optimal image from an ultrasound image.
  • the first annotation 510 may provide a link to easily access a time section of 16 to 17 seconds, which is the time section corresponding to the optimal image in the ultrasound image.
  • the device 100 may provide a plurality of annotations.
  • the device 100 may provide a first annotation 510, a second annotation 530, and a third annotation 530.
  • the device 100 may display an ultrasound image in a time section corresponding to the annotation to which the selection input was applied. For example, when a selection input is applied to the first annotation 510, the device 100 may display an ultrasound image corresponding to a time point of 16 seconds.
  • the ultrasound image in the time section corresponding to the annotation may be the optimal image.
  • the device 100 may generate and provide an annotation for the time section containing the optimal image for the entire time section of the ultrasound image.
  • an optimal image from an ultrasound image refer to the details described above with reference to FIG. 4 .
  • An annotation according to one embodiment may be created based on user input. For example, a new annotation may be created for a time period determined based on user input (for example, 34 to 35 seconds). For example, based on the text entered into the input area 541 and the save request obtained through the save button 542, the device 100 stores a time period determined based on the user input (e.g., 34 to 35 seconds). ) You can obtain a new annotation for.
  • the device 100 annotates the editing graphics 521 for editing the start and end points of the optimal image indicated by the annotation (e.g., the second annotation 520). )) can be displayed in the adjacent area. For example, when a user input is applied to the editing graphic 521, the device 100 provides a screen for editing the starting point and ending point of the second annotation 520, and the information obtained through the provided editing screen is displayed. The start and end points of the second annotation 520 may be updated based on user input.
  • the device 100 may display a removal graphic 522 for removing an annotation (e.g., the second annotation 520) in an area adjacent to the annotation (e.g., the second annotation 520). there is. For example, when a user input is applied to the removal graphic 522, the device 100 may delete the second annotation 520.
  • an annotation e.g., the second annotation 520
  • the device 100 may delete the second annotation 520.
  • FIG. 6 is a diagram illustrating an example in which the device 100 obtains a time table according to an embodiment.
  • the device 100 may provide a time table 600 including information on when an object of interest is monitored.
  • the time table 600 includes information about the point in time at which the object of interest is determined to be in the ultrasound image.
  • the first row 610 may indicate the point in time at which the first object of interest is determined to be in the ultrasound image
  • the second row 620 may indicate the point in time at which the second object of interest is determined to be in the ultrasound image.
  • the third row 630 may indicate a point in time at which it is determined that the third object of interest is in the ultrasound image.
  • the time table 600 may include information about when one or more objects of interest are recognized simultaneously.
  • the device 100 may highlight and display on the time table a point in time when a preset number or more of the objects of interest among one or more objects of interest are simultaneously recognized. For example, for the first time interval 641, the second time interval 642, and the third time interval 643 in which the first object of interest, the second object of interest, and the third object of interest are simultaneously monitored, the device 100 ) can be highlighted and displayed.
  • FIG. 7 is a diagram illustrating an example in which the device 100 according to an embodiment provides optimal images, time tables, and annotations in conjunction with each other.
  • the device 100 displays an ultrasound image including an optimal image in a first area, displays one or more annotations in a second area 720, and displays a time table 600 in a third area 730. ) can be displayed.
  • the positions of the first area 710, the second area 720, and the third area 730 may be provided in a manner different from that shown in FIG. 7.
  • information provided in the first area 710, the second area 720, and the third area 730 may be interconnected. For example, 34 to 35 seconds, which is the time interval for the new annotation displayed in the second area, may be displayed in the first area 710.
  • the device 100 may provide an optimal image, a time table 600, and one or more annotations in conjunction with each other. For example, when a user applies a selection input for an annotation in the second area, the corresponding ultrasound image is displayed in the first area 710, and the corresponding play bar is displayed in the third area 730. It can be.
  • Various embodiments of the present disclosure are implemented as software including one or more instructions stored in a storage medium (e.g., memory) that can be read by a machine (e.g., a display device or computer). It can be.
  • the processor of the device e.g., processor 220
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is stored semi-permanently in the storage medium. There is no distinction between temporary storage cases.
  • methods according to various embodiments disclosed in the present disclosure may be included and provided in a computer program product.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or via an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online.
  • a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

Disclosed are a method for processing ultrasound images, and a device and recording medium for the method, the method comprising the steps of: obtaining an ultrasound image including one or more objects of interest; obtaining, from the ultrasound image, an optimal image for the one or more objects of interest; obtaining an annotation used to access the optimal image; obtaining a timetable representing a monitoring situation for the one or more objects of interest; and providing the annotation and the timetable that operates in conjunction with the annotation.

Description

초음파 영상 처리 방법 및 디바이스Ultrasound image processing method and device
본 개시의 기술 분야는 최적 영상을 위한 초음파 영상 처리 방법 및 디바이스에 관한 것으로, 초음파 영상에 대한 영상 처리를 통해 사용자에게 유용한 정보를 제공하는 방법을 제공하는 기술 분야와 관련된다.The technical field of the present disclosure relates to ultrasonic image processing methods and devices for optimal images, and to the technical field of providing a method of providing useful information to users through image processing of ultrasonic images.
최근 다양한 분야에서는 동영상을 통해 정보를 전달하고 있다. 영상 매체는 현장을 그대로 기록 할 수 있으며, 시청자로 하여금 시청각적인 효과를 통해 내용 전달을 보다 효과적으로 할 수 있다. 이러한 영상 매체의 장점에 의해 여러 분야에서 동영상을 활용한 정보 전달이 이루어지고 있다. 일 예로 동영상 시장의 선도 주자인 유튜브는 키워드에 대한 검색엔진을 통해 사용자가 원하는 정보를 보다 효과적으로 제공하고 있다.Recently, information has been delivered through video in various fields. Video media can record the scene as is and allow viewers to convey content more effectively through audio-visual effects. Due to the advantages of these video media, information delivery using video is being carried out in various fields. For example, YouTube, a leader in the video market, provides users with the information they want more effectively through a search engine for keywords.
그러나 아직까지 초음파 영상에 대해서 관심 객체를 모니터링하는 구체적인 방법에 대해서는 개발 중에 있는 현황이다. 특히 초음파 영상의 경우 관심 객체가 단순히 존재하는지 여부뿐만 아니라 관찰이 용이한지 여부에 대해서까지 분석이 요구된다. 따라서 사용자가 용이하게 초음파 영상을 활용할 수 있도록 하는 방법이 필요한 실정이다.However, specific methods for monitoring objects of interest in ultrasound images are still under development. In particular, in the case of ultrasound images, analysis is required not only on whether the object of interest exists but also on whether it is easy to observe. Therefore, there is a need for a method that allows users to easily utilize ultrasound images.
본 개시에서 해결하고자 하는 과제는 초음파 영상 처리 방법 및 디바이스에 대한 것으로, 초음파 영상을 용이하게 활용할 수 있는 방법을 제공한다는 측면에서 사용자의 편의성을 향상시킬 수 있다. The problem to be solved in this disclosure concerns an ultrasonic image processing method and device, which can improve user convenience in terms of providing a method for easily utilizing ultrasonic images.
본 개시에서 해결하고자 하는 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.The problems to be solved by this disclosure are not limited to the technical problems described above, and other technical problems may exist.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로써, 본 개시의 제 1 측면에 따른 사용자 최적의 초음파 영상 처리 방법에 있어서, 하나 이상의 관심 객체를 포함하는 초음파 영상을 획득하는 단계; 상기 하나 이상의 관심 객체에 대한 최적 영상을 상기 초음파 영상으로부터 획득하는 단계; 상기 최적 영상으로 접근하기 위해 이용되는 어노테이션을 획득하는 단계; 상기 하나 이상의 관심 객체에 대한 모니터링 상황을 나타내는 타임 테이블을 획득하는 단계; 및 상기 어노테이션 및 상기 어노테이션과 연동하여 동작하는 상기 타임 테이블을 제공하는 단계;를 포함할 수 있다.As a technical means for achieving the above-described technical problem, a user-optimized ultrasound image processing method according to the first aspect of the present disclosure includes: acquiring an ultrasound image including one or more objects of interest; Obtaining an optimal image for the one or more objects of interest from the ultrasound image; Obtaining an annotation used to access the optimal image; Obtaining a time table representing a monitoring situation for the one or more objects of interest; and providing the annotation and the time table that operates in conjunction with the annotation.
또한, 상기 어노테이션은 상기 최적 영상의 시작 시점 및 종료 시점에 대한 정보를 포함할 수 있다.Additionally, the annotation may include information about the start and end points of the optimal image.
또한, 상기 타임 테이블은 상기 하나 이상의 관심 객체가 동시에 인식되는 시점에 대한 정보를 포함할 수 있다.Additionally, the time table may include information about when the one or more objects of interest are recognized simultaneously.
또한, 상기 타임 테이블을 제공하는 단계는 상기 하나 이상의 관심 객체 중 기설정 개수 이상의 관심 객체가 동시에 인식되는 시점을 상기 타임 테이블 상에서 하이라이트 하여 디스플레이 할 수 있다. Additionally, the step of providing the time table may highlight and display on the time table a point in time when a preset number or more objects of interest among the one or more objects of interest are simultaneously recognized.
또한, 상기 초음파 영상에 포함되는 상기 하나 이상의 관심 객체에 대한 세그먼테이션을 수행하는 단계; 및 상기 세그먼테이션이 수행된 상기 하나 이상의 관심 객체를 서로 다른 방식으로 디스플레이하는 단계;를 더 포함할 수 있다. Additionally, performing segmentation on the one or more objects of interest included in the ultrasound image; and displaying the one or more objects of interest on which the segmentation has been performed in different ways.
또한, 상기 하나 이상의 관심 객체를 서로 다른 방식으로 디스플레이하는 단계는 상기 하나 이상의 관심 객체를 서로 다른 색으로 디스플레이 할 수 있다. Additionally, the step of displaying the one or more objects of interest in different ways may display the one or more objects of interest in different colors.
또한, 상기 최적 영상을 상기 초음파 영상으로부터 획득하는 단계는 상기 세그먼테이션을 수행하는 단계가 수행되기 이전에 수행할 수 있다. Additionally, the step of acquiring the optimal image from the ultrasound image may be performed before the step of performing the segmentation.
또한, 상기 최적 영상을 상기 초음파 영상으로부터 획득하는 단계는 상기 하나 이상의 관심 객체 간의 위치 관계에 기초하여 상기 초음파 영상으로부터 상기 최적 영상을 획득할 수 있다.Additionally, in the step of acquiring the optimal image from the ultrasound image, the optimal image may be obtained from the ultrasound image based on a positional relationship between the one or more objects of interest.
또한, 상기 하나 이상의 관심 객체는 동맥, 신경계 및 갈비뼈를 포함하고, 상기 최적 영상을 상기 초음파 영상으로부터 획득하는 단계는 상기 신경계, 상기 동맥 및 상기 갈비뼈의 순서로 상기 하나 이상의 관심 객체가 배열되는 영상을 상기 최적 영상으로 결정할 수 있다. Additionally, the one or more objects of interest include an artery, a nervous system, and a rib, and the step of acquiring the optimal image from the ultrasound image produces an image in which the one or more objects of interest are arranged in the order of the nervous system, the artery, and the ribs. It can be determined based on the optimal image.
또한, 상기 타임 테이블을 제공하는 단계는 상기 어노테이션이 나타내는 최적 영상의 시작 지점 및 종료 지점을 편집하기 위한 편집 그래픽 및 상기 어노테이션을 제거하기 위한 제거 그래픽을 상기 어노테이션과 인접한 영역에 디스플레이 할 수 있다. Additionally, the step of providing the time table may display editing graphics for editing the start and end points of the optimal image indicated by the annotation and removal graphics for removing the annotation in an area adjacent to the annotation.
본 개시의 제 2 측면에 따른 초음파 영상 처리 디바이스에 있어서, 하나 이상의 관심 객체를 포함하는 초음파 영상을 획득하는 수신부; 및 상기 하나 이상의 관심 객체에 대한 최적 영상을 상기 초음파 영상으로부터 획득하고, 상기 최적 영상으로 접근하기 위해 이용되는 어노테이션을 획득하고, 상기 하나 이상의 관심 객체에 대한 모니터링 상황을 나타내는 타임 테이블을 획득하고, 상기 어노테이션 및 상기 어노테이션과 연동하여 동작하는 상기 타임 테이블을 제공하는 프로세서;를 포함할 수 있다. An ultrasound image processing device according to a second aspect of the present disclosure, comprising: a receiver for acquiring an ultrasound image including one or more objects of interest; and obtaining an optimal image for the one or more objects of interest from the ultrasound image, obtaining an annotation used to access the optimal image, and obtaining a time table indicating a monitoring situation for the one or more objects of interest. It may include a processor that provides annotations and the time table that operates in conjunction with the annotations.
또한, 상기 어노테이션은 상기 최적 영상의 시작 시점 및 종료 시점에 대한 정보를 포함할 수 있다.Additionally, the annotation may include information about the start and end points of the optimal image.
또한, 상기 타임 테이블은 상기 하나 이상의 관심 객체가 동시에 인식되는 시점에 대한 정보를 포함할 수 있다.Additionally, the time table may include information about when the one or more objects of interest are recognized simultaneously.
또한, 상기 프로세서는 상기 초음파 영상에 포함되는 상기 하나 이상의 관심 객체에 대한 세그먼테이션을 수행하고, 상기 세그먼테이션이 수행된 상기 하나 이상의 관심 객체를 서로 다른 방식으로 디스플레이하는 디스플레이;를 더 포함할 수 있다. Additionally, the processor may further include a display that performs segmentation of the one or more objects of interest included in the ultrasound image and displays the one or more objects of interest on which the segmentation has been performed in different ways.
또한, 상기 프로세서는 상기 세그먼테이션을 수행하기 전에 상기 최적 영상을 상기 초음파 영상으로부터 획득할 수 있다.Additionally, the processor may obtain the optimal image from the ultrasound image before performing the segmentation.
또한, 상기 최적 영상을 상기 초음파 영상으로부터 획득하는 단계는 상기 하나 이상의 관심 객체 간의 위치 관계에 기초하여 상기 초음파 영상으로부터 상기 최적 영상을 획득할 수 있다. Additionally, in the step of acquiring the optimal image from the ultrasound image, the optimal image may be obtained from the ultrasound image based on a positional relationship between the one or more objects of interest.
또한, 상기 어노테이션이 나타내는 최적 영상의 시작 지점 및 종료 지점을 편집하기 위한 편집 그래픽 및 상기 어노테이션을 제거하기 위한 제거 그래픽을 상기 어노테이션과 인접한 영역에 디스플레이하는 디스플레이를 더 포함할 수 있다.In addition, the display may further include displaying editing graphics for editing the start and end points of the optimal image indicated by the annotation and removal graphics for removing the annotation in an area adjacent to the annotation.
또한, 본 개시의 제 3측면은, 제 1측면의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 비 일시적 기록 매체를 제공할 수 있다.Additionally, the third aspect of the present disclosure may provide a non-transitory computer-readable recording medium on which a program for implementing the method of the first aspect is recorded.
본 개시의 일 실시 예에 따르면, 초음파 영상을 용이하게 활용할 수 있는 방법을 제공하기 때문에 초음파 영상에서 유용한 영상에 대해서 용이하게 접근이 가능하다는 점에서 편의성이 향상될 수 있다.According to an embodiment of the present disclosure, by providing a method for easily utilizing ultrasound images, convenience can be improved in that useful images in ultrasound images can be easily accessed.
본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below.
도 1은 일 실시 예에 따른 디바이스 또는 서버가 시스템 상에서 구현되는 일 예를 도시하는 도면이다.FIG. 1 is a diagram illustrating an example of a device or server implemented on a system according to an embodiment.
도 2는 일 실시 예에 따른 디바이스의 구성을 개략적으로 도시한 블록도이다.Figure 2 is a block diagram schematically showing the configuration of a device according to an embodiment.
도 3은 일 실시 예에 따른 디바이스가 동작하는 각 단계를 도시한 흐름도이다.Figure 3 is a flowchart showing each step in which a device operates according to an embodiment.
도 4는 일 실시 예에 따른 디바이스가 최적 영상을 획득하는 일 예를 설명하기 위한 도면이다. FIG. 4 is a diagram illustrating an example in which a device acquires an optimal image according to an embodiment.
도 5는 일 실시 예에 따른 디바이스가 어노테이션을 획득하는 일 예를 설명하기 위한 도면이다. FIG. 5 is a diagram illustrating an example in which a device acquires an annotation according to an embodiment.
도 6은 일 실시 예에 따른 디바이스가 타임 테이블을 획득하는 일 예를 설명하기 위한 도면이다. FIG. 6 is a diagram illustrating an example in which a device acquires a time table according to an embodiment.
도 7은 일 실시 예에 따른 디바이스가 최적 영상, 타임 테이블 및 어노테이션을 연동하여 제공하는 일 예를 설명하기 위한 도면이다.FIG. 7 is a diagram illustrating an example in which a device according to an embodiment provides optimal images, time tables, and annotations in conjunction with each other.
본 개시에서 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나, 본 개시는 이하에서 개시되는 실시 예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 개시가 완전 하도록 하고, 해당 기술 분야에 속하는 통상의 기술자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이다. Advantages and features in the present disclosure, and methods for achieving them, will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure is complete and to those skilled in the art. It is provided to provide complete information.
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 개시의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used herein are for describing embodiments and are not intended to limit the disclosure. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be the second component within the technical spirit of the present disclosure.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 해당 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작 시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms such as “below”, “beneath”, “lower”, “above”, “upper”, etc. are used as a single term as shown in the drawing. It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms that include different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is flipped over, a component described as "below" or "beneath" another component will be placed "above" the other component. You can. Accordingly, the illustrative term “down” may include both downward and upward directions. Components can also be oriented in other directions, so spatially relative terms can be interpreted according to orientation.
이하에서는 도면을 참조하여 실시 예들을 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the drawings.
도 1은 일 실시 예에 따른 디바이스(100) 또는 서버가 시스템 상에서 구현되는 일 예를 도시하는 도면이다.FIG. 1 is a diagram illustrating an example in which a device 100 or a server according to an embodiment is implemented on a system.
도 1에 도시된 바와 같이, 의료 정보 시스템은 디바이스(100), 외부 서버(130), 저장 매체(140), 통신 디바이스(150), 가상 서버(160), 사용자 단말(170) 및 네트워크 등을 포함할 수 있다.As shown in Figure 1, the medical information system includes a device 100, an external server 130, a storage medium 140, a communication device 150, a virtual server 160, a user terminal 170, and a network. It can be included.
그러나, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 의료 정보 시스템에 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 예를 들면, 의료 정보 시스템은 네트워크와 연동하여 동작하는 블록체인 서버(미도시)를 더 포함할 수 있다. 또는 다른 실시 예에 따를 경우, 도 1에 도시된 구성요소들 중 일부 구성요소는 생략될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다.However, those skilled in the art can understand that other general-purpose components other than those shown in FIG. 1 may be included in the medical information system. For example, the medical information system may further include a blockchain server (not shown) that operates in conjunction with the network. Alternatively, according to another embodiment, those skilled in the art may understand that some of the components shown in FIG. 1 may be omitted.
일 실시 예에 따른 디바이스(100)는 수술 등 의료 행위와 관련된 정보를 다양한 소스로부터 획득할 수 있다. 예를 들면 디바이스(100)는 수술 등 의료 행위와 관련된 정보(예: 동영상)를 정보 획득 장치(미도시)로부터 획득할 수 있다. 정보 획득 장치(미도시) 는 촬영 장치, 녹음 장치, 생체 신호 획득 장치 등을 포함할 수 있으나, 이에 제한되지 않는다. 다른 예로 디바이스(100)는 수술 등 의료 행위와 관련된 정보(예: 동영상)를 네트워크로부터 획득할 수 있다.The device 100 according to one embodiment may obtain information related to medical procedures such as surgery from various sources. For example, the device 100 may obtain information (e.g., video) related to medical procedures such as surgery from an information acquisition device (not shown). Information acquisition devices (not shown) may include, but are not limited to, imaging devices, recording devices, and biological signal acquisition devices. As another example, the device 100 may obtain information (eg, video) related to medical procedures such as surgery from the network.
생체 신호는 체온 신호, 맥박 신호, 호흡 신호, 혈압 신호, 근전도 신호, 뇌파 신호 등 생명체로부터 획득되는 신호를 제한 없이 포함할 수 있다. 정보 획득 장치(미도시)의 일 예인 촬영 장치는 수술실 상황을 전체적으로 촬영하는 제 1 촬영 장치(예: CCTV 등)와 수술 부위를 집중적으로 촬영하는 제 2 촬영 장치(예: 내시경 등) 등을 포함할 수 있으나, 이에 제한되지 않는다. Biological signals may include signals obtained from living organisms, such as body temperature signals, pulse signals, respiration signals, blood pressure signals, electromyography signals, and brain wave signals, without limitation. An imaging device, which is an example of an information acquisition device (not shown), includes a first imaging device (e.g., CCTV, etc.) that photographs the entire operating room situation and a second imaging device (e.g., endoscope, etc.) that focuses on photographing the surgical site. It can be done, but is not limited to this.
일 실시 예에 따른 디바이스(100)는 정보 획득 장치(미도시) 또는 네트워크로부터 수술 등 의료 행위와 관련된 영상(동영상, 정지영상 등)을 획득할 수 있다. 영상은 동영상과 정지 영상을 모두 포함하는 개념으로 이해될 수 있다. 디바이스(100)는 획득한 영상에 대한 영상 처리를 수행할 수 있다. 일 실시 예에 따른 영상 처리는 각각의 영상에 대한 네이밍, 인코딩, 저장, 전송, 편집, 메타 데이터 생성 등을 포함할 수 있으나, 이에 제한되지 않는다.The device 100 according to one embodiment may acquire images (videos, still images, etc.) related to medical procedures such as surgery from an information acquisition device (not shown) or a network. Video can be understood as a concept that includes both moving images and still images. The device 100 may perform image processing on the acquired image. Image processing according to an embodiment may include naming, encoding, storage, transmission, editing, and metadata creation for each image, but is not limited thereto.
일 실시 예에 따른 디바이스(100)는 정보 획득 장치(미도시) 또는 네트워크로부터 획득한 의료 행위 관련 정보를 그대로 또는 갱신하여 네트워크로 전송할 수 있다. 디바이스(100)가 네트워크로 전송하는 전송 정보는 네트워크를 통해서 외부 디바이스(130, 140, 150, 160, 170)로 전송될 수 있다. 예를 들면, 디바이스(100)는 네트워크를 통해서 외부 서버(130), 저장 매체(140), 통신 디바이스(150), 가상 서버(160), 사용자 단말(170) 등으로 갱신된 동영상을 전송할 수 있다. 디바이스(100)는 외부 디바이스(130, 140, 150, 160, 170)로부터 다양한 정보(예: 피드백 정보, 갱신 요청 등)를 수신할 수 있다. 통신 디바이스(150)는 통신에 이용되는 디바이스를 제한 없이 의미할 수 있으며(예: 게이트웨이), 통신 디바이스(150)는 사용자 단말(180) 등 네트워크와 직접 연결되지 않는 디바이스와 통신할 수 있다.The device 100 according to one embodiment may transmit medical treatment-related information obtained from an information acquisition device (not shown) or a network as is or as updated information to the network. Transmission information transmitted by the device 100 to the network may be transmitted to external devices 130, 140, 150, 160, and 170 through the network. For example, the device 100 may transmit the updated video to the external server 130, storage medium 140, communication device 150, virtual server 160, user terminal 170, etc. through the network. . Device 100 may receive various information (eg, feedback information, update request, etc.) from external devices 130, 140, 150, 160, and 170. The communication device 150 may refer to a device used for communication without limitation (eg, a gateway), and the communication device 150 may communicate with a device that is not directly connected to the network, such as the user terminal 180.
일 실시 예에 따른 디바이스(100)는 입력부, 출력부 프로세서, 메모리 등을 포함할 수 있으며, 디스플레이 장치(미도시)도 포함할 수 있다. 예컨대, 사용자는 디스플레이 장치를 통해서 통신 상태, 메모리 사용 현황, 전력 상태(예: 배터리의 충전상태(State Of Charge), 외부 전력 공급 여부 등), 저장된 동영상에 대한 썸네일 영상, 현재 동작 중인 동작 모드 등을 등을 확인할 수 있다. 한편, 디스플레이 장치는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 등일 수 있다. 또한, 디스플레이 장치는 구현 형태에 따라 2개 이상의 디스플레이를 포함할 수 있다. 또한, 디스플레이의 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이는 출력 장치 이외에 입력 장치로도 사용될 수 있다.The device 100 according to one embodiment may include an input unit, an output processor, memory, etc., and may also include a display device (not shown). For example, through the display device, the user can view communication status, memory usage status, power status (e.g., battery state of charge, external power supply, etc.), thumbnail images for stored videos, currently operating mode, etc. You can check, etc. Meanwhile, display devices include liquid crystal display, thin film transistor-liquid crystal display, organic light-emitting diode, flexible display, and 3D display. display), electrophoretic display, etc. Additionally, the display device may include two or more displays depending on the implementation type. Additionally, when the touchpad of the display has a layered structure and is configured as a touch screen, the display can be used as an input device in addition to an output device.
또한, 네트워크는 유선 통신 또는 무선 통신을 통해 상호 통신을 수행할 수 있다. 예컨대 네트워크는 일종의 서버로 구현될 수도 있으며, 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC 칩 등을 포함할 수 있다. 물론, 디바이스(100)는 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC 칩 등을 이용하여 각종 외부기기와 통신을 수행할 수 있다. 와이파이 칩, 블루투스 칩은 각각 Wi-Fi 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩이나 블루투스 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행할 수 있다. NFC 칩은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작할 수 있다.Additionally, networks may communicate with each other through wired or wireless communication. For example, a network may be implemented as a type of server and may include a Wi-Fi chip, Bluetooth chip, wireless communication chip, NFC chip, etc. Of course, the device 100 can communicate with various external devices using a Wi-Fi chip, Bluetooth chip, wireless communication chip, NFC chip, etc. Wi-Fi chips and Bluetooth chips can communicate using Wi-Fi and Bluetooth methods, respectively. When using a Wi-Fi chip or a Bluetooth chip, various connection information such as SSID and session key are first transmitted and received, and various information can be transmitted and received after establishing a communication connection using this. A wireless communication chip can perform communication according to various communication standards such as IEEE, Zigbee, 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), and LTE (Long Term Evolution). The NFC chip can operate in the NFC (Near Field Communication) method using the 13.56MHz band among various RF-ID frequency bands such as 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz, etc.
일 실시 예에 따른 입력부는 사용자가 디바이스(100)를 제어하기 위한 데이터를 입력하는 수단을 의미할 수 있다. 예를 들어, 입력부에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The input unit according to one embodiment may refer to a means through which a user inputs data to control the device 100. For example, the input unit includes a key pad, dome switch, and touch pad (contact capacitive type, pressure resistance type, infrared detection type, surface ultrasonic conduction type, integral tension measurement type, There may be a piezo effect method, etc.), a jog wheel, a jog switch, etc., but it is not limited thereto.
일 실시 예에 따른 출력부는 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부는 디스플레이 장치, 음향 출력 장치, 및 진동 모터 등을 포함할 수 있다.The output unit according to one embodiment may output an audio signal, a video signal, or a vibration signal, and the output unit may include a display device, a sound output device, and a vibration motor.
일 실시 예에 따른 사용자 단말(170)은 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC 등 다양한 유무선 통신 디바이스를 포함할 수 있으나 이에 제한되지 않는다.The user terminal 170 according to an embodiment may include, but is not limited to, various wired and wireless communication devices such as a smartphone, SmartPad, and tablet PC.
일 실시 예에 따른 디바이스(100)는 정보 획득 장치(미도시)로부터 획득한 의료 행위 관련 정보(예: 동영상)를 갱신할 수 있다. 예를 들면, 디바이스(100)는 정보 획득 장치(미도시)로부터 획득한 영상에 대한 네이밍, 인코딩, 저장, 전송, 편집, 메타 데이터 생성 등을 수행할 수 있다. 일 예로, 디바이스(100)는 획득한 영상의 메타 데이터(예: 생성 시간)을 이용하여 영상 파일의 네이밍을 수행할 수 있다. 다른 예로, 디바이스(100)는 정보 획득 장치(미도시)로부터 획득한 의료 행위와 관련된 영상을 분류할 수 있다. 디바이스(100)는 학습된 AI를 이용하여, 의료 행위와 관련된 영상을 수술 종류, 수술자, 수술 장소 등 다양한 기준에 기초하여 분류할 수 있다.The device 100 according to one embodiment may update medical treatment-related information (eg, video) obtained from an information acquisition device (not shown). For example, the device 100 may perform naming, encoding, storage, transmission, editing, metadata creation, etc. on images acquired from an information acquisition device (not shown). As an example, the device 100 may name an image file using metadata (eg, creation time) of the acquired image. As another example, the device 100 may classify images related to medical procedures obtained from an information acquisition device (not shown). The device 100 can use learned AI to classify images related to medical procedures based on various criteria such as type of surgery, operator, and location of surgery.
또한, 도 1에서 디바이스(100)는 서버로 구현될 수도 있으며, 디바이스(100)가 구현될 수 있는 물리적 장치의 범위는 제한하여 해석되지 않는다.Additionally, the device 100 in FIG. 1 may be implemented as a server, and the scope of physical devices in which the device 100 can be implemented is not interpreted as being limited.
또한, 명세서 전반에 걸쳐 '제공'은 정보의 전송뿐 아니라 화면을 디스플레이하는 동작과 같이 정보, 화면 등 임의의 대상을 제공하는 모든 동작을 포함하는 것으로 해석될 수 있으며, 특별한 실시 행위로 제한하여 해석되지 않는다.In addition, throughout the specification, 'provision' can be interpreted to include not only the transmission of information but also all actions that provide any object such as information or screens, such as the action of displaying a screen, and is limited to special implementation actions. It doesn't work.
일 실시 예에 따른 디바이스(100)가 제공하는 화면에 대해서 사용자 입력의 일 예로서 선택 입력이 획득될 수 있다. 일 실시 예에 따른 선택 입력은 터치 입력, 마우스 등을 이용한 클릭 입력, 키보드 등을 이용한 타이핑 입력 등 다양한 방식에 따라 획득될 수 있다.A selection input may be obtained as an example of a user input on a screen provided by the device 100 according to an embodiment. Selection input according to one embodiment may be obtained through various methods, such as touch input, click input using a mouse, etc., and typing input using a keyboard.
도 2는 일 실시 예에 따른 디바이스(100)의 구성을 개략적으로 도시한 블록도이다.FIG. 2 is a block diagram schematically showing the configuration of the device 100 according to an embodiment.
도 2에 도시된 바와 같이, 일 실시 예에 따른 디바이스(100)는 수신부(210), 프로세서(220), 출력부(230) 및 메모리(240)를 포함할 수 있다. 그러나 도 2에 도시된 구성요소 모두가 디바이스(100)의 필수 구성요소인 것은 아니다. 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 디바이스(100)가 구현될 수도 있고, 도 2에 도시된 구성 요소보다 적은 구성 요소에 의해 디바이스(100)가 구현될 수도 있다.As shown in FIG. 2, the device 100 according to one embodiment may include a receiving unit 210, a processor 220, an output unit 230, and a memory 240. However, not all of the components shown in FIG. 2 are essential components of the device 100. The device 100 may be implemented with more components than those shown in FIG. 2 , or the device 100 may be implemented with fewer components than the components shown in FIG. 2 .
예를 들어, 일 실시 예에 따른 디바이스(100)는 수신부(210), 프로세서(220), 출력부(230), 메모리(240) 외에 통신부(미도시) 또는 입력부(미도시)를 더 포함할 수도 있다. 또한 출력부(230)의 일 예로서 디스플레이(미도시)가 포함될 수 있다.For example, the device 100 according to one embodiment may further include a communication unit (not shown) or an input unit (not shown) in addition to the receiver 210, processor 220, output unit 230, and memory 240. It may be possible. Additionally, an example of the output unit 230 may include a display (not shown).
일 실시 예에 따른 수신부(210)는 동영상에서 복수의 객체가 제공되는 화면의 일부 영역에 대한 선택 입력을 획득할 수 있다. 선택 입력은 터치 입력, 마우스 등을 이용한 클릭 입력, 키보드 등을 이용한 타이핑 입력 등 다양한 방식으로 제공될 수 있다.The receiver 210 according to one embodiment may obtain a selection input for a portion of the screen where a plurality of objects are provided in the video. Selective input may be provided in various ways, such as touch input, click input using a mouse, etc., and typing input using a keyboard.
일 실시 예에 따른 수신부(210)는 하나 이상의 관심 객체를 포함하는 초음파 영상을 획득할 수 있다. 초음파 영상은 초음파 영상을 획득하는데 이용되는 초음파 영상 획득 디바이스(미도시)로부터 획득될 수 있다. 일 실시 예에 따른 수신부(210)는 초음파 영상 획득 디바이스로 유선 또는 무선으로 초음파 영상을 수신할 수 있다. 또는 수신부(210)는 초음파 영상 획득 디바이스를 포함할 수도 있다.The receiver 210 according to one embodiment may acquire an ultrasound image including one or more objects of interest. The ultrasound image may be acquired from an ultrasound image acquisition device (not shown) used to acquire the ultrasound image. The receiver 210 according to one embodiment may receive an ultrasound image wired or wirelessly using an ultrasound image acquisition device. Alternatively, the receiver 210 may include an ultrasound image acquisition device.
일 실시 예에 따른 프로세서(220)는 하나 이상의 관심 객체에 대한 최적 영상을 초음파 영상으로부터 획득한다. 예를 들면, 프로세서(220)는 최적 영상에 대한 샘플을 학습하고, 학습 결과에 기초하여 초음파 영상으로부터 최적 영상을 획득할 수 있다. 다른 예로, 프로세서(220)는 하나 이상의 관심 객체 간의 위치 관계에 기초하여 초음파 영상으로부터 최적 영상을 획득할 수 있다.The processor 220 according to one embodiment acquires an optimal image for one or more objects of interest from an ultrasound image. For example, the processor 220 may learn samples for the optimal image and obtain the optimal image from the ultrasound image based on the learning result. As another example, the processor 220 may obtain an optimal image from an ultrasound image based on the positional relationship between one or more objects of interest.
일 실시 예에 따른 프로세서(220)는 최적 영상으로 접근하기 위해 이용되는 어노테이션을 획득한다. 일 실시 예에 따른 어노테이션은 초음파 영상에서 최적 영상으로 접근하는 방법을 제공할 수 있다. 예를 들면, 일 예시에 따른 어노테이션은 1분 길이의 초음파 영상에서 최적 영상에 대응되는 시간 구간인 30초 내지 35초의 시간 구간으로 용이하게 접근하는 링크를 제공할 수 있다. The processor 220 according to one embodiment acquires an annotation used to access the optimal image. An annotation according to an embodiment can provide a method of accessing an optimal image from an ultrasound image. For example, an annotation according to one example may provide a link to easily access a time section of 30 to 35 seconds, which is the time section corresponding to the optimal image in a 1-minute ultrasound image.
일 실시 예에 따른 프로세서(220)는 하나 이상의 관심 객체에 대한 모니터링 상황을 나타내는 타임 테이블을 획득한다. 타임 테이블은 관심 객체가 초음파 영상에 있는 것으로 결정된 시점에 대한 정보를 포함한다. 따라서, 일 실시 예에 따른 타임 테이블은 하나 이상의 관심 객체가 동시에 인식되는 시점에 대한 정보를 포함할 수 있다.The processor 220 according to one embodiment obtains a time table representing a monitoring situation for one or more objects of interest. The time table contains information about when the object of interest is determined to be in the ultrasound image. Accordingly, the time table according to one embodiment may include information about when one or more objects of interest are recognized simultaneously.
일 실시 예에 따른 프로세서(220)는 어노테이션 및 어노테이션과 연동하여 동작하는 타임 테이블을 제공한다. 일 실시 예에 따를 때 어노테이션, 타임테이블 및 초음파 영상은 서로 연동하여 동작할 수 있다. The processor 220 according to one embodiment provides annotations and a time table that operates in conjunction with the annotations. According to one embodiment, the annotation, time table, and ultrasound image may operate in conjunction with each other.
도 3은 일 실시 예에 따른 디바이스(100)가 동작하는 각 단계를 도시한 흐름도이다.FIG. 3 is a flowchart illustrating each step in which the device 100 operates according to an embodiment.
단계 S310을 참조하면, 일 실시 예에 따른 디바이스(100)는 하나 이상의 관심 객체를 포함하는 초음파 영상을 획득한다. 초음파 영상은 초음파 영상을 획득하는데 이용되는 초음파 영상 획득 디바이스(미도시)로부터 획득될 수 있다. 일 실시 예에 따른 디바이스(100)는 초음파 영상 획득 디바이스로부터 유선 또는 무선으로 초음파 영상을 수신할 수 있다. 또는 디바이스(100)는 초음파 영상 획득 디바이스를 포함할 수도 있다.Referring to step S310, the device 100 according to one embodiment acquires an ultrasound image including one or more objects of interest. The ultrasound image may be acquired from an ultrasound image acquisition device (not shown) used to acquire the ultrasound image. The device 100 according to one embodiment may receive an ultrasound image wired or wirelessly from an ultrasound image acquisition device. Alternatively, the device 100 may include an ultrasound image acquisition device.
일 실시 예에 따른 초음파 영상은 시간의 흐름에 따라 갱신되는 영상을 포함하는 파일로 제공될 수 있다. 예를 들면, 초음파 영상은 동일한 관점에 대해서 뎁스가 갱신됨에 따라 획득되는 초음파 영상을 포함할 수 있다. 다른 예로, 초음파 영상은 지향하는 관점이 갱신됨에 따라 획득되는 초음파 영상을 포함할 수 있다.An ultrasound image according to one embodiment may be provided as a file containing an image that is updated over time. For example, the ultrasound image may include an ultrasound image acquired as the depth is updated for the same viewpoint. As another example, the ultrasound image may include an ultrasound image acquired as the aiming viewpoint is updated.
단계 S320을 참조하면, 일 실시 예에 따른 디바이스(100)는 하나 이상의 관심 객체에 대한 최적 영상을 초음파 영상으로부터 획득한다.Referring to step S320, the device 100 according to one embodiment acquires an optimal image for one or more objects of interest from an ultrasound image.
일 실시 예에 따른 디바이스(100)는 다양한 방식으로 초음파 영상으로부터 최적 영상을 획득할 수 있다. 예를 들면, 디바이스(100)는 최적 영상에 대한 샘플을 학습하고, 학습 결과에 기초하여 초음파 영상으로부터 최적 영상을 획득할 수 있다. 다른 예로, 디바이스(100)는 하나 이상의 관심 객체 간의 위치 관계에 기초하여 초음파 영상으로부터 최적 영상을 획득할 수 있다.The device 100 according to an embodiment can obtain an optimal image from an ultrasound image in various ways. For example, the device 100 may learn samples for the optimal image and obtain the optimal image from the ultrasound image based on the learning result. As another example, the device 100 may obtain an optimal image from an ultrasound image based on the positional relationship between one or more objects of interest.
일 실시 예에 따른 디바이스(100)가 하나 이상의 관심 객체 간의 위치 관계에 기초하여 초음파 영상으로부터 최적 영상을 획득하는 방법에 대해 설명한다. 하나 이상의 관심 객체는 동맥, 신경계 및 갈비뼈 등을 포함할 수 있다. 디바이스(100)는 신경계, 동맥 및 갈비뼈 등의 위치 관계에 기초하여 복수의 초음파 영상 중 일부의 초음파 영상을 최적 영상으로 결정할 수 있다. 예를 들면, 디바이스(100)는 신경계, 동맥 및 갈비뼈의 순서로 배열되는 초음파 영상을 최적 영상으로 결정할 수 있다. 구체적으로 초음파 영상의 일 측면에서 다른 측면으로 향하는 방향에 따라 동맥, 신경계 및 갈비뼈의 순서로 나열되고, 갈비뼈가 동맥과 신경계를 받치는 형태로 배치되는 경우, 최적 영상으로 결정될 수 있다. 보다 구체적인 최적 영상의 예시에 대해서는 도 4에서 후술한다.A method for the device 100 according to an embodiment to obtain an optimal image from an ultrasound image based on the positional relationship between one or more objects of interest will be described. One or more objects of interest may include arteries, nervous system, ribs, etc. The device 100 may determine some of the ultrasound images among the plurality of ultrasound images as the optimal image based on the positional relationships of the nervous system, arteries, ribs, etc. For example, the device 100 may determine an ultrasound image arranged in the order of the nervous system, arteries, and ribs as the optimal image. Specifically, if the arteries, nervous system, and ribs are listed in that order according to the direction from one side of the ultrasound image to the other side, and the ribs are arranged to support the arteries and nervous system, it can be determined as the optimal image. A more specific example of the optimal image will be described later in Figure 4.
단계 S330을 참조하면, 일 실시 예에 따른 디바이스(100)는 최적 영상으로 접근하기 위해 이용되는 어노테이션을 획득한다.Referring to step S330, the device 100 according to one embodiment acquires an annotation used to access the optimal image.
일 실시 예에 따른 어노테이션은 초음파 영상에서 최적 영상으로 접근하는 방법을 제공할 수 있다. 예를 들면, 일 예시에 따른 어노테이션은 1분 길이의 초음파 영상에서 최적 영상에 대응되는 시간 구간인 30초 내지 35초의 시간 구간으로 용이하게 접근하는 링크를 제공할 수 있다. 이 경우 일 예시에 따른 어노테이션에 대해 선택 입력이 인가됨에 따라, 디바이스(100)는 최적 영상에 대응되는 시간 구간의 초음파 영상을 디스플레이할 수 있다.An annotation according to an embodiment can provide a method of accessing an optimal image from an ultrasound image. For example, an annotation according to one example may provide a link to easily access a time section of 30 to 35 seconds, which is the time section corresponding to the optimal image in a 1-minute ultrasound image. In this case, as a selection input is applied to an annotation according to an example, the device 100 may display an ultrasound image in a time section corresponding to the optimal image.
따라서, 일 실시 예에 따른 어노테이션은 최적 영상의 시작 시점 및 종료 시점에 대한 정보를 포함할 수 있다. 일 예시에 따른 어노테이션에 대해 선택 입력이 인가됨에 따라, 디바이스(100)는 최적 영상의 시작 시점에 대응되는 초음파 영상을 디스플레이할 수 있다.Therefore, an annotation according to one embodiment may include information about the start and end points of the optimal image. As a selection input is applied to the annotation according to one example, the device 100 may display an ultrasound image corresponding to the start point of the optimal image.
보다 구체적인 어노테이션의 예시에 대해서는 도 5에서 후술한다.More specific examples of annotations are described later in FIG. 5.
단계 S340을 참조하면, 일 실시 예에 따른 디바이스(100)는 하나 이상의 관심 객체에 대한 모니터링 상황을 나타내는 타임 테이블을 획득한다.Referring to step S340, the device 100 according to one embodiment acquires a time table indicating a monitoring situation for one or more objects of interest.
일 실시 예에 따른 디바이스(100)는 관심 객체가 모니터링되는 시점에 대한 정보를 포함하는 타임 테이블을 제공할 수 있다. 타임 테이블은 관심 객체가 초음파 영상에 있는 것으로 결정된 시점에 대한 정보를 포함한다. 따라서, 일 실시 예에 따른 타임 테이블은 하나 이상의 관심 객체가 동시에 인식되는 시점에 대한 정보를 포함할 수 있다.The device 100 according to one embodiment may provide a time table containing information about when an object of interest is monitored. The time table contains information about when the object of interest is determined to be in the ultrasound image. Accordingly, the time table according to one embodiment may include information about when one or more objects of interest are recognized simultaneously.
일 실시 예에 따른 디바이스(100)는 타임 테이블을 제공함에 있어서, 하나 이상의 관심 객체 중 기설정 개수 이상의 관심 객체가 동시에 인식되는 시점을 타임 테이블 상에서 하이라이트 하여 디스플레이할 수 있다.When providing a time table, the device 100 according to one embodiment may highlight and display on the time table a point in time when a preset number of objects of interest or more among one or more objects of interest are recognized simultaneously.
보다 구체적인 타임 테이블의 예시에 대해서는 도 6에서 후술한다.A more specific example of the time table will be described later in FIG. 6.
단계 S350을 참조하면, 일 실시 예에 따른 디바이스(100)는 어노테이션 및 어노테이션과 연동하여 동작하는 타임 테이블을 제공한다.Referring to step S350, the device 100 according to one embodiment provides an annotation and a time table that operates in conjunction with the annotation.
일 실시 예에 따른 디바이스(100)는 어노테이션, 타임 테이블 및 초음파 영상을 제공할 수 있다. 초음파 영상은 최적 영상을 포함할 수 있다. 일 실시 예에 따를 때 어노테이션, 타임테이블 및 초음파 영상은 서로 연동하여 동작할 수 있다. 일 실시 예에 따라 어노테이션, 타임테이블 및 초음파 영상이 서로 연동하여 제공되는 예시에 대해서는 도 7에서 후술한다.The device 100 according to one embodiment may provide annotations, time tables, and ultrasound images. Ultrasound images may include optimal images. According to one embodiment, the annotation, time table, and ultrasound image may operate in conjunction with each other. An example in which an annotation, a time table, and an ultrasound image are provided in conjunction with each other according to an embodiment will be described later with reference to FIG. 7 .
도 4는 일 실시 예에 따른 디바이스(100)가 최적 영상을 획득하는 일 예를 설명하기 위한 도면이다.FIG. 4 is a diagram illustrating an example in which the device 100 acquires an optimal image according to an embodiment.
일 실시 예에 따른 디바이스(100)는 다양한 방식으로 최적 영상을 획득할 수 있다. The device 100 according to an embodiment can obtain an optimal image in various ways.
일 실시 예에 따른 디바이스(100)는 학습을 수행하여 최적 영상을 획득할 수 있다. 디바이스(100)는 최적 영상의 예시로 이용되는 샘플 최적 영상에 대한 학습을 수행하여 복수의 초음파 영상 중 최적 영상을 결정할 수 있다. 학습에는 다양한 학습 알고리즘이 이용될 수 있다. 학습을 수행할 때에는 관심 객체의 위치가 주된 변수로서 이용될 수 있다.The device 100 according to one embodiment may acquire an optimal image by performing learning. The device 100 may determine the optimal image among a plurality of ultrasound images by learning about a sample optimal image used as an example of the optimal image. Various learning algorithms can be used for learning. When performing learning, the location of the object of interest can be used as a main variable.
일 실시 예에 따른 디바이스(100)는 학습을 수행하여 최적 영상을 획득할 수 있다. 디바이스(100)는 하나 이상의 관심 객체 간의 위치 관계에 기초하여 초음파 영상으로부터 최적 영상을 획득할 수 있다.The device 100 according to one embodiment may acquire an optimal image by performing learning. The device 100 may obtain an optimal image from an ultrasound image based on the positional relationship between one or more objects of interest.
예를 들면, 디바이스(100)는 신경계(410), 동맥(420) 및 갈비뼈(430)의 순서로 배열되는 초음파 영상을 최적 영상으로 결정할 수 있다. 구체적으로 초음파 영상의 일 측면(예: 상측)에서 다른 측면(예: 하측)으로 향하는 방향에 따라 신경계(410), 동맥(420) 및 갈비뼈(430)의 순서로 나열되고, 갈비뼈가 동맥과 신경계를 받치는 형태로 배치되는 경우, 최적 영상으로 결정될 수 있다. For example, the device 100 may determine an ultrasound image arranged in the order of the nervous system 410, the artery 420, and the ribs 430 as the optimal image. Specifically, according to the direction from one side (e.g., upper side) of the ultrasound image to the other side (e.g., lower side), the nervous system 410, the artery 420, and the ribs 430 are listed in the order, and the ribs are connected to the artery and the nervous system. If it is arranged in a way that supports the , it can be determined as the optimal image.
일 실시 예에 따른 디바이스(100)는 초음파 영상에 포함되는 하나 이상의 관심 객체에 대한 세그먼테이션을 수행할 수 있다. 예를 들면, 디바이스(100)는 세그먼테이션을 수행함에 따라 신경계(410), 동맥(420) 및 갈비뼈(430)를 서로 구별할 수 있다. The device 100 according to one embodiment may perform segmentation on one or more objects of interest included in an ultrasound image. For example, the device 100 may distinguish the nervous system 410, arteries 420, and ribs 430 from each other by performing segmentation.
일 실시 예에 따른 디바이스(100)는 복수개의 관심 객체를 서로 다른 방식으로 디스플레이할 수 있다. 디바이스(100)는 세그먼테이션이 수행된 하나 이상의 관심 객체를 서로 다른 방식으로 디스플레이할 수 있따. 세그먼테이션이 수행된 결과 복수의 관심 객체는 서로 구별될 수 있으며, 디바이스(100)는 서로 구별되는 복수의 관심 객체를 서로 상이한 방식으로 디스플레이할 수 있다. 도 4를 참조하면 디바이스(100)는 신경계(410), 동맥(420) 및 갈비뼈(430)를 서로 다른 색으로 디스플레이할 수 있으나 이에 제한되지 않는다. 디바이스(100)는 도 4에 도시되지 않은 다른 방식으로 복수의 관심 객체를 서로 구별하여 디스플레이할 수 있다. 예를 들면, 디바이스(100)는 신경계(410), 동맥(420) 및 갈비뼈(430)에 대한 외곽선을 초음파 영상 상에 중첩하여 디스플레이할 수 있다. 다른 예로, 디바이스(100)는 초음파 영상을 배제하고, 관심 객체만을 제공하는 영상을 디스플레이할 수도 있다.The device 100 according to one embodiment may display a plurality of objects of interest in different ways. The device 100 may display one or more objects of interest on which segmentation has been performed in different ways. As a result of segmentation, the plurality of objects of interest may be distinguished from each other, and the device 100 may display the plurality of distinct objects of interest in different ways. Referring to FIG. 4 , the device 100 may display the nervous system 410, arteries 420, and ribs 430 in different colors, but is not limited thereto. The device 100 may distinguish and display a plurality of objects of interest in a different manner not shown in FIG. 4 . For example, the device 100 may display the outlines of the nervous system 410, arteries 420, and ribs 430 by overlapping them on the ultrasound image. As another example, the device 100 may exclude the ultrasound image and display an image that provides only the object of interest.
일 실시 예에 따른 디바이스(100)는 세그먼테이션을 수행하기 전에 최적 영상을 초음파 영상으로부터 획득할 수 있다. 세그먼테이션이 수행되기 전에 최적 영상을 우선적으로 획득하는 경우, 디바이스(100)는 보다 높은 정확도로 최적 영상을 획득할 수 있다. 세그먼테이션이 수행될 경우, 세그먼테이션을 수행하는 과정에서 오차가 발생할 수 있으며, 이러한 오차가 누적될 경우, 최적 영상을 획득하는 과정에서 부정확성이 높아질 수 있다. 따라서, 디바이스(100)는 세그먼테이션을 수행하기 전에 우선적으로 최적 영상을 획득하고, 일단 최적 영상이 획득되면, 획득된 최적 영상에 대해서 세그먼테이션을 수행함으로서 보다 높은 적확도를 확보할 수 있다. 세그먼테이션을 먼저 수행할 경우, 모든 초음파 영상에 대해서 세그먼테이션을 수행하는 과정에서 리소스 소모가 크게 발생하지만, 일단 획득된 최적 영상에 대해서만 세그먼테이션을 수행할 경우, 리소스 소모가 감소할 수 있다.The device 100 according to one embodiment may acquire an optimal image from an ultrasound image before performing segmentation. When the optimal image is first acquired before segmentation is performed, the device 100 can acquire the optimal image with higher accuracy. When segmentation is performed, errors may occur during the segmentation process, and if these errors accumulate, inaccuracy may increase in the process of acquiring the optimal image. Accordingly, the device 100 first acquires the optimal image before performing segmentation, and once the optimal image is acquired, higher accuracy can be secured by performing segmentation on the obtained optimal image. If segmentation is performed first, significant resource consumption occurs in the process of performing segmentation on all ultrasound images. However, if segmentation is performed only on the optimal images once acquired, resource consumption can be reduced.
도 5는 일 실시 예에 따른 디바이스(100)가 어노테이션을 획득하는 일 예를 설명하기 위한 도면이다.FIG. 5 is a diagram illustrating an example in which the device 100 acquires an annotation according to an embodiment.
일 실시 예에 따른 어노테이션은 초음파 영상에서 최적 영상으로 접근하는 방법을 제공할 수 있다. 예를 들면, 도 5를 참조하면 제 1 어노테이션(510)은 초음파 영상에서 최적 영상에 대응되는 시간 구간인 16초 내지 17초의 시간 구간으로 용이하게 접근하는 링크를 제공할 수 있다. An annotation according to an embodiment can provide a method of accessing an optimal image from an ultrasound image. For example, referring to FIG. 5 , the first annotation 510 may provide a link to easily access a time section of 16 to 17 seconds, which is the time section corresponding to the optimal image in the ultrasound image.
일 실시 예에 따른 디바이스(100)는 복수개의 어노테이션을 제공할 수 있다. 예를 들면 디바이스(100)는 제 1 어노테이션(510), 제 2 어노테이션(530) 및 제 3 어노테이션(530)을 제공할 수 있다.The device 100 according to one embodiment may provide a plurality of annotations. For example, the device 100 may provide a first annotation 510, a second annotation 530, and a third annotation 530.
일 예시에 따라 복수의 어노테이션 중 어느 하나의 어노테이션에 대해 선택 입력이 인가되는 경우, 디바이스(100)는 선택 입력이 인가된 어노테이션에 대응되는 시간 구간의 초음파 영상을 디스플레이할 수 있다. 예를 들면, 제 1 어노테이션(510)에 선택 입력이 인가되는 경우, 디바이스(100)는 16초 시점에 대응되는 초음파 영상을 디스플레이할 수 있다. According to one example, when a selection input is applied to one annotation among a plurality of annotations, the device 100 may display an ultrasound image in a time section corresponding to the annotation to which the selection input was applied. For example, when a selection input is applied to the first annotation 510, the device 100 may display an ultrasound image corresponding to a time point of 16 seconds.
일 실시 예에 따라 어노테이션에 대응되는 시간 구간의 초음파 영상은 최적 영상일 수 있다. 디바이스(100)는 초음파 영상의 전체 시간 구간에 대해서 최적 영상이 포함된 시간 구간에 대해서 어노테이션을 생성하여 제공할 수 있다. 디바이스(100)가 초음파 영상으로부터 최적 영상을 획득하는 구체적인 방법에 대해서는 도 4에서 상술한 내용을 참조할 수 있다.According to one embodiment, the ultrasound image in the time section corresponding to the annotation may be the optimal image. The device 100 may generate and provide an annotation for the time section containing the optimal image for the entire time section of the ultrasound image. For a specific method for the device 100 to obtain an optimal image from an ultrasound image, refer to the details described above with reference to FIG. 4 .
일 실시 예에 따른 어노테이션은 사용자 입력에 기초하여 생성될 수도 있다. 예를 들면, 사용자 입력에 기초하여 결정된 시간 구간(얘: 34초 내지 35초)에 대해서 신규 어노테이션이 생성될 수 있다. 예를 들면, 입력 영역(541)에 입력되는 텍스트와 세이브 버튼(542)을 통해 획득되는 세이브 요청에 기초하여, 디바이스(100)는 사용자 입력에 기초하여 결정된 시간 구간(얘: 34초 내지 35초)에 대한 신규 어노테이션을 획득할 수 있다.An annotation according to one embodiment may be created based on user input. For example, a new annotation may be created for a time period determined based on user input (for example, 34 to 35 seconds). For example, based on the text entered into the input area 541 and the save request obtained through the save button 542, the device 100 stores a time period determined based on the user input (e.g., 34 to 35 seconds). ) You can obtain a new annotation for.
일 실시 예에 따른 디바이스(100)는 어노테이션(예: 제 2 어노테이션(520))이 나타내는 최적 영상의 시작 지점 및 종료 지점을 편집하기 위한 편집 그래픽(521)을 어노테이션(예: 제 2 어노테이션(520))과 인접한 영역에 디스플레이할 수 있다. 예를 들면, 편집 그래픽(521)에 사용자 입력이 인가되는 경우, 디바이스(100)는 제 2 어노테이션(520)의 시작 지점 및 종료 지점을 편집하는 화면을 제공하고, 제공되는 편집 화면을 통해 획득되는 사용자 입력에 기초하여 제 2 어노테이션(520)의 시작 지점 및 종료 지점을 갱신할 수 있다.According to one embodiment, the device 100 annotates the editing graphics 521 for editing the start and end points of the optimal image indicated by the annotation (e.g., the second annotation 520). )) can be displayed in the adjacent area. For example, when a user input is applied to the editing graphic 521, the device 100 provides a screen for editing the starting point and ending point of the second annotation 520, and the information obtained through the provided editing screen is displayed. The start and end points of the second annotation 520 may be updated based on user input.
일 실시 예에 따른 디바이스(100)는 어노테이션 어노테이션(예: 제 2 어노테이션(520))을 제거하기 위한 제거 그래픽(522)을 어노테이션(예: 제 2 어노테이션(520))과 인접한 영역에 디스플레이할 수 있다. 예를 들면, 제거 그래픽(522)에 사용자 입력이 인가되는 경우, 디바이스(100)는 제 2 어노테이션(520)을 삭제할 수 있다.The device 100 according to one embodiment may display a removal graphic 522 for removing an annotation (e.g., the second annotation 520) in an area adjacent to the annotation (e.g., the second annotation 520). there is. For example, when a user input is applied to the removal graphic 522, the device 100 may delete the second annotation 520.
도 6은 일 실시 예에 따른 디바이스(100)가 타임 테이블을 획득하는 일 예를 설명하기 위한 도면이다.FIG. 6 is a diagram illustrating an example in which the device 100 obtains a time table according to an embodiment.
일 실시 예에 따른 디바이스(100)는 관심 객체가 모니터링되는 시점에 대한 정보를 포함하는 타임 테이블(600)을 제공할 수 있다. 타임 테이블(600)은 관심 객체가 초음파 영상에 있는 것으로 결정된 시점에 대한 정보를 포함한다. 예를 들면, 제 1 행(610)은 제 1 관심 객체가 초음파 영상에 있는 것으로 결정된 시점을 나타낼 수 있고, 제 2 행(620)은 제 2 관심 객체가 초음파 영상에 있는 것으로 결정된 시점을 나타낼 수 있고, 제 3 행(630)은 제 3 관심 객체가 초음파 영상에 있는 것으로 결정된 시점을 나타낼 수 있다.The device 100 according to one embodiment may provide a time table 600 including information on when an object of interest is monitored. The time table 600 includes information about the point in time at which the object of interest is determined to be in the ultrasound image. For example, the first row 610 may indicate the point in time at which the first object of interest is determined to be in the ultrasound image, and the second row 620 may indicate the point in time at which the second object of interest is determined to be in the ultrasound image. and the third row 630 may indicate a point in time at which it is determined that the third object of interest is in the ultrasound image.
일 실시 예에 따른 타임 테이블(600)은 하나 이상의 관심 객체가 동시에 인식되는 시점에 대한 정보를 포함할 수 있다. 디바이스(100)는 타임 테이블(600)을 제공함에 있어서, 하나 이상의 관심 객체 중 기설정 개수 이상의 관심 객체가 동시에 인식되는 시점을 타임 테이블 상에서 하이라이트 하여 디스플레이할 수 있다. 예를 들면 제 1 관심 객체, 제 2 관심 객체 및 제 3 관심 객체가 동시에 모니터링되는 제 1 시간 구간(641), 제 2 시간 구간(642) 및 제 3 시간 구간(643)에 대해서, 디바이스(100)는 하이라이트하여 디스플레이할 수 있다. The time table 600 according to one embodiment may include information about when one or more objects of interest are recognized simultaneously. In providing the time table 600, the device 100 may highlight and display on the time table a point in time when a preset number or more of the objects of interest among one or more objects of interest are simultaneously recognized. For example, for the first time interval 641, the second time interval 642, and the third time interval 643 in which the first object of interest, the second object of interest, and the third object of interest are simultaneously monitored, the device 100 ) can be highlighted and displayed.
도 7은 일 실시 예에 따른 디바이스(100)가 최적 영상, 타임 테이블 및 어노테이션을 연동하여 제공하는 일 예를 설명하기 위한 도면이다.FIG. 7 is a diagram illustrating an example in which the device 100 according to an embodiment provides optimal images, time tables, and annotations in conjunction with each other.
도 7을 참조하면 디바이스(100)는 최적 영상을 포함하는 초음파 영상을 제 1 영역에 디스플레이하고, 하나 이상의 어노테이션을 제 2 영역(720)에 디스플레이하고, 타임 테이블(600)을 제 3 영역(730)에 디스플레이할 수 있다. 제 1 영역(710), 제 2 영역(720) 및 제 3 영역(730)의 위치는 도 7에 도시된 방식과 상이한 방식으로 제공될 수 있다. Referring to FIG. 7, the device 100 displays an ultrasound image including an optimal image in a first area, displays one or more annotations in a second area 720, and displays a time table 600 in a third area 730. ) can be displayed. The positions of the first area 710, the second area 720, and the third area 730 may be provided in a manner different from that shown in FIG. 7.
일 실시 예에 따를 때, 제 1 영역(710), 제 2 영역(720) 및 제 3 영역(730)에서 제공되는 정보는 상호 연동될 수 있다. 예를 들면, 제 2 영역에서 디스플레이하고 있는 신규 어노테이션에 대한 시간 구간인 34초 내지 35초가 제 1 영역(710)에서 디스플레이될 수 있다.According to one embodiment, information provided in the first area 710, the second area 720, and the third area 730 may be interconnected. For example, 34 to 35 seconds, which is the time interval for the new annotation displayed in the second area, may be displayed in the first area 710.
일 실시 예에 따른 디바이스(100)는 최적 영상, 타임 테이블(600) 및 하나 이상의 어노테이션을 연동하여 제공할 수 있다. 예를 들면, 사용자가 제 2 영역에서 어느 하나의 어노테이션에 대해 선택 입력을 인가하면 그에 대응하는 초음파 영상이 제 1 영역(710)에서 디스플레이되고, 그에 대응되는 재생 바가 제 3 영역(730)에서 디스플레이될 수 있다.The device 100 according to one embodiment may provide an optimal image, a time table 600, and one or more annotations in conjunction with each other. For example, when a user applies a selection input for an annotation in the second area, the corresponding ultrasound image is displayed in the first area 710, and the corresponding play bar is displayed in the third area 730. It can be.
본 개시의 다양한 실시 예들은 기기(machine)(예를 들어, 디스플레이 장치 또는 컴퓨터)에 의해 읽을 수 있는 저장 매체(storage medium)(예를 들어, 메모리)에 저장된 하나 이상의 인스트럭션들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 기기의 프로세서(예를 들어, 프로세서(220))는, 저장 매체로부터 저장된 하나 이상의 인스트럭션들 중 적어도 하나의 인스트럭션을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 인스트럭션에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 인스트럭션들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present disclosure are implemented as software including one or more instructions stored in a storage medium (e.g., memory) that can be read by a machine (e.g., a display device or computer). It can be. For example, the processor of the device (eg, processor 220) may call at least one instruction among one or more instructions stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called. The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is stored semi-permanently in the storage medium. There is no distinction between temporary storage cases.
일 실시 예에 따르면, 본 개시에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in the present disclosure may be included and provided in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or via an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online. In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
본 발명에 대하여 예시한 도면을 참조로 하여 설명하였으나 개시된 실시 예와 도면에 의해 한정되는 것은 아니며 본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 실시 예를 설명하며 본 발명의 구성에 따른 작용 효과를 명시적으로 기재하여 설명하지 않았을지라도, 해당 구성에 의해 예측이 가능한 효과 또한 인정될 수 있다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.Although the present invention has been described with reference to the illustrative drawings, it is not limited to the disclosed embodiments and drawings, and those skilled in the art in the technical field related to the present embodiments may make modifications without departing from the essential characteristics of the above-mentioned description. You will be able to understand that it can be implemented in a certain form. Therefore, the disclosed methods should be considered from an explanatory rather than a restrictive perspective. Even if the operational effects according to the configuration of the present invention are not explicitly described and explained in the description of the embodiment, the effects that can be predicted by the configuration may also be recognized. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the equivalent scope should be construed as being included in the present invention.

Claims (18)

  1. 초음파 영상 처리 방법에 있어서,In the ultrasonic image processing method,
    하나 이상의 관심 객체를 포함하는 초음파 영상을 획득하는 단계;Acquiring an ultrasound image including one or more objects of interest;
    상기 하나 이상의 관심 객체에 대한 최적 영상을 상기 초음파 영상으로부터 획득하는 단계;Obtaining an optimal image for the one or more objects of interest from the ultrasound image;
    상기 최적 영상으로 접근하기 위해 이용되는 어노테이션을 획득하는 단계; Obtaining an annotation used to access the optimal image;
    상기 하나 이상의 관심 객체에 대한 모니터링 상황을 나타내는 타임 테이블을 획득하는 단계; 및Obtaining a time table representing a monitoring situation for the one or more objects of interest; and
    상기 어노테이션 및 상기 어노테이션과 연동하여 동작하는 상기 타임 테이블을 제공하는 단계;를 포함하는, 방법.A method comprising: providing the annotation and the time table that operates in conjunction with the annotation.
  2. 제 1 항에 있어서,According to claim 1,
    상기 어노테이션은 상기 최적 영상의 시작 시점 및 종료 시점에 대한 정보를 포함하는, 방법.The annotation includes information about the start point and end point of the optimal image.
  3. 제 1 항에 있어서,According to claim 1,
    상기 타임 테이블은 상기 하나 이상의 관심 객체가 동시에 인식되는 시점에 대한 정보를 포함하는, 방법.The time table includes information about when the one or more objects of interest are recognized simultaneously.
  4. 제 1 항에 있어서,According to claim 1,
    상기 타임 테이블을 제공하는 단계는The step of providing the time table is
    상기 하나 이상의 관심 객체 중 기설정 개수 이상의 관심 객체가 동시에 인식되는 시점을 상기 타임 테이블 상에서 하이라이트 하여 디스플레이하는, 방법.A method of highlighting and displaying on the time table a point in time when a preset number or more of the objects of interest among the one or more objects of interest are simultaneously recognized.
  5. 제 1 항에 있어서,According to claim 1,
    상기 초음파 영상에 포함되는 상기 하나 이상의 관심 객체에 대한 세그먼테이션을 수행하는 단계; 및performing segmentation on the one or more objects of interest included in the ultrasound image; and
    상기 세그먼테이션이 수행된 상기 하나 이상의 관심 객체를 서로 다른 방식으로 디스플레이하는 단계;를 더 포함하는, 방법.The method further comprising: displaying the one or more objects of interest on which the segmentation was performed in different ways.
  6. 제 5 항에 있어서,According to claim 5,
    상기 하나 이상의 관심 객체를 서로 다른 방식으로 디스플레이하는 단계는 상기 하나 이상의 관심 객체를 서로 다른 색으로 디스플레이하는, 방법.The method of displaying the one or more objects of interest in different ways includes displaying the one or more objects of interest in different colors.
  7. 제 5 항에 있어서,According to claim 5,
    상기 최적 영상을 상기 초음파 영상으로부터 획득하는 단계는 상기 세그먼테이션을 수행하는 단계가 수행되기 이전에 수행되는, 방법.The method of obtaining the optimal image from the ultrasound image is performed before performing the segmentation.
  8. 제 1 항에 있어서,According to claim 1,
    상기 최적 영상을 상기 초음파 영상으로부터 획득하는 단계는The step of acquiring the optimal image from the ultrasound image is
    상기 하나 이상의 관심 객체 간의 위치 관계에 기초하여 상기 초음파 영상으로부터 상기 최적 영상을 획득하는, 방법.A method of obtaining the optimal image from the ultrasound image based on the positional relationship between the one or more objects of interest.
  9. 제 8 항에 있어서,According to claim 8,
    상기 하나 이상의 관심 객체는 동맥, 신경계 및 갈비뼈를 포함하고, The one or more objects of interest include arteries, nervous system, and ribs,
    상기 최적 영상을 상기 초음파 영상으로부터 획득하는 단계는The step of acquiring the optimal image from the ultrasound image is
    상기 신경계, 상기 동맥 및 상기 갈비뼈의 순서로 상기 하나 이상의 관심 객체가 배열되는 영상을 상기 최적 영상으로 결정하는, 방법.A method of determining as the optimal image an image in which the one or more objects of interest are arranged in the order of the nervous system, the artery, and the ribs.
  10. 제 1 항에 있어서,According to claim 1,
    상기 타임 테이블을 제공하는 단계는The step of providing the time table is
    상기 어노테이션이 나타내는 최적 영상의 시작 지점 및 종료 지점을 편집하기 위한 편집 그래픽 및 상기 어노테이션을 제거하기 위한 제거 그래픽을 상기 어노테이션과 인접한 영역에 디스플레이하는, 방법.A method of displaying editing graphics for editing the start and end points of the optimal image indicated by the annotation and removal graphics for removing the annotation in an area adjacent to the annotation.
  11. 초음파 영상 처리 디바이스에 있어서,In the ultrasonic image processing device,
    하나 이상의 관심 객체를 포함하는 초음파 영상을 획득하는 수신부; 및A receiver that acquires an ultrasound image including one or more objects of interest; and
    상기 하나 이상의 관심 객체에 대한 최적 영상을 상기 초음파 영상으로부터 획득하고,Obtaining an optimal image for the one or more objects of interest from the ultrasound image,
    상기 최적 영상으로 접근하기 위해 이용되는 어노테이션을 획득하고,Obtain an annotation used to access the optimal image,
    상기 하나 이상의 관심 객체에 대한 모니터링 상황을 나타내는 타임 테이블을 획득하고,Obtaining a time table representing a monitoring situation for the one or more objects of interest,
    상기 어노테이션 및 상기 어노테이션과 연동하여 동작하는 상기 타임 테이블을 제공하는 프로세서;를 포함하는, 디바이스.A device comprising: a processor providing the annotation and the time table that operates in conjunction with the annotation.
  12. 제 11 항에 있어서,According to claim 11,
    상기 어노테이션은 상기 최적 영상의 시작 시점 및 종료 시점에 대한 정보를 포함하는, 디바이스.The annotation includes information about the start and end points of the optimal image.
  13. 제 11 항에 있어서,According to claim 11,
    상기 타임 테이블은 상기 하나 이상의 관심 객체가 동시에 인식되는 시점에 대한 정보를 포함하는, 디바이스.The time table includes information about when the one or more objects of interest are recognized simultaneously.
  14. 제 11 항에 있어서,According to claim 11,
    상기 프로세서는The processor is
    상기 초음파 영상에 포함되는 상기 하나 이상의 관심 객체에 대한 세그먼테이션을 수행하고,Perform segmentation on the one or more objects of interest included in the ultrasound image,
    상기 세그먼테이션이 수행된 상기 하나 이상의 관심 객체를 서로 다른 방식으로 디스플레이하는 디스플레이;를 더 포함하는, 디바이스.A device further comprising a display that displays the one or more objects of interest on which the segmentation has been performed in different ways.
  15. 제 14항에 있어서,According to clause 14,
    상기 프로세서는The processor is
    상기 세그먼테이션을 수행하기 전에 상기 최적 영상을 상기 초음파 영상으로부터 획득하는, 디바이스.A device that acquires the optimal image from the ultrasound image before performing the segmentation.
  16. 제 11 항에 있어서,According to claim 11,
    상기 프로세서는The processor is
    상기 하나 이상의 관심 객체 간의 위치 관계에 기초하여 상기 초음파 영상으로부터 상기 최적 영상을 획득하는, 디바이스.A device that acquires the optimal image from the ultrasound image based on the positional relationship between the one or more objects of interest.
  17. 제 11 항에 있어서,According to claim 11,
    상기 어노테이션이 나타내는 최적 영상의 시작 지점 및 종료 지점을 편집하기 위한 편집 그래픽 및 상기 어노테이션을 제거하기 위한 제거 그래픽을 상기 어노테이션과 인접한 영역에 디스플레이하는 디스플레이;를 더 포함하는, 디바이스.A display that displays editing graphics for editing the start and end points of the optimal image indicated by the annotation and removal graphics for removing the annotation in an area adjacent to the annotation.
  18. 제 1 항 내지 제 10 항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 비일시적 기록 매체.A non-transitory computer-readable recording medium on which a program for implementing the method of any one of claims 1 to 10 is recorded.
PCT/KR2023/011445 2022-10-28 2023-08-03 Ultrasound image processing method and device WO2024090746A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0141473 2022-10-28
KR1020220141473A KR20240065446A (en) 2022-10-28 2022-10-28 Method and device for processing ultrasonic imaging

Publications (1)

Publication Number Publication Date
WO2024090746A1 true WO2024090746A1 (en) 2024-05-02

Family

ID=90831233

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/011445 WO2024090746A1 (en) 2022-10-28 2023-08-03 Ultrasound image processing method and device

Country Status (2)

Country Link
KR (1) KR20240065446A (en)
WO (1) WO2024090746A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060003050A (en) * 2003-04-25 2006-01-09 올림푸스 가부시키가이샤 Device, method and program for image processing
US20150057544A1 (en) * 2013-08-21 2015-02-26 Konica Minolta, Inc. Ultrasound diagnostic apparatus, ultrasound image processing method, and non-transitory computer readable recording medium
KR20180126167A (en) * 2017-05-17 2018-11-27 엘지전자 주식회사 Mobile terminal
KR20190124002A (en) * 2018-04-25 2019-11-04 삼성전자주식회사 Medical imaging apparatus and controlling method of medical imaging apparatus
KR20220031599A (en) * 2015-02-10 2022-03-11 한화테크윈 주식회사 System and method for browsing summary image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102258800B1 (en) 2014-05-15 2021-05-31 삼성메디슨 주식회사 Ultrasound diagnosis apparatus and mehtod thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060003050A (en) * 2003-04-25 2006-01-09 올림푸스 가부시키가이샤 Device, method and program for image processing
US20150057544A1 (en) * 2013-08-21 2015-02-26 Konica Minolta, Inc. Ultrasound diagnostic apparatus, ultrasound image processing method, and non-transitory computer readable recording medium
KR20220031599A (en) * 2015-02-10 2022-03-11 한화테크윈 주식회사 System and method for browsing summary image
KR20180126167A (en) * 2017-05-17 2018-11-27 엘지전자 주식회사 Mobile terminal
KR20190124002A (en) * 2018-04-25 2019-11-04 삼성전자주식회사 Medical imaging apparatus and controlling method of medical imaging apparatus

Also Published As

Publication number Publication date
KR20240065446A (en) 2024-05-14

Similar Documents

Publication Publication Date Title
WO2015065006A1 (en) Multimedia apparatus, online education system, and method for providing education content thereof
WO2021020667A1 (en) Method and program for providing remote rehabilitation training
WO2013125801A1 (en) Method of controlling image diagnosis apparatus and mobile terminal for the same, and method of operating image diagnosis apparatus and image diagnosis apparatus for the same
WO2014069943A1 (en) Method of providing information-of-users' interest when video call is made, and electronic apparatus thereof
EP3087455A1 (en) Method of controlling a medical apparatus and mobile apparatus therefor
WO2021167374A1 (en) Video search device and network surveillance camera system including same
WO2016108427A1 (en) User terminal apparatus and method for driving user terminal apparatus
WO2014104686A1 (en) Display apparatus and method for controlling display apparatus thereof
CN105848559A (en) Medical video recording and playback system and medical video recording and playback device
EP4376402A1 (en) Information processing system, information processing method, and program
EP2786242A1 (en) Method and device for providing information
WO2016064115A1 (en) Method of controlling device and device thereof
JP2008217294A (en) Medical communication device using mobile terminal
WO2024090746A1 (en) Ultrasound image processing method and device
WO2021172943A1 (en) Video search device and network surveillance camera system comprising same
WO2014061905A1 (en) System for providing motion and voice based bookmark and method therefor
WO2023224433A1 (en) Information generation method and device
WO2023106555A1 (en) Method, device, and system for managing and controlling concentration level of user of registered extended reality device
WO2024075962A1 (en) Method and device for providing annotations by using voice input
WO2016036049A1 (en) Search service providing apparatus, system, method, and computer program
WO2024075961A1 (en) Method and device for performing inference about object included in image
WO2018169219A1 (en) Printing through automatic sorting
WO2021261662A1 (en) Management system for providing behavioral habit improvement
WO2017030339A1 (en) Method and system for uploading ultrasound diagnostic image
WO2024029964A1 (en) Image processing method using labeling, device, and recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23882853

Country of ref document: EP

Kind code of ref document: A1