WO2023140475A1 - 가이드 이미지와 복수의 3d 이미지 슬라이스로 구성된 3d 단층촬영 영상 간 병변 위치를 연동하여 제공하는 장치 및 방법 - Google Patents

가이드 이미지와 복수의 3d 이미지 슬라이스로 구성된 3d 단층촬영 영상 간 병변 위치를 연동하여 제공하는 장치 및 방법 Download PDF

Info

Publication number
WO2023140475A1
WO2023140475A1 PCT/KR2022/017052 KR2022017052W WO2023140475A1 WO 2023140475 A1 WO2023140475 A1 WO 2023140475A1 KR 2022017052 W KR2022017052 W KR 2022017052W WO 2023140475 A1 WO2023140475 A1 WO 2023140475A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
slice
server
displayed
program
Prior art date
Application number
PCT/KR2022/017052
Other languages
English (en)
French (fr)
Inventor
장정희
이도현
이우석
이래영
Original Assignee
주식회사 루닛
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220105464A external-priority patent/KR20230113123A/ko
Application filed by 주식회사 루닛 filed Critical 주식회사 루닛
Publication of WO2023140475A1 publication Critical patent/WO2023140475A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present invention relates to an apparatus and method for interlockingly providing a lesion location between a guide image and a 3D tomography image composed of a plurality of 3D image slices.
  • 3D tomography imaging (3D TOMOSYNTHESIS IMAGES), which enhances the diagnostic effect by taking pictures of body parts from various angles and synthesizing the taken tomography images, was developed to complement the method of using 2D medical images.
  • the 3D tomography image restores the image in three dimensions, so the overlapping area of tissues is reduced, and the tumor can be easily identified and identified from the tissue of the body part, so the tumor detection ability is high.
  • An object of the present invention is to provide an apparatus and method for interlockingly providing a lesion location between a guide image and a 3D tomography image composed of a plurality of 3D image slices.
  • the problem to be solved by the present invention is not limited to the above-mentioned problems, and other problems and advantages of the present invention that are not mentioned can be understood by the following description and will be more clearly understood by the embodiments of the present invention.
  • the problems and advantages to be solved by the present invention can be realized by the means and combinations indicated in the claims.
  • a first aspect of the present disclosure includes receiving a medical image set corresponding to at least one patient from a first server; identifying a patient being read in response to generation of a preset trigger signal, and determining a predetermined medical image set corresponding to the identified patient; identifying at least one 3D image slice constituting a 3D tomography image from among a plurality of medical images included in the predetermined medical image set; and providing the identified 3D image slice and a guide image corresponding to the identified 3D image slice and the 3D tomography image, wherein the guide image corresponds to a 2D medical image, to be displayed at the same time, wherein the identified 3D image slice and the guide image are interlocked and displayed.
  • a second aspect of the present disclosure is directed to a server that provides a location of a lesion between a guide image and a 3D tomography image composed of a plurality of 3D image slices in conjunction with each other, comprising: a memory in which at least one program is stored; and at least one processor operating by executing the at least one program, wherein the at least one processor receives a medical image set corresponding to at least one patient from a first server, identifies a patient being read in response to generation of a preset trigger signal, determines a predetermined medical image set corresponding to the identified patient, and identifies at least one 3D image slice constituting a 3D tomography image among a plurality of medical images included in the predetermined medical image set, A 3D image slice and a guide image corresponding to the 3D tomography image - the guide image corresponding to a 2D medical image - are provided to be simultaneously displayed, and the location of the lesion between the identified 3D image slice and the guide image is interlocked and displayed.
  • a third aspect of the present disclosure is executed in response to generation of a preset trigger signal; Receiving a guide image (the guide image corresponds to a 2D medical image) and a plurality of 3D image slices constituting a 3D tomography image from a second server; and displaying the guide image and the plurality of 3D image slices at the same time, wherein the identified 3D image slice and the guide image are displayed in association with the location of the lesion.
  • a fourth aspect of the present disclosure provides an apparatus for interlockingly providing a lesion location between a guide image and a 3D tomography image composed of a plurality of 3D image slices, comprising: a memory in which at least one program is stored; and at least one processor that operates by executing the at least one program, wherein the at least one processor is executed in response to generation of a preset trigger signal, receives a guide image, wherein the guide image corresponds to a 2D medical image, and a plurality of 3D image slices constituting a 3D tomography image from a second server, simultaneously displays the guide image and the plurality of 3D image slices, and displays lesion locations in association with the identified 3D image slice and the guide image.
  • a fifth aspect of the present disclosure may provide a computer-readable recording medium recording a program for executing the method according to the first or third aspect on a computer.
  • the location of a lesion between a guide image and a 3D tomography image composed of a plurality of 3D image slices is provided in conjunction with each other, so that the user can grasp the lesion quickly with minimal motion.
  • the location of the lesion between the guide image and the 3D tomography image it is possible to reduce reading time, improve accuracy, and reduce reader fatigue during lesion analysis.
  • FIG. 1 is a schematic configuration diagram of a medical image confirmation system according to an embodiment.
  • FIG. 2 is a flowchart illustrating operations of a server and a device according to an exemplary embodiment.
  • FIG. 3 is a flowchart illustrating operations of a program and a server executed in a device according to an exemplary embodiment.
  • FIG. 4 is an exemplary diagram for describing a screen displayed in a second program according to an exemplary embodiment.
  • FIG. 5 is an exemplary diagram for explaining a screen on which a guide image is displayed according to an exemplary embodiment.
  • FIG. 6 is an exemplary diagram for describing a screen on which a 3D image slice is displayed according to an exemplary embodiment
  • FIG. 7 is an exemplary diagram for explaining a function of a slice search tool according to an exemplary embodiment.
  • 8A to 8D are exemplary diagrams for explaining a method of interlockingly providing a guide image and a location of a lesion between a plurality of 3D image slices according to an embodiment.
  • FIG. 9 is an exemplary diagram for explaining a method of searching for a 3D image slice according to an exemplary embodiment.
  • FIG. 10 is a flowchart of a method for operating a server that interlocks and provides lesion positions between a guide image and a 3D tomography image composed of a plurality of 3D image slices according to an embodiment.
  • 11 is a flowchart of a program operation method for interlockingly providing a lesion location between a guide image and a 3D tomography image composed of a plurality of 3D image slices according to an embodiment.
  • FIG. 12 is a block diagram of a server according to an embodiment.
  • the present disclosure relates to a method and apparatus for interlocking and providing a lesion location between a 2D medical image and a 3D tomosynthesis image composed of a plurality of 3D image slices.
  • Some embodiments of the present disclosure may be represented as functional block structures and various processing steps. Some or all of these functional blocks may be implemented as a varying number of hardware and/or software components that perform specific functions.
  • functional blocks of the present disclosure may be implemented by one or more microprocessors or circuit configurations for a predetermined function.
  • the functional blocks of this disclosure may be implemented in various programming or scripting languages.
  • Functional blocks may be implemented as an algorithm running on one or more processors.
  • the present disclosure may employ prior art for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “component” may be used broadly and are not limited to mechanical and physical components.
  • connecting lines or connecting members between components shown in the drawings are only examples of functional connections and/or physical or circuit connections. In an actual device, connections between components may be represented by various functional connections, physical connections, or circuit connections that can be replaced or added.
  • FIG. 1 is a schematic configuration diagram of a medical image confirmation system according to an embodiment.
  • the medical image confirmation system 100 includes a first server 110 , a second server 120 and a user device 130 .
  • the user device 130 may be, but is not limited to, a smart phone, tablet PC, PC, smart TV, mobile phone, personal digital assistant (PDA), laptop, media player, micro server, global positioning system (GPS) device, e-book reader, digital broadcast terminal, navigation device, kiosk, MP3 player, digital camera, home appliance, device with a camera, and other mobile or non-mobile computing devices.
  • the user device 130 may be a wearable device having a communication function and a data processing function, such as a watch, glasses, a hair band, and a ring. However, it is not limited thereto.
  • the first server 110 refers to a server that integrally processes the storage, reading, and search functions of medical image information.
  • the first server 110 may be a Picture Archiving and Communication System (PACS) server, but is not limited thereto.
  • the first server 110 converts radiographic images, ultrasound images, and magnetic resonance imaging (MRI) images taken by X-rays, CT (Computed Tomography), PET (Positron Emission Tomography), SPECT (Single Photon Emission Computed Tomograph), etc. into digital images, and stores them in a mass storage device at the same time as they are captured, so that the user can read them through a monitor.
  • the user may mean a radiologist or a radiologist, but is not limited thereto, and may include a person who reads a medical image and makes a medical judgment or diagnosis.
  • the first server 110 may store and manage images according to a predetermined standard.
  • the first server 110 may store and manage images according to Digital Imaging and Communications in Medicine (DICOM) standards.
  • DICOM Digital Imaging and Communications in Medicine
  • the first program 131 installed in the user device 130 may be a program associated with the first server 110 .
  • the user device 130 is connected to the first server 110 through the first program 131 to transmit/receive data.
  • the user of the user device 130 can read the image and diagnose the patient's condition through the first program 131 .
  • the first program 131 may be a picture archiving and communication system (PACS) viewer program, but is not limited thereto.
  • PPS picture archiving and communication system
  • the second server 120 refers to a server that stores, manages, and processes data for linking lesion locations between guide images and 3D tomosynthesis images composed of a plurality of 3D image slices.
  • the second server 120 may receive a medical image set corresponding to at least one patient from the first server 110 .
  • the medical image set may include a 3D tomography image composed of a plurality of 3D image slices and a guide image corresponding to the 3D tomography image.
  • the guide image may be a 2D medical image (eg, combo 2D, synthetic 2D) or a predetermined 3D image slice (eg, a 3D image slice with the highest lesion score calculated through an artificial intelligence model), but is not limited thereto.
  • the second server 120 may obtain information on one or more lesions by analyzing the medical image set received from the first server 110 using an artificial intelligence model.
  • the second server 120 may predict the location and lesion score of the lesion on the guide image and the 3D image slice using an artificial intelligence model.
  • the second program 132 installed in the user device 130 may be a program associated with the second server 120 .
  • the user device 130 may be connected to the second server 120 through the second program 132 to transmit/receive data.
  • the user device 130 may call the second program 132 when a predetermined condition is satisfied.
  • the user device 130 may call the second program 132 in response to generation of a preset trigger signal while the first program 131 is running.
  • a predetermined trigger signal may be generated by applying an input of pressing a shortcut key or a button to the user device 130 .
  • the second program 132 may be a viewer program, and may also be installed in the first program 131 in an in-app form.
  • the user device 130 may receive data by communicating with the second server 120 through the second program 132 .
  • the user device 130 may receive a guide image on which lesion information is displayed and a plurality of 3D image slices from the second server 120 through the second program 132 .
  • the second program 132 may configure a user interface (UI) such that a guide image and a plurality of 3D image slices are simultaneously displayed.
  • the second program 132 may configure a UI such that a guide image and a plurality of 3D image slices are displayed in parallel. A detailed method of displaying the guide image and the plurality of 3D image slices will be described later.
  • a network includes a local area network (LAN), a wide area network (WAN), a value-added network (VAN), a mobile radio communication network, a satellite communication network, and combinations thereof, and is a data communication network in a comprehensive sense that enables each network component shown in FIG. 1 to communicate smoothly with each other, and may include wired Internet, wireless Internet, and mobile wireless communication network.
  • wireless communication may include, for example, Wi-Fi, Bluetooth, Bluetooth low energy, ZigBee, Wi-Fi Direct (WFD), ultra wideband (UWB), infrared data association (IrDA), Near Field Communication (NFC), etc., but is not limited thereto.
  • FIG. 2 is a flowchart illustrating operations of a server and a device according to an exemplary embodiment.
  • each of the first server 210, the second server 220, and the user device 230 may correspond to the first server 110, the second server 120, and the user device 130 of FIG. 1 .
  • the second server 220 may receive a medical image set corresponding to at least one patient from the first server 210 .
  • the first server 210 stores medical image sets for a plurality of patients, and the second server 220 receives the medical image set from the first server 210 when a predetermined condition is satisfied, and updates the medical image set stored in the second server 220.
  • the predetermined condition may include a predetermined period, a user's request signal, and the like.
  • the second server 220 may further receive a medical image captured by an external medical imaging device.
  • the second server 220 may further receive medical images other than the medical image set from the first server 210 and other external devices.
  • the external medical imaging device may refer to a medical imaging device of a different type from the medical imaging device that acquires the guide image and the plurality of 3D image slices included in the medical image set.
  • the external medical imaging device corresponds to the same type of medical imaging device as the medical imaging device that acquired the guide image or the plurality of 3D image slices included in the medical image set, and the second server 220 may further receive a medical image captured at a different time from the medical image included in the medical image set.
  • the external medical imaging device may include an X-ray device, a Magnetic Resonance Imaging (MRI) device, a Computed Tomography (CT) device, and an Ultra Sound (US) device.
  • the user device 230 may execute a first program.
  • a user using the user device 230 may execute the first program to store, read, and retrieve medical image information.
  • a trigger signal preset in the user device 230 may be generated.
  • a predetermined trigger signal may be generated by applying an input of pressing a shortcut key or a button to the user device 230 .
  • the user device 230 may execute a second program.
  • the user device 230 may execute the second program 132 in response to generation of a preset trigger signal while the first program 131 is being executed.
  • the second program may communicate with the second server 220 and request transmission of the medical image set to the second server 220 .
  • the second server 220 may identify the patient being read in the first program, and determine a predetermined medical image set corresponding to the identified patient. For example, when a second program is executed and a request signal is transmitted to the second server 220 while the first program is checking medical image information of patient A, the second server 220 may determine a predetermined medical image set corresponding to patient A.
  • the medical image set may include a 3D tomography image composed of a plurality of 3D image slices and a guide image corresponding thereto.
  • the guide image may be a 2D medical image.
  • the second server 220 may obtain information on one or more lesions by analyzing the medical image set received from the first server 210 using an artificial intelligence model.
  • the analysis process may be performed when the second server 220 receives the medical image set from the first server 210 in step 201 .
  • the analysis process may be performed on a predetermined set of medical images corresponding to the patient identified after step 206 .
  • the second server 220 may identify at least one 3D image slice constituting a 3D tomography image from the medical image set determined in step 206. In one embodiment, the second server 220 may identify a first image slice among a plurality of 3D image slices constituting a 3D tomography image. In another embodiment, the second server 220 may identify the 3D image slice being read in the first program at the time when a predetermined trigger signal is generated in step 203 .
  • the second server 220 may identify a 3D image slice including predetermined lesion information among one or more lesion information acquired by analyzing a medical image set using an artificial intelligence model.
  • the 3D image slice including predetermined lesion information may refer to a 3D image slice in which corresponding specific lesion information is best viewed among at least one 3D image slice including specific lesion information.
  • a 3D image slice including predetermined lesion information may refer to a 3D image slice in which a lesion score of a specific lesion is detected with the highest value among at least one 3D image slice including specific lesion information.
  • the second server 220 may identify a predetermined 3D image slice among a plurality of 3D image slices when lesion information is not confirmed as a result of analyzing the medical image set using an artificial intelligence model.
  • a predetermined 3D image slice may be a first 3D image slice among a plurality of 3D image slices, but is not limited thereto.
  • the second server 220 may transmit guide images corresponding to the plurality of 3D image slices and the 3D tomography image to the user device 230 .
  • the second server 220 may acquire one or more lesion information by analyzing the medical image set received from the first server 210 using an artificial intelligence model, and the second server 220 may transmit one or more lesion information to the user device 230.
  • the second server 220 may predict the location and lesion score of the lesion on the guide image and the 3D image slice using an artificial intelligence model.
  • the second server 220 may transmit the location of the lesion and the lesion score on the guide image and the 3D image slice to the user device 230 .
  • the lesion information may be displayed on the guide image and the plurality of 3D image slices transmitted from the second server 220 to the user device 230 .
  • information on one or more acquired lesions may be all displayed on the guide image, and information on some of the information on one or more acquired lesions may be displayed on a predetermined 3D image slice.
  • the second program running on the user device 230 may simultaneously display at least one 3D image slice included in the plurality of 3D image slices and a guide image.
  • the second program may configure the UI so that the guide image and the 3D image slice are displayed in parallel.
  • the second program may simultaneously display the guide image and the first image slice.
  • the second program may simultaneously display the guide image and the 3D image slice being read by the first program at the time when a predetermined trigger signal is generated.
  • the second program may write feedback notes to guide images or 3D image slices based on user input.
  • the feedback note may include what the user has marked, recorded, etc. on the guide image and/or 3D image slice.
  • the user device 230 may generate and store a separate single image by merging the feedback notes in the form of an overlay on the guide image and/or the 3D image slice through the second program.
  • the single image may be implemented in the form of a Digital Imaging and Communications in Medicine (DICOM) format such as Secondary Capture (SC) or Grayscale Softcopy Presentation State (GSPS), and may include being stored in various DICOM formats.
  • the user device 230 may transmit a single image to the second server 220 .
  • the second server 220 may transmit a single image to the first server 210 .
  • the user device 230 may transmit a single image to the first server 210 .
  • the second server 220 may update the medical image set by storing a single image connected to the plurality of 3D image slices so that the plurality of 3D image slices constituting the 3D tomography image are searched for. For example, the second server 220 may update the 3D tomography image by storing a single image following the last slice of the 3D tomography image. The second server 220 may provide an updated 3D tomography image to be displayed in response to the occurrence of a preset trigger signal again.
  • the second program may receive and display the updated medical image set from the second server 220 in response to the occurrence of the preset trigger signal again.
  • the user device 230 may display an updated medical image set through the first program.
  • the user device 230 may display the feedback note recorded through the second program when the first program is executed without separately executing the second program.
  • FIG. 3 is a flowchart illustrating operations of a program and a server executed in a device according to an exemplary embodiment.
  • the second server 320 and the user device 330 may respectively correspond to the second server 120 and the user device 130 of FIG. 1 . Meanwhile, a first program 331 and a second program 332 may be installed and executed in the user device 330 .
  • the first program 331 may be a program associated with a first server (not shown).
  • the user of the user device 330 can read the image and diagnose the patient's condition through the first program 331 .
  • the first program 331 may be a Picture archiving and communication system (PACS) viewer program, but is not limited thereto.
  • PPS Picture archiving and communication system
  • the second program 332 may be a program associated with the second server 320 .
  • the second program 332 may be a viewer program, and may also be installed in the first program 331 in an in-app form.
  • step 301 the first program 331 installed in the user device 330 may be executed.
  • a user using the user device 330 may execute the first program 331 to store, read, and retrieve medical image information.
  • a preset trigger signal may be generated while the first program 331 is being executed.
  • the first program 331 may determine that a predetermined trigger signal is generated by recognizing an input of pressing a shortcut key or a button.
  • the first program 331 may transmit an execution request for executing the second program 332 to the second program 332 in response to the generation of a preset trigger signal.
  • step 304 in response to receiving an execution request from the first program 331, the second program 332 installed in the user device 330 may be executed.
  • Steps 305 to 309 of FIG. 3 may correspond to steps 205 to 209 of FIG. 2 , respectively.
  • the second program 332 may request transmission of the medical image set to the second server 320 .
  • the second server 320 may identify the patient being read by the first program 331, and may determine a predetermined medical image set corresponding to the identified patient.
  • the second server 320 may identify at least one 3D image slice constituting a 3D tomography image from the medical image set determined in step 306.
  • the second server 320 may transmit guide images corresponding to the plurality of 3D image slices and the 3D tomography image to the user device 330 .
  • the second server 320 may obtain information on one or more lesions by analyzing the medical image set received from the first server (not shown) using an artificial intelligence model.
  • the second server 320 may transmit, to the user device 330 , information on one or more acquired lesions together with a plurality of 3D image slices and a guide image associated therewith.
  • the second server 320 may predict the lesion location and lesion score on the guide image and the 3D image slice by using an artificial intelligence model.
  • the second server 320 may transmit the location of the lesion and the lesion score on the guide image and the 3D image slice to the user device 330 .
  • the second program 332 may simultaneously display at least one 3D image slice and a guide image included in the plurality of 3D image slices.
  • FIG. 4 is an exemplary diagram for explaining a screen displayed when a second program is executed according to an exemplary embodiment.
  • a screen 400 displayed when the user device executes the second program is shown.
  • the second program may receive 3D tomography images and guide images matched for each patient from the second server.
  • a 3D tomography image may be composed of a plurality of 3D image slices.
  • the guide image may be a 2D medical image (eg, combo 2D, synthetic 2D) or a predetermined 3D image slice (eg, a 3D image slice with the highest lesion score calculated through an artificial intelligence model), but is not limited thereto.
  • the second program may simultaneously display a guide image and a 3D tomography image on the screen 400 .
  • the UI may be configured such that a guide image is displayed on the left area 410 of the screen 400 and a 3D tomography image is displayed on the right area 420.
  • any one 3D image slice among the plurality of 3D image slices may be displayed on the right area 420 .
  • the second program may configure the UI so that the slice number of the 3D image slice and a slice navigation tool are displayed on the right area 420 .
  • the second program may search the 3D tomography image in the depth direction through the slice search tool.
  • the second program may display any one 3D image slice among a plurality of 3D image slices based on a user input to the slice search tool. A description of the slice search tool will be described later with reference to FIG. 7 .
  • guide images e.g., 2D mammography images (2D MAMMOGRAPHY IMAGE)
  • 3D breast tomography images (3D BREAST TOMOSYNTHESIS IMAGES) of breasts are shown.
  • the contents according to the present disclosure are not limited to images of breasts, and may be equally applied to other body parts such as the breast.
  • FIG. 5 is an exemplary diagram for explaining a screen on which a guide image is displayed according to an exemplary embodiment.
  • a screen 500 on which a guide image is displayed is shown.
  • the second program may display the title 510 of the guide image on the screen 500 .
  • the second program can provide various types of guide images and display titles 510 suitable for the types of provided guide images.
  • the second program may describe "combo 2D", “Synthetic 2D", and "3D image slice with the highest lesion score" as the title 510 according to the guide image type.
  • the second program may display patient information 520 on the screen 500 .
  • the patient information 520 may include a patient identification number, date of birth, age, date of examination, and the like, but is not limited thereto.
  • the second program may display one or more lesion information 530 on the guide image.
  • the second server that transmits and receives data with the second program may obtain information on one or more lesions by analyzing the medical image set received from the first server using an artificial intelligence model. Specifically, the second server may predict the location of the lesion and the lesion score on the guide image and the 3D image slice using the artificial intelligence model. Based on the lesion information received from the second server, the second program may display the locations and scores of all lesions on the guide image.
  • the second program may display an abnormality score 540 on the screen 500 .
  • the abnormal score 540 may be determined as the highest lesion score among lesion scores for a plurality of lesions displayed on the guide image. Referring to FIG. 5 , since the lesion scores for each detected lesion are 84 points and 15 points, the second program may determine the highest score of 84 as the abnormality score 540 and display it on the screen 500 .
  • FIG. 6 is an exemplary diagram for describing a screen on which a 3D image slice is displayed according to an exemplary embodiment.
  • a screen 600 on which a predetermined 3D image slice is displayed is shown.
  • the second program may display the title 610 of the 3D image slice on the screen 600 .
  • the second program may describe "tomosynthesis" as title 610 .
  • the second program may display slice information 620 on the screen 600 .
  • the slice information 620 may include a slice number and a lesion score. Specifically, since a 3D tomography image is composed of a plurality of 3D image slices, a slice number indicating which slice is the current slice among all slices displayed on the screen 600 may be displayed on the screen 600 . Also, the lesion score of the corresponding slice may be displayed together on the screen 600 .
  • the second program may display one or more lesion information 630 on the guide image.
  • the second program displays all lesion information on the guide image
  • the second program can display only partial lesion information on a predetermined 3D image slice.
  • the slice currently displayed on the screen 600 is the 5th slice out of a total of 50 slices, and the corresponding slice includes a lesion with a lesion score of 84 points.
  • the second program may display a slice search tool 640 on the screen 600 .
  • the second program may perform depth-direction search on the 3D tomography image through the slice search tool 640 .
  • the slice search tool 640 may include, but is not limited to, a slider bar, a slider handle, and “slice number/lesion score”.
  • FIG. 7 is an exemplary diagram for explaining a function of a slice search tool according to an exemplary embodiment.
  • a 3D tomography image is composed of a plurality of 3D image slices, and a slice search tool 700 may be used to move to a 3D image slice desired by the user.
  • the second program may search the 3D tomography image in the depth direction through the slice search tool 700 .
  • the second program may display any one 3D image slice among a plurality of 3D image slices based on a user input to the slice search tool 700 .
  • the slice search tool 700 may include a slice number 710, a slider bar 720, and a slider handle 730, but elements included in the slice search tool 700 are not limited thereto.
  • the slice number 710 may include the total number of 3D image slices constituting the 3D tomography image and the slice number currently being displayed on the screen. Referring to FIG. 7 , it can be seen that there are a total of 50 3D image slices constituting a 3D tomography image, and the slice currently displayed on the screen corresponds to the 17th slice.
  • the slider bar 720 includes an indicator for distinguishing each of a plurality of 3D image slices. Indicators as many as the number of 3D image slices may be displayed on the slider bar 720 . In FIG. 7 , indicators in the form of scales are shown, and since the number of 3D image slices is 50, it can be seen that 50 indicators are displayed.
  • the focus slice refers to a slice in which a predetermined lesion is best seen among a plurality of 3D image slices.
  • the slice number of the focus slice and lesion scores of lesions included in the focus slice may be displayed on the slider bar 720 . Referring to FIG. 7 , it can be seen that the lesion score of the lesion included in the 17th slice is 15 points, the lesion score of the lesion included in the 21st slice is 27 points, and the lesion score of the lesion included in the 40th slice is 84 points.
  • the second program may display the corresponding focus slice on the screen 600 . For example, if the user clicks '#21/27', the second program may display the 21st slice on the screen 600 .
  • a slider handle 730 may be displayed adjacent to the slider bar 720 to indicate the slice currently being displayed.
  • a slider handle 730 may be positioned at an indicator corresponding to a currently displayed slice.
  • the user may perform a search in the depth direction for the 3D tomography image using the slider handle 730 .
  • the user may select a 3D image slice to check through a click and drag operation on the slider handle 730 .
  • the second program may provide the selected 3D image slice to the user in real time.
  • 8A to 8D are exemplary diagrams for explaining a method of interlockingly providing a guide image and a location of a lesion between a plurality of 3D image slices according to an embodiment.
  • a guide image is shown on the left area 810 of the screen 800 and a 3D image slice is shown on the right area 820 of the screen 800 .
  • a plurality of lesion information 811 and 812 may be displayed on the guide image.
  • the location, shape, and lesion score (84 points) of the first lesion information 811 and the location, shape, and lesion score (15 points) of the second lesion information 812 may be displayed on the guide image.
  • the 3D image slice displayed on the right area 820 may be an arbitrary slice.
  • the slice number of the currently displayed slice may be displayed together on the screen 800 .
  • a 3D image slice displayed on the right area 820 may be changed in response to an input for selecting one of the plurality of lesion information 811 and 812 .
  • the second program may display on the right area 820 a 3D image slice having the highest lesion score in the lesion information selected from among the plurality of 3D image slices.
  • the second program may display a 3D image slice having the highest lesion score in the second lesion information 812 on the right area 820. That is, in FIG. 8A, the 10th slice is displayed in the right area 820, but in FIG. 8B after the second lesion information 812 in the guide image is selected, the 34th slice is displayed in the right area 820. Second lesion information 812 may be displayed together with the 3D image slice displayed on the right area 820 .
  • the second program may display whether a medical image related to lesion information displayed on a 3D image slice of a right region 820 exists.
  • the second program may receive an image captured by an external medical imaging device from the second server. If there is a medical image captured by the external medical imaging device, the second program may display the medical image captured by the external medical imaging device in response to selection of lesion information displayed in the right area 820 .
  • the external medical imaging device may include an MRI device, a CT device, and an ultrasound imaging device. In FIG. 8C , it can be confirmed that an ultrasound image exists as a medical image related to the second lesion information 812 displayed on the right area 820 .
  • the second program may also display a pre-stored medical image 822 in response to an input for selecting the second lesion information 812 displayed on the right area 820 .
  • the second program may display a pre-stored medical image through a separate sub window and display it together with a 3D image slice.
  • the second program may process a medical image captured by an external medical imaging device to correspond to depth information of a currently displayed 3D image slice and location information of a lesion displayed on the 3D image slice.
  • the second program may obtain photographing location information when capturing a medical image.
  • the second program may compare and analyze depth information and lesion location information of a 3D image slice and photographing location information of a medical image. Based on the analysis result, the second program may extract and display only the region corresponding to the depth information of the 3D image slice and the location information of the lesion from among regions of the medical image.
  • FIG. 9 is an exemplary diagram for explaining a method of searching for a 3D image slice according to an exemplary embodiment.
  • a guide image is displayed on a left area 910 of the screen 900 and a 3D image slice is displayed on a right area 920 of the screen 900 .
  • the second program may set a partial area of the 3D image slice being displayed on the right area 920 as the enlarged area 930 .
  • a partial area of the 3D image slice being displayed on the right area 920 as the enlarged area 930 .
  • an area of the hovered position may be set as the magnification area 930 .
  • the location, size, and shape of the magnification area 930 may be set in various ways according to user settings.
  • the enlarged area 930 may be displayed as a separate window or may be displayed as an overlay on a designated area on a 3D image slice.
  • the second program may change the 3D image slice displayed in the enlarged area 930 .
  • an existing 3D image slice may be displayed in an area other than the enlarged area of the second program.
  • User input includes, but is not limited to, mouse wheel scrolling.
  • an enlargement area 930 for a 3D image slice (hereinafter referred to as a reference slice) currently displayed in the right area 920 may be set, and a mouse wheel scroll input for the enlargement area 930 may be received.
  • the second program may change the 3D image slice displayed in the enlarged area 930 such that a 3D image slice adjacent to the reference slice is displayed forward or backward according to the scroll direction.
  • the reference slice image may be displayed in the remaining areas other than the enlarged area 930 .
  • the reference slice is the 5th slice, even if another slice is displayed in the enlarged area 930 , the 5th slice may be maintained and displayed in areas other than the enlarged area 930 .
  • a slice number representing the slice number of the currently displayed 3D image slice may be displayed together in the enlarged area 930 .
  • FIG. 10 is a flowchart of a method for operating a server that interlocks and provides lesion positions between a guide image and a 3D tomography image composed of a plurality of 3D image slices according to an embodiment.
  • the server may receive a medical image set corresponding to at least one patient from an external server.
  • the server may receive a medical image captured by an external medical imaging device.
  • the server may identify a patient being read in response to generation of a preset trigger signal, and may determine a predetermined medical image set corresponding to the identified patient.
  • the server may identify at least one 3D image slice constituting a 3D tomography image from among a plurality of medical images included in a predetermined medical image set.
  • the server may provide guide images corresponding to the identified 3D image slice and the 3D tomography image to be simultaneously displayed.
  • the server may obtain information on one or more lesions obtained by analyzing a predetermined set of medical images using an artificial intelligence model.
  • All information on one or more lesions may be displayed on the guide image, and predetermined lesion information corresponding to the identified 3D image slice among the one or more lesion information may be displayed on the identified 3D image slice.
  • all of the plurality of lesion information may be displayed on the guide image, and some lesion information of the plurality of lesion information may be displayed on the identified 3D image slice.
  • Coordinate information of an area where some lesion information is displayed on the identified 3D image slice and coordinate information of an area where some lesion information is displayed on the guide image may be set to correspond to each other.
  • the server may provide a slice search tool to be displayed on a display area related to the identified 3D image slice, and perform a search for the 3D tomography image in a depth direction using the slice search tool.
  • the slice search tool may include an indicator for distinguishing each of the plurality of 3D image slices.
  • the identification information of the focus slice and the score of the predetermined lesion information may be displayed at a position corresponding to the indicator of the focus slice on which the predetermined lesion information is displayed.
  • the server may receive a separate single image in which the identified 3D image slice and the feedback note recorded on the identified 3D image are merged. Also, the server may receive a separate single image in which the guide image and the feedback note recorded in the guide image are merged.
  • the server may update the 3D tomography image by storing a single image connected to the plurality of 3D image slices so as to be searched together with the plurality of 3D image slices constituting the 3D tomography image.
  • the server may provide an updated 3D tomography image to be displayed in response to the re-occurrence of a preset trigger signal.
  • the user device may display an updated medical image set through the first program.
  • the user device may display the feedback note recorded through the second program when the first program is executed without separately executing the second program.
  • 11 is a flowchart of a program operation method for interlockingly providing a lesion location between a guide image and a 3D tomography image composed of a plurality of 3D image slices according to an embodiment.
  • a program may be executed in response to generation of a preset trigger signal.
  • the program may receive a guide image and a plurality of 3D image slices constituting a 3D tomography image from the second server.
  • the guide image may correspond to a 2D medical image.
  • the program may simultaneously display a guide image and at least one 3D image slice included in a plurality of 3D image slices.
  • the program may identify at least one 3D image slice among the plurality of 3D image slices.
  • all of the plurality of lesion information may be displayed on the guide image, and some lesion information of the plurality of lesion information may be displayed on the identified 3D image slice.
  • the program may display coordinate information of a region where some lesion information is displayed on the identified 3D image slice and coordinate information of a region where some lesion information is displayed on the guide image, corresponding to each other.
  • the program may display a slice navigation tool in a display area associated with the identified 3D image slice.
  • the program may perform a depth-direction search for a 3D tomography image using a slice search tool.
  • the slice search tool may include an indicator for distinguishing each of the plurality of 3D image slices.
  • the program may display the identification information of the focus slice and the score of the predetermined lesion information at a position corresponding to the indicator of the focus slice on which the predetermined lesion information is displayed.
  • the program may set a partial area of the identified 3D image slice as an enlarged area and change a 3D image slice displayed in the enlarged area in response to receiving a user input. Also, the program may cause the identified 3D image slice to be displayed in an area other than the enlarged area while receiving a user input.
  • the program may display pre-stored medical images in response to selection of some lesion information on the identified 3D image slice.
  • the pre-stored medical image may be an image captured by an external medical imaging device.
  • the program may search for a focus slice corresponding to the selected lesion information among a plurality of 3D image slices in response to selection of some lesion information among a plurality of lesion information displayed on the guide image. Also, the program may display the searched focus slice.
  • the program may record feedback notes on the guide image or the identified 3D image slice based on user input.
  • the program may transmit the single image to the second server after saving the feedback note as a separate single image together with the guide image or the identified 3D image slice.
  • the program may merge the guide images or the identified 3D image slices in an overlay form, save them as a separate single image, and transmit the single image to the second server.
  • the program may receive an updated 3D tomography image from the second server and display the updated 3D tomography image in response to the occurrence of the preset trigger signal again.
  • the updated 3D tomography image may be a 3D tomography image in which a plurality of 3D image slices and a single image are connected.
  • FIG. 12 is a block diagram of a server according to an embodiment.
  • a server 1200 may include a communication unit 1210, a processor 1220, and a DB 1230.
  • a communication unit 1210 may include a communication unit 1210, a processor 1220, and a DB 1230.
  • a processor 1220 may perform calculations and processes calculations.
  • DB 1230 may be included in addition to the components shown in FIG. 12 .
  • the communication unit 1210 may include one or more components that enable wired/wireless communication with an external server or external device.
  • the communication unit 1210 may include at least one of a short-distance communication unit (not shown), a mobile communication unit (not shown), and a broadcast reception unit (not shown).
  • the DB 1230 is hardware for storing various data processed in the server 1200, and may store programs for processing and controlling the processor 1220.
  • the DB 1230 may include random access memory (RAM) such as dynamic random access memory (DRAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), CD-ROM, Blu-ray or other optical disk storage, hard disk drive (HDD), solid state drive (SSD), or flash memory.
  • RAM random access memory
  • DRAM dynamic random access memory
  • SRAM static random access memory
  • ROM read-only memory
  • EEPROM electrically erasable programmable read-only memory
  • CD-ROM compact disc-read-only memory
  • Blu-ray or other optical disk storage hard disk drive (HDD), solid state drive (SSD), or flash memory.
  • the processor 1220 controls the overall operation of the server 1200.
  • the processor 1220 may generally control an input unit (not shown), a display (not shown), a communication unit 1210, and the DB 1230 by executing programs stored in the DB 1230.
  • the processor 1220 may control the operation of the server 1200 by executing programs stored in the DB 1230.
  • the processor 1220 may control at least some of the operations of the server 1200 described above with reference to FIGS. 1 to 11 .
  • the server 1200 may be the same as the second servers 120, 220, and 320 of FIGS. 1 to 3, or implemented as a device that performs some of the operations of the second servers 120, 220, and 320.
  • the processor 1220 may be implemented using at least one of application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • controllers micro-controllers, microprocessors, and electrical units for performing other functions.
  • the server 1200 may be implemented as a computer device or a plurality of computer devices that communicate over a network to provide commands, codes, files, contents, services, and the like.
  • Embodiments according to the present invention may be implemented in the form of a computer program that can be executed on a computer through various components, and such a computer program may be recorded on a computer-readable medium.
  • the media may include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, and flash memory.
  • the computer program may be specially designed and configured for the present invention, or may be known and usable to those skilled in the art of computer software.
  • An example of a computer program may include not only machine language code generated by a compiler but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the method according to various embodiments of the present disclosure may be included and provided in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • a computer program product may be distributed in the form of a device-readable storage medium (eg, compact disc read only memory (CD-ROM)), or may be distributed (eg, downloaded or uploaded) online, through an application store (eg, Play StoreTM) or directly between two user devices.
  • an application store eg, Play StoreTM
  • at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 개시는 2D 의료 이미지(2D medical image)와 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상(3D tomosynthesis images) 간 병변 위치를 연동하여 제공하는 방법 및 장치에 관한 것이다.

Description

가이드 이미지와 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상 간 병변 위치를 연동하여 제공하는 장치 및 방법
본 발명은 가이드 이미지와 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상 간 병변 위치를 연동하여 제공하는 장치 및 방법에 관한 것이다.
기존의 암 진단은 주로 단일 방향에서 유방(breast), 가슴(chest) 등 신체 부위를 X선 촬영하는 2D 의료 이미지(2D MEDICAL IMAGE)을 이용하였다. 그러나 2D 의료 이미지에서는 관심영역의 종양이 정상조직과 겹쳐서 촬영된다. 따라서 암 조기 진단의 중요한 요소인 미세 석회화의 검출에 많은 어려움이 있다는 한계가 있다.
이에 암을 조기에 발견할 수 있도록, 2D 의료 이미지를 이용하는 방법을 보완하여, 여러 각도에서 신체 부위를 촬영하고 촬영된 단층 영상을 합성하여 진단 효과를 높인 3D 단층촬영 영상(3D TOMOSYNTHESIS IMAGES) 방식이 개발되었다.
3D 단층촬영 영상은, 3차원으로 영상을 복원하므로 조직의 중첩 영역이 줄어, 종양을 신체 부위의 조직과 용이하게 구분하여 확인할 수 있으므로 종양의 검출능이 높다.
한편, 최근에는 2D 의료 이미지와 3D 단층촬영 영상을 함께 이용하여 병변을 보다 효율적으로 판독하는 기술이 필요한 실정이다.
전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 발명은 가이드 이미지와 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상 간 병변 위치를 연동하여 제공하는 장치 및 방법을 제공하는데 있다. 본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제에 한정되지 않으며, 언급되지 않은 본 발명의 다른 과제 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시 예에 의해보다 분명하게 이해될 것이다. 또한, 본 발명이 해결하고자 하는 과제 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 알 수 있을 것이다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제1 측면은, 제1 서버로부터 적어도 한 명의 환자에 대응되는 의료 이미지 세트를 수신하는 단계; 기설정된 트리거 신호가 발생한 것에 응답하여 판독(read) 중인 환자를 식별하고, 상기 식별된 환자에 대응되는 소정의 의료 이미지 세트를 결정하는 단계; 상기 소정의 의료 이미지 세트에 포함된 복수의 의료 이미지들 중에서, 3D 단층촬영 영상을 구성하는 적어도 하나의 3D 이미지 슬라이스를 식별하는 단계; 및 상기 식별된 3D 이미지 슬라이스 및 상기 식별된 3D 이미지 슬라이스와 상기 3D 단층촬영 영상에 대응되는 가이드 이미지 - 상기 가이드 이미지는 2D 의료 이미지에 해당 - 가 동시에 디스플레이되도록 제공하는 단계;를 포함하며, 상기 식별된 3D 이미지 슬라이스 및 상기 가이드 이미지 간에 병변 위치가 연동되어 디스플레이되는 것인, 방법을 제공할 수 있다.
본 개시의 제 2 측면은, 가이드 이미지와 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상 간 병변 위치를 연동하여 제공하는 서버에 있어서, 적어도 하나의 프로그램이 저장된 메모리; 및 상기 적어도 하나의 프로그램을 실행함으로써 동작하는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 제1 서버로부터 적어도 한 명의 환자에 대응되는 의료 이미지 세트를 수신하고, 기설정된 트리거 신호가 발생한 것에 응답하여 판독(read) 중인 환자를 식별하고, 상기 식별된 환자에 대응되는 소정의 의료 이미지 세트를 결정하고, 상기 소정의 의료 이미지 세트에 포함된 복수의 의료 이미지들 중에서, 3D 단층촬영 영상을 구성하는 적어도 하나의 3D 이미지 슬라이스를 식별하며, 상기 식별된 3D 이미지 슬라이스 및 상기 3D 단층촬영 영상에 대응되는 가이드 이미지 - 상기 가이드 이미지는 2D 의료 이미지에 해당 - 가 동시에 디스플레이되도록 제공하며, 상기 식별된 3D 이미지 슬라이스 및 상기 가이드 이미지 간에 병변 위치가 연동되어 디스플레이되는 것인, 서버를 제공할 수 있다.
본 개시의 제 3 측면은, 기설정된 트리거 신호가 발생한 것에 응답하여 실행되는 단계; 제2 서버로부터 가이드 이미지 - 상기 가이드 이미지는 2D 의료 이미지에 해당 - 및 3D 단층촬영 영상을 구성하는 복수의 3D 이미지 슬라이스를 수신하는 단계; 및 상기 가이드 이미지 및 상기 복수의 3D 이미지 슬라이스를 동시에 디스플레이하는 단계;를 포함하며, 상기 식별된 3D 이미지 슬라이스 및 상기 가이드 이미지 간에 병변 위치가 연동되어 디스플레이되는 것인, 방법을 제공할 수 있다.
본 개시의 제 4 측면은, 가이드 이미지와 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상 간 병변 위치를 연동하여 제공하는 장치에 있어서, 적어도 하나의 프로그램이 저장된 메모리; 및 상기 적어도 하나의 프로그램을 실행함으로써 동작하는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 기설정된 트리거 신호가 발생한 것에 응답하여 실행되고, 제2 서버로부터 가이드 이미지 - 상기 가이드 이미지는 2D 의료 이미지에 해당 - 및 3D 단층촬영 영상을 구성하는 복수의 3D 이미지 슬라이스를 수신하며, 상기 가이드 이미지 및 상기 복수의 3D 이미지 슬라이스를 동시에 디스플레이하며, 상기 식별된 3D 이미지 슬라이스 및 상기 가이드 이미지 간에 병변 위치가 연동되어 디스플레이되는 것인, 장치를 제공할 수 있다.
본 개시의 제 5 측면은, 제 1 측면 또는 제 3 측면에 따른 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램이 저장된 컴퓨터로 판독 가능한 기록매체가 더 제공될 수 있다.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.
전술한 본 개시의 과제 해결 수단에 의하면, 본 개시에서는 가이드 이미지와 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상 간 병변 위치를 연동하여 제공함으로써 사용자는 최소한의 동작으로 병변을 빠른 시간내에 파악할 수 있다. 또한, 가이드 이미지와 3D 단층촬영 영상 간 병변 위치를 연동하여 제공함으로써, 병변 분석 시 판독 시간 감소, 정확도 향상 및 판독자의 피로도를 감소시킬 수 있다.
도 1은 일 실시예에 따른 의료 영상 확인 시스템의 개략적인 구성도이다.
도 2는 일 실시예에 따른 서버와 장치의 동작을 설명하기 위한 흐름도이다.
도 3은 일 실시예에 따른 장치에서 실행되는 프로그램과 서버의 동작을 설명하기 위한 흐름도이다.
도 4는 일 실시예에 따른 제2 프로그램에 디스플레이되는 화면을 설명하기 위한 예시적인 도면이다.
도 5는 일 실시예에 따른 가이드 이미지가 디스플레이되는 화면을 설명하기 위한 예시적인 도면이다.
도 6은 일 실시예에 따른 3D 이미지 슬라이스가 디스플레이되는 화면을 설명하기 위한 예시적인 도면이다
도 7은 일 실시예에 따른 슬라이스 탐색 도구의 기능을 설명하기 위한 예시적인 도면이다.
도 8a 내지 도 8d는 일 실시예에 따른 가이드 이미지와 복수의 3D 이미지 슬라이스 간 병변 위치를 연동하여 제공하는 방법을 설명하기 위한 예시적인 도면이다.
도 9는 일 실시예에 따른 3D 이미지 슬라이스를 탐색하는 방법을 설명하기 위한 예시적인 도면이다.
도 10은 일 실시예에 따른 가이드 이미지와 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상 간 병변 위치를 연동하여 제공하는 서버 동작 방법의 흐름도이다.
도 11은 일 실시예에 따른 가이드 이미지와 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상 간 병변 위치를 연동하여 제공하는 프로그램 동작 방법의 흐름도이다.
도 12는 일 실시예에 따른 서버의 블록도이다.
본 개시는 2D 의료 이미지(2D medical image)와 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상(3D tomosynthesis images) 간 병변 위치를 연동하여 제공하는 방법 및 장치에 관한 것이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 설명되는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 아래에서 제시되는 실시 예들로 한정되는 것이 아니라, 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 아래에 제시되는 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. "매커니즘", "요소", "수단" 및 "구성" 등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.
도 1은 일 실시예에 따른 의료 영상 확인 시스템의 개략적인 구성도이다.
의료 영상 확인 시스템(100)은 제1 서버(110), 제2 서버(120) 및 사용자 장치(130)를 포함한다.
사용자 장치(130)는, 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라, 가전기기, 카메라가 탑재된 디바이스 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 사용자 장치(130)은 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드 및 반지 등의 웨어러블 디바이스일 수 있다. 그러나, 이에 제한되지 않는다.
제1 서버(110)는, 의학용 영상 정보의 저장, 판독 및 검색 기능 등의 수행을 통합적으로 처리하는 서버를 의미한다. 예를 들어, 제1 서버(110)는 PACS(Picture archiving and communication system) 서버일 수 있으나, 이에 제한되는 것은 아니다. 제1 서버(110)는 X선,CT(Computed Tomography), PET(Positron Emission Tomography),SPECT(Single Photon Emission Computed Tomograph) 등에 의해 촬영된 방사선 영상과, 초음파 영상 및 MRI(Magnetic Resonance Imaging) 영상을 디지털 이미지로 변환, 촬영과 동시에 대용량 기억장치에 저장시켜 사용자가 모니터를 통해 판독할 수 있게 할 수 있다. 여기서 사용자는 영상의학과 의사, 영상의학 전문의를 의미할 수 있으나, 이에 제한되는 것은 아니며, 의료 영상을 판독하여 의학적 판단 또는 진단을 하는 자를 포함할 수 있다.
제1 서버(110)는 소정의 규격에 따라 영상을 저장, 관리할 수 있다. 예를 들어, 제1 서버(110)는 DICOM (Digital Imaging and Communications in Medicine) 규격에 따라 영상을 저장, 관리할 수 있다.
한편, 사용자 장치(130)에 설치된 제1 프로그램(131)은 제1 서버(110)와 연관된 프로그램일 수 있다. 사용자 장치(130)는 제1 프로그램(131)을 통해 제1 서버(110)와 연결되어 데이터를 송/수신할 수 있다. 사용자 장치(130)의 사용자는 제1 프로그램(131)을 통해 이미지를 판독하고 환자의 상태를 진단할 수 있다. 예를 들어, 제1 프로그램(131)은 PACS(Picture archiving and communication system) 뷰어(viewer) 프로그램일 수 있으나, 이에 제한되지 않는다.
제2 서버(120)는 가이드 이미지와 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상(3D tomosynthesis images) 간 병변 위치를 연동하기 위한 데이터를 저장, 관리 및 처리하는 서버를 의미한다.
제2 서버(120)는 제1 서버(110)로부터 적어도 한 명의 환자에 대응되는 의료 이미지 세트를 수신할 수 있다. 의료 이미지 세트는 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상 및 3D 단층촬영 영상에 대응되는 가이드 이미지로 구성될 수 있다. 가이드 이미지는 2D 의료 이미지(예를 들어, combo 2D, Synthetic 2D) 또는 소정의 3D 이미지 슬라이스(예를 들어, 인공지능 모델을 통해 산출된 병변 점수가 제일 높은 3D 이미지 슬라이스)일 수 있으나, 이에 제한되지 않는다.
제2 서버(120)는 제1 서버(110)로부터 수신한 의료 이미지 세트를 인공지능 모델을 이용하여 분석함으로써 하나 이상의 병변 정보를 획득할 수 있다. 제2 서버(120)는 인공지능 모델을 이용하여 가이드 이미지 및 3D 이미지 슬라이스 상의 병변의 위치와 병변 점수(lesion score)를 예측할 수 있다.
한편, 사용자 장치(130)에 설치된 제2 프로그램(132)은 제2 서버(120)와 연관된 프로그램일 수 있다. 사용자 장치(130)는 제2 프로그램(132)을 통해 제2 서버(120)와 연결되어 데이터를 송/수신할 수 있다. 사용자 장치(130)는 소정의 조건이 만족됨에 따라 제2 프로그램(132)을 호출할 수 있다.
일 실시예에서, 사용자 장치(130)는 제1 프로그램(131)이 실행 중인 상태에서 기설정된 트리거 신호가 발생한 것에 응답하여, 제2 프로그램(132)을 호출할 수 있다. 사용자 장치(130)에 단축키 또는 버튼을 누르는 입력이 인가됨으로써 기설정된 트리거 신호가 발생할 수 있다. 예를 들어, 제2 프로그램(132)은 뷰어 프로그램일 수 있고, 또한 제1 프로그램(131)에 인앱(in-app) 형태로 설치될 수 있다.
제2 프로그램(132)이 호출된 후, 사용자 장치(130)는 제2 프로그램(132)을 통해 제2 서버(120)와 통신을 수행하여 데이터를 수신할 수 있다. 사용자 장치(130)는 제2 프로그램(132)을 통해 제2 서버(120)로부터 병변 정보가 디스플레이된 가이드 이미지 및 복수의 3D 이미지 슬라이스를 수신할 수 있다. 제2 프로그램(132)은 가이드 이미지 및 복수의 3D 이미지 슬라이스가 동시에 디스플레이되도록 UI(user interface)를 구성할 수 있다. 또한, 제2 프로그램(132)은 가이드 이미지 및 복수의 3D 이미지 슬라이스가 병렬적으로 디스플레이되도록 UI를 구성할 수 있다. 가이드 이미지 및 복수의 3D 이미지 슬라이스가 디스플레이되는 구체적인 방법에 대해서는 후술하기로 한다.
사용자 장치(130), 제1 서버(110) 및 제2 서버(120)는 네트워크를 이용하여 통신을 수행할 수 있다. 예를 들어, 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함하며, 도 1에 도시된 각 네트워크 구성 주체가 서로 원활하게 통신을 할 수 있도록 하는 포괄적인 의미의 데이터 통신망이며, 유선 인터넷, 무선 인터넷 및 모바일 무선 통신망을 포함할 수 있다. 또한, 무선 통신은 예를 들어, 무선 랜(Wi-Fi), 블루투스, 블루투스 저 에너지(Bluetooth low energy), 지그비, WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
도 2는 일 실시예에 따른 서버와 장치의 동작을 설명하기 위한 흐름도이다.
도 2를 참조하면, 제1 서버(210), 제2 서버(220) 및 사용자 장치(230) 각각은, 도 1의 제1 서버(110), 제2 서버(120) 및 사용자 장치(130)에 대응될 수 있다.
단계 201에서, 제2 서버(220)는 제1 서버(210)로부터 적어도 한 명의 환자에 대응하는 의료 이미지 세트를 수신할 수 있다. 제1 서버(210)에는 복수의 환자들에 대한 의료 이미지 세트가 저장되고, 제2 서버(220)는 소정의 조건이 만족되는 경우 제1 서버(210)로부터 의료 이미지 세트를 수신하여 제2 서버(220)에 저장된 의료 이미지 세트를 업데이트할 수 있다. 소정의 조건은 기설정된 주기, 사용자의 요청 신호 등을 포함할 수 있다.
일 실시예에서, 제2 서버(220)는 외부 의료 영상 기기에서 촬영된 의료 영상을 더 수신할 수 있다. 제2 서버(220)는 제1 서버(210) 및 다른 외부 장치로부터 의료 이미지 세트 이외에 의료 영상을 더 수신할 수 있다. 외부 의료 영상 기기는 의료 이미지 세트에 포함된 가이드 이미지 및 복수의 3D 이미지 슬라이스를 획득한 의료 영상 기기와 다른 종류의 의료 영상 기기를 의미할 수 있다.
또는, 외부 의료 영상 기기는 의료 이미지 세트에 포함된 가이드 이미지 또는 복수의 3D 이미지 슬라이스를 획득한 의료 영상 기기와 동일한 종류의 의료 영상 기기에 해당하고, 제2 서버(220)는 의료 이미지 세트에 포함된 의료 영상과 다른 시점(time)에 촬영된 의료 영상을 더 수신할 수 있다. 예를 들어, 외부 의료 영상 기기는 X-ray 장치, MRI(Magnetic Resonance Imaging) 장치, CT(Computed Tomography) 장치 및 US(Ultra Sound) 장치 등을 포함할 수 있다.
단계 202에서, 사용자 장치(230)는 제1 프로그램을 실행할 수 있다. 사용자 장치(230)를 사용하는 사용자는 제1 프로그램을 실행하여 의학용 영상 정보의 저장, 판독 및 검색을 수행할 수 있다.
단계 203에서, 사용자 장치(230)에서 기설정된 트리거 신호가 발생될 수 있다. 사용자 장치(230)에 단축키 또는 버튼을 누르는 입력이 인가됨으로써 기설정된 트리거 신호가 발생할 수 있다.
단계 204에서, 기설정된 트리거 신호가 발생한 것에 응답하여, 사용자 장치(230)는 제2 프로그램을 실행할 수 있다. 일 실시예에서, 사용자 장치(230)는 제1 프로그램(131)이 실행 중인 상태에서 기설정된 트리거 신호가 발생한 것에 응답하여, 제2 프로그램(132)을 실행할 수 있다.
단계 205에서, 제2 프로그램은 제2 서버(220)와 통신하여, 제2 서버(220)로 의료 이미지 세트 전송을 요청할 수 있다.
단계 206에서, 제2 서버(220)는 제1 프로그램에서 판독 중인 환자를 식별하고, 식별된 환자에 대응되는 소정의 의료 이미지 세트를 결정할 수 있다. 예를 들어, 제1 프로그램에서 A환자의 의학용 영상 정보를 확인하는 중에 제2 프로그램이 실행되어 제2 서버(220)로 요청 신호가 전송된 경우, 제2 서버(220)는 A환자에 대응되는 소정의 의료 이미지 세트를 결정할 수 있다. 의료 이미지 세트는 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상 및 이에 대응되는 가이드 이미지로 구성될 수 있다. 가이드 이미지는 2D 의료 이미지일 수 있다.
일 실시예에서, 제2 서버(220)는 제1 서버(210)로부터 수신한 의료 이미지 세트를 인공지능 모델을 이용하여 분석함으로써 하나 이상의 병변 정보를 획득할 수 있다. 분석 과정은 단계 201에서 제2 서버(220)가 제1 서버(210)로부터 의료 이미지 세트를 수신한 시점에 진행될 수 있다. 또는, 분석 과정은 단계 206 이후에 식별된 환자에 대응되는 소정의 의료 이미지 세트에 대해 진행될 수 있다.
단계 207에서, 제2 서버(220)는 단계 206에서 결정된 의료 이미지 세트에서, 3D 단층촬영 영상을 구성하는 적어도 하나의 3D 이미지 슬라이스를 식별할 수 있다. 일 실시예에서, 제2 서버(220)는 3D 단층촬영 영상을 구성하는 복수의 3D 이미지 슬라이스 중 첫 번째 이미지 슬라이스를 식별할 수 있다. 다른 실시예에서, 제2 서버(220)는 단계 203에서 기설정된 트리거 신호가 발생한 시점에 제1 프로그램에서 판독 중인 3D 이미지 슬라이스를 식별할 수 있다.
또 다른 실시예에서, 제2 서버(220)는 의료 이미지 세트를 인공지능 모델을 이용하여 분석하여 획득한 하나 이상의 병변 정보 중 소정의 병변 정보를 포함하는 3D 이미지 슬라이스를 식별할 수 있다. 여기서 소정의 병변 정보를 포함하는 3D 이미지 슬라이스는 특정 병변 정보를 포함하는 적어도 하나의 3D 이미지 슬라이스 중에서 해당 특정 병변 정보가 가장 잘 보이는 3D 이미지 슬라이스를 의미할 수 있다. 예를 들어, 소정의 병변 정보를 포함하는 3D 이미지 슬라이스는 특정 병변 정보를 포함하는 적어도 하나의 3D 이미지 슬라이스 중에서 특정 병변의 병변 점수가 가장 높은 값으로 검출(detection)된 3D 이미지 슬라이스를 의미할 수 있다.
한편, 제2 서버(220)는 의료 이미지 세트를 인공지능 모델을 이용하여 분석한 결과 병변 정보가 확인되지 않을 경우, 복수의 3D 이미지 슬라이스 중 소정의 3D 이미지 슬라이스를 식별할 수 있다. 소정의 3D 이미지 슬라이스는, 복수의 3D 이미지 슬라이스 중 첫 번째 3D 이미지 슬라이스일 수 있으나, 이에 제한되지 않는다.
단계 208에서, 제2 서버(220)는 복수의 3D 이미지 슬라이스 및 3D 단층촬영 영상에 대응되는 가이드 이미지를 사용자 장치(230)로 전송할 수 있다. 또한, 제2 서버(220)는 제1 서버(210)로부터 수신한 의료 이미지 세트를 인공지능 모델을 이용하여 분석함으로써 하나 이상의 병변 정보를 획득할 수 있으며, 제2 서버(220)는 하나 이상의 병변 정보를 사용자 장치(230)로 전송할 수 있다. 구체적으로, 제2 서버(220)는 인공지능 모델을 이용하여 가이드 이미지 및 3D 이미지 슬라이스 상의 병변의 위치와 병변 점수(lesion score)를 예측할 수 있다. 제2 서버(220)는 가이드 이미지 및 3D 이미지 슬라이스 상의 병변의 위치와 병변 점수를 사용자 장치(230)로 전송할 수 있다.
제2 서버(220)에서 사용자 장치(230)로 전송되는 가이드 이미지 및 복수의 3D 이미지 슬라이스에는 병변 정보가 디스플레이될 수 있다. 일 실시예에서, 가이드 이미지에는 획득된 하나 이상의 병변 정보가 모두 디스플레이되고, 소정의 3D 이미지 슬라이스에는 획득된 하나 이상의 병변 정보 중 일부의 병변 정보가 디스플레이될 수 있다
단계 209에서, 사용자 장치(230)에서 실행 중인 제2 프로그램은, 복수의 3D 이미지 슬라이스에 포함된 적어도 하나의 3D 이미지 슬라이스 및 가이드 이미지를 동시에 디스플레이할 수 있다. 또한, 제2 프로그램은 가이드 이미지 및 3D 이미지 슬라이스가 병렬적으로 디스플레이되도록 UI를 구성할 수 있다. 일 실시예에서, 제2 프로그램은 가이드 이미지와 첫 번째 이미지 슬라이스를 동시에 디스플레이할 수 있다. 다른 실시예에서, 제2 프로그램은 가이드 이미지와, 기설정된 트리거 신호가 발생한 시점에 제1 프로그램에서 판독 중인 3D 이미지 슬라이스를 동시에 디스플레이할 수 있다.
일 실시예에서, 제2 프로그램은 사용자 입력에 기초하여 가이드 이미지 또는 3D 이미지 슬라이스에 피드백 노트를 기록할 수 있다. 피드백 노트는 사용자가 가이드 이미지 및/또는 3D 이미지 슬라이스 상에 마킹, 기록 등을 한 것을 포함할 수 있다. 사용자 장치(230)는 제2 프로그램을 통해 피드백 노트를 가이드 이미지 및/또는 3D 이미지 슬라이스 상에 오버레이(Overlay) 형태로 병합하여 별도의 단일 이미지를 생성 및 저장할 수 있다. 여기서, 단일 이미지는 DICOM(Digital Imaging and Communications in Medicine) 포맷(format)의 SC(Secondary Capture) 또는 GSPS(Grayscale Softcopy Presentation State) 등의 형태로 구현될 수 있으며, 다양한 다이콤 포맷(DICOM format)으로 저장되는 것을 포함할 수 있다. 또한, 사용자 장치(230)는 단일 이미지를 제2 서버(220)로 전송할 수 있다. 제2 서버(220)는 단일 이미지를 제1 서버(210)로 전송할 수 있다. 또한, 사용자 장치(230)는 단일 이미지를 제1 서버(210)로 전송할 수 있다.
3D 단층촬영 영상을 구성하는 복수의 3D 이미지 슬라이스와 함께 탐색되도록, 제2 서버(220)는 단일 이미지를 복수의 3D 이미지 슬라이스와 연결되게 저장함으로써 의료 이미지 세트를 업데이트할 수 있다. 예를 들어, 제2 서버(220)는 3D 단층촬영 영상의 맨 마지막 슬라이스 뒤에 단일 이미지가 이어지도록 저장함으로써 3D 단층촬영 영상을 업데이트할 수 있다. 제2 서버(220)는 기설정된 트리거 신호가 다시 발생한 것에 응답하여, 업데이트된 3D 단층촬영 영상이 디스플레이되도록 제공할 수 있다.
제2 프로그램은 기설정된 트리거 신호가 다시 발생한 것에 응답하여, 제2 서버(220)로부터 업데이트된 의료 이미지 세트를 수신하여 디스플레이할 수 있다.
또한, 사용자 장치(230)는 제1 프로그램을 통해 업데이트된 의료 이미지 세트를 디스플레이할 수 있다. 이 경우 사용자 장치(230)는 별도로 제2 프로그램을 실행하지 않고도, 제2 프로그램을 통해 기록했던 피드백 노트를 제1 프로그램 실행 시 디스플레이할 수 있다.
도 3은 일 실시예에 따른 장치에서 실행되는 프로그램과 서버의 동작을 설명하기 위한 흐름도이다.
도 3을 참조하면, 제2 서버(320) 및 사용자 장치(330) 각각은, 도 1의 제2 서버(120) 및 사용자 장치(130)에 대응될 수 있다. 한편, 사용자 장치(330)에는 제1 프로그램(331) 및 제2 프로그램(332)이 설치되어 실행될 수 있다.
제1 프로그램(331)은 제1 서버(미도시)와 연관된 프로그램일 수 있다. 사용자 장치(330)의 사용자는 제1 프로그램(331)을 통해 이미지를 판독하고 환자의 상태를 진단할 수 있다. 예를 들어, 제1 프로그램(331)은 PACS(Picture archiving and communication system) 뷰어(Viewer) 프로그램일 수 있으나, 이에 제한되지 않는다.
제2 프로그램(332)은 제2 서버(320)와 연관된 프로그램일 수 있다. 예를 들어, 제2 프로그램(332)은 뷰어 프로그램일 수 있고, 또한 제1 프로그램(331)에 인앱(In-app) 형태로 설치될 수 있다.
단계 301에서, 사용자 장치(330)에 설치된 제1 프로그램(331)이 실행될 수 있다. 사용자 장치(330)를 사용하는 사용자는 제1 프로그램(331)을 실행하여 의학용 영상 정보의 저장, 판독 및 검색을 수행할 수 있다.
단계 302에서, 제1 프로그램(331)의 실행 중에 기설정된 트리거 신호가 발생할 수 있다. 제1 프로그램(331)은 단축키 또는 버튼을 누르는 입력을 인식함으로써 기설정된 트리거 신호가 발생했음을 결정할 수 있다.
단계 303에서, 제1 프로그램(331)은 기설정된 트리거 신호가 발생한 것에 응답하여, 제2 프로그램(332)을 실행하기 위한 실행 요청을 제2 프로그램(332)으로 전송할 수 있다.
단계 304에서, 제1 프로그램(331)로부터 실행 요청을 수신한 것에 응답하여, 사용자 장치(330)에 설치된 제2 프로그램(332)이 실행될 수 있다.
도 3의 단계 305 내지 309는 각각 도 2의 단계 205 내지 209에 대응될 수 있다.
단계 305에서, 제2 프로그램(332)은 제2 서버(320)로 의료 이미지 세트 전송을 요청할 수 있다.
단계 306에서, 제2 서버(320)는 제1 프로그램(331)에서 판독 중인 환자를 식별하고, 식별된 환자에 대응되는 소정의 의료 이미지 세트를 결정할 수 있다.
단계 307에서, 제2 서버(320)는 단계 306에서 결정된 의료 이미지 세트에서, 3D 단층촬영 영상을 구성하는 적어도 하나의 3D 이미지 슬라이스를 식별할 수 있다.
단계 308에서, 제2 서버(320)는 복수의 3D 이미지 슬라이스 및 3D 단층촬영 영상에 대응되는 가이드 이미지를 사용자 장치(330)로 전송할 수 있다.
또한, 제2 서버(320)는 제1 서버(미도시)로부터 수신한 의료 이미지 세트를 인공지능 모델을 이용하여 분석함으로써 하나 이상의 병변 정보를 획득할 수 있다. 제2 서버(320)는 복수의 3D 이미지 슬라이스 및 이와 연관된 가이드 이미지와 함께 획득된 하나 이상의 병변 정보를 사용자 장치(330)로 전송할 수 있다. 구체적으로, 제2 서버(320)는 인공지능 모델을 이용하여 가이드 이미지 및 3D 이미지 슬라이스 상의 병변의 위치와 병변 점수(lesion score)를 예측할 수 있다. 제2 서버(320)는 가이드 이미지 및 3D 이미지 슬라이스 상의 병변의 위치와 병변 점수를 사용자 장치(330)로 전송할 수 있다.
단계 309에서, 제2 프로그램(332)은 복수의 3D 이미지 슬라이스에 포함된 적어도 하나의 3D 이미지 슬라이스 및 가이드 이미지를 동시에 디스플레이할 수 있다.
도 4는 일 실시예에 따른 제2 프로그램 실행 시 디스플레이되는 화면을 설명하기 위한 예시적인 도면이다.
도 4를 참조하면, 사용자 장치가 제2 프로그램 실행 시 디스플레이되는 화면(400)이 도시된다.
제2 프로그램은 제2 서버로부터, 환자 별로 매칭된 3D 단층촬영 영상 및 가이드 이미지를 수신할 수 있다. 3D 단층촬영 영상은 복수의 3D 이미지 슬라이스로 구성될 수 있다. 가이드 이미지는 2D 의료 이미지(예를 들어, combo 2D, Synthetic 2D) 또는 소정의 3D 이미지 슬라이스(예를 들어, 인공지능 모델을 통해 산출된 병변 점수가 제일 높은 3D 이미지 슬라이스)일 수 있으나, 이에 제한되지 않는다.
제2 프로그램은 화면(400)에 가이드 이미지 및 3D 단층촬영 영상을 동시에 디스플레이할 수 있다. 도 4를 참조하면, 화면(400)의 좌측 영역(410)에는 가이드 이미지가 디스플레이되고, 우측 영역(420)에는 3D 단층촬영 영상이 디스플레이되도록 UI가 구성될 수 있다.
한편, 3D 단층촬영 영상은 복수의 3D 이미지 슬라이스로 구성되므로, 복수의 3D 이미지 슬라이스 중 어느 하나의 3D 이미지 슬라이스가 우측 영역(420)에 디스플레이될 수 있다.
제2 프로그램은 우측 영역(420)에 3D 이미지 슬라이스의 슬라이스 번호(Slice No.) 및 슬라이스 탐색 도구(slice navigation tool)가 디스플레이되도록 UI를 구성할 수 있다. 제2 프로그램은 슬라이스 탐색 도구를 통해 3D 단층촬영 영상에 대한 깊이 방향의 탐색을 수행할 수 있다. 제2 프로그램은 슬라이스 탐색 도구에 대한 사용자 입력에 기초하여 복수의 3D 이미지 슬라이스 중 어느 하나의 3D 이미지 슬라이스를 디스플레이할 수 있다. 슬라이스 탐색 도구에 대한 설명은 도 7에서 후술하기로 한다.
한편, 이하의 도면에서는 설명의 편의를 위해 유방을 촬영한 가이드 이미지(예를 들어, 2D 유방 촬영 이미지(2D MAMMOGRAPHY IMAGE)) 및 3D 유방 단층촬영 영상(3D BREAST TOMOSYNTHESIS IMAGES)이 도시되나, 본 개시에 따른 내용은 유방을 촬영한 이미지에 한정되지 않고, 가슴과 같은 다른 신체 부위에도 동일하게 적용될 수 있다.
도 5는 일 실시예에 따른 가이드 이미지가 디스플레이되는 화면을 설명하기 위한 예시적인 도면이다.
도 5를 참조하면, 가이드 이미지가 디스플레이되는 화면(500)이 도시된다.
제2 프로그램은 화면(500)에 가이드 이미지의 타이틀(510)을 디스플레이할 수 있다. 제2 프로그램은 다양한 종류의 가이드 이미지를 제공할 수 있고, 제공되는 가이드 이미지 종류에 맞는 타이틀(510)을 디스플레이할 수 있다. 예를 들어, 제2 프로그램은 타이틀(510)로 가이드 이미지 종류에 맞게, "combo 2D", "Synthetic 2D" 및 "병변 점수가 제일 높은 3D 이미지 슬라이스" 등을 기재할 수 있다.
또한, 제2 프로그램은 화면(500)에 환자 정보(520)를 디스플레이할 수 있다. 환자 정보(520)에는 환자 식별번호, 생년월일, 나이, 검진 일자 등이 포함될 수 있으나, 이에 제한되지 않는다.
또한, 제2 프로그램은 가이드 이미지 상에 하나 이상의 병변 정보(530)를 디스플레이할 수 있다. 도 1에서 상술한 바와 같이, 제2 프로그램과 데이터를 송수신하는 제2 서버는 제1 서버로부터 수신한 의료 이미지 세트를 인공지능 모델을 이용하여 분석함으로써 하나 이상의 병변 정보를 획득할 수 있다. 구체적으로, 제2 서버는 인공지능 모델을 이용하여 가이드 이미지 및 3D 이미지 슬라이스 상의 병변의 위치와 병변 점수를 예측할 수 있다. 제2 서버로부터 수신한 병변 정보에 기초하여, 제2 프로그램은 가이드 이미지 상에 모든 병변 각각에 대한 위치 및 점수를 디스플레이할 수 있다.
또한, 제2 프로그램은 화면(500)에 이상 점수(abnormality score)(540)를 디스플레이할 수 있다. 이상 점수(540)는 가이드 이미지에 디스플레이된 복수의 병변에 대한 병변 점수 중 가장 높은 병변 점수로 결정될 수 있다. 도 5를 참조하면, 검출된 각 병변에 대한 병변 점수가 84점, 15점이므로, 제2 프로그램은 이 중 가장 높은 84점을 이상 점수(540)로 결정하여 화면(500)에 디스플레이할 수 있다.
도 6은 일 실시예에 따른 3D 이미지 슬라이스가 디스플레이되는 화면을 설명하기 위한 예시적인 도면이다.
도 6을 참조하면, 소정의 3D 이미지 슬라이스가 디스플레이되는 화면(600)이 도시된다.
제2 프로그램은 화면(600)에 3D 이미지 슬라이스의 타이틀(610)을 디스플레이할 수 있다. 예를 들어, 제2 프로그램은 타이틀(610)로 "단층촬영(tomosynthesis)"을 기재할 수 있다
또한, 제2 프로그램은 화면(600)에 슬라이스 정보(620)를 디스플레이할 수 있다. 슬라이스 정보(620)는 슬라이스 번호 및 병변 점수를 포함할 수 있다. 구체적으로, 3D 단층촬영 영상은 복수의 3D 이미지 슬라이스로 구성되므로, 현재 화면(600)에 디스플레이되고 있는 슬라이스가 전체 슬라이스 중에서 몇 번째 슬라이스인지를 나타내는 슬라이스 번호가 화면(600)에 디스플레이될 수 있다. 또한, 해당 슬라이스의 병변 점수가 화면(600)에 함께 디스플레이될 수 있다.
또한, 제2 프로그램은 가이드 이미지 상에 하나 이상의 병변 정보(630)를 디스플레이할 수 있다. 도 5에서 제2 프로그램은 가이드 이미지 상에 모든 병변 정보를 디스플레이하는 반면, 도 6에서 제2 프로그램은 소정의 3D 이미지 슬라이스 상에 일부의 병변 정보만 디스플레이할 수 있다.
도 6을 참조하면, 현재 화면(600)에 디스플레이되고 있는 슬라이스는 총 50개의 슬라이스 중 5번째 슬라이스이고, 해당 슬라이스에는 병변 점수 84점을 갖는 병변이 포함됨을 확인할 수 있다.
또한, 제2 프로그램은 화면(600)에 슬라이스 탐색 도구(640)를 디스플레이할 수 있다. 제2 프로그램은 슬라이스 탐색 도구(640)를 통해 3D 단층촬영 영상에 대한 깊이 방향의 탐색을 수행할 수 있다. 슬라이스 탐색 도구(640)는 슬라이더 바(slider bar), 슬라이더 핸들(slider handle), "슬라이스 번호/병변 점수"로 구성될 수 있으나, 이에 제한되지 않는다.
도 7은 일 실시예에 따른 슬라이스 탐색 도구의 기능을 설명하기 위한 예시적인 도면이다.
3D 단층촬영 영상은 복수의 3D 이미지 슬라이스로 구성되는데, 사용자가 원하는 3D 이미지 슬라이스로 이동하기 위해 슬라이스 탐색 도구(700)가 이용될 수 있다.
제2 프로그램은 슬라이스 탐색 도구(700)를 통해 3D 단층촬영 영상에 대한 깊이 방향의 탐색을 수행할 수 있다. 제2 프로그램은 슬라이스 탐색 도구(700)에 대한 사용자 입력에 기초하여 복수의 3D 이미지 슬라이스 중 어느 하나의 3D 이미지 슬라이스를 디스플레이할 수 있다.
도 7을 참조하면, 슬라이스 탐색 도구(700)는 슬라이스 번호(710), 슬라이더 바(720) 및 슬라이더 핸들(730)을 포함할 수 있으나, 슬라이스 탐색 도구(700)에 포함되는 요소는 이에 제한되지 않는다.
슬라이스 번호(710)에는, 3D 단층촬영 영상을 구성하는 3D 이미지 슬라이스의 총 개수, 및 현재 화면에서 디스플레이되고 있는 슬라이스의 번호가 포함될 수 있다. 도 7을 참조하면, 3D 단층촬영 영상을 구성하는 3D 이미지 슬라이스가 총 50개이고, 현재 화면에서 디스플레이되고 있는 슬라이스는 17번째 슬라이스에 해당됨을 알 수 있다.
슬라이더 바(720)에는 복수의 3D 이미지 슬라이스 각각을 구분하는 표시자(indicator)가 포함된다. 슬라이더 바(720)에는 표시자가 3D 이미지 슬라이스 개수만큼 디스플레이될 수 있다. 도 7에는 눈금 형태의 표시자가 도시되고, 3D 이미지 슬라이스의 개수가 50개 이므로 표시자도 50개가 디스플레이되어 있음을 확인할 수 있다.
또한, 슬라이더 바(720)에는 포커스 슬라이스에 대한 정보가 디스플레이될 수 있다. 포커스 슬라이스는 복수의 3D 이미지 슬라이스 중에서 소정의 병변이 가장 잘 보이는 슬라이스를 의미한다. 슬라이더 바(720)에는 포커스 슬라이스의 정보로써, 포커스 슬라이스의 슬라이스 번호 및 포커스 슬라이스에 포함된 병변의 병변 점수가 디스플레이될 수 있다. 도 7을 참조하면, 17번째 슬라이스에 포함된 병변의 병변 점수가 15점, 21번째 슬라이스에 포함된 병변의 병변 점수가 27점, 40번째 슬라이스에 포함된 병변의 병변 점수가 84점임을 확인할 수 있다.
일 실시예에서, 슬라이더 바(720)에 디스플레이된 적어도 하나의 포커스 슬라이스의 정보 중 어느 하나를 선택하는 입력이 수신된 경우, 제2 프로그램은 해당 포커스 슬라이스를 화면(600)에 디스플레이할 수 있다. 예를 들어, 사용자가 '#21 / 27'을 클릭한 경우, 제2 프로그램은 21번째 슬라이스를 화면(600)에 디스플레이할 수 있다.
슬라이더 핸들(730)은 현재 디스플레이되고 있는 슬라이스를 표시하도록 슬라이더 바(720)와 인접한 위치에 표시될 수 있다. 현재 디스플레이되고 있는 슬라이스에 대응하는 표시자에 슬라이더 핸들(730)이 위치할 수 있다. 사용자는 슬라이더 핸들(730)을 이용하여 3D 단층촬영 영상에 대한 깊이 방향의 탐색을 수행할 수 있다. 예를 들어, 사용자는 슬라이더 핸들(730)에 대한 클릭 및 드래그 동작을 통해 확인하고자 하는 3D 이미지 슬라이스를 선택할 수 있다. 제2 프로그램은 선택된 3D 이미지 슬라이스를 실시간으로 사용자에게 제공할 수 있다.
도 8a 내지 도 8d는 일 실시예에 따른 가이드 이미지와 복수의 3D 이미지 슬라이스 간 병변 위치를 연동하여 제공하는 방법을 설명하기 위한 예시적인 도면이다.
도 8a 내지 도 8d를 참조하면, 화면(800)의 좌측 영역(810)에는 가이드 이미지가 도시되고, 화면(800)의 우측 영역(820)에는 3D 이미지 슬라이스가 도시된다.
도 8a를 참조하면, 가이드 이미지에는 복수의 병변 정보(811, 812)가 디스플레이될 수 있다. 구체적으로, 가이드 이미지에는 제1 병변 정보(811)의 위치, 모양 및 병변 점수(84점), 그리고 제2 병변 정보(812)의 위치, 모양 및 병변 점수(15점)가 디스플레이될 수 있다. 이 때, 우측 영역(820)에 디스플레이되는 3D 이미지 슬라이스는 임의의 슬라이스일 수 있다. 우측 영역(820)에는 현재 디스플레이되고 있는 슬라이스의 슬라이스 번호가 화면(800)에 함께 디스플레이될 수 있다.
한편, 복수의 병변 정보(811, 812) 중 어느 하나의 병변 정보가 선택되는 입력에 대한 응답으로 우측 영역(820)에 디스플레이되는 3D 이미지 슬라이스가 변경될 수 있다. 제2 프로그램은, 복수의 3D 이미지 슬라이스 중에서 선택된 병변 정보의 병변 점수가 가장 높게 나온 3D 이미지 슬라이스를 우측 영역(820)에 디스플레이할 수 있다.
도 8b를 참조하면, 제2 병변 정보(812)가 선택되는 입력에 대한 응답으로 제2 프로그램은 제2 병변 정보(812)의 병변 점수가 가장 높게 나온 3D 이미지 슬라이스를 우측 영역(820)에 디스플레이할 수 있다. 즉, 도 8a에서는 우측 영역(820)에 10번째 슬라이스가 표시되었으나, 가이드 이미지 내 제2 병변 정보(812)가 선택된 이후인 도 8b에서는 우측 영역(820)에 34번째 슬라이스가 디스플레이되는 것으로 바뀐 것을 확인할 수 있다. 우측 영역(820)에 디스플레이된 3D 이미지 슬라이스에는 제2 병변 정보(812)가 함께 디스플레이될 수 있다.
도 8c를 참조하면, 제2 프로그램은 우측 영역(820)의 3D 이미지 슬라이스 상에 디스플레이되는 병변 정보와 관련된 의료 영상의 존재 여부를 디스플레이할 수 있다. 제2 프로그램은 제2 서버로부터 외부 의료 영상 기기에서 촬영된 이미지를 수신할 수 있다. 외부 의료 영상 기기에서 촬영된 의료 영상이 존재하는 경우, 제2 프로그램은 우측 영역(820)에 디스플레이되는 병변 정보가 선택되는 것에 응답하여, 외부 의료 영상 기기에서 촬영된 의료 영상을 디스플레이할 수 있다. 외부 의료 영상 기기는 MRI 장치, CT 장치 및 초음파 영상 장치 등을 포함할 수 있다. 도 8c에서는 우측 영역(820)에 디스플레이된 제2 병변 정보(812)와 관련된 의료 영상으로써 초음파 이미지가 존재한다는 것을 확인할 수 있다.
도 8d를 참조하면, 제2 프로그램은 우측 영역(820)에 디스플레이되는 제2 병변 정보(812)가 선택되는 입력에 대한 응답으로 기저장된 의료 영상(822)를 함께 디스플레이할 수 있다. 예를 들어, 제2 프로그램은 기저장된 의료 영상을 별도의 서브 윈도우(Sub window)를 통해 디스플레이하여 3D 이미지 슬라이스와 함께 디스플레이할 수 있다.
일 실시예에서, 제2 프로그램은 현재 디스플레이되고 있는 3D 이미지 슬라이스의 깊이 정보와 3D 이미지 슬라이스 상에 표시되는 병변의 위치 정보에 대응되도록, 외부 의료 영상 기기에서 촬영된 의료 영상을 가공할 수 있다. 이를 위해, 제2 프로그램은 의료 영상 촬영 시의 촬영 위치 정보를 획득할 수 있다. 구체적으로, 제2 프로그램은 3D 이미지 슬라이스의 깊이 정보 및 병변의 위치 정보와, 의료 영상의 촬영 위치 정보를 비교 분석할 수 있다. 제2 프로그램은 분석 결과에 기초하여, 의료 영상의 영역 중 3D 이미지 슬라이스의 깊이 정보 및 병변의 위치 정보와 대응되는 영역만을 추출하여 디스플레이할 수 있다.
도 9는 일 실시예에 따른 3D 이미지 슬라이스를 탐색하는 방법을 설명하기 위한 예시적인 도면이다.
도 9를 참조하면, 화면(900)의 좌측 영역(910)에는 가이드 이미지가 도시되고, 화면(900)의 우측 영역(920)에는 3D 이미지 슬라이스가 도시된다.
일 실시예에서, 제2 프로그램은 우측 영역(920)에 디스플레이되고 있는 3D 이미지 슬라이스의 일부 영역을 확대 영역(930)으로 설정할 수 있다. 예를 들어, 확대 기능이 실행된 상태에서, 사용자가 마우스를 3D 이미지 슬라이스에 호버(hover) 시 호버된 위치의 영역이 확대 영역(930)으로 설정될 수 있다. 확대 영역(930)의 위치, 크기 및 모양은 사용자 설정에 따라 다양하게 설정될 수 있다. 확대 영역(930)은 별도의 창(window)으로 디스플레이되거나, 3D 이미지 슬라이스 상의 지정된 영역에 오버레이(overlay)된 형태로 디스플레이될 수 있다.
사용자 입력이 수신된 것에 응답하여, 제2 프로그램은 확대 영역(930)에서 디스플레이되는 3D 이미지 슬라이스를 변경할 수 있다. 또한, 사용자 입력이 수신되는 동안 제2 프로그램은 확대 영역 외 나머지 영역에서는 기존 3D 이미지 슬라이스가 디스플레이될 수 있다. 사용자 입력은 마우스 휠 스크롤을 포함하나, 이에 제한되지 않는다.
구체적으로, 현재 우측 영역(920)에서 디스플레이되는 3D 이미지 슬라이스(이하, 기준 슬라이스)에 대한 확대 영역(930)이 설정되고, 확대 영역(930)에 대한 마우스 휠 스크롤 입력이 수신될 수 있다. 제2 프로그램은 스크롤 방향에 따라 기준 슬라이스와 앞 또는 뒤로 인접한 3D 이미지 슬라이스가 디스플레이되도록, 확대 영역(930)에 디스플레이되는 3D 이미지 슬라이스를 변경할 수 있다. 이 때, 확대 영역(930) 외 나머지 영역에서는 기준 슬라이스 이미지가 디스플레이될 수 있다. 예를 들어, 기준 슬라이스가 5번째 슬라이스인 경우, 확대 영역(930)에서는 다른 슬라이스가 디스플레이되더라도, 확대 영역(930) 외의 영역에서는 5번째 슬라이스가 그대로 유지되며 디스플레이될 수 있다.
한편, 확대 영역(930)에는 현재 디스플레이되고 있는 3D 이미지 슬라이스가 몇 번째 슬라이스인지를 나타내는 슬라이스 번호가 함께 디스플레이될 수 있다.
본 개시에서는 이처럼 확대 영역(930)으로 설정된 영역에 대한 인접한 3D 슬라이스 이미지들을 편리하게 확인할 수 있어 영상 판독의 효율을 높이고, 진단의 정확도를 높일 수 있다.
도 10은 일 실시예에 따른 가이드 이미지와 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상 간 병변 위치를 연동하여 제공하는 서버 동작 방법의 흐름도이다.
도 10을 참조하면, 단계 1010에서, 서버는 외부 서버로부터 적어도 한 명의 환자에 대응되는 의료 이미지 세트를 수신할 수 있다.
또한 서버는 외부 의료 영상 기기에서 촬영된 의료 영상을 수신할 수 있다.
단계 1020에서, 서버는 기설정된 트리거 신호가 발생한 것에 응답하여 판독 중인 환자를 식별하고, 식별된 환자에 대응되는 소정의 의료 이미지 세트를 결정할 수 있다.
단계 1030에서, 서버는 소정의 의료 이미지 세트에 포함된 복수의 의료 이미지들 중에서, 3D 단층촬영 영상을 구성하는 적어도 하나의 3D 이미지 슬라이스를 식별할 수 있다.
단계 1040에서, 서버는 식별된 3D 이미지 슬라이스 및 3D 단층촬영 영상에 대응되는 가이드 이미지가 동시에 디스플레이되도록 제공할 수 있다.
서버는 소정의 의료 이미지 세트를 인공지능 모델을 이용하여 분석한 하나 이상의 병변 정보를 획득할 수 있다.
가이드 이미지에는 하나 이상의 병변 정보가 모두 디스플레이되고, 식별된 3D 이미지 슬라이스에는 하나 이상의 병변 정보 중 식별된 3D 이미지 슬라이스에 대응하는 소정의 병변 정보가 디스플레이될 수 있다.
또한, 소정의 의료 이미지 세트로부터 획득된 병변 정보가 복수인 경우, 가이드 이미지에는 상기 복수의 병변 정보가 모두 디스플레이되고, 식별된 3D 이미지 슬라이스에는 상기 복수의 병변 정보 중 일부의 병변 정보가 디스플레이될 수 있다.
식별된 3D 이미지 슬라이스 상에서 일부의 병변 정보가 디스플레이되는 영역의 좌표 정보와, 가이드 이미지 상에서 일부의 병변 정보가 디스플레이되는 영역의 좌표 정보는 서로 대응되게 설정될 수 있다.
서버는 식별된 3D 이미지 슬라이스와 관련된 디스플레이 영역에 슬라이스 탐색 도구가 디스플레이되도록 제공하고, 슬라이스 탐색 도구를 이용하여 3D 단층촬영 영상에 대한 깊이 방향의 탐색을 수행할 수 있다.
일 실시예에서, 슬라이스 탐색 도구에는 상기 복수의 3D 이미지 슬라이스 각각을 구분하는 표시자(indicator)가 포함될 수 있다. 또한, 가이드 이미지에 디스플레이되는 복수의 병변 정보 각각에 대해, 소정의 병변 정보가 디스플레이된 포커스 슬라이스의 표시자에 대응되는 위치에, 포커스 슬라이스의 식별 정보 및 소정의 병변 정보의 점수가 디스플레이될 수 있다.
서버는 식별된 3D 이미지 슬라이스 및 식별된 3D 이미지에 기록된 피드백 노트가 병합된 별도의 단일 이미지를 수신할 수 있다. 또한, 서버는 가이드 이미지 및 가이드 이미지에 기록된 피드백 노트가 병합된 별도의 단일 이미지를 수신할 수 있다.
서버는, 3D 단층촬영 영상을 구성하는 복수의 3D 이미지 슬라이스와 함께 탐색되도록, 단일 이미지를 상기 복수의 3D 이미지 슬라이스와 연결되게 저장함으로써 3D 단층촬영 영상을 업데이트할 수 있다. 서버는 기설정된 트리거 신호가 다시 발생한 것에 응답하여, 업데이트된 3D 단층촬영 영상이 디스플레이되도록 제공할 수 있다.
또한, 사용자 장치는 제1 프로그램을 통해 업데이트된 의료 이미지 세트를 디스플레이할 수 있다. 이 경우 사용자 장치는 별도로 제2 프로그램을 실행하지 않고도, 제2 프로그램을 통해 기록했던 피드백 노트를 제1 프로그램 실행 시 디스플레이할 수 있다.
도 11은 일 실시예에 따른 가이드 이미지와 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상 간 병변 위치를 연동하여 제공하는 프로그램 동작 방법의 흐름도이다.
도 11을 참조하면, 단계 1110에서, 프로그램은 기설정된 트리거 신호가 발생한 것에 응답하여 실행될 수 있다.
단계 1120에서, 프로그램은 제2 서버로부터 가이드 이미지 및 3D 단층촬영 영상을 구성하는 복수의 3D 이미지 슬라이스를 수신할 수 있다.
가이드 이미지는 2D 의료 이미지에 해당될 수 있다.
단계 1130에서, 프로그램은 가이드 이미지 및 복수의 3D 이미지 슬라이스에 포함된 적어도 하나의 3D 이미지 슬라이스를 동시에 디스플레이할 수 있다.
프로그램은 복수의 3D 이미지 슬라이스 중에서 적어도 하나의 3D 이미지 슬라이스를 식별할 수 있다. 병변 정보가 복수인 경우, 가이드 이미지에는 복수의 병변 정보가 모두 디스플레이되고, 식별된 3D 이미지 슬라이스에는 복수의 병변 정보 중 일부의 병변 정보가 디스플레이될 수 있다.
프로그램은 식별된 3D 이미지 슬라이스 상에서 일부의 병변 정보가 디스플레이되는 영역의 좌표 정보와, 가이드 이미지 상에서 일부의 병변 정보가 디스플레이되는 영역의 좌표 정보는 서로 대응되게 디스플레이할 수 있다.
프로그램은 식별된 3D 이미지 슬라이스와 관련된 디스플레이 영역에 슬라이스 탐색 도구를 디스플레이할 수 있다. 프로그램은 슬라이스 탐색 도구를 이용하여 3D 단층촬영 영상에 대한 깊이 방향의 탐색을 수행할 수 있다.
슬라이스 탐색 도구에는 상기 복수의 3D 이미지 슬라이스 각각을 구분하는 표시자(indicator)가 포함될 수 있다. 프로그램은 가이드 이미지에 디스플레이되는 복수의 병변 정보 각각에 대해, 소정의 병변 정보가 디스플레이된 포커스 슬라이스의 표시자에 대응되는 위치에, 포커스 슬라이스의 식별 정보 및 소정의 병변 정보의 점수를 디스플레이할 수 있다.
프로그램은 식별된 3D 이미지 슬라이스 중 일부 영역을 확대 영역으로 설정하고, 사용자 입력이 수신된 것에 응답하여 확대 영역에서 디스플레이되는 3D 이미지 슬라이스를 변경할 수 있다. 또한, 프로그램은 사용자 입력이 수신되는 동안 상기 확대 영역 외 나머지 영역에서 식별된 3D 이미지 슬라이스가 디스플이되도록 할 수 있다.
프로그램은 식별된 3D 이미지 슬라이스 상의 일부의 병변 정보가 선택되는 것에 응답하여, 기저장된 의료 영상을 디스플레이할 수 있다. 기저장된 의료 영상은 외부 의료 영상 기기에서 촬영된 이미지일 수 있다.
프로그램은 가이드 이미지에 디스플레이된 복수의 병변 정보 중에서 일부의 병변 정보가 선택된 것에 응답하여, 복수의 3D 이미지 슬라이스 중에서 선택된 병변 정보에 대응하는 포커스 슬라이스를 탐색할 수 있다. 또한, 프로그램은 탐색된 포커스 슬라이스를 디스플레이할 수 있다.
프로그램은 사용자 입력에 기초하여, 가이드 이미지 또는 식별된 3D 이미지 슬라이스 상에 피드백 노트를 기록할 수 있다. 프로그램은 피드백 노트를 가이드 이미지 또는 식별된 3D 이미지 슬라이스와 함께 별도의 단일 이미지로 저장 후, 제2 서버로 단일 이미지를 전송할 수 있다. 구체적으로, 프로그램은 가이드 이미지 또는 상기 식별된 3D 이미지 슬라이스 상에 오버레이 형태로 병합하여 별도의 단일 이미지로 저장 후, 제2 서버로 단일 이미지를 전송할 수 있다.
프로그램은, 기설정된 트리거 신호가 다시 발생한 것에 응답하여, 제2 서버로부터 업데이트된 3D 단층촬영 영상을 수신하여 디스플레이할 수 있다. 업데이트된 3D 단층촬영 영상은, 복수의 3D 이미지 슬라이스와 단일 이미지가 연결된 3D 단층촬영 영상인 것일 수 있다.
도 12는 일 실시예에 따른 서버의 블록도이다.
도 12를 참조하면, 서버(1200)는 통신부(1210), 프로세서(1220) 및 DB(1230)를 포함할 수 있다. 도 12의 서버(1200)에는 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 12에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 당해 기술분야의 통상의 기술자라면 이해할 수 있다.
통신부(1210)는 외부 서버 또는 외부 장치와 유선/무선 통신을 하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 통신부(1210)는, 근거리 통신부(미도시), 이동 통신부(미도시) 및 방송 수신부(미도시) 중 적어도 하나를 포함할 수 있다.
DB(1230)는 서버(1200) 내에서 처리되는 각종 데이터들을 저장하는 하드웨어로서, 프로세서(1220)의 처리 및 제어를 위한 프로그램을 저장할 수 있다.
DB(1230)는 DRAM(dynamic random access memory), SRAM(static random access memory) 등과 같은 RAM(random access memory), ROM(read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM, 블루레이 또는 다른 광학 디스크 스토리지, HDD(hard disk drive), SSD(solid state drive), 또는 플래시 메모리를 포함할 수 있다.
프로세서(1220)는 서버(1200)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1220)는 DB(1230)에 저장된 프로그램들을 실행함으로써, 입력부(미도시), 디스플레이(미도시), 통신부(1210), DB(1230) 등을 전반적으로 제어할 수 있다. 프로세서(1220)는, DB(1230)에 저장된 프로그램들을 실행함으로써, 서버(1200)의 동작을 제어할 수 있다.
프로세서(1220)는 도 1 내지 도 11에서 상술한 서버(1200)의 동작 중 적어도 일부를 제어할 수 있다. 서버(1200)는 도 1 내지 도 3의 제2 서버(120, 220, 320)과 동일하거나, 제2 서버(120, 220, 320)의 동작 중 일부를 수행하는 장치로 구현될 수 있다.
프로세서(1220)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
서버(1200)는 네트워크를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.
본 발명에 따른 실시 예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.
일 실시예에 따르면, 본 개시의 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (12)

  1. 가이드 이미지와 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상(3D tomosynthesis images) 간 병변 위치를 연동하여 제공하는 방법에 있어서,
    기설정된 트리거 신호가 발생한 것에 응답하여 실행되는 단계;
    제2 서버로부터 가이드 이미지 - 상기 가이드 이미지는 2D 의료 이미지에 해당 - 및 3D 단층촬영 영상을 구성하는 복수의 3D 이미지 슬라이스를 수신하는 단계; 및
    상기 가이드 이미지 및 상기 복수의 3D 이미지 슬라이스에 포함된 적어도 하나의 3D 이미지 슬라이스를 동시에 디스플레이하는 단계;
    를 포함하고,
    상기 식별된 3D 이미지 슬라이스 및 상기 가이드 이미지 간에 병변 위치가 연동되어 디스플레이되는 것인, 방법.
  2. 제 1 항에 있어서,
    상기 방법은,
    상기 복수의 3D 이미지 슬라이스 중에서 적어도 하나의 3D 이미지 슬라이스를 식별하는 단계;
    를 더 포함하고,
    상기 가이드 이미지에는 하나 이상의 병변 정보가 모두 디스플레이되고, 상기 식별된 3D 이미지 슬라이스에는 상기 식별된 3D 이미지 슬라이스에 대응하는 소정의 병변 정보가 디스플레이되는 것인, 방법.
  3. 제 2 항에 있어서,
    상기 디스플레이하는 단계는,
    상기 식별된 3D 이미지 슬라이스 상에서 상기 일부의 병변 정보가 디스플레이되는 영역의 좌표 정보와, 상기 가이드 이미지 상에서 상기 일부의 병변 정보가 디스플레이되는 영역의 좌표 정보는 서로 대응되게 디스플레이하는 단계;
    를 포함하는, 방법.
  4. 제 2 항에 있어서,
    상기 디스플레이하는 단계는,
    상기 식별된 3D 이미지 슬라이스와 관련된 디스플레이 영역에 슬라이스 탐색 도구(navigating tool)를 디스플레이하는 단계;
    를 더 포함하고,
    상기 방법은,
    상기 슬라이스 탐색 도구를 이용하여 상기 3D 단층촬영 영상에 대한 깊이 방향의 탐색을 수행하는 단계;
    를 더 포함하는, 방법.
  5. 제 4 항에 있어서,
    상기 슬라이스 탐색 도구에는 상기 복수의 3D 이미지 슬라이스 각각을 구분하는 표시자(indicator)가 포함되고,
    상기 디스플레이하는 단계는,
    상기 가이드 이미지에 디스플레이되는 상기 하나 이상의 병변 정보 각각에 대해, 소정의 병변 정보가 디스플레이된 포커스(focus) 슬라이스의 표시자에 대응되는 위치에, 상기 포커스 슬라이스의 식별 정보 및 상기 소정의 병변 정보의 점수를 디스플레이하는 단계;
    를 포함하는, 방법.
  6. 제 4 항에 있어서,
    상기 방법은,
    상기 식별된 3D 이미지 슬라이스 중 일부 영역을 확대 영역으로 설정하는 단계; 및
    사용자 입력이 수신된 것에 응답하여 상기 확대 영역에서 디스플레이되는 3D 이미지 슬라이스를 변경하는 단계;
    를 더 포함하고,
    상기 사용자 입력이 수신되는 동안 상기 확대 영역 외 나머지 영역에서는 상기 식별된 3D 이미지 슬라이스가 디스플이되는 것인, 방법.
  7. 제 2 항에 있어서,
    상기 디스플레이하는 단계는,
    상기 식별된 3D 이미지 슬라이스 상의 상기 일부의 병변 정보가 선택되는 것에 응답하여, 기저장된 의료 영상을 디스플레이하는 단계;
    를 더 포함하고,
    상기 의료 영상은 외부 의료 영상 기기에서 촬영된 것인, 방법.
  8. 제 2 항에 있어서,
    상기 방법은,
    상기 가이드 이미지에 디스플레이된 하나 이상의 병변 정보 중에서 소정의 병변 정보가 선택된 것에 응답하여, 상기 복수의 3D 이미지 슬라이스 중에서 상기 선택된 병변 정보에 대응하는 포커스 슬라이스를 탐색하는 단계; 및
    상기 탐색된 포커스 슬라이스를 디스플레이하는 단계;
    를 더 포함하는, 방법.
  9. 제 3 항에 있어서,
    상기 방법은,
    사용자 입력에 기초하여, 상기 가이드 이미지 또는 상기 식별된 3D 이미지 슬라이스 상에 피드백 노트를 기록하는 단계; 및
    상기 피드백 노트를 상기 가이드 이미지 또는 상기 식별된 3D 이미지 슬라이스 상에 오버레이 형태로 병합하여 별도의 단일 이미지로 저장 후, 제1 서버 또는 상기 제2 서버로 상기 단일 이미지를 전송하는 단계;
    를 포함하는, 방법.
  10. 제 9 항에 있어서,
    상기 방법은,
    상기 기설정된 트리거 신호가 다시 발생한 것에 응답하여, 상기 제1 서버 또는 상기 제2 서버로부터, 업데이트된 3D 단층촬영 영상을 수신하여 디스플레이하는 단계;
    를 더 포함하고,
    상기 업데이트된 3D 단층촬영 영상은, 상기 복수의 3D 이미지 슬라이스와 상기 단일 이미지가 연결된 3D 단층촬영 영상인 것인, 방법.
  11. 가이드 이미지와 복수의 3D 이미지 슬라이스로 구성된 3D 단층촬영 영상 간 병변 위치를 연동하여 제공하는 장치에 있어서,
    적어도 하나의 프로그램이 저장된 메모리; 및
    상기 적어도 하나의 프로그램을 실행함으로써 동작하는 적어도 하나의 프로세서를 포함하고,
    상기 적어도 하나의 프로세서는,
    기설정된 트리거 신호가 발생한 것에 응답하여 실행되고,
    제2 서버로부터 가이드 이미지 - 상기 가이드 이미지는 2D 의료 이미지에 해당 - 및 3D 단층촬영 영상을 구성하는 복수의 3D 이미지 슬라이스를 수신하고,
    상기 가이드 이미지 및 상기 복수의 3D 이미지 슬라이스에 포함된 적어도 하나의 3D 이미지 슬라이스를 동시에 디스플레이하며,
    상기 식별된 3D 이미지 슬라이스 및 상기 가이드 이미지 간에 병변 위치가 연동되어 디스플레이되는 것인, 장치.
  12. 제 1 항의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2022/017052 2022-01-21 2022-11-02 가이드 이미지와 복수의 3d 이미지 슬라이스로 구성된 3d 단층촬영 영상 간 병변 위치를 연동하여 제공하는 장치 및 방법 WO2023140475A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220009411 2022-01-21
KR10-2022-0009411 2022-01-21
KR10-2022-0105464 2022-08-23
KR1020220105464A KR20230113123A (ko) 2022-01-21 2022-08-23 가이드 이미지와 복수의 3d 이미지 슬라이스로 구성된 3d 단층촬영 영상 간 병변 위치를 연동하여 제공하는 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2023140475A1 true WO2023140475A1 (ko) 2023-07-27

Family

ID=87314444

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/017052 WO2023140475A1 (ko) 2022-01-21 2022-11-02 가이드 이미지와 복수의 3d 이미지 슬라이스로 구성된 3d 단층촬영 영상 간 병변 위치를 연동하여 제공하는 장치 및 방법

Country Status (2)

Country Link
US (2) US11935236B2 (ko)
WO (1) WO2023140475A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009207545A (ja) * 2008-02-29 2009-09-17 Fujifilm Corp 画像表示方法および装置
JP2014195729A (ja) * 2014-06-27 2014-10-16 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置
JP5702041B2 (ja) * 2005-11-10 2015-04-15 ホロジック, インコーポレイテッドHologic, Inc. X線マンモグラフィ及びトモシンセシスにおける画像処理及び表示
JP6429958B2 (ja) * 2017-08-09 2018-11-28 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
KR101923962B1 (ko) * 2018-02-12 2018-11-30 주식회사 뷰노 의료 영상의 열람을 지원하는 방법 및 이를 이용한 장치

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7556602B2 (en) * 2000-11-24 2009-07-07 U-Systems, Inc. Breast cancer screening with adjunctive ultrasound mammography
US8571289B2 (en) * 2002-11-27 2013-10-29 Hologic, Inc. System and method for generating a 2D image from a tomosynthesis data set
US8175351B2 (en) 2008-09-16 2012-05-08 Icad, Inc. Computer-aided detection and classification of suspicious masses in breast imagery
US8634622B2 (en) 2008-10-16 2014-01-21 Icad, Inc. Computer-aided detection of regions of interest in tomographic breast imagery
US8326012B2 (en) 2009-10-07 2012-12-04 Hologic, Inc. Selective display of computer-aided detection findings with associated breast X-ray mammogram and/or tomosynthesis image information
EP2814396B1 (en) * 2012-02-13 2017-06-21 Hologic Inc. System and method for navigating a tomosynthesis stack using synthesized image data
US8983156B2 (en) 2012-11-23 2015-03-17 Icad, Inc. System and method for improving workflow efficiences in reading tomosynthesis medical image data
EP3326535B1 (en) 2016-11-25 2019-06-12 ScreenPoint Medical Displaying system for displaying digital breast tomosynthesis data
JP6945474B2 (ja) * 2018-02-28 2021-10-06 富士フイルム株式会社 学習用データ作成支援装置、学習用データ作成支援方法、および学習用データ作成支援プログラム
WO2020107023A1 (en) 2018-11-23 2020-05-28 Icad, Inc System and method for assessing breast cancer risk using imagery

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5702041B2 (ja) * 2005-11-10 2015-04-15 ホロジック, インコーポレイテッドHologic, Inc. X線マンモグラフィ及びトモシンセシスにおける画像処理及び表示
JP2009207545A (ja) * 2008-02-29 2009-09-17 Fujifilm Corp 画像表示方法および装置
JP2014195729A (ja) * 2014-06-27 2014-10-16 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置
JP6429958B2 (ja) * 2017-08-09 2018-11-28 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
KR101923962B1 (ko) * 2018-02-12 2018-11-30 주식회사 뷰노 의료 영상의 열람을 지원하는 방법 및 이를 이용한 장치

Also Published As

Publication number Publication date
US20230237653A1 (en) 2023-07-27
US20240249407A1 (en) 2024-07-25
US11935236B2 (en) 2024-03-19

Similar Documents

Publication Publication Date Title
US7476834B2 (en) Diagnosis system including correlating radiographed image data with patient information
CN102138827B (zh) 图像显示装置
WO2016072586A1 (en) Medical image processing apparatus and method
JPH0512352A (ja) 医用診断支援システム
WO2012134106A2 (ko) 의료 영상 정보 저장과 표시 방법 및 그 장치
CN103777840A (zh) 用于口内图像的导航的叠加图
JP2009238039A (ja) 医用レポートシステム、医用レポート閲覧装置、医用レポートプログラム、及び医用レポート閲覧方法
JP2019509798A (ja) 乳癌検診用ソフトウェアツール
US8692774B2 (en) Virtual colonoscopy navigation methods using a mobile device
JP7491360B2 (ja) 放射線画像表示装置、放射線撮影システム及びプログラム
US20170300282A1 (en) Mobile device, system and method for medical image displaying using multiple mobile devices
WO2021261808A1 (ko) 병변 판독 결과 표시 방법
JP2011103095A (ja) 医用画像表示システム及びプログラム
JP2020009186A (ja) 診断支援装置、診断支援方法、及び診断支援プログラム
JP6498018B2 (ja) 情報処理装置、制御方法およびプログラム
JP2011041585A (ja) 医用画像表示装置及び医用画像管理システム
WO2023140475A1 (ko) 가이드 이미지와 복수의 3d 이미지 슬라이스로 구성된 3d 단층촬영 영상 간 병변 위치를 연동하여 제공하는 장치 및 방법
JP2020060857A (ja) 情報処理装置、医用画像表示装置及びプログラム
WO2018080131A1 (ko) 방사선 촬영 시스템에서 프로토콜을 재배열하기 위한 장치 및 방법
JP6536153B2 (ja) 医用画像表示装置及びプログラム
US20220399100A1 (en) Medical image processing apparatus, medical image processing system, and non-transitory computer readable storage medium
WO2022179014A1 (zh) 图像处理方法及装置、电子设备、存储介质和程序产品
WO2021182726A1 (ko) 초음파 진단 장치 및 그 동작방법
JP4810141B2 (ja) 画像管理装置及び画像管理方法
JP2014092820A (ja) 表示制御装置、表示制御方法、および表示制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22922334

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2022922334

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022922334

Country of ref document: EP

Effective date: 20240821