WO2023282388A1 - 갑상선 암의 림프절 전이 진단에 필요한 정보를 제공하는 방법 및 장치 - Google Patents

갑상선 암의 림프절 전이 진단에 필요한 정보를 제공하는 방법 및 장치 Download PDF

Info

Publication number
WO2023282388A1
WO2023282388A1 PCT/KR2021/013298 KR2021013298W WO2023282388A1 WO 2023282388 A1 WO2023282388 A1 WO 2023282388A1 KR 2021013298 W KR2021013298 W KR 2021013298W WO 2023282388 A1 WO2023282388 A1 WO 2023282388A1
Authority
WO
WIPO (PCT)
Prior art keywords
lymph node
medical image
compartments
cancer metastasis
metastasis
Prior art date
Application number
PCT/KR2021/013298
Other languages
English (en)
French (fr)
Inventor
최준영
기리시스리니바산
김한석
유영성
피재우
아킬라페루말라
Original Assignee
주식회사 피노맥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 피노맥스 filed Critical 주식회사 피노맥스
Priority to US17/928,218 priority Critical patent/US11776121B2/en
Publication of WO2023282388A1 publication Critical patent/WO2023282388A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/41Detecting, measuring or recording for evaluating the immune or lymphatic systems
    • A61B5/414Evaluating particular organs or parts of the immune or lymphatic systems
    • A61B5/418Evaluating particular organs or parts of the immune or lymphatic systems lymph vessels, ducts or nodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/42Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
    • A61B5/4222Evaluating particular parts, e.g. particular organs
    • A61B5/4227Evaluating particular parts, e.g. particular organs endocrine glands, i.e. thyroid, adrenals, hypothalamic, pituitary
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4842Monitoring progression or stage of a disease
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/032Recognition of patterns in medical or anatomical images of protuberances, polyps nodules, etc.

Definitions

  • the technical idea of the present disclosure (disclosure) relates to a method and apparatus for providing information necessary for diagnosing lymph node metastasis of thyroid cancer.
  • CT computed tomography
  • CT scan images they can be used for the purpose of confirming the occurrence and metastasis of cancer.
  • recognizing medical images directly with the naked eye requires a high skill level, and there is a possibility of misdiagnosis when an inspector is fatigued.
  • a biopsy of various surrounding tissues is generally required to prevent recurrence, and the surrounding tissues must also be resected.
  • surgery time, cost, and hospitalization period are reduced, which helps the patient's short-term recovery, but the probability of poor prognosis, such as cancer recurrence, increases.
  • the cost and physical burden on the patient increases.
  • the technical problem to be achieved by the method and apparatus for providing information necessary for diagnosing lymph node metastasis of thyroid cancer is to automatically extract lymph nodes with a risk of cancer metastasis from head and neck CT images through a deep learning model, thereby
  • An object of the present invention is to provide a method and apparatus capable of assisting in the diagnosis of lymph node metastasis of thyroid cancer and the establishment of a surgical plan by more intuitively displaying information about the thyroid by matching it with the cervical tissues around the thyroid gland divided into multiple compartments.
  • a method for providing information necessary for diagnosing lymph node metastasis of thyroid cancer includes obtaining a medical image generated corresponding to a continuous volume of a body part including the neck; detecting at least one lymph node from the medical image through a learned first network function, wherein the lymph node includes at least one lymph node having a cancer metastasis risk greater than or equal to a predetermined reference value; dividing neck tissue around the thyroid gland from the medical image into a plurality of sections according to anatomical characteristics through a learned second network function; and matching diagnostic information including information about the detected lymph nodes and the plurality of compartments to the medical image and displaying the matching information.
  • the diagnostic information may include information on at least one of an identifier of the lymph node, a location coordinate of the lymph node, a volume of the lymph node, a compartment to which the lymph node belongs, and a risk of cancer metastasis of the lymph node. .
  • the step of calculating cancer metastasis severity based on at least one of the number of lymph nodes belonging to the compartment, the volume of the lymph node, and the risk of cancer metastasis of the lymph node for each of the plurality of compartments may further include: Including, the diagnosis information may further include information about the severity of cancer metastasis for each of the plurality of compartments.
  • the method may further include setting an ablation region among the plurality of segments based on the severity of cancer metastasis.
  • the method may further include calculating a volume of each of the lymph nodes and a section to which the lymph node belongs among the plurality of sections.
  • the method may further include detecting a thyroid gland from the medical image through a learned third network function, and the diagnosis information may further include information on the detected thyroid gland.
  • the method may further include estimating cancer metastasis pathways with respect to the plurality of detected lymph nodes.
  • an information providing apparatus for diagnosing lymph node metastasis of thyroid cancer includes at least one processor; a memory for storing a program executable by the processor; and by executing the program, the processor obtains a medical image generated corresponding to the continuous volume of the body part including the neck, and detects at least one lymph node from the medical image through a learned first network function. and divides the neck tissue around the thyroid gland from the medical image into a plurality of compartments according to anatomical features through the learned second network function, and obtains diagnostic information including information about the detected lymph nodes and the plurality of compartments. It is matched with the medical image and displayed, and the lymph node may include at least one lymph node having a cancer metastasis risk greater than or equal to a predetermined reference value.
  • the thyroid gland and lymph nodes at risk of cancer metastasis are accurately detected from head and neck medical images using a neural network. and matching it to the medical image to more intuitively provide results.
  • neck tissues around the thyroid are divided into a plurality of compartments, and lymph nodes belonging to each compartment are classified. It is possible to reduce unnecessary biopsy and excessive resection by providing information about cancer through medical images so that a diagnoser can more easily grasp the degree of cancer metastasis.
  • FIG. 1 is a flowchart illustrating a method of providing information necessary for diagnosing lymph node metastasis according to an embodiment of the present disclosure.
  • FIG. 2 is a flowchart illustrating a method of providing information necessary for diagnosing lymph node metastasis according to an embodiment of the present disclosure.
  • 3 to 6 illustrate a plurality of modules implemented as a network function and exemplary operations thereof to perform a method for providing information necessary for diagnosing lymph node metastasis according to an embodiment of the present disclosure.
  • FIG. 7 illustratively illustrates diagnostic information provided through a method for providing information necessary for diagnosing lymph node metastasis according to an embodiment of the present disclosure.
  • FIG. 8 is a block diagram briefly illustrating the configuration of an apparatus for providing information necessary for diagnosing lymph node metastasis according to an embodiment of the present disclosure.
  • one component when one component is referred to as “connected” or “connected” to another component, the one component may be directly connected or directly connected to the other component, but in particular Unless otherwise described, it should be understood that they may be connected or connected via another component in the middle.
  • ⁇ unit means a unit that processes at least one function or operation, which includes a processor, a micro Processor (Micro Processor), Micro Controller, CPU (Central Processing Unit), GPU (Graphics Processing Unit), APU (Accelerate Processor Unit), DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array) may be implemented by hardware or software or a combination of hardware and software.
  • a micro Processor Micro Processor
  • Micro Controller CPU
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • APU Accelerate Processor Unit
  • DSP Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • classification of components in the present disclosure is merely a classification for each main function in charge of each component. That is, two or more components to be described below may be combined into one component, or one component may be divided into two or more for each more subdivided function.
  • each component to be described below may additionally perform some or all of the functions of other components in addition to its main function, and some of the main functions of each component may be performed by other components. Of course, it may be dedicated and performed by .
  • a neural network may be composed of a set of interconnected computational units, which may be generally referred to as nodes, and these nodes may be referred to as neurons.
  • a neural network is generally composed of a plurality of nodes. Nodes constituting a neural network may be interconnected by one or more links.
  • Some of the nodes constituting the neural network may form one layer based on distances from the first input node. For example, a set of nodes having a distance of n from the first input node may constitute n layers.
  • the neural network described herein may include a deep neural network (DNN) including a plurality of hidden layers in addition to an input layer and an output layer.
  • DNN deep neural network
  • FIG. 1 is a flowchart illustrating a method of providing information necessary for diagnosing lymph node metastasis according to an embodiment of the present disclosure.
  • the method 100 may be performed in a personal computer having computing capability, a workstation, a computer device for a server, or a separate device for this purpose.
  • method 100 may be performed on one or more computing devices. For example, at least one or more steps of the method 100 according to an embodiment of the present disclosure may be performed in a client device and other steps may be performed in a server device. In this case, the client device and the server device may be connected through a network to transmit and receive calculation results. Alternatively, method 100 may be performed by distributed computing technology.
  • the device may obtain a medical image generated corresponding to the continuous volume of the body part including the neck.
  • the medical image may be a computed tomography (CT) image generated by tomography of the head and neck of the subject. That is, the medical image may consist of a plurality of slices obtained by sequentially photographing the head and neck of a subject in one direction through a computed tomography method.
  • the medical image may be a 3D image of the head and neck generated by stacking a plurality of slices constituting a CT image.
  • the device may detect at least one lymph node from the medical image by inputting the medical image to the first learned network function (ie, the lymph node detection module).
  • the lymph nodes detected in step S120 may include at least one lymph node having a higher risk of thyroid cancer metastasis than a predetermined reference value. That is, for example, the first network function may detect at least one lymph node suspected of having cancer metastasis and a corresponding probability based on the anatomical characteristics of the metastasized lymph node. Subsequently, the first network function may finally detect at least one lymph node having a higher risk of cancer metastasis than a predetermined reference value based on the corresponding probability.
  • the first network function may be one in which lymph node detection has been previously learned through learning data (eg, a head and neck CT image including a lymph node labeled as cancer metastasis through an expert, examination, etc.).
  • learning data eg, a head and neck CT image including a lymph node labeled as cancer metastasis through an expert, examination, etc.
  • the information on the detected lymph nodes may include information on location coordinates of the detected lymph nodes.
  • the location coordinates of the lymph node may be generated corresponding to the same reference coordinates as the medical image generated or converted into a 3D image.
  • the method 100 may further include labeling the detected lymph nodes. That is, for example, information on at least one lymph node detected by the first network function may be displayed in a medical image in a predetermined manner (specific color, shade, boundary line, etc.) and provided to a diagnoser, etc. A unique identifier (ID) may be labeled on each lymph node by using a medical image in which the lymph node is displayed.
  • ID unique identifier
  • the device may segment the neck tissue around the thyroid into a plurality of segments from the medical image by inputting the medical image to the learned second network function (ie, the neck tissue segmentation module). That is, the second network function may detect neck tissue around the thyroid gland and divide the neck tissue into a plurality of compartments based on a plurality of anatomical features that are criteria for division. For example, the second network function determines the location of anatomical features such as large blood vessels (common carotid artery, internal jugular vein) from the heart to the brain, sternocleidomastoid, and hyoid bone. As a criterion, the cervical tissue around the thyroid can be divided into 6 to 7 compartments.
  • the second network function may detect neck tissue around the thyroid gland and divide the neck tissue into a plurality of compartments based on a plurality of anatomical features that are criteria for division. For example, the second network function determines the location of anatomical features such as large blood vessels (common carotid artery,
  • the second network function may be one in which neck tissue segmentation has been previously learned through learning data (eg, a head and neck CT image in which neck tissue segmentation has been performed by an expert).
  • learning data eg, a head and neck CT image in which neck tissue segmentation has been performed by an expert.
  • the device may detect the thyroid from the medical image by inputting the medical image to the learned third network function (ie, the thyroid detection module).
  • the learned third network function ie, the thyroid detection module.
  • the third network function may be one in which thyroid detection has been previously learned through learning data (eg, a head and neck CT image including a thyroid gland labeled by an expert).
  • learning data eg, a head and neck CT image including a thyroid gland labeled by an expert.
  • Information on the thyroid detected through step S140 may be displayed in a medical image in a predetermined manner (specific color, shade, border, etc.) and provided to the diagnoser, and the diagnoser may determine the shape of the thyroid (swelling, bias) based on this. etc.) can be determined.
  • steps S120 to S140 are shown to be sequentially performed, but according to embodiments, at least some of steps S120 to S140 may be simultaneously performed or the order of performing them may be changed. For example, the execution order may be variously changed, such that step S140 is performed first, and then steps S120 and S130 are performed. Also, depending on the embodiment, step S140 may be omitted.
  • the device may calculate the volume of each of the detected lymph nodes and the compartment to which the lymph node belongs among the plurality of compartments. That is, for example, the device calculates the volume of the detected lymph node in the 3D space by a predetermined calculation formula (eg, unit volume of voxel X number of voxels corresponding to the lymph node), and based on the location coordinates of the lymph node. Thus, the compartment to which each lymph node belongs can be calculated.
  • a predetermined calculation formula eg, unit volume of voxel X number of voxels corresponding to the lymph node
  • the device may match diagnostic information including information about the detected lymph nodes, a plurality of compartments, and/or the thyroid to the medical image and display the matching information.
  • the diagnostic information includes the identifier of the lymph node, the coordinates of the location of the lymph node, the volume of the lymph node, the compartment to which the lymph node belongs, the risk of cancer metastasis in the lymph node, the location of the thyroid gland, the shape of the thyroid gland, and/or the division and location of the cervical tissue around the thyroid gland. information may be included.
  • a lymph node, a plurality of compartments, and/or a thyroid gland are displayed in a 3D medical image in a predetermined manner (specific color, shade, boundary line, etc.), and diagnosis information is displayed in the form of text, etc. can be provided to
  • method 100 may further include predicting cancer metastasis pathways for the plurality of detected lymph nodes. That is, for example, based on the location of the plurality of lymph nodes, the compartment to which the lymph node belongs, the volume of the lymph node, etc., the device is currently suspected of cancer metastasis, or a metastasis route between a plurality of lymph nodes at risk of cancer metastasis (or metastasis). order) can be predicted and provided to the diagnoser.
  • prediction of metastasis pathways between lymph nodes may be performed by a learned fourth network function.
  • the fourth network function predicts a cancer metastasis path on a lymph node by using information about cancer metastasis lymph nodes, such as the location between lymph nodes where cancer metastasis occurred, the volume of the lymph node, and the compartment to which the corresponding lymph node belongs, as learning data. learning may have been performed.
  • FIG. 2 is a flowchart for explaining a method for providing information necessary for diagnosing lymph node metastasis according to an embodiment of the present disclosure.
  • the method 200 of FIG. 2 may further include steps S210 to S220 in addition to the method 100 of FIG. 1 .
  • the device may calculate cancer metastasis severity for each of the plurality of compartments based on at least one of the number of lymph nodes belonging to the compartment, the volume of the lymph nodes, and the risk of cancer metastasis in the lymph nodes.
  • the device may calculate the cancer metastasis severity of the corresponding compartment as high.
  • the device may set an ablation region among a plurality of regions based on the calculated severity of cancer metastasis. For example, the device may set at least a part of a section in which the severity of cancer metastasis is equal to or greater than a predetermined reference value among a plurality of sections as the ablation region.
  • Information about the cancer metastasis severity of each compartment calculated in step S210 and the resection area set in step S220 may be included in diagnosis information and displayed to a diagnoser through step S160.
  • 3 to 6 illustrate a plurality of modules implemented as a network function and exemplary operations thereof to perform a method for providing information necessary for diagnosing lymph node metastasis according to an embodiment of the present disclosure.
  • medical images generated by photographing the subject's head and neck may be input to the learned thyroid detection module 310, lymph node detection module 320, and cervical tissue segmentation module 330, respectively.
  • the medical image 10 may be a CT image of the head and neck composed of an image group including a plurality of 2D slices or a 3D image of the head and neck generated based thereon.
  • the thyroid detection module 310, the lymph node detection module 320, and the cervical tissue segmentation module 330 may include a network function implemented to enable machine learning or deep learning. , each network function can be implemented to enable 3D deep learning.
  • the thyroid detection module 310 may detect the thyroid gland 410 from the input medical image, match information about the thyroid gland 410 to the medical image, and display the result. For example, as shown in FIG. 4 , the thyroid detection module 310 may display a region corresponding to the thyroid gland 410 in a medical image in a predetermined sound range based on detected information on the thyroid gland 410 . there is. Such display may be performed on at least a portion of a 2D slide or a medical image formed in 3D.
  • the lymph node detection module 320 may detect at least one lymph node having a risk of cancer metastasis from the input medical image, and match information about it to the medical image and display the same as shown in FIG. 5 .
  • the information on the detected lymph node may include location coordinates of the lymph node, lymph node volume, and/or cancer metastasis risk of the lymph node.
  • the lymph node detection module 320 may label each detected lymph node with a unique identifier based on user input.
  • the cervical tissue segmentation module 330 may detect cervical tissue around the thyroid gland from the input medical image and divide it into a plurality of sections based on anatomical characteristics. Also, as shown in FIG. 6 , the cervical tissue segmentation module 330 may match and display information about a plurality of segmented segments with a medical image. A plurality of segments may be displayed on a medical image through shades of different colors.
  • the plurality of compartments may include six compartments divided by anatomical features, and each compartment may be sequentially referred to as Level 1 to Level 6.
  • FIG. 7 illustratively illustrates diagnostic information provided through a method for providing information necessary for diagnosing lymph node metastasis according to an embodiment of the present disclosure.
  • At least some of information about the thyroid gland, lymph nodes, and/or a plurality of compartments acquired by the thyroid detection module 310, the lymph node detection module 320, and the cervical tissue segmentation module 330 is included in diagnostic information. It can be included and displayed in medical images.
  • a plurality of sections of the neck tissue may be matched and displayed on a medical image, and lymph nodes detected therefrom may be further displayed on the medical image in a predetermined color or the like.
  • information such as a lymph node identifier, location coordinates of the lymph node, volume of the lymph node, a compartment to which the lymph node belongs, and a risk of cancer metastasis of the lymph node may be further displayed.
  • FIG. 8 is a block diagram briefly illustrating the configuration of an apparatus for providing information necessary for diagnosing lymph node metastasis according to an embodiment of the present disclosure.
  • the communication unit 810 may receive input data (such as head and neck CT images) for diagnosing metastasis to the lymph nodes.
  • the communication unit 810 may include a wired/wireless communication unit.
  • the communication unit 810 may include a local area network (LAN), a wide area network (WAN), a value added network (VAN), and a mobile communication network (mobile radio communication network), a satellite communication network, and one or more components that enable communication through a mutual combination thereof.
  • the communication unit 810 includes a wireless communication unit
  • the communication unit 810 transmits and receives data or signals wirelessly using cellular communication, a wireless LAN (eg, Wi-Fi), and the like.
  • the communication unit may transmit/receive data or signals with an external device or an external server under the control of the processor 840 .
  • the input unit 820 may receive various user commands through external manipulation.
  • the input unit 820 may include or connect one or more input devices.
  • the input unit 820 may be connected to various input interfaces such as a keypad and a mouse to receive user commands.
  • the input unit 820 may include an interface such as a thunderbolt as well as a USB port.
  • the input unit 820 may receive an external user command by including or combining various input devices such as a touch screen and buttons.
  • the memory 830 may store programs and/or program commands for operation of the processor 840 and may temporarily or permanently store input/output data.
  • the memory 830 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), RAM , SRAM, ROM (ROM), EEPROM, PROM, magnetic memory, a magnetic disk, it may include at least one type of storage medium.
  • the memory 830 may store various network functions and algorithms, and may store various data, programs (one or more instructions), applications, software, commands, codes, etc. for driving and controlling the device 800. there is.
  • the processor 840 may control the overall operation of the device 800 .
  • Processor 840 may execute one or more programs stored in memory 830 .
  • the processor 840 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to the technical idea of the present disclosure are performed.
  • the processor 840 acquires a medical image generated corresponding to the continuous volume of a body part including the neck, detects at least one lymph node from the medical image through a learned first network function, and performs learning.
  • the neck tissue around the thyroid is divided into a plurality of compartments according to anatomical characteristics from the medical image through the second network function, and diagnostic information including information about the detected lymph nodes and the plurality of compartments is matched to the medical image.
  • the lymph node may include at least one lymph node having a cancer metastasis risk greater than or equal to a predetermined reference value.
  • the processor 840 may calculate cancer metastasis severity for each of the plurality of compartments based on at least one of the number of lymph nodes belonging to the compartment, the volume of the lymph nodes, and the risk of cancer metastasis in the lymph nodes.
  • the processor 840 may set an ablation area among a plurality of segments based on the severity of cancer metastasis.
  • the processor 840 may calculate the volume of each lymph node and a compartment to which the lymph node belongs among a plurality of compartments.
  • the processor 840 may detect the thyroid from the medical image through the learned third network function.
  • the processor 840 may predict cancer metastasis pathways for the plurality of detected lymph nodes.
  • the method according to an embodiment of the present disclosure may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program commands recorded on the medium may be specially designed and configured for the present disclosure, or may be known and usable to those skilled in computer software.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like.
  • Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.
  • the method according to the disclosed embodiments may be provided by being included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • a computer program product may include a S/W program and a computer-readable storage medium in which the S/W program is stored.
  • a computer program product may include a product in the form of a S/W program (eg, a downloadable app) that is distributed electronically through a manufacturer of an electronic device or an electronic marketplace (eg, Google Play Store, App Store). there is.
  • a part of the S/W program may be stored in a storage medium or temporarily generated.
  • the storage medium may be a storage medium of a manufacturer's server, an electronic market server, or a relay server temporarily storing SW programs.
  • a computer program product may include a storage medium of a server or a storage medium of a client device in a system composed of a server and a client device.
  • the computer program product may include a storage medium of the third device.
  • the computer program product may include a S/W program itself transmitted from the server to the client device or the third device or from the third device to the client device.
  • one of the server, the client device and the third device may execute the computer program product to perform the method according to the disclosed embodiments.
  • two or more of the server, the client device, and the third device may execute the computer program product to implement the method according to the disclosed embodiments in a distributed manner.
  • a server may execute a computer program product stored in the server to control a client device communicatively connected to the server to perform a method according to the disclosed embodiments.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Computation (AREA)
  • Endocrinology (AREA)
  • Urology & Nephrology (AREA)
  • Robotics (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Multimedia (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Pulmonology (AREA)
  • Vascular Medicine (AREA)
  • Immunology (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)

Abstract

본 개시는 갑상선 암의 림프절 전이 진단에 필요한 정보를 제공하는 방법 및 장치에 관한 것으로, 본 개시의 실시예에 따른 방법은, 경부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 의료 영상을 획득하는 단계; 학습된 제 1 네트워크 함수를 통해 상기 의료 영상으로부터 적어도 하나의 림프절을 검출하는 단계 - 상기 림프절은 암 전이 위험도가 소정의 기준값 이상인 적어도 하나의 림프절을 포함함 -; 학습된 제 2 네트워크 함수를 통해 상기 의료 영상으로부터 갑상선 주변의 경부 조직을 해부학적 특징에 따라 복수의 구획으로 분할하는 단계; 및 상기 검출된 림프절 및 상기 복수의 구획에 대한 정보를 포함하는 진단 정보를 상기 의료 영상에 정합하여 표시하는 단계를 포함할 수 있다.

Description

갑상선 암의 림프절 전이 진단에 필요한 정보를 제공하는 방법 및 장치
본 개시(disclosure)의 기술적 사상은 갑상선 암의 림프절 전이 진단에 필요한 정보를 제공하는 방법 및 장치에 관한 것이다.
컴퓨터 단층촬영(CT, Computed Tomography)은 X선 촬영과 달리 인체를 가로로 자른 횡단면상을 획득한다. CT는 단순 X선 촬영에 비해 구조물이 겹쳐지는 것이 적어 구조물 및 병변을 좀더 명확히 볼 수 있는 장점이 있다. 또한 CT 촬영은 MRI에 비하여 검사비가 싸고, 검사 시간이 짧기 때문에, 대부분의 장기 및 질환에서 병변이 의심되고 정밀검사를 시행해야 할 필요가 있을 때 기본이 되는 검사법이다.
최근에는 다중채널 CT(MDCT, multi-detector CT)가 보급되면서 촬영 후 영상을 재구성하여 MRI처럼 원하는 단면상 및 입체적인 3차원(3D) 영상도 자유로이 얻을 수 있게 되었고, CT 촬영영상을 의료기관에서 수집할 수도 있다.
한편, CT 촬영영상의 경우, 암의 발생 및 전이 여부를 확인하는 용도로 사용될 수 있는데, 종래에는 이를 전문의가 육안으로 파악하는 방법이 최선이었다. 그러나, 의료 영상을 직접 육안으로 파악하는 것은 높은 숙련도를 요하며 검사자의 피로도가 높은 경우 오진 확률이 존재한다.
근래, 이를 개선하기 위해 의료 영상 인공지능 기술이 개발되고 있다. 해당 기술에 의하면, 전문의의 육안 판독 없이도 인공 지능을 통해, 암 전이 부위 등의 병변 부위를 검출할 수 있다는 장점을 가진다. 그러나, 기존의 기술은 단순히 병변 부위를 자동으로 추출하여 위치와 크기 정보를 제공하는 것으로, 실제 수술 시 절제 부위를 정하는 데 한계가 존재한다.
육안으로 파악하는 것과 인공지능에 의한 자동 추출 모두 암 전이 부위를 파악하면 재발을 막기 위해 일반적으로 주변 여러 조직의 조직검사를 필수적으로 시행하여야 하며, 주변 조직 또한 절제하여야 한다. 이 과정에서 너무 적은 부위를 절제하면 수술 시간과 비용, 입원기간을 줄여 환자의 단기적인 회복에 도움을 주지만 암의 재발 등 예후가 좋지 않을 확률이 높아지게 된다. 반대로 너무 많은 부위를 절제할 경우 환자에게 비용적, 체력적인 부담이 가중된다.
때문에 수술 전 계획 수립 단계에서 적절한 절개 부위와 크기를 찾는 것이 필수적이지만, 현존하는 인공지능 기반 의료 영상 분석 방법들은 수술 계획 수립을 위한 충분한 정보를 제공하지 않는다는 문제점이 있다.
본 개시의 기술적 사상에 따른 갑상선 암의 림프절 전이 진단에 필요한 정보를 제공하는 방법 및 장치 가 이루고자 하는 기술적 과제는, 딥러닝 모델을 통해 두경부 CT 영상으로부터 암 전이 위험이 있는 림프절을 자동 추출하고, 이에 대한 정보를 복수로 구획된 갑상선 주변의 경부 조직과 매칭하여 보다 직관적으로 표시함으로써 갑상선 암이 림프절 전이 진단 및 수술 계획 수립을 보조할 수 있는 방법 및 그 장치를 제공하는 데에 있다.
본 개시의 기술적 사상에 따른 갑상선 암의 림프절 전이 진단에 필요한 정보를 제공하는 방법 및 이를 위한 장치가 이루고자 하는 기술적 과제는 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제는 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 개시의 기술적 사상에 의한 일 양태에 따르면, 갑상선 암의 림프절 전이 진단에 필요한 정보를 제공하는 방법은, 경부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 의료 영상을 획득하는 단계; 학습된 제 1 네트워크 함수를 통해 상기 의료 영상으로부터 적어도 하나의 림프절을 검출하는 단계 - 상기 림프절은 암 전이 위험도가 소정의 기준값 이상인 적어도 하나의 림프절을 포함함 - ; 학습된 제 2 네트워크 함수를 통해 상기 의료 영상으로부터 갑상선 주변의 경부 조직을 해부학적 특징에 따라 복수의 구획으로 분할하는 단계; 및 상기 검출된 림프절 및 상기 복수의 구획에 대한 정보를 포함하는 진단 정보를 상기 의료 영상에 정합하여 표시하는 단계를 포함할 수 있다.
예시적인 실시예에 따르면, 상기 진단 정보는 상기 림프절의 식별자, 상기 림프절의 위치 좌표, 상기 림프절의 부피, 상기 림프절이 속한 구획 및 상기 림프절의 암 전이 위험도 중 적어도 하나에 대한 정보를 포함할 수 있다.
예시적인 실시예에 따르면, 상기 복수의 구획에 각각에 대하여 상기 구획에 속한 상기 림프절의 개수, 상기 림프절의 부피 및 상기 림프절의 암 전이 위험도 중 적어도 하나에 기초하여 암 전이 심각도를 산출하는 단계를 더 포함하고, 상기 진단 정보는 상기 복수의 구획 각각에 대한 암 전이 심각도에 대한 정보를 더 포함할 수 있다.
예시적인 실시예에 따르면, 상기 암 전이 심각도에 기초하여 상기 복수의 구획 중 절제 영역을 설정하는 단계를 더 포함할 수 있다.
예시적인 실시예에 따르면, 상기 림프절 각각의 부피 및 상기 복수의 구획 중 상기 림프절이 속한 구획을 산출하는 단계를 더 포함할 수 있다.
예시적인 실시예에 따르면, 학습된 제 3 네트워크 함수를 통해 상기 의료 영상으로부터 갑상선을 검출하는 단계를 더 포함하고, 상기 진단 정보는 상기 검출된 갑상선에 대한 정보를 더 포함할 수 있다.
예시적인 실시예에 따르면, 검출된 복수의 상기 림프절에 대하여 암 전이 경로를 예측하는 단계를 더 포함할 수 있다.
본 개시의 기술적 사상에 의한 일 양태에 따르면, 갑상선 암의 림프절 전이 진단을 위한 정보 제공 장치는, 적어도 하나의 프로세서; 상기 프로세서에 의해 실행 가능한 프로그램을 저장하는 메모리; 및 상기 프로세서는, 상기 프로그램을 실행함으로써, 경부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 의료 영상을 획득하고, 학습된 제 1 네트워크 함수를 통해 상기 의료 영상으로부터 적어도 하나의 림프절을 검출하며, 학습된 제 2 네트워크 함수를 통해 상기 의료 영상으로부터 갑상선 주변의 경부 조직을 해부학적 특징에 따라 복수의 구획으로 분할하고, 상기 검출된 림프절 및 상기 복수의 구획에 대한 정보를 포함하는 진단 정보를 상기 의료 영상에 정합하여 표시하며, 상기 림프절은 암 전이 위험도가 소정의 기준값 이상인 적어도 하나의 림프절을 포함할 수 있다.
본 개시의 기술적 사상에 의한 실시예들에 따른 갑상선 암의 림프절 전이 진단에 필요한 정보를 제공하는 방법 및 장치에 따르면, 신경망 네트워크를 이용하여 두경부 의료 영상으로부터 갑상선 및 암 전이 위험이 있는 림프절을 정확하게 검출하고, 이를 의료 영상에 정합하여 보다 직관적으로 결과를 제공할 수 있다.
본 개시의 기술적 사상에 의한 실시예들에 따른 갑상선 암의 림프절 전이 진단에 필요한 정보를 제공하는 방법 및 장치에 따르면, 갑상선 주변의 경부 조직을 복수의 구획으로 구분하고, 각각의 구획에 속하는 림프절에 대한 정보를 의료 영상을 통해 제공하여, 진단자가 암 전이의 정도를 더욱 용이하게 파악하도록 함으로써, 불필요한 조직검사 및 과다 절제를 줄일 수 있다.
본 개시의 기술적 사상에 따른 방법 및 이를 위한 장치가 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 개시의 실시예에 따른 림프절 전이 진단에 필요한 정보를 제공하는 방법을 설명하기 위한 흐름도이다.
도 2는 본 개시의 실시예에 림프절 전이 진단에 필요한 정보를 제공하는 방법을 설명하기 위한 흐름도이다.
도 3 내지 도 6은 본 개시의 실시예에 따른 림프절 전이 진단에 필요한 정보를 제공하는 방법을 수행하기 위하여 네트워크 함수로 구현되는 복수의 모듈과 이들의 예시적인 동작을 도시한다.
도 7은 본 개시의 실시예에 따른 림프절 전이 진단에 필요한 정보를 제공하는 방법을 통해 제공되는 진단 정보를 예시적으로 도시한다.
도 8은 본 개시의 실시예에 따른 림프절 전이 진단에 필요한 정보를 제공하는 장치의 구성을 간략히 도시한 블록도이다.
본 개시의 기술적 사상은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 그러나, 이는 본 개시의 기술적 사상을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 기술적 사상의 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 개시의 기술적 사상을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 개시의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 본 개시에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.
또한, 본 개시에 기재된 "~부", "~기", "~자", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 프로세서(Processor), 마이크로 프로세서(Micro Processer), 마이크로 컨트롤러(Micro Controller), CPU(Central Processing Unit), GPU(Graphics Processing Unit), APU(Accelerate Processor Unit), DSP(Digital Signal Processor), ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등과 같은 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
그리고 본 개시에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.
이하, 본 개시의 실시예들을 차례로 상세히 설명한다.
본 명세서에 걸쳐, 네트워크 함수는 신경망 네트워크 및/또는 뉴럴 네트워크(neural network)와 동일한 의미로 사용될 수 있다. 여기서, 뉴럴 네트워크(신경망)는 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있고, 이러한 노드들은 뉴런으로 지칭될 수 있다. 뉴럴 네트워크는 일반적으로 복수의 노드들을 포함하여 구성된다. 뉴럴 네트워크를 구성하는 노드들은 하나 이상의 링크에 의해 상호 연결될 수 있다.
뉴럴 네트워크를 구성하는 노드들 중 일부는 최초 입력 노드로부터의 거리들에 기초하여 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은 n 레이어를 구성할 수 있다.
본 명세서에서 설명하는 뉴럴 네트워크는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 딥 뉴럴 네트워크(Deep Neural Network, DNN)를 포함할 수 있다
도 1은 본 개시의 실시예에 따른 림프절 전이 진단에 필요한 정보를 제공하는 방법을 설명하기 위한 흐름도이다.
본 개시의 실시예에 따른 방법(100)은 연산 능력을 구비한 개인용 컴퓨터(Personal Computer), 워크스테이션(work station), 서버용 컴퓨터 장치 등에서 수행되거나 이를 위한 별도의 장치에서 수행될 수 있다.
또한, 방법(100)은 하나 이상의 연산 장치들에서 수행될 수도 있다. 예를 들어, 본 개시의 실시예에 따른 방법(100) 중 적어도 하나 이상의 단계들은 클라이언트 디바이스에서, 다른 단계들은 서버 디바이스에서 수행될 수 있다. 이러한 경우, 클라이언트 디바이스와 서버 디바이스는 네트워크로 연결되어 연산 결과를 송수신할 수 있다. 또는, 방법(100)은 분산 컴퓨팅 기술에 의해 수행될 수도 있다.
S110 단계에서, 장치는 경부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 의료 영상을 획득할 수 있다. 실시예에서, 의료 영상은 대상자의 두경부를 단층 촬영하여 생성된 CT(Computed Tomography) 영상일 수 있다. 즉, 의료 영상은 컴퓨터 단층 촬영 방법을 통해 대상의 두경부를 일 방향으로 연속하여 촬영한 복수의 슬라이스로 구성될 수 있다. 또한, 실시예에서, 의료 영상은 CT 영상을 구성하는 복수의 슬라이스를 적층하여 생성된 두경부의 3차원 영상일 수 있다.
S120 단계에서, 장치는 의료 영상을 학습된 제 1 네트워크 함수(즉, 림프절 검출 모듈)에 입력하여 의료 영상으로부터 적어도 하나의 림프절을 검출할 수 있다. 실시예에서, S120 단계에서 검출되는 림프절은 갑상선 암의 전이 위험도가 소정의 기준치보다 높은 적어도 하나의 림프절을 포함할 수 있다. 즉, 예를 들어, 제 1 네트워크 함수는 암 전이된 림프절의 해부학적인 특징에 기초하여 암 전이가 의심되는 적어도 하나의 림프절 및 이에 해당할 확률을 검출할 수 있다. 이어서, 제 1 네트워크 함수는 해당 확률에 기초하여 암의 전이 위험도가 소정의 기준치보다 높은 적어도 하나의 림프절을 최종 검출할 수 있다.
제 1 네트워크 함수는 학습 데이터(예를 들어, 전문가, 검사 등을 통해 암 전이가 된 것으로 라벨링된 림프절이 포함된 두경부 CT 영상)를 통해 사전에 림프절 검출에 대한 학습이 수행된 것일 수 있다.
검출된 림프절에 대한 정보에는 검출된 림프절의 위치 좌표에 대한 정보가 포함될 수 있다. 여기서 림프절의 위치 좌표는 3차원 영상으로 생성 또는 변환된 의료 영상과 동일한 기준 좌표에 대응하여 생성된 것일 수 있다.
한편, 도시되어 있지는 않지만, 실시예에 따라, 방법(100)은 검출된 림프절을 라벨링하는 단계를 더 포함할 수 있다. 즉, 예를 들어, 제 1 네트워크 함수에 의해 검출된 적어도 하나의 림프절에 대한 정보가 의료 영상에 소정의 방식(특정 색상, 음영, 경계선 등)으로 표시되어 진단자 등에게 제공될 수 있으며, 진단자 등은 림프절이 표시된 의료 영상을 이용하여 각각의 림프절에 고유의 식별자(ID)를 라벨링할 수 있다.
S130 단계에서, 장치는 의료 영상을 학습된 제 2 네트워크 함수(즉, 경부 조직 분할 모듈)에 입력하여 의료 영상으로부터 갑상선 주변의 경부 조직을 복수의 구획으로 분할할 수 있다. 즉, 제 2 네트워크 함수는 갑상선 주변의 경부 조직을 검출하고, 분할의 기준이 되는 복수의 해부학적 특징에 기초하여 경부 조직을 복수의 구획으로 분할할 수 있다. 예를 들어, 제 2 네트워크 함수는 심장에서 뇌로 가는 큰 혈관(온목동맥: common carotid artery, 속목정맥: internal jugular vein)과 흉쇄유돌근(sternocleidomastoid), 설골(hyoid bone)과 같은 해부학적 특징의 위치를 기준으로 갑상선 주변의 경부 조직을 6 내지 7개의 구획으로 분할할 수 있다.
제 2 네트워크 함수는 학습 데이터(예를 들어, 전문가 등에 의해 경부 조직 분할이 수행된 두경부 CT 영상)를 통해 사전에 경부 조직 분할에 대한 학습이 수행된 것일 수 있다.
S140 단계에서, 장치는 의료 영상을 학습된 제 3 네트워크 함수(즉, 갑상선 검출 모듈)에 입력하여 의료 영상으로부터 갑상선을 검출할 수 있다.
제 3 네트워크 함수는 학습 데이터(예를 들어, 전문가에 의해 라벨링된 갑상선이 포함된 두경부 CT 영상)를 통해 사전에 갑상선 검출에 대한 학습이 수행된 것일 수 있다.
S140 단계를 통해 검출된 갑상선에 대한 정보는 의료 영상에 소정의 방식(특정 색상, 음영, 경계선 등)으로 표시되어 진단자에게 제공될 수 있으며, 진단자는 이를 기초로 갑상선의 모양(부어오름, 치우침 등)을 판단할 수 있게 된다.
한편, 도 1에서는 S120 단계 내지 S140 단계가 순차적으로 수행되는 것으로 도시되어 있으나, 실시예에 따라, S120 단계 내지 S140 단계는 적어도 일부가 동시에 수행되거나, 수행 순서가 서로 변경될 수 있다. 예를 들어, S140 단계가 먼저 수행되고, 이어서 S120 단계 및 S130 단계가 수행되는 등 수행 순서는 다양하게 변경될 수 있다. 또한, 실시예에 따라, S140 단계는 생략될 수 있다.
S150 단계에서, 장치는 검출된 림프절의 각각의 부피와 복수의 구획 중 림프절이 속하는 구획을 산출할 수 있다. 즉, 예를 들어, 장치는 소정의 계산식(예를 들어, 복셀의 단위 부피 X 림프절에 해당하는 복셀 개수)에 의해 검출된 림프절의 3차원 공간에서의 부피를 산출하고, 림프절의 위치 좌표에 기초하여 각각의 림프절이 속하는 구획을 산출할 수 있다.
S160 단계에서, 장치는 검출된 림프절, 복수의 구획 및/또는 갑상선에 대한 정보를 포함하는 진단 정보를 의료 영상에 정합하여 표시할 수 있다. 이때, 진단 정보는 림프절의 식별자, 림프절의 위치 좌표, 림프절의 부피, 림프절이 속한 구획, 림프절의 암 전이 위험도, 갑상선의 위치, 갑상선의 형태 및/또는 갑상선 주변 경부 조직의 구획과 이의 위치 등에 관한 정보를 포함할 수 있다. 예를 들어, 3차원의 의료 영상에 림프절, 복수의 구획 및/또는 갑상선을 소정의 방식(특정 색상, 음영, 경계선 등)으로 표시하고, 이에 대하여 진단 정보가 텍스트의 형태 등으로 표시되어 진단자에게 제공될 수 있다.
실시예에서, 방법(100)은 검출된 복수의 림프절에 대하여 암 전이 경로를 예측하는 단계를 더 포함할 수 있다. 즉, 예를 들어, 장치는 복수의 림프절의 위치, 림프절이 속한 구획, 림프절의 부피 등에 기초하여, 현재 암 전이가 의심되거나, 후추 암 전이 위험이 있는 복수의 림프절 사이의 전이 경로(또는, 전이 순서)를 예측하여 진단자에게 제공할 수 있다.
실시예에서, 림프절 사이의 전이 경로에 대한 예측은 학습된 제 4 네트워크 함수에 의해 수행될 수 있다. 예를 들어, 제 4 네트워크 함수는 암 전이가 발생한 림프절 사이의 위치, 림프절의 부피, 해당 림프절이 속하는 구획 등의 암전이 림프절에 대한 정보를 학습 데이터로 하여, 림프절 상의의 암 전이 경로를 예측하도록 학습이 수행된 것일 수 있다.
도 2는 본 개시의 실시예에 따른 림프절 전이 진단에 필요한 정보를 제공하는 방법을 설명하기 위한 흐름도이다.
도 2의 방법(200)은 도 1의 방법(100)에 추가하여 S210 단계 내지 S220 단계를 더 포함할 수 있다.
S210 단계에서, 장치는 복수의 구획에 각각에 대하여 구획에 속한 림프절의 개수, 림프절의 부피 및 림프절의 암 전이 위험도 중 적어도 하나에 기초하여 암 전이 심각도를 산출할 수 있다.
예를 들어, 장치는 특정 구획에 암 전이 위험도가 있는 림프절이 다수가 속하거나, 이에 속하는 림프절의 부피 및/또는 암 전이 위험도가 높은 경우, 해당 구획의 암 전이 심각도를 높게 산출할 수 있다.
이어서, S220 단계에서, 장치는 산출된 암 전이 심각도에 기초하여 복수의 구획 중에서 절제 영역을 설정할 수 있다. 예를 들어, 장치는 복수의 구획 중에서 암 전이 심각도가 소정의 기준치 이상인 구획의 적어도 일부를 절제 영역으로 설정할 수 있다.
S210 단계에서 산출된 각 구획의 암 전이 심각도와 S220 단계에서 설정된 절제 영역에 대한 정보는 진단 정보에 포함되어 S160 단계를 통해 진단자에게 표시될 수 있다.
도 3 내지 도 6은 본 개시의 실시예에 따른 림프절 전이 진단에 필요한 정보를 제공하는 방법을 수행하기 위하여 네트워크 함수로 구현되는 복수의 모듈과 이들의 예시적인 동작을 도시한다.
도 3을 참조하면, 대상자의 두경부를 촬영하여 생성된 의료 영상이 학습된 갑상선 검출 모듈(310), 림프절 검출 모듈(320) 및 경부 조직 분할 모듈(330)에 각각 입력될 수 있다.
이때, 의료 영상(10)은 복수의 2차원 슬라이스를 포함하는 영상군으로 구성되는 두경부 CT 영상이거나, 이에 기초하여 생성된 두경부의 3차원 영상일 수 있다. 또한, 갑상선 검출 모듈(310), 림프절 검출 모듈(320) 및 경부 조직 분할 모듈(330)은 기계 학습 또는 심층 학습(deep learning)이 가능하도록 구현된 네트워크 함수를 포함할 수 있으며, 실시예에 따라, 각각의 네트워크 함수는 3차원 심층 학습이 가능하도록 구현될 수 있다.
갑상선 검출 모듈(310)은 입력된 의료 영상으로부터 갑상선(410)을 검출하고, 이에 대한 정보를 의료 영상에 정합하여 표시할 수 있다. 예를 들어, 도 4에서 도시되는 바와 같이, 갑상선 검출 모듈(310)은 검출된 갑상선(410)에 대한 정보에 기초하여 의료 영상 중 갑상선(410)에 해당하는 영역을 소정의 음역으로 표시할 수 있다. 이러한 표시는 2차원 슬라이드의 적어도 일부에 대하여 수행되거나, 3차원으로 형성된 의료 영상에 대해 수행될 수 있다.
림프절 검출 모듈(320)은 입력된 의료 영상으로부터 암 전이 위험도가 존재하는 적어도 하나의 림프절을 검출할 수 있으며, 도 5에서 도시되는 바와 같이, 이에 대한 정보를 의료 영상에 정합하여 표시할 수 있다. 검출된 림프절에 대한 정보에는 림프절의 위치 좌표, 림프절의 부피 및/또는 림프절의 암 전이 위험도가 포함될 수 있다.
또한, 실시예에서, 림프절 검출 모듈(320)은 사용자 입력에 기초하여 검출된 림프절 각각에 고유한 식별자를 라벨링할 수 있다.
경부 조직 분할 모듈(330)은 입력된 의료 영상으로부터 갑상선 주변의 경부 조직을 검출하고, 해부학적인 특징에 기초하여 이를 복수의 구획으로 분할할 수 있다. 또한, 경부 조직 분할 모듈(330)은, 도 6에 도시되는 바와 같이, 분할된 복수의 구획에 대한 정보를 의료 영상에 정합하여 표시할 수 있다. 복수의 구획은 서로 다른 색상의 음영을 통해 의료 영상에 표시될 수 있다.
예를 들어, 복수의 구획은 해부학적 특징에 의해 분할된 6개의 구획을 포함할 수 있으며, 각각의 구획은 Level 1 부터 Level 6까지 차례로 지칭될 수 있다.
도 7은 본 개시의 실시예에 따른 림프절 전이 진단에 필요한 정보를 제공하는 방법을 통해 제공되는 진단 정보를 예시적으로 도시한다.
도 7을 참조하면, 갑상선 검출 모듈(310), 림프절 검출 모듈(320) 및 경부 조직 분할 모듈(330)에 의해 획득된 갑상선, 림프절 및/또는 복수의 구획에 대한 정보 중 적어도 일부는 진단 정보에 포함되어 의료 영상에 표시될 수 있다.
예를 들어, 경부 조직에 대한 복수의 구획이 의료 영상에 정합되어 표시되고, 이에 검출된 림프절이 소정의 색상 등으로 의료 영상에 더 표시될 수 있다. 또한, 의료 영상에 표시된 각각의 림프절에 대응하여, 림프절의 식별자, 림프절의 위치 좌표, 림프절의 부피, 림프절이 속한 구획, 림프절의 암 전이 위험도 등의 정보가 더 표시될 수 있다.
도 8은 본 개시의 실시예에 따른 림프절 전이 진단에 필요한 정보를 제공하는 장치의 구성을 간략히 도시한 블록도이다.
통신부(810)는 림프절 전이 여부를 진단하기 위한 입력 데이터(두경부 CT 영상 등)를 수신할 수 있다. 통신부(810)는 유무선 통신부를 포함할 수 있다. 통신부(810)가 유선 통신부를 포함하는 경우, 통신부(810)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 통하여 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 또한, 통신부(810)가 무선 통신부를 포함하는 경우, 통신부(810)는 셀룰러 통신, 무선랜(예를 들어, 와이-파이(Wi-Fi)) 등을 이용하여 무선으로 데이터 또는 신호를 송수신할 수 있다. 실시예에서, 통신부는 프로세서(840)의 제어에 의해 외부 장치 또는 외부 서버와 데이터 또는 신호를 송수신할 수 있다.
입력부(820)는 외부의 조작을 통해 다양한 사용자 명령을 수신할 수 있다. 이를 위해, 입력부(820)는 하나 이상의 입력 장치를 포함하거나 연결할 수 있다. 예를 들어, 입력부(820)는 키패드, 마우스 등 다양한 입력을 위한 인터페이스와 연결되어 사용자 명령을 수신할 수 있다. 이를 위해, 입력부(820)는 USB 포트 뿐만 아니라 선더볼트 등의 인터페이스를 포함할 수도 있다. 또한, 입력부(820)는 터치스크린, 버튼 등의 다양한 입력 장치를 포함하거나 이들과 결합하여 외부의 사용자 명령을 수신할 수 있다.
메모리(830)는 프로세서(840)의 동작을 위한 프로그램 및/또는 프로그램 명령을 저장할 수 있고, 입/출력되는 데이터들을 임시 또는 영구 저장할 수 있다. 메모리(830)는 플래시 메모리(flash memory) 타입, 하드디스크(hard disk) 타입, 멀티미디어 카드 마이크로(multimedia card micro) 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM), SRAM, 롬(ROM), EEPROM, PROM, 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
또한, 메모리(830)는 다양한 네트워크 함수 및 알고리즘을 저장할 수 있으며, 장치(800)를 구동하고 제어하기 위한 다양한 데이터, 프로그램(하나 이상이 인스트럭션들), 어플리케이션, 소프트웨어, 명령, 코드 등을 저장할 수 있다.
프로세서(840)는 장치(800)의 전반적인 동작을 제어할 수 있다. 프로세서(840)는 메모리(830)에 저장되는 하나 이상의 프로그램들을 실행할 수 있다. 프로세서(840)는 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphics Processing Unit, GPU) 또는 본 개시의 기술적 사상에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다.
실시예에서, 프로세서(840)는 경부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 의료 영상을 획득하고, 학습된 제 1 네트워크 함수를 통해 의료 영상으로부터 적어도 하나의 림프절을 검출하며, 학습된 제 2 네트워크 함수를 통해 의료 영상으로부터 갑상선 주변의 경부 조직을 해부학적 특징에 따라 복수의 구획으로 분할하고, 검출된 림프절 및 복수의 구획에 대한 정보를 포함하는 진단 정보를 상기 의료 영상에 정합하여 표시할 수 있다. 이때, 림프절은 암 전이 위험도가 소정의 기준값 이상인 적어도 하나의 림프절을 포함할 수 있다.
실시예에서, 프로세서(840)는 복수의 구획에 각각에 대하여 구획에 속한 림프절의 개수, 림프절의 부피 및 림프절의 암 전이 위험도 중 적어도 하나에 기초하여 암 전이 심각도를 산출할 수 있다.
실시예에서, 프로세서(840)는 암 전이 심각도에 기초하여 복수의 구획 중 절제 영역을 설정할 수 있다.
실시예에서, 프로세서(840)는 림프절 각각의 부피 및 복수의 구획 중 림프절이 속한 구획을 산출할 수 있다.
실시예에서, 프로세서(840)는 학습된 제 3 네트워크 함수를 통해 의료 영상으로부터 갑상선을 검출할 수 있다.
실시예에서, 프로세서(840)는 검출된 복수의 림프절에 대하여 암 전이 경로를 예측할 수 있다.
본 개시의 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 개시를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
또한, 개시된 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.
컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.
컴퓨터 프로그램 제품은, 서버 및 클라이언트 장치로 구성되는 시스템에서, 서버의 저장매체 또는 클라이언트 장치의 저장매체를 포함할 수 있다. 또는, 서버 또는 클라이언트 장치와 통신 연결되는 제 3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제 3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 클라이언트 장치 또는 제 3 장치로 전송되거나, 제 3 장치로부터 클라이언트 장치로 전송되는 S/W 프로그램 자체를 포함할 수 있다.
이 경우, 서버, 클라이언트 장치 및 제 3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 클라이언트 장치 및 제 3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.
예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 클라이언트 장치가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 개시의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 개시의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 개시의 권리범위에 속한다.

Claims (9)

  1. 갑상선 암의 림프절 전이 진단에 필요한 정보를 제공하는 방법에 있어서,
    경부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 의료 영상을 획득하는 단계;
    학습된 제 1 네트워크 함수를 통해 상기 의료 영상으로부터 적어도 하나의 림프절을 검출하는 단계 - 상기 림프절은 암 전이 위험도가 소정의 기준값 이상인 적어도 하나의 림프절을 포함함 - ;
    학습된 제 2 네트워크 함수를 통해 상기 의료 영상으로부터 갑상선 주변의 경부 조직을 해부학적 특징에 따라 복수의 구획으로 분할하는 단계; 및
    상기 검출된 림프절 및 상기 복수의 구획에 대한 정보를 포함하는 진단 정보를 상기 의료 영상에 정합하여 표시하는 단계를 포함하는 방법
  2. 제 1 항에 있어서,
    상기 진단 정보는 상기 림프절의 식별자, 상기 림프절의 위치 좌표, 상기 림프절의 부피, 상기 림프절이 속한 구획 및 상기 림프절의 암 전이 위험도 중 적어도 하나에 대한 정보를 포함하는, 방법.
  3. 제 2 항에 있어서,
    상기 복수의 구획에 각각에 대하여 상기 구획에 속한 상기 림프절의 개수, 상기 림프절의 부피 및 상기 림프절의 암 전이 위험도 중 적어도 하나에 기초하여 암 전이 심각도를 산출하는 단계를 더 포함하고,
    상기 진단 정보는 상기 복수의 구획 각각에 대한 암 전이 심각도에 대한 정보를 더 포함하는, 방법.
  4. 제 3 항에 있어서,
    상기 암 전이 심각도에 기초하여 상기 복수의 구획 중 절제 영역을 설정하는 단계를 더 포함하는, 방법.
  5. 제 1 항에 있어서,
    상기 림프절 각각의 부피 및 상기 복수의 구획 중 상기 림프절이 속한 구획을 산출하는 단계를 더 포함하는, 방법.
  6. 제 1 항에 있어서,
    학습된 제 3 네트워크 함수를 통해 상기 의료 영상으로부터 갑상선을 검출하는 단계를 더 포함하고,
    상기 진단 정보는 상기 검출된 갑상선에 대한 정보를 더 포함하는, 방법.
  7. 제 1 항에 있어서,
    검출된 복수의 상기 림프절에 대하여 암 전이 경로를 예측하는 단계를 더 포함하는, 방법.
  8. 림프절 전이 진단에 필요한 정보를 제공하는 장치에 있어서,
    적어도 하나의 프로세서;
    상기 프로세서에 의해 실행 가능한 프로그램을 저장하는 메모리; 및
    상기 프로세서는, 상기 프로그램을 실행함으로써, 경부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 의료 영상을 획득하고, 학습된 제 1 네트워크 함수를 통해 상기 의료 영상으로부터 적어도 하나의 림프절을 검출하며, 학습된 제 2 네트워크 함수를 통해 상기 의료 영상으로부터 갑상선 주변의 경부 조직을 해부학적 특징에 따라 복수의 구획으로 분할하고, 상기 검출된 림프절 및 상기 복수의 구획에 대한 정보를 포함하는 진단 정보를 상기 의료 영상에 정합하여 표시하며,
    상기 림프절은 암 전이 위험도가 소정의 기준값 이상인 적어도 하나의 림프절을 포함하는, 장치.
  9. 제 1 항 내지 제 7 항 중 어느 한 항의 방법을 실행하기 위하여 기록 매체에 저장된 컴퓨터 프로그램.
PCT/KR2021/013298 2021-07-09 2021-09-29 갑상선 암의 림프절 전이 진단에 필요한 정보를 제공하는 방법 및 장치 WO2023282388A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/928,218 US11776121B2 (en) 2021-07-09 2021-09-29 Method and apparatus for providing information needed for diagnosis of lymph node metastasis of thyroid cancer

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0090171 2021-07-09
KR1020210090171A KR102325963B1 (ko) 2021-07-09 2021-07-09 갑상선 암의 림프절 전이 진단에 필요한 정보를 제공하는 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2023282388A1 true WO2023282388A1 (ko) 2023-01-12

Family

ID=78716893

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/013298 WO2023282388A1 (ko) 2021-07-09 2021-09-29 갑상선 암의 림프절 전이 진단에 필요한 정보를 제공하는 방법 및 장치

Country Status (3)

Country Link
US (1) US11776121B2 (ko)
KR (2) KR102325963B1 (ko)
WO (1) WO2023282388A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140104946A (ko) * 2011-10-05 2014-08-29 시레카 테라노스틱스, 엘엘씨 스펙트럼 이미징에 의해 생물학적 표본을 분석하는 방법 및 시스템
KR101919866B1 (ko) * 2018-02-22 2018-11-19 주식회사 뷰노 뼈 스캔 영상에서 암 전이 여부의 판정을 지원하는 방법 및 이를 이용한 장치
KR20200087427A (ko) * 2019-01-11 2020-07-21 경북대학교 산학협력단 딥러닝을 이용한 갑상선 암의 림프절 전이 진단 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11443433B2 (en) * 2018-02-10 2022-09-13 The Trustees Of The University Of Pennsylvania Quantification and staging of body-wide tissue composition and of abnormal states on medical images via automatic anatomy recognition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140104946A (ko) * 2011-10-05 2014-08-29 시레카 테라노스틱스, 엘엘씨 스펙트럼 이미징에 의해 생물학적 표본을 분석하는 방법 및 시스템
KR101919866B1 (ko) * 2018-02-22 2018-11-19 주식회사 뷰노 뼈 스캔 영상에서 암 전이 여부의 판정을 지원하는 방법 및 이를 이용한 장치
KR20200087427A (ko) * 2019-01-11 2020-07-21 경북대학교 산학협력단 딥러닝을 이용한 갑상선 암의 림프절 전이 진단 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHEN XUMING; SUN SHANLIN; BAI NARISU; HAN KUN; LIU QIANQIAN; YAO SHENGYU; TANG HAO; ZHANG CHUPENG; LU ZHIPENG; HUANG QIAN; ZHAO GU: "A deep learning-based auto-segmentation system for organs-at-risk on whole-body computed tomography images for radiation therapy", RADIOTHERAPY AND ONCOLOGY, ELSEVIER, IRELAND, vol. 160, 4 May 2021 (2021-05-04), Ireland , pages 175 - 184, XP086675891, ISSN: 0167-8140, DOI: 10.1016/j.radonc.2021.04.019 *
LEE JEONG HOON; HA EUN JU; KIM JU HAN: "Application of deep learning to the diagnosis of cervical lymph node metastasis from thyroid cancer with CT", EUROPEAN RADIOLOGY, SPRINGER BERLIN HEIDELBERG, BERLIN/HEIDELBERG, vol. 29, no. 10, 15 March 2019 (2019-03-15), Berlin/Heidelberg, pages 5452 - 5457, XP036875392, ISSN: 0938-7994, DOI: 10.1007/s00330-019-06098-8 *

Also Published As

Publication number Publication date
US11776121B2 (en) 2023-10-03
KR102325963B1 (ko) 2021-11-16
US20230196561A1 (en) 2023-06-22
KR20230010163A (ko) 2023-01-18

Similar Documents

Publication Publication Date Title
WO2020207377A1 (zh) 一种图像识别模型训练及图像识别方法、装置及系统
WO2018155898A1 (en) Method and apparatus for processing histological image captured by medical imaging device
KR102289277B1 (ko) 복수의 의료 영상 판독 알고리듬들에 대한 평가 스코어를 생성하는 의료 영상 판독 지원 장치 및 방법
WO2023095989A1 (ko) 뇌질환 진단을 위한 다중 모달리티 의료 영상 분석 방법 및 장치
CN109670532A (zh) 生物体器官组织图像的异常识别方法、装置及系统
US11663718B2 (en) Method for discriminating suspicious lesion in medical image, method for interpreting medical image, and computing device implementing the methods
CN111227864A (zh) 使用超声图像利用计算机视觉进行病灶检测的方法与装置
CN111681737B (zh) 用于建设肝癌影像数据库的结构化报告系统及方法
WO2018080120A1 (en) Method and apparatus for follicular quantification in 3d ultrasound images
WO2022139246A1 (ko) 골절 검출 방법 및 이를 이용한 디바이스
CN112967284B (zh) 血管图像分段分析方法、装置、设备及存储介质
EP3254262A1 (en) Method and apparatus for displaying medical image
EP2783622A1 (en) Image processing device, image processing method, and image processing program
KR102531400B1 (ko) 인공 지능 기반 대장 내시경 영상 진단 보조 시스템 및 방법
WO2018222006A1 (en) Apparatus and method for assessing uterine parameters
WO2019098415A1 (ko) 자궁경부암에 대한 피검체의 발병 여부를 판정하는 방법 및 이를 이용한 장치
US11756673B2 (en) Medical information processing apparatus and medical information processing method
WO2022145841A1 (ko) 병변 판독 방법 및 이를 위한 장치
KR20200062764A (ko) 딥러닝 기반 혈관 구분 방법 및 시스템
KR102150682B1 (ko) 특이점 분류 장치 및 분류 방법
Yuan et al. Research on intelligent aided diagnosis system of medical image based on computer deep learning
KR20210054140A (ko) 내시경 영상에 대한 복수의 의료 영상 판독 알고리듬들을 이용하는 의료 영상 판독 지원 장치 및 방법
Pham et al. Chest x-rays abnormalities localization and classification using an ensemble framework of deep convolutional neural networks
Chen et al. A novel deep learning model based on multi-scale and multi-view for detection of pulmonary nodules
WO2023282388A1 (ko) 갑상선 암의 림프절 전이 진단에 필요한 정보를 제공하는 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21949427

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 16/05/2024)