WO2023163287A1 - Method and apparatus for analyzing medical image - Google Patents

Method and apparatus for analyzing medical image Download PDF

Info

Publication number
WO2023163287A1
WO2023163287A1 PCT/KR2022/008379 KR2022008379W WO2023163287A1 WO 2023163287 A1 WO2023163287 A1 WO 2023163287A1 KR 2022008379 W KR2022008379 W KR 2022008379W WO 2023163287 A1 WO2023163287 A1 WO 2023163287A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
medical image
analysis model
generated
Prior art date
Application number
PCT/KR2022/008379
Other languages
French (fr)
Korean (ko)
Inventor
기리시스리니바산
김한석
유영성
피재우
아킬라페루말라
아터테이쇼크
Original Assignee
주식회사 피맥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 피맥스 filed Critical 주식회사 피맥스
Publication of WO2023163287A1 publication Critical patent/WO2023163287A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs

Definitions

  • the conventional method provides only relatively simple information (e.g., muscle mass versus fat mass, etc.), it is impossible to analyze quantitative data for predicting a disease caused by an imbalance in body composition for each body part of a patient or diagnosing a disease. It also has limitations.
  • a medical image analysis method includes obtaining a 3D medical image generated by photographing a body of an examinee; generating at least one 2D cross-sectional image corresponding to each of the at least one analysis model by segmenting the medical image based on an anatomical direction corresponding to each of the at least one analysis model that has been learned; generating image information obtained by dividing a plurality of body component regions by inputting the 2D cross-sectional image to the corresponding analysis model; and calculating information on at least one of ratios and volumes of a plurality of body components from the image information.
  • the medical image may include at least one of a 3D computed tomography (3D-CT) image and a magnetic resonance image (MRI).
  • 3D-CT 3D computed tomography
  • MRI magnetic resonance image
  • the medical image may be a T1-weighted magnetic resonance image.
  • the 2D cross-sectional image may include at least one of an axial image, a sagittal image, and a coronal image.
  • the calculating of information on at least one of a ratio and a volume of the body component may include calculating the number of pixels for each body component region from the image information generated corresponding to each of the 2D sectional images. doing; obtaining information on an actually measured size of a pixel from photographing information of the medical image; and calculating the volume of each body component based on the number of pixels of the body component region and information about the measured size.
  • a medical image analysis apparatus includes at least one processor; a memory for storing a program executable by the processor; and the processor, by executing the program, obtains a 3D medical image generated by photographing the examinee's body, and generates the medical image based on an anatomical direction corresponding to each of at least one pre-learned analysis model.
  • the processor By dividing, at least one 2D sectional image corresponding to each of the analysis models is generated, and image information obtained by dividing a plurality of body component regions is generated by inputting the 2D sectional image to the analysis model corresponding to the analysis model.
  • Information on at least one of ratios and volumes of a plurality of body components may be calculated from the information.
  • FIG. 1 is a flowchart illustrating a method for analyzing a medical image according to an embodiment of the present disclosure.
  • 3 and 4 are diagrams exemplarily illustrating body fat analysis information calculated by a medical image analysis method according to an embodiment of the present disclosure.
  • FIG. 8 is a block diagram briefly illustrating the configuration of a medical image analysis apparatus according to an embodiment of the present disclosure.
  • one component when one component is referred to as “connected” or “connected” to another component, the one component may be directly connected or directly connected to the other component, but in particular Unless otherwise described, it should be understood that they may be connected or connected via another component in the middle.
  • ⁇ unit means a unit that processes at least one function or operation, which includes a processor, a micro Processor (Micro Processor), Micro Controller, CPU (Central Processing Unit), GPU (Graphics Processing Unit), APU (Accelerate Processor Unit), DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array) may be implemented by hardware or software or a combination of hardware and software.
  • a micro Processor Micro Processor
  • Micro Controller CPU
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • APU Accelerate Processor Unit
  • DSP Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • classification of components in the present disclosure is merely a classification for each main function in charge of each component. That is, two or more components to be described below may be combined into one component, or one component may be divided into two or more for each more subdivided function.
  • each component to be described below may additionally perform some or all of the functions of other components in addition to its main function, and some of the main functions of each component may be performed by other components. Of course, it may be dedicated and performed by .
  • the method may be performed on one or more computing devices.
  • at least one or more steps of the method 100 according to an embodiment of the present disclosure may be performed in a client device and other steps may be performed in a server device.
  • the client device and the server device may be connected through a network to transmit and receive calculation results.
  • method 100 may be performed by distributed computing technology.
  • FIG. 1 is a flowchart for explaining a method for analyzing a medical image according to an embodiment of the present disclosure
  • FIG. 2 is a flowchart for explaining an embodiment of step S140 of FIG. 1 .
  • the device may obtain a 3D medical image generated by photographing the examinee's body.
  • the medical image may be received from an external database server or may be captured by a photographing device connected to the device through wired or wireless communication.
  • the medical image may be an image generated by photographing the entire body of the examinee (ie, the entire body), but is not limited thereto, and according to an embodiment, an image generated by photographing a part of the examinee's body may be used.
  • the medical image may include at least one of a 3D computed tomography (3D-CT) image and a magnetic resonance image (MRI).
  • 3D-CT 3D computed tomography
  • MRI magnetic resonance image
  • a T1-weighted magnetic resonance image may be applied.
  • a T1-weighted magnetic resonance image since the contrast value difference between fat and muscle is high, segmentation accuracy of body component regions can be further improved through the analysis model described in detail below.
  • the method 100 may further include pre-processing the medical image after step S110.
  • the device may first filter whether the medical image is a normal image that can be analyzed through a preprocessing algorithm, and convert the data format to be suitable for the input format of the analysis model.
  • the device may correct a contrast value deviation due to an error or noise of a photographing device through an image normalization process.
  • the device cuts at least a part of the examinee's body included in the 3D medical image perpendicularly to the first direction at regular intervals while moving in a first direction (eg, a direction from the head to the legs). By doing so, at least one 2-dimensional cross-sectional image (eg, cross-sectional image) corresponding to the first analysis model may be generated.
  • the device moves at least a part of the examinee's body included in the 3D medical image in a second direction (eg, from the left arm to the right arm), and at regular intervals perpendicular to the second direction. By cutting, at least one 2-dimensional cross-sectional image (eg, sagittal image) corresponding to the second analysis model may be generated.
  • the device cuts at least a part of the examinee's body included in the 3D medical image perpendicularly to the third direction at regular intervals while moving in a third direction (eg, from the front to the rear direction).
  • a third direction eg, from the front to the rear direction.
  • at least one 2-dimensional cross-sectional image eg, coronal image
  • the first direction, the second direction, and the third direction may be directions perpendicular to each other.
  • a plurality of analysis models may be configured, and each may be pre-learned to segment a body component region based on different 2D cross-sectional images.
  • the analysis model includes a first analysis model and a second analysis model, and the first analysis model is pre-trained to segment body component regions through a plurality of cross-sectional images generated from a plurality of three-dimensional training medical images.
  • the second analysis model may be pre-trained to segment the body component region through at least one of a plurality of sagittal plane images and coronal plane images generated from the training medical images.
  • a network function may be used in the same sense as a neural network and/or a neural network.
  • a neural network may be composed of a set of interconnected computational units, which may be generally referred to as nodes, and these nodes may be referred to as neurons.
  • a neural network generally includes a plurality of nodes, and the nodes constituting the neural network may be interconnected by one or more links. In this case, some of the nodes constituting the neural network may configure one layer based on distances from the first input node. For example, a set of nodes having a distance of n from the first input node may constitute n layers.
  • the neural network may include a deep neural network (DNN) including a plurality of hidden layers in addition to an input layer and an output layer.
  • DNN deep neural network
  • the device may calculate information on at least one of ratios and volumes of a plurality of body components from the image information.
  • step S140 may include steps S141 to S143.
  • the device may obtain information on the actually measured size (horizontal and vertical length) of the pixel from photographing information (eg, Dicom tag information) of the medical image.
  • photographing information eg, Dicom tag information
  • the device may calculate the area of a body component included in each 2D cross-sectional image by multiplying the number of pixels of each body component region by the measured size.
  • the device may calculate the volume occupied by each body component in the entire or part of the examinee's body based on the arrangement and division intervals between the plurality of consecutive 2D sections.
  • one or more sagittal plane images and/or coronal plane images of the entire body are generated from a 3D medical image, and based on this, information on the ratio of each body component in the entire body of the examinee is calculated.
  • information on the ratio of body components may include a ratio occupied by the corresponding body component in the whole and/or a relative ratio between two or more body components.
  • the calculated body composition ratio may be provided to the user (or user terminal) in the form of a predetermined table.
  • one or more cross-sectional images of the entire body may be generated from a 3D medical image, and information on the volume and/or ratio of each body component in the entire body of the examinee may be calculated based on the generated cross-sectional images. Similarly, the volume and/or ratio of the calculated body composition may be provided to the user (or user terminal) in a table format.
  • each body component region segmented by the analysis model may be displayed on a sectional image (ie, a cross-sectional image) in a predetermined manner so as to be identified separately.
  • the user may change the cross-sectional image in which the body composition region is displayed through a predetermined input. For example, a shape corresponding to the entire body of the examinee may be displayed, and when a user selects a specific location thereof, a body component region may be displayed on a cross-sectional image corresponding to the location.
  • step S520 may be performed based on user input. That is, when a user sets a specific body part as an analysis target through a predetermined interface, the device extracts the body part set by the user from the medical image and divides it from other body parts. For example, the user may set one or more body parts, such as legs, arms, and abdomen, as analysis targets.
  • step S520 may be performed by a pretrained network function.
  • the device may generate one or more 2D cross-sectional images of the corresponding body part by segmenting the body part set as the analysis target in an anatomical direction corresponding to each analysis model.
  • step S540 and S550 the device generates image information obtained by dividing a plurality of body component regions by inputting the two-dimensional cross-sectional image into a corresponding analysis model, and from the image information, the ratio and volume of the plurality of body components included in each body part. Information on at least one of them can be calculated.
  • step S550 may be performed in the same manner as step S140 described above with reference to FIG. 2 .
  • the device may generate body composition comparison information for each body part. That is, when a plurality of body parts are set as analysis targets by the user, the device may generate comparison information by comparing information such as the body component volume and/or ratio of each body part with each other.
  • the generated comparison information may be provided to a user or the like in a predetermined manner.
  • 6 and 7 are diagrams exemplarily illustrating body fat analysis information calculated by a medical image analysis method according to an embodiment of the present disclosure.
  • an abdominal region may be segmented from a medical image. Subsequently, information on the ratio of each body component included in the abdomen of the examinee may be calculated based on the plurality of cross sections generated from the abdominal region. The calculated body composition ratio may be provided to the user (or user terminal) in the form of a predetermined table.
  • Each body component region segmented by the analysis model may be displayed in a predetermined manner in a 3D image of each arm separated from a sectional image or a medical image to be identified separately.
  • FIG. 8 is a block diagram briefly illustrating the configuration of a medical image analysis apparatus according to an embodiment of the present disclosure.
  • the communication unit 810 may receive input data (medical images, etc.) for performing medical image analysis.
  • the communication unit 810 may include a wired/wireless communication unit.
  • the communication unit 810 may include a local area network (LAN), a wide area network (WAN), a value added network (VAN), and a mobile communication network ( Mobile Radio Communication Network), a satellite communication network, and one or more components that enable communication through a mutual combination thereof.
  • the communication unit 810 includes a wireless communication unit
  • the communication unit 810 transmits and receives data or signals wirelessly using cellular communication, a wireless LAN (eg, Wi-Fi), and the like.
  • the communication unit may transmit/receive data or signals with an external device or an external server under the control of the processor 840 .
  • the input unit 820 may receive various user commands through external manipulation.
  • the input unit 820 may include or connect one or more input devices.
  • the input unit 820 may be connected to various input interfaces such as a keypad and a mouse to receive user commands.
  • the input unit 820 may include an interface such as a thunderbolt as well as a USB port.
  • the input unit 820 may receive an external user command by including or combining various input devices such as a touch screen and buttons.
  • the memory 830 may store programs and/or program commands for operation of the processor 840 and may temporarily or permanently store input/output data.
  • the memory 830 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), RAM , SRAM, ROM (ROM), EEPROM, PROM, magnetic memory, a magnetic disk, it may include at least one type of storage medium.
  • the memory 830 may store various network functions and algorithms, and may store various data, programs (one or more instructions), applications, software, commands, codes, etc. for driving and controlling the device 700. there is.
  • the processor 840 may control the overall operation of the device 800 .
  • Processor 840 may execute one or more programs stored in memory 830 .
  • the processor 840 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to the technical idea of the present disclosure are performed.
  • the processor 840 obtains a 3D medical image generated by photographing the examinee's body, and divides the medical image based on an anatomical direction corresponding to each of at least one pre-learned analysis model. , At least one 2D cross-sectional image corresponding to each of the analysis models is generated, and image information obtained by dividing a plurality of body component regions is generated by inputting the 2-dimensional cross-sectional image to the corresponding analysis model, and from the image information Information on at least one of ratios and volumes of a plurality of body components may be calculated.
  • the processor 840 calculates the number of pixels for each of the body component regions from the image information generated corresponding to each of the 2D cross-sectional images, and information about the actually measured size of a pixel from the photographing information of the medical image. is obtained, and the volume of each body component can be calculated based on the number of pixels of the body component region and information on the measured size.
  • the processor 840 may divide at least one body part to be analyzed from the medical image, and generate the 2D cross-sectional image of the divided body part from the medical image.
  • the processor 840 may generate body component comparison information for each body part by comparing information on at least one of a ratio and a volume of the body components calculated from the different body parts.
  • the method according to the disclosed embodiments may be provided by being included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • a computer program product may include a storage medium of a server or a storage medium of a client device in a system composed of a server and a client device.
  • the computer program product may include a storage medium of the third device.
  • the computer program product may include a S/W program itself transmitted from the server to the client device or the third device or from the third device to the client device.
  • one of the server, the client device and the third device may execute the computer program product to perform the method according to the disclosed embodiments.
  • two or more of the server, the client device, and the third device may execute the computer program product to implement the method according to the disclosed embodiments in a distributed manner.
  • a server may execute a computer program product stored in the server to control a client device communicatively connected to the server to perform a method according to the disclosed embodiments.

Abstract

The present disclosure relates to a method and apparatus for analyzing a medical image, wherein a method according to an embodiment of the present disclosure may comprise the steps of: acquiring a 3D medical image generated by photographing the body of a subject; by dividing the medical image on the basis of an anatomical direction corresponding to each of at least one pre-trained analysis model, generating at least one 2D cross-sectional image corresponding to each of the at least one analysis model; generating image information in which a plurality of body component regions are divided by inputting the 2D cross-sectional image to the corresponding analysis model; and from the image information, calculating information about at least one of a proportion and a volume of the plurality of body components.

Description

의료 영상 분석 방법 및 장치Medical image analysis method and apparatus
본 개시(disclosure)의 기술적 사상은 의료 영상 분석 방법 및 장치에 관한 것이다.The technical idea of the present disclosure relates to a method and apparatus for analyzing a medical image.
현재까지의 체성분 분석 방법은 생체전기 임피던스(Bioelectric impedance analysis, BIA)기반으로 지방량과 근육량을 측정하는 것이 주를 이루었다. 이는 신체에 미세한 전류를 흘렸을 때 체내 수분 및 근육은 상대적으로 많은 전류가 흐르고, 골격과 지방에는 상대적으로 적은 전류가 흐르는 원리를 이용하여 체성분을 분석한다.Until now, the body composition analysis method has mainly consisted of measuring fat and muscle mass based on bioelectric impedance analysis (BIA). This analyzes body composition using the principle that when a fine current is applied to the body, a relatively large current flows through the body's water and muscle, and a relatively small current flows through the skeleton and fat.
종래의 이러한 기술에서도 부위별 체성분의 분석 결과를 얻을 수 있으나, 이는 2차원적인 분석에 기초한 것으로서, 팔, 상체, 하체, 다리와 같은 큰 범위에 한정된다. 즉, 체성분을 분석하는 해상도가 낮아, 부위에 따른 신체 성분의 분포를 정확히 알 수 없다는 문제점이 있다.Even in such a conventional technique, analysis results of body composition for each part can be obtained, but this is based on a two-dimensional analysis and is limited to a large range such as arms, upper body, lower body, and legs. That is, there is a problem in that the resolution of body composition analysis is low, so that the distribution of body components according to parts cannot be accurately known.
또한, 영상이 아닌 전기적인 신호에 의존하는 종래의 방법은 분석 환경에 따른 의존도가 높아 정확도가 낮다. 즉, 전기적인 신호는 수검자의 자세나 신체내의 수분량에 따라 달라지게 되는데, 예를 들어 부종 또는 지나친 수분 섭취, 검사 전 갑작스러운 자세 변경 같은 요인에 의해서도 오차가 발생한다. 또한, 피부를 통해 미세 전류를 측정하는 방법은 수검자의 피부 상태(예, 굳은살)에 의해서도 오차가 발생하게 된다.In addition, conventional methods relying on electrical signals rather than images have low accuracy due to high dependence on the analysis environment. That is, the electrical signal varies depending on the posture of the examinee or the amount of moisture in the body. For example, errors may also occur due to factors such as edema, excessive water intake, or a sudden change in posture before examination. In addition, in the method of measuring the microcurrent through the skin, errors also occur depending on the condition of the examinee's skin (eg, calluses).
더하여, 종래의 방법은 상대적으로 단순한 정보(예, 근육 대비 지방량 등)만을 제공하기 때문에, 환자의 신체 부위별 체성분 불균형으로 인해 발생한 질병의 예측, 또는 질병의 진단을 위한 정량적인 데이터의 분석이 불가능하다는 한계 또한 가진다.In addition, since the conventional method provides only relatively simple information (e.g., muscle mass versus fat mass, etc.), it is impossible to analyze quantitative data for predicting a disease caused by an imbalance in body composition for each body part of a patient or diagnosing a disease. It also has limitations.
따라서, 수검자의 다양한 신체 부위에 대한 체성분을 정밀 분석할 수 있는 새로운 분석 기술이 필요하다.Therefore, there is a need for a new analysis technique capable of accurately analyzing body composition for various body parts of an examinee.
본 개시의 기술적 사상에 따른 의료 영상 분석 방법 및 장치가 이루고자 하는 기술적 과제는, 3차원 의료 영상에 기초하여 수검자의 전신 또는 신체 일부분에 포함된 체성분에 대한 보다 정확한 정보를 제공할 수 있는 의료 영상 분석 방법 및 이를 위한 장치를 제공하는 데에 있다.A technical problem to be achieved by a method and apparatus for analyzing medical images according to the technical idea of the present disclosure is medical image analysis capable of providing more accurate information about body components included in the whole body or body part of an examinee based on a 3D medical image. It is to provide a method and an apparatus therefor.
본 개시의 기술적 사상에 따른 의료 영상 분석 방법 및 장치가 이루고자 하는 기술적 과제는 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제는 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Technical tasks to be achieved by the medical image analysis method and apparatus according to the technical idea of the present disclosure are not limited to the tasks mentioned above, and other tasks not mentioned will be clearly understood by those skilled in the art from the description below.
본 개시의 기술적 사상에 의한 일 양태에 따르면, 의료 영상 분석 방법은, 수검자의 신체를 촬영하여 생성된 3차원의 의료 영상을 획득하는 단계; 사전 학습된 적어도 하나의 분석 모델 각각에 대응하는 해부학적 방향에 기초하여 상기 의료 영상을 분할함으로써, 상기 분석 모델 각각에 대응하는 적어도 하나의 2차원 단면 영상을 생성하는 단계; 상기 2차원 단면 영상을 대응하는 상기 분석 모델에 입력하여 복수의 체성분 영역을 분할한 영상 정보를 생성하는 단계; 및 상기 영상 정보로부터 복수의 체성분의 비율 및 부피 중 적어도 하나에 대한 정보를 산출하는 단계를 포함할 수 있다.According to one aspect of the technical concept of the present disclosure, a medical image analysis method includes obtaining a 3D medical image generated by photographing a body of an examinee; generating at least one 2D cross-sectional image corresponding to each of the at least one analysis model by segmenting the medical image based on an anatomical direction corresponding to each of the at least one analysis model that has been learned; generating image information obtained by dividing a plurality of body component regions by inputting the 2D cross-sectional image to the corresponding analysis model; and calculating information on at least one of ratios and volumes of a plurality of body components from the image information.
예시적인 실시예에 따르면, 상기 의료 영상은, 3차원 컴퓨터 단층 촬영(3D-CT) 영상 및 자기 공명 영상(MRI) 중 적어도 하나를 포함할 수 있다.According to an exemplary embodiment, the medical image may include at least one of a 3D computed tomography (3D-CT) image and a magnetic resonance image (MRI).
예시적인 실시예에 따르면, 상기 의료 영상은, T1 강조 자기 공명 영상일 수 있다.According to an exemplary embodiment, the medical image may be a T1-weighted magnetic resonance image.
예시적인 실시예에 따르면, 상기 2차원 단면 영상은, 횡단면(axial) 영상, 시상면(sagittal) 영상 및 관상면(coronal) 영상 중 적어도 하나를 포함할 수 있다.According to an exemplary embodiment, the 2D cross-sectional image may include at least one of an axial image, a sagittal image, and a coronal image.
예시적인 실시예에 따르면, 상기 분석 모델은 제 1 분석 모델 및 제 2 분석 모델을 포함하고, 상기 제 1 분석 모델은, 복수의 3차원의 학습용 의료 영상으로부터 생성된 복수의 횡단면 영상을 통해 상기 체성분 영역을 분할하도록 사전 학습되고, 상기 제 2 분석 모델은, 상기 학습용 의료 영상으로부터 생성된 복수의 시상면 영상 및 관상면 영상 중 적어도 하나를 통해 상기 체성분 영역을 분할하도록 사전 학습될 수 있다.According to an exemplary embodiment, the analysis model includes a first analysis model and a second analysis model, and the first analysis model determines the body composition through a plurality of cross-sectional images generated from a plurality of three-dimensional training medical images. The second analysis model may be pre-trained to divide the body component region through at least one of a plurality of sagittal plane images and coronal plane images generated from the training medical image.
예시적인 실시예에 따르면, 상기 체성분은, 근육(muscle), 내장지방(Visceral Adipose Tissue, VAT), 피하지방(Subcutaneous Adipose Tissue, SAT), 근내지방(Intramuscular Adipose Tissue, IMAT), 골격 및 적어도 하나의 장기를 포함할 수 있다.According to an exemplary embodiment, the body component may include muscle, visceral adipose tissue (VAT), subcutaneous adipose tissue (SAT), intramuscular adipose tissue (IMAT), skeleton, and at least one may include organs of
예시적인 실시예에 따르면, 상기 체성분의 비율 및 부피 중 적어도 하나에 대한 정보를 산출하는 단계는, 상기 2차원 단면 영상 각각에 대응하여 생성된 상기 영상 정보로부터 상기 체성분 영역 각각에 대한 픽셀수를 연산하는 단계; 상기 의료 영상의 촬영 정보로부터 픽셀의 실측 크기에 대한 정보를 획득하는 단계; 및 상기 체성분 영역의 픽셀수와 상기 실측 크기에 대한 정보를 기초로 상기 체성분 각각의 부피를 산출하는 단계를 더 포함할 수 있다.According to an exemplary embodiment, the calculating of information on at least one of a ratio and a volume of the body component may include calculating the number of pixels for each body component region from the image information generated corresponding to each of the 2D sectional images. doing; obtaining information on an actually measured size of a pixel from photographing information of the medical image; and calculating the volume of each body component based on the number of pixels of the body component region and information about the measured size.
예시적인 실시예에 따르면, 상기 의료 영상으로부터 분석 대상인 적어도 하나의 신체 부위를 분할하는 단계를 더 포함하고, 상기 2차원 단면 영상을 생성하는 단계는, 상기 의료 영상 중 분할된 상기 신체 부위에 대하여 수행될 수 있다.According to an exemplary embodiment, the method further includes dividing at least one body part to be analyzed from the medical image, and generating the 2D cross-sectional image is performed on the divided body part from the medical image. It can be.
예시적인 실시예에 따르면, 상이한 상기 신체 부위로부터 각각 산출된 상기 체성분의 비율 및 부피 중 적어도 하나에 대한 정보를 비교하여, 신체 부위별 체성분 비교 정보를 생성하는 단계를 더 포함할 수 있다.According to an exemplary embodiment, the method may further include generating body component comparison information for each body part by comparing information on at least one of a ratio and a volume of the body components calculated from the different body parts.
본 개시의 기술적 사상에 의한 일 양태에 따르면, 의료 영상 분석 장치는, 적어도 하나의 프로세서; 상기 프로세서에 의해 실행 가능한 프로그램을 저장하는 메모리; 및 상기 프로세서는, 상기 프로그램을 실행함으로써, 수검자의 신체를 촬영하여 생성된 3차원의 의료 영상을 획득하고, 사전 학습된 적어도 하나의 분석 모델 각각에 대응하는 해부학적 방향에 기초하여 상기 의료 영상을 분할함으로써, 상기 분석 모델 각각에 대응하는 적어도 하나의 2차원 단면 영상을 생성하며, 상기 2차원 단면 영상을 대응하는 상기 분석 모델에 입력하여 복수의 체성분 영역을 분할한 영상 정보를 생성하고, 상기 영상 정보로부터 복수의 체성분의 비율 및 부피 중 적어도 하나에 대한 정보를 산출할 수 있다.According to one aspect of the technical concept of the present disclosure, a medical image analysis apparatus includes at least one processor; a memory for storing a program executable by the processor; and the processor, by executing the program, obtains a 3D medical image generated by photographing the examinee's body, and generates the medical image based on an anatomical direction corresponding to each of at least one pre-learned analysis model. By dividing, at least one 2D sectional image corresponding to each of the analysis models is generated, and image information obtained by dividing a plurality of body component regions is generated by inputting the 2D sectional image to the analysis model corresponding to the analysis model. Information on at least one of ratios and volumes of a plurality of body components may be calculated from the information.
본 개시의 기술적 사상에 의한 실시예들에 따른 의료 영상 분석 방법 및 장치에 따르면, 의료 영상으로부터 정량화된 체성분 분석을 제공함으로서, 사람의 시각적인 판단에만 의존하지 않아 진단의의 피로를 줄일 수 있으며, 여러 사용자마다의 주관적 판단에 의한 편차 또한 줄일 수 있다. According to the medical image analysis method and apparatus according to embodiments according to the technical idea of the present disclosure, by providing quantified body composition analysis from medical images, it is not dependent only on human visual judgment, thereby reducing the fatigue of diagnosis, Variation due to subjective judgment for each user can also be reduced.
본 개시의 기술적 사상에 따른 의료 영상 분석 방법 및 장치가 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained by the medical image analysis method and apparatus according to the technical idea of the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned are common knowledge in the art to which the present disclosure belongs from the description below. will be clearly understandable to those who have
본 개시에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.A brief description of each figure is provided in order to more fully understand the figures cited in this disclosure.
도 1은 본 개시의 실시예에 따른 의료 영상 분석 방법을 설명하기 위한 흐름도이다.1 is a flowchart illustrating a method for analyzing a medical image according to an embodiment of the present disclosure.
도 2는 도 1의 S140 단계의 실시예를 설명하기 위한 흐름도이다.FIG. 2 is a flowchart for explaining an embodiment of step S140 of FIG. 1 .
도 3 내지 도 4는 본 개시의 실시예에 따른 의료 영상 분석 방법에 의해 산출되는 체지방 분석 정보를 예시적으로 도시하는 도면이다.3 and 4 are diagrams exemplarily illustrating body fat analysis information calculated by a medical image analysis method according to an embodiment of the present disclosure.
도 5는 본 개시의 실시예에 따른 의료 영상 분석 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a method for analyzing a medical image according to an embodiment of the present disclosure.
도 6 내지 도 7은 본 개시의 실시예에 따른 의료 영상 분석 방법에 의해 산출되는 체지방 분석 정보를 예시적으로 도시하는 도면이다.6 and 7 are diagrams exemplarily illustrating body fat analysis information calculated by a medical image analysis method according to an embodiment of the present disclosure.
도 8은 본 개시의 실시예에 따른 의료 영상 분석 장치의 구성을 간략히 도시한 블록도이다.8 is a block diagram briefly illustrating the configuration of a medical image analysis apparatus according to an embodiment of the present disclosure.
본 개시의 기술적 사상은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 그러나, 이는 본 개시의 기술적 사상을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 기술적 사상의 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the technical spirit of the present disclosure may be subject to various changes and may have various embodiments, specific embodiments are illustrated in the drawings and described in detail. However, this is not intended to limit the technical spirit of the present disclosure to specific embodiments, and should be understood to include all changes, equivalents, or substitutes included in the scope of the technical spirit of the present disclosure.
본 개시의 기술적 사상을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 개시의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.In describing the technical idea of the present disclosure, if it is determined that a detailed description of a related known technology may unnecessarily obscure the subject matter of the present disclosure, the detailed description will be omitted. In addition, numbers (eg, first, second, etc.) used in the description process of the present disclosure are only identifiers for distinguishing one component from another component.
또한, 본 개시에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.In addition, in the present disclosure, when one component is referred to as "connected" or "connected" to another component, the one component may be directly connected or directly connected to the other component, but in particular Unless otherwise described, it should be understood that they may be connected or connected via another component in the middle.
또한, 본 개시에 기재된 "~부", "~기", "~자", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 프로세서(Processor), 마이크로 프로세서(Micro Processer), 마이크로 컨트롤러(Micro Controller), CPU(Central Processing Unit), GPU(Graphics Processing Unit), APU(Accelerate Processor Unit), DSP(Digital Signal Processor), ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등과 같은 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, terms such as "~ unit", "~ group", "~ character", and "~ module" described in the present disclosure mean a unit that processes at least one function or operation, which includes a processor, a micro Processor (Micro Processor), Micro Controller, CPU (Central Processing Unit), GPU (Graphics Processing Unit), APU (Accelerate Processor Unit), DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array) may be implemented by hardware or software or a combination of hardware and software.
그리고 본 개시에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.In addition, it is intended to make it clear that the classification of components in the present disclosure is merely a classification for each main function in charge of each component. That is, two or more components to be described below may be combined into one component, or one component may be divided into two or more for each more subdivided function. In addition, each component to be described below may additionally perform some or all of the functions of other components in addition to its main function, and some of the main functions of each component may be performed by other components. Of course, it may be dedicated and performed by .
본 개시의 실시예에 따른 방법은 연산 능력을 구비한 개인용 컴퓨터(Personal Computer), 워크스테이션(Work Station), 서버용 컴퓨터 장치 등에서 수행되거나 이를 위한 별도의 장치에서 수행될 수 있다. The method according to an embodiment of the present disclosure may be performed in a personal computer having computing capability, a workstation, a computer device for a server, or a separate device for this purpose.
또한, 방법은 하나 이상의 연산 장치들에서 수행될 수도 있다. 예를 들어, 본 개시의 실시예에 따른 방법(100) 중 적어도 하나 이상의 단계들은 클라이언트 디바이스에서, 다른 단계들은 서버 디바이스에서 수행될 수 있다. 이러한 경우, 클라이언트 디바이스와 서버 디바이스는 네트워크로 연결되어 연산 결과를 송수신할 수 있다. 또는, 방법(100)은 분산 컴퓨팅 기술에 의해 수행될 수도 있다.Also, the method may be performed on one or more computing devices. For example, at least one or more steps of the method 100 according to an embodiment of the present disclosure may be performed in a client device and other steps may be performed in a server device. In this case, the client device and the server device may be connected through a network to transmit and receive calculation results. Alternatively, method 100 may be performed by distributed computing technology.
이하, 본 개시의 실시예들을 차례로 상세히 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail in turn.
도 1은 본 개시의 실시예에 따른 의료 영상 분석 방법을 설명하기 위한 흐름도이고, 도 2는 도 1의 S140 단계의 실시예를 설명하기 위한 흐름도이다.1 is a flowchart for explaining a method for analyzing a medical image according to an embodiment of the present disclosure, and FIG. 2 is a flowchart for explaining an embodiment of step S140 of FIG. 1 .
S110 단계에서, 장치는 수검자의 신체를 촬영하여 생성된 3차원의 의료 영상을 획득할 수 있다.In step S110, the device may obtain a 3D medical image generated by photographing the examinee's body.
예를 들어, 의료 영상은 외부의 데이터 베이스 서버로부터 수신되거나, 장치와 유, 무선 통신을 통해 연결된 촬영 장치로부터 촬영을 통해 획득될 수 있다.For example, the medical image may be received from an external database server or may be captured by a photographing device connected to the device through wired or wireless communication.
실시예에서, 의료 영상은 수검자의 신체 전체(즉, 전신)를 촬영하여 생성된 영상일 수 있으나, 이에 한정하는 것은 아니며, 실시예에 따라, 수검자의 신체 일부를 촬영하여 생성된 영상이 이용될 수 있다.In the embodiment, the medical image may be an image generated by photographing the entire body of the examinee (ie, the entire body), but is not limited thereto, and according to an embodiment, an image generated by photographing a part of the examinee's body may be used. can
실시예에서, 의료 영상은 3차원 컴퓨터 단층 촬영(3D-CT) 영상 및 자기 공명 영상(MRI) 중 적어도 하나를 포함할 수 있다. 특히, 자기 공명 영상인 경우, T1 강조 자기 공명 영상이 적용될 수 있다. T1 강조 자기 공명 영상의 경우, 지방과 근육 사이의 명암값 차이가 높기 때문에, 이하 상술되는 분석 모델을 통한 체성분 영역의 분할 정확도를 보다 높일 수 있다.In an embodiment, the medical image may include at least one of a 3D computed tomography (3D-CT) image and a magnetic resonance image (MRI). In particular, in the case of a magnetic resonance image, a T1-weighted magnetic resonance image may be applied. In the case of a T1-weighted magnetic resonance image, since the contrast value difference between fat and muscle is high, segmentation accuracy of body component regions can be further improved through the analysis model described in detail below.
한편, 실시예에서, 방법(100)은, S110 단계 이후에, 의료 영상을 전처리하는 단계를 더 포함할 수 있다. 예를 들어, 이 단계에서, 장치는 전처리 알고리즘을 통해 의료 영상이 분석이 가능한 정상 영상인지를 1차적으로 필터링하고, 분석 모델의 입력 형식에 적합하도록 데이터의 형식을 변환할 수 있다. 또한, 장치는 영상 정규화 과정을 통해 촬영 장치의 오차 또는 잡음에 의한 명암값 편차를 보정할 수 있다. Meanwhile, in an embodiment, the method 100 may further include pre-processing the medical image after step S110. For example, in this step, the device may first filter whether the medical image is a normal image that can be analyzed through a preprocessing algorithm, and convert the data format to be suitable for the input format of the analysis model. In addition, the device may correct a contrast value deviation due to an error or noise of a photographing device through an image normalization process.
S120 단계에서, 장치는 사전 학습된 적어도 하나의 분석 모델 각각에 대응하는 해부학적 방향에 기초하여 3차원 의료 영상을 분할함으로써, 분석 모델 각각에 대응하는 적어도 하나의 2차원 단면 영상을 생성할 수 있다. 여기서, 2차원 단면 영상은 횡단면(axial) 영상, 시상면(sagittal) 영상 및 관상면(coronal) 영상 중 적어도 하나를 포함할 수 있다.In step S120, the apparatus may generate at least one 2D sectional image corresponding to each of the at least one analysis model by segmenting the 3D medical image based on the anatomical direction corresponding to each of the at least one analysis model that has been learned in advance. . Here, the 2D cross-sectional image may include at least one of an axial image, a sagittal image, and a coronal image.
실시예에서, 장치는 3차원 의료 영상에 포함된 수검자의 신체 중 적어도 일부를, 제 1 방향(예를 들어, 머리에서 다리를 향하는 방향)으로 이동하면서, 일정한 간격으로 제 1 방향에 수직하게 절단함으로써, 제 1 분석 모델에 대응하는 적어도 하나의 2차원 단면 영상(예를 들어, 횡단면 영상)을 생성할 수 있다. 또한, 실시예에서, 장치는 3차원 의료 영상에 포함된 수검자의 신체 중 적어도 일부를, 제 2 방향(예를 들어, 좌측 팔부터 오른쪽 팔 방향)으로 이동하면서, 일정한 간격으로 제 2 방향에 수직하게 절단함으로써, 제 2 분석 모델에 대응하는 적어도 하나의 2차원 단면 영상(예를 들어, 시상면 영상)을 생성할 수 있다. 또한, 실시예에서, 장치는 3차원 의료 영상에 포함된 수검자의 신체 중 적어도 일부를, 제 3 방향(예를 들어, 전면에서 후면 방향)으로 이동하면서, 일정한 간격으로 제 3 방향에 수직하게 절단함으로써, 제 3 분석 모델에 대응하는 적어도 하나의 2차원 단면 영상(예를 들어, 관상면 영상)을 생성할 수 있다. 여기서, 제 1 방향, 제 2 방향 및 제 3 방향은 서로 수직하는 방향일 수 있다In an embodiment, the device cuts at least a part of the examinee's body included in the 3D medical image perpendicularly to the first direction at regular intervals while moving in a first direction (eg, a direction from the head to the legs). By doing so, at least one 2-dimensional cross-sectional image (eg, cross-sectional image) corresponding to the first analysis model may be generated. In addition, in the embodiment, the device moves at least a part of the examinee's body included in the 3D medical image in a second direction (eg, from the left arm to the right arm), and at regular intervals perpendicular to the second direction. By cutting, at least one 2-dimensional cross-sectional image (eg, sagittal image) corresponding to the second analysis model may be generated. In addition, in the embodiment, the device cuts at least a part of the examinee's body included in the 3D medical image perpendicularly to the third direction at regular intervals while moving in a third direction (eg, from the front to the rear direction). By doing so, at least one 2-dimensional cross-sectional image (eg, coronal image) corresponding to the third analysis model may be generated. Here, the first direction, the second direction, and the third direction may be directions perpendicular to each other.
실시예에서, 분석 모델은 복수 개로 구성되며, 각각 상이한 2차원의 단면 영상에 기초하여 체성분 영역을 분할(segmentation)하도록 사전 학습될 수 있다. 예를 들어, 분석 모델은 제 1 분석 모델 및 제 2 분석 모델을 포함하고, 제 1 분석 모델은, 복수의 3차원의 학습용 의료 영상으로부터 생성된 복수의 횡단면 영상을 통해 체성분 영역을 분할하도록 사전 학습되고, 제 2 분석 모델은, 학습용 의료 영상으로부터 생성된 복수의 시상면 영상 및 관상면 영상 중 적어도 하나를 통해 체성분 영역을 분할하도록 사전 학습될 수 있다.In an embodiment, a plurality of analysis models may be configured, and each may be pre-learned to segment a body component region based on different 2D cross-sectional images. For example, the analysis model includes a first analysis model and a second analysis model, and the first analysis model is pre-trained to segment body component regions through a plurality of cross-sectional images generated from a plurality of three-dimensional training medical images. The second analysis model may be pre-trained to segment the body component region through at least one of a plurality of sagittal plane images and coronal plane images generated from the training medical images.
실시예에서, 장치는 복수의 분석 모델 중 분석에 이용될 적어도 하나의 분석 모델을 선정할 수 있다. 예를 들어, 장치는 사용자 입력에 기초하여 분석 모델을 선정하거나, 사용자가 분석 대상으로 의료 영상에 포함된 신체 중에서 전부 또는 일부 영역을 선택하면, 해당 부위의 분석에 최적화된 분석 모델을 자동으로 선정하도록 구성될 수 있다.In an embodiment, the device may select at least one analysis model to be used for analysis from among a plurality of analysis models. For example, the device selects an analysis model based on a user input, or when the user selects all or part of a body region included in a medical image as an analysis target, an analysis model optimized for analysis of the corresponding region is automatically selected. can be configured to
S130 단계에서, 생성된 2차원 단면 영상을 대응하는 분석 모델에 입력하여 복수의 체성분 영역을 분할한 영상 정보를 생성할 수 있다. 여기서, 체성분은 근육(muscle), 내장지방(Visceral Adipose Tissue, VAT), 피하지방(Subcutaneous Adipose Tissue, SAT), 근내지방(Intramuscular Adipose Tissue, IMAT), 골격 및 적어도 하나의 장기를 포함할 수 있다.In operation S130 , image information obtained by dividing a plurality of body component regions may be generated by inputting the generated 2D cross-sectional image to a corresponding analysis model. Here, the body composition may include muscle, visceral adipose tissue (VAT), subcutaneous adipose tissue (SAT), intramuscular adipose tissue (IMAT), skeleton, and at least one organ. .
분석 모델은 각각 적어도 하나의 네트워크 함수를 포함할 수 있다. 즉, 네트워크 함수가 학습 데이터를 통해 사전에 의료 영상 및/또는 이로부터 생성된 단면 영상으로부터 체성분 영역을 분할(또는, 검출)하도록 사전 학습이 수행된 것일 수 있다.Each analysis model may include at least one network function. That is, prior learning may be performed so that the network function divides (or detects) body component regions from medical images and/or cross-sectional images generated therefrom in advance through learning data.
네트워크 함수는 신경망 네트워크 및/또는 뉴럴 네트워크(neural network)와 동일한 의미로 사용될 수 있다. 뉴럴 네트워크(신경망)는 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있고, 이러한 노드들은 뉴런으로 지칭될 수 있다. 뉴럴 네트워크는 일반적으로 복수의 노드들을 포함하여 구성되며, 뉴럴 네트워크를 구성하는 노드들은 하나 이상의 링크에 의해 상호 연결될 수 있다. 이때, 뉴럴 네트워크를 구성하는 노드들 중 일부는 최초 입력 노드로부터의 거리들에 기초하여 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은 n 레이어를 구성할 수 있다. 뉴럴 네트워크는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 딥 뉴럴 네트워크(Deep Neural Network, DNN)를 포함할 수 있다.A network function may be used in the same sense as a neural network and/or a neural network. A neural network (neural network) may be composed of a set of interconnected computational units, which may be generally referred to as nodes, and these nodes may be referred to as neurons. A neural network generally includes a plurality of nodes, and the nodes constituting the neural network may be interconnected by one or more links. In this case, some of the nodes constituting the neural network may configure one layer based on distances from the first input node. For example, a set of nodes having a distance of n from the first input node may constitute n layers. The neural network may include a deep neural network (DNN) including a plurality of hidden layers in addition to an input layer and an output layer.
실시예에서, 영상 정보는 2차원 단면 영상 각각에 대하여, 분할된 각각의 체성분 영역을 상이한 색상 등을 통해 강조하여 표시한 형태일 수 있으며, 사용자 입력 등에 따라, 생성된 영상 정보가 별도로 사용자에게 제공될 수 있다.In an embodiment, the image information may be in the form of emphasizing and displaying each divided body component region with a different color for each 2D cross-sectional image, and the generated image information is separately provided to the user according to a user input. It can be.
S140 단계에서, 장치는 영상 정보로부터 복수의 체성분의 비율 및 부피 중 적어도 하나에 대한 정보를 산출할 수 있다.In step S140, the device may calculate information on at least one of ratios and volumes of a plurality of body components from the image information.
예를 들어, 장치는 영상 정보로부터 각각의 체성분 영역의 넓이를 추출하여, 이들이 조합함으로써 체성분의 부피를 각각 산출하고, 이들 간의 부피 비율에 따라 체성분의 비율에 대한 정보를 생성할 수 있다.For example, the device may extract the area of each body component region from image information, calculate the volume of each body component by combining them, and generate information about the ratio of body components according to the volume ratio between them.
실시예에서, S140 단계는 S141 단계 내지 S143 단계를 포함할 수 있다.In an embodiment, step S140 may include steps S141 to S143.
S141 단계에서, 장치는 2차원 단면 영상 각각에 대응하여 생성된 영상 정보로부터 체성분 영역 각각에 대한 픽셀수를 연산할 수 있다.In step S141, the device may calculate the number of pixels for each body component region from image information generated corresponding to each 2D cross-sectional image.
이어서, S142 단계에서, 장치는 의료 영상의 촬영 정보(예를 들어, Dicom tag 정보)로부터 픽셀의 실측 크기(가로 및 세로 길이)에 대한 정보를 획득할 수 있다.Subsequently, in step S142, the device may obtain information on the actually measured size (horizontal and vertical length) of the pixel from photographing information (eg, Dicom tag information) of the medical image.
이어서, S143 단계에서, 장치는 각 체성분 영역의 픽셀수와 실측 크기에 대한 정보를 기초로 체성분 각각의 부피를 산출할 수 있다.Next, in step S143, the device may calculate the volume of each body component based on the information about the number of pixels and the measured size of each body component region.
예를 들어, 장치는 각 체성분 영역의 픽셀수에 실측 크기를 곱하여 각 2차원 단면 영상에 포함된 체성분의 넓이를 연산할 수 있다. 그리고, 장치는 연속하는 복수의 2차원 단면 간의 배치 및 분할 간격에 기초하여, 수검자의 신체 전체 또는 일부에서 각 체성분이 차지하는 부피를 산출할 수 있다.For example, the device may calculate the area of a body component included in each 2D cross-sectional image by multiplying the number of pixels of each body component region by the measured size. In addition, the device may calculate the volume occupied by each body component in the entire or part of the examinee's body based on the arrangement and division intervals between the plurality of consecutive 2D sections.
한편, 도시되어 있지는 않지만, 방법(100)은 산출된 체성분에 대한 정보(즉, 체성분의 부피 및/또는 비율)를 사용자에게 제공하는 단계를 더 포함할 수 있다. 이때, 체성분에 대한 정보는 3차원의 의료 영상이나, 이를 재구성하여 생성된 수검자의 신체 영상 및/또는 적어도 하나의 2차원 단면 영상과 함께 제공될 수 있다. 제공되는 영상에는 각 체성분이 차지하는 영역을 사용자가 구분하여 시각적으로 식별 가능하도록 하는 다양한 방법이 적용될 수 있다.Meanwhile, although not shown, the method 100 may further include providing information on the calculated body composition (ie, volume and/or ratio of the body composition) to the user. In this case, information on the body composition may be provided along with a 3D medical image, a body image of the examinee generated by reconstructing the image, and/or at least one 2D sectional image. Various methods may be applied to the provided image so that the user can visually identify the region occupied by each body component.
도 3 내지 도 4는 본 개시의 실시예에 따른 의료 영상 분석 방법에 의해 산출되는 체지방 분석 정보를 예시적으로 도시하는 도면이다.3 and 4 are diagrams exemplarily illustrating body fat analysis information calculated by a medical image analysis method according to an embodiment of the present disclosure.
먼저, 도 3을 참조하면, 3차원 의료 영상으로부터 전체 신체에 대한 1 이상의 시상면 영상 및/또는 관상면 영상이 생성되고, 이에 기초하여 수검자의 전체 신체에서 각 체성분의 비율에 대한 정보가 산출될 수 있다. 여기서 체성분의 비율에 관한 정보는 전체에서 해당 체성분이 차지하는 비율 및/또는 2 이상의 체성분 간의 상대 비율을 포함할 수 있다. 산출된 체성분 비율은 소정의 표 형식으로 사용자(또는, 사용자 단말)에게 제공될 수 있다.First, referring to FIG. 3 , one or more sagittal plane images and/or coronal plane images of the entire body are generated from a 3D medical image, and based on this, information on the ratio of each body component in the entire body of the examinee is calculated. can Here, information on the ratio of body components may include a ratio occupied by the corresponding body component in the whole and/or a relative ratio between two or more body components. The calculated body composition ratio may be provided to the user (or user terminal) in the form of a predetermined table.
이때, 분석 모델에 의해 분할(또는, 검출)된 각 체성분 영역은 단면 영상(즉, 시상면 영상 및/또는 관상면 영상)에 소정의 방식으로 표시될 수 있다. 예를 들어, 사용자가 특정 체성분을 선택하면, 해당 체성분에 대응하는 영역이 소정의 색상으로 표시될 수 있다.In this case, each body component region segmented (or detected) by the analysis model may be displayed on a sectional image (ie, a sagittal image and/or a coronal image) in a predetermined manner. For example, when a user selects a specific body composition, an area corresponding to the corresponding body composition may be displayed in a predetermined color.
도 4를 참조하면, 3차원 의료 영상으로부터 전체 신체에 대한 1 이상의 횡단면 영상이 생성되고, 이에 기초하여 수검자의 전체 신체에서 각 체성분의 부피 및/또는 비율에 대한 정보가 산출될 수 있다. 동일하게, 산출된 체성분의 부피 및/또는 비율은 소정의 표 형식으로 사용자(또는, 사용자 단말)에게 제공될 수 있다.Referring to FIG. 4 , one or more cross-sectional images of the entire body may be generated from a 3D medical image, and information on the volume and/or ratio of each body component in the entire body of the examinee may be calculated based on the generated cross-sectional images. Similarly, the volume and/or ratio of the calculated body composition may be provided to the user (or user terminal) in a table format.
도 3에서와 유사하게, 분석 모델에 의해 분할된 각 체성분 영역은 단면 영상(즉, 횡단면 영상)에 구분하여 식별되도록 소정의 방식으로 표시될 수 있다.Similar to FIG. 3 , each body component region segmented by the analysis model may be displayed on a sectional image (ie, a cross-sectional image) in a predetermined manner so as to be identified separately.
실시예에 따라, 사용자는 소정의 입력을 통해 체성분 영역이 표시되는 단면 영상을 변경할 수 있다. 예를 들어, 수검자의 전신에 대응하는 형상이 표시되고, 이의 특정 위치를 사용자가 선택하면, 해당 위치에 대응하는 횡단면 영상에 체성분 영역이 표시되도록 구성될 수 있다.Depending on the embodiment, the user may change the cross-sectional image in which the body composition region is displayed through a predetermined input. For example, a shape corresponding to the entire body of the examinee may be displayed, and when a user selects a specific location thereof, a body component region may be displayed on a cross-sectional image corresponding to the location.
실시예에서, 체성분에 대한 정보는 신체 부위 별로 분리되어 제공될 수 있다. 예를 들어, 사용자에게 소정의 인터페이스를 제공하고, 사용자가 이를 기초로 특정 신체 부위(예를 들어, 복부)를 선택하면, 장치는 해당 신체 부위에 대응하는 2차원 단면 영상으로부터 생성된 영상 정보를 분석하여 체지방 정보를 산출하고, 이를 사용자에게 제공하도록 구성될 수 있다.In an embodiment, information on body composition may be provided separately for each body part. For example, when a predetermined interface is provided to a user and the user selects a specific body part (eg, abdomen) based on this, the device displays image information generated from a 2D sectional image corresponding to the body part. It may be configured to analyze and calculate body fat information and provide it to the user.
도 5는 본 개시의 실시예에 따른 의료 영상 분석 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a method for analyzing a medical image according to an embodiment of the present disclosure.
여기서, 도 5의 방법(500) 중 도 1을 참조하여 상술한 방법(100)과 유사한 단계는 중복되는 설명을 생략하며, 도 1에 대한 설명을 참조하기로 한다. Here, redundant descriptions of steps similar to those of the method 100 described above with reference to FIG. 1 in the method 500 of FIG. 5 will be omitted, and the description of FIG. 1 will be referred to.
S510 단계를 통해, 수검자에 대한 3차원의 의료 영상이 획득되면, S520 단계에서, 장치는 의료 영상으로부터 분석 대상인 적어도 하나의 신체 부위를 분할할 수 있다.When a 3D medical image of the examinee is acquired in step S510, in step S520, the apparatus may segment at least one body part to be analyzed from the medical image.
실시예에서, S520 단계는 사용자 입력에 기초하여 수행될 수 있다. 즉, 사용자가 소정의 인터페이스를 통해 특정 신체 부위를 분석 대상으로 설정하면, 장치는 의료 영상에서 사용자가 설정한 신체 부위를 추출하여, 다른 신체 부위로부터 분할할 수 있다. 예를 들어, 사용자는 다리, 팔, 복부 등의 1 이상의 신체 부위를 분석 대상으로 설정할 수 있다.In an embodiment, step S520 may be performed based on user input. That is, when a user sets a specific body part as an analysis target through a predetermined interface, the device extracts the body part set by the user from the medical image and divides it from other body parts. For example, the user may set one or more body parts, such as legs, arms, and abdomen, as analysis targets.
실시예에서, S520 단계는, 사전 학습된 네트워크 함수에 의해 수행될 수 있다.In an embodiment, step S520 may be performed by a pretrained network function.
S530 단계에서, 장치는 각각의 분석 모델에 대응하는 해부학적 방향으로 분석 대상으로 설정된 신체 부위를 분할함으로써, 해당 신체 부위에 대한 1 이상의 2차원 단면 영상을 생성할 수 있다.In step S530, the device may generate one or more 2D cross-sectional images of the corresponding body part by segmenting the body part set as the analysis target in an anatomical direction corresponding to each analysis model.
S540 단계 및 S550 단계에서, 장치는 2차원 단면 영상을 대응하는 분석 모델에 입력하여 복수의 체성분 영역을 분할한 영상 정보를 생성하고, 영상 정보로부터 신체 부위 각각에 포함된 복수의 체성분의 비율 및 부피 중 적어도 하나에 대한 정보를 산출할 수 있다. 실시예에서, S550 단계는, 도 2를 참조하여 상술한 S140 단계와 동일한 방식으로 수행될 수 있다.In steps S540 and S550, the device generates image information obtained by dividing a plurality of body component regions by inputting the two-dimensional cross-sectional image into a corresponding analysis model, and from the image information, the ratio and volume of the plurality of body components included in each body part. Information on at least one of them can be calculated. In an embodiment, step S550 may be performed in the same manner as step S140 described above with reference to FIG. 2 .
S560 단계에서, 장치는 신체 부위별 체성분 비교 정보를 생성할 수 있다. 즉, 사용자에 의해 복수의 신체 부위가 분석 대상으로 설정된 경우, 장치는 각 신체 부위의 체성분 부피 및/또는 비율 등의 정보를 서로 비교함으로써, 비교 정보를 생성할 수 있다.In step S560, the device may generate body composition comparison information for each body part. That is, when a plurality of body parts are set as analysis targets by the user, the device may generate comparison information by comparing information such as the body component volume and/or ratio of each body part with each other.
생성된 비교 정보는 사용자 등에 소정의 방식으로 제공될 수 있다. The generated comparison information may be provided to a user or the like in a predetermined manner.
도 6 내지 도 7은 본 개시의 실시예에 따른 의료 영상 분석 방법에 의해 산출되는 체지방 분석 정보를 예시적으로 도시하는 도면이다.6 and 7 are diagrams exemplarily illustrating body fat analysis information calculated by a medical image analysis method according to an embodiment of the present disclosure.
먼저, 도 6을 참조하면, 분석 대상으로 복부가 설정된 경우, 의료 영상으로부터 복부 영역이 분할될 수 있다. 이어서, 복부 영역으로부터 생성된 복수의 횡단면에 기초하여 수검자의 복부에 포함된 각 체성분의 비율에 대한 정보가 산출될 수 있다. 산출된 체성분 비율은 소정의 표 형식으로 사용자(또는, 사용자 단말)에게 제공될 수 있다.First, referring to FIG. 6 , when the abdomen is set as an analysis target, an abdominal region may be segmented from a medical image. Subsequently, information on the ratio of each body component included in the abdomen of the examinee may be calculated based on the plurality of cross sections generated from the abdominal region. The calculated body composition ratio may be provided to the user (or user terminal) in the form of a predetermined table.
이때, 분석 모델에 의해 분할된 각 체성분 영역은 단면 영상(즉, 횡단면 영상) 또는 의료 영상으로부터 분리된 복부 영역에 대한 3차원 영상에 구분하여 식별되도록 소정의 방식으로 표시될 수 있다.In this case, each body component region segmented by the analysis model may be displayed in a predetermined manner so as to be distinguished and identified on a cross-sectional image (ie, a cross-sectional image) or a 3D image of an abdominal region separated from a medical image.
도 7을 참조하면, 분석 대상으로 양팔이 설정된 경우, 의료 영상으로부터 양쪽 팔에 해당하는 영역이 분할될 수 있다. 이어서, 양팔로부터 각각 생성된 복수의 횡단면에 기초하여 수검자의 왼쪽 팔과 오른쪽 팔에 포함된 각 체성분의 비율에 대한 정보가 산출될 수 있다. 이어서, 양팔의 체성분의 비율을 비교하는 비교 정보가 생성되고, 이러한 비교 정보는 소정의 표 형식으로 사용자(또는, 사용자 단말)에게 제공될 수 있다.Referring to FIG. 7 , when both arms are set as analysis targets, regions corresponding to both arms may be segmented from a medical image. Subsequently, information on the ratio of each body component included in the examinee's left arm and right arm may be calculated based on a plurality of cross sections respectively generated from both arms. Subsequently, comparison information for comparing the body composition ratios of both arms is generated, and such comparison information may be provided to a user (or user terminal) in a predetermined table format.
분석 모델에 의해 분할된 각 체성분 영역은 단면 영상 또는 의료 영상으로부터 분리된 각 팔에 대한 3차원 영상에 구분하여 식별되도록 소정의 방식으로 표시될 수 있다.Each body component region segmented by the analysis model may be displayed in a predetermined manner in a 3D image of each arm separated from a sectional image or a medical image to be identified separately.
도 8은 본 개시의 실시예에 따른 의료 영상 분석 장치의 구성을 간략히 도시한 블록도이다.8 is a block diagram briefly illustrating the configuration of a medical image analysis apparatus according to an embodiment of the present disclosure.
통신부(810)는 의료 영상 분석을 수행하기 위한 입력 데이터(의료 영상 등)를 수신할 수 있다. 통신부(810)는 유무선 통신부를 포함할 수 있다. 통신부(810)가 유선 통신부를 포함하는 경우, 통신부(810)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(Mobile Radio Communication Network), 위성 통신망 및 이들의 상호 조합을 통하여 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 또한, 통신부(810)가 무선 통신부를 포함하는 경우, 통신부(810)는 셀룰러 통신, 무선랜(예를 들어, 와이-파이(Wi-Fi)) 등을 이용하여 무선으로 데이터 또는 신호를 송수신할 수 있다. 실시예에서, 통신부는 프로세서(840)의 제어에 의해 외부 장치 또는 외부 서버와 데이터 또는 신호를 송수신할 수 있다. The communication unit 810 may receive input data (medical images, etc.) for performing medical image analysis. The communication unit 810 may include a wired/wireless communication unit. When the communication unit 810 includes a wired communication unit, the communication unit 810 may include a local area network (LAN), a wide area network (WAN), a value added network (VAN), and a mobile communication network ( Mobile Radio Communication Network), a satellite communication network, and one or more components that enable communication through a mutual combination thereof. In addition, when the communication unit 810 includes a wireless communication unit, the communication unit 810 transmits and receives data or signals wirelessly using cellular communication, a wireless LAN (eg, Wi-Fi), and the like. can In an embodiment, the communication unit may transmit/receive data or signals with an external device or an external server under the control of the processor 840 .
입력부(820)는 외부의 조작을 통해 다양한 사용자 명령을 수신할 수 있다. 이를 위해, 입력부(820)는 하나 이상의 입력 장치를 포함하거나 연결할 수 있다. 예를 들어, 입력부(820)는 키패드, 마우스 등 다양한 입력을 위한 인터페이스와 연결되어 사용자 명령을 수신할 수 있다. 이를 위해, 입력부(820)는 USB 포트 뿐만 아니라 선더볼트 등의 인터페이스를 포함할 수도 있다. 또한, 입력부(820)는 터치스크린, 버튼 등의 다양한 입력 장치를 포함하거나 이들과 결합하여 외부의 사용자 명령을 수신할 수 있다.The input unit 820 may receive various user commands through external manipulation. To this end, the input unit 820 may include or connect one or more input devices. For example, the input unit 820 may be connected to various input interfaces such as a keypad and a mouse to receive user commands. To this end, the input unit 820 may include an interface such as a thunderbolt as well as a USB port. In addition, the input unit 820 may receive an external user command by including or combining various input devices such as a touch screen and buttons.
메모리(830)는 프로세서(840)의 동작을 위한 프로그램 및/또는 프로그램 명령을 저장할 수 있고, 입/출력되는 데이터들을 임시 또는 영구 저장할 수 있다. 메모리(830)는 플래시 메모리(flash memory) 타입, 하드디스크(hard disk) 타입, 멀티미디어 카드 마이크로(multimedia card micro) 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM), SRAM, 롬(ROM), EEPROM, PROM, 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 830 may store programs and/or program commands for operation of the processor 840 and may temporarily or permanently store input/output data. The memory 830 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), RAM , SRAM, ROM (ROM), EEPROM, PROM, magnetic memory, a magnetic disk, it may include at least one type of storage medium.
또한, 메모리(830)는 다양한 네트워크 함수 및 알고리즘을 저장할 수 있으며, 장치(700)를 구동하고 제어하기 위한 다양한 데이터, 프로그램(하나 이상이 인스트럭션들), 어플리케이션, 소프트웨어, 명령, 코드 등을 저장할 수 있다.In addition, the memory 830 may store various network functions and algorithms, and may store various data, programs (one or more instructions), applications, software, commands, codes, etc. for driving and controlling the device 700. there is.
프로세서(840)는 장치(800)의 전반적인 동작을 제어할 수 있다. 프로세서(840)는 메모리(830)에 저장되는 하나 이상의 프로그램들을 실행할 수 있다. 프로세서(840)는 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphics Processing Unit, GPU) 또는 본 개시의 기술적 사상에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다.The processor 840 may control the overall operation of the device 800 . Processor 840 may execute one or more programs stored in memory 830 . The processor 840 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to the technical idea of the present disclosure are performed.
실시예에서, 프로세서(840)는 수검자의 신체를 촬영하여 생성된 3차원의 의료 영상을 획득하고, 사전 학습된 적어도 하나의 분석 모델 각각에 대응하는 해부학적 방향에 기초하여 상기 의료 영상을 분할함으로써, 상기 분석 모델 각각에 대응하는 적어도 하나의 2차원 단면 영상을 생성하며, 상기 2차원 단면 영상을 대응하는 상기 분석 모델에 입력하여 복수의 체성분 영역을 분할한 영상 정보를 생성하고, 상기 영상 정보로부터 복수의 체성분의 비율 및 부피 중 적어도 하나에 대한 정보를 산출할 수 있다.In an embodiment, the processor 840 obtains a 3D medical image generated by photographing the examinee's body, and divides the medical image based on an anatomical direction corresponding to each of at least one pre-learned analysis model. , At least one 2D cross-sectional image corresponding to each of the analysis models is generated, and image information obtained by dividing a plurality of body component regions is generated by inputting the 2-dimensional cross-sectional image to the corresponding analysis model, and from the image information Information on at least one of ratios and volumes of a plurality of body components may be calculated.
실시예에서, 프로세서(840)는 상기 2차원 단면 영상 각각에 대응하여 생성된 상기 영상 정보로부터 상기 체성분 영역 각각에 대한 픽셀수를 연산하고, 상기 의료 영상의 촬영 정보로부터 픽셀의 실측 크기에 대한 정보를 획득하며, 상기 체성분 영역의 픽셀수와 상기 실측 크기에 대한 정보를 기초로 상기 체성분 각각의 부피를 산출할 수 있다.In an embodiment, the processor 840 calculates the number of pixels for each of the body component regions from the image information generated corresponding to each of the 2D cross-sectional images, and information about the actually measured size of a pixel from the photographing information of the medical image. is obtained, and the volume of each body component can be calculated based on the number of pixels of the body component region and information on the measured size.
실시예에서, 프로세서(840)는 의료 영상으로부터 분석 대상인 적어도 하나의 신체 부위를 분할하고, 상기 의료 영상 중 분할된 상기 신체 부위에 대하여 상기 2차원 단면 영상을 생성할 수 있다.In an embodiment, the processor 840 may divide at least one body part to be analyzed from the medical image, and generate the 2D cross-sectional image of the divided body part from the medical image.
실시예에서, 프로세서(840)는 상이한 상기 신체 부위로부터 각각 산출된 상기 체성분의 비율 및 부피 중 적어도 하나에 대한 정보를 비교하여, 신체 부위별 체성분 비교 정보를 생성할 수 있다.In an embodiment, the processor 840 may generate body component comparison information for each body part by comparing information on at least one of a ratio and a volume of the body components calculated from the different body parts.
본 개시의 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 개시를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to an embodiment of the present disclosure may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the medium may be those specially designed and configured for the purpose of the present disclosure, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.
또한, 개시된 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.In addition, the method according to the disclosed embodiments may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities.
컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.A computer program product may include a S/W program and a computer-readable storage medium in which the S/W program is stored. For example, a computer program product may include a product in the form of a S/W program (eg, a downloadable app) that is distributed electronically through a manufacturer of an electronic device or an electronic marketplace (eg, Google Play Store, App Store). there is. For electronic distribution, at least a part of the S/W program may be stored in a storage medium or temporarily generated. In this case, the storage medium may be a storage medium of a manufacturer's server, an electronic market server, or a relay server temporarily storing SW programs.
컴퓨터 프로그램 제품은, 서버 및 클라이언트 장치로 구성되는 시스템에서, 서버의 저장매체 또는 클라이언트 장치의 저장매체를 포함할 수 있다. 또는, 서버 또는 클라이언트 장치와 통신 연결되는 제 3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제 3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 클라이언트 장치 또는 제 3 장치로 전송되거나, 제 3 장치로부터 클라이언트 장치로 전송되는 S/W 프로그램 자체를 포함할 수 있다.A computer program product may include a storage medium of a server or a storage medium of a client device in a system composed of a server and a client device. Alternatively, if there is a third device (eg, a smart phone) that is communicatively connected to the server or the client device, the computer program product may include a storage medium of the third device. Alternatively, the computer program product may include a S/W program itself transmitted from the server to the client device or the third device or from the third device to the client device.
이 경우, 서버, 클라이언트 장치 및 제 3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 클라이언트 장치 및 제 3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.In this case, one of the server, the client device and the third device may execute the computer program product to perform the method according to the disclosed embodiments. Alternatively, two or more of the server, the client device, and the third device may execute the computer program product to implement the method according to the disclosed embodiments in a distributed manner.
예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 클라이언트 장치가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.For example, a server (eg, a cloud server or an artificial intelligence server) may execute a computer program product stored in the server to control a client device communicatively connected to the server to perform a method according to the disclosed embodiments.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 개시의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 개시의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 개시의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present disclosure is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present disclosure defined in the following claims are also within the scope of the present disclosure. belongs to

Claims (11)

  1. 의료 영상 분석 방법에 있어서,In the medical image analysis method,
    수검자의 신체를 촬영하여 생성된 3차원의 의료 영상을 획득하는 단계;obtaining a 3D medical image generated by photographing the examinee's body;
    사전 학습된 적어도 하나의 분석 모델 각각에 대응하는 해부학적 방향에 기초하여 상기 의료 영상을 분할함으로써, 상기 분석 모델 각각에 대응하는 적어도 하나의 2차원 단면 영상을 생성하는 단계;generating at least one 2D cross-sectional image corresponding to each of the at least one analysis model by segmenting the medical image based on an anatomical direction corresponding to each of the at least one analysis model that has been learned;
    상기 2차원 단면 영상을 대응하는 상기 분석 모델에 입력하여 복수의 체성분 영역을 분할한 영상 정보를 생성하는 단계; 및generating image information obtained by dividing a plurality of body component regions by inputting the 2D cross-sectional image to the corresponding analysis model; and
    상기 영상 정보로부터 복수의 체성분의 비율 및 부피 중 적어도 하나에 대한 정보를 산출하는 단계를 포함하는, 방법.And calculating information on at least one of ratios and volumes of a plurality of body components from the image information.
  2. 제 1 항에 있어서,According to claim 1,
    상기 의료 영상은, 3차원 컴퓨터 단층 촬영(3D-CT) 영상 및 자기 공명 영상(MRI) 중 적어도 하나를 포함하는, 방법.The method of claim 1 , wherein the medical image includes at least one of a three-dimensional computed tomography (3D-CT) image and a magnetic resonance image (MRI).
  3. 제 1 항에 있어서,According to claim 1,
    상기 의료 영상은, T1 강조 자기 공명 영상인, 방법.The method of claim 1 , wherein the medical image is a T1 weighted magnetic resonance image.
  4. 제 1 항에 있어서, According to claim 1,
    상기 2차원 단면 영상은, 횡단면(axial) 영상, 시상면(sagittal) 영상 및 관상면(coronal) 영상 중 적어도 하나를 포함하는, 방법.The 2D cross-sectional image includes at least one of an axial image, a sagittal image, and a coronal image.
  5. 제 1 항에 있어서,According to claim 1,
    상기 분석 모델은 제 1 분석 모델 및 제 2 분석 모델을 포함하고,The analysis model includes a first analysis model and a second analysis model,
    상기 제 1 분석 모델은, 복수의 3차원의 학습용 의료 영상으로부터 생성된 복수의 횡단면 영상을 통해 상기 체성분 영역을 분할하도록 사전 학습되고,The first analysis model is pretrained to segment the body component region through a plurality of cross-sectional images generated from a plurality of three-dimensional training medical images;
    상기 제 2 분석 모델은, 상기 학습용 의료 영상으로부터 생성된 복수의 시상면 영상 및 관상면 영상 중 적어도 하나를 통해 상기 체성분 영역을 분할하도록 사전 학습되는, 방법. The second analysis model is pre-learned to segment the body component region through at least one of a plurality of sagittal plane images and coronal plane images generated from the training medical images.
  6. 제 1 항에 있어서,According to claim 1,
    상기 체성분은, 근육(muscle), 내장지방(Visceral Adipose Tissue, VAT), 피하지방(Subcutaneous Adipose Tissue, SAT), 근내지방(Intramuscular Adipose Tissue, IMAT), 골격 및 적어도 하나의 장기를 포함하는, 방법.The body composition includes muscle, visceral adipose tissue (VAT), subcutaneous adipose tissue (SAT), intramuscular adipose tissue (IMAT), skeleton, and at least one organ. .
  7. 제 1 항에 있어서,According to claim 1,
    상기 체성분의 비율 및 부피 중 적어도 하나에 대한 정보를 산출하는 단계는,Calculating information on at least one of the ratio and volume of the body composition,
    상기 2차원 단면 영상 각각에 대응하여 생성된 상기 영상 정보로부터 상기 체성분 영역 각각에 대한 픽셀수를 연산하는 단계;calculating the number of pixels for each of the body component regions from the image information generated corresponding to each of the 2D sectional images;
    상기 의료 영상의 촬영 정보로부터 픽셀의 실측 크기에 대한 정보를 획득하는 단계; 및obtaining information on an actually measured size of a pixel from photographing information of the medical image; and
    상기 체성분 영역의 픽셀수와 상기 실측 크기에 대한 정보를 기초로 상기 체성분 각각의 부피를 산출하는 단계를 더 포함하는, 방법.The method further comprises calculating a volume of each of the body components based on the number of pixels of the body component region and the information about the measured size.
  8. 제 1 항에 있어서,According to claim 1,
    상기 의료 영상으로부터 분석 대상인 적어도 하나의 신체 부위를 분할하는 단계를 더 포함하고,Segmenting at least one body part to be analyzed from the medical image;
    상기 2차원 단면 영상을 생성하는 단계는, 상기 의료 영상 중 분할된 상기 신체 부위에 대하여 수행되는, 방법.The generating of the 2D cross-sectional image is performed on the segmented body part in the medical image.
  9. 제 8 항에 있어서,According to claim 8,
    상이한 상기 신체 부위로부터 각각 산출된 상기 체성분의 비율 및 부피 중 적어도 하나에 대한 정보를 비교하여, 신체 부위별 체성분 비교 정보를 생성하는 단계를 더 포함하는, 방법.The method further comprising generating body component comparison information for each body part by comparing information on at least one of a ratio and a volume of the body components calculated from the different body parts.
  10. 의료 영상 분석 장치에 있어서,In the medical image analysis device,
    적어도 하나의 프로세서;at least one processor;
    상기 프로세서에 의해 실행 가능한 프로그램을 저장하는 메모리; 및a memory for storing a program executable by the processor; and
    상기 프로세서는, 상기 프로그램을 실행함으로써, 수검자의 신체를 촬영하여 생성된 3차원의 의료 영상을 획득하고, 사전 학습된 적어도 하나의 분석 모델 각각에 대응하는 해부학적 방향에 기초하여 상기 의료 영상을 분할함으로써, 상기 분석 모델 각각에 대응하는 적어도 하나의 2차원 단면 영상을 생성하며, 상기 2차원 단면 영상을 대응하는 상기 분석 모델에 입력하여 복수의 체성분 영역을 분할한 영상 정보를 생성하고, 상기 영상 정보로부터 복수의 체성분의 비율 및 부피 중 적어도 하나에 대한 정보를 산출하는, 장치.The processor, by executing the program, acquires a three-dimensional medical image generated by photographing the examinee's body, and divides the medical image based on an anatomical direction corresponding to each of at least one pre-learned analysis model. By doing so, at least one 2D sectional image corresponding to each of the analysis models is generated, and image information obtained by dividing a plurality of body component regions is generated by inputting the 2D sectional image to the corresponding analysis model, and the image information An apparatus for calculating information on at least one of ratios and volumes of a plurality of body components from
  11. 제 1 항 내지 제 9 항 중 어느 한 항의 방법을 실행하기 위하여 기록 매체에 저장된 컴퓨터 프로그램.A computer program stored in a recording medium to execute the method of any one of claims 1 to 9.
PCT/KR2022/008379 2022-02-25 2022-06-14 Method and apparatus for analyzing medical image WO2023163287A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0024899 2022-02-25
KR1020220024899A KR102525396B1 (en) 2022-02-25 2022-02-25 Method and apparatus for analyzing medical image

Publications (1)

Publication Number Publication Date
WO2023163287A1 true WO2023163287A1 (en) 2023-08-31

Family

ID=86100576

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/008379 WO2023163287A1 (en) 2022-02-25 2022-06-14 Method and apparatus for analyzing medical image

Country Status (2)

Country Link
KR (1) KR102525396B1 (en)
WO (1) WO2023163287A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101063594B1 (en) * 2009-07-09 2011-09-07 연세대학교 산학협력단 Abdominal visceral fat measuring device
KR102144672B1 (en) * 2020-01-17 2020-08-14 성균관대학교산학협력단 Artificial intelligence ultrasound-medical-diagnosis apparatus using semantic segmentation and remote medical-diagnosis method using the same
KR20200133593A (en) * 2019-05-20 2020-11-30 주식회사 힐세리온 Ai-automatic ultrasound diagnosis apparatus for liver steatosis and remote medical-diagnosis method using the same
KR102321427B1 (en) * 2021-01-20 2021-11-04 메디컬아이피 주식회사 Method and apparatus for analyzing body composition using medical image
KR20220011488A (en) * 2020-07-21 2022-01-28 서울대학교산학협력단 Apparatus and method for analyzing body compositions based on ct image

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180038251A (en) * 2016-10-06 2018-04-16 주식회사 제니스헬스케어 Measuring system machine learning body composition
KR101981202B1 (en) * 2018-12-11 2019-05-22 메디컬아이피 주식회사 Method and apparatus for reconstructing medical image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101063594B1 (en) * 2009-07-09 2011-09-07 연세대학교 산학협력단 Abdominal visceral fat measuring device
KR20200133593A (en) * 2019-05-20 2020-11-30 주식회사 힐세리온 Ai-automatic ultrasound diagnosis apparatus for liver steatosis and remote medical-diagnosis method using the same
KR102144672B1 (en) * 2020-01-17 2020-08-14 성균관대학교산학협력단 Artificial intelligence ultrasound-medical-diagnosis apparatus using semantic segmentation and remote medical-diagnosis method using the same
KR20220011488A (en) * 2020-07-21 2022-01-28 서울대학교산학협력단 Apparatus and method for analyzing body compositions based on ct image
KR102321427B1 (en) * 2021-01-20 2021-11-04 메디컬아이피 주식회사 Method and apparatus for analyzing body composition using medical image

Also Published As

Publication number Publication date
KR102525396B1 (en) 2023-04-27

Similar Documents

Publication Publication Date Title
CN111402228B (en) Image detection method, device and computer readable storage medium
CN110473192A (en) Digestive endoscope image recognition model training and recognition methods, apparatus and system
Tsoli et al. Model-based anthropometry: Predicting measurements from 3D human scans in multiple poses
CN103222848A (en) Image processing apparatus, and image processing method
JP2022517769A (en) 3D target detection and model training methods, equipment, equipment, storage media and computer programs
WO2021120961A1 (en) Brain addiction structure map evaluation method and apparatus
CN109745046A (en) A kind of electrical impedance imaging electrode and system suitable under motion state
WO2022145841A1 (en) Method for interpreting lesion and apparatus therefor
KR20210121615A (en) Method for analyzing shape of respiratory tract for diagnosis of sleep apnea and apparatus thereof
WO2023095989A1 (en) Method and device for analyzing multimodality medical images for cerebral disease diagnosis
US9883817B2 (en) Management, assessment and treatment planning for inflammatory bowel disease
Xu et al. Automatic classification of male and female skeletal muscles using ultrasound imaging
WO2023163287A1 (en) Method and apparatus for analyzing medical image
CN115169067A (en) Brain network model construction method and device, electronic equipment and medium
US11416653B2 (en) Numerical model of the human head
WO2023282389A1 (en) Fat mass calculation method using head and neck image and device for same
CN116705300A (en) Medical decision assistance method, system and storage medium based on sign data analysis
Diez et al. Deep reinforcement learning for detection of abnormal anatomies
CN114494132A (en) Disease classification system based on deep learning and fiber bundle spatial statistical analysis
WO2023058837A1 (en) Method for detecting diaphragm from chest image, and apparatus therefor
KR20230049938A (en) Method and apparatus for quantitative analysis of emphysema
CN115170401A (en) Image completion method, device, equipment and storage medium
CN113792740A (en) Arteriovenous segmentation method, system, equipment and medium for fundus color photography
WO2023282388A1 (en) Method and apparatus for providing information necessary for diagnosing lymph node metastasis of thyroid cancer
Petitjean et al. Quantification of myocardial function using tagged MR and cine MR images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22929038

Country of ref document: EP

Kind code of ref document: A1