KR20230050319A - Systems and methods for artificial intelligence based image analysis for detection and characterization of lesions - Google Patents

Systems and methods for artificial intelligence based image analysis for detection and characterization of lesions Download PDF

Info

Publication number
KR20230050319A
KR20230050319A KR1020237003954A KR20237003954A KR20230050319A KR 20230050319 A KR20230050319 A KR 20230050319A KR 1020237003954 A KR1020237003954 A KR 1020237003954A KR 20237003954 A KR20237003954 A KR 20237003954A KR 20230050319 A KR20230050319 A KR 20230050319A
Authority
KR
South Korea
Prior art keywords
hotspot
processor
volume
hotspots
map
Prior art date
Application number
KR1020237003954A
Other languages
Korean (ko)
Inventor
요한 마틴 브리놀프슨
케르스틴 엘사 마리아 존슨
하니카 마리아 엘레오노라 살슈테트
옌스 필립 안드레아스 리히터
Original Assignee
엑시니 다이어그노스틱스 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/008,411 external-priority patent/US11721428B2/en
Application filed by 엑시니 다이어그노스틱스 에이비 filed Critical 엑시니 다이어그노스틱스 에이비
Publication of KR20230050319A publication Critical patent/KR20230050319A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10108Single photon emission computed tomography [SPECT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/032Recognition of patterns in medical or anatomical images of protuberances, polyps nodules, etc.

Abstract

양전자 방출 단층 촬영(PET) 및 단일 광자 방출 컴퓨터 단층 촬영(SPECT) 영상들과 같은 핵의학 영상들의 자동 분석을 통해 대상체 내의 병변들의 개선된 검출 및 특성화를 제공하는 시스템들 및 방법들이 본 출원에서 제시된다. 특히, 특정 실시 형태들에서, 본 출원에서 기재된 접근법들은 인공 지능(AI)을 활용하여 대상체 내의 잠재적인 암성 병변들을 나타내는 핫스팟들에 대응하는 3D 핵의학 영상들의 영역들을 검출한다. 기계 학습 모듈들은 영상 내의 이러한 영역들의 존재 및 위치들을 검출하는 데 사용될 수 있을 뿐만 아니라 병변에 대응하는 영역을 분할하고/하거나 진정한 기저 암성 병변을 나타낼 가능성에 기초하여 이러한 핫스팟들을 분류하는 데 사용될 수 있다. 이러한 AI 기반 병변 검출, 분할 및 분류는 병변들, 전반적인 종양 부하, 및 질병 중증도 및 위험 추정의 추가적인 특성화를 위한 기초를 제공할 수 있다.Presented herein are systems and methods that provide improved detection and characterization of lesions in a subject through automated analysis of nuclear medicine images, such as positron emission tomography (PET) and single photon emission computed tomography (SPECT) images. do. In particular, in certain embodiments, the approaches described herein utilize artificial intelligence (AI) to detect regions of 3D nuclear medicine images that correspond to hotspots indicative of potentially cancerous lesions within a subject. Machine learning modules can be used to detect the presence and locations of these regions in an image, as well as segment the region corresponding to a lesion and/or classify these hotspots based on their likelihood of representing a true underlying cancerous lesion. . Such AI-based lesion detection, segmentation and classification can provide a basis for further characterization of lesions, overall tumor burden, and disease severity and risk estimation.

Description

병변들의 검출 및 특성화를 위한 인공 지능 기반 영상 분석을 위한 시스템들 및 방법들Systems and methods for artificial intelligence based image analysis for detection and characterization of lesions

[0001] 본 출원은 2020년 7월 6일자로 제출된 미국 가특허 출원 번호 제 63/048,436호, 2020년 8월 31일자로 제출된 미국 가특허 출원 번호 제17/008,411호, 2020년 12월 18일자로 제출된 미국 정규 특허 출원 번호 제63/127,666호 및 2021년 6월 10일자로 제출된 미국 가특허 출원 번호 제63/209,317호에 대한 우선권 및 그 이익을 청구하며, 이로써 해당 출원들 각각의 내용은 그 전체가 본 출원에 참조로 포함된다. [0001] This application is filed with U.S. Provisional Patent Application No. 63/048,436, filed Jul. 6, 2020, and U.S. Provisional Patent Application No. 17/008,411, filed Aug. 31, 2020, Dec. 2020 U.S. Provisional Patent Application No. 63/127,666, filed on June 18, and U.S. Provisional Patent Application No. 63/209,317, filed on June 10, 2021, hereby claim priority to, and the benefit of, each of those applications The contents of are incorporated by reference into this application in their entirety.

[0002] 본 발명은 일반적으로 의료 영상 데이터의 생성, 분석 및/또는 표현을 위한 시스템들 및 방법들에 관한 것이다. 보다 구체적으로, 특정 실시 형태들에서, 본 발명은 암성 병변들을 식별 및/또는 특성화하기 위해 의료 영상들의 자동 분석을 위한 시스템들 및 방법들에 관한 것이다. [0002] The present invention relates generally to systems and methods for generating, analyzing and/or presenting medical imaging data. More specifically, in certain embodiments, the present invention relates to systems and methods for automated analysis of medical images to identify and/or characterize cancerous lesions.

[0003] 핵의학 영상 촬영(nuclear medicine imaging)은 방사성 의약품이라고 하는 방사성 라벨링된(radiolabeled) 화합물의 사용을 포함한다. 방사성 의약품은 환자들에게 투여되고 암과 같은 질병의 존재 및/또는 상태에 의해 영향을 받는 조직의 생물리학적 및/또는 생화학적 특성들에 의존하여 나타내는 방식으로 신체의 다양한 영역들에 축적된다. 예를 들어, 특정 방사성 의약품은 환자에게 투여된 후 전이를 나타내는 악성 뼈 병변들과 관련된 비정상적인 골형성 영역들에 축적된다. 다른 방사성 의약품은 질병의 진화 동안 변경되는 신체의 특정 수용체들, 효소들 및 단백질들에 결합할 수 있다. 이들 분자들은 환자에게 투여된 후 의도된 표적을 찾을 때까지 혈액 내에서 순환한다. 결합된 방사성 의약품은 질병 부위에 남아 있는 반면, 나머지 제제는 신체로부터 제거된다. [0003] Nuclear medicine imaging involves the use of radiolabeled compounds called radiopharmaceuticals. Radiopharmaceuticals are administered to patients and accumulate in various areas of the body in a manner dependent on the biophysical and/or biochemical properties of tissues affected by the presence and/or condition of a disease such as cancer. For example, certain radiopharmaceuticals, after being administered to a patient, accumulate in areas of abnormal bone formation associated with malignant bone lesions that exhibit metastases. Other radiopharmaceuticals may bind to specific receptors, enzymes and proteins in the body that are altered during the evolution of disease. After these molecules are administered to a patient, they circulate in the blood until they find their intended target. The bound radiopharmaceutical remains at the site of disease, while the remainder of the agent is eliminated from the body.

[0004] 핵의학 영상 촬영 기술들은 방사성 의약품의 방사성 부분으로부터 방출되는 방사선을 검출하여 영상들을 캡처한다. 축적된 방사성 의약품은 일반적으로 이용 가능한 핵의학 기법들을 사용하여 질병 위치와 농도를 묘사하는 영상을 획득할 수 있도록 비콘(beacon)으로서 역할을 한다. 핵의학 영상 촬영 기법들의 예들은 뼈 스캔 영상 촬영 (섬광조영술(scintigraphy)이라고도 함), 단일 광자 방출 컴퓨터 단층촬영(SPECT) 및 양전자 방출 단층촬영(PET)을 포함한다. 뼈 스캔, SPECT 및 PET 영상 촬영 시스템은 전세계적으로 대부분의 병원들에서 발견될 수 있다. 특정 영상 촬영 기법의 선택은 사용되는 특정 방사성 의약품에 의존하고/하거나 지시된다. 예를 들어, 테크네튬(technetium) 99 m(99 mTc) 라벨링된(labeled) 화합물들은 뼈 스캔 영상 촬영 및 SPECT 영상 촬영과 호환되는 반면, PET 영상 촬영은 종종 18F 라벨링된 플루오르화 화합물들을 사용한다. 화합물 99 mTc 메틸렌디포스포네이트 (methylenediphosphonate)(99 mTc MDP)는 전이암을 검출하기 위해 뼈 스캔 영상 촬영에 사용되는 인기 있는 방사성 의약품이다. 99 mTc 라벨링된 1404 및 PyLTM ([18F]DCFPyL이라고도 함)과 같은 방사성 라벨링된 전립선 특이적 항원(PSMA) 표적화 화합물들은 각각 SPECT 및 PET 영상 촬영과 함께 사용될 수 있으며 고도로 특이적인 전립선암 검출에 대한 가능성을 제공한다. [0004] Nuclear medicine imaging techniques capture images by detecting radiation emitted from a radioactive portion of a radiopharmaceutical. Accumulated radiopharmaceuticals act as beacons so that images depicting disease location and concentration can be obtained using commonly available nuclear medicine techniques. Examples of nuclear medicine imaging techniques include bone scan imaging (also called scintigraphy), single photon emission computed tomography (SPECT) and positron emission tomography (PET). Bone scan, SPECT and PET imaging systems can be found in most hospitals worldwide. The selection of a particular imaging technique depends on and/or is dictated by the particular radiopharmaceutical being used. For example, while technetium 99 m ( 99 m Tc ) labeled compounds are compatible with bone scan imaging and SPECT imaging, PET imaging often uses 18F labeled fluorinated compounds. The compound 99 m Tc methylenediphosphonate ( 99 m Tc MDP) is a popular radiopharmaceutical used in bone scan imaging to detect metastases. Radioactively labeled prostate specific antigen (PSMA) targeting compounds such as 99 m Tc-labeled 1404 and PyL TM (also known as [ 18 F]DCFPyL) can be used in conjunction with SPECT and PET imaging, respectively, for highly specific prostate cancer detection. provides the possibility for

[0005] 따라서 핵의학 영상 촬영은 의사들에게 환자의 질병의 존재와 정도를 결정하는 데 사용될 수 있는 정보를 제공하기 위한 귀중한 기술이다. 의사는 이 정보를 사용하여 환자에게 권장되는 치료 과정을 제공하고 질병의 진행을 추적할 수 있다. [0005] Thus, nuclear medicine imaging is a valuable technique for providing physicians with information that can be used to determine the presence and extent of a patient's disease. Doctors can use this information to provide patients with recommended courses of treatment and to track disease progression.

[0006] 예를 들어, 종양 전문의는 환자가 특정 질병 예를 들어, 전립선암이 있는지 여부, 질병의 어떤 병기가 분명한지, 권장되는 치료 과정이 (있다면) 무엇인지, 외과적 개입이 포함되는지 여부 및 예후 가능성 여부에 대한 평가에서 환자 연구에서 핵의학 영상들을 입력하여 사용할 수 있다. 종양 전문의는 이 평가에서 방사선과 의사 보고서를 사용할 수 있다. 방사선과 의사 보고서는 영상 촬영 연구를 요청한 의사를 위해 방사선 의사에 의해 준비된 핵의학 영상에 대한 기술적 평가이며 예를 들어, 수행된 연구의 유형, 임상 병력, 영상들 사이 비교, 연구를 수행하는 데 사용된 기술, 방사선과 의사의 관찰 및 소견 뿐만 아니라, 방사선과 의사가 영상 촬영 연구 결과에 기초하여 가질 수 있는 전반적인 인상 및 권장 사항이 포함된다. 서명된 방사선과 의사 보고서는 의사의 검토를 위해 연구를 지시하는 의사에게 전송되며, 그 다음에 결과 및 치료 권장 사항에 대해 의사와 환자 사이의 논의가 이어진다. [0006] For example, an oncologist can determine whether a patient has a particular disease, such as prostate cancer, what stage of the disease is evident, what (if any) recommended course of treatment, whether surgical intervention is involved. In addition, nuclear medicine images can be input and used in patient research in evaluating the possibility of prognosis. The oncologist may use the radiologist's report in this evaluation. A radiologist report is a descriptive evaluation of nuclear medicine images prepared by a radiologist for a physician requesting an imaging study, including, for example, the type of study performed, clinical history, comparisons between images, and information used to conduct the study. It includes techniques, radiologist observations and opinions, as well as overall impressions and recommendations that radiologists may have based on the results of imaging studies. The signed radiologist report is sent to the physician directing the study for physician review, followed by discussion between physician and patient about the results and treatment recommendations.

[0007] 따라서, 이 과정에는 방사선과 의사가 환자에 대한 영상 촬영 연구를 수행하고, 획득한 영상들을 분석하고, 방사선과 의사 보고서를 작성하고, 요청한 의사에게 보고서를 전달하고, 의사가 평가 및 치료 권장 사항을 공식화하고, 의사가 결과, 권장 사항 및 환자에 대한 위험들을 알리는 것을 포함한다. 이 과정은 결정적이지 않은 결과로 인해 영상 촬영 연구를 반복하거나 초기 결과에 기초하여 추가 테스트들을 주문하는 것도 포함될 수 있다. 만일 영상 촬영 연구에서 환자가 특정 질병이나 상태(예를 들어, 암)를 갖는 것으로 나타나면, 의사는 수술을 포함한 다양한 치료 옵션들 뿐만 아니라 수술하는 것보다는 아무것도 하지 않거나 주의 깊게 기다리거나 적극적 감시 접근법을 채택하는 위험들에 대해 논의한다. [0007] Therefore, in this process, the radiologist conducts an imaging study on the patient, analyzes the acquired images, writes a radiologist report, delivers the report to the requesting doctor, and the doctor makes evaluation and treatment recommendations. , and involves the physician communicating the results, recommendations, and risks to the patient. This process may include repeating the imaging study due to inconclusive results or ordering additional tests based on initial results. If an imaging study indicates that a patient has a particular disease or condition (eg, cancer), doctors may choose to do nothing, wait carefully, or adopt an active surveillance approach rather than surgery, as well as a variety of treatment options, including surgery. Discuss the risks of

[0008] 따라서, 시간 경과에 따라 여러 환자 영상들을 검토하고 분석하는 과정은 암 진단 및 치료에 중요한 역할을 한다. 암 진단 및 치료를 위한 영상 검토 및 분석의 정확성을 용이하게 하고 향상시키는 개선된 도구들에 대한 중요한 필요성이 있다. 이러한 방식으로 의사들, 방사선과 의사들 및 기타 의료 전문가들에 의해 활용되는 툴킷(toolkit)의 개선은 표준 치료 및 환자 경험에서 유의한 개선들을 제공한다. [0008] Accordingly, the process of reviewing and analyzing various patient images over time plays an important role in cancer diagnosis and treatment. There is a critical need for improved tools that facilitate and enhance the accuracy of image review and analysis for cancer diagnosis and treatment. Improving the toolkit utilized by physicians, radiologists and other medical professionals in this way provides significant improvements in standard care and patient experience.

[0009] 양전자 방출 단층 촬영(PET) 및 단일 광자 방출 컴퓨터 단층 촬영(SPECT) 영상들과 같은 핵의학 영상들의 자동 분석을 통해 대상체 내의 병변들의 개선된 검출 및 특성화를 제공하는 시스템들 및 방법들이 본 출원에서 제시된다. 특히, 특정 실시 형태에서, 본 출원에서 기재된 접근법들은 인공 지능(AI)을 활용하여 대상체 내의 잠재적인 암성 병변들을 나타내는 3D 핵의학 영상들의 영역들을 검출한다. 특정 실시 형태에서, 이 영역들은 병변들 내에서 방사성 의약품의 증가된 흡수로 인해 주변 환경(핫스팟(hotspot))에 비해 높은 강도의 국소 영역들에 대응한다. 본 출원에서 기재된 시스템들 및 방법들은 기계 학습 모듈들을 영상 내의 이러한 핫스팟들의 존재 및 위치들을 검출하는 데 사용할 수 있을 뿐만 아니라 핫스팟에 대응하는 영역을 분할하고/하거나 이들이 진정한 기저 암성 병변에 사실상 대응할 가능성에 기초하여 핫스팟들을 분류하는 데 사용할 수 있다. 이들 AI 기반 병변 검출, 분할 및 분류 접근법들은 병변들, 전반적인 종양 부하, 및 질병 중증도 및 위험 추정의 추가적인 특성화를 위한 기초를 제공할 수 있다. [0009] Systems and methods that provide improved detection and characterization of lesions in a subject through automated analysis of nuclear medicine images, such as positron emission tomography (PET) and single photon emission computed tomography (SPECT) images, are disclosed. presented in the application. In particular, in certain embodiments, the approaches described herein utilize artificial intelligence (AI) to detect regions of 3D nuclear medicine images that represent potentially cancerous lesions within a subject. In certain embodiments, these areas correspond to localized areas of high intensity relative to the surrounding environment (hotspots) due to increased uptake of the radiopharmaceutical within the lesions. The systems and methods described in this application can use machine learning modules to detect the presence and locations of these hotspots in an image, as well as segment regions corresponding to hotspots and/or analyze the likelihood that they actually correspond to true underlying cancerous lesions. It can be used to classify hotspots based on These AI-based lesion detection, segmentation and classification approaches can provide a basis for further characterization of lesions, overall tumor burden, and disease severity and risk estimation.

[0010] 예를 들어, 일단 병변들을 나타내는 영상 핫스팟이 검출되고 분할되고 분류되면, 병변 지수값들이 기저 병변 내의 방사성 의약품 흡수의 치수 및/또는 크기(예를 들어, 볼륨(volume))를 제공하기 위해 계산될 수 있다. 계산된 병변 지수값들은 대상체에 대한 종양 부하, 질병 중증도, 전이 위험 등의 전체 추정치를 제공하기 위해 교대로 종합될 수 있다. 특정 실시 형태에서, 병변 지수값들은 간 및 대동맥 부분들과 같은 특정 참조 장기들의 강도들에 대한 분할된 핫스팟 볼륨들 내의 강도들의 치수들을 비교함으로써 계산된다. 이러한 방식으로 참조 장기들을 사용하면 다른 대상체들의 영상들 사이에 비교될 수 있는 정규화된 척도에서 병변 지수값들이 측정될 수 있다. 특정 실시 형태에서, 본 출원에 기재된 접근법들은 신장, 간, 방광(예를들어, 비뇨기 방광)과 같이 정상적인 상황 하에서 방사성 의약품이 높은 수준들로 축적되는 장기들 및 조직 영역들에 대응하는 다중 영상 영역들의 강도 블리드(intensity bleed)를 억제하는 기술을 포함한다. 이 장기들에 대응하는 핵의학 영상들의 영역들에서의 강도들은 전형적으로 정상적이고 건강한 대상체들에 대해서도 높지만 반드시 암을 나타내는 것은 아니다. 더욱이 이 장기들의 높은 방사성 의약품 축적은 높은 수준의 방사능 방출을 초래한다. 증가된 방출된 방사선은 산란될 수 있으며, 그 결과 장기들 자체에 대응하는 핵의학 영상들의 영역들 내에서의 높은 강도뿐만 아니라 인근 복셀(voxel)들 외부에서도 높은 강도를 발생한다. 높은 흡수와 관련된 장기에 대응하는 영역들 외부 및 주변의 영상 영역들로의 이러한 강도 블리드는 인근 병변들의 검출을 방해하고 그 내부의 흡수 측정에서 부정확성을 유발할 수 있다. 따라서 이러한 강도 블리드 효과들의 수정은 병변 검출 및 정량화의 정확도를 향상시킨다. [0010] For example, once an imaging hotspot representing lesions is detected, segmented and classified, lesion index values are used to provide a dimension and/or magnitude (e.g., volume) of radiopharmaceutical uptake within the underlying lesion. can be calculated for The calculated lesion index values can be aggregated in turn to provide an overall estimate of tumor burden, disease severity, risk of metastasis, etc. for a subject. In a particular embodiment, lesion index values are calculated by comparing the dimensions of intensities within segmented hotspot volumes to those of specific reference organs, such as liver and aortic segments. By using the reference organs in this way, lesion index values can be measured on a normalized scale that can be compared between images of different subjects. In certain embodiments, the approaches described in this application provide multiple imaging regions corresponding to organs and tissue regions where radiopharmaceuticals accumulate at high levels under normal circumstances, such as kidney, liver, bladder (eg, urinary bladder). It includes a technique for suppressing intensity bleed of Intensities in areas of nuclear medicine images corresponding to these organs are typically high even for normal, healthy subjects, but do not necessarily indicate cancer. Moreover, the high accumulation of radiopharmaceuticals in these organs results in high levels of radioactivity release. The increased emitted radiation may be scattered, resulting in high intensities within areas of nuclear medicine images corresponding to the organs themselves, as well as high intensities outside nearby voxels. This intensity bleed into imaging areas outside and around areas corresponding to organs involved in high uptake can interfere with the detection of nearby lesions and cause inaccuracies in uptake measurements therein. Correction of these intensity bleed effects thus improves the accuracy of lesion detection and quantification.

[0011] 특정 실시 형태에서, 본 출원에서 기재된 AI 기반 병변 검출 기술은 x선 컴퓨터 단층촬영(CT) 영상들과 같은 해부학적 영상들로부터 획득된 해부학적 정보로 핵의학 영상들로부터 획득된 기능적 정보를 증대시킨다. 예를 들어, 본 출원에서 기재된 접근법들에서 이용되는 기계 학습 모듈들은 다음과 같이 기능적 핵의학 영상(예를 들어, PET 영상; 예를 들어, SPECT 영상)의 일부에 대응하는 제1 채널을 포함하는 다수의 입력 채널들 뿐만 아니라 공동 정렬된 해부학적(예를 들어, CT) 영상 및/또는 그로부터 유래된 해부학적 정보의 일부에 대응하는 추가 채널들을 수신할 수 있다. 이러한 방식으로 해부학적 환경을 추가하는 것은 병변 검출 접근법들의 정확성을 향상시킬 수 있다. 해부학적 정보는 또한 검출 후에 적용되는 병변 분류 접근법들에 통합될 수 있다. 예를 들어, 검출된 핫스팟들의 강도들에 기초하여 병변 지수값들을 계산하는 것 이외에도 핫스팟들은 그 위치에 기초하여 해부학적 라벨(label)을 할당할 수도 있다. 예를 들어, 검출된 핫스팟들은 그 위치들이 전립선, 골반 림프절, 비골반 림프절, 뼈. 또는 전립선과 림프절들 외부의 연조직 영역 내의 위치들에 대응하는지 여부에 기초하여 자동으로 라벨(예를 들어, 영숫자 라벨)이 할당될 수 있다. [0011] In a specific embodiment, the AI-based lesion detection technology described in this application is functional information obtained from nuclear medicine images with anatomical information obtained from anatomical images such as x-ray computed tomography (CT) images. increases For example, the machine learning modules used in the approaches described in this application include a first channel corresponding to a portion of a functional nuclear medicine image (eg, PET image; eg, SPECT image) as follows. Multiple input channels may be received as well as additional channels corresponding to co-aligned anatomical (eg, CT) images and/or portions of anatomical information derived therefrom. Adding the anatomical environment in this way can improve the accuracy of lesion detection approaches. Anatomical information can also be incorporated into lesion classification approaches applied after detection. For example, in addition to calculating lesion index values based on the intensities of detected hotspots, hotspots may be assigned an anatomical label based on their location. For example, the detected hotspots may be locations such as prostate, pelvic lymph nodes, non-pelvic lymph nodes, bone. Alternatively, a label (eg, an alphanumeric label) may be automatically assigned based on whether or not it corresponds to locations in a soft tissue area outside the prostate and lymph nodes.

[0012] 특정 실시 형태에서, 계산된 병변 지수값들 및 해부학적 라벨링(labeling)과 같은 검출된 핫스팟들 및 관련된 정보는 내과 의사, 방사선과 의사, 기술자 등과 같은 의료 전문가에 의한 검토를 허용하기 위해 대화형(interactive) 그래픽 사용자 인터페이스(GUI)로 표시된다. 따라서 의료 전문가들은 GUI를 사용하여 검출된 핫스팟들의 정확성 뿐만 아니라 대응하는 지수값들 및/또는 해부학적 라벨링을 검토하고 확인할 수 있다. 특정 실시 형태에서, GUI는 또한 사용자가 의료 영상 내의 추가 핫스팟들을 식별하고 분할(예를 들어, 수동으로)할 수 있게 하여 의료 전문가는 자동화된 검출 프로세스가 누락하였을 수 있다고 믿는 추가 잠재적 병변들을 식별할 수 있게 한다. 일단 식별되면, 병변 지수값들 및/또는 해부학적 라벨링이 수동으로 식별되고 분할된 병변들에 대해 결정될 수도 있다. 일단 사용자가 검출된 핫스팟들의 세트와 그로부터 계산된 정보에 만족하면 승인을 확인할 수 있고 예를 들어 환자와 결과들 및 진단을 논의하고 예후 및 치료 옵션들을 평가하는 데 검토 및 사용될 수 있는 최종 서명된 보고서를 생성할 수 있다. [0012] In a particular embodiment, detected hotspots and related information, such as computed lesion index values and anatomical labeling, are communicated to allow for review by a medical professional such as a physician, radiologist, technologist, and the like. It is presented as an interactive graphical user interface (GUI). Thus, medical professionals can use the GUI to review and verify the accuracy of the detected hotspots, as well as the corresponding index values and/or anatomical labeling. In certain embodiments, the GUI also allows the user to identify and segment (eg, manually) additional hotspots within the medical image so that the medical professional can identify additional potential lesions that the medical professional believes the automated detection process may have missed. make it possible Once identified, lesion index values and/or anatomical labeling may be determined for manually identified and segmented lesions. Once the user is satisfied with the set of hotspots detected and the information calculated therefrom, approval can be confirmed and a final signed report that can be reviewed and used, for example, to discuss outcomes and diagnosis with the patient and evaluate prognosis and treatment options. can create

[0013] 이러한 방식으로, 본 출원에서 기재된 접근법들은 대상체의 질병(예를 들어, 암) 상태 및 진행의 평가의 정확성을 개선하고 합리화할 수 있는 병변 검출 및 분석을 위한 AI 기반 툴(tool) 들을 제공한다. 이는 진단, 예후 및 치료에 대한 반응 평가를 용이하게 하여 환자 결과들을 개선한다. [0013] In this way, the approaches described herein provide AI-based tools for lesion detection and analysis that can improve and rationalize the accuracy of assessment of a subject's disease (eg, cancer) status and progression. to provide. This facilitates diagnosis, prognosis and assessment of response to treatment to improve patient outcomes.

[0014] 하나의 양태에서, 본 발명은 대상체 내의 암성 병변들을 식별 및/또는 특성화(예를들어, 등급화)하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 방법에 관한 것이며, 상기 방법은, (a) 컴퓨팅 디바이스(computing device)의 프로세서(processor)에 의해, 기능적 영상 촬영 기법[예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근) 하는 단계[예를 들어, 여기서, 3D 기능적 영상은 복수의 복셀들을 포함하며, 각각은 대상체 내의 특정 물리적 볼륨을 나타내고 특정 물리적 볼륨으로부터 방출되는 검출된 방사선을 나타내는 강도값(예를 들어, 표준 흡수값(SUV))을 가지며, 여기서, 3D 기능적 영상의 복수의 복셀들 중 적어도 일부는 표적 조직 영역 내의 물리적 볼륨을 나타냄]; (b) 프로세서에 의해, 기계 학습 모듈[예를 들어, 미리 훈련된 기계 학습 모듈(예를 들어, 훈련 절차를 통해 결정된 미리 결정된(예를 들어, 고정된) 파라미터들을 가짐)]을 사용하여 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하여, (i) 각각의 핫스팟에 대해 핫스팟의 위치를 식별하는 핫스팟 목록[예를 들어, 좌표들 목록(예를 들어, 영상 좌표들; 예를 들어, 물리적 공간 좌표들); 예를 들어, 검출된 핫스팟의 위치(예를 들어, 질량의 중심)에 대응하는 3D 기능적 영상의 복셀들을 식별하는 마스크], 및 (ii) 각각의 핫스팟에 대해, 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨 {예를 들어, 여기서, 3D 핫스팟 맵은 각각의 핫스팟에 대해 각각의 핫스팟의 3D 핫스팟 볼륨에 대응하는 3D 기능적 영상 내의 복셀들을 식별하는 분할 맵(예를 들어, 하나 이상의 분할 마스크들을 포함함)이며 [예를 들어, 여기서, 3D 핫스팟 맵은 기능적인 영상의 인공 지능 기반 분할(예를 들어, 적어도 3D 기능적 영상을 입력으로 수신하고 3D 핫스팟 맵을 출력으로 생성하여 핫스팟들을 분할하는 기계 학습 모듈을 사용함)을 통해 획득됨]; 예를 들어, 여기서, 3D 핫스팟 맵은 각각의 핫스팟에 대해, 핫스팟의 3D 경계(예를 들어, 불규칙한 경계) (예를 들어, 3D 핫스팟 볼륨을 둘러싸는 3D 경계, 및 3D 기능적 영상의 다른 복셀들로부터 3D 핫스팟 볼륨을 만드는 3D 기능적 영상의 특징적인 복셀들)를 묘사함을 식별하는 3D 핫스팟 맵 중 하나 또는 둘 모두를 생성하는 단계 ― 각각의 핫스팟은 그 주변에 대해 높은 강도의 국소 영역에 대응하고 대상체 내의 잠재적인 암성 병변을 나타냄 (예를 들어, 가리킴) ―}; 및 (c) 표시 및/또는 추가 처리를 위해 핫스팟 목록 및/또는 3D 핫스팟 맵을 저장 및/또는 제공하는 단계를 포함한다. [0014] In one aspect, the present invention relates to a method for automatically processing 3D images of a subject to identify and/or characterize (eg, rank) cancerous lesions in the subject, the method comprising: (a) by a processor of a computing device, a functional imaging technique (eg, positron emission tomography (PET); Receiving (eg, and/or accessing) a 3D functional image of the object obtained using, for example, single photon emission computed tomography (SPECT) [eg, where the 3D functional image is obtained by plural includes voxels of , each representing a specific physical volume within the object and having an intensity value (eg, standard absorption value (SUV)) representing detected radiation emitted from the specific physical volume, wherein a plurality of 3D functional images at least some of the voxels in represent a physical volume within the target tissue area]; (b) by the processor, using a machine learning module (eg, a pre-trained machine learning module (eg, having predetermined (eg, fixed) parameters determined through a training procedure)) to perform 3D rendering; Automatically detects one or more hotspots within a functional image by (i) for each hotspot, a hotspot list identifying the hotspot's location (e.g., a list of coordinates (e.g., image coordinates; e.g., physical spatial coordinates); e.g., a mask identifying voxels of the 3D functional image corresponding to the location of the detected hotspot (e.g., center of mass)], and (ii) for each hotspot, a corresponding 3D hotspot within the 3D functional image volume {eg, where the 3D hotspot map is a segmentation map (eg, comprising one or more segmentation masks) identifying for each hotspot voxels within the 3D functional image corresponding to the 3D hotspot volume of each hotspot [e.g., where the 3D hotspot map is an artificial intelligence-based segmentation of a functional image (e.g., a machine learning module that receives at least a 3D functional image as input and generates a 3D hotspot map as output to segment hotspots) used)]; For example, here, the 3D hotspot map includes, for each hotspot, a 3D boundary (eg, an irregular boundary) of the hotspot (eg, a 3D boundary surrounding the 3D hotspot volume, and other voxels of the 3D functional image). generating one or both of the 3D hotspot maps identifying the characteristic voxels of the 3D functional image that make up the 3D hotspot volume from each hotspot, each hotspot corresponding to a local region of high intensity with respect to its surroundings; indicates (eg, points to) a potential cancerous lesion in the subject -}; and (c) storing and/or providing the hotspot list and/or 3D hotspot map for display and/or further processing.

[0015] 특정 실시 형태에서, 기계 학습 모듈은 3D 기능적 영상의 적어도 일부를 입력으로 수신하고 3D 기능적 영상의 수신된 부분의 복셀들의 강도들에 적어도 부분적으로 기초하여 하나 이상의 핫스팟들을 자동으로 검출한다. 특정 실시 형태에서, 기계 학습 모듈은 3D 기능적 영상 내의 하나 이상의 관심 볼륨(VOI)들을 식별하는 3D 분할 맵을 입력으로 수신하며, 각각의 VOI는 특정 표적 조직 영역 및/또는 대상체 내의 특정 해부학적 영역 [예를 들어, 연조직 영역(예를 들어, 전립선, 림프절, 폐, 유방); 예를 들어, 하나 이상의 특정 뼈들; 예를 들어, 전체 골격 영역]에 대응한다. [0015] In a particular embodiment, the machine learning module receives as input at least a portion of a 3D functional image and automatically detects one or more hotspots based at least in part on intensities of voxels of the received portion of the 3D functional image. In a specific embodiment, the machine learning module receives as input a 3D segmentation map identifying one or more volumes of interest (VOIs) within the 3D functional image, each VOI having a specific target tissue region and/or a specific anatomical region within the object [ eg soft tissue areas (eg prostate, lymph nodes, lungs, breast); For example, one or more specific bones; For example, the entire skeleton region].

[0016] 특정 실시 형태에서, 상기 방법은 프로세서에 의해, 해부학적 영상 촬영 기법 [예를 들어, x-선 컴퓨터 단층촬영(CT); 예를 들어, 자기 공명 영상 촬영(MRI); 예를 들어, 초음파]을 사용하여 획득된 대상체의 3D 해부학적 영상을 수신하는 단계를 포함하며, 여기서, 3D 해부학적 영상은 대상체 내의 조직(예를 들어, 연조직 및/또는 뼈)의 그래픽 표현을 포함하고, 기계 학습 모듈은 적어도 두 개의 입력 채널들을 수신하며, 상기 입력 채널들은 3D 해부학적 영상의 적어도 일부에 대응하는 제1 입력 채널 및 3D 기능적 영상의 적어도 일부에 대응하는 제2 입력 채널 [예를 들어, 여기서, 기계 학습 모듈은 PET 영상과 CT 영상을 별도의 채널들(예를 들어, 동일한 볼륨을 나타내는 별도의 채널들)로 수신함 (예를 들어, 컬러 (color) 사진 영상의 2 개의 컬러 채널들 (RGB)의 기계 학습 모듈에 의한 수신과 유사함)]을 포함한다. [0016] In a specific embodiment, the method may, by a processor, an anatomical imaging technique [eg, x-ray computed tomography (CT); For example, magnetic resonance imaging (MRI); receiving a 3D anatomical image of the object obtained using eg, ultrasound], wherein the 3D anatomical image is a graphic representation of a tissue (eg, soft tissue and/or bone) in the object A first input channel corresponding to at least a portion of a 3D anatomical image and a second input channel corresponding to at least a portion of a 3D functional image [eg For example, here, the machine learning module receives the PET image and the CT image as separate channels (e.g., separate channels representing the same volume) (e.g., two colors of color photographic images). Similar to reception by machine learning module of channels (RGB)].

[0017] 특정 실시 형태에서, 기계 학습 모듈은 상기 3D 기능적 영상 및/또는 상기 3D 해부학적 영상 내에서 하나 이상의 관심 볼륨(VOI)들을 식별하는 3D 분할 맵을 입력하여 수신하고, 각각의 VOI는 특정 표적 조직 영역 및/또는 특정 해부학적 영역에 대응한다. 특정 실시 형태에서, 상기 방법은 프로세서에 의해, 3D 해부학적 영상을 자동으로 분할하여 3D 분할 맵을 생성하는 단계를 포함한다. [0017] In a specific embodiment, a machine learning module inputs and receives a 3D segmentation map identifying one or more volumes of interest (VOIs) within the 3D functional image and/or the 3D anatomical image, each VOI having a specific Corresponds to a target tissue region and/or a specific anatomical region. In a particular embodiment, the method includes generating, by a processor, a 3D segmentation map by automatically segmenting a 3D anatomical image.

[0018] 특정 실시 형태에서, 기계 학습 모듈은 대상체의 하나 이상의 특정 조직 영역들 및/또는 해부학적 영역들에 대응하는 3D 기능적 영상의 특정 부분을 입력으로 수신하는 특정 영역 기계 학습 모듈이다. [0018] In a specific embodiment, the machine learning module is a region specific machine learning module that receives a specific part of a 3D functional image corresponding to one or more specific tissue regions and/or anatomical regions of an object as an input.

[0019] 특정 실시 형태에서, 기계 학습 모듈은 핫스팟 목록을 출력으로 생성한다 [예를 들어, 여기서, 기계 학습 모듈은 3D 기능 영상의 적어도 일부의 복셀들의 강도들에 기초하여 각각이 하나 이상의 핫스팟들 중 하나의 위치에 대응하는 하나 이상의 위치들(예를 들어, 3D 좌표들)을 결정하도록 훈련된 기계 학습 알고리즘(algorithm)(예를 들어, 인공 신경망(ANN))을 구현한다]. [0019] In a particular embodiment, the machine learning module generates as output a list of hotspots [eg, where the machine learning module determines one or more hotspots each based on intensities of voxels of at least some of the 3D functional image. implements a machine learning algorithm (eg, an artificial neural network (ANN)) trained to determine one or more positions (eg, 3D coordinates) corresponding to a position of one of:

[0020] 특정 실시 형태에서, 기계 학습 모듈은 3D 핫스팟 맵을 출력으로 생성한다 [예를 들어, 여기서, 기계 학습 모듈은 3D 핫스팟 맵의 3D 핫스팟 볼륨들을 식별하기 위해(예를 들어, 3D 핫스팟 맵은 각각의 핫스팟에 대해 3D 경계(예를 들어, 불규칙한 경계)를 묘사하여 3D 핫스팟 볼륨들(예를 들어, 3D 핫스팟 경계들에 의해 둘러싸임)을 식별함) 3D 기능적 영상(예를 들어, 3D 기능적 영상의 복셀들의 강도들에 적어도 부분적으로 기초함)을 분할하도록 훈련된 기계 학습 알고리즘(예를 들어, 인공 신경망(ANN))을 구현하며; 예를 들어, 여기서, 기계 학습 모듈은 3D 기능 영상의 적어도 일부의 각각의 복셀에 대해, 복셀이 핫스팟에 대응할 우도(likelihood)를 나타내는 핫스팟 우도값을 결정하도록 훈련된 기계 학습 알고리즘을 구현한다(예를 들어, 단계 (b)는 핫스팟 우도값들을 사용하여 3D 핫스팟 맵의 3D 핫스팟 볼륨들을 식별하기 위해 임계값 설정과 같은 하나 이상의 후속 후처리 단계들을 수행하는 단계를 포함한다(예를 들어, 3D 핫스팟 맵은 각각의 핫스팟에 대해 핫스팟의 3D 경계(예를 들어, 불규칙한 경계) 를 묘사하여 3D 핫스팟 볼륨들(예를 들어, 3D 핫스팟 경계로 둘러싸인)을 식별함]. [0020] In a particular embodiment, the machine learning module generates a 3D hotspot map as output [eg, where the machine learning module identifies 3D hotspot volumes of the 3D hotspot map (eg, the 3D hotspot map identifies 3D hotspot volumes (eg, surrounded by 3D hotspot boundaries) by depicting a 3D boundary (eg, irregular boundary) for each hotspot) 3D functional image (eg, 3D boundary) implement a machine learning algorithm (eg, an artificial neural network (ANN)) trained to segment (based at least in part on intensities of voxels of the functional image); For example, here, the machine learning module implements, for each voxel of at least a portion of the 3D functional image, a machine learning algorithm trained to determine a hotspot likelihood value representing a likelihood that the voxel will correspond to a hotspot (e.g. For example, step (b) includes performing one or more subsequent post-processing steps, such as setting a threshold to identify 3D hotspot volumes of the 3D hotspot map using the hotspot likelihood values (e.g., 3D hotspot The map identifies, for each hotspot, 3D hotspot volumes (eg, surrounded by the 3D hotspot boundary) by depicting the hotspot's 3D boundary (eg, an irregular boundary).

[0021] 특정 실시 형태에서, 상기 방법은 (d) 프로세서에 의해, 핫스팟들의 적어도 일부의 각각의 핫스팟에 대해, 대상체 내의 병변을 나타내는 핫스팟의 우도에 대응하는 병변 우도 분류 [예를 들어, 핫스팟이 진정한 병변인지 여부를 나타내는 이진 분류; 예를 들어 진정한 병변을 나타내는 핫스팟의 우도를 나타내는 척도(예를 들어, 0 에서 1 까지의 부동 소수점 값) 상의 우도값]를 결정하는 단계를 포함한다. [0021] In a particular embodiment, the method comprises (d) classifying, by the processor, for each hotspot of at least some of the hotspots, a lesion likelihood corresponding to a likelihood of the hotspot representing a lesion in the subject [e.g., if the hotspot is binary classification indicating whether it is a true lesion; determining a likelihood value on a scale (eg, a floating point value from 0 to 1) representing the likelihood of a hotspot representing, for example, a true lesion].

[0022] 특정 실시 형태에서, 단계 (d)는 일부의 각각의 핫스팟에 대해 병변 우도 분류를 결정하기 위해 제2 기계 학습 모듈을 사용하는 단계를 포함한다 [예를 들어, 여기서, 기계 학습 모듈은 핫스팟들을 검출하기 위해(예를 들어, 핫스팟 목록 및/또는 3D 핫스팟 맵을 출력으로 생성하기 위함) 그리고 각각의 핫스팟에 대해 핫스팟에 대한 병변 우도 분류를 결정하기 위해 훈련된 기계 학습 알고리즘을 구현한다]. 특정 실시 형태에서, 단계 (d)는 제2 기계 학습 모듈(예를 들어, 핫스팟 분류 모듈)을 사용하여 각각의 핫스팟에 대한 병변 우도 분류를 결정하는 단계를 포함한다 [예를 들어, 3D 기능적 영상의 강도들, 핫스팟 목록, 3D 핫스팟 맵, 3D 해부학적 영상의 강도들 및 3D 분할 맵으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들에 적어도 부분적으로 기초하고; 예를 들어, 제2 기계 학습 모듈은 3D 기능적 영상의 강도들, 핫스팟 목록, 3D 핫스팟 맵, 3D 해부학적 영상의 강도들 및 3D 분할 맵으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들에 대응하는 하나 이상의 입력 채널들을 수신함]. [0022] In a particular embodiment, step (d) includes using a second machine learning module to determine a lesion likelihood classification for each hotspot of the portion [eg, wherein the machine learning module implement a trained machine learning algorithm to detect hotspots (e.g., to generate a hotspot list and/or a 3D hotspot map as output) and for each hotspot to determine a lesion likelihood classification for the hotspot] . In certain embodiments, step (d) includes determining a lesion likelihood classification for each hotspot using a second machine learning module (eg, a hotspot classification module) [eg, a 3D functional image based at least in part on one or more members selected from the group consisting of intensities of , a hotspot list, a 3D hotspot map, intensities of a 3D anatomical image, and a 3D segmentation map; For example, the second machine learning module may receive one or more inputs corresponding to one or more members selected from the group consisting of intensities of a 3D functional image, a hotspot list, a 3D hotspot map, intensities of a 3D anatomical image, and a 3D segmentation map. receiving channels].

[0023] 특정 실시 형태에서, 상기 방법은 프로세서에 의해, 각각의 핫스팟에 대해 하나 이상의 핫스팟 특징들의 세트를 결정하고 하나 이상의 핫스팟 특징들의 세트를 제2 기계 학습 모듈에 입력으로 사용하는 단계를 포함한다. [0023] In a particular embodiment, the method includes determining, by a processor, a set of one or more hotspot features for each hotspot and using the set of one or more hotspot features as an input to a second machine learning module. .

[0024] 특정 실시 형태에서, 상기 방법은 (e) 프로세서에 의해, 핫스팟들에 대한 병변 우도 분류에 적어도 부분적으로 기초하여 암성 병변들에 대응할 높은 우도를 갖는 핫스팟들에 대응하는 하나 이상의 핫스팟들의 서브 세트를 선택하는 단계를 포함한다(예를 들어, 보고서에 포함하기 위해; 예를 들어, 대상체에 대한 하나 이상의 위험 지수값들을 계산하는 데 사용하기 위함). [0024] In a particular embodiment, the method further comprises (e) a subset of, by the processor, one or more hotspots corresponding to hotspots that have a high likelihood of corresponding to cancerous lesions based at least in part on a lesion likelihood classification for the hotspots. selecting a set (eg, for inclusion in a report; eg, for use in calculating one or more risk index values for a subject).

[0025] 특정 실시 형태에서, 상기 방법은 (f) [단계 (b) 이전에] 프로세서에 의해, 3D 기능적 영상의 복셀들의 강도들을 조정하여 3D 기능적 영상의 하나 이상의 고강도 볼륨들로부터 강도 블리드(intensity bleed)(예를 들어, 누화(cross―talk))를 보정하는 단계를 포함하고, 하나 이상의 고강도 볼륨들 각각은 정상적인 상황 하에서 높은 방사성 의약품 흡수와 관련된 대상체 내의 고흡수 조직 영역에 대응한다 (반드시 암을 나타내는 것은 아님). 특정 실시 형태에서, 단계 (f)는 순차적인 방식으로 한 번에 하나씩 복수의 고강도 볼륨들로부터의 강도 블리드를 보정하는 단계 [예를 들어, 제1 보정된 영상을 생성하기 위해 제1 고강도 볼륨으로부터 강도 블리드를 보정하도록 3D 기능적 영상의 복셀들의 강도들을 먼저 조정하고, 그 다음 제2 고강도 볼륨으로부터 강도 블리드 등을 보정하기 위해 제1 보정된 영상의 복셀들의 강도들을 조정함]를 포함한다. 특정 실시 형태에서, 하나 이상의 고강도 볼륨들은 신장, 간 및 방광(예를 들어, 비뇨기 방광)으로 이루어진 그룹으로부터 선택된 하나 이상의 고흡수 조직 영역들에 대응한다. [0025] In a particular embodiment, the method further comprises (f) [prior to step (b)] adjusting, by the processor, intensities of voxels of the 3D functional image to bleed intensity from one or more high-intensity volumes of the 3D functional image. bleed (e.g., cross-talk), wherein each of the one or more high-intensity volumes corresponds to a region of high absorption tissue in the subject associated with high radiopharmaceutical absorption under normal circumstances (must be cancer does not represent). In certain embodiments, step (f) includes correcting the intensity bleed from the plurality of high intensity volumes one at a time in a sequential manner [e.g., from a first high intensity volume to generate a first calibrated image. first adjusting the intensities of voxels of the 3D functional image to correct the intensity bleed, and then adjusting the intensities of the voxels of the first corrected image to correct the intensity bleed, etc. from the second high intensity volume]. In a particular embodiment, the one or more high intensity volumes correspond to one or more highly absorbent tissue regions selected from the group consisting of kidney, liver and bladder (eg, urinary bladder).

[0026] 특정 실시 형태에서, 상기 방법은 (g) 프로세서에 의해, 하나 이상의 핫스팟들의 적어도 일부의 각각에 대해, 상기 핫스팟이 대응하는 기저 병변의 크기 및/또는 내부(예를 들어, 볼륨)의 방사성 의약품 흡수 수준을 나타내는 대응하는 병변 지수를 결정하는 단계를 포함한다. 특정 실시 형태에서, 단계 (g)는 핫스팟(예를 들어, 핫스팟의 위치에서 및/또는 그 위치에 대해; 예를 들어, 핫스팟의 볼륨 내에서)과 관련된 하나 이상의 복셀들의 강도(강도들)(예를 들어, 표준 흡수값(SUV)들에 대응함)를 하나 이상의 참조 값들과 비교하는 단계를 포함하며, 각각의 참조 값은 대상체 내의 특정 참조 조직 영역(예를 들어, 간; 예를 들어, 대동맥 부분)과 관련되고 참조 조직 영역에 대응하는 참조 볼륨 [예를 들어, 평균으로서(예를 들어, 사분위수 범위 값들의 평균과 같은 강력한(robust) 평균)]의 강도들(예를 들어, SUV 값들)에 기초하여 결정된다. 특정 실시 형태에서, 하나 이상의 참조 값들은 대상체의 대동맥 부분과 관련된 대동맥 참조 값 및 대상체의 간과 관련된 간 참조 값으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함한다. [0026] In a particular embodiment, the method further comprises (g) determining, by the processor, for each of at least a portion of one or more hotspots, the size and/or internal (e.g., volume) of the underlying lesion to which the hotspot corresponds. and determining a corresponding lesion index indicative of the radiopharmaceutical absorption level. In a particular embodiment, step (g) includes the intensity (intensities) of one or more voxels associated with a hotspot (eg, at and/or relative to the location of the hotspot; eg, within the volume of the hotspot) ( comparing standard absorption values (eg, corresponding to SUVs) to one or more reference values, each reference value being a specific reference tissue region within the subject (eg, liver; eg, aorta). intensities (e.g., SUV values) of a reference volume (e.g., as an average (e.g., a robust mean, such as the average of interquartile range values)) associated with a portion) and corresponding to a reference tissue region. ) is determined based on In certain embodiments, the one or more reference values include one or more members selected from the group consisting of an aortic reference value relating to an aortic portion of a subject and a liver reference value relating to a liver of a subject.

[0027] 특정 실시 형태에서, 특정 참조 조직 영역과 관련된 적어도 하나의 특정 참조 값에 대해, 특정 참조 값을 결정하는 것은 다중 성분 혼합 모델(예를 들어, 2 성분 가우시안 모델(Gaussian model)에 대한 특정 참조 조직 영역에 대응하는 특정 참조 볼륨 내의 복셀들의 강도를 맞추는 것 [예를 들어, 복셀들의 강도들의 분포를 맞추는 것(예를 들어, 복셀 강도들의 히스토그램(histogram)에 맞추는 것)]을 포함한다 [예를 들어, 복셀 강도들의 분포에서 하나 이상의 부 피크(miner peak)들을 식별하고, 상기 부 피크들은 정상적인 흡수와 관련된 복셀들에 대응하고, 참조 값 결정으로부터 해당 복셀들을 배제함(예를 들어, 이에 의해 간의 부분들과 같은 참조 조직 영역들의 특정 부분에서 비정상적으로 낮은 방사성 의약품 흡수의 영향들을 설명함)]. [0027] In a particular embodiment, for at least one particular reference value associated with a particular reference tissue region, determining the particular reference value is a multi-component mixed model (e.g., a particular reference value for a two-component Gaussian model). fitting the intensities of voxels within a specific reference volume corresponding to a reference tissue region [eg fitting a distribution of intensities of voxels (eg fitting a histogram of voxel intensities)] [ For example, identifying one or more minor peaks in the distribution of voxel intensities, the minor peaks corresponding to voxels associated with normal absorption, and excluding those voxels from determining a reference value (e.g., thereby describes the effects of abnormally low radiopharmaceutical uptake in certain parts of reference tissue regions, such as parts of the liver)].

[0028] 특정 실시 형태에서, 상기 방법은 결정된 병변 지수값들을 사용하여 대상체에 대한 암 상태 및/또는 위험을 나타내는 대상체에 대한 전체 위험 지수를 계산하는(예를 들어, 프로세서에 의해 자동으로) 단계를 포함한다. [0028] In certain embodiments, the method comprises calculating (eg, automatically by a processor) an overall risk index for a subject indicative of a cancer status and/or risk for the subject using the determined lesion index values. includes

[0029] 특정 실시 형태에서, 상기 방법은 프로세서(예를 들어, 자동으로)에 의해, 각각의 핫스팟에 대해 핫스팟이 나타내는 잠재적인 암성 병변이 위치되도록 [예를 들어, 전립선, 골반 림프절, 비골반 림프절, 뼈(예를 들어, 뼈 전이 영역) 내 및 전립선 또는 림프절에 위치하지 않는 연조직 영역 내에] 결정된 [예를 들어, 프로세서에 의해(예를 들어, 수신 및/또는 결정된 3D 분할 맵에 기초하여)] 대상체 내의 특정 해부학적 영역 및/또는 해부학적 영역들의 그룹에 대응하는 해부학적 분류를 결정하는 단계를 포함한다. [0029] In a particular embodiment, the method is such that for each hotspot, by a processor (eg, automatically), a potential cancerous lesion indicative of the hotspot is located [eg, prostate, pelvic lymph nodes, nasal pelvis within lymph nodes, bone (e.g., bone metastases) and within soft tissue regions not located in the prostate or lymph nodes] [e.g., by a processor (e.g., based on received and/or determined 3D segmentation maps) )] determining an anatomical classification corresponding to a specific anatomical region and/or group of anatomical regions within the object.

[0030] 특정 실시 형태에서, 상기 방법은 (h) 프로세서에 의해, 그래픽 사용자 인터페이스(GUI) 내의 표시를 위해, 사용자에 의한 검토를 위한 하나 이상의 핫스팟들의 적어도 일부의 그래픽 표현을 야기하는 단계를 포함한다. 특정 실시 형태에서, 상기 방법은 (i) 프로세서에 의해, 사용자 검토를 통해 대상체 내의 기저 암성 병변들을 나타낼 가능성이 있는 것으로 확인된 상기 하나 이상의 핫스팟들의 서브 세트의 사용자 선택을 GUI를 통해 수신하는 단계를 포함한다. [0030] In a particular embodiment, the method includes (h) causing, by the processor, a graphical representation of at least some of the one or more hotspots for review by a user, for display in a graphical user interface (GUI). do. In certain embodiments, the method includes (i) receiving, by a processor, a user selection via a GUI of a subset of the one or more hotspots identified through user review as likely representing underlying cancerous lesions in the subject. include

[0031] 특정 실시 형태에서, 3D 기능적 영상은 대상체에게 제제(예를 들어, 방사성 의약품; 예를 들어, 영상 촬영 제제)의 투여 후 획득한 PET 또는 SPECT 영상을 포함한다. 특정 실시 형태에서, 제제는 PSMA 결합제를 포함한다. 특정 실시 형태에서, 제제는 18F를 포함한다. 특정 실시 형태에서, 제제는 [18F]DCFPyL을 포함한다. 특정 실시 형태에서, 제제는 PSMA―11 (예를 들어, 68Ga―PSMA―11)을 포함한다. 특정 실시 형태에서, 제제는 99mTc, 68Ga, 177Lu, 225Ac, 111In, 123I, 124I 및 131I로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함한다. [0031] In certain embodiments, the 3D functional images include PET or SPECT images obtained after administration of an agent (eg, a radiopharmaceutical; eg, an imaging agent) to a subject. In certain embodiments, the formulation includes a PSMA binder. In certain embodiments, the formulation includes 18 F. In certain embodiments, the formulation comprises [ 18 F]DCFPyL. In certain embodiments, the formulation includes PSMA-11 (eg, 68 Ga-PSMA-11). In certain embodiments, the agent comprises one or more members selected from the group consisting of 99m Tc, 68 Ga, 177 Lu, 225 Ac, 111 In, 123 I, 124 I and 131 I.

[0032] 특정 실시 형태에서, 기계 학습 모듈은 신경망 [예를 들어, 인공 신경망(ANN); 예를 들어, 합성곱 신경망(CNN)]을 구현한다. [0032] In a particular embodiment, the machine learning module is a neural network [eg, an artificial neural network (ANN); For example, it implements a convolutional neural network (CNN)].

[0033] 특정 실시 형태에서, 프로세서는 클라우드(cloud) 기반 시스템의 프로세서이다. [0033] In a particular embodiment, the processor is a processor of a cloud based system.

[0034] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변들을 식별 및/또는 특성화(예를들어, 등급화)하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 방법에 관한 것이며, 상기 방법은 (a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근) 하는 단계 [예를 들어, 여기서, 3D 기능적 영상은 복수의 복셀들을 포함하며, 각각은 대상체 내의 특정 물리적 볼륨을 나타내고 특정 물리적 볼륨으로부터 방출되는 검출된 방사선을 나타내는 강도값을 가지며, 여기서, 3D 기능적 영상의 복수의 복셀들 중 적어도 일부는 표적 조직 영역 내의 물리적 볼륨들을 나타냄]; (b) 프로세서에 의해, 해부학적 영상 촬영 기법 [예를 들어, x선 컴퓨터 단층촬영(CT); 예를 들어, 자기 공명 영상 촬영(MRI); 예를 들어, 초음파]을 사용하여 획득된 대상체의 3D 해부학적 영상을 수신하는 단계 ― 3D 해부학적 영상은 대상체 내의 조직(예를 들어, 연조직 및/또는 뼈)의 그래픽 표현을 포함함 ― ; (c) 프로세서에 의해, 기계 학습 모듈을 사용하여 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하여, (i) 각각의 핫스팟에 대해, 핫스팟의 위치를 식별하는 핫스팟 목록, (ii) 각각의 핫스팟에 대해, 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨 {예를 들어, 여기서, 3D 핫스팟 맵은 각각의 핫스팟에 대해 각각의 핫스팟의 3D 핫스팟 볼륨에 대응하는 3D 기능적 영상 내의 복셀들을 식별하는 분할 맵(예를 들어, 하나 이상의 분할 마스크들을 포함함) [예를 들어, 여기서, 3D 핫스팟 맵은 기능적인 영상의 인공 지능 기반 분할(예를 들어, 적어도 3D 기능적 영상을 입력으로 수신하고 3D 핫스팟 맵을 출력으로 생성하여 핫스팟들을 분할하는 기계 학습 모듈을 사용함)을 통해 획득됨]; 예를 들어, 여기서, 3D 핫스팟 맵은 각각의 핫스팟에 대해, 핫스팟의 3D 경계(예를 들어, 불규칙한 경계)(예를 들어, 3D 핫스팟 볼륨을 둘러싸는 3D 경계, 및 3D 기능적 영상의 다른 복셀들로부터 3D 핫스팟 볼륨을 만드는 3D 기능적 영상의 특징적인 복셀들)를 묘사함}을 식별하는 3D 핫스팟 맵 중 하나 또는 둘 모두를 생성하는 단계 ― 각각의 핫스팟은 그 주변에 대해 높은 강도의 국소 영역에 대응하고 대상체 내의 잠재적인 암성 병변을 나타내고(예를 들어, 가리킴), 기계 학습 모듈은 적어도 2 개의 입력 채널들을 수신하고, 상기 입력 채널들은 3D 해부학적 영상의 적어도 일부에 대응하는 제1 입력 채널 및 3D 기능적 영상의 적어도 일부에 대응하는 제2 입력 채널 [예를 들어, 여기서, 기계 학습 모듈은 PET 영상 및 CT 영상을 별도의 채널들(예를 들어, 동일한 볼륨으로 나타내는 별도의 채널들)로 수신함(예를 들어, 컬러 사진 영상의 2 개의 컬러 채널들(RGB)의 기계 학습 모듈에 의한 수신과 유사함)] 및/또는 이들로부터 유래된 해부학적 정보 [예를 들어, 3D 기능적 영상 내에서 하나 이상의 관심 볼륨(VOI)들을 식별하는 3D 분할 맵 ― 각각의 VOI는 특정 표적 조직 영역 및/또는 특정 해부학적 영역에 대응함 ―]를 포함함 ― ; 및 (d) 표시 및/또는 추가 처리를 위해 핫스팟 목록 및/또는 3D 핫스팟 맵을 저장 및/또는 제공하는 단계를 포함한다. [0034] In another aspect, the present invention relates to a method for automatically processing 3D images of a subject to identify and/or characterize (eg, rank) cancerous lesions in the subject, the method comprising ( a) by a processor of a computing device, a functional imaging technique [eg, positron emission tomography (PET); Receiving (eg, and/or accessing) a 3D functional image of the object obtained using, for example, single photon emission computed tomography (SPECT)] [eg, where the 3D functional image is obtained in a plurality of It includes voxels of, each representing a specific physical volume within the object and having an intensity value representing detected radiation emitted from the specific physical volume, wherein at least some of the plurality of voxels of the 3D functional image are physical in the target tissue region. representing volumes]; (b) by the processor, an anatomical imaging technique [eg, x-ray computed tomography (CT); For example, magnetic resonance imaging (MRI); eg, receiving a 3D anatomical image of the object acquired using ultrasound], wherein the 3D anatomical image includes a graphic representation of a tissue (eg, soft tissue and/or bone) in the object; (c) by the processor, automatically detecting one or more hotspots in the 3D functional image using a machine learning module to: (i) for each hotspot, a hotspot list identifying the location of the hotspot; (ii) each hotspot , a corresponding 3D hotspot volume in the 3D functional image {eg, where the 3D hotspot map is a segmentation map identifying, for each hotspot, voxels in the 3D functional image corresponding to the 3D hotspot volume of each hotspot (eg eg, including one or more segmentation masks) [eg, where the 3D hotspot map is an artificial intelligence-based segmentation of a functional image (eg, receiving at least a 3D functional image as input and a 3D hotspot map as output). using a machine learning module to generate and segment hotspots]; For example, here, the 3D hotspot map includes, for each hotspot, a 3D boundary (eg, an irregular boundary) of the hotspot (eg, a 3D boundary surrounding the 3D hotspot volume, and other voxels of the 3D functional image). generating one or both of the 3D hotspot maps identifying the characteristic voxels of the 3D functional image that make up the 3D hotspot volume from and indicates (eg, points to) a potential cancerous lesion in the subject, the machine learning module receives at least two input channels, the input channels comprising: a first input channel corresponding to at least a portion of the 3D anatomical image and a 3D A second input channel corresponding to at least a portion of the functional image [eg, where the machine learning module receives the PET image and the CT image as separate channels (eg, separate channels representing the same volume) ( eg, similar to reception by a machine learning module of the two color channels (RGB) of a color photographic image)] and/or anatomical information derived from them [eg, one or more a 3D segmentation map identifying volumes of interest (VOIs), each VOI corresponding to a specific target tissue region and/or a specific anatomical region; and (d) storing and/or providing the hotspot list and/or 3D hotspot map for display and/or further processing.

[0035] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변들을 식별 및/또는 특성화(예를들어, 등급화)하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 방법에 관한 것이며, 상기 방법은 (a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근) 하는 단계 [예를 들어, 여기서, 3D 기능적 영상은 복수의 복셀들을 포함하며, 각각은 대상체 내의 특정 물리적 볼륨을 나타내고 특정 물리적 볼륨으로부터 방출되는 검출된 방사선을 나타내는 강도값을 가지며, 여기서, 3D 기능적 영상의 복수의 복셀들 중 적어도 일부는 표적 조직 영역 내의 물리적 볼륨들을 나타냄]; (b) 프로세서에 의해, 제1 기계 학습 모듈을 사용하여 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하여, 각각의 핫스팟에 대해 핫스팟의 위치를 식별하는 핫스팟 목록 [예를 들어, 여기서, 기계 학습 모듈은 기계 학습 알고리즘(예를 들어, 3D 기능적 영상의 적어도 일부의 복셀들의 강도들에 기초하여 각각이 하나 이상의 핫스팟들 중 하나의 위치에 대응하는 하나 이상의 위치들(예를 들어, 3D 좌표들)을 결정하도록 훈련된 기계 학습 알고리즘(예를 들어, 인공 신경망(ANN))을 구현함]을 생성하는 단계 ― 각각의 핫스팟은 그 주변에 대해 높은 강도의 국소 영역에 대응하고 대상체 내의 잠재적인 암성 병변을 나타내고(예를 들어, 가리킴) ― ; (c) 프로세서에 의해, 하나 이상의 핫스팟들 각각에 대해 제2 기계 학습 모듈 및 핫스팟 목록을 사용하여 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨을 자동으로 결정하여, 3D 핫스팟 맵을 생성하는 단계 [예를 들어, 여기서, 제2 기계 학습 모듈은 3D 핫스팟 맵의 3D 핫스팟 볼륨들을 식별하기 위해 3D 기능적 영상의 복셀들의 강도들과 함께 핫스팟 목록에 적어도 부분적으로 기초하여 3D 기능적 영상을 분할하도록 훈련된 기계 학습 알고리즘 (예를 들어, 인공 신경망(ANN))을 구현하고, 여기서, 기계 학습 모듈은 3D 기능적 영상의 적어도 일부의 각각의 복셀에 대해, 복셀이 핫스팟에 대응하는 우도를 나타내는 핫스팟 우도값을 결정하도록 훈련된 기계 학습 모듈 알고리즘을 구현하고(예를 들어, 단계 (b)는 핫스팟 우도값들을 사용하여 3D 핫스팟 맵의 3D 핫스팟 볼륨들을 식별하기 위해 임계값 설정과 같은 하나 이상의 후속 후처리 단계들을 수행하는 단계를 포함함)], [예를 들어, 여기서, 3D 핫스팟 맵은 제2 기계 학습 모듈(예를 들어, 이로부터의 출력에 대응하고/하거나 기초됨)을 사용하여 생성되어 각각의 핫스팟에 대해 각각의 핫스팟의 3D 핫스팟 볼륨에 대응하는 3D 기능적 영상 내의 복셀들을 식별하는 분할 맵(예를 들어, 하나 이상의 분할 마스크들을 포함함)이며; 예를 들어, 여기서, 3D 핫스팟 맵은 각각의 핫스팟에 대해, 핫스팟의 3D 경계(예를 들어, 불규칙한 경계) (예를 들어, 3D 핫스팟 볼륨을 둘러싸는 3D 경계, 및 3D 기능적 영상의 다른 복셀들로부터 3D 핫스팟 볼륨을 만드는 3D 기능적 영상의 특징적인 복셀들)를 묘사함]; 및 (d) 표시 및/또는 추가 처리를 위해 핫스팟 목록 및/또는 3D 핫스팟 맵을 저장 및/또는 제공하는 단계를 포함한다. [0035] In another aspect, the present invention relates to a method for automatically processing 3D images of a subject to identify and/or characterize (eg, rank) cancerous lesions in the subject, the method comprising ( a) by a processor of a computing device, a functional imaging technique [eg, positron emission tomography (PET); Receiving (eg, and/or accessing) a 3D functional image of the object obtained using, for example, single photon emission computed tomography (SPECT)] [eg, where the 3D functional image is obtained in a plurality of It includes voxels of, each representing a specific physical volume within the object and having an intensity value representing detected radiation emitted from the specific physical volume, wherein at least some of the plurality of voxels of the 3D functional image are physical in the target tissue region. representing volumes]; (b) a list of hotspots, by the processor, automatically detecting one or more hotspots within the 3D functional image using a first machine learning module to identify, for each hotspot, a location of the hotspot [e.g., where machine learning The module uses a machine learning algorithm (eg, one or more positions (eg, 3D coordinates) each corresponding to a position of one of the one or more hotspots based on intensities of voxels of at least a portion of the 3D functional image). generating a machine learning algorithm (e.g., implementing an artificial neural network (ANN)) trained to determine , wherein each hotspot corresponds to a local area of high intensity to its surroundings and is a potential cancerous lesion in the subject. represents (eg, points to) - (c) by the processor, for each of the one or more hotspots, automatically determining a corresponding 3D hotspot volume in the 3D functional image using a second machine learning module and the hotspot list; , generating a 3D hotspot map [eg, wherein the second machine learning module is based at least in part on a hotspot list along with intensities of voxels of the 3D functional image to identify 3D hotspot volumes of the 3D hotspot map. Implement a machine learning algorithm (e.g., an artificial neural network (ANN)) trained to segment a 3D functional image, wherein the machine learning module, for each voxel of at least a portion of the 3D functional image, the voxel corresponds to a hotspot. implementing a machine learning module algorithm trained to determine a hotspot likelihood value representing a likelihood of performing one or more subsequent post-processing steps such as)], [eg, where the 3D hotspot map corresponds to and/or is based on an output from (eg, a second machine learning module) is a segmentation map (e.g., comprising one or more segmentation masks) that identifies, for each hotspot, the voxels in the 3D functional image corresponding to the 3D hotspot volume of each hotspot, generated using ; For example, here, the 3D hotspot map includes, for each hotspot, a 3D boundary (eg, an irregular boundary) of the hotspot (eg, a 3D boundary surrounding the 3D hotspot volume, and other voxels of the 3D functional image). characteristic voxels of a 3D functional image that create a 3D hotspot volume from )]; and (d) storing and/or providing the hotspot list and/or 3D hotspot map for display and/or further processing.

[0036] 특정 실시 형태에서, 상기 방법은 (e) 프로세서에 의해, 핫스팟들의 적어도 일부의 각각의 핫스팟에 대해 대상체 내의 병변을 나타내는 핫스팟의 우도에 대응하는 병변 우도 분류를 결정하는 단계를 포함한다. 특정 실시 형태에서, 단계 (e)는 제3 기계 학습 모듈(예를 들어, 핫스팟 분류 모듈)을 사용하여 각각의 핫스팟에 대한 병변 우도 분류를 결정하는 단계를 포함한다 [예를 들어, 3D 기능적 영상의 강도들, 핫스팟 목록, 3D 핫스팟 맵, 3D 해부학적 영상의 강도들 및 3D 분할 맵으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들에 적어도 부분적으로 기초하고; 예를 들어, 제3 기계 학습 모듈은 3D 기능적 영상의 강도들, 핫스팟 목록, 3D 핫스팟 맵, 3D 해부학적 영상의 강도들 및 3D 분할 맵으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들에 대응하는 하나 이상의 입력 채널들을 수신함]. [0036] In a particular embodiment, the method includes (e) determining, by the processor, for each hotspot of the at least some of the hotspots, a lesion likelihood classification corresponding to a likelihood of the hotspot indicative of a lesion in the subject. In certain embodiments, step (e) includes determining a lesion likelihood classification for each hotspot using a third machine learning module (eg, a hotspot classification module) [eg, a 3D functional image based at least in part on one or more members selected from the group consisting of intensities of , a hotspot list, a 3D hotspot map, intensities of a 3D anatomical image, and a 3D segmentation map; For example, the third machine learning module may receive one or more inputs corresponding to one or more members selected from the group consisting of intensities of a 3D functional image, a hotspot list, a 3D hotspot map, intensities of a 3D anatomical image, and a 3D segmentation map. receiving channels].

[0037] 특정 실시 형태에서, 방법은 (f) 프로세서에 의해, 핫스팟들에 대한 병변 우도 분류에 적어도 부분적으로 기초하여 암성 병변들에 대응할 높은 우도를 갖는 핫스팟들에 대응하는 하나 이상의 핫스팟들의 서브 세트를 선택하는 단계를 포함한다(예를 들어, 보고서에 포함하기 위해; 예를 들어, 대상체에 대한 하나 이상의 위험 지수값들을 계산하는 데 사용하기 위함). [0037] In a particular embodiment, the method further comprises (f) a subset of one or more hotspots that correspond, by the processor, to hotspots that have a high likelihood of corresponding to cancerous lesions based at least in part on a lesion likelihood classification for the hotspots. (eg, for inclusion in a report; eg, for use in calculating one or more risk index values for a subject).

[0038] 또 다른 양태에서, 본 발명은 낮은(예를 들어, 비정상적으로 낮은) 방사성 의약품 흡수(예를 들어, 추적자 흡수가 없는 종양으로 인해)와 관련된 조직 영역들로부터의 영향을 방지하기 위해 참조 조직 영역(예를 들어, 대상체의 간과 관련된 간 볼륨)에 대응하는 참조 볼륨 내의 강도값들을 측정하는 방법에 관한 것이며, 상기 방법은 (a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영 (PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영 (SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근)하는 단계 [예를 들어, 여기서, 3D 기능적 영상은 복수의 복셀들을 포함하며, 각각은 대상체 내의 특정 물리적 볼륨을 나타내고 특정 물리적 볼륨으로부터 방출되는 검출된 방사선을 나타내는 강도값을 가지며, 여기서, 3D 기능적 영상의 복수의 복셀들 중 적어도 일부는 표적 조직 영역 내의 물리적 볼륨을 나타냄]; (b) 프로세서에 의해, 3D 기능적 영상 내의 참조 볼륨을 식별하는 단계; (c) 프로세서에 의해, 다중 성분 혼합 모델(예를 들어, 2 성분 가우시안 혼합 모델)에 참조 볼륨 내의 복셀들의 강도들을 맞추는 단계 [참조 볼륨 내의 복셀들의 강도들의 분포(예를 들어, 히스토그램)에 다중 성분 혼합 모델을 맞추는 것]; (d) 프로세서에 의해, 다중 성분 모델의 주요 모드를 식별하는 단계; (e) 프로세서에 의해, 주요 모드에 대응하는 강도들의 치수(예를 들어, 평균, 최대, 모드, 중간 등)를 결정하여 (i) 참조 조직 볼륨 내에 있고 (ii) 상기 주요 모드와 관련된 복셀들 (그리고 예를 들어, 참조값 계산에서 부 모드들과 관련된 강도들을 갖는 복셀들을 제외함)의 강도의 치수에 대응하는 참조 강도값을 결정하는 단계(예를 들어, 이에 의해 낮은 방사성 의약품 흡수와 관련된 조직 영역들로부터의 영향을 방지함); (f) 프로세서에 의해, 기능적 영상 내에서 잠재적인 암성 병변들에 대응하는 하나 이상의 핫스팟들을 검출하는 단계; 및 (g) 프로세스에 의해, 검출된 핫스팟들의 적어도 일부의 각각의 핫스팟에 대해, 적어도 참조 강도값을 사용하여 병변 지수값 [예를 들어, 검출된 핫스팟에 대응하는 복셀들의 강도들의 치수 및 (ii) 참조 강도값에 기초한 병변 지수값]을 결정하는 단계를 포함한다. [0038] In another aspect, the present invention refers to preventing effects from tissue regions associated with low (eg, abnormally low) radiopharmaceutical uptake (eg, due to tumors with no tracer uptake). A method of measuring intensity values in a reference volume corresponding to a tissue region (eg, a liver volume associated with a liver of an object), the method comprising: (a) by a processor of a computing device, a functional imaging technique [eg, For example, positron emission tomography (PET); Receiving (eg, and/or accessing) a 3D functional image of the object obtained using, for example, single photon emission computed tomography (SPECT)] [eg, wherein the 3D functional image is obtained by plural It includes voxels of, each representing a specific physical volume within the object and having an intensity value representing detected radiation emitted from the specific physical volume, wherein at least some of the plurality of voxels of the 3D functional image are physical in the target tissue region. represents the volume]; (b) identifying, by the processor, a reference volume within the 3D functional image; (c) fitting, by the processor, the intensities of voxels in the reference volume to a multi-component mixture model (eg, a two-component Gaussian mixture model) [multiple to the distribution (eg, histogram) of intensities of voxels in the reference volume; fitting component mixture models]; (d) identifying, by the processor, dominant modes of the multi-component model; (e) determining, by the processor, a dimension (eg, mean, maximum, mode, median, etc.) of intensities corresponding to a principal mode that (i) are within the reference tissue volume and (ii) are associated with the principal mode. determining a reference intensity value corresponding to a dimension of the intensity of (and eg, excluding voxels having intensities associated with minor modes in the reference value calculation) (eg, thereby tissue associated with low radiopharmaceutical uptake); prevent influence from areas); (f) detecting, by the processor, one or more hotspots corresponding to potentially cancerous lesions within the functional image; and (g) by the process, for each hotspot of at least some of the detected hotspots, a lesion index value using at least the reference intensity value [e.g., a dimension of intensities of voxels corresponding to the detected hotspot and (ii) ) lesion index value based on the reference intensity value].

[0039] 또 다른 양태에서, 본 발명은 정상적인 상황 하에서 높은 방사성 의약품 흡수와 관련된 대상체 내의 고흡수 조직 영역들로 인한(예를 들어, 반드시 암을 나타내는 것은 아님) 강도 블리드(예를 들어, 누화(cross―talk))를 보정하는 방법에 관한 것이며, 상기 방법은 (a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신 (예를 들어, 및/또는 접근) 하는 단계 [예를 들어, 여기서, 3D 기능적 영상은 복수의 복셀들을 포함하며, 각각은 대상체 내의 특정 물리적 볼륨을 나타내고 특정 물리적 볼륨으로부터 방출되는 검출된 방사선을 나타내는 강도값을 가지며, 여기서, 3D 기능적 영상의 복수의 복셀들 중 적어도 일부는 표적 조직 영역 내의 물리적 볼륨을 나타냄]; (b) 프로세서에 의해, 3D 기능적 영상 내의 고강도 볼륨을 식별하는 단계 ― 상기 고강도 볼륨은 정상적인 상황 하에서 높은 방사성 의약품 흡수가 발생하는 특정 고흡수 조직 영역(예를 들어, 신장; 예를 들어, 간; 예를 들어, 방광)에 대응함 ― ; (c) 프로세서에 의해, 식별된 고강도 볼륨에 기초하여 3D 기능적 영상 내의 억제 볼륨(suppression volumn)을 식별하는 단계 ― 상기 억제 볼륨은 식별된 고강도 볼륨의 경계로부터 미리 결정된 감쇠 거리 내부 및 외부에 있는 볼륨에 대응함 ― ; (d) 프로세서에 의해, 억제 볼륨 내의 3D 기능적 영상의 복셀들의 강도들에 기초하여 결정된 보간값들로 대체된 고강도 볼륨 내의 복셀들의 강도들을 갖는 3D 기능적 영상에 대응하는 배경 영상을 결정하는 단계; (e) 프로세서에 의해, 3D 기능적 영상으로부터의 복셀들의 강도들로부터 배경 영상의 복셀들의 강도들을 차감하여(예를 들어, 복셀별 감산을 수행하여) 추정 영상을 결정하는 단계; (f) 프로세서에 의해, 억제 볼륨에 대응하는 억제 맵의 복셀들의 강도들을 결정하기 위해 상기 고강도 볼륨에 대응하는 추정 영상의 복셀들의 강도들을 억제 볼륨 내의 복셀들의 위치들로 외삽하고, 상기 억제 볼륨의 외부 위치들에 대응하는 억제 맵의 복셀들의 강도들을 0으로 설정함으로써 억제 맵을 결정하는 단계; 및 (g) 프로세서에 의해, 억제 맵에 기초하여 3D 기능적 영상의 복셀들의 강도들을 조정하여(예를 들어, 3D 기능적 영상의 복셀들의 강도들로부터 억제 맵의 복셀들의 강도들을 차감함으로써) 상기 고강도 볼륨으로부터 강도 블리드를 보정하는 단계를 포함한다. [0039] In another aspect, the invention relates to intensity bleed (e.g., crosstalk (e.g., not necessarily indicative of cancer) due to areas of high absorption tissue in a subject associated with high absorption of radiopharmaceuticals under normal circumstances). cross-talk), the method comprising: (a) by a processor of a computing device, a functional imaging technique [eg, positron emission tomography (PET); Receiving (eg, and/or accessing) a 3D functional image of the object obtained using, eg, single photon emission computed tomography (SPECT)] [eg, where the 3D functional image is obtained by plural It includes voxels of, each representing a specific physical volume within the object and having an intensity value representing detected radiation emitted from the specific physical volume, wherein at least some of the plurality of voxels of the 3D functional image are physical in the target tissue region. represents the volume]; (b) identifying, by the processor, a high-intensity volume within the 3D functional image, wherein the high-intensity volume is a specific high-absorption tissue region where high radiopharmaceutical uptake occurs under normal circumstances (eg, kidney; eg, liver; eg, bladder) -; (c) identifying, by the processor, a suppression volume in the 3D functional image based on the identified high-intensity volume, the suppression volume being within and outside a predetermined attenuation distance from the boundary of the identified high-intensity volume; Corresponds to ; (d) determining, by a processor, a background image corresponding to the 3D functional image with intensities of voxels in the high-intensity volume replaced with interpolated values determined based on intensities of voxels of the 3D functional image in the suppression volume; (e) determining, by a processor, an estimated image by subtracting intensities of voxels in the background image from intensities of voxels in the 3D functional image (eg, by performing voxel-by-voxel subtraction); (f) extrapolating, by a processor, intensities of voxels of an estimated image corresponding to the high-intensity volume to locations of voxels within the suppression volume to determine intensities of voxels of a suppression map corresponding to the suppression volume; determining a suppression map by setting intensities of voxels of the suppression map corresponding to the extrinsic locations to zero; and (g) the high intensity volume by the processor to adjust intensities of voxels of the 3D functional image based on the suppression map (eg, by subtracting intensities of voxels of the suppression map from intensities of voxels of the 3D functional image). and correcting the intensity bleed from

[0040] 특정 실시 형태에서, 상기 방법은 복수의 고강도 볼륨들 각각에 대해, 단계들 (b) 내지 (g)를 순차적인 방식으로 수행하여 복수의 고강도 볼륨들 각각으로부터의 강도 블리드를 보정하는 단계를 포함한다. [0040] In a particular embodiment, the method includes performing, for each of a plurality of high intensity volumes, steps (b) to (g) in a sequential manner to correct intensity bleed from each of a plurality of high intensity volumes. includes

[0041] 특정 실시 형태에서, 복수의 고강도 볼륨들은 신장, 간 및 방광(예를 들어, 비뇨기 방광)으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함한다. [0041] In a particular embodiment, the plurality of high intensity volumes include one or more members selected from the group consisting of kidney, liver and bladder (eg, urinary bladder).

[0042] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변들을 식별 및/또는 특성화(예를들어, 등급화)하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 방법에 관한 것으로서, 상기 방법은 (a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근)하는 단계 [예를 들어, 여기서, 3D 기능적 영상은 복수의 복셀들을 포함하며, 각각은 대상체 내의 특정 물리적 볼륨을 나타내고 특정 물리적 볼륨으로부터 방출되는 검출된 방사선을 나타내는 강도값을 가지며, 여기서, 3D 기능적 영상의 복수의 복셀들 중 적어도 일부는 표적 조직 영역 내의 물리적 볼륨을 나타냄]; (b) 프로세서에 의해, 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하는 단계 ― 각각의 핫스팟은 그 주변에 대해 높은 강도의 국소 영역에 대응하고 대상체 내의 잠재적인 암성 병변을 나타냄(예를 들어, 가리킴) ― ; (c) 프로세서에 의해, 대화형 그래픽 사용자 인터페이스(GUI)(예를 들어, 품질 관리 및 보고 GUI) 내의 표시를 위한 하나 이상의 핫스팟들의 그래픽 표현의 렌더링(rendering)을 야기하는 단계; (d) 프로세서에 의해, 하나 이상의 자동으로 검출된 핫스팟들의 적어도 일부(예를 들어, 최대 전체)를 포함하는 최종 핫스팟 세트의 사용자 선택을 상기 대화형 GUI를 통해 수신하는 단계(예를 들어, 보고서에 포함하기 위함); 및 (e) 표시 및/또는 추가 처리를 위해, 최종 핫스팟 세트를 저장 및/또는 제공하는 단계를 포함한다. [0042] In another aspect, the present invention relates to a method for automatically processing 3D images of a subject to identify and/or characterize (eg, rank) cancerous lesions in the subject, the method comprising: a) by a processor of a computing device, a functional imaging technique [eg, positron emission tomography (PET); Receiving (eg, and/or approaching) a 3D functional image of the object obtained using, for example, single photon emission computed tomography (SPECT)] [eg, where the 3D functional image is obtained by plural It includes voxels of, each representing a specific physical volume within the object and having an intensity value representing detected radiation emitted from the specific physical volume, wherein at least some of the plurality of voxels of the 3D functional image are physical in the target tissue region. represents the volume]; (b) automatically detecting, by the processor, one or more hotspots in the 3D functional image, each hotspot corresponding to a local area of high intensity to its surroundings and representing a potential cancerous lesion in the subject (e.g., pointing) ― ; (c) causing, by the processor, rendering of a graphical representation of the one or more hotspots for display in an interactive graphical user interface (GUI) (eg, a quality management and reporting GUI); (d) receiving, by the processor, a user selection (e.g., report, report) of a final set of hotspots that includes at least a portion (e.g., up to all) of the one or more automatically detected hotspots. for inclusion in); and (e) storing and/or providing the final set of hotspots for display and/or further processing.

[0043] 특정 실시 형태에서, 상기 방법은 (f) 프로세서에 의해 최종 핫스팟 세트에 포함하기 위한 하나 이상의 추가 사용자 식별 핫스팟들의 사용자 선택을 GUI를 통해 수신하는 단계; 및 (g) 프로세서에 의해, 하나 이상의 추가 사용자 식별 핫스팟들을 포함하도록 설정된 최종 핫스팟을 갱신하는 단계를 포함한다. [0043] In a particular embodiment, the method includes (f) receiving, by a processor, via a GUI a user selection of one or more additional user-identified hotspots for inclusion in a final set of hotspots; and (g) updating, by the processor, the last hotspot configured to include one or more additional user identification hotspots.

[0044] 특정 실시 형태에서, 단계 (b)는 하나 이상의 기계 학습 모듈들을 사용하는 단계를 포함한다. [0044] In a particular embodiment, step (b) includes using one or more machine learning modules.

[0045] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변들을 식별 및 특성화(예를들어, 등급화)하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 방법에 관한 것이며, 상기 방법은 (a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근) 하는 단계 [예를 들어, 여기서, 3D 기능적 영상은 복수의 복셀들을 포함하며, 각각은 대상체 내의 특정 물리적 볼륨을 나타내고 특정 물리적 볼륨으로부터 방출되는 검출된 방사선을 나타내는 강도값을 가지며, 여기서, 3D 기능적 영상의 복수의 복셀들 중 적어도 일부는 표적 조직 영역 내의 물리적 볼륨을 나타냄]; (b) 프로세서에 의해, 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하는 단계 ― 각각의 핫스팟은 그 주변에 대해 높은 강도의 국소 영역에 대응하고 대상체 내의 잠재적인 암성 병변을 나타냄(예를 들어, 가리킴) ― ; (c) 프로세서에 의해, 각각의 핫스팟에 대해 핫스팟이 나타내는 잠재적인 암성 병변이 위치되도록 [예를 들어, 전립선, 골반 림프절, 비골반 림프절, 뼈(예를 들어, 뼈 전이 영역) 내 및 전립선 또는 림프절에 위치하지 않는 연조직 영역 내에] 결정된 대상체 내의 특정 해부학적 영역 및/또는 해부학적 영역들의 그룹에 대응하는 해부학적 분류를 결정하는 단계 [예를 들어, 프로세서에 의해(예를 들어, 수신 및/또는 결정된 3D 분할 맵에 기초함)]; 및 (d) 표시 및/또는 추가 처리를 위해, 각각의 핫스팟에 대해 핫스팟에 대응하는 해부학적 분류와 함께 하나 이상의 핫스팟들의 식별을 저장 및/또는 제공하는 단계를 포함한다. [0045] In another aspect, the invention relates to a method for automatically processing 3D images of a subject to identify and characterize (eg, rank) cancerous lesions in the subject, the method comprising (a) Functional imaging techniques [eg, positron emission tomography (PET); Receiving (eg, and/or accessing) a 3D functional image of the object obtained using, for example, single photon emission computed tomography (SPECT)] [eg, where the 3D functional image is obtained in a plurality of It includes voxels of, each representing a specific physical volume within the object and having an intensity value representing detected radiation emitted from the specific physical volume, wherein at least some of the plurality of voxels of the 3D functional image are physical in the target tissue region. represents the volume]; (b) automatically detecting, by the processor, one or more hotspots in the 3D functional image, each hotspot corresponding to a local area of high intensity to its surroundings and representing a potential cancerous lesion in the subject (e.g., pointing) ― ; (c) for each hotspot, by the processor, a potentially cancerous lesion indicative of the hotspot is located [eg, in the prostate, pelvic lymph nodes, non-pelvic lymph nodes, in bone (eg, areas of bone metastasis) and in the prostate or determining an anatomical classification corresponding to a specific anatomical region and/or group of anatomical regions within the determined object [eg, by a processor (eg, by a processor (eg, receive and/or or based on the determined 3D segmentation map)]; and (d) storing and/or providing for each hotspot an identification of one or more hotspots along with an anatomical classification corresponding to the hotspot for display and/or further processing.

[0046] 특정 실시 형태에서, 단계 (b)는 하나 이상의 기계 학습 모듈들을 사용하는 단계를 포함한다. [0046] In a particular embodiment, step (b) includes using one or more machine learning modules.

[0047] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변을 식별 및/또는 특성화 (예를 들어 등급화)하기 위해 대상체의 3D 영상을 자동으로 처리하기 위한 시스템에 관한 것이며, 상기 시스템은 컴퓨팅 디바이스의 프로세서; 및 명령이 저장되어 있는 메모리(memory)를 포함하며, 상기 명령들은 프로세서에 의해 실행될 때 프로세서가, (a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근) 하도록 하고 [예를 들어, 여기서, 3D 기능적 영상은 복수의 복셀들을 포함하며, 각각은 대상체 내의 특정 물리적 볼륨을 나타내고 특정 물리적 볼륨으로부터 방출되는 검출된 방사선을 나타내는 강도값(예를 들어, 표준 흡수값(SUV))을 가지며, 여기서, 3D 기능적 영상의 복수의 복셀들 중 적어도 일부는 표적 조직 영역 내의 물리적 볼륨을 나타냄]; (b) 프로세서에 의해, 기계 학습 모듈 [예를 들어, 미리 훈련된 기계 학습 모듈 [예를 들어, 훈련 절차를 통해 결정된 미리 결정된(예를 들어, 고정된) 파라미터들을 가짐)]을 사용하여 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하도록 하여 (i) 각각의 핫스팟에 대해 핫스팟의 위치를 식별하는 핫스팟 목록 [예를 들어, 좌표들 목록(예를 들어, 영상 좌표들; 예를 들어, 물리적 공간 좌표들); 예를 들어, 검출된 핫스팟의 위치(예를 들어, 질량의 중심)에 대응하는 3D 기능적 영상의 각각의 복셀들을 식별하는 마스크], 및 (ii) 각각의 핫스팟에 대해, 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨 {예를 들어, 여기서, 3D 핫스팟 맵은 각각의 핫스팟에 대해 각각의 핫스팟의 3D 핫스팟 볼륨에 대응하는 3D 기능적 영상 내의 복셀들을 식별하는 분할 맵(예를 들어, 하나 이상의 분할 마스크들을 포함함)이며 [예를 들어, 여기서, 3D 핫스팟 맵은 기능적인 영상의 인공 지능 기반 분할 (예를 들어, 적어도 3D 기능적 영상을 입력으로 수신하고 3D 핫스팟 맵을 출력으로 생성하여 핫스팟들을 분할하는 기계 학습 모듈을 사용함)을 통해 획득됨]; 예를 들어, 여기서, 3D 핫스팟 맵은 각각의 핫스팟에 대해, 핫스팟의 3D 경계(예를 들어, 불규칙한 경계)(예를 들어, 3D 핫스팟 볼륨을 둘러싸는 3D 경계, 및 3D 기능적 영상의 다른 복셀들로부터 3D 핫스팟 볼륨을 만드는 3D 기능적 영상의 특징적인 복셀들)를 묘사함을 식별하는 3D 핫스팟 맵 중 하나 또는 둘 모두를 생성하도록 하고, 각각의 핫스팟은 그 주변에 대해 높은 강도의 국소 영역에 대응하고 대상체 내의 잠재적인 암성 병변을 나타내고(예를 들어, 가리킴)}; 및 (c) 표시 및/또는 추가 처리를 위해 핫스팟 목록 및/또는 3D 핫스팟 맵을 저장 및/또는 제공하도록 한다. [0047] In another aspect, the present invention relates to a system for automatically processing 3D images of a subject to identify and/or characterize (eg, grade) cancerous lesions in the subject, the system comprising a computing device of the processor; and a memory having stored therein instructions, which when executed by the processor cause the processor to: (a) by the processor of the computing device, a functional imaging technique [e.g., positron emission tomography (PET); ); receive (eg, and/or access) a 3D functional image of an object obtained using, for example, single photon emission computed tomography (SPECT)] and [eg, wherein the 3D functional image is obtained by multiple includes voxels of , each representing a specific physical volume within the object and having an intensity value (eg, standard absorption value (SUV)) representing detected radiation emitted from the specific physical volume, wherein a plurality of 3D functional images at least some of the voxels in represent a physical volume within the target tissue area]; (b) by the processor, using a machine learning module [eg, a pre-trained machine learning module [eg, having predetermined (eg, fixed) parameters determined through a training procedure]] to automatically detect one or more hotspots within a functional image, such that (i) for each hotspot, a hotspot list identifying the hotspot's location [e.g., a list of coordinates (e.g., image coordinates; e.g., physical spatial coordinates); For example, a mask identifying respective voxels of the 3D functional image corresponding to the location of the detected hotspot (eg, center of mass)], and (ii) for each hotspot, a corresponding mask in the 3D functional image 3D hotspot volume {e.g., where the 3D hotspot map is a segmentation map (e.g., comprising one or more segmentation masks) identifying, for each hotspot, voxels within the 3D functional image corresponding to the 3D hotspot volume of each hotspot. [e.g., where the 3D hotspot map is an artificial intelligence-based segmentation of a functional image (e.g., machine learning that receives at least a 3D functional image as input and generates a 3D hotspot map as output to segment hotspots). Obtained via); For example, here, the 3D hotspot map includes, for each hotspot, a 3D boundary (eg, an irregular boundary) of the hotspot (eg, a 3D boundary surrounding the 3D hotspot volume, and other voxels of the 3D functional image). generate one or both of the 3D hotspot maps that identify the characteristic voxels of the 3D functional image that make up the 3D hotspot volume from indicate (eg, point to) potentially cancerous lesions in the subject}; and (c) store and/or provide hotspot lists and/or 3D hotspot maps for display and/or further processing.

[0048] 특정 실시 형태에서, 기계 학습 모듈은 3D 기능적 영상의 적어도 일부를 입력으로 수신하고 3D 기능적 영상의 수신된 부분의 복셀들의 강도들에 적어도 부분적으로 기초하여 하나 이상의 핫스팟들을 자동으로 검출한다. [0048] In a particular embodiment, the machine learning module receives as input at least a portion of a 3D functional image and automatically detects one or more hotspots based at least in part on intensities of voxels of the received portion of the 3D functional image.

[0049] 특정 실시 형태에서, 기계 학습 모듈은 3D 기능적 영상 내의 하나 이상의 관심 볼륨(VOI)들을 식별하는 3D 분할 맵을 입력으로 수신하며, 각각의 VOI는 특정 표적 조직 영역 및/또는 대상체 내의 특정 해부학적 영역 [예를 들어, 연조직 영역(예를 들어, 전립선, 림프절, 폐, 유방); 예를 들어, 하나 이상의 특정 뼈들; 예를 들어, 전체 골격 영역]에 대응한다. [0049] In a particular embodiment, the machine learning module receives as input a 3D segmentation map identifying one or more volumes of interest (VOIs) within a 3D functional image, each VOI having a specific target tissue region and/or specific anatomy within an object. enemy areas [eg, soft tissue areas (eg, prostate, lymph nodes, lungs, breast); For example, one or more specific bones; For example, the entire skeleton region].

[0050] 특정 실시 형태에서, 명령들은 프로세서가, 해부학적 영상 촬영 기법 [예를 들어, x-선 컴퓨터 단층촬영(CT); 예를 들어, 자기 공명 영상 촬영(MRI); 예를 들어, 초음파]을 사용하여 획득된 대상체의 3D 해부학적 영상을 수신 (및/또는 접근)하도록 하고. 여기서, 3D 해부학적 영상은 대상체 내의 조직(예를 들어, 연조직 및/또는 뼈)의 그래픽 표현을 포함하고, 기계 학습 모듈은 적어도 두 개의 입력 채널들을 수신하며, 상기 입력 채널들은 3D 해부학적 영상의 적어도 일부에 대응하는 제1 입력 채널 및 3D 기능적 영상의 적어도 일부에 대응하는 제2 입력 채널 [예를 들어, 여기서, 기계 학습 모듈은 PET 영상과 CT 영상을 별도의 채널들(예를 들어, 동일한 볼륨을 나타내는 별도의 채널들)로 수신함(예를 들어, 컬러 (color) 사진 영상의 2 개의 컬러 채널들 (RGB)의 기계 학습 모듈에 의한 수신과 유사함)]을 포함한다. [0050] In a particular embodiment, the instructions may cause the processor to perform an anatomical imaging technique [eg, x-ray computed tomography (CT); For example, magnetic resonance imaging (MRI); For example, to receive (and/or access) a 3D anatomical image of an object acquired using ultrasound]. Here, the 3D anatomical image includes a graphical representation of a tissue (eg, soft tissue and/or bone) in the object, and the machine learning module receives at least two input channels, the input channels representing the 3D anatomical image. A first input channel corresponding to at least a portion and a second input channel corresponding to at least a portion of the 3D functional image [eg, here, the machine learning module converts the PET image and the CT image into separate channels (eg, the same receiving with separate channels representing the volume (e.g., similar to receiving by a machine learning module of two color channels (RGB) of a color photographic image)].

[0051] 특정 실시 형태에서, 기계 학습 모듈은 상기 3D 기능적 영상 및/또는 상기 3D 해부학적 영상 내에서 하나 이상의 관심 볼륨(VOI)들을 식별하는 3D 분할 맵을 입력으로서 수신하고, 각각의 VOI는 특정 표적 조직 영역 및/또는 특정 해부학적 영역에 대응한다. [0051] In a particular embodiment, a machine learning module receives as input a 3D segmentation map identifying one or more volumes of interest (VOIs) within the 3D functional image and/or the 3D anatomical image, each VOI having a specific Corresponds to a target tissue region and/or a specific anatomical region.

[0052] 특정 실시 형태에서, 명령들은 프로세서가 3D 해부학적 영상을 자동으로 분할하도록 하여 3D 분할 맵을 생성한다. [0052] In a particular embodiment, the instructions cause a processor to automatically segment a 3D anatomical image to create a 3D segmentation map.

[0053] 특정 실시 형태에서, 기계 학습 모듈은 대상체의 하나 이상의 특정 조직 영역들 및/또는 해부학적 영역들에 대응하는 3D 기능적 영상의 특정 부분을 입력으로 수신하는 특정 영역 기계 학습 모듈이다. [0053] In a specific embodiment, the machine learning module is a region specific machine learning module that receives a specific part of a 3D functional image corresponding to one or more specific tissue regions and/or anatomical regions of an object as an input.

[0054] 특정 실시 형태에서, 기계 학습 모듈은 핫스팟 목록을 출력으로 생성한다 [예를 들어, 여기서, 기계 학습 모듈은 3D 기능 영상의 적어도 일부의 복셀들의 강도들에 기초하여 각각이 하나 이상의 핫스팟들 중 하나의 위치에 대응하는 하나 이상의 위치들(예를 들어, 3D 좌표들)을 결정하도록 훈련된 기계 학습 알고리즘(예를 들어, 인공 신경망(ANN))을 구현한다]. [0054] In a particular embodiment, the machine learning module generates as output a list of hotspots [eg, where the machine learning module identifies one or more hotspots each based on intensities of voxels of at least some of the 3D functional images. implements a machine learning algorithm (eg, an artificial neural network (ANN)) trained to determine one or more positions (eg, 3D coordinates) corresponding to a position of one of

[0055] 특정 실시 형태에서, 기계 학습 모듈은 3D 핫스팟 맵을 출력으로 생성한다 [예를 들어, 여기서, 기계 학습 모듈은 3D 핫스팟 맵의 3D 핫스팟 볼륨들을 식별하기 위해(예를 들어, 3D 핫스팟 맵은 각각의 핫스팟에 대해 3D 경계(예를 들어, 불규칙한 경계)를 묘사하여 3D 핫스팟 볼륨들(예를 들어, 3D 핫스팟 경계들에 의해 둘러싸임)을 식별하기 위해) 3D 기능적 영상(예를 들어, 3D 기능적 영상의 복셀들의 강도들에 적어도 부분적으로 기초함)을 분할하도록 훈련된 기계 학습 알고리즘(예를 들어, 인공 신경망(ANN))을 구현하며; 예를 들어, 여기서, 기계 학습 모듈은 3D 기능 영상의 적어도 일부의 각각의 복셀에 대해, 복셀이 핫스팟에 대응할 우도를 나타내는 핫스팟 우도값을 결정하도록 훈련된 기계 학습 알고리즘을 구현한다(예를 들어, 단계 (b)는 핫스팟 우도값들을 사용하여 3D 핫스팟 맵의 3D 핫스팟 볼륨들을 식별하기 위해(예를 들어, 3D 핫스팟 맵은 각각의 핫스팟에 대해 핫스팟의 3D 경계(예를 들어, 불규칙한 경계)를 묘사하여(예를 들어, 3D 핫스팟 경계로 둘러싸인) 3D 핫스팟 볼륨들을 식별하기 위해) 임계값 설정과 같은 하나 이상의 후속 후처리 단계들을 수행하는 단계를 포함한다]. [0055] In a particular embodiment, the machine learning module generates a 3D hotspot map as output [eg, where the machine learning module identifies 3D hotspot volumes of the 3D hotspot map (eg, the 3D hotspot map 3D functional image (eg, to identify 3D hotspot volumes (eg, surrounded by 3D hotspot boundaries)) by delineating a 3D boundary (eg, an irregular boundary) for each hotspot. implement a machine learning algorithm (eg, an artificial neural network (ANN)) trained to segment (based at least in part on intensities of voxels of the 3D functional image); For example, here, the machine learning module implements, for each voxel of at least a portion of the 3D functional image, a machine learning algorithm trained to determine a hotspot likelihood value representing a likelihood that the voxel will correspond to a hotspot (eg, Step (b) uses the hotspot likelihood values to identify 3D hotspot volumes of a 3D hotspot map (e.g., the 3D hotspot map depicts, for each hotspot, a 3D boundary (e.g., an irregular boundary) of the hotspot). and performing one or more subsequent post-processing steps, such as setting a threshold (eg, to identify 3D hotspot volumes surrounded by a 3D hotspot boundary)].

[0056] 특정 실시 형태에서, 명령들은 프로세서가 (d) 핫스팟들의 적어도 일부의 각각의 핫스팟에 대해, 대상체 내의 병변을 나타내는 핫스팟의 우도에 대응하는 병변 우도 분류 [예를 들어, 핫스팟이 진정한 병변인지 여부를 나타내는 이진 분류; 예를 들어 진정한 병변을 나타내는 핫스팟의 우도를 나타내는 척도(예를 들어, 0 에서 1 까지의 부동 소수점 값) 상의 우도값]를 결정하도록 한다. [0056] In a particular embodiment, the instructions cause the processor to: (d) for each hotspot of at least some of the hotspots, classify a lesion likelihood corresponding to a likelihood of the hotspot representing a lesion in the subject [e.g., whether the hotspot is a true lesion; binary classification indicating whether or not; For example, a likelihood value on a scale (eg, a floating point value from 0 to 1) representing the likelihood of a hotspot representing a true lesion] is determined.

[0057] 특정 실시 형태에서, 단계 (d)에서, 명령들은 프로세서가 일부의 각각의 핫스팟에 대해 병변 우도 분류를 결정하기 위해 기계 학습 모듈을 사용하도록 한다 [예를 들어, 여기서, 기계 학습 모듈은 핫스팟들을 검출하기 위해(예를 들어, 핫스팟 목록 및/또는 3D 핫스팟 맵을 출력으로 생성하기 위함) 그리고 각각의 핫스팟에 대해 핫스팟에 대한 병변 우도 분류를 결정하기 위해 훈련된 기계 학습 알고리즘을 구현한다]. [0057] In a particular embodiment, in step (d), the instructions cause the processor to use a machine learning module to determine a lesion likelihood classification for each hotspot of the portion [eg, wherein the machine learning module implement a trained machine learning algorithm to detect hotspots (e.g., to generate a hotspot list and/or a 3D hotspot map as output) and for each hotspot to determine a lesion likelihood classification for the hotspot] .

[0058] 특정 실시 형태에서, 단계 (d)에서 명령들은 프로세서가 제2 기계 학습 모듈(예를 들어, 핫스팟 분류 모듈)을 사용하여 각각의 핫스팟에 대한 병변 우도 분류를 결정하도록 한다 [예를 들어, 3D 기능적 영상의 강도들, 핫스팟 목록, 3D 핫스팟 맵, 3D 해부학적 영상의 강도들 및 3D 분할 맵으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들에 적어도 부분적으로 기초하고; 예를 들어, 제2 기계 학습 모듈은 3D 기능적 영상의 강도들, 핫스팟 목록, 3D 핫스팟 맵, 3D 해부학적 영상의 강도들 및 3D 분할 맵으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들에 대응하는 하나 이상의 입력 채널들을 수신함]. [0058] In a particular embodiment, the instructions in step (d) cause the processor to determine a lesion likelihood classification for each hotspot using a second machine learning module (eg, a hotspot classification module) [eg, a hotspot classification module]. , intensities of a 3D functional image, a hotspot list, a 3D hotspot map, intensities of a 3D anatomical image, and a 3D segmentation map; For example, the second machine learning module may receive one or more inputs corresponding to one or more members selected from the group consisting of intensities of a 3D functional image, a hotspot list, a 3D hotspot map, intensities of a 3D anatomical image, and a 3D segmentation map. receiving channels].

[0059] 특정 실시 형태에서, 명령들은 프로세서가 각각의 핫스팟에 대해 하나 이상의 핫스팟 특징들의 세트를 결정하고 상기 하나 이상의 핫스팟 특징들의 세트를 상기 제2 기계 학습 모듈에 입력으로 사용하도록 한다. [0059] In a particular embodiment, the instructions cause a processor to determine a set of one or more hotspot characteristics for each hotspot and use the set of one or more hotspot characteristics as input to the second machine learning module.

[0060] 특정 실시 형태에서, 명령들은 프로세서가 (e) 핫스팟들에 대한 병변 우도 분류에 적어도 부분적으로 기초하여 암성 병변들에 대응할 높은 우도를 갖는 핫스팟들에 대응하는 하나 이상의 핫스팟들의 서브 세트를 선택하도록 한다(예를 들어, 보고서에 포함하기 위해; 예를 들어, 대상체에 대한 하나 이상의 위험 지수값들을 계산하는 데 사용하기 위함). [0060] In a particular embodiment, the instructions cause the processor to (e) select a subset of one or more hotspots that correspond to hotspots with a high likelihood to correspond to cancerous lesions based at least in part on a lesion likelihood classification for the hotspots. (eg, for inclusion in a report; eg, for use in calculating one or more risk index values for a subject).

[0061] 특정 실시 형태에서, 명령들은 프로세서가 (f) [단계 (b) 이전에] 프로세서에 의해, 3D 기능적 영상의 복셀들의 강도들을 조정하여 3D 기능적 영상의 하나 이상의 고강도 볼륨들로부터 강도 블리드(예를 들어, 누화)를 보정하도록 하며, 하나 이상의 고강도 볼륨들 각각은 정상적인 상황 하에서 높은 방사성 의약품 흡수와 관련된 대상체 내의 고흡수 조직 영역에 대응한다 (반드시 암을 나타내는 것은 아님). [0061] In a particular embodiment, the instructions cause the processor to (f) (prior to step (b)) adjust the intensities of voxels of the 3D functional image by the processor to bleed the intensity from one or more high-intensity volumes of the 3D functional image ( eg, crosstalk), each of the one or more high-intensity volumes corresponds to an area of high absorption tissue in the subject associated with high absorption of radiopharmaceuticals under normal circumstances (not necessarily indicative of cancer).

[0062] 특정 실시 형태에서, 단계 (f)에서, 명령들은 프로세서가 순차적인 방식으로 한 번에 하나씩 복수의 고강도 볼륨들로부터의 강도 블리드를 보정하도록 한다 [예를 들어, 제1 보정된 영상을 생성하기 위해 제1 고강도 볼륨으로부터 강도 블리드를 보정하도록 3D 기능적 영상의 복셀들의 강도들을 먼저 조정하고, 그 다음 제2 고강도 볼륨으로부터 강도 블리드 등을 보정하기 위해 제1 보정된 영상의 복셀들의 강도들을 조정함]. [0062] In a particular embodiment, in step (f), the instructions cause the processor to correct intensity bleed from the plurality of high-intensity volumes one at a time in a sequential fashion (e.g., a first corrected image first adjusting the intensities of voxels of the 3D functional image to correct intensity bleed from the first high intensity volume to generate, then adjusting the intensities of voxels of the first corrected image to correct intensity bleed etc. from the second high intensity volume box].

[0063] 특정 실시 형태에서, 하나 이상의 고강도 볼륨들은 신장, 간 및 방광(예를 들어, 비뇨기 방광)으로 이루어진 그룹으로부터 선택된 하나 이상의 고흡수 조직 영역들에 대응한다. [0063] In a particular embodiment, the one or more high intensity volumes correspond to one or more highly absorbent tissue regions selected from the group consisting of kidney, liver and bladder (eg, urinary bladder).

[0064] 특정 실시 형태에서, 명령들은 프로세서가 (g) 하나 이상의 핫스팟들의 적어도 일부의 각각에 대해, 상기 핫스팟이 대응하는 기저 병변의 크기 및/또는 내부(예를 들어, 볼륨)의 방사성 의약품 흡수 수준을 나타내는 대응하는 병변 지수를 결정하도록 한다. [0064] In a particular embodiment, the instructions may cause the processor to (g) for each of at least a portion of the one or more hotspots, the size and/or interior (e.g., volume) of the radiopharmaceutical uptake of the underlying lesion to which the hotspot corresponds. Determine the corresponding lesion index representing the level.

[0065] 특정 실시 형태에서, 단계 (g)에서 명령들은 프로세서가 핫스팟(예를 들어, 핫스팟의 위치에서 및/또는 그 위치에 대해; 예를 들어, 핫스팟의 볼륨 내에서)과 관련된 하나 이상의 복셀들의 강도(강도들)(예를 들어, 표준 흡수 값 (SUV)들에 대응함)를 하나 이상의 참조 값들과 비교하도록 하며, 각각의 참조 값은 대상체 내의 특정 참조 조직 영역(예를 들어, 간; 예를 들어, 대동맥 부분)과 관련되고 참조 조직 영역에 대응하는 참조 볼륨 [예를 들어, 평균으로서(예를 들어, 사분위수 범위 값들의 평균과 같은 강력한 평균)]의 강도들(예를 들어, SUV 값들)에 기초하여 결정된다. [0065] In a particular embodiment, the instructions in step (g) direct the processor to one or more voxels associated with a hotspot (eg, at and/or about the location of the hotspot; eg, within a volume of the hotspot). to compare the intensity (intensities) of (e.g., corresponding to standard absorption values (SUVs)) with one or more reference values, each reference value being a specific reference tissue region within the subject (e.g., liver; e.g. Intensities (e.g., SUVs) of a reference volume [e.g., as an average (e.g., a robust average, such as the average of interquartile range values)] associated with a portion of the aorta and corresponding to a reference tissue region. values).

[0066] 특정 실시 형태에서, 하나 이상의 참조 값들은 대상체의 대동맥 부분과 관련된 대동맥 참조 값 및 대상체의 간과 관련된 간 참조 값으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함한다. [0066] In a particular embodiment, the one or more reference values include one or more members selected from the group consisting of an aortic reference value relating to an aortic portion of a subject and a liver reference value relating to a liver of a subject.

[0067] 특정 실시 형태에서, 특정 참조 조직 영역과 관련된 적어도 하나의 특정 참조 값에 대해, 명령들은 프로세서가 다중 성분 혼합 모델(예를 들어, 2 성분 가우시안 모델)에 대한 특정 참조 조직 영역에 대응하는 특정 참조 볼륨 내의 복셀들의 강도를 맞춤으로써 [예를 들어, 복셀들의 강도들의 분포를 맞춤으로써(예를 들어, 복셀 강도들의 히스토그램에 맞추는 것)] 특정 참조 값을 결정하도록 한다 [예를 들어, 복셀 강도들의 분포에서 하나 이상의 부 피크들을 식별하고, 상기 부 피크들은 정상적인 흡수와 관련된 복셀들에 대응하고, 참조 값 결정으로부터 해당 복셀들을 배제함(예를 들어, 이에 의해 간의 부분들과 같은 참조 조직 영역들의 특정 부분에서 비정상적으로 낮은 방사성 의약품 흡수의 영향들을 설명함)]. [0067] In a particular embodiment, for at least one particular reference value associated with a particular reference tissue area, the instructions cause the processor to: By fitting the intensities of voxels within a particular reference volume [eg, by fitting a distribution of intensities of voxels (eg, fitting a histogram of voxel intensities)] to determine a particular reference value [eg, voxels identifying one or more sub-peaks in the distribution of intensities, which sub-peaks correspond to voxels associated with normal uptake, and excluding those voxels from the reference value determination (eg, thereby a reference tissue region such as liver sections) describes the effects of abnormally low absorption of radiopharmaceuticals in certain parts of the spectrum)].

[0068] 특정 실시 형태에서, 명령들은 프로세서가 결정된 병변 지수값들을 사용하여 대상체에 대한 암 상태 및/또는 위험을 나타내는 대상체에 대한 전체 위험 지수를 (예를 들어, 자동으로) 계산하도록 한다. [0068] In a particular embodiment, the instructions cause the processor to use the determined lesion index values to calculate (eg, automatically) an overall risk index for the subject indicative of cancer status and/or risk for the subject.

[0069] 특정 실시 형태에서, 명령들은 프로세서가 각각의 핫스팟에 대해 핫스팟이 나타내는 잠재적인 암성 병변이 위치되도록 [예를 들어, 전립선, 골반 림프절, 비골반 림프절, 뼈(예를 들어, 뼈 전이 영역) 내 및 전립선 또는 림프절에 위치하지 않는 연조직 영역 내에] 결정된 [예를 들어, 프로세서에 의해(예를 들어, 수신 및/또는 결정된 3D 분할 맵에 기초하여)] 대상체 내의 특정 해부학적 영역 및/또는 해부학적 영역들의 그룹에 대응하는 해부학적 분류를 결정(예를 들어, 자동으로)하도록 한다. [0069] In a particular embodiment, the instructions cause the processor to, for each hotspot, locate a potential cancerous lesion indicative of the hotspot (e.g., prostate, pelvic lymph node, non-pelvic lymph node, bone (e.g., bone metastasis area) ) and within soft tissue regions not located in the prostate or lymph nodes] determined [eg, by a processor (eg, based on received and/or determined 3D segmentation maps)] specific anatomical regions within the subject and/or Determine (eg automatically) an anatomical classification corresponding to a group of anatomical regions.

[0070] 특정 실시 형태에서, 명령들은 프로세서가 (h) 그래픽 사용자 인터페이스(GUI) 내의 표시를 위해, 사용자에 의한 검토를 위한 하나 이상의 핫스팟들의 적어도 일부의 그래픽 표현의 렌더링을 야기하도록 한다. [0070] In a particular embodiment, the instructions cause the processor to cause (h) rendering of a graphical representation of at least a portion of the one or more hotspots for review by a user, for display in a graphical user interface (GUI).

[0071] 특정 실시 형태에서, 명령들은 프로세서가 (i) 사용자 검토를 통해 대상체 내의 기저 암성 병변들을 나타낼 가능성이 있는 것으로 확인된 상기 하나 이상의 핫스팟들의 서브 세트의 사용자 선택을 GUI를 통해 수신하도록 한다. [0071] In a particular embodiment, the instructions cause the processor to (i) receive, via a GUI, a user selection of a subset of the one or more hotspots identified through user review as likely representing underlying cancerous lesions in the subject.

[0072] 특정 실시 형태에서, 3D 기능적 영상은 대상체에게 제제(예를 들어, 방사성 의약품; 예를 들어, 영상 촬영 제제)의 투여 후 획득한 PET 또는 SPECT 영상을 포함한다. 특정 실시 형태에서, 제제가 PSMA 결합제를 포함한다. 특정 실시 형태에서, 제제는 18F를 포함한다. 특정 실시 형태에서, 제제는 [18F]DCFPyL을 포함한다. 특정 실시 형태에서, 제제는 PSMA―11(예를 들어, 68Ga―PSMA―11)을 포함한다. 특정 실시 형태에서, 제제는 99mTc, 68Ga, 177Lu, 225Ac, 111In, 123I, 124I 및 131I로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함한다. [0072] In certain embodiments, the 3D functional images include PET or SPECT images obtained after administration of an agent (eg, a radiopharmaceutical; eg, an imaging agent) to a subject. In certain embodiments, the formulation includes a PSMA binder. In certain embodiments, the formulation includes 18 F. In certain embodiments, the formulation comprises [ 18 F]DCFPyL. In certain embodiments, the formulation includes PSMA-11 (eg, 68 Ga-PSMA-11). In certain embodiments, the agent comprises one or more members selected from the group consisting of 99m Tc, 68 Ga, 177 Lu, 225 Ac, 111 In, 123 I, 124 I and 131 I.

[0073] 특정 실시 형태에서, 기계 학습 모듈은 신경망 [예를 들어, 인공 신경망(ANN); 예를 들어, 합성곱 신경망(CNN)]을 구현한다. [0073] In a particular embodiment, the machine learning module is a neural network [eg, an artificial neural network (ANN); For example, it implements a convolutional neural network (CNN)].

[0074] 특정 실시 형태에서, 프로세서는 클라우드 기반 시스템의 프로세서이다. [0074] In a particular embodiment, the processor is a processor of a cloud-based system.

[0075] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변들을 식별 및/또는 특성화(예를들어, 등급화)하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템에 관한 것이며, 상기 시스템은 컴퓨팅 디바이스의 프로세서; 및 명령들이 저장되어 있는 메모리를 포함하고, 명령들은 프로세서에 의해 실행될 때 프로세서가 (a) 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근) 하도록 하고 [예를 들어, 여기서, 3D 기능적 영상은 복수의 복셀들을 포함하며, 각각은 대상체 내의 특정 물리적 볼륨을 나타내고 특정 물리적 볼륨으로부터 방출되는 검출된 방사선을 나타내는 강도값을 가지며, 여기서, 3D 기능적 영상의 복수의 복셀들 중 적어도 일부는 표적 조직 영역 내의 물리적 볼륨들을 나타냄]; (b) 해부학적 영상 촬영 기법 [예를 들어, x선 컴퓨터 단층촬영(CT); 예를 들어, 자기 공명 영상 촬영(MRI); 예를 들어, 초음파]을 사용하여 획득된 대상체의 3D 해부학적 영상을 수신(예를 들어, 및/또는 접근) 하도록 하고, 여기서, 3D 해부학적 영상은 대상체 내의 조직(예를 들어, 연조직 및/또는 뼈)의 그래픽 표현을 포함하고; (c) 기계 학습 모듈을 사용하여 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하도록 하여 (i) 각각의 핫스팟에 대해, 핫스팟의 위치를 식별하는 핫스팟 목록, (ii) 각각의 핫스팟에 대해, 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨 {예를 들어, 여기서, 3D 핫스팟 맵은 각각의 핫스팟에 대해 각각의 핫스팟의 3D 핫스팟 볼륨에 대응하는 3D 기능적 영상 내의 복셀들을 식별하는 분할 맵(예를 들어, 하나 이상의 분할 마스크들을 포함함)이며 [예를 들어, 여기서, 3D 핫스팟 맵은 기능적인 영상의 인공 지능 기반 분할(예를 들어, 적어도 3D 기능적 영상을 입력으로 수신하고 3D 핫스팟 맵을 출력으로 생성하여 핫스팟들을 분할하는 기계 학습 모듈을 사용함)을 통해 획득됨]; 예를 들어, 여기서, 3D 핫스팟 맵은 각각의 핫스팟에 대해, 핫스팟의 3D 경계(예를 들어, 불규칙한 경계)(예를 들어, 3D 핫스팟 볼륨을 둘러싸는 3D 경계, 및 3D 기능적 영상의 다른 복셀들로부터 3D 핫스팟 볼륨을 만드는 3D 기능적 영상의 특징적인 복셀들)를 묘사함}을 식별하는 3D 핫스팟 맵 중 하나 또는 둘 모두를 생성하도록 하고, 각각의 핫스팟은 그 주변에 대해 높은 강도의 국소 영역에 대응하고 대상체 내의 잠재적인 암성 병변을 나타내고(예를 들어, 가리킴), 기계 학습 모듈은 적어도 2 개의 입력 채널들을 수신하고, 상기 입력 채널들은 3D 해부학적 영상의 적어도 일부에 대응하는 제1 입력 채널 및 3D 기능적 영상의 적어도 일부에 대응하는 제2 입력 채널 [예를 들어, 여기서, 기계 학습 모듈은 PET 영상 및 CT 영상을 별도의 채널들(예를 들어, 동일한 볼륨으로 나타내는 별도의 채널들)로 수신함(예를 들어, 컬러 사진 영상의 2 개의 컬러 채널들(RGB)의 기계 학습 모듈에 의한 수신과 유사함)] 및/또는 이들로부터 유래된 해부학적 정보 [예를 들어, 3D 기능적 영상 내에서 하나 이상의 관심 볼륨(VOI)들을 식별하는 3D 분할 맵, 여기서, 각각의 VOI는 특정 표적 조직 영역 및/또는 특정 해부학적 영역에 대응함]를 포함하고; (d) 표시 및/또는 추가 처리를 위해 핫스팟 목록 및/또는 3D 핫스팟 맵을 저장 및/또는 제공하도록 한다. [0075] In another aspect, the present invention relates to a system for automatically processing 3D images of a subject to identify and/or characterize (eg, rank) cancerous lesions in the subject, the system comprising computing the device's processor; and a memory having stored thereon instructions, which when executed by the processor cause the processor to: (a) a functional imaging technique [eg, positron emission tomography (PET); receive (eg, and/or access) a 3D functional image of an object obtained using, for example, single photon emission computed tomography (SPECT)] and [eg, wherein the 3D functional image is obtained by multiple It includes voxels of, each representing a specific physical volume within the object and having an intensity value representing detected radiation emitted from the specific physical volume, wherein at least some of the plurality of voxels of the 3D functional image are physical in the target tissue region. representing volumes]; (b) anatomical imaging techniques [eg, x-ray computed tomography (CT); For example, magnetic resonance imaging (MRI); eg, ultrasound] to receive (eg, and/or access) a 3D anatomical image of an object acquired using a 3D anatomical image of a tissue (eg, soft tissue and/or or bones); (c) using a machine learning module to automatically detect one or more hotspots within the 3D functional image such that (i) for each hotspot, a hotspot list identifying the hotspot's location; (ii) for each hotspot, a 3D The corresponding 3D hotspot volume in the functional image {eg, where the 3D hotspot map is a segmentation map (eg, one including the above segmentation masks) [e.g., where the 3D hotspot map is an artificial intelligence-based segmentation of a functional image (e.g., receiving at least a 3D functional image as input and generating a 3D hotspot map as output to generate a hotspot Obtained through using a machine learning module that divides ]; For example, here, the 3D hotspot map includes, for each hotspot, a 3D boundary (eg, an irregular boundary) of the hotspot (eg, a 3D boundary surrounding the 3D hotspot volume, and other voxels of the 3D functional image). create one or both of the 3D hotspot maps that identify the characteristic voxels of the 3D functional image that make up the 3D hotspot volume from and indicates (eg, points to) a potential cancerous lesion in the subject, the machine learning module receives at least two input channels, the input channels comprising: a first input channel corresponding to at least a portion of the 3D anatomical image and a 3D A second input channel corresponding to at least a portion of the functional image [eg, where the machine learning module receives the PET image and the CT image as separate channels (eg, separate channels representing the same volume) ( eg, similar to reception by a machine learning module of the two color channels (RGB) of a color photographic image)] and/or anatomical information derived from them [eg, one or more a 3D segmentation map identifying volumes of interest (VOIs), where each VOI corresponds to a specific target tissue region and/or a specific anatomical region; (d) store and/or provide hotspot lists and/or 3D hotspot maps for display and/or further processing;

[0076] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변들을 식별 및/또는 특성화(예를들어, 등급화)하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템에 관한 것이며, 상기 시스템은 컴퓨팅 디바이스의 프로세서; 및 명령들이 저장되어 있는 메모리를 포함하고, 명령들은 프로세서에 의해 실행될 때 프로세서가 (a) 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근) 하도록 하고 [예를 들어, 여기서, 3D 기능적 영상은 복수의 복셀들을 포함하며, 각각은 대상체 내의 특정 물리적 볼륨을 나타내고 특정 물리적 볼륨으로부터 방출되는 검출된 방사선을 나타내는 강도값을 가지며, 여기서, 3D 기능적 영상의 복수의 복셀들 중 적어도 일부는 표적 조직 영역 내의 물리적 볼륨들을 나타냄]; (b) 제1 기계 학습 모듈을 사용하여 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하도록 하여, 각각의 핫스팟에 대해 핫스팟의 위치를 식별하는 핫스팟 목록 [예를 들어, 여기서, 기계 학습 모듈은 기계 학습 알고리즘(예를 들어, 3D 기능적 영상의 적어도 일부의 복셀들의 강도들에 기초하여 각각이 하나 이상의 핫스팟들 중 하나의 위치에 대응하는 하나 이상의 위치들(예를 들어, 3D 좌표들)을 결정하도록 훈련된 기계 학습 알고리즘(예를 들어, 인공 신경망(ANN))을 구현함]을 생성하도록 하고, 각각의 핫스팟은 그 주변에 대해 높은 강도의 국소 영역에 대응하고 대상체 내의 잠재적인 암성 병변을 나타내고(예를 들어, 가리킴); (c) 하나 이상의 핫스팟들 각각에 대해 제2 기계 학습 모듈 및 핫스팟 목록을 사용하여 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨을 자동으로 결정하도록 하여 3D 핫스팟 맵을 생성하고 [예를 들어, 여기서, 제2 기계 학습 모듈은 기계 학습 알고리즘(예를 들어, 3D 핫스팟 맵의 3D 핫스팟 볼륨들을 식별하기 위해 3D 기능적 영상의 복셀들의 강도들과 함께 핫스팟 목록에 적어도 부분적으로 기초하여 3D 기능적 영상을 분할하도록 훈련된 인공 신경망(ANN); 예를 들어, 여기서, 기계 학습 모듈은 3D 기능적 영상의 적어도 일부의 각각의 복셀에 대해, 복셀이 핫스팟에 대응하는 우도를 나타내는 핫스팟 우도값을 결정하도록 훈련된 기계 학습 모듈 알고리즘을 구현하고(예를 들어, 단계 (b)는 핫스팟 우도값들을 사용하여 3D 핫스팟 맵의 3D 핫스팟 볼륨들을 식별하기 위해 임계값 설정과 같은 하나 이상의 후속 후처리 단계들을 수행하는 단계를 포함함)], [예를 들어, 여기서, 3D 핫스팟 맵은 제2 기계 학습 모듈(예를 들어, 이로부터의 출력에 대응하고/하거나 기초됨)을 사용하여 생성되어 각각의 핫스팟에 대해 각각의 핫스팟의 3D 핫스팟 볼륨에 대응하는 3D 기능적 영상 내의 복셀들을 식별하는 분할 맵(예를 들어, 하나 이상의 분할 마스크들을 포함함)이며; 예를 들어, 여기서, 3D 핫스팟 맵은 각각의 핫스팟에 대해, 핫스팟의 3D 경계(예를 들어, 불규칙한 경계)(예를 들어, 3D 핫스팟 볼륨을 둘러싸는 3D 경계, 및 3D 기능적 영상의 다른 복셀들로부터 3D 핫스팟 볼륨을 만드는 3D 기능적 영상의 특징적인 복셀들)를 묘사함]; 및 (d) 표시 및/또는 추가 처리를 위해 핫스팟 목록 및/또는 3D 핫스팟 맵을 저장 및/또는 제공하도록 한다. [0076] In another aspect, the present invention is directed to a system for automatically processing 3D images of a subject to identify and/or characterize (eg, rank) cancerous lesions in the subject, the system comprising computing the device's processor; and a memory having stored thereon instructions, which when executed by the processor cause the processor to: (a) a functional imaging technique [eg, positron emission tomography (PET); receive (eg, and/or access) a 3D functional image of an object obtained using, for example, single photon emission computed tomography (SPECT)] and [eg, wherein the 3D functional image is obtained by multiple It includes voxels of, each representing a specific physical volume within the object and having an intensity value representing detected radiation emitted from the specific physical volume, wherein at least some of the plurality of voxels of the 3D functional image are physical in the target tissue region. representing volumes]; (b) use a first machine learning module to automatically detect one or more hotspots within the 3D functional image, so that for each hotspot, a hotspot list identifying the location of the hotspot [e.g., wherein the machine learning module is a machine A learning algorithm (eg, to determine one or more locations (eg, 3D coordinates) each corresponding to a location of one of the one or more hotspots based on intensities of voxels of at least some of the 3D functional image) implement a trained machine learning algorithm (e.g., an artificial neural network (ANN))], each hotspot corresponds to a local area of high intensity to its surroundings and represents a potential cancerous lesion in the subject ( (e.g., pointing to); (c) for each of the one or more hotspots, use a second machine learning module and the hotspot list to automatically determine a corresponding 3D hotspot volume in the 3D functional image to generate a 3D hotspot map [ For example, where the second machine learning module performs a machine learning algorithm (eg, based at least in part on a hotspot list along with intensities of voxels of the 3D functional image to identify 3D hotspot volumes of the 3D hotspot map). An artificial neural network (ANN) trained to segment a functional image; e.g., wherein the machine learning module determines, for each voxel of at least a portion of the 3D functional image, a hotspot likelihood value indicating the likelihood that the voxel corresponds to a hotspot. (e.g., step (b) performs one or more subsequent post-processing steps, such as setting a threshold to identify 3D hotspot volumes of the 3D hotspot map using the hotspot likelihood values) [e.g., wherein a 3D hotspot map is generated using (eg, corresponding to and/or based on an output from) a second machine learning module to map each hotspot. a segmentation map (eg, comprising one or more segmentation masks) identifying voxels in the 3D functional image corresponding to the 3D hotspot volume of each hotspot for ; For example, here, the 3D hotspot map includes, for each hotspot, a 3D boundary (eg, an irregular boundary) of the hotspot (eg, a 3D boundary surrounding the 3D hotspot volume, and other voxels of the 3D functional image). depicting characteristic voxels of a 3D functional image) creating a 3D hotspot volume from]; and (d) store and/or provide hotspot lists and/or 3D hotspot maps for display and/or further processing.

[0077] 특정 실시 형태에서, 명령들은 프로세서가 (e) 핫스팟들의 적어도 일부의 각각의 핫스팟에 대해 대상체 내의 병변을 나타내는 핫스팟의 우도에 대응하는 병변 우도 분류를 결정하도록 한다. [0077] In a particular embodiment, the instructions cause the processor to (e) determine, for each hotspot of the at least some of the hotspots, a lesion likelihood classification corresponding to a likelihood of the hotspot representing a lesion in the subject.

[0078] 특정 실시 형태에서, 단계 (e)에서, 명령들은 프로세서가 제3 기계 학습 모듈(예를 들어, 핫스팟 분류 모듈)을 사용하여 각각의 핫스팟에 대한 병변 우도 분류를 결정하도록 한다 [예를 들어, 3D 기능적 영상의 강도들, 핫스팟 목록, 3D 핫스팟 맵, 3D 해부학적 영상의 강도들 및 3D 분할 맵으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들에 적어도 부분적으로 기초하고; 예를 들어, 제3 기계 학습 모듈은 3D 기능적 영상의 강도들, 핫스팟 목록, 3D 핫스팟 맵, 3D 해부학적 영상의 강도들 및 3D 분할 맵으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들에 대응하는 하나 이상의 입력 채널들을 수신함]. [0078] In a particular embodiment, in step (e), the instructions cause the processor to determine a lesion likelihood classification for each hotspot using a third machine learning module (eg, a hotspot classification module) [eg, based at least in part on one or more members selected from the group consisting of, eg, intensities of a 3D functional image, a hotspot list, a 3D hotspot map, intensities of a 3D anatomical image, and a 3D segmentation map; For example, the third machine learning module may receive one or more inputs corresponding to one or more members selected from the group consisting of intensities of a 3D functional image, a hotspot list, a 3D hotspot map, intensities of a 3D anatomical image, and a 3D segmentation map. receiving channels].

[0079] 특정 실시 형태에서, 명령들은 프로세서가 (f) 핫스팟들에 대한 병변 우도 분류에 적어도 부분적으로 기초하여 암성 병변들에 대응할 높은 우도를 갖는 핫스팟들에 대응하는 하나 이상의 핫스팟들의 서브 세트를 선택하도록 한다(예를 들어, 보고서에 포함하기 위해; 예를 들어, 대상체에 대한 하나 이상의 위험 지수값들을 계산하는 데 사용하기 위함). [0079] In a particular embodiment, the instructions cause the processor to (f) select a subset of one or more hotspots that correspond to hotspots with a high likelihood to correspond to cancerous lesions based at least in part on a lesion likelihood classification for the hotspots. (eg, for inclusion in a report; eg, for use in calculating one or more risk index values for a subject).

[0080] 또 다른 양태에서, 본 발명은 낮은(예를 들어, 비정상적으로 낮은) 방사성 의약품 흡수(예를 들어, 추적자 흡수가 없는 종양으로 인해)와 관련된 조직 영역들로부터의 영향을 방지하기 위해 참조 조직 영역(예를 들어, 대상체의 간과 관련된 간 볼륨)에 대응하는 참조 볼륨 내의 강도값들을 측정하기 위한 시스템에 관한 것이며, 상기 시스템은 컴퓨팅 디바이스의 프로세서; 및 명령들이 저장되어 있는 메모리를 포함하고, 명령들이 프로세서에 의해 실행될 때 프로세서가 (a) 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근) 하도록 하고 [예를 들어, 여기서, 3D 기능적 영상은 복수의 복셀들을 포함하며, 각각은 대상체 내의 특정 물리적 볼륨을 나타내고 특정 물리적 볼륨으로부터 방출되는 검출된 방사선을 나타내는 강도값을 가지며, 여기서, 3D 기능적 영상의 복수의 복셀들 중 적어도 일부는 표적 조직 영역 내의 물리적 볼륨을 나타냄]; (b) 3D 기능적 영상 내의 참조 볼륨을 식별하도록 하고; (c) 다중 성분 혼합 모델(예를 들어, 2 성분 가우시안 혼합 모델)을 참조 볼륨 내의 복셀들의 강도들에 맞추도록 하고 [참조 볼륨 내의 복셀들의 강도들의 분포(예를 들어, 히스토그램)에 다중 성분 혼합 모델을 맞추는 것]; (d) 다중 성분 모델의 주요 모드를 식별하도록 하고; (e) 주요 모드에 대응하는 강도들의 치수(예를 들어, 평균, 최대, 모드, 중간 등)를 결정하도록 하여 (i) 참조 조직 볼륨 내에 있고 (ii) 상기 주요 모드와 관련된 복셀들 (그리고 예를 들어, 참조값 계산에서 부 모드들과 관련된 강도들을 갖는 복셀들을 제외함)의 강도의 치수에 대응하는 참조 강도값을 결정하는 단계(예를 들어, 이에 의해 낮은 방사성 의약품 흡수와 관련된 조직 영역들로부터의 영향을 방지함); (f) 3D 기능적 영상 내에서 잠재적인 암성 병변들에 대응하는 하나 이상의 핫스팟들을 검출하도록 하고; 및 (g) 검출된 핫스팟들의 적어도 일부의 각각의 핫스팟에 대해, 적어도 참조 강도값을 사용하여 병변 지수값 [예를 들어, (i) 검출된 핫스팟에 대응하는 복셀들의 강도들의 치수 및 (ii) 참조 강도값에 기초한 병변 지수값]을 결정하도록 한다. 또 다른 양태에서, 본 발명은 정상적인 상황 하에서 높은 방사성 의약품 흡수와 관련된 대상체 내의 고흡수 조직 영역들로 인한(예를 들어, 반드시 암을 나타내는 것은 아님) 강도 블리드(예를 들어, 누화)를 보정하기 위한 시스템에 관한 것이며, 상기 방법은 (a) 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근) 하는 단계 [예를 들어, 여기서, 3D 기능적 영상은 복수의 복셀들을 포함하며, 각각은 대상체 내의 특정 물리적 볼륨을 나타내고 특정 물리적 볼륨으로부터 방출되는 검출된 방사선을 나타내는 강도값을 가지며, 여기서, 3D 기능적 영상의 복수의 복셀들 중 적어도 일부는 표적 조직 영역 내의 물리적 볼륨을 나타냄]; (b) 3D 기능적 영상 내의 고강도 볼륨을 식별하는 단계 ― 상기 고강도 볼륨은 정상적인 상황 하에서 높은 방사성 의약품 흡수가 발생하는 특정 고흡수 조직 영역(예를 들어, 신장; 예를 들어, 간; 예를 들어, 방광)에 대응함 ― ; (c) 식별된 고강도 볼륨에 기초하여 3D 기능적 영상 내의 억제 볼륨을 식별하는 단계 ― 상기 억제 볼륨은 식별된 고강도 볼륨의 경계로부터 미리 결정된 감쇠 거리 내부 및 외부에 있는 볼륨에 대응함 ― ; (d) 억제 볼륨 내의 3D 기능적 영상의 복셀들의 강도들에 기초하여 결정된 보간값들로 대체된 고강도 볼륨 내의 복셀들의 강도들을 갖는 3D 기능적 영상에 대응하는 배경 영상을 결정하는 단계; (e) 3D 기능적 영상으로부터의 복셀들의 강도들로부터 배경 영상의 복셀들의 강도들을 차감하여(예를 들어, 복셀별 감산을 수행하여) 추정 영상을 결정하는 단계; (f) 억제 볼륨에 대응하는 억제 맵의 복셀들의 강도들을 결정하기 위해 상기 고강도 볼륨에 대응하는 추정 영상의 복셀들의 강도들을 억제 볼륨 내의 복셀들의 위치들로 외삽하고, 상기 억제 볼륨의 외부 위치들에 대응하는 억제 맵의 복셀들의 강도들을 0으로 설정함으로써 억제 맵을 결정하는 단계; 및 (g) 억제 맵에 기초하여 3D 기능적 영상의 복셀들의 강도들을 조정하여(예를 들어, 3D 기능적 영상의 복셀들의 강도들로부터 억제 맵의 복셀들의 강도들을 차감함으로써) 상기 고강도 볼륨으로부터 강도 블리드를 보정하는 단계를 포함한다. [0080] In another aspect, the present invention refers to preventing effects from tissue areas associated with low (eg, abnormally low) radiopharmaceutical uptake (eg, due to tumors with no tracer uptake). A system for measuring intensity values in a reference volume corresponding to a tissue region (eg, a liver volume associated with a liver of a subject), the system comprising: a processor of a computing device; and a memory in which instructions are stored, wherein when the instructions are executed by the processor, the processor causes (a) a functional imaging technique [eg, positron emission tomography (PET); receive (eg, and/or access) a 3D functional image of an object obtained using, for example, single photon emission computed tomography (SPECT)] and [eg, wherein the 3D functional image is obtained by multiple It includes voxels of, each representing a specific physical volume within the object and having an intensity value representing detected radiation emitted from the specific physical volume, wherein at least some of the plurality of voxels of the 3D functional image are physical in the target tissue region. represents the volume]; (b) to identify a reference volume within the 3D functional image; (c) to fit a multi-component mixing model (e.g., a two-component Gaussian mixing model) to the intensities of voxels in the reference volume [multi-component mixing to the distribution (e.g., histogram) of intensities of voxels in the reference volume fitting the model]; (d) identify the dominant modes of the multi-component model; (e) to determine the dimension (e.g., mean, maximum, mode, median, etc.) of the intensities corresponding to the principal mode, so that voxels (i) within the reference tissue volume and (ii) associated with the principal mode (and example Determining a reference intensity value corresponding to a dimension of the intensity (eg, excluding voxels having intensities associated with minor modes in the reference value calculation) (eg, thereby from tissue regions associated with low radiopharmaceutical uptake). prevent the effect of); (f) detect one or more hotspots corresponding to potentially cancerous lesions within the 3D functional image; and (g) for each hotspot of at least some of the detected hotspots, a lesion index value using at least a reference intensity value [e.g., (i) a dimension of intensities of voxels corresponding to the detected hotspot and (ii) lesion index value based on the reference intensity value] is determined. In another aspect, the present invention provides a method for correcting intensity bleed (e.g., crosstalk) due to areas of high absorption tissue in a subject associated with high absorption of radiopharmaceuticals under normal circumstances (e.g., not necessarily indicative of cancer). It relates to a system for, the method comprising (a) functional imaging techniques [eg, positron emission tomography (PET); Receiving (eg, and/or accessing) a 3D functional image of the object obtained using, for example, single photon emission computed tomography (SPECT)] [eg, where the 3D functional image is obtained in a plurality of It includes voxels of, each representing a specific physical volume within the object and having an intensity value representing detected radiation emitted from the specific physical volume, wherein at least some of the plurality of voxels of the 3D functional image are physical in the target tissue region. represents the volume]; (b) identifying a high-intensity volume in the 3D functional image - the high-intensity volume is a specific high-absorption tissue region where high radiopharmaceutical uptake occurs under normal circumstances (eg, kidney; eg, liver; eg, Bladder) corresponding to ; (c) identifying a suppression volume in the 3D functional image based on the identified high-intensity volume, the suppression volume corresponding to a volume within and outside a predetermined attenuation distance from the boundary of the identified high-intensity volume; (d) determining a background image corresponding to the 3D functional image having intensities of voxels in the high-intensity volume replaced with interpolated values determined based on intensities of voxels of the 3D functional image in the suppression volume; (e) determining an estimated image by subtracting intensities of voxels in the background image from intensities of voxels in the 3D functional image (eg, by performing voxel-by-voxel subtraction); (f) extrapolate intensities of voxels of an estimated image corresponding to the high-intensity volume to locations of voxels within the suppression volume to determine intensities of voxels of the suppression map corresponding to the suppression volume, and to locations outside the suppression volume. determining a suppression map by setting intensities of voxels of the corresponding suppression map to zero; and (g) adjusting intensities of voxels of the 3D functional image based on the suppression map (eg, by subtracting intensities of voxels of the suppression map from those of the 3D functional image) to obtain an intensity bleed from the high-intensity volume. It includes a correction step.

[0081] 특정 실시 형태에서, 명령들은 프로세서가 복수의 고강도 볼륨들 각각에 대해, 단계들 (b) 내지 (g)를 순차적인 방식으로 수행하여 복수의 고강도 볼륨들 각각으로부터의 강도 블리드를 보정하도록 한다. [0081] In a particular embodiment, the instructions cause a processor to perform, for each of a plurality of high intensity volumes, steps (b) through (g) in a sequential manner to correct intensity bleed from each of a plurality of high intensity volumes. do.

[0082] 특정 실시 형태에서, 복수의 고강도 볼륨들은 신장, 간 및 방광(예를 들어, 비뇨기 방광)으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함한다. [0082] In a particular embodiment, the plurality of high intensity volumes include one or more members selected from the group consisting of kidney, liver and bladder (eg, urinary bladder).

[0083] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변을 식별 및/또는 특성화(예를 들어 등급화)하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템에 관한 것이며, 상기 시스템은 컴퓨팅 디바이스의 프로세서; 및 명령이 저장되어 있는 메모리를 포함하며, 상기 명령들은 프로세서에 의해 실행될 때 프로세서가 (a) 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근) 하도록 하고 [예를 들어, 여기서, 3D 기능적 영상은 복수의 복셀들을 포함하며, 각각은 대상체 내의 특정 물리적 볼륨을 나타내고 특정 물리적 볼륨으로부터 방출되는 검출된 방사선을 나타내는 강도값을 가지며, 여기서, 3D 기능적 영상의 복수의 복셀들 중 적어도 일부는 표적 조직 영역 내의 물리적 볼륨을 나타냄]; (b) 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하도록 하고, 각각의 핫스팟은 그 주변에 대해 높은 강도의 국소 영역에 대응하고 대상체 내의 잠재적인 암성 병변을 나타내고(예를 들어, 가리킴); (c) 대화형 그래픽 사용자 인터페이스(GUI) (예를 들어, 품질 관리 및 보고 GUI) 내의 표시를 위한 하나 이상의 핫스팟들의 그래픽 표현의 렌더링을 야기하도록 하고; (d) 하나 이상의 자동으로 검출된 핫스팟들의 적어도 일부(예를 들어, 최대 전체)를 포함하는 최종 핫스팟 세트의 사용자 선택을 상기 대화형 GUI를 통해 수신하도록 하고(예를 들어, 보고서에 포함하기 위함); 및 (e) 표시 및/또는 추가 처리를 위해, 최종 핫스팟 세트를 저장 및/또는 제공하도록 한다. [0083] In another aspect, the present invention relates to a system for automatically processing 3D images of a subject to identify and/or characterize (eg, grade) cancerous lesions in the subject, the system comprising a computing device of the processor; and a memory having stored thereon instructions, which when executed by the processor cause the processor to: (a) functional imaging techniques [eg, positron emission tomography (PET); receive (eg, and/or access) a 3D functional image of an object obtained using, for example, single photon emission computed tomography (SPECT)] and [eg, wherein the 3D functional image is obtained by multiple It includes voxels of, each representing a specific physical volume within the object and having an intensity value representing detected radiation emitted from the specific physical volume, wherein at least some of the plurality of voxels of the 3D functional image are physical in the target tissue region. represents the volume]; (b) automatically detect one or more hotspots within the 3D functional image, each hotspot corresponding to its surroundings a local area of high intensity and representing (eg, pointing to) a potential cancerous lesion in the subject; (c) cause rendering of a graphical representation of one or more hotspots for display within an interactive graphical user interface (GUI) (eg, a quality management and reporting GUI); (d) receive via the interactive GUI (e.g., to include in a report) a user selection of a final set of hotspots that includes at least some (e.g., up to all) of the one or more automatically detected hotspots; ); and (e) store and/or present the final set of hotspots for display and/or further processing.

[0084] 특정 실시 형태에서, 명령들은 프로세서가 (f) 최종 핫스팟 세트에 포함하기 위한 하나 이상의 추가 사용자 식별 핫스팟들의 사용자 선택을 GUI를 통해 수신하도록 하고; (g) 하나 이상의 추가 사용자 식별 핫스팟들을 포함하도록 설정된 최종 핫스팟을 갱신하도록 한다. [0084] In a particular embodiment, the instructions cause the processor to (f) receive, via the GUI, a user selection of one or more additional user-identified hotspots for inclusion in a final set of hotspots; (g) Update the last hotspot configured to include one or more additional user-identified hotspots.

[0085] 특정 실시 형태에서, 단계 (b)에서, 명령들은 프로세서가 하나 이상의 기계 학습 모듈들을 사용하도록 한다. [0085] In a particular embodiment, in step (b), the instructions cause the processor to use one or more machine learning modules.

[0086] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변들을 식별 및/또는 특성화(예를들어, 등급화)하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 방법에 관한 것이며, 상기 방법은 (a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근)하는 단계; (b) 프로세서에 의해, 해부학적 영상 촬영 기법을 사용하여 획득된 대상체의 3D 해부학적 영상 [예를 들어, 컴퓨터 단층촬영(CT) 영상; 예를 들어, 자기 공명(MR) 영상]을 수신(예를 들어, 및/또는 접근)하는 단계; (c) 프로세서에 의해, 3D 기능적 영상 내 및/또는 3D 해부학적 영상 내에서 하나 이상의 특정 조직 영역(들) 또는 조직 영역들의 그룹(들)(예를 들어, 특정 해부학적 영역에 대응하는 조직 영역들의 세트; 예를 들어, 높거나 낮은 방사성 의약품 흡수가 발생하는 장기들을 포함하는 조직 영역들의 그룹)을 식별하는 3D 분할 맵을 수신하는 단계; (d) 프로세서에 의해, 하나 이상의 기계 학습 모듈(들)을 사용하여 3D 기능적 영상 내의 하나 이상의 핫스팟들의 세트를 자동으로 검출 및/또는 분할하여 (i) 각각의 핫스팟에 대해 핫스팟의 위치를 식별하는 핫스팟 목록 [예를 들어, 하나 이상의 기계 학습 모듈(들)에 의해 검출됨], 및 (ii) 각각의 핫스팟에 대해, 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨을 식별하는 3D 핫스팟 맵 [예를 들어, 하나 이상의 기계 학습 모듈(들)에 의해 수행된 분할을 통해 결정됨] [예를 들어, 여기서, 3D 핫스팟 맵은 각각의 핫스팟에 대해 핫스팟의 3D 핫스팟 경계(예를 들어, 불규칙한 경계)를 묘사함(예를 들어, 3D 핫스팟 볼륨을 둘러싸는 3D 경계)] 중 하나 또는 둘 모두를 생성하는 단계 ― 하나 이상의 기계 학습 모듈(들)의 적어도 하나(예를 들어, 최대 전체)는 입력으로 (i) 3D 기능적 영상, (ii) 3D 해부학적 영상 및 (iii) 3D 분할 맵을 수신하고, 각각의 핫스팟은 그 주변에 대한 높은 강도의 국소 영역에 대응하고 대상체 내의 잠재적인 암성 병변을 나타냄 ― ; 및 (e) 표시 및/또는 추가 처리를 위해 핫스팟 목록 및/또는 3D 핫스팟 맵을 저장 및/또는 제공하는 단계를 포함한다. [0086] In another aspect, the present invention relates to a method for automatically processing 3D images of a subject to identify and/or characterize (eg, rank) cancerous lesions in the subject, the method comprising ( a) by a processor of a computing device, a functional imaging technique [eg, positron emission tomography (PET); receiving (eg, and/or accessing) a 3D functional image of the object obtained using, eg, single photon emission tomography (SPECT)]; (b) a 3D anatomical image of the object obtained by the processor using an anatomical imaging technique [eg, a computed tomography (CT) image; receiving (eg, and/or accessing) a magnetic resonance (MR) image]; (c) by the processor, one or more specific tissue region(s) or group(s) of tissue regions within the 3D functional image and/or within the 3D anatomical image (e.g., a tissue region corresponding to a specific anatomical region); receiving a 3D segmentation map identifying a set of tissue regions, eg, groups of tissue regions comprising organs in which high or low radiopharmaceutical uptake occurs; (d) by the processor, automatically detecting and/or segmenting a set of one or more hotspots within the 3D functional image using one or more machine learning module(s) to (i) identify for each hotspot a location of the hotspot; a list of hotspots (e.g., detected by one or more machine learning module(s)), and (ii) for each hotspot, a 3D hotspot map identifying a corresponding 3D hotspot volume within the 3D functional image [e.g. . (e.g., a 3D boundary enclosing a 3D hotspot volume)] - at least one (e.g., maximum total) of the one or more machine learning module(s) as input (i) receiving a 3D functional image, (ii) a 3D anatomical image and (iii) a 3D segmentation map, each hotspot corresponding to a local area of high intensity to its surroundings and representing a potential cancerous lesion within the subject; and (e) storing and/or providing the hotspot list and/or 3D hotspot map for display and/or further processing.

[0087] 특정 실시 형태에서, 상기 방법은 프로세서에 의해, 3D 해부학적 영상 및 3D 기능적 영상 내의 하나 이상(예를 들어, 복수)의 특정 조직 영역들(예를 들어, 장기 및/또는 특정 뼈들)을 식별하는 초기 3D 분할 맵을 수신하는 단계; 및 프로세서에 의해, 하나 이상의 조직 그룹핑(들)(예를 들어, 미리 정의된 그룹핑들) 중 특정 하나에 속하는 것으로서 하나 이상의 특정 조직 영역들의 적어도 일부를 식별하는 단계; 및 프로세서에 의해, 식별된 특정 영역들을 특정 조직 그룹핑에 속하는 것으로 나타내기 위해 3D 분할 맵을 갱신하는 단계; 및 프로세서에 의해, 하나 이상의 기계 학습 모듈들 중 적어도 하나에 대한 입력으로서 갱신된 3D 분할 맵을 사용하는 단계를 포함한다. [0087] In a particular embodiment, the method may include, by a processor, one or more (eg, multiple) specific tissue regions (eg, organs and/or specific bones) within a 3D anatomical image and a 3D functional image. Receiving an initial 3D segmentation map identifying ; and identifying, by the processor, at least a portion of the one or more specific tissue regions as belonging to the specific one of the one or more tissue grouping(s) (eg, predefined groupings); and updating, by the processor, the 3D segmentation map to indicate the identified specific regions as belonging to a specific tissue grouping; and using, by the processor, the updated 3D segmentation map as an input to at least one of the one or more machine learning modules.

[0088] 특정 실시 형태에서, 하나 이상의 조직 그룹핑들은 연조직 그룹핑을 포함하여 연조직을 나타내는 특정 조직 영역들이 연조직 그룹핑에 속하는 것으로 식별되도록 한다. 특정 실시 형태에서, 하나 이상의 조직 그룹핑들은 뼈 조직 그룹핑을 포함하여 뼈를 나타내는 특정 조직 영역들이 뼈 조직 그룹핑에 속하는 것으로 식별되도록 한다. 특정 실시 형태에서, 하나 이상의 조직 그룹핑들은 고흡수 장기 그룹핑을 포함하여 높은 방사성 의약품 흡수와 관련된 하나 이상의 장기들(예를 들어, 정상적인 상황에서, 반드시 병변들의 존재로 인한 것은 아님)이 높은 흡수 그룹핑에 속하는 것으로 식별되도록 한다. [0088] In a particular embodiment, one or more tissue groupings include a soft tissue grouping such that specific tissue regions representative of soft tissue are identified as belonging to the soft tissue grouping. In certain embodiments, one or more tissue groupings include a bone tissue grouping such that specific tissue regions representing bone are identified as belonging to the bone tissue grouping. In certain embodiments, the one or more tissue groupings include a high uptake organ grouping where one or more organs associated with high radiopharmaceutical uptake (eg, not necessarily due to the presence of lesions, under normal circumstances) are in a high uptake grouping. to be identified as belonging to.

[0089] 특정 실시 형태에서, 상기 방법은 각각의 검출 및/또는 분할된 핫스팟에 대해, 프로세서에 의해 핫스팟에 대한 분류를 결정하는 단계를 포함한다 [예를 들어, 해부학적 위치에 따라, 예를 들어, 핫스팟을 뼈, 림프 또는 전립선으로 분류하는 것, 예를 들어, 표 1의 라벨링 체계와 같이 대상체에서 핫스팟의 결정된(예를 들어, 프로세서에 의함) 위치에 기초하여 영숫자 코드를 할당함]. [0089] In a particular embodiment, the method includes, for each detected and/or segmented hotspot, determining, by a processor, a classification for the hotspot [eg, according to an anatomical location, eg eg, classifying the hotspot as bony, lymphatic, or prostate, assigning an alphanumeric code based on the determined (eg, by a processor) location of the hotspot in the subject, eg, as in the labeling scheme of Table 1].

[0090] 특정 실시 형태에서, 상기 방법은, 각각의 검출 및/또는 분할된 병변에 대해 핫스팟에 대한 분류를 결정하기 위해 하나 이상의 기계 학습 모듈들 중 적어도 하나를 사용하는 단계를 포함한다(예를 들어, 여기서, 단일 기계 학습 모듈은 검출, 분할, 및 분류를 수행함). [0090] In a particular embodiment, the method includes using at least one of the one or more machine learning modules to determine a classification for a hotspot for each detected and/or segmented lesion (e.g. e.g., where a single machine learning module performs detection, segmentation, and classification).

[0091] 특정 실시 형태에서, 하나 이상의 기계 학습 모듈들은 (A) 전신에 걸쳐 핫스팟들을 검출 및/또는 분할하는 전신 병변 검출 모듈; 및 (B) 전립선 내의 핫스팟을 검출 및/또는 분할하는 전립선 병변 모듈을 포함한다. 특정 실시 형태에서, 상기 방법은 (A) 및 (B) 각각을 사용하여 핫스팟 목록 및/또는 맵들을 생성하고 그 결과들을 병합하는 단계를 포함한다. [0091] In a particular embodiment, one or more machine learning modules include (A) a whole body lesion detection module that detects and/or segments hotspots across the whole body; and (B) a prostate lesion module that detects and/or segments hot spots within the prostate. In a particular embodiment, the method includes generating hotspot lists and/or maps using (A) and (B), respectively, and merging the results.

[0092] 특정 실시 형태에서, 단계(d)는 하나 이상의 핫스팟들의 세트를 분할 및 분류하여 각각의 핫스팟에 대해 상기 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨을 식별하고 각각의 핫스팟 볼륨이 복수의 핫스팟 클래스(class)들 중 특정 핫스팟 클래스 [예를 들어, 핫스팟에 의해 나타나는 병변이 위치되도록 결정되는 특정 해부학적 및/또는 조직 영역(예를 들어, 림프, 뼈, 전립선)을 식별하는 각각의 핫스팟 클래스]에 속하는 것으로 라벨링(label) 되는 라벨링된 3D 핫스팟 맵을 다음의 단계에 의해 생성하는 단계: 제1 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제1 초기 세트를 분할함으로써 핫스팟 볼륨들의 제1 세트를 식별하는 제1 초기 3D 핫스팟 맵을 생성하는 단계 ― 상기 제1 기계 학습 모듈은 단일 핫스팟 클래스에 따른 3D 기능적 영상의 핫스팟들을 분할함 [예를 들어, 모든 핫스팟들을 단일 핫스팟 클래스에 속하는 것으로 식별하여 배경 영역들 및 핫스팟 볼륨들 사이를 차별화시킴(예를 들어, 서로 다른 유형의 핫스팟들 사이에서는 아님)(예를 들어, 제1 3D 핫스팟 맵에 의해 식별된 각각의 핫스팟 볼륨이 배경과는 반대로 단일 핫스팟 클래스에 속하는 것으로 라벨링됨)] ― ; 제2 기계 학습 모듈을 사용하여 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제2 초기 세트를 분할함으로써 초기 핫스팟 볼륨들의 제2 세트를 식별하는 제2 초기 3D 핫스팟 맵을 생성하는 단계 ― 상기 제2 기계 학습 모듈은 복수의 상이한 핫스팟 클래스들에 따른 상기 3D 기능적 영상을 분할하여 상기 제2 초기 3D 핫스팟 맵이 각각의 핫스팟 볼륨이 복수의 상이한 핫스팟 클래스들 중 특정 하나에 속하는 것으로 라벨링되는 다중 클래스 3D 핫스팟 맵이 되도록 함(상이한 핫스팟 클래스들에 대응하는 핫스팟 볼륨들 사이 뿐만 아니라 핫스팟 볼륨들 및 배경 영역들 사이도 차별화시키기 위함) ― ; 및 프로세서에 의해, 제1 초기 3D 핫스팟 맵에 의해 식별된 핫스팟 볼륨의 적어도 일부에 대해 제1 초기 3D 핫스팟 맵과 상기 제2 초기 3D 핫스팟 맵을 하기의 단계에 의해 병합하는 단계를 포함하고: 상기 제2 초기 3D 핫스팟 맵의 일치하는 핫스팟 볼륨을 식별하는 단계(예를 들어, 제1 및 제2 초기 3D 핫스팟 맵들의 실질적으로 중첩하는 핫스팟 볼륨들을 식별함에 의함) ― 상기 제2 3D 핫스팟 맵의 일치하는 핫스팟 볼륨이 복수의 상이한 핫스팟 클래스들의 특정 핫스팟 클래스에 속하는 것으로 라벨링되어짐 ― ; 및 제1 초기 3D 핫스팟 맵의 특정 핫스팟 볼륨을 특정 핫스팟 클래스에 속하는 것으로 라벨링(예를 들어, 일치하는 핫스팟 볼륨이 속하는 것으로 라벨링됨)하여 제2 3D 핫스팟 맵의 일치하는 핫스팟 볼륨들이 속하는 것으로 식별되는 클래스들에 따라 라벨링되어진 제1 3D 핫스팟 맵의 분할된 핫스팟 볼륨들을 포함하는 병합된 3D 핫스팟 맵을 생성하는 단계를 포함하고, 단계 (e)는 표시 및/또는 추가 처리를 위해, 병합된 3D 핫스팟 맵을 저장 및/또는 제공하는 단계를 포함한다. [0092] In a particular embodiment, step (d) divides and classifies a set of one or more hotspots to identify for each hotspot a corresponding 3D hotspot volume within the 3D functional image and each hotspot volume is classified into a plurality of hotspot classes. A particular hotspot class of classes [e.g., each hotspot class identifying a specific anatomical and/or tissue region (eg, lymph, bone, prostate) in which the lesion represented by the hotspot is determined to be located] Generating a labeled 3D hotspot map, labeled as belonging to , by segmenting a first initial set of one or more hotspots in the 3D functional image using a first machine learning module to determine the number of hotspot volumes. generating a first initial 3D hotspot map identifying a first set - the first machine learning module segments the hotspots of the 3D functional image according to a single hotspot class [e.g., all hotspots belong to a single hotspot class; to differentiate between background regions and hotspot volumes (eg, not between different types of hotspots) (eg, each hotspot volume identified by the first 3D hotspot map is are labeled as belonging to a single hotspot class, conversely)] ― ; generating a second initial 3D hotspot map identifying a second set of initial hotspot volumes by segmenting the second initial set of one or more hotspots within the 3D functional image using a second machine learning module - the second machine learning module. segment the 3D functional image according to a plurality of different hotspot classes such that the second initial 3D hotspot map is a multi-class 3D hotspot map in which each hotspot volume is labeled as belonging to a particular one of a plurality of different hotspot classes; ham (to differentiate not only between hotspot volumes corresponding to different hotspot classes, but also between hotspot volumes and background regions) - ; and merging, by a processor, a first initial 3D hotspot map and a second initial 3D hotspot map for at least a portion of a hotspot volume identified by the first initial 3D hotspot map by: Identifying a matching hotspot volume of a second initial 3D hotspot map (eg, by identifying substantially overlapping hotspot volumes of the first and second initial 3D hotspot maps) - matching the second 3D hotspot map a hotspot volume labeled as belonging to a particular hotspot class of a plurality of different hotspot classes; and labeling specific hotspot volumes in the first initial 3D hotspot map as belonging to a specific hotspot class (eg, matching hotspot volumes are labeled as belonging) to identify matching hotspot volumes in the second 3D hotspot map as belonging. generating a merged 3D hotspot map comprising segmented hotspot volumes of the first 3D hotspot map labeled according to classes, wherein step (e) generates the merged 3D hotspot map for display and/or further processing; storing and/or providing the map.

[0093] 특정 실시 형태에서, 복수의 상이한 핫스팟 클래스들은 다음으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함한다: (i) 뼈에 위치한 병변을 나타내도록(예를 들어, 제2 기계 학습 모듈에 의해) 결정된 뼈 핫스팟들, (ii) 림프절들에 위치한 병변들을 나타내도록(예를 들어, 제2 기계 학습 모듈에 의해) 결정된 림프 핫스팟들, 및 (iii) 전립선에 위치한 병변들을 나타내도록(예를 들어, 제2 기계 학습 모듈에 의해) 결정된 전립선 핫스팟들. [0093] In a particular embodiment, the plurality of different hotspot classes include one or more members selected from the group consisting of: (i) to represent a lesion located in bone (eg, by a second machine learning module) (ii) lymphatic hotspots determined to represent lesions located in the lymph nodes (eg, by a second machine learning module), and (iii) lesions located in the prostate (eg, Prostate hotspots determined (by a second machine learning module).

[0094] 특정 실시 형태에서, 상기 방법은 (f) 핫스팟 목록 수신 및/또는 접근하는 단계; 및 (g) 핫스팟 목록 내의 각각의 핫스팟에 대해, 분석적 모델을 사용하여 핫스팟을 분할하는 단계 [예를 들어, 이에 의해 분석적으로 분할된 핫스팟들의 3D 맵을 생성하는 단계(예를 들어, 3D 맵은 각각의 핫스팟에 대해, 분할된 핫스팟 영역으로 둘러싸인 3D 해부학적 영상 및/또는 기능적 영상의 핫스팟의 복셀들을 포함하는 핫스팟 볼륨을 식별함)]를 더 포함한다. [0094] In a particular embodiment, the method includes (f) receiving and/or accessing a list of hotspots; and (g) for each hotspot in the hotspot list, segmenting the hotspot using the analytical model [e.g., thereby generating a 3D map of the hotspots segmented analytically (e.g., the 3D map is identifying, for each hotspot, a hotspot volume including voxels of the hotspot of the 3D anatomical image and/or functional image surrounded by the segmented hotspot region)].

[0095] 특정 실시 형태에서, 상기 방법은 (h) 핫스팟 맵 수신 및/또는 접근하는 단계; 및 (i) 핫스팟 맵 내의 각각의 핫스팟에 대해, 분석적 모델을 사용하여 핫스팟을 분할하는 단계 [예를 들어, 이에 의해 분석적으로 분할된 핫스팟들의 3D 맵을 생성하는 단계(예를 들어, 3D 맵은 각각의 핫스팟에 대해, 분할된 핫스팟 영역으로 둘러싸인 3D 해부학적 영상 및/또는 기능적 영상의 핫스팟의 복셀들을 포함하는 핫스팟 볼륨을 식별함)]를 더 포함한다. [0095] In a particular embodiment, the method includes (h) receiving and/or accessing a hotspot map; and (i) for each hotspot in the hotspot map, segmenting the hotspot using the analytical model [e.g., thereby generating a 3D map of the hotspots segmented analytically (e.g., the 3D map is identifying, for each hotspot, a hotspot volume including voxels of the hotspot of the 3D anatomical image and/or functional image surrounded by the segmented hotspot region)].

[0096] 특정 실시 형태에서, 분석적 모델은 적응적 임계값 설정 방법이고, 단계 (i)는 특정 참조 조직 영역에 대응하는 특정 참조 볼륨 내에 위치된 3D 기능적 영상의 복셀들의 강도들의 치수에 각각이 기초하여 하나 이상의 참조 값들(예를 들어, 대상체의 대동맥의 일부에 대응하는 대동맥 볼륨 내의 강도에 기초하여 결정된 혈액 풀(pool) 참조 값; 예를 들어, 대상체의 간에 대응하는 간 볼륨 내의 강도에 기초하여 결정된 간 참조 값)을 결정하는 단계; 및 3D 핫스팟 맵의 각각의 특정 핫스팟 볼륨에 대해, 프로세서에 의해, 상기 특정 핫스팟 볼륨 내의 복셀들의 강도들에 기초하여 대응하는 핫스팟 강도를 결정하는 단계 [예를 들어, 여기서, 핫스팟 강도는 특정 핫스팟 볼륨 내의 복셀들의 최대 강도들(예를 들어, SUVs를 나타냄)임]; 및 프로세서에 의해, (i) 대응하는 핫스팟 강도 및 (ii) 하나 이상의 참조 값(들) 중 적어도 하나에 기초하여 특정 핫스팟에 대한 핫스팟 특정 임계값을 결정하는 단계를 포함한다. [0096] In a specific embodiment, the analytic model is an adaptive threshold setting method, wherein step (i) is each based on a dimension of intensities of voxels of a 3D functional image located within a specific reference volume corresponding to a specific reference tissue region. based on one or more reference values (e.g., a blood pool reference value determined based on intensity in an aortic volume corresponding to a portion of the subject's aorta; e.g., based on intensity in a liver volume corresponding to the subject's liver) determining the determined liver reference value); and for each particular hotspot volume in the 3D hotspot map, determining, by the processor, a corresponding hotspot intensity based on intensities of voxels within the particular hotspot volume [eg, where the hotspot intensity is the particular hotspot volume are the maximal intensities of voxels within (e.g. representing SUVs)]; and determining, by the processor, a hotspot specific threshold for the particular hotspot based on at least one of (i) the corresponding hotspot intensity and (ii) the one or more reference value(s).

[0097] 특정 실시 형태에서, 핫스팟 특정 임계값은 복수의 임계값 함수들로부터 선택된 특정 임계값 함수를 사용하여 결정되고, 특정 임계값 함수는 대응하는 핫스팟 강도와 적어도 하나의 참조 값의 비교에 기초하여 선택한다 [예를 들어, 복수의 임계값 함수 각각은 강도(예를 들어, SUV) 값들의 특정 범위와 관련되고, 특정 임계값 함수는 핫스팟 강도 및/또는 그(예를 들어, 미리 결정된) 백분율이 속하는 특정 범위에 따라 선택된다(예를 들어, 여기서, 강도값들의 각각의 특정 범위는 적어도 하나의 참조 값의 배수에 의해 적어도 부분적으로 제한됨)]. [0097] In a particular embodiment, a hotspot specific threshold is determined using a particular threshold function selected from a plurality of threshold functions, the particular threshold function being based on a comparison of the corresponding hotspot intensity to at least one reference value. [e.g., each of the plurality of threshold functions is associated with a specific range of intensity (eg, SUV) values, and the specific threshold function is the hotspot intensity and/or its (eg, predetermined) selected according to the particular range to which the percentage falls (eg, wherein each particular range of intensity values is at least partially limited by a multiple of at least one reference value)].

[0098] 특정 실시 형태에서, 핫스팟 특정 임계값은(예를 들어, 특정 임계값 함수에 의해) 대응하는 핫스팟 강도의 가변 백분율로서 결정되며, 여기서, 가변 백분율은 핫스팟 강도를 증가시킴에 따라 감소한다 [예를 들어, 여기서, 가변 백분율 자체는 대응하는 핫스팟 강도의 함수(예를 들어, 감소 함수)임]. [0098] In certain embodiments, a hotspot specific threshold is determined (eg, by a specific threshold function) as a variable percentage of the corresponding hotspot intensity, where the variable percentage decreases with increasing hotspot intensity. [eg, where the variable percentage itself is a function (eg, a decreasing function) of the corresponding hotspot intensity].

[0099] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변들을 식별 및/또는 특성화(예를들어, 등급화, 예를들어, 분류화, 예를 들어, 특정 병변 유형을 나타내는 것)하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 방법에 관한 것이며, 상기 방법은 (a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근)하는 단계; (b) 프로세서에 의해, 제1 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제1 초기 세트를 자동으로 분할하여 핫스팟 볼륨들의 제1 세트를 식별하는 제1 초기 3D 핫스팟 맵을 생성하는 단계 ― 상기 제1 기계 학습 모듈은 단일 핫스팟 클래스에 따른 3D 기능적 영상의 핫스팟들을 분할함 [예를 들어, 모든 핫스팟들을 단일 핫스팟 클래스에 속하는 것으로 식별하여 배경 영역들 및 핫스팟 볼륨들 사이를 차별화시킴(예를 들어, 서로 다른 유형의 핫스팟들 사이에서는 아님)(예를 들어, 제1 3D 핫스팟 맵에 의해 식별된 각각의 핫스팟 볼륨이 배경과는 반대로 단일 핫스팟 클래스에 속하는 것으로 라벨링됨)] ― ; (c) 프로세서에 의해 제2 기계 학습 모듈을 사용하여 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제2 초기 세트를 분할하여 초기 핫스팟 볼륨들의 제2 세트를 식별하는 제2 초기 3D 핫스팟 맵을 생성하는 단계 ― 상기 제2 기계 학습 모듈은 복수의 상이한 핫스팟 클래스들에 따른 상기 3D 기능적 영상을 분할하여 상기 제2 초기 3D 핫스팟 맵이 각각의 핫스팟 볼륨이 복수의 상이한 핫스팟 클래스들 중 특정 하나에 속하는 것으로 라벨링되는 다중 클래스 3D 핫스팟 맵이 되도록 함(상이한 핫스팟 클래스들에 대응하는 핫스팟 볼륨들 사이 뿐만 아니라 핫스팟 볼륨들 및 배경 영역들 사이도 차별화시키기 위함) ― ; (d) 프로세서에 의해, 제1 초기 3D 핫스팟 맵에 의해 식별된 초기 핫스팟 볼륨들의 제1 세트의 적어도 일부의 각각의 특정 핫스팟 볼륨에 대해 제1 초기 3D 핫스팟 맵과 제2 초기 3D 핫스팟 맵을 다음의 단계에 의해 병합하는 단계를 포함하고: 제2 초기 3D 핫스팟 맵의 일치하는 핫스팟 볼륨을 식별하는 단계(예를 들어, 제1 및 제2 초기 3D 핫스팟 맵들의 실질적으로 중첩하는 핫스팟 볼륨들을 식별함에 의함) ― 제2 3D 핫스팟 맵의 일치하는 핫스팟 볼륨이 복수의 상이한 핫스팟 클래스들의 특정 핫스팟 클래스에 속하는 것으로 라벨링되어짐 ― ; 및 제1 초기 3D 핫스팟 맵의 특정 핫스팟 볼륨을 특정 핫스팟 클래스에 속하는 것으로 라벨링(일치하는 핫스팟 볼륨이 속하는 것으로 라벨링됨)하여 제2 3D 핫스팟 맵의 일치하는 핫스팟 볼륨들이 속하는 것으로 식별되는 클래스들에 따라 라벨링되어진 제1 3D 핫스팟 맵의 분할된 핫스팟 볼륨들을 포함하는 병합된 3D 핫스팟 맵을 생성하는 단계, 및 (e) 표시 및/또는 추가 처리를 위해, 병합된 3D 핫스팟 맵을 저장 및/또는 제공하는 단계를 포함한다. [0099] In another aspect, the present invention provides a method for identifying and/or characterizing (eg, grading, eg, classifying, eg, indicating a particular lesion type) cancerous lesions in a subject. It relates to a method for automatically processing 3D images of, the method comprising: (a) by a processor of a computing device, a functional imaging technique [eg, positron emission tomography (PET); receiving (eg, and/or accessing) a 3D functional image of the object obtained using, eg, single photon emission tomography (SPECT)]; (b) automatically segmenting, by a processor, a first initial set of one or more hotspots in the 3D functional image using a first machine learning module to generate a first initial 3D hotspot map identifying a first set of hotspot volumes; step - the first machine learning module segments the hotspots of the 3D functional image according to a single hotspot class (eg, differentiating between background regions and hotspot volumes by identifying all hotspots as belonging to a single hotspot class; (eg, not between different types of hotspots) (eg, each hotspot volume identified by the first 3D hotspot map is labeled as belonging to a single hotspot class, as opposed to the background)] ; (c) generating, by the processor, a second initial 3D hotspot map identifying a second set of initial hotspot volumes by segmenting a second initial set of one or more hotspots within the 3D functional image using a second machine learning module - The second machine learning module segments the 3D functional image according to a plurality of different hotspot classes so that the second initial 3D hotspot map generates multiple hotspot volumes in which each hotspot volume is labeled as belonging to a particular one of a plurality of different hotspot classes. to be a class 3D hotspot map (to differentiate not only between hotspot volumes corresponding to different hotspot classes, but also between hotspot volumes and background regions) - ; (d) generating, by the processor, a first initial 3D hotspot map and a second initial 3D hotspot map for each particular hotspot volume of at least a portion of the first set of initial hotspot volumes identified by the first initial 3D hotspot map as follows: merging by: identifying a matching hotspot volume of the second initial 3D hotspot map (e.g., identifying substantially overlapping hotspot volumes of the first and second initial 3D hotspot maps); by) - a matching hotspot volume in the second 3D hotspot map is labeled as belonging to a particular hotspot class of a plurality of different hotspot classes; and labeling a particular hotspot volume in the first initial 3D hotspot map as belonging to a particular hotspot class (matching hotspot volumes are labeled as belonging) to the classes that matching hotspot volumes in the second 3D hotspot map are identified as belonging to. generating a merged 3D hotspot map comprising segmented hotspot volumes of the labeled first 3D hotspot map, and (e) storing and/or providing the merged 3D hotspot map for display and/or further processing. Include steps.

[0100] 특정 실시 형태에서, 복수의 상이한 핫스팟 클래스들은 다음과 같이 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함한다: (i) 뼈에 위치한 병변을 나타내도록(예를 들어, 제2 기계 학습 모듈에 의해) 결정된 뼈 핫스팟들, (ii) 림프절들에 위치한 병변들을 나타내도록(예를 들어, 제2 기계 학습 모듈에 의해) 결정된 림프 핫스팟들, 및 (iii) 전립선에 위치한 병변들을 나타내도록(예를 들어, 제2 기계 학습 모듈에 의해) 결정된 전립선 핫스팟들. [0100] In a particular embodiment, the plurality of different hotspot classes include one or more members selected from the group consisting of: (i) to indicate a lesion located in bone (e.g., by a second machine learning module); ) bone hotspots determined, (ii) lymphatic hotspots determined to represent lesions located in the lymph nodes (eg, by a second machine learning module), and (iii) lesions located in the prostate (eg, , prostate hotspots determined by the second machine learning module).

[0101] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변들을 식별 및/또는 특성화(예를들어, 등급화; 예를 들어, 분류화; 예를 들어, 특정 병변 유형을 나타내는 것)하기 위해 대상체의 3D 영상들을 적응적 임계값 설정 접근법을 통해 자동으로 처리하기 위한 방법에 관한 것이며, 상기 방법은 (a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근)하는 단계; (b) 프로세서에 의해, 3D 기능적 영상 내에서 하나 이상의 예비 핫스팟 볼륨을 식별하는 예비 3D 핫스팟 맵을 수신(예를 들어, 및/또는 접근)하는 단계; (c) 프로세서에 의해, 특정 참조 조직 영역에 대응하는 특정 참조 볼륨 내에 위치된 3D 기능적 영상의 복셀들의 강도들의 치수에 각각이 기초하여 하나 이상의 참조 값들(예를 들어, 대상체의 대동맥의 일부에 대응하는 대동맥 볼륨 내의 강도에 기초하여 결정된 혈액 풀 참조 값; 예를 들어, 대상체의 간에 대응하는 간 볼륨 내의 강도에 기초하여 결정된 간 참조 값)을 결정하는 단계; (d) 프로세서에 의해, 예비 3D 핫스팟 맵에 의해 식별된 하나 이상의 예비 핫스팟 볼륨들의 적어도 일부의 각각의 특정한 예비 핫스팟 볼륨에 대해, 예비 핫스팟 볼륨들에 기초하고 적응적 임계값 기반 분할을 사용하여 다음의 단계에 의해 정제된 3D 핫스팟 맵을 생성하는 단계 : 특정 예비 핫스팟 볼륨 내의 복셀들의 강도들에 기초하여 대응하는 핫스팟 강도를 결정하는 단계 [예를 들어, 여기서, 핫스팟 강도는 특정 예비 핫스팟 볼륨 내의 복셀들의 최대 강도들 (예를 들어, SUVs를 나타냄)임]; (i) 대응하는 핫스팟 강도 및 (ii) 하나 이상의 참조 값(들) 중 적어도 하나에 기초하여 특정 예비 핫스팟 볼륨에 대한 핫스팟 특정 임계값을 결정하는 단계 ; 특정 예비 핫스팟 볼륨에 대해 결정된 핫스팟 특정 임계값을 사용하여 영상 분할을 수행하는 임계값 기반 분할 알고리즘을 사용하여 3D 기능의 적어도 일부(예를 들어, 특정 예비 핫스팟 볼륨의 서브 볼륨)를 분할하여 [예를 들어, 핫스팟 특정 임계값 초과의 강도들을 갖고 예비 핫스팟 볼륨의 최대 강도 복셀을 포함하는 복셀들의 클러스터들(예를 들어, n―연결 성분 방식(예를 들어, 여기서, n = 6, n = 18 등)으로 서로 연결된 복셀들의 3D 클러스터들))을 식별함] 특정 예비 핫스팟 볼륨에 대응하는 정제되고 분석적으로 분할된 핫스팟 볼륨을 결정하는 단계 ; 및 정제된 3D 핫스팟 맵에 정제된 핫스팟 볼륨을 포함시키는 단계 ; 및 (e) 표시 및/또는 추가 처리를 위해 정제된 3D 핫스팟 맵을 저장 및/또는 제공하는 단계를 포함한다. [0101] In another aspect, the present invention provides a method for identifying and/or characterizing (eg, grading; eg, classifying; eg, indicative of a particular lesion type) cancerous lesions in a subject. It relates to a method for automatically processing 3D images of through an adaptive threshold setting approach, the method comprising (a) by a processor of a computing device, a functional imaging technique [eg, positron emission tomography (PET) ); receiving (eg, and/or accessing) a 3D functional image of the object obtained using, eg, single photon emission tomography (SPECT)]; (b) receiving (eg, and/or accessing), by a processor, a preliminary 3D hotspot map that identifies one or more preliminary hotspot volumes within the 3D functional image; (c) by the processor, one or more reference values (e.g., corresponding to a part of the aorta of the object) each based on a dimension of intensities of voxels of the 3D functional image located in a specific reference volume corresponding to a specific reference tissue region determining a blood pool reference value determined based on intensity within an aortic volume of the subject (eg, a liver reference value determined based on intensity within a liver volume corresponding to a liver of a subject); (d) by the processor, for each particular preliminary hotspot volume of at least a portion of the one or more preliminary hotspot volumes identified by the preliminary 3D hotspot map, using an adaptive threshold-based segmentation based on the preliminary hotspot volumes to: generating a refined 3D hotspot map by: determining a corresponding hotspot intensity based on intensities of voxels within a specific preliminary hotspot volume [eg, where the hotspot intensity is a voxel within a specific preliminary hotspot volume; are the maximal intensities of (e.g., representing SUVs)]; determining a hotspot specific threshold for a particular preliminary hotspot volume based on at least one of (i) the corresponding hotspot intensity and (ii) one or more reference value(s); Using a threshold-based segmentation algorithm that performs image segmentation using a hotspot-specific threshold determined for a specific preliminary hotspot volume, segmenting at least a portion of a 3D feature (e.g., a subvolume of a specific preliminary hotspot volume) [eg For example, clusters of voxels with intensities above the hotspot specific threshold and including the maximum intensity voxel of the preliminary hotspot volume (eg, n-connected component scheme (eg, where n = 6, n = 18) identifying 3D clusters of voxels)) connected to each other, etc.)] determining a refined and analytically segmented hotspot volume corresponding to a particular preliminary hotspot volume; and including the refined hotspot volume in the refined 3D hotspot map; and (e) storing and/or providing the refined 3D hotspot map for display and/or further processing.

[0102] 특정 실시 형태에서, 핫스팟 특정 임계값은 복수의 임계값 함수들로부터 선택된 특정 임계값 함수를 사용하여 결정되고, 특정 임계값 함수는 대응하는 핫스팟 강도와 적어도 하나의 참조 값의 비교에 기초하여 선택된다 [예를 들어, 복수의 임계값 함수들 각각은 강도(예를 들어, SUV) 값들의 특정 범위와 관련되고, 특정 임계값 함수는 핫스팟 강도 및/또는 그(예를 들어, 미리 결정된) 백분율이 속하는 특정 범위에 따라 선택된다(예를 들어, 여기서, 강도값들의 각각의 특정 범위는 적어도 하나의 참조 값의 배수에 의해 적어도 부분적으로 제한됨)]. [0102] In a particular embodiment, the hotspot specific threshold is determined using a particular threshold function selected from a plurality of threshold functions, the particular threshold function being based on a comparison of the corresponding hotspot intensity to at least one reference value. [e.g., each of a plurality of threshold functions is associated with a specific range of intensity (eg, SUV) values, and the specific threshold function is a hotspot intensity and/or its (eg, predetermined ) according to the particular range to which the percentage falls (eg, wherein each particular range of intensity values is at least partially limited by a multiple of at least one reference value)].

[0103] 특정 실시 형태에서, 핫스팟 특정 임계값은(예를 들어, 특정 임계값 함수에 의해) 대응하는 핫스팟 강도의 가변 백분율로서 결정되며, 여기서, 가변 백분율은 핫스팟 강도를 증가시킴에 따라 감소한다 [예를 들어, 여기서, 가변 백분율 자체는 대응하는 핫스팟 강도의 함수(예를 들어, 감소 함수)임]. [0103] In certain embodiments, a hotspot specific threshold is determined (eg, by a specific threshold function) as a variable percentage of the corresponding hotspot intensity, where the variable percentage decreases with increasing hotspot intensity. [eg, where the variable percentage itself is a function (eg, a decreasing function) of the corresponding hotspot intensity].

[0104] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변들을 식별 및/또는 특성화(예를들어, 등급화; 예를 들어, 분류화; 예를 들어, 특정 병변 유형을 나타내는 것)하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 방법에 관한 것이며, 상기 방법은 (a) 컴퓨팅 장치의 프로세서에 의해, 해부학적 영상 촬영 기법 [예를 들어, x선 컴퓨터 단층촬영(CT); 예를 들어, 자기 공명 영상(MRI); 예를 들어, 초음파]을 사용하여 획득된 대상체의 3D 해부학적 영상을 수신하는 단계 ― 여기서 3D 해부학적 영상은 대상체 내의 조직(예를 들어, 연조직 및/또는 뼈)의 그래픽 표현을 포함함 ― ; (b) 프로세서에 의해, 3D 해부학적 영상을 자동으로 분할하여 3D 해부학적 영상에서 대상체의 간에 대응하는 간 볼륨 및 대동맥 부분(예를 들어, 흉부 및/또는 복부 부분)에 대응하는 대동맥 볼륨을 포함하는 복수의 관심 볼륨(VOI) 들을 식별하는 3D 분할 맵을 생성하는 단계; (c) 프로세서에 의해, 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근) 하는 단계 [예를 들어, 여기서, 3D 기능적 영상은 복수의 복셀들을 포함하며, 각각은 대상체 내의 특정 물리적 볼륨을 나타내고 특정 물리적 볼륨으로부터 방출된 검출된 방사선을 나타내는 강도 값을 가지며, 여기서, 3D 기능적 영상의 복수의 복셀들 중 적어도 일부는 표적 조직 영역 내의 물리적 볼륨들을 나타냄]; (d) 프로세서에 의해, 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 분할하여 ― 각각의 분할된 핫스팟은 그 주변에 대해 높은 강도의 국소 영역에 대응하고 대상체 내의 잠재적인 암성 병변을 나타냄(예를 들어, 가리킴) ―, 하나 이상의 자동으로 분할된 핫스팟 볼륨들을 식별하는 단계 ; (e) 프로세서에 의해, 대화형 그래픽 사용자 인터페이스(GUI)(예를 들어, 품질 관리 및 보고 GUI) 내의 표시를 위해 하나 이상의 자동으로 분할된 핫스팟 볼륨들의 그래픽 표현의 렌더링을 야기하는 단계 ; (f) 프로세서에 의해, 하나 이상의 자동으로 분할된 핫스팟 볼륨들의 적어도 일부(예를 들어, 최대 전체)를 포함하는 최종 핫스팟 세트의 사용자 선택을 대화형 GUI를 통해 수신하는 단계 ; (g) 프로세서에 의해, 최종 세트의 각각의 핫스팟 볼륨에 대해 (i) 핫스팟 볼륨(예를 들어, 내부에 위치됨)에 대응하는 기능적 영상의 복셀들의 강도들 및 (ii) 간 볼륨 및 대동맥 볼륨에 대응하는 기능적 영상의 복셀들의 강도들을 사용하여 결정된 하나 이상의 참조 값들에 기초하여 병변 지수값을 결정하는 단계 ; 및 (e) 표시 및/또는 추가 처리를 위해, 최종 핫스팟 세트 및/또는 병변 지수값들을 저장 및/또는 제공하는 단계를 포함한다. [0104] In another aspect, the present invention provides a method for identifying and/or characterizing (eg, grading; eg, classifying; eg, representing a particular lesion type) cancerous lesions in a subject. It relates to a method for automatically processing 3D images of, the method comprising (a) by a processor of a computing device, an anatomical imaging technique [eg, x-ray computed tomography (CT); For example, magnetic resonance imaging (MRI); eg, receiving a 3D anatomical image of an object obtained using ultrasound], wherein the 3D anatomical image includes a graphic representation of a tissue (eg, soft tissue and/or bone) in the object; (b) by the processor, the 3D anatomical image is automatically segmented to include a liver volume corresponding to the liver of the object and an aorta volume corresponding to the aorta portion (eg, thoracic and/or abdominal portion) in the 3D anatomical image; generating a 3D segmentation map identifying a plurality of volumes of interest (VOIs); (c) by a processor, a functional imaging technique [eg, positron emission tomography (PET); Receiving (eg, and/or accessing) a 3D functional image of the object obtained using, for example, single photon emission computed tomography (SPECT)] [eg, where the 3D functional image is obtained in a plurality of includes voxels of , each representing a specific physical volume within the object and having an intensity value representing detected radiation emitted from the specific physical volume, wherein at least some of the plurality of voxels of the 3D functional image represent a physical volume within the target tissue region representing volumes]; (d) automatically segmenting, by the processor, one or more hotspots in the 3D functional image, each segmented hotspot corresponding to a local area of high intensity to its surroundings and representing a potential cancerous lesion in the subject (e.g. , indicating) - identifying one or more automatically segmented hotspot volumes; (e) causing, by the processor, rendering of a graphical representation of the one or more automatically segmented hotspot volumes for display in an interactive graphical user interface (GUI) (eg, a quality management and reporting GUI); (f) receiving, by the processor, a user selection of a final hotspot set comprising at least a portion (eg, up to all) of the one or more automatically segmented hotspot volumes via an interactive GUI; (g) for each hotspot volume of the final set, by the processor, (i) the intensities of the voxels of the functional image corresponding to the hotspot volume (e.g., located within) and (ii) the liver volume and aorta volume determining a lesion index value based on one or more reference values determined using intensities of voxels of the functional image corresponding to ; and (e) storing and/or providing the final hotspot set and/or lesion index values for display and/or further processing.

[0105] 특정 실시 형태에서, 단계(b)는 3D 분할 맵이 대상체의 하나 이상의 뼈들에 대응하는 하나 이상의 뼈 볼륨들을 식별하도록 해부학적 영상을 분할하는 단계를 포함하고, 단계(d)는 기능적 영상 내에서 하나 이상의 뼈 볼륨들을 사용하여 골격을 식별하고 골격 볼륨 내에 위치된 하나 이상의 뼈 핫스팟 볼륨들을 분할하는 단계(예를 들어, 하나 이상의 가우시안 필터들의 차이를 적용하고 골격 볼륨을 임계값 설정함으로써)를 포함한다. [0105] In a particular embodiment, step (b) comprises segmenting the anatomical image such that the 3D segmentation map identifies one or more bone volumes corresponding to one or more bones of the object, and step (d) comprises functional image identifying a bone using one or more bone volumes within the bone volume and segmenting one or more bone hotspot volumes located within the bone volume (eg, by applying a difference of one or more Gaussian filters and thresholding the bone volume). include

[0106] 특정 실시 형태에서, 단계 (b)는 3D 분할 맵이 대상체의 연조직 장기들 [예를 들어, 좌측/우측 폐들, 좌측/우측 대둔근, 비뇨기 방광, 간, 좌측/우측 신장, 담낭, 비장, 흉부 및 복부 대동맥 및 선택적으로(예를 들어, 근치적 전립선 절제술을 받지 않은 환자의 경우, 전립선)]에 대응하는 하나 이상의 장기 볼륨들을 식별하도록 해부학적 영상을 분할하는 단계를 포함하고, 단계 (d)는 기능적 영상 내에서 하나 이상의 분할된 장기 볼륨들을 사용하여 하나 이상의 연조직(예를 들어, 림프 및 선택적으로 전립선) 볼륨들을 식별하고 연조직 볼륨 내에 위치된 하나 이상의 림프 및/또는 전립선 핫스팟 볼륨들을 분할하는 단계(예를 들어, 하나 이상의 가우시안 필터들의 라플라시안을 적용하고 연조직 볼륨을 임계값 설정함으로써)를 포함한다. [0106] In a particular embodiment, step (b) includes the 3D segmentation map of the subject's soft tissue organs [eg, left/right lungs, left/right gluteus maximus, urinary bladder, liver, left/right kidney, gallbladder, spleen Segmenting the anatomical image to identify one or more organ volumes corresponding to , thoracic and abdominal aorta and optionally (eg, prostate for patients who have not undergone radical prostatectomy); d) uses the one or more segmented organ volumes within the functional image to identify one or more soft tissue (eg, lymphatic and optionally prostate) volumes and segment one or more lymphatic and/or prostate hotspot volumes located within the soft tissue volume. (eg, by applying a Laplacian of one or more Gaussian filters and thresholding the soft tissue volume).

[0107] 특정 실시 형태에서, 단계 (d)는 하나 이상의 림프 및/또는 전립선 핫스팟 볼륨들을 분할하기 전에 하나 이상의 고흡수 조직 영역들로부터 강도를 억제하도록 기능적 영상의 강도들을 조정하는 단계(예를 들어, 본 출원에서 기재된 하나 이상의 억제 방법들을 사용하여)를 더 포함한다. [0107] In a particular embodiment, step (d) includes adjusting intensities of the functional image to suppress intensity from one or more hyperabsorbent tissue regions prior to segmenting one or more lymphatic and/or prostate hotspot volumes (e.g., , using one or more inhibition methods described herein).

[0108] 특정 실시 형태에서, 단계 (g)가 간 볼륨에 대응하는 기능적 영상의 복셀들의 강도들을 사용하여 간 참조 값을 결정하는 단계를 포함한다. [0108] In a particular embodiment, step (g) includes determining a liver reference value using intensities of voxels of the functional image corresponding to the liver volume.

[0109] 특정 실시 형태에서, 2 성분 가우시안 혼합 모델 피트(fit)를 사용하여 간 볼륨에 대응하는 기능적 영상 복셀들의 강도들의 히스토그램에 2 성분 가우시안 혼합 모델을 맞추어 간 볼륨으로부터 비정상적으로 낮은 흡수 영역들과 관련된 강도들을 갖는 복셀들을 식별 및 배제하고, 나머지(예를 들어, 배제되지 않은) 복셀들의 강도들을 사용하여 간 참조 값을 결정하는 단계를 포함한다. [0109] In a particular embodiment, a two-component Gaussian mixture model fit is used to fit a two-component Gaussian mixture model to a histogram of the intensities of functional imaging voxels corresponding to the liver volume using a two-component Gaussian mixture model fit to determine areas of abnormally low absorption and identifying and excluding voxels with relevant intensities, and determining an inter-reference value using intensities of remaining (eg, non-excluded) voxels.

[0110] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변들을 식별 및/또는 특성화(예를들어, 등급화; 예를 들어, 분류화; 예를 들어, 특정 병변 유형을 나타내는 것)하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템에 관한 것이며, 상기 시스템은 컴퓨팅 디바이스의 프로세서; 및 명령이 저장되어 있는 메모리를 포함하며, 상기 명령들은 프로세서에 의해 실행될 때 프로세서가 (a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근) 하도록 하고; (b) 해부학적 영상 촬영 기법 [예를 들어, 컴퓨터 단층촬영(CT) 영상; 예를 들어, 자기 공명 (MR) 영상]을 사용하여 획득된 대상체의 3D 해부학적 영상을 수신(예를 들어, 및/또는 접근) 하도록 하고; (c) 3D 기능적 영상 내 및/또는 3D 해부학적 영상 내에서 하나 이상의 특정 조직 영역(들) 또는 조직 영역들의 그룹(들)(예를 들어, 특정 해부학적 영역에 대응하는 조직 영역들의 세트; 예를 들어, 높거나 낮은 방사성 의약품 흡수가 발생하는 장기들을 포함하는 조직 영역들의 그룹)을 식별하는 3D 분할 맵을 수신하도록 하고; (d) 하나 이상의 기계 학습 모듈(들)을 사용하여 3D 기능적 영상 내의 하나 이상의 핫스팟들의 세트를 자동으로 검출 및/또는 분할하도록 하여 (i) 각각의 핫스팟에 대해 핫스팟의 위치를 식별하는 핫스팟 목록 [예를 들어, 하나 이상의 기계 학습 모듈(들)에 의해 검출됨], 및 (ii) 각각의 핫스팟에 대해, 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨을 식별하는 3D 핫스팟 맵 [예를 들어, 하나 이상의 기계 학습 모듈(들)에 의해 수행된 분할을 통해 결정됨] [예를 들어, 여기서, 3D 핫스팟 맵은 각각의 핫스팟에 대해 핫스팟의 3D 핫스팟 경계(예를 들어, 불규칙한 경계)를 묘사함(예를 들어, 3D 핫스팟 볼륨을 둘러싸는 3D 경계)] 중 하나 또는 둘 모두를 생성하도록 하고 ― 하나 이상의 기계 학습 모듈(들)의 적어도 하나(예를 들어, 최대 전체)는 입력으로서 (i) 3D 기능적 영상, (ii) 3D 해부학적 영상 및 (iii) 3D 분할 맵을 수신하고, 각각의 핫스팟은 그 주변에 대한 높은 강도의 국소 영역에 대응하고 대상체 내의 잠재적인 암성 병변을 나타냄 ― ; 및 (e) 표시 및/또는 추가 처리를 위해 핫스팟 목록 및/또는 3D 핫스팟 맵을 저장 및/또는 제공하도록 한다. [0110] In another aspect, the invention provides a method for identifying and/or characterizing (eg, grading; eg, classifying; eg, representing a particular lesion type) cancerous lesions in a subject. It relates to a system for automatically processing 3D images of, the system comprising: a processor of a computing device; and a memory having stored therein instructions, which when executed by the processor cause the processor to: (a) use a functional imaging technique [eg, positron emission tomography (PET); receive (eg, and/or access) a 3D functional image of an object acquired using, eg, single photon emission computed tomography (SPECT)]; (b) anatomical imaging techniques [eg, computed tomography (CT) images; receive (eg, and/or access) a 3D anatomical image of an object obtained using, for example, magnetic resonance (MR) imaging]; (c) one or more specific tissue region(s) or group(s) of tissue regions within a 3D functional image and/or within a 3D anatomical image (eg, a set of tissue regions corresponding to a specific anatomical region; e.g. receive a 3D segmentation map identifying groups of tissue regions, eg, including organs where high or low radiopharmaceutical uptake occurs; (d) use one or more machine learning module(s) to automatically detect and/or segment a set of one or more hotspots within the 3D functional image, such that (i) for each hotspot, a hotspot list identifying the location of the hotspot [ eg, detected by one or more machine learning module(s)], and (ii) for each hotspot, a 3D hotspot map identifying a corresponding 3D hotspot volume within the 3D functional image [eg, one or more determined through segmentation performed by the machine learning module(s)] [e.g., where the 3D hotspot map depicts, for each hotspot, the 3D hotspot boundaries (e.g., irregular boundaries) of the hotspot (e.g., eg, a 3D boundary enclosing a 3D hotspot volume), and at least one of the one or more machine learning module(s) (e.g., a maximum total) receives as input: (i) a 3D functional image , receiving (ii) a 3D anatomical image and (iii) a 3D segmentation map, each hotspot corresponding to a local area of high intensity to its surroundings and representing a potential cancerous lesion within the subject; and (e) store and/or provide hotspot lists and/or 3D hotspot maps for display and/or further processing.

[0111] 특정 실시 형태에서, 명령들은 프로세서가 3D 해부학적 영상 및 3D 기능적 영상 내의 하나 이상(예를 들어, 복수)의 특정 조직 영역들(예를 들어, 장기들 및/또는 특정 뼈들)을 식별하는 초기 3D 분할 맵을 수신하도록 하고; 하나 이상의 조직 그룹핑(들)(예를 들어, 미리 정의된 그룹핑들) 중 특정 하나에 속하는 것으로서 하나 이상의 특정 조직 영역들의 적어도 일부를 식별하도록 하고; 식별된 특정 영역들을 특정 조직 그룹핑에 속하는 것으로 나타내기 위해 3D 분할 맵을 갱신하도록 하고; 하나 이상의 기계 학습 모듈들 중 적어도 하나에 대한 입력으로서 갱신된 3D 분할 맵을 사용하도록 한다. [0111] In a particular embodiment, the instructions cause the processor to identify one or more (eg, multiple) specific tissue regions (eg, organs and/or specific bones) within the 3D anatomical image and the 3D functional image. receive an initial 3D segmentation map of identify at least a portion of the one or more specific tissue regions as belonging to a specific one of the one or more tissue grouping(s) (eg, predefined groupings); update the 3D segmentation map to indicate the identified specific regions as belonging to a specific tissue grouping; Use the updated 3D segmentation map as an input to at least one of the one or more machine learning modules.

[0112] 특정 실시 형태에서, 하나 이상의 조직 그룹핑들은 연조직 그룹핑을 포함하여 연조직을 나타내는 특정 조직 영역들이 연조직 그룹핑에 속하는 것으로 식별되도록 한다. 특정 실시 형태에서, 하나 이상의 조직 그룹핑들은 뼈 조직 그룹핑을 포함하여 뼈를 나타내는 특정 조직 영역들이 뼈 조직 그룹핑에 속하는 것으로 식별되도록 한다. 특정 실시 형태에서, 하나 이상의 조직 그룹핑들은 고흡수 장기 그룹핑을 포함하여 높은 방사성 의약품 흡수와 관련된 하나 이상의 장기들(예를 들어, 정상적인 상황 하에서, 반드시 병변들의 존재로 인한 것은 아님)이 높은 흡수 그룹핑에 속하는 것으로 식별되도록 한다. [0112] In a particular embodiment, one or more tissue groupings include a soft tissue grouping such that specific tissue regions representative of soft tissue are identified as belonging to the soft tissue grouping. In certain embodiments, one or more tissue groupings include a bone tissue grouping such that specific tissue regions representing bone are identified as belonging to the bone tissue grouping. In certain embodiments, the one or more tissue groupings include a high uptake organ grouping where one or more organs associated with high radiopharmaceutical uptake (eg, not necessarily due to the presence of lesions, under normal circumstances) are in a high uptake grouping. to be identified as belonging to.

[0113] 특정 실시 형태에서, 명령들은 프로세서가 각각의 검출 및/또는 분할된 핫스팟에 대해, 핫스팟에 대한 분류를 결정하도록 한다 [예를 들어, 해부학적 위치에 따라, 예를 들어, 병변을 뼈, 림프 또는 전립선으로 분류하는 것, 예를 들어, 표 1의 라벨링 체계와 같이 대상체와 관련하여 핫스팟의 결정된(예를 들어, 프로세서에 의함) 위치에 기초하여 영숫자 코드를 할당함]. [0113] In a particular embodiment, the instructions cause the processor to determine, for each detected and/or segmented hotspot, a classification for the hotspot [e.g., according to anatomical location, e.g., bone lesion , classification as lymphatic or prostate, assigning an alphanumeric code based on the determined (eg, by a processor) location of the hotspot in relation to the subject, eg, as in the labeling scheme of Table 1].

[0114] 특정 실시 형태에서, 명령들은 프로세서가 각각의 검출 및/또는 분할된 핫스팟에 대해 핫스팟에 대한 분류를 결정하기 위해 하나 이상의 기계 학습 모듈들 중 적어도 하나를 사용하도록 한다(예를 들어, 여기서, 단일 기계 학습 모듈은 검출, 분할, 및 분류를 수행함). [0114] In a particular embodiment, the instructions cause the processor to use, for each detected and/or segmented hotspot, at least one of the one or more machine learning modules to determine a classification for the hotspot (eg, where , a single machine learning module performs detection, segmentation, and classification).

[0115] 특정 실시 형태에서, 하나 이상의 기계 학습 모듈들은 (A) 전신에 걸쳐 핫스팟들을 검출 및/또는 분할하는 전신 병변 검출 모듈; 및 (B) 전립선 내의 핫스팟을 검출 및/또는 분할하는 전립선 병변 모듈을 포함한다. 특정 실시 형태에서, 명령들은 프로세서가 (A) 및 (B) 각각을 사용하여 상기 핫스팟 목록 및/또는 맵들을 생성하고 그 결과들을 병합하도록 한다. [0115] In a particular embodiment, one or more machine learning modules include (A) a whole body lesion detection module that detects and/or segments hotspots across the whole body; and (B) a prostate lesion module that detects and/or segments hot spots within the prostate. In a particular embodiment, instructions cause a processor to generate the hotspot list and/or maps using (A) and (B), respectively, and merge the results.

[0116] 특정 실시 형태에서, 단계(d)에서 명령들은 프로세서가 하나 이상의 핫스팟들의 세트를 분할 및 분류하여 각각의 핫스팟에 대해 상기 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨을 식별하고 각각의 핫스팟이 복수의 핫스팟 클래스(class)들 중 특정 핫스팟 클래스 [예를 들어, 핫스팟에 의해 나타나는 병변이 위치되도록 결정되는 특정 해부학적 및/또는 조직 영역(예를 들어, 림프, 뼈, 전립선)을 식별하는 각각의 핫스팟 클래스]에 속하는 것으로 라벨링되는 라벨링된 3D 핫스팟 맵을 다음의 단계에 의해 생성하는 단계: 제1 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제1 초기 세트를 분할하여 핫스팟 볼륨들의 제1 세트를 식별하는 제1 초기 3D 핫스팟 맵을 생성하는 단계 ― 상기 제1 기계 학습 모듈은 단일 핫스팟 클래스에 따른 3D 기능적 영상의 핫스팟들을 분할함 [예를 들어, 모든 핫스팟들을 단일 핫스팟 클래스에 속하는 것으로 식별하여 배경 영역들 및 핫스팟 볼륨들 사이를 차별화시킴(예를 들어, 서로 다른 유형의 핫스팟들 사이에서는 아님)(예를 들어, 제1 3D 핫스팟 맵에 의해 식별된 각각의 핫스팟 볼륨이 배경과는 반대로 단일 핫스팟 클래스에 속하는 것으로 라벨링됨)] ― ; 제2 기계 학습 모듈을 사용하여 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제2 초기 세트를 분할하여 초기 핫스팟 볼륨들의 제2 세트를 식별하는 제2 초기 3D 핫스팟 맵을 생성하는 단계 ― 상기 제2 기계 학습 모듈은 복수의 상이한 핫스팟 클래스들에 따른 상기 3D 기능적 영상을 분할하여 상기 제2 초기 3D 핫스팟 맵이 각각의 핫스팟 볼륨이 복수의 상이한 핫스팟 클래스들 중 특정 하나에 속하는 것으로 라벨링되는 다중 클래스 3D 핫스팟 맵이 되도록 함(상이한 핫스팟 클래스들에 대응하는 핫스팟 볼륨들 사이 뿐만 아니라 핫스팟 볼륨들 및 배경 영역들 사이도 차별화시키기 위함) ― ; 및 제1 초기 3D 핫스팟 맵에 의해 식별된 핫스팟 볼륨의 적어도 일부의 제1 초기 3D 핫스팟 맵과 상기 제2 초기 3D 핫스팟 맵을 다음의 단계에 의해 병합하는 단계를 포함하고: 상기 제2 초기 3D 핫스팟 맵의 일치하는 핫스팟 볼륨을 식별하는 단계(예를 들어, 제1 및 제2 초기 3D 핫스팟 맵들의 실질적으로 중첩하는 핫스팟 볼륨들을 식별함에 의함) ― 상기 제2 3D 핫스팟 맵의 일치하는 핫스팟 볼륨이 복수의 상이한 핫스팟 클래스들의 특정 핫스팟 클래스에 속하는 것으로 라벨링되어짐 ― ; 및 제1 초기 3D 핫스팟 맵의 특정 핫스팟 볼륨을 특정 핫스팟 클래스에 속하는 것으로 라벨링(일치하는 핫스팟 볼륨이 속하는 것으로 라벨링됨)하여 제2 3D 핫스팟 맵의 일치하는 핫스팟들이 속하는 것으로 식별되는 클래스들에 따라 라벨링되어진 제1 3D 핫스팟 맵의 분할된 핫스팟 볼륨들을 포함하는 병합된 3D 핫스팟 맵을 생성하는 단계를 포함하고, 단계 (e)에서 명령들은 프로세서가 표시 및/또는 추가 처리를 위해, 병합된 3D 핫스팟 맵을 저장 및/또는 제공하도록 한다. [0116] In a particular embodiment, the instructions in step (d) cause a processor to segment and classify a set of one or more hotspots to identify for each hotspot a corresponding 3D hotspot volume within the 3D functional image, and each hotspot to be classified into a plurality of hotspots. Of the hotspot classes, a specific hotspot class [eg, each identifying a specific anatomical and/or tissue region (eg, lymph, bone, prostate) in which the lesion represented by the hotspot is determined to be located. hotspot class] by: segmenting a first initial set of one or more hotspots in the 3D functional image using a first machine learning module to generate hotspot volumes of generating a first initial 3D hotspot map identifying a first set - the first machine learning module segments the hotspots of the 3D functional image according to a single hotspot class [e.g., all hotspots belong to a single hotspot class; to differentiate between background regions and hotspot volumes (eg, not between different types of hotspots) (eg, each hotspot volume identified by the first 3D hotspot map is are labeled as belonging to a single hotspot class, conversely)] ― ; segmenting a second initial set of one or more hotspots within the 3D functional image using a second machine learning module to generate a second initial 3D hotspot map identifying a second set of initial hotspot volumes - the second machine learning module segment the 3D functional image according to a plurality of different hotspot classes such that the second initial 3D hotspot map is a multi-class 3D hotspot map in which each hotspot volume is labeled as belonging to a particular one of a plurality of different hotspot classes; ham (to differentiate not only between hotspot volumes corresponding to different hotspot classes, but also between hotspot volumes and background regions) - ; and merging the first initial 3D hotspot map and the second initial 3D hotspot map of at least a portion of the hotspot volume identified by the first initial 3D hotspot map by: the second initial 3D hotspot map; Identifying a matching hotspot volume of a map (eg, by identifying substantially overlapping hotspot volumes of first and second initial 3D hotspot maps) - wherein the matching hotspot volume of the second 3D hotspot map is a plurality of labeled as belonging to a particular hotspot class of different hotspot classes; and labeling specific hotspot volumes in the first initial 3D hotspot map as belonging to a specific hotspot class (matching hotspot volumes are labeled as belonging), thereby labeling matching hotspots in the second 3D hotspot map according to the classes identified to belong to. generating a merged 3D hotspot map comprising the segmented hotspot volumes of the first 3D hotspot map, wherein the instructions in step (e) cause the processor to generate the merged 3D hotspot map for display and/or further processing; to store and/or provide.

[0117] 특정 실시 형태에서, 복수의 상이한 핫스팟 클래스들은 다음과 같이 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함한다: (i) 뼈에 위치한 병변을 나타내도록(예를 들어, 제2 기계 학습 모듈에 의해) 결정된 뼈 핫스팟들, (ii) 림프절들에 위치한 병변들을 나타내도록(예를 들어, 제2 기계 학습 모듈에 의해) 결정된 림프 핫스팟들, 및 (iii) 전립선에 위치한 병변들을 나타내도록(예를 들어, 제2 기계 학습 모듈에 의해) 결정된 전립선 핫스팟들. [0117] In a particular embodiment, the plurality of different hotspot classes include one or more members selected from the group consisting of: (i) to represent a lesion located in bone (e.g., by a second machine learning module) ) bone hotspots determined, (ii) lymphatic hotspots determined to represent lesions located in the lymph nodes (eg, by a second machine learning module), and (iii) lesions located in the prostate (eg, , prostate hotspots determined by the second machine learning module).

[0118] 특정 실시 형태에서, 명령들은 프로세서가 추가로: (f) 핫스팟 목록을 수신 및/또는 접근하도록 하고; (g) 핫스팟 목록 내의 각각의 핫스팟에 대해, 분석적 모델을 사용하여 핫스팟을 분할하도록 한다 [예를 들어, 이에 의해 분석적으로 분할된 핫스팟들의 3D 맵을 생성하도록 함(예를 들어, 3D 맵은 각각의 핫스팟에 대해, 분할된 핫스팟 영역으로 둘러싸인 3D 해부학적 영상 및/또는 기능적 영상의 핫스팟의 복셀들을 포함하는 핫스팟 볼륨을 식별함)]. [0118] In a particular embodiment, the instructions further cause the processor to: (f) receive and/or access a list of hotspots; (g) for each hotspot in the hotspot list, segment the hotspot using an analytical model [e.g., thereby generating a 3D map of the hotspots segmented analytically (e.g., the 3D map is each Identifying a hotspot volume containing voxels of the hotspot of the 3D anatomical image and/or functional image surrounded by the segmented hotspot region, for the hotspot of )].

[0119] 특정 실시 형태에서, 명령들은 프로세서가 추가로: (h) 핫스팟 맵을 수신 및/또는 접근하도록 하고; (i) 핫스팟 맵 내의 각각의 핫스팟에 대해, 분석적 모델을 사용하여 핫스팟을 분할하도록 한다 [예를 들어, 이에 의해 분석적으로 분할된 핫스팟들의 3D 맵을 생성하도록 함(예를 들어, 3D 맵은 각각의 핫스팟에 대해, 분할된 핫스팟 영역으로 둘러싸인 3D 해부학적 영상 및/또는 기능적 영상의 핫스팟의 복셀들을 포함하는 핫스팟 볼륨을 식별함)]. [0119] In a particular embodiment, the instructions further cause the processor to: (h) receive and/or access a hotspot map; (i) for each hotspot in the hotspot map, segment the hotspot using an analytical model [e.g., thereby generating a 3D map of the hotspots segmented analytically (e.g., the 3D map is each identifying a hotspot volume containing voxels of the hotspot of the 3D anatomical image and/or functional image surrounded by the segmented hotspot region, for the hotspot of )].

[0120] 특정 실시 형태에서, 분석적 모델은 적응적 임계값 설정 방법이고, 단계 (i)에서 명령들은 프로세서가 특정 참조 조직 영역에 대응하는 특정 참조 볼륨 내에 위치된 3D 기능적 영상의 복셀들의 강도들의 치수에 각각이 기초하여 하나 이상의 참조 값들(예를 들어, 대상체의 대동맥의 일부에 대응하는 대동맥 볼륨 내의 강도에 기초하여 결정된 혈액 풀 참조 값; 예를 들어, 대상체의 간에 대응하는 간 볼륨 내의 강도에 기초하여 결정된 간 참조 값)을 결정하도록 하고; 3D 핫스팟 맵의 각각의 특정 핫스팟 볼륨에 대해, 특정 핫스팟 볼륨 내의 복셀들의 강도들에 기초하여 대응하는 핫스팟 강도를 결정하도록 하고 [예를 들어, 여기서, 핫스팟 강도는 특정 핫스팟 볼륨 내의 복셀들의 최대 강도들(예를 들어, SUVs를 나타냄)임]; (i) 대응하는 핫스팟 강도 및 (ii) 하나 이상의 참조 값(들) 중 적어도 하나에 기초하여 특정 핫스팟에 대한 핫스팟 특정 임계값을 결정하도록 한다. [0120] In a particular embodiment, the analytic model is an adaptive thresholding method, wherein in step (i) the instructions cause the processor to measure the intensities of voxels of a 3D functional image located within a particular reference volume corresponding to a particular reference tissue region. One or more reference values (e.g., a blood pool reference value determined based on intensity within an aorta volume corresponding to a portion of the subject's aorta; e.g., based on intensity within a liver volume corresponding to a subject's liver) each based on to determine the determined liver reference value); For each specific hotspot volume in the 3D hotspot map, determine a corresponding hotspot intensity based on the intensities of voxels within the specific hotspot volume [eg, where the hotspot intensity is the maximum intensities of voxels within the specific hotspot volume (eg, representing SUVs)]; determine a hotspot specific threshold for a particular hotspot based on at least one of (i) the corresponding hotspot intensity and (ii) one or more reference value(s).

[0121] 특정 실시 형태에서, 핫스팟 특정 임계값은 복수의 임계값 함수들로부터 선택된 특정 임계값 함수를 사용하여 결정되고, 특정 임계값 함수는 대응하는 핫스팟 강도와 적어도 하나의 참조 값의 비교에 기초하여 선택된다 [예를 들어, 복수의 임계값 함수들 각각은 강도(예를 들어, SUV) 값들의 특정 범위와 관련되고, 특정 임계값 함수는 핫스팟 강도 및/또는 그(예를 들어, 미리 결정된) 백분율이 속하는 특정 범위에 따라 선택된다(예를 들어, 여기서, 강도값들의 각각의 특정 범위는 적어도 하나의 참조 값의 배수에 의해 적어도 부분적으로 제한됨)]. [0121] In a particular embodiment, the hotspot specific threshold is determined using a particular threshold function selected from a plurality of threshold functions, the particular threshold function being based on a comparison of the corresponding hotspot intensity to at least one reference value. [e.g., each of a plurality of threshold functions is associated with a specific range of intensity (eg, SUV) values, and the specific threshold function is a hotspot intensity and/or its (eg, predetermined ) according to the particular range to which the percentage falls (eg, wherein each particular range of intensity values is at least partially limited by a multiple of at least one reference value)].

[0122] 특정 실시 형태에서, 핫스팟 특정 임계값은(예를 들어, 특정 임계값 함수에 의해) 대응하는 핫스팟 강도의 가변 백분율로서 결정되며, 여기서, 가변 백분율은 핫스팟 강도를 증가시킴에 따라 감소한다 [예를 들어, 여기서, 가변 백분율 자체는 대응하는 핫스팟 강도의 함수(예를 들어, 감소 함수)임]. [0122] In certain embodiments, a hotspot specific threshold is determined (eg, by a specific threshold function) as a variable percentage of the corresponding hotspot intensity, where the variable percentage decreases with increasing hotspot intensity. [eg, where the variable percentage itself is a function (eg, a decreasing function) of the corresponding hotspot intensity].

[0123] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변들을 식별 및/또는 특성화(예를들어, 등급화, 예를들어, 분류화, 예를 들어, 특정 병변 유형을 나타내는 것)하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템에 관한 것이며, 상기 시스템은 컴퓨팅 디바이스의 프로세서; 및 명령이 저장되어 있는 메모리를 포함하며, 상기 명령들은 프로세서에 의해 실행될 때 프로세서가 (a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근)하도록 하고; (b) 제1 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제1 초기 세트를 자동으로 분할하여 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨, 핫스팟 볼륨들의 제1 세트를 식별하는 제1 초기 3D 핫스팟 맵을 생성하도록 하고, 상기 제1 기계 학습 모듈은 단일 핫스팟 클래스에 따른 3D 기능적 영상의 핫스팟들을 분할함 [예를 들어, 모든 핫스팟들을 단일 핫스팟 클래스에 속하는 것으로 식별하여 배경 영역들 및 핫스팟 볼륨들 사이를 차별화시킴(예를 들어, 서로 다른 유형의 핫스팟들 사이에서는 아님)(예를 들어, 제1 3D 핫스팟 맵에 의해 식별된 각각의 핫스팟 볼륨이 배경과는 반대로 단일 핫스팟 클래스에 속하는 것으로 라벨링됨)]; (c) 제2 기계 학습 모듈을 사용하여 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제2 초기 세트를 분할하여 초기 핫스팟 볼륨들의 제2 세트를 식별하는 제2 초기 3D 핫스팟 맵을 생성하도록 하고, 상기 제2 기계 학습 모듈은 복수의 상이한 핫스팟 클래스들에 따른 상기 3D 기능적 영상을 분할하여 상기 제2 초기 3D 핫스팟 맵이 각각의 핫스팟 볼륨이 복수의 상이한 핫스팟 클래스들 중 특정 하나에 속하는 것으로 라벨링되는 다중 클래스 3D 핫스팟 맵이 되도록 함(상이한 핫스팟 클래스들에 대응하는 핫스팟 볼륨들 사이 뿐만 아니라 핫스팟 볼륨들 및 배경 영역들 사이도 차별화시키기 위함); (d) 제1 초기 3D 핫스팟 맵에 의해 식별된 초기 핫스팟 볼륨들의 제1 세트의 적어도 일부의 각각의 특정 핫스팟 볼륨에 대해 제1 초기 3D 핫스팟 맵과 제2 초기 3D 핫스팟 맵을 다음의 단계에 의해 병합하도록 하고: 제2 초기 3D 핫스팟 맵의 일치하는 핫스팟 볼륨을 식별하는 단계(예를 들어, 제1 및 제2 초기 3D 핫스팟 맵들의 실질적으로 중첩하는 핫스팟 볼륨들을 식별함에 의함) ― 제2 3D 핫스팟 맵의 일치하는 핫스팟 볼륨이 복수의 상이한 핫스팟 클래스들의 특정 핫스팟 클래스에 속하는 것으로 라벨링되어짐 ― ; 및 제1 초기 3D 핫스팟 맵의 특정 핫스팟 볼륨을 특정 핫스팟 클래스에 속하는 것으로 라벨링(일치하는 핫스팟 볼륨이 속하는 것으로 라벨링됨)하여 제2 3D 핫스팟 맵의 일치하는 핫스팟 볼륨들이 속하는 것으로 식별되는 클래스들에 따라 라벨링되어진 제1 3D 핫스팟 맵의 분할된 핫스팟 볼륨들을 포함하는 병합된 3D 핫스팟 맵을 생성하는 단계; 및 (e) 표시 및/또는 추가 처리를 위해, 병합된 3D 핫스팟 맵을 저장 및/또는 제공하도록 한다. [0123] In another aspect, the present invention provides a method for identifying and/or characterizing (eg, grading, eg, classifying, eg, indicating a particular lesion type) cancerous lesions in the subject. It relates to a system for automatically processing 3D images of, the system comprising: a processor of a computing device; and a memory having stored therein instructions, which when executed by the processor cause the processor to: (a) use a functional imaging technique [eg, positron emission tomography (PET); receive (eg, and/or approach) a 3D functional image of the object acquired using, eg, single photon emission tomography (SPECT)]; (b) a first method for automatically segmenting a first initial set of one or more hotspots in the 3D functional image using a first machine learning module to identify a corresponding 3D hotspot volume, a first set of hotspot volumes, in the 3D functional image; generate an initial 3D hotspot map, wherein the first machine learning module segments the hotspots of the 3D functional image according to a single hotspot class [e.g., identifying all hotspots as belonging to a single hotspot class to identify background regions and hotspots; Differentiate between volumes (eg, not between different types of hotspots) (eg, consider each hotspot volume identified by the first 3D hotspot map to belong to a single hotspot class as opposed to the background) labeled)]; (c) segment a second initial set of one or more hotspots within the 3D functional image using a second machine learning module to generate a second initial 3D hotspot map identifying a second set of initial hotspot volumes; A machine learning module segments the 3D functional image according to a plurality of different hotspot classes such that the second initial 3D hotspot map is a multi-class 3D hotspot in which each hotspot volume is labeled as belonging to a particular one of a plurality of different hotspot classes. to be a map (to differentiate between hotspot volumes and background areas as well as between hotspot volumes corresponding to different hotspot classes); (d) for each particular hotspot volume of at least a portion of the first set of initial hotspot volumes identified by the first initial 3D hotspot map, a first initial 3D hotspot map and a second initial 3D hotspot map are prepared by: merge: identifying a matching hotspot volume of the second initial 3D hotspot map (eg, by identifying substantially overlapping hotspot volumes of the first and second initial 3D hotspot maps) - the second 3D hotspot A matching hotspot volume in the map is labeled as belonging to a particular hotspot class of multiple different hotspot classes; and labeling a particular hotspot volume in the first initial 3D hotspot map as belonging to a particular hotspot class (matching hotspot volumes are labeled as belonging) to the classes that matching hotspot volumes in the second 3D hotspot map are identified as belonging to. generating a merged 3D hotspot map comprising segmented hotspot volumes of the labeled first 3D hotspot map; and (e) store and/or present the merged 3D hotspot map for display and/or further processing.

[0124] 특정 실시 형태에서, 복수의 상이한 핫스팟 클래스들은 다음과 같이 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함한다: (i) 뼈에 위치한 병변을 나타내도록(예를 들어, 제2 기계 학습 모듈에 의해) 결정된 뼈 핫스팟들, (ii) 림프절들에 위치한 병변들을 나타내도록(예를 들어, 제2 기계 학습 모듈에 의해) 결정된 림프 핫스팟들, 및 (iii) 전립선에 위치한 병변들을 나타내도록(예를 들어, 제2 기계 학습 모듈에 의해) 결정된 전립선 핫스팟들. [0124] In a particular embodiment, the plurality of different hotspot classes include one or more members selected from the group consisting of: (i) to indicate a lesion located in bone (e.g., by a second machine learning module) ) bone hotspots determined, (ii) lymphatic hotspots determined to represent lesions located in the lymph nodes (eg, by a second machine learning module), and (iii) lesions located in the prostate (eg, , prostate hotspots determined by the second machine learning module).

[0125] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변들을 식별 및/또는 특성화(예를들어, 등급화; 예를 들어, 분류화; 예를 들어, 특정 병변 유형을 나타내는 것)하기 위해 대상체의 3D 영상들을 적응적 임계값 설정 접근법을 통해 자동으로 처리하기 위한 시스템에 관한 것이며, 상기 시스템은 컴퓨팅 디바이스의 프로세서; 및 명령이 저장되어 있는 메모리를 포함하며, 상기 명령들은 프로세서에 의해 실행될 때 프로세서가 (a) 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근) 하도록 하고; (b) 3D 기능적 영상 내에서 하나 이상의 예비 핫스팟 볼륨을 식별하는 예비 3D 핫스팟 맵을 수신(예를 들어, 및/또는 접근)하도록 하고; (c) 특정 참조 조직 영역에 대응하는 특정 참조 볼륨 내에 위치된 3D 기능적 영상의 복셀들의 강도들의 치수에 각각이 기초하여 하나 이상의 참조 값들(예를 들어, 대상체의 대동맥의 일부에 대응하는 대동맥 볼륨 내의 강도에 기초하여 결정된 혈액 풀 참조 값; 예를 들어, 대상체의 간에 대응하는 간 볼륨 내의 강도에 기초하여 결정된 간 참조 값)을 결정하도록 하고; (d) 예비 3D 핫스팟 맵에 의해 식별된 하나 이상의 예비 핫스팟 볼륨들의 적어도 일부의 각각의 특정한 예비 핫스팟 볼륨에 대해, 예비 핫스팟 볼륨들에 기초하고 적응적 임계값 기반 분할을 사용하여 다음의 단계에 의해 정제된 3D 핫스팟 맵을 생성하도록 하고: 특정 예비 핫스팟 볼륨 내의 복셀들의 강도들에 기초하여 대응하는 핫스팟 강도를 결정하는 단계 [예를 들어, 여기서, 핫스팟 강도는 특정 예비 핫스팟 볼륨 내의 복셀들의 최대 강도들(예를 들어, SUVs를 나타냄)임]; (i) 대응하는 핫스팟 강도 및 (ii) 하나 이상의 참조 값(들) 중 적어도 하나에 기초하여 특정 예비 핫스팟에 대한 핫스팟 특정 임계값을 결정하는 단계; 특정 예비 핫스팟에 대해 결정된 핫스팟 특정 임계값을 사용하여 영상 분할을 수행하는 임계값 기반 분할 알고리즘을 사용하여 3D 기능의 적어도 일부(예를 들어, 특정 예비 핫스팟 볼륨의 서브 볼륨)를 분할하여 [예를 들어, 핫스팟 특정 임계값 초과의 강도들을 갖고 예비 핫스팟 볼륨의 최대 강도 복셀을 포함하는 복셀들의 클러스터들(예를 들어, n―연결 성분 방식(예를 들어, 여기서, n = 6, n = 18 등)으로 서로 연결된 복셀들의 3D 클러스터들))을 식별함] 특정 예비 핫스팟 볼륨에 대응하는 정제되고 분석적으로 분할된 핫스팟 볼륨을 결정하는 단계; 및 정제된 3D 핫스팟 맵에 정제된 핫스팟 볼륨을 포함시키는 단계; 및 (e) 표시 및/또는 추가 처리를 위해 정제된 3D 핫스팟 맵을 저장 및/또는 제공하도록 한다. [0125] In another aspect, the present invention provides a method for identifying and/or characterizing (eg, grading; eg, classifying; eg, representing a particular lesion type) cancerous lesions in a subject. A system for automatically processing 3D images of a through an adaptive threshold setting approach, the system comprising: a processor of a computing device; and a memory having stored thereon instructions, which when executed by the processor cause the processor to: (a) functional imaging techniques [eg, positron emission tomography (PET); receive (eg, and/or access) a 3D functional image of an object acquired using, eg, single photon emission computed tomography (SPECT)]; (b) receive (eg, and/or access) a preliminary 3D hotspot map that identifies one or more preliminary hotspot volumes within the 3D functional image; (c) one or more reference values (eg, in an aortic volume corresponding to a part of the aorta of the object) each based on a dimension of intensities of voxels of the 3D functional image located in a specific reference volume corresponding to a specific reference tissue region; determine a blood pool reference value determined based on the intensity; eg, a liver reference value determined based on intensity in a liver volume corresponding to the liver of the subject); (d) for each particular preliminary hotspot volume of at least a portion of the one or more preliminary hotspot volumes identified by the preliminary 3D hotspot map, using adaptive threshold-based segmentation based on the preliminary hotspot volumes, by To generate a refined 3D hotspot map: determining a corresponding hotspot intensity based on intensities of voxels within a specific preliminary hotspot volume [eg, where the hotspot intensity is the maximum intensities of voxels within a specific preliminary hotspot volume (eg, representing SUVs)]; determining a hotspot specific threshold for a specific preliminary hotspot based on at least one of (i) the corresponding hotspot intensity and (ii) one or more reference value(s); By segmenting at least a part of the 3D feature (eg, a subvolume of a specific preliminary hotspot volume) using a threshold-based segmentation algorithm that performs image segmentation using a hotspot-specific threshold determined for a specific preliminary hotspot [eg, For example, clusters of voxels with intensities above a hotspot specific threshold and containing the maximum intensity voxel of the preliminary hotspot volume (eg, in an n-connected component way (eg, where n = 6, n = 18, etc.) )) determining a refined and analytically segmented hotspot volume corresponding to a particular preliminary hotspot volume; and including the refined hotspot volume in the refined 3D hotspot map; and (e) store and/or present the refined 3D hotspot map for display and/or further processing.

[0126] 특정 실시 형태에서, 핫스팟 특정 임계값은 복수의 임계값 함수들로부터 선택된 특정 임계값 함수를 사용하여 결정되고, 특정 임계값 함수는 대응하는 핫스팟 강도와 적어도 하나의 참조 값의 비교에 기초하여 선택된다 [예를 들어, 복수의 임계값 함수들 각각은 강도(예를 들어, SUV) 값들의 특정 범위와 관련되고, 특정 임계값 함수는 핫스팟 강도 및/또는 그(예를 들어, 미리 결정된) 백분율이 속하는 특정 범위에 따라 선택된다(예를 들어, 여기서, 강도값들의 각각의 특정 범위는 적어도 하나의 참조 값의 배수에 의해 적어도 부분적으로 제한됨)]. [0126] In a particular embodiment, the hotspot specific threshold is determined using a particular threshold function selected from a plurality of threshold functions, the particular threshold function being based on a comparison of the corresponding hotspot intensity to at least one reference value. [e.g., each of a plurality of threshold functions is associated with a specific range of intensity (eg, SUV) values, and the specific threshold function is a hotspot intensity and/or its (eg, predetermined ) according to the particular range to which the percentage falls (eg, wherein each particular range of intensity values is at least partially limited by a multiple of at least one reference value)].

[0127] 특정 실시 형태에서, 핫스팟 특정 임계값은(예를 들어, 특정 임계값 함수에 의해) 대응하는 핫스팟 강도의 가변 백분율로서 결정되며, 여기서, 가변 백분율은 핫스팟 강도를 증가시킴에 따라 감소한다 [예를 들어, 여기서, 가변 백분율 자체는 대응하는 핫스팟 강도의 함수(예를 들어, 감소 함수)임]. [0127] In certain embodiments, a hotspot specific threshold is determined (eg, by a specific threshold function) as a variable percentage of the corresponding hotspot intensity, where the variable percentage decreases with increasing hotspot intensity. [eg, where the variable percentage itself is a function (eg, a decreasing function) of the corresponding hotspot intensity].

[0128] 또 다른 양태에서, 본 발명은 대상체 내의 암성 병변들을 식별 및/또는 특성화(예를들어, 등급화; 예를 들어, 분류화; 예를 들어, 특정 병변 유형을 나타내는 것)하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템에 관한 것이며, 상기 시스템은 컴퓨팅 디바이스의 프로세서; 및 명령이 저장되어 있는 메모리를 포함하며, 상기 명령들은 프로세서에 의해 실행될 때 프로세서가 (a) 해부학적 영상 촬영 기법 [예를 들어, x선 컴퓨터 단층촬영(CT); 예를 들어, 자기 공명 영상(MRI); 예를 들어, 초음파]을 사용하여 획득된 대상체의 3D 해부학적 영상을 수신(예를 들어, 및/또는 접근)하도록 하고, 여기서, 3D 해부학적 영상은 대상체 내의 조직(예를 들어, 연조직 및/또는 뼈)의 그래픽 표현을 포함하고; (b) 3D 해부학적 영상을 자동으로 분할하여 3D 해부학적 영상에서 대상체의 간에 대응하는 간 볼륨 및 대동맥 부분(예를 들어, 흉부 및/또는 복부 부분)에 대응하는 대동맥 볼륨을 포함하는 복수의 관심 볼륨(VOI) 들을 식별하는 3D 분할 맵을 생성하도록 하고; (c) 기능적 영상 촬영 기법 [예를 들어, 양전자 방출 단층촬영(PET); 예를 들어, 단일 광자 방출 컴퓨터 단층촬영(SPECT)]을 사용하여 획득된 대상체의 3D 기능적 영상을 수신(예를 들어, 및/또는 접근) 하도록 하고 [예를 들어, 여기서, 3D 기능적 영상은 복수의 복셀들을 포함하며, 각각은 대상체 내의 특정 물리적 볼륨을 나타내고 특정 물리적 볼륨으로부터 방출된 검출된 방사선을 나타내는 강도 값을 가지며, 여기서, 3D 기능적 영상의 복수의 복셀들 중 적어도 일부는 표적 조직 영역 내의 물리적 볼륨들을 나타냄]; (d) 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 분할하여 하나 이상의 자동으로 분할된 핫스팟 볼륨들을 식별하도록 하고, 각각의 분할된 핫스팟은 그 주변에 대해 높은 강도의 국소 영역에 대응하고 대상체 내의 잠재적인 암성 병변을 나타내고(예를 들어, 가리킴); 하나 이상의 자동으로 분할된 핫스팟 볼륨들을 식별하도록 하고; (e) 대화형 그래픽 사용자 인터페이스(GUI)(예를 들어, 품질 관리 및 보고 GUI) 내의 표시를 위해 하나 이상의 자동으로 분할된 핫스팟 볼륨들의 그래픽 표현의 렌더링을 야기하도록 하고; (f) 하나 이상의 자동으로 분할된 핫스팟 볼륨들의 적어도 일부(예를 들어, 최대 전체)를 포함하는 최종 핫스팟 세트의 사용자 선택을 대화형 GUI를 통해 수신하도록 하고; (g) 최종 세트의 각각의 핫스팟 볼륨에 대해 (i) 핫스팟 볼륨(예를 들어, 내부에 위치됨)에 대응하는 기능적 영상의 복셀들의 강도들 및 (ii) 간 볼륨 및 대동맥 볼륨에 대응하는 기능적 영상의 복셀들의 강도들을 사용하여 결정된 하나 이상의 참조 값들에 기초하여 병변 지수값을 결정하도록 하고; 및 (e) 표시 및/또는 추가 처리를 위해, 최종 핫스팟 세트 및/또는 병변 지수값들을 저장 및/또는 제공하도록 한다. [0128] In another aspect, the invention provides a method for identifying and/or characterizing (eg, grading; eg, classifying; eg, representing a particular lesion type) cancerous lesions in a subject. It relates to a system for automatically processing 3D images of, the system comprising: a processor of a computing device; and a memory having stored therein instructions, which when executed by the processor cause the processor to: (a) an anatomical imaging technique [eg, x-ray computed tomography (CT); For example, magnetic resonance imaging (MRI); eg, ultrasound] to receive (eg, and/or approach) a 3D anatomical image of an object acquired using a tissue (eg, soft tissue and/or or bones); (b) automatically segmenting the 3D anatomical image to obtain a plurality of interests including a liver volume corresponding to the liver of the object and an aortic volume corresponding to the aorta portion (eg, thoracic and/or abdominal portion) in the 3D anatomical image create a 3D segmentation map identifying volumes (VOIs); (c) functional imaging techniques [eg, positron emission tomography (PET); receive (eg, and/or access) a 3D functional image of an object obtained using, for example, single photon emission computed tomography (SPECT)] and [eg, wherein the 3D functional image is obtained by multiple includes voxels of , each representing a specific physical volume within the object and having an intensity value representing detected radiation emitted from the specific physical volume, wherein at least some of the plurality of voxels of the 3D functional image represent a physical volume within the target tissue region representing volumes]; (d) automatically segment one or more hotspots in the 3D functional image to identify one or more automatically segmented hotspot volumes, each segmented hotspot corresponding to a local region of high intensity with respect to its surroundings and providing potential in the object; indicate (eg, point to) a cancerous lesion; identify one or more automatically partitioned hotspot volumes; (e) cause rendering of a graphical representation of one or more automatically segmented hotspot volumes for display within an interactive graphical user interface (GUI) (eg, a quality management and reporting GUI); (f) receive, via the interactive GUI, a user selection of a final hotspot set comprising at least a portion (eg, up to all) of the one or more automatically segmented hotspot volumes; (g) for each hotspot volume in the final set (i) the intensities of the voxels of the functional image corresponding to the hotspot volume (e.g., located internally) and (ii) the functional image corresponding to the liver volume and the aortic volume. determine a lesion index value based on one or more reference values determined using intensities of voxels of the image; and (e) store and/or present the final set of hotspots and/or lesion index values for display and/or further processing.

[0129] 특정 실시 형태에서, 단계(b)에서 명령들은 프로세서가 3D 분할 맵이 대상체의 하나 이상의 뼈들에 대응하는 하나 이상의 뼈 볼륨들을 식별하도록 해부학적 영상을 분할하도록 하고, 단계(d)에서 명령들은 프로세서가 기능적 영상 내에서 하나 이상의 뼈 볼륨들을 사용하여 골격을 식별하고 골격 볼륨 내에 위치된 하나 이상의 뼈 핫스팟 볼륨들을 분할하도록 한다(예를 들어, 하나 이상의 가우시안 필터들의 차이를 적용하고 골격 볼륨을 임계값 설정함으로써). [0129] In a particular embodiment, the instructions in step (b) cause the processor to segment the anatomical image such that the 3D segmentation map identifies one or more bone volumes corresponding to one or more bones of the object, and the instructions in step (d) causes the processor to identify bone using one or more bone volumes within the functional image and segment one or more bone hotspot volumes located within the bone volume (e.g., apply a difference of one or more Gaussian filters and threshold the bone volume). by setting a value).

[0130] 특정 실시 형태에서, 단계 (b)에서 명령들은 프로세서가 3D 분할 맵이 대상체의 연조직 장기들(예를 들어, 좌측/우측 폐들, 좌측/우측 대둔근, 비뇨기 방광, 간, 좌측/우측 신장, 담낭, 비장, 흉부 및 복부 대동맥 및 선택적으로(예를 들어, 근치적 전립선 절제술을 받지 않은 환자의 경우, 전립선)에 대응하는 하나 이상의 장기 볼륨들을 식별하도록 해부학적 영상을 분할하도록 하고, 단계 (d)에서 명령들은 프로세서가 기능적 영상 내에서 분할된 장기 볼륨들을 사용하여 연조직(예를 들어, 림프 및 선택적으로 전립선) 볼륨을 식별하고 연조직 볼륨 내에 위치된 하나 이상의 림프 및/또는 전립선 핫스팟 볼륨들을 분할하도록 한다(예를 들어, 하나 이상의 가우시안 필터들의 라플라시안을 적용하고 연조직 볼륨을 임계값 설정함으로써). [0130] In a particular embodiment, the instructions in step (b) cause the processor to generate a 3D segmentation map of the subject's soft tissue organs (e.g., left/right lungs, left/right gluteus maximus, urinary bladder, liver, left/right kidney). , to segment the anatomical image to identify one or more organ volumes corresponding to the gallbladder, spleen, thoracic and abdominal aorta, and optionally (e.g., prostate for patients who have not undergone radical prostatectomy); The instructions in d) cause the processor to use the segmented organ volumes within the functional image to identify a soft tissue (eg, lymphatic and optionally prostate) volume and segment one or more lymphatic and/or prostate hotspot volumes located within the soft tissue volume. (eg, by applying a Laplacian of one or more Gaussian filters and thresholding the soft tissue volume).

[0131] 특정 실시 형태에서, 단계 (d)에서 명령들은 프로세서가 하나 이상의 림프 및/또는 전립선 핫스팟 볼륨들을 분할하기 전에 하나 이상의 고흡수 조직 영역들로부터 강도를 억제하도록 기능적 영상의 강도들을 조정하도록 한다(예를 들어, 본 출원에서 기재된 하나 이상의 억제 방법들을 사용함). [0131] In a particular embodiment, the instructions in step (d) cause the processor to adjust the intensities of the functional image to suppress intensity from one or more highly absorptive tissue regions prior to segmenting the one or more lymphatic and/or prostate hotspot volumes. (eg, using one or more inhibition methods described herein).

[0132] 특정 실시 형태에서, 단계 (g)에서 명령들은 프로세서가 간 볼륨에 대응하는 기능적 영상의 복셀들의 강도들을 사용하여 간 참조 값을 결정하도록 한다. [0132] In a particular embodiment, the instructions in step (g) cause the processor to determine a liver reference value using intensities of voxels of the functional image corresponding to the liver volume.

[0133] 특정 실시 형태에서, 명령들은 프로세서가 2 성분 가우시안 혼합 모델 피트를 사용하여 간 볼륨에 대응하는 기능적 영상 복셀들의 강도들의 히스토그램에 2 성분 가우시안 혼합 모델을 맞추어 간 볼륨으로부터 비정상적으로 낮은 흡수 영역들과 관련된 강도들을 갖는 복셀들을 식별 및 배제하도록 하고, 나머지(예를 들어, 배제되지 않은) 복셀들의 강도들을 사용하여 간 참조 값을 결정하도록 한다. [0133] In a particular embodiment, the instructions cause the processor to fit a two-component Gaussian mixture model to a histogram of intensities of functional image voxels corresponding to the liver volume using a two-component Gaussian mixture model fit to determine areas of abnormally low absorption from the liver volume. voxels having intensities related to v are identified and excluded, and an inter-reference value is determined using intensities of the remaining (eg, non-excluded) voxels.

[0134] 본 발명의 하나의 양태에 대해 기재된 실시 형태들의 특징들은 본 발명의 또 다른 양태에 적용될 수 있다. [0134] Features of the embodiments described for one aspect of the invention may be applied to another aspect of the invention.

[0135] 본 개시 내용의 전술한 목적들 및 기타 목적들, 양태들, 특징들 및 이점들은 첨부된 도면들과 함께 취해지는 다음의 설명을 참조함으로써 더욱 명백해지고 보다 잘 이해될 것이다:
[0136] 도 1a는 예시하는 실시 형태에 따라, 인공 지능(AI) 기반 병변 검출을 위한 예시적인 과정의 블록 흐름도이다.
[0137] 도 1b는 예시하는 실시 형태에 따라, AI 기반 병변 검출을 위한 예시적인 과정의 블록 흐름도이다.
[0138] 도 1c는 예시하는 실시 형태에 따라, AI 기반 병변 검출을 위한 예시적인 과정의 블록 흐름도이다.
[0139] 도 2a는 예시하는 실시 형태에 따라, 2 성분 가우시안 혼합 모델로 중첩된(overlaid) 간 SUV 값들의 히스토그램을 도시하는 그래프이다.
[0140] 도 2b는 예시하는 실시 형태에 따라, 간 참조 값의 계산을 위해 사용되는 간 볼륨의 일부를 도시하는 CT 영상들에 중첩된 PET 영상이다.
[0141] 도 2c는 예시하는 실시 형태에 따라, 낮은 방사성 의약품 흡수와 관련된 조직 영역들로부터의 영향을 방지/감소시키는 참조 강도값들을 계산하기 위한 예시적인 과정의 블록 흐름도이다.
[0142] 도 3은 예시하는 실시 형태에 따라, 높은 방사성 의약품 흡수와 관련된 하나 이상의 조직 영역들로부터의 강도 블리드를 보정하기 위한 예시적인 과정의 블록 흐름도이다.
[0143] 도 4는 예시하는 실시 형태에 따라, 검출된 병변들에 대응하는 핫스팟들을 해부학적으로 라벨링하기 위한 예시적인 과정의 블록 흐름도이다.
[0144] 도 5a는 예시하는 실시 형태에 따라, 그래픽 사용자 인터페이스(GUI)를 통해 사용자 피드백 및 검토를 허용하는 대화형 병변 검출을 위한 예시적인 과정의 블록 흐름도이다.
[0145] 도 5b는 예시하는 실시 형태에 따라, 사용자 검토, 품질 관리 및 자동으로 검출된 병변들의 보고를 위한 예시적인 과정이다.
[0146] 도 6a는 예시하는 실시 형태에 따라, 간 참조 볼륨의 정확한 분할을 확인하기 위해 사용되는 GUI의 스크린샷(screenshot)이다.
[0147] 도 6b는 예시하는 실시 형태에 따라 대동맥 부분(혈액 풀) 참조 볼륨의 정확한 분할을 확인하기 위해 사용되는 GUI의 스크린샷이다.
[0148] 도 6c는 예시하는 실시 형태에 따라, 대상체 내의 검출된 병변들에 대응하는 자동으로 분할된 핫스팟들의 사용자 선택 및/또는 검증에 사용되는 GUI의 스크린샷이다.
[0149] 도 6d는 예시하는 실시 형태에 따라, 사용자가 영상 내의 병변들을 수동으로 식별할 수 있도록 허용하는 GUI의 일부의 스크린샷이다.
[0150] 도 6e는 예시하는 실시 형태에 따라, 사용자가 영상 내의 병변들을 수동으로 식별할 수 있도록 허용하는 GUI의 다른 일부의 스크린샷이다.
[0151] 도 7은 예시하는 실시 형태에 따라, 품질 관리 점검 목록을 도시하는 GUI의 일부의 스크린샷이다.
[0152] 도 8은 예시하는 실시 형태에 따라, 본 출원에서 기재된 자동화된 병변 검출 도구의 실시 형태를 사용하여 사용자에 의해 생성된 보고서의 스크린샷이다.
[0153] 도 9는 예시하는 실시 형태에 따라 입력으로서 3D 해부학적 영상, 3D 기능적 영상 및 3D 분할 맵을 수신하는 기계 학습 모듈을 통해 핫스팟(병변) 분할을 위한 예시적인 아키텍처를 도시하는 블록 흐름도이다.
[0154] 도 10a는 예시하는 실시 형태에 따라, 병변 유형 맵핑(mapping)이 핫스팟 분할에 후속하여 수행되는 예시적인 과정을 도시하는 블록 흐름도이다.
[0155] 도 10b는 예시하는 실시 형태에 따라, 3D 분할 맵의 사용을 예시하는 병변 유형 맵핑이 핫스팟 분할에 후속하여 수행되는 예시적인 과정을 도시하는 블록 흐름도이다.
[0156] 도 11a는 예시하는 실시 형태에 따라, 전신 네트워크 및 전립선 특정 네트워크를 사용하여 병변들을 나타내는 핫스팟들을 검출 및/또는 분할하는 과정을 도시하는 블록 흐름도이다.
[0157] 도 11b는 예시하는 실시 형태에 따라, 전신 네트워크 및 전립선 특정 네트워크를 사용하여 병변들을 나타내는 핫스팟들을 검출 및/또는 분할하는 과정을 도시하는 블록 흐름도이다.
[0158] 도 12는 예시하는 실시 형태에 따라, AI 기반 핫스팟 분할에 후속하는 분석적 분할 단계의 사용을 도시하는 블록 흐름도이다.
[0159] 도 13a는 예시하는 실시 형태에 따라, 핫스팟 분할에 사용되는 예시적인 U―net 아키텍처를 도시하는 블록도이다.
[0160] 도 13b 및 도 13c는 예시하는 실시 형태에 따라, 핫스팟 분할을 위한 예시적인 FPN 아키텍처들을 도시하는 블록도들이다.
[0161] 도 14a, 도 14b 및 도 14c는 예시하는 실시 형태에 따른 U―net 아키텍처를 사용하여 핫스팟들의 분할을 나타내는 예시적인 영상들을 도시한다.
[0162] 도 15a 및 도 15b는 예시하는 실시 형태에 따른 FPN 아키텍처를 사용하여 핫스팟들의 분할을 나타내는 예시적인 영상들을 도시한다.
[0163] 도 16a, 도 16b, 도 16c, 도 16d 및 도 16e는 예시하는 실시 형태에 따라, 의학적 영상 데이터로부터 보고서를 업로드(upload), 분석 및 생성하기 위한 예시적인 GUI의 스크린샷들이다.
[0164] 도 17a 및 도 17b는 예시하는 실시 형태에 따라, 2 개의 병렬 기계 학습 모듈들을 사용하여 핫스팟들을 분할 및 분류하기 위한 예시적인 과정들의 블록 흐름도들이다.
[0165] 도 17c는 예시하는 실시 형태에 따라, 2 개의 병렬 기계 학습 모듈들을 사용하여 핫스팟들을 분할 및 분류하기 위한 과정의 예시적인 구현의 다양한 소프트웨어(software) 모듈들(예를 들어, APIs) 사이의 상호 작용 및 데이터 흐름을 예시하는 블록 흐름도이다.
[0166] 도 18a는 예시하는 실시 형태에 따라, 적응적 임계값 설정 방법을 사용하는 분석적 모델에 의해 핫스팟들을 분할하기 위한 예시적인 과정의 블록 흐름도이다.
[0167] 도 18b 및 도 18c는 예시하는 실시 형태에 따라, 핫스팟 강도(SUVmax)의 함수로서 적응적 임계값 방법에서 사용되는 핫스팟 특정 임계값의 변화를 도시하는 그래프들이다.
[0168] 도 18d, 도 18e 및 도 18f는 예시하는 실시 형태에 따라, 특정 임계값 설정 기술들을 예시하는 다이어그램(diagram)들이다.
[0169] 도 18g는 예시하는 실시 형태에 따라, 전립선 복셀 강도값들의 히스토그램 및 임계값 척도 인자의 예시하는 설정과 함께 축상, 시상 및 관상 면들에 따른 전립선 복셀들의 강도들을 도시하는 다이어그램이다.
[0170] 도 19a는 예시하는 실시 형태에 따라, 종래의 수동 ROI 정의 및 종래의 고정된 및/또는 상대적인 임계값 설정을 사용한 핫스팟 분할을 예시하는 블록 흐름도이다.
[0171] 도 19b는 예시하는 실시 형태에 따라, 적응적 임계값 설정 방법과 결합된 AI 기반 접근법을 사용한 핫스팟 분할을 예시하는 블록 흐름도이다.
[0172] 도 20은 예시하는 실시 형태에 따라, 적응적 임계값 설정 방법과 결합된 AI 기반 접근법을 통해 획득된 분할 결과들과 단독의 임계값 설정에 대한 예시적인 분할 결과들을 비교하는 영상들의 세트이다.
[0173] 도 21a, 도 21b, 도 21c, 도 21d, 도 21e, 도 21f, 도 21g, 도 21h 및 도 21i는 복부 영역에서 수직 방향을 따라 이동하는 일련의 3D PET 영상의 2D 슬라이스들을 도시한다. 영상들은 본 출원에서 기재된 특정 실시 형태에 따라 기계 학습 접근법의 결과들(우측 영상들)과 임계값 설정 방법 단독으로 수행된 복부 영역 내의 핫스팟 분할 결과들(좌측 영상들)을 비교하고, 각각의 방법에 의해 식별된 핫스팟 영역들을 PET 영상 슬라이스들 상에 중첩하여 도시한다.
[0174] 도 22는 본 출원에서 기재된 특정 실시 형태에 따라 자동화된 영상 분석을 제공하는 CAD 디바이스를 사용하여 PET/CT 영상 데이터를 업로드하고 분석하기 위한 과정의 블록 흐름도이다.
[0175] 도 23은 본 출원에서 기재된 특정 실시 형태에 따라 자동화된 영상 분석을 제공하는 CAD 디바이스를 통해 사용자가 검토 및 분석을 위해 영상 데이터를 업로드할 수 있도록 허용하는 예시적인 GUI의 스크린샷이다.
[0176] 도 24는 예시하는 실시 형태에 따라, 사용자가 의학적 영상 데이터(예를 들어, 3D PET/CT 영상들) 및 자동화된 영상 분석의 결과들을 검토하고 분석할 수 있도록 허용하는 예시적인 GUI 뷰어(viewer)의 스크린샷이다.
[0177] 도 25는 예시하는 실시 형태에 따라, 자동으로 생성된 보고서의 스크린샷이다.
[0178] 도 26은 예시하는 실시 형태에 따라, 사용자 입력 및 검토와 함께 자동화된 분석을 제공하는 의학적 영상 데이터의 분석을 위한 예시적인 작업 흐름의 블록 흐름도이다.
[0179] 도 27은 예시하는 실시 형태에 따라 중첩된 분할된 뼈 및 연조직 볼륨들을 갖는 CT 영상의 3개의 뷰(view)들을 도시한다.
[0180] 도 28는 예시하는 실시 형태에 따라, 분할 핫스팟들에 대한 분석적 모델의 블록 흐름도이다.
[0181] 도 29a는 특정 실시 형태에서 사용되는 클라우드 컴퓨팅 아키텍처의 블록도이다.
[0182] 도 29b는 특정 실시 형태에서 사용되는 예시적인 마이크로 서비스 통신 흐름의 블록도이다.
[0183] 도 30은 특정 실시 형태에서 사용되는 클라우드 컴퓨팅 환경의 블록도이다.
[0184] 도 31은 특정 실시 형태에서 사용되는 예시적인 컴퓨팅 디바이스 및 예시적인 모바일 컴퓨팅 디바이스의 블록도이다.
[0185] 본 개시 내용의 특징들 및 이점들은 동일한 참조 문자가 전체에 걸쳐 대응하는 구성요소들을 식별하는 도면들과 함께 하기에 설명된 상세한 설명으로부터 더욱 명백해질 것이다. 도면들에서, 동일한 참조 번호는 일반적으로 동일하거나 기능적으로 유사하고/하거나 구조적으로 유사한 구성 요소들을 나타낸다.
[0135] The foregoing and other objects, aspects, features and advantages of the present disclosure will become more apparent and better understood by referring to the following description taken in conjunction with the accompanying drawings:
[0136] FIG. 1A is a block flow diagram of an example process for artificial intelligence (AI) based lesion detection, in accordance with the illustrative embodiment.
[0137] FIG. 1B is a block flow diagram of an exemplary process for AI-based lesion detection, in accordance with an illustrative embodiment.
[0138] FIG. 1C is a block flow diagram of an exemplary process for AI-based lesion detection, in accordance with an illustrative embodiment.
[0139] FIG. 2A is a graph showing a histogram of liver SUV values overlaid with a two-component Gaussian mixture model, in accordance with an illustrative embodiment.
[0140] FIG. 2B is a PET image superimposed on CT images showing a portion of a liver volume used for calculation of a liver reference value, according to an illustrative embodiment.
[0141] FIG. 2C is a block flow diagram of an exemplary process for calculating reference intensity values to prevent/reduce effects from tissue regions associated with low radiopharmaceutical uptake, in accordance with the illustrative embodiment.
[0142] FIG. 3 is a block flow diagram of an exemplary process for correcting intensity bleed from one or more tissue regions associated with high radiopharmaceutical uptake, in accordance with the illustrative embodiment.
4 is a block flow diagram of an exemplary process for anatomically labeling hotspots corresponding to detected lesions, in accordance with the illustrative embodiment.
[0144] FIG. 5A is a block flow diagram of an exemplary process for interactive lesion detection allowing user feedback and review via a graphical user interface (GUI), in accordance with the illustrative embodiment.
[0145] FIG. 5B is an example process for user review, quality control and reporting of automatically detected lesions, in accordance with the illustrative embodiment.
[0146] FIG. 6A is a screenshot of a GUI used to verify correct segmentation of a liver reference volume, in accordance with the illustrative embodiment.
[0147] FIG. 6B is a screen shot of a GUI used to confirm accurate segmentation of an aortic segment (blood pool) reference volume, in accordance with the illustrative embodiment.
[0148] FIG. 6C is a screenshot of a GUI used for user selection and/or validation of automatically segmented hotspots corresponding to detected lesions in a subject, in accordance with the illustrative embodiment.
[0149] FIG. 6D is a screenshot of a portion of a GUI that allows a user to manually identify lesions in an image, in accordance with the illustrative embodiment.
[0150] FIG. 6E is a screenshot of another portion of a GUI that allows a user to manually identify lesions in an image, in accordance with the illustrative embodiment.
[0151] FIG. 7 is a screenshot of a portion of a GUI showing a quality control checklist, in accordance with the illustrative embodiment.
8 is a screenshot of a report generated by a user using an embodiment of the automated lesion detection tool described herein, in accordance with an illustrative embodiment.
[0153] FIG. 9 is a block flow diagram illustrating an exemplary architecture for hotspot (lesion) segmentation via a machine learning module receiving as inputs 3D anatomical images, 3D functional images and 3D segmentation maps in accordance with the illustrative embodiment. .
[0154] FIG. 10A is a block flow diagram illustrating an exemplary process in which lesion type mapping is performed subsequent to hotspot segmentation, in accordance with the illustrative embodiment.
[0155] FIG. 10B is a block flow diagram illustrating an exemplary process in which lesion type mapping is performed subsequent to hotspot segmentation, illustrating the use of a 3D segmentation map, in accordance with the illustrated embodiment.
[0156] FIG. 11A is a block flow diagram illustrating a process for detecting and/or segmenting hotspots representing lesions using a systemic network and a prostate specific network, in accordance with the illustrated embodiment.
[0157] FIG. 11B is a block flow diagram illustrating a process for detecting and/or segmenting hotspots representing lesions using a systemic network and a prostate specific network, in accordance with the illustrated embodiment.
12 is a block flow diagram illustrating use of an analytic segmentation step following AI-based hotspot segmentation, in accordance with the illustrative embodiment.
[0159] Fig. 13A is a block diagram illustrating an example U-net architecture used for hotspot partitioning, in accordance with the illustrative embodiment.
13B and 13C are block diagrams illustrating example FPN architectures for hotspot segmentation, in accordance with an illustrative embodiment.
[0161] FIGS. 14A, 14B, and 14C show example images illustrating segmentation of hotspots using the U-net architecture according to the illustrative embodiment.
[0162] Figures 15A and 15B show example images illustrating segmentation of hotspots using the FPN architecture in accordance with the illustrative embodiment.
[0163] Figures 16A, 16B, 16C, 16D and 16E are screen shots of an exemplary GUI for uploading, analyzing and generating reports from medical imaging data, in accordance with the illustrative embodiment.
[0164] Figures 17A and 17B are block flow diagrams of example processes for segmenting and classifying hotspots using two parallel machine learning modules, in accordance with the illustrative embodiment.
[0165] FIG. 17C shows between various software modules (eg, APIs) of an example implementation of a process for segmenting and classifying hotspots using two parallel machine learning modules, in accordance with the illustrative embodiment. It is a block flow diagram illustrating the interaction and data flow of
[0166] Figure 18A is a block flow diagram of an example process for segmenting hotspots by an analytic model using an adaptive threshold setting method, in accordance with the illustrative embodiment.
[0167] Figures 18B and 18C are graphs illustrating the change of a hotspot specific threshold used in the adaptive threshold method as a function of hotspot strength (SUVmax), according to the illustrative embodiment.
[0168] Figures 18D, 18E and 18F are diagrams illustrating certain threshold setting techniques, in accordance with the illustrative embodiment.
[0169] Fig. 18G is a diagram showing intensities of prostate voxels along axial, sagittal and coronal planes with an illustrative setting of a histogram of prostate voxel intensity values and a threshold scaling factor, according to an illustrative embodiment.
[0170] Figure 19A is a block flow diagram illustrating hotspot segmentation using conventional manual ROI definition and conventional fixed and/or relative threshold setting, in accordance with the illustrative embodiment.
[0171] Fig. 19B is a block flow diagram illustrating hotspot segmentation using an AI-based approach combined with an adaptive threshold setting method, in accordance with the illustrative embodiment.
[0172] FIG. 20 is a set of images comparing exemplary segmentation results for threshold setting alone with segmentation results obtained through an AI-based approach combined with an adaptive threshold setting method, according to an illustrative embodiment. am.
[0173] Figures 21A, 21B, 21C, 21D, 21E, 21F, 21G, 21H and 21I show 2D slices of a series of 3D PET images moving along the vertical direction in the abdominal area . The images are compared with the results of the machine learning approach (right images) and the hotspot segmentation results (left images) in the abdominal region performed by the threshold setting method alone according to the specific embodiment described in this application, and each method Show the hotspot regions identified by p overlaid on the PET image slices.
22 is a block flow diagram of a process for uploading and analyzing PET/CT image data using a CAD device that provides automated image analysis, in accordance with certain embodiments described herein.
[0175] FIG. 23 is a screenshot of an example GUI that allows a user to upload image data for review and analysis via a CAD device that provides automated image analysis in accordance with certain embodiments described herein.
[0176] FIG. 24 is an exemplary GUI viewer allowing a user to review and analyze medical image data (eg, 3D PET/CT images) and results of automated image analysis, in accordance with the illustrative embodiment. This is a screenshot of the viewer.
[0177] Fig. 25 is a screenshot of an automatically generated report, in accordance with an illustrative embodiment.
[0178] Figure 26 is a block flow diagram of an example workflow for analysis of medical image data providing automated analysis with user input and review, in accordance with the illustrative embodiment.
[0179] Figure 27 shows three views of a CT image with segmented bone and soft tissue volumes superimposed according to the illustrative embodiment.
[0180] Figure 28 is a block flow diagram of an analytical model for segmentation hotspots, in accordance with an illustrative embodiment.
[0181] Figure 29A is a block diagram of a cloud computing architecture used in a particular embodiment.
[0182] Figure 29B is a block diagram of an example microservice communication flow used in a particular embodiment.
[0183] Figure 30 is a block diagram of a cloud computing environment used in a particular embodiment.
[0184] Figure 31 is a block diagram of an example computing device and an example mobile computing device used in a particular embodiment.
[0185] Features and advantages of the present disclosure will become more apparent from the detailed description set forth below, in conjunction with drawings in which like reference characters identify corresponding elements throughout. In the drawings, like reference numbers generally indicate identical or functionally similar and/or structurally similar elements.

[0186] 청구된 발명의 시스템들, 디바이스들, 방법들 및 과정들은 본 출원에서 기재된 실시 형태로부터의 정보를 사용하여 개발된 변형들 및 변환들을 포함하는 것으로 생각된다. 본 출원에서 기재된 시스템들, 디바이스들, 방법들 및 과정들의 변환 및/또는 변경은 관련 기술 분야의 통상의 기술자에 의해 수행될 수 있다. [0186] The systems, devices, methods and processes of the claimed invention are intended to include modifications and transformations developed using information from the embodiments described herein. Conversions and/or modifications of the systems, devices, methods and procedures described in this application may be performed by those skilled in the art.

[0187] 본 상세한 설명 전반에 걸쳐, 물품들, 디바이스들 및 시스템들이 특정 구성 요소들을 갖거나, 포함하거나(including), 포함하는(comprising) 것으로 기재되거나, 과정들 및 방법들이 특정 단계들을 갖거나, 포함하거나, 구성하는 것으로 기재된 경우, 인용된 구성 요소들로 본질적으로 구성하거나 구성하는 본 발명의 물품들, 디바이스들 및 시스템들이 존재하고, 인용된 처리 단계들로 본질적으로 구성하거나 구성하는 본 발명에 따른 과정들 및 방법들이 존재하는 것으로 생각된다. [0187] Throughout this specification, articles, devices, and systems are described as having, including, or involving particular components, or processes and methods having particular steps or Where described as including, consisting of, or consisting of, there are articles, devices, and systems of the invention that consist essentially of or consist of the recited elements, and of the invention that consist essentially of or consist of the recited process steps. It is contemplated that there are processes and methods according to.

[0188] 단계들의 순서 또는 특정 동작을 수행하는 순서는 본 발명이 작동 가능한 상태로 유지되는 한 중요하지 않다는 것은 이해되어야 한다. 더욱이, 2 개 이상의 단계 또는 동작은 동시에 수행될 수 있다. [0188] It should be understood that the order of steps or order of performing particular actions is immaterial so long as the invention remains operable. Moreover, two or more steps or actions may be performed concurrently.

[0189] 예를 들어, 배경 기술 섹션(section)에서 임의의 간행물에 대한 본 출원에서의 언급은 간행물이 본 출원에서 제시된 청구범위 중 임의의 청구항들에 대한 선행 기술로서 역할을 한다는 것을 인정하는 것이 아니다. 배경 기술 섹션은 명확성의 목적으로 제공되며 임의의 청구범위에 대한 선행 기술에 대한 설명으로 의미되지 않는다. [0189] A reference in this application to any publication, eg, in the Background section, is an admission that the publication serves as prior art to any of the claims presented in this application. no. The Background section is provided for purposes of clarity and is not meant to be a description of the prior art to any claim.

[0190] 헤더(header)들은 독자의 편의를 위해 제공된다(헤더의 존재 및/또는 배치는 본 출원에서 기재된 청구요지의 범위를 제한하지 않는다). [0190] Headers are provided for the convenience of the reader (the existence and/or placement of headers do not limit the scope of the subject matter described in this application).

[0191] 본 출원에서, 문맥상 달리 명백하지 않는다면, (i) 용어 "단수(a)"는 "적어도 하나"를 의미하는 것으로 이해될 수 있고; (ii) "또는"이라는 용어는 "및/또는"을 의미하는 것으로 이해될 수 있고; (iii) "포함하는(comprising)" 및 "포함하는(including)"이라는 용어는 단독으로 또는 하나 이상의 추가의 성분 또는 단계와 함께 제시되든지 간에 항목별 성분 또는 단계를 포함하는 것으로 이해될 수 있고; (iv) "약" 및 "대략"이라는 용어는 당해 분야의 통상의 기술자들에 의해 이해되는 바와 같은 표준 변형을 허용하는 것으로 이해될 수 있고; (v) 범위가 제공되는 경우, 종료점이 포함된다. [0191] In this application, unless the context clearly dictates otherwise: (i) the term "a" may be understood to mean "at least one"; (ii) the term “or” may be understood to mean “and/or”; (iii) the terms "comprising" and "including" may be understood to include itemized components or steps, whether presented alone or in conjunction with one or more additional components or steps; (iv) the terms “about” and “approximately” may be understood to allow for standard variations as understood by those skilled in the art; (v) Where ranges are provided, endpoints are included.

[0192] 특정 실시 형태에서, "약"이라는 용어는 값과 관련하여 본 출원에서 사용될 때 참조된 값과 관련하여 유사한 값을 지칭한다. 일반적으로, 문맥에 친숙한 당해 분야의 통상의 기술자들은 그 문맥에서 "약"에 의해 포괄되는 관련 정도의 변동을 이해할 것이다. 예를 들어, 일부 실시 형태에서, "약"이라는 용어는 언급된 값의 25%, 20%, 19%, 18%, 17%, 16%, 15%, 14%, 13%, 12%, 11%, 10%, 9%, 8%, 7%, 6%, 5%, 4%, 3%, 2%, 1% 또는 그 미만 내의 값의 범위를 포함할 수 있다. [0192] In certain embodiments, the term "about" when used in this application in reference to a value refers to a value similar to the referenced value. In general, those skilled in the art familiar with the context will understand the variance in the degree of relevance encompassed by "about" in that context. For example, in some embodiments, the term “about” means 25%, 20%, 19%, 18%, 17%, 16%, 15%, 14%, 13%, 12%, 11% of a stated value. %, 10%, 9%, 8%, 7%, 6%, 5%, 4%, 3%, 2%, 1% or less.

A. 핵의학 영상들A. Nuclear medicine images

[0193] 핵의학 영상들은 뼈 스캔 영상 촬영, 양전자 방출 단층촬영(PET) 영상 촬영, 단일 광자 방출 컴퓨터 단층촬영(SPECT) 영상 촬영과 같은 핵 영상 촬영 기법을 사용하여 획득된다. [0193] Nuclear medicine images are acquired using nuclear imaging techniques such as bone scan imaging, positron emission tomography (PET) imaging, and single photon emission computed tomography (SPECT) imaging.

[0194] 본 출원에서 사용되는 “영상” ― 예를 들어, 포유류의 3D 영상 ― 은 사진, 비디오 프레임, 스트리밍 비디오와 같은 임의의 시각적 표현 뿐만 아니라 사진, 비디오 프레임 또는 스트리밍 비디오의 전자적, 디지털 또는 수학적 아날로그를 포함한다. 본 출원에서 기재된 임의의 장치는 특정 실시 형태에서, 영상 또는 프로세서에 의해 생성된 임의의 다른 결과를 표시하기 위한 디스플레이(display)를 포함한다. 본 출원에서 기재된 임의의 방법은 특정 실시 형태에서, 영상 또는 방법을 통해 생성된 임의의 다른 결과를 표시하는 단계를 포함한다. [0194] As used in this application, “image”—eg, a 3D image of a mammal—is any visual representation, such as a photograph, video frame, or streaming video, as well as any electronic, digital, or mathematical representation of a photograph, video frame, or streaming video. Including analog. Any device described in this application, in certain embodiments, includes a display for displaying an image or any other result produced by the processor. Any method described herein, in certain embodiments, includes displaying an image or any other result generated through the method.

[0195] 본 출원에서 사용되는 “영상”과 관련하여 “3―D” 또는 “3 차원”은 3 차원에 대한 정보를 전달하는 것을 의미한다. 3―D 영상은 3 차원의 데이터 세트로 렌더링될 수 있고/있거나 2 차원 표현들의 세트 또는 3 차원 표현으로 표시될 수 있다. [0195] As used in this application, “3-D” or “three-dimensional” in relation to “image” means conveying information about three dimensions. A 3-D image may be rendered as a three-dimensional data set and/or displayed as a set of two-dimensional representations or a three-dimensional representation.

[0196] 특정 실시 형태에서, 핵의학 영상들은 방사성 의약품을 포함하는 영상화제들을 사용한다. 핵의학 영상들은 환자(예를 들어, 사람 대상체)에게 방사성 의약품의 투여 후 획득할 수 있고, 환자 내의 방사성 의약품 분포에 관한 정보를 제공한다. 방사성 의약품들은 방사성 핵종을 포함하는 화합물들이다. [0196] In a particular embodiment, nuclear medicine imaging uses imaging agents that include radiopharmaceuticals. Nuclear medicine images can be acquired after administration of a radiopharmaceutical to a patient (eg, a human subject) and provide information about the distribution of the radiopharmaceutical within the patient. Radiopharmaceuticals are compounds containing radionuclides.

[0197] 본 출원에서 사용되는 제제를 “투여하는 것”은 대상체에게 물질(예를 들어, 영상화제)을 도입하는 것을 의미한다. 일반적으로, 예를 들어, 비경구(예를 들어, 정맥내), 경구, 국소, 피하, 복막, 동맥내, 흡입, 질, 직장, 비강, 뇌척수액으로의 도입 또는 체내 구획들로의 점적주입을 포함하는 임의의 투여 경로가 이용될 수 있다. [0197] As used herein, “administering” an agent means introducing a substance (eg, an imaging agent) to a subject. In general, for example, parenteral (eg intravenous), oral, topical, subcutaneous, peritoneal, intraarterial, inhalation, vaginal, rectal, nasal, introduction into cerebrospinal fluid or infusion into body compartments. Any route of administration may be used, including

[0198] 본 출원에서 사용되는 “방사성 핵종”은 적어도 하나의 원소의 방사성 동위원소를 포함하는 일부를 의미한다. 예시적이고 적합한 방사성 핵종들은 본 출원에서 기재된 것을 포함하지만, 이들에 제한되지 않는다. 일부 실시 형태에서, 방사성 핵종은 양전자 방출 단층촬영(PET)에 사용되는 것이다. 일부 실시 형태에서, 방사성 핵종은 단일 광자 방출 컴퓨터 단층촬영(SPECT)에 사용되는 것이다. 일부 실시 형태에서, 방사성 핵종들의 비제한적 목록은 99mTc, 111In, 64Cu, 67Ga, 68Ga, 186Re, 188Re, 153Sm, 177Lu, 67Cu, 123I, 124I, 125I, 126I, 131I, 11C, 13N, 15O, 18F, 153SM, 166Ho, 177Lu, 149Pm, 90Y, 213Bi, 103Pd, 109Pd, 159Gd, 140La, 198Au, 199Au, 169Yb, 175Yb, 165Dy, 166Dy, 105Rh, 111Ag, 89Zr, 225Ac, 82Rb, 75Br, 76Br, 77Br, 80Br, 80mBr, 82Br, 83Br, 211At 및 192Ir 을 포함한다. [0198] "Radionuclide" as used in this application means a portion containing radioactive isotopes of at least one element. Exemplary and suitable radionuclides include, but are not limited to, those described in this application. In some embodiments, the radionuclides are those used in Positron Emission Tomography (PET). In some embodiments, the radionuclides are those used in single photon emission computed tomography (SPECT). In some embodiments, the non-limiting list of radionuclides is 99m Tc, 111 In, 64 Cu, 67 Ga, 68 Ga, 186 Re, 188 Re, 153 Sm, 177 Lu, 67 Cu, 123 I, 124 I, 125 I , 126 I, 131 I, 11 C, 13 N, 15 O, 18 F, 153 SM, 166 Ho, 177 Lu, 149 Pm, 90 Y, 213 Bi, 103 Pd, 109 Pd, 159 Gd, 140 La, 198 Au, 199 Au, 169 Yb, 175 Yb, 165 Dy, 166 Dy, 105 Rh, 111 Ag, 89 Zr, 225 Ac, 82 Rb, 75 Br, 76 Br, 77 Br, 80 Br, 80m Br, 82 Br, 83 Br, 211 At and 192 Ir.

[0199] 본 출원에서 사용되는 “방사성 의약품”이라는 용어는 방사성 핵종을 포함하는 화합물을 지칭한다. 특정 실시 형태에서, 방사성 의약품은 진단 및/또는 치료 목적으로 사용된다. 특정 실시 형태에서, 방사성 의약품은 하나 이상의 방사성 핵종(들)로 라벨링된 소분자들, 하나 이상의 방사성 핵종(들)로 라벨링된 항체들 및 하나 이상의 방사성 핵종(들)로 라벨링된 항체들의 항원―결합 부분들을 포함한다. [0199] The term "radiopharmaceutical" as used in this application refers to a compound containing a radionuclide. In certain embodiments, radiopharmaceuticals are used for diagnostic and/or therapeutic purposes. In certain embodiments, the radiopharmaceutical is small molecules labeled with one or more radionuclide(s), antibodies labeled with one or more radionuclide(s), and antigen-binding portions of antibodies labeled with one or more radionuclide(s). include them

[0200] 핵의학 영상들(예를 들어, PET 스캔들; 예를 들어, SPECT 스캔들; 예를 들어, 전신 뼈 스캔들; 예를 들어, 복합 PET―CT 영상들; 예를 들어, 복합 SPECT―CT 영상들)은 방사성 의약품의 방사성 핵종으로부터 방출되는 방사선을 검출하여 영상을 형성한다. 환자 내의 특정 방사성 의약품의 분포는 혈류 또는 관류와 같은 생물학적 메커니즘들 뿐만 아니라 특정 효소 또는 수용체 결합 상호 작용들에 의해 결정될 수 있다. 상이한 방사성 의약품은 상이한 생물학적 메커니즘들 및/또는 특유의 특정 효소 또는 수용체 결합 상호 작용들의 이점을 갖도록 설계될 수 있고, 따라서 환자에게 투여될 때 환자 내의 특정 유형들의 조직 및/또는 영역들 내에 선택적으로 집중된다. 다른 영역들보다 방사성 의약품의 농도들이 더 높은 환자 내의 영역들로부터 더 많은 양의 방사선이 방출되어 이들 영역들이 핵의학 영상들에서 더욱 밝게 나타난다. 따라서 핵의학 영상 내의 강도 변화들은 환자 내의 방사성 의약품의 분포를 맵핑하는 데 사용될 수 있다. 환자 내의 방사성 의약품의 이러한 맵핑된 분포는 예를 들어, 환자의 신체의 다양한 영역들 내에서 암성 조직의 존재를 추론하는 데 사용될 수 있다. [0200] Nuclear medicine images (eg, PET scans; eg, SPECT scans; eg, whole body bone scans; eg, composite PET-CT images; eg, composite SPECT-CT images s) form images by detecting radiation emitted from radionuclides in radiopharmaceuticals. The distribution of a particular radiopharmaceutical within a patient may be determined by biological mechanisms such as blood flow or perfusion as well as specific enzymatic or receptor binding interactions. Different radiopharmaceuticals can be designed to take advantage of different biological mechanisms and/or unique specific enzyme or receptor binding interactions, and thus selectively focus within specific types of tissue and/or regions within a patient when administered to a patient. do. A greater amount of radiation is emitted from areas within the patient where the concentrations of the radiopharmaceutical are higher than other areas so that these areas appear brighter in nuclear medicine images. Thus, intensity changes in nuclear medicine images can be used to map the distribution of radiopharmaceuticals within a patient. This mapped distribution of the radiopharmaceutical within the patient can be used, for example, to infer the presence of cancerous tissue within various regions of the patient's body.

[0201] 예를 들어, 환자에게 투여 시, 테크네튬 99m 메틸렌디포스포네이트(methylenediphosphonate)(99mTc MDP)는 환자의 골격 영역, 특히 악성 뼈 병변들과 관련된 비정상적인 골형성 부위들에 선택적으로 축적된다. 이러한 부위들에서 방사성 의약품의 선택적인 집중은 식별 가능한 핫스팟들 ― 핵의학 영상들에서 높은 강도의 국소화된 영역들 ―을 생성한다. 따라서 전이성 전립선암과 관련된 악성 뼈 병변들의 존재는 환자의 전신 스캔 내에서 이러한 핫스팟들을 식별함으로써 추론될 수 있다. 하기에 기재된 바와 같이, 환자 전체의 생존 및 질병 상태, 진행, 치료 효능 등을 나타내는 다른 예후 메트릭(metric)들과 상관 관계가 있는 위험 지수들은 환자에게 99mTc MDP의 투여 후 획득된 전신 스캔들의 강도 변화들의 자동화된 분석에 기초하여 계산될 수 있다. 특정 실시 형태에서, 다른 방사성 의약품도 99mTc MDP와 유사한 방식으로 사용될 수 있다. [0201] For example, when administered to a patient, technetium 99m methylenediphosphonate ( 99m Tc MDP) selectively accumulates in the patient's skeletal region, particularly in areas of abnormal bone formation associated with malignant bone lesions. Selective focus of radiopharmaceuticals at these sites creates discernible hotspots - localized areas of high intensity in nuclear medicine images. Thus, the presence of malignant bone lesions associated with metastatic prostate cancer can be inferred by identifying these hotspots within a patient's whole body scan. As described below, risk indices that correlate with other prognostic metrics representing patient overall survival and disease status, progression, treatment efficacy, etc., intensity of whole-body scans obtained after administration of 99m Tc MDP to patients It can be calculated based on an automated analysis of changes. In certain embodiments, other radiopharmaceuticals may also be used in a manner similar to 99m Tc MDP.

[0202] 특정 실시 형태에서, 사용되는 특정 방사성 의약품은 사용되는 특정 핵의학 영상 촬영 기법에 의존한다. 예를 들어, 18F 불화나트륨(NaF)은 또한 99mTc MDP와 유사하게 뼈 병변들에 축적되지만 PET 영상 촬영과 함께 사용할 수 있다. 특정 실시 형태에서, PET 영상 촬영은 또한 전립선암 세포들에 의해 쉽게 흡수되는 비타민 콜린(vitamin choline)의 방사성 형태를 이용할 수 있다. [0202] In certain embodiments, the particular radiopharmaceutical used depends on the particular nuclear medicine imaging technique used. For example, 18F sodium fluoride (NaF) also accumulates in bone lesions similar to 99m Tc MDP but can be used with PET imaging. In certain embodiments, PET imaging may also utilize a radioactive form of vitamin choline that is readily taken up by prostate cancer cells.

[0203] 특정 실시 형태에서, 관심의 특정 단백질들 또는 수용체들, 특히 암성 조직에서 발현이 증가된 단백질들 또는 수용체들에 선택적으로 결합하는 방사성 의약품이 사용될 수 있다. 이러한 관심의 단백질들 또는 수용체들은 결장직장 암종에서 발현되는 CEA, 다수의 암들에서 발현되는 Her2/neu, 유방암 및 난소암에서 발현되는 BRCA 1 및 BRCA 2, 흑색종에서 발현되는 TRP―1 및 TRP―2 와 같은 종양 항원들을 포함하지만 이에 제한되지 않는다. [0203] In certain embodiments, a radiopharmaceutical that selectively binds to specific proteins or receptors of interest, particularly proteins or receptors whose expression is increased in cancerous tissue, may be used. These proteins or receptors of interest include CEA expressed in colorectal carcinoma, Her2/neu expressed in a number of cancers, BRCA 1 and BRCA 2 expressed in breast and ovarian cancer, TRP-1 and TRP expressed in melanoma; 2, but are not limited thereto.

[0204] 예를 들어, 사람 전립선 특이적 항원(PSMA)은 전이성 질병을 포함한 전립선암에서 상향 조절된다. PSMA는 사실상 모든 전립선암들에 의해 발현되며 그 발현은 불량 분화, 전이성 및 호르몬 불응성 암종에서 더욱 증가된다. 따라서 하나 이상의 방사성 핵종(들)로 라벨링된 PSMA 결합제들(예를 들어, PSMA에 높은 친화도를 갖는 화합물들)에 대응하는 방사성 의약품은 환자의 다양한 영역들(예를 들어, 골격 영역들을 포함함(그러나, 이에 제한되지 않음)) 내에서 전립선암의 존재 및/또는 상태가 평가될 수 있는 환자로부터 핵의학 영상들을 획득하는 데 사용될 수 있다. 특정 실시 형태에서, PSMA 결합제들을 사용하여 획득된 핵의학 영상들은 질병이 국소화된 상태일 때 전립선 내의 암성 조직의 존재를 식별하는 데 사용된다. 특정 실시 형태에서, PSMA 결합제들을 포함하는 방사성 의약품을 사용하여 획득된 핵의학 영상들은 전립선 뿐만 아니라 질병이 전이될 때 관련이 있는 폐들, 림프절들, 뼈들과 같은 다른 장기들 및 조직 영역들도 포함하는 다양한 영역들 내의 암성 조직의 존재를 식별하는 데 사용된다. [0204] For example, human prostate specific antigen (PSMA) is upregulated in prostate cancer, including metastatic disease. PSMA is expressed by virtually all prostate cancers and its expression is further increased in poorly differentiated, metastatic and hormone refractory carcinomas. Thus, radiopharmaceuticals corresponding to PSMA binding agents (eg, compounds with high affinity to PSMA) labeled with one or more radionuclide(s) may be used in various regions of the patient (eg, including skeletal regions). (but is not limited thereto)) to obtain nuclear medicine images from a patient in which the presence and/or status of prostate cancer can be assessed. In a specific embodiment, nuclear medicine images obtained using PSMA binders are used to identify the presence of cancerous tissue within the prostate when disease is localized. In a specific embodiment, nuclear medicine images acquired using radiopharmaceuticals containing PSMA binders include not only the prostate but also other organs and tissue regions such as lungs, lymph nodes, and bones that are involved when disease metastasizes. It is used to identify the presence of cancerous tissue in various areas.

[0205] 특히, 환자에게 투여시 방사성 핵종으로 라벨링된 PSMA 결합제들은 PSMA에 대한 친화도에 기초하여 암성 조직 내에 선택적으로 축적된다. 99mTc MDP에 대해 상기에서 기재된 것과 유사한 방식으로, 환자 내의 특정 부위들에 방사성 핵종으로 라벨링된 PSMA 결합제들의 선택적인 집중은 핵의학 영상들에서 검출 가능한 핫스팟들을 생성한다. PSMA 결합제들은 PSMA를 발현하는 신체의 다양한 암성 조직들 및 영역들 내에 집중되기 때문에 환자의 전립선 내의 국소화된 암 및/또는 환자의 신체의 다양한 영역들의 전이성 암이 검출되고 평가될 수 있다. 환자 전체의 생존 및 질병 상태, 진행, 치료 효능 등을 나타내는 다른 예후 메트릭들과 상관 관계가 있는 위험 지수들은 환자에게 PSMA 결합제 방사성 의약품의 투여 후 획득된 핵의학 영상들에서의 강도 변화들의 자동화된 분석에 기초하여 계산될 수 있다. [0205] In particular, upon administration to a patient, radionuclide-labeled PSMA binders selectively accumulate within cancerous tissue based on their affinity for PSMA. In a manner similar to that described above for the 99m Tc MDP, selective concentration of radionuclide-labeled PSMA binders at specific sites within the patient creates detectable hotspots in nuclear medicine images. Because PSMA binding agents are concentrated in various cancerous tissues and regions of the body that express PSMA, localized cancer within the patient's prostate and/or metastatic cancer of various regions of the patient's body can be detected and evaluated. Automated analysis of intensity changes in nuclear medicine images obtained after administration of a PSMA-binding radiopharmaceutical to a patient for risk indices that correlate with other prognostic metrics representing patient overall survival and disease status, progression, treatment efficacy, etc. can be calculated based on

[0206] 다양한 방사성 핵종 라벨링된 PSMA 결합제는 전립선암을 검출하고 평가하기 위한 핵의학 영상 촬영에 대해 방사성 의약품 영상화제로 사용될 수 있다. 특정 실시 형태에서, 사용되는 특정 방사성 핵종 라벨링된 PSMA 결합제는 특정 영상 촬영 기법(예를 들어, PET; 예를 들어, SPECT) 및 영상화될 환자의 특정 영역들(예를 들어, 장기들)과 같은 인자들에 의존한다. 예를 들어, 특정 방사성 핵종 라벨링된 PSMA 결합제들은 PET 영상 촬영에 대해 적합한 반면, 다른 것들은 SPECT 영상 촬영에 대해 적합하다. 예를 들어, 특정 방사성 핵종 라벨링된 PSMA 결합제들은 환자의 전립선의 영상 촬영을 용이하게 하고 질병이 국소화될 때 주로 사용되는 반면, 다른 것들은 환자의 신체 전체에 걸친 장기들 및 영역들의 영상 촬영을 용이하게 하고 전이성 전립선암을 평가하는 데 유용하다. [0206] A variety of radionuclide labeled PSMA binders can be used as radiopharmaceutical imaging agents for nuclear medicine imaging to detect and evaluate prostate cancer. In certain embodiments, the specific radionuclide labeled PSMA binder used is specific to the specific imaging technique (eg PET; eg SPECT) and specific areas of the patient to be imaged (eg organs), such as depend on factors For example, certain radionuclide labeled PSMA binders are suitable for PET imaging, while others are suitable for SPECT imaging. For example, certain radionuclide labeled PSMA binders facilitate imaging of a patient's prostate and are primarily used when disease is localized, while others facilitate imaging of organs and regions throughout the patient's body. and useful for evaluating metastatic prostate cancer.

[0207] 다양한 PSMA 결합제들 및 이의 방사성 핵종 라벨링된 버전들이 미국 특허 번호 제8,778,305호, 제8,211,401호 및 제8,962,799호에 기재되어 있으며, 이들 각각은 그 전문이 본 출원에 참조로 포함된다. 여러 PSMA 결합제들 및 이의 방사성 핵종 라벨링된 버전들은 또한 2017년 10월 26일에 출원된 PCT 출원 PCT/US2017/058418 (PCT 공개공보 WO 2018/081354)에 기재되어 있으며, 이의 내용은 그 전문이 본 출원에 참조로 포함된다. 하기의 섹션 J는 몇 가지 예시적인 PSMA 결합제들 및 이의 방사성 핵종 라벨링된 버전들도 기재한다. [0207] Various PSMA binders and radionuclide labeled versions thereof are described in U.S. Patent Nos. 8,778,305, 8,211,401, and 8,962,799, each of which is incorporated herein by reference in its entirety. Several PSMA binders and radionuclide-labeled versions thereof are also described in PCT Application PCT/US2017/058418, filed on October 26, 2017 (PCT Publication WO 2018/081354), the contents of which are hereby incorporated in their entirety. incorporated by reference into the application. Section J below also describes some exemplary PSMA binders and radionuclide labeled versions thereof.

B. 자동화된 병변 검출 및 분석B. Automated lesion detection and analysis

i. 자동화된 병변 검출i. Automated lesion detection

[0208] 특정 실시 형태에서, 본 출원에서 기재된 시스템들 및 방법들은 자동화된 영상 분할 및 대상체 내의 가능한 암성 병변들에 대응하고 이들을 나타내는 핫스팟들의 검출을 위한 기계 학습 기술들을 이용한다. [0208] In a particular embodiment, the systems and methods described herein utilize machine learning techniques for automated image segmentation and detection of hotspots that correspond to and represent possible cancerous lesions in a subject.

[0209] 특정 실시 형태에서, 본 출원에서 기재된 시스템들 및 방법들은 예를 들어, 2017년 10월 26일 출원된 PCT/US2017/058418 (PCT 공개공보 WO 2018/081354)에 기재된 바와 같이 클라우드 기반 플랫폼에서 실시될 수 있으며, 이의 내용은 그 전문이 본 출원에 참조로 포함된다. [0209] In a particular embodiment, the systems and methods described in this application are based on a cloud-based platform as described, for example, in PCT/US2017/058418, filed on Oct. 26, 2017 (PCT Publication WO 2018/081354). It can be implemented in, the contents of which are incorporated by reference in this application in its entirety.

[0210] 특정 실시 양태에서, 본 출원에서 기재된 바와 같이, 기계 학습 모듈들은 랜덤 포레스트(random forest) 분류기, 인공 신경망(ANN)들, 콘볼루션(convolution) 신경망(CNN)들 등과 같은 하나 이상의 기계 학습 기술들을 실시한다. 특정 실시 형태에서, 기계 학습 기술들을 구현하는 기계 학습 모듈들은 예를 들어, 영상들의 일부들을 식별 및/또는 분류하기 위해 수동으로 분할 및/또는 라벨링된 영상들을 사용하여 훈련된다. 이러한 훈련은 신경망들의 계층들과 관련된 가중치들과 같은 기계 학습 모듈에 의해 구현되는 기계 학습 알고리즘들의 다양한 파라미터들을 결정하는 데 사용될 수 있다. 특정 실시 형태에서, 일단 기계 학습 모듈이 훈련되면, 예를 들어, 영상들 내의 특정 표적 영역들을 식별하는 것과 같은 특정 작업을 달성하기 위해, 결정된 파라미터들의 값들이 고정되고, 기계 학습 모듈(예를 들어, 변하지 않는, 정적인)이 새로운 데이터(예를 들어, 훈련 데이터와 다름)를 처리하고 해당 파라미터들에 대해 추가의 갱신들 없이(예를 들어, 기계 학습 모듈은 피드백 (feedback) 및/또는 갱신을 수신하지 않음) 훈련된 작업을 수행하는 데 사용된다. 특정 실시 형태에서, 기계 학습 모듈들은 예를 들어, 사용자의 정확성 검토에 기초하여 피드백을 수신할 수 있고, 이러한 피드백은 기계 학습 모듈을 동적으로 갱신하기 위해 부가적인 훈련 데이터로 사용될 수 있다. 일부 실시 형태에서, 훈련된 기계 학습 모듈은 조정 가능하고/하거나 고정된(예를 들어, 잠긴) 파라미터들을 갖는 분류 알고리즘, 예를 들어, 랜덤 포레스트 분류기(random forest classifier)이다. [0210] In a particular embodiment, machine learning modules, as described herein, include one or more machine learning modules, such as random forest classifiers, artificial neural networks (ANNs), convolutional neural networks (CNNs), and the like. implement the techniques. In a particular embodiment, machine learning modules implementing machine learning techniques are trained using manually segmented and/or labeled images, for example, to identify and/or classify portions of images. Such training may be used to determine various parameters of machine learning algorithms implemented by the machine learning module, such as weights associated with layers of neural networks. In certain embodiments, once the machine learning module is trained, the values of the determined parameters are fixed and the machine learning module (eg, to achieve a specific task, such as identifying specific target regions within images) , immutable, static) to process new data (e.g. different from training data) and without further updates on those parameters (e.g. the machine learning module provides feedback and/or updates) not received) is used to perform the trained task. In certain embodiments, machine learning modules may receive feedback based, for example, on a user's accuracy review, and such feedback may be used as additional training data to dynamically update the machine learning module. In some embodiments, the trained machine learning module is a classification algorithm, eg, a random forest classifier, with tunable and/or fixed (eg, locked) parameters.

[0211] 특정 실시 형태에서, 기계 학습 기술들은 특정 장기들(예를 들어, 전립선, 림프절 영역들, 신장, 간, 방광, 대동맥 부분) 뿐만 아니라 뼈와 같은 특정 표적 조직 영역들에 대응하는 관심 볼륨들을 식별하기 위해 CT, MRI, 초음파 등의 영상들과 같은 해부학적 영상들에서 해부학적 구조들을 자동으로 분할하는 데 사용된다. 이러한 방식으로, 기계 학습 모듈들은 그 내부의 강도 변동들을 평가하기 위한 해부학적 환경을 제공하기 위해 PET 또는 SPECT 영상들과 같은 기능적 영상들에 맵핑될 수 있는(예를 들어, 투영될 수 있는) 분할 마스크들 및/또는 분할 맵들(예를 들어, 각각이 특정 표적 조직 영역에 대응하고 이를 식별하는 복수의 분할 마스크를 포함함)을 생성하는 데 사용될 수 있다. 핵의학 영상들의 분석을 위해 영상을 분할하고 획득된 해부학적 환경을 사용하는 접근법들은 예를 들어, 2019년 1월 7일에 출원된 PCT/US2019/012486 (PCT 공개공보 WO 2019/136349) 및 2020년 1월 6일에 출원된 PCT/EP2020/050132 (PCT 공개공보 WO 2020/144134)에 더 자세히 기재되어 있고, 이들 각각의 내용들은 그 전문이 본 출원에 참조로 포함된다. [0211] In a particular embodiment, machine learning techniques may use a volume of interest corresponding to particular organs (eg, prostate, lymph node regions, kidney, liver, bladder, aortic region) as well as specific target tissue regions such as bone. It is used to automatically segment anatomical structures in anatomical images, such as CT, MRI, ultrasound, etc., to identify them. In this way, machine learning modules segmentation that can be mapped (eg, projected) onto functional images, such as PET or SPECT images, to provide an anatomical environment for evaluating intensity fluctuations therein. may be used to generate masks and/or segmentation maps (eg, comprising a plurality of segmentation masks, each corresponding to and identifying a particular target tissue region). Approaches that segment images and use the acquired anatomical environment for analysis of nuclear medicine images are described, for example, in PCT/US2019/012486, filed Jan. 7, 2019 (PCT Publication No. WO 2019/136349) and 2020 PCT/EP2020/050132 (PCT Publication WO 2020/144134), filed on January 6, 2020, the contents of each of which are incorporated herein by reference in their entirety.

[0212] 특정 실시 형태에서, 잠재적인 병변들은 PET 영상들과 같은 기능적 영상들에서 국소적으로 높은 강도의 영역들로 검출된다. 핫스팟들이라고도 하는 이러한 높은 강도의 국소화된 영역들은 필터링 및 임계값 설정과 같은 기계 학습을 반드시 수반하지는 않는 영상 처리 기술들을 사용하여 검출될 수 있고 신속 진행 방법과 같은 접근법들을 사용하여 분할될 수 있다. 해부학적 영상들의 분할로부터 확립된 해부학적 정보는 잠재적인 병변들을 나타내는 검출된 핫스팟들의 해부학적 라벨링을 허용한다. 해부학적 환경은 민감도와 수행능을 증가시킬 수 있는 다양한 해부학적 영역들에서 핫스팟 검출에 사용될 상이한 검출 및 분할 기술들을 허용하는 데 유용할 수 있다. [0212] In a particular embodiment, occult lesions are detected as areas of high intensity locally on functional images, such as PET images. These localized regions of high intensity, also called hotspots, can be detected using image processing techniques that do not necessarily involve machine learning, such as filtering and thresholding, and can be segmented using approaches such as fast-forward methods. Anatomical information established from segmentation of anatomical images allows anatomical labeling of detected hotspots indicative of potential lesions. The anatomical environment can be useful to allow different detection and segmentation techniques to be used for hotspot detection in various anatomical regions, which can increase sensitivity and performance.

[0213] 특정 실시 형태에서, 자동으로 검출된 핫스팟들은 대화형 그래픽 사용자 인터페이스(GUI)를 통해 사용자에게 제공될 수 있다. 특정 실시 형태에서, 사용자(예를 들어, 의사)에 의해 검출되었지만 시스템에 의해 누락되거나 불량하게 분할된 표적 병변들을 설명하기 위해, 수동 분할 도구가 GUI에 포함되어 사용자가 모든 모양과 크기의 병변에 대응하는 것으로 인식하는 영상들의 영역들을 수동으로 "묘사(paint)"할 수 있게 한다. 그 다음 이들 수동으로 분할된 병변들은 선택된 자동 검출 표적 병변들과 함께 이후에 생성된 보고서들에 포함될 수 있다. [0213] In a particular embodiment, the automatically detected hotspots may be presented to the user through an interactive graphical user interface (GUI). In certain embodiments, a manual segmentation tool is included in the GUI to allow the user to select lesions of all shapes and sizes to account for target lesions detected by the user (eg, physician) but missed or poorly segmented by the system. Allows you to manually "paint" regions of images that you recognize as corresponding. These manually segmented lesions can then be included in later generated reports along with selected automatically detected target lesions.

ii. AI 기반 병변 검출ii. AI-based lesion detection

[0214] 특정 실시 형태에서, 본 출원에서 기재된 시스템들 및 방법들은 3D 기능적 영상들의 강도들을 분석하고 잠재적인 병변들을 나타내는 핫스팟들을 검출하기 위해 하나 이상의 기계 학습 모듈들을 이용한다. 예를 들어, 병변들을 나타내는 핫스팟들을 수동으로 검출하고 분할한 PET/CT 영상들의 데이터 세트를 수집하여 AI 기반 병변 검출 알고리즘들을 위한 훈련 자료를 획득할 수 있다. 이들 수동으로 라벨링된 영상들은 암성 병변들에 대응하는 핫스팟들을 정확하게 검출하고 분할하기 위해 기능적 영상(예를 들어, PET 영상들)을 자동으로 분석하도록 하나 이상의 기계 학습 알고리즘들을 훈련하는 데 사용할 수 있다. [0214] In a particular embodiment, the systems and methods described herein utilize one or more machine learning modules to analyze intensities of 3D functional images and detect hotspots representing potential lesions. For example, training data for AI-based lesion detection algorithms may be obtained by collecting a data set of PET/CT images obtained by manually detecting and segmenting hotspots representing lesions. These manually labeled images can be used to train one or more machine learning algorithms to automatically analyze functional images (eg, PET images) to accurately detect and segment hotspots corresponding to cancerous lesions.

[0215] 도 1a는 ANNs, CNNs 등과 같은 기계 학습 알고리즘들을 구현하는 기계 학습 모듈들을 사용하여 자동화된 병변 검출 및/또는 분할을 위한 예시적인 과정(100a)을 도시한다. 도 1a에서 확인할 수 있듯이, PET 또는 SPECT 영상과 같은 3D 기능적 영상(102)이 수신되고(106) 기계 학습 모듈(110)에 대한 입력으로서 사용된다. 도 1a는 방사성 의약품(102a)으로서 PyLTM을 사용하여 획득된 예시적인 PET 영상을 도시한다. PET 영상(102a)은 CT 영상(예를 들어, PET/CT 영상으로서) 상에 중첩된 것으로 도시되지만, 기계 학습 모듈(110)은 PET(예를 들어, 또는 다른 기능적 영상) 자체(예를 들어, CT를 포함하지 않거나 다른 해부학적 영상)를 입력으로서 수신할 수 있다. 특정 실시 형태에서, 하기에서 기재되는 바와 같이, 해부학적 영상이 또한 입력으로서 수신될 수 있다. 기계 학습 모듈은 잠재적인 암성 병변들을 나타내는 것으로 (기계 학습 모듈에 의해) 결정된 핫스팟들(120)을 자동으로 검출 및/또는 분할한다. PET 영상(120b)에 나타나는 핫스팟들을 도시하는 예시적인 영상이 또한 도 1a에 도시된다. 따라서 기계 학습 모듈은 출력으로 (i) 핫스팟 목록(130) 및 (ii) 핫스팟 맵(132) 중 하나 또는 둘 모두를 생성한다. 특정 실시 형태에서, 핫스팟 목록은 검출된 핫스팟들의 위치들(예를 들어, 질량의 중심들)을 식별한다. 특정 실시 형태에서, 핫스팟 맵은 기계 학습 모듈(110)에 의해 수행된 영상 분할을 통해 결정된 바와 같이 3D 볼륨들을 식별하고/하거나 검출된 핫스팟들의 3D 경계들을 묘사한다. 핫스팟 목록 및/또는 핫스팟 맵은 표시 및/또는 추가 처리(140)를 위해 (예를 들어, 다른 소프트웨어 모듈에) 저장 및/또는 제공될 수 있다. [0215] FIG. 1A shows an example process 100a for automated lesion detection and/or segmentation using machine learning modules implementing machine learning algorithms such as ANNs, CNNs, and the like. As can be seen in FIG. 1A , a 3D functional image 102 , such as a PET or SPECT image, is received 106 and used as input to a machine learning module 110 . 1A shows an exemplary PET image obtained using PyL as the radiopharmaceutical 102a. The PET image 102a is shown superimposed on the CT image (eg, as a PET/CT image), but the machine learning module 110 is the PET (eg, or other functional image) itself (eg, as a PET/CT image). , CT or other anatomical images) can be received as input. In certain embodiments, anatomical images may also be received as input, as described below. The machine learning module automatically detects and/or segments hotspots 120 determined (by the machine learning module) to represent potentially cancerous lesions. An example image showing hotspots appearing in PET image 120b is also shown in FIG. 1A. The machine learning module thus produces as output one or both of (i) a hotspot list 130 and (ii) a hotspot map 132 . In a particular embodiment, the hotspot list identifies locations (eg, centers of mass) of detected hotspots. In a particular embodiment, the hotspot map identifies 3D volumes and/or depicts 3D boundaries of detected hotspots as determined through image segmentation performed by machine learning module 110 . The hotspot list and/or hotspot map may be stored and/or provided (eg, to another software module) for display and/or further processing 140 .

[0216] 특정 실시 형태에서, 기계 학습 기반 병변 검출 알고리즘들은 (예를 들어, PET 영상으로부터) 기능적 영상 정보 뿐만 아니라 해부학적 정보에 대해서도 훈련되고 이를 이용할 수 있다. 예를 들어, 특정 실시 형태에서, 병변 검출 및 분할에 사용되는 하나 이상의 기계 학습 모듈들은 2 개의 채널들 ― PET 영상의 일부에 대응하는 제1 채널 및 CT 영상의 일부에 대응하는 제2 채널 ― 을 입력으로서 수신하고 훈련될 수 있다. 특정 실시 형태에서, 해부학적(예를 들어, CT) 영상으로부터 유래된 정보는 또한 병변 검출 및/또는 분할을 위한 기계 학습 모듈들에 대한 입력으로서 사용될 수 있다. 예를 들어, 특정 실시 형태에서, 해부학적 및/또는 기능적 영상 내의 다양한 조직 영역들을 식별하는 3D 분할 맵들이 또한 해부학적 환경을 제공하는 데 사용될 수 있다(예를 들어, 입력으로서, 예를 들어, 하나 이상의 기계 학습 모듈들에 의해 별도의 입력 채널로서 수신됨). [0216] In a particular embodiment, machine learning based lesion detection algorithms may be trained on and use anatomical information as well as functional image information (eg, from PET images). For example, in a particular embodiment, one or more machine learning modules used for lesion detection and segmentation may use two channels - a first channel corresponding to a portion of a PET image and a second channel corresponding to a portion of a CT image. It can be received as input and trained. In certain embodiments, information derived from anatomical (eg, CT) images may also be used as input to machine learning modules for lesion detection and/or segmentation. For example, in certain embodiments, 3D segmentation maps identifying various tissue regions within an anatomical and/or functional image may also be used to provide an anatomical environment (e.g., as an input, e.g., received as a separate input channel by one or more machine learning modules).

[0217] 도 1b는 CT 또는 MR 영상과 같은 3D 해부학적 영상(104) 및 3D 기능적 영상(102) 모두가 수신(108)되고 본 출원에서 기재된 바와 같은 3D 해부학적 영상(104) 및 3D 기능적 영상(102) 모두로부터의 정보(예를 들어, 복셀 강도들)에 기초하여 핫스팟 검출 및/또는 분할(122)을 수행하는 기계 학습 모듈(112)에 대한 입력으로서 사용되는 예시적인 과정(100b)을 도시한다. 핫스팟 목록(130) 및/또는 핫스팟 맵(132)은 기계 학습 모듈로부터 출력으로 생성될 수 있고, 추가 처리(예를 들어, 표시를 위한 그래픽 렌더링, 다른 소프트웨어 모듈들에 의한 후속 작업 등) (140)를 위해 저장/제공될 수 있다. [0217] FIG. 1B shows that both a 3D anatomical image 104 and a 3D functional image 102, such as a CT or MR image, are received 108 and the 3D anatomical image 104 and 3D functional image 104 and 3D functional image as described herein are received. (102) Exemplary process 100b used as input to machine learning module 112 that performs hotspot detection and/or segmentation 122 based on information (eg, voxel intensities) from all show Hotspot list 130 and/or hotspot map 132 may be generated as output from a machine learning module and subjected to further processing (eg, rendering graphics for display, follow-up by other software modules, etc.) 140 ) can be stored / provided for.

[0218] 특정 실시 형태에서, 자동화된 병변 검출 및 분석(예를 들어, 보고서에 포함시키기 위한)은 다음과 같은 3 가지 작업들을 포함한다: (i) 병변들에 대응하는 핫스팟들의 검출, (ii) 검출된 핫스팟들의 분할(예를 들어, 기능적 영상 내에서 각각의 병변에 대응하는 3D 볼륨을 식별함), (iii) 대상체 내의 진정한 병변에 대응하는 높거나 낮은 확률을 갖는 것(예를 들어, 따라서 방사선 전문의 보고서에 포함하기에 적절한지 여부)으로서 검출된 핫스팟의 분류. 특정 실시 형태에서, 하나 이상의 기계 학습 모듈들은 예를 들어, 하나씩(예를 들어, 순서대로) 또는 조합하여 이러한 3 가지 작업들을 달성하는 데 사용될 수 있다. 예를 들어, 특정 실시 형태에서, 제1 기계 학습 모듈은 핫스팟들을 검출하고 핫스팟 위치들을 식별하도록 훈련되고, 제2 기계 학습 모듈은 핫스팟들을 분할하도록 훈련되고, 제3 기계 학습 모듈은 예를 들어 다른 두 기계 학습 모듈들에서 획득된 정보를 사용하여 검출된 핫스팟들을 분류하도록 훈련된다. [0218] In a particular embodiment, automated lesion detection and analysis (eg, for inclusion in a report) includes three tasks: (i) detection of hotspots corresponding to the lesions, (ii) ) segmentation of the detected hotspots (eg, identifying a 3D volume corresponding to each lesion within the functional image), (iii) having a high or low probability corresponding to a true lesion in the subject (eg, Classification of detected hotspots as whether they are therefore appropriate for inclusion in the radiologist's report. In a particular embodiment, one or more machine learning modules may be used to accomplish these three tasks, for example one by one (eg, in sequence) or in combination. For example, in a particular embodiment, a first machine learning module is trained to detect hotspots and identify hotspot locations, a second machine learning module is trained to segment hotspots, and a third machine learning module is trained to segment hotspots, and a third machine learning module is trained to, for example, other It is trained to classify the detected hotspots using the information obtained from the two machine learning modules.

[0219] 예를 들어, 도 1c의 예시적인 과정(100c)에서 확인되는 바와 같이, 3D 기능적 영상(102)은 수신되어(106) 자동화된 핫스팟 검출을 수행하는 제1 기계 학습 모듈(114)에 대한 입력으로서 사용될 수 있다. 제1 기계 학습 모듈(114)은 3D 기능적 영상에서 하나 이상의 핫스팟들을 자동으로 검출하고(124) 출력으로 핫스팟 목록(130)을 생성한다. 제2 기계 학습 모듈(116)은 3D 기능적 영상과 함께 핫스팟 목록(130)을 입력으로서 수신하고 자동화된 핫스팟 분할을 수행하여(126) 핫스팟 맵(132)을 생성할 수 있다. 이전에 언급된 바와 같이, 핫스팟 목록(130) 뿐만 아니라 핫스팟 맵(132)은 추가 처리(140)를 위해 저장 및/또는 제공될 수 있다. [0219] For example, as seen in the exemplary process 100c of FIG. 1C, the 3D functional image 102 is received 106 and sent to a first machine learning module 114 that performs automated hotspot detection. can be used as an input for The first machine learning module 114 automatically detects 124 one or more hotspots in the 3D functional image and generates a hotspot list 130 as output. The second machine learning module 116 may receive the hotspot list 130 together with the 3D functional image as input and perform automated hotspot segmentation 126 to generate the hotspot map 132 . As noted previously, the hotspot list 130 as well as the hotspot map 132 may be stored and/or presented for further processing 140 .

[0220] 특정 실시 형태에서, 단일 기계 학습 모듈은 영상들(예를 들어, 3D 기능적 영상들; 예를 들어, 검출된 핫스팟들에 대응하는 볼륨들을 식별하는 3D 핫스팟 맵을 생성하기 위해) 내의 핫스팟들을 직접 분할하도록 훈련되어 핫스팟들의 검출 및 분할의 첫 번째 두 단계를 결합한다. 다음에 제2 기계 학습 모듈은 예를 들어, 이전에 결정된 분할된 핫스팟들에 기초하여 검출된 핫스팟들을 분류하는 데 사용될 수 있다. 특정 실시 형태에서, 단일 기계 학습 모듈은 단일 단계에서 세 가지 작업들(검출, 분할 및 분류) 모두를 달성하도록 훈련될 수 있다. [0220] In a particular embodiment, a single machine learning module uses hotspots within images (eg, 3D functional images; eg, to generate a 3D hotspot map identifying volumes corresponding to detected hotspots). It combines the first two steps of segmentation and detection of hotspots. A second machine learning module may then be used to classify the detected hotspots based on, for example, previously determined segmented hotspots. In a particular embodiment, a single machine learning module can be trained to accomplish all three tasks (detection, segmentation and classification) in a single step.

iii. 병변 지수값들iii. Lesion index values

[0221] 특정 실시 형태에서, 병변 지수값은 검출된 핫스팟에 대해 계산되어, 예를 들어 대응하는 물리적 병변 내의 상대적 흡수 및/또는 크기의 치수를 제공한다. 특정 실시 형태에서, 병변 지수값은 (i) 핫스팟에 대한 강도의 치수 및 (ii) 각각이 특정 참조 조직에 대응하는 하나 이상의 참조 볼륨들 내의 강도의 치수들에 대응하는 참조 값들에 기초하여 특정 핫스팟에 대해 계산된다. 예를 들어, 특정 실시 형태에서, 참조 값들은 대동맥의 일부에 대응하는 대동맥 볼륨 내의 강도를 측정하는 대동맥 참조 값(혈액 풀 참조라고도 함) 및 대상체의 간에 대응하는 간 볼륨 내의 강도를 측정하는 간 참조 값을 포함한다. 특정 실시 형태에서, 핵의학 영상, 예를 들어, PET 영상의 복셀들의 강도들은 표준 흡수값 (SUV)들(예를 들어, 방사성 의약품 주사 용량 및/또는 환자 체중에 대해 보정됨)을 나타내고, 핫스팟 강도의 치수들 및/또는 참조 값들의 치수들은 SUV 값들이다. 병변 지수값을 계산하는 데 이러한 참조 값을 사용하는 것은 예를 들어, 2020년 1월 6일에 출원된 PCT/EP2020/050132에 더 자세히 기재되어 있고, 그 내용은 그 전문이 본 출원에 참조로 포함된다. [0221] In certain embodiments, a lesion index value is calculated for a detected hotspot to provide, for example, a measure of relative uptake and/or size within the corresponding physical lesion. In certain embodiments, the lesion index value is determined for a particular hotspot based on reference values corresponding to (i) a measure of intensity for the hotspot and (ii) measures of intensity in one or more reference volumes, each corresponding to a particular reference tissue. is calculated for For example, in certain embodiments, the reference values are an aortic reference value (also referred to as a blood pool reference) that measures intensity within an aortic volume corresponding to a portion of the aorta and a liver reference value that measures intensity within a liver volume corresponding to a liver of a subject. contains the value In certain embodiments, intensities of voxels of a nuclear medicine image, eg, a PET image, represent standard absorption values (SUVs) (eg, corrected for radiopharmaceutical injection dose and/or patient weight), and hotspots Measures of intensity and/or measures of reference values are SUV values. The use of these reference values for calculating lesion index values is described in more detail, for example, in PCT/EP2020/050132, filed 6 Jan. 2020, the contents of which are incorporated herein by reference in their entirety. included

[0222] 특정 실시 형태에서, 분할 마스크는 예를 들어, PET 영상에서 특정 참조 볼륨을 식별하는 데 사용된다. 특정 참조 볼륨의 경우, 참조 볼륨을 식별하는 분할 마스크는 해부학적, 예를 들어, CT 영상의 분할을 통해 획득될 수 있다. 예를 들어, 특정 실시 형태에서 (예를 들어, PCT/EP2020/050132에 기재된 바와 같이), 3D 해부학적 영상의 분할은 관심의 특정 조직 영역을 각각이 식별하는 복수의 분할 마스크들을 포함하는 분할 맵을 생성하도록 수행될 수 있다. 따라서 이러한 방식으로 생성된 분할 맵의 하나 이상의 분할 마스크들은 하나 이상의 참조 볼륨들을 식별하는 데 사용될 수 있다. [0222] In a particular embodiment, a segmentation mask is used, for example, to identify a specific reference volume in a PET image. In the case of a specific reference volume, a segmentation mask identifying the reference volume can be obtained through segmentation of an anatomical, eg, CT image. For example, in certain embodiments (eg, as described in PCT/EP2020/050132), segmentation of a 3D anatomical image is a segmentation map comprising a plurality of segmentation masks each identifying a specific tissue region of interest. can be performed to generate Accordingly, one or more segmentation masks of a segmentation map created in this way may be used to identify one or more reference volumes.

[0223] 특정 실시 형태에서, 대응하는 참조 값의 계산에 대해 사용될 참조 볼륨의 복셀들을 식별하기 위해, 마스크는 고정된 거리(예를 들어, 적어도 하나의 복셀)로 침식되어 참조 조직 영역 내의 물리적 영역에 완전히 대응하는 참조 볼륨을 식별하는 참조 장기 마스크를 생성할 수 있다. 예를 들어, 3 mm 및 9 mm 의 침식 거리들이 각각 대동맥 및 간 참조 볼륨에 사용될 수 있다. 다른 침식 거리들도 사용할 수 있다. 예를 들어, 간 참조 볼륨에 대해 하기에 기재된 바와 같이 (예를 들어, 참조 값을 계산하는 데 사용하기 위한 원하는 특정 복셀들의 세트를 선택하기 위해) 추가 마스크 정제가 수행될 수도 있다. [0223] In a particular embodiment, the mask is eroded a fixed distance (eg, at least one voxel) to identify the voxels of the reference volume to be used for calculation of the corresponding reference value, a physical area within the reference tissue region. It is possible to create a reference organ mask that identifies a reference volume that fully corresponds to . For example, erosion distances of 3 mm and 9 mm may be used for the aorta and liver reference volumes, respectively. Other erosion distances may also be used. Additional mask refinement may be performed, eg, as described below for the liver reference volume (eg, to select a desired specific set of voxels for use in calculating a reference value).

[0224] 참조 볼륨들 내의 다양한 강도 치수들이 사용될 수 있다. 예를 들어, 특정 실시 형태에서, 참조 볼륨 내부의 복셀 강도들의 로버스트 평균(예를 들어, 침식 후 참조 볼륨 분할 마스크에 의해 정의됨)은 복셀 강도들의 사분위수 범위의 값들의 평균 (IQRmean)으로서 결정될 수 있다. 피크, 최대, 중간 등과 같은 다른 치수들도 결정될 수 있다. 특정 실시 형태에서, 대동맥 참조 값은 대동맥 마스크 내부의 복셀들로부터 SUVs의 로버스트 평균으로서 결정된다. 로버스트 평균은 사분위수 범위의 값들의 평균 IQRmean 으로서 계산된다. [0224] Various intensity dimensions within the reference volumes may be used. For example, in a particular embodiment, a robust average of voxel intensities inside a reference volume (eg, defined by a reference volume segmentation mask after erosion) is the average of values in the interquartile range of voxel intensities (IQR mean ) can be determined as Other dimensions such as peak, maximum, median, etc. may also be determined. In a specific embodiment, the aortic reference value is determined as a robust average of SUVs from voxels inside the aortic mask. The robust mean is calculated as the average IQR mean of the values in the interquartile range.

[0225] 특정 실시 형태에서, 비정상적으로 낮은 방사성 의약품 흡수를 가질 수 있는 참조 조직 영역들로부터의 영향을 방지하기 위해 참조 체적 내의 복셀들의 서브세트가 선택된다. 본 출원에서 기재되고 참조된 자동화된 분할 기술들이 특정 조직 영역들에 대응하는 영상들의 영역들의 정확한 윤곽(예를 들어, 식별)을 제공할 수 있지만, 참조 값 계산으로부터 배제되어야 하는 간에서 비정상적으로 낮은 흡수 영역들이 종종 존재한다. 예를 들어, 간 참조 값(예를 들어, 간 SUV 값)은 예를 들어, 추적자 흡수가 없는 종양들로 인해 나타날 수 있는 매우 낮은 추적자(방사성 의약품) 활성을 가진 간의 영역들로부터의 영향을 방지하기 위해 계산될 수 있다. 특정 실시 형태에서, 참조 조직 영역들에서 비정상적으로 낮은 흡수의 효과를 설명하기 위해 간에 대한 참조 값 계산은 간에 대응하는 복셀들(예를 들어, 식별된 간 참조 볼륨 내의 복셀들)의 강도들의 히스토그램을 분석하고 강도들이 더 낮은 강도들의 두 번째 히스토그램 피크를 형성하는 경우 강도들을 제거하여(예를 들어, 배제하여), 더 높은 강도값 피크와 관련된 강도들만 포함된다. [0225] In a particular embodiment, a subset of voxels within the reference volume is selected to avoid influence from reference tissue regions that may have abnormally low radiopharmaceutical uptake. Although the automated segmentation techniques described and referenced in this application can provide accurate contouring (eg, identification) of regions of images corresponding to specific tissue regions, abnormally low levels of the liver should be excluded from reference value calculations. Absorptive regions are often present. For example, a liver reference value (eg, liver SUV value) prevents effects from areas of the liver with very low tracer (radiopharmaceutical) activity, which may result, for example, from tumors lacking tracer uptake. can be calculated to In a particular embodiment, calculating a reference value for the liver to account for the effect of abnormally low absorption in the reference tissue regions involves a histogram of the intensities of voxels corresponding to the liver (eg, voxels within an identified liver reference volume). Analyze and remove (e.g., exclude) intensities if those intensities form a second histogram peak of lower intensities, so that only intensities related to the higher intensity value peak are included.

[0226] 예를 들어, 간의 경우, 참조 SUV는 간 참조 볼륨 내의 복셀들의 SUV의 히스토그램(예를 들어, 간 분할 마스크에 의해 식별됨, 예를 들어, 상기에서 기재된 침식 절차에 따름)에 맞춰진 2 성분 가우시안 혼합 모델에서 주요 성분(예를 들어, "모드"라고도 언급되며, 예를 들어, "주요 모드"라고도 언급됨)의 평균 SUV로 계산될 수 있다. 특정 실시 형태에서, 부 성분이 주요 성분보다 더 큰 평균 SUV를 갖고 부 성분이 적어도 0.33의 가중치를 갖는 경우, 오류가 발생하고 간에 대한 참조 값이 결정되지 않는다. 특정 실시 형태에서, 부 성분이 주요 피크보다 더 큰 평균을 갖는 경우, 간 참조 마스크는 그대로 유지된다. 그렇지 않으면 분리 SUV 임계값이 계산된다. 특정 실시 형태에서, 분리 임계값은 임계값에 있거나 더 큰 SUV에 대한 주요 성분에 속할 확률이 분리 임계값에 있거나 더 작은 SUV 대한 부 성분에 속할 확률과 동일하도록 정의된다. 다음에, 참조 간 마스크는 SUV가 분리 임계값보다 작은 복셀들을 제거하여 정제된다. 다음에, 간 참조 값은 예를 들어, 대동맥 참조에 대해 본 출원에서 기재된 바와 같이 간 참조 마스크에 의해 식별된 복셀들의 강도(예를 들어, SUV) 값들의 치수로서 결정될 수 있다. 도 2a는 예시적인 간 참조 계산을 예시하고, 적색으로 도시된 가우시안 혼합 성분들 (주요 성분(244) 및 부 성분(246)) 및 녹색으로 표시된 분리 임계값(242)을 갖는 간 SUV 값의 히스토그램을 도시한다. [0226] For example, in the case of the liver, the reference SUV is 2 fitted to a histogram of the SUVs of the voxels within the liver reference volume (e.g. identified by a liver segmentation mask, e.g. according to the erosion procedure described above). It can be calculated as the average SUV of principal components (eg, also referred to as "modes", eg, "major modes") in a component Gaussian mixture model. In a particular embodiment, if a subcomponent has a larger average SUV than the main component and the subcomponent has a weight of at least 0.33, an error is generated and no reference value for the liver is determined. In certain embodiments, if the subcomponent has a larger average than the main peak, the inter-reference mask is left untouched. Otherwise, a separate SUV threshold is calculated. In a particular embodiment, the segregation threshold is defined such that the probability of belonging to a major component for a larger SUV at the threshold is equal to the probability of belonging to a minor component for a smaller SUV at the segregation threshold. Next, the inter-reference mask is refined by removing voxels whose SUVs are smaller than the separation threshold. A liver reference value may then be determined as a dimension of the intensity (eg SUV) values of the voxels identified by the liver reference mask, eg as described herein for the aorta reference. 2A illustrates an example liver reference calculation, a histogram of liver SUV values with Gaussian mixture components (major component 244 and minor component 246) shown in red and a separation threshold 242 shown in green. shows

[0227] 도 2b는 참조 값 계산으로부터 배제된 더 낮은 값 피크에 대응하는 복셀들을 갖고, 간 참조 값을 계산하기 위해 사용된 간 볼륨의 결과 부분을 도시한다. 더 낮은 값 피크에 대응하는 복셀들(예를 들어, 분리 임계값(242) 미만의 강도들을 가짐)이 배제된 상태로 정제된 간 볼륨 마스크의 윤곽(252a 및 252b)이 도 2b의 각각의 영상에 도시되어 있다. 도면에서 확인한 바와 같이, 간의 하부를 향한 더 낮은 강도 영역들 뿐만 아니라 간 가장자리에 가까운 영역들은 배제되었다. [0227] Figure 2B shows the resulting portion of the liver volume used to calculate the liver reference value, with voxels corresponding to the lower value peak excluded from the reference value calculation. Contours 252a and 252b of the refined liver volume mask, with voxels corresponding to lower value peaks (e.g., having intensities below the separation threshold 242) excluded, are shown in the respective images of FIG. 2B. is shown in As confirmed in the figure, lower intensity regions towards the lower part of the liver as well as regions closer to the liver edge were excluded.

[0228] 도 2c는 간 참조 볼륨 계산에 대해 본 출원에서 기재된 바와 같이 낮은 추적자 흡수를 갖는 영역들로부터의 영향을 방지하기 위해 다중 성분 혼합 모델이 사용되는 예시적인 과정(200)을 도시한다. 간에 대해 본 출원에서 기재되고 도 2c에 도시된 과정은 또한 대동맥(예를 들어, 흉부 대동맥 부분 또는 복부 대동맥 부분과 같은 대동맥 부분), 이하선, 둔근과 같은 관심의 다른 장기들 및 조직 영역들의 강도 치수들의 계산에 유사하게 적용될 수 있다. 본 출원에서 기재되고 도 2c에서 확인된 바와 같이, 제1 단계에서 3D 기능적 영상(202)이 수신되고, 특정 참조 조직 영역(예를 들어, 간, 대동맥, 이하선)에 대응하는 참조 볼륨이 그 내부에서 식별된다(208). 다음에, 다중 성분 혼합 모델(210)은 참조 볼륨(예를 들어, 내부)의 분포 강도들(예를 들어, 강도들의 히스토그램)에 맞춰지고 혼합 모델의 주요 모드가 식별된다(212). 주요 모드와 관련된 강도들의 치수(예를 들어, 다른 부 모드들과 관련된 강도들로부터의 기여는 배제)가 결정되고(214) 식별된 참조 볼륨에 대한 참조 강도 값으로서 사용된다. 특정 실시 형태에서, 본 출원에서 기재된 바와 같이, 주요 모드와 관련된 강도들의 치수는 분리 임계값을 식별함으로써 결정되어, 분리 임계값 초과의 강도들은 주요 모드와 관련된 것으로 결정되고, 그 미만의 강도들은 부 모드와 관련된 것으로 결정된다. 참조 강도 값을 결정하기 위해 분리 임계값 초과의 강도들을 갖는 복셀들을 사용하는 반면, 분리 임계값 미만의 강도를 갖는 복셀들은 참조 강도값 계산에서 배제한다. [0228] FIG. 2C shows an exemplary process 200 in which a multi-component mixed model is used to avoid effects from regions with low tracer uptake as described herein for liver reference volume calculation. The procedure described herein for the liver and shown in FIG. 2C also measures the strength of other organs and tissue regions of interest, such as the aorta (eg, an aortic portion such as a thoracic aortic portion or an abdominal aortic portion), parotid gland, gluteus muscle. can be similarly applied to the calculation of As described in this application and identified in FIG. 2C , in a first step a 3D functional image 202 is received and a reference volume corresponding to a particular reference tissue region (eg liver, aorta, parotid gland) is placed inside it. is identified in (208). Next, the multi-component mixing model 210 is fitted to the distribution intensities (eg, a histogram of intensities) of the reference volume (eg, interior) and the dominant modes of the mixing model are identified (212). A dimension of the intensities associated with the major mode (eg, excluding contributions from intensities associated with other minor modes) is determined 214 and used as a reference intensity value for the identified reference volume. In certain embodiments, as described herein, the dimensions of the intensities associated with the dominant mode are determined by identifying a segregation threshold, such that intensities above the segregation threshold are determined to be associated with the dominant mode, and intensities below the segregation threshold are determined to be associated with the dominant mode. It is determined to be related to the mode. Voxels with intensities above the separation threshold are used to determine the reference intensity value, while voxels with intensities below the separation threshold are excluded from the reference intensity value calculation.

[0229] 특정 실시 형태에서, 핫스팟들이 검출되고(216) 이러한 방식으로 결정된 참조 강도값이 예를 들어, 2019년 1월 7일에 출원된 PCT/US2019/012486 및 2020년 1월 6일에 출원된 PCT/EP2020/050132에 기재된 것과 같은 접근법들을 통해 검출된 핫스팟들(218)에 대한 병변 지수값들을 결정하는 데 사용될 수 있고, 이들 각각의 내용은 그 전문이 본 출원에서 참조로 포함된다. [0229] In a particular embodiment, hotspots are detected 216 and the reference intensity value determined in this way is determined by, for example, PCT/US2019/012486 filed on Jan. 7, 2019 and filed on Jan. 6, 2020. can be used to determine lesion index values for hotspots 218 detected through approaches such as those described in published PCT/EP2020/050132, the contents of each of which are incorporated herein by reference in their entirety.

iv. 고흡수 장기들의 정상적인 흡수와 관련된 강도 블리드의 억제iv. Suppression of intensity bleed associated with normal absorption in highly absorbing organs

[0230] 특정 실시 형태에서, 기능적 영상의 복셀들의 강도들은 정상적인 상황 하에서 고흡수가 발생하는 특정 장기와 관련된 강도 블리드를 억제/보정하기 위해 조정된다. 이러한 접근법은 예를 들어, 신장, 간 및 비뇨기 방광과 같은 장기들에 사용될 수 있다. 특정 실시 형태에서, 여러 장기들과 관련된 강도 블리드에 대한 보정은 단계별 방식으로 한 번에 하나의 장기에서 수행된다. 예를 들어, 특정 실시 형태에서, 첫 번째 신장 흡수가 억제되고, 그 다음에 간 흡수, 이후 비뇨기 방광 흡수가 억제된다. 따라서 간 억제에 대한 입력은 신장 흡수가 보정된 영상이다(예를 들어, 방광 억제에 대한 입력은 신장 및 간 흡수가 보정된 영상이다). [0230] In a specific embodiment, the intensities of the voxels of the functional image are adjusted to suppress/correct intensity bleed associated with a specific organ where hyperabsorption occurs under normal circumstances. This approach can be used for organs such as kidney, liver and urinary bladder, for example. In certain embodiments, correction for intensity bleed associated with multiple organs is performed one organ at a time in a step-by-step fashion. For example, in certain embodiments, first renal absorption is inhibited, then hepatic absorption, and then urinary bladder absorption is inhibited. Thus, the input for liver suppression is an image corrected for renal uptake (eg, the input for bladder suppression is an image corrected for renal and hepatic uptake).

[0231] 도 3은 고흡수 조직 영역으로부터의 강도 블리드를 보정하기 위한 예시적인 과정(300)을 도시한다. 도 3에서 확인할 수 있듯이, 3D 기능적 영상이 수신되고(304) 고흡수 조직 영역에 대응하는 고강도 볼륨이 식별된다(306). 다른 단계에서, 고강도 볼륨 외부의 억제 볼륨이 식별된다(308). 특정 실시 형태에서, 본 출원에서 기재된 바와 같이, 억제 볼륨은 고강도 볼륨의 외부이지만 그로부터 미리 결정된 거리 내에 있는 영역을 둘러싸는 볼륨으로서 결정될 수 있다. 다른 단계에서, 예를 들어, 고강도 볼륨 외부의 강도들(예를 들어, 억제 볼륨 내)에 기초하여 예를 들어, 보간법(예를 들어, 콘볼루션(convolution)을 이용함)을 통해 결정된 고강도 볼륨 강도들 내에 복셀들을 할당함으로써 배경 영상이 결정된다(310). 다른 단계에서, 추정 영상은 3D 기능적 영상으로부터 배경 영상을 차감하여(예를 들어, 복셀별 강도 감산을 통해) 결정된다(312). 다른 단계에서, 억제 맵이 결정된다(314). 본 출원에서 기재된 바와 같이, 특정 실시 형태에서, 억제 맵은 고강도 볼륨 내의 복셀들의 강도값을 고강도 볼륨 외부의 위치들로 외삽함으로써 추정 영상을 사용하여 결정된다. 특정 실시 형태에서, 강도들은 억제 볼륨 내의 위치로만 외삽되고, 억제 볼륨 외부의 복셀들의 강도들은 0 으로 설정된다. 그 다음에, 억제 맵은 예를 들어, 3D 기능적 영상으로부터 억제 맵을 차감함으로써(예를 들어, 복셀별 강도 감산을 수행하여) 3D 기능적 영상(316)의 강도들을 조정하는 데 사용된다. [0231] Figure 3 shows an exemplary process 300 for correcting intensity bleed from a region of high absorption tissue. As can be seen in FIG. 3, a 3D functional image is received (304) and a high-intensity volume corresponding to the highly absorbent tissue region is identified (306). In another step, a containment volume outside the high-intensity volume is identified (308). In certain embodiments, as described herein, the containment volume may be determined as a volume that encloses an area outside of, but within a predetermined distance from, the high-intensity volume. In another step, the high-intensity volume intensity determined, eg, through interpolation (eg, using convolution), eg, based on intensities outside the high-intensity volume (eg, within the containment volume). A background image is determined by allocating voxels within the (310). In another step, an estimated image is determined by subtracting the background image from the 3D functional image (eg, via voxel-by-voxel intensity subtraction) (312). In another step, a suppression map is determined (314). As described herein, in certain embodiments, a suppression map is determined using an estimated image by extrapolating the intensity values of voxels within the high intensity volume to locations outside the high intensity volume. In a particular embodiment, the intensities are extrapolated only to locations within the suppression volume, and the intensities of voxels outside the suppression volume are set to zero. The suppression map is then used to adjust the intensities of the 3D functional image 316, for example by subtracting the suppression map from the 3D functional image (eg, performing voxel-by-voxel intensity subtraction).

[0232] PET/CT 합성 영상에 대한 특정 장기 (특정 실시 형태에서, 신장들이 함께 치료됨)로부터 강도 블리드의 억제/보정을 위한 예시적인 접근법은 다음과 같다: [0232] An exemplary approach for suppression/correction of intensity bleed from a specific organ (in certain embodiments, kidneys are treated together) on a PET/CT composite image is as follows:

1. 투영된 CT 장기 마스크 분할은 PET/CT 오정렬을 처리하기 위해 PET 영상의 고강도 영역들로 조정된다. PET 조정된 장기 마스크가 10 픽셀(pixel)들 미만인 경우, 이 장기에 대한 억제가 이루어지지 않는다.One. The projected CT organ mask segmentation is adjusted to the high-intensity regions of the PET image to account for PET/CT misalignment. If the PET calibrated organ mask is less than 10 pixels, no suppression is made for this organ.

2. "배경 영상"이 계산되어 모든 높은 흡수를 PET 조정된 장기 마스크로부터의 감쇠 거리 내에서 보간된 배경 흡수로 대체한다. 이는 가우시안 커널스(Gaussian kernels)와 함께 콘볼루션을 사용하여 수행된다.2. A “background image” is calculated to replace any high absorption with an interpolated background absorption within the attenuation distance from the PET-adjusted organ mask. This is done using convolution with Gaussian kernels.

3. 억제를 추정할 때 고려해야 하는 강도들은 입력 PET와 배경 영상 사이의 차이로 계산된다. 이러한 "추정 영상"은 주어진 장기 내부에서 높은 강도를 가지며 주어진 장기로부터 감쇠 거리보다 먼 위치들에서는 강도가 0 이다.3. Intensities to be considered when estimating suppression are calculated as the difference between the input PET and the background image. This "estimation image" has high intensity inside a given organ and zero intensity at locations farther than the attenuation distance from the given organ.

4. 지수 모델을 사용하여 추정 영상으로부터 억제 맵을 추정한다. 억제 맵은 PET 조정된 장기 분할의 감쇠 거리 내의 영역에서만 0 이 아니다.4. A suppression map is estimated from the estimated image using an exponential model. The suppression map is non-zero only in the region within the attenuation distance of the PET-adjusted organ segmentation.

5. 억제 맵은 원본 PET 영상으로부터 차감된다.5. A suppression map is subtracted from the original PET image.

[0233] 상기에서 기재된 바와 같이, 이들 5 개의 단계들은 여러 장기들의 세트 각각에 대해 순차적 방식으로 반복될 수 있다. [0233] As described above, these five steps may be repeated in a sequential manner for each of several sets of organs.

v. 검출된 병변들의 해부학적 라벨링v. Anatomical labeling of detected lesions

[0234] 특정 실시 형태에서, 검출된 핫스팟들은 이들이 나타내는 병변들이 위치하는 것으로 결정되는 특정 해부학적 영역들 및/또는 영역들의 그룹들을 식별하는 해부학적 라벨들에(예를 들어, 자동으로) 할당된다. 예를 들어, 도 4의 예시적인 과정(400)에서 도시된 바와 같이. 3D 기능적 영상이 수신(404)될 수 있고, 예를 들어, 본 출원에서 기재된 접근법들 중 임의의 접근법을 통해 핫스팟들(406)을 자동으로 검출하는 데 사용된다. 일단 핫스팟들이 검출되면, 각각의 핫스팟에 대한 해부학적 분류들이 자동으로 결정될 수 있고(408), 각각의 핫스팟은 결정된 해부학적 분류로 라벨링된다. 자동화된 해부학적 라벨링은 예를 들어, 특정 조직 영역들 및/또는 해부학적 영상에 대응하는 영상 영역들을 식별하는 3D 분할 맵에 의해 제공된 해부학적 정보와 함께 검출된 핫스팟들의 자동으로 결정된 위치들을 사용하여 수행될 수 있다. 각각의 핫스팟들 및 해부학적 라벨링은 추가 처리(410)를 위해 저장 및/또는 제공될 수 있다. [0234] In a particular embodiment, the detected hotspots are assigned (eg, automatically) to anatomical labels identifying specific anatomical regions and/or groups of regions in which the lesions they represent are determined to be located. . For example, as shown in exemplary process 400 of FIG. 4 . The 3D functional image may be received 404 and used to automatically detect hotspots 406 via, for example, any of the approaches described herein. Once hotspots are detected, anatomical classifications for each hotspot can be automatically determined 408 and each hotspot is labeled with the determined anatomical classification. Automated anatomical labeling uses automatically determined locations of detected hotspots together with anatomical information provided, for example, by a 3D segmentation map that identifies specific tissue regions and/or image regions corresponding to an anatomical image. can be performed Respective hotspots and anatomical labeling may be stored and/or presented for further processing 410 .

[0235] 예를 들어, 검출된 핫스팟들은 다음과 같이 5 개의 클래스들 중 하나로 자동으로 분류될 수 있다. [0235] For example, detected hotspots may be automatically classified into one of five classes as follows.

Figure pct00001
T (전립선 종양)
Figure pct00001
T (prostate tumor)

Figure pct00002
N (골반 림프절)
Figure pct00002
N (pelvic lymph nodes)

Figure pct00003
Ma (비골반 림프)
Figure pct00003
Ma (non-pelvic lymph)

Figure pct00004
Mb (골 전이)
Figure pct00004
Mb (bone metastasis)

Figure pct00005
Mc (전립선 또는 림프절 내에 위치하지 않는 연조직 전이)
Figure pct00005
Mc (soft tissue metastases not located within the prostate or lymph nodes)

[0236] 하기의 표 1에는 5 개의 클래스들 각각과 관련된 조직 영역들이 나열되어 있다. 따라서 특정 클래스와 관련된 조직 영역들 중 임의의 조직 영역 내의 위치들에 대응하는 핫스팟들은 그 클래스에 자동으로 할당될 수 있다. [0236] Table 1 below lists tissue regions associated with each of the five classes. Accordingly, hotspots corresponding to locations within any of the tissue areas associated with a particular class may be automatically assigned to that class.

[표 1] [ Table 1 ]

병변 해부학적 라벨링 접근법의 5 개 클래스들에 대응하는 조직 영역들의 목록List of tissue regions corresponding to the 5 classes of the lesion anatomical labeling approach

Figure pct00006
Figure pct00006

vi. 그래픽 사용자 인터페이스와 품질 관리 및 보고vi. Graphical user interface and quality control and reporting

[0237] 특정 실시 형태에서, 계산된 병변 지수값들 및 해부학적 라벨링과 같은 검출된 핫스팟들 및 관련된 정보는 내과 의사, 방사선과 의사, 기술자 등과 같은 의료 전문가에 의한 검토를 허용하기 위해 대화형 그래픽 사용자 인터페이스(GUI)로 표시된다. 따라서 전문 의료진들은 GUI를 사용하여 검출된 핫스팟들의 정확성 뿐만 아니라 대응하는 지수값들 및/또는 해부학적 라벨링을 검토하고 확인할 수 있다. 특정 실시 형태에서, GUI는 또한 사용자가 의료 영상 내의 추가 핫스팟들을 식별하고 분할(예를 들어, 수동으로)할 수 있게 하여 의료 전문가가 자동화된 검출 프로세스가 놓쳤을 수 있다고 믿는 추가 잠재적 병변들을 식별할 수 있게 한다. 일단 식별되면, 병변 지수값들 및/또는 해부학적 라벨링이 수동으로 식별되고 분할된 병변들에 대해 결정될 수도 있다. 예를 들어, 도 5b에 나타난 바와 같이, 사용자는(예를 들어, 자동으로 결정된) miTNM 분류와 같은 해부학적 라벨링 뿐만 아니라 각각의 핫스팟에 대해 결정된 위치들을 검토할 수 있다. miTNM 분류 방식은 예를 들어, 문헌 [Eiber et al., "Prostate Cancer Molecular Imaging Standardized Evaluation (PROMISE): Proposed miTNM Classification for the Interpretation of PSMA―Ligand PET/CT," J. Nucl. Med., vol. 59, pg. 469―78 (2018)]에서 추가적인 상세한 설명으로 기재되고, 그 내용은 그 전문이 본 출원에서 참고로 포함된다. 일단 사용자가 검출된 핫스팟들의 세트와 그로부터 계산된 정보에 만족하면 승인을 확인할 수 있고 환자와 결과들 및 진단을 논의하고 예후 및 치료 옵션들을 평가하는 데 검토 및 사용될 수 있는 최종 서명된 보고서를 생성할 수 있다. [0237] In a particular embodiment, the detected hotspots and related information, such as calculated lesion index values and anatomical labeling, are interactive graphics user to allow review by a medical professional such as a physician, radiologist, technologist, etc. It is displayed as an interface (GUI). Therefore, medical professionals can use the GUI to review and verify the accuracy of the detected hotspots, as well as the corresponding index values and/or anatomical labeling. In certain embodiments, the GUI may also allow a user to identify and segment (eg, manually) additional hotspots within the medical image to identify additional potential lesions that the medical professional believes the automated detection process may have missed. let it be Once identified, lesion index values and/or anatomical labeling may be determined for manually identified and segmented lesions. For example, as shown in FIG. 5B , the user can review the determined locations for each hotspot as well as the anatomical labeling such as (eg, automatically determined) miTNM classification. A miTNM classification scheme is described, eg, in Eiber et al., "Prostate Cancer Molecular Imaging Standardized Evaluation (PROMISE): Proposed miTNM Classification for the Interpretation of PSMA—Ligand PET/CT," J. Nucl. Med., vol. 59, pg. 469-78 (2018)] for further details, the contents of which are incorporated herein by reference in their entirety. Once the user is satisfied with the set of detected hotspots and the information computed therefrom, they can confirm approval and generate a final signed report that can be reviewed and used to discuss the results and diagnosis with the patient and evaluate prognosis and treatment options. can

[0238] 예를 들어, 도 5a에서 확인할 수 있듯이, 대화형 핫스팟 검토 및 검출을 위한 예시적인 과정(500)에서, 3D 기능적 영상이 수신되고(504) 핫스팟들이 예를 들어, 본 출원에서 기재된 자동화된 검출 접근법들 중 임의의 검출 접근법을 사용하여 자동으로 검출된다(506). 자동으로 검출된 핫스팟들의 세트는 사용자 검토를 위해 대화형 GUI(508) 내에서 그래픽으로 표시 및 렌더링된다. 사용자는 최종 핫스팟 세트(510)에 포함하기 위해 자동으로 결정된 핫스팟들의 적어도 일부(예를 들어, 최대 전체)를 선택할 수 있고, 이는 예를 들어, 환자에 대한 위험 지수값들을 결정하기 위해 추가적인 계산들(512)에 사용될 수 있다. [0238] In an exemplary process 500 for interactive hotspot review and detection, eg, as can be seen in FIG. 5A, a 3D functional image is received 504 and hotspots are automated, eg, as described herein. automatically detected using any of the detected detection approaches (506). A set of automatically detected hotspots are graphically displayed and rendered within the interactive GUI 508 for user review. The user may select at least some (eg, at most all) of the automatically determined hotspots for inclusion in the final set of hotspots 510, which may require additional calculations to determine risk index values for the patient, for example. (512).

[0239] 도 5b는 품질 관리 및 보고를 위해 검출된 병변들 및 병변 지수값들의 사용자 검토를 위한 예시적인 작업 흐름(520)을 도시한다. 모범적 작업 흐름은 본 출원에서 기재된 바와 같이 병변 지수값들의 계산에 사용되는 간 및 대동맥 분할 뿐만 아니라 분할된 병변들의 사용자 검토를 가능하게 한다. 예를 들어, 제1 단계에서, 사용자는 품질(522) 및 간 및 혈액 풀(예를 들어, 대동맥) 참조 값들(524)을 획득하기 위해 사용되는 자동화된 분할의 정확도에 대해 영상(예를 들어, CT 영상)을 검토한다. 도 6a 및 6b에서 확인할 수 있듯이, GUI를 통해 사용자는 간(도 6a에서 보라색(602))의 자동화된 분할이 건강한 간 조직 내에 있고 혈액 풀(도 6b에서 연어색으로 도시된 대동맥 부분(604))의 자동화된 분할이 대동맥 및 좌심실 내에 있다는 것을 보증하기 위해 영상들을 평가하고 분할을 중첩 가능하게 한다. [0239] FIG. 5B shows an exemplary workflow 520 for user review of detected lesions and lesion index values for quality control and reporting. An exemplary workflow allows user review of segmented lesions as well as liver and aortic segmentation used for calculation of lesion index values as described herein. For example, in a first step, the user determines the quality 522 and the accuracy of the automated segmentation used to obtain the liver and blood pool (eg, aorta) reference values 524 (eg, the image (eg, aorta)). , CT images). As can be seen in FIGS. 6A and 6B , the GUI allows the user to ensure that the automated segmentation of the liver (purple 602 in FIG. 6A ) is within healthy liver tissue and the blood pool (aortic portion 604 shown in salmon color in FIG. 6B ). ) evaluates the images to ensure that the automated segmentation of ) is within the aorta and left ventricle and enables overlapping segmentation.

[0240] 다른 단계(526)에서, 사용자는 생성된 보고서에 포함시키기 위해, 예를 들어, 병변들에 대응하는 핫스팟들의 최종 세트를 생성하도록 자동으로 검출된 핫스팟들을 확인 및/또는 추가 핫스팟들을 식별한다. 도 6c에서 확인할 수 있듯이, 사용자는(예를 들어, PET 및/또는 CT 영상 상의 중첩 및/또는 표지된 영역으로서) GUI 내에 표시된 핫스팟의 그래픽 표현 위로 마우스 포인터를 이동시킴으로써 자동으로 식별된 핫스팟을 선택할 수 있다. 핫스팟 선택을 용이하게 하기 위해, 선택된 특정 핫스팟은 컬러 변경(예를 들어, 녹색으로 변함)을 통해 사용자에게 표시될 수 있다. 그 다음에, 사용자는 핫스팟을 클릭하여 그것을 선택할 수 있으며 이는 또 다른 컬러 변경을 통해 사용자에게 시각적으로 확인될 수 있다. 예를 들어, 도 6c에서 확인할 수 있듯이, 선택 시 핫스팟이 분홍색으로 변한다. 사용자가 선택하면 병변 지수 및/또는 해부학적 라벨링과 같은 정량적으로 결정된 값들이 사용자에게 표시될 수 있어 이들이 자동으로 결정된 값들(528)을 검증하게 할 수 있다. [0240] In another step 526, the user confirms the automatically detected hotspots and/or identifies additional hotspots to generate, eg, a final set of hotspots corresponding to the lesions, for inclusion in the generated report. do. As can be seen in FIG. 6C, the user can select an automatically identified hotspot by moving the mouse pointer over a graphical representation of the hotspot displayed within the GUI (eg, as an overlapping and/or labeled area on the PET and/or CT image). can To facilitate hotspot selection, the particular selected hotspot may be displayed to the user through a color change (eg, turning green). The user may then click on the hotspot to select it, which may be visually confirmed to the user through another color change. For example, as can be seen in FIG. 6C , the hotspot turns pink when selected. Upon user selection, quantitatively determined values such as lesion index and/or anatomical labeling may be displayed to the user to allow them to automatically verify the determined values 528 .

[0241] 특정 실시 형태에서, GUI는 사용자가 (자동으로) 미리 식별된 핫스팟들의 세트로부터 핫스팟들을 선택하여 핫스팟들이 사실상 병변들(526a)을 나타내는지 확인하고 또한 자동으로 검출되지 않은 병변들에 대응하는 추가의 핫스팟들(562b)을 식별할 수 있게 한다. [0241] In a particular embodiment, the GUI allows the user to (automatically) select hotspots from a set of pre-identified hotspots to verify that the hotspots in fact represent lesions 526a and also automatically correspond to lesions not detected. to identify additional hotspots 562b.

[0242] 도 6d 및 도 6e에서 확인할 수 있듯이, 사용자가 GUI 도구를 사용하여 영상들의 슬라이스들(예를 들어, PET 영상들 및/또는 CT 영상들; 예를 들어, CT 영상에 중첩된 PET 영상)을 작성하여 수동으로 식별된 새로운 병변에 대응하는 영역들을 표시할 수 있다. 병변 지수 및/또는 해부학적 라벨링과 같은 정량적 정보는 수동으로 식별된 병변에 대해 자동으로 결정되거나 사용자가 수동으로 입력할 수 있다. [0242] As can be seen in FIGS. 6D and 6E, the user uses a GUI tool to slice slices of images (eg, PET images and/or CT images; for example, PET images superimposed on CT images). ) to mark the regions corresponding to the manually identified new lesions. Quantitative information such as lesion index and/or anatomical labeling can be automatically determined for manually identified lesions or manually entered by the user.

[0243] 다른 단계에서, 예를 들어, 일단 사용자가 모든 병변들을 선택 및/또는 수동으로 식별하면, GUI는 도 7에서 확인할 수 있듯이 사용자가 검토할 품질 관리 점검 목록(530)을 표시한다. 사용자가 점검 목록을 검토하고 완료하면, "보고서 생성"을 클릭하여 서명하고 최종 보고서(532)를 생성할 수 있다. 생성된 보고서의 일예는 도 8에 도시되어 있다. [0243] At another step, for example, once the user has selected and/or manually identified all lesions, the GUI displays a quality control checklist 530 for the user to review, as seen in FIG. 7 . Once the user has reviewed and completed the checklist, they can click "Generate Report" to sign and generate a final report 532 . An example of the generated report is shown in FIG. 8 .

C. 병변 분할을 위한 예시적인 기계 학습 네트워크 아키텍처들C. Exemplary Machine Learning Network Architectures for Lesion Segmentation

i. 기계 학습 모듈 입력 및 아키텍처i. Machine learning module input and architecture

[0244] 일부 실시 형태에서 예시적인 핫스팟 검출 및 분할 과정(900)을 도시하는 도 9를 참조하면, 핫스팟 검출 및/또는 분할은 분할은 기능적(902) 및 해부학적(904) 영상을 입력으로서 수신할 뿐만 아니라, 예를 들어, 연조직 및 뼈와 같은 다양한 조직 영역들의 분할 뿐만 아니라 본 출원에서 기재된 바와 같은 다양한 장기들의 분할을 제공하는 맵(906)을 입력으로서 수신하는 기계 학습 모듈(908)에 의해 수행된다. [0244] Referring to Figure 9, which illustrates an exemplary hotspot detection and segmentation process 900 in some embodiments, the hotspot detection and/or segmentation receives functional 902 and anatomical 904 images as input. by the machine learning module 908 receiving as input a map 906 that provides segmentation of various organs as described in this application as well as segmentation of various tissue regions such as, for example, soft tissue and bone. is carried out

[0245] 기능적 영상(902)은 PET 영상일 수 있다. 기능적 영상(902)의 복셀들의 강도들은 본 출원에서 기재된 바와 같이 SUV 값들을 나타내도록 척도화될 수 있다. 본 출원에서 기재된 바와 같은 다른 기능적 영상들도 특정 실시 형태에서 사용될 수 있다. 해부학적 영상(904)은 CT 영상일 수 있다. 특정 실시 형태에서, CT 영상(904)의 복셀 강도들은 하운스 필드(Hounsfield) 단위를 나타내도록 척도화된다. 특정 실시 형태에서, 본 출원에서 기재된 바와 같은 다른 해부학적 영상들이 사용될 수 있다. [0245] The functional image 902 may be a PET image. The intensities of the voxels of functional image 902 can be scaled to represent SUV values as described herein. Other functional images as described herein may also be used in certain embodiments. The anatomical image 904 may be a CT image. In a particular embodiment, the voxel intensities of the CT image 904 are scaled to represent Hounsfield units. In certain embodiments, other anatomical images as described herein may be used.

[0246] 일부 실시 형태에서, 기계 학습 모듈(908)은 U―net 아키텍처를 사용하는 기계 학습 알고리즘을 실시한다. 일부 실시 형태에서, 기계 학습 모듈(908)은 특징 피라미드 네트워크(feature pyramid network)(FPN) 아키텍처를 사용하는 기계 학습 알고리즘을 실시한다. 일부 실시 형태에서, 다양한 다른 기계 학습 아키텍처들이 병변들을 검출 및/또는 분할하기 위해 사용될 수 있다. 특정 실시 형태에서, 본 출원에서 기재된 바와 같은 기계 학습 모듈들은 의미론적 분할을 수행한다. 특정 실시 형태에서, 본 출원에서 기재된 바와 같은 기계 학습 모듈들은 예를 들어, 하나의 병변을 다른 병변과 구별하는 인스턴스(instance) 분할을 수행한다. [0246] In some embodiments, machine learning module 908 implements machine learning algorithms using the U-net architecture. In some embodiments, machine learning module 908 implements a machine learning algorithm that uses a feature pyramid network (FPN) architecture. In some embodiments, various other machine learning architectures may be used to detect and/or segment lesions. In certain embodiments, machine learning modules as described herein perform semantic segmentation. In certain embodiments, machine learning modules as described herein perform instance segmentation to distinguish one lesion from another, for example.

[0247] 일부 실시 형태에서, 기계 학습 모듈에 의해 입력으로서 수신된 3 차원 분할 맵(906)은 특정 장기들(예를 들어, 전립선, 간, 대동맥, 방광, 본 출원에서 기재된 다양한 다른 장기들 등) 및/또는 뼈와 같은 관심의 특정 조직 영역들에 대응하는 것으로서 수신된 3D 해부학적 및/또는 기능적 영상들에서의 다양한 볼륨들(예를 들어, 복수의 3D 분할 마스크들을 통해)을 식별한다. 추가로 또는 대안적으로, 기계 학습 모듈은 조직 영역들의 그룹핑들을 식별하는 3D 분할 맵(906)을 수신할 수 있다. 예를 들어, 일부 실시 형태에서, 연조직 영역들, 뼈, 그 다음에 배경 영역들을 식별하는 3D 분할 맵이 사용될 수 있다. 일부 실시 형태에서, 3D 분할 맵은 높은 수준의 방사성 의약품 흡수가 발생하는 고흡수 장기들의 그룹을 식별할 수 있다. 고흡수 장기들의 그룹은 예를 들어, 간, 비장, 신장 및 비뇨기 방광을 포함할 수 있다. 일부 실시 형태에서, 3D 분할 맵은 대동맥(예를 들어, 저흡수 연조직 장기)과 같은 하나 이상의 다른 장기들과 함께 고흡수 장기들의 그룹을 식별한다. 조직 영역들의 다른 그룹핑들도 사용될 수 있다. [0247] In some embodiments, the three-dimensional segmentation map 906 received as input by the machine learning module is specific to certain organs (e.g., prostate, liver, aorta, bladder, various other organs described herein, etc.) ) and/or identify various volumes (eg, via multiple 3D segmentation masks) in the received 3D anatomical and/or functional images as corresponding to specific tissue regions of interest, such as bone. Additionally or alternatively, the machine learning module may receive a 3D segmentation map 906 identifying groupings of tissue regions. For example, in some embodiments, a 3D segmentation map may be used that identifies soft tissue regions, bone, then background regions. In some embodiments, the 3D segmentation map can identify groups of highly absorbing organs where high levels of radiopharmaceutical absorption occur. A group of highly absorbing organs may include, for example, the liver, spleen, kidney and urinary bladder. In some embodiments, the 3D segmentation map identifies a group of high absorption organs along with one or more other organs, such as the aorta (eg, a low absorption soft tissue organ). Other groupings of tissue areas may also be used.

[0248] 기계 학습 모듈(908)에 입력되는 기능적 영상, 해부학적 영상 및 분할 맵은 다양한 크기들 및 차원을 가질 수 있다. 예를 들어, 특정 실시 형태에서, 기능적 영상, 해부학적 영상 및 분할 맵 각각은 3 차원 영상들(예를 들어, 3 차원 매트릭스로 표현됨)의 패치들이다. 일부 실시 형태에서, 패치들 각각은 동일한 크기 ― 예를 들어, 각각의 입력은 복셀들의 [32 x 32 x 32] 또는 [64 x 64 x 64] 패치임 ―를 갖는다. [0248] The functional image, anatomical image, and segmentation map input to the machine learning module 908 may have various sizes and dimensions. For example, in a specific embodiment, each of the functional image, anatomical image, and segmentation map are patches of three-dimensional images (eg, represented by a three-dimensional matrix). In some embodiments, each of the patches has the same size - eg, each input is a [32 x 32 x 32] or [64 x 64 x 64] patch of voxels.

[0249] 기계 학습 모듈(908)은 핫스팟들을 분할하고 하나 이상의 핫스팟 볼륨들을 식별하는 3D 핫스팟 맵(910)을 생성한다. 예를 들어, 3D 핫스팟 맵(910)은 하나 이상의 기능적 영상, 해부학적 영상 또는 분할 맵 입력과 동일한 크기를 갖고 하나 이상의 핫스팟 볼륨들을 식별하는 하나 이상의 마스크들을 포함할 수 있다. 이러한 방식으로, 3D 핫스팟 맵(910)은 기능적 영상, 해부학적 영상, 또는 핫스팟들에 대응하는 분할 맵 내의 볼륨들 및 그에 따른 물리적 병변들을 식별하는 데 사용될 수 있다. [0249] The machine learning module 908 segments the hotspots and creates a 3D hotspot map 910 identifying one or more hotspot volumes. For example, the 3D hotspot map 910 may include one or more masks that identify one or more hotspot volumes and have the same dimensions as one or more functional image, anatomical image, or segmentation map inputs. In this way, the 3D hotspot map 910 can be used to identify functional images, anatomical images, or volumes in a segmentation map corresponding to hotspots and thus physical lesions.

[0250] 일부 실시 형태에서, 기계 학습 모듈(908)은 배경(즉, 핫스팟이 아님) 영역들 및 핫스팟 볼륨 사이를 차별화하여 핫스팟 볼륨들을 분할한다. 예를 들어, 기계 학습 모듈(908)은 복셀들을 배경으로 분류하거나 단일 핫스팟 클래스에 속하는 이진 분류기일 수 있다. 따라서 기계 학습 모듈(908)은 핫스팟 볼륨을 식별하지만 상이한 해부학적 위치들 및/또는 특정 핫스팟 볼륨들이 나타낼 수 있는 병변들의 유형들 ― 예를 들어, 뼈 전이, 림프절들, 국소 전립선 ― 사이를 차별화하지 않는 클래스 독립적(예를 들어, 또는 '단일 클래스') 3D 핫스팟 맵을 출력으로 생성할 수 있다. 일부 실시 형태에서, 기계 학습 모듈(908)은 핫스팟 볼륨들을 분할하고 또한 핫스팟들을 복수의 핫스팟 클래스들에 따라 분류하고, 각각은 특정 해부학적 위치 및/또는 핫스팟에 의해 나타나는 병변의 유형을 나타낸다. 이러한 방식으로, 기계 학습 모듈(908)은 하나 이상의 핫스팟 볼륨들을 식별하고 각각의 핫스팟 볼륨을 복수의 핫스팟 클래스들 중 특정 클래스에 속하는 것으로 라벨링하는 다중 클래스 3D 핫스팟 맵을 직접 생성할 수 있다. 예를 들어, 검출된 핫스팟들은 뼈 전이, 림프절들 또는 전립선 병변들로 분류될 수 있다. 일부 실시 형태에서, 다른 연조직 분류가 포함될 수 있다. [0250] In some embodiments, the machine learning module 908 divides the hotspot volumes by differentiating between background (ie, non-hotspot) areas and the hotspot volume. For example, the machine learning module 908 can be a binary classifier that classifies voxels as background or belongs to a single hotspot class. Thus, the machine learning module 908 identifies the hotspot volume but does not differentiate between different anatomical locations and/or types of lesions that particular hotspot volumes may represent - eg, bone metastases, lymph nodes, local prostate. A class independent (eg, 'single class') 3D hotspot map may be generated as output. In some embodiments, machine learning module 908 segments the hotspot volumes and classifies the hotspots according to a plurality of hotspot classes, each representing a specific anatomical location and/or type of lesion represented by the hotspot. In this way, the machine learning module 908 can directly generate a multi-class 3D hotspot map that identifies one or more hotspot volumes and labels each hotspot volume as belonging to a particular one of a plurality of hotspot classes. For example, detected hotspots may be classified as bone metastases, lymph nodes or prostate lesions. In some embodiments, other soft tissue classes may be included.

[0251] 이러한 분류는 예를 들어, 본 출원에서 섹션 B.ii에 기재된 바와 같이 진정한 병변을 나타낼 우도에 따라 핫스팟들의 분류에 추가로 또는 대안적으로 수행될 수 있다. [0251] This classification may be performed in addition or alternatively to the classification of hotspots according to the likelihood of representing a true lesion, eg as described in section B.ii herein.

ii. 병변 분류 후처리 및/또는 출력ii. Lesion classification post-processing and/or output

[0252] 일부 실시 형태에서, 도 10a 및 도 10b를 참조하면, 핫스팟 검출 및/또는 분할 후 (용어 "병변들" 및 "핫스팟들"은 물리적 병변이 예를 들어, 기능적 영상들에서 핫스팟들로 나타난다는 이해와 함께 도 9 내지 도 12에서 상호 교환적으로 사용됨) 하나 이상의 기계 학습 모듈들에 의한 영상들에서, 핫스팟들을 특정 핫스팟 클래스에 속하는 것으로 라벨링하기 위해 후처리(1000)가 수행된다. 예를 들어, 검출된 핫스팟들은 뼈 전이, 림프절들 또는 전립선 병변들로 분류될 수 있다. 일부 실시 형태에서, 표 1의 라벨링 방식이 사용될 수 있다. 일부 실시 형태에서, 이러한 라벨링은 핫스팟들의 분할 및/또는 검출을 수행하는 데 사용되는 것과 동일한 기계 학습 모듈일 수 있는 기계 학습 모듈에 의해 수행될 수 있거나, 검출된 핫스팟들의 목록을 수신하는 별도의 모듈(예를 들어, 이의 위치들을 식별함) 및/또는 3D 핫스팟 맵(예를 들어, 분할을 통해 결정된 핫스팟 경계들을 묘사함)을 개별적으로 또는 본 출원에서 기재된 바와 같은 3D 기능적 영상, 3D 해부학적 영상 및/또는 분할 맵들과 같은 다른 입력들과 함께 입력으로서 사용한다. 일부 실시 형태에서, 도 10b에서 확인할 수 있듯이, 병변 검출 및/또는 분할을 수행하기 위해 기계 학습 모듈(908)에 대한 입력으로서 사용되는 분할 맵(906)은 또한 예를 들어, 해부학적 위치에 따라 병변들을 분류하는 데 사용될 수 있다. 일부 실시 형태에서, 다른(예를 들어, 상이한) 분할 맵들이 사용될 수 있다(예를 들어, 입력으로서 기계 학습 모듈에 공급된 동일한 분할 맵이 반드시 필요한 것은 아님). [0252] In some embodiments, referring to FIGS. 10A and 10B , after hotspot detection and/or segmentation (the terms “lesions” and “hotspots” refer to physical lesions, e.g., in functional images, to hotspots) In the images by one or more machine learning modules, post-processing 1000 is performed to label hotspots as belonging to a particular hotspot class. For example, detected hotspots may be classified as bone metastases, lymph nodes or prostate lesions. In some embodiments, the labeling scheme of Table 1 may be used. In some embodiments, such labeling may be performed by a machine learning module, which may be the same machine learning module used to perform segmentation and/or detection of hotspots, or a separate module receiving a list of detected hotspots. (e.g., identifying its locations) and/or a 3D hotspot map (e.g., depicting hotspot boundaries determined through segmentation) individually or as a 3D functional image, 3D anatomical image as described herein. and/or use as an input along with other inputs such as segmentation maps. In some embodiments, as can be seen in FIG. 10B , the segmentation map 906 used as an input to the machine learning module 908 to perform lesion detection and/or segmentation is also dependent on, for example, anatomical location. Can be used to classify lesions. In some embodiments, other (eg, different) segmentation maps may be used (eg, not necessarily the same segmentation map supplied to the machine learning module as input).

iii. 병렬 장기 특정 병변 검출 모듈들iii. Parallel Organ Specific Lesion Detection Modules

[0253] 일부 실시 형태에서, 도 11a 및 도 11b를 참조하면, 하나 이상의 기계 학습 모듈들은 대응하는 장기 내에 위치된 핫스팟들의 검출 및/또는 분할을 수행하는 하나 이상의 장기 특정 모듈들을 포함한다. 예를 들어, 도 11a 및 도 11b 각각의 예시적인 과정들(1100 및 1150)에서 확인할 수 있는 바와 같이, 전립선 모듈(1108a)은 전립선 영역에서 검출 및/또는 분할을 수행하는 데 사용될 수 있다. 일부 실시 형태에서, 하나 이상의 장기 특정 모듈들은 대상체의 전신에 걸쳐 핫스팟들을 검출 및/또는 분할하는 전신 모듈(1108b)과 결합하여 사용된다. 일부 실시 형태에서, 하나 이상의 장기 특정 모듈들에 대한 결과들(1100a)은 전신 모듈로부터의 결과들(1110b)와 병합되어 최종 핫스팟 목록 및/또는 핫스팟 맵(1112)을 형성한다. 일부 실시 형태에서, 병합은 결과들(예를 들어, 핫스팟 목록들 및/또는 3D 핫스팟 맵들)(1110a 및 1110b)을 다른 방법들을 사용하여 핫스팟들을 분할하여 생성된 3D 핫스팟 맵(1114)과 같은 다른 출력과 결합하는 것을 포함할 수 있고, 이는 다른 기계 학습 모듈 및/또는 기술들 뿐만 아니라 기타 분할 접근법들의 사용을 포함할 수 있다. 일부 실시 형태에서, 하나 이상의 기계 학습 모듈들에 의한 핫스팟들의 검출 및/또는 분할 후에 추가적인 분할 접근법이 수행될 수 있다. 이러한 추가적인 분할 단계는 예를 들어, 하나 이상의 기계 학습 모듈들로부터 획득된 핫스팟 분할 및/또는 검출 결과들을 입력으로서 사용할 수 있다. 특정 실시 형태에서, 도 11b에서 확인할 수 있듯이, 본 출원에서 기재된 바와 같이 예를 들어, 하기의 섹션 C.iv. 에서 분석적 분할 접근법(1122)은 장기 특정 병변 검출 모듈들과 함께 사용될 수 있다. 분석적 분할(1122)은 PET 영상(1102)과 함께 업스트림(upstream) 기계 학습 모듈들(1108b 및 1108a)로부터의 결과들(1110b 및 1110a)을 사용하여 분석적 분할 기술(예를 들어, 기계 학습을 활용하지 않음)을 사용하여 핫스팟들을 분할하고 분석적으로 분할된 3D 핫스팟 맵(1124)을 생성한다. [0253] In some embodiments, referring to FIGS. 11A and 11B, the one or more machine learning modules include one or more organ-specific modules that perform detection and/or segmentation of hotspots located within a corresponding organ. For example, as seen in exemplary processes 1100 and 1150 of FIGS. 11A and 11B , respectively, prostate module 1108a may be used to perform detection and/or segmentation in a prostate region. In some embodiments, one or more organ specific modules are used in conjunction with the whole body module 1108b to detect and/or segment hotspots throughout a subject's body. In some embodiments, the results 1100a for one or more organ specific modules are merged with the results 1110b from the full body module to form the final hotspot list and/or hotspot map 1112 . In some embodiments, merging is performed by merging the results (eg, hotspot lists and/or 3D hotspot maps) 1110a and 1110b into another, such as 3D hotspot map 1114 generated by segmenting the hotspots using other methods. This may include combining the output, which may include the use of other machine learning modules and/or techniques as well as other segmentation approaches. In some embodiments, an additional segmentation approach may be performed after detection and/or segmentation of hotspots by one or more machine learning modules. This additional segmentation step may use, for example, hotspot segmentation and/or detection results obtained from one or more machine learning modules as input. In certain embodiments, as can be seen in FIG. 11B , as described herein, for example, in section C. iv. The analytic segmentation approach 1122 in can be used with organ specific lesion detection modules. Analytical segmentation 1122 utilizes an analytic segmentation technique (e.g., machine learning) using the PET image 1102 along with the results 1110b and 1110a from upstream machine learning modules 1108b and 1108a. not) to segment the hotspots and create an analytically segmented 3D hotspot map 1124.

iv. 분석적 분할iv. analytic segmentation

[0254] 일부 실시 형태에서, 도 12를 참조하면, 기계 학습 기술들은 핫스팟 검출 및/또는 초기 분할을 수행하는 데 사용될 수 있고, 예를 들어, 후속 단계로서 각각의 핫스팟에 대한 최종 분할을 수행하는 데 분석적 모델이 사용된다. [0254] In some embodiments, referring to FIG. 12 , machine learning techniques may be used to perform hotspot detection and/or initial segmentation, e.g., performing final segmentation for each hotspot as a subsequent step. An analytic model is used to

[0255] 본 출원에서 사용되는 "분석적 모델" 및 "분석적 분할"이라는 용어는 미리 결정된 규칙 및/또는 함수들(예를 들어, 수학적 함수들)에 기초하는(예를 들어, 사용하는) 분할 방법들을 지칭한다. 예를 들어, 특정 실시 형태에서, 분석적 분할 방법은 영상 처리 단계들의 정렬된 시퀀스(sequence), 영상에 대한 하나 이상의 수학 함수들의 적용, 조건부 논리 분기들 등과 같은 하나 이상의 미리 결정된 규칙들을 사용하여 핫스팟을 분할할 수 있다. 분석적 분할 방법들은 임계값 기반 방법들(예를 들어, 영상 임계값 설정 단계 포함), 수준 설정 방법들(예를 들어, 신속 진행 방법), 그래프 컷(graph―cut) 방법들(예를 들어, 분수령 분할(watershed segmentation)) 또는 능동 윤곽선 모델들이 포함될 수 있지만 이에 제한되지 않는다. 특정 실시 형태에서, 분석적 분할 접근법들은 훈련 단계에 의존하지 않는다. 대조적으로, 특정 실시 형태에서, 기계 학습 모델은 훈련 데이터 세트(예를 들어, 방사선과 의사 또는 기타 진료 의사에 의해 수동으로 예를 들어, 분할된 영상들 및 핫스팟들의 예시들을 포함함)를 사용하여 핫스팟들을 미리 분할하도록 자동으로 훈련된 모델을 사용하여 핫스팟을 분할할 것이고 훈련 세트에서 분할 동작을 모방하는 것을 목표로 한다. [0255] As used in this application, the terms "analytic model" and "analytic segmentation" refer to a segmentation method that is based on (eg, uses) predetermined rules and/or functions (eg, mathematical functions). refers to them For example, in certain embodiments, an analytic segmentation method identifies hotspots using one or more predetermined rules, such as an ordered sequence of image processing steps, application of one or more mathematical functions to an image, conditional logic branches, and the like. can be divided Analytical segmentation methods include threshold-based methods (e.g., including image thresholding), level-setting methods (e.g., fast-forward method), graph-cut methods (e.g., Watershed segmentation) or active contour models may be included, but are not limited thereto. In a particular embodiment, analytic segmentation approaches do not depend on training phase. In contrast, in a particular embodiment, a machine learning model uses a training data set (including examples of hotspots and segmented images, for example, manually by a radiologist or other practitioner) to spot hotspots. We will segment the hotspot using a model that has been automatically trained to pre-segment the segments and aims to mimic the segmentation behavior in the training set.

[0256] 예를 들어, 어떤 경우에는 분석적 모델들이 기계 학습 접근법들보다 더 쉽게 이해되고 디버깅(debugging)될 수 있기 때문에, 최종 분할을 결정하기 위한 분석적 분할 모델의 사용은 유리할 수 있다. 일부 실시 형태에서, 이러한 분석적 분할 접근법들은 기계 학습 기술들에 의해 생성된 병변 분할과 함께 3D 기능적 영상에서 작동할 수 있다. [0256] For example, the use of an analytic segmentation model to determine the final segmentation may be advantageous because, in some cases, analytic models may be more easily understood and debugged than machine learning approaches. In some embodiments, these analytic segmentation approaches can operate on 3D functional images with lesion segmentation generated by machine learning techniques.

[0257] 예를 들어, 도 12에서 확인할 수 있듯이, 분석적 모델을 사용하는 핫스팟 분할을 위한 예시적인 과정(1200)에서, 기계 학습 모듈(1208)은 PET 영상(1202), CT 영상(1204) 및 분할 맵(1206)을 입력으로 수신한다. 기계 학습 모듈(1208)은 분할을 수행하여 하나 이상의 핫스팟 볼륨들을 식별하는 3D 핫스팟 맵(1210)을 생성한다. 분석적 분할 모델(1212)은 PET 영상(1202)과 함께 기계 학습 모듈로 생성된 3D 핫스팟 맵(1210)을 사용하여 분할을 수행하고 분석적으로 분할된 핫스팟 볼륨들을 식별하는 3D 핫스팟 맵(1214)을 생성한다. [0257] In an example process 1200 for hotspot segmentation using an analytical model, as can be seen, for example in FIG. Receives the segmentation map 1206 as input. The machine learning module 1208 performs segmentation to generate a 3D hotspot map 1210 identifying one or more hotspot volumes. The analytic segmentation model 1212 uses the PET image 1202 and the 3D hotspot map 1210 generated by the machine learning module to perform segmentation and analytically generate a 3D hotspot map 1214 that identifies the segmented hotspot volumes. do.

v. 예시적인 핫스팟 분할v. Exemplary Hotspot Segmentation

[0258] 도 13a 및 도 13b는 핫스팟 검출 및/또는 분할을 위한 기계 학습 모듈 아키텍처들의 예시들을 도시한다. 도 13a는 예시적인 U―net 아키텍처(도 13a의 괄호 안의 "N = "는 각각의 계층에서 다수의 필터들을 식별함)를 도시하고, 도 13b는 예시적인 FPN 아키텍처를 도시한다. 도 13c는 또 다른 예시적인 FPN 아키텍처를 도시한다. [0258] Figures 13A and 13B show examples of machine learning module architectures for hotspot detection and/or segmentation. Fig. 13a shows an exemplary U-net architecture ("N = " in parentheses in Fig. 13a identifies multiple filters in each layer), and Fig. 13b illustrates an exemplary FPN architecture. 13C shows another exemplary FPN architecture.

[0259] 도 14a 내지 도 14c는 U―net 아키텍처를 구현하는 기계 학습 모듈을 사용하여 획득된 핫스팟 분할에 대한 예시적인 결과들을 도시한다. 영상들의 십자선들과 밝은 점들은 분할된 핫스팟(1402)(잠재적인 병변을 나타냄)을 나타낸다. 도 15a 및 15b는 FPN을 구현하는 기계 학습 모듈을 사용하여 획득된 예시적인 핫스팟 분할 결과들을 도시한다. 특히, 도 15a는 CT 영상에 중첩된 입력 PET 영상을 도시한다. 도 15b는 FPN을 구현하는 기계 학습 모듈을 사용하여 결정된 예시적인 핫스팟 맵을 CT 영상에 중첩한 것을 도시한다. 중첩된 핫스팟 맵은 대상체의 척추 근처에 진한 적색으로 핫스팟 볼륨들(1502)을 도시한다. [0259] Figures 14A-14C show example results for hotspot segmentation obtained using a machine learning module implementing the U-net architecture. The crosshairs and bright spots in the images indicate a segmented hotspot 1402 (indicating a potential lesion). 15A and 15B show example hotspot segmentation results obtained using a machine learning module implementing FPN. In particular, FIG. 15A shows an input PET image superimposed on a CT image. 15B shows an example hotspot map determined using a machine learning module implementing FPN superimposed on a CT image. The overlaid hotspot map shows hotspot volumes 1502 in dark red near the subject's spine.

D. 예시적인 그래픽 사용자 인터페이스D. Exemplary Graphical User Interface

[0260] 특정 실시 형태에서, 본 출원에서 기재된 병변 검출, 분할, 분류 및 관련 기술들은 사용자 상호 작용(예를 들어, 본 출원에서 기재된 다양한 접근법들을 구현하는 소프트웨어 프로그램(software program)과의) 및/또는 결과들의 검토를 용이하게 하는 GUI를 포함할 수 있다. 예를 들어, 특정 실시 형태에서, GUI 부분들 및 창(window)들은 그 중에서도 특히, 사용자가 분석될 데이터를 업로드 및 관리하고, 본 출원에서 기재된 접근법들을 통해 생성된 영상들 및 결과들을 시각화하고, 결과를 요약하는 보고서를 생성하도록 허용한다. 특정 예시적인 GUI 뷰(view)들의 스크린샷들이 도 16a 내지 도 16e에 도시된다. [0260] In certain embodiments, the lesion detection, segmentation, classification, and related techniques described herein require user interaction (eg, with a software program implementing the various approaches described herein) and/or or a GUI that facilitates review of the results. For example, in certain embodiments, GUI portions and windows allow, among other things, a user to upload and manage data to be analyzed, visualize images and results generated through the approaches described herein, Allows you to generate a report summarizing the results. Screenshots of certain example GUI views are shown in FIGS. 16A-16E .

[0261] 예를 들어, 도 16a는 PET 영상 및 PET/CT 스캔을 통해 수집된 PET 영상 및 CT 영상과 같은 연구들의 업로딩(uploading) 및 보기(viewing) [동일한 검사 및/또는 스캔 (예를 들어, 의학에서의 디지털 영상 및 통신들(Digital Imaging and Communications in Medicine)(DICOM) 표준에 따라) 동안 수집된 영상 데이터]를 제공하는 예시적인 GUI 창을 도시한다. 특정 실시 형태에서, 업로드된 연구들은 하나 이상의 PET/CT 영상들이 업로드된 대상체들 / 환자들의 식별자들을 나열하는 환자 목록에 자동으로 추가된다. 도 16에 도시된 환자 목록의 각각의 항목에 대해, 환자 ID는 해당 환자에 대해 사용 가능한 PET/CT 연구들 뿐만 아니라 대응하는 보고서들과 함께 표시된다. 특정 실시 형태에서, 팀(team) 개념은 업로드된 데이터의 특정 서브 세트에 대해 작업하고 이에 대한 접근이 제공되는 다수의 사용자들(예를 들어, 팀)의 그룹핑의 생성이 가능하게 한다. 특정 실시 형태에서, 환자 목록은 환자 목록에 대한 팀의 각각의 구성원 접근을 제공하기 위해 특정 팀과 관련되고 자동으로 공유될 수 있다. [0261] For example, FIG. 16A shows the uploading and viewing of studies such as PET images and PET images and CT images collected via PET/CT scans [same scans and/or scans (e.g. , image data collected during Digital Imaging and Communications in Medicine (DICOM) standard). In certain embodiments, uploaded studies are automatically added to a patient list that lists the identifiers of subjects/patients from which one or more PET/CT images have been uploaded. For each entry in the patient list shown in Figure 16, the patient ID is displayed along with the available PET/CT studies for that patient as well as the corresponding reports. In certain embodiments, the team concept enables the creation of groupings of multiple users (eg, teams) who work on and are provided access to a particular subset of uploaded data. In certain embodiments, a patient list may be automatically shared and associated with a specific team to provide each member of the team access to the patient list.

[0262] 도 16b는 사용자가 의료 영상 데이터를 볼 수 있게 해주는 예시적인 GUI 뷰어(viewer)(1610)를 도시한다. 특정 실시 형태에서, 뷰어는 다중 모드 뷰어이고, 사용자가 다중 영상 촬영 기법들 뿐만 아니라 다양한 포맷(format)들 및/또는 이들의 조합을 볼 수 있게 한다. 예를 들어, 도 16b에 도시된 뷰어는 사용자가 PET 및/또는 CT 영상들 뿐만 아니라 이들의 융합들(예를 들어, 중첩들)을 볼 수 있게 한다. 특정 실시 형태에서, 뷰어는 사용자가 다양한 포맷들로 3D 의료 영상 데이터를 볼 수 있게 한다. 예를 들어, 뷰어는 사용자가 3D 영상들의 특정(예를 들어, 선택된) 단면 평면들을 따라 다양한 2D 슬라이스들을 선택하고 볼 수 있도록 할 수 있다. 특정 실시 형태에서, 뷰어는 사용자가 3D 영상 데이터의 최대 강도 투영(MIP)을 볼 수 있게 한다. 3D 영상 데이터를 시각화하는 다른 방식들도 제공될 수 있다. 이러한 예시에서, 도 16b에서 확인할 수 있듯이, 제어 패널 그래픽 위젯(control panel graphical widget)(1612)은 뷰어의 좌측 측면에 제공되고 사용자가 날짜, 다양한 환자 데이터 및 영상 촬영 파라미터들 등과 같은 이용 가능한 연구 정보를 볼 수 있게 한다. [0262] FIG. 16B shows an example GUI viewer 1610 that allows a user to view medical image data. In a particular embodiment, the viewer is a multi-modal viewer, allowing the user to view multiple imaging techniques as well as various formats and/or combinations thereof. For example, the viewer shown in FIG. 16B allows a user to view PET and/or CT images as well as fusions (eg, overlaps) thereof. In a particular embodiment, a viewer allows a user to view 3D medical image data in a variety of formats. For example, the viewer may allow a user to select and view various 2D slices along specific (eg, selected) cross-sectional planes of 3D images. In certain embodiments, a viewer allows a user to view a maximum intensity projection (MIP) of 3D image data. Other ways of visualizing 3D image data may also be provided. In this example, as can be seen in FIG. 16B , a control panel graphical widget 1612 is provided on the left side of the viewer and allows the user to view available study information such as date, various patient data and imaging parameters, etc. to be able to see

[0263] 도 16c를 참조하면, 특정 실시 형태에서 GUI 뷰어는 사용자가 예를 들어, 진정한 기저 물리적 병변들을 나타낼 가능성이 있는 것으로서 식별하고 선택하는 영상의 관심 볼륨(VOI)들인 병변 볼륨들을 선택할 수 있게 하는 병변 선택 툴을 포함한다. 특정 실시 형태에서, 병변 볼륨들은 예를 들어, 본 출원에서 기재된 접근법들 중 임의의 접근법을 통해 자동으로 식별되고 분할되는 일련의 핫스팟 볼륨들로부터 선택된다. 선택된 병변 볼륨들은 보고 및/또는 추가 정량적 분석에 사용될 수 있는 식별된 병변 볼륨들의 최종 세트에 포함하기 위해 저장될 수 있다. 특정 실시 형태에서, 예를 들어, 도 16c에서 확인할 수 있듯이, 특정 병변 볼륨의 사용자 선택 시, 특정 병변의 다양한 특징들 / 정량적 메트릭들 [예를 들어, 최대 강도, 피크 강도, 평균 강도, 볼륨, 병변 지수(LI), 해부학적 분류(예를 들어, miTNM 클래스, 위치 등) 등]를 표시한다(1614). [0263] Referring to Fig. 16C, in a particular embodiment the GUI viewer allows the user to select lesion volumes that are, for example, Volumes of Interest (VOIs) of an image to identify and select as likely representing true underlying physical lesions. Includes a lesion selection tool that In a particular embodiment, lesion volumes are selected from a series of hotspot volumes that are automatically identified and segmented via, for example, any of the approaches described herein. Selected lesion volumes may be saved for inclusion in a final set of identified lesion volumes that may be used for reporting and/or further quantitative analysis. In certain embodiments, upon user selection of a particular lesion volume, for example, as seen in FIG. 16C , various characteristics/quantitative metrics of a particular lesion [eg, maximum intensity, peak intensity, average intensity, volume, lesion index (LI), anatomical classification (eg, miTNM class, location, etc.), etc.] (1614).

[0264] 도 16d를 참조하면, GUI 뷰어는 추가적으로 또는 대안적으로 사용자가 본 출원에서 기재된 다양한 실시 형태에 따라 수행된 자동화된 분할의 결과들을 볼 수 있게 한다. 분할은 본 출원에서 기재된 바와 같이 CT 영상의 자동화된 분석을 통해 수행될 수 있고 간 및/또는 대동맥을 나타내는 3D 볼륨들의 식별 및 분할을 포함할 수 있다. 분할 결과들은 CT 및/또는 PET 영상 표현과 같은 의료 영상 데이터의 표현들에 중첩될 수 있다. [0264] Referring to Fig. 16D, a GUI viewer additionally or alternatively allows a user to view the results of automated segmentation performed according to various embodiments described herein. Segmentation may be performed through automated analysis of CT images as described herein and may include identification and segmentation of 3D volumes representing the liver and/or aorta. Segmentation results may be superimposed on representations of medical image data, such as CT and/or PET image representations.

[0265] 도 16e는 본 출원에서 기재된 바와 같은 의료 영상 데이터의 분석을 통해 생성된 예시적인 보고서(1620)를 도시한다. 이러한 예시에서, 보고서(1620)는 검토된 연구에 대한 결과들을 요약하고 선택된(예를 들어, 사용자에 의해) 병변 볼륨들(1622)을 특징짓는 특징들 및 정량적 메트릭들을 제공한다. 예를 들어, 도 16e에서 확인할 수 있듯이, 보고서는 각각의 선택된 병변 볼륨에 대해, 병변 ID, 병변 유형(예를 들어, miTNM 분류), 병변 위치, SUV―최대값, SUV―피크값, SUV―평균값, 볼륨 및 병변 지수값을 포함한다. [0265] FIG. 16E shows an example report 1620 generated through analysis of medical imaging data as described herein. In this example, report 1620 summarizes the results for the reviewed study and provides characteristics and quantitative metrics characterizing lesion volumes 1622 selected (eg, by the user). For example, as can be seen in FIG. 16E , the report reports, for each selected lesion volume, Lesion ID, Lesion Type (eg, miTNM Classification), Lesion Location, SUV-Max, SUV-Peak, SUV- Mean values, volume and lesion index values are included.

E. 다중 기계 학습 모듈들을 사용한 핫스팟 분할 및 분류E. Hotspot Segmentation and Classification Using Multiple Machine Learning Modules

[0266] 특정 실시 형태에서, 다중 기계 학습 모듈들은 핫스팟들을 분할하고 분류하기 위해 병렬로 사용된다. 도 17a는 핫스팟들을 분할 및 분류하기 위한 예시적인 과정(1700)의 블록 흐름도이다. 예시적인 과정(1700)은 3D PET/CT 영상에서 영상 분할을 수행하여 핫스팟 볼륨들을 분할하고 각각의 분할된 핫스팟 볼륨을 (자동으로) 결정된 해부학적 위치 ― 특히, 림프, 뼈 또는 전립선 핫스팟 ― 에 따라 분류한다. [0266] In a particular embodiment, multiple machine learning modules are used in parallel to segment and classify hotspots. 17A is a block flow diagram of an exemplary process 1700 for segmenting and classifying hotspots. The exemplary process 1700 performs image segmentation on the 3D PET/CT image to segment hotspot volumes and divides each segmented hotspot volume according to an (automatically) determined anatomical location - in particular, a lymphatic, bone or prostate hotspot. Classify.

[0267] 예시적인 과정(1700)은 3D PET 영상(1702) 및 3D CT 영상(1704)을 입력으로서 수신하고 작동한다. CT 영상(1704)은 특정 조직 영역들 및/또는 관심 장기들 또는 다수의(예를 들어, 관련된) 조직 영역들 및/또는 장기들의 해부학적 그룹핑들을 나타내는 CT 영상에서 3D 볼륨들을 식별하기 위해 분할을 수행하는 제1 장기 분할 기계 학습 모듈(1706)에 입력된다. 따라서 장기 분할 기계 학습 모듈(1706)은 CT 영상 내에서 특정 조직 영역들 및/또는 관심 장기들 또는 이들의 해부학적 그룹핑들을 식별하는 3D 분할 맵(1708)을 생성하는 데 사용된다. 예를 들어, 특정 실시 형태에서 분할 맵(1708)은 장기들의 2개의 해부학적 그룹핑들에 대응하는 2개의 관심 볼륨들을 식별한다 ― 하나는 간, 비장, 신장 및 비뇨기 방광을 포함하는 고흡수 연조직 장기들의 해부학적 그룹핑에 대응하고, 두 번째는 저흡수 연조직 장기인 대동맥(예를 들어, 흉부 및 복부 부분)에 대응한다. 특정 실시 형태에서, 장기 분할 기계 학습 모듈(1706)은 분할 맵(1708)의 해부학적 그룹핑들을 구성하는 것들 뿐만 아니라 특정 실시 형태에서 다른 것들을 포함하는 다양한 개별 장기들을 식별하는 출력으로 초기 분할 맵을 생성하고, 분할 맵(1708)은 초기 분할 맵(예를 들어, 동일한 라벨로 그룹핑하는 해부학적 그룹의 개별 장기들에 대응하는 볼륨들을 할당함으로써)으로부터 생성된다. 따라서, 특정 실시 형태에서, 3D 분할 맵(1708)은 (i) 고흡수 연조직 장기들에 속하는 복셀들, (ii) 저흡수 연조직 장기 ― 즉, 대동맥 ― , 및 (iii) 배경으로서 다른 영역들 사이를 식별하고 차별화하는 3 개의 라벨들을 사용한다. [0267] The exemplary process 1700 receives and operates on a 3D PET image 1702 and a 3D CT image 1704 as inputs. The CT image 1704 is segmented to identify 3D volumes in the CT image that represent specific tissue regions and/or organs of interest or anatomical groupings of multiple (eg, related) tissue regions and/or organs. It is input to the first organ segmentation machine learning module 1706 to perform. Thus, the organ segmentation machine learning module 1706 is used to generate a 3D segmentation map 1708 that identifies specific tissue regions and/or organs of interest or anatomical groupings thereof within the CT image. For example, in a particular embodiment segmentation map 1708 identifies two volumes of interest corresponding to two anatomical groupings of organs - one highly absorbent soft tissue organ including liver, spleen, kidney and urinary bladder. corresponds to the anatomical grouping of , and the second corresponds to the aorta (eg, thoracic and abdominal segments), a low-absorption soft tissue organ. In certain embodiments, organ segmentation machine learning module 1706 generates an initial segmentation map with output identifying various individual organs, including those that make up the anatomical groupings of segmentation map 1708, as well as others in particular embodiments. and segmentation map 1708 is created from the initial segmentation map (eg, by assigning volumes corresponding to individual organs of an anatomical group grouping with the same label). Thus, in a particular embodiment, the 3D segmentation map 1708 is composed of (i) voxels belonging to high absorption soft tissue organs, (ii) low absorption soft tissue organs - i.e., the aorta - and (iii) between different regions as background. It uses three labels to identify and differentiate

[0268] 도 17a에 도시된 예시적인 과정(1700)에서. 장기 분할 기계 학습 모듈(1706)은 U―net 아키텍처를 실시한다. 다른 아키텍처들(예를 들어, FPN's)이 사용될 수 있다. PET 영상(1702), CT 영상(1704) 및 3D 분할 맵(1708)은 2 개의 병렬 핫스팟 분할 모듈들에 대한 입력으로 사용된다. [0268] In the exemplary process 1700 shown in FIG. 17A. The long-term segmentation machine learning module 1706 implements the U-net architecture. Other architectures (eg FPN's) may be used. The PET image 1702, CT image 1704 and 3D segmentation map 1708 are used as inputs to two parallel hotspot segmentation modules.

[0269] 특정 실시 형태에서, 예시적인 과정(1700)은 2 개의 기계 학습 모듈들을 병렬로 사용하여 상이한 방식으로 핫스팟들을 분할하고 분류한 다음 그 결과들을 병합한다. 예를 들어, 기계 학습 모듈은 핫스팟들의 단일 클래스만 식별할 때 ― 예를 들어, 영상 영역들이 핫스팟들인지 여부를 식별하는 경우 ― 여러 원하는 핫스팟 클래스들 ― 림프, 뼈, 전립선 ― 보다 더 정확한 분할을 수행하는 것으로 나타났다. 따라서 과정(1700)은 제1 단일 클래스 핫스팟 분할 모듈(1712)을 이용하여 정확한 분할을 수행하고 제2 다중 클래스 핫스팟 분할 모듈(1714)을 이용하여 핫스팟들을 원하는 3 개의 범주들로 분류한다. [0269] In a particular embodiment, the example process 1700 uses two machine learning modules in parallel to segment and classify hotspots in different ways and then merge the results. For example, the machine learning module performs more accurate segmentation when identifying only a single class of hotspots - eg, whether image regions are hotspots - than several desired hotspot classes - lymph, bone, prostate. appeared to do Thus, process 1700 uses a first single-class hotspot segmentation module 1712 to perform precise segmentation and a second multi-class hotspot segmentation module 1714 to classify hotspots into the desired three categories.

[0270] 특히, 제1 단일 클래스 핫스팟 분할 모듈(1712)은 배경으로 식별된 다른 영상 영역들과 함께 핫스팟들을 나타내는 3D 볼륨들을 식별하는 제1 단일 클래스 3D 핫스팟 맵(1716)을 생성하기 위해 분할을 수행한다. 따라서, 단일 클래스 핫스팟 분할 모듈(1712)은 이진 분류를 수행하여 영상 복셀들을 2 개의 클래스들 (배경 또는 단일 핫스팟 클래스) 중 하나에 속하는 것으로 라벨링한다. 제2 다중 클래스 핫스팟 분할 모듈(1714)은 핫스팟들을 분할하고 단일 핫스팟 클래스를 사용하는 것과는 반대로 분할된 핫스팟 볼륨들을 복수의 핫스팟 분류 라벨들 중 하나에 할당한다. 특히, 다중 클래스 핫스팟 분할 모듈(1714)은 분할된 핫스팟 볼륨들을 림프, 뼈 또는 전립선 핫스팟들로 분류한다. 따라서 다중 클래스 핫스팟 분할 모듈은 핫스팟들을 나타내는 3D 볼륨들을 식별하고 배경으로 식별된 다른 영상 영역들과 함께 림프, 뼈 또는 전립선으로 라벨링하는 제2 다중 클래스 3D 핫스팟 맵(1718)을 생성한다. 과정(1700)에서, 단일 클래스 핫스팟 분할 모듈과 다중 클래스 핫스팟 분할 모듈은 각각 FPN 아키텍처를 구현하였다. 다른 기계 학습 아키텍처들(예를 들어, U―net)이 사용될 수 있다. [0270] In particular, the first single-class hotspot segmentation module 1712 performs segmentation to create a first single-class 3D hotspot map 1716 that identifies 3D volumes representing hotspots along with other image regions identified as a background. carry out Accordingly, single class hotspot segmentation module 1712 performs binary classification to label image voxels as belonging to one of two classes (background or single hotspot class). A second multi-class hotspot segmentation module 1714 segments the hotspots and assigns the segmented hotspot volumes to one of a plurality of hotspot classification labels as opposed to using a single hotspot class. In particular, the multi-class hotspot segmentation module 1714 classifies the segmented hotspot volumes into lymph, bone or prostate hotspots. The multi-class hotspot segmentation module thus creates a second multi-class 3D hotspot map 1718 that identifies 3D volumes representing the hotspots and labels them as lymph, bone or prostate along with other image regions identified as background. In step 1700, the single-class hotspot segmentation module and the multi-class hotspot segmentation module respectively implement the FPN architecture. Other machine learning architectures (eg U-net) may be used.

[0271] 특정 실시 형태에서, 분할되고 분류된 핫스팟들(1724)의 최종 3D 핫스팟 맵을 생성하기 위해, 단일 클래스 핫스팟 맵(1716) 및 다중 클래스 핫스팟 맵(1718)이 병합된다(1722). 특히, 단일 클래스 핫스팟 맵(1716)의 각각의 핫스팟 볼륨은 다중 클래스 핫스팟 맵(1718)의 핫스팟 볼륨들과 비교되어 따라서 동일한 물리적 위치 및 동일한(잠재적인) 물리적 병변을 나타내는 일치하는 핫스팟 볼륨들을 식별한다. 일치하는 핫스팟 볼륨들은 예를 들어, 공간적 오버랩(spatial overlap)(예를 들어, 백분율 볼륨 오버랩), 근접성(예를 들어, 임계값 거리 내의 무게 중심들) 등의 다양한 치수들에 기초하여 식별될 수 있다. 다중 클래스 핫스팟 맵(1718)으로부터의 일치하는 핫스팟 볼륨이 식별되는 단일 클래스 핫스팟 맵(1716)의 핫스팟 볼륨들에는 일치하는 핫스팟 볼륨의 라벨 ― 림프, 뼈 또는 전립선― 이 할당된다. 이러한 방식으로, 핫스팟들은 단일 클래스 핫스팟 분할 모듈(1712)을 통해 정확하게 분할된 다음, 다중 클래스 핫스팟 분할 모듈(1714)의 결과들을 사용하여 라벨링된다. [0271] In a particular embodiment, the single-class hotspot map 1716 and multi-class hotspot map 1718 are merged (1722) to create a final 3D hotspot map of segmented and classified hotspots 1724. In particular, each hotspot volume of the single-class hotspot map 1716 is compared to the hotspot volumes of the multi-class hotspot map 1718 to thus identify matching hotspot volumes representing the same physical location and the same (potential) physical lesion. . Consistent hotspot volumes may be identified based on various dimensions, such as spatial overlap (eg, percentage volume overlap), proximity (eg, centers of gravity within a threshold distance), and the like. there is. The hotspot volumes of the single-class hotspot map 1716 in which the matching hotspot volume from the multi-class hotspot map 1718 is identified are assigned the label of the matching hotspot volume - lymph, bone, or prostate. In this way, hotspots are accurately segmented via single-class hotspot segmentation module 1712 and then labeled using the results of multi-class hotspot segmentation module 1714.

[0272] 도 17b를 참조하면, 특정한 경우들에서, 단일 클래스 핫스팟 맵(1716)의 특정 핫스팟 볼륨에 대해, 다중 클래스 핫스팟 맵(1718)으로부터 일치하는 핫스팟 볼륨이 발견되지 않는다. 이러한 핫스팟 볼륨들은 림프 및 뼈 영역들에 대응하는 3D 볼륨들을 식별하는 분할 맵(1708)과 상이할 수 있는 3D 분할 맵(1738)과의 비교에 기초하여 라벨링된다. [0272] Referring to FIG. 17B, in certain cases, for a particular hotspot volume in the single-class hotspot map 1716, no matching hotspot volume is found from the multi-class hotspot map 1718. These hotspot volumes are labeled based on comparison with segmentation map 1708 and possibly a 3D segmentation map 1738 that identifies 3D volumes corresponding to lymphatic and bony regions.

[0273] 특정 실시 형태에서, 단일 클래스 핫스팟 분할 모듈(1712)은 단일 클래스 핫스팟 맵이 전립선 영역들의 임의의 핫스팟을 포함하지 않도록 전립선 영역의 핫스팟들을 분할하지 않을 수 있다. 다중 클래스 핫스팟 맵(1718)으로부터 전립선 핫스팟들로서 라벨링된 핫스팟 볼륨들은 병합된 핫스팟 맵(1724)의 포함을 위해 사용될 수 있다. 특정 실시 형태에서, 단일 클래스 핫스팟 분할 모듈(1712)은 전립선 영역의 일부 핫스팟들을 분할할 수 있지만, 추가적인 핫스팟들 (예를 들어, 단일 클래스 핫스팟 맵(1716)에서 식별되지 않음)은 다중 클래스 핫스팟 분할 모듈(1714)에 의해 전립선 핫스팟들로 분할되고 식별될 수 있다. 다중 클래스 핫스팟 맵(1718)에 존재하는 이러한 추가적인 핫스팟 볼륨들은 병합된 핫스팟 맵(1724)에 포함될 수 있다. [0273] In a particular embodiment, the single class hotspot segmentation module 1712 may not segment the hotspots of the prostate region such that the single class hotspot map does not include any hotspot in the prostate regions. Hotspot volumes labeled as prostate hotspots from the multi-class hotspot map 1718 can be used for inclusion in the merged hotspot map 1724. In certain embodiments, single-class hotspot segmentation module 1712 may segment some hotspots in the prostate region, but additional hotspots (eg, not identified in single-class hotspot map 1716) are multi-class hotspot segmentation. Prostate hotspots can be segmented and identified by module 1714. These additional hotspot volumes present in the multi-class hotspot map 1718 may be included in the merged hotspot map 1724.

[0274] 따라서, 특정 실시 형태에서, CT 영상(1704), PET 영상(1702), 3D 장기 분할 맵(1738), 단일 클래스 핫스팟 맵(1716) 및 다중 클래스 핫스팟 맵(1718)으로부터의 정보는 핫스팟 병합 단계(1722)에서 사용되어 분할되고 분류된 핫스팟 볼륨들(1724)의 병합된 3D 핫스팟 맵을 생성한다. [0274] Accordingly, in a particular embodiment, information from CT image 1704, PET image 1702, 3D organ segmentation map 1738, single class hotspot map 1716 and multi-class hotspot map 1718 is a hotspot It is used in a merge step 1722 to create a merged 3D hotspot map of the segmented and classified hotspot volumes 1724.

[0275] 하나의 예시적인 병합 접근법에서, 오버랩 (예를 들어, 2 개의 핫스팟 볼륨들 사이)은 동일한 물리적 위치에 대응하고 / 나타내는 다중 클래스 핫스팟 맵 및 단일 클래스 핫스팟 맵의 핫스팟 볼륨으로부터의 임의의 2 개의 복셀들이 결정될 경우 결정된다. 단일 클래스 핫스팟 맵의 특정 핫스팟 볼륨이 단지 다중 클래스 핫스팟 맵의 핫스팟 볼륨 하나(예를 들어, 식별된 다중 클래스 핫스팟 맵으로부터 일치하는 핫스팟 볼륨 하나만)와 오버랩되는 경우, 단일 클래스 핫스팟 맵의 특정 핫스팟 볼륨은 다중 클래스 핫스팟 맵의 오버랩된 핫스팟 볼륨이 속한 것으로 식별되는 클래스에 따라 라벨링된다. 특정 핫스팟 볼륨이 다중 클래스 핫스팟 맵의 두 개 이상의 핫스팟 볼륨과 오버랩하는 경우 (각각이 다른 핫스팟 클래스에 속하는 것으로 식별됨), 단일 클래스 핫스팟 볼륨의 각각의 복셀은 다중 클래스 핫스팟 맵으로부터 오버랩된 핫스팟 볼륨의 가장 가까운 복셀과 동일한 클래스가 할당된다. 단일 클래스 핫스팟 맵의 특정 핫스팟 볼륨이 다중 클래스 핫스팟 맵의 핫스팟 볼륨과 오버랩되지 않는 경우, 특정 핫스팟 볼륨은 연조직 영역들(예를 들어, 장기들) 및/또는 뼈를 식별하는 3D 분할 맵과의 비교에 기초하여 핫스팟 클래스에 할당된다. 예를 들어, 일부 실시 형태에서, 특정 핫스팟 볼륨은 다음의 진술들 중 임의의 진술이 참인 경우 뼈 클래스에 속하는 것으로 라벨링될 수 있다: [0275] In one exemplary merging approach, overlap (eg, between two hotspot volumes) is any two from the hotspot volume of the multi-class hotspot map and the single-class hotspot map that correspond to/represent the same physical location. It is determined when the number of voxels is determined. If a particular hotspot volume in a single-class hotspot map overlaps with only one hotspot volume in a multi-class hotspot map (i.e., only one matching hotspot volume from an identified multi-class hotspot map), then a particular hotspot volume in a single-class hotspot map Overlapped hotspot volumes in the multi-class hotspot map are labeled according to the class they are identified as belonging to. If a particular hotspot volume overlaps with two or more hotspot volumes from a multi-class hotspot map (each identified as belonging to a different hotspot class), then each voxel of the single-class hotspot volume is the same as the number of overlapping hotspot volumes from the multi-class hotspot map. It is assigned the same class as the nearest voxel. If a particular hotspot volume of a single-class hotspot map does not overlap with a hotspot volume of a multi-class hotspot map, the particular hotspot volume is compared to a 3D segmentation map identifying soft tissue regions (e.g., organs) and/or bones. assigned to a hotspot class based on For example, in some embodiments, a particular hotspot volume may be labeled as belonging to a bone class if any of the following statements are true:

(i) 핫스팟 볼륨의 20% 이상이 갈비뼈 분할과 오버랩하는 경우;(i) more than 20% of the hotspot volume overlaps with the rib segment;

(ii) 핫스팟 볼륨이 장기 분할의 임의의 라벨과 오버랩하지 않고 핫스팟 마스크의 CT 평균값이 100 하운스필드 단위보다 큰 경우;(ii) if the hotspot volume does not overlap with any label of the organ segment and the CT average value of the hotspot mask is greater than 100 Hounsfield units;

(iii) 장기 분할에서 핫스팟 볼륨의 SUVmax 위치가 뼈 라벨과 오버랩하는 경우; 또는(iii) when the SUV max location of the hotspot volume overlaps with the bone label in organ segmentation; or

(iv) 장기 분할에서 핫스팟 볼륨의 50% 이상이 뼈 라벨과 오버랩하는 경우.(iv) If more than 50% of the hotspot volume overlaps with bone labels in organ segmentation.

[0276] 일부 실시 형태에서, 특정 핫스팟 볼륨의 50% 이상이 장기 분할에서 뼈 라벨과 오버랩하지 않는 경우 특정 핫스팟 볼륨이 림프로 식별될 수 있다. [0276] In some embodiments, a particular hotspot volume may be identified as lymph if 50% or more of the particular hotspot volume does not overlap with bone labels in organ segmentation.

[0277] 일부 실시 형태에서, 단일 클래스 핫스팟 맵의 모든 핫스팟 볼륨들이 림프, 뼈 또는 전립선으로 분류될 때, 다중 클래스 모델로부터의 임의의 나머지 전립선 핫스팟은 단일 클래스 핫스팟 맵 상에 중첩되고 병합된 핫스팟 맵에 포함된다. [0277] In some embodiments, when all hotspot volumes of a single class hotspot map are classified as lymph, bone or prostate, any remaining prostate hotspots from the multi-class model are overlaid on the single class hotspot map and the merged hotspot map included in

[0278] 도 17c는 도 17a 및 도 17b에 대해 기재된 실시 형태에 따라 핫스팟 분할 및 분류 접근법을 구현하기 위한 예시적인 컴퓨터 프로세스(computer process)(1750)를 도시한다. [0278] FIG. 17C shows an example computer process 1750 for implementing the hotspot segmentation and classification approach according to the embodiment described with respect to FIGS. 17A and 17B.

F. 적응적 임계값 설정 접근법을 통한 분석적 분할F. Analytical Segmentation via Adaptive Thresholding Approach

[0279] 특정 실시 형태에서, 예를 들어 본 출원의 섹션 C.iv 에서 기재된 바와 같이, 본 출원에서 기재된 바와 같은 영상 분석 기술들은 본 출원에서 기재된 바와 같은 기계 학습 모듈을 통해 결정된 핫스팟 분할들을 정제하기 위해 분석적 분할 단계를 이용한다. 예를 들어, 특정 실시 형태에서,본 출원에서 기재된 바와 같은 기계 학습 접근법들에 의해 생성된 3D 핫스팟 맵은 완전히 새로운 분할을 정제 및/또는 수행하는 분석적 분할 모델에 대한 초기 입력으로서 사용된다. [0279] In certain embodiments, image analysis techniques as described in this application, for example as described in section C.iv of this application, are used to refine hotspot segmentations determined via a machine learning module as described in this application. To do this, an analytic segmentation step is used. For example, in certain embodiments, a 3D hotspot map generated by machine learning approaches as described herein is used as an initial input to an analytic segmentation model that refines and/or performs an entirely new segmentation.

[0280] 특정 실시 형태에서, 분석적 분할 모델은 임계값 설정 알고리즘을 이용하여 핫스팟들은 해부학적 영상(예를 들어, CT 영상, MR 영상) 및/또는 기능적 영상(예를 들어, SPECT 영상, PET 영상)(예를 들어, PET/CT 또는 SPECT/CT 영상과 같은 해부학적 및 기능적 합성 영상)의 복셀들의 강도들과 하나 이상의 임계값들을 비교함으로써 분할된다. [0280] In a particular embodiment, the analytic segmentation model uses a thresholding algorithm to identify hotspots on anatomical images (eg, CT images, MR images) and/or functional images (eg, SPECT images, PET images). ) (eg, an anatomical and functional composite image such as a PET/CT or SPECT/CT image) by comparing intensities of voxels with one or more threshold values.

[0281] 특정 실시 형태에서, 도 18a를 참조하면, 적응적 임계값 접근법, 이에 의해 특정 핫스팟에 대해, 특정 핫스팟에 대해 결정된 초기 핫스팟 볼륨 내의 강도들이 예를 들어, 본 출원에서 기재된 바와 같은 기계 학습 접근법들을 통해 하나 이상의 참조 값들과 비교되어 특정 핫스팟에 대한 임계값을 결정한다. 그 다음에, 특정 핫스팟에 대한 임계값은 분석적 분할 모델에 의해 사용되어 특정 핫스팟을 분할하고 최종 핫스팟 볼륨을 결정한다. [0281] In a particular embodiment, with reference to FIG. 18A, an adaptive threshold approach whereby, for a particular hotspot, the intensities within the initial hotspot volume determined for the particular hotspot are machine learning, e.g., as described herein. The approaches are compared to one or more reference values to determine a threshold for a particular hotspot. The threshold for a particular hotspot is then used by the analytic segmentation model to segment the particular hotspot and determine the final hotspot volume.

[0282] 도 18a는 적응적 임계값 설정 접근법을 통해 핫스팟들을 분할하기 위한 예시적인 과정(1800)을 도시한다. 과정(1800)은 하나 이상의 3D 핫스팟 볼륨들, PET 영상(1804) 및 3D 장기 분할 맵(1806)을 식별하는 초기 3D 핫스팟 맵(1802)을 이용한다. 초기 3D 핫스팟 맵(1802)은 본 출원에서 기재된 다양한 기계 학습 접근법을 통해 및/또는 GUI와의 사용자 상호 작용에 기초하여 자동으로 결정될 수 있다. 예를 들어, 사용자는 3D 핫스팟 맵(1802)에의 포함을 위한 서브 세트를 선택함으로써 자동으로 결정된 핫스팟 볼륨들의 세트를 정제할 수 있다. 추가로 또는 대안적으로, 사용자는 예를 들어, GUI로 영상에 경계를 작성하여 수동으로 3D 핫스팟 볼륨들을 결정할 수 있다. [0282] FIG. 18A shows an example process 1800 for segmenting hotspots via an adaptive threshold setting approach. Process 1800 uses an initial 3D hotspot map 1802 to identify one or more 3D hotspot volumes, a PET image 1804 and a 3D organ segmentation map 1806 . The initial 3D hotspot map 1802 may be determined automatically through various machine learning approaches described herein and/or based on user interaction with a GUI. For example, a user can refine the automatically determined set of hotspot volumes by selecting a subset for inclusion in the 3D hotspot map 1802 . Additionally or alternatively, the user may determine the 3D hotspot volumes manually, for example by creating a boundary on the image with a GUI.

[0283] 특정 실시 형태에서, 3D 장기 분할 맵은 대동맥 부분 및/또는 간과 같은 특정 참조 조직 영역들에 대응하는 하나 이상의 참조 볼륨들을 식별한다. 본 출원에서 기재된 바와 같이, 예를 들어, 섹션 B.iii에서, 특정 참조 볼륨들 내의 복셀들의 강도들은 관련된 참조 값들(1808)을 계산하는 데 사용될 수 있고, 이에 대해 식별되고 분할된 핫스팟들의 강도들이 비교될 수 있다(예를 들어, '측정 스틱'으로 작용함). 예를 들어, 간 볼륨은 간 참조 값을 계산하는 데 사용되고 대동맥 부분은 대동맥 또는 혈액 풀 참조 값을 계산하는 데 사용될 수 있다. 과정(1800)에서, 대동맥 부분의 강도들은 혈액 풀 참조 값(1810)을 계산하는데(1808) 사용된다. 혈액 풀 참조 값(1810)은 초기 3D 핫스팟 맵(1802) 및 PET 영상(1804)을 결합하여 사용되어 초기 3D 핫스팟 맵(1802)에서 핫스팟들의 임계값 기반 분석적 분할을 수행하기 위한 임계값들을 결정한다. [0283] In a particular embodiment, the 3D organ segmentation map identifies one or more reference volumes corresponding to particular reference tissue regions, such as an aorta portion and/or liver. As described herein, for example in Section B.iii, the intensities of voxels within particular reference volumes may be used to compute associated reference values 1808, for which the intensities of identified and segmented hotspots are can be compared (eg acting as a 'measuring stick'). For example, the liver volume may be used to calculate liver reference values and the aortic portion to be used to calculate aorta or blood pool reference values. In process 1800, the intensities of the aortic portion are used to calculate 1808 a blood pool reference value 1810. The blood pool reference value 1810 is used in combination with the initial 3D hotspot map 1802 and the PET image 1804 to determine thresholds for performing a threshold based analytic segmentation of the hotspots in the initial 3D hotspot map 1802 .

[0284] 특히, 초기 3D 핫스팟 맵(1802)에서 식별된 특정 핫스팟 볼륨(물리적 병변을 나타내는 특정 핫스팟을 식별함)에 대해, 특정 핫스팟 볼륨 내에 위치된 PET 영상(1804) 복셀들의 강도들은 특정 핫스팟에 대한 핫스팟 강도를 결정하는 데 사용된다. 특정 실시 형태에서, 핫스팟 강도는 특정 핫스팟 볼륨 내에 위치된 복셀들의 최대 강도들이다. 예를 들어, SUVs를 나타내는 PET 영상 강도들에 대해, 특정 핫스팟 볼륨 내의 최대 SUV(SUVmax)가 결정된다. 피크값(예를 들어, SUVpeak), 평균, 중간, 사분위수 평균(IQRmean)과 같은 다른 척도들이 사용될 수 있다. [0284] In particular, for a particular hotspot volume identified in the initial 3D hotspot map 1802 (which identifies a particular hotspot representing a physical lesion), the intensities of the PET image 1804 voxels located within the particular hotspot volume correspond to the particular hotspot. used to determine the hotspot intensity for In a particular embodiment, the hotspot intensities are maximum intensities of voxels located within a particular hotspot volume. For example, for PET image intensities representing SUVs, the maximum SUV (SUV max ) within a particular hotspot volume is determined. Other measures may be used, such as peak value (eg SUV peak ), mean, median, quartile mean (IQR mean ).

[0285] 특정 실시 형태에서, 특정 핫스팟에 대한 핫스팟 특정 임계값은 혈액 풀 참조 값과 핫스팟 강도의 비교에 기초하여 결정된다. 특정 실시 형태에서, 핫스팟 강도와 혈액 풀 참조 값 사이의 비교는 복수의(예를 들어, 미리 정의된) 임계값 함수들 중 하나를 선택하는 데 사용되고, 선택된 임계값 함수는 특정 핫스팟에 대한 핫스팟 특정 임계값을 계산하는 데 사용된다. 특정 실시 형태에서, 임계값 함수는 특정 핫스팟의 핫스팟 강도(예를 들어, 최대 강도) 및/또는 혈액 풀 참조 값의 함수로서 핫스팟 특정 임계값을 계산한다. 예를 들어, 임계값 함수는 (i) 척도(scaling) 계수 및 (ii) 특정 핫스팟 및/또는 혈액 풀 참조의 핫스팟 강도 (또는 다른 강도 치수)의 곱으로서 핫스팟 특정 임계값을 계산할 수 있다. 특정 실시 형태에서, 척도 인자는 상수이다. 특정 실시 형태에서, 척도 인자는 특정 핫스팟의 강도 치수의 함수로서 결정되는 보간된 값이다. 특정 실시 형태에서 및/또는 특정 임계값 함수들에 대해, 척도 인자는 예를 들어, 본 출원의 섹션 G에서 더 상세히 기재된 바와 같이 최대 임계값에 대응하는 안정 수준(plateau level)을 결정하는 데 사용되는 상수이다. [0285] In a particular embodiment, a hotspot specific threshold for a particular hotspot is determined based on a comparison of a blood pool reference value and hotspot intensity. In certain embodiments, the comparison between the hotspot intensity and the blood pool reference value is used to select one of a plurality of (eg, predefined) threshold functions, the selected threshold function being hotspot specific for a particular hotspot. used to calculate the threshold. In certain embodiments, the threshold function calculates a hotspot specific threshold as a function of a hotspot intensity (eg, maximum intensity) of the specific hotspot and/or a blood pool reference value. For example, a threshold function may calculate a hotspot specific threshold as the product of (i) a scaling coefficient and (ii) a hotspot intensity (or other intensity measure) of a specific hotspot and/or blood pool reference. In certain embodiments, the scaling factor is a constant. In certain embodiments, the scaling factor is an interpolated value determined as a function of the intensity dimension of a particular hotspot. In certain embodiments and/or for certain threshold functions, the scaling factor is used to determine the plateau level corresponding to the maximum threshold value, as described in more detail, eg, in Section G of this application. is a constant that becomes

[0286] 예를 들어, 다양한 임계값 함수들을 계산하고 이들 사이에서 (예를 들어, 조건부 논리를 통해) 선택한 예시적인 접근법에 대한 의사 코드(pseudocode)가 하기에 보여진다. [0286] Pseudocode for an example approach to, for example, computing various threshold functions and choosing between them (eg, via conditional logic) is shown below.

SUVmax의 90 % ≤ [혈액 풀 참조]인 경우, 임계값 = SUVmax의 90 %이다.If 90% of SUVmax ≤ [see blood pool], the threshold = 90% of SUVmax.

다르게는, SUVmax의 50 % ≥ 2 x [혈액 풀 참조]인 경우, 임계값 = 2 x [혈액 풀 참조]이다.Alternatively, if 50% of SUVmax ≥ 2 x [see blood pool], the threshold = 2 x [see blood pool].

또 다르게는, [[혈액 풀 참조] / 0.9]에서 90 %로 시작하여 [2 x [혈액 풀 참조] / 0.5]에서 50 %로 끝나는 보간으로 SUVmax의 백분율을 결정하기 위해 선형 보간법을 사용한다.Alternatively, linear interpolation is used to determine the percentage of SUVmax, starting with 90% at [[blood pool reference]/0.9] and ending at [2 x [blood pool reference]/0.5] with 50%.

[보간된 백분율] x SUVmax가 2 x [혈액 풀 참조] 미만인 경우, 임계값 = [보간된 백분율] x SUVmax이다.If [interpolated percentage] x SUVmax is less than 2 x [refer to blood pool], threshold = [interpolated percentage] x SUVmax.

또 다르게는, 임계값 = 2 x [혈액 풀 참조]이다.Alternatively, threshold = 2 x [see blood pool].

[0287] 도 18b 및 18c는 상기의 의사 코드에 의해 실시된 특정 예시의 적응적 임계값 설정 접근법을 도시한다. 도 18b는 특정 핫스팟에 대한 핫스팟 강도 ― 예시에서 SUVmax ― 의 함수로서 임계값(1832)의 변화를 표시한다. 도 18c는 특정 핫스팟에 대한 SUVmax의 함수로서, 특정 핫스팟에 대한 SUVmax의 비율로 핫스팟 특정 임계값의 변화를 표시한다. 각각의 그래프의 점선들은 혈액 풀 참조(도 18b 및 18c의 예시 플롯(plot)들에서 1.5 의 SUV를 가짐)에 대한 특정 값들을 나타내고, 또한 도 18c에서 SUVmax의 90 % 및 50 %를 나타낸다. [0287] Figures 18B and 18C show a specific example adaptive threshold setting approach implemented by the pseudo code above. 18B displays the change in threshold 1832 as a function of hotspot intensity - SUVmax in the example - for a particular hotspot. 18C plots the change in the hotspot specific threshold as a percentage of SUVmax for the specific hotspot as a function of SUVmax for the specific hotspot. The dotted lines in each graph represent specific values for the blood pool reference (with an SUV of 1.5 in the example plots of FIGS. 18B and 18C), and also represent 90% and 50% of the SUV max in FIG. 18C.

[0288] 도 18d 내지 도 18F를 참조하면, 본 출원에서 기재된 바와 같은 적응적 임계값 설정 접근법은 고정된 또는 상대적인 임계값들을 이용하는 이전의 임계값 설정 기술들과 관련된 문제점들 및 단점들을 해결한다. 특히, 최대 표준 흡수값(SUVmax)에 기초한 임계값 기반 병변 분할은 특정 실시 형태에서 흡수 볼륨 및 SUVmean과 같은 파라미터들의 추정을 위해 핫스팟 볼륨들을 분할하는 투명하고 재현 가능한 방법을 제공하지만, 종래의 고정되고 상대적인 임계값들은 병변 SUVmax의 전체 동적 범위 하에서 잘 작동하지 않는다. 고정된 임계값 접근법은 영상 내의 핫스팟들을 분할하는 데 사용하기 위한 임계값으로서 예를 들어, 사용자 정의된 SUV 값과 같은 단일값을 사용한다. 예를 들어, 사용자는 고정된 임계값 수준을 4.5 라는 값으로 설정할 수 있다. 상대적인 임계값 접근법은 특정한 상수, 분수 또는 백분율을 사용하고 핫스팟 최대 SUV의 특정 비율 또는 백분율로 설정된 각각의 핫스팟에 대한 국소 임계값을 사용하여 핫스팟들을 분할한다. 예를 들어, 사용자는 최대 핫스팟 SUV 값의 40 %로 계산된 임계값을 사용하여 각각의 핫스팟을 분할하도록 상대적인 임계값을 40 %로 설정할 수 있다. 이들 접근법 둘 모두 ― 종래의 고정된 임계값과 상대적인 임계값 ―는 단점을 갖는다. 예를 들어, 환자들 간에 잘 작동하는 적절한 고정된 임계값들을 정의하는 것은 어렵다. 임계값을 핫스팟 최대 또는 피크 강도의 고정된 비율로서 정의하면 전체 강도가 낮은 핫스팟들이 더 낮은 임계값들을 사용하여 분할되기 때문에 종래의 상대적인 임계값 접근법도 문제가 있다. 결과적으로, 낮은 임계값을 사용하여 상대적으로 낮은 흡수로 더 작은 병변들을 나타낼 수 있는 저강도 핫스팟들을 분할하면 사실상 물리적으로 더 큰 병변을 나타내는 고강도 핫스팟에 대한 것보다 식별된 핫스팟 볼륨이 더 커질 수 있다. [0288] Referring to FIGS. 18D-18F, the adaptive threshold setting approach as described herein addresses the problems and drawbacks associated with previous threshold setting techniques using fixed or relative thresholds. In particular, threshold-based lesion segmentation based on maximum standard absorption value (SUVmax) provides a transparent and reproducible method of segmenting hotspot volumes for estimation of parameters such as absorption volume and SUV mean in certain embodiments, but conventional fixation and relative thresholds do not work well under the full dynamic range of the lesion SUV max . The fixed threshold approach uses a single value, eg a user-defined SUV value, as the threshold to use for segmenting hotspots in the image. For example, a user may set a fixed threshold level to a value of 4.5. The relative threshold approach segments hotspots using a specific constant, fraction or percentage and using a local threshold for each hotspot set to a specific percentage or percentage of the hotspot maximum SUV. For example, the user may set the relative threshold to 40% to segment each hotspot using a threshold calculated as 40% of the maximum hotspot SUV value. Both of these approaches - conventional fixed thresholds and relative thresholds - have drawbacks. For example, it is difficult to define appropriate fixed thresholds that work well across patients. Defining the threshold as a fixed percentage of the hotspot maximum or peak intensity is also problematic because hotspots with lower overall intensity are segmented using lower thresholds. As a result, segmenting low-intensity hotspots that may represent smaller lesions with relatively low absorption using a low threshold may in fact result in a larger identified hotspot volume than for high-intensity hotspots that represent physically larger lesions. .

[0289] 예를 들어, 도 18d 및 도 18e는 최대 핫스팟 강도의 50 %(예를 들어, 50 % SUVmax)로 결정된 임계값을 사용하여 두 개의 핫스팟들의 분할을 예시한다. 각각의 도면은 핫스팟을 통과하는 선 절단을 도시하며 포지션(position)의 함수로서 수직선 상에 강도를 표시한다. 도 18d는 큰 물리적 병변(1848)을 나타내는 고강도 핫스팟에 대한 강도의 변화를 예시하는 그래프(1840)를 도시한다. 핫스팟 강도(1842)는 핫스팟의 중심 부근에서 피크를 이루고 핫스팟 임계값(1844)은 핫스팟 강도(1842)의 최대값의 50 %로 설정된다. 핫스팟 임계값(1844)을 사용하여 핫스팟을 분할하면 예를 들어, 선형 치수(1846)를 예시된 병변(1848)과 비교함으로써 도시된 바와 같이 물리적 병변의 크기와 대략 일치하는 분할된 볼륨을 생성한다. 도 18e는 작은 물리적 병변(1858)을 나타내는 저강도 핫스팟에 대한 강도의 변화를 예시하는 그래프(1850)를 도시한다. 핫스팟 강도(1852)는 또한 핫스팟의 중심 부근에서 피크를 이루고 핫스팟 임계값(1854)은 또한 핫스팟 강도(1852)의 최대값의 50 %로 설정된다. 그러나, 핫스팟 강도(1852)는 고강도 핫스팟에 대한 핫스팟 강도(1842)보다 덜 급격하게 피크를 이루고 더 낮은 강도 피크를 갖기 때문에, 핫스팟 강도의 최대값에 상대적인 임계값을 설정하면 절대적인 임계값이 훨씬 더 낮아진다. 결과적으로, 임계값 기반 분할은 예를 들어, 선형 크기(1856)를 예시된 병변(1858)과 비교함으로써, 도시된 바와 같이 표시된 물리적 병변이 더 작지만 더 높은 강도의 핫스팟과 비교하여 더 큰 핫스팟 볼륨을 생성한다. 따라서 상대적인 임계값들은 더 작은 물리적 병변들에 대해 더 큰 분명한 핫스팟 볼륨들을 생성할 수 있다. 낮은 강도의 병변들은 더 낮은 임계값들을 가질 것이고 따라서 치료에 반응하는 병변은 볼륨이 증가하는 것처럼 나타날 수 있기 때문에 이는 치료 반응의 평가에 특히 문제가 된다. [0289] For example, FIGS. 18D and 18E illustrate segmentation of two hotspots using a threshold determined to be 50% of the maximum hotspot intensity (eg, 50% SUV max ). Each figure shows a line cut through the hotspot and plots the intensity on a vertical line as a function of position. 18D shows a graph 1840 illustrating the change in intensity for high-intensity hotspots representing large physical lesions 1848. The hotspot intensity 1842 peaks near the center of the hotspot and the hotspot threshold 1844 is set to 50% of the maximum value of the hotspot intensity 1842 . Segmenting the hotspot using the hotspot threshold 1844 creates a segmented volume that approximately matches the size of the physical lesion as shown, for example by comparing the linear dimension 1846 to the illustrated lesion 1848. . 18E shows a graph 1850 illustrating the change in intensity for low intensity hotspots representing small physical lesions 1858. The hotspot intensity 1852 also peaks near the center of the hotspot and the hotspot threshold 1854 is also set to 50% of the maximum value of the hotspot intensity 1852 . However, since hotspot intensity 1852 peaks less sharply and has a lower intensity peak than hotspot intensity 1842 for high-intensity hotspots, setting a threshold relative to the maximum of hotspot intensity results in a much higher absolute threshold. It gets lower. As a result, threshold-based segmentation results in a greater hotspot volume compared to hotspots with smaller but higher intensity indicated physical lesions, as shown, for example, by comparing the linear size 1856 to the illustrated lesion 1858. generate Relative thresholds can thus produce larger apparent hotspot volumes for smaller physical lesions. This is particularly problematic for the assessment of treatment response, as lesions of low intensity will have lower thresholds and thus lesions responding to treatment may appear to increase in volume.

[0290] 특정 실시 형태에서, 본 출원에서 기재된 바와 같은 적응적 임계값 설정은 핫스팟 강도의 백분율로서 계산되는 적응적 임계값을 이용함으로써 이러한 단점들을 해결하고, 그 백분율은 (i) 핫스팟 강도(예를 들어, SUVmax)가 증가함에 따라 감소하고 (ii) 핫스팟 강도(예를 들어, SUVmax) 및 전반적인 생리학적 흡수(예를 들어, 혈액 풀 참조 값과 같은 참조 값에 의해 측정됨) 둘 모두에 의존한다. 따라서 종래의 상대적인 임계값 설정 접근법과 달리, 본 출원에서 기재된 적응적 임계값 설정 접근법에서 사용되는 핫스팟 강도의 특정 분율 / 백분율은 변화하고, 그 자체가 핫스팟 강도의 함수이며 또한 특정 실시 형태에서 생리학적 흡수도 설명한다. 예를 들어, 도 18f의 예시적인 플롯(1860)에서 확인할 수 있듯이, 본 출원에서 기재된 바와 같은 가변적, 적응적 임계값 설정 접근법을 이용하여 임계값(1864)을 피크 핫스팟 강도(1852)의 더 높은 백분율 ― 예를 들어, 도 18f에 도시된 바와 같이 90 % ―로 설정한다. 도 18f에 예시된 바와 같이, 그렇게 하면서 핫스팟이 나타내는 병변(1866)의 진정한 크기를 더 정확하게 반영하는 핫스팟 볼륨을 식별하기 위한 임계값 기반 분할을 가능하게 한다. [0290] In certain embodiments, adaptive threshold setting as described herein addresses these drawbacks by using an adaptive threshold calculated as a percentage of the hotspot intensity, which percentage is (i) the hotspot intensity (e.g. For example, SUV max ) decreases with increasing (ii) both hotspot intensity (eg, SUV max ) and overall physiological uptake (eg, as measured by a reference value such as a blood pool reference value) depends on Thus, unlike conventional relative thresholding approaches, the specific fraction/percentage of hotspot intensity used in the adaptive thresholding approach described in this application varies, which is itself a function of hotspot intensity and, in certain embodiments, physiologically Absorption is also explained. For example, as can be seen in the example plot 1860 of FIG. 18F , threshold 1864 can be set to a higher peak hotspot intensity 1852 using a variable, adaptive threshold setting approach as described herein. Set to a percentage - for example, 90% as shown in Fig. 18F. As illustrated in FIG. 18F , doing so enables a threshold based segmentation to identify a hotspot volume that more accurately reflects the true size of the lesion 1866 represented by the hotspot.

[0291] 특정 실시 형태에서, 불균일한 병변들을 먼저 균일한 서브 성분들로 분할하고 최종적으로 분수령 알고리즘(watershed algorithm)을 사용하여 근처의 강도 피크로부터 흡수를 배제함으로써 임계값 설정이 용이해진다. 본 출원에서 기재된 바와 같이, 적응적 임계값 설정은 예를 들어, 본 출원에서 기재된 바와 같은 기계 학습 모듈들을 통해 구현되는 심층 신경망들에 의한 자동화된 검출들 뿐만 아니라 수동으로 미리 분할된 병변들에 적용될 수 있어 재현성과 견고성을 개선하고 설명 가능성을 추가할 수 있다. [0291] In certain embodiments, thresholding is facilitated by first dividing non-uniform lesions into homogeneous sub-components and finally excluding absorption from nearby intensity peaks using a watershed algorithm. As described in this application, adaptive threshold setting can be applied to manually pre-segmented lesions as well as automated detections by, for example, deep neural networks implemented via machine learning modules as described in this application. This can improve reproducibility and robustness and add explainability.

G. PYL―PET/CT 영상 촬영에 대한 예시적인 임계값 설정 함수들 및 척도 인자들을 비교하는 예시 연구G. Example Study Comparing Exemplary Threshold Setting Functions and Scaling Factors for PYL-PET/CT Imaging

[0292] 이러한 예시는 본 출원 예를 들어, 섹션 F에서 기재된 바와 같이 적응적 임계값 설정 접근법에서 사용하기 위한 다양한 파라미터들을 평가하고 참조로서 수동으로 주석이 달린 병변들을 사용하여 고정 및 상대적인 임계값들을 비교하기 위해 수행된 연구를 기재한다. [0292] This example evaluates various parameters for use in the adaptive threshold setting approach as described in this application, e.g., Section F, and uses manually annotated lesions as a reference to set fixed and relative thresholds. Describe studies performed for comparison.

[0293] 이러한 예시의 연구에서는 숙련된 핵의학 판독기가 수동으로 분할한 뼈, 림프 및 전립선 병변들에 대응하는 핫스팟들을 갖는 242 명의 환자들에 대해 18F―DCFPyL PET/CT 스캔을 사용하였다. 167 명의 환자들에 걸쳐 총 792 개의 핫스팟 볼륨들에 주석을 달았다. 임계값 설정 알고리즘들을 평가하기 위해 두 가지 연구가 수행되었다. 첫 번째 연구에서, 수동으로 주석이 달린 핫스팟들을 서로 다른 임계값 설정 알고리즘들로 정제하였고, 크기 순서가 얼마나 잘 보존되었는지, 즉 정제 후 초기에 더 큰 핫스팟 볼륨들보다 더 작은 핫스팟 볼륨들이 더 작게 유지되는 정도를 추정하였다. 두 번째 연구에서, 본 출원에서 기재된 다양한 실시 형태에 따르면 기계 학습 접근법에 의해 자동으로 검출된 의심스러운 핫스팟들의 임계값 설정에 의한 정제가 수행되었고 수동 주석들과 비교되었다. [0293] This exemplary study used 18 F-DCFPyL PET/CT scans on 242 patients with hotspots corresponding to bone, lymphatic and prostate lesions manually segmented by an experienced nuclear medicine reader. A total of 792 hotspot volumes across 167 patients were annotated. Two studies were conducted to evaluate threshold setting algorithms. In the first study, manually annotated hotspots were refined with different thresholding algorithms and how well the order of magnitude was preserved, i.e., smaller hotspot volumes remained smaller than larger hotspot volumes initially after refinement. The extent to which it is has been estimated. In a second study, according to various embodiments described in this application, refinement by thresholding of suspicious hotspots automatically detected by a machine learning approach was performed and compared with manual annotations.

[0294] 이러한 예시에서 PET 영상 강도들은 표준 흡수값들(SUV)을 나타내도록 조정되었고 본 섹션에서는 흡수 또는 흡수 강도들이라고 하였다. 비교된 다른 임계값 설정 알고리즘들은 다음과 같다: SUV = 2.5 의 고정된 임계값, SUVmax의 50 %의 상대적인 임계값 및 적응적 임계값들의 변종들. 적응적 임계값들은 최대의 임계값 수준이 있거나 없는 SUVmax의 감소하는 백분율로부터 정의되었다. 안정 수준은 건강한 조직에 대응하는 영역들에서 정상 이상의 흡수 강도들이 되도록 설정되었다. 적절한 안정 수준을 선택하기 위해 두 가지 지원 조사들이 수행되었고, 하나는 대동맥의 정상적인 흡수 강도를 연구하는 것이고 다른 하나는 전립선의 정상적인 흡수 강도를 연구하는 것이다. 그 중에서도 특히, 임계값 설정 접근법들은 핵의학 판독기에 의해 수행된 주석들과 비교하여 크기 순서의 보존에 기초하여 평가되었다. 예를 들어, 핵의학 판독기가 핫스팟들을 수동으로 분할하고 수동으로 분할된 핫스팟 볼륨들을 크기에 따라 정렬한 경우 크기 순서의 보존은 동일한 핫스팟들을 자동화된 임계값 설정 접근법을 사용하여 분할하여 생성된 핫스팟 볼륨들의 정도를 지칭하며(예를 들어, 사용자 상호 작용을 포함하지 않음) 핫스팟 볼륨들은 동일한 방식으로 자신의 크기에 따라 정렬된다. 가중 순위 상관 측정에 따라, 크기 순서 보존의 측면에서 적응적 임계값 설정 접근법의 두 가지 실시 형태가 최상의 성능을 달성하였다. 이러한 두 가지 적응적 임계값 설정 방법들은 저강도 병변들에 대해 SUVmax의 90 %에서 시작하여 혈액 풀 참조 값의 2 배(예를 들어, 2 x [대동맥 참조 흡수])에서 안정되는 임계값들을 이용하였다. 첫 번째 방법("P9050―sat"라고 함)은 안정 수준이 SUVmax의 50 %일 때 안정에 도달했고, 다른 하나("P9040―sat"라고 함)는 SUVmax의 40 %일 때 안정에 도달하였다. [0294] The PET image intensities in this example were calibrated to represent standard absorption values (SUV) and referred to as absorption or absorption intensities in this section. Other threshold setting algorithms compared were: a fixed threshold of SUV = 2.5, a relative threshold of 50% of SUV max and variants of adaptive thresholds. Adaptive thresholds were defined as the decreasing percentage of SUV max with or without the maximum threshold level. The stability level was set to be absorption intensities above normal in areas corresponding to healthy tissue. To select an appropriate resting level, two supporting investigations were performed, one studying the normal absorption intensity of the aorta and the other studying the normal absorption intensity of the prostate. Among other things, thresholding approaches were evaluated based on conservation of order of magnitude compared to annotations performed by a nuclear medicine reader. For example, if a nuclear medicine reader has manually segmented hotspots and sorted the manually segmented hotspot volumes according to size, preservation of size order is the hotspot volume created by segmenting the same hotspots using an automated thresholding approach. hotspot volumes are ordered according to their size in the same way (eg, without user interaction). According to the weighted rank correlation measure, both embodiments of the adaptive thresholding approach achieved the best performance in terms of magnitude order preservation. These two adaptive thresholding methods set thresholds starting at 90% of the SUV max for low-intensity lesions and stabilizing at twice the blood pool reference value (e.g., 2 x [aortic reference uptake]). used The first method (called “P9050―sat”) reached stability when the stability level was 50% of SUV max , and the other (called “P9040—sat”) reached stability when SUV max was 40%. did

[0295] 또한 임계값 설정으로 자동으로 검출되고 분할된 핫스팟들을 정제하면 정밀도―재현율 균형(tradeoff)이 변경되는 것으로 나타났다. 자동으로 검출되고 분할된 원래의 핫스팟들은 높은 재현율과 낮은 정밀도를 가지고 있었지만, P9050―sat 임계값 설정 방법으로 분할들을 정제하면 정밀도와 재현율의 측면에서 더 균형 잡힌 수행능이 생성되었다. [0295] It has also been shown that refining automatically detected and segmented hotspots with threshold settings changes the precision-recall tradeoff. The original automatically detected and segmented hotspots had high recall and low precision, but refining the segments with the P9050-sat thresholding method produced a more balanced performance in terms of precision and recall.

[0296] 개선된 상대적인 크기 보존은, 알고리즘이 핵의학 판독기의 주석들의 크기 순서를 더 잘 포착하기 때문에 치료 반응 평가가 개선될 것이며 / 더 정확할 것임을 나타낸다. 과도한 분할과 과소한 분할 사이의 균형을 처리하는 것은 분리 임계값 설정 방법을 도입하여 검출 단계에서 분리될 수 있다 ― 즉, 본 출원에서 기재된 바와 같은 기계 학습 접근법들을 사용하여 수행되는 자동화된 핫스팟 검출 및 분할 접근법에 더하여, 본 출원에서 기재된 바와 같은 분석적, 적응적 분할 접근법을 사용한다 ―. [0296] Improved relative size conservation indicates that treatment response assessment will be improved/more accurate because the algorithm better captures the order of magnitude of the nuclear medicine reader's annotations. Dealing with the balance between over-segmentation and under-segmentation can be decoupled from the detection step by introducing a separation threshold setting method - i.e. automated hotspot detection performed using machine learning approaches as described in this application and In addition to the segmentation approach, we use the analytic, adaptive segmentation approach as described in this application.

[0297] 본 출원에서 기재된 지원 연구들의 예시는 최대 임계값들에 대응하는 안정값들을 계산하는 데 사용되는 척도 인자들을 결정하는 데 사용되었다. 조사를 위해, 본 출원에서 기재된 바와 같이, 본 예시에서 이러한 척도 인자들은 다양한 참조 영역들에서 정상의 건강한 조직의 강도들에 기초하여 결정되었다. 예를 들어, 대동맥 영역의 강도들을 기초로 하여 혈액 풀 참조에 1.6 의 인자를 곱하면 일반적으로 대동맥 강도값들의 95 % 초과이지만 전립선의 일반적인 정상 흡수보다 그 미만의 수준이 생성되었다. 따라서 특정 예시의 임계값 함수들에서 더 높은 값이 사용되었다. 특히, 정상적인 전립선 조직에서 일반적으로 대부분의 강도들보다 높은 수준을 달성하기 위해 인자 2 가 결정되었다. 이 값은 전립선 볼륨들 내의 PET 영상 복셀들의 시상, 관상 및 횡단 면들의 히스토그램 및 영상 투영들의 조사들에 기초하여 수동으로 결정되었지만 종양 흡수에 대응하는 임의의 부분들은 배제되었다. 척도 인자를 보여주는 예시적인 영상 슬라이스들 및 대응하는 히스토그램이 도 18g에 도시된다. [0297] Examples of supporting studies described in this application were used to determine the scaling factors used to calculate the stability values corresponding to maximum thresholds. For investigation, as described in this application, these scaling factors in this example were determined based on the intensities of normal healthy tissue at various reference regions. For example, multiplying the blood pool reference by a factor of 1.6 based on the intensities of the aortic region produced levels generally greater than 95% of aortic intensity values but less than normal normal uptake in the prostate. Therefore, higher values were used in the specific example threshold functions. In particular, factor 2 was determined to achieve a level higher than most intensities generally in normal prostate tissue. This value was determined manually based on examinations of histograms and image projections of sagittal, coronal and transverse sections of PET image voxels within prostate volumes, but any portions corresponding to tumor uptake were excluded. Exemplary image slices showing scaling factors and corresponding histograms are shown in FIG. 18G.

i. 도입i. introduction

[0298] 병변들은 PET에서 핫스팟들로 나타나고 일반적으로 명확한 경계들이 없기 때문에, PET/CT에서 병변의 볼륨들을 정의하는 것은 주관적인 과정일 수 있다. 병변의 볼륨들은 종종 CT 영상의 해부학적 범위에 기초하여 분할될 수 있지만, 이러한 접근법은 전체 흡수가 포함되지 않을 것이기 때문에 추적자 흡수에 관한 특정 정보를 무시하게 될 것이다. 또한 특정 병변들은 기능적 PET 영상에서 볼 수 있지만, CT 영상에서는 볼 수 없다. 본 섹션은 생리학적 흡수 볼륨, 즉 흡수가 배경보다 높은 볼륨을 반영하는 핫스팟 볼륨들을 정확하게 식별하는 것을 목표로 하는 임계값 설정 방법들을 설계한 예시 연구를 기재한다. 이러한 방식으로 분할을 수행하고 핫스팟 볼륨들을 식별하기 위해, 전체 흡수 볼륨을 반영하는 충분히 큰 핫스팟 볼륨을 분할하지 않을 위험 대비 배경을 포함할 위험의 균형을 맞추도록 임계값들이 선택된다. [0298] Defining the volumes of a lesion in PET/CT can be a subjective process, as lesions appear as hotspots in PET and generally do not have clear boundaries. The volumes of the lesion can often be segmented based on the anatomical extent of the CT image, but this approach will ignore specific information about tracer uptake since full uptake will not be included. Also, certain lesions can be seen on functional PET images, but not on CT images. This section describes an exemplary study designed threshold setting methods that aim to accurately identify hotspot volumes that reflect the physiological uptake volume, i.e. the volume where uptake is higher than the background. To perform segmentation and identify hotspot volumes in this way, thresholds are chosen to balance the risk of including the background against the risk of not segmenting a hotspot volume that is large enough to reflect the entire absorbent volume.

[0299] 이러한 위험 균형은 일반적으로 잠재적인 핫스팟 볼륨에 대해 결정된 SUVmax 값의 50 % 또는 40 %를 임계값으로 선택함으로써 해결된다. 이러한 접근법의 근거는 고흡수 병변들(예를 들어, PET 영상의 고강도 핫스팟들에 대응)의 경우 임계값을 저흡수 병변들(예를 들어, 더 낮은 강도의 핫스팟들에 대응)보다 더 높게 설정될 수 있는 반면, 전체 흡수 볼륨을 나타내는 볼륨을 핫스팟 볼륨으로서 분할하지 않는 것과 동일한 위험 수준을 유지할 수 있다는 것이다. 그러나 신호 대 잡음비가 낮은 핫스팟들의 경우, SUVmax의 50 %의 임계값을 사용하면 분할에 배경이 포함될 것이다. 이를 방지하기 위해, 예를 들어, 낮은 강도 핫스팟들에 대해 90 % 또는 75 %에서 시작하여 감소하는 SUVmax의 백분율을 사용할 수 있다. 더욱이, 배경을 포함할 위험은 임계값이 배경 수준보다 충분히 높아지자 마자 낮아지며, 이는 고흡수 병변들에 대해 SUVmax의 50 %보다 훨씬 낮은 임계값들에 대해 발생한다. 따라서 임계값은 일반적인 배경 강도들보다 높은 안정 수준에서 제한될 수 있다. [0299] This risk balance is typically addressed by selecting 50% or 40% of the SUV max value determined for the potential hotspot volume as a threshold. The rationale for this approach is to set the threshold higher for high-absorption lesions (e.g., corresponding to high-intensity hotspots on the PET image) than for low-absorptive lesions (e.g., corresponding to lower intensity hotspots). While it can be, it maintains the same level of risk as not dividing the volume representing the total absorption volume as the hotspot volume. However, for hotspots with a low signal-to-noise ratio, using a threshold of 50% of SUV max will include the background in the segmentation. To avoid this, one can use a decreasing percentage of SUVmax starting at 90% or 75% for low intensity hotspots, for example. Moreover, the risk of background inclusion is lowered as soon as the threshold is sufficiently higher than the background level, which occurs for thresholds well below 50% of SUVmax for highly absorptive lesions. Thus, the threshold can be limited at a stable level higher than typical background intensities.

[0300] 일반적인 배경 흡수 강도보다 훨씬 높은 흡수 강도 수준에 대한 하나의 참조는 평균 간 흡수이다. 실제의 배경 흡수 강도들에 기초하여, 다른 참조 수준들이 바람직할 수 있다. 배경 흡수 강도는 뼈, 림프 및 전립선에서 상이하고, 뼈는 배경 흡수 강도가 가장 낮고 전립선은 배경 흡수 강도가 가장 높다. 특정 병변의 위치 및/또는 분류에 관계없이 동일한 분할 방법을 사용할 수 있기 때문에, 조직에 관계없이 동일한 임계값 설정 방법을 사용하는 것이 유리/바람직하다. 따라서 이러한 예시의 연구는 세 가지 조직 유형들 모두에서 병변들에 대해 동일한 임계값 파라미터를 사용하여 임계값들을 평가한다. 이러한 예시에서 평가된 적응적 임계값 설정 변종들은 간 흡수 강도에서 안정한 변종, 대동맥 흡수 초과로 추정되는 수준에서 안정한 변종 및 전립선 흡수 강도 초과로 추정되는 수준에서 안정한 여러 변종을 포함한다. [0300] One reference for a level of absorption intensity much higher than the normal background absorption intensity is average liver absorption. Based on actual background absorption intensities, other reference levels may be desirable. Background uptake intensities are different in bone, lymph and prostate, with bone having the lowest background uptake and prostate having the highest background uptake. It is advantageous/preferable to use the same threshold setting method regardless of tissue, as the same segmentation method can be used regardless of the location and/or classification of a particular lesion. Thus, this example study evaluates thresholds using the same threshold parameter for lesions in all three tissue types. The adaptive thresholding variants evaluated in this example include variants that are stable at hepatic uptake intensity, stable at the estimated level of aortic uptake, and several variants that are stable at the estimated level above the prostate uptake.

[0301] 특정한 이전의 접근법들은 혈액 풀 흡수 강도의 평균에 혈액 풀 흡수 강도의 2 배 표준 편차를 가산하여(예를 들어, 혈액 풀 흡수 강도의 평균 + 2 x SD) 계산되는 종격동 혈액 풀 흡수 강도의 함수로서 수준을 결정하였다. 그러나 표준 편차의 추정에 의존하는 이러한 접근법은 원하지 않는 오류들과 노이즈 감도들을 유발할 수 있다. 특히, 표준 편차를 추정하는 것은 평균을 추정하는 것보다 훨씬 덜 견고하고 잡음, 사소한 분할 오류들 또는 PET/CT 오정렬에 의해 영향을 받을 수 있다. 혈액 흡수 강도를 초과하는 수준을 추정하는 보다 강력한 방법은 고정된 인자에 평균 또는 대동맥 참조 값을 곱한 값을 사용한다. 적절한 인자를 찾기 위해, 대동맥의 흡수 강도의 분포들을 연구하고 이러한 예시에서 기재된다. 정상 전립선 흡수 강도는 일반적으로 정상 전립선 강도들을 초과하는 수준을 계산하기 위해 참조 대동맥 흡수에 적용될 수 있는 적절한 인자를 결정하기 위해 연구되었다. [0301] Certain previous approaches have determined mediastinal blood pool uptake intensity calculated by adding 2x standard deviation of the blood pool uptake intensity to the mean of the blood pool uptake intensity (e.g., mean of the blood pool uptake intensity + 2 x SD). The level was determined as a function of However, this approach, which relies on an estimate of the standard deviation, can introduce undesirable errors and noise sensitivities. In particular, estimating the standard deviation is much less robust than estimating the mean and may be affected by noise, minor segmentation errors, or PET/CT misalignment. A more robust method of estimating levels above blood absorption intensity uses a fixed factor multiplied by the mean or aortic reference value. In order to find a suitable factor, the distributions of absorption intensity in the aorta are studied and described in this example. Normal prostate absorption intensities were studied to determine appropriate factors that could be applied to the reference aortic absorption to calculate levels above normal prostate intensities in general.

ii. 방법들ii. methods

임계값 설정 수동 주석들Threshold setting manual annotations

[0302] 이러한 연구는 동일한 환자에게서 동일한 유형의 적어도 하나의 다른 병변을 갖는 병변들만 포함하는 데이터의 서브 세트를 사용하였다. 이러한 결과, 92 명의 환자들 전체에 걸쳐 684 개의 수동으로 분할된 병변 흡수 볼륨들(뼈에서 278 개, 림프절에서 357 개, 전립선에서 49 개)을 갖는 데이터 세트가 생성되었다. 임계값 설정에 의한 자동 정제가 수행되었고, 그 출력이 원래 볼륨들과 비교되었다. 수행능은 환자의 분할된 핫스팟들의 볼륨들의 수로 주어진 가중치와 함께 환자 및 조직 유형 내의 정제된 볼륨들과 원래 볼륨들 사이의 순위 상관 관계의 가중 평균에 의해 측정되었다. 이러한 수행능 측정은 분할된 핫스팟 볼륨들 사이의 상대적인 크기들이 보존되었는지 여부를 나타내지만, 흡수 볼륨들이 명확한 경계들을 갖지 않기 때문에 선택적으로 정의된 절대적인 크기들은 무시한다. 그러나 특정 환자 및 조직 유형에 대해, 동일한 핵의학 판독기가 모든 주석을 작성하였고 따라서 이들이 더 작은 병변 주석이 실제로 더 큰 병변 주석과 비교하여 더 작은 흡수 볼륨을 반영하는 더 작은 병변 주석으로 체계적인 방식으로 작성되었다고 가정할 수 있다. [0302] This study used a subset of the data that included only lesions with at least one other lesion of the same type in the same patient. These results resulted in a data set with 684 manually segmented lesion resorption volumes (278 from bone, 357 from lymph nodes, and 49 from prostate) across 92 patients. Automatic refinement by threshold setting was performed and the output was compared to the original volumes. Performance was measured by a weighted average of rank correlations between refined and original volumes within the patient and tissue type, with a weight given by the number of volumes of segmented hotspots in the patient. This performance measure indicates whether the relative sizes between the segmented hotspot volumes are preserved, but ignores the optionally defined absolute sizes since the absorption volumes do not have clear boundaries. However, for a particular patient and tissue type, the same nuclear medicine reader created all annotations and therefore they were written in a systematic manner with smaller lesion annotations reflecting smaller uptake volumes compared to larger lesion annotations in practice. it can be assumed that

자동으로 검출된 병변들의 임계값 설정Threshold setting of automatically detected lesions

[0303] 이러한 연구는 핫스팟 검출 및 분할을 위해 사용되는 기계 학습 모듈들을 훈련하는 데 사용되지 않은 데이터의 서브 세트를 사용하였고 67 명의 환자들 전체에 걸쳐 수동으로 분할된 285 개의 병변 흡수 볼륨들(104 개의 뼈, 129 개의 림프, 52 개의 전립선)을 갖는 데이터 세트를 생성하였다. 수동으로 분할된 병변들 (감도는 뼈의 경우 90 % 내지 91 %, 림프의 경우 92 % 내지 93 %, 전립선의 경우 94 % 내지 98%)과 일치하는 정제된 (및 정제되지 않은) 자동 검출된 볼륨들 사이에서 정밀도와 재현율을 측정하였다. 이러한 수행능 측정들은 자동으로 검출되고 가능한대로 정제된 핫스팟들과 수동으로 주석이 달린 핫스팟들 사이의 유사성을 정량화한다. [0303] This study used a subset of the data not used to train the machine learning modules used for hotspot detection and segmentation and 285 manually segmented lesion absorption volumes (104 Dog bones, 129 lymph, 52 prostate) were created. Refined (and unrefined) automatically detected lesions consistent with manually segmented lesions (sensitivity 90% to 91% for bone, 92% to 93% for lymph, and 94% to 98% for prostate). Precision and recall were measured between volumes. These performance measures quantify the similarity between automatically detected and possibly refined hotspots and manually annotated hotspots.

혈액 흡수blood absorption

[0304] 242 명의 환자들에 대해, 심층 학습 파이프라인(pipeline)을 사용하여 CT 구성요소에서 대동맥의 흉부 부분을 분할하였다. 분할된 대동맥 볼륨은 PET 공간에 투영되었고 대동맥 외부 또는 혈관 벽에 있는 영역들을 포함하는 대동맥 볼륨의 위험을 최소화하기 위해 3 mm 침식되었고 동시에 대동맥 내부의 흡수를 최대한 유지하였다. 나머지 흡수 강도에 대해, 각각의 환자에서 계수 q = (aortaMEAN + 2 x aortaSD) / aortaMEAN을 계산하였다. [0304] For 242 patients, the thoracic portion of the aorta was segmented in the CT component using a deep learning pipeline. The segmented aortic volume was projected onto the PET space and eroded by 3 mm to minimize the risk of the aortic volume including areas outside the aorta or in the vessel wall while maximally maintaining uptake inside the aorta. For the remaining absorption intensities, the coefficient q = (aortaMEAN + 2 x aortaSD) / aortaMEAN was calculated for each patient.

전립선 흡수prostate absorption

[0305] 29 명의 환자들에서, 전립선의 정상적인 흡수가 연구되었다. 이 연구는 기계 학습 모듈을 통해 결정된 분할된 전립선 볼륨들을 이용하여 수행되었다. 수동으로 주석이 달린 전립선 병변들의 흡수 강도들은 배제되었다. 도 18g의 예시를 참조하면, 대동맥 참조 흡수 강도에 대해 정규화된 나머지 흡수 강도는 히스토그램들 뿐만 아니라 축상, 시상 및 관상 면들에서 최대 강도 투영에 의해 가시화되었다. 최대 투영의 목적은 히스토그램들의 외부 강도들, 특히 건강한 조직의 최대 흡수 강도보다 높은 방광 흡수와 관련된 강도들에 대한 설명들을 찾는 것이었다. [0305] In 29 patients, normal resorption of the prostate was studied. This study was performed using segmented prostate volumes determined through a machine learning module. Absorption intensities of manually annotated prostate lesions were excluded. Referring to the example in FIG. 18G , the remaining absorption intensities normalized to the aortic reference absorption intensities were visualized by histograms as well as maximum intensity projections in the axial, sagittal and coronal planes. The purpose of maximal projection was to find explanations for the extrinsic intensities of the histograms, especially intensities associated with bladder uptake that are higher than the maximal uptake in healthy tissue.

임계값 설정 방법들Threshold setting methods

[0306] 두 가지 기본 방법들(SUV = 2.5 에서 고정된 임계값 및 SUVmax의 50 %에서 상대적인 임계값)을 적응적 임계값들의 6가지 변종들과 비교하였다. 적응 임계값들은 세 가지 임계값 함수들을 사용하여 정의되었으며, 각각이 SUVmax 값들의 특정 범위와 관련된다. 특히: [0306] The two basic methods (a fixed threshold at SUV = 2.5 and a relative threshold at 50% of SUVmax) were compared with 6 variants of adaptive thresholds. Adaptive thresholds were defined using three threshold functions, each associated with a specific range of SUVmax values. especially:

(1) 낮은 범위 임계값 함수: 첫 번째 임계값 함수를 사용하여 낮은 범위에서 SUVmax 값들에 대한 임계값들을 계산하였다. 첫 번째 임계값 함수는 임계값들을 SUVmax의 고정된 (높은) 백분율로 계산하였다.(1) Low Range Threshold Function: The thresholds for SUV max values in the low range were calculated using the first threshold function. The first threshold function computed threshold values as a fixed (high) percentage of SUV max .

(2) 중간 범위 임계값 함수: 두 번째 임계값 함수는 중간 범위의 SUVmax 값들에 대한 임계값들을 계산하는 데 사용되었다. 두 번째 임계값 함수는 SUVmax의 선형 감소 백분율로 임계값을 계산하였고 범위의 상단에서 임계값과 동일한 최대 임계값으로 제한되었다.(2) Mid-Range Threshold Function: The second threshold function was used to calculate the thresholds for mid-range SUV max values. The second threshold function calculated the threshold as a percentage of the linear decrease in SUV max and bounded to the maximum threshold equal to the threshold at the upper end of the range.

(3) 높은 범위 임계값 함수들: 높은 범위 임계값 함수를 사용하여 높은 범위에서 SUVmax 값들에 대한 임계값들을 계산하였다. 높은 범위 임계값 함수는 최대 고정된 임계값(포화 임계값들) 또는 SUVmax(비포화 임계값들)의 고정된(낮은) 백분율 중 어느 하나에서 임계값들을 설정하였다.(3) High Range Threshold Functions: Thresholds for SUV max values in the high range were calculated using the high range threshold function. The high range threshold function set thresholds at either a maximum fixed threshold (saturation thresholds) or a fixed (lower) percentage of the SUV max (non-saturation thresholds).

[0307] 위에 기재된 세 가지 임계값 함수들 및 범위들의 정확한 파라미터들은 다양한 적응적 임계값 알고리즘들 사이에서 다양하고, 하기의 표 2 에 나열되어 있다. [0307] The exact parameters of the three threshold functions and ranges described above vary among the various adaptive threshold algorithms and are listed in Table 2 below.

[표 2] [ Table 2 ]

적응적 임계값 알고리즘들의 임계값 함수들에 대한 범위들 및 파라미터들Ranges and Parameters for Threshold Functions of Adaptive Threshold Algorithms

Figure pct00007
Figure pct00007

[0308] 중간 SUVmax 범위에서 사용되는 보간된 백분율은 P9050―sat에 대해 다음과 같은 방식으로 계산되었다: [0308] The interpolated percentage used in the middle SUV max range was calculated for P9050-sat in the following way:

Figure pct00008
Figure pct00008

여기서 SUVhigh의 50 %는 2 x [대동맥 흡수 강도]이고, SUVlow의 90 %는 대동맥 흡수 강도와 동일하다.Here, 50% of SUV high is 2 x [aortic absorption intensity], and 90% of SUV low is equal to aortic absorption intensity.

[0309] 다른 적응적 임계값 설정 알고리즘들에 사용되는 보간된 백분율들은 유사하게 계산된다. 그 다음, 중간 범위의 임계값은 다음과 같다: [0309] Interpolated percentages used in other adaptive threshold setting algorithms are calculated similarly. Then, the mid-range threshold is:

Figure pct00009
Figure pct00009

그리고 다른 적응적 임계값 설정 알고리즘들과 유사하다.And similar to other adaptive threshold setting algorithms.

iii. 결과들iii. results

수동으로 주석된 병변들의 임계값 설정Threshold setting of manually annotated lesions

[0310] 가장 높은 가중 순위 상관 관계들 (0.81)은 P9050―sat 및 P9040―sat 방법들에서 획득하였고, P7540―sat, A9050―sat 및 L9050―sat도 함께 높은 값들을 제공하였다. 상대적인 SUVmax의 50 % (0.37) 및 P9050―non―sat (0.61) 임계값 설정 접근법들은 가장 낮은 가중 순위 상관 관계들을 나타내었다. SUV = 2.5 에서의 고정된 임계값은 적응적 임계값 설정 접근법들의 대부분보다 낮은 (0.74)로 순위 상관 관계를 나타내었다. 임계값 접근법들 각각에 대한 가중 순위 상관 관계의 결과들은 하기의 표 3에 요약되어 있다. [0310] The highest weighted rank correlations (0.81) were obtained with the P9050-sat and P9040-sat methods, with P7540-sat, A9050-sat and L9050-sat also providing high values. The 50% of relative SUV max (0.37) and P9050-non-sat (0.61) thresholding approaches exhibited the lowest weighted rank correlations. A fixed threshold at SUV = 2.5 showed a rank correlation lower than most of the adaptive threshold setting approaches (0.74). The results of the weighted rank correlation for each of the threshold approaches are summarized in Table 3 below.

[표 3] [ Table 3 ]

평가된 임계값 설정 접근법들에 대한 순위 상관 관계들의 가중 평균Weighted average of rank correlations for thresholding approaches evaluated

Figure pct00010
Figure pct00010

자동으로 검출된 병변들의 임계값Threshold of automatically detected lesions

[0311] 정제하지 않은 자동 핫스팟 검출들은 낮은 정밀도(0.31 내지 0.47)를 가졌지만 과도한 분할을 나타내면서 높은 재현율(0.83 내지 0.92)을 가졌다. 상대적인 SUVmax의 50 % 임계값 설정 알고리즘을 사용한 정제는 정밀도를 향상시켰지만(0.70 내지 0.77), 재현율은 약 50 %로 감소했다 (0.44 내지 0.58). P9050―sat를 사용한 정제는 과도한 분할은 더 적어졌지만 과소한 분할이 더 많아져 균형을 나타내면서 정밀도를 향상시켰고(0.51 내지 0.84), 재현율의 감소가 줄어들었다(0.61 내지 0.89). P9040―sat는 이들과 관련하여 P9050―sat와 유사하게 수행된 반면에, L9050―sat는 정밀도가 가장 높지만(0.85 내지 0.95) 재현율이 가장 낮다 (0.31 내지 0.56). 표 4a―e는 정밀도와 재현율에 대한 전체 결과들을 도시한다.Unrefined automatic hotspot detections had low precision (0.31 to 0.47) but high recall (0.83 to 0.92) with excessive segmentation. Refinement using a 50% threshold setting algorithm of relative SUVmax improved precision (0.70 to 0.77), but reduced recall to about 50% (0.44 to 0.58). Refinement using P9050-sat improved precision (0.51 to 0.84) and reduced the decrease in recall (0.61 to 0.89), showing a balance with fewer over-divisions but more under-divisions (0.61-0.89). P9040-sat performed similarly to P9050-sat in these respects, while L9050-sat had the highest precision (0.85 to 0.95) but the lowest recall (0.31 to 0.56). Tables 4a-e show the overall results for precision and recall.

[표 4a] [ Table 4a ]

분석적 분할 정제가 없는 정밀도 및 재현율 값들Precision and recall values without analytical segmentation refinement

Figure pct00011
Figure pct00011

[표 4b] [ Table 4b ]

상대적인 SUVmax의 50% 임계값 접근법을 통해 정제된 정밀도 및 재현율 값들Precision and recall values refined through a 50% threshold approach of the relative SUV max

Figure pct00012
Figure pct00012

[표 4c] [ Table 4c ]

P9050―sat 구현을 사용하여 적응적 분할을 갖는 정밀도 및 재현율 값들Precision and recall values with adaptive segmentation using the P9050—sat implementation

Figure pct00013
Figure pct00013

[표 4d] [ Table 4d ]

P9040―sat 구현을 사용하여 적응적 분할 t를 갖는 정밀도 및 재현율 값들Precision and recall values with adaptive split t using P9040—sat implementation

Figure pct00014
Figure pct00014

[표 4e] [ Table 4e ]

L9050―sat 구현을 사용하여 적응적 분할을 갖는 정밀도 및 재현율 값들Precision and recall values with adaptive segmentation using the L9050-sat implementation

Figure pct00015
Figure pct00015

임계값 설정 방법들에 대한 지원: 혈액 흡수Support for Threshold Setting Methods: Blood Absorption

[0312] 결과적인 계수들에 대해 qMEAN + 2 x qSD는 1.54 이었으므로 인자 1.6 을 사용하는 것은 대부분의 혈액 흡수 강도값들을 초과하는 임계값 수준을 달성하기 위한 좋은 후보로 결정되었다. 예시 연구에서, 3 명의 환자만이 aortaMEAN + 2 x aortaSD가 1.6 x aortaMEAN 초과이었다. 3 명의 외부 환자들은 q = 1.64, 1.92 및 1.61을 가졌고, 인자 1.92 를 갖는 환자는 잘못된 대동맥 분할이 비장에 쏟아져 들어갔으며 다른 환자들은 1.6에 가까운 계수들을 가졌다. [0312] For the resulting coefficients, qMEAN + 2 x qSD was 1.54, so using a factor of 1.6 was determined to be a good candidate for achieving a threshold level that exceeds most blood absorption intensity values. In the exemplary study, only 3 patients had aortaMEAN + 2 x aortaSD greater than 1.6 x aortaMEAN. Three external patients had q = 1.64, 1.92 and 1.61, the patient with a factor of 1.92 had an erroneous aortic segment spill into the spleen and the other patients had coefficients close to 1.6.

임계값 설정 방법들에 대한 지원: 전립선 흡수Support for Threshold Setting Methods: Prostate Absorption

[0313] 축상, 시상 및 관상 면들의 투영을 염두에 두고 정상 전립선 강도들의 히스토그램들의 수동 검토에 기초하면, 값 2.0 은 대동맥 참조 값에 적용하여 일반적인 전립선의 흡수 강도보다 높은 수준을 획득하기 위한 적절한 척도 인자이다. [0313] Based on manual review of histograms of normal prostate intensities with projections of axial, sagittal and coronal planes in mind, a value of 2.0 applied to the aortic reference value is an appropriate scale to obtain a level higher than normal prostate absorption intensity. It is a factor.

H. 예시: 단독의 임계값 설정과 비교한 AI 기반의 핫스팟 분할의 사용H. Example: Use of AI-based hotspot segmentation compared to thresholding alone

[0314] 이 예시에서, 본 출원에서 기재된 바와 같이 핫스팟들을 분할 및 분류하기 위해 기계 학습 모듈들을 이용하는 AI 기반 접근법을 사용하여 수행된 핫스팟 검출 및 분할이 임계값 기반 분할만을 단독으로 이용하는 종래의 접근법과 비교되었다. [0314] In this example, hotspot detection and segmentation performed using an AI-based approach using machine learning modules to segment and classify hotspots as described in this application differs from the conventional approach using threshold-based segmentation alone. have been compared

[0315] 도 19a는 기계 학습 기술들을 이용하지 않는 종래의 핫스팟 분할 접근법(1900)을 도시한다. 대신에, 핫스팟 분할은 사용자에 의한 핫스팟들의 수동 묘사에 기초하여 수행되고, 이어서 강도(예를 들어, SUV) 기반 임계값 설정(1904)이 뒤따른다. 사용자 마스크들은 영상(1920) 내의 관심 영역(ROI)(1924)을 나타내는 원형 마커(marker)를 수동으로 배치(1922)한다. 일단 ROI가 배치되면, 수동으로 배치된 ROI(1926) 내의 핫스팟을 분할하기 위해 고정된 또는 상대적인 임계값 접근법 중 어느 하나가 사용될 수 있다. 상대적인 임계값 접근법은 특정 ROI에 대한 임계값을 ROI 내에서 최대 SUV의 고정된 백분율로 개별적으로 설정하고, SUV 기반 임계값 설정 접근법을 사용하여 각각의 사용자 식별된 핫스팟을 분할하여 초기 사용자가 작성한 경계를 분할한다. 이러한 종래의 접근법은 핫스팟들의 경계들을 수동으로 식별하고 작성하는 사용자에 의존하기 때문에, 시간 소모적일 수 있고, 더욱이 분할 결과들 뿐만 아니라 다운스트림(downstream) 정량화(1906)(예를 들어, 핫스팟 메트릭들의 계산)는 사용자마다 변할 수 있다. 더욱이, 영상들(1928 및 1930)에 개념적으로 예시된 바와 같이, 특정 임계값에 의존하여, 상이한 임계값들이 상이한 핫스팟 분할들(1929, 1931)을 생성할 수 있다. 또한 SUV 임계값 수준들을 조정하여 초기 단계의 질병을 검출할 수 있지만 그렇게 하면 종종 많은 수의 위양성 결과가 발생하여 진정한 양성으로부터 주의가 분산된다. 마지막으로, 예를 들어, 본 출원에서 설명된 바와 같이, 종래의 고정된 또는 상대적인 SUV 기반 임계값 접근법들은 병변 크기의 과대 및/또는 과소 평가로 인해 어려움을 경험한다. [0315] FIG. 19A shows a conventional hotspot segmentation approach 1900 without using machine learning techniques. Instead, hotspot segmentation is performed based on manual description of hotspots by the user, followed by intensity (eg SUV) based threshold setting 1904 . The user masks manually place 1922 a circular marker representing a region of interest (ROI) 1924 within the image 1920 . Once the ROI is placed, either a fixed or relative threshold approach can be used to segment hotspots within the manually placed ROI 1926 . The relative thresholding approach individually sets the threshold for a particular ROI to a fixed percentage of the maximal SUV within the ROI, and segments each user-identified hotspot using an SUV-based thresholding approach to segment the boundaries created by the initial user. split the This conventional approach can be time consuming, as it relies on the user manually identifying and creating the boundaries of the hotspots, furthermore the segmentation results as well as the downstream quantification 1906 (e.g., of the hotspot metrics). calculation) may vary from user to user. Furthermore, as conceptually illustrated in images 1928 and 1930, depending on a particular threshold, different thresholds may produce different hotspot segmentations 1929, 1931. SUV threshold levels can also be adjusted to detect early-stage disease, but doing so often results in a large number of false positives, distracting attention from true positives. Finally, conventional fixed or relative SUV-based threshold approaches, eg, as described herein, suffer from over- and/or under-estimation of lesion size.

[0316] 도 19b를 참조하면, SUV 기반 임계값 설정과 관련하여 핫스팟들을 포함하는 ROIs의 수동 사용자 기반 선택을 이용하는 대신, 본 출원에서 기재된 특정 실시 형태에 따른 AI 기반 접근법(1950)은 핫스팟들(1956)을 검출, 분할 및 분류하기 위한 CT(1954) 및 PET 영상(1952)(예를 들어, 합성 PET/CT)을 자동으로 분석하기 위해 하나 이상의 기계 학습 모듈들을 이용한다. 본 출원에서 추가로 상세히 기재된 바와 같이, 기계 학습 기반 핫스팟 분할 및 분류는 초기 3D 핫스팟 맵을 생성하는 데 사용될 수 있고, 이는 이후 본 출원에서 기재된 적응적 임계값 설정 기술, 예를 들어 섹션들 F 및 G에 기재된 바와 같은 분석적 분할 방법(1958)에 대한 입력으로 사용될 수 있다. 그 중에서도 특히, 기계 학습 접근법들을 사용하면 영상들을 검토하는데(예를 들어, 방사선과 의사와 같은 의료 종사자들에 의해) 필요한 사용자 주관성과 시간이 줄어든다. 또한 AI 모델들은 복잡한 작업들을 수행할 수 있고 초기 단계의 병변들 뿐만 아니라 고부담 전이성 질병을 식별하면서 위양성률을 낮게 유지할 수 있다. 이러한 방식으로 개선된 핫스팟 분할은 그 중에서도 특히, 질병 중증도, 예후, 치료 반응 등을 평가하는 데 사용될 수 있는 메트릭들을 측정하기 위해 관련된 다운스트림 정량화(1960)의 정확도를 개선한다. [0316] Referring to Fig. 19B, instead of using manual user-based selection of ROIs containing hotspots in conjunction with SUV-based threshold setting, an AI-based approach 1950 in accordance with certain embodiments described herein may be used to detect hotspots ( 1956) to automatically analyze CT 1954 and PET images 1952 (eg, synthetic PET/CT) to detect, segment, and classify. As described in further detail in this application, machine learning based hotspot segmentation and classification can be used to generate an initial 3D hotspot map, which is then described in this application using the adaptive thresholding technique, e.g., Sections F and It can be used as an input to an analytic segmentation method (1958) as described in G. Among other things, the use of machine learning approaches reduces user subjectivity and time required to review images (eg, by medical practitioners such as radiologists). Additionally, AI models can perform complex tasks and identify high-stakes metastatic disease as well as early-stage lesions while maintaining low false-positive rates. Improved hotspot segmentation in this way improves the accuracy of related downstream quantifications 1960 to measure metrics that may be used to assess disease severity, prognosis, treatment response, and the like, among others.

[0317] 도 20은 종래의 임계값 설정 방법과 비교하여 기계 학습 기반 분할 접근법의 개선된 수행능을 보여준다. 기계 학습 기반 접근법에서, 핫스팟 분할은 본 출원에서 기재된 바와 같이(예를 들어, 섹션 E에서), 기계 학습 모듈들을 사용하여 핫스팟들을 먼저 검출하고 분할하여 수행되었고 이와 함께 섹션들 F 및 G에서 기재된 적응적 임계값 설정 기술의 버전을 구현한 분석적 모델을 사용하여 정제되었다. 종래의 임계값 설정 방법은 고정된 임계값 설정을 사용하여 고정된 임계값 초과의 강도들을 갖는 복셀들의 클러스터(cluster)들의 분할을 수행하였다. 도 20에서 확인할 수 있듯이, 종래의 임계값 설정 방법은 요도에서 방사성 의약품의 흡수로 인해 위양성들(2002a 및 2002b)을 생성하는 반면, 기계 학습 분할 기술은 요도 흡수를 정확하게 무시하고 전립선 병변들(2004 및 2006) 만을 분할한다. [0317] Figure 20 shows the improved performance of the machine learning based segmentation approach compared to conventional thresholding methods. In a machine learning based approach, hotspot segmentation was performed by first detecting and segmenting hotspots using machine learning modules, as described in this application (eg, in Section E) along with the adaptation described in Sections F and G. was refined using an analytical model implementing a version of the thresholding technique. A conventional threshold setting method performs segmentation of clusters of voxels having intensities exceeding a fixed threshold using a fixed threshold setting. As can be seen in FIG. 20, the conventional threshold setting method generates false positives (2002a and 2002b) due to absorption of radiopharmaceuticals in the urethra, whereas the machine learning segmentation technique accurately ignores urethral absorption and produces prostate lesions (2004). and 2006) only.

[0318] 도 21a 내지 도 21i는 종래의 임계값 설정 방법(좌측 영상들)에 의해 수행된 복부 영역 내의 핫스팟 분할 결과들을 본 출원에서 기재된 실시 형태에 따른 기계 학습 접근법의 결과들(우측 영상)과 비교한다. 도 21a 내지 도 21i는 중첩된 각각의 방법에 의해 식별된 핫스팟 영역들과 함께 복부 영역의 수직 방향을 따라 이동하는 일련의 3D 영상의 2D 슬라이스들을 도시한다. 도면들에 도시된 결과들은 좌측 측면 영상들에 나타나는 큰 위양성 영역들과 함께 복부 흡수가 종래의 임계값 설정 접근법에 대한 문제임을 보여준다. 이는 신장과 방광의 큰 흡수로부터 발생할 수 있다. 종래의 분할 접근법들은 이러한 흡수를 억제하고 이러한 위양성들을 제한하는 복잡한 방법이 필요하다. 대조적으로, 도 21a 내지 도 21i에 도시된 영상들을 분할하기 위해 사용되는 기계 학습 모델은 그러한 임의의 억제에 의존하지 않았고 대신에 이러한 종류의 흡수를 무시하는 법을 배웠다. [0318] FIGS. 21A to 21I show hotspot segmentation results in the abdominal region performed by a conventional threshold setting method (left images) and results (right images) of a machine learning approach according to an embodiment described in the present application. Compare. 21A to 21I show a series of 2D slices of a 3D image moving along the vertical direction of an abdominal area with hotspot areas identified by each method overlaid. The results shown in the figures show that abdominal uptake is a problem for the conventional thresholding approach, with large false positive areas appearing in the left lateral images. This can result from high absorption in the kidneys and bladder. Conventional segmentation approaches require complex methods to suppress this uptake and limit these false positives. In contrast, the machine learning model used to segment the images shown in FIGS. 21A-21I did not rely on any such suppression and instead learned to ignore this kind of absorption.

I. CAD 디바이스 구현 예시I. CAD Device Implementation Example

[0319] 본 섹션에서는 본 출원에서 기재된 특정 실시 형태에 따른 예시적인 CAD 디바이스 구현을 기재한다. 이러한 예시에서 기재된 CAD 디바이스는 "aPROMISE"라고 하며 여러 기계 학습 모듈들을 사용하여 자동화된 장기 분할을 수행한다. 예시 CAD 디바이스 구현은 분석적 모델들을 사용하여 핫스팟 검출 및 분할을 수행한다. [0319] This section describes example CAD device implementations in accordance with the specific embodiments described herein. The CAD device described in this example is called “aPROMISE” and uses several machine learning modules to perform automated organ segmentation. An example CAD device implementation uses analytical models to perform hotspot detection and segmentation.

[0320] 이 예시에서 기재되는 aPROMISE(자동화된 전립선 특정 멤브레인 항원 영상 분할: automated PROstate specific Membrane Antigen Imaging SEgmentation) 구현 예시는 사용자들이 DICOM 파일들 형식으로 PSMA PET/CT 영상 데이터의 신체 스캔들을 업로드할 수 있는 웹 인터페이스(web interface)를 갖는 클라우드 기반 소프트웨어 플랫폼을 이용하고 팀(team) 내의 환자 연구들을 검토하고 연구 평가들을 공유한다. 이 소프트웨어는 DICOM(의학의 디지털 영상 촬영 및 통신들: Digital Imaging and Communications in Medicine) 3 표준을 준수한다. 각각의 환자에 대해 여러 스캔들을 업로드할 수 있으며 시스템은 각각의 연구에 대해 별도의 검토를 제공한다. 이 소프트웨어는 사용자가 PET, CT, PET/CT 융합 및 최대 강도 투영(MIP)을 동시에 보여주는 4 개 패널 보기(4 ― panel view)에서 연구들을 표시하고 볼 수 있는 검토 페이지(review page)를 제공하는 GUI를 포함하고 각각의 보기를 별도로 표시하는 옵션(option)을 포함한다. 이러한 디바이스는 사용자들이 관심 영역(ROI)을 식별하고 표시할 수 있도록 영상 시각화 및 분석 툴들을 사용하여 전체 환자 연구들을 검토하는 데 사용된다. 영상 데이터를 검토하는 동안, 사용자들은 분할된 영역 위로 마우스 포인터(mouse pointer)를 가져갈 때 강조 표시되는 미리 정의된 핫스팟들로부터 선택하거나 수동으로 작성(예를 들어, 핫스팟들로 포함할 영상 슬라이스들의 개별적인 복셀들을 선택함)하는 것에 의해 ROI를 표시할 수 있다. 정량적 분석은 선택되거나 (수동으로) 작성된 핫스팟들에 대해 자동으로 수행된다. 사용자는 이러한 정량적 분석의 결과들을 검토하고 어느 핫스팟들을 의심스러운 병변들로 보고해야 하는지 결정할 수 있다. aPROMISE에서, 관심 영역(ROI)은 영상의 연속적인 서브 부분을 나타내고, 핫스팟은(예를 들어, 주변 영역들에 비해) 국소 강도가 높은 ROI(예를 들어, 높은 흡수를 나타냄)를 말하며, 병변은 질병이 의심되는 것으로 간주되는 사용자 정의된 또는 사용자 선택된 ROI를 나타낸다. [0320] The aPROMISE (Automated PRO state specific Membrane Antigen Imaging SE gmentation) implementation example described in this example allows users to convert PSMA PET/CT image data into DICOM files. It uses a cloud-based software platform with a web interface to upload scans, review patient studies within teams, and share study evaluations. This software complies with the DICOM (Digital Imaging and Communications in Medicine) 3 standard. Multiple scans can be uploaded for each patient and the system provides a separate review for each study. The software provides a review page that allows users to display and view studies in a 4-panel view showing PET, CT, PET/CT fusion and maximum intensity projection (MIP) simultaneously. It includes a GUI and includes options to display each view separately. This device is used to review full patient studies using image visualization and analysis tools to allow users to identify and mark regions of interest (ROIs). While reviewing the image data, users can either select from predefined hotspots that are highlighted when hovering the mouse pointer over the segmented area or manually create (e.g., select individual image slices to include as hotspots). Selecting voxels) can display the ROI. Quantitative analysis is performed automatically on selected or (manually) created hotspots. The user can review the results of this quantitative analysis and decide which hotspots should be reported as suspicious lesions. In aPROMISE, a region of interest (ROI) represents a contiguous sub-portion of an image, a hotspot refers to a ROI with high local intensity (eg, exhibits high absorption) (eg, relative to surrounding regions), and a lesion represents a user-defined or user-selected ROI in which the disease is considered suspect.

[0321] 보고서를 생성하기 위해 예시 구현의 소프트웨어는 서명할 사용자가 품질 관리를 확인하고 보고서 미리 보기에 전자 서명을 하도록 해야 한다. 서명된 보고서들은 디바이스에 저장되고 JPG 또는 DICOM 파일로 내보낼 수 있다. [0321] To generate the report, the software of the example implementation must allow the user to sign to verify quality control and electronically sign the report preview. Signed reports are stored on the device and can be exported as JPG or DICOM files.

[0322] aPROMISE 디바이스는 본 출원에서 더 상세히 기재되고 도 29a 및 도 29b에 도시된 바와 같이, 마이크로 서비스 아키텍처로 구현된다. [0322] The aPROMISE device is implemented with a microservices architecture, as described in more detail in this application and shown in FIGS. 29A and 29B.

i. 작업 흐름i. work flow

[0323] 도 22는 DICOM 파일들을 업로드하는 것부터 전자 서명된 보고서들을 내보내는 것까지의 aPROMISE 디바이스의 작업 흐름을 묘사한다. 로그인(log in)하면, 사용자는 DICOM 파일들을 aPROMISE로 가져올 수 있다. 가져온 DICOM 파일들은 환자 목록에 업로드되고 여기서 사용자는 환자를 클릭하여 검토에 이용할 수 있는 대응하는 연구들을 표시할 수 있다. 환자 목록에 대한 레이아웃(layout) 원리들은 도 23에 표시된다. [0323] Figure 22 depicts the workflow of an aPROMISE device from uploading DICOM files to exporting electronically signed reports. Upon logging in, the user can import DICOM files into aPROMISE. Imported DICOM files are uploaded to a patient list where the user can click on a patient to display the corresponding studies available for review. The layout principles for the patient list are shown in FIG. 23 .

[0324] 이러한 보기(2300)는 팀 내에서 업로드된 연구들이 있는 모든 환자들을 나열하고 환자 정보(이름, ID 및 성별), 최근 연구 업로드 날짜 및 연구 상태를 표시한다. 연구 상태는 검토 준비가 된 연구들(청색 기호, 2302), 오류들을 갖는 연구들(적색 기호, 2304), 계산 중인 연구들(주황색 기호, 2304) 및 환자 당 이용가능한 보고들을 갖는 연구들(흑색 기호, 2308) 인지를 나타낸다. 상태 기호의 우측 상단 모서리에 있는 숫자는 환자 당 특정 상태를 갖는 연구들의 수를 나타낸다. 연구의 검토는 환자를 클릭하고 연구를 선택하고 환자가 전립선 절제술을 받았는지 여부를 식별함으로써 시작된다. 연구 데이터가 열리고 검토 창에 표시된다. [0324] This view 2300 lists all patients with studies uploaded within the team and displays patient information (name, ID and gender), date of recent study upload, and study status. Study status is: studies ready for review (blue symbols, 2302), studies with errors (red symbols, 2304), studies under calculation (orange symbols, 2304), and studies with available reports per patient (black). symbol, 2308) indicates cognition. The number in the upper right corner of the condition symbol indicates the number of studies with a particular condition per patient. Review of a study begins by clicking on a patient, selecting a study, and identifying whether the patient has had a prostatectomy. The study data is opened and displayed in the review window.

[0325] 도 24는 사용자가 PET/CT 영상 데이터를 검토할 수 있는 검토 창(2400)을 도시한다. 소프트웨어에 의해 분할된 미리 정의된 핫스팟들과 프로그램에서 핫스팟들로 포함할 복셀들을 선택하기 위한 작성 툴을 사용하여 만든 사용자 정의된 핫스팟들 중 어느 하나로부터 선택하는 사용자가 병변들을 수동으로 표시하고 보고한다. 높은 국소 강도 흡수를 갖는 관심 영역들인 미리 정의된 핫스팟들은 연조직(전립선 및 림프절들) 및 뼈에 대한 특정 방법들을 사용하여 자동으로 분할되고 그 분할된 영역 위로 마우스 포인터를 가져갈 때 강조 표시가 된다. 사용자는 미리 정의된 핫스팟들의 분할들을 동시에 시각적으로 표시하기 위해 분할 표시 옵션을 켜도록 선택할 수 있다. 선택되거나 작성된 핫스팟들은 자동 정량적 분석을 위한 대상체이며 패널들(2402, 2422 및 2442)에서 상세히 설명된다. [0325] FIG. 24 shows a review window 2400 through which a user can review PET/CT image data. The lesions are manually marked and reported by the user selecting from either pre-defined hotspots segmented by the software or user-defined hotspots created using a creation tool to select voxels to include as hotspots in the program. . Predefined hotspots, regions of interest with high local intensity absorption, are automatically segmented using specific methods for soft tissue (prostate and lymph nodes) and bone and highlighted when hovering the mouse pointer over the segmented region. The user may choose to turn on the Split Display option to simultaneously visually display splits of predefined hotspots. The selected or created hotspots are subjects for automated quantitative analysis and are detailed in panels 2402 , 2422 and 2442 .

[0326] 좌측의 접을 수 있는 패널(2402)은 DICOM 데이터로부터 추출된 환자 및 연구 정보를 요약한다. 패널(2402)은 또한 사용자가 선택한 핫스팟들에 관한 정량적 정보를 표시하고 나열한다. 핫스팟 위치 및 유형은 수동으로 검증된다 ― T: 원발성 종양에 국한됨, N: 국소 전이성 질병, Ma/b/c: 원격 전이성 질병(림프절, 뼈 및 연조직). 이 디바이스는 사용자 선택된 핫스팟들에 대한 자동화된 정량적 분석 ― SUV―최대, SUV―피크, SUV―평균, 병변 볼륨, 병변 지수(LI) ―을 표시하여 사용자가 표준화된 보고서에서 병변들로 보고할 핫스팟들을 검토하고 결정 가능하도록 한다. [0326] The collapsible panel 2402 on the left summarizes the patient and study information extracted from the DICOM data. Panel 2402 also displays and lists quantitative information about user-selected hotspots. Hotspot location and type are manually validated—T: limited to primary tumor, N: locally metastatic disease, Ma/b/c: distant metastatic disease (lymph node, bone and soft tissue). The device displays an automated quantitative analysis of user-selected hotspots—SUV-Max, SUV-Peak, SUV-Mean, Lesion Volume, Lesion Index (LI)—to indicate which hotspot the user will report as lesions in a standardized report. review them and make decisions.

[0327] 중간 패널(2422)은 DICOM 영상 데이터의 4 개 패널 보기 표시를 포함한다. 좌측 상단 모서리에는 CT 영상이 표시되고, 우측 상단에는 PET/CT 융합 보기가 표시되며, 좌측 하단에는 PET 영상이 표시되고, 우측 하단에는 MIP가 도시된다. [0327] Middle panel 2422 includes a four panel view representation of DICOM image data. A CT image is displayed in the upper left corner, a PET/CT fusion view is displayed in the upper right corner, a PET image is displayed in the lower left corner, and a MIP is shown in the lower right corner.

[0328] MIP는 다양한 시야각들로부터 3D 영상 볼륨의 2D 투영을 표시하는 볼륨 데이터의 시각화 방법이다. MIP 영상 촬영은 [문헌 Wallis JW, Miller TR, Lerner CA, Kleerup EC. 핵의학에서의 3 차원 표시. IEEE 트랜스 의학 영상 촬영. 1989;8(4):297―30. doi: 10.1109/42.41482. PMID: 18230529]에 기재되어 있다. [0328] MIP is a visualization method of volume data that displays a 2D projection of a 3D image volume from various viewing angles. MIP imaging was performed by Wallis JW, Miller TR, Lerner CA, Kleerup EC. 3D representation in nuclear medicine. IEEE Transmedical Imaging. 1989;8(4):297-30. doi: 10.1109/42.41482. PMID: 18230529.

[0329] 접을 수 있는 우측 패널(2442)은 영상 검토를 최적화하기 위한 다음과 같은 시각화 제어들과 검토 목적으로 영상을 조작하기 위한 단축키를 포함한다. [0329] The collapsible right panel 2442 includes the following visualization controls for optimizing image review and shortcut keys for manipulating the image for review purposes.

[0330] 뷰포트(viewport): [0330] Viewport:

Figure pct00016
십자선의 유무
Figure pct00016
presence or absence of crosshairs

Figure pct00017
PET/CT 융합 영상에 대한 페이딩(fading) 옵션
Figure pct00017
Fading options for PET/CT fusion images

Figure pct00018
PET 추적자 흡수 강도들을 시각화하기 위한 표준 핵의학 컬러맵 선택.
Figure pct00018
Selection of a standard nuclear medicine colormap to visualize PET tracer uptake intensities.

[0331] SUV 및 CT 창: [0331] SUV and CT windows:

Figure pct00019
명암 스트레칭, 히스토그램 변경 또는 명암 향상으로도 알려진 영상들의 윈도우잉(windowing)은 영상들이 강도를 통해 조작되어 특정 구조들을 강조하기 위해 그림의 모양을 변경한다.
Figure pct00019
Windowing of images, also known as intensity stretching, histogram alteration or intensity enhancement, is where the images are manipulated through their intensity to change the shape of the picture to emphasize certain structures.

Figure pct00020
SUV 창에서, SUV 강도들에 대한 창 프리셋(preset)들은 슬라이더 또는 단축키들로 조정할 수 있다.
Figure pct00020
In the SUV window, window presets for SUV intensities can be adjusted with sliders or hotkeys.

Figure pct00021
CT 창에서, 하운스필드 강도들에 대한 창 프리셋들은 단축키들을 사용하거나 클릭 앤 드래그(click―and―drag) 입력을 사용하여 드롭―다운(drop―down) 목록에서 선택할 수 있다. 여기에서 영상의 밝기는 창 수준을 통해 조정되고 대비는 창 넓이를 통해 조정된다.
Figure pct00021
In the CT window, window presets for Hounsfield intensities can be selected from a drop-down list using shortcuts or click-and-drag input. Here, the brightness of the image is adjusted through the window level and the contrast is adjusted through the window width.

[0332] 분할 [0332] division

Figure pct00022
장기 분할 표시 옵션은 참조 장기들 분할 또는 전신 분할의 시각화를 켜거나 끈다.
Figure pct00022
The Show Organ Segmentation option turns on or off the visualization of reference organs segmentation or whole body segmentation.

Figure pct00023
사용자는 장기 분할을 표시하기 위한 패널 보기들을 선택할 수 있다.
Figure pct00023
The user can select panel views for displaying the organ segmentation.

Figure pct00024
핫스팟 분할 표시 옵션은 선택된 영역들에서 미리 정의된 핫스팟들의 표시를 켜거나 끄도록 선택한다 (골반 영역, 뼈 또는 모든 핫스팟들에서).
Figure pct00024
The Show Hotspot Splits option chooses to turn on or off the display of predefined hotspots in selected areas (in the pelvic area, bone or all hotspots).

[0333] 뷰어 제스쳐(Viewer gesture)들 [0333] Viewer gestures

Figure pct00025
줌(Zoom), 팬(Pan), CT 창(window), 슬라이스 변환 및 검토 창의 핫스팟 숨김에 대한 단축키 및 조합들.
Figure pct00025
Shortcuts and combinations for zoom, pan, CT window, transform slice and hide hotspot in review window.

[0334] 보고서 생성을 진행하기 위해, 서명하는 사용자는 보고서 생성 버튼(2462)을 클릭한다. 사용자는 보고서를 생성하기 전에 다음의 품질 관리 항목들을 확인해야 한다: [0334] To proceed with generating the report, the signing user clicks the Generate Report button 2462. Users should check the following quality control items before generating a report:

Figure pct00026
영상 품질은 허용 가능하다
Figure pct00026
Video quality is acceptable

Figure pct00027
PET 및 CT 영상들이 올바르게 정렬된다
Figure pct00027
PET and CT images are correctly aligned

Figure pct00028
환자 연구 데이터는 정확하다
Figure pct00028
Patient study data are accurate

Figure pct00029
참조 값들 (혈액 풀, 간)은 허용 가능하다
Figure pct00029
Reference values (blood pool, liver) are acceptable

Figure pct00030
연구는 수퍼스캔이 아니다
Figure pct00030
Research is not superscan

[0335] 품질 관리 항목들을 확인한 후, 사용자의 전자 서명을 위해 보고서 미리 보기가 표시된다. 보고서는 사용자에 의해 병변으로 확인될 환자 요약, 총 정량적 병변 부담 및 사용자 선택된 핫스팟들의 개별 병변들의 정량적 평가를 포함한다. [0335] After checking the quality control items, a report preview is displayed for the user's electronic signature. The report includes a patient summary to be identified as a lesion by the user, a quantitative assessment of the total quantitative lesion burden and individual lesions of the user selected hotspots.

[0336] 도 25는 예시적인 생성된 보고서(2500)를 도시한다. 보고서(2500)는 세 가지 섹션들(2502, 2522 및 2542)을 포함한다. [0336] FIG. 25 shows an exemplary generated report 2500. Report 2500 includes three sections 2502, 2522 and 2542.

[0337] 보고서(2500)의 섹션(2502)은 DICOM 태그(tag)들로부터 획득된 환자 데이터의 요약을 제공한다. 여기에는 환자에 대한 요약 ― 환자 이름, 환자 ID, 연령 및 체중 ― 및 연구 데이터의 요약 ― 연구 날짜, 주사 시 주사량, 사용된 방사성 의약품 영상 촬영 추적자 및 그 반감기, 및 추적자 주사와 영상 데이터 획득 사이의 시간 ― 이 포함된다. [0337] Section 2502 of report 2500 provides a summary of patient data obtained from DICOM tags. This includes a summary of the patient - patient name, patient ID, age and weight - and summary of study data - study date, dose at injection, radiopharmaceutical imaging tracer used and its half-life, and time between tracer injection and image data acquisition. time - included.

[0338] 보고서(2500)의 섹션(2522)은 병변으로 포함되도록 사용자에 의해 선택된 핫스팟들로부터 요약된 정량적 정보를 제공한다. 요약된 정량적 정보는 병변 유형(원발성 전립선 종양 (T), 국소/지역 골반 림프절 (N) 및 원격 전이 ― 림프절, 뼈 또는 연조직 장기들 (Ma/b/c)) 당 총 병변 부담을 표시한다. 요약 섹션(2522)은 또한 참조 장기들에서 관찰된 정량적 흡수(SUV―평균)를 표시한다. [0338] Section 2522 of report 2500 provides quantitative information summarized from hotspots selected by the user to be included as lesions. Summarized quantitative information indicates total lesion burden per lesion type (primary prostate tumor (T), regional/regional pelvic lymph nodes (N) and distant metastases - lymph nodes, bones or soft tissue organs (Ma/b/c)). Summary section 2522 also displays the observed quantitative uptake (SUV-average) in the reference organs.

[0339] 보고서(2500)의 섹션(2542)은 사용자에 의해 확인된 선택된 핫스팟들로부터의 상세한 정량적 평가 및 각각의 병변의 위치이다. 보고서를 검토할 때, 사용자는 병변들로 선택된 핫스팟들 및 정량화들을 포함하여 자신의 환자 연구 검토 결과들에 전자 서명해야 한다. 그 다음, 보고서가 디바이스에 저장되고 JPG 또는 DICOM 파일로 내보낼 수 있다. [0339] Section 2542 of report 2500 is a detailed quantitative assessment and location of each lesion from selected hotspots identified by the user. When reviewing the report, the user must electronically sign their patient study review results, including hotspots and quantifications selected as lesions. The report is then saved to the device and can be exported as a JPG or DICOM file.

ii. 영상 처리ii. image processing

DICOM 입력 데이터의 전처리Preprocessing of DICOM input data

[0340] 영상 입력 데이터는 풍부한 데이터 표현인 DICOM 포맷으로 제공된다. DICOM 데이터는 강도 데이터 뿐만 아니라 메타(meta) 데이터 및 통신 구조를 포함한다. aPROMISE 사용을 위한 데이터를 최적화하기 위해, 데이터는 불필요하거나 민감한 정보를 재―인코딩(re―encoding), 압축 및 제거하는 마이크로 서비스를 통해 전달된다. 또한 별도의 DICOM 시리즈로부터 강도 데이터를 수집하고 관련된 JSON 메타 정보 파일을 갖는 단일 무손실 PNG 파일로 데이터를 인코딩한다. [0340] Image input data is provided in DICOM format, which is a rich data expression. DICOM data includes intensity data as well as meta data and communication structures. To optimize data for use with aPROMISE, data is passed through microservices that re-encode, compress, and remove unnecessary or sensitive information. It also collects intensity data from separate DICOM series and encodes the data into a single lossless PNG file with an associated JSON meta-information file.

[0341] PET 영상 데이터의 데이터 처리는 JSON 메타 정보 파일에 포함된 SUV(표준 흡수값) 인자의 추정을 포함한다. SUV 인자는 영상 강도들을 SUV 값들로 변환하는 데 사용되는 스칼라(scalar)이다. SUV 인자는 QIBA(정량적 영상 촬영 바이오 마커 연합체: Quantitative Imaging Biomarkers Alliance) 지침에 따라 계산된다. [0341] Data processing of PET image data includes estimation of the SUV (standard absorption value) factor included in the JSON meta information file. The SUV factor is a scalar used to convert image intensities to SUV values. SUV factors are calculated according to QIBA (Quantitative Imaging Biomarkers Alliance) guidelines.

알고리즘 영상 처리Algorithmic image processing

[0342] 도 26은 예시적인 영상 처리 작업 흐름 (과정)(2600)을 도시한다. [0342] FIG. 26 shows an example image processing workflow (process) 2600.

[0343] aPROMISE는 CNN(콘볼루션 신경망) 모델을 사용하여 환자 골격과 선택된 장기들을 분할(2602)한다. 장기 분할(2602)은 환자(2604)의 대동맥 및 간에서 표준 흡수값(SUV) 참조의 자동화된 계산을 허용한다. 그 다음, 대동맥 및 간에 대한 SUV 참조는 병변 지수(LI) 및 강도 가중 조직 병변 볼륨(ITLV)과 같은 특정 SUV―값 기반 정량적 지수들을 결정할 때 참조 값들로 사용된다. 정량적 지수들에 대한 상세한 설명은 하기의 표 6에 제공된다. [0343] aPROMISE segments 2602 the patient skeleton and selected organs using a convolutional neural network (CNN) model. Organ segmentation 2602 allows for automated calculation of standard absorption value (SUV) references in the patient's 2604 aorta and liver. The SUV references for the aorta and liver are then used as reference values when determining specific SUV-value based quantitative indices such as the lesion index (LI) and intensity-weighted tissue lesion volume (ITLV). A detailed description of the quantitative indices is provided in Table 6 below.

[0344] 소프트웨어에 의해 분할된 미리 정의된 핫스팟들(2608a)과 프로그램에서 핫스팟들로 포함할 복셀들을 선택하기 위한 작성 툴(2608b)을 사용하여 만든 사용자 정의된 핫스팟들 중 어느 하나로부터 선택하는 사용자(2608)가 병변들을 수동으로 표시하고 보고한다. 높은 국소 강도를 갖는 관심 영역들인 미리 정의된 핫스팟들은 연조직(전립선 및 림프절들) 및 뼈에 대한 어떤 특정 방법들을 사용하여 자동으로 분할된다(예를 들어, 도 28에서 확인할 수 있듯이, 뼈에 대한 하나의 특정 분할 방법 및 연조직 영역들에 대한 다른 특정 분할 방법이 사용될 수 있음). 장기 분할을 기초로 하여, 소프트웨어는 전립선, 림프 또는 뼈 영역들에서 선택된 핫스팟들의 유형과 위치를 결정한다. 결정된 유형과 위치들은 뷰어(2400)의 패널(2502)에 도시된 선택된 핫스팟들의 목록에 표시된다. 다른 영역들(예를 들어, 전립선, 림프 또는 뼈 영역들에 위치되지 않음)에서 선택된 핫스팟들의 유형 및 위치는 사용자에 의해 수동으로 추가된다. 사용자는 핫스팟 선택 동안 언제든지 적용 가능한 모든 핫스팟들의 유형과 위치들을 추가하고 편집할 수 있다. 핫스팟 유형은 miTNM 시스템을 사용하여 결정되는데, 이 시스템은 암의 전이를 보고하기 위한 임상 표준 및 표기 시스템이다. 이러한 접근법에서, 개별 핫스팟들은 다음과 같이 특정 물리적 특징들을 나타내는 문자 기반 코드에 따라 유형이 할당된다: [0344] User selecting from either predefined hotspots 2608a segmented by software and user defined hotspots created using authoring tool 2608b to select voxels to include as hotspots in the program. (2608) manually marks and reports lesions. Predefined hotspots, regions of interest with high local intensity, are automatically segmented using certain specific methods for soft tissue (prostate and lymph nodes) and bone (e.g. one for bone, as seen in FIG. 28). A specific method of segmentation of , and other specific segmentation methods for soft tissue regions may be used). Based on the organ segmentation, the software determines the type and location of selected hotspots in prostate, lymph or bony regions. The determined types and locations are displayed in a list of selected hotspots shown in panel 2502 of viewer 2400. The type and location of selected hotspots in other regions (eg not located in prostate, lymph or bony regions) are manually added by the user. The user can add and edit all applicable hotspot types and locations at any time during hotspot selection. Hotspot type is determined using the miTNM system, which is a clinical standard and notation system for reporting cancer metastasis. In this approach, individual hotspots are assigned a type according to a character-based code representing specific physical characteristics, such as:

Figure pct00031
T는 원발성 종양을 나타낸다
Figure pct00031
T indicates primary tumor

Figure pct00032
N은 원발성 종양의 영향을 받는 근처의 림프절을 나타낸다
Figure pct00032
N indicates nearby lymph nodes affected by the primary tumor

Figure pct00033
M은 원격 전이를 나타낸다
Figure pct00033
M indicates distant metastasis

[0345] 원격 전이 병변들의 경우, 국소화는 추가 골반 림프절들 (a), 뼈들 (b) 및 연조직 장기들 (c)에 대응하는 a/b/c ― 시스템으로 그룹화된다. [0345] For distant metastatic lesions, the localization is grouped into a/b/c - system corresponding to additional pelvic lymph nodes (a), bones (b) and soft tissue organs (c).

[0346] 병변들로 포함되도록 선택된 모든 핫스팟들에 대해 SUV―값들 및 지수들이 계산되고(2610) 보고서에 표시된다. [0346] For all hotspots selected for inclusion as lesions, SUV-values and indices are calculated (2610) and displayed in a report.

CT에서의 장기 분할Organ segmentation on CT

[0347] 장기 분할(2602)은 CT 영상을 입력으로 사용하여 수행된다. 전체 영상으로부터 두 개의 거친(coarse) 분할들로 시작하여 더 작은 영상 섹션들이 추출되고 주어진 장기 세트를 포함하도록 선택된다. 장기들의 미세 분할은 각각의 영상 섹션에서 수행된다. 최종적으로, 모든 영상 섹션들로부터의 모든 분할된 장기들은 aPROMISE에 표시되는 전체 영상 분할로 조립된다. 성공적으로 완료된 분할은 도 27에서 시각화된 바와 같이 52 개의 상이한 뼈들과 13 개의 연조직 장기들을 식별하고, 표 5에서 제시된다. 거친 및 미세 분할 과정 모두는 다음의 세 단계를 포함한다: [0347] Organ segmentation 2602 is performed using CT images as input. Starting with two coarse segmentations from the full image, smaller image sections are extracted and selected to contain a given set of organs. Fine segmentation of organs is performed in each imaging section. Finally, all segmented organs from all image sections are assembled into a full image segmentation displayed in aPROMISE. Successfully completed segmentation identified 52 different bones and 13 soft tissue organs as visualized in FIG. 27 and is presented in Table 5. Both coarse and fine segmentation processes include the following three steps:

1. CT 영상의 전처리,1. Preprocessing of CT images,

2. CNN 분할, 및2. CNN segmentation, and

3. 분할을 후처리함.3. Post-process the segmentation.

[0348] 거친 분할 이전에 CT 영상 전처리는 다음의 세 단계를 포함한다: (1) 공기만 나타내는 영상 슬라이스들을 제거함(예를 들어, 0 하운스필드 단위 이하를 가짐), (2) 영상을 고정된 크기로 재―샘플링(re―sampling)함, 및 (3) 훈련 데이터에 대한 평균 및 표준 편차에 기초하여 하기에서 기재되는 바와 같이 영상을 정규화함, [0348] CT image preprocessing prior to coarse segmentation involves three steps: (1) removing image slices representing only air (e.g., having less than 0 Hounsfield units), (2) fixing the image. re-sampling to a size equal to the size specified, and (3) normalizing the image as described below based on the mean and standard deviation for the training data;

[0349] CNN 모델들은 입력 영상의 각각의 화소에 배경 또는 분할된 장기에 대응하는 라벨이 할당되어 동일한 크기의 라벨 맵이 입력 데이터인 의미론적 분할을 수행한다. [0349] In CNN models, a label corresponding to a background or a segmented organ is assigned to each pixel of an input image to perform semantic segmentation where a label map of the same size is input data.

[0350] 후처리는 분할 후에 수행되며 다음의 단계들을 포함한다: [0350] Post-processing is performed after segmentation and includes the following steps:

― 인접한 화소 클러스터들을 한 번 흡수함.- Absorbs adjacent pixel clusters once.

― 그러한 클러스터가 존재하지 않을 때까지 인접한 화소 클러스터들을 흡수함.- Absorb adjacent pixel clusters until no such cluster exists.

― 각각의 라벨의 가장 크지 않은 클러스터들을 모두 제거함.- Remove all non-largest clusters of each label.

― 분할로부터 골격 부분들을 폐기함; 일부 분할 모델들은 연조직을 분할할 때 참조 점들로서 골격 부분들을 분할함. 이들 모델들의 골격 부분들은 분할이 완료된 후 제거될 것으로 여겨진다.— Discard skeleton parts from segmentation; Some segmentation models segment skeletal parts as reference points when segmenting soft tissue. It is believed that the skeletal parts of these models will be removed after segmentation is complete.

[0351] 전립선의 분할을 포함하여 2 개의 상이한 거친 분할 신경망들과 10 개의 상이한 미세 분할 신경망들이 사용된다. 환자가 검사 전에 전립선 절제술을 받은 경우 ― 검토를 위해 연구를 열기 전에 환자 연구 배경을 검증할 때 사용자에 의해 제공된 정보 ― 전립선은 분할되지 않는다. 미세 및 거친 분할의 조합과 각각의 조합이 제공하는 신체 부분은 표 5에서 제시된다. [0351] Two different coarse segmentation neural networks and 10 different fine segmentation neural networks are used, including segmentation of the prostate. If the patient had a prostatectomy prior to examination—information provided by the user when validating the patient study background prior to opening the study for review—the prostate is not segmented. Combinations of fine and coarse segmentation and the body parts each combination provides are presented in Table 5.

[표 5] [ Table 5 ]

거친 분할 네트워크와 미세 분할 네트워크를 조합하여 상이한 신체 부분들을 분할하는 방법에 대한 요약Summary of how to segment different body parts by combining coarse and fine segmentation networks

Figure pct00034
Figure pct00034

[0352] CNN 모델 훈련은 훈련 알고리즘이 분할 오류를 낮추기 위해 모델 파라미터들을 갱신하는 반복 최소화 문제를 포함한다. 분할 오류는 수동 분할과 CNN 모델 분할 사이의 완벽한 오버랩으로부터의 편차로 정의된다. 장기 분할에 사용되는 각각의 신경망은 최적의 파라미터들과 가중치들을 구성하도록 훈련되었다. aPROMISE에 대한 신경망들을 개발하기 위한 훈련 데이터는 상기에서 기재된 바와 같이 수동으로 분할하고 라벨링한 신체 부분들이 있는 저선량 CT 영상으로 구성된다. 훈련 분할 네트워크를 위한 CT 영상은 NIMSA 프로젝트 (https://nimsa.se/)의 일부로서, 그리고 clinicaltrials.gov (https://www.clinicaltrials.gov/ct2/show/NCT01667536?term=99mTc―MIP―1404&draw=2&rank=5)에서 등록된 의약 후보 99mTc―MIP―1404 의 2 단계 임상 시험 동안에 수집되었다. NIMSA 프로젝트는 184 명의 환자로 구성되어 있고 99mTc―MIP―1404―데이터는 62 명의 환자로 구성되어 있다. [0352] CNN model training involves an iterative minimization problem in which the training algorithm updates model parameters to lower the segmentation error. Segmentation error is defined as the deviation from perfect overlap between manual segmentation and CNN model segmentation. Each neural network used for organ segmentation was trained to construct optimal parameters and weights. Training data for developing neural networks for aPROMISE consisted of low-dose CT images with manually segmented and labeled body parts as described above. CT images for training segmentation networks were obtained as part of the NIMSA project (https://nimsa.se/) and clinicaltrials.gov (https://www.clinicaltrials.gov/ct2/show/NCT01667536?term=99mTc―MIP -1404&draw=2&rank=5) was collected during the phase 2 clinical trial of registered drug candidate 99mTc-MIP-1404. The NIMSA project consisted of 184 patients and the 99mTc-MIP-1404-data consisted of 62 patients.

PSMA PET에서의 참조 데이터 (SUV 참조) 계산Calculation of reference data (SUV reference) in PSMA PET

[0353] 참조 값들은 PSMA 추적자의 생리적 흡수를 평가할 때 사용된다. 현재의 임상 실습은 혈액 풀 또는 간 또는 두 조직들 모두에 대응하는 식별된 볼륨들의 SUV 강도들을 참조 값으로 사용하는 것이다. PSMA 추적자 강도의 경우, 혈액 풀은 대동맥 볼륨으로 측정된다. [0353] Reference values are used when evaluating the physiological uptake of the PSMA tracer. Current clinical practice is to use SUV intensities of identified volumes corresponding to blood pool or liver or both tissues as reference values. For PSMA tracer intensity, the blood pool is measured as aortic volume.

[0354] aPROMISE SUV에서 대동맥과 간의 흉부 부분에 대응하는 볼륨들의 강도들이 참조 값들로서 사용된다. 대동맥 및 간 볼륨들의 장기 분할과 함께 PET 영상에 등록된 흡수는 각각의 장기에서 SUV 참조를 계산하기 위한 기준이다. [0354] The intensities of the volumes corresponding to the thoracic portion of the aorta and liver in aPROMISE SUV are used as reference values. The uptake registered on the PET image along with organ segmentation of the aortic and liver volumes is the criterion for calculating the SUV reference in each organ.

[0355] 대동맥. 혈관 벽에 대응하는 영상의 부분들이 대동맥 영역에 대한 SUV 참조를 계산하는 데 사용되는 볼륨에 포함되지 않도록 보장하기 위해 분할된 대동맥 볼륨이 감소된다. 혈관 벽 영역들을 포함하지 않으면서 가능한 한 많은 대동맥 볼륨을 유지하는 트레이드오프(tradeoff) 균형을 맞추기 위해 분할 축소(3 mm)를 경험적으로 선택하였다. 혈액 풀에 대한 참조 SUV는 대동맥 볼륨을 식별하는 감소된 분할 마스크 내부의 화소들에서 SUV의 강력한 평균이다. 강력한 평균은 사분위수 범위의 값들의 평균으로서 계산된다. [0355] Aorta. The segmented aortic volume is reduced to ensure that portions of the image corresponding to the vessel wall are not included in the volume used to compute the SUV reference for the aortic region. Segmentation reduction (3 mm) was chosen empirically to balance the tradeoff of keeping as much aortic volume as possible while not including vessel wall regions. The reference SUV for the blood pool is the robust average of the SUVs at the pixels inside the reduced segmentation mask identifying the aortic volume. The robust mean is calculated as the mean of the values in the interquartile range.

[0356] 간. 간 볼륨에서 참조 값을 측정할 때, PET와 CT 영상들 사이의 가능한 오정렬에 대해 조정하는 버퍼를 생성하기 위해 가장자리들을 따라 분할이 감소된다. 감소량(9 mm)은 PET/CT 오정렬을 갖는 영상들의 수동 관찰들을 사용하여 경험적으로 결정되었다. [0356] Liver. When measuring the reference value in the liver volume, the segmentation is reduced along the edges to create a buffer that adjusts for possible misalignment between the PET and CT images. The amount of reduction (9 mm) was determined empirically using manual observations of images with PET/CT misalignment.

[0357] 간의 낭종 또는 악성 종양은 간에서 낮은 추적자 흡수의 영역들을 초래할 수 있다. SUV 참조의 계산에 대한 추적자 흡수의 이들 국소적 차이들로부터의 영향을 줄이기 위해, 도 2a와 관련하여 상기 섹션 B.iii에 기재된 실시 형태에 따른 2 성분 가우시안 혼합 모델 접근법을 사용하였다. 특히, 2 성분 가우시안 혼합 모델은 참조 장기 마스크 내부의 복셀들과 식별된 분포의 주요 및 부 성분으로부터 SUVs에 맞추어졌다. 간 부피에 대한 SUV 참조는 초기에 가우시안 혼합 모델로부터 주요 성분의 평균 SUV로 계산되었다. 부 성분이 주요 성분보다 더 큰 평균 SUV를 갖는 것으로 결정된 경우, 부 성분의 가중치가 0.33 이상이 아니라면 간 참조 장기 마스크는 변경되지 않은 상태로 유지된다 ― 이 경우에, 부 성분의 가중치가 0.33 이상이었다면 오류가 발생하고 간 참조 값이 계산되지 않을 것이다. [0357] A cyst or malignancy of the liver may result in areas of low tracer uptake in the liver. To reduce the influence from these local differences in tracer uptake on the calculation of the SUV reference, a two-component Gaussian mixture model approach was used according to the embodiment described in Section B.iii above with respect to FIG. 2A. Specifically, a two-component Gaussian mixture model was fitted to the SUVs from the voxels inside the reference organ mask and the major and minor components of the identified distribution. The SUV reference for liver volume was initially calculated as the mean SUV of principal components from a Gaussian mixture model. If a subcomponent is determined to have a larger average SUV than the main component, then the liver reference organ mask remains unchanged unless the weight of the subcomponent is greater than or equal to 0.33 - in which case, if the weight of the subcomponent was greater than or equal to 0.33. An error will occur and the inter-reference value will not be calculated.

[0358] 부 성분이 주요 성분보다 더 작은 평균 SUV를 갖는 경우, 예를 들어, 도 2a에서 확인할 수 있듯이 분리 임계값이 계산된다. 분리 임계값은 다음과 같이 정의된다: [0358] If the minor component has a smaller average SUV than the major component, a separation threshold is calculated, for example, as can be seen in FIG. 2A. The separation threshold is defined as:

Figure pct00035
임계값 이상에서 SUV에 대한 주요 성분에 속할 확률, 및;
Figure pct00035
the probability of belonging to the principal component for the SUV above the threshold, and;

Figure pct00036
임계값 이하에서 SUV에 대한 부 성분에 속할 확률은
Figure pct00036
Below the threshold, the probability of belonging to the minor component for SUV is

동일하다.same.

[0359] 그 다음에, 분리 임계값 미만의 화소들을 제거하여 참조 마스크를 정제한다. [0359] The reference mask is then refined by removing pixels below the separation threshold.

PSMA PET의 핫스팟들의 사전 정의Pre-definition of hotspots in PSMA PET

[0360] 도 28을 참조하면, 본 예시의 aPROMISE 구현에서, aPROMISE에 의한 PSMA PET의 높은 국소적 강도를 갖는 영역들의 분할, 이른바 미리 정의된 핫스팟들은 PET 영상들(2802)과 CT 영상에서 결정되고 PET 공간에 투사되는 장기 분할 맵(2804)로부터의 입력에 기초하여 분석적 모델(2800)에 의해 수행된다. 소프트웨어가 뼈의 핫스팟들을 분할하기 위해, 원래의 PET 영상들(2802)이 사용되고 림프 및 전립선의 핫스팟들을 분할하기 위해 PET 영상들이 정상적인 PET 추적자 흡수(2806)를 억제하여 처리된다. 이러한 예시적인 구현에서 사용되는 분석적 모델의 그래픽 개요가 도 28에 제시된다. 하기에서 추가로 설명되는 바와 같은 분석적 방법은 과도한 수의 관련 없는 영역들이나 PET 추적자 배경 잡음 없이 ROIs를 나타낼 수 있는 높은 국소 흡수 강도 영역들을 찾도록 설계되었다. 분석적 방법은 PSMA PET/CT 영상들로 구성된 라벨링된 데이터 세트로부터 개발되었다. [0360] Referring to Fig. 28, in the aPROMISE implementation of this example, segmentation of regions with high local intensity of PSMA PET by aPROMISE, so-called predefined hotspots, are determined in PET images 2802 and CT images, performed by the analytic model 2800 based on input from the organ segmentation map 2804 projected into PET space. For the software to segment bony hotspots, the original PET images 2802 are used and the PET images are processed to suppress normal PET tracer uptake 2806 to segment lymphatic and prostate hotspots. A graphical overview of the analytic model used in this exemplary implementation is presented in FIG. 28 . The analytical method, as further described below, is designed to find regions of high local absorption intensity that can represent ROIs without an excessive number of extraneous regions or PET tracer background noise. An analytical method was developed from a labeled data set consisting of PSMA PET/CT images.

[0361] 정상적인 PSMA 추적자 흡수 강도의 억제(2806)는 당시 하나의 고흡수 장기에서 수행되었다. 첫째, 신장에서의 흡수 강도가 억제되고, 그 다음에 간, 그리고 마지막으로 비뇨기 방광이 억제된다. PET의 고강도 영역들에 추정된 억제 맵을 적용하여 억제를 수행한다. 억제 맵은 이전에 CT에서 분할된 장기 맵을 사용하여 생성되고 이를 PET 영상에 투영 및 조정하여 PET 조정된 장기 마스크를 생성한다. [0361] Suppression of normal PSMA tracer uptake intensity (2806) was performed in one high uptake organ at the time. First, the intensity of absorption in the kidney is suppressed, then the liver, and finally the urinary bladder. Suppression is performed by applying the estimated suppression map to the high-intensity regions of the PET. The suppression map is created using the organ map previously segmented from the CT and projected and adjusted onto the PET image to create a PET adjusted organ mask.

[0362] 이 조정은 PET와 CT 영상들 사이의 작은 오정렬들을 보정한다. 조정된 맵을 사용하여, 배경 영상이 계산된다. 이러한 배경 영상은 원래의 PET 영상으로부터 차감되어 흡수 추정 영상을 생성한다. 그 다음, 분할 외부의 복셀로부터 PET 조정된 장기 마스크까지의 유클리드 거리에 의존하는 지수 함수를 사용하여 흡수 추정 영상으로부터 억제 맵을 추정한다. 흡수 강도가 장기로부터의 거리에 따라 기하급수적으로 감소하기 때문에 지수 함수가 사용된다. 최종적으로, 원래의 PET 영상으로부터 억제 맵을 차감하여 장기의 정상적인 높은 흡수와 관련된 강도들을 억제한다. [0362] This adjustment corrects for small misalignments between the PET and CT images. Using the adjusted map, a background image is computed. This background image is subtracted from the original PET image to create an absorption estimation image. Then, we estimate the suppression map from the absorption estimate image using an exponential function that depends on the Euclidean distance from the voxel outside the segmentation to the PET-adjusted organ mask. An exponential function is used because the intensity of absorption decreases exponentially with distance from the organ. Finally, a suppression map is subtracted from the original PET image to suppress the intensities associated with normal high uptake in the organ.

[0363] 정상적인 PSMA 추적자 흡수 강도의 억제 후, 장기 분할 마스크(2804) 및 억제 단계(2806)에 의해 생성된 억제된 PET 영상(2808)을 사용하여 핫스팟들이 전립선 및 림프(2812)에서 분할된다. 전립선 핫스팟들은 전립선 절제술을 받은 환자들에 대해 분할되지 않는다. 뼈 및 림프 핫스팟 분할들은 모든 환자들에 대해 적용 가능하다. 각각의 핫스팟은 기본 PET 영상을 속도 맵으로 사용하고 입력 영역의 볼륨이 이동 시간을 결정하는 신속 진행(fast―marching) 방법을 사용하여 분할된다. 입력 영역은 신속 진행 방법에 대한 관심 볼륨을 식별하기 위한 초기 분할 마스크로도 사용되고 핫스팟 분할이 뼈에서 수행되는지 또는 연조직에서 수행되는지에 의존하여 다르게 생성된다. 뼈 핫스팟들은 신속 진행 방법 및 가우시안의 차이(DoG) 필터링 접근법(2810) 및 림프를 사용하여 분할되고, 적용 가능한 경우 전립선 핫스팟들은 신속 진행 방법 및 가우시안의 라플라시안(LoG) 필터링 접근법(2812)을 사용하여 분할된다. [0363] After suppression of normal PSMA tracer uptake intensity, hotspots are segmented in prostate and lymph 2812 using organ segmentation mask 2804 and suppressed PET image 2808 produced by suppression step 2806. Prostate hotspots are not segmented for patients undergoing prostatectomy. Bone and lymphatic hotspot segmentations are applicable for all patients. Each hotspot is segmented using a fast-marching method in which the base PET image is used as a velocity map and the volume of the input region determines the moving time. The input region is also used as an initial segmentation mask to identify the volume of interest for the fast-paced method and is created differently depending on whether the hotspot segmentation is performed on bone or soft tissue. Bone hotspots are segmented using the rapid progression method and Gaussian's difference (DoG) filtering approach 2810 and limp, where applicable, prostate hotspots are segmented using the rapid progression method and Gaussian's Laplacian (LoG) filtering approach 2812. Divided.

[0364] 뼈 핫스팟들의 검출 및 분할을 위해, 뼈 핫스팟들이 검출될 수 있는 골격 볼륨을 식별하기 위해 골격 영역 마스크가 생성된다. 골격 영역 마스크는 다음의 골격 영역들로 구성된다: 흉추(1―12), 요추(1―5), 쇄골(L+R), 견갑골(L+R), 흉골 갈비뼈(L+R, 1―12), 엉덩이뼈(L+R), 대퇴골(L+R), 천골 및 미저골. 마스킹된 영상은 DoG 필터링을 사용하여 영상을 반복적으로 정규화하여 PET 영상의 건강한 뼈 조직의 평균 강도에 기초하여 정규화된다. DoG에서 사용되는 필터 크기들은 3 mm / 간격 및 5mm / 간격이다. DoG 필터링은 영상에서 대역 중심으로부터 훨씬 멀리 떨어진 신호를 손상시키는 대역 통과 필터로서 역할을 하고, 이는 주변에 비해 높은 강도들을 갖는 복셀들의 클러스터들을 강조한다. 이러한 방식으로 획득된 정규화된 영상의 임계값 설정은 배경과 차별화될 수 있는 복셀들의 클러스터들을 생성하고 그에 따라서 분할되어 뼈 영역들에 위치된 핫스팟 볼륨들을 식별하는 3D 분할 맵 (2814)을 생성한다. [0364] For detection and segmentation of bone hotspots, a bone region mask is created to identify a bone volume in which bone hotspots can be detected. The bone region mask consists of the following bone regions: thoracic vertebrae (1-12), lumbar vertebrae (1-5), clavicle (L+R), scapula (L+R), sternal ribs (L+R, 1- 12), hip bone (L+R), femur (L+R), sacrum and coccyx. The masked image is normalized based on the mean intensity of healthy bone tissue in the PET image by iteratively normalizing the image using DoG filtering. The filter sizes used in DoG are 3 mm/spacing and 5 mm/spacing. DoG filtering acts as a band pass filter that impairs signals farther from the band center in the image, which emphasizes clusters of voxels with higher intensities relative to their periphery. Thresholding the normalized image acquired in this way creates clusters of voxels that can be differentiated from the background and segmented accordingly to create a 3D segmentation map 2814 that identifies hotspot volumes located in bone regions.

[0365] 림프 핫스팟들의 검출 및 분할을 위해, 잠재적인 림프절들에 대응하는 핫스팟들을 검출할 수 있는 림프 영역 마스크가 생성된다. 림프 영역 마스크는 모든 분할된 뼈 및 장기 영역들을 둘러싸는 경계 상자 내에 있는 복셀들을 포함하지만, 분할된 장기들 자체 내의 복셀들을 배제하고, 폐 볼륨들을 제외한 복셀들은 유지된다. 또 다른 전립선 영역 마스크는 잠재적인 전립선 종양들에 대응하는 핫스팟들이 검출될 수 있도록 생성된다. 이 전립선 영역 마스크는 본 출원에서 기재된 장기 분할 단계로부터 결정된 전립선 볼륨의 1 복셀 확장이다. 림프 영역 마스크를 PET 영상에 적용하면 림프 영역 내의 복셀들을 포함하는(예를 들어, 다른 복셀들을 제외함) 마스크된 영상이 생성되고, 마찬가지로 전립선 영역 마스크를 PET 영상에 적용하면 전립선 볼륨 내의 복셀들을 포함하는 마스크된 영상이 생성된다. [0365] For detection and segmentation of lymphatic hotspots, a lymphatic area mask capable of detecting hotspots corresponding to potential lymph nodes is created. The lymphatic region mask includes voxels within the bounding box surrounding all segmented bone and organ regions, but excludes voxels within the segmented organs themselves, and voxels excluding lung volumes are retained. Another prostate area mask is created so that hotspots corresponding to potential prostate tumors can be detected. This prostate region mask is a 1 voxel extension of the prostate volume determined from the organ segmentation step described in this application. Applying a lymphatic region mask to a PET image creates a masked image that includes voxels within the lymphatic region (eg, excluding other voxels), and similarly, applying a prostate region mask to a PET image includes voxels within the prostate volume. A masked image is created.

[0366] 연조직 핫스팟들 ― 즉, 림프 및 전립선 핫스팟들 ― 은 림프 및/또는 전립선 마스크된 영상들 상에 3 개의 상이한 크기들의 LoG 필터들 ― 하나는 4 mm / 간격 XYZ, 하나는 8 mm / 간격 XYZ, 및 하나는 12 mm / 간격 XYZ ― 을 별도로 적용하여 검출되어 두 가지 연조직 유형들(전립선 및 림프) 각각에 대해 3 개의 LoG 필터링된 영상들을 생성한다. 각각의 연조직 유형에 대해, 3 개의 대응하는 LoG 필터링 영상들은 대동맥 SUV 참조의 마이너스(minus) 70 % 값을 사용하여 임계값이 설정된 다음, 3 x 3 x 3 최소 필터를 사용하여 국소 최소값을 찾는다. 이 접근법은 각각이 핫스팟들에 대응하는 복셀들의 클러스터들을 포함하는 3 개의 필터링된 영상들을 생성한다. 3 개의 필터링된 영상은 핫스팟 영역 마스크를 생성하기 위해 3 개의 영상들로부터 국소 최소값의 합을 취함으로써 결합된다. 핫스팟 영역 마스크의 각각의 성분은 하나 이상의 핫스팟 볼륨들을 결정하기 위해 수준 설정 방법을 사용하여 분할된다. 이 분할 접근법은 전립선과 림프 핫스팟들 모두에 대해 수행되어 전립선 및 림프 영역들의 핫스팟들을 자동으로 분할한다. [0366] Soft tissue hotspots - i.e., lymph and prostate hotspots - were placed on three different sizes of LoG filters on the lymph and/or prostate masked images - one 4 mm/spacing XYZ, one 8 mm/spacing XYZ, and one 12 mm/spacing XYZ - separately applied to generate three LoG filtered images for each of the two soft tissue types (prostate and lymph). For each soft tissue type, the three corresponding LoG filtered images are thresholded using minus 70% of the aortic SUV reference, then a local minimum is found using a 3 x 3 x 3 minimum filter. This approach produces three filtered images each containing clusters of voxels corresponding to hotspots. The three filtered images are combined by taking the sum of local minima from the three images to create a hotspot area mask. Each component of the hotspot area mask is segmented using a leveling method to determine one or more hotspot volumes. This segmentation approach is performed for both prostate and lymphatic hotspots to automatically segment hotspots in the prostate and lymphatic regions.

iii. 정량화iii. quantification

[0367] 표 6은 사용자가 선택한 후 각각의 핫스팟에 대해 표시되는 소프트웨어에 의해 계산된 값들을 식별한다. ITLV는 합계 값이며 보고서에만 표시된다. 모든 계산들은 PSMA PET/CT의 SUV 변종들이다. [0367] Table 6 identifies the values calculated by the software that are displayed for each hotspot after the user selects it. ITLV is an aggregated value and only appears in reports. All calculations are SUV variants of PSMA PET/CT.

[표 6][Table 6]

aPROMISE에 의해 계산된 값들Values calculated by aPROMISE

Figure pct00037
Figure pct00037

iv. 웹 기반 플랫폼 아키텍처iv. Web-based platform architecture

[0368] aPROMISE는 마이크로 서비스 아키텍처를 이용한다. AWS로의 배포는 AWS 코드 저장소에 있는 클라우드 형성 스크립트(scripts)에서 처리된다. aPROMISE 클라우드 아키텍처는 도 29a에 제공되고, 마이크로 서비스 통신 설계 차트는 도 29b에 제공된다. [0368] aPROMISE uses a microservices architecture. Deployment to AWS is handled in cloud formation scripts located in the AWS code repository. The aPROMISE cloud architecture is provided in Fig. 29a, and the microservice communication design chart is provided in Fig. 29b.

J. 조영제J. Contrast

i. PET 영상 촬영 방사성 핵종 라벨링된 PSMA 결합제i. PET Imaging Radionuclide Labeled PSMA Binder

[0369] 특정 실시양태에서, 방사성 핵종 라벨링된 PSMA 결합제는 PET 영상 촬영에 적절한 방사성 핵종 라벨링된 PSMA 결합제이다. [0369] In certain embodiments, the radionuclide-labeled PSMA binder is a radionuclide-labeled PSMA binder suitable for PET imaging.

[0370] 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 [18F]DCFPyL (PyLTM이라고도 함; 또한 DCFPyL―18F라고도 함)을 포함한다: [0370] In certain embodiments, the radionuclide labeled PSMA binder comprises [ 18 F]DCFPyL (also referred to as PyL TM ; also referred to as DCFPyL-18F):

Figure pct00038
Figure pct00038

[18F]DCFPyL,[18F] DCFPyL,

또는 이들의 약제학적으로 허용되는 염.or a pharmaceutically acceptable salt thereof.

[0371] 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 [18F]DCFBC를 포함한다: [0371] In certain embodiments, the radionuclide labeled PSMA binder comprises [ 18 F]DCFBC:

Figure pct00039
Figure pct00039

[18F]DCFBC,[18F] DCFBC,

또는 이들의 약제학적으로 허용되는 염.or a pharmaceutically acceptable salt thereof.

[0372] 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 68Ga―PSMA―HBED―CC (68Ga―PSMA―11로도 지칭됨)를 포함한다: [0372] In certain embodiments, the radionuclide labeled PSMA binder comprises 68 Ga-PSMA-HBED-CC (also referred to as 68 Ga-PSMA-11):

Figure pct00040
Figure pct00040

68Ga―PSMA―HBED―CC, 68Ga -PSMA-HBED-CC,

또는 이들의 약제학적으로 허용되는 염.or a pharmaceutically acceptable salt thereof.

[0373] 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 PSMA―617을 포함한다: [0373] In certain embodiments, the radionuclide labeled PSMA binder comprises PSMA-617:

Figure pct00041
Figure pct00041

PSMA―617,PSMA-617;

또는 이들의 약제학적으로 허용되는 염. 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 68Ga로 라벨링된 PSMA―617인 68Ga―PSMA―617 또는 그의 제약상 허용되는 염을 포함한다. 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 177Lu로 표지된 PSMA―617인 177Lu―PSMA―617 또는 그의 제약상 허용되는 염을 포함한다.or a pharmaceutically acceptable salt thereof. In certain embodiments, the radionuclide labeled PSMA binder comprises 68 Ga-PSMA-617, which is PSMA-617 labeled as 68 Ga, or a pharmaceutically acceptable salt thereof. In certain embodiments, the radionuclide labeled PSMA binder comprises 177 Lu-PSMA-617, which is PSMA-617 labeled with 177 Lu, or a pharmaceutically acceptable salt thereof.

[0374] 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 PSMA―I&T를 포함한다: [0374] In certain embodiments, the radionuclide labeled PSMA binder comprises PSMA-I&T:

Figure pct00042
Figure pct00042

PSMA―I&T,PSMA-I&T,

또는 이들의 약제학적으로 허용되는 염. 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 68Ga로 라벨링된 PSMA―I&T인 68Ga―PSMA―I&T 또는 그의 제약상 허용되는 염을 포함한다.or a pharmaceutically acceptable salt thereof. In certain embodiments, the radionuclide labeled PSMA binder comprises 68 Ga-PSMA-I&T, which is PSMA-I&T labeled with 68 Ga, or a pharmaceutically acceptable salt thereof.

[0375] 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 PSMA―1007을 포함한다: [0375] In certain embodiments, the radionuclide labeled PSMA binder comprises PSMA-1007:

Figure pct00043
Figure pct00043

PSMA―1007,PSMA-1007;

또는 이들의 약제학적으로 허용되는 염. 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 18F로 표지된 PSMA―1007인 18F―PSMA―1007 또는 그의 제약상 허용되는 염을 포함한다.or a pharmaceutically acceptable salt thereof. In certain embodiments, the radionuclide labeled PSMA binder comprises 18 F-PSMA-1007, which is PSMA-1007 labeled with 18 F, or a pharmaceutically acceptable salt thereof.

ii. SPECT 영상 촬영 방사성 핵종 라벨링된 PSMA 결합제ii. SPECT Imaging Radionuclide Labeled PSMA Binder

[0376] 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 SPECT 영상 촬영에 적절한 방사성 핵종 라벨링된 PSMA 결합제이다. [0376] In certain embodiments, the radionuclide labeled PSMA binder is a radionuclide labeled PSMA binder suitable for SPECT imaging.

[0377] 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 1404 (MIP―1404로도 지칭됨)를 포함한다: [0377] In certain embodiments, the radionuclide labeled PSMA binder comprises 1404 (also referred to as MIP-1404):

Figure pct00044
Figure pct00044

1404,1404;

또는 이들의 약제학적으로 허용되는 염.or a pharmaceutically acceptable salt thereof.

[0378] 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 1405 (MIP―1405로도 지칭됨)를 포함한다: [0378] In certain embodiments, the radionuclide labeled PSMA binder comprises 1405 (also referred to as MIP-1405):

Figure pct00045
Figure pct00045

1405,1405;

또는 이들의 약제학적으로 허용되는 염.or a pharmaceutically acceptable salt thereof.

[0379] 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 1427 (MIP―1427로도 지칭됨)을 포함한다: [0379] In certain embodiments, the radionuclide labeled PSMA binder comprises 1427 (also referred to as MIP-1427):

Figure pct00046
Figure pct00046

1427,1427;

또는 이들의 약제학적으로 허용되는 염.or a pharmaceutically acceptable salt thereof.

[0380] 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 1428 (MIP―1428로도 지칭됨)을 포함한다: [0380] In certain embodiments, the radionuclide labeled PSMA binder comprises 1428 (also referred to as MIP-1428):

Figure pct00047
Figure pct00047

1428,1428;

또는 이들의 약제학적으로 허용되는 염.or a pharmaceutically acceptable salt thereof.

[0381] 특정 실시 형태에서, PSMA 결합제는 이를 금속의 방사성 동위원소 [예를 들어, 테크네튬(Tc)의 방사성 동위원소(예를 들어, 테크네튬―99m(99mTc)); 예를 들어, 레늄(Re)의 방사성 동위원소(예를 들어, 레늄―188(188Re); 예를 들어, 레늄―186(186Re)); 예를 들어, 이트륨(Y)의 방사성 동위원소(예를 들어, 90Y); 예를 들어, 루테튬(Lu)의 방사성 동위원소(예를 들어, 177Lu); 예를 들어, 갈륨(Ga)의 방사성 동위원소(예를 들어, 68Ga; 예를 들어, 67Ga); 예를 들어, 인듐의 방사성 동위원소(예를 들어, 111In); 예를 들어, 구리(Cu)의 방사성 동위원소(예를 들어, 67Cu)]에 킬레이팅(chelating)하여 방사성 핵종으로 라벨링된다. [0381] In certain embodiments, the PSMA binder can be combined with a radioactive isotope of a metal [eg, a radioactive isotope of technetium (Tc) (eg, technetium-99m ( 99 mTc)); For example, radioactive isotopes of rhenium (Re) (eg, rhenium-188( 188 Re); eg, rhenium-186( 186 Re)); For example, a radioactive isotope of yttrium (Y) (eg, 90 Y); For example, radioactive isotopes of lutetium (Lu) (eg, 177 Lu); For example, a radioactive isotope of gallium (Ga) (eg, 68 Ga; eg, 67 Ga); For example, radioactive isotopes of indium (eg, 111 In); For example, it is labeled as a radionuclide by chelating to a radioactive isotope of copper (Cu) (eg, 67 Cu)].

[0382] 특정 실시 형태에서, 1404는 방사성 핵종으로(예를 들어, 금속의 방사성 동위원소에 킬레이트됨) 라벨링된다. 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 99mTc로 라벨링된(예를 들어, 99mTc에 킬레이트된) 1404인 99mTc―MIP―1404를 포함한다: [0382] In certain embodiments, 1404 is labeled as a radionuclide (eg, chelated to a radioactive isotope of a metal). In certain embodiments, the radionuclide-labeled PSMA binder comprises 99m Tc-MIP-1404, which is 1404 labeled with 99m Tc (e.g., chelated to 99m Tc):

Figure pct00048
Figure pct00048

99mTc―MIP―1404, 99m Tc-MIP-1404,

또는 이들의 약제학적으로 허용되는 염. 특정 실시 형태에서, 1404는 다른 금속 방사성 동위원소 [예를 들어, 레늄(Re)의 방사성 동위원소(예를 들어, 레늄―188(188Re); 예를 들어, 레늄―186(186Re)); 예를 들어, 이트륨(Y)의 방사성 동위원소(예를 들어, 90Y); 예를 들어, 루테튬(Lu)의 방사성동위원소(예를 들어, 177Lu); 예를 들어, 갈륨(Ga)의 방사성 동위원소(예를 들어, 68Ga; 예를 들어, 67Ga); 예를 들어, 인듐의 방사성 동위원소(예를 들어, 111In); 예를 들어, 구리(Cu)의 방사성 동위원소(예를 들어, 67Cu)]에 킬레이트되어 99mTc―MIP―1404에 대해 위에서 나타낸 구조와 유사한 구조를 갖는 화합물을 형성하고, 다른 금속 방사성 동위원소는 99mTc를 대체한다.or a pharmaceutically acceptable salt thereof. In certain embodiments, 1404 is another metal radioisotope [eg, a radioactive isotope of rhenium (Re) (eg, rhenium-188( 188 Re); eg, rhenium-186( 186 Re)) ; For example, a radioactive isotope of yttrium (Y) (eg, 90 Y); For example, a radioactive isotope of lutetium (Lu) (eg, 177 Lu); For example, a radioactive isotope of gallium (Ga) (eg, 68 Ga; eg, 67 Ga); For example, radioactive isotopes of indium (eg, 111 In); for example, a radioactive isotope of copper (Cu) (e.g., 67 Cu)] to form a compound having a structure similar to that shown above for 99m Tc-MIP-1404, and other metal radioactive isotopes. replaces 99m Tc.

[0383] 특정 실시 형태에서, 1405는 방사성 핵종으로(예를 들어, 금속의 방사성 동위원소에 킬레이트됨) 라벨링된다. 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 99mTc로 라벨링된(예를 들어, 99mTc에 킬레이트된) 1405인 99mTc―MIP―1405를 포함한다: [0383] In certain embodiments, 1405 is labeled as a radionuclide (eg, chelated to a radioactive isotope of a metal). In certain embodiments, the radionuclide labeled PSMA binder comprises 99m Tc-MIP-1405, which is 1405 labeled with 99m Tc (e.g., chelated to 99m Tc):

Figure pct00049
Figure pct00049

99mTc―MIP―1405, 99m Tc-MIP-1405,

또는 이들의 약제학적으로 허용되는 염. 특정 실시 형태에서, 1405는 다른 금속 방사성 동위원소[예를 들어, 레늄(Re)의 방사성 동위원소(예를 들어, 레늄―188(188Re); 예를 들어, 레늄―186(186Re)); 예를 들어, 이트륨(Y)의 방사성 동위원소(예를 들어, 90Y); 예를 들어, 루테튬(Lu)의 방사성 동위원소(예를 들어, 177Lu); 예를 들어, 갈륨(Ga)의 방사성 동위원소(예를 들어, 68Ga; 예를 들어, 67Ga); 예를 들어, 인듐의 방사성 동위원소(예를 들어, 111In); 예를 들어, 구리(Cu)의 방사성 동위원소(예를 들어, 67Cu)]에 킬레이트되어 99mTc―MIP―1405에 대해 위에서 나타낸 구조와 유사한 구조를 갖는 화합물을 형성하고, 다른 금속 방사성 동위원소는 99mTc를 대체한다.or a pharmaceutically acceptable salt thereof. In certain embodiments, 1405 is another metal radioactive isotope (eg, a radioactive isotope of rhenium (Re) (eg, rhenium-188( 188 Re); eg, rhenium-186( 186 Re))) ; For example, a radioactive isotope of yttrium (Y) (eg, 90 Y); For example, radioactive isotopes of lutetium (Lu) (eg, 177 Lu); For example, a radioactive isotope of gallium (Ga) (eg, 68 Ga; eg, 67 Ga); For example, radioactive isotopes of indium (eg, 111 In); for example, a radioactive isotope of copper (Cu) (e.g., 67 Cu)] to form a compound having a structure similar to that shown above for 99m Tc-MIP-1405, and other metal radioactive isotopes. replaces 99m Tc.

[0384] 특정 실시 형태에서, 1427은 금속의 방사성 동위원소로 라벨링(예를 들어, 킬레이트화)되어 하기의 화학식에 따른 화합물을 형성한다: [0384] In certain embodiments, 1427 is labeled (e.g., chelated) with a radioactive isotope of a metal to form a compound according to the formula:

Figure pct00050
Figure pct00050

금속에 킬레이트된 1427,1427 chelated to metal,

또는 이의 약제학적으로 허용되는 염, 여기서, M은 1427을 라벨링하는 금속 방사성 동위원소 [예를 들어, 테크네튬(Tc)의 방사성 동위원소(예를 들어, 테크네튬―99m(99mTc))이고; 예를 들어, 레늄(Re)의 방사성 동위원소(예를 들어, 레늄―188(188Re); 예를 들어, 레늄―186(186Re)); 예를 들어, 이트륨(Y)의 방사성 동위원소(예를 들어, 90Y); 예를 들어, 루테튬(Lu)의 방사성 동위원소(예를 들어, 177Lu); 예를 들어, 갈륨(Ga)의 방사성 동위원소(예를 들어, 68Ga; 예를 들어, 67Ga); 예를 들어, 인듐의 방사성 동위원소(예를 들어, 111In); 예를 들어, 구리(Cu)의 방사성 동위원소(예를 들어, 67Cu)].or a pharmaceutically acceptable salt thereof, wherein M is a metal radioisotope labeling 1427 [eg, a radioactive isotope of technetium (Tc) (eg, technetium-99m( 99m Tc)); For example, radioactive isotopes of rhenium (Re) (eg, rhenium-188( 188 Re); eg, rhenium-186( 186 Re)); For example, a radioactive isotope of yttrium (Y) (eg, 90 Y); For example, radioactive isotopes of lutetium (Lu) (eg, 177 Lu); For example, a radioactive isotope of gallium (Ga) (eg, 68 Ga; eg, 67 Ga); For example, radioactive isotopes of indium (eg, 111 In); For example, a radioactive isotope of copper (Cu) (eg, 67 Cu)].

[0385] 특정 실시 형태에서, 1428은 금속의 방사성 동위원소로 라벨링(예를 들어, 킬레이트화)되어 하기의 화학식에 따른 화합물을 형성한다: [0385] In certain embodiments, 1428 is labeled (e.g., chelated) with a radioactive isotope of a metal to form a compound according to the formula:

Figure pct00051
Figure pct00051

금속에 킬레이트된 1428,1428 chelated to metal,

또는 이의 약제학적으로 허용되는 염, 여기서, M은 1428을 라벨링하는 금속 방사성 동위원소 [예를 들어, 테크네튬(Tc)의 방사성 동위원소(예를 들어, 테크네튬―99m(99mTc))이고; 예를 들어, 레늄(Re)의 방사성 동위원소(예를 들어, 레늄―188(188Re); 예를 들어, 레늄―186(186Re)); 예를 들어, 이트륨(Y)의 방사성 동위원소 (예를 들어, 90Y); 예를 들어, 루테튬(Lu)의 방사성 동위원소(예를 들어, 177Lu); 예를 들어, 갈륨(Ga)의 방사성 동위원소(예를 들어, 68Ga; 예를 들어, 67Ga); 예를 들어, 인듐의 방사성 동위원소(예를 들어, 111In); 예를 들어, 구리(Cu)의 방사성 동위원소(예를 들어, 67Cu)].or a pharmaceutically acceptable salt thereof, wherein M is a metal radioisotope labeling 1428 [eg, a radioactive isotope of technetium (Tc) (eg, technetium-99m( 99m Tc)); For example, radioactive isotopes of rhenium (Re) (eg, rhenium-188( 188 Re); eg, rhenium-186( 186 Re)); For example, a radioactive isotope of yttrium (Y) (eg, 90 Y); For example, radioactive isotopes of lutetium (Lu) (eg, 177 Lu); For example, a radioactive isotope of gallium (Ga) (eg, 68 Ga; eg, 67 Ga); For example, radioactive isotopes of indium (eg, 111 In); For example, a radioactive isotope of copper (Cu) (eg, 67 Cu)].

[0386] 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 PSMA I&S를 포함한다: [0386] In certain embodiments, the radionuclide labeled PSMA binder comprises PSMA I&S:

Figure pct00052
Figure pct00052

PSMA I&S,PSMA I&S,

또는 이들의 약제학적으로 허용되는 염. 특정 실시 형태에서, 방사성 핵종 라벨링된 PSMA 결합제는 99mTc로 라벨링된 PSMA I&S인 99mTc―PSMA I&S 또는 그의 약제학적으로 허용되는 염을 포함한다.or a pharmaceutically acceptable salt thereof. In certain embodiments, the radionuclide labeled PSMA binder comprises 99m Tc-PSMA I&S, which is PSMA I&S labeled with 99m Tc-PSMA I&S, or a pharmaceutically acceptable salt thereof.

K. 컴퓨터 시스템 및 네트워크 아키텍처K. Computer Systems and Network Architecture

[0387] 도 30에서 확인할 수 있듯이, 본 출원에서 기재된 시스템들, 방법들 및 아키텍처들을 제공하는 데 사용하기 위한 네트워크 환경(3000)의 구현이 도시되고 기재된다. 간략한 개요에서, 이제 도 30을 참조하면, 예시적인 클라우드(cloud) 컴퓨팅 환경(3000)의 블록도가 도시되고 기재된다. 클라우드 컴퓨팅 환경(3000)은 하나 이상의 자원(resource) 공급자들(3002a, 3002b, 3002c)(통칭하여, 3002)를 포함할 수 있다. 각각의 자원 공급자(3002)는 컴퓨팅 자원들을 포함할 수 있다. 일부 실시 형태에서, 컴퓨팅 자원들은 데이터를 처리하는 데 사용되는 하드웨어(hardware) 및/또는 소프트웨어를 포함할 수 있다. 예를 들어, 컴퓨팅 자원들에는 알고리즘들, 컴퓨터 프로그램들 및/또는 컴퓨터 애플리케이션(application)들을 실행할 수 있는 하드웨어 및/또는 소프트웨어가 포함될 수 있다. 일부 실시 형태에서, 예시적인 컴퓨팅 자원들은 저장 및 검색 기능들을 갖춘 애플리케이션 서버(server)들 및/또는 데이터베이스(database)들을 포함할 수 있다. 각각의 자원 공급자(3002)는 클라우드 컴퓨팅 환경(3000)에서 임의의 다른 자원 공급자(3002)에 연결될 수 있다. 일부 실시 형태에서, 자원 공급자들(3002)은 컴퓨터 네트워크(3008)를 통해 연결될 수 있다. 각각의 자원 공급자(3002)는 컴퓨터 네트워크(3008)를 통해 하나 이상의 컴퓨팅 디바이스(3004a, 3004b, 3004c)(통칭하여, 3004)에 연결될 수 있다. [0387] As can be seen in FIG. 30, an implementation of a network environment 3000 for use in providing the systems, methods and architectures described herein is shown and described. For a brief overview, referring now to FIG. 30 , a block diagram of an exemplary cloud computing environment 3000 is shown and described. The cloud computing environment 3000 can include one or more resource providers 3002a, 3002b, 3002c (collectively 3002). Each resource provider 3002 may include computing resources. In some embodiments, computing resources may include hardware and/or software used to process data. For example, computing resources may include hardware and/or software capable of executing algorithms, computer programs and/or computer applications. In some embodiments, exemplary computing resources may include application servers and/or databases with storage and retrieval capabilities. Each resource provider 3002 can be coupled to any other resource provider 3002 in the cloud computing environment 3000 . In some embodiments, resource providers 3002 may be connected through a computer network 3008. Each resource provider 3002 can be coupled to one or more computing devices 3004a, 3004b, 3004c (collectively, 3004) via a computer network 3008.

[0388] 클라우드 컴퓨팅 환경(3000)은 자원 관리자(3006)를 포함할 수 있다. 자원 관리자(3006)는 컴퓨터 네트워크(3008)를 통해 자원 공급자들(3002) 및 컴퓨팅 디바이스들(3004)에 연결될 수 있다. 일부 실시 형태에서, 자원 관리자(3006)는 하나 이상의 자원 공급자들(3002)에 의해 하나 이상의 컴퓨팅 디바이스들(3004)에 컴퓨팅 자원들을 제공하는 것을 용이하게 할 수 있다. 자원 관리자(3006)는 특정 컴퓨팅 디바이스(3004)로부터 컴퓨팅 자원에 대한 요청을 수신할 수 있다. 자원 관리자(3006)는 컴퓨팅 디바이스(3004)에 의해 요청된 컴퓨팅 자원을 제공할 수 있는 하나 이상의 자원 공급자들(3002)을 식별할 수 있다. 자원 관리자(3006)는 컴퓨팅 자원을 제공하기 위해 자원 공급자(3002)를 선택할 수 있다. 자원 관리자(3006)는 자원 공급자(3002)와 특정 컴퓨팅 디바이스(3004) 사이의 연결을 용이하게 할 수 있다. 일부 실시 형태에서, 자원 관리자(3006)는 특정 자원 공급자(3002)와 특정 컴퓨팅 디바이스(3004) 사이의 연결을 확립할 수 있다. 일부 실시 형태에서, 자원 관리자(3006)는 요청된 컴퓨팅 자원을 가진 특정 컴퓨팅 디바이스(3004)를 특정 자원 공급자(3002)로 재지정할 수 있다. [0388] The cloud computing environment 3000 may include a resource manager 3006. Resource manager 3006 can be coupled to resource providers 3002 and computing devices 3004 via computer network 3008 . In some embodiments, resource manager 3006 may facilitate the provision of computing resources to one or more computing devices 3004 by one or more resource providers 3002 . Resource manager 3006 can receive a request for a computing resource from a particular computing device 3004 . Resource manager 3006 can identify one or more resource providers 3002 that can provide the computing resource requested by computing device 3004 . Resource manager 3006 can select resource provider 3002 to provide computing resources. A resource manager 3006 can facilitate a connection between a resource provider 3002 and a particular computing device 3004 . In some embodiments, resource manager 3006 may establish a connection between a particular resource provider 3002 and a particular computing device 3004 . In some embodiments, resource manager 3006 may redirect a particular computing device 3004 with a requested computing resource to a particular resource provider 3002 .

[0389] 도 31은 본 개시 내용에 기재된 기술들을 구현하는 데 사용될 수 있는 컴퓨팅 디바이스(3100) 및 모바일(mobile) 컴퓨팅 디바이스(3150)의 예시를 도시한다. 컴퓨팅 디바이스(3100)는 랩탑(laptop)들, 데스크탑(desktop)들, 워크스테이션(workstation)들, 개인용 디지털 단말기(PDA)들, 서버들, 블레이드(blade) 서버들, 메인프레임(mainframe)들 및 기타 적절한 컴퓨터들과 같은 다양한 형태의 디지털(digital) 컴퓨터들을 나타내도록 의도된다. 모바일 컴퓨팅 디바이스(3150)는 개인용 디지털 단말기들, 휴대용 전화기(cellular phone)들, 스마트폰(smart―phone)들 및 기타 유사한 컴퓨팅 디바이스들과 같은 다양한 형태의 모바일 디바이스들을 나타내도록 의도된다. 여기에 도시된 구성 요소들, 이들의 연결 및 관계 및 기능들은 단지 예시들일 뿐이며 제한을 의미하지 않는다. [0389] FIG. 31 shows examples of a computing device 3100 and a mobile computing device 3150 that can be used to implement the techniques described in this disclosure. Computing device 3100 includes laptops, desktops, workstations, personal digital assistants (PDAs), servers, blade servers, mainframes and It is intended to represent various types of digital computers, such as other suitable computers. Mobile computing device 3150 is intended to represent various forms of mobile devices such as personal digital assistants, cellular phones, smart-phones, and other similar computing devices. Components shown herein, their connections and relationships, and functions are examples only and are not meant to be limiting.

[0390] 컴퓨팅 디바이스(3100)는 프로세서(3102), 메모리(3104), 저장 디바이스(3106), 메모리(3104)에 연결되는 고속 인터페이스(interface)(3108) 및 다수의 고속 확장 포트(expansion port)들(3110) 및 저속 확장 포트(3114) 및 저장 디바이스(3106)에 연결되는 저속 인터페이스(3112)를 포함한다. 프로세서(3102), 메모리(3104), 저장 디바이스(3106), 고속 인터페이스(3108), 고속 확장 포트(3110) 및 저속 인터페이스(3112) 각각은 다양한 버스(bus)들을 사용하여 상호 연결되며, 일반적인 마더보드(motherboard) 상에 또는 적절한 다른 방식들로 탑재될 수 있다. 프로세서(3102)는 메모리(3104) 또는 저장 디바이스(3106)에 저장된 명령들을 포함하여 컴퓨팅 디바이스(3100) 내에서 실행하기 위한 명령들을 처리하여 GUI에 대한 그래픽 정보를 고속 인터페이스(3108)에 결합된 디스플레이(display)(3116)와 같은 외부 입력 / 출력 디바이스에 표시할 수 있다. 다른 실시 형태에서, 다중 프로세서들 및/또는 다중 버스들은 다중 메모리들 및 메모리의 유형들과 함께 적절하게 사용될 수 있다. 또한 여러 컴퓨팅 디바이스들이 연결될 수 있으며 각각의 디바이스는 필요한 작업들의 일부를 제공한다(예를 들어, 서버 뱅크(server bank), 블레이드 서버 그룹 또는 다중 프로세서 시스템으로서). 따라서 복수의 기능들이 "프로세서"에 의해 수행되는 것으로 기재되는 용어가 본 출원에서 사용되는 바와 같이, 이것은 복수의 기능들이 임의의 수(하나 이상)의 컴퓨팅 디바이스들의 임의의 수(하나 이상)의 프로세서들에 의해 수행되는 구현예들을 포함한다. 또한, 기능이 "프로세서"에 의해 수행되는 것으로서 기재되는 경우, 이것은 기능이 임의의 수(하나 이상)의 컴퓨팅 디바이스들의 임의의 수(하나 이상)의 프로세서들에 의해 수행되는 구현예들을 포함한다(예를 들어, 분산 컴퓨팅 시스템). [0390] The computing device 3100 includes a processor 3102, a memory 3104, a storage device 3106, a high-speed interface 3108 coupled to the memory 3104 and a number of high-speed expansion ports. 3110 and a low-speed expansion port 3114 and a low-speed interface 3112 coupled to the storage device 3106. Processor 3102, memory 3104, storage device 3106, high-speed interface 3108, high-speed expansion port 3110, and low-speed interface 3112 are each interconnected using various buses, and a typical motherboard It can be mounted on a motherboard or in other ways suitable. Processor 3102 processes commands for execution within computing device 3100, including those stored in memory 3104 or storage device 3106, to provide graphical information for a GUI to a display coupled to high-speed interface 3108. It can be displayed on an external input/output device such as (display) 3116. In another embodiment, multiple processors and/or multiple buses may be used with multiple memories and types of memory as appropriate. Also, several computing devices can be connected, each providing some of the necessary tasks (eg, as a server bank, group of blade servers, or multiprocessor system). Thus, as a term is used in this application in which a plurality of functions are described as being performed by a “processor,” this means that the plurality of functions are performed by any number (one or more) of the processors of any number (one or more) of computing devices. It includes implementations performed by Also, where functionality is described as being performed by a “processor,” this includes implementations in which the functionality is performed by any number (one or more) processors of any number (one or more) computing devices ( For example, distributed computing systems).

[0391] 메모리(3104)는 컴퓨팅 디바이스(3100) 내에 정보를 저장한다. 일부 실시 형태에서, 메모리(3104)는 휘발성 메모리 유닛(volatile memory unit) 또는 유닛들이다. 일부 실시 형태에서, 메모리(3104)는 비휘발성 메모리 유닛(non―volatile memory unit) 또는 유닛들이다. 메모리(3104)는 또한 자기 또는 광학 디스크(optical disk)와 같은 다른 형태의 컴퓨터 판독 가능 매체일 수 있다. [0391] The memory 3104 stores information within the computing device 3100. In some embodiments, memory 3104 is a volatile memory unit or units. In some embodiments, memory 3104 is a non-volatile memory unit or units. Memory 3104 can also be other forms of computer readable media, such as magnetic or optical disks.

[0392] 저장 디바이스(3106)는 컴퓨팅 디바이스(3100)를 위한 대용량 저장을 제공할 수 있다. 일부 실시 형태에서, 저장 디바이스(3106)는 플로피 디스크 디바이스(floppy disk device), 하드 디스크 디바이스(hard disk device), 광학 디스크 디바이스 또는 테이프 디바이스(tape device), 플래시 메모리(flash memory) 또는 기타 유사한 고체 상태 메모리 디바이스(solid state memory device)와 같은 컴퓨터 판독 가능 매체이거나 이를 포함할 수 있거나 또는 저장 영역 네트워크(storage area network) 또는 기타 다른 구성들을 포함하는 디바이스들의 어레이(array)를 포함할 수 있다. 명령들은 정보 캐리어(information carrier)에 저장할 수 있다. 명령들은 하나 이상의 처리 디바이스들(예를 들어, 프로세서(3102))에 의해 실행될 때 상기에서 기재된 것과 같은 하나 이상의 방법들을 수행한다. 명령들은 또한 컴퓨터 판독 가능 매체 또는 기계 판독 가능 매체(예를 들어, 메모리(3104), 저장 디바이스(3106) 또는 프로세서(3102) 상의 메모리)와 같은 하나 이상의 저장 디바이스들에 의해 저장될 수 있다. [0392] The storage device 3106 can provide mass storage for the computing device 3100. In some embodiments, the storage device 3106 is a floppy disk device, hard disk device, optical disk device or tape device, flash memory, or other similar solid state device. It may be or include a computer readable medium, such as a solid state memory device, or may include an array of devices including a storage area network or other constructs. Instructions may be stored in an information carrier. Instructions when executed by one or more processing devices (eg, processor 3102) perform one or more methods as described above. Instructions may also be stored by one or more storage devices, such as computer readable or machine readable media (eg, memory 3104 , storage device 3106 , or memory on processor 3102 ).

[0393] 고속 인터페이스(3108)는 컴퓨팅 디바이스(3100)에 대한 대역폭 집중 동작들을 관리하는 반면, 저속 인터페이스(3112)는 낮은 대역폭 집중 동작들을 관리한다. 이러한 기능들의 할당은 예시일 뿐이다. 일부 실시 형태에서, 고속 인터페이스(3108)는 메모리(3104), 디스플레이(3116) (예를 들어, 그래픽 프로세서 또는 가속기를 통해) 및 다양한 확장 카드(미도시됨)를 수용할 수 있는 고속 확장 포트들(3110)에 결합된다. 구현예에서, 저속 인터페이스(3112)는 저장 디바이스(3106) 및 저속 확장 포트(3114)에 결합된다. 다양한 통신 포트들(예를 들어, USB, 블루투스(Bluetooth®), 이더넷(Ethernet), 무선 이더넷)을 포함할 수 있는 저속 확장 포트(3114)는 키보드(keyboard), 포인팅 디바이스(pointing device), 스캐너(scanner)와 같은 하나 이상의 입/출력 디바이스들, 또는 스위치(switch)나 라우터(router)와 같은 네트워킹 디바이스(예를 들어, 네트워크 어댑터(network adapter)를 통해)에 연결될 수 있다. [0393] High speed interface 3108 manages bandwidth intensive operations for computing device 3100, while low speed interface 3112 manages low bandwidth intensive operations. The assignment of these functions is exemplary only. In some embodiments, high-speed interface 3108 includes memory 3104, display 3116 (eg, via a graphics processor or accelerator), and high-speed expansion ports that can accommodate various expansion cards (not shown). (3110). In an implementation, low-speed interface 3112 is coupled to storage device 3106 and low-speed expansion port 3114 . Low-speed expansion port 3114, which may include various communication ports (e.g., USB, Bluetooth®, Ethernet, wireless Ethernet) is used for keyboard, pointing device, scanner It may be connected to one or more input/output devices such as a scanner, or to a networking device such as a switch or router (eg, via a network adapter).

[0394] 컴퓨팅 디바이스(3100)는 도면에 도시된 바와 같이 다양한 형태로 구현될 수 있다. 예를 들어, 표준 서버(3120)로 구현되거나 이러한 서버들의 그룹에서 여러 번 구현될 수 있다. 또한, 랩탑 컴퓨터(3122)와 같은 개인용 컴퓨터에서 구현될 수 있다. 랙 서버 시스템(rack server system)(3124)의 일부로 구현될 수도 있다. 대안적으로, 컴퓨팅 디바이스(3100)로부터의 구성 요소들은 모바일 컴퓨팅 디바이스(3150)와 같은 모바일 디바이스(미도시됨)의 다른 구성 요소와 결합될 수 있다. 이러한 디바이스들 각각은 컴퓨팅 디바이스(3100) 및 모바일 컴퓨팅 디바이스(3150) 중 하나 이상을 포함할 수 있고, 전체 시스템은 상호 통신하는 다수의 컴퓨팅 디바이스들로 구성될 수 있다. [0394] The computing device 3100 may be implemented in various forms as shown in the figure. For example, it may be implemented as a standard server 3120 or multiple times in a group of such servers. It may also be implemented in a personal computer such as laptop computer 3122. It may also be implemented as part of a rack server system 3124. Alternatively, components from computing device 3100 may be combined with other components of a mobile device (not shown), such as mobile computing device 3150 . Each of these devices may include one or more of computing device 3100 and mobile computing device 3150, and the overall system may be comprised of multiple computing devices that communicate with each other.

[0395] 모바일 컴퓨팅 디바이스(3150)는 다른 구성 요소들 중에서도 특히 프로세서(3152), 메모리(3164), 디스플레이(3154)와 같은 입력/출력 디바이스, 통신 인터페이스(3166) 및 트랜시버(transceiver)(3168)를 포함한다. 모바일 컴퓨팅 디바이스(3150)에는 추가 저장을 제공하기 위해 마이크로―드라이브(micro―drive) 또는 기타 디바이스와 같은 저장 디바이스가 제공될 수도 있다. 프로세서(3152), 메모리(3164), 디스플레이(3154), 통신 인터페이스(3166) 및 트랜시버(3168) 각각은 다양한 버스를 사용하여 상호 연결되며, 여러 구성요소는 공통 마더보드 또는 적절한 다른 방식으로 장착될 수 있다. [0395] The mobile computing device 3150 includes, among other components, a processor 3152, a memory 3164, an input/output device such as a display 3154, a communication interface 3166, and a transceiver 3168. includes The mobile computing device 3150 may be provided with a storage device such as a micro-drive or other device to provide additional storage. Each of the processor 3152, memory 3164, display 3154, communication interface 3166, and transceiver 3168 are interconnected using various buses, and the various components may be mounted on a common motherboard or in other ways as appropriate. can

[0396] 프로세서(3152)는 메모리(3164)에 저장된 명령들을 포함하여 모바일 컴퓨팅 디바이스(3150) 내의 명령들을 실행할 수 있다. 프로세서(3152)는 개별 및 다수의 아날로그(analog) 및 디지털 프로세서들을 포함하는 칩(chip)들의 칩셋(chipset)으로 구현될 수 있다. 프로세서(3152)는 예를 들어, 사용자 인터페이스의 제어, 모바일 컴퓨팅 디바이스(3150)에 의해 실행되는 애플리케이션, 및 모바일 컴퓨팅 디바이스(3150)에 의한 무선 통신과 같은 모바일 컴퓨팅 디바이스(3150)의 다른 구성 요소들의 조정을 제공할 수 있다. [0396] Processor 3152 may execute instructions within mobile computing device 3150, including instructions stored in memory 3164. The processor 3152 may be implemented as a chipset of chips including individual and multiple analog and digital processors. Processor 3152 is responsible for managing other components of mobile computing device 3150, such as, for example, control of user interfaces, applications executed by mobile computing device 3150, and wireless communications by mobile computing device 3150. adjustments can be provided.

[0397] 프로세서(3152)는 제어 인터페이스(3158) 및 디스플레이(3154)에 연결된 디스플레이 인터페이스(3156)를 통해 사용자와 통신할 수 있다. 디스플레이(3154)는 예를 들어, TFT(박막 트랜지스터 액정 표시) 디스플레이 또는 OLED(유기 발광 다이오드) 디스플레이 또는 다른 적절한 디스플레이 기술일 수 있다. 디스플레이 인터페이스(3156)는 디스플레이(3154)를 구동하여 그래픽 및 기타 정보를 사용자에게 제공하기 위한 적절한 회로를 포함할 수 있다. 제어 인터페이스(3158)는 사용자로부터 명령들을 수신하고 프로세서(3152)에 제출하기 위해 그 명령들을 변환할 수 있다. 또한, 외부 인터페이스(3162)는 프로세서(3152)와의 통신을 제공하여 모바일 컴퓨팅 디바이스(3150)와 다른 디바이스들과의 근거리 통신을 가능하게 할 수 있다. 외부 인터페이스(3162)는 예를 들어, 일부 구현예에서는 유선 통신을 위해, 또는 다른 구현예에서는 무선 통신을 위해 제공할 수 있고, 다수의 인터페이스가 또한 사용될 수 있다. [0397] The processor 3152 may communicate with a user via a control interface 3158 and a display interface 3156 coupled to the display 3154. Display 3154 may be, for example, a TFT (Thin Film Transistor Liquid Crystal Display) display or an OLED (Organic Light Emitting Diode) display or other suitable display technology. Display interface 3156 may include suitable circuitry for driving display 3154 to provide graphics and other information to a user. Control interface 3158 can receive commands from a user and translate them for submission to processor 3152 . Additionally, external interface 3162 can provide communication with processor 3152 to enable short-range communication between mobile computing device 3150 and other devices. External interface 3162 may provide, for example, for wired communication in some implementations, or for wireless communication in other implementations, and multiple interfaces may also be used.

[0398] 메모리(3164)는 모바일 컴퓨팅 디바이스(3150) 내에 정보를 저장한다. 메모리(3164)는 컴퓨터 판독 가능 매체(computer―readable medium) 또는 매체(media), 휘발성 메모리 유닛 또는 유닛들, 또는 비휘발성 메모리 유닛 또는 유닛들 중 하나 이상으로 구현될 수 있다. 확장 메모리(3174)가 또한 제공될 수 있고, 예를 들어, SIMM(Single In Line Memory Module) 카드 인터페이스를 포함할 수 있는 확장 인터페이스(3172)를 통해 모바일 컴퓨팅 디바이스(3150)에 연결될 수 있다. 확장 메모리(3174)는 모바일 컴퓨팅 디바이스(3150)를 위한 추가 저장 공간을 제공하거나 모바일 컴퓨팅 디바이스(3150)를 위한 애플리케이션 또는 기타 정보를 저장할 수도 있다. 구체적으로, 확장 메모리(3174)는 전술한 과정을 수행하거나 보완하기 위한 명령들을 포함할 수 있고, 보안 정보도 포함할 수 있다. 따라서 예를 들어, 확장 메모리(3174)는 모바일 컴퓨팅 디바이스(3150)를 위한 보안 모듈로서 제공될 수 있고, 모바일 컴퓨팅 디바이스(3150)의 안전한 사용을 허용하는 명령들로 프로그래밍될 수 있다. 또한 보안 애플리케이션은 SIMM 카드를 통해 해킹 불가능한 방식으로 SIMM 카드에 식별 정보를 배치하는 것과 같은 추가 정보와 함께 제공될 수 있다. [0398] Memory 3164 stores information within mobile computing device 3150. The memory 3164 may be implemented as one or more of a computer-readable medium or media, a volatile memory unit or units, or a non-volatile memory unit or units. Expansion memory 3174 may also be provided and coupled to mobile computing device 3150 via expansion interface 3172 , which may include, for example, a single in line memory module (SIMM) card interface. Expansion memory 3174 may provide additional storage space for mobile computing device 3150 or store applications or other information for mobile computing device 3150 . Specifically, the expansion memory 3174 may include instructions for performing or supplementing the above process, and may also include security information. Thus, for example, expansion memory 3174 can be provided as a security module for mobile computing device 3150 and can be programmed with instructions allowing secure use of mobile computing device 3150 . Security applications may also be provided with additional information, such as placing identification information on the SIMM card in an unhackable manner via the SIMM card.

[0399] 메모리는 예를 들어, 후술하는 바와 같이 플래시 메모리 및/또는 NVRAM 메모리(비휘발성 랜덤 액세스 메모리)를 포함할 수 있다. 일부 실시 형태에서, 명령들은 정보 캐리어에 저장된다. 명령들은 하나 이상의 처리 디바이스들(예를 들어, 프로세서(3152))에 의해 실행될 때 상기에서 기재된 바와 같은 하나 이상의 방법을 수행한다. 명령들은 또한 하나 이상의 컴퓨터 판독 가능 매체 또는 기계 판독 가능 매체(예를 들어, 메모리(3164), 확장 메모리(3174) 또는 프로세서(3152) 상의 메모리)와 같은 하나 이상의 저장 디바이스들에 의해 저장될 수 있다. 일부 실시 형태에서, 명령들은 예를 들어, 트랜시버(3168) 또는 외부 인터페이스(3162)를 통해 전파된 신호로 수신될 수 있다. [0399] The memory may include, for example, flash memory and/or NVRAM memory (non-volatile random access memory) as described below. In some embodiments, instructions are stored in an information carrier. The instructions when executed by one or more processing devices (eg, processor 3152) perform one or more methods as described above. Instructions may also be stored by one or more storage devices, such as one or more computer-readable or machine-readable media (e.g., memory 3164, expansion memory 3174, or memory on processor 3152). . In some embodiments, the instructions may be received in a signal propagated through transceiver 3168 or external interface 3162, for example.

[0400] 모바일 컴퓨팅 디바이스(3150)는 필요한 경우 디지털 신호 처리 회로를 포함할 수 있는 통신 인터페이스(3166)를 통해 무선으로 통신할 수 있다. 통신 인터페이스(3166)는 GSM 음성 통화(모바일 통신용 글로벌 시스템), SMS(짧은 메시지 서비스: Short Message Service), EMS(향상된 메시지 서비스: Enhanced Messaging Service) 또는 MMS 메시징(멀티미디어 메시지 서비스: Multimedia Messaging Service), CDMA(코드 분할 다중 접속: code division multiple access), TDMA(시분할 다중 접속: time division multiple access), PDC(개인 디지털 셀룰러: Personal Digital Cellular), WCDMA(광대역 코드 분할 다중 접속: Wideband Code Division Multiple Access), CDMA2000 또는 GPRS(일반 패킷 무선 서비스: General Packet Radio Service) 등과 같은 다양한 모드 또는 프로토콜(protocol) 하에서 통신을 제공할 수 있다. 이러한 통신은 예를 들어, 무선 주파수를 사용하는 트랜시버(3168)를 통해 발생할 수 있다. 또한 Bluetooth®, Wi―Fi™ 또는 기타 트랜시버(미도시됨)를 사용하는 것과 같은 단거리 통신이 발생할 수 있다. 또한, GPS(글로벌 위치 조정 시스템: Global Positioning System) 수신기 모듈(3170)은 추가 내비게이션 및 위치 관련 무선 데이터를 모바일 컴퓨팅 디바이스(3150)에서 실행하는 애플리케이션에 의해 적절하게 사용될 수 있는 모바일 컴퓨팅 디바이스(3150)에 제공할 수 있다. [0400] Mobile computing device 3150 may communicate wirelessly via communication interface 3166, which may include digital signal processing circuitry if desired. The communication interface 3166 is a GSM voice call (global system for mobile communication), SMS (Short Message Service), EMS (Enhanced Messaging Service) or MMS messaging (Multimedia Messaging Service), CDMA (code division multiple access), TDMA (time division multiple access), PDC (personal digital cellular), WCDMA (wideband code division multiple access) , CDMA2000 or General Packet Radio Service (GPRS), and the like, may provide communication under various modes or protocols. Such communication may occur via transceiver 3168 using radio frequency, for example. Short-range communication may also occur, such as using Bluetooth®, Wi-Fi™ or other transceivers (not shown). Additionally, a Global Positioning System (GPS) receiver module 3170 may be used by applications running on the mobile computing device 3150 to provide additional navigation and location-related wireless data to the mobile computing device 3150 as appropriate. can be provided to

[0401] 모바일 컴퓨팅 디바이스(3150)는 또한 오디오 코덱(audio codec)(3160)을 사용하여 청각적으로 통신할 수 있으며, 이는 사용자로부터 음성 정보를 수신하고 이를 사용 가능한 디지털 정보로 변환할 수 있다. 오디오 코덱(3160)은 마찬가지로 예를 들어, 모바일 컴퓨팅 디바이스(3150)의 핸드셋(handset)에서와 같은 스피커를 통해 사용자를 위한 가청 사운드를 생성할 수 있다. 이러한 사운드(sound)는 음성 전화 통화로부터의 사운드를 포함할 수 있고, 녹음된 사운드(예를 들어, 음성 메시지, 음악 파일 등)를 포함할 수 있고, 또한 모바일 컴퓨팅 디바이스(3150)에서 동작하는 애플리케이션에 의해 생성된 사운드를 포함할 수 있다. [0401] The mobile computing device 3150 may also communicate audibly using an audio codec 3160, which may receive voice information from a user and convert it into usable digital information. Audio codec 3160 may likewise produce audible sound for a user through a speaker, such as, for example, in a handset of mobile computing device 3150 . Such sounds may include sounds from voice phone calls, may include recorded sounds (eg, voice messages, music files, etc.), and may also include applications running on mobile computing device 3150. may include sounds generated by

[0402] 모바일 컴퓨팅 디바이스(3150)는 도면에 도시된 바와 같이 다양한 형태로 구현될 수 있다. 예를 들어, 셀룰러 전화기(3180)로 구현될 수 있다. 또한 스마트폰(3182), PDA 또는 기타 유사한 모바일 디바이스의 일부로 구현될 수 있다. [0402] The mobile computing device 3150 may be implemented in various forms as shown in the figure. For example, it may be implemented in cellular telephone 3180. It may also be implemented as part of a smartphone 3182, PDA, or other similar mobile device.

[0403] 본 출원에서 기재된 시스템들 및 기술들의 다양한 구현은 디지털 전자 회로, 집적 회로, 특별히 설계된 ASIC(응용 프로그램 특정 집적 회로), 컴퓨터 하드웨어, 펌웨어(firmware), 소프트웨어 및/또는 이들의 조합으로 실현될 수 있다. 이러한 다양한 구현은 데이터 및 명령을 수신하고 데이터를 전송하도록 결합된 특수 또는 범용일 수 있는 적어도 하나의 프로그래밍 가능한 프로세서 및 저장 시스템, 적어도 하나의 입력 디바이스 및 적어도 하나의 출력 디바이스에 대한 명령을 포함하는 프로그래밍 가능한 시스템에서 실행 가능 및/또는 해석 가능한 하나 이상의 컴퓨터 프로그램에서의 구현을 포함할 수 있다. [0403] The various implementations of the systems and techniques described in this application may be realized in digital electronic circuitry, integrated circuitry, specially designed application specific integrated circuits (ASICs), computer hardware, firmware, software, and/or combinations thereof. It can be. These various implementations include programming that includes instructions for at least one programmable processor and storage system, at least one input device and at least one output device, which may be special or general purpose coupled to receive data and instructions and transmit data. may include implementation in one or more computer programs executable and/or interpretable on a capable system.

[0404] 이러한 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 응용 프로그램 또는 코드라고도 함)은 프로그래밍 가능한 프로세서를 위한 기계 명령을 포함하며 고급 절차 및/또는 객체 지향 프로그래밍 언어 및/또는 어셈블리/기계 언어로 구현될 수 있다. 본 출원에서 사용되는 기계 판독 가능 매체 및 컴퓨터 판독 가능 매체라는 용어는 기계 명령들 및/또는 기계 판독 가능 신호로서 기계 명령을 수신하는 기계 판독 가능 매체를 포함하는 프로그램 가능 프로세서에 대한 데이터를 제공하는 데 사용되는 임의의 컴퓨터 프로그램 제품, 장치 및/또는 디바이스(예를 들어, 자기 디스크, 광 디스크, 메모리, 프로그램 가능 논리 디바이스(PLD)들)를 의미한다. 기계 판독 가능 신호라는 용어는 프로그램 가능 프로세서에 기계 명령들 및/또는 데이터를 제공하는 데 사용되는 모든 신호를 지칭한다. [0404] Such computer programs (also referred to as programs, software, software applications, or code) include machine instructions for a programmable processor and may be implemented in a high-level procedural and/or object-oriented programming language and/or assembly/machine language. there is. As used herein, the terms machine readable medium and computer readable medium are used to provide machine instructions and/or data for a programmable processor including a machine readable medium that receives machine instructions as a machine readable signal. means any computer program product, apparatus and/or device (eg, magnetic disk, optical disk, memory, programmable logic devices (PLDs)) that is used. The term machine-readable signal refers to any signal used to provide machine instructions and/or data to a programmable processor.

[0405] 사용자와의 상호 작용을 제공하기 위해, 본 출원에서 기재된 시스템들 및 기술들은 사용자에게 정보를 표시하기 위한 표시 디바이스(예를 들어, CRT (음극선관) 또는 LCD (액정 디스플레이) 모니터) 및 사용자가 컴퓨터에 입력을 제공할 수 있는 키보드 및 포인팅 디바이스(예를 들어, 마우스 또는 트랙볼(trackball))를 갖는 컴퓨터에서 구현될 수 있다. 다른 종류의 장치를 사용하여 사용자와의 상호 작용도 제공할 수 있는데 예를 들어, 사용자에게 제공되는 피드백(feedback)은 모든 형태의 감각 피드백(예를 들어, 시각적 피드백, 청각 피드백 또는 촉각 피드백)일 수 있고; 사용자로부터의 입력은 음향, 음성 또는 촉각 입력을 포함한 모든 형태로 수신될 수 있다. [0405] To provide interaction with a user, the systems and techniques described in this application include a display device (eg, a cathode ray tube (CRT) or liquid crystal display (LCD) monitor) for displaying information to a user and It can be implemented on a computer having a keyboard and pointing device (eg, mouse or trackball) through which a user can provide input to the computer. Other types of devices may also be used to provide interaction with the user, for example, the feedback provided to the user may be any form of sensory feedback (e.g., visual feedback, auditory feedback, or tactile feedback). can; Input from the user may be received in any form including acoustic, voice, or tactile input.

[0406] 본 출원에서 기재된 시스템들 및 기술들은 백엔드(back end) 구성 요소(예를 들어, 데이터 서버로서)를 포함하거나 미들웨어(middleware) 구성 요소(예를 들어, 애플리케이션 서버)를 포함하거나, 프런트 엔드(front end) 구성 요소(예를 들어, 사용자가 본 출원에서 기재된 시스템들 및 기술들의 구현과 상호 작용할 수 있는 그래픽 사용자 인터페이스 또는 웹 브라우저(Web browser)를 갖는 클라이언트 컴퓨터(client computer)), 또는 이러한 백 엔드, 미들웨어 또는 프런트 엔드 구성 요소의 조합을 포함하는 컴퓨팅 시스템에서 구현될 수 있다. 시스템의 구성 요소들은 디지털 데이터 통신의 모든 형태 또는 매체(예를 들어, 통신 네트워크)로 상호 연결될 수 있다. 통신 네트워크의 예시들은 LAN(근거리 네트워크), WAN(광역 네트워크) 및 인터넷(internet)을 포함한다. [0406] The systems and techniques described in this application may include a back end component (eg, as a data server) or include a middleware component (eg, an application server), or may include a front end component (eg, as a data server). A front end component (eg, a client computer with a Web browser or graphical user interface through which a user can interact with an implementation of the systems and techniques described herein), or It may be implemented in a computing system that includes a combination of these back-end, middleware, or front-end components. Components of the system may be interconnected by any form or medium of digital data communication (eg, a communication network). Examples of communication networks include LAN (Local Area Network), WAN (Wide Area Network) and Internet.

[0407] 컴퓨팅 시스템은 클라이언트와 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 멀리 떨어져 있으며 일반적으로 통신 네트워크를 통해 상호 작용한다. 클라이언트와 서버의 관계는 각각의 컴퓨터에서 실행되고 서로 클라이언트―서버 관계를 갖는 컴퓨터 프로그램 때문에 발생한다. [0407] A computing system may include a client and a server. Clients and servers are usually remote from each other and usually interact through a communication network. The relationship of client and server arises because of computer programs running on the respective computers and having a client-server relationship to each other.

[0408] 일부 실시 형태에서, 본 출원에서 기재된 다양한 모듈은 단일 또는 결합된 모듈들로 분리, 결합 또는 통합될 수 있다. 도면들에 묘사된 모듈들은 본 출원에서 기재된 시스템들을 여기에 도시된 소프트웨어 아키텍처들로 제한하려는 것이 아니다. [0408] In some embodiments, the various modules described in this application may be separated, combined or integrated into single or combined modules. The modules depicted in the figures are not intended to limit the systems described herein to the software architectures shown herein.

[0409] 본 출원에서 기재된 상이한 구현예의 요소들은 상기에서 구체적으로 설명되지 않은 다른 구현예들을 형성하기 위해 조합될 수 있다. 작동에 부정적인 영향을 미치지 않으면서 본 출원에서 기재된 과정들, 컴퓨터 프로그램들, 데이터베이스들 등에서 요소들을 제외할 수 있다. 또한, 도면들에 묘사된 논리 흐름들은 원하는 결과를 얻기 위해 표시된 특정 순서나 순차적 순서를 요구하지 않는다. 다양한 개별 요소들은 본 출원에서 기재된 기능들을 수행하기 위해 하나 이상의 개별 요소들로 조합될 수 있다. [0409] Elements of different embodiments described in this application may be combined to form other embodiments not specifically described above. Elements may be excluded from the processes, computer programs, databases, etc. described in this application without adversely affecting operation. Further, the logic flows depicted in the figures do not require any specific order presented or sequential order to obtain desired results. Various individual elements may be combined into one or more individual elements to perform the functions described herein.

[0410] 명세서 전반에 걸쳐, 장치 및 시스템들이 특정 구성요소를 갖거나, 포함하거나(including), 포함하는(comprising) 것으로 기재되거나, 과정들 및 방법들이 특정 단계를 가지거나, 포함하거나(including), 포함하는(comprising) 것으로 기재되는 경우, 추가로 인용된 구성요소로 필수적으로 구성되거나 구성된 본 발명의 장치 및 시스템들이 존재하고 인용된 처리 단계들로 본질적으로 구성되거나 구성되는 본 발명에 따른 과정들 및 방법들이 존재함을 이해해야 한다. [0410] Throughout the specification, devices and systems are described as having, including, or comprising particular components, processes and methods having, including, or comprising particular steps. , where described as comprising, additionally there are devices and systems of the present invention consisting essentially of or consisting of the recited elements and processes according to the invention consisting essentially of or consisting of the recited processing steps. and methods exist.

[0411] 본 발명의 다양하게 기재된 실시 형태들은 기술적으로 호환되지 않는 한 하나 이상의 다른 실시 형태와 함께 사용될 수 있다. 단계들의 순서 또는 특정 동작을 수행하는 순서는 본 발명이 작동 가능한 상태로 유지되는 한 중요하지 않다는 것은 이해되어야 한다. 더욱이, 2 개 이상의 단계 또는 동작은 동시에 수행될 수 있다. [0411] The various described embodiments of the present invention may be used with one or more other embodiments unless technically incompatible. It should be understood that the order of steps or order of performing particular actions is immaterial so long as the invention remains operable. Moreover, two or more steps or actions may be performed concurrently.

[0412] 본 발명은 구체적인 바람직한 실시 형태를 참조하여 구체적으로 도시되고 기재되었지만, 첨부된 청구범위에 정의된 바와 같은 본 발명의 사상 및 범위를 벗어나지 않고 그 형태 및 세부사항에 있어서 다양한 변경들이 이루어질 수 있음을 당해 분야의 통상의 기술자는 이해해야 한다. [0412] Although this invention has been specifically shown and described with reference to specific preferred embodiments, various changes may be made in form and detail without departing from the spirit and scope of the invention as defined in the appended claims. It should be understood by those skilled in the art that there is.

Claims (148)

대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 대상체의 3D 영상(image)들을 자동으로 처리하기 위한 방법으로서,
(a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법을 사용하여 획득된 대상체의 3D 기능적 영상을 수신하는 단계;
(b) 상기 프로세서에 의해, 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟(hotspot)들을 자동으로 검출하여 ― 각각의 핫스팟은 주변에 비해 높은 강도의 국소 영역에 대응하며 상기 대상체 내의 잠재적인 암성 병변을 나타냄 ―, (i) 각각의 핫스팟에 대해 상기 핫스팟의 위치를 식별하는 핫스팟 목록 및 (ii) 각각의 핫스팟에 대해 상기 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨(hotspot volumn)을 식별하는 3D 핫스팟 맵(hotspot map) 중 하나 또는 둘 모두를 생성하는 단계; 및
(c) 표시 및/또는 추가 처리를 위해, 상기 핫스팟 목록 및/또는 상기 3D 핫스팟 맵을 저장 및/또는 제공하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
A method for automatically processing 3D images of an object to identify and/or characterize cancerous lesions in the object, comprising:
(a) receiving, by a processor of a computing device, a 3D functional image of an object obtained using a functional imaging technique;
(b) automatically detecting, by the processor, one or more hotspots in the 3D functional image using a machine learning module, each hotspot corresponding to a local region of high intensity relative to the surroundings and generating a potential within the object; Indicates a cancerous lesion that is, (i) for each hotspot, a hotspot list identifying the location of the hotspot and (ii) for each hotspot, identifying a corresponding 3D hotspot volume in the 3D functional image. generating one or both of the 3D hotspot maps; and
(c) storing and/or providing the hotspot list and/or the 3D hotspot map for display and/or further processing.
제1 항에 있어서,
상기 기계 학습 모듈은 상기 3D 기능적 영상의 적어도 일부를 입력으로 수신하고 상기 3D 기능적 영상의 상기 수신된 부분의 복셀(voxel)들의 강도들에 적어도 부분적으로 기초하여 하나 이상의 핫스팟들을 자동으로 검출하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 1,
The machine learning module receives at least a portion of the 3D functional image as an input and automatically detects one or more hotspots based at least in part on intensities of voxels of the received portion of the 3D functional image. A method for automatically processing 3D images of
제1 항 또는 제2 항에 있어서,
상기 기계 학습 모듈은 상기 3D 기능적 영상 내의 하나 이상의 관심 볼륨(VOI)들을 식별하는 3D 분할 맵을 입력으로 수신하고, 각각의 VOI는 상기 대상체 내의 특정 표적 조직 영역 및/또는 특정 해부학적 영역에 대응하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 1 or 2,
The machine learning module receives as input a 3D segmentation map identifying one or more volumes of interest (VOIs) in the 3D functional image, each VOI corresponding to a specific target tissue region and/or a specific anatomical region within the object. , A method for automatically processing 3D images of an object.
제1 항 내지 제3 항 중 어느 한 항에 있어서,
상기 프로세서에 의해, 해부학적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 해부학적 영상을 수신하는 단계를 포함하고, 상기 3D 해부학적 영상은 상기 대상체 내의 조직의 그래픽(graphical) 표현을 포함하고,
상기 기계 학습 모듈은 적어도 2 개의 입력 채널들을 수신하고, 상기 입력 채널들은 상기 3D 해부학적 영상의 적어도 일부에 대응하는 제1 입력 채널 및 상기 3D 기능적 영상의 적어도 일부에 대응하는 제2 입력 채널을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to any one of claims 1 to 3,
receiving, by the processor, a 3D anatomical image of the object obtained using an anatomical imaging technique, wherein the 3D anatomical image includes a graphical representation of a tissue in the object;
The machine learning module receives at least two input channels, the input channels comprising a first input channel corresponding to at least a portion of the 3D anatomical image and a second input channel corresponding to at least a portion of the 3D functional image A method for automatically processing 3D images of an object.
제4 항에 있어서,
상기 기계 학습 모듈은 상기 3D 기능적 영상 및/또는 상기 3D 해부학적 영상 내의 하나 이상의 관심 볼륨(VOI)들을 식별하는 3D 분할 맵을 입력으로 수신하고, 각각의 VOI는 특정 표적 조직 영역 및/또는 특정 해부학적 영역에 대응하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 4,
The machine learning module receives as input a 3D segmentation map identifying one or more volumes of interest (VOIs) within the 3D functional image and/or the 3D anatomical image, each VOI having a specific target tissue region and/or specific anatomy. A method for automatically processing 3D images of an object corresponding to an enemy region.
제5 항에 있어서,
상기 프로세서에 의해, 상기 3D 해부학적 영상을 자동으로 분할하여 상기 3D 분할 맵을 생성하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 5,
and generating the 3D segmentation map by automatically segmenting the 3D anatomical image by the processor.
제1 항 내지 제6 항 중 어느 한 항에 있어서,
상기 기계 학습 모듈은 상기 대상체의 하나 이상의 특정 조직 영역들 및/또는 해부학적 영역들에 대응하는 상기 3D 기능적 영상의 특정 부분을 입력으로 수신하는 특정 영역 기계 학습 모듈인, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to any one of claims 1 to 6,
The machine learning module is a specific region machine learning module that receives a specific part of the 3D functional image corresponding to one or more specific tissue regions and/or anatomical regions of the object as an input, and automatically converts 3D images of the object. way to deal with it.
제1 항 내지 제7 항 중 어느 한 항에 있어서,
상기 기계 학습 모듈은 상기 핫스팟 목록을 출력으로 생성하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to any one of claims 1 to 7,
The method of claim 1 , wherein the machine learning module generates the hotspot list as an output.
제1 항 내지 제8 항 중 어느 한 항에 있어서,
상기 기계 학습 모듈은 상기 3D 핫스팟 맵을 출력으로 생성하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to any one of claims 1 to 8,
The method of claim 1 , wherein the machine learning module generates the 3D hotspot map as an output.
제1 항 내지 제9 항 중 어느 한 항에 있어서,
(d) 상기 프로세서에 의해, 상기 핫스팟들의 적어도 일부의 각각의 핫스팟에 대해 상기 대상체 내의 병변을 나타내는 상기 핫스팟의 우도(likelihood)에 대응하는 병변 우도 분류를 결정하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to any one of claims 1 to 9,
(d) determining, by the processor, for each hotspot of at least some of the hotspots, a lesion likelihood classification corresponding to a likelihood of the hotspot representing a lesion in the object; How to automatically process them.
제10 항에 있어서,
단계 (d)는 상기 기계 학습 모듈을 사용하여 상기 일부의 각각의 핫스팟에 대한 상기 병변 우도 분류를 결정하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 10,
Step (d) comprises determining the lesion likelihood classification for each hotspot of the portion using the machine learning module.
제10 항에 있어서,
단계 (d)는 제2 기계 학습 모듈을 사용하여 각각의 핫스팟에 대한 상기 병변 우도 분류를 결정하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 10,
Step (d) comprises determining the lesion likelihood classification for each hotspot using a second machine learning module.
제12 항에 있어서,
상기 프로세서에 의해, 각각의 핫스팟에 대해 하나 이상의 핫스팟 특징들의 세트를 결정하고 상기 하나 이상의 핫스팟 특징들의 세트를 상기 제2 기계 학습 모듈에 대한 입력으로 사용하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 12,
Automatically generating, by the processor, 3D images of an object, comprising determining a set of one or more hotspot features for each hotspot and using the set of one or more hotspot features as an input to the second machine learning module. way to deal with it.
제10 항 내지 제13 항 중 어느 한 항에 있어서,
(e) 상기 프로세서에 의해, 암성 병변들에 대응할 우도가 높은 핫스팟들에 대응하는 하나 이상의 핫스팟들의 서브 세트(subset)를 상기 핫스팟들에 대한 상기 병변 우도 분류에 적어도 부분적으로 기초하여 선택하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to any one of claims 10 to 13,
(e) selecting, by the processor, a subset of one or more hotspots corresponding to hotspots with a high likelihood of corresponding to cancerous lesions based at least in part on the lesion likelihood classification for the hotspots. A method for automatically processing 3D images of an object, comprising:
제1 항 내지 제14 항 중 어느 한 항에 있어서,
(f) 상기 프로세서에 의해, 상기 3D 기능적 영상의 복셀들의 강도들을 조정하여 상기 3D 기능적 영상의 하나 이상의 고강도 볼륨들로부터 강도 블리드(intensity bleed)를 보정하는 단계를 포함하고, 상기 하나 이상의 고강도 볼륨들 각각은 정상적인 상황 하에서 높은 방사성 의약품 흡수와 관련된 대상체 내의 고흡수 조직 영역에 대응하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to any one of claims 1 to 14,
(f) correcting, by the processor, intensity bleed from one or more high intensity volumes of the 3D functional image by adjusting intensities of voxels of the 3D functional image, wherein the one or more high intensity volumes A method for automatically processing 3D images of a subject, each corresponding to a tissue region of high absorption in the subject associated with high absorption of radiopharmaceuticals under normal circumstances.
제15 항에 있어서,
단계 (f)는 순차적인 방식으로 한 번에 하나씩 복수의 고강도 볼륨들로부터 강도 블리드를 보정하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 15,
The method for automatically processing 3D images of an object, wherein step (f) includes correcting intensity bleed from a plurality of high-intensity volumes one at a time in a sequential manner.
제15 항 또는 제16 항에 있어서,
상기 하나 이상의 고강도 볼륨들은 신장, 간 및 방광으로 이루어진 그룹으로부터 선택된 하나 이상의 고흡수 조직 영역들에 대응하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 15 or 16,
The method of claim 1 , wherein the one or more high-intensity volumes correspond to one or more highly absorptive tissue regions selected from the group consisting of kidney, liver, and bladder.
제1 항 내지 제17 항 중 어느 한 항에 있어서,
(g) 상기 프로세서에 의해, 상기 하나 이상의 핫스팟들의 적어도 일부의 각각에 대해, 상기 핫스팟이 대응하는 기저 병변의 크기 및/또는 내부의 방사성 의약품 흡수 수준을 나타내는 대응하는 병변 지수를 결정하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to any one of claims 1 to 17,
(g) determining, by the processor, for each of the at least some of the one or more hotspots, a corresponding lesion index indicative of the size and/or level of radiopharmaceutical absorption within the underlying lesion to which the hotspot corresponds. A method for automatically processing 3D images of an object.
제18 항에 있어서,
단계 (g)는 상기 핫스팟과 관련된 하나 이상의 복셀들의 강도(강도들)를 하나 이상의 참조 값들과 비교하는 단계를 포함하고, 각각의 참조 값은 특정 참조 조직 영역에 대응하는 참조 볼륨의 상기 참조 조직 영역과 관련되는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 18,
Step (g) comprises comparing the intensity (intensities) of one or more voxels associated with the hotspot to one or more reference values, each reference value being the reference tissue region of a reference volume corresponding to a specific reference tissue region. A method for automatically processing 3D images of an object, related to.
제19 항에 있어서,
상기 하나 이상의 참조 값들은 상기 대상체의 대동맥 부분과 관련된 대동맥 참조 값 및 상기 대상체의 간과 관련된 간 참조 값으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 19,
The one or more reference values include one or more members selected from the group consisting of an aortic reference value related to an aortic portion of the object and a liver reference value related to the liver of the object. Method for automatically processing 3D images of an object.
제19 항 또는 제20 항에 있어서,
특정 참조 조직 영역과 관련된 적어도 하나의 특정 참조 값에 대해, 상기 특정 참조 값을 결정하는 단계는 상기 특정 참조 조직 영역에 대응하는 특정 참조 볼륨 내의 복셀들의 강도들을 다중 성분 혼합 모델에 맞추는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 19 or 20,
For at least one specific reference value associated with a specific reference tissue region, determining the specific reference value comprises fitting intensities of voxels in a specific reference volume corresponding to the specific reference tissue region to a multi-component mixture model. , A method for automatically processing 3D images of an object.
제18 항 내지 제21 항 중 어느 한 항에 있어서,
상기 결정된 병변 지수값들을 사용하여 상기 대상체에 대한 암 상태 및/또는 위험을 나타내는 상기 대상체에 대한 전체 위험 지수를 계산하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to any one of claims 18 to 21,
A method for automatically processing 3D images of an object, comprising calculating an overall risk index for the object representing a cancer state and/or risk for the object using the determined lesion index values.
제1 항 내지 제22 항 중 어느 한 항에 있어서,
상기 프로세서에 의해, 각각의 핫스팟에 대해, 상기 핫스팟이 나타내는 잠재적인 암성 병변이 위치되도록 결정되는 상기 대상체 내의 특정 해부학적 영역 및/또는 해부학적 영역들의 그룹에 대응하는 해부학적 분류를 결정하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
23. The method of any one of claims 1 to 22,
determining, by the processor, for each hotspot, an anatomical classification corresponding to a specific anatomical region and/or group of anatomical regions within the object for which the potential cancerous lesion represented by the hotspot is determined to be located. A method for automatically processing 3D images of an object, comprising:
제1 항 내지 제23 항 중 어느 한 항에 있어서,
(h) 상기 프로세서에 의해, 그래픽 사용자 인터페이스(GUI) 내의 표시를 위해, 사용자에 의한 검토를 위한 상기 하나 이상의 핫스팟들의 적어도 일부의 그래픽 표현의 렌더링(rendering)을 야기하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
24. The method of any one of claims 1 to 23,
(h) causing, by the processor, rendering of a graphical representation of at least a portion of the one or more hotspots for review by a user, for display in a graphical user interface (GUI). A method for automatically processing 3D images.
제24 항에 있어서,
(i) 상기 프로세서에 의해, 사용자 검토를 통해 상기 대상체 내의 기저 암성 병변들을 나타낼 가능성이 있는 것으로 확인된 상기 하나 이상의 핫스팟들의 서브 세트의 사용자 선택을 상기 GUI를 통해 수신하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 24,
(i) receiving, via the GUI, a user selection, by the processor, of a subset of the one or more hotspots identified through user review as likely indicative of underlying cancerous lesions in the subject; A method for automatically processing 3D images.
제1 항 내지 제25 항 중 어느 한 항에 있어서,
상기 3D 기능적 영상은 상기 대상체에 대한 제제의 투여 후 획득된 PET 또는 SPECT 영상을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
26. The method of any one of claims 1 to 25,
The method for automatically processing 3D images of an object, wherein the 3D functional image includes a PET or SPECT image obtained after administration of an agent to the object.
제26 항에 있어서,
상기 제제는 PSMA 결합제를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
27. The method of claim 26,
A method for automatically processing 3D images of an object, wherein the agent comprises a PSMA binder.
제26 항 또는 제27 항에 있어서,
상기 제제는 18F를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 26 or 27,
A method for automatically processing 3D images of an object, wherein the agent comprises 18 F.
제27 항 또는 제28 항에 있어서,
상기 제제는 [18F]DCFPyL을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 27 or 28,
The method of claim 1 , wherein the agent comprises [ 18 F]DCFPyL.
제27 항 또는 제28 항에 있어서,
상기 제제는 PSMA―11을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 27 or 28,
A method for automatically processing 3D images of an object, wherein the agent comprises PSMA-11.
제26 항 또는 제27 항에 있어서,
상기 제제는 99mTc, 68Ga, 177Lu, 225Ac, 111In, 123I, 124I 및 131I로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
According to claim 26 or 27,
The method of automatically processing 3D images of an object, wherein the agent comprises one or more members selected from the group consisting of 99m Tc, 68 Ga, 177 Lu, 225 Ac, 111 In, 123 I, 124 I and 131 I.
제1 항 내지 제31 항 중 어느 한 항에 있어서,
상기 기계 학습 모듈은 신경망을 구현하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
32. The method of any one of claims 1 to 31,
The method for automatically processing 3D images of an object, wherein the machine learning module implements a neural network.
제1 항 내지 제32 항 중 어느 한 항에 있어서,
상기 프로세서는 클라우드 기반 시스템의 프로세서인, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
33. The method of any one of claims 1 to 32,
The method for automatically processing 3D images of an object, wherein the processor is a processor of a cloud-based system.
대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 상기 대상체의 3D 영상들을 자동으로 처리하기 위한 방법으로서,
(a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하는 단계;
(b) 상기 프로세서에 의해, 해부학적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 해부학적 영상을 수신하는 단계 ― 상기 3D 해부학적 영상은 상기 대상체 내의 조직의 그래픽 표현을 포함함 ― ;
(c) 상기 프로세서에 의해, 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하여 ― 각각의 핫스팟은 주변에 비해 높은 강도의 국소 영역에 대응하며 상기 대상체 내의 잠재적인 암성 병변을 나타냄 ―, (i) 각각의 핫스팟에 대해 상기 핫스팟의 위치를 식별하는 핫스팟 목록 및 (ii) 각각의 핫스팟에 대해 상기 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨을 식별하는 3D 핫스팟 맵 중 하나 또는 둘 모두를 생성하는 단계
― 상기 기계 학습 모듈은 적어도 2 개의 입력 채널들을 수신하고, 상기 입력 채널들은 상기 3D 해부학적 영상의 적어도 일부에 대응하는 제1 입력 채널 및 상기 3D 기능적 영상의 적어도 일부에 대응하는 제2 입력 채널 및/또는 그로부터 유래된 해부학적 정보를 포함함 ― ; 및
(d) 표시 및/또는 추가 처리를 위해, 상기 핫스팟 목록 및/또는 상기 3D 핫스팟 맵을 저장 및/또는 제공하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
A method for automatically processing 3D images of an object to identify and/or characterize cancerous lesions in the object, comprising:
(a) receiving, by a processor of a computing device, a 3D functional image of the object obtained using a functional imaging technique;
(b) receiving, by the processor, a 3D anatomical image of the object obtained using an anatomical imaging technique, wherein the 3D anatomical image includes a graphic representation of a tissue in the object;
(c) by the processor, automatically detecting one or more hotspots in the 3D functional image using a machine learning module, each hotspot corresponding to a local area of high intensity relative to the surroundings and potentially a cancerous lesion in the subject represents one or both of (i) for each hotspot a hotspot list identifying the hotspot's location and (ii) for each hotspot a 3D hotspot map identifying a corresponding 3D hotspot volume within the 3D functional image steps to create all
- the machine learning module receives at least two input channels, a first input channel corresponding to at least a part of the 3D anatomical image and a second input channel corresponding to at least a part of the 3D functional image and and/or contains anatomical information derived therefrom; and
(d) storing and/or providing the hotspot list and/or the 3D hotspot map for display and/or further processing.
대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 상기 대상체의 3D 영상들을 자동으로 처리하기 위한 방법으로서,
(a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하는 단계;
(b) 상기 프로세서에 의해, 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하여 ― 각각의 핫스팟은 주변에 비해 높은 강도의 국소 영역에 대응하며 상기 대상체 내의 잠재적인 암성 병변을 나타냄 ―, 각각의 핫스팟에 대해 상기 핫스팟의 위치를 식별하는 핫스팟 목록을 생성하는 단계;
(c) 상기 프로세서에 의해, 상기 하나 이상의 핫스팟들 각각에 대해 제2 기계 학습 모듈 및 상기 핫스팟 목록을 사용하여 상기 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨을 자동으로 결정하여 3D 핫스팟 맵을 생성하는 단계; 및
(d) 표시 및/또는 추가 처리를 위해, 상기 핫스팟 목록 및/또는 상기 3D 핫스팟 맵을 저장 및/또는 제공하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
A method for automatically processing 3D images of an object to identify and/or characterize cancerous lesions in the object, comprising:
(a) receiving, by a processor of a computing device, a 3D functional image of the object obtained using a functional imaging technique;
(b) by the processor, automatically detecting one or more hotspots in the 3D functional image using a machine learning module, each hotspot corresponding to a local area of high intensity relative to the surroundings and potentially a cancerous lesion in the subject Indicates -, for each hotspot, generating a hotspot list identifying the location of the hotspot;
(c) automatically determining, by the processor, a corresponding 3D hotspot volume in the 3D functional image for each of the one or more hotspots using a second machine learning module and the hotspot list to generate a 3D hotspot map; ; and
(d) storing and/or providing the hotspot list and/or the 3D hotspot map for display and/or further processing.
제35 항에 있어서,
(e) 상기 프로세서에 의해, 상기 핫스팟들의 적어도 일부의 각각의 핫스팟에 대해 상기 대상체 내의 병변을 나타내는 상기 핫스팟의 우도에 대응하는 병변 우도 분류를 결정하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
36. The method of claim 35,
(e) determining, by the processor, for each hotspot of at least some of the hotspots, a lesion likelihood classification corresponding to a likelihood of the hotspot representing a lesion in the object; way to deal with it.
제36 항에 있어서,
단계 (e)는 제3 기계 학습 모듈을 사용하여 각각의 핫스팟에 대한 상기 병변 우도 분류를 결정하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
37. The method of claim 36,
The method for automatically processing 3D images of an object, wherein step (e) includes determining the lesion likelihood classification for each hotspot using a third machine learning module.
제35 항 내지 제37 항 중 어느 한 항에 있어서,
(f) 상기 프로세서에 의해, 암성 병변들에 대응할 우도가 높은 핫스팟들에 대응하는 상기 하나 이상의 핫스팟들의 서브 세트를 상기 핫스팟들에 대한 상기 병변 우도 분류에 적어도 부분적으로 기초하여 선택하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
The method of any one of claims 35 to 37,
(f) selecting, by the processor, a subset of the one or more hotspots corresponding to hotspots with a high likelihood of corresponding to cancerous lesions based at least in part on the lesion likelihood classification for the hotspots. , A method for automatically processing 3D images of an object.
저흡수 방사성 의약품과 관련된 조직 영역들로부터 영향을 방지하기 위해 참조 조직 영역에 대응하는 참조 볼륨 내의 강도 값들을 측정하는 방법으로서,
(a) 컴퓨팅 디바이스의 프로세서에 의해, 대상체의 3D 기능적 영상을 수신하는 단계 ― 상기 3D 기능적 영상은 기능적 영상 촬영 기법을 사용하여 획득됨 ― ;
(b) 상기 프로세서에 의해, 상기 3D 기능적 영상 내의 참조 볼륨을 식별하는 단계;
(c) 상기 프로세서에 의해, 다중 성분 혼합 모델을 참조 볼륨 내의 복셀들의 강도들에 맞추는 단계;
(d) 상기 프로세서에 의해, 상기 다중 성분 모델의 주요 모드를 식별하는 단계;
(e) 상기 프로세서에 의해, 상기 주요 모드에 대응하는 강도들의 치수를 결정하여 (i) 상기 참조 조직 볼륨 내에 있고 (ii) 상기 주요 모드와 관련된 복셀들의 강도의 치수에 대응하는 참조 강도 값을 결정하는 단계;
(f) 상기 프로세서에 의해, 상기 기능적 영상 내에서 잠재적인 암성 병변들에 대응하는 하나 이상의 핫스팟들을 검출하는 단계; 및
(g) 상기 프로세서에 의해, 상기 검출된 핫스팟들의 적어도 일부의 각각의 핫스팟에 대해, 적어도 상기 참조 강도 값을 사용하여 병변 지수값을 결정하는 단계를 포함하는, 참조 조직 영역에 대응하는 참조 볼륨 내의 강도 값들을 측정하는 방법.
A method of measuring intensity values in a reference volume corresponding to a reference tissue region to prevent effects from tissue regions associated with a low absorption radiopharmaceutical, comprising:
(a) receiving, by a processor of a computing device, a 3D functional image of an object, wherein the 3D functional image is obtained using a functional imaging technique;
(b) identifying, by the processor, a reference volume within the 3D functional image;
(c) fitting, by the processor, a multi-component mixture model to intensities of voxels in a reference volume;
(d) identifying, by the processor, a dominant mode of the multi-component model;
(e) determining, by the processor, dimensions of intensities corresponding to the principal mode to determine reference intensity values corresponding to dimensions of intensities of voxels (i) within the reference tissue volume and (ii) associated with the principal mode; doing;
(f) detecting, by the processor, one or more hotspots corresponding to potentially cancerous lesions within the functional image; and
(g) determining, by the processor, for each hotspot of the at least some of the detected hotspots, a lesion index value using at least the reference intensity value in a reference volume corresponding to a reference tissue region. How to measure intensity values.
정상적인 상황 하에서 높은 방사성 의약품 흡수와 관련된 대상체 내의 고흡수 조직 영역들로 인한 강도 블리드를 보정하는 방법으로서,
(a) 컴퓨팅 디바이스의 프로세서에 의해, 상기 대상체의 3D 기능적 영상을 수신하는 단계 ― 상기 3D 기능적 영상은 기능적 영상 촬영 기법을 사용하여 획득됨 ― ;
(b) 상기 프로세서에 의해, 상기 3D 기능적 영상 내의 고강도 볼륨을 식별하는 단계 ― 상기 고강도 볼륨은 정상적인 상황 하에서 높은 방사성 의약품 흡수가 발생하는 특정 고흡수 조직 영역에 대응함 ― ;
(c) 상기 프로세서에 의해, 상기 식별된 고강도 볼륨에 기초하여 상기 3D 기능적 영상 내의 억제 볼륨을 식별하는 단계 ― 상기 억제 볼륨은 상기 식별된 고강도 볼륨의 경계로부터 미리 결정된 감쇠 거리 내부 및 외부에 있는 볼륨에 대응함 ― ;
(d) 상기 프로세서에 의해, 상기 억제 볼륨 내의 3D 기능적 영상의 복셀들의 강도들에 기초하여 결정된 보간값들로 대체된 상기 고강도 볼륨 내의 복셀들의 강도들을 갖는 상기 3D 기능적 영상에 대응하는 배경 영상을 결정하는 단계;
(e) 상기 프로세서에 의해, 상기 3D 기능적 영상으로부터의 복셀들의 강도들로부터 상기 배경 영상의 복셀들의 강도들을 차감한 추정 영상을 결정하는 단계;
(f) 상기 프로세서에 의해,
상기 고강도 볼륨에 대응하는 상기 추정 영상의 복셀들의 강도들을 상기 억제 볼륨 내의 복셀들의 위치로 외삽하여, 상기 억제 볼륨에 대응하는 억제 맵의 복셀들의 강도들을 결정하고;
상기 억제 볼륨의 외부 위치에 대응하는 억제 맵의 복셀들의 강도들을 0으로 설정함으로써, 억제 맵을 결정하는 단계; 및
(g) 상기 프로세서에 의해, 상기 억제 맵에 기초하여 상기 3D 기능적 영상의 복셀들의 강도들을 조정하여 상기 고강도 볼륨으로부터 강도 블리드를 보정하는 단계를 포함하는, 강도 블리드를 보정하는 방법.
A method of correcting intensity bleed due to areas of high absorption tissue in a subject associated with high absorption of radiopharmaceuticals under normal circumstances, comprising:
(a) receiving, by a processor of a computing device, a 3D functional image of the object, wherein the 3D functional image is obtained using a functional imaging technique;
(b) identifying, by the processor, a high-intensity volume in the 3D functional image, the high-intensity volume corresponding to a specific high-absorption tissue region where high radiopharmaceutical uptake occurs under normal circumstances;
(c) identifying, by the processor, a suppression volume in the 3D functional image based on the identified high-intensity volume, wherein the suppression volume is a volume within and outside a predetermined attenuation distance from a boundary of the identified high-intensity volume. Corresponds to ― ;
(d) determining, by the processor, a background image corresponding to the 3D functional image with intensities of voxels in the high-intensity volume replaced with interpolated values determined based on intensities of voxels of the 3D functional image in the containment volume; doing;
(e) determining, by the processor, an estimated image obtained by subtracting intensities of voxels of the background image from intensities of voxels of the 3D functional image;
(f) by the processor;
extrapolate intensities of voxels of the estimated image corresponding to the high intensity volume to locations of voxels within the suppression volume to determine intensities of voxels of a suppression map corresponding to the suppression volume;
determining a suppression map by setting intensities of voxels of the suppression map corresponding to locations outside the suppression volume to zero; and
(g) correcting, by the processor, intensity bleed from the high intensity volume by adjusting intensities of voxels of the 3D functional image based on the suppression map.
제40 항에 있어서,
순차적 방식으로 복수의 고강도 볼륨들 각각에 대해 단계 (b) 내지 (g)를 수행하여 상기 복수의 고강도 볼륨들 각각으로부터의 강도 블리드를 보정하는 단계를 포함하는, 강도 블리드를 보정하는 방법.
41. The method of claim 40,
A method of correcting intensity bleed comprising performing steps (b) to (g) on each of a plurality of high intensity volumes in a sequential manner to correct intensity bleed from each of the plurality of high intensity volumes.
제41 항에 있어서,
상기 복수의 고강도 볼륨들은 신장, 간 및 방광으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함하는, 강도 블리드를 보정하는 방법.
41. The method of claim 41,
wherein the plurality of high intensity volumes comprises one or more members selected from the group consisting of kidney, liver and bladder.
대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 방법으로서,
(a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하는 단계;
(b) 상기 프로세서에 의해, 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하는 단계 ― 각각의 핫스팟은 주변에 비해 높은 강도의 국소 영역에 대응하며 상기 대상체 내의 잠재적인 암성 병변을 나타냄 ― ;
(c) 상기 프로세서에 의해, 대화형 그래픽 사용자 인터페이스(GUI) 내의 표시를 위한 상기 하나 이상의 핫스팟들의 그래픽 표현의 렌더링을 야기하는 단계;
(d) 상기 프로세서에 의해, 상기 하나 이상의 자동으로 검출된 핫스팟들의 적어도 일부를 포함하는 최종 핫스팟 세트의 사용자 선택을 상기 대화형 GUI를 통해 수신하는 단계; 및
(e) 표시 및/또는 추가 처리를 위해, 상기 최종 핫스팟 세트를 저장 및/또는 제공하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
A method for automatically processing 3D images of an object to identify and/or characterize cancerous lesions in the object, comprising:
(a) receiving, by a processor of a computing device, a 3D functional image of the object obtained using a functional imaging technique;
(b) automatically detecting, by the processor, one or more hotspots in the 3D functional image, each hotspot corresponding to a local area of high intensity compared to the surroundings and representing a potential cancerous lesion in the object;
(c) causing, by the processor, rendering of a graphical representation of the one or more hotspots for display within an interactive graphical user interface (GUI);
(d) receiving, by the processor, a user selection of a final hotspot set comprising at least a portion of the one or more automatically detected hotspots via the interactive GUI; and
(e) storing and/or providing the final set of hotspots for display and/or further processing.
제43 항에 있어서,
(f) 상기 프로세서에 의해, 상기 최종 핫스팟 세트 내에 포함하기 위한 하나 이상의 추가 사용자 식별 핫스팟들의 사용자 선택을 상기 GUI를 통해 수신하는 단계; 및
(g) 상기 프로세서에 의해, 상기 하나 이상의 추가 사용자 식별 핫스팟들을 포함하도록 설정된 상기 최종 핫스팟을 갱신하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
44. The method of claim 43,
(f) receiving, by the processor, a user selection through the GUI of one or more additional user-identified hotspots for inclusion in the final set of hotspots; and
(g) updating, by the processor, the final hotspot set to include the one or more additional user-identified hotspots.
제43 항 또는 제44 항에 있어서,
단계 (b)는 하나 이상의 기계 학습 모듈들을 사용하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
The method of claim 43 or 44,
A method for automatically processing 3D images of an object, wherein step (b) comprises using one or more machine learning modules.
대상체 내의 암성 병변들을 식별 및 특성화하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 방법으로서,
(a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하는 단계;
(b) 상기 프로세서에 의해, 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하는 단계 ― 각각의 핫스팟은 주변에 비해 높은 강도의 국소 영역에 대응하며 상기 대상체 내의 잠재적인 암성 병변을 나타냄 ― ;
(c) 상기 프로세서에 의해, 상기 하나 이상의 핫스팟들의 적어도 일부의 각각에 대해, 상기 핫스팟이 나타내는 잠재적인 암성 병변이 위치되도록 결정되는 상기 대상체 내의 특정 해부학적 영역 및/또는 해부학적 영역들의 그룹에 대응하는 해부학적 분류를 자동으로 결정하는 단계; 및
(d) 표시 및/또는 추가 처리를 위해, 각각의 핫스팟에 대해 상기 핫스팟에 대응하는 해부학적 분류와 함께 상기 하나 이상의 핫스팟들의 식별을 저장 및/또는 제공하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
A method for automatically processing 3D images of an object to identify and characterize cancerous lesions in the object, comprising:
(a) receiving, by a processor of a computing device, a 3D functional image of the object obtained using a functional imaging technique;
(b) automatically detecting, by the processor, one or more hotspots in the 3D functional image, each hotspot corresponding to a local area of high intensity compared to the surroundings and representing a potential cancerous lesion in the subject;
(c) corresponding to, by the processor, for each of at least some of the one or more hotspots, a specific anatomical region and/or group of anatomical regions within the object that is determined to be located in which a potential cancerous lesion indicative of the hotspot is to be located; automatically determining an anatomical classification for and
(d) storing and/or providing, for each hotspot, an identification of the one or more hotspots along with an anatomical classification corresponding to the hotspot, for display and/or further processing. How to do it automatically.
제46 항에 있어서,
단계 (b)는 하나 이상의 기계 학습 모듈들을 사용하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
47. The method of claim 46,
A method for automatically processing 3D images of an object, wherein step (b) comprises using one or more machine learning modules.
대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템으로서,
컴퓨팅 디바이스의 프로세서; 및
명령들이 저장되어 있는 메모리를 포함하고, 상기 명령들은 상기 프로세서에 의해 실행될 때 상기 프로세서로 하여금,
(a) 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하게 하고;
(b) 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하여, (i) 각각의 핫스팟에 대해 상기 핫스팟의 위치를 식별하는 핫스팟 목록 및 (ii) 각각의 핫스팟에 대해 상기 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨을 식별하는 3D 핫스팟 맵 중 하나 또는 둘 모두를 생성하게 하고 ― 각각의 핫스팟은 주변에 비해 높은 강도의 국소 영역에 대응하며 상기 대상체 내의 잠재적인 암성 병변을 나타냄 ― ;
(c) 표시 및/또는 추가 처리를 위해, 상기 핫스팟 목록 및/또는 상기 3D 핫스팟 맵을 저장 및/또는 제공하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
A system for automatically processing 3D images of an object to identify and/or characterize cancerous lesions in the object, comprising:
a processor of the computing device; and
a memory having instructions stored therein, which instructions, when executed by the processor, cause the processor to:
(a) receiving a 3D functional image of the object obtained using a functional imaging technique;
(b) automatically detecting one or more hotspots within the 3D functional image using a machine learning module to obtain (i) for each hotspot a hotspot list identifying the hotspot's location and (ii) for each hotspot the hotspot list generate one or both of 3D hotspot maps that identify corresponding 3D hotspot volumes in the 3D functional image, each hotspot corresponding to a local area of high intensity relative to the surroundings and representing a potential cancerous lesion in the subject; ;
(c) A system for automatically processing 3D images of an object, allowing storage and/or presentation of the hotspot list and/or the 3D hotspot map for display and/or further processing.
제48 항에 있어서,
상기 기계 학습 모듈은 상기 3D 기능적 영상의 적어도 일부를 입력으로 수신하고 상기 3D 기능적 영상의 상기 수신된 부분의 복셀들의 강도들에 적어도 부분적으로 기초하여 상기 하나 이상의 핫스팟들을 자동으로 검출하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
49. The method of claim 48,
wherein the machine learning module receives at least a portion of the 3D functional image as an input and automatically detects the one or more hotspots based at least in part on intensities of voxels of the received portion of the 3D functional image. A system for automatically processing images.
제48 항 또는 제49 항에 있어서,
상기 기계 학습 모듈은 상기 3D 기능적 영상 내의 하나 이상의 관심 볼륨(VOI)들을 식별하는 3D 분할 맵을 입력으로 수신하고, 각각의 VOI는 상기 대상체 내의 특정 표적 조직 영역 및/또는 또는 특정 해부학적 영역에 대응하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of claim 48 or 49,
The machine learning module receives as input a 3D segmentation map identifying one or more volumes of interest (VOIs) in the 3D functional image, each VOI corresponding to a specific target tissue region and/or a specific anatomical region within the object. A system for automatically processing 3D images of an object.
제48항 내지 제50항 중 어느 한 항에 있어서,
상기 명령들은 상기 프로세서로 하여금,
해부학적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 해부학적 영상을 수신하게 하고, 상기 3D 해부학적 영상은 상기 대상체 내의 조직의 그래픽 표현을 포함하고,
상기 기계 학습 모듈은 적어도 2 개의 입력 채널들을 수신하고, 상기 입력 채널들은 상기 3D 해부학적 영상의 적어도 일부에 대응하는 제1 입력 채널 및 상기 3D 기능적 영상의 적어도 일부에 대응하는 제2 입력 채널을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 48 to 50,
The instructions cause the processor to:
receive a 3D anatomical image of the object obtained using an anatomical imaging technique, the 3D anatomical image including a graphic representation of a tissue in the object;
The machine learning module receives at least two input channels, the input channels comprising a first input channel corresponding to at least a portion of the 3D anatomical image and a second input channel corresponding to at least a portion of the 3D functional image A system for automatically processing 3D images of an object.
제51 항에 있어서,
상기 기계 학습 모듈은 상기 3D 기능적 영상 및/또는 상기 3D 해부학적 영상 내에서 하나 이상의 관심 볼륨(VOI)들을 식별하는 3D 분할 맵을 입력으로 수신하고, 각각의 VOI는 특정 표적 조직 영역 및/또는 특정 해부학적 영역에 대응하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
51. The method of claim 51,
The machine learning module receives as input a 3D segmentation map identifying one or more volumes of interest (VOIs) within the 3D functional image and/or the 3D anatomical image, each VOI having a specific target tissue region and/or specific A system for automatically processing 3D images of an object corresponding to an anatomical region.
제52 항에 있어서,
상기 명령들은 상기 프로세서로 하여금 상기 3D 해부학적 영상을 자동으로 분할하여 상기 3D 분할 맵을 생성하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
52. The method of claim 52,
wherein the instructions cause the processor to automatically segment the 3D anatomical image to generate the 3D segmentation map.
제48 항 내지 제53 항 중 어느 한 항에 있어서,
상기 기계 학습 모듈은 상기 대상체의 하나 이상의 특정 조직 영역들 및/또는 해부학적 영역들에 대응하는 상기 3D 기능적 영상의 특정 부분을 입력으로 수신하는 특정 영역 기계 학습 모듈인, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 48 to 53,
The machine learning module is a specific region machine learning module that receives a specific part of the 3D functional image corresponding to one or more specific tissue regions and/or anatomical regions of the object as an input, and automatically converts 3D images of the object. system for processing.
제48 항 내지 제54 항 중 어느 한 항에 있어서,
상기 기계 학습 모듈은 상기 핫스팟 목록을 출력으로 생성하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 48 to 54,
The system for automatically processing 3D images of an object, wherein the machine learning module generates the hotspot list as an output.
제48 항 내지 제55 항 중 어느 한 항에 있어서,
상기 기계 학습 모듈은 상기 3D 핫스팟 맵을 출력으로 생성하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
56. The method of any one of claims 48 to 55,
The system for automatically processing 3D images of an object, wherein the machine learning module generates the 3D hotspot map as an output.
제48항 내지 제56항 중 어느 한 항에 있어서,
상기 명령들은 상기 프로세서로 하여금,
(d) 상기 핫스팟들의 적어도 일부의 각각의 핫스팟에 대해 상기 대상체 내의 병변을 나타내는 상기 핫스팟의 우도에 대응하는 병변 우도 분류를 결정하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 48 to 56,
The instructions cause the processor to:
(d) for each hotspot of at least some of the hotspots, determine a lesion likelihood classification corresponding to a likelihood of the hotspot representing a lesion in the subject.
제57 항에 있어서,
단계 (d)에서, 상기 명령들은 상기 프로세서로 하여금, 상기 기계 학습 모듈을 사용하여 상기 일부의 각각의 핫스팟에 대해 병변 우도 분류를 결정하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
58. The method of claim 57,
In step (d), the instructions cause the processor to determine a lesion likelihood classification for each hotspot in the portion using the machine learning module.
제57 항에 있어서,
단계 (d)에서, 상기 명령들은 상기 프로세서로 하여금, 제2 기계 학습 모듈을 사용하여 각각의 핫스팟에 대한 병변 우도 분류를 결정하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
58. The method of claim 57,
In step (d), the instructions cause the processor to determine a lesion likelihood classification for each hotspot using a second machine learning module.
제59 항에 있어서,
상기 명령들은 상기 프로세서로 하여금, 각각의 핫스팟에 대해 하나 이상의 핫스팟 특징들의 세트를 결정하고 상기 하나 이상의 핫스팟 특징들의 세트를 상기 제2 기계 학습 모듈에 입력으로 사용하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of claim 59,
The instructions cause the processor to automatically generate 3D images of an object, which causes the processor to determine a set of one or more hotspot features for each hotspot and use the set of one or more hotspot features as input to the second machine learning module. system for processing.
제57항 내지 제60항 중 어느 한 항에 있어서,
상기 명령들은 상기 프로세서로 하여금,
(e) 암성 병변들에 대응할 우도가 높은 핫스팟들에 대응하는 상기 하나 이상의 핫스팟들의 서브 세트를 상기 핫스팟들에 대한 병변 우도 분류에 적어도 부분적으로 기초하여 선택하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 57 to 60,
The instructions cause the processor to:
(e) automatically processing 3D images of a subject to select a subset of the one or more hotspots corresponding to hotspots with a high likelihood of corresponding to cancerous lesions based at least in part on a lesion likelihood classification for the hotspots. system to do.
제48항 내지 제61항 중 어느 한 항에 있어서,
상기 명령들은 상기 프로세서로 하여금,
(f) 상기 프로세서에 의해, 상기 3D 기능적 영상의 복셀들의 강도들을 조정하여 상기 3D 기능적 영상의 하나 이상의 고강도 볼륨들로부터 강도 블리드를 보정하게 하고, 상기 하나 이상의 고강도 볼륨들 각각은 정상적인 상황 하에서 고흡수 방사성 의약품과 관련된 대상체 내의 고흡수 조직 영역에 대응하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 48 to 61,
The instructions cause the processor to:
(f) adjusting, by the processor, intensities of voxels of the 3D functional image to correct intensity bleed from one or more high-intensity volumes of the 3D functional image, each of which is highly absorptive under normal circumstances; A system for automatically processing 3D images of an object corresponding to areas of high absorption tissue in the object related to radiopharmaceuticals.
제62 항에 있어서,
단계 (f)에서, 상기 명령들은 상기 프로세서로 하여금, 순차적인 방식으로 한 번에 하나씩 복수의 고강도 볼륨들로부터 강도 블리드를 보정하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
63. The method of claim 62,
In step (f), the instructions cause the processor to correct intensity bleed from a plurality of high intensity volumes one at a time in a sequential manner.
제62 항 또는 제63 항에 있어서,
상기 하나 이상의 고강도 볼륨들은 신장, 간 및 방광으로 이루어진 그룹으로부터 선택된 하나 이상의 고흡수 조직 영역들에 대응하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of claim 62 or 63,
The system for automatically processing 3D images of an object, wherein the one or more high-intensity volumes correspond to one or more highly absorptive tissue regions selected from the group consisting of kidney, liver, and bladder.
제48항 내지 제64항 중 어느 한 항에 있어서,
상기 명령들은 상기 프로세서로 하여금,
(g) 상기 하나 이상의 핫스팟들의 적어도 일부의 각각에 대해, 상기 핫스팟이 대응하는 기저 병변의 크기 및/또는 내부의 방사성 의약품 흡수 수준을 나타내는 대응하는 병변 지수를 결정하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 48 to 64,
The instructions cause the processor to:
(g) for each of the at least some of the one or more hotspots, automatically generating 3D images of the subject to determine a corresponding lesion index indicative of the size and/or level of radiopharmaceutical uptake therein of the underlying lesion to which the hotspot corresponds. system for processing.
제65 항에 있어서,
단계 (g)에서, 상기 명령들은 상기 프로세서로 하여금, 상기 핫스팟과 관련된 하나 이상의 복셀들의 강도(강도들)를 하나 이상의 참조 값들과 비교하게 하고, 각각의 참조 값은 상기 대상체 내의 특정 참조 조직 영역과 관련되고 상기 참조 조직 영역에 대응하는 참조 볼륨의 강도들에 기초하여 결정되는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
66. The method of claim 65,
In step (g), the instructions cause the processor to compare intensities (intensities) of one or more voxels associated with the hotspot with one or more reference values, each reference value being associated with a specific reference tissue region within the object. A system for automatically processing 3D images of an object, determined based on intensities of a reference volume associated with and corresponding to the reference tissue region.
제66 항에 있어서,
상기 하나 이상의 참조 값들은 상기 대상체의 대동맥 부분과 관련된 대동맥 참조 값 및 상기 대상체의 간과 관련된 간 참조 값으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
67. The method of claim 66,
The system for automatically processing 3D images of an object, wherein the one or more reference values include one or more members selected from the group consisting of an aorta reference value related to an aortic portion of the object and a liver reference value related to a liver of the object.
제66 항 또는 제67 항에 있어서,
특정 참조 조직 영역과 관련된 적어도 하나의 특정 참조 값에 대해, 상기 명령들은 상기 프로세서로 하여금, 상기 특정 참조 조직 영역에 대응하는 특정 참조 볼륨 내의 복셀들의 강도들을 다중 성분 혼합 모델에 맞추어 상기 특정 참조 값을 결정하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of claim 66 or 67,
For at least one specific reference value associated with a specific reference tissue region, the instructions cause the processor to fit the intensities of voxels within a specific reference volume corresponding to the specific reference tissue region to a multi-component mixture model to determine the specific reference value. A system for automatically processing 3D images of an object, allowing a decision to be made.
제65 항 내지 제68 항 중 어느 한 항에 있어서,
상기 명령들은 상기 프로세서로 하여금, 상기 결정된 병변 지수값들을 사용하여 상기 대상체에 대한 암 상태 및/또는 위험을 나타내는 상기 대상체에 대한 전체 위험 지수를 계산하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
69. The method of any one of claims 65 to 68,
The instructions are configured to automatically process 3D images of an object, causing the processor to calculate an overall risk index for the object representing a cancer state and/or risk for the object using the determined lesion index values. system.
제48 항 내지 제69 항 중 어느 한 항에 있어서,
상기 명령들은 상기 프로세서로 하여금, 각각의 핫스팟에 대해, 상기 핫스팟이 나타내는 잠재적인 암성 병변이 위치되도록 결정되는 상기 대상체 내의 특정 해부학적 영역 및/또는 해부학적 영역들의 그룹에 대응하는 해부학적 분류를 결정하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 48 to 69,
The instructions cause the processor to determine, for each hotspot, an anatomical classification that corresponds to a particular anatomical region and/or group of anatomical regions within the subject for which the potential cancerous lesion represented by the hotspot is determined to be located. A system for automatically processing 3D images of an object.
제48항 내지 제70항 중 어느 한 항에 있어서,
상기 명령들은 상기 프로세서로 하여금,
(h) 그래픽 사용자 인터페이스(GUI) 내의 표시를 위해, 사용자에 의한 검토를 위한 상기 하나 이상의 핫스팟들의 적어도 일부의 그래픽 표현의 렌더링을 야기하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 48 to 70,
The instructions cause the processor to:
(h) A system for automatically processing 3D images of an object, causing rendering of a graphical representation of at least a portion of said one or more hotspots for review by a user, for display in a graphical user interface (GUI).
제71 항에 있어서,
상기 명령들은 상기 프로세서로 하여금,
(i) 사용자 검토를 통해 상기 대상체 내의 기저 암성 병변들을 나타낼 가능성이 있는 것으로 확인된 상기 하나 이상의 핫스팟들의 서브 세트의 사용자 선택을 상기 GUI를 통해 수신하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
71. The method of claim 71,
The instructions cause the processor to:
(i) for automatically processing 3D images of a subject to receive through the GUI a user selection of a subset of the one or more hotspots identified through user review as likely representing underlying cancerous lesions in the subject; system.
제48 항 내지 제72 항 중 어느 한 항에 있어서,
상기 3D 기능적 영상은 상기 대상체에 대한 제제의 투여 후 획득된 PET 또는 SPECT 영상을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 48 to 72,
The system for automatically processing 3D images of a subject, wherein the 3D functional image includes a PET or SPECT image obtained after administration of an agent to the subject.
제73 항에 있어서,
상기 제제는 PSMA 결합제를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
74. The method of claim 73,
The system for automatically processing 3D images of an object, wherein the agent comprises a PSMA binder.
제73 항 또는 제74 항에 있어서,
상기 제제는 18F를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of claim 73 or 74,
The system for automatically processing 3D images of an object, wherein the agent comprises 18 F.
제74 항에 있어서,
상기 제제는 [18F]DCFPyL을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
75. The method of claim 74,
The system for automatically processing 3D images of an object, wherein the agent comprises [ 18 F]DCFPyL.
제74 항 또는 제75 항에 있어서,
상기 제제는 PSMA―11을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of claim 74 or 75,
The system for automatically processing 3D images of an object, wherein the agent comprises PSMA-11.
제73 항 또는 제74 항에 있어서,
상기 제제는 99mTc, 68Ga, 177Lu, 225Ac, 111In, 123I, 124I 및 131I로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of claim 73 or 74,
The system for automatically processing 3D images of an object, wherein the agent comprises one or more members selected from the group consisting of 99m Tc, 68 Ga, 177 Lu, 225 Ac, 111 In, 123 I, 124 I and 131 I.
제48 항 내지 제78 항 중 어느 한 항에 있어서,
상기 기계 학습 모듈은 신경망을 구현하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
79. The method of any one of claims 48 to 78,
The system for automatically processing 3D images of an object, wherein the machine learning module implements a neural network.
제48 항 내지 제79 항 중 어느 한 항에 있어서,
상기 프로세서는 클라우드 기반 시스템의 프로세서인, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 48 to 79,
The system for automatically processing 3D images of an object, wherein the processor is a processor of a cloud-based system.
대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템으로서,
컴퓨팅 디바이스의 프로세서; 및
명령들이 저장되어 있는 메모리를 포함하고, 상기 명령들은 상기 프로세서에 의해 실행될 때 상기 프로세서로 하여금,
(a) 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하게 하고;
(b) 해부학적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 해부학적 영상을 수신하게 하고 ― 상기 3D 해부학적 영상은 상기 대상체 내의 조직의 그래픽 표현을 포함함 ― ;
(c) 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하여, (i) 각각의 핫스팟에 대해 상기 핫스팟의 위치를 식별하는 핫스팟 목록 및 (ii) 각각의 핫스팟에 대해 상기 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨을 식별하는 3D 핫스팟 맵 중 하나 또는 둘 모두를 생성하게 하고 ― 각각의 핫스팟은 주변에 비해 높은 강도의 국소 영역에 대응하며 상기 대상체 내의 잠재적인 암성 병변을 나타내고,
상기 기계 학습 모듈은 적어도 2 개의 입력 채널들을 수신하고, 상기 입력 채널들은 상기 3D 해부학적 영상의 적어도 일부에 대응하는 제1 입력 채널 및 상기 3D 기능적 영상의 적어도 일부에 대응하는 제2 입력 채널 및/또는 그로부터 유래된 해부학적 정보를 포함함 ― ;
(d) 표시 및/또는 추가 처리를 위해, 상기 핫스팟 목록 및/또는 상기 3D 핫스팟 맵을 저장 및/또는 제공하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
A system for automatically processing 3D images of an object to identify and/or characterize cancerous lesions in the object, comprising:
a processor of the computing device; and
a memory having instructions stored therein, which instructions, when executed by the processor, cause the processor to:
(a) receiving a 3D functional image of the object obtained using a functional imaging technique;
(b) receive a 3D anatomical image of the object obtained using an anatomical imaging technique, wherein the 3D anatomical image includes a graphic representation of a tissue in the object;
(c) automatically detecting one or more hotspots within the 3D functional image using a machine learning module to obtain (i) for each hotspot a hotspot list identifying the location of the hotspot and (ii) for each hotspot the generate one or both of 3D hotspot maps that identify corresponding 3D hotspot volumes within the 3D functional image, each hotspot corresponding to a local area of high intensity relative to the surroundings and representing a potential cancerous lesion within the subject;
The machine learning module receives at least two input channels, the input channels comprising a first input channel corresponding to at least a portion of the 3D anatomical image and a second input channel corresponding to at least a portion of the 3D functional image and/or or contains anatomical information derived therefrom;
(d) A system for automatically processing 3D images of an object, allowing storage and/or presentation of the hotspot list and/or the 3D hotspot map for display and/or further processing.
대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템으로서,
컴퓨팅 디바이스의 프로세서; 및
명령들이 저장되어 있는 메모리를 포함하고, 상기 명령들은 상기 프로세서에 의해 실행될 때 상기 프로세서로 하여금,
(a) 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하게 하고;
(b) 제1 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하여 각각의 핫스팟에 대해 상기 핫스팟의 위치를 식별하는 핫스팟 목록을 생성하게 하고 ― 각각의 핫스팟은 주변에 비해 높은 강도의 국소 영역에 대응하며 상기 대상체 내의 잠재적인 암성 병변을 나타냄 ― ;
(c) 상기 하나 이상의 핫스팟들 각각에 대해 제2 기계 학습 모듈 및 상기 핫스팟 목록을 사용하여 상기 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨을 자동으로 결정하여 3D 핫스팟 맵을 생성하게 하고;
(d) 표시 및/또는 추가 처리를 위해, 상기 핫스팟 목록 및/또는 상기 3D 핫스팟 맵을 저장 및/또는 제공하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
A system for automatically processing 3D images of an object to identify and/or characterize cancerous lesions in the object, comprising:
a processor of the computing device; and
a memory having instructions stored therein, which instructions, when executed by the processor, cause the processor to:
(a) receiving a 3D functional image of the object obtained using a functional imaging technique;
(b) automatically detect one or more hotspots within the 3D functional image using a first machine learning module to generate for each hotspot a hotspot list identifying the hotspot's location - each hotspot relative to its surroundings; Corresponding to focal areas of high intensity and indicating potentially cancerous lesions in the subject;
(c) for each of the one or more hotspots, automatically determine a corresponding 3D hotspot volume in the 3D functional image using a second machine learning module and the hotspot list to generate a 3D hotspot map;
(d) A system for automatically processing 3D images of an object, allowing storage and/or presentation of the hotspot list and/or the 3D hotspot map for display and/or further processing.
제82 항에 있어서,
상기 명령들은 상기 프로세서로 하여금,
(e) 상기 핫스팟들의 적어도 일부의 각각의 핫스팟에 대해 상기 대상체 내의 병변을 나타내는 상기 핫스팟의 우도에 대응하는 병변 우도 분류를 결정하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
82. The method of claim 82,
The instructions cause the processor to:
(e) determine for each hotspot of at least some of the hotspots a lesion likelihood classification corresponding to a likelihood of the hotspot representing a lesion in the subject.
제83 항에 있어서,
단계 (e)에서, 상기 명령들은 상기 프로세서로 하여금, 제3 기계 학습 모듈을 사용하여 각각의 핫스팟에 대한 병변 우도 분류를 결정하도록 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
83. The method of claim 83,
In step (e), the instructions cause the processor to determine a lesion likelihood classification for each hotspot using a third machine learning module.
제82항 내지 제84항 중 어느 한 항에 있어서,
상기 명령들은 상기 프로세서로 하여금,
(f) 암성 병변들에 대응할 우도가 높은 핫스팟들에 대응하는 상기 하나 이상의 핫스팟들의 서브 세트를 상기 핫스팟들에 대한 병변 우도 분류에 적어도 부분적으로 기초하여 선택하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 82 to 84,
The instructions cause the processor to:
(f) automatically processing 3D images of a subject to select a subset of the one or more hotspots corresponding to hotspots with a high likelihood of corresponding to cancerous lesions based at least in part on a lesion likelihood classification for the hotspots. system to do.
저흡수 방사성 의약품과 관련된 조직 영역들로부터의 영향을 방지하기 위해 참조 조직 영역에 대응하는 참조 볼륨 내의 강도 값들을 측정하기 위한 시스템으로서,
컴퓨팅 디바이스의 프로세서; 및
명령들이 저장되어 있는 메모리를 포함하고, 상기 명령들은 상기 프로세서에 의해 실행될 때 상기 프로세서로 하여금,
(a) 대상체의 3D 기능적 영상을 수신하게 하고 ― 상기 3D 기능적 영상은 기능적 영상 촬영 기법을 사용하여 획득됨 ― ;
(b) 상기 3D 기능적 영상 내의 참조 볼륨을 식별하게 하고;
(c) 다중 성분 혼합 모델을 상기 참조 볼륨 내의 복셀들의 강도들에 맞추게 하고;
(d) 상기 다중 성분 모델의 주요 모드를 식별하게 하고;
(e) 상기 주요 모드에 대응하는 강도들의 치수를 결정하여 (i) 참조 조직 볼륨 내에 있고 (ii) 상기 주요 모드와 관련된 복셀들의 강도의 측정에 대응하는 참조 강도 값을 결정하게 하고;
(f) 상기 3D 기능적 영상 내에서 잠재적인 암성 병변들에 대응하는 하나 이상의 핫스팟들을 검출하게 하고;
(g) 상기 검출된 핫스팟들의 적어도 일부의 각각의 핫스팟에 대해, 적어도 상기 참조 강도 값을 사용하여 병변 지수값을 결정하게 하는, 참조 볼륨 내의 강도 값들을 측정하기 위한 시스템.
A system for measuring intensity values in a reference volume corresponding to a reference tissue region to prevent effects from tissue regions associated with low absorption radiopharmaceuticals, comprising:
a processor of the computing device; and
a memory having instructions stored therein, which instructions, when executed by the processor, cause the processor to:
(a) receiving a 3D functional image of an object, wherein the 3D functional image is obtained using a functional imaging technique;
(b) identify a reference volume within the 3D functional image;
(c) fit a multi-component mixture model to the intensities of voxels in the reference volume;
(d) identify a dominant mode of the multi-component model;
(e) determine dimensions of intensities corresponding to the principal mode to determine reference intensity values that (i) are within a reference tissue volume and (ii) correspond to measures of intensities of voxels associated with the principal mode;
(f) detect one or more hotspots corresponding to potentially cancerous lesions within the 3D functional image;
(g) for each hotspot of the at least some of the detected hotspots, determine a lesion index value using at least the reference intensity value.
정상적인 상황 하에서 높은 방사성 의약품 흡수와 관련된 대상체 내의 고흡수 조직 영역들로 인한 강도 블리드를 보정하기 위한 시스템으로서,
(a) 대상체의 3D 기능적 영상을 수신하고 ― 상기 3D 기능적 영상은 기능적 영상 촬영 기법을 사용하여 획득됨 ― ;
(b) 상기 3D 기능적 영상 내의 고강도 볼륨을 식별하고 ― 상기 고강도 볼륨은 정상적인 상황 하에서 높은 방사성 의약품 흡수가 발생하는 특정 고흡수 조직 영역에 대응함 ― ;
(c) 상기 식별된 고강도 볼륨에 기초하여 상기 3D 기능적 영상 내의 억제 볼륨을 식별하고 ― 상기 억제 볼륨은 상기 식별된 고강도 볼륨의 경계로부터 미리 결정된 감쇠 거리 내부 및 외부에 있는 볼륨에 대응함 ― ;
(d) 상기 억제 볼륨 내의 3D 기능적 영상의 복셀들의 강도들에 기초하여 결정된 보간값들로 대체된 상기 고강도 볼륨 내의 복셀들의 강도들을 갖는 상기 3D 기능적 영상에 대응하는 배경 영상을 결정하고;
(e) 상기 3D 기능적 영상으로부터의 복셀들의 강도들로부터 상기 배경 영상의 복셀들의 강도들을 차감하여 추정 영상을 결정하고;
(f) 상기 고강도 볼륨에 대응하는 상기 추정 영상의 복셀들의 강도들을 상기 억제 볼륨 내의 복셀들의 위치로 외삽하여 상기 억제 볼륨에 대응하는 억제 맵의 복셀들의 강도들을 결정하고;
상기 억제 볼륨의 외부 위치에 대응하는 억제 맵의 복셀들의 강도들을 0으로 설정함으로써, 억제 맵을 결정하고;
(g) 상기 억제 맵에 기초하여 상기 3D 기능적 영상의 복셀들의 강도들을 조정하여 상기 고강도 볼륨으로부터 강도 블리드를 보정하는, 강도 블리드를 보정하기 위한 시스템.
A system for correcting intensity bleed due to highly absorptive tissue regions in a subject associated with high radiopharmaceutical absorption under normal circumstances, comprising:
(a) receiving a 3D functional image of an object, wherein the 3D functional image is obtained using a functional imaging technique;
(b) identifying a high-intensity volume in the 3D functional image, the high-intensity volume corresponding to a specific highly absorptive tissue region where high radiopharmaceutical uptake occurs under normal circumstances;
(c) identifying a suppression volume in the 3D functional image based on the identified high-intensity volume, the suppression volume corresponding to a volume within and outside a predetermined attenuation distance from a boundary of the identified high-intensity volume;
(d) determine a background image corresponding to the 3D functional image with intensities of voxels in the high-intensity volume replaced with interpolated values determined based on intensities of voxels of the 3D functional image in the suppression volume;
(e) determining an estimated image by subtracting intensities of voxels of the background image from intensities of voxels from the 3D functional image;
(f) extrapolating intensities of voxels of the estimated image corresponding to the high intensity volume to locations of voxels within the suppression volume to determine intensities of voxels of a suppression map corresponding to the suppression volume;
determine a suppression map by setting intensities of voxels of the suppression map corresponding to locations outside the suppression volume to zero;
(g) correcting intensity bleed from the high intensity volume by adjusting intensities of voxels of the 3D functional image based on the suppression map.
제87 항에 있어서,
상기 명령들은 상기 프로세서가 순차적 방식으로 복수의 고강도 볼륨들 각각에 대해 단계 (b) 내지 (g)를 수행하여 상기 복수의 고강도 볼륨들 각각으로부터의 강도 블리드를 보정하게 하는, 강도 블리드를 보정하기 위한 시스템.
87. The method of claim 87,
wherein the instructions cause the processor to perform steps (b) to (g) on each of a plurality of high intensity volumes in a sequential manner to correct intensity bleed from each of the plurality of high intensity volumes; system.
제88 항에 있어서,
상기 복수의 고강도 볼륨들은 신장, 간 및 방광으로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함하는, 강도 블리드를 보정하기 위한 시스템.
88. The method of claim 88,
wherein the plurality of high intensity volumes comprises one or more members selected from the group consisting of kidney, liver and bladder.
대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템으로서,
컴퓨팅 디바이스의 프로세서; 및
명령들이 저장되어 있는 메모리를 포함하고, 상기 명령들은 상기 프로세서에 의해 실행될 때 상기 프로세서로 하여금,
(a) 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하게 하고;
(b) 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하게 하고 ― 각각의 핫스팟은 주변에 비해 높은 강도의 국소 영역에 대응하며 상기 대상체 내의 잠재적인 암성 병변을 나타냄 ― ;
(c) 대화형 그래픽 사용자 인터페이스(GUI) 내의 표시를 위한 상기 하나 이상의 핫스팟들의 그래픽 표현의 렌더링을 야기하게 하고;
(d) 상기 하나 이상의 자동으로 검출된 핫스팟들의 적어도 일부를 포함하는 최종 핫스팟 세트의 사용자 선택을 상기 대화형 GUI를 통해 수신하게 하고;
(e) 표시 및/또는 추가 처리를 위해, 상기 최종 핫스팟 세트를 저장 및/또는 제공하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
A system for automatically processing 3D images of an object to identify and/or characterize cancerous lesions in the object, comprising:
a processor of the computing device; and
a memory having instructions stored therein, which instructions, when executed by the processor, cause the processor to:
(a) receiving a 3D functional image of the object obtained using a functional imaging technique;
(b) automatically detect one or more hotspots in the 3D functional image, each hotspot corresponding to a local area of high intensity relative to the surroundings and representing a potential cancerous lesion in the subject;
(c) cause rendering of a graphical representation of the one or more hotspots for display within an interactive graphical user interface (GUI);
(d) receive through the interactive GUI a user selection of a final set of hotspots that includes at least a portion of the one or more automatically detected hotspots;
(e) A system for automatically processing 3D images of an object, causing storage and/or presentation of the final set of hotspots for display and/or further processing.
제90 항에 있어서,
상기 명령들은 상기 프로세서로 하여금,
(f) 상기 최종 핫스팟 세트 내에 포함하기 위한 하나 이상의 추가 사용자 식별 핫스팟들의 사용자 선택을 상기 GUI를 통해 수신하게 하;
(g) 상기 하나 이상의 추가 사용자 식별 핫스팟들을 포함하도록 설정된 상기 최종 핫스팟을 갱신하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
91. The method of claim 90,
The instructions cause the processor to:
(f) receive via the GUI a user selection of one or more additional user-identified hotspots for inclusion in the final set of hotspots;
(g) update the final hotspot set to include the one or more additional user-identified hotspots.
제90 항 또는 제91 항에 있어서,
단계 (b)에서, 상기 명령들은 상기 프로세서로 하여금, 하나 이상의 기계 학습 모듈들을 사용하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of claim 90 or 91,
In step (b), the instructions cause the processor to use one or more machine learning modules.
대상체 내의 암성 병변들을 식별 및 특성화하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템으로서,
컴퓨팅 디바이스의 프로세서; 및
명령들이 저장되어 있는 메모리를 포함하고, 상기 명령들은 상기 프로세서에 의해 실행될 때 상기 프로세서로 하여금,
(a) 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하게 하고;
(b) 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 검출하게 하고 ― 각각의 핫스팟은 주변에 비해 높은 강도의 국소 영역에 대응하며 대상체 내의 잠재적인 암성 병변을 나타냄 ― ;
(c) 상기 하나 이상의 핫스팟들의 적어도 일부의 각각에 대해, 상기 핫스팟이 나타내는 잠재적인 암성 병변이 위치되도록 결정되는 상기 대상체 내의 특정 해부학적 영역 및/또는 해부학적 영역들의 그룹에 대응하는 해부학적 분류를 자동으로 결정하게 하고;
(d) 표시 및/또는 추가 처리를 위해, 각각의 핫스팟에 대해 상기 핫스팟에 대응하는 해부학적 분류와 함께 상기 하나 이상의 핫스팟들의 식별을 저장 및/또는 제공하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
A system for automatically processing 3D images of an object to identify and characterize cancerous lesions in the object, comprising:
a processor of the computing device; and
a memory having instructions stored therein, which instructions, when executed by the processor, cause the processor to:
(a) receiving a 3D functional image of the object obtained using a functional imaging technique;
(b) automatically detect one or more hotspots in the 3D functional image, each hotspot corresponding to a local area of high intensity relative to the surroundings and representing a potential cancerous lesion in the subject;
(c) for each of at least a portion of the one or more hotspots, an anatomical classification corresponding to a particular anatomical region and/or group of anatomical regions within the subject for which the potential cancerous lesion represented by the hotspot is determined to be located. let it decide automatically;
(d) automatically processing 3D images of an object to store and/or provide for each hotspot an identification of the one or more hotspots along with an anatomical classification corresponding to the hotspot, for display and/or further processing; system to do.
제93 항에 있어서,
상기 명령들은 상기 프로세서로 하여금, 하나 이상의 기계 학습 모듈들을 사용하여 단계 (b)를 수행하도록 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
94. The method of claim 93,
wherein the instructions cause the processor to perform step (b) using one or more machine learning modules.
대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 방법으로서,
(a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하는 단계;
(b) 상기 프로세서에 의해, 해부학적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 해부학적 영상을 수신하는 단계;
(c) 상기 프로세서에 의해, 상기 3D 기능적 영상 내 및/또는 상기 3D 해부학적 영상 내에서 하나 이상의 특정 조직 영역(들) 또는 조직 영역 그룹(들)을 식별하는 3D 분할 맵을 수신하는 단계;
(d) 상기 프로세서에 의해, 하나 이상의 기계 학습 모듈(들)을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들의 한 세트를 자동으로 검출 및/또는 분할하여, (i) 각각의 핫스팟에 대해 상기 핫스팟의 위치를 식별하는 핫스팟 목록 및 (ii) 각각의 핫스팟에 대해 상기 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨을 식별하는 3D 핫스팟 맵 중 하나 또는 둘 모두를 생성하는 단계 ― 각각의 핫스팟은 주변에 비해 높은 강도의 국소 영역에 대응하며 대상체 내의 잠재적인 암성 병변을 나타내고,
상기 하나 이상의 기계 학습 모듈(들) 중 적어도 하나는 (i) 상기 3D 기능적 영상, (ii) 상기 3D 해부학적 영상 및 (iii) 상기 3D 분할 맵을 입력으로 수신함 ― ; 및
(e) 표시 및/또는 추가 처리를 위해, 상기 핫스팟 목록 및/또는 상기 3D 핫스팟 맵을 저장 및/또는 제공하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
A method for automatically processing 3D images of an object to identify and/or characterize cancerous lesions in the object, comprising:
(a) receiving, by a processor of a computing device, a 3D functional image of the object obtained using a functional imaging technique;
(b) receiving, by the processor, a 3D anatomical image of the object obtained using an anatomical imaging technique;
(c) receiving, by the processor, a 3D segmentation map identifying one or more specific tissue region(s) or tissue region group(s) within the 3D functional image and/or within the 3D anatomical image;
(d) by the processor, automatically detecting and/or segmenting a set of one or more hotspots in the 3D functional image using one or more machine learning module(s) to: (i) for each hotspot, the hotspot generating one or both of a hotspot list identifying the location of and (ii) a 3D hotspot map identifying, for each hotspot, a corresponding 3D hotspot volume within the 3D functional image - each hotspot has a high relative to its surroundings. Corresponding to local areas of intensity and indicating potential cancerous lesions in the subject,
at least one of the one or more machine learning module(s) receives as input: (i) the 3D functional image, (ii) the 3D anatomical image, and (iii) the 3D segmentation map; and
(e) storing and/or providing the hotspot list and/or the 3D hotspot map for display and/or further processing.
제95 항에 있어서,
상기 프로세서에 의해, 상기 3D 해부학적 영상 및/또는 상기 3D 기능적 영상 내에서 하나 이상의 특정 조직 영역들을 식별하는 초기 3D 분할 맵을 수신하는 단계; 및
상기 프로세서에 의해, 하나 이상의 조직 그룹핑(grouping)(들) 중 특정한 하나에 속하는 것으로서 상기 하나 이상의 특정 조직 영역들의 적어도 일부를 식별하고, 상기 프로세서에 의해, 상기 특정한 조직 그룹핑에 속하는 것으로서 상기 식별된 특정 영역들을 나타내기 위해 상기 3D 분할 맵을 갱신하는 단계 ; 및
상기 프로세서에 의해, 상기 갱신된 3D 분할 맵을 상기 하나 이상의 기계 학습 모듈들 중 적어도 하나에 대한 입력으로 사용하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
95. The method of claim 95,
receiving, by the processor, an initial 3D segmentation map identifying one or more specific tissue regions within the 3D anatomical image and/or the 3D functional image; and
identifying, by the processor, at least a portion of the one or more particular tissue regions as belonging to a particular one of one or more tissue grouping(s); updating the 3D segmentation map to represent regions; and
and using, by the processor, the updated 3D segmentation map as an input to at least one of the one or more machine learning modules.
제96 항에 있어서,
상기 하나 이상의 조직 그룹핑들은 연조직 그룹핑을 포함하여 연조직을 나타내는 특정 조직 영역들이 상기 연조직 그룹핑에 속하는 것으로 식별되도록 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
96. The method of claim 96,
The method for automatically processing 3D images of an object, wherein the one or more tissue groupings include soft tissue groupings so that specific tissue regions representing soft tissues are identified as belonging to the soft tissue groupings.
제96 항 또는 제97 항에 있어서,
상기 하나 이상의 조직 그룹핑들은 뼈 조직 그룹핑을 포함하여 뼈 조직을 나타내는 특정 조직 영역들이 상기 뼈 조직 그룹핑에 속하는 것으로 식별되도록 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
The method of claim 96 or 97,
The method of claim 1 , wherein the one or more tissue groupings include a bone tissue grouping so that specific tissue regions representing bone tissue are identified as belonging to the bone tissue grouping.
제96 항 내지 제98 항 중 어느 한 항에 있어서,
상기 하나 이상의 조직 그룹핑들은 고흡수 장기 그룹핑을 포함하여 고흡수 방사성 의약품과 관련된 하나 이상의 장기들이 상기 고흡수 그룹핑에 속하는 것으로 식별되도록 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
The method of any one of claims 96 to 98,
The one or more tissue groupings include a high absorption organ grouping so that one or more organs related to the high absorption radiopharmaceutical are identified as belonging to the high absorption grouping.
제95 항 내지 제99 항 중 어느 한 항에 있어서,
각각의 검출 및/또는 분할된 핫스팟에 대해, 상기 프로세서에 의해 상기 핫스팟에 대한 분류를 결정하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
The method of any one of claims 95 to 99,
For each detected and/or segmented hotspot, determining a classification for the hotspot by the processor.
제100 항에 있어서,
각각의 검출 및/또는 분할된 병변에 대해 상기 핫스팟에 대한 분류를 결정하기 위해 하나 이상의 기계 학습 모듈들 중 적어도 하나를 사용하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
100. The method of claim 100,
A method for automatically processing 3D images of an object comprising using at least one of one or more machine learning modules to determine a classification for the hotspot for each detected and/or segmented lesion.
제95 항 내지 제101 항 중 어느 한 항에 있어서,
상기 하나 이상의 기계 학습 모듈들은,
(A) 전신에 걸쳐 핫스팟들을 검출 및/또는 분할하는 전신 병변 검출 모듈; 및
(B) 전립선 내의 핫스팟들을 검출 및/또는 분할하는 전립선 병변 모듈을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
The method of any one of claims 95 to 101,
The one or more machine learning modules,
(A) a systemic lesion detection module that detects and/or segments hotspots throughout the body; and
(B) A method for automatically processing 3D images of an object comprising a prostate lesion module that detects and/or segments hotspots within the prostate.
제102 항에 있어서,
(A) 및 (B) 각각을 사용하여 핫스팟 목록 및/또는 맵들을 생성하고 그 결과들을 병합하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
102. The method of claim 102,
A method for automatically processing 3D images of an object, comprising generating hotspot lists and/or maps using (A) and (B), respectively, and merging the results.
제95 항 내지 제103 항 중 어느 한 항에 있어서,
단계 (d)는,
하나 이상의 핫스팟들의 세트를 분할 및 분류하여 각각의 핫스팟에 대해 상기 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨을 식별하고 각각의 핫스팟 볼륨이 복수의 핫스팟 클래스(class)들 중 특정 핫스팟 클래스에 속하는 것으로 라벨링(label)되는 라벨링된 3D 핫스팟 맵을,
제1 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제1 초기 세트를 분할함으로써 초기 핫스팟 볼륨들의 제1 세트를 식별하는 제1 초기 3D 핫스팟 맵을 생성하고 ― 상기 제1 기계 학습 모듈은 단일 핫스팟 클래스에 따른 상기 3D 기능적 영상의 핫스팟들을 분할함 ― ;
제2 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제2 초기 세트를 분할함으로써 초기 핫스팟 볼륨들의 제2 세트를 식별하는 제2 초기 3D 핫스팟 맵을 생성함으로써 ― 상기 제2 기계 학습 모듈은 복수의 상이한 핫스팟 클래스들에 따라 상기 3D 기능적 영상을 분할하여 상기 제2 초기 3D 핫스팟 맵이 각각의 핫스팟 볼륨이 복수의 상이한 핫스팟 클래스들 중 특정한 하나에 속하는 것으로 라벨링되는 다중 클래스 3D 핫스팟 맵이 되도록 함 ―, 생성하는 단계; 및
상기 프로세서에 의해, 상기 제1 초기 3D 핫스팟 맵에 의해 식별된 핫스팟 볼륨의 적어도 일부에 대해 상기 제1 초기 3D 핫스팟 맵과 상기 제2 초기 3D 핫스팟 맵을,
상기 제2 초기 3D 핫스팟 맵의 일치하는 핫스팟 볼륨을 식별하고 ― 상기 제2 3D 핫스팟 맵의 일치하는 핫스팟 볼륨은 상기 복수의 상이한 핫스팟 클래스들 중 특정 핫스팟 클래스에 속하는 것으로 라벨링됨 ― ;
상기 제1 초기 3D 핫스팟 맵의 특정 핫스팟 볼륨을 특정 핫스팟 클래스에 속하는 것으로 라벨링하여 제2 3D 핫스팟 맵의 일치하는 핫스팟 볼륨들이 속하는 것으로 식별되는 클래스들에 따라 라벨링되어진 상기 제1 3D 핫스팟 맵의 분할된 핫스팟 볼륨들을 포함하는 병합된 3D 핫스팟 맵을 생성함으로써, 병합하는 단계를 포함하고;
단계 (e)는, 표시 및/또는 추가 처리를 위해, 상기 병합된 3D 핫스팟 맵을 저장 및/또는 제공하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
The method of any one of claims 95 to 103,
Step (d) is,
segmenting and classifying a set of one or more hotspots to identify for each hotspot a corresponding 3D hotspot volume in the 3D functional image and labeling each hotspot volume as belonging to a particular one of a plurality of hotspot classes ( label), a labeled 3D hotspot map,
generating a first initial 3D hotspot map identifying a first set of initial hotspot volumes by segmenting a first initial set of one or more hotspots within the 3D functional image using a first machine learning module - the first machine learning module; divides the hotspots of the 3D functional image according to a single hotspot class;
generating a second initial 3D hotspot map identifying a second set of initial hotspot volumes by segmenting a second initial set of one or more hotspots within the 3D functional image using a second machine learning module - the second machine learning module; segment the 3D functional image according to a plurality of different hotspot classes such that the second initial 3D hotspot map is a multi-class 3D hotspot map in which each hotspot volume is labeled as belonging to a particular one of a plurality of different hotspot classes; Ham -, generating; and
generating, by the processor, the first initial 3D hotspot map and the second initial 3D hotspot map for at least a portion of the hotspot volume identified by the first initial 3D hotspot map;
identify a matching hotspot volume in the second initial 3D hotspot map, the matching hotspot volume in the second 3D hotspot map being labeled as belonging to a specific one of the plurality of different hotspot classes;
Segmented hotspot volumes of the first 3D hotspot map labeled according to the classes identified by labeling a particular hotspot volume of the first initial 3D hotspot map as belonging to a particular hotspot class to which matching hotspot volumes of the second 3D hotspot map belong. merging by creating a merged 3D hotspot map comprising the hotspot volumes;
The method for automatically processing 3D images of an object, wherein step (e) includes storing and/or providing the merged 3D hotspot map for display and/or further processing.
제104 항에 있어서,
상기 복수의 상이한 핫스팟 클래스들은,
(i) 뼈에 위치된 병변들을 나타내도록 결정된 뼈 핫스팟들,
(ii) 림프절들에 위치된 병변들을 나타내도록 결정된 림프 핫스팟들, 및
(iii) 전립선에 위치된 병변들을 나타내도록 결정된 전립선 핫스팟들
로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
104. The method of claim 104,
The plurality of different hotspot classes,
(i) bone hotspots determined to represent lesions located in bone;
(ii) lymphatic hotspots determined to represent lesions located in the lymph nodes, and
(iii) prostate hotspots determined to represent lesions located in the prostate
A method for automatically processing 3D images of an object, including one or more members selected from the group consisting of.
제95 항 내지 제105 항 중 어느 한 항에 있어서,
(f) 상기 핫스팟 목록 수신 및/또는 승인하는 단계; 및
(g) 상기 핫스팟 목록의 각각의 핫스팟에 대해 분석 모델을 사용하여 상기 핫스팟을 분할하는 단계를 더 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
106. The method of any one of claims 95 to 105,
(f) receiving and/or accepting the hotspot list; and
(g) segmenting the hotspot using an analysis model for each hotspot in the hotspot list.
제95 항 내지 제105 항 중 어느 한 항에 있어서,
(h) 상기 핫스팟 맵을 수신 및/또는 승인하는 단계; 및
(g) 상기 핫스팟 맵의 각각의 핫스팟에 대해 분석 모델을 사용하여 상기 핫스팟을 분할하는 단계를 더 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
106. The method of any one of claims 95 to 105,
(h) receiving and/or accepting the hotspot map; and
(g) segmenting the hotspot using an analysis model for each hotspot of the hotspot map.
제107 항에 있어서,
상기 분석 모델은 적응적 임계값 설정 방법이고,
단계 (i)는,
특정 참조 조직 영역에 대응하는 특정 참조 볼륨 내에 위치된 상기 3D 기능적 영상의 복셀들의 강도들의 치수에 각각 기초하여 하나 이상의 참조 값들을 결정하는 단계; 및
상기 3D 핫스팟 맵의 각각의 특정 핫스팟 볼륨에 대해,
상기 프로세서에 의해, 상기 특정 핫스팟 볼륨 내의 복셀들의 강도들에 기초하여 대응하는 핫스팟 강도를 결정하는 단계; 및
상기 프로세서에 의해, (i) 상기 대응하는 핫스팟 강도 및 (ii) 상기 하나 이상의 참조 값(들) 중 적어도 하나에 기초하여 특정 핫스팟에 대한 핫스팟 특정 임계값을 결정하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
107. The method of claim 107,
The analysis model is an adaptive threshold setting method,
Step (i) is
determining one or more reference values based on dimensions of intensities of voxels of the 3D functional image located in a specific reference volume corresponding to a specific reference tissue region; and
For each specific hotspot volume in the 3D hotspot map,
determining, by the processor, a corresponding hotspot intensity based on intensities of voxels within the particular hotspot volume; and
determining, by the processor, a hotspot specific threshold for a specific hotspot based on at least one of (i) the corresponding hotspot intensity and (ii) the one or more reference value(s). A method for automatically processing images.
제108 항에 있어서,
상기 핫스팟 특정 임계값은 복수의 임계값 함수들로부터 선택된 특정 임계값 함수를 사용하여 결정되고, 상기 특정 임계값 함수는 대응하는 핫스팟 강도와 적어도 하나의 참조 값의 비교에 기초하여 선택되는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
108. The method of claim 108,
The hotspot specific threshold is determined using a specific threshold function selected from a plurality of threshold functions, and the specific threshold function is selected based on a comparison of a corresponding hotspot intensity with at least one reference value. A method for automatically processing 3D images.
제108 항 또는 제109 항에 있어서,
상기 핫스팟 특정 임계값은 대응하는 핫스팟 강도의 가변 백분율로서 결정되고, 상기 가변 백분율은 핫스팟 강도를 증가시킴에 따라 감소하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
109. The method of claim 108 or 109,
The method of claim 1 , wherein the hotspot specific threshold is determined as a variable percentage of a corresponding hotspot intensity, and wherein the variable percentage decreases with increasing hotspot intensity.
대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 방법으로서,
(a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하는 단계;
(b) 상기 프로세서에 의해, 제1 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제1 초기 세트를 자동으로 분할함으로써 초기 핫스팟 볼륨들의 제1 세트를 식별하는 제1 초기 3D 핫스팟 맵을 생성하는 단계 ― 상기 제1 기계 학습 모듈은 단일 핫스팟 클래스에 따라 상기 3D 기능적 영상의 핫스팟들을 분할함 ― ;
(c) 상기 프로세서에 의해, 제2 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제2 초기 세트를 자동으로 분할함으로써 초기 핫스팟 볼륨들의 제2 세트를 식별하는 제2 초기 3D 핫스팟 맵을 생성하는 단계 ― 상기 제2 기계 학습 모듈은 복수의 상이한 핫스팟 클래스들에 따라 상기 3D 기능적 영상을 분할하여 상기 제2 초기 3D 핫스팟 맵이 각각의 핫스팟 볼륨이 상기 복수의 상이한 핫스팟 클래스들 중 특정 하나에 속하는 것으로 라벨링되는 다중 클래스 3D 핫스팟 맵이 되도록 함 ― ;
(d) 상기 프로세서에 의해, 상기 제1 초기 3D 핫스팟 맵에 의해 식별된 초기 핫스팟 볼륨들의 제1 세트의 적어도 일부 중 각각의 특정 핫스팟 볼륨에 대해 상기 제1 초기 3D 핫스팟 맵과 상기 제2 초기 3D 핫스팟 맵을,
상기 제2 초기 3D 핫스팟 맵의 일치하는 핫스팟 볼륨을 식별하고 ― 상기 제2 3D 핫스팟 맵의 일치하는 핫스팟 볼륨은 상기 복수의 상이한 핫스팟 클래스들 중 특정 핫스팟 클래스에 속하는 것으로 라벨링됨 ― ;
상기 제1 초기 3D 핫스팟 맵의 특정 핫스팟 볼륨을 특정 핫스팟 클래스에 속하는 것으로 라벨링하여 제2 3D 핫스팟 맵의 일치하는 핫스팟들이 속하는 것으로 식별되는 클래스들에 따라 라벨링되어진 상기 제1 3D 핫스팟 맵의 분할된 핫스팟 볼륨들을 포함하는 병합된 3D 핫스팟 맵을 생성함으로써, 병합하는 단계; 및
(e) 표시 및/또는 추가 처리를 위해, 상기 병합된 3D 핫스팟 맵을 저장 및/또는 제공하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
A method for automatically processing 3D images of an object to identify and/or characterize cancerous lesions in the object, comprising:
(a) receiving, by a processor of a computing device, a 3D functional image of the object obtained using a functional imaging technique;
(b) a first initial 3D hotspot map identifying, by the processor, a first set of initial hotspot volumes by automatically segmenting the first initial set of one or more hotspots in the 3D functional image using a first machine learning module; Generating, wherein the first machine learning module segments hotspots of the 3D functional image according to a single hotspot class;
(c) a second initial 3D hotspot map identifying, by the processor, a second set of initial hotspot volumes by automatically segmenting the second initial set of one or more hotspots within the 3D functional image using a second machine learning module; generating: the second machine learning module segments the 3D functional image according to a plurality of different hotspot classes such that the second initial 3D hotspot map is such that each hotspot volume is a specific one of the plurality of different hotspot classes. to be a multi-class 3D hotspot map labeled as belonging to ;
(d) generating, by the processor, the first initial 3D hotspot map and the second initial 3D hotspot map for each particular hotspot volume of at least a portion of the first set of initial hotspot volumes identified by the first initial 3D hotspot map; hotspot map,
identify a matching hotspot volume in the second initial 3D hotspot map, the matching hotspot volume in the second 3D hotspot map being labeled as belonging to a specific one of the plurality of different hotspot classes;
Segmented hotspots of the first 3D hotspot map labeled according to classes identified by labeling a particular hotspot volume of the first initial 3D hotspot map as belonging to a particular hotspot class to which matching hotspots of the second 3D hotspot map belong. merging by creating a merged 3D hotspot map comprising the volumes; and
(e) storing and/or providing the merged 3D hotspot map for display and/or further processing.
제111 항에 있어서,
상기 복수의 상이한 핫스팟 클래스들은,
(i) 뼈에 위치된 병변들을 나타내도록 결정된 뼈 핫스팟들,
(ii) 림프절들에 위치된 병변들을 나타내도록 결정된 림프 핫스팟들, 및
(iii) 전립선에 위치된 병변들을 나타내도록 결정된 전립선 핫스팟들
로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
111. The method of claim 111,
The plurality of different hotspot classes,
(i) bone hotspots determined to represent lesions located in bone;
(ii) lymphatic hotspots determined to represent lesions located in the lymph nodes, and
(iii) prostate hotspots determined to represent lesions located in the prostate
A method for automatically processing 3D images of an object, including one or more members selected from the group consisting of.
대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 적응적인 임계값 설정 접근법을 통해 대상체의 3D 영상들을 자동으로 처리하기 위한 방법으로서,
(a) 컴퓨팅 디바이스의 프로세서에 의해, 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하는 단계;
(b) 상기 프로세서에 의해, 상기 3D 기능적 영상 내에서 하나 이상의 예비 핫스팟 볼륨들을 식별하는 예비 3D 핫스팟 맵을 수신하는 단계;
(c) 상기 프로세서에 의해, 특정 참조 조직 영역에 대응하는 특정 참조 볼륨 내에 위치된 상기 3D 기능적 영상의 복셀들의 강도들의 치수에 각각 기초하여 하나 이상의 참조 값들을 결정하는 단계;
(d) 상기 프로세서에 의해, 상기 예비 핫스팟 볼륨들에 기초하고, 상기 예비 3D 핫스팟 맵에 의해 식별된 하나 이상의 예비 핫스팟 볼륨들의 적어도 일부의 각각의 특정 예비 핫스팟 볼륨에 대해,
상기 특정 예비 핫스팟 볼륨 내의 복셀들의 강도들에 기초하여 대응하는 핫스팟 강도를 결정하고;
(i) 상기 대응하는 핫스팟 강도 및 (ii) 상기 하나 이상의 참조 값(들) 중 적어도 하나에 기초하여 상기 특정 예비 핫스팟 볼륨에 대한 핫스팟 특정 임계값을 결정하고;
상기 특정 예비 핫스팟 볼륨에 대해 결정된 핫스팟 특정 임계값을 사용하여 영상 분할을 수행하는 임계값 기반 분할 알고리즘을 사용하여 3D 기능적 영상의 적어도 일부를 분할함으로써 상기 특정 예비 핫스팟 볼륨에 대응하는 정제되고 분석적으로 분할된 핫스팟 볼륨을 결정하고;
상기 정제된 3D 핫스팟 맵 내에 상기 정제된 핫스팟 볼륨을 포함시킴으로써, 적응적 임계값 기반 분할을 사용하여 정제된 3D 핫스팟 맵을 생성하는 단계; 및
(e) 표시 및/또는 추가 처리를 위해, 상기 정제된 3D 핫스팟 맵을 저장 및/또는 제공하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
A method for automatically processing 3D images of an object through an adaptive threshold setting approach to identify and/or characterize cancerous lesions in the object, comprising:
(a) receiving, by a processor of a computing device, a 3D functional image of the object obtained using a functional imaging technique;
(b) receiving, by the processor, a preliminary 3D hotspot map identifying one or more preliminary hotspot volumes within the 3D functional image;
(c) determining, by the processor, one or more reference values based on dimensions of intensities of voxels of the 3D functional image located in a specific reference volume corresponding to a specific reference tissue region;
(d) by the processor, for each particular preliminary hotspot volume of at least a portion of the one or more preliminary hotspot volumes identified by the preliminary 3D hotspot map and based on the preliminary hotspot volumes;
determine a corresponding hotspot intensity based on intensities of voxels within the specific preliminary hotspot volume;
determine a hotspot specific threshold for the specific preliminary hotspot volume based on at least one of (i) the corresponding hotspot intensity and (ii) the one or more reference value(s);
Refined and analytically segmented corresponding to the specific preliminary hotspot volume by segmenting at least a portion of the 3D functional image using a threshold-based segmentation algorithm that performs image segmentation using the determined hotspot specific threshold for the specific preliminary hotspot volume. determine the hotspot volume;
generating a refined 3D hotspot map using adaptive threshold based segmentation by including the refined hotspot volume within the refined 3D hotspot map; and
(e) storing and/or providing the refined 3D hotspot map for display and/or further processing.
제113 항에 있어서,
상기 핫스팟 특정 임계값은 복수의 임계값 함수들로부터 선택된 특정 임계값 함수를 사용하여 결정되고, 상기 특정 임계값 함수는 대응하는 핫스팟 강도와 적어도 하나의 참조 값의 비교에 기초하여 선택되는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
113. The method of claim 113,
The hotspot specific threshold is determined using a specific threshold function selected from a plurality of threshold functions, and the specific threshold function is selected based on a comparison of a corresponding hotspot intensity with at least one reference value. A method for automatically processing 3D images.
제113 항 또는 제114 항에 있어서,
상기 핫스팟 특정 임계값은 대응하는 핫스팟 강도의 가변 백분율로서 결정되고, 상기 가변 백분율은 핫스팟 강도를 증가시킴에 따라 감소하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
The method of claim 113 or 114,
The method of claim 1 , wherein the hotspot specific threshold is determined as a variable percentage of a corresponding hotspot intensity, and wherein the variable percentage decreases with increasing hotspot intensity.
대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 방법으로서,
(a) 컴퓨팅 디바이스의 프로세서에 의해, 해부학적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 해부학적 영상을 수신하는 단계 ― 상기 3D 해부학적 영상은 상기 대상체 내의 조직의 그래픽 표현을 포함함 ― ;
(b) 상기 프로세서에 의해, 상기 3D 해부학적 영상을 자동으로 분할하여 상기 3D 해부학적 영상에서 상기 대상체의 간에 대응하는 간 볼륨 및 대동맥 부분에 대응하는 대동맥 볼륨을 포함하는 복수의 관심 볼륨(VOI)들을 식별하는 3D 분할 맵을 생성하는 단계;
(c) 상기 프로세서에 의해, 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하는 단계;
(d) 상기 프로세서에 의해, 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 분할하여 하나 이상의 자동으로 분할된 핫스팟 볼륨들을 식별하는 단계 ― 각각의 분할된 핫스팟은 주변에 비해 높은 강도의 국소 영역에 대응하며 상기 대상체 내의 잠재적인 암성 병변을 나타냄 ― ;
(e) 상기 프로세서에 의해, 대화형 그래픽 사용자 인터페이스(GUI) 내의 표시를 위한 상기 하나 이상의 자동으로 분할된 핫스팟 볼륨들의 그래픽 표현의 렌더링을 야기하는 단계;
(f) 상기 프로세서에 의해, 상기 하나 이상의 자동으로 분할된 핫스팟 볼륨들의 적어도 일부를 포함하는 최종 핫스팟 세트의 사용자 선택을 상기 대화형 GUI를 통해 수신하는 단계;
(g) 상기 프로세서에 의해, 상기 최종 세트의 각각의 핫스팟 볼륨에 대해 (i) 상기 핫스팟 볼륨에 대응하는 상기 기능적 영상의 복셀들의 강도들 및 (ii) 간 볼륨 및 대동맥 볼륨에 대응하는 상기 기능적 영상의 복셀들의 강도들을 사용하여 결정된 하나 이상의 참조 값들에 기초하여 병변 지수값을 결정하는 단계; 및
(h) 표시 및/또는 추가 처리를 위해, 상기 최종 핫스팟 세트 및/또는 병변 지수값들을 저장 및/또는 제공하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
A method for automatically processing 3D images of an object to identify and/or characterize cancerous lesions in the object, comprising:
(a) receiving, by a processor of a computing device, a 3D anatomical image of the object obtained using an anatomical imaging technique, wherein the 3D anatomical image includes a graphic representation of a tissue in the object;
(b) a plurality of volumes of interest (VOIs) including a liver volume corresponding to the liver of the object and an aorta volume corresponding to the aorta portion in the 3D anatomical image by automatically segmenting the 3D anatomical image by the processor; generating a 3D segmentation map identifying the segments;
(c) receiving, by the processor, a 3D functional image of the object obtained using a functional imaging technique;
(d) automatically segmenting, by the processor, one or more hotspots in the 3D functional image to identify one or more automatically segmented hotspot volumes, each segmented hotspot corresponding to a local region of high intensity relative to its surroundings. and indicates potential cancerous lesions in the subject;
(e) causing, by the processor, rendering of a graphical representation of the one or more automatically segmented hotspot volumes for display within an interactive graphical user interface (GUI);
(f) receiving, by the processor, a user selection of a final hotspot set comprising at least a portion of the one or more automatically segmented hotspot volumes through the interactive GUI;
(g) by the processor, for each hotspot volume of the final set, (i) intensities of voxels of the functional image corresponding to the hotspot volume and (ii) the functional image corresponding to liver volume and aortic volume determining a lesion index value based on one or more reference values determined using intensities of voxels of ; and
(h) storing and/or providing the final hotspot set and/or lesion index values for display and/or further processing.
제116 항에 있어서,
단계 (b)는 상기 해부학적 영상을 분할하여 상기 3D 분할 맵이 상기 대상체의 하나 이상의 뼈에 대응하는 하나 이상의 뼈 볼륨들을 식별하도록 하는 단계를 포함하고,
단계 (d)는 상기 기능적 영상 내에서 상기 하나 이상의 뼈 볼륨들을 사용하여 골격 볼륨을 식별하고 상기 골격 볼륨 내에 위치된 하나 이상의 뼈 핫스팟 볼륨들을 분할하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
116. The method of claim 116,
Step (b) comprises segmenting the anatomical image so that the 3D segmentation map identifies one or more bone volumes corresponding to one or more bones of the object;
Step (d) automatically processes 3D images of the object, including identifying a bone volume using the one or more bone volumes in the functional image and segmenting one or more bone hotspot volumes located within the bone volume. way to do it.
제116 항 또는 제117 항에 있어서,
단계 (b)는 상기 해부학적 영상을 분할하여 상기 3D 분할 맵이 상기 대상체의 연조직 장기들에 대응하는 하나 이상의 장기 볼륨들을 식별하도록 하는 단계를 포함하고,
단계 (d)는 상기 기능적 영상 내에서 상기 하나 이상의 분할된 장기 볼륨들을 사용하여 하나 이상의 연조직 볼륨들을 식별하고 상기 연조직 볼륨 내에 위치된 하나 이상의 림프 및/또는 전립선 핫스팟 볼륨들을 분할하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
The method of claim 116 or 117,
Step (b) comprises segmenting the anatomical image so that the 3D segmentation map identifies one or more organ volumes corresponding to soft tissue organs of the object;
Step (d) comprises identifying one or more soft tissue volumes using the one or more segmented organ volumes within the functional image and segmenting one or more lymphatic and/or prostate hotspot volumes located within the soft tissue volume. A method for automatically processing 3D images of an object.
제118 항에 있어서,
단계 (d)는 상기 하나 이상의 림프 및/또는 전립선 핫스팟 볼륨들을 분할하기 전에 하나 이상의 고흡수 조직 영역들로부터 강도를 억제하도록 상기 기능적 영상의 강도들을 조정하는 단계를 더 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
118. The method of claim 118,
Step (d) produces 3D images of the object, further comprising adjusting intensities of the functional image to suppress intensity from one or more highly absorptive tissue regions before segmenting the one or more lymphatic and/or prostate hotspot volumes. How to do it automatically.
제116 항 내지 제119 항 중 어느 한 항에 있어서,
단계 (g)는 상기 간 볼륨에 대응하는 상기 기능적 영상의 복셀들의 강도들을 사용하여 간 참조 값을 결정하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
The method of any one of claims 116 to 119,
The method for automatically processing 3D images of an object, wherein step (g) includes determining a liver reference value using intensities of voxels of the functional image corresponding to the liver volume.
제120 항에 있어서,
2 성분 가우시안(Gaussian) 혼합 모델 피트(fit)를 사용하여 간 볼륨에 대응하는 기능적 영상 복셀들의 강도들의 히스토그램(histogram)에 2 성분 가우시안 혼합 모델을 맞추어 간 볼륨으로부터 비정상적으로 낮은 흡수 영역들과 관련된 강도들을 갖는 복셀들을 식별 및 배제하고, 나머지 복셀들의 강도들을 사용하여 간 참조 값을 결정하는 단계를 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 방법.
120. The method of claim 120,
Intensity associated with abnormally low absorption regions from liver volume by fitting a two-component Gaussian mixture model to the histogram of intensities of functional imaging voxels corresponding to liver volume using a two-component Gaussian mixture model fit A method for automatically processing 3D images of an object, comprising identifying and excluding voxels having , and determining an inter-reference value using intensities of remaining voxels.
대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템으로서,
컴퓨팅 디바이스의 프로세서; 및
명령이 저장되어 있는 메모리를 포함하고, 상기 명령들은 상기 프로세서에 의해 실행될 때 상기 프로세서로 하여금,
(a) 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하게 하고;
(b) 해부학적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 해부학적 영상을 수신하게 하고;
(c) 상기 3D 기능적 영상 내 및/또는 상기 3D 해부학적 영상 내에서 하나 이상의 특정 조직 영역(들) 또는 조직 영역 그룹(들)을 식별하는 3D 분할 맵을 수신하게 하고;
(d) 하나 이상의 기계 학습 모듈(들)을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들의 한 세트를 자동으로 검출 및/또는 분할하여, (i) 각각의 핫스팟에 대해 상기 핫스팟의 위치를 식별하는 핫스팟 목록 및 (ii) 각각의 핫스팟에 대해 상기 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨을 식별하는 3D 핫스팟 맵 중 하나 또는 둘 모두를 생성하게 하고 ― 각각의 핫스팟은 주변에 비해 높은 강도의 국소 영역에 대응하며 상기 대상체 내의 잠재적인 암성 병변을 나타내고, 상기 하나 이상의 기계 학습 모듈(들) 중 적어도 하나는 (i) 상기 3D 기능적 영상, (ii) 상기 3D 해부학적 영상 및 (iii) 상기 3D 분할 맵을 입력으로 수신함 ― ;
(e) 표시 및/또는 추가 처리를 위해, 상기 핫스팟 목록 및/또는 상기 3D 핫스팟 맵을 저장 및/또는 제공하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
A system for automatically processing 3D images of an object to identify and/or characterize cancerous lesions in the object, comprising:
a processor of the computing device; and
a memory in which instructions are stored, wherein the instructions, when executed by the processor, cause the processor to:
(a) receiving a 3D functional image of the object obtained using a functional imaging technique;
(b) receiving a 3D anatomical image of the object obtained using an anatomical imaging technique;
(c) receive a 3D segmentation map identifying one or more specific tissue region(s) or tissue region group(s) within the 3D functional image and/or within the 3D anatomical image;
(d) automatically detecting and/or segmenting a set of one or more hotspots within the 3D functional image using one or more machine learning module(s) to (i) identify for each hotspot a location of the hotspot; generate one or both of a hotspot list and (ii) a 3D hotspot map identifying, for each hotspot, a corresponding 3D hotspot volume within the 3D functional image - each hotspot is in a local area of high intensity relative to its surroundings; and represents a potential cancerous lesion in the subject, wherein at least one of the one or more machine learning module(s) produces (i) the 3D functional image, (ii) the 3D anatomical image, and (iii) the 3D segmentation map. received as input ― ;
(e) A system for automatically processing 3D images of an object, allowing storage and/or presentation of the hotspot list and/or the 3D hotspot map for display and/or further processing.
제122 항에 있어서,
상기 명령들은 상기 프로세서로 하여금,
상기 3D 해부학적 영상 및/또는 상기 3D 기능적 영상 내에서 하나 이상의 특정 조직 영역들을 식별하는 초기 3D 분할 맵을 수신하게 하고;
하나 이상의 조직 그룹핑(grouping)들 중 특정한 하나에 속하는 것으로서 상기 하나 이상의 특정 조직 영역들의 적어도 일부를 식별하고, 상기 특정한 조직 그룹핑에 속하는 것으로서 상기 식별된 특정 영역들을 나타내기 위해 상기 3D 분할 맵을 갱신하게 하고;
상기 갱신된 3D 분할 맵을 상기 하나 이상의 기계 학습 모듈들 중 적어도 하나에 대한 입력으로 사용하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
122. The method of claim 122,
The instructions cause the processor to:
receive an initial 3D segmentation map identifying one or more specific tissue regions within the 3D anatomical image and/or the 3D functional image;
identify at least some of the one or more specific tissue regions as belonging to a specific one of one or more tissue groupings, and update the 3D segmentation map to indicate the identified specific regions as belonging to the specific tissue grouping; do;
A system for automatically processing 3D images of an object to use the updated 3D segmentation map as an input to at least one of the one or more machine learning modules.
제123 항에 있어서,
상기 하나 이상의 조직 그룹핑들은 연조직 그룹핑을 포함하여 연조직을 나타내는 특정 조직 영역들이 상기 연조직 그룹핑에 속하는 것으로 식별되게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
123. The method of claim 123,
The system for automatically processing 3D images of an object, wherein the one or more tissue groupings include a soft tissue grouping so that specific tissue regions representing soft tissue are identified as belonging to the soft tissue grouping.
제123 항 또는 제124 항에 있어서,
상기 하나 이상의 조직 그룹핑들은 뼈 조직 그룹핑을 포함하여 뼈를 나타내는 특정 조직 영역들이 상기 뼈 조직 그룹핑에 속하는 것으로 식별되게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of claim 123 or 124,
The system for automatically processing 3D images of an object, wherein the one or more tissue groupings include a bone tissue grouping so that specific tissue regions representing a bone are identified as belonging to the bone tissue grouping.
제123 항 내지 제125 항 중 어느 한 항에 있어서,
상기 하나 이상의 조직 그룹핑들은 고흡수 장기 그룹핑을 포함하여 고흡수 방사성 의약품과 관련된 하나 이상의 장기들이 상기 고흡수 그룹핑에 속하는 것으로 식별되게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 123 to 125,
The one or more tissue groupings include a high absorption organ grouping so that one or more organs related to the high absorption radiopharmaceutical are identified as belonging to the high absorption grouping.
제122 항 내지 제126 항 중 어느 한 항에 있어서,
상기 명령들은 상기 프로세서가 각각의 검출 및/또는 분할된 핫스팟에 대해, 상기 핫스팟에 대한 분류를 결정하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 122 to 126,
wherein the instructions cause the processor to determine, for each detected and/or segmented hotspot, a classification for the hotspot.
제127 항에 있어서,
상기 명령들은 상기 프로세서로 하여금, 각각의 검출 및/또는 분할된 핫스팟에 대해, 상기 핫스팟에 대한 분류를 결정하기 위해 상기 하나 이상의 기계 학습 모듈 중 적어도 하나를 사용하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
127. The method of claim 127,
The instructions may cause the processor to, for each detected and/or segmented hotspot, use at least one of the one or more machine learning modules to determine a classification for the hotspot. system for processing.
제122 항 내지 제128 항 중 어느 한 항에 있어서,
상기 하나 이상의 기계 학습 모듈들은,
(A) 전신에 걸쳐 핫스팟들을 검출 및/또는 분할하는 전신 병변 검출 모듈; 및
(B) 전립선 내의 핫스팟들을 검출 및/또는 분할하는 전립선 병변 모듈을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 122 to 128,
The one or more machine learning modules,
(A) a systemic lesion detection module that detects and/or segments hotspots throughout the body; and
(B) A system for automatically processing 3D images of an object, comprising a prostate lesion module that detects and/or segments hotspots within the prostate.
제129 항에 있어서,
상기 명령들은 상기 프로세서로 하여금, (A) 및 (B) 각각을 사용하여 상기 핫스팟 목록 및/또는 맵들을 생성하고 그 결과들을 병합하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
129. The method of claim 129,
wherein the instructions cause the processor to generate the hotspot list and/or maps using (A) and (B), respectively, and merge the results.
제122 항 내지 제130 항 중 어느 한 항에 있어서,
단계 (d)에서, 상기 명령들은 상기 프로세서로 하여금, 하나 이상의 핫스팟들의 세트를 분할 및 분류하도록 하여 각각의 핫스팟에 대해 상기 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨을 식별하고 각각의 핫스팟이 복수의 핫스팟 클래스들 중 특정 핫스팟 클래스에 속하는 것으로 라벨링되는 라벨링된 3D 핫스팟 맵을,
제1 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제1 초기 세트를 분할함으로써 초기 핫스팟 볼륨들의 제1 세트를 식별하는 제1 초기 3D 핫스팟 맵을 생성하고 ― 상기 제1 기계 학습 모듈은 단일 핫스팟 클래스에 따라 상기 3D 기능적 영상의 핫스팟들을 분할함 ― ;
제2 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제2 초기 세트를 분할함으로써 초기 핫스팟 볼륨들의 제2 세트를 식별하는 제2 초기 3D 핫스팟 맵을 생성하고 ― 상기 제2 기계 학습 모듈은 복수의 상이한 핫스팟 클래스들에 따라 상기 3D 기능적 영상을 분할하여 상기 제2 초기 3D 핫스팟 맵이 각각의 핫스팟 볼륨이 상기 복수의 상이한 핫스팟 클래스들 중 특정한 하나에 속하는 것으로 라벨링되는 다중 클래스 3D 핫스팟 맵이 되도록 함 ― ;
상기 제1 초기 3D 핫스팟 맵에 의해 식별된 핫스팟 볼륨의 적어도 일부의 상기 제1 초기 3D 핫스팟 맵과 상기 제2 초기 3D 핫스팟 맵을,
상기 제2 초기 3D 핫스팟 맵의 일치하는 핫스팟 볼륨을 식별하고 ― 상기 제2 3D 핫스팟 맵의 일치하는 핫스팟 볼륨은 상기 복수의 상이한 핫스팟 클래스들 중 특정 핫스팟 클래스에 속하는 것으로 라벨링됨 ―;
상기 제1 초기 3D 핫스팟 맵의 특정 핫스팟 볼륨을 특정 핫스팟 클래스에 속하는 것으로 라벨링하여 제2 3D 핫스팟 맵의 일치하는 핫스팟들이 속하는 것으로 식별되는 클래스들에 따라 라벨링되어진 상기 제1 3D 핫스팟 맵의 분할된 핫스팟 볼륨들을 포함하는 병합된 3D 핫스팟 맵을 생성하여 병합함으로써, 생성하게 하고;
단계 (e)에서, 상기 명령들은 상기 프로세서로 하여금, 표시 및/또는 추가 처리를 위해, 상기 병합된 3D 핫스팟 맵을 저장 및/또는 제공하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 122 to 130,
In step (d), the instructions cause the processor to segment and classify a set of one or more hotspots to identify for each hotspot a corresponding 3D hotspot volume within the 3D functional image, each hotspot being a plurality of hotspots. A labeled 3D hotspot map labeled as belonging to a particular hotspot class among the classes;
generating a first initial 3D hotspot map identifying a first set of initial hotspot volumes by segmenting a first initial set of one or more hotspots within the 3D functional image using a first machine learning module - the first machine learning module; divides the hotspots of the 3D functional image according to a single hotspot class;
generating a second initial 3D hotspot map identifying a second set of initial hotspot volumes by segmenting the second initial set of one or more hotspots within the 3D functional image using a second machine learning module - the second machine learning module divides the 3D functional image according to a plurality of different hotspot classes so that the second initial 3D hotspot map is a multi-class 3D hotspot map in which each hotspot volume is labeled as belonging to a particular one of the plurality of different hotspot classes. make it happen ;
the first initial 3D hotspot map and the second initial 3D hotspot map of at least a portion of the hotspot volume identified by the first initial 3D hotspot map;
identify a matching hotspot volume in the second initial 3D hotspot map, the matching hotspot volume in the second 3D hotspot map being labeled as belonging to a specific one of the plurality of different hotspot classes;
Segmented hotspots of the first 3D hotspot map labeled according to classes identified by labeling a particular hotspot volume of the first initial 3D hotspot map as belonging to a particular hotspot class to which matching hotspots of the second 3D hotspot map belong. generate and merge, thereby creating a merged 3D hotspot map comprising the volumes;
In step (e), the instructions cause the processor to store and/or provide the merged 3D hotspot map for display and/or further processing.
제131 항에 있어서,
상기 복수의 상이한 핫스팟 클래스들은
(i) 뼈에 위치된 병변들을 나타내도록 결정된 뼈 핫스팟들,
(ii) 림프절들에 위치된 병변들을 나타내도록 결정된 림프 핫스팟들, 및
(iii) 전립선에 위치된 병변들을 나타내도록 결정된 전립선 핫스팟들
로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
131. The method of claim 131,
The plurality of different hotspot classes are
(i) bone hotspots determined to represent lesions located in bone;
(ii) lymphatic hotspots determined to represent lesions located in the lymph nodes, and
(iii) prostate hotspots determined to represent lesions located in the prostate
A system for automatically processing 3D images of an object, including one or more members selected from the group consisting of.
제122 항 내지 제132 항 중 어느 한 항에 있어서,
상기 명령들은 추가로 상기 프로세서로 하여금,
(f) 상기 핫스팟 목록 수신 및/또는 승인하게 고;
(g) 상기 핫스팟 목록의 각각의 핫스팟에 대해 분석 모델을 사용하여 상기 핫스팟을 분할하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 122 to 132,
The instructions further cause the processor to:
(f) receive and/or approve the hotspot list;
(g) a system for automatically processing 3D images of an object, to segment the hotspot using an analysis model for each hotspot in the hotspot list.
제122 항 내지 제133 항 중 어느 한 항에 있어서,
상기 명령들은 추가로 상기 프로세서로 하여금,
(h) 상기 핫스팟 맵을 수신 및/또는 승인하게 하고;
(i) 상기 핫스팟 맵의 각각의 핫스팟에 대해 분석 모델을 사용하여 상기 핫스팟을 분할하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 122 to 133,
The instructions further cause the processor to:
(h) receive and/or accept the hotspot map;
(i) a system for automatically processing 3D images of an object, to segment the hotspot using an analysis model for each hotspot in the hotspot map.
제134 항에 있어서,
상기 분석 모델은 적응적인 임계값 설정 방법이고,
단계 (i)에서, 상기 명령들은 상기 프로세서로 하여금,
특정 참조 조직 영역에 대응하는 특정 참조 볼륨 내에 위치된 상기 3D 기능적 영상의 복셀들의 강도들의 치수에 각각 기초하여 하나 이상의 참조 값들을 결정하게 하고;
상기 3D 핫스팟 맵의 각각의 특정 핫스팟 맵에 대해,
상기 특정 핫스팟 볼륨 내의 복셀들의 강도들에 기초하여 대응하는 핫스팟 강도를 결정하게 하고;
(i) 상기 대응하는 핫스팟 강도 및 (ii) 상기 하나 이상의 참조 값(들) 중 적어도 하나에 기초하여 상기 특정 핫스팟에 대한 핫스팟 특정 임계값을 결정하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
134. The method of claim 134,
The analysis model is an adaptive threshold setting method,
In step (i), the instructions cause the processor to:
determine one or more reference values based on dimensions of intensities of voxels of the 3D functional image located in a specific reference volume corresponding to a specific reference tissue region, respectively;
For each specific hotspot map of the 3D hotspot map,
determine a corresponding hotspot intensity based on intensities of voxels within the particular hotspot volume;
for automatically processing 3D images of an object, to determine a hotspot specific threshold for the specific hotspot based on at least one of (i) the corresponding hotspot intensity and (ii) the one or more reference value(s). system.
제135 항에 있어서,
상기 핫스팟 특정 임계값은 복수의 임계값 함수들로부터 선택된 특정 임계값 함수를 사용하여 결정되고, 상기 특정 임계값 함수는 대응하는 핫스팟 강도와 적어도 하나의 참조 값의 비교에 기초하여 선택되는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
135. The method of claim 135,
The hotspot specific threshold is determined using a specific threshold function selected from a plurality of threshold functions, and the specific threshold function is selected based on a comparison of a corresponding hotspot intensity with at least one reference value. A system for automatically processing 3D images.
제135 항 또는 제136 항에 있어서,
상기 핫스팟 특정 임계값은 대응하는 핫스팟 강도의 가변 백분율로서 결정되고, 상기 가변 백분율은 핫스팟 강도를 증가시킴에 따라 감소하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
136. The method of claim 135 or 136,
The system for automatically processing 3D images of an object, wherein the hotspot specific threshold is determined as a variable percentage of a corresponding hotspot intensity, and wherein the variable percentage decreases with increasing hotspot intensity.
대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템으로서,
컴퓨팅 디바이스의 프로세서; 및
명령들이 저장되어 있는 메모리를 포함하고, 상기 명령들은 상기 프로세서에 의해 실행될 때 프로세서로 하여금,
(a) 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하게 하고;
(b) 제1 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제1 초기 세트를 자동으로 분할함으로써, 상기 3D 기능적 영상 내의 대응하는 3D 핫스팟 볼륨인 초기 핫스팟 볼륨들의 제1 세트를 식별하는 제1 초기 3D 핫스팟 맵을 생성하게 하고 ― 상기 제1 기계 학습 모듈은 단일 핫스팟 클래스에 따라 상기 3D 기능적 영상의 핫스팟들을 분할함 ― ;
(c) 제2 기계 학습 모듈을 사용하여 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들의 제2 초기 세트를 자동으로 분할함으로써 초기 핫스팟 볼륨들의 제2 세트를 식별하는 제2 초기 3D 핫스팟 맵을 생성하게 하고 ― 상기 제2 기계 학습 모듈은 복수의 상이한 핫스팟 클래스들에 따라 상기 3D 기능적 영상을 분할하여 상기 제2 초기 3D 핫스팟 맵이 각각의 핫스팟 볼륨이 상기 복수의 상이한 핫스팟 클래스들 중 특정 하나에 속하는 것으로 라벨링되는 다중 클래스 3D 핫스팟 맵이 되도록 함 ― ;
(d) 상기 제1 초기 3D 핫스팟 맵에 의해 식별된 초기 핫스팟 볼륨들의 제1 세트의 적어도 일부 중 각각의 특정 핫스팟 볼륨에 대해 상기 제1 초기 3D 핫스팟 맵과 상기 제2 초기 3D 핫스팟 맵을,
상기 제2 초기 3D 핫스팟 맵의 일치하는 핫스팟 볼륨을 식별하고 ― 상기 제2 3D 핫스팟 맵의 일치하는 핫스팟 볼륨은 상기 복수의 상이한 핫스팟 클래스들 중 특정 핫스팟 클래스에 속하는 것으로 라벨링됨 ― ;
상기 제1 초기 3D 핫스팟 맵의 특정 핫스팟 볼륨을 특정 핫스팟 클래스에 속하는 것으로 라벨링하여 제2 3D 핫스팟 맵의 일치하는 핫스팟들이 속하는 것으로 식별되는 클래스들에 따라 라벨링되어진 상기 제1 3D 핫스팟 맵의 분할된 핫스팟 볼륨들을 포함하는 병합된 3D 핫스팟 맵을 생성함으로써, 병합하게 하고;
(e) 표시 및/또는 추가 처리를 위해, 상기 병합된 3D 핫스팟 맵을 저장 및/또는 제공하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
A system for automatically processing 3D images of an object to identify and/or characterize cancerous lesions in the object, comprising:
a processor of the computing device; and
a memory having stored therein instructions, which when executed by the processor cause the processor to:
(a) receiving a 3D functional image of the object obtained using a functional imaging technique;
(b) automatically segmenting a first initial set of one or more hotspots in the 3D functional image using a first machine learning module, thereby identifying a first set of initial hotspot volumes that is a corresponding 3D hotspot volume in the 3D functional image. generate a first initial 3D hotspot map, wherein the first machine learning module segments hotspots of the 3D functional image according to a single hotspot class;
(c) generate a second initial 3D hotspot map identifying a second set of initial hotspot volumes by automatically segmenting a second initial set of one or more hotspots within the 3D functional image using a second machine learning module; wherein the second machine learning module segments the 3D functional image according to a plurality of different hotspot classes so that the second initial 3D hotspot map labels each hotspot volume as belonging to a particular one of the plurality of different hotspot classes. Make it a multi-class 3D hotspot map - ;
(d) the first initial 3D hotspot map and the second initial 3D hotspot map for each particular hotspot volume of at least a portion of the first set of initial hotspot volumes identified by the first initial 3D hotspot map;
identify a matching hotspot volume in the second initial 3D hotspot map, the matching hotspot volume in the second 3D hotspot map being labeled as belonging to a specific one of the plurality of different hotspot classes;
Segmented hotspots of the first 3D hotspot map labeled according to classes identified by labeling a particular hotspot volume of the first initial 3D hotspot map as belonging to a particular hotspot class to which matching hotspots of the second 3D hotspot map belong. merge by creating a merged 3D hotspot map containing the volumes;
(e) A system for automatically processing 3D images of an object, enabling storage and/or presentation of the merged 3D hotspot map for display and/or further processing.
제138 항에 있어서,
상기 복수의 상이한 핫스팟 클래스들은
(i) 뼈에 위치된 병변들을 나타내도록 결정된 뼈 핫스팟들,
(ii) 림프절들에 위치된 병변들을 나타내도록 결정된 림프 핫스팟들, 및
(i) 전립선에 위치된 병변들을 나타내도록 결정된 전립선 핫스팟들
로 이루어진 그룹으로부터 선택된 하나 이상의 구성원들을 포함하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
138. The method of claim 138,
The plurality of different hotspot classes are
(i) bone hotspots determined to represent lesions located in bone;
(ii) lymphatic hotspots determined to represent lesions located in the lymph nodes, and
(i) Prostate hotspots determined to represent lesions located in the prostate
A system for automatically processing 3D images of an object, including one or more members selected from the group consisting of.
대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 적응적인 임계값 설정 접근법을 통해 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템으로서,
컴퓨팅 디바이스의 프로세서; 및
명령들이 저장되어 있는 메모리를 포함하고, 상기 명령들은 상기 프로세서에 의해 실행될 때 상기 프로세서로 하여금,
(a) 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하게 하고;
(b) 상기 3D 기능적 영상 내에서 하나 이상의 예비 핫스팟 볼륨들을 식별하는 예비 3D 핫스팟 맵을 수신하게 하고;
(c) 특정 참조 조직 영역에 대응하는 특정 참조 볼륨 내에 위치된 상기 3D 기능적 영상의 복셀들의 강도들의 치수에 각각 기초하여 하나 이상의 참조 값들을 결정하게 하고;
(d) 상기 예비 핫스팟 볼륨들에 기초하고, 상기 예비 3D 핫스팟 맵에 의해 식별된 하나 이상의 예비 핫스팟 볼륨들의 적어도 일부의 각각의 특정 예비 핫스팟 볼륨에 대해,
상기 특정 예비 핫스팟 볼륨 내의 복셀들의 강도들에 기초하여 대응하는 핫스팟 강도를 결정하고;
(i) 상기 대응하는 핫스팟 강도 및 (ii) 상기 하나 이상의 참조 값(들) 중 적어도 하나에 기초하여 상기 특정 예비 핫스팟에 대한 핫스팟 특정 임계값을 결정하고;
상기 특정 예비 핫스팟에 대해 결정된 핫스팟 특정 임계값을 사용하여 영상 분할을 수행하는 임계값 기반 분할 알고리즘을 사용하여 기능적 3D의 적어도 일부를 분할함으로써 상기 특정 예비 핫스팟 볼륨에 대응하는 정제되고 분석적으로 분할된 핫스팟 볼륨을 결정하고;
상기 정제된 3D 핫스팟 맵 내에 상기 정제된 핫스팟 볼륨을 포함시킴으로써, 적응적 임계값 기반 분할을 사용하여 정제된 3D 핫스팟 맵을 생성하게 하고;
(e) 표시 및/또는 추가 처리를 위해, 상기 정제된 3D 핫스팟 맵을 저장 및/또는 제공하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
A system for automatically processing 3D images of an object through an adaptive thresholding approach to identify and/or characterize cancerous lesions in the object, comprising:
a processor of the computing device; and
a memory having instructions stored therein, which instructions, when executed by the processor, cause the processor to:
(a) receiving a 3D functional image of the object obtained using a functional imaging technique;
(b) receive a preliminary 3D hotspot map identifying one or more preliminary hotspot volumes within the 3D functional image;
(c) determine one or more reference values based on dimensions of intensities of voxels of the 3D functional image, respectively, located within a specific reference volume corresponding to a specific reference tissue region;
(d) for each particular preliminary hotspot volume of at least a portion of the one or more preliminary hotspot volumes identified by the preliminary 3D hotspot map and based on the preliminary hotspot volumes;
determine a corresponding hotspot intensity based on intensities of voxels within the specific preliminary hotspot volume;
determine a hotspot specific threshold for the specific preliminary hotspot based on at least one of (i) the corresponding hotspot intensity and (ii) the one or more reference value(s);
A refined and analytically segmented hotspot corresponding to the specific preliminary hotspot volume by segmenting at least a portion of the functional 3D using a threshold-based segmentation algorithm that performs image segmentation using a hotspot specific threshold determined for the specific preliminary hotspot. determine the volume;
include the refined hotspot volume within the refined 3D hotspot map to generate a refined 3D hotspot map using adaptive threshold based segmentation;
(e) A system for automatically processing 3D images of an object, allowing storage and/or providing the refined 3D hotspot map for display and/or further processing.
제140 항에 있어서,
상기 핫스팟 특정 임계값은 복수의 임계값 함수들로부터 선택된 특정 임계값 함수를 사용하여 결정되고, 상기 특정 임계값 함수는 대응하는 핫스팟 강도와 적어도 하나의 참조 값의 비교에 기초하여 선택되는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
140. The method of claim 140,
The hotspot specific threshold is determined using a specific threshold function selected from a plurality of threshold functions, and the specific threshold function is selected based on a comparison of a corresponding hotspot intensity with at least one reference value. A system for automatically processing 3D images.
제140 항 또는 제141 항에 있어서,
상기 핫스팟 특정 임계값은 대응하는 핫스팟 강도의 가변 백분율로서 결정되고, 상기 가변 백분율은 핫스팟 강도를 증가시킴에 따라 감소하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
141. The method of claim 140 or 141,
The system for automatically processing 3D images of an object, wherein the hotspot specific threshold is determined as a variable percentage of a corresponding hotspot intensity, and wherein the variable percentage decreases with increasing hotspot intensity.
대상체 내의 암성 병변들을 식별 및/또는 특성화하기 위해 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템으로서,
컴퓨팅 디바이스의 프로세서;
명령들이 저장되어 있는 메모리를 포함하고, 상기 명령들은 상기 프로세서에 의해 실행될 때 상기 프로세서로 하여금,
(a) 해부학적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 해부학적 영상을 수신하게 하고 ― 상기 3D 해부학적 영상은 상기 대상체 내의 조직의 그래픽 표현을 포함함 ― ;
(b) 상기 3D 해부학적 영상을 자동으로 분할하여 상기 3D 해부학적 영상에서 상기 대상체의 간에 대응하는 간 볼륨 및 대동맥 부분에 대응하는 대동맥 볼륨을 포함하는 복수의 관심 볼륨(VOI)들을 식별하는 3D 분할 맵을 생성하게 하고;
(c) 기능적 영상 촬영 기법을 사용하여 획득된 상기 대상체의 3D 기능적 영상을 수신하게 하고;
(d) 상기 3D 기능적 영상 내의 하나 이상의 핫스팟들을 자동으로 분할하여 하나 이상의 자동으로 분할된 핫스팟 볼륨들을 식별하게 하고 ― 각각의 분할된 핫스팟은 주변에 비해 높은 강도의 국소 영역에 대응하며 상기 대상체 내의 잠재적인 암성 병변을 나타냄 ― ;
(e) 대화형 그래픽 사용자 인터페이스(GUI) 내의 표시를 위한 상기 하나 이상의 자동으로 분할된 핫스팟 볼륨들의 그래픽 표현의 렌더링을 야기하게 하고;
(f) 상기 하나 이상의 자동으로 분할된 핫스팟 볼륨들의 적어도 일부를 포함하는 최종 핫스팟 세트의 사용자 선택을 상기 대화형 GUI를 통해 수신하게 하고;
(g) 상기 최종 세트의 각각의 핫스팟 볼륨에 대해 (i) 상기 핫스팟 볼륨에 대응하는 기능적 영상의 복셀들의 강도들 및 (ii) 간 볼륨 및 대동맥 볼륨에 대응하는 기능적 영상의 복셀들의 강도들을 사용하여 결정된 하나 이상의 참조 값들에 기초하여 병변 지수값을 결정하게 하고;
(h) 표시 및/또는 추가 처리를 위해, 상기 최종 핫스팟 세트 및/또는 병변 지수값들을 저장 및/또는 제공하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템
A system for automatically processing 3D images of an object to identify and/or characterize cancerous lesions in the object, comprising:
a processor of the computing device;
a memory having instructions stored therein, which instructions, when executed by the processor, cause the processor to:
(a) receiving a 3D anatomical image of the object obtained using an anatomical imaging technique, wherein the 3D anatomical image includes a graphic representation of a tissue in the object;
(b) 3D segmentation for identifying a plurality of volumes of interest (VOIs) including a liver volume corresponding to the liver of the object and an aorta volume corresponding to the aorta portion in the 3D anatomical image by automatically segmenting the 3D anatomical image create a map;
(c) receiving a 3D functional image of the object obtained using a functional imaging technique;
(d) automatically segment one or more hotspots in the 3D functional image to identify one or more automatically segmented hotspot volumes, each segmented hotspot corresponding to a local region of high intensity relative to its surroundings and providing potential in the object; - indicates cancerous lesions;
(e) cause rendering of a graphical representation of the one or more automatically segmented hotspot volumes for display within an interactive graphical user interface (GUI);
(f) receive, via the interactive GUI, a user selection of a final hotspot set comprising at least a portion of the one or more automatically segmented hotspot volumes;
(g) for each hotspot volume in the final set, using (i) the intensities of voxels of the functional image corresponding to the hotspot volume and (ii) the intensities of voxels of the functional image corresponding to liver volume and aortic volume determine a lesion index value based on the determined one or more reference values;
(h) a system for automatically processing 3D images of an object, allowing storage and/or presentation of the final set of hotspots and/or lesion index values for display and/or further processing.
제143 항에 있어서,
단계 (b)에서, 상기 명령들은 상기 프로세서로 하여금, 상기 해부학적 영상을 분할하여 상기 3D 분할 맵이 상기 대상체의 하나 이상의 뼈에 대응하는 하나 이상의 뼈 볼륨들을 식별하게 하고,
단계 (d)에서, 상기 명령들은 상기 프로세서로 하여금, 상기 기능적 영상 내에서 하나 이상의 뼈 볼륨들을 사용하여 골격 볼륨을 식별하고 상기 골격 볼륨 내에 위치된 하나 이상의 뼈 핫스팟 볼륨들을 분할하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
143. The method of claim 143,
In step (b), the instructions cause the processor to segment the anatomical image so that the 3D segmentation map identifies one or more bone volumes corresponding to one or more bones of the object;
In step (d), the instructions cause the processor to identify a bone volume using one or more bone volumes within the functional image and segment one or more bone hotspot volumes located within the bone volume. A system for automatically processing images.
제143 항 또는 제144 항에 있어서,
단계 (b)에서, 상기 명령들은 상기 프로세서로 하여금, 상기 해부학적 영상을 분할하여 상기 3D 분할 맵이 상기 대상체의 연조직 장기에 대응하는 하나 이상의 장기 볼륨들을 식별하게 하고,
단계 (d)에서, 상기 명령들은 상기 프로세서로 하여금, 상기 기능적 영상 내에서 상기 하나 이상의 분할된 장기 볼륨들을 사용하여 연조직 볼륨을 식별하고 상기 연조직 볼륨 내에 위치된 하나 이상의 림프 및/또는 전립선 핫스팟 볼륨들을 분할하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of claim 143 or 144,
In step (b), the instructions cause the processor to segment the anatomical image so that the 3D segmentation map identifies one or more organ volumes corresponding to soft tissue organs of the object;
In step (d), the instructions cause the processor to identify a soft tissue volume within the functional image using the one or more segmented organ volumes and locate one or more lymphatic and/or prostate hotspot volumes located within the soft tissue volume. A system for automatically processing 3D images of an object, leading to segmentation.
제145 항에 있어서,
단계 (d)에서, 상기 명령들은 상기 프로세서로 하여금, 상기 하나 이상의 림프 및/또는 전립선 핫스팟 볼륨들을 분할하기 전에 하나 이상의 고흡수 조직 영역들로부터 강도를 억제하기 위하여 상기 기능적 영상의 강도들을 조정하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
145. The method of claim 145,
In step (d), the instructions cause the processor to adjust intensities of the functional image to suppress intensity from one or more highly absorptive tissue regions prior to segmenting the one or more lymphatic and/or prostate hotspot volumes. , A system for automatically processing 3D images of an object.
제143 항 내지 제146 항 중 어느 한 항에 있어서,
단계 (g)에서, 상기 명령들은 상기 프로세서로 하여금, 상기 간 볼륨에 대응하는 기능적 영상의 복셀들의 강도들을 사용하여 간 참조 값을 결정하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
The method of any one of claims 143 to 146,
In step (g), the instructions cause the processor to determine a liver reference value using intensities of voxels of the functional image corresponding to the liver volume.
제147 항에 있어서,
상기 명령들은 상기 프로세서로 하여금,
2 성분 가우시안 혼합 모델을 간 볼륨에 대응하는 기능적 영상 복셀들의 강도들의 히스토그램에 맞추게 하고,
2 성분 가우시안 혼합 모델 피트를 사용하여 간 볼륨으로부터 비정상적으로 낮은 흡수 영역들과 관련된 강도들을 갖는 복셀들을 식별 및 배제하게 하고,
나머지 복셀들의 강도들을 사용하여 간 참조 값을 결정하게 하는, 대상체의 3D 영상들을 자동으로 처리하기 위한 시스템.
147. The method of claim 147,
The instructions cause the processor to:
Fit a two-component Gaussian mixture model to the histogram of intensities of functional image voxels corresponding to liver volumes;
identify and exclude voxels with intensities associated with abnormally low absorption regions from the liver volume using a two-component Gaussian mixture model fit;
A system for automatically processing 3D images of an object, allowing intensities of remaining voxels to be used to determine a liver reference value.
KR1020237003954A 2020-07-06 2021-07-02 Systems and methods for artificial intelligence based image analysis for detection and characterization of lesions KR20230050319A (en)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US202063048436P 2020-07-06 2020-07-06
US63/048,436 2020-07-06
US17/008,411 US11721428B2 (en) 2020-07-06 2020-08-31 Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions
US17/008,411 2020-08-31
US202063127666P 2020-12-18 2020-12-18
US63/127,666 2020-12-18
US202163209317P 2021-06-10 2021-06-10
US63/209,317 2021-06-10
PCT/EP2021/068337 WO2022008374A1 (en) 2020-07-06 2021-07-02 Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions

Publications (1)

Publication Number Publication Date
KR20230050319A true KR20230050319A (en) 2023-04-14

Family

ID=79552821

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237003954A KR20230050319A (en) 2020-07-06 2021-07-02 Systems and methods for artificial intelligence based image analysis for detection and characterization of lesions

Country Status (10)

Country Link
EP (1) EP4176377A1 (en)
JP (1) JP2023532761A (en)
KR (1) KR20230050319A (en)
CN (1) CN116134479A (en)
AU (1) AU2021305935A1 (en)
BR (1) BR112022026642A2 (en)
CA (1) CA3163190A1 (en)
MX (1) MX2022016373A (en)
TW (1) TW202207241A (en)
WO (1) WO2022008374A1 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113035327A (en) 2016-10-27 2021-06-25 普罗热尼奇制药公司 Network, decision support system and related Graphical User Interface (GUI) application for medical image analysis
CN111095263A (en) 2017-06-26 2020-05-01 纽约州立大学研究基金会 System, method, and computer-accessible medium for virtual pancreatography
CA3122540A1 (en) 2019-01-07 2020-07-16 Exini Diagnostics Ab Systems and methods for platform agnostic whole body image segmentation
AU2020263381A1 (en) 2019-04-24 2021-10-14 Progenics Pharmaceuticals, Inc. Systems and methods for interactive adjustment of intensity windowing in nuclear medicine images
WO2020219620A1 (en) 2019-04-24 2020-10-29 Progenics Pharmaceuticals, Inc. Systems and methods for automated and interactive analysis of bone scan images for detection of metastases
US11900597B2 (en) 2019-09-27 2024-02-13 Progenics Pharmaceuticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
US11721428B2 (en) 2020-07-06 2023-08-08 Exini Diagnostics Ab Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions
TW202324443A (en) 2021-10-08 2023-06-16 瑞典商艾西尼診斷公司 Systems and methods for automated identification and classification of lesions in local lymph and distant metastases
CN114767268B (en) * 2022-03-31 2023-09-22 复旦大学附属眼耳鼻喉科医院 Anatomical structure tracking method and device suitable for endoscope navigation system
WO2023232067A1 (en) * 2022-05-31 2023-12-07 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for lesion region identification
WO2023239829A2 (en) 2022-06-08 2023-12-14 Progenics Pharmaceuticals, Inc. Systems and methods for assessing disease burden and progression
CN116309585B (en) * 2023-05-22 2023-08-22 山东大学 Method and system for identifying breast ultrasound image target area based on multitask learning
CN117274244B (en) * 2023-11-17 2024-02-20 艾迪普科技股份有限公司 Medical imaging inspection method, system and medium based on three-dimensional image recognition processing

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7876938B2 (en) * 2005-10-06 2011-01-25 Siemens Medical Solutions Usa, Inc. System and method for whole body landmark detection, segmentation and change quantification in digital images
US8562945B2 (en) 2008-01-09 2013-10-22 Molecular Insight Pharmaceuticals, Inc. Technetium- and rhenium-bis(heteroaryl) complexes and methods of use thereof
CA2732632C (en) 2008-08-01 2018-01-09 The Johns Hopkins University Psma-binding agents and uses thereof
ES2595128T3 (en) 2008-12-05 2016-12-27 Molecular Insight Pharmaceuticals, Inc. Technetium and rhenium-bis (heteroaryl) complexes and methods of using them to inhibit PSMA
CN113035327A (en) 2016-10-27 2021-06-25 普罗热尼奇制药公司 Network, decision support system and related Graphical User Interface (GUI) application for medical image analysis
WO2019136349A2 (en) 2018-01-08 2019-07-11 Progenics Pharmaceuticals, Inc. Systems and methods for rapid neural network-based image segmentation and radiopharmaceutical uptake determination
CA3122540A1 (en) 2019-01-07 2020-07-16 Exini Diagnostics Ab Systems and methods for platform agnostic whole body image segmentation

Also Published As

Publication number Publication date
WO2022008374A1 (en) 2022-01-13
TW202207241A (en) 2022-02-16
CN116134479A (en) 2023-05-16
JP2023532761A (en) 2023-07-31
AU2021305935A1 (en) 2023-02-02
CA3163190A1 (en) 2022-01-13
BR112022026642A2 (en) 2023-01-24
MX2022016373A (en) 2023-03-06
EP4176377A1 (en) 2023-05-10

Similar Documents

Publication Publication Date Title
KR20230050319A (en) Systems and methods for artificial intelligence based image analysis for detection and characterization of lesions
US11941817B2 (en) Systems and methods for platform agnostic whole body image segmentation
JP7448476B2 (en) System and method for fast neural network-based image segmentation and radiopharmaceutical uptake determination
US11937962B2 (en) Systems and methods for automated and interactive analysis of bone scan images for detection of metastases
US11721428B2 (en) Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions
US11948283B2 (en) Systems and methods for interactive adjustment of intensity windowing in nuclear medicine images
JP2022048246A (en) Network for medical image analysis, decision support system, and related graphical user interface (gui) applications
US20230351586A1 (en) Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions
TWI835768B (en) Systems and methods for rapid neural network-based image segmentation and radiopharmaceutical uptake determination
WO2023239829A2 (en) Systems and methods for assessing disease burden and progression