KR20150131018A - 진단 벡터 분류 지원을 위한 시스템 및 방법 - Google Patents

진단 벡터 분류 지원을 위한 시스템 및 방법 Download PDF

Info

Publication number
KR20150131018A
KR20150131018A KR1020157024504A KR20157024504A KR20150131018A KR 20150131018 A KR20150131018 A KR 20150131018A KR 1020157024504 A KR1020157024504 A KR 1020157024504A KR 20157024504 A KR20157024504 A KR 20157024504A KR 20150131018 A KR20150131018 A KR 20150131018A
Authority
KR
South Korea
Prior art keywords
tumor
feature
operator
zone
image
Prior art date
Application number
KR1020157024504A
Other languages
English (en)
Inventor
안소니 스타브로스
레니 버틀러
필립 라빈
토마스 밀러
제이슨 자레브
Original Assignee
세노 메디컬 인스투르먼츠 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세노 메디컬 인스투르먼츠 인코포레이티드 filed Critical 세노 메디컬 인스투르먼츠 인코포레이티드
Publication of KR20150131018A publication Critical patent/KR20150131018A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0093Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy
    • A61B5/0095Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy by applying light and detecting acoustic waves, i.e. photoacoustic measurements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0825Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the breast, e.g. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5292Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves using additional data, e.g. patient information, image labeling, acquisition parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physiology (AREA)
  • Acoustics & Sound (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

본원에서 개시된 진단 벡터 분류 지원 시스템 및 방법은 의학 영상을 해석하는데 방사선 전문의에게 요구되는 시간과 노력을 모두 줄일 수 있고, 훈련과 관계없이 관련 결과물을 놓칠 수 있는 가능성을 가진 훈련된 방사선 전문의에게 결정 지원 시스템을 제공한다. 실시예에서, 형태적 영상이 사용되어, 공동-등록된 기능적 영상의 관심존을 확인한다. 관심존 내에 적어도 부분적으로 포함된 특징에 작업자의 등급매기는 것은 특징에 대한 하나 이상의 컴퓨터-생성된 등급과 비교된다. 작업자 등급과 컴퓨터-생성된 등급이 다르면, 진단 지원은, 본원에서 개시된 다른 가능성 보다도, 추가적인 영상을 디스플레이하거나, 관심존을 수정하거나, 하나 이상의 디스플레이된 영상을 애노테이트하거나, 컴퓨터-생성된 특징 등급을 디스플레이하는 것이 제공될 수 있다.

Description

진단 벡터 분류 지원을 위한 시스템 및 방법{SYSTEM AND METHOD FOR DIAGNOSTIC VECTOR CLASSIFICATION SUPPORT}
본 출원은 "Vector Classification in an Optoacoustic Imaging System"이라는 명칭으로 2013년 3월 15일에 출원된 미국 특허 출원 번호 제61/799,213호의 일부 계속 출원이다. 또한, 본 출원은 "Functional Modality with Histopathologic Correlation in an Optoacoustic Imaging System"이라는 명칭으로 2013년 4월 9일에 출원된 미국 특허 출원 번호 제61/810,238호의 일부 계속 출원이다. 또한, 본 출원은 "Functional Ultrasound Modality in Optoacoustic Breast Imaging"이라는 명칭으로 2013년 10월 31일에 출원된 미국 특허 출원 일련번호 제61/898,392호의 일부 계속 출원이다. 이들 출원의 전체 개시물은 본원에 참조로서 포함된다.
본 출원은 저작권 보호 자료를 포함한다. 저작권자는 특허 및 상표청 파일 또는 기록에 있고, 아니면, 무엇이라도 모든 저작권을 가지기 때문에, 특허 개시물의 어느 누구에 의해 복사하는 것에 반대하지 않는다.
기술 분야
본 발명은 일반적으로 의료 영상의 분야에 관한 것이며, 특히 광음향 영상의 해석을 위한 지원과 관련된 시스템에 관한 것이다.
본 발명의 상기 및 그 밖의 목적, 특징 및 이점은 첨부된 도면에서의 설명으로서, 이하의 바람직한 실시예의 좀 더 구체적인 설명으로부터 명백해질 것이고, 참조 문자는 다양한 뷰에 걸쳐 동일한 부분을 말한다. 도면은 축척대로 나타나지 않고, 대신에 본 발명의 원리를 설명하도록 강조된다.
특허 또는 출원 파일은 적어도 하나의 색깔을 넣은 도면을 포함한다. 이러한 색깔 있는 도면(들)이 있는 특허 또는 특허 출원 공개문의 복사본은 요청 및 필요한 수수료를 납부하면, 미국 특허 및 상표청에 의해 제공될 것이다.
도 1은 병변의 진단 벡터 분류의 지원에서 사용되기 위한 시스템의 실시예를 나타내는 개략적인 블록도이다.
도 2는 진단 벡터 분류 지원을 위한 프로세스의 실시예를 나타내는 순서도이다.
도 3은 본 발명의 실시예에 따라 광음향 영상에 디스플레이된 경계 곡선이 있는 광음향 영상을 도시한다.
도 4는 병변의 진단 벡터 분류의 지원에서 사용되기 위한 영상 데이터의 실시예를 나타내는 6개의 영상 디스플레이이다.
도 5는 본 발명의 실시예에 따라 영상에 제시된 경계 곡선이 있는 6개의 영상 디스플레이이다.
도 6은 작업자 특징 등급 매기기와 병변 분류에서 사용되기 위한 그래픽 사용자 인터페이스의 실시예를 나타내는 도면이다.
도 7은 본 발명의 실시예에 따른 특징 내부 혈관질의 예시를 나타내는 6개의 광음향의 결합된 맵 영상을 도시한다.
도 8은 본 발명의 실시예에 따른 특징 내부 홍조의 예시를 나타내는 6개의 광음향의 결합된 맵 영상을 도시한다.
도 9는 본 발명의 실시예에 따른 특징 내부 헤모글로빈의 예시를 나타내는 6개의 광음향의 헤모글로빈 맵 영상을 도시한다.
도 10은 본 발명의 실시예에 따른 캡슐형 또는 경계존 혈관의 특징 존재의 예시를 나타내는 7개의 광음향 영상을 도시한다.
도 11은 본 발명의 실시예에 따른 말초 혈관의 특징 존재의 예시를 나타내는 6개의 광음향 영상을 도시한다.
도 12는 본 발명의 실시예에 따른 특징 방해 인공 산물의 예시를 나타내는 6개의 광음향의 결합된 맵 영상을 도시한다.
도 13은 본 발명의 실시예에 따른 다양한 특징의 카테고리 및 순위를 도시한다.
도 14는 본 발명의 실시예에 따른 다양한 특징의 산포도를 도시한다.
도 15는 본 발명의 실시예에 따른 특징들 사이에 가장 강한 상관도를 가진 특징 벡터를 도시한다.
본 발명은 다양한 수정예 및 대안 형태로 될 수 있으며, 이러한 구체예는 도면에 예시로 도시되었고, 상세한 설명에 기술될 것이다. 그러나, 이는 본 발명을 기술된 특정 실시예로 제한하려는 의도가 아니라는 것을 이해해야 한다. 그와는 반대로, 본 발명의 사상 및 범위 내에 있는 모든 수정예, 등가예 및 대안예를 커버하려는 의도이다.
이하의 설명 및 도면은 설명적이고 제한적으로 해석되지 않는다. 여러 구체적인 세부 사항이 기술되어서, 완전한 이해를 제공한다. 그러나, 어떤 예에서, 잘 알려지거나 종래의 세부 사항은 설명을 모호하게 하는 것을 피하기 위하여 기술되지 않는다. 본 개시물에서의 하나 또는 실시예에 대한 언급은 동일한 실시예에 대한 언급일 필요는 없고, 이러한 언급은 적어도 하나를 의미한다.
본 명세서에서 "일 실시예" 또는 "실시예"에 대한 언급은, 실시예와 관련되어 기술된 구체적인 특징, 구조 또는 특징이 본 발명의 적어도 하나의 실시예에 포함된다는 것을 의미한다. 본 명세서의 여러 곳에서의 "일 실시예에서"의 어구의 출현은 모두 동일한 실시예에 대한 언급일 필요는 없고, 다른 실시예의 상호 배타적인 별도의 실시예 또는 대안적인 실시예에 대한 언급일 필요도 없다. 게다가, 다양한 특징이 기술되고, 이는 일부 실시예에서 나타날 수 있고, 다른 실시예에서는 나타나지 않을 수 있다. 마찬가지로, 다양한 요구 사항이 기술되고, 이는 일부 실시예에서 요구될 수 있고, 다른 실시예에서는 요구되지 않을 수 있다.
본 상세한 설명 및 이하의 청구항에서 사용되는 바와 같이, "하나" 또는 "하나의"는 다른 표시가 없는 한, "적어도 하나" 또는 "하나 이상"을 의미한다. 또한, 단수 형태 "하나", "하나의" 및 "그" 는, 내용이 명확하게 달리 기술되지 않는다면, 복수의 지시 대상을 포함한다. 따라서, 예를 들어, "화합물"을 포함하는 구성에 대한 언급은 둘 이상의 화합물의 혼합을 포함한다.
본 상세한 설명 및 이하의 청구항에서 사용되는 바와 같이, 용어 "또는"은 맥락이 명확하게 달리 기술되지 않는다면, 일반적으로 "및/또는"(즉, 접속어 및 가정법 둘 다)를 포함하는 의미로서 사용된다.
종료점에 의해 수치적 범위의 본원에서의 나열은 그 범위 내에 포함된 모든 수를 포함한다(가령, 1 내지 5는 1, 1.5, 2, 2.75, 3, 3.80, 4, 및 5를 포함함).
다른 표시가 없으면, 본 명세서 및 청구항에서 사용된 구성 요소의 양, 특성의 측정치등을 나타내는 모든 수는, 맥락이 명확하게 달리 기술되지 않는다면, 용어 "약"에 의해 모든 예시에서 수정되는 바와 같이 이해되어야 한다. 따라서, 반대되는 표시가 없다면, 상기 명세서 및 첨부된 청구항에서 제시된 수치 파라미터는 본 발명의 가르침을 사용하여 당업자에 의해 얻을 수 있는 원하는 특징에 따라 가변할 수 있는 근사치이다. 적어도, 청구항의 범위를 제한하려는 의도는 없고, 각각의 수치 파라미터는, 일반적인 반올림 기술을 적용하여, 보고된 유효 숫자의 수에 비추어 해석되어야 한다. 그러나, 임의의 수치값은 내재적으로, 각각의 테스트 측정치에서 발견된 표준 편차에 기인한 어떤 에러를 필연적으로 포함한다.
다른 무엇보다도, 아래의 블록도, 동작 도면 및 광음향 영상 데이터를 처리하기 위한 방법 및 장치의 알고리즘을 참조하여, 시스템과 방법이 기술된다. 블록도의 각각의 블록, 동작 도면 및 알고리즘 및 블록도의 블록, 동작 도면 및 알고리즘의 조합은 아날로그 또는 디지털 하드웨어의 수단 및 컴퓨터 프로그램 명령어에 의해 실행될 수 있다.
본원에서 기술된 컴퓨터 프로그램 명령어는 일반 목적 컴퓨터, 특수 목적 컴퓨터, ASIC의 프로세서 또는 그 밖의 프로그램 가능한 데이터 프로세싱 장치로 제공될 수 있어서, 컴퓨터의 프로세서 또는 그 밖의 프로그램 가능한 데이터 프로세싱 장치를 통해 실행되는 명령어는 블록도에 구현된 기능/행동, 동작 블록 또는 블록들 및 또는 알고리즘을 실행한다.
더구나, 본 개시물의 순서도와 같이 제시되고 기술된 방법의 실시예는, 기술의 좀 더 완벽한 이해를 제공하기 위해, 예시로서 제공된다. 개시된 방법은 본원에서 제시된 동작 및 논리적 흐름에 제한되지 않는다. 다양한 동작의 순서가 변경되고, 더 큰 동작의 부분으로서 기술된 하위 동작이 독립적으로 수행되는 대안적인 실시예가 고려된다.
일부 대안적인 실행예에서, 블록에 적힌 기능/행동은 동작 도면에 적힌 순서이외로 발생할 수 있다. 예를 들어, 연속으로 도시된 두 개의 블록은 실질적으로 동시에 실행될 수 있고, 또는 블록은, 관련된 기능성/행동에 따라, 때때로 반대 순서 또는 서로 다른 순서로 실행될 수 있다.
진단 벡터 분류 지원 시스템
방사선학은 신체 내에 보이는 질병을 진단 및/또는 치료하기 위해 영상의 사용을 활용하는 의료 전문이다. 방사선 전문의는 임의의 여러 의료 영상 기술에 의해 생성된 영상을 해석하고, 결과, 인상 및/또는 진단의 보고서를 생성한다. 방사선 전문의는 다양한 의료 영상 기술에 의해 생성된 하나 이상의 타입의 영상을 해석하는데 고도로 훈련되어 있다.
광음향 영상(Optoacoustic imaging)은 비교적 새로운 임상 분야이다. 광음향 데이터로부터 생성된 영상을 해석하기 위하여, 방사선 전문의를 훈련시키는 데 상당한 시간과 노력이 요구된다. 본원에서 개시된 진단 벡터 분류 지원 시스템 및 방법은 광음향 데이터로부터 생성된 영상을 해석하기 위해 방사선 전문의를 훈련시키는 데 요구되는 시간과 노력을 모두 줄일 수 있고, 훈련과 관계없이, 관련 결과를 놓칠 가능성을 가진 훈련된 방사선 전문의를 위한 결정 지원 시스템을 제공한다. 본원에서 기술된 시스템이 광음향 데이터로부터 생성된 영상, 구체적으로, 초음파 및 광음향 데이터로부터 생성된 영상과 관련하여 도시되지만, 그렇게 제한되지 않고, 그 밖의 다른 타입의 의료 영상에도 동일하게 적용 가능하다.
우선 도 1로 되돌아가면, 진단 벡터 분류 지원 시스템(100)의 실시예가 일반적으로 도시된다. 일 실시예에서, 시스템(100)은 "System and Method for Producing Parametric Maps of Optoacoustic Data"(이하 "파라메트릭 맵 출원"라고 함)라는 명칭으로 2013년 6월 13일에 출원된 미국 특허 출원 일련번호 제13/507,222호에 기술된 멀티 양상의 광음향 및 초음파 시스템과 같은 영상 시스템의 프로세싱 서브시스템으로 구현된다. 일 실시예에서, 시스템(100)은 본원에서 기술된 바와 같은 적절한 소프트웨어 및 사용자 인터페이스를 포함하는 스탠드어론 시스템이나 일반 목적의 컴퓨터상에서 실행되고, 별도의 또는 멀티 양상의 광음향 및 또는 초음파 시스템을 포함하는 하나 이상의 별도 영상 시스템에 의해 생성된 영상을 프로세싱한다. 후자의 경우, 영상은 영상의 적합한 소스로부터 얻거나 가령, 인터넷이나 저장 매체 및 리더기를 통해 시스템으로 전송되어야한다.
일 실시예에서, 공동-등록 서브시스템(103)은 조직의 볼륨(volume)의 복수의 영상을 얻고 그 영상을 공간적으로 정렬한다. 이러한 영상은 다른 양식보다도 MRI, CT Scan, X-ray, 초음파, 광음향을 포함하나 이에 제한되지 않는 다양한 영상 기술에 의해 생성된 영상을 포함할 수 있다. 일 실시예에서, 도시된 바와 같이, 초음파에 의해 생성된 것과 같은 구조적 영상(structural image)은, 광음향 영상에 의해 생성된 것과 같은 기능적 영상(functional image)과 공간적으로 정렬된다. 실시예에서, 복수의 광음향 영상 또는 파라메트릭 맵이 공간적으로 정렬된다. 실시예에서, 공동-등록 서브시스템(103)이 요구되지 않는데, 왜냐하면 시스템(100)에 의해 얻은 영상은 이미 공간적으로 정렬되기 때문이다. 실시예에서, 영상의 일부만 공간적으로 정렬된다. 실시예에서, 영상은 알려진 랜드마크(landmark)나 애노테이션(annotation)과 공간적으로 정렬된다. 공동-등록 기술의 좀 더 자세한 설명을 위하여, 파라메트릭 맵 출원이 참조될 수 있다.
실시예에서, 공간적으로 정렬된 영상은 진단 지원 서브시스템(105)에 의해 수신된다. 도시된 바와 같은 실시예에서, 진단 지원 서브시스템(105)은 영상 및 그 밖의 출력을 디스플레이 장치(107)를 통해 관측자에게 제시할 수 있다. 실시예에서, 디스플레이 장치(107)는 동영상 모니터, 스크린, 홀로그래픽 디스플레이, 프린터 또는 2차원 및 3차원 영상을 제시할 수 있는 기술 분야에서 알려진 그 밖의 다른 기술을 포함한다. 실시예에서, 음향, 촉각 또는 기술 분야에서 알려진 그 밖의 다른 출력 방법은 정보를 전달하는데 사용된다. 실시예에서, 동영상은 음향 및 영상 모두를 포함하여 제시될 수 있다. 실시예에서, 진단 지원 서브시스템(105)은 복수의 디스플레이 장치를 통해 정보를 제시할 수 있다.
도시된 바와 같은 실시예에서, 또한, 진단 지원 서브시스템(105)은 입력 장치(109)를 통해 관측자 또는 그 밖의 다른 작업자로부터 분류, 점수 또는 그 밖의 다른 입력을 수신할 수도 있다. 실시예에서, 입력 장치(105)는 마우스, 트랙볼, 터치 스크린 또는 그 밖의 포인팅 장치와 같은 포인팅 장치를 포함한다. 실시예에서, 입력 장치(105)는 키보드, 키 패드 또는 문자 입력을 위한 그 밖의 다른 장치를 포함한다. 실시예에서, 입력 장치(105)는 마이크로폰 또는 그 밖의 오디오 입력 장치를 포함한다. 그 밖의 다른 입력 장치가 사용될 수 있다. 실시예에서, 진단 지원 서브시스템(105)은 복수의 입력 장치로부터 입력을 수신할 수 있다.
실시예에서, 진단 지원 서브시스템(105)은 질병 또는 질환의 진단을 위해 중요한 적어도 하나의 영상의 적어도 하나의 특징을 확인한다. 실시예에서, 작업자는 특징을 확인하기 위해 입력을 제공한다. 예를 들어, 작업자는 구조 또는 그 밖의 중요한 볼륨의 영역에 해당하는 적어도 하나의 영상의 하나 이상의 픽셀을 선택할 수 있다. 본 명세서 전반 및 아래 청구항에서 사용되는 바와 같이, 용어 "해당하는"은 이미지의 요소를 의미하거나, 파라메트릭 맵이 조직의 볼륨 내의 위치 또는 영역에 대한 정보를 공간적으로 나타내거나 제공하고, 이러한 용어는 위치 또는 영역의 평가치 및 근사치를 아우른다. 특징 확인은 조직의 볼륨 내의 병변이나 종양의 확인의 예시를 통해 아래에 추가로 논의된다.
실시예에서, 진단 지원 서브시스템(105)은 적어도 하나의 특징의 정량 분석 또는 정성 분석을 제공한다. 실시예에서, 작업자 또는 그 밖의 사용자도 적어도 하나의 특징의 정성 분석을 제공한다. 실시예에서, 시스템의 분석의 결과는 작업자의 결과물과 비교된다. 작업자는 시스템의 평가 이전 또는 이후에 추가적인 입력도 제공할 수 있다. 예를 들어, 실시예에서, 작업자는 시스템의 특징 확인을 변화, 증가 또는 교정한다. 실시예에서, 작업자는 시스템의 평가를 확증한다. 실시예에서, 시스템은, 추가적인 입력이 수신되기 전에, 작업자에게 추가적인 영상 또는 그 밖의 다른 정보를 디스플레이한다. 예를 들어, 시스템은 볼륨의 추가적인 영상(다른 양상로부터의 영상을 포함함), 애노테이션 강조, 아니면 영상 특징, 특징의 추가적인 분석, 조직의 다른 볼륨에서 제시된 특징의 예시(가령, 영상), 또는 서로 다른 알고리즘, 모델 또는 시스템에 의해 얻은 특징의 평가를 나타낼 수 있다.
실시예에서, 적어도 하나의 특징은 병변을 포함한다. 실시예에서, 적어도 하나의 특징은 병변의 복수의 특징을 포함하는 특징 벡터를 포함한다. 실시예에서, 병변의 내부 영역에 해당하는 영상의 내부존에서 발견된 특징이 평가된다. 실시예에서, 병변의 볼륨 외부의 영역에 해당하는 영상의 외부 또는 외부 존에서 발견된 특징이 평가된다.
실시예에서, 영상은 세 영역 또는 그 이상의 영역으로 세분화된다. 도 3에 도시된 예시에서, 조직의 볼륨의 광음향 영상은 두 개의 경계 곡선을 사용하여 세 영역으로 분할된다. 하얀, "종양의(tumoral)" 경계 곡선은 종양의 내부 영역에 해당하는 영상의 내부존을 형성한다. 실시예에서, 종양의 내부 영역은 종양의 중앙 병소(central nidus)에 의해 형성된다. 실시예에서, 중앙 병소는 초음파에 저반향이고, 내부존은 볼륨의 하나 이상의 초음파 영상에서 확인되는데, 이는 볼륨의 광음향 영상 또는 그 밖의 다른 파라메트릭 맵과 함께 공동-등록될 수 있다.
또한, 도 3은 중앙 변소에 인접한 종양의 페리종양의 영역의 주변부에 해당하는 푸른색 "페리종양의(peritumoral)" 경계 곡선도 포함한다. 실시예에서, 종양과 페리종양의 경계 곡선 사이의 영상의 일부를 "경계존(boundary zone)"이라 한다. 실시예에서, 하나 이상의 경계존이 존재하고, 볼륨 외부의 영역에 해당하나 종양의 중앙 변소에 인접할 수 있다. 경계존은 종양의 경계 곡선의 각각의 가장자리에 인접하게 존재하지 않을 수 있다. 실시예에서, 페리종양의 경계 곡선은, 별도의 경계존이 존재하지 않는 종양의 경계 곡선과 오버랩된다.
실시예에서, 페리종양 및 종양의 경계 곡선이 사용되어 볼륨의 적어도 세 영역에 해당하는 영상의 적어도 세 개의 존을 형성하는데, (1) 내부존은 종양의 내부에 해당하고, (2) 경계존은 종양에 인접한 볼륨의 페리종양의 영역에 해당하며, (3) 주변 존은 종양의 종양 및 페리종양의 영역 모두의 외부의 볼륨의 영역에 해당한다. 특징 벡터는 이들 하나 이상의 존으로부터의 특징을 포함한다. 이러한 특징은, 예를 들어, 병변의 내부 혈관질, 병변의 내부 탈산소, 병변의 페리 종양의 경계 혈관질, 병변의 페리종양의 탈산소, 내부 탈산소홍조, 내부 전체 혈액, 외부 페리종양의 방사 혈관(radiating vessel), 병변의 다른 가능한 특징 중에 하나 이상의 방해 인공 산물의 존재를 포함할 수 있으나, 이에 제한되지 않는다. 아래에 추가 논의되는 바와 같이, 실시예에서, 이들 및 다른 특징이 나타나서, 초음파 영상, 광음향 영상, 파라메트릭 맵 또는 그 밖에 조직의 볼륨의 공간적 표현에 대해 평가될 수 있다.
실시예에서, 진단 지원 서브시스템(105)은 볼륨의 하나 이상의 영상 또는 맵을 분석하여, 병변의 적어도 하나의 특징을 평가한다. 실시예에서, 진단 지원 서브시스템(105)은 특징의 그 평가에 기초하여 정량값 또는 정성값을 발전시킨다. 실시예에서, 평가된 특징은 볼륨과 관련된 특징 벡터의 부분이다. 실시예에서, 특징의 평가는 훈련되거나 아니면, 알려진 특징 등급에 의해 특징에 점수매기는 것을 포함한다.
실시예에서, 진단 지원 서브시스템(105)은 볼륨 내의 병변을 확인하도록 구성되어서 병변의 작업자 및 컴퓨터 분류를 얻고, 분류들을 비교하고, 컴퓨터 분류와 작업자 분류가 다르다는 진단 지원을 제공한다. 실시예에서, 진단 지원은 심지어 컴퓨터 및 작업자가 동일한 분류에 도달하게 제공된다.
실시예에서, 병변의 컴퓨터 분류는 병변과 관련된 볼륨의 특징의 벡터의 평가에 기초한다. 실시예에서, 진단 지원 서브시스템(105)은 특징 벡터 내의 볼륨의 복수의 특징을 평가하기 위한 프로세스를 통해 사용자를 안내한다. 실시예에서, 진단 지원 서브시스템(105)은 병렬인 각각의 특징에 대한 정보를 제시한다(가령, 디스플레이 장치(107)의 서로 다른 부분을 사용하여). 예시적인 사용자 인터페이스는 도 6에 제공된다. 실시예에서, 진단 지원 서브시스템(105)은 직렬인 각각의 특징에 대한 정보를 제시한다. 예를 들어, 실시예에서, 진단 지원 서브시스템(105)은 디스플레이 장치(107)가 볼륨의 영상의 일부를 강조하거나 애노테이트하는데, 진단 지원 서브시스템(105)은 볼륨 내의 각각의 특징을 평가하는데 사용된다. 진단 지원 서브시스템(105)은 특징 또는 그 밖의 입력의 사용자의 평가를 요청할 수 있다.
사용자는 서브시스템(105)의 애노테이팅(annotating)을 사용하여, 각각의 특징에 대한 사용자의 고유 결정에 도달할 수 있다. 실시예에서, 서브시스템(105)은, 사용자의 평가가 서브시스템(105)의 특징의 평가와 다르거나 실질적으로 다를 때, 사용자의 평가에 응답하여 이러한 애노테이션을 디스플레이한다. 실시예에서, 사용자 입력은 영상의 존의 교정치를 포함할 수 있는데, 진단 지원 서브시스템(105)은 특징 벡터 내의 하나 이상의 특징을 평가하는데 사용된다. 실시예에서, 예를 들어, 사용자는, 병변의 주변부를 형성하는데 사용되는 경계 곡선 중 하나를 교정 또는 증가시킬 수 있어서, 진단 지원 서브시스템(105)은 교정된 주변부에 기초하여 병변의 하나 이상의 특징을 재평가한다.
실시예에서, 진단 지원 서브시스템(105)은 하나 이상의 특징의 그 자체 평가를 디스플레이 장치(107)를 통해 사용자에게 디스플레이 아니면 제시한다. 실시예에서, 진단 지원 서브시스템(105)은 평가를 생성하기 위해 분석된 영상 또는 맵의 특징을 디스플레이 또는 강조한다. 실시예에서, 진단 지원 서브시스템(105)은 사용자로부터의 입력에 응답하여 사용자에게 이 정보를 제시한다. 실시예에서, 사용자는, 진단 지원 서브시스템(105)이 그 평가를 제시하기 전 또는 그 이후에 입력 장치(109)를 통해 특징의 사용자의 자체 평가를 입력한다. 실시예에서, 서브시스템(105)은, 사용자의 평가가 서브시스템(105)의 평가와 상이하거나, 실질적으로 상이할 대, 그 평가를 디스플레이한다.
실시예에서, 진단 지원 서브시스템(105)은, 특징을 평가하는데 사용자에게 도움이될 수 있는 다른 정보도 디스플레이할 수 있다. 예를 들어, 서브시스템(105)은 (조직의 볼륨 또는 다른 볼륨 내의) 동일한 특징을 평가하는데 이전에 사용된 내용 전문가(subject matter expert) 또는 다른 액터(actor)에 영상을 디스플레이할 수 있다. 실시예에서, 서브시스템(105)은 특징의 서브시스템(105)의 평가와 유사한 평가를 생성하는 영상을 디스플레이할 수 있다. 실시예에서, 서브시스템(105)은 특징의 사용자의 평가와 유사한 평가를 생성하는 영상을 디스플레이할 수 있다. 실시예에서, 서브시스템(105)은 특징과 관련된 사용자로부터 입력을 요청한다. 예를 들어, 실시예에서, 서브시스템(105)은 사용자가 특징의 서브시스템(105)의 평가를 확증 또는 변화하도록 묻는다.
실시예에서, 진단 지원 서브시스템(105)은 서브시스템(105) 및/또는 사용자의 벡터에서의 특징의 평가에 기초하여, 병변에 대한 특징 벡터를 계산한다. 실시예에서, 서브시스템(105)의 계산 결과는 사용자에게 제시된다. 실시예에서, 결과는 병변의 제안된 분류를 포함한다. 실시예에서, 사용자는, 서브시스템(105)이 그 분류를 제시하기 전 또는 이후에 병변의 사용자의 자체 분류를 입력한다. 실시예에서, 사용자는 병변의 서브시스템(105)의 분류를 확증 또는 수정하는 기회가 주어진다. 병변의 사용자의 분류가 서브시스템(105)의 분류와 상이하거나 실질적으로 상이하면, 서브시스템(105)은 추가적인 정보를 제시하거나, 및/또는 추가적인 사용자 입력을 요청할 수 있다. 실시예에서, 서브시스템(105)은 이러한 추가적인 정보를 제시하거나, 특징의 서브시스템의 분류를 변화시킬 작업자의 특징 등급과 서브시스템의 특징 등급간의 차이의 이러한 추가적인 사용자 입력을 요청한다.
영상 획득
도 2로 되돌아오면, 진단 벡터 분류 지원 방법(200)의 실시예가 일반적으로 도시된다. 203에서, 영상은 파라메트릭 맵 출원에 기술된 것과 같은 멀티 양상의 광음향 및 초음파 시스템과 같은, 이러한 영상의 소스로부터 얻는다. 실시예에서, 영상 데이터는 하나의 영상을 포함할 수 있다. 실시예에서, 영상 데이터는 복수의 영상을 포함할 수 있다. 본원에서 도시된 대부분의 예시는 2차원 영상 또는 맵이나, 본원에서 논의된 시스템 및 방법은 조직의 볼륨의 3차원 또는 그 이상의 차원의 표현에 적용될 수 있다.
영상 데이터가 복수의 영상으로 구성된 실시예에서는, 복수의 영상이 공동-등록되는 것이 편리하다. 실시예에서, 영상 데이터는 조직의 볼륨의 방사선 정보를 포함한다. 실시예에서, 영상 데이터의 영상은 볼륨 내의 가시적인 기능 또는 형태적 구성을 그린다(이들은 각 영상의 양상에 의해 도시될 수 있음). 실시예에서, 영상 데이터는 도 4에 일반적으로 반사된 6개의 영상을 포함한다.
도 4는 6 개의 공동-등록된 2차원 영상을 도시하는데, 초음파(410)("초음파")로부터 유도된 영상 정보를 포함하는 것과, 광음향 영상으로부터 유도된 영상 정보 및 광(420)의 더 긴 우세 파장에 응답한 대표("긴 파장 영상")을 포함하는 것과, 광음향 영상으로부터 유도된 영상 정보 및 광(430)의 더 짧은 우세 파장에 응답한 대표("짧은 파장 영상")을 포함하는 것과, 광음향 영상으로부터 유도된 영상 정보를 포함하는 세 개의 멀티 양상의 영상, 전체 헤모글로빈(440)의 파라메트릭하게 반사되는 것("전체 헤모글로빈 맵"), 탈산소 헤모글로빈(450)의 파라메트릭하게 반사되는 것("상대 광음향 맵") 및 전체 헤모글로빈(460)의 파라메트릭하게 반사된 영상(440)을 사용하여 마스크된 탈산소 헤모글로빈(450)의 파라메트릭하게 반사된 것("결합된 광음향 맵")이다. 6개의 영상 타입의 좀 더 자세한 설명을 위해, 파라메트릭 맵 출원을 참조할 수 있다.
병변의 확인/영상 세분화
실시예에서, 205에서, 병변 또는 종양은 203에서 얻은 영상 데이터에서 확인된다. 영상 내에서 병변을 확인하는 프로세스는 분류를 위해 얻은 영상의 타입에 따라 달라질 수 있다. 실시예에서, 일반적으로 말하여, 목적은 가능한 정확하게 병변의 둘레 및 가능하면 병변의 주변을 정의하는 것이다. 병변 둘레의 적절한 확인은 결과가 병변에 내부 혹은 외부인지를 결정하는데 도움을 준다. 실시예에서, 초음파와 같은 형태적 영상은 조직의 볼륨 내의 구조에 해당하는 특징을 확인하는데 사용된다. 이러한 특징은 형태적 영상을 세분화하는데 사용될 수 있다. 실시예에서, 이러한 세분화는 동일한 볼륨의 공동-등록된 공간적 표현에 적용된다.
실시예에서, 영상(들)은 둘 이상의 영역 또는 존으로 세분화된다. 실시예에서, 세분화는 병변의 윤곽을 보여주거나, 아니면 경계를 확인하는 것과 관련된다. 실시예에서, 초음파 영상에서의 병변(가령, 종래의 초음파 영상(410))이 세분화될 수 있다. 실시예에서, 광음향 영상에서의 병변이 세분화될 수 있다(가령, 영상(420, 430, 440, 450, 460)). 일반적으로, 영상은 세분화될 수 있는 충분한 정보를 포함할 필요가 있다.
실시예에서, 세분화는 훈련된 작업자, 가령, 방사선 전문의에 의해 행해진다. 실시예에서, 영상 또는 영상의 부분은 컴퓨터 스크린상에 디스플레이되고, 훈련된 작업자는, 영상에 존재하는 데이터에 의지하여, 디스플레이상의 병변의 경계를 (가령, 마우스 또는 그 밖의 포인팅 장치를 조작하거나 그려서 경계상 또는 그 근처의 적어도 하나의 포인트를 선택함에 의하여) 조심스럽게 세분화한다. 실시예에서, 복수의, 공동-등록된 영상은 세분화를 위한 정보의 소스로서 사용될 수 있고, 훈련된 작업자는 가령, 복수의 영상 및/도는 양상으로부터의 데이터에 의지하여 세분화를 결정할 수 있다. 실시예에서, 제1 경계가 확인된다. 실시예에서, 제1 경계는 도 3을 참조하여 기술된 바와 같은 종양의 경계이다.
도 5는 도 4에 도시된 동일한 영상을 도시하나, 도 5에 도시된 영상의 각각은 종양의 경계를 나타내는 하얀색 곡선을 포함한다. 경계선은 점, 점선 또는 그 밖의 애노테이션에 의해 표현될 수도 있다. 작업자는 가령, 초음파 영상(410)에서 확인된 종양의 경계를 가질 수 있는 반면, 진단 벡터 분류 지원 시스템은 본원에서 도시되는 바와 같이, 그 밖의 영상(가령, 영상(420, 430, 440, 450, 460))에서의 종양의 경계를 디스플레이할 수 있다는 것을 유의한다. 실시예에서, 작업자는 병변의 경계를 조심스럽게 확인하기보다는 병변의 대략적인 근사치(가령, 정사각형, 직사각형, 원형, 삼각형, 불완전한 세트의 점 또는 프리핸드 스케치)를 제공할 수 있다. 작업자가, 아래에 좀 더 자세히 기술되는 바와 같이, 이러한 대략적인 세분화를 제공하고, 병변의 경계는 진단 벡터 분류 지원 시스템에서 실행되는 세분화 기술의 사용을 통해 좀 더 정확하게 평가될 수 있다. 실시예에서, 진단 벡터 분류 지원 시스템이 사용자의 근사치를 정제하거나, 조절하거나 아니면 변화시키면, 사용자는 작업자의 경계의 최종 선택을 남기면서, 진단 벡터 분류 지원 시스템의 결과를 추가로 정제하거나, 조절하거나 아니면 변화시킬 수 있다.
실시예에서, 제2 경계는 제1 경계 외부에서 확인된다. 도 5에 도시된 실시예에서, 푸른색 곡선은 도시된 영상에서 페리종양의 경계를 근사화하는 각각의 영상에서도 나타난다. 제1 경계의 확인과 관련하여 상기에서 논의된 기술은 제2 경계의 확인에서도 적용될 수 있다. 상기와 같이, 제2 경계 곡선이 영상의 하나에서만 확인될 수 있지만(가령, 초음파), 진단 벡터 분류 지원 시스템은 복수의 영상에서 제2 경계를 디스플레이할 수 있다. 실시예에서, 제2 경계 곡선은 그 자체와 제1 경계 곡선 사이의 병변의 주변 영역을 정의하는데 사용된다. 제1 경계와 함께, 실시예에서, 제2 경계는 작업자에 의해 그려지거나 아니면 확인될 수 있고, 또는 일반적으로(가령, 대략적으로) 컴퓨터 실행되는 세분화 기술의 사용에 의해 좀 더 정확하게 확인 및 만들어질 수 있다. 실시예에서, 제2 경계는 컴퓨터화된 프로세스에 의해 자동적으로 확인된다. 실시예에서, 제2 경계는 제1 경계와 관련하여 정의된다. 실시예에서, 제2 경계는 제1 경계의 수직 외부 방향으로 떨어져 고정된다. 경계상에 주어진 점에서 제1 경계의 수직 외부 방향은 주어진 점에서 제1 경계의 탄젠트 벡터에 수직이어서, 대부분의 상황에서, 수직 외부 방향은 제1 경계에 의해 감싸진 영역의 내부 영역으로부터 벗어날(point away) 것이다.
실시예에서, 제1 경계와 함께, 진단 벡터 분류 지원 시스템 그 자체가 제2 경계를 확인하거나, 또는 제2 경계의 사용자의 확인을 정제하거나, 조절하거나, 아니면 변화시킨다면, 사용자는 작업자의 제2 경계의 최종 확인을 남기면서, 진단 벡터 분류 지원 시스템의 결과를 추가로 정제하거나, 조절하거나 아니면 변화시킬 수 있다.
실시예에서, 종양의 경계 내부의 영역은 내부 영역(즉, 내부존)이라고 하고, 종양의 경계 외부이나 페리종양의 경계의 내부인 영역은 페리종양의 존 또는 경계존이다. 페리종양의 경계의 외부의 영역은 주변 영역이라고 한다.
도 3으로 되돌아오면, 영상은 세 개의 존으로 세분화되었다. 하얀색 "종양" 곡선은 영상을 표현된 종양의 내부 또는 중앙 병소에 해당하는 내부존으로, 표현된 종양의 중앙 병소의 외부에 표현된 볼륨의 영역에 해당하는 외부 영역으로 세분화한다. 푸른색 "페리종양" 곡선은 외부(또는 바깥쪽) 존을 경계(또는 페리종양의) 존과 주변 존으로 세분화한다. 실시예에서, 경계존은 종양의 중앙 병소에 인접하지만 외부에 표현된 볼륨의 일부에 해당한다. 실시예에서, 경계존은 두께가 다르며, 종양의 일부 표면을 따라 없을 수 있다. 실시예에서, 페리종양의 경계 곡선은 볼륨의 초음파 영상에서 확인될 수 있는 두꺼운 높은 에코의 할로(hyperechoic halo)에 해당한다. 실시예에서, 주변 존은 종양의 중앙 병소과 경계존 모두의 외부의 볼륨의 일부에 해당한다. 실시예에서, 주변 존은 종양에 대하여 수직 외부 방향으로 경계존 보다 중앙 병소로부터 더 떨어져 있다. 도 3에 도시된 영상에서, 두꺼운 노란색 선은 주변 존 내의 특징을 애노테이트한다.
실시예에서, 특징은 표현된 볼륨의 다양한 영역에 해당하는 얻어진 영상의 다양한 존 내에서 평가된다. 실시예에서, 특징이 존 내에 부분적으로 포함되면, 특정 존내에 있는 것으로 간주된다. 그래서, 예를 들어, 실시예에서, 경계존 특징은 경계존으로부터 주변 존으로 확장될 수 있다. 또는, 조직의 볼륨의 주변 영역에 있는 것으로 간주되는 구조물은 볼륨의 페리종양의 영역으로 확장될 수 있다.
실시예에서, 경계존은 적어도 세 가지 이유로, 종양의 분류와 관련된 정보의 중요한 소스로 간주된다. (1) 종양이 성장하여 둘러싼 조직에 침입하고, (2) 호스트 응답은 종양이 퍼지는 것을 막도록 시도하며, (3) 암 세포는 어떤 호스트 셀(피브로블라스트(fibroblast)와 매크로파지)이 암 세포를 전환되어서, 암이 성장하도록 도울 수 있다. 또한, 경계존은 종양에 혈액과 산소를 제공하고 종양으로부터 폐기물을 제거하는 피딩 동맥과 드레이닝 정맥을 방사하는 특징을 가질 수 있다. 때때로, 이들 혈관은 기생 자연 혈관(parasitized native vessel)이고, 때때로, 이들은 네오 혈관(neo vessel)이다.
실시예에서, 경계존은 매우 복잡하고, 급증하고 칩입하는 종양 셀, 종양 네오 혈관의 풍부한 네트워크(이들 대부분은 종양의 표면에 대해 거의 90도 각도로 향함)(이들 네오혈관은 때때로 경계존 "위스커"라고도 함), 종양 관련된 콜라주 타입 3 섬유(이는 종양의 표면에 대해 수직으로 향함), 매크로파지와 관련된 종양, 종양을 제어하기 위해 보내진 자연 림프구, 비정상 종양 혈관으로부터 흐르는 데스모플라지아(desmoplasia) - 종양 주위에 벽을 형성하기 위해 호스트에 의해 만들어진 섬유 조직 - 와, 비정상 종양 혈관으로부터 흐르는 부종(edema) 또는 비정상 종양 혈관으로부터 단백질 찌꺼기(proteinaceous debris) 를 포함하는 외관으로 많은 원인 제공자를 가질 수 있다. 얇은 경계 또는 캡슐 존은 양성 병변에 해당할 수 있으나, 두꺼운 에코제닉 할로(echogenic halo)에 의해 표시된 두꺼운 경계존은 침투성 병변에 해당할 수 있다.
침입하는 암의 대부분의 경우에서, 훈련된 기술자는 초음파 영상의 경계존을 확인할 수 있는데, 왜냐하면, 중앙 저반향 병소와 둘러싼 정상 조직으로부터의 에코발생에서 상이하기 때문이다. 에코발생은 조직의 의학 특성으로 생각될 수 있다. 공동-등록된 광음향 영상의 특징은 일부 경우에 경계존을 확인하는데 도움을 줄 수 있다. 예를 들어, 일부 광음향 영상은 양성 영역과 비교될 때, 악성 병변의 경계존(또는 캡슐 존)에서 차이점을 나타낸다. 악성 병변은 "경계존 위스커"라고 하는 짧고 수직으로 배향된 종양 네오혈관을 가지는 경향이 있는 반면, 양성 병변은 경계존 또는 캡슐 혈관의 완전한 부재를 나타내거나 종양 또는 대부분의 악성 혈관의 좀 더 수직 배향되기 보다는 캡슐의 표면에 평행하게 배향된 길고 곡선의 혈관을 가지는 경향이 있다. 캡슐 혈관은 중앙 병소에 포함되거나 중앙 병소의 외부 가장자리에 인접하는 경향이 있다. 경계존 혈관은 좀 더 짧고 좀 더 수직으로 배향되는 경향이 있다. 일부 경우에, 캡슐 혈관은 중앙 병소의 약 1 내지 3 mm 이내 일 수 있다. 다른 경우에, 캡슐 혈관은 중앙 병소로부터 더 떨어져서 나타날 수 있다. 말초 혈관은 경계존으로부터 더 멀리 나타날 수 있다. 말초 혈관은 일반적으로 중앙 병소와 접촉하지 않고, 경계존과 접촉하거나 하지 않을 수 있다. 말초 혈관은 중앙 병소로부터 중앙 병소의 표면과 대략 수직 방향으로 방사한다. 가능한 경계존 위스커의 예시는 도 5에서 오렌지색으로 애노테이트 된다. 가능한 방사 혈관의 예시는 도 5에서 노란색으로 애노테이트 된다.
실시예에서, 도 5에 도시된 바와 같이, 두 개의 폐쇄된 경계 곡선이 계산되거나, 아니면 영상의 존을 완전히 형성하여 얻어진다. 이러한 경우에, 경계존은 외부 경계에 의해 정의된 존에서 내부 경계에 의해 정의된 존을 차감하여 정의될 수 있다. 실시예에서, 얻어진 제1 및 제2 경계는 병변의 내부와 주변부의 일부만을 정의할 수 있다. 예를 들어, 실시예에서, 제1 및 제2 경계는 병변의 윗 부분 - 다시 말해, 센서에 더 가까운 병변의 부분을 정의한다. 전체 병변이 각각의 영상에 나타나지 않거나, 또는 병변의 특정 깊이 아래에도 가능한 정보의 감소 때문에 경계를 확인하기에 불충분한 세부 사항이 발견되는, 그러한 실시예가 필요할 수 있다.
실시예에서, 하나는 개방되고 하나는 폐쇄된 경계 곡선을 얻을 수 있다. 실시예에서, 개방된 경계 곡선은 그 종점을 연결하여 폐쇄될 수 있다. 실시예에서, 폐쇄된 곡선은 도 3에 도시된 바와 같이, 종양 경계를 나타내고, 다양한 방법이 개방된 경계 곡선을 종양 경계에 연결하는데 사용될 수 있다. 예를 들어, 실시예에서, 영상 컨텍스트(image context)는 개방된 경계 곡선에서 종양 경계까지 곡선을 연결하여 그리는데 사용된다. 실시예에서, 선을 연결하는 것은 경계 곡선의 각 종점에서 종양 경계 곡선상의 가장 가까운 점까지 그리는 것이다. 실시예에서, 선을 연결하는 것은 수직 각도로 종양 경계 곡선을 교차하는 경계 곡선의 각 종점을 그리는 것이다. 종양 경계 곡선 상의 복수의 점은 이들 기준을 충족하고, 점을 연결하는 것은 종점으로부터 가장 가깝거나 가장 먼 점, 종양의 중심에서 가장 가깝거나 가장 먼 점, 종양의 표면에 가장 수직인 선을 연결하여 생성된 점을 포함하는 다양한 방법에서 선택될 수 있다.
또 다른 실시예에서, 두 개의 개방된 경계 곡선을 얻을 수 있다. 실시예에서, 두 개의 개방된 경계 곡선을 얻는데, 종양 경계 곡선은 그 종점을 연결하거나, 기술 분야에 알려진 또 다른 기술에 의해 폐쇄될 수 있고, 상기 논의된 하나 이상의 기술이 적용될 수 있다. 실시예에서, 페리종양의 경계 곡선의 각 종점에 대해, 선은 종양 경계 곡선의 가장 가까운 종점까지 그려진다. 실시예에서, 영상 컨텍스트는 점을 연결하는 것을 선택하는데 사용될 수 있다. 기술 분야에서 알려진 다른 기술이 적용될 수 있다. 실시예에서, 제1 연결선은 상기 논의된 하나 이상의 기술을 사용하여 그려지고, 그리고 나서, 영상 컨텍스트는 곡선을 연결할 수 있는 직선 연결선을 교정하는데 사용된다.
영상 데이터를 디스플레이
실시예에서, 207에서, 영상 데이터는 분석 및 입력을 위해 작업자에게 디스플레이된다. 실시예에서, 상기 논의된 바와 같이, 영상 데이터는 세분화를 위해 디스플레이될 수 있다. 실시예에서, 영상 데이터는 디스플레이되거나, 곡선, 점선, 강조 또는 영상을 세분화하는데 사용되는 하나 이상의 경계를 나타내는 그 밖의 애노테이션으로 세분화한 후에 재디스플레이된다. 실시예에서, 작업자는 입력 장치(109)를 통해 이 때 하나 이상의 경계 곡선을 조절할 수 있다.
실시예에서, 영상 데이터는 디스플레이 장치(107)와 같은 디스플레이 장치에 의해 디스플레이된다. 실시예에서, 영상 데이터는 상기 논의된 바와 같이, 복수의 공동-등록된 볼륨의 영상을 포함할 수 있다. 실시예에서, 동일하거나 다른 조직의 볼륨으로부터의 특징 표현의 예시는 비교를 위해 디스플레이된다. 실시예에서, 동일한 환자의 이전 영상으로부터의 특징은 진행 또는 추세 분석을 위해 디스플레이된다. 예를 들어, 동일한 환자의 이전 영상은 종양 분류, 성장, 혈관질, 전체 혈액 및 그 밖의 특징을 포함하여, 암과 같은 질병의 진행을 추적하기 위해 디스플레이될 수 있다. 실시예에서, 다양한 등급 또는 점수를 나타내는 특징의 규범적인 예시가 도시된다. 실시예에서, 영상 데이터는 도 6에 도시된 것과 같이, 그래픽 사용자 인터페이스를 통해 디스플레이된다. 실시예에서, 아래에 추가로 논의되는 바와 같이, 영상 데이터는 평가, 재평가 및 종양 분류 및/또는 영상 특징과 관련된 작업자 입력을 위해 디스플레이된다.
병변 분류
실시예에서, 영상 세분화(205)가 완성되면, 분류는 컴퓨터-생성된 분류(211), 작업자 분류(221) 또는 둘 모두에 의해 발생할 수 있다. 실시예에서, 영상 데이터는, 컴퓨터 분류/등급 매기기가 발생(211)하기 전에 작업자(207)에게 디스플레이되지 않아야 한다.
실시예에서, 내부, 주변 및 외부 결과물은 병변을 분류하는데 사용될 수 있다. 실시예에서, 병변의 내부 영역 및 주변 영역은 병변을 분류하는데 사용될 수 있다. 실시예에서, 복수의 특징은 순위 척도(ordinal scale)와 같은 척도(scale)를 사용하여 등급 매길 수 있다. 실시예에서, 별도로 등급 매겨지는 특징으로부터 형성된 벡터는 유사 분류 또는 진단에 해당한다. 실시예에서, 복수의 가능한 특징 벡터는 단일 분류를 제안할 수 있다.
실시예에서, 분류는 광음향 영상의 6개의 특정한 특징 또는 순위 척도상의 다른 파라메트릭 맵을 평가함에 의해 행해지는데, 다시 말해,
1) 내부 혈관질 및 탈산소화,
2) 페리종양의 경계존 혈관질 및 탈산소화,
3) 내부 탈산소화된 홍조,
4) 내부 전체 혈액,
5) 외부 페리종양의 방사 혈관, 및
6) 방해 인공 산물이다.
실시예에서, 6개의 특정한 특징은 0-5의 순위 척도로 등급이 매겨진다. 실시예에서, 하나 이상의 특징은 0-6의 순위 척도로 등급 매겨진다. 이들 특징 점수의 구체적인 벡터는 구체적인 병변 분류와 관련 있도록 도시되었다. 실시예에서, 특징 등급은 합산되어서, 전체 내부 점수, 전체 외부 점수, 및/또는 전체 전반적인 점수를 획득한다. 실시예에서, 양-변의 정확한 Jonckheere-Terpstra 테스트가 사용되어서, 증가하는 점수(내부, 외부, 전체)와 더 높은 암 등급간의 관계도를 테스트한다.
실시예에서, 상기 확인된 6개의 특정한 특징의 하나 이상에 더하여, 또는 그 대신에, 내부, 페리종양 및 주변부를 포함하나 이에 제한되지 않는 다른 특징이 등급 매겨질 수 있다. 이는,
a) 혈관질;
b) 혈관질의 밀도;
c) 산소화;
d) 스페클;
e) 홍조;
f) 헤모글로빈의 양;
g) 혈액의 양;
h) 탈산소된 혈액에 대한 산소화된 혈액의 비율;
i) 혈액 산소 포화도;
j) 전체 혈액 축적; 및
k) 방해 인공 산물의 양이다.
페리종양 및 주변 영역에서, 다음을 포함하나 이에 제한되지 않는 추가적인 특징이 평가될 수 있다. 이는,
1) 종양 네오혈관의 양;
m) 종양의 표면에 실질적으로 평행하여 배향된 혈관의 양;
n) 종양의 표면에 실질적으로 수직으로 배향된 혈관의 양;
o) 혈관의 길이; 및
p) 혈관의 직진성이다.
다음을 포함하나 이에 제한되지 않는 추가적인 페리종양의 특징이 평가될 수 있다. 이는,
q) 급증하는 종양 세포의 양;
r) 침입하는 종양 세포의 양;
s) 매크로파지와 관련된 종양의 양;
t) 종양에 의해 영향받은 자연 세포의 양;
u) 림프구의 양;
v) 데스모플라지아의 양;
w) 부종의 양;
x) 단백질 찌꺼기의 양;
y) 경계존의 두께; 및
z) 종양의 표면에 실질적으로 수직으로 배향된 콜라지 타입 3 섬유와 관련된 종양의 양이다.
다음을 포함하나 이에 제한되지 않는 추가적인 주변 특징이 평가될 수 있다. 이는,
aa) 발산하는 동맥의 양; 및
bb) 발산하는 정맥의 양이다.
실시예에서, 상기 확인된 특징의 일부 또는 전부의 등급 매기기에 추가로, 분자 표시자가 등급 매겨진다.
작업자 특징 등급
실시예에서, 221에서, 작업자, 일반적으로 방사선 전문의는 병변과 관련된 영상 데이터가 제시되고, 병변과 관련된 하나 이상의 특징에 대한 점수를 입력하도록 한다. 실시예에서, 사용자에게 제시된 영상 데이터는 하나의 영상을 포함한다. 실시예에서, 영상 데이터는 복수의 영상을 포함할 수 있다. 영상 데이터가 복수의 영상으로 구성된 실시예에서, 복수의 영상은 공동-등록되는 것이 편리하다. 실시예에서, 영상 데이터는 조직의 볼륨의 방사선 전문의 정보를 포함한다. 실시예에서, 영상 데이터의 영상은 가시적인 기능 또는 볼륨 내의 형태적인 구조물을 도시한다(이들이 각 영상의 양상에 의해 도시되는 것이 가능함). 실시예에서, 영상 데이터는 도 4에 일반적으로 반영된 바와 같이 6개의 영상을 포함한다. 실시예에서, 영상 데이터는 경계 곡선 및/또는 도 3 및 5에 도시된 바와 같이, 볼륨의 하나 이상의 영상에 중첩된 그 밖의 애노테이션을 포함한다.
실시예에서, 작업자는 도 6에 반영된 인터페이스와 같은 그래픽 사용자 인터페이스("GUI")가 제시된다. 실시예에서, GUI는 특징 등급매기기 위한 인터페이스를 포함한다. 도 6에 도시된 실시예에서, 특징 등급매기기 위한 인터페이스는 GUI의 아래쪽 부분을 따라 나타나고, 사용자가 병변과 관련된 6개의 특징의 각각에 대해 등급을 입력할수 있게 한다(추가 또는 더 적은 특징에 대한 등급이 요청될 수 있음). 실시예에서, 작업자는 인터페이스를 통해 병변의 하나 이상의 특징의 등급에 대한 입력을 제공할 수 있다. 실시예에서, 작업자는 0-5의 척도(다른 척도도 사용될 수 있음)에 대한 하나 이상의 특징에 대한 서열 등급을 선택 또는 입력한다. 실시예에서, 시스템은, 시스템 및/또는 또 다른 사용자에 의해 이전에 수행된 분석에 기초한 하나 이상의 제안된 특징 등급이 작업자에게 제시한다. 실시예에서, 작업자는 제안된 특징 등급을 확증 또는 수정할 수 있다. 실시예에서, 사용자의 입력의 초점을 변경하기 위해, 작업자는 구체적인 특징을 위한 입력을 수신하도록 하는 스크린의 영역상에 클릭하거나, 작업자는 특징 입력 사이를 두드릴 수 있다.
실시예에서, 영상 데이터와 더불어, 작업자는 구체적인 특징에 대한 하나 이상의 등급을 도시한 예시적인 영상도 제시된다. 도 6에 도시된 실시예에서, 예시적인 영상은 GUI의 오른쪽 부분을 따라 나타나고, 0 내지 5의 서열 등급을 나타낸다. 실시예에서, 예시적인 영상은 특징에 대한 가능한 등급을 나타내는 병변을 도시한다. 예시는 현재 환자 또는 다른 대상으로부터 이전에 수집된 영상 데이터를 포함할 수 있다. 실시예에서, 예시는 영상, 내용 전문가 또는 그 밖의 이전에 사용된 사용자를 포함하여, 동일한 특징(조직의 이러한 볼륨 또는 그 밖의 다른 볼륨 내의)을 평가한다. 실시예에서, 시스템은 특징에 대한 시스템의 계산된 등급과 매칭 또는 유사한 점수를 생산한 영상을 디스플레이한다. 실시예에서, 시스템은 특징에 대한 작업자의 입력된 등급과 매칭 또는 유사한 점수를 생산한 영상을 디스플레이한다. 실시예에서, 예시는 특징 등급의 이상형의 제시를 나타내는 도면을 포함한다. 실시예에서, 예시는 등급매겨질 특징과 관련된 부분과 같은 병변의 부분만을 도시한다. 예를 들어, 내부 탈산소화된 홍조에 대해, 예시는 예시적인 병변의 내부인 영역을 도시한다. 또는 예시는 홍조를 나타내는 내부 영역의 부분만을 도시할 수 있다. 실시예에서, 시스템이 현재 등급을 찾는 구체적인 특징에 의존하여 예시가 도시된다(즉, 특징이 현재의 초점에 있음). 실시예에서, 작업자는 클릭에 의해, 아니면, 도시된 예시의 것을 선택함에 의해 초점 내의 현재 특징의 등급을 표시할 수 있다. 실시예에서, 작업자가 두드리거나, 아니면 등급매기기 위해 다른 특징을 선택하여, 도시된 예시가 변경된다. 실시예에서, 동일한 예시적인 영상이 사용되나, 애노테이션(가령, 강조)이 추가되어 초점내에 현재의 특징과 관련된 정보를 강조한다.
실시예에서, 작업자는 영상 데이터의 해석을 위한 가이드라인을 적용한다. 실시예에서, 이러한 가이드라인은 도 7-12를 참조하여 아래 추가적으로 예시화되는 바와 같이, 예시 또는 참조 영상에 기초할 수 있다. 본원에서 논의되는 참조 영상 및 가이드라인은 설명적인 예시이다. 다른 타입의 영상, 가이드라인 및 특징이 사용될 수 있다.
도 7은 결합된 광음향 맵에 대한 내부 혈관질 등급 0-5에 대한 참조 영상을 도시한다. 설명적인 실시예에서, 등급 0은 내부 혈관이 없는 것이 특징이고, 등급 1은 단지 하나의 붉은 혈관(탈산소화된 헤모글로빈을 운반하는 혈관을 나타냄)이 있는 윗 쪽의 두 개의 내부 혈관이 특징이며, 등급 2는 가지가 있고, 모든 또는 대부분의 가지는 초록색인 윗 쪽의 내부 혈관(산소화된 헤모글로빈을 운반하는 혈관을 나타냄)이 특징이고, 등급 3은 내부의 초록색의 양을 가진 내부의 스페클 및 외부의 스페클의 양과 실질적으로 동일하거나 그 보다 적은 붉은 스페클이 특징이고, 등급 4는 내부의 초록 스페클의 양보다 더 많은 내부의 붉은 스페클의 양을 가지고, 내부의 붉은 스페클의 양은 외부의 붉은 스페클의 양보다 더 많은 중간의 내부 스페클이 특징이며, 등급 5는 복수의 내부의 붉은 혈관이 특징이다.
도 8은 상대 광음향 맵에 대한 내부 홍조 등급 0-5에 대한 참조 영상을 도시한다. 설명적인 실시예에서, 등급 0은 내부 혈관이 없는 것이 특징이고, 등급 1은 전부 초록색인 최소의 내부 스페클이 특징이며, 등급 2는 초록 및 붉은 스페클이 외부 스페클의 양과 실질적으로 동일하고, 붉은색과 초록색의 내부 스페클이 함께 외부 스페킬의 양과 동일하거나 그 보다 적은 옅은 내부 스페클이 특징이고, 등급 3은 내부 초록 스페클의 양보다 더 많은 내부 붉은 스페클의 양을 가진 옅은 내부 스페클과 외부 스페클의 양과 동일하거나 그 보다 적은 붉은색 및 초록색 내부 스페클이 특징이고, 등급 4는 내부 초록 스페클의 양보다 더 많은 내부 붉은 스페클의 양을 가지고, 내부 붉은 스페클의 양은 외부 붉은 스페클의 양보다 더 많은 중간 내부 스페클이 특징이고, 등급 5는 내부존을 거의 채운 내부 붉은 홍조가 특징이다.
도 9는 전체 헤모글로빈 맵에 대한 내부 헤모글로빈 등급 0-5에 대한 참조 영상을 도시한다. 설명적인 실시예에서, 등급 0은 내부 혈관이 없는 것이 특징이고, 등급 1은 외부 헤모글로빈과 동일하거나 그보다 적은 최소 내부 헤모글로빈이 특징이며, 등급 2는 외부 혈관질과 실질적으로 동일한 내부 혈관질을 가진 내부 별개의 혈관의 최소의 수가 특징이고, 등급 3은 외부 혈관질과 실질적으로 동일한 내부 혈관질을 가진 내부 별개의 혈관의 중간 수가 특징이며, 등급 4는 외부 혈관질보다 더 많은 내부 혈관질을 가진 많은 수의 내부 혈관이 특징이고, 등급 5는 내부존을 거의 채운 많은 수의 이종혈관(heterogeneous vessel)이 특징이다.
도 10은 다양한 광음향 맵에 도시된 캡슐형/경계존 혈관 등급 0-6에 대한 참조 영상을 도시한다. 설명적인 실시예에서, 등급 0은 캡슐형 혈관(종양의 표면에 평행하게 배향된 혈관)이 없는 것이 특징이고, 등급 1은 적어도 초록 혈관을 가진 두 개까지의 캡슐형 혈관이 특징이며, 등급 2는 정상 테이퍼링, 정확하게 각이 진 브랜치 및 대부분 초록색인 두 개까지의 캡슐형 혈관이 특징이고, 등급 3은 외부 스페클의 양과 동일하거나 그보다 적은 붉은색과 초록색의 경계존 스페클 및 실질적으로 동일한 초록색 및 붉은 스페클을 가진 경계존 스페클이 특징이며, 등급 4는 외부 붉은 스페클의 양보다 큰 경계존 붉은 스페클의 양 및 초록색 스페클의 양보다 큰 붉은 스페클의 양을 가진 경계존 스페클이 특징이고, 등급 5는 세 개 이상의 붉은 경계존 혈관이 특징이며, 등급 6은 경계존 홍조가 특징이다.
도 11은 다양한 광음향 맵에 도시된 말초 혈관 등급 0-5에 대한 참조 영상을 도시한다. 설명적인 실시예에서, 등급 0은 페리종양의 혈관이 없는 것이 특징이고, 등급 1은 적어도 초록 혈관을 가진 두 개까지의 페리종양의 혈관이 특징이며, 등급 2는 불규칙 배향(병변의 표면에 수직으로 방사하지 않음)을 가진 두 개 이상의 페리종양의 혈관이 특징이고, 등급 3은 하나 또는 두 개의 방사하는 페리종양의 혈관이 특징이며, 등급 4는 병변의 일측의 두 개 이상의 방사 혈관이 특징이고, 등급 5는 병변의 일측 이상의 두 개 이상의 방사 혈관이 특징이다.
도 12는 상대 광음향 맵에 도시된 방해 인공 산물 등급 0-5에 대한 참조 영상을 도시한다. 설명적인 실시예에서, 등급 0은 현저한 인공 산물이 없는 것이 특징이고, 등급 1은 등급 매기기를 방해하지 않는 최소의 인공 산물이 특징이며, 등급 2는 등급 매기기를 방해하지 않는 중간의 인공 산물이 특징이고, 등급 3은 등급 매기기를 방해하는 중간 인공 산물이 특징이며, 등급 4는 등급 매기기를 방해하는 심각한 인공 산물이 특징이고, 등급 5는 영상을 해석불가하게 하는 심각한 인공 산물이 특징이다.
실시예에서, 사용자에게 제시된 영상 데이터 또는 예시적인 영상은 사용자로부터 수신된 입력에 기초하여 수정된다. 실시예에서, 사용자에게 제시된 영상 데이터는 초점에서 현재의 특징에 기초하여 수정 또는 애노테이트된다. 예를 들어, 시스템에 의해 확인된 방해 인공 산물은 강조될 수 있고, 또는 페리종양의 경계에서 검출된 방사 혈관은 애노테이트될 수 있다.
작업자 병변 분류
실시예에서, 작업자는 병변 분류를 위한 인터페이스로 제시된다. 실시예에서, 221에서, 작업자, 일반적으로 방사선 전문의는 영상 데이터로 제시되고, 분류를 입력하도록 한다. 실시예에서, 작업자는, 선택된 분류를 위한 문자 또는 축약어를 입력함에 병변의 분류를 입력한다. 실시예에서, 작업자는 드롭-다운 메뉴로부터 분류를 선택한다. 그 밖의 다른 데이터 입력 방법이 기술 분야에 알려져 있고, 사용될 수 있다. 실시예에서, 시스템은 작업자에 의해 입력된 복수의 특징 등급에 기초하여 병변의 하나 이상의 가능한 분류를 제시한다. 실시예에서, 시스템은 시스템 및/또는 또 다른 사용자에 의해 이전에 수행된 분석에 기초하여 병변의 하나 이상의 가능한 분류를 제시한다. 실시예에서, 작업자는 시스템에 의해 제안된 병변 분류를 선택, 확증 또는 수정할 수 있다.
자동화된 병변 분류
실시예에서, 211에서, 진단 벡터 분류 및 지원 시스템은, 등급 매겨질 수 있는 하나 이상의 복수의 특징에 대한 예상되는 값을 결정할 수 있다. 실시예에서, 진단 벡터 분류 및 지원 시스템은 상기 확인된 6개의 구체적인 특징에 대한 예상되는 값을 결정할 수 있다. 여러 가지 다양한 접근법을 취할 수 있다. 실시예에서, 영상 프로세싱 또는 그 밖의 기술이 사용되어, 상기 논의된 작업자 분류 및 등급 매기기 기술의 일부 또는 전부를 모방한다. 실시예에서, 이러한 기술은 서로 다른 수단에 의해 동일하거나 유사한 결과에 도달하려고 적용된다. 실시예에서, 이러한 기술은 서로 다른 목적을 향해 적용된다. 상기 논의된 기술은 설명적인 예시이다. 다른 타입의 기술이 사용될 수 있다.
실시예에서, 헤모글로빈-유사 파라메트릭 영상 및 산소화-유사 파라메트릭 영상이 사용된다. 이러한 영상은 이 섹션에서 프로세스된 영상이라고 한다. 프로세스된 영상은, 특징 검출 이전에, 하나 이상의 적절한 필터에 의해 필터링될 수 있다. 실시예에서, 하나의 적합한 필터는 평탄 필터이다. 실시예에서, 하나의 적합한 필터는 모양 검출 필터인데, 검출될 모양이 픽셀에 대해 중심이될 때, 필터는 그 픽셀에 대해 고강도를 초래하고, 아닌 경우에는, 필터링된 영상에서 생성된 강도는 낮다. 실시예에서, 모양 검출 필터가 최적화되어 혈관을 검출한다. 실시예에서, 모양 필터는 (가령, 라인 또는 혈관의 각도와 같은) 방향성일 수 있고, 또는 추가적으로 방향성 정보를 포함할 수 있다. 페리종양의 영역에서 주변 영역으로 방사하는 방사 혈관은 페리종양의 경계를 통과할 수 있고, 제2 경계에 접하기보다는 좀 더 수직인 경향이 있고, 방향성 필터는 이러한 질환을 검출하는데 사용될 수 있다. 실시예에서, 하나보다 많은 모양 필터가 사용될 수 있다.
혈관질은 프로세스된 헤모글로빈 영상으로부터 결정될 수 있다. 산소화 또는 탈산소화는 프로세스된 산소화 영상으로부터 결정될 수 있다. 따라서, 혈관질과 관련된 특징은 프로세스된 헤모글로빈 영상으로부터 발견될 수 있다. 산소화와 관련된 특징은 프로세스된 산소화 영상으로부터 발견될 수 있다. 마지막으로, 전체 헤모글로빈을 파라메트릭하게 반영하는 영상(가령, 영상(460))을 사용하여 마스크된 탈산소화된 헤모글로빈을 파라메트릭하게 반영하는 결합된 영상이, 프로세스된 산소화 영상 대신에 또는 추가로 사용되어서, 혈관의 산소화와 관련된 특징 등급을 예측할 수 있다.
세분화된 병변에 대한 특징의 존재를 정량화하는데 사용되는 메트릭스(metrics)를 결정하기 위하여, 내부, 주변 및 주변과 인접한 외부 영역이 사용될 수 있다.
실시예에서, 내부 탈산소화된 홍조는 내부 영역에서의 탈산소화를 반영하는 픽셀의 양을 결정함에 의해 측정된다. 실시예에서, 탈산소화된 홍조 등급은, 전체 또는 가중화도니 전체에서 스레숄드 너머 탈산소화를 반영하는 픽셀의 수를 계산한 결과로서 결정될 수 있다. 실시예에서, 탈산소화된 홍조 등급은 탈산소화, 또는 스레숄드 너머선 탈 산소화를 반영하는 내부 영역의 픽셀의 전체 수의 비율(가령, 퍼센티지)의 결과로서 결정될 수 있다.
파라메트릭 영상 또는 파라메트릭 영상 오버레이는 칼라를 사용하여 파라미터를 도시할 수 있다. 실시예에서, 파라메트릭 영상 오버레이(영상(460)에 도시됨)는 붉은색을 사용하여, 하나의 기능적 결정, 즉, 탈산소화된 헤모글로빈의 농도를 포함하는 영역을 표시할 수 있고, 초록색을 사용하여 서로 다른 기능적 결정, 즉, 산소화된 헤모글로빈의 농도를 포함하는 영역을 표시할 수 있다. 실시예에서, 붉은색 픽셀의 수와 초록색 픽셀의 수가, 가령, 내부 탈산소화된 홍조를 등급 매기기와 같이, 병변 분류에서 사용될 수 있다. 예를 들어, 실시예에서, 내부 붉은 픽셀 및 내부 초록 픽셀의 수의 가중화된 버전(각각의 픽셀이 얼마나 붉은색이고, 얼마나 초록색인지에 대한 정보를 포함함)이 사용되어, 전체 내부 붉음(스레숄드보다 더 많이 붉은 픽셀의 가중화된 합산), 전체 내부 초록(스레숄드보다 더 많이 붉은 픽셀의 가중화된 합산), 및/또는 전체 내부 메트릭(모든 픽셀의 가중화된 합산, 초록색 양성 가중화(positive weight) 및 붉은색 음성 가중화(negative weight))을 생성할 수 있다. 내부 초록 픽셀에 대한 내부 붉은 픽셀의 비율 또는 전체 초록에 대한 전체 붉음의 비율은 내부 탈산소화된 홍조를 등급 매기는데 사용될 수 있다.
페리종양의 경계존 혈관질 및 탈산소화는 페리종양의 영역에서의 유사한 기능을 수행함에 의해 계산될 수 있다.
실시예에서, 다른 분자 표시자(헤모글로빈 및 산소화를 능가하는)가 사용될 수 있다. 실시예에서, 다른 분자 표시자는 서로 다른 또는 추가적인 지배적인 파장을 사용하여 결정되어 광음향 영상을 야기하는 자극된 응답을 생성할 수 있다.
상기 기술된 기술은, 결정된 산소화 및/또는 헤모글로빈(및/또는 다른 분자)을 기반으로 결정된 절대 콘트라스트 또는 (아래에서 논의된 바와 같이 상대적 콘트라스트)에 적용될 수 있다. 실시예에서, 관심 영역이 콘트라스트를 개선하기 위해 사용될 수 있다. 병변 근처 혹은 병변 위에 위치된 관심 영역을 사용하는 것("Statistical Mapping in an Optoacoustic Imagin System"이라는 명칭으로 2013년 3월 11일에 출원된 미국 특허 출원 번호 13/793,808에 일반적으로 기술되는 바와 같이)은, 내부, 주변 및 외부의 파라메트릭 영상 데이터의 전자채색이 전자채색에 의존하는 상기 기술의 적용에 대해 좀 더 적합해질 수 있다. 따라서, 상기 특징짓기 기술(characterization techniques)은 조직의 통계적 특성에 기초하여 상대적 콘트라스트에 적용될 수 있다. 상대적 콘트라스트가 사용될 때, 상기 기술된 바와 같은 가중화는 기준 레벨과 관련하여 결정될 수 있다. 실시예에서, 기준 레벨은 제로의 가중화에 해당할 수 있다. 실시예에서, 일(+1)과 마이너스-일(-1)의 가중화는 기준 레벨의 위 및 아래의 값에 해당할 수 있다. 실시예에서, 단일 가중화 크기(+1 또는 -1)에 해당하는 영상 진폭은 고정될 수 있고, 또는 조직의 통계적 특성(가령, 관심 영역의 표준 편차의 비율)에 기초할 수 있다. 예시적인 실시예에서, +1은 K 표준 편차와 동일한 기준 레벨보다 적은 영상 강도를 가진 픽셀에 해당한다. 실시예에서, 기준 레벨은 관심 영역의 수단일 수 있다.
패턴 분류 필터가 사용될 수 있다. 실시예에서, 영상은 2D 웨이블릿 패킷 도메인과 같은 패턴 분류 도메인으로 전환된다. 패턴 분류 도메인의 공간 계수가 이러한 필터에서 특징의 존재를 언제 나타내는지를 표시하는 선험적인 지식은 알고리즘의 훈련 단계에 의해 학습될 수 있다. 실시예에서, 이러한 기술은 지원 벡터 기계(SVM) 또는 분류기를 생성하기 위한 패턴 클러스터를 찾기 위한 그 밖의 유사한 방법 또는 그러한 기술을 사용한다. 따라서, 영상 내의 이러한 특징의 존재는 픽셀당 기반의 공간적으로 정량화될 수 있고, 영상 세그먼트의 형성된 경계 내에서 이처럼 정량화된 측정치의 발생을 카운팅하기 위한 방법은 영상의 존 내의 특징을 평가하는데 사용될 수 있다.
스트리킹(streaking)과 같은 인공 산물은, 이러한 인공 산물이 가령, 혈관을 모방함에 따라, 혈관의 결정을 방해한다. 실시예에서, 필터가 사용되어, 스트리킹 인공 산물을 억제하거나 이러한 인공 산물을 필터로 제거한다. 실시예에서, 검출된 이러한 인공 산물의 양은 필터에 의해 정량화될 수 있고, 상기 기술된 기술에서의 기준으로 사용될 수 있다. 실시예에서, 반복적인 재구성 프로세싱은 스트리킹 인공 산물을 제거하는데 사용될 수 있다. 영상에서 인공 산물을 제거하기 위한 그 밖의 다른 많은 기술은 기술 분야에 알려져 있고, 기술 분야의 당업자에 의하여 적용될 수 있다.
따라서, 실시예에서, 6개의 특징을 계산하기 위하여, 하나 이상의 상기 기술된 기술이 사용될 수 있다.
1) 내부 혈관질 및 탈산소화: 점수는 제1 경계 내의 헤모글로빈 영상내에서 검출된 혈관에 기초하고, 어떻게 탈산소화된 이들 혈관이 산소화 영상으로부터 왔는지에 기초한다. 실시예에서, 결합된 영상(가령, 도 4의 460)이 사용될 수 있다. 실시예에서, 혈관 검출기가 사용될 수 있다. 실시예에서, 혈관질은 헤모글로빈의 양으로부터 추론될 수 있다. 실시예에서, 점수는 결합된 영상에서 초록색에 대한 붉은색의 비율과 관련된다.
2) 페리종양의 경계존 혈관질 및 탈산소화: 점수는 페리종양의 경계(즉, 제1 경계와 제2 경계 사이) 내의 헤모글로빈 영상내에서 검출된 혈관에 기초하고, 어떻게 산소화된 이들 혈관이 산소화 영상으로부터 왔는지에 기초한다. 실시예에서, 결합된 영상(가령, 도 4의 460)이 사용될 수 있다. 실시예에서, 혈관 검출기가 사용될 수 있다. 실시예에서, 혈관질은 헤모글로빈의 양으로부터 추론될 수 있다. 실시예에서, 점수는 결합된 영상에서 초록색에 대한 붉은색의 비율과 관련된다.
3) 내부 탈산소화된 홍조: 점수는 상기 기술된 바와 같이, 산소화 영상으로부터의 내부 영역에 대해 결정된다. 실시예에서, 점수는 프로세스된 산소화 맵(가령, 도 4의 450)의 붉은 픽셀의 퍼센티지와 관련된다.
4) 내부 전체 혈액: 점수(score)는 상기 기술된 바와 같이, 내부 영역에서 헤모글로빈 영상 강도로부터 또는 혈관 검출된 영상으로부터 결정된다. 실시예에서, 점수는 프로세스된 헤모글로빈 맵(가령, 도 4의 440)을 사용하여 스레숄드를 초과하는 내부 픽셀의 퍼센티지와 관련된다.
5) 외부 페리종양의 방사 혈관: 점수는 페리종양의 경계상에서 검출된 방사 혈관으로부터 결정된다. 실시예에서, 점수는 외부 경계에 인접한 방향성 필터링된 헤모글로빈 영상의 합과 관련되고, 경계와 거의 수직 방향인 이러한 혈관은 높게 점수되고, 다른 특징은 억제된다.
6) 방해 인공 산물: 점수는 상기 기술된 바와 같이 결정된다. 실시예에서, 인공 산물은 점수 이전에 제거되어서, 방해 인공 산물 점수는 영이다.
실시예에서, 상기 특징의 각각은 0-5 순위 척도로 점수 매겨진다. 실시예에서, 캡슐형/경계존 혈관의 존재는 0-6 순위 척도로 점수 매겨진다. 실시예에서, 순위 척도에 대한 특징은, 질환 성명을 포함하는 복잡한 로직(가령, "만일")과 관련되어서, 어떤 상황에서 순위 척도에 대한 순위를 기술할 수 있고, 상기 기술된 바와 같이 하나 이상의 이러한 메트릭을 사용할 수 있다.
실시예에서, 분류 벡터는 각각의 특징의 점수에 의해 형성된다. 분류 벡터는 병변에 대한 분류의 예상에 해당한다. 실시예에서, 분류 벡터는 특징에 대한 컴퓨터 점수를 샘플의 개체수에 대한 조직학적 데이터와 비교함에 의해, 실험적으로 결정된다. 이러한 실험적 방법을 사용하여, 개체수에 대한 요약을 표현하는 분류 벡터는 새로운 분류로 업데이트될 수 있고, 조직학적인 정보가 사용가능하다.
진단 지원
실시예에서, 231에서, 사용자로부터 수신된 분류는 시스템에 의해 계산된 분류와 비교된다. 실시예에서, 분류가 달라지거나 스레숄드 정도로 상이하다면, 진단 지원이 사용자에게 235에서 제공된다. 실시예에서, 작업자 및 컴퓨터-생성된 분류가 동일하거나 스레숄드 정도만큼 상이하다면, 작업자 특징 분류는 241에서 출력된다. 실시예에서, 작업자 및 컴퓨터-생성된 분류가 이미 동일하면, 진단 지원은 균일하게 제공된다.
실시예에서, 231에서, 사용자로부터 수신된 특징 등급은 시스템에 의해 계산된 특징 등급과도 비교될 수 있다. 특징 등급이 달라지거나 스레숄드 정도로 상이하다면, 진단 지원이 사용자에게 235에서 제공된다. 실시예에서, 작업자 및 컴퓨터-생성된 등급이 이미 동일하면, 진단 지원이 균일하게 제공된다. 실시예에서, 작업자 및 컴퓨터-생성된 등급이 동일하거나 스레숄드 정도만큼 상이하다면, 작업자 특징 등급은 241에서 출력된다. 실시예에서, 작업자 및 컴퓨터-생성된 특징 등급간의 차이는 종양의 결과적인 분류에 영향을 미치지 않을 것이고, 진단 지원이 지원되지 않고, 방법은 241로 진행된다.
이하에 추가로 논의되는 바와 같이, 진단 지원(235)은 사용자에게 추가 정보를 제시하는 것, 사용자로부터 추가 입력을 하도록 하는 것 또는 그 둘 모두를 포함할 수 있다. 실시예에서, 사용자가 특정 정보에 초점을 맞추기 위해 사용자에게 정보를 덜 제시할 수 있다.
실시예에서, 사용자로부터 수신된 분류 또는 특징 등급이 시스템에 의해 계산된 분류 또는 특징 등급과 다르거나 실질적으로 다르면, 시스템은 추가적인 영상 데이터, 예시적인 영상 또는 다른 정보를 작업자에게 제시한다. 예를 들어, 실시예에서, 시스템은 시스템의 분류 또는 등급에 기초하여 형성된 정보를 강조하기 위해 디스플레이된 영상 데이터를 강조 또는 아니면 애노테이트한다. 실시예에서, 시스템은 영상 데이터의 서브세트나 일부를 디스플레이하여, 시스템의 분류 또는 등급에 기초하여 형성된 정보에 작업자가 초점을 맞추도록 한다. 실시예에서, 시스템은 추가적인 영상을 작업자에게 디스플레이한다. 예를 들어, 실시예에서, 시스템은 상기 논의된 바와 같은 예시적인 영상을 디스플레이한다. 실시예에서, 시스템은 추가적인 영상 데이터를 작업자에게 디스플레이한다.
실시예에서, 사용자로부터 수신된 분류 또는 특징 등급이 시스템에 의해 계산된 분류 또는 특징 등급과 다르거나 실질적으로 다르면, 시스템은 작업자로부터 추가적인 입력을 하도록 요구한다. 이러한 요구는 작업자에게 추가적인 정보의 제시 이전, 이후, 동안 또는 대신에 발생할 수 있다. 예를 들어, 실시예에서, 작업자는 병변의 하나 이상의 특징을 등급매기거나 재등급매기도록 요청된다. 실시예에서, 작업자는 특징의 작업자의 등급에 기초하여 형성된 영상의 일부를 선택하도록 요청된다. 실시예에서, 작업자는 영상의 제1 또는 제2 경계 곡선 및/또는 세분화의 확증, 수정 또는 증가하도록 요청된다. 실시예에서, 작업자는, 작업자의 분류 또는 특징 등급이 시스템에 의해 계산된 것과 다르다는 것과 무관하게 이러한 추가 정보를 제공할 수 있다. 실시예에서, 시스템은, 작업자의 분류 또는 특징 등급이 시스템에 의해 계산된 것과 다르다는 것과 무관하게 이러한 추가 정보를 요청할 수 있다. 실시예에서, 작업자는 시스템이 정보를 요청한 것과 무관하게 이러한 추가 정보를 제공할 수 있다.
실시예에서, 시스템은, 작업자에 의해 제공된 임의의 추가 정보, 가령, 수정된 경계, 영상 세분화 또는 특징 등급에 기초한, 하나 이상의 병변의 특징 및/또는 병변의 그 분류를 재평가할 수 있다. 그리고 나서, 시스템은 추가적인 영상 데이터를 다시 디스플레이하거나 작업자로부터 추가적인 입력을 요청할 수 있다.
실시예에서, 작업자는 진단 지원(235) 동안에, 작업자의 분류 또는 특징 등급을 확증할 수 있다. 실시예에서, 재확증은 본 방법이 241에서, 확증된 결론을 되돌림에 의해 종결하게 한다. 실시예에서, 시스템은 본 방법이 확증된 값으로 종결하기 전에, 둘 이상의 확증 또는 재확증을 요구한다.
실시예에서, 작업자는 진단 지원(235) 동안에, 작업자의 분류 또는 특징 등급을 수정하고, 본 방법은 231로 되돌아가서, 수정된 분류 또는 특징 등급을 시스템에 의해 계산된 분류 또는 특징 등급과 비교한다. 수정된 작업 분류 또는 특징 등급이 계산된 분류 또는 특징 등급과 이제야 매칭되거나 실질적으로 매칭되면, 본 방법은 241에서, 수정된 작업자 분류 또는 특징 등급으로 되돌아가서 종료한다.
실시예에서, 작업자는 하나 이상의 계산된 분류 또는 특징 등급을 확증하는데, 이는 231에서 긍정적인 비교를 하게 하고, 241에서, 확증된 분류 또는 특징 등급의 되돌아가서 종료하게 한다.
연구
추가 설명적인 실시예가 광음향(OA), 유방 종괴(breast mass)의 구조적 및 기능적 특징을 동시에 평가하기 위한 진단 초음파와 공동-등록되는 듀얼 에너지 레이저 기술을 참조하여 아래 기술된다. OA는 주입되는 시약을 요하지 않고, 방사선을 사용하지 않는다. 광음향 장치 및 그 특징의 설명은 파라메트릭 맵 출원에서 발견할 수 있다.
연구는, 유방 종괴를 음성 또는 양성으로 분류하기 위하여 OA 특징을 어떻게 사용하는지에 대한 새로운 방법과 시스템과 관련하여 시행되었다. 실시예에서, 6개의 특정 OA 특징은 0-5 순위 척도를 사용하여 평가되었다.
1) 내부 혈관질 및 탈산소화,
2) 페리-종양의 경계존 혈관질 및 탈산소화,
3) 내부 탈산소화된 홍조,
4) 내부 전체 혈액,
5) 외부 페리-종양의 방사 혈관, 및
6) 방해 인공 산물.
분석은 로지스틱 회귀분석(LR), 지원 벡터 머신(SVM), 분류 트리(CT), 랜덤 포리스트(RF) 및 K-니어리스트 네이버(KNM)을 사용하여 수행되었다. 10배의 크로스 밸리데이션(cross validation)이 사용되었는데, 66개의 경우는 10개의 그룹으로 랜덤하게 나누어졌다. 각각의 그룹은 66개의 관측으로부터 차례로 제거되었고, 분류기는 분류 규칙을 발전하기 위해 남은 그룹에 훈련되었다. 그리고 나서, 이러한 규칙은 제거된 그룹에 적용되었다. 그 관측을 사용하여 이전에 개발되지 않았던 분류기에 의해 모든 관측이 할당될 때까지, 이것은 10번 반복되었다.
결과
각 방법에 의한 민감도 및 특수성 평가는 아래 표에서 요약된다. KNM 및 SVM이 최고로 수행되는 반면, LR은 최악으로 수행되었으나, 결과는 모든 5개의 분석에 대해 일관성있고 유리하였다. 민감도는 95% 내지 100%의 범위이고, 특수성은 52% 내지 79%의 범위이다. 결과물은 OA 영상에 대한 바이옵시-스페어링(biopsy-sparing) 가능성을 지원한다.
Figure pct00001
데이터는 OA 영상을 사용하는 유방 종괴의 새로운 분석 방법은 진단 설정에서 임상적으로 의미 있는 민감도 및 특수성을 달성할 수 있다는 것을 암시한다.
요약
분석은 특징의 세트를 생성하는데, 상기 특징은 데이터(IDC 및 FA만이 검사됨)를 세 개의 클러스터로 무리짓는데, 클러스터 #1은 FA, 클러스터 #2는 ICD-GR1이며, 클러스터 #3은IDC-GR2, IDC-GR3(및 적은 수의 ILC-GR2)이다. 일반적으로, 이는 Dr. Stavros에 의해 제안된 바와 같은 규칙과 일관성이 있다. 이러한 보고는 그 분석을 추가로 공식화하거나, 규칙 세트의 사용으로 이해도를 좀 더 제공할 수 있다.
방법
특징이 선택되고 순위 매겨졌다(값 1 에서 5까지). 사용된 순위 기준은 도 13에 도시되었다. 분석은 FA 및 IDC-GR1, IDC-GR2 및 IDC-GR3 환자에 행해져서, 무슨 기준이 두 클래스를 구별하는데 중요한지를 결정하였다. 매틀랩 아노바 분석 툴(matlab anova analysis tool)이 사용되었다. 본 결과는 비격식 형식으로 제시된다.
데이터
등급이 포함된 데이터는 서브세트 80명의 환자에 포함된다. 80명의 환자 중에, 아직 등급화되지 않은 13명이 있었다(불완전). 80명 중에, 28명의 FA, 3명의 ILC 및 48명의 IDC가 있었다. 51명의 음성 및 29명의 양성이 있었다. 음성에 대해, 11명의 GR1, 18명의 GR2 및 22명의 GR3가 있었다. 타당서 연구에 직면한 병변의 그 밖의 다른 타입으로부터의 데이터는 이러한 분석에 입력을 위한 스프레드시트상에 아직 등급화되지 않아서, 분석되지 않았다.
관측
도 14는 특징의 산포도를 도시한다. 각각의 점은 환자를 나타낸다. 붉은 점은 양성 환자이다. 양성 환자는 영상의 왼쪽 하단으로 무리 짓는다. x-축은 특징 벡터 c2에 기초한 점수를 나타낸다. y-축은 특징 벡터 c1에 기초한 점수를 나타낸다. 각각의 특징 벡터는 특징의 결합을 나타내는데, 가중화는 ANOVA 분석에 의해 솔브되었다. 특징 벡터 c1 및 c2는 도 15에 도시되었다. 도 2b에서, 이상치의 환자 ID가 도시된다.
도 15로부터, 특징 벡터 c2는 환자가 주로 다음 것, 즉 낮은 내부 vv, 낮은 경계 vv, 낮은 내부 홍조, 낮은 내부 혈액 및 적은 양의 서라운드 vv를 가능하게 하는 것을 주로 포함하는지를 검출한다. 이들 특징의 결합이 주로 존재하며, c2 점수는 진단이 FA와 IDC 중에 선택할 때, IDC-GR3가 아닐 것이라는 점을 나타낼 것이다. 특징 벡터 c2는 ANOVA 분석으로부터 결정된 두 번째로 좋은 예측자였다. 그러나, 특징 벡터 c2는 x-축상의 양성으로부터 떨어져서 IDC-GR1을 무리 짓게 할 수 있다.
도 15로부터도, 특징 벡터 c1(가장 높은 예측자)는 환자가 임의의 내부 홍조(내부 홍조는 그래프에서 가장 높이 가중화됨), 현저한 서라운드 vv, 및 많은 양의 내부 혈액을 주로 포함하는지를 검출한다. 특징 벡터 c1에 대한 낮은 점수로, IDC-GR1 및 IDC-GR2 및 ILC-GR2는 FA 및 IDC-GR1(y-축) 모두의 카테고리로부터 분리될 수 있다.
결론
분석은 특징의 세트를 생성하는데, 상기 특징은 데이터(IDC와 FA 사이에서 선택할 때)를 세 개의 클러스터로 무리짓는데, 클러스터 #1은 FA, 클러스터 #2는 ICD-GR1이며, 클러스터 #3은IDC-GR2, IDC-GR3 및 ILC-GR2이다. 일반적으로, 이는 Dr. Stavros에 의해 제안된 바와 같은 규칙과 일관성이 있다. 무료 정보는 이러한 분석에서 생성될 수 있다.
c1 및 c2에 나열된 특징은 OA 정보의 진단을 보조하는데 사용될 수 있다.
환자는 주로 다음(c2 벡터)을 포함하는데, 낮은 내부 vv, 낮은 경계 vv, 낮은 내부 홍조, 낮은 내부 혈액 및 적은 양의 서라운드 vv를 가능하게 하는 환자는 다른 클래스로부터 IDC-GR1을 구별하는 클래스로 그룹지어질 수 있다. 임의의 내부 홍조(내부 홍조는 그래프에서 가장 높이 가중화됨), 현저한 서라운드 vv, 및 많은 양의 내부 혈액을 주로 포함하는 환자 영상은 다른 클래스로부터 IDC-GR1을 구별하는 클래스로 그룹지어질 수 있다.
유의점
초음파 특징은 이 분석에서 고려되지 않았다. 많은 경우에, 초음파 특징은 다양한 병변을 구별하기 위해 필요할 수 있고, 어떤 상황하에서 광음향 특징이 적용 가능한지 결정할 수 있다.
기술 분야에서의 당업자는 본 개시물의 방법 및 시스템은 많은 방식으로 실행될 수 있고, 따라서, 이러한 것은 상기 예시적인 실시예와 예시에 의해 제한되지 않는다는 것을 인식할 것이다. 다시 말해, 단일 또는 복수의 구성(또는 서브시스템)으로, 하드웨어와 소프트웨어 또는 펌웨어의 다양한 조합으로, 및 개별 기능으로 수행되는 기능적 요소는 클라이언트 레벨이나 서버 레벨 혹은 두 레벨 모두에서 소프트웨어 애플리케이션에 분포될 수 있다. 이와 관련하여, 본원에서 기술된 다양한 실시예의 임의의 수의 특징은 단일 또는 복수의 실시예로 결합될 수 있고, 그 보다 적거나 더 많은 대안적인 실시예, 본원에서 기술된 모든 특징이 가능하다. 또한, 기능성은 전체 혹은 부분적으로 지금 알려지거나 알려진 방식으로 복수의 구성 중에 분포된다. 따라서, 많은 소프트웨어/하드웨어/펌웨어 조합이 본원에서 기술된 기능, 서브시스템, 특징, 인터페이스 및 선호도를 달성할 수 있다. 게다가, 본 개시물의 범위는 기술된 특징과 기능 및 인터페이스를 수행하기 위해 종래적으로 알려진 방식을 커버함은 물론, 본원에서 기술된 하드웨어 또는 소프트웨어 또는 펌웨어 구성으로 구성될 수 있는 변형예와 수정예는 지금 및 이후에 기술 분야의 당업자가 이해할 것이다.
본 발명에 대한 다양한 수정예와 대안예가 본 발명의 범위와 사상에서 벗어나지 않으면서 기술 분야의 당업자에게 명백해질 것이다. 본 발명이 본원에서 제시된 구체적인 실시예와 예시에 의해 과도하게 제한되려는 의도가 아니고, 이러한 실시예와 예시는 단지 본 발명을 설명하려고 제시되며, 본원에 첨부된 청구항에 의해서만 본 발명의 범위가 제한되려는 의도라는 점을 이해해야 한다. 따라서, 본 발명이 이의 바람직한 실시예를 참조하여 구체적으로 도시되고 기술되지만, 기술 분야의 당업자는 형식과 세부 사항에서 다양한 변경예가 본 발명의 사상과 범위를 벗어나지 않으면서 그 안에서 이루어질 수 있다는 것을 이해할 것이다.

Claims (41)

  1. 저반향 중앙 병소를 가진 종양을 포함하는 조직 체적의 광음향 영상의 하나 이상의 피처의 등급을 매기는 것을 지원하기 위한 방법에 있어서,
    상기 저반향 중앙 병소의 전부 또는 일부 및 페리종양 영역의 전부 또는 일부를 표시하는, 상기 조직 체적의 초음파 영상을 획득하는 단계,
    상기 초음파 영상과 공동등록되고, 상기 저반향 중앙 병소 부분의 전부 또는 일부 및 상기 페리종양 영역의 부분의 전부 또는 일부를 표시하는, 상기 조직 체적의 광음향 영상을 획득하는 단계,
    상기 종양의 상기 저반향 중앙 병소 둘레의 전부 또는 일부를 근사화하는 종양의 경계 곡선을 상기 초음파 영상에서 확인하는 단계,
    상기 초음파 영상에서 페리종양의 경계 곡선을 확인하되, 상기 페리종양의 경계 곡선은 종양의 상기 페리종양 영역 주변부의 전부 또는 일부를 근사화하고, 상기 페리종양 영역 주변부의 외부 부분은 종양의 상기 저반향 중앙 병소의 둘레에서 공간적으로 분리되며, 상기 페리종양의 경계 곡선의 전부 또는 일부는 상기 페리종양 영역의 주변부의 외부 부분의 적어도 부분에 해당하고, 상기 종양의 경계 곡선에서 공간적으로 분리되는, 페리종양의 경계 곡선을 확인하는 단계,
    상기 종양의 경계 곡선과 상기 페리종양의 경계 곡선이 중첩된 상기 광음향 영상의 전부 또는 일부를 디스플레이 상에 표시하는 단계,
    상기 종양의 경계 곡선과 상기 페리종양의 경계 곡선에 기초하여 디스플레이된 영상 내에 경계존을 형성하여, 종양의 페리종양 영역 부분의 일부의 전부 또는 부분에 대응시키는 단계와, 및
    상기 경계존 내에 적어도 부분적으로 포함된 하나 이상의 페리종양의 피처에 대해 작업자 피처 점수를 획득하는 단계,
    상기 경계존 내에 있는 정보에 적어도 부분적으로 기초하여, 하나 이상의 상기 페리종양의 피처에 대한 하나 이상의 컴퓨터-생성된 피처 점수를 컴퓨터에 의해 계산하는 단계,
    상기 작업자 피처 점수가 상기 하나 이상의 컴퓨터-생성된 피처 점수 중 적어도 하나와 상이하면, 상기 작업자로부터 하나 이상의 보충 입력들을 획득하는 단계, 및
    상기 작업자 피처 점수에 기초한 하나 이상의 페리종양의 피처피처에 대한 등급을 결정하는 단계를 포함하는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  2. 제 1 항에 있어서,
    하나 이상의 수정된 종양의 경계 곡선과 수정된 페리종양의 경계 곡선을 상기 작업자로부터 획득하여, 상기 경계존을 변화시키는 단계와, 및
    상기 경계존 내에 있는 정보에 적어도 부분적으로 기초하여, 하나 이상의 페리종양의 피처에 대한 상기 하나 이상의 컴퓨터-생성된 피처 점수를 컴퓨터에 의해 재계산하는 단계를 더 포함하는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  3. 제 1 항에 있어서,
    상기 하나 이상의 보충 입력들의 적어도 하나는 하나 이상의 수정된 종양의 경계 곡선과 수정된 페리종양의 경계 곡선이고, 따라서 상기 경계존을 변화시키고, 상기 방법은,
    상기 경계존 내에 있는 정보에 적어도 부분적으로 기초하여, 상기 하나 이상의 페리종양의 피처에 대한 상기 하나 이상의 컴퓨터-생성된 피처 점수를 컴퓨터에 의해 재계산하는 단계, 및
    상기 작업자 피처 점수가 상기 하나 이상의 컴퓨터-생성된 피처 점수 중 적어도 하나와 상이하면, 상기 작업자로부터 상기 하나 이상의 보충 입력들을 재획득하는 단계를 더 포함하는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  4. 제 1 항에 있어서,
    상기 하나 이상의 보충 입력들 중 적어도 하나는 상기 작업자 피처 점수에 대한 수정치이고, 상기 방법은,
    상기 작업자 피처 점수가 상기 하나 이상의 컴퓨터-생성된 피처 점수 중 적어도 하나와 상이하면, 상기 작업자로부터 상기 하나 이상의 보충 입력들을 재획득하는 단계를 더 포함하는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  5. 제 1 항에 있어서,
    상기 하나 이상의 보충 입력들 중 적어도 하나는 상기 작업자 피처 점수의 확증(confirmation)인, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  6. 제 1 항에 있어서,
    상기 하나 이상의 보충 입력들 중 적어도 하나는 작업자-정의된 피처존이고, 상기 방법은,
    상기 작업자-정의된 피처존 내에 있는 정보에 적어도 부분적으로 기초하여, 상기 하나 이상의 페리종양의 피처에 대한 상기 하나 이상의 컴퓨터-생성된 피처 점수를 컴퓨터에 의해 재계산하는 단계, 및
    상기 작업자 피처 점수가 상기 하나 이상의 컴퓨터-생성된 피처 점수 중 적어도 하나와 상이하면, 상기 작업자로부터 상기 하나 이상의 보충 입력들을 재획득하는 단계를 더 포함하는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  7. 제 3 항에 있어서,
    상기 경계존은 광음향 영상의 검토에 기초하여 변경되는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  8. 제 3 항에 있어서,
    상기 경계존은 초음파 영상의 검초에 기초하여 변경되는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  9. 제 3 항에 있어서,
    상기 경계존은 상기 초음파 영상 및 상기 광음향 영상의 검토에 기초하여 변경되는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  10. 제 1 항에 있어서,
    상기 작업자에게 추가적인 정보를 디스플레이하는 단계를 더 포함하되, 상기 추가적인 정보는,
    a) 다른 조직 체적에서 표시된 하나 이상의 페리종양 피처 중 하나의 하나 이상의 예시,
    b) 상기 체적의 하나 이상의 추가적인 영상,
    c) 상기 하나 이상의 컴퓨터-생성된 피처 점수 중 적어도 하나가 기초하는 상기 디스플레이 영상의 전부 또는 일부를 표시하는, 상기 디스플레이된 영상의 하나 이상의 영역의 강조,
    d) 상기 초음파 영상, 및
    e) 상기 하나 이상의 컴퓨터-생성된 피처 점수의 적어도 하나의 세트로부터 선택된 하나 이상의 출력을 포함하는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  11. 제 1 항에 있어서,
    상기 종양의 경계 곡선에 기초하여 상기 디스플레이된 영상 내에 내부존을 형성하고, 상기 종양의 저반향 중앙 병소 부분의 일부의 적어도 부분을 근사화하는 단계, 및
    상기 내부존 내에 있는 상기 디스플레이된 영상의 전부 또는 일부를 평가하여, 상기 종양의 저반향 중앙 병소 내에 포함된 하나 이상의 내부 피처에 대한 등급을 결정하는 단계를 포함하는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  12. 제 11 항에 있어서,
    하나 이상의 내부 피처 등급과 상기 하나 이상의 페리종양의 피처 등급에 기초하여, 종양의 분류를 확인하는 단계를 더 포함하는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  13. 제 11 항에 있어서,
    상기 내부존과 경계존의 외부에 있는 상기 디스플레이된 영상의 일부를 평가하는 단계를 더 포함하여, 상기 종양의 저반향 중앙 병소의 외부 및 상기 종양의 페리종양의 영역의 적어도 부분적으로 외부의 하나 이상의 주변 피처에 대한 등급을 결정하는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  14. 제 13 항에 있어서,
    상기 하나 이상의 내부 피처 등급, 상기 하나 이상의 페리종양의 피처 등급 및 상기 하나 이상의 주변 피처 등급에 기초하여 상기 종양의 분류를 확인하는 단계를 더 포함하는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  15. 제 1 항에 있어서,
    상기 하나 이상의 페리종양의 피처는,
    a) 혈관질;
    b) 산소화;
    c) 스페클;
    d) 홍조;
    e) 헤모글로빈의 양;
    f) 혈액의 양;
    g) 탈산소된 혈액에 대한 산소화된 혈액의 비율;
    h) 급증하는 종양 세포의 양;
    i) 침입하는 종양 세포의 양;
    j) 매크로파지와 관련된 종양의 양;
    k) 종양에 의해 영향받은 자연 세포의 양;
    1) 림프구의 양;
    m) 데스모플라지아의 양;
    n) 부종의 양;
    o) 단백질 찌꺼기의 양;
    P) 종양 네오혈관의 양;
    q) 종양의 표면에 실질적으로 평행하여 배향된 혈관의 양;
    r) 종양의 표면에 실질적으로 수직으로 배향된 혈관의 양;
    s) 혈관의 길이;
    t) 혈관의 직진성;
    u) 경계존의 두께;
    v) 종양의 표면에 실질적으로 수직으로 배향된 콜라지 타입 3 섬유와 관련된 종양의 양; 및
    w) 방해 인공 산물의 양의 세트로부터 선택되는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  16. 제 1 항에 있어서,
    상기 페리종양의 경계 곡선의 적어도 일부는 상기 종양의 높은 에코의 할로에 대응하는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  17. 제 11 항에 있어서,
    상기 하나 이상의 내부 피처는,
    a) 혈관질;
    b) 산소화;
    c) 스페클;
    d) 홍조;
    e) 헤모글로빈의 양;
    f) 혈액의 양;
    g) 탈산소된 혈액에 대한 산소화된 혈액의 비율; 및
    h) 방해 인공 산물의 양의 세트로부터 선택되는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  18. 제 13 항에 있어서,
    상기 하나 이상의 주변 피처는,
    a) 혈관질;
    b) 산소화;
    c) 스페클;
    d) 홍조;
    e) 헤모글로빈의 양;
    f) 혈액의 양;
    g) 탈산소된 혈액에 대한 산소화된 혈액의 비율; 및
    h) 발산하는 동맥의 양;
    i) 발산하는 정맥의 양;
    j) 종양 네오혈관의 양;
    k) 종양의 표면에 실질적으로 평행하여 배향된 혈관의 양;
    1) 종양의 표면에 실질적으로 수직으로 배향된 혈관의 양;
    m) 혈관의 길이;
    n) 혈관의 직진성; 및
    o) 방해 인공 산물의 양의 세트로부터 선택되는, 광음향 영상 피처의 등급을 매기는 것을 지원하기 위한 방법.
  19. 중앙 변소 및 상기 중앙 변소에 인접한 페리종양의 영역을 가진 종양을 평가하기 위한 방법에 있어서,
    상기 종양을 포함하는 조직 체적의 전부 또는 일부의 광음향 영상을 디스플레이 상에 표시하는 단계,
    상기 종양의 페리종양의 영역의 전부 또는 일부를 근사화하는 상기 광음향 영상의 경계존을 디스플레이상에서 확인하는 단계,
    상기 경계존 내에 적어도 부분적으로 포함된 하나 이상의 페리종양의 피처에 대한 피처 점수를 작업자로부터 획득하는 단계와,
    상기 하나 이상의 페리종양의 피처에 대한, 상기 경계존 내에 있는 정보에 적어도 부분적으로 기초하는 하나 이상의 컴퓨터-생성된 피처 점수를 컴퓨터에 의해 계산하는 단계,
    작업자 피처 점수가 상기 하나 이상의 컴퓨터-생성된 피처 점수 중 적어도 하나와 상이하면, 상기 작업자로부터 하나 이상의 보충 입력들을 획득하는 단계, 및
    상기 작업자 피처 점수에 기초한 상기 하나 이상의 페리종양의 피처에 대한 등급을 결정하는 단계를 포함하는, 종양 평가 방법.
  20. 제 19 항에 있어서,
    수정된 경계존을 작업자로부터 획득하는 단계와, 및
    상기 하나 이상의 페리종양 피처에 대한 하나 이상의 컴퓨터-생성된 피처 점수를 컴퓨터에 의해 재계산하는 단계를 추가로 포함하고,
    상기 하나 이상의 컴퓨터-생성된 피처 점수는 상기 수정된 경계존 내에 있는 정보에 적어도 부분적으로 기초하는, 종양 평가 방법.
  21. 제 19 항에 있어서,
    상기 하나 이상의 보충 입력들 중 적어도 하나는 수정된 경계존이고, 상기 방법은,
    상기 하나 이상의 페리종양 피처에 대한, 상기 수정된 경계존 내에 있는 정보에 적어도 부분적으로 기초하는 하나 이상의 컴퓨터-생성된 피처 점수를 컴퓨터에 의해 재계산하는 단계, 및
    상기 작업자 피처 점수가 하나 이상의 컴퓨터-생성된 피처 점수 중 적어도 하나와 상이하면, 상기 작업자로부터 하나 이상의 보충 입력들을 재획득하는 단계를 더 포함하는, 종양 평가 방법.
  22. 제 19 항에 있어서,
    상기 하나 이상의 보충 입력들 중 적어도 하나는 상기 작업자 피처 점수에 대한 수정치이고, 상기 방법은,
    상기 작업자 피처 점수가 상기 하나 이상의 컴퓨터-생성된 피처 점수 중 적어도 하나와 상이하면, 상기 작업자로부터 하나 이상의 보충 입력들을 재획득하는 단계를 더 포함하는, 종양 평가 방법.
  23. 제 19 항에 있어서,
    하나 이상의 보충 입력들 중 적어도 하나는 상기 작업자 피처 점수의 확증인, 종양 평가 방법.
  24. 제 19 항에 있어서,
    상기 하나 이상의 보충 입력들의 적어도 하나는 작업자-정의된 피처존이고, 상기 방법은,
    상기 작업자-정의된 피처존 내에 있는 정보를 적어도 부분적으로 기초하여, 상기 하나 이상의 페리종양 피처에 대한 하나 이상의 컴퓨터-생성된 피처 점수를 컴퓨터에 의해 재계산하는 단계, 및
    상기 작업자 피처 점수가 하나 이상의 컴퓨터-생성된 피처 점수 중 적어도 하나와 상이하면, 상기 작업자로부터 상기 하나 이상의 보충 입력을 재획득하는 단계를 더 포함하는, 종양 평가 방법.
  25. 중앙 변소 및 상기 중앙 변소에 인접한 페리종양의 영역을 가진 종양의 분류를 지원하는 방법에 있어서,
    상기 종양을 포함하는 조직 체적의 전부 또는 일부의 광음향 영상을 디스플레이 상에 표시하는 단계,
    상기 종양의 중앙 병소의 전부 또는 일부를 근사화하는 광음향 영상의 내부존을 디스플레이상에서 확인하는 단계,
    상기 내부존 내에 있는 광음향 영상의 전부 또는 일부를 평가하여, 상기 종양의 중앙 병소 내에 포함된 하나 이상의 내부 피처에 대한 등급을 결정하는 단계,
    상기 종양의 페리종양의 영역의 전부 또는 일부를 근사화하는 광음향 영상의 경계존을 디스플레이 상에서 확인하는 단계,
    상기 경계존 내에 있는 광음향 영상의 전부 또는 일부를 평가하여, 적어도 부분적으로 상기 종양의 페리종양 영역 내에 있는 하나 이상의 페리종양 피처에 대한 등급을 결정하는 단계, 및
    상기 내부존과 경계존의 외부에 있는 광음향 영상의 일부를 평가하여, 상기 종양의 중앙 병소의 외부에 있고, 상기 종양의 페리종양 영역에 적어도 부분적으로 외부에 있는 하나 이상의 주변 피처에 대한 등급을 결정하는 단계, 및
    하나 이상의 내부 피처 등급, 하나 이상의 페리종양 피처 등급 및 하나 이상의 주변 피처 등급에 기초한 종양의 분류를 확인하는 단계를 포함하고,
    상기 등급을 결정하는 단계들은,
    하나 이상의 피처에 대한 상기 하나 이상의 컴퓨터-생성된 피처 점수를 컴퓨터에 의해 계산하는 단계,
    상기 하나 이상의 피처에 대한 작업자 피처 점수를 획득하는 단계, 및
    상기 하나 이상의 컴퓨터-생성된 피처 점수 중 적어도 하나와 상기 작업자 피처 점수를 비교하는 단계를 포함하는, 종양의 분류를 지원하는 방법.
  26. 제 25 항에 있어서,
    상기 중앙 병소는 저반향이고, 상기 방법은
    상기 광음향 영상과 공동 등록되고, 상기 종양을 포함하는 조직 체적의 일부의 적어도 부분을 표시하는, 조직 체적의 초음파 영상을 획득하는 단계,
    상기 종양의 저반향 중앙 병소의 둘레의 전부 또는 일부를 근사화하는 종양의 경계 곡선을 상기 초음파 영상에서 확인하는 단계,
    상기 초음파 영상에서 페리종양의 경계 곡선을 확인하되, 상기 페리종양의 경계 곡선은 상기 종양의 페리종양 영역의 주변부의 적어도 일부를 근사화하고, 상기 페리종양 영역의 주변부의 외부 부분은 상기 종양의 저반향 중앙 병소의 둘레에서 공간적으로 분리되며, 상기 페리종양의 경계 곡선의 전부 또는 일부는 상기 페리종양 영역의 주변부의 외부 부분의 전부 또는 일부에 대응하고, 상기 종양의 경계 곡선에서 공간적으로 분리되는, 페리종양의 경계 곡선을 확인하는 단계, 및
    상기 종양의 경계 곡선과 상기 페리종양의 경계 곡선에 기초한 상기 광음향 영상 내의 상기 경계존을 형성시키는 단계를 더 포함하는, 종양의 분류를 지원하는 방법.
  27. 제 25 항에 있어서,
    상기 작업자로부터 추가적인 입력을 수신하는 단계를 더 포함하되, 상기 추가적인 입력은,
    a) 상기 종양의 경계 곡선에 대한 교정치;
    b) 상기 종양의 경계 곡선에 대한 추가치;
    c) 상기 페리종양의 경계 곡선에 대한 교정치;
    d) 상기 페리종양의 경계 곡선에 대한 추가치;
    e) 상기 하나 이상의 컴퓨터-생성된 피처 점수의 적어도 하나의 확증;
    f) 상기 작업자 피처 점수의 확증;
    g) 상기 작업자 피처 점수의 수정치; 및
    h) 상기 작업자 피처 점수를 고지한 상기 광음향 영상의 영역의 표시의 세트로부터 선택된 적어도 하나의 입력을 포함하는, 종양의 분류를 지원하는 방법.
  28. 제 27 항에 있어서,
    상기 페리종양의 경계 곡선은 상기 광음향 영상의 검토에 기초하여 교정되는, 종양의 분류를 지원하는 방법.
  29. 제 27 항에 있어서,
    상기 페리종양의 경계곡선은 상기 초음파 영상의 검토에 기초하여 교정되는, 종양의 분류를 지원하는 방법.
  30. 제 27 항에 있어서,
    상기 페리종양의 경계 곡선은 상기 광음향 영상 및 상기 초음파 영상의 검토에 기초하여 교정되는, 종양의 분류를 지원하는 방법.
  31. 제 26 항에 있어서,
    상기 작업자에게 추가적인 정보를 디스플레이하는 단계를 더 포함하되, 상기 추가적인 정보는
    a) 다른 조직 체적에서 표시된 하나 이상의 피처 중 하나에 대한 하나 이상의 예시,
    b) 체적에 대한 하나 이상의 추가적인 영상,
    c) 상기 하나 이상의 컴퓨터-생성된 피처 점수 중 적어도 하나가 기초하는 상기 광음향 영상의 전부 또는 일부를 표시하는, 상기 광음향 영상의 하나 이상의 영역의 강조,
    d) 상기 초음파 영상, 및
    e) 상기 하나 이상의 컴퓨터-생성된 피처 점수의 적어도 하나의 세트로부터 선택된 하나 이상의 출력을 포함하는, 종양의 분류를 지원하는.
  32. 제 25 항에 있어서,
    상기 하나 이상의 페리종양의 피처는,
    a) 혈관질;
    b) 산소화;
    c) 스페클;
    d) 홍조;
    e) 헤모글로빈의 양;
    f) 혈액의 양;
    g) 탈산소된 혈액에 대한 산소화된 혈액의 비율;
    h) 급증하는 종양 세포의 양;
    i) 침입하는 종양 세포의 양;
    j) 매크로파지와 관련된 종양의 양;
    k) 종양에 의해 영향받은 자연 세포의 양;
    1) 림프구의 양;
    m) 데스모플라지아의 양;
    n) 부종의 양;
    o) 단백질 찌꺼기의 양;
    P) 종양 네오혈관의 양;
    q) 종양의 표면에 실질적으로 평행하여 배향된 혈관의 양;
    r) 종양의 표면에 실질적으로 수직으로 배향된 혈관의 양;
    s) 혈관의 길이;
    t) 혈관의 직진성;
    u) 경계존의 두께;
    v) 종양의 표면에 실질적으로 수직으로 배향된 콜라지 타입 3 섬유와 관련된 종양의 양; 및
    w) 방해 인공 산물의 양
    의 세트로부터 선택되는, 종양의 분류를 지원하는 방법.
  33. 제 32 항에 있어서,
    상기 페리종양의 경계 곡선의 전부 또는 일부는 상기 종양의 높은 에코의 할로에 대응하는, 종양의 분류를 지원하는 방법.
  34. 제 25 항에 있어서,
    상기 하나 이상의 내부 피처는,
    a) 혈관질;
    b) 산소화;
    c) 스페클;
    d) 홍조;
    e) 헤모글로빈의 양;
    f) 혈액의 양;
    g) 탈산소된 혈액에 대한 산소화된 혈액의 비율; 및
    h) 방해 인공 산물의 양의 세트로부터 선택되는, 종양의 분류를 지원하는 방법.
  35. 제 25 항에 있어서,
    상기 하나 이상의 주변 피처는,
    a) 혈관질;
    b) 산소화;
    c) 스페클;
    d) 홍조;
    e) 헤모글로빈의 양;
    f) 혈액의 양;
    g) 탈산소된 혈액에 대한 산소화된 혈액의 비율; and
    h) 발산하는 동맥의 양;
    i) 발산하는 정맥의 양;
    j) 종양 네오혈관의 양;
    k) 종양의 표면에 실질적으로 평행하여 배향된 혈관의 양;
    1) 종양의 표면에 실질적으로 수직으로 배향된 혈관의 양;
    m) 혈관의 길이;
    n) 혈관의 직진성; 및
    o) 방해 인공 산물의 양의 세트로부터 선택되는, 종양의 분류를 지원하는 방법.
  36. 조직 체적의 광음향 영상의 하나 이상의 피처의 등급을 매기는 것을 지원하기 위한 방법에 있어서, 상기 조직 체적은 중앙 병소를 가진 종양을 포함하고, 상기 방법은,
    상기 중앙 병소의 전부 또는 일부 및 페리종양 영역의 전부 또는 일부를 표시하는 조직 체적의 초음파 영상을 획득하는 단계,
    상기 초음파 영상과 공동 등록되고, 상기 중앙 병소의 부분의 전부 또는 일부 및 상기 페리종양 영역의 부분의 적어도 일부의 광학 콘트라스트(optical contrast)를 표시하는, 조직 체적의 광음향 영상을 획득하는 단계,
    상기 종양의 중앙 병소의 둘레의 전부 또는 일부를 근사화하는 종양의 경계 곡선을 상기 초음파 영상에서 확인하는 단계,
    상기 초음파 영상에서 페리종양의 경계 곡선을 확인하되, 상기 페리종양의 경계 곡선은 상기 종양의 페리종양 영역의 주변부의 전부 또는 일부를 근사화하고, 상기 페리종양 영역의 주변부의 외부 부분은 상기 종양의 중앙 병소의 둘레에서 공간적으로 분리되며, 상기 페리종양의 경계 곡선의 전부 또는 일부는 상기 페리종양 영역의 주변부의 외부 부분의 적어도 부분에 해당하고, 상기 종양의 경계 곡선에서 공간적으로 분리되는, 페리종양의 경계 곡선을 확인하는 단계, 및
    상기 종양의 경계 곡선과 상기 페리종양의 경계 곡선이 중첩된 광음향 영상의 적어도 일부를 디스플레이 상에 표시하는 단계를 포함하는, 광음향 영상피처의 등급을 매기는 것을 지원하기 위한 방법.
  37. 중앙 변소 및 상기 중앙 변소에 인접한 페리종양의 영역을 가진 종양을 평가하기 위한 방법에 있어서, 상기 방법은,
    상기 종양을 포함하는 조직 체적의 적어도 일부의 광음향 영상을 디스플레이 상에 표시하는 단계,
    상기 종양의 페리종양의 영역의 적어도 일부를 근사화하는, 상기 광음향 영상의 경계존을 디스플레이상에서 확인하는 단계,
    상기 경계존 내에 적어도 부분적으로 포함된 하나 이상의 페리종양 피처에 대한 피처 점수를 작업자로부터 획득하는 단계,
    상기 경계존 내에 적어도 부분적으로 포함된 하나 이상의 페리종양 피처에 대한 하나 이상의 추가적인 피처 점수를 획득하는 단계,
    작업자 피처 점수와 적어도 하나의 추가적인 피처 점수를 비교하는 단계,
    상기 작업자 피처 점수가 적어도 하나의 추가적인 피처 점수 중 적어도 하나와 상이하면, 상기 작업자로부터 하나 이상의 보충 입력을 획득하는 단계와, 및
    상기 작업자 피처 점수에 기초한 하나 이상의 페리종양 피처에 대한 등급을 결정하는 단계를 포함하는, 종양 평가 방법.
  38. 제 37 항에 있어서,
    상기 하나 이상의 페리종양 피처에 대한 적어도 하나의 추가적인 피처 점수를 컴퓨터에 의해 계산하는 단계를 포함하고,
    상기 적어도 하나의 추가적인 피처 점수는 상기 경계존 내에 있는 정보에 적어도 부분적으로 기초하는, 종양 평가 방법.
  39. 제 37 항에 있어서,
    상기 적어도 하나의 추가적인 피처 점수는 또 다른 작업자로부터 획득되는, 종양 평가 방법.
  40. 조직 체적의 광음향 영상을 사용하여 병변을 분류하는 지원을 제공하기 위한 방법에 있어서, 상기 조직 체적은 중앙 병소를 가진 종양을 포함하고, 상기 방법은,
    상기 중앙 병소의 적어도 일부와 페리종양의 영역의 적어도 일부를 표시하는 조직 체적의 초음파 영상을 획득하는 단계,
    상기 초음파 영상과 공동 등록되고, 상기 중앙 병소의 부분의 적어도 일부 및 상기 페리종양 영역의 부분의 적어도 일부의 광학 콘트라스트를 표시하는 조직 체적의 광음향 영상을 획득하는 단계,
    상기 종양의 중앙 병소의 둘레의 적어도 일부를 근사화하는 초음파 영상에서 종양의 경계 곡선을 확인하는 단계,
    상기 종양의 경계 곡선이 중첩된 상기 광음향 영상의 적어도 일부를 디스플레이 상에 표시하는 단계,
    상기 종양의 경계 곡선에 기초하여 디스플레이된 영상 내에 내부존을 형성하는 단계, 및
    상기 내부존 내에 포함된 종양의 피처에 대한 작업자 피처 점수를 작업자로부터 획득하는 단계,
    상기 내부존의 적어도 부분적으로 외부에 포함된 외부-종양의 피처에 대한 작업자 피처 점수를 작업자로부터 획득하는 단계,
    디스플레이된 영상의 상기 내부존 내에 있는 정보의 적어도 일부에 기초하여, 상기 종양의 피처에 대한 하나 이상의 컴퓨터-생성된 피처 점수를 컴퓨터에 의해 계산하는 단계,
    디스플레이된 영상의 상기 내부존 외에 있는 정보의 적어도 일부에 기초하여, 외부-종양의 피처에 대한 하나 이상의 컴퓨터-생성된 피처 점수를 컴퓨터에 의해 계산하는 단계,
    각각의 작업자 피처 점수가 대응하는 하나 이상의 컴퓨터-생성된 피처 점수와 상이하면, 상기 작업자로부터 하나 이상의 보충 입력을 획득하는 단계, 및
    상기 작업자 피처 점수에 기초하여 병변을 분류하는 단계를 포함하는, 병변 분류 지원 방법.
  41. 조직 체적의 광음향 영상을 사용하여 병변을 분류하는 지원을 제공하기 위한 방법에 있어서, 상기 조직 체적은 중앙 병소를 가진 종양을 포함하고, 상기 방법은,
    상기 중앙 병소의 적어도 일부와 페리종양 영역의 적어도 일부를 표시하는 조직 체적의 초음파 영상을 획득하는 단계,
    상기 초음파 영상과 공동 등록되고, 상기 중앙 병소의 부분의 적어도 일부 및 상기 페리종양 영역의 부분의 적어도 일부의 광학 콘트라스트를 표시하는 조직 체적의 광음향 영상을 획득하는 단계,
    상기 종양의 중앙 병소의 둘레의 적어도 일부를 근사화하는 종양의 경계 곡선을 상기 초음파 영상에서 확인하는 단계,
    상기 종양의 경계 곡선이 중첩된 광음향 영상의 적어도 일부를 디스플레이 상에 표시하는 단계,
    상기 종양의 경계 곡선에 기초하여 디스플레이된 영상 내에 내부존을 형성하는 단계, 및
    병변에 대한 분류를 작업자로부터 획득하는 단계,
    디스플레이된 영상의 상기 내부존 내에 있는 정보의 적어도 일부에 기초하여, 상기 종양의 피처에 대한 하나 이상의 컴퓨터-생성된 피처 점수를 컴퓨터에 의해 계산하는 단계,
    디스플레이된 영상의 상기 내부존 외에 있는 정보의 적어도 일부에 기초하여, 외부-종양의 피처에 대한 하나 이상의 컴퓨터-생성된 피처 점수를 컴퓨터에 의해 계산하는 단계,
    상기 외부-종양의 피처에 대한 하나 이상의 컴퓨터-생성된 피처 점수와 상기 종양의 피처에 대한 하나 이상의 컴퓨터-생성된 피처 점수에 기초하여 병변에 대한 하나 이상의 컴퓨터-생성된 분류를 결정하는 단계,
    상기 작업자의 분류가 병변에 대한 하나 이상의 컴퓨터-생성된 분류의 전부와 상이하면, 상기 작업자로부터 하나 이상의 보충 입력을 획득하는 단계, 및
    병변에 대한 상기 작업자의 분류에 기초하여 병변을 분류하는 단계를 포함하는, 병변 분류 지원 방법.
KR1020157024504A 2013-03-15 2014-03-11 진단 벡터 분류 지원을 위한 시스템 및 방법 KR20150131018A (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361799213P 2013-03-15 2013-03-15
US61/799,213 2013-03-15
US201361810238P 2013-04-09 2013-04-09
US61/810,238 2013-04-09
US201361898392P 2013-10-31 2013-10-31
US61/898,392 2013-10-31
PCT/US2014/023673 WO2014150578A1 (en) 2013-03-15 2014-03-11 System and method for diagnostic vector classification support

Publications (1)

Publication Number Publication Date
KR20150131018A true KR20150131018A (ko) 2015-11-24

Family

ID=51580782

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157024504A KR20150131018A (ko) 2013-03-15 2014-03-11 진단 벡터 분류 지원을 위한 시스템 및 방법

Country Status (11)

Country Link
US (5) US9398893B2 (ko)
EP (1) EP2973405A4 (ko)
JP (2) JP2016515019A (ko)
KR (1) KR20150131018A (ko)
AU (1) AU2014237034A1 (ko)
BR (1) BR112015021807A2 (ko)
CA (1) CA2902161C (ko)
IL (1) IL240653A0 (ko)
MX (1) MX2015012569A (ko)
SG (1) SG11201506836YA (ko)
WO (1) WO2014150578A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210039501A (ko) * 2018-08-31 2021-04-09 세노 메디컬 인스투르먼츠 인코포레이티드 초음파 및/또는 광음향 특징들에 기반한 암 분자 아형들을 결정하는 방법 및 시스템
KR20210056437A (ko) * 2018-10-11 2021-05-18 세노 메디컬 인스투르먼츠 인코포레이티드 병변 특성을 자동으로 추정하기 위한 광음향 이미지 분석 방법 및 시스템

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017003480A1 (en) 2015-07-02 2017-01-05 Siemens Medical Solutions Usa, Inc. Intervolume lesion detection and image preparation
US10458895B2 (en) * 2016-06-06 2019-10-29 Case Western Reserve University Predicting response to pemetrexed chemotherapy in non-small cell lung cancer (NSCLC) with baseline computed tomography (CT) shape and texture features
EP3488366B1 (en) * 2016-07-22 2022-01-05 Case Western Reserve University Methods and apparatus for predicting benefit from immunotherapy using tumoral and peritumoral radiomic features
WO2018087984A1 (ja) * 2016-11-11 2018-05-17 富士フイルム株式会社 光音響画像評価装置、方法およびプログラム並びに光音響画像生成装置
US11100633B2 (en) * 2018-06-13 2021-08-24 Cosmo Artificial Intelligence—Al Limited Systems and methods for processing real-time video from a medical image device and detecting objects in the video
WO2020046986A1 (en) * 2018-08-30 2020-03-05 Applied Materials, Inc. System for automatic tumor detection and classification
US20220117544A1 (en) * 2018-08-31 2022-04-21 Seno Medical Instruments, Inc. Optoacoustic feature score correlation to ipsilateral axillary lymph node status
US11375984B2 (en) * 2018-08-31 2022-07-05 Seno Medical Instruments, Inc. Method and system for managing feature reading and scoring in ultrasound and/or optoacoustic images
US11246527B2 (en) * 2018-08-31 2022-02-15 Seno Medical Instruments, Inc. Method and system for managing feature reading and scoring in ultrasound and/or optoacoustice images
WO2020257482A1 (en) * 2019-06-19 2020-12-24 Seno Medical Instruments, Inc. Method and system for managing feature reading and scoring in ultrasound and/or optoacoustice images
CN110705575A (zh) * 2019-09-27 2020-01-17 Oppo广东移动通信有限公司 定位方法及装置、设备、存储介质
US11896349B2 (en) * 2019-12-09 2024-02-13 Case Western Reserve University Tumor characterization and outcome prediction through quantitative measurements of tumor-associated vasculature
CN114489829B (zh) * 2021-12-22 2023-04-18 北京市遥感信息研究所 一种基于ArcMap的遥感图像样本标注方法

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4267732A (en) 1978-11-29 1981-05-19 Stanford University Board Of Trustees Acoustic microscope and method
NO880891L (no) 1987-03-03 1988-09-05 Elizabeth May Dowling Fremgangsmaate og apparat for maaling eller deteksjon av konsentrasjonen av en substans.
JP3085724B2 (ja) * 1991-05-10 2000-09-11 株式会社東芝 医用診断支援システム
US5504281A (en) 1994-01-21 1996-04-02 Minnesota Mining And Manufacturing Company Perforated acoustical attenuators
US6309352B1 (en) * 1996-01-31 2001-10-30 Board Of Regents, The University Of Texas System Real time optoacoustic monitoring of changes in tissue properties
US5840023A (en) 1996-01-31 1998-11-24 Oraevsky; Alexander A. Optoacoustic imaging for medical diagnosis
US5713356A (en) 1996-10-04 1998-02-03 Optosonics, Inc. Photoacoustic breast scanner
US5977538A (en) 1998-05-11 1999-11-02 Imarx Pharmaceutical Corp. Optoacoustic imaging system
US6236455B1 (en) 1998-06-26 2001-05-22 Battelle Memorial Institute Photoacoustic spectroscopy sample cells and methods of photoacoustic spectroscopy
US6949081B1 (en) * 1998-08-26 2005-09-27 Non-Invasive Technology, Inc. Sensing and interactive drug delivery
US6263094B1 (en) 1999-04-02 2001-07-17 Agilent Technologies, Inc. Acoustic data acquisition/playback system and method
US6751490B2 (en) 2000-03-01 2004-06-15 The Board Of Regents Of The University Of Texas System Continuous optoacoustic monitoring of hemoglobin concentration and hematocrit
WO2001072215A1 (en) * 2000-03-28 2001-10-04 Board Of Regents, The University Of Texas System Enhancing contrast in biological imaging
DE60141090D1 (de) * 2000-10-30 2010-03-04 Gen Hospital Corp Optische systeme zur gewebeanalyse
US8078262B2 (en) * 2001-04-16 2011-12-13 The Johns Hopkins University Method for imaging and spectroscopy of tumors and determination of the efficacy of anti-tumor drug therapies
US20050207630A1 (en) * 2002-02-15 2005-09-22 The Regents Of The University Of Michigan Technology Management Office Lung nodule detection and classification
US6984211B2 (en) * 2003-01-03 2006-01-10 Mayo Foundation For Medical Education And Research Detection of tumor halos in ultrasound images
US20040215072A1 (en) * 2003-01-24 2004-10-28 Quing Zhu Method of medical imaging using combined near infrared diffusive light and ultrasound
JP4406226B2 (ja) 2003-07-02 2010-01-27 株式会社東芝 生体情報映像装置
JP4643153B2 (ja) 2004-02-06 2011-03-02 株式会社東芝 非侵襲生体情報映像装置
IL166408A0 (en) 2005-01-20 2006-01-15 Ultraview Ltd Combined 2d pulse-echo ultrasound and optoacousticsignal for glaucoma treatment
CN101291629B (zh) * 2005-10-19 2010-12-01 株式会社日立医药 超声波诊断装置
US20090054763A1 (en) * 2006-01-19 2009-02-26 The Regents Of The University Of Michigan System and method for spectroscopic photoacoustic tomography
WO2007148239A2 (en) 2006-06-23 2007-12-27 Koninklijke Philips Electronics, N.V. Timing controller for combined photoacoustic and ultrasound imager
CN101563035B (zh) 2006-12-19 2012-08-08 皇家飞利浦电子股份有限公司 组合光声和超声成像系统
CA2675619C (en) 2007-01-19 2016-08-16 Sunnybrook Health Sciences Centre Scanning mechanisms for imaging probe
US8460195B2 (en) 2007-01-19 2013-06-11 Sunnybrook Health Sciences Centre Scanning mechanisms for imaging probe
US8073214B2 (en) * 2007-05-14 2011-12-06 Siemens Aktiengesellschaft Computer aided lesion assessment in dynamic contrast enhanced breast MRI images
JP2009028253A (ja) * 2007-07-26 2009-02-12 Fujita Gakuen ニードルアセンブリ
JP5087341B2 (ja) * 2007-08-13 2012-12-05 株式会社日立メディコ 超音波診断装置
JP5219440B2 (ja) 2007-09-12 2013-06-26 キヤノン株式会社 測定装置
US20090082637A1 (en) * 2007-09-21 2009-03-26 Michael Galperin Multi-modality fusion classifier with integrated non-imaging factors
CN101918811B (zh) 2007-10-25 2013-07-31 圣路易斯华盛顿大学 具有光学横向分辨率的共焦光声显微镜
WO2009073979A1 (en) 2007-12-12 2009-06-18 Carson Jeffrey J L Three-dimensional photoacoustic imager and methods for calibrating an imager
JP4829934B2 (ja) * 2008-07-11 2011-12-07 キヤノン株式会社 検査装置
US8353833B2 (en) 2008-07-18 2013-01-15 University Of Rochester Low-cost device for C-scan photoacoustic imaging
US9572497B2 (en) 2008-07-25 2017-02-21 Helmholtz Zentrum Munchen Deutsches Forschungszentrum Fur Gesundheit Und Umwelt (Gmbh) Quantitative multi-spectral opto-acoustic tomography (MSOT) of tissue biomarkers
JP4900979B2 (ja) 2008-08-27 2012-03-21 キヤノン株式会社 光音響装置および光音響波を受信するための探触子
US20100094134A1 (en) 2008-10-14 2010-04-15 The University Of Connecticut Method and apparatus for medical imaging using near-infrared optical tomography combined with photoacoustic and ultrasound guidance
US20100298688A1 (en) 2008-10-15 2010-11-25 Dogra Vikram S Photoacoustic imaging using a versatile acoustic lens
US9528966B2 (en) 2008-10-23 2016-12-27 Washington University Reflection-mode photoacoustic tomography using a flexibly-supported cantilever beam
JP5641723B2 (ja) 2008-12-25 2014-12-17 キヤノン株式会社 被検体情報取得装置
EP2429399A4 (en) * 2009-03-06 2013-04-10 Bio Tree Systems Inc METHOD AND APPARATUS FOR VESSEL TESTING
WO2010107930A1 (en) 2009-03-17 2010-09-23 The Uwm Research Foundation, Inc. Ultrasonic imaging device
WO2010127199A2 (en) 2009-05-01 2010-11-04 Visualsonics Inc. System for photoacoustic imaging and related methods
US8391603B2 (en) * 2009-06-18 2013-03-05 Omisa Inc. System and method for image segmentation
JP2011224346A (ja) * 2010-03-31 2011-11-10 Toshiba Corp 超音波診断装置、画像処理装置および画像処理方法
WO2011137385A1 (en) 2010-04-30 2011-11-03 Visualsonics Inc. Photoacoustic transducer and imaging system
JP5587046B2 (ja) 2010-06-10 2014-09-10 キヤノン株式会社 光音響測定装置
JP2012005624A (ja) 2010-06-24 2012-01-12 Fujifilm Corp 超音波光音響撮像装置およびその作動方法
EP2652704A1 (en) * 2010-12-17 2013-10-23 Aarhus Universitet Method for delineation of tissue lesions
TWI430778B (zh) 2010-12-24 2014-03-21 Pai Chi Li 醫學成像系統及其醫學成像方法
JP5624505B2 (ja) * 2011-03-08 2014-11-12 株式会社東芝 画像処理装置
JP5796896B2 (ja) 2011-03-10 2015-10-21 富士フイルム株式会社 断層画像生成装置及び方法
JP5896623B2 (ja) 2011-05-02 2016-03-30 キヤノン株式会社 被検体情報取得装置およびその制御方法
JP2013039166A (ja) 2011-08-12 2013-02-28 Hitachi Medical Corp 光音響システム及び薬剤
US11160456B2 (en) 2012-01-23 2021-11-02 Tomowave Laboratories, Inc. Laser optoacoustic ultrasonic imaging system (LOUIS) and methods of use
WO2013155300A1 (en) * 2012-04-11 2013-10-17 The Trustees Of Columbia University In The City Of New York Techniques for segmentation of organs and tumors and objects
US9610043B2 (en) 2012-06-13 2017-04-04 Seno Medical Instruments, Inc. System and method for producing parametric maps of optoacoustic data
US8781202B2 (en) * 2012-07-26 2014-07-15 International Business Machines Corporation Tumor classification based on an analysis of a related ultrasonic attenuation map
EP2742854B1 (en) 2012-12-11 2021-03-10 iThera Medical GmbH Handheld device and method for tomographic optoacoustic imaging of an object
JP6112861B2 (ja) 2012-12-28 2017-04-12 キヤノン株式会社 被検体情報取得装置、信号処理装置および表示装置
JP6292836B2 (ja) * 2012-12-28 2018-03-14 キヤノン株式会社 被検体情報取得装置、表示方法、プログラム、処理装置
EP2754388B1 (en) 2013-01-15 2020-09-09 Helmholtz Zentrum München Deutsches Forschungszentrum für Gesundheit und Umwelt GmbH System and method for quality-enhanced high-rate optoacoustic imaging of an object
US9639933B2 (en) * 2013-02-14 2017-05-02 The Research Foundation For The State University Of New York Method for adaptive computer-aided detection of pulmonary nodules in thoracic computed tomography images using hierarchical vector quantization and apparatus for same
US9277902B2 (en) * 2013-11-22 2016-03-08 General Electric Company Method and system for lesion detection in ultrasound images
JP6541363B2 (ja) * 2015-02-13 2019-07-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210039501A (ko) * 2018-08-31 2021-04-09 세노 메디컬 인스투르먼츠 인코포레이티드 초음파 및/또는 광음향 특징들에 기반한 암 분자 아형들을 결정하는 방법 및 시스템
KR20210056437A (ko) * 2018-10-11 2021-05-18 세노 메디컬 인스투르먼츠 인코포레이티드 병변 특성을 자동으로 추정하기 위한 광음향 이미지 분석 방법 및 시스템

Also Published As

Publication number Publication date
BR112015021807A2 (pt) 2017-07-18
US10949967B2 (en) 2021-03-16
EP2973405A4 (en) 2016-12-07
CA2902161A1 (en) 2014-09-25
WO2014150578A1 (en) 2014-09-25
CA2902161C (en) 2021-05-04
SG11201506836YA (en) 2015-09-29
US20180322630A1 (en) 2018-11-08
US11651489B2 (en) 2023-05-16
EP2973405A1 (en) 2016-01-20
IL240653A0 (en) 2015-10-29
US10026170B2 (en) 2018-07-17
JP2019088838A (ja) 2019-06-13
US20230245310A1 (en) 2023-08-03
US20160343132A1 (en) 2016-11-24
MX2015012569A (es) 2016-06-06
US9398893B2 (en) 2016-07-26
JP6743202B2 (ja) 2020-08-19
JP2016515019A (ja) 2016-05-26
AU2014237034A1 (en) 2015-09-24
US20140301619A1 (en) 2014-10-09
US20210158518A1 (en) 2021-05-27

Similar Documents

Publication Publication Date Title
US11651489B2 (en) System and method for diagnostic vector classification support
US10347033B2 (en) Three-dimensional image display apparatus, method, and program
JP4926199B2 (ja) 診断支援装置、診断支援プログラムおよび診断支援方法
JP2019532390A (ja) 医用画像のアノテーションに基づく疾患の確率の更新
US8805471B2 (en) Surgery-assistance apparatus, method and program
CN107767962B (zh) 基于来自不同测量的医学测量数据确定结果数据
US11375984B2 (en) Method and system for managing feature reading and scoring in ultrasound and/or optoacoustic images
JP2008520317A (ja) 医療画像データ内の腫瘍境界を自動的に検出及び区分するシステム及び方法
JP2003524492A (ja) 医学的画像のコンピュータ支援解釈用知的探索ワークステーションのための方法、システム、及びコンピュータ読取り型媒体
Wardhana et al. Toward reliable automatic liver and tumor segmentation using convolutional neural network based on 2.5 D models
EP3796210A1 (en) Spatial distribution of pathological image patterns in 3d image data
US11246527B2 (en) Method and system for managing feature reading and scoring in ultrasound and/or optoacoustice images
JP2017532998A (ja) 縦断的特徴に基づく関心組織の健康状態の分類
US20210142480A1 (en) Data processing method and apparatus
US20100002922A1 (en) Apparatus and method for indicating likely computer-detected false positives in medical imaging data
Han et al. Pulmonary nodules detection assistant platform: An effective computer aided system for early pulmonary nodules detection in physical examination
Khanna A Review of AI Devices in Cancer Radiology for Breast and Lung Imaging and Diagnosis
WO2020257482A1 (en) Method and system for managing feature reading and scoring in ultrasound and/or optoacoustice images
CA3227095A1 (en) A coronary artery disease analysis system
US20220117544A1 (en) Optoacoustic feature score correlation to ipsilateral axillary lymph node status
Imran Interpretability Approaches for a Breast Lesion Detection Model
CN117836805A (zh) 冠状动脉疾病分析系统
AU2021221669A1 (en) A coronary artery disease analysis tool
Deng et al. A hierarchical model for automated breast lesion detection from ultrasound 3D data

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid