JP2020516427A - 腫瘍進行のrecist評価 - Google Patents

腫瘍進行のrecist評価 Download PDF

Info

Publication number
JP2020516427A
JP2020516427A JP2020505539A JP2020505539A JP2020516427A JP 2020516427 A JP2020516427 A JP 2020516427A JP 2020505539 A JP2020505539 A JP 2020505539A JP 2020505539 A JP2020505539 A JP 2020505539A JP 2020516427 A JP2020516427 A JP 2020516427A
Authority
JP
Japan
Prior art keywords
lesions
determining
image data
lesion
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020505539A
Other languages
English (en)
Other versions
JP2020516427A5 (ja
Inventor
ケスケメシー、ピーター
ライケン、トビアス
カルパチ、イーディス
Original Assignee
ケイロン メディカル テクノロジーズ リミテッド
ケイロン メディカル テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ケイロン メディカル テクノロジーズ リミテッド, ケイロン メディカル テクノロジーズ リミテッド filed Critical ケイロン メディカル テクノロジーズ リミテッド
Publication of JP2020516427A publication Critical patent/JP2020516427A/ja
Publication of JP2020516427A5 publication Critical patent/JP2020516427A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • A61B5/015By temperature mapping of body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1073Measuring volume, e.g. of limbs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4842Monitoring progression or stage of a disease
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Epidemiology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Primary Health Care (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Psychiatry (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Fuzzy Systems (AREA)

Abstract

本発明は、固形腫瘍における応答評価基準(RECIST)プロトコルに従って、医用画像における病変を自動的に発見し、セグメント化し、測定する方法およびシステムに関する。より具体的には、本発明は、セグメンテーション、3D体積マスクおよびモデル、2Dおよび3Dにおける測定、ならびに異なる時点で取られたスキャンにわたる統計的変化分析のための追加の画像マスクを伴う入力コンピュータ断層撮影(CT)スキャンの拡張バージョンを生成する。第1の態様によれば、画像データを受信するステップと、画像データ内の1つまたは複数の病変の1つまたは複数の位置を決定するステップと、画像データ内の1つまたは複数の病変の決定された1つまたは複数の位置を含む画像セグメンテーション(すなわち、マスクまたは輪郭)を作成するステップと、画像セグメンテーションを使用して病変の体積特性を決定するステップとを含む、医用画像内の1つまたは複数の病変の体積特性を決定する方法が提供される。【選択図】図2

Description

本発明は、固形腫瘍の効果判定基準(Response Evaluation Criteria In Solid Tumours:RECIST)プロトコルに従って、医用画像における病変を自動的に発見し、セグメント化し、測定する方法およびシステムに関する。より具体的には、本発明は、セグメンテーション、3D体積マスクおよびモデル、2Dおよび3Dにおける測定、ならびに異なる時点で取られたスキャンにわたる統計的変化分析のための追加の画像マスクを伴う入力コンピュータ断層撮影(CT)スキャンの拡張バージョンを生成する。
CTスキャンは、スキャンされた患者の断面スライスを生成するために、多数の異なる角度からのX線画像化を利用する。CTスキャンは、患者の病変を識別し、位置特定し、分類するための有用なツールを放射線科医に提供するが、各CTスキャンに含まれる画像スライスの数が非常に多いため、許容可能な時間内でCT画像から病変の体積測定を実行することは困難である。
CTスキャンは、通常グレースケールで提示され、したがって、1つのカラーチャネルのみからなる。これは、人間の目がCTスライス内の全ての情報を視覚化するのに十分ではない限られた数の階調レベルしか区別することがでないので、放射線科医が画像の異なる要素を見たい場合に問題を生じさせる。その異なる要素は、いくつかの異なるウィンドウ上で変化する輝度−コントラスト設定で提示される。例えば、そのスキャンの骨格要素の表示は、1つの輝度−コントラスト設定(「ウィンドウ」と呼ばれる)で最もよく見えるかもしれないが、器官の表示は、別のウィンドウ内で最もよく見えるかもしれない。したがって、放射線科医は、病変を識別し、位置を特定するために、異なるコントラストウィンドウを見なければならない。本発明の目的は、この問題に対する解決策を提供することである。
医用画像装置は、通常、医用画像情報のより効率的な取り扱い、格納、印刷、および送信を可能にするために、スキャンを医学用デジタル画像通信(Digital Imaging and Communications in Medicine:DICOM、以下、ダイコム)フォーマットにカプセル化する。
RECISTプロトコルは、患者における腫瘍の挙動を評価するために使用される一連の規則である。RECISTプロトコルは、また、病変の測定に使用できる方法も提供するが、現在の方法では、放射線科医による治療前に膨大な量の入力と情報に基づいていない決定が必要であり、不正確な測定、疑わしい腫瘍の測定値を記録できない可能性があり、さらに重要なことには画像から病変を特定できない。
腫瘍の進行を評価する場合、放射線科医は、異なる時点で行われたスキャンについて腫瘍組織量を評価し、結果を比較する必要がある。同じ病変が異なる時点で正確に同定され、比較のために評価されることが重要である。コロケーションおよび比較プロセスは、煩わしく、本質的に不正確である。
腫瘍組織量を評価する場合、放射線科医は、生成された2Dスライスに入る病変の部分の1D測定を行う。この測定は、単一の病変によって提供される腫瘍組織量をどの程度正確に表すかという点で、本質的に制限される。
態様および/または実施形態は、医用画像における病変/腫瘍/増殖および腫瘍の変化を自動的に位置特定および測定する方法を提供しようとする。態様および/または実施形態はまた、識別、測定、および統計的分析ステップを自動的に実行することによって、人為的エラーの不正確さに関連する問題に対処しようとする。
第1の態様によれば、画像データを受け取るステップと、画像データ内の1つまたは複数の病変の1つまたは複数の位置を決定するステップと、画像データ内の1つまたは複数の病変の決定された1つまたは複数の位置を含む画像セグメンテーション(すなわち、マスクまたは輪郭)を作成するステップと、画像セグメンテーションを用いて病変の体積特性を決定するステップとを含む、医用画像における1つまたは複数の病変の体積特性を決定する方法が提供される。
このようにして、画像データを使用して、1つまたは複数の病変の自動検出および位置特定を実行することができる。また、人間の介入を必要とせずに、1つまたは複数の病変に関する特性(例えば、分類、体積、形状、サイズ)を自動的に提供することもできる。1つまたは複数の病変の位置を容易に観察できるようにするために、セグメンテーション(すなわち、マスクまたは輪郭)も作成される。現在の方法とは異なり、これは、腫瘍が進行しているか退縮しているかを示す期間にわたって、より正確に医用画像の体積評価を可能にする。
任意選択で、1つまたは複数の病変の1つまたは複数の位置を決定するステップは、1つまたは複数の病変の焦点を識別するステップを含む。任意選択で、1つまたは複数の病変の焦点は、1つまたは複数の病変の質量中心を含む。
任意選択で、1つまたは複数の病変の1つまたは複数の位置を決定するステップは、1つまたは複数の解剖学的目印の焦点を識別するステップを含む。任意選択で、1つまたは複数の解剖学的目印の焦点は、1つまたは複数の病変の質量中心を含む。
病変または解剖学的領域の質量中心などの焦点を使用することによって、位置の評価は、スキャン全体にわたって、および、スキャンが同じ患者の反復時間隔で行われるスキャン間で一貫性がある。例えば、腫瘍は増殖し得るが、質量中心は常に実質的に一定のままであり、したがって、同じ腫瘍は、その患者の解剖学的構造の同じ部分の異なるスキャンにおいて、同じ患者において同定され得る。
任意選択で、1つまたは複数の病変の1つまたは複数の位置を決定するステップは、1つまたは複数の解剖学的目印に関連する位置を決定するステップを含む。任意選択で、1つまたは複数の解剖学的目印は、脊椎、肋骨、肺、心臓、肝臓、腎臓のうちのいずれか1つを含む。
任意選択で、1つまたは複数の病変の1つまたは複数の位置を決定するステップは、1つまたは複数の病変の焦点を識別するステップと、1つまたは複数の解剖学的目印の焦点を識別するステップと、1つまたは複数の解剖学的目印に関連する1つまたは複数の病変の位置を決定するステップとを含む。このようにして、腫瘍は、他の解剖学的物体に関連して位置特定され得る。
目印を識別することによって、任意の腫瘍に対する目印の相対位置を確立し、例えば、スキャンが反復時間隔で行われる場合、スキャン間で同じ腫瘍を識別する方法として使用することができる。
任意選択で、画像データは、CTスキャンデータ、ダイコム画像ファイル、解剖学的構造の連続したスライスの一連の画像、1つまたは複数のグレースケール画像、患者層情報、以前の画像データのうちのいずれか1つまたは任意の組合せを含む。
任意選択で、画像データは、1つまたは複数の画像を含み、任意選択で、1つまたは複数の画像は、共通の患者の解剖学的構造の共通部分に関連する。
任意選択で、1つまたは複数の画像は、異なる時間に保存される。任意選択で、1つまたは複数の画像は、3D表現の複数の2Dスライスを含む。最初のスキャンは患者の3D表現であるが、この方法は最初の3Dスキャンの2Dスライスに適用される。
任意選択で、1つまたは複数の病変をセグメント化して病変セグメントデータを作成するステップと、病変セグメントデータを画像マスク/輪郭に格納するステップと、を含む。
任意選択で、画像セグメンテーションは、マスクまたは輪郭を生成することを含む。セグメンテーションマスクを組み合わせて、腫瘍の3D表現を生成することができる。
任意選択で、病変測定データを作成するために1つまたは複数の病変を測定するステップと、画像マスクに関連して病変セグメントデータおよび測定データを格納するステップと、を含む。
任意選択的に、画像データを前処理するステップであって、前処理は、画像データを読み取るステップと、画像データをメモリに格納するステップとを含む。
任意選択で、画像データは、高さ、幅、バッチサイズ、およびチャネルを含む次元を有する少なくとも4次元テンソルとしてメモリに格納される。
任意選択で、チャネルは、1つまたは複数のコントラストウィンドウまたはコントラスト値を含む。
任意選択で、画像データ内の1つまたは複数の病変の1つまたは複数の位置を決定するステップは、畳み込みニューラルネットワークを使用することを含む。
任意選択で、画像データ内の1つまたは複数の病変の1つまたは複数の位置を決定するステップは、完全畳み込みニューラルネットワークを使用することを含む。
任意選択で、完全畳み込みニューラルネットワークは、バックプロパゲーションを使用して訓練され、および/または、高密度訓練のための損失関数は、個々のピクセルの損失関数の空間次元にわたる合計である。
任意選択的に、本方法は、腫瘍である可能性が高い画像データのそれぞれの1つまたは複数の画像内の領域を示すために、1つまたは複数のヒートマップを作成するステップをさらに含む。
任意選択で、本方法は、1つまたは複数のヒートマップを条件付き確率場法によって供給することにより1つまたは複数のヒートマップを後処理するステップをさらに含む。
任意選択的に、本方法は、条件付き確率場法を通して決定された1つまたは複数の位置を供給することによって、画像データ内の1つまたは複数の病変の決定された1つまたは複数の位置を後処理するステップをさらに含む。
第2の態様によれば、先行する請求項のいずれかの方法を実行するように動作可能な装置が提供される。
第3の態様によれば、先行する請求項の装置を含むシステムが提供される。
さらなる態様は、先行する請求項のいずれかの方法を実行するように動作可能なコンピュータプログラム製品に関する。
図1は、既存のRECISTシステムの方法を示すフローチャートを示す。 図2は、本発明の方法を示すフローチャートを示す。
図1は、現在の手動RECISTシステムの方法を示す。フローチャートに見られるように、患者の医用スキャン(CT、MRI、X線)を実行した(101)後、スキャンされた画像はダイコムフォーマットで照合される(102)。
前述のように、異なるコントラストに対応する要素がウィンドウに表示される。この情報から、手動プロセスに続いて、放射線科医は適切な治療方法を選択する前に、分析するために4〜8個の腫瘍を選択する(103)。
RECISTプロトコルに従って、病変(または腫瘍)は測定可能でなければならない。従って、いったん腫瘍が選択されると、腫瘍が放射線医によって測定され得るか否かについての決定がなされる。もし可能であれば、測定値は、放射線科医によって1つの次元にわたって記録される(105)。放射線科医に提示される情報は、スクリーンの2次元表示に限定されるので、測定は1次元にわたるだけであり得る。
次に、これらの測定値を使用して、治療方法を決定する(106)。
腫瘍に対して治療を行った後、フォローアップ医用スキャンが行われる(107)。システムは、前述のステップを繰り返すことによって、新しいフォローアップスキャンから以前に識別された腫瘍を同定しようとする(108)。
以前に識別された腫瘍が発見された場合、新しいフォローアップスキャンを使用して、放射線科医は、もう一度腫瘍を測定する(109)。フォローアップスキャンのための測定値を記録すると、それらは、以前のスキャンにおける腫瘍の測定値と比較されて、腫瘍サイズが変化したかどうかを決定する(110)。
この時点で、腫瘍の大きさが減少した場合、システムは、患者が治癒するまで同じ治療コースを進めるように放射線科医に助言する(111)。しかしながら、腫瘍サイズが減少していない場合、システムは、代替的な治療方法を追求することを助言する(112)。この治療段階のループは、患者が治癒するまで続く。
ここで、少なくとも1つの実施形態による方法の典型的な実施が示されている図2を参照して、例示的な実施形態を説明する。
図2において、前処理モジュールはダイコムファイルを読み取り、2D画像スライスをシステムにロードする(203)。画像スライスは、[バッチサイズ、高さ、幅、チャネル]の4次元テンソルにロードされる。
測定は、1つまたは複数の次元にわたってデジタル的に分析され、記録されることができ、および/または、体積的に測定が実行されることができる(204)。
画像は同じ患者から時間を隔てて収集されてもよく、患者に対して新しいスキャンが実行されるたびに、本実施形態のプロセスは、後述するように、観察間の変化を評価するために、履歴データおよび新しいデータの両方を用いて実行される。
ダイコム画像が処理されると、患者スキャンの異なる要素に対応する異なるコントラストチャネルが同じウィンドウに提示される。これは、システムが全ての要素を同時に見ることを可能にする。一例として、画像に異なるウィンドウイングレベルを適用し、これらを別々の入力チャネルとして供給することによって、患者の骨をスキャンから容易にセグメント化することができる。
入力テンソル内の追加チャネルとして、イメージングシーケンス内の先行スライスおよび後続スライスを追加することによって、モデルにさらなるコンテキストを与えることができる。このシナリオでは、入力テンソルは3つのチャネルを有し、第1のチャネルは前のスライスであり、第2のチャネルは関連するターゲットマスクに対応する「現在の」スライスであり、第3のチャネルは後続のスライスである。例えば、上述のように、入力テンソルが[バッチサイズ、高さ、幅、チャネル]の4Dテンソルである場合、チャネル値は「3」であり、この入力に対応するマスクは、チャネル値は「1」であるが4Dテンソル[バッチサイズ、高さ、幅、チャネル]である。マスクは、チャネル2内の「現在の」スライスに対応するターゲットである。
画像テンソルは、腫瘍が存在する確率が高い領域を示すヒートマップを作成する完全畳込みネットワーク(FCN)に供給される。次いで、これらの病変をセグメント化する。さらに、セグメンテーションは、セグメンテーションを「クリーンアップ」する、すなわち偽陽性を除去する条件付き確率場法を通して供給することによって後処理される。FCNによって作成されたヒートマップは、画像の確率マップを表す。
FCNは、ネットワークを通してバックプロパゲーションおよびフォワードパスを使用して訓練される。高密度訓練のための損失関数は、個々のピクセルの損失関数の空間次元にわたる合計である。
ここで、L(x)は、画像全体にわたる損失であり、i,jにおける画素に対する損失である。これにより、システムは、システムによって作成された画像から1つまたは複数の腫瘍を自動的に識別することができる。
損失関数は、以下によって定義されるDICE損失であってもよい。
ここで、siとriは、それぞれ、各ピクセルiにおける予測マップ∈[0,…,1]およびグラウンドトゥルースの連続値を表す。あるいは、クロスエントロピーを使用することができる。i,jにおける画素に対するクロスエントロピー損失は、以下によって定義される。
Cは、クラスの数であり、y∈{0,1}は、クラスcのバイナリインジケータであり、sは、クラスcのスコアである。全画像の損失xは、画素の全ての損失にわたる合計として定義される:
モデルが訓練された後、画像をモデルに供給することによって病変をセグメント化することができる。結果として得られる出力は確率マップであり、これを閾値処理して、セグメンテーションマスクまたは輪郭を得ることができる。
異なるスキャンにわたって患者内の同じ病変を識別するために、システムは、目印を使用して、目印に関連する病変の位置に対する表現を構築する。これらの表現は、検査またはスキャンにわたって比較することができる。このようにして、病変の他の特徴(例えば、サイズおよび形状)が変化した場合であっても、病変を異なるスキャンで見つけることができる。
病変の位置表現はベクトルh∈RLとして定義することができ、ここで、Rは正の実数の集合であり、Lは目印の数である。例えば、特定の病変についての位置表現は、hi=[0.43,0.2,0.98,1.3]であり得る。位置表現における各要素は、病変の質量中心のような病変の焦点と、目印の質量中心のような目印の焦点との間の(ユークリッド)距離である。病変および/または目印の質量中心は、以下のように定義される:
ここで、nは体積(すなわち、病変または目印)内の画素数であり、riはピクセルiの座標ベクトルであり、Rは質量中心の座標ベクトルである。病変の質量中心pと目印qとの間のユークリッド距離は、次のようになる:
2つの異なる検査にわたる2つの病変の位置表現ベクトルは、コサイン距離またはユークリッド距離などの類似性メトリックを使用して比較することができる。距離が小さい場合、病変は同じであると言うことができる。
システムが腫瘍を識別し、セグメント化した状態で、治療段階に進む前に1つまたは複数の次元にわたって、その腫瘍または各腫瘍の測定値をデジタル的に分析し、記録する(204)。これは、人為的な誤りおよび不正確さの可能性を実質的に排除し、したがって、全ての腫瘍または増殖が測定される可能性を増加させるはずである。場合によっては、次いで、適切な治療計画/用量を腫瘍に投与することができる(205)。
時間の反復の後、フォローアップ医用スキャンが実行される(206)。システムは、前述のステップ207を実行することによって、新しいフォローアップスキャンから以前に識別された腫瘍を識別しようとする。さらに、システムは、また、新しいフォローアップスキャンで発達した可能性のあるいかなる追加的な増殖を識別する。以前の目印の相対位置、特に各目印の質量中心は、スキャン間の同じ増殖を識別するために使用される。
フォローアップスキャンにおいて腫瘍/増殖が識別された場合、測定値は、再びデジタル的に分析され、1つまたは複数の次元にわたって記録される(208)。フォローアップスキャンのための測定値が記録されると、それらは以前のスキャンにおける腫瘍/増殖の測定値と比較され、腫瘍サイズが変化したかどうかを決定する(209)。比較される腫瘍のサイズは、スキャン間のその腫瘍または各腫瘍の体積である。
図1と同様に、腫瘍の大きさが減少した場合、システムは、患者が治癒するまで同じ治療コースを続ける(210)。しかし、腫瘍の大きさが減少していない場合、システムは、新しい治療を施す前に代替治療方法を追求する(211)。治療フェーズのループは、患者が治癒するまで続く。
機械学習は、機械学習プロセスがタスクのコンピュータ実行中に獲得する経験またはデータから生成されたフィードバックを使用して、1つまたは複数のコンピュータがタスクの種類を実行することを学習するという研究の分野である。
典型的には、機械学習は、特別な規則、技法、および/またはアプローチを有する強化学習および半教師付き学習などの特定のアプローチがあるが、教師付きおよび教師なしアプローチとして広く分類することができる。教師付き機械学習は、オペレータまたはプログラマによって予め決定されたように、通常、入力を含むデータセットがラベル付けされており、例示的な入力と所望の出力との間をマッピングするための1つまたは複数の規則または機能を学習するコンピュータに関連する。
教師なし学習は、例えばパターン認識を実行するときに、入力データの構造を決定することに関連し、通常、ラベルなしデータセットを使用する。強化学習は、1つまたは複数のコンピュータが例えば、ゲームをプレイしたり、車両を運転したりするときに、動的環境と対話することを可能にすることに関連する。
訓練データセットが部分的にしかラベル付けされていない「半教師付き」機械学習など、これらのカテゴリの様々なハイブリッドが可能である。教師なし機械学習の場合、例えば、画像処理またはビデオ強調への視覚技術の適用など、様々な可能な用途がある。教師なし機械学習は、典型的には未知のデータ構造がデータ内に存在する可能性がある問題を解決するために適用される。そのデータはラベル付けされていないので、機械学習プロセスは、例えば内部で導出された情報に基づいてクラスタリングメトリックを導出することによって、データ間の暗黙の関係を識別するように動作する必要がある。例えば、教師なし学習技法を使用して、データセットの次元を低減し、データセット内のクラスタ間の関係を識別しモデル化しようと試みることができ、例えば、クラスタメンバシップの距離を生成し、またはクラスタ内またはクラスタ間のハブまたはノードを識別することができる(例えば、高次元データセットに適用することができる重み付き相関ネットワーク分析と呼ばれる技法を使用するか、または各データ間のユークリッド距離の測定によってデータをクラスタリングするためにk平均クラスタリングを使用する)。
半教師付き学習は、典型的には部分的にラベル付けされたデータセットが存在する場合、例えば、データのサブセットのみがラベル付けされる場合の問題を解決するために適用される。半教師付き機械学習は、外部から提供されるラベルおよび目的関数、ならびに任意の暗黙のデータ関係を利用する。機械学習システムを最初に構成するとき、特に教師付き機械学習アプローチを使用するとき、機械学習アルゴリズムは、何らかの訓練データまたは訓練例の集合を提供され、各例は、典型的には入力信号/ベクトルと所望の出力値、ラベル(または分類)または信号とのペアである。機械学習アルゴリズムは、訓練データを分析し、未知の入力ベクトル/信号のための所望の出力値または信号を生成するために、未知のデータセットと共に使用され得る一般化された関数を生成する。ユーザはどのタイプのデータを訓練データとして使用するかを決定し、代表的な実世界データセットを準備する必要がある。しかし、ユーザは、訓練データがあまりに多くの特徴を提供することなく(これは訓練中に機械学習プロセスによって考慮される次元が多すぎることになり、また、機械学習プロセスがすべてのまたは特定の例について良好な解に収束しないことを意味し得る)、所望の出力値を正確に予測するのに十分な情報を含むことを確実にするように注意しなければならない。また、ユーザは、学習された関数または一般化された関数の所望の構造、例えば、サポートベクターマシンを使用するか、決定木を使用するかを決定しなければならない。
ラベル付けされたデータが容易に利用できない場合、またはシステムが、いくつかの初期シードラベルを与えられた未知のデータから新しいラベル付けされたデータを生成する場合、教師なしまたは半教師付き機械学習アプローチの使用が時々使用される。
機械学習は、非線形階層アルゴリズム、ニューラルネットワーク、畳み込みニューラルネットワーク、回帰型ニューラルネットワーク、長短期メモリネットワーク、多次元畳み込みネットワーク、メモリネットワーク、完全畳み込みネットワーク、またはゲート付き回帰型ネットワークのうちの1つまたは複数を使用して実行することができ、視覚データの予測ブロックを生成するときに柔軟なアプローチを可能にする。長短期メモリネットワーク(LSTM)、メモリネットワーク、またはゲート付き回帰型ネットワークなどのメモリユニットを有するアルゴリズムを使用することにより、予測ブロックの状態を、同じ元の入力フレーム上で実行される動き補償プロセスから維持することができる。アルゴリズムが動きの変化のある種の状態またはメモリを維持するので、これらのネットワークの使用は計算効率を改善することができ、また、いくつかのフレームにわたる動き補償プロセスにおける時間的一貫性を改善することができる。これは、付加的に誤り率の減少をもたらすことができる。
機械学習システムの開発は、典型的には(1)訓練、(2)生産の2つの段階からなる。訓練中、機械学習モデルのパラメータは、目的関数または損失として知られる特定の学習目的を最適化するために反復的に変更される。ひとたびモデルが訓練されると、それは生産において使用されることができ、モデルは入力を取り込み、訓練されたパラメータを使用して出力を生成する。
本明細書に記載される任意のシステム特徴は、また方法特徴として提供されてもよく、逆もまた同様である。本明細書で使用されるように、ミーンズプラスファンクション特徴は、それらの対応する構成に関して代替的に表現されてもよい。
本発明の一態様における任意の特徴は、任意の適切な組み合わせで、本発明の他の態様に適用されてもよい。特に、方法の態様は、システムの態様に適用されてもよく、逆もまた同様である。さらに、1つの態様における任意のいくつかのおよび/またはすべての特徴は、任意の他の態様における任意のいくつかのおよび/またはすべての特徴に、任意の適切な組み合わせで適用され得る。
また、本発明の任意の態様において説明され定義された様々な特徴の特定の組み合わせは、独立して実装および/または供給および/または使用されうることが理解されるべきである。

Claims (43)

  1. 医用画像における1つまたは複数の病変の体積特性を決定するための方法であって、
    画像データを受け取るステップと、
    前記画像データ内の1つまたは複数の病変の1つまたは複数の位置を決定するステップと、
    前記画像データ内の1つまたは複数の病変の決定された1つまたは複数の位置を含む画像セグメンテーションを作成するステップと、
    前記画像セグメンテーションを用いて病変の体積特性を決定するステップと、
    を含む方法。
  2. 前記1つまたは複数の病変の1つまたは複数の位置を決定するステップは、前記1つまたは複数の病変の焦点を識別するステップを含む、請求項1に記載の方法。
  3. 前記1つまたは複数の病変の焦点は、前記1つまたは複数の病変の質量中心を含む、請求項2に記載の方法。
  4. 前記1つまたは複数の病変の1つまたは複数の位置を決定するステップは、前記1つまたは複数の解剖学的目印の焦点を識別するステップを含む、請求項1〜3のいずれかに記載の方法。
  5. 前記1つまたは複数の解剖学的目印の焦点は、前記1つまたは複数の病変の質量中心を含む、請求項4に記載の方法。
  6. 前記1つまたは複数の病変の1つまたは複数の位置を決定するステップは、1つまたは複数の解剖学的目印に関連する前記位置を決定するステップを含む、請求項1に記載の方法。
  7. 前記1つまたは複数の解剖学的目印は、脊椎、肋骨、肺、心臓、肝臓、腎臓のいずれか1つを含む、請求項4〜6のいずれかに記載の方法。
  8. 前記1つまたは複数の病変の1つまたは複数の位置を決定するステップは、前記1つまたは複数の病変の焦点を識別するステップと、前記1つまたは複数の解剖学的目印の焦点を識別するステップと、前記1つまたは複数の解剖学的目印に関連する前記1つまたは複数の病変の位置を決定するステップとを含む、請求項2〜6のいずれかに記載の方法。
  9. 前記画像データは、CTスキャンデータと、ダイコム画像ファイルと、解剖学的構造の連続したスライスの一連の画像と、1つまたは複数のグレースケール画像と、患者層情報と、以前の画像データと、のいずれか1つまたはいずれかの組合せを含む、請求項1〜8のいずれかに記載の方法。
  10. 前記画像データは、1つまたは複数の画像を含む、請求項1〜9のいずれかに記載の方法。
  11. 前記1つまたは複数の画像は、共通の患者の解剖学的構造の共通部分に関連する、請求項10に記載の方法。
  12. 前記1つまたは複数の画像は、異なる時間に保存される、請求項10または11に記載の方法。
  13. 前記1つまたは複数の画像は、3D表現の複数の2Dスライスを含む、請求項10〜12のいずれかに記載の方法。
  14. 前記1つまたは複数の病変をセグメント化して病変セグメントデータを作成するステップと、前記病変セグメントデータを前記画像セグメンテーションに格納するステップとをさらに含む、請求項1〜13のいずれかに記載の方法。
  15. 前記画像セグメンテーションは、マスクまたは輪郭を生成することを含む、請求項14に記載の方法。
  16. 前記1つまたは複数の病変を測定して病変測定データを作成するステップと、前記病変セグメントデータを画像マスクに格納するステップとをさらに含む、請求項1〜15のいずれかに記載の方法。
  17. 前記画像データを前処理するステップをさらに含み、前記前処理は、前記画像データを読み取るステップと、前記画像データをメモリに格納するステップとを含む、請求項1〜16のいずれかに記載の方法。
  18. 前記画像データは、少なくとも4次元浮動小数点テンソルとしてメモリに格納され、前記次元は、高さ、幅、バッチサイズ、およびチャネルを含む、請求項1〜17のいずれかに記載の方法。
  19. 前記チャネルは、1つまたは複数のコントラストウィンドウまたはコントラスト値を含む、請求項18のいずれかに記載の方法。
  20. 前記画像データ内の前記1つまたは複数の病変の1つまたは複数の位置を決定するステップは、完全畳み込みニューラルネットワークを使用することを含む、請求項1〜19のいずれかに記載の方法。
  21. 前記完全畳み込みニューラルネットワークは、バックプロパゲーションを使用して訓練され、および/または、高密度訓練のための損失関数は、個々のピクセルの前記損失関数の空間次元にわたる合計である、請求項20に記載の方法。
  22. 腫瘍である可能性が高い画像データのそれぞれの1つまたは複数の画像内の領域を示すために1つまたは複数のヒートマップを作成することをさらに含む、請求項21に記載の方法。
  23. 前記1つまたは複数のヒートマップを条件付き確率場法によって供給することにより前記1つまたは複数のヒートマップを後処理するステップをさらに含む、請求項22に記載の方法。
  24. 前記決定された1つまたは複数の位置を条件付き確率場法を通して供給することによって、前記画像データ内の前記1つまたは複数の病変の前記決定された1つまたは複数の位置を後処理するステップをさらに含む、請求項1〜23のいずれかに記載の方法。
  25. 発見された病変の1次元測定値を決定するステップをさらに含み、前記1次元測定値は、最大径または垂直径のいずれかを含む、請求項1〜24のいずれかに記載の方法。
  26. 発見された病変の2次元測定値を決定するステップをさらに含み、任意選択で、前記2次元測定値は病変領域を含む、請求項1〜25のいずれかに記載の方法。
  27. 2Dスライス間の補間を用いて、発見された病変の3次元モデルを決定するステップをさらに含む、請求項1〜26のいずれかに記載の方法。
  28. 3次元空間における最大直径を決定するステップをさらに含む、請求項1〜27のいずれかに記載の方法。
  29. 3次元空間における体積および表面を決定するステップをさらに含む、請求項1〜28のいずれかに記載の方法。
  30. 1Dおよび/または2Dおよび/または3D測定値で壊死の程度を決定するステップをさらに含む、請求項1〜29のいずれかに記載の方法。
  31. 所定の基準に従って標的病変を選択するステップをさらに含み、前記所定の基準は、悪性度、大きさ、位置、壊死、その他の分類のいずれか1つまたはいずれかの組合せを含む、請求項1〜30のいずれかに記載の方法。
  32. ヒトが与えた、またはコンピュータが与えた、またはコンピュータが最適化した確率しきい値に基づいて、多数の標的病変を選択するステップ、任意選択的に、潜在的に変化するクラスおよび/または変化する位置および/または変化するサイズの多数の追跡可能な標的病変を生じるステップをさらに含む、請求項1〜31のいずれかに記載の方法。
  33. コンピュータ/人間によって識別された目印を使用して異なる時点で取られたスキャンの間に、病変をコロケーションする(すなわち、同じ病変を位置決めし、識別する)ステップをさらに含む、請求項1〜32のいずれかに記載の方法。
  34. 病変の局在、コンテキスト変数、分類、測定値、数、および/またはこれらすべての要約統計のいずれか1つまたはいずれかの組合せに基づいて、病期を決定するステップをさらに包含する、請求項1〜33のいずれかに記載の方法。
  35. コロケーションされた病変の1次元および/または2次元および/または3次元サイズおよび壊死測定比較を行うステップをさらに含む、請求項1〜34のいずれかに記載の方法。
  36. 病変の分類における変化を分析するステップをさらに含む、請求項1〜35のいずれかに記載の方法。
  37. 任意選択的に、サイズ測定値、分類、解剖学的コンテキストおよび位置の数および重症度のいずれか1つまたはいずれかの組合せに基づいて、腫瘍組織量および病気の段階の統計分析を実施するステップをさらに包含する、請求項1〜36のいずれかに記載の方法。
  38. 腫瘍組織量および病期変化の統計的分析を実施するステップをさらに含み、病期変化は、進行/停滞/退縮のいずれかを含み、任意に、サイズ測定値、分類、解剖学的コンテキストおよび位置の数および重症度のいずれか1つまたはいずれかの組合せに基づいて病期変化の統計的分析を実施する、請求項1〜37のいずれかに記載の方法。
  39. 結果のいずれかまたはすべての可視化、前記結果のいずれかまたはすべてを用いた自動テンプレートレポート作成をさらに含む、請求項1〜38のいずれかに記載の方法。
  40. 上記のすべての結果の品質管理および不確実性分析を実施するステップをさらに含む請求項1〜39のいずれかに記載の方法。
  41. 請求項1〜40のいずれかに記載の方法を実行するように動作可能な装置。
  42. 請求項41に記載の装置を含むシステム。
  43. 請求項1〜40のいずれかに記載の方法を実行するように動作可能なコンピュータプログラム。
JP2020505539A 2017-04-11 2018-04-11 腫瘍進行のrecist評価 Pending JP2020516427A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GBGB1705876.9A GB201705876D0 (en) 2017-04-11 2017-04-11 Recist
GB1705876.9 2017-04-11
PCT/GB2018/050969 WO2018189541A1 (en) 2017-04-11 2018-04-11 Recist assessment of tumour progression

Publications (2)

Publication Number Publication Date
JP2020516427A true JP2020516427A (ja) 2020-06-11
JP2020516427A5 JP2020516427A5 (ja) 2021-05-06

Family

ID=58744797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020505539A Pending JP2020516427A (ja) 2017-04-11 2018-04-11 腫瘍進行のrecist評価

Country Status (5)

Country Link
US (1) US11593943B2 (ja)
EP (1) EP3610456A1 (ja)
JP (1) JP2020516427A (ja)
GB (1) GB201705876D0 (ja)
WO (1) WO2018189541A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022096188A (ja) * 2020-12-17 2022-06-29 株式会社クボタ 検査装置及び検査方法
KR20220105723A (ko) * 2021-01-20 2022-07-28 재단법인 아산사회복지재단 인공 신경망 기반의 의료 영상 분석 장치, 방법 및 이의 학습 방법
JPWO2023053364A1 (ja) * 2021-09-30 2023-04-06

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3036754A1 (en) 2016-10-27 2018-05-03 Progenics Pharmaceuticals, Inc. Network for medical image analysis, decision support system, and related graphical user interface (gui) applications
GB201705876D0 (en) 2017-04-11 2017-05-24 Kheiron Medical Tech Ltd Recist
GB201705911D0 (en) 2017-04-12 2017-05-24 Kheiron Medical Tech Ltd Abstracts
US11341631B2 (en) * 2017-08-09 2022-05-24 Shenzhen Keya Medical Technology Corporation System and method for automatically detecting a physiological condition from a medical image of a patient
US10973486B2 (en) 2018-01-08 2021-04-13 Progenics Pharmaceuticals, Inc. Systems and methods for rapid neural network-based image segmentation and radiopharmaceutical uptake determination
ES2914873T3 (es) 2018-06-14 2022-06-17 Kheiron Medical Tech Ltd Sugerencia de segunda lectura
CN109124669A (zh) * 2018-08-30 2019-01-04 沈阳柏敖生信生物科技有限公司 一种整形前ct数据测量方法
CN109528230B (zh) * 2018-11-21 2021-08-17 山东浪潮科学研究院有限公司 一种基于多级变换网络的乳腺肿瘤分割方法及装置
CN111292289B (zh) * 2018-12-07 2023-09-26 中国科学院深圳先进技术研究院 基于分割网络的ct肺肿瘤分割方法、装置、设备及介质
CN113272859A (zh) 2019-01-07 2021-08-17 西尼诊断公司 用于平台中立性全身图像分段的系统及方法
WO2020219620A1 (en) 2019-04-24 2020-10-29 Progenics Pharmaceuticals, Inc. Systems and methods for automated and interactive analysis of bone scan images for detection of metastases
CA3134745A1 (en) 2019-04-24 2020-10-29 Progenics Pharmaceuticals, Inc. Systems and methods for interactive adjustment of intensity windowing in nuclear medicine images
US11900597B2 (en) 2019-09-27 2024-02-13 Progenics Pharmaceuticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
US11564621B2 (en) 2019-09-27 2023-01-31 Progenies Pharmacenticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
US11321844B2 (en) 2020-04-23 2022-05-03 Exini Diagnostics Ab Systems and methods for deep-learning-based segmentation of composite images
US11386988B2 (en) 2020-04-23 2022-07-12 Exini Diagnostics Ab Systems and methods for deep-learning-based segmentation of composite images
US11721428B2 (en) 2020-07-06 2023-08-08 Exini Diagnostics Ab Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions
CN111870279B (zh) * 2020-07-31 2022-01-28 西安电子科技大学 超声图像左室心肌的分割方法、系统及应用
US11610306B2 (en) 2020-12-16 2023-03-21 Industrial Technology Research Institute Medical image analysis method and device
US20220207337A1 (en) * 2020-12-31 2022-06-30 Deepx Co., Ltd. Method for artificial neural network and neural processing unit
CN113658106A (zh) * 2021-07-21 2021-11-16 杭州深睿博联科技有限公司 一种基于腹部增强ct的肝脏病灶自动诊断系统
CN113781390A (zh) * 2021-07-28 2021-12-10 杭州深睿博联科技有限公司 一种基于半监督学习的胰腺囊肿鉴别方法和系统
CO2022000507A1 (es) * 2022-01-21 2022-01-28 Indigo Tech S A S Sistema y método para caracterizar tumores pulmonares (sólidos, subsólidos y vidrio esmerilado) basado en criterios invasivos mediante distancia pixelar y algoritmos de aprendizaje profundo

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006255412A (ja) * 2005-03-14 2006-09-28 General Electric Co <Ge> 腫瘍量を監視する方法及びシステム
JP2016534709A (ja) * 2013-10-28 2016-11-10 モレキュラー デバイシーズ, エルエルシー 顕微鏡画像内の個々の細胞を分類および識別するための方法およびシステム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6075879A (en) 1993-09-29 2000-06-13 R2 Technology, Inc. Method and system for computer-aided lesion detection using information from multiple images
AU726049B2 (en) 1995-09-19 2000-10-26 Veracel Inc. A neural network assisted multi-spectral segmentation system
US6324532B1 (en) 1997-02-07 2001-11-27 Sarnoff Corporation Method and apparatus for training a neural network to detect objects in an image
US20050113651A1 (en) 2003-11-26 2005-05-26 Confirma, Inc. Apparatus and method for surgical planning and treatment monitoring
US7430321B2 (en) * 2004-09-09 2008-09-30 Siemens Medical Solutions Usa, Inc. System and method for volumetric tumor segmentation using joint space-intensity likelihood ratio test
CA2610345C (en) 2005-06-02 2013-12-24 The Medipattern Corporation System and method of computer-aided detection
US7809175B2 (en) 2005-07-01 2010-10-05 Hologic, Inc. Displaying and navigating computer-aided detection results on a review workstation
US8238637B2 (en) 2006-10-25 2012-08-07 Siemens Computer Aided Diagnosis Ltd. Computer-aided diagnosis of malignancies of suspect regions and false positives in images
US7903861B2 (en) 2006-12-28 2011-03-08 Carestream Health, Inc. Method for classifying breast tissue density using computed image features
US20100158332A1 (en) 2008-12-22 2010-06-24 Dan Rico Method and system of automated detection of lesions in medical images
US8064677B2 (en) * 2009-11-25 2011-11-22 Fujifilm Corporation Systems and methods for measurement of objects of interest in medical images
US8582858B2 (en) 2009-12-17 2013-11-12 The Regents Of The University Of California Method and apparatus for quantitative analysis of breast density morphology based on MRI
US9047664B2 (en) 2013-05-31 2015-06-02 Kathryn Pearson Peyton Apparatus and method for utilizing mammogram images for verification
WO2015031641A1 (en) 2013-08-29 2015-03-05 Mayo Foundation For Medical Education And Research System and method for boundary classification and automatic polyp detection
US9002085B1 (en) * 2013-10-22 2015-04-07 Eyenuk, Inc. Systems and methods for automatically generating descriptions of retinal images
WO2015077076A1 (en) 2013-11-19 2015-05-28 VuComp, Inc Obtaining breast density measurements and classifications
US9922433B2 (en) 2015-05-29 2018-03-20 Moira F. Schieke Method and system for identifying biomarkers using a probability map
CN106096491B (zh) 2016-02-04 2022-04-12 上海市第一人民医院 一种眼底彩色照相图像中微动脉瘤自动化识别方法
CN105931226A (zh) 2016-04-14 2016-09-07 南京信息工程大学 基于深度学习的自适应椭圆拟合细胞自动检测分割方法
CN106204587B (zh) 2016-05-27 2019-01-08 浙江德尚韵兴图像科技有限公司 基于深度卷积神经网络和区域竞争模型的多器官分割方法
WO2017210690A1 (en) 2016-06-03 2017-12-07 Lu Le Spatial aggregation of holistically-nested convolutional neural networks for automated organ localization and segmentation in 3d medical scans
US9589374B1 (en) 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
US10049457B2 (en) 2016-08-29 2018-08-14 CephX Technologies Ltd. Automated cephalometric analysis using machine learning
US20180129900A1 (en) 2016-11-04 2018-05-10 Siemens Healthcare Gmbh Anonymous and Secure Classification Using a Deep Learning Network
US10127659B2 (en) 2016-11-23 2018-11-13 General Electric Company Deep learning medical systems and methods for image acquisition
US11449985B2 (en) 2016-12-02 2022-09-20 Regents Of The University Of Minnesota Computer vision for cancerous tissue recognition
JP2020510463A (ja) 2017-01-27 2020-04-09 アーテリーズ インコーポレイテッド 全層畳み込みネットワークを利用する自動化されたセグメンテーション
US10037601B1 (en) 2017-02-02 2018-07-31 International Business Machines Corporation Systems and methods for automatic detection of architectural distortion in two dimensional mammographic images
GB201705876D0 (en) 2017-04-11 2017-05-24 Kheiron Medical Tech Ltd Recist
GB201705911D0 (en) 2017-04-12 2017-05-24 Kheiron Medical Tech Ltd Abstracts

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006255412A (ja) * 2005-03-14 2006-09-28 General Electric Co <Ge> 腫瘍量を監視する方法及びシステム
JP2016534709A (ja) * 2013-10-28 2016-11-10 モレキュラー デバイシーズ, エルエルシー 顕微鏡画像内の個々の細胞を分類および識別するための方法およびシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
J. LONG ET AL.: "Fully Convolutional Networks for Semantic Segmentation", PROC. OF IEEE COMPUTER VISION AND PATTERN RECOGNITION, JPN6022008723, 2015, pages 3431 - 3440, XP032793793, ISSN: 0004893108, DOI: 10.1109/CVPR.2015.7298965 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022096188A (ja) * 2020-12-17 2022-06-29 株式会社クボタ 検査装置及び検査方法
JP7101236B2 (ja) 2020-12-17 2022-07-14 株式会社クボタ 検査装置及び検査方法
KR20220105723A (ko) * 2021-01-20 2022-07-28 재단법인 아산사회복지재단 인공 신경망 기반의 의료 영상 분석 장치, 방법 및 이의 학습 방법
KR102548203B1 (ko) * 2021-01-20 2023-06-29 프로메디우스 주식회사 인공 신경망 기반의 의료 영상 분석 장치, 방법 및 이의 학습 방법
JPWO2023053364A1 (ja) * 2021-09-30 2023-04-06

Also Published As

Publication number Publication date
US11593943B2 (en) 2023-02-28
US20200074634A1 (en) 2020-03-05
EP3610456A1 (en) 2020-02-19
WO2018189541A1 (en) 2018-10-18
GB201705876D0 (en) 2017-05-24

Similar Documents

Publication Publication Date Title
JP2020516427A (ja) 腫瘍進行のrecist評価
US10643331B2 (en) Multi-scale deep reinforcement machine learning for N-dimensional segmentation in medical imaging
Khorram et al. A new optimized thresholding method using ant colony algorithm for MR brain image segmentation
US11423540B2 (en) Segmentation of anatomical regions and lesions
US10664979B2 (en) Method and system for deep motion model learning in medical images
EP3576020A1 (en) Methods for generating synthetic training data and for training deep learning algorithms for tumor lesion characterization, method and system for tumor lesion characterization, computer program and electronically readable storage medium
RU2571523C2 (ru) Вероятностная оптимизация сегментации, основанной на модели
Hu et al. Reinforcement learning in medical image analysis: Concepts, applications, challenges, and future directions
Ashreetha et al. Soft optimization techniques for automatic liver cancer detection in abdominal liver images
EP3252671A1 (en) Method of training a deep neural network
US10706534B2 (en) Method and apparatus for classifying a data point in imaging data
CN111369576A (zh) 图像分割模型的训练方法、图像分割方法、装置及设备
Rani et al. Superpixel with nanoscale imaging and boosted deep convolutional neural network concept for lung tumor classification
US20230326592A1 (en) System and methods for mammalian transfer learning
Jaffar et al. An ensemble shape gradient features descriptor based nodule detection paradigm: a novel model to augment complex diagnostic decisions assistance
CN113160199B (zh) 影像识别方法、装置、计算机设备和存储介质
US20220076829A1 (en) Method and apparatus for analyzing medical image data in a latent space representation
WO2023104464A1 (en) Selecting training data for annotation
CN111180046B (zh) 确定用于处理图像的处理序列
EP4198884A1 (en) Method and system for processing an image
US20230237647A1 (en) Ai driven longitudinal liver focal lesion analysis
Wang et al. 3D Matting: A Soft Segmentation Method Applied in Computed Tomography
Yang Development of computer-based algorithms for unsupervised assessment of radiotherapy contouring
Jafari et al. EL-IGrowCut: MRI Brain Tissue Segmentation Based on Ensemble Learning and Improve GrowCut Techniques
Alon Reinforcement Learning for Cell Segmentation in Histopathological and Fluorescent Microscopy

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210329

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221011