JP7187430B2 - 人工知能の検出出力から疾患の進行を決定するシステムおよび方法 - Google Patents
人工知能の検出出力から疾患の進行を決定するシステムおよび方法 Download PDFInfo
- Publication number
- JP7187430B2 JP7187430B2 JP2019222765A JP2019222765A JP7187430B2 JP 7187430 B2 JP7187430 B2 JP 7187430B2 JP 2019222765 A JP2019222765 A JP 2019222765A JP 2019222765 A JP2019222765 A JP 2019222765A JP 7187430 B2 JP7187430 B2 JP 7187430B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- mask
- patient
- classification result
- condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Description
撮像デバイス(例えば、ガンマカメラ、陽電子放射断層撮影(PET)スキャナ、コンピュータ断層撮影(CT)スキャナ、X線装置、蛍光透視装置、磁気共鳴(MR)撮像装置、超音波スキャナなど)は、疾患を診断および/または治療するために身体の部分(例えば、臓器、組織など)を表す医用画像(例えば、医用におけるデジタル画像と通信(DICOM)ネイティブ画像)を生成する。医用画像は、医用画像内にキャプチャされた身体の部分に関連するボクセルを含む容積測定データを含むことができる。医用画像視覚化ソフトウェアにより、臨床医は医用画像の様々な場所の機能的または解剖学的特性をセグメント化、注釈付け、測定、および/または報告することができる。いくつかの例では、臨床医は、医用画像視覚化ソフトウェアを利用して、医用画像で関心領域を識別することができる。
例示的な疾患分析および進行システム
図1は、複数の入力110、115、人工知能(AI)分類器120、および出力比較器130を含む例示的な状態比較器装置100を示している。各入力110、115は、AI分類器120に提供され(例えば、時間t0の入力110および時間t1の入力115など)、これはそれぞれの入力110、115の画像および/または他の情報を分類して入力110、115の疾患、異常、および/または他の状態を識別し、入力110、115に基づいて識別された疾患、異常、および/または他の状態の重症度を生成する。例示的な比較器装置100を使用して、状態は、複数回において低/中/高、なし/小/大、なし/小/中/大、正常/異常/緊急などの重症度および/または他の状態基準に関連付けて識別および定量化することができ、複数の時間ベースの定量化/分類を比較して傾向を決定し、警報、指示、調整などの次のアクションをトリガすることができる。
図3は、例示的な学習ニューラルネットワーク300の図を示している。例示的なニューラルネットワーク300は、層320、340、360、および380を含む。層320および340は、ニューラル接続部330と接続されている。層340および360は、ニューラル接続部350と接続されている。層360および380は、ニューラル接続部370と接続されている。データは、入力312、314、316を介して入力層320から出力層380および出力390へと順方向に流れる。
特定の例では、疾患、異常、および/または他の状態の識別および進行は、患者の関連する画像データのAI駆動型分析を通じて決定することができる。
セグメント化された異常面積/曝気された肺のセグメント化された面積=肺疾患/異常によって影響を受けた肺面積の%。
セグメント化された異常面積/全肺のセグメント化された面積=肺疾患/異常によって影響を受けた肺面積の%。
セグメント化された異常面積/胸腔面積の画分=肺疾患/異常によって影響を受けた肺面積の%。
[実施態様1]
人工知能分類器(120、220)であって、
第1の時間から患者の第1の画像データを処理して、前記患者の状態の第1の重症度を示す第1の分類結果を決定し、
第2の時間から前記患者の第2の画像データを処理して、前記患者の前記状態の第2の重症度を示す第2の分類結果を決定する
人工知能分類器(120、220)と、
前記第1の分類結果と前記第2の分類結果を比較して、変化および前記変化に関連する前記状態の進行を決定する比較器(240)と、
前記進行が前記状態の悪化に対応するときにアクションをトリガする出力生成器(250)と
を備える、画像処理装置(200)。
[実施態様2]
前記アクションは、前記状態に対処するための前記患者に対する警報、アクションの推奨、前記アクションの指示、または調整の少なくとも1つを含む、実施態様1に記載の装置(200)。
[実施態様3]
前記人工知能分類器(120、220)は、前記状態の重症度の少なくとも3つのクラスに関して訓練される、実施態様1に記載の装置(200)。
[実施態様4]
前記人工知能分類器(120、220)は、深層学習ネットワークモデルを含む、実施態様1に記載の装置(200)。
[実施態様5]
前記人工知能分類器(120、220)は、
前記第1の画像データまたは前記第2の画像データの少なくとも1つをセグメント化して、前記第1の画像データまたは前記第2の画像データの前記少なくとも1つにおける臓器領域の関心領域の第1のマスクを得て、前記第1の画像データまたは前記第2の画像データの前記少なくとも1つをセグメント化して、前記第1の画像データまたは前記第2の画像データの前記少なくとも1つにおける前記臓器領域の第2のマスクを得る画像セグメンタ(1010)と、
前記第1のマスクと前記第2のマスクを比較して比率メトリックを算出し、前記第1の画像データまた前記は第2の画像データの前記少なくとも1つにおける関心領域を定量化する比率コンピュータ(1030)と、
前記比率メトリックと基準の比較に基づいて、前記第1の分類結果または前記第2の分類結果の少なくとも1つを生成する状態比較器(1040)と
を含む、実施態様1に記載の装置(200)。
[実施態様6]
前記人工知能分類器(120、220)は、前記第1のマスクおよび前記第2のマスクを、前記状態比較器(1040)の1つまたは複数の記述注釈と組み合わせるマスク結合器(1020)をさらに含む、実施態様5に記載の装置(200)。
[実施態様7]
前記状態は、気胸を含み、前記臓器領域は、肺領域を含み、前記第1のマスクは、前記肺領域の虚脱関心領域を含む、実施態様6に記載の装置(200)。
[実施態様8]
実行されると、少なくとも1つのプロセッサ(1312)に、少なくとも、
第1の時間から患者の第1の画像データを処理して、前記患者の状態の第1の重症度を示す第1の分類結果を決定させ、
第2の時間から前記患者の第2の画像データを処理して、前記患者の前記状態の第2の重症度を示す第2の分類結果を決定させ、
前記第1の分類結果と前記第2の分類結果を比較して、変化および前記変化に関連する前記状態の進行を決定させ、
前記進行が前記状態の悪化に対応するときにアクションをトリガさせる
命令を含む、少なくとも1つのコンピュータ可読記憶媒体。
[実施態様9]
前記アクションは、前記患者に対する警報、指示、または調整の少なくとも1つを含む、実施態様8に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様10]
前記第1の画像データおよび前記第2の画像データは、人工知能分類器(120、220)を使用して処理され、前記人工知能分類器(120、220)は、前記状態の重症度の少なくとも3つのクラスに関して訓練されるモデルを含む、実施態様8に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様11]
前記モデルは、深層学習ネットワークモデルを含む、実施態様10に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様12]
前記命令は、実行されると、前記少なくとも1つのプロセッサ(1312)にさらに、
前記第1の画像データまたは前記第2の画像データの少なくとも1つをセグメント化して、前記第1の画像データまたは前記第2の画像データの前記少なくとも1つにおける臓器領域の関心領域の第1のマスクを得させ、
前記第1の画像データまたは前記第2の画像データの前記少なくとも1つをセグメント化して、前記第1の画像データまたは前記第2の画像データの前記少なくとも1つにおける前記臓器領域の第2のマスクを得させ、
前記第1のマスクと前記第2のマスクを比較して比率メトリックを算出し、前記第1の画像データまた前記は第2の画像データの前記少なくとも1つにおける関心領域を定量化させ、
前記比率メトリックと基準の比較に基づいて、前記第1の分類結果または前記第2の分類結果の少なくとも1つを生成させる
実施態様8に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様13]
前記命令は、実行されると、前記少なくとも1つのプロセッサ(1312)にさらに、前記第1のマスクおよび前記第2のマスクを1つまたは複数の記述注釈と組み合わさせる、実施態様12に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様14]
前記状態は、気胸を含み、前記臓器領域は、肺領域を含み、前記第1のマスクは、前記肺領域の虚脱関心領域を含む、実施態様12に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様15]
少なくとも1つのプロセッサ(1312)を使用して命令を実行することによって、第1の時間から患者の第1の画像データを処理して、前記患者の状態の第1の重症度を示す第1の分類結果を決定すること(1120)と、
少なくとも1つのプロセッサ(1312)を使用して命令を実行することによって、第2の時間から前記患者の第2の画像データを処理して、前記患者の前記状態の第2の重症度を示す第2の分類結果を決定すること(1130)と、
少なくとも1つのプロセッサ(1312)を使用して命令を実行することによって、前記第1の分類結果と前記第2の分類結果を比較して(1140)、変化および前記変化に関連する前記状態の進行を決定すること(1150)と、
少なくとも1つのプロセッサ(1312)を使用して命令を実行することによって、前記進行が前記状態の悪化に対応するときにアクションをトリガすること(1170)と
を含む、コンピュータ実装方法(1100)。
[実施態様16]
前記第1の画像データおよび前記第2の画像データは、人工知能分類器(120、220)を使用して処理され、前記人工知能分類器(120、220)は、前記状態の重症度の少なくとも3つのクラスに関して訓練されるモデルを含む、実施態様15に記載の方法(1100)。
[実施態様17]
前記モデルは、深層学習ネットワークモデルを含む、実施態様15に記載の方法(1100)。
[実施態様18]
前記第1の画像データまたは前記第2の画像データの少なくとも1つをセグメント化して、前記第1の画像データまたは前記第2の画像データの前記少なくとも1つにおける臓器領域の関心領域の第1のマスクを得ること(1220)と、
前記第1の画像データまたは前記第2の画像データの前記少なくとも1つをセグメント化して、前記第1の画像データまたは前記第2の画像データの前記少なくとも1つにおける前記臓器領域の第2のマスクを得ること(1230)と、
前記第1のマスクと前記第2のマスクを比較して比率メトリックを算出し(1250)、前記第1の画像データまた前記は第2の画像データの前記少なくとも1つにおける関心領域を定量化すること(1260)と、
前記比率メトリックと基準の比較に基づいて、前記第1の分類結果または前記第2の分類結果の少なくとも1つを生成することと
をさらに含む、実施態様15に記載の方法(1100)。
[実施態様19]
前記第1のマスクおよび前記第2のマスクを1つまたは複数の記述注釈と組み合わせること(1240)をさらに含む、実施態様18に記載の方法(1100)。
110 入力
115 入力
120 人工知能(AI)分類器
130 出力比較器、比率コンピュータ
200 臨床進行分析装置、画像処理装置
210 データソース
220 AI分類器
230 データストア
240 比較器
250 出力生成器
260 トリガ
300 学習ニューラルネットワーク
310 入力
312 入力
314 入力
316 入力
320 入力層、第1の層
322 入力ノード
324 入力ノード
326 入力ノード
330 ニューラル接続部
332 接続部
334 接続部
340 隠れ層、第2の層
342 ノード
344 ノード
346 ノード
348 ノード
350 ニューラル接続部
352 接続部
354 接続部
360 隠れ層
362 ノード
364 ノード
366 ノード
368 ノード
370 ニューラル接続部
372 接続部
374 接続部
380 出力層
382 出力ノード
390 出力
400 畳み込みニューラルネットワーク
402 ウィンドウ
404 畳み込み
406 特徴マップ
410 特徴マップ
412 畳み込み
414 特徴マップ
416 サブサンプリング
418 特徴マップ
420 畳み込み
422 分類層、畳み込みされた層
424 N個のカテゴリの出力層
426 接続部
500 畳み込みニューラルネットワーク
502 入力画像
504 畳み込み層
510 関心特徴
512 関心特徴
514 関心特徴
516 関心特徴
518 関心特徴
520 関心特徴
522 関心特徴
530 第2の畳み込み層、画像
532 画像
534 画像
536 画像
538 画像
540 画像
542 画像
544 画像
546 画像
548 画像
550 部分、出力
552 部分、出力
554 部分、出力
600 構成、パッケージ
610 生データ
620 学習ネットワーク
621 学習ネットワーク
622 学習ネットワーク
623 学習ネットワーク
625 画像エンハンサ
630 処理データ
702 入力データセット
704 訓練ネットワーク
706 順方向、前方パス
708 肺結節、ネットワーク結果
710 比較
712 既知の結果、前胸部
714 誤差
716 後方パス
720 入力
722 展開された学習ネットワーク
724 出力、前胸部
810 生の入力データ、入力
820 前処理
830 パッチ作成
840 訓練されたネットワーク
850 出力アセンブル
860 表示
900 学習デバイス
901 訓練デバイス
903 展開されたデバイス
910 入力定義
911 訓練入力
913 入力定義、システム入力
920 学習ネットワークモデル
921 ネットワーク
923 訓練されたネットワーク
930 出力定義、出力
931 出力評価器
933 出力定義
1010 画像セグメンタ
1020 マスク結合器
1030 比率コンピュータ
1040 状態比較器
1100 方法
1300 プロセッサプラットフォーム
1312 プロセッサ
1314 揮発性メモリ、主メモリ
1316 不揮発性メモリ、主メモリ
1318 バス
1320 インターフェース回路
1322 入力デバイス
1324 出力デバイス
1326 ネットワーク
1328 大容量記憶デバイス
1332 コード化された命令
1410 第1の画像
1412 左肺気胸
1414 左肺胸水
1420 セグメンテーション
1430 セグメンテーションマスク
1510 第2の画像
1512 改善された左肺気胸
1514 左肺胸水
1520 セグメンテーション
1530 セグメンテーションマスク
Claims (11)
- 人工知能分類器(120、220)であって、
第1の時間における患者の第1の画像データを処理して、前記患者の状態の第1の重症度を示す第1の分類結果を決定し、
第2の時間における前記患者の第2の画像データを処理して、前記患者の前記状態の第2の重症度を示す第2の分類結果を決定する
少なくとも1つの深層学習ネットワークモデルを含む人工知能分類器(120、220)と、
前記第1の分類結果と前記第2の分類結果を比較して、変化および前記変化に関連する前記状態の進行を決定する比較器(240)と、
前記進行が前記状態の悪化に対応するときにアクションをトリガする出力生成器(250)とを備え、
前記人工知能分類器が、さらに
前記第1の画像データまたは前記第2の画像データの少なくとも1つをセグメント化して、前記第1の画像データまたは前記第2の画像データの前記少なくとも1つにおける臓器領域の関心領域の第1のマスクを得て、前記第1の画像データまたは前記第2の画像データの前記少なくとも1つをセグメント化して、前記第1の画像データまたは前記第2の画像データの前記少なくとも1つにおける前記臓器領域の第2のマスクを得る画像セグメンタ(1010)と、
前記第1のマスクと前記第2のマスクを比較して比率メトリックを算出し、前記第1の画像データまた前記は第2の画像データの前記少なくとも1つにおける関心領域を定量化する比率コンピュータ(1030)と、
前記比率メトリックと基準の比較に基づいて、前記第1の分類結果または前記第2の分類結果の少なくとも1つを生成する状態比較器(1040)と
を備える、画像処理装置(200)。 - 前記アクションは、前記状態に対処するための前記患者に対する警報、アクションの推奨、前記アクションの指示、または調整の少なくとも1つを含む、請求項1に記載の装置(200)。
- 前記人工知能分類器(120、220)は、前記状態の重症度の少なくとも3つのクラスに関して訓練される、請求項1に記載の装置(200)。
- 前記人工知能分類器(120、220)は、深層学習ネットワークモデルを含む、請求項1に記載の装置(200)。
- 前記人工知能分類器(120、220)は、前記第1のマスクおよび前記第2のマスクを、前記状態比較器(1040)の1つまたは複数の記述注釈と組み合わせるマスク結合器(1020)をさらに含む、請求項1に記載の装置(200)。
- 前記状態は、気胸を含み、前記臓器領域は、肺領域を含み、前記第1のマスクは、前記肺領域の虚脱関心領域を含む、請求項5に記載の装置(200)。
- 実行されると、少なくとも1つのプロセッサ(1312)に、少なくとも、
少なくとも1つの深層学習ネットワークモデルを使用して、第1の時間における患者の第1の画像データを処理して、前記患者の状態の第1の重症度を示す第1の分類結果を決定させ、
前記少なくとも1つの深層学習ネットワークモデルを使用して、第2の時間における前記患者の第2の画像データを処理して、前記患者の前記状態の第2の重症度を示す第2の分類結果を決定させ、
前記第1の分類結果と前記第2の分類結果を比較して、変化および前記変化に関連する前記状態の進行を決定させ、
前記進行が前記状態の悪化に対応するときにアクションをトリガさせる
命令を含む、少なくとも1つの有形のコンピュータ可読記憶媒体であって、
前記命令は、実行されると、前記少なくとも1つのプロセッサ(1312)にさらに、
前記第1の画像データまたは前記第2の画像データの少なくとも1つをセグメント化して、前記第1の画像データまたは前記第2の画像データの前記少なくとも1つにおける臓器領域の関心領域の第1のマスクを得させ、
前記第1の画像データまたは前記第2の画像データの前記少なくとも1つをセグメント化して、前記第1の画像データまたは前記第2の画像データの前記少なくとも1つにおける前記臓器領域の第2のマスクを得させ、
前記第1のマスクと前記第2のマスクを比較して比率メトリックを算出し、前記第1の画像データまた前記は第2の画像データの前記少なくとも1つにおける関心領域を定量化させ、
前記比率メトリックと基準の比較に基づいて、前記第1の分類結果または前記第2の分類結果の少なくとも1つを生成させる少なくとも1つの有形のコンピュータ可読記憶媒体。 - 前記アクションは、前記患者に対する警報、指示、または調整の少なくとも1つを含む、請求項7に記載の少なくとも1つのコンピュータ可読記憶媒体。
- 前記第1の画像データおよび前記第2の画像データは、人工知能分類器(120、220)を使用して処理され、前記人工知能分類器(120、220)は、前記状態の重症度の少なくとも3つのクラスに関して訓練されるモデルを含む、請求項7に記載の少なくとも1つのコンピュータ可読記憶媒体。
- 前記命令は、実行されると、前記少なくとも1つのプロセッサ(1312)にさらに、前記第1のマスクおよび前記第2のマスクを1つまたは複数の記述注釈と組み合わさせる、請求項7に記載の少なくとも1つのコンピュータ可読記憶媒体。
- 少なくとも1つのプロセッサ(1312)および少なくとも1つの深層学習モデルを使用して命令を実行することによって、第1の時間における患者の第1の画像データを処理して、前記患者の状態の第1の重症度を示す第1の分類結果を決定すること(1120)と、
少なくとも1つのプロセッサ(1312)および少なくとも1つの深層学習モデルを使用して命令を実行することによって、第2の時間における前記患者の第2の画像データを処理して、前記患者の前記状態の第2の重症度を示す第2の分類結果を決定すること(1130)と、
少なくとも1つのプロセッサ(1312)を使用して命令を実行することによって、前記第1の分類結果と前記第2の分類結果を比較して(1140)、変化および前記変化に関連する前記状態の進行を決定すること(1150)と、
少なくとも1つのプロセッサ(1312)を使用して命令を実行することによって、前記進行が前記状態の悪化に対応するときにアクションをトリガすること(1170)と、
前記第1の画像データまたは前記第2の画像データの少なくとも1つをセグメント化して、前記第1の画像データまたは前記第2の画像データの前記少なくとも1つにおける臓器領域の関心領域の第1のマスクを得ること(1220)と、
前記第1の画像データまたは前記第2の画像データの前記少なくとも1つをセグメント化して、前記第1の画像データまたは前記第2の画像データの前記少なくとも1つにおける前記臓器領域の第2のマスクを得ること(1230)と、
前記第1のマスクと前記第2のマスクを比較して比率メトリックを算出し(1250)、前記第1の画像データまた前記は第2の画像データの前記少なくとも1つにおける関心領域を定量化すること(1260)と、
前記比率メトリックと基準の比較に基づいて、前記第1の分類結果または前記第2の分類結果の少なくとも1つを生成することと
を含む、コンピュータ実装方法(1100)。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/233,670 US10811135B2 (en) | 2018-12-27 | 2018-12-27 | Systems and methods to determine disease progression from artificial intelligence detection output |
US16/233,670 | 2018-12-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020126598A JP2020126598A (ja) | 2020-08-20 |
JP7187430B2 true JP7187430B2 (ja) | 2022-12-12 |
Family
ID=69024153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019222765A Active JP7187430B2 (ja) | 2018-12-27 | 2019-12-10 | 人工知能の検出出力から疾患の進行を決定するシステムおよび方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10811135B2 (ja) |
EP (1) | EP3675130A1 (ja) |
JP (1) | JP7187430B2 (ja) |
CN (1) | CN111401398B (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11030742B2 (en) * | 2019-03-29 | 2021-06-08 | GE Precision Healthcare LLC | Systems and methods to facilitate review of liver tumor cases |
US11199602B2 (en) * | 2019-08-29 | 2021-12-14 | Shanghai United Imaging Intelligence Co., Ltd. | Methods and devices for generating sampling masks related to imaging |
IL270116A (en) * | 2019-10-23 | 2021-04-29 | De Identification Ltd | A system and method for identifying and protecting against cyber attacks against classification systems |
EP3836157A1 (en) * | 2019-12-12 | 2021-06-16 | Siemens Healthcare GmbH | Method for obtaining disease-related clinical information |
US11810291B2 (en) | 2020-04-15 | 2023-11-07 | Siemens Healthcare Gmbh | Medical image synthesis of abnormality patterns associated with COVID-19 |
US11830606B2 (en) * | 2020-04-28 | 2023-11-28 | Siemens Healthcare Gmbh | Risk prediction for COVID-19 patient management |
US20210398654A1 (en) * | 2020-06-22 | 2021-12-23 | Siemens Healthcare Gmbh | Automatic detection of covid-19 in chest ct images |
CN111798535B (zh) * | 2020-09-09 | 2020-12-01 | 南京安科医疗科技有限公司 | Ct图像增强显示方法及计算机可读存储介质 |
US11410341B2 (en) | 2020-11-20 | 2022-08-09 | GE Precision Healthcare LLC | System and method for visualizing placement of a medical tube or line |
KR102530010B1 (ko) * | 2020-12-16 | 2023-05-08 | 가천대학교 산학협력단 | 의료 영상 기반 질환 중증도 결정 장치 및 방법 |
EP4020492A1 (en) * | 2020-12-28 | 2022-06-29 | Siemens Healthcare GmbH | Method and system for automatically determining (alertable) changes of a condition of a patient |
CN112863648B (zh) * | 2020-12-31 | 2022-08-26 | 四川大学华西医院 | 脑肿瘤术后mri多模态输出系统及方法 |
CN112819808A (zh) * | 2021-02-23 | 2021-05-18 | 上海商汤智能科技有限公司 | 医学图像检测方法及相关装置、设备、存储介质 |
US20220277841A1 (en) * | 2021-03-01 | 2022-09-01 | Iaso Automated Medical Systems, Inc. | Systems And Methods For Analyzing Patient Data and Allocating Medical Resources |
JP2024510119A (ja) * | 2021-03-16 | 2024-03-06 | ディープ バイオ インク | ニューラルネットワークを介した疾患の診断結果を用いた予後予測方法及びそのシステム |
US11861835B2 (en) * | 2021-03-25 | 2024-01-02 | Siemens Healthcare Gmbh | Automatic hemorrhage expansion detection from head CT images |
WO2022253774A1 (en) * | 2021-05-31 | 2022-12-08 | B-Rayz Ag | Method for improving the performance of medical image analysis by an artificial intelligence and a related system |
JP7430314B2 (ja) * | 2021-07-20 | 2024-02-13 | 順也 福岡 | 特徴マップを出力するための機械学習モデルを作成する方法 |
CN115100179B (zh) * | 2022-07-15 | 2023-02-21 | 北京医准智能科技有限公司 | 一种图像处理方法、装置、设备及存储介质 |
CN117132840B (zh) * | 2023-10-26 | 2024-01-26 | 苏州凌影云诺医疗科技有限公司 | 一种基于AHS分期和Forrest分级的消化性溃疡分类方法和系统 |
CN117496277B (zh) * | 2024-01-02 | 2024-03-12 | 达州市中心医院(达州市人民医院) | 基于人工智能的直肠癌影像数据建模处理方法和系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013165874A (ja) | 2012-02-16 | 2013-08-29 | Hitachi Ltd | 画像診断支援システム、プログラム及び記憶媒体 |
JP2018175227A (ja) | 2017-04-10 | 2018-11-15 | 富士フイルム株式会社 | 医用画像表示装置、方法およびプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6366797B1 (en) * | 1998-08-25 | 2002-04-02 | The Cleveland Clinic Foundation | Method and system for brain volume analysis |
JP4599191B2 (ja) * | 2005-03-01 | 2010-12-15 | 国立大学法人神戸大学 | 画像診断処理装置および画像診断処理プログラム |
US7929737B2 (en) * | 2005-09-29 | 2011-04-19 | General Electric Company | Method and system for automatically generating a disease severity index |
US7970188B2 (en) * | 2006-11-22 | 2011-06-28 | General Electric Company | Systems and methods for automatic routing and prioritization of exams based on image classification |
US9946843B2 (en) * | 2013-11-13 | 2018-04-17 | Koninklijke Philips N.V. | Clinical decision support system based triage decision making |
CN106132286B (zh) * | 2014-03-07 | 2020-04-21 | 心脏起搏器股份公司 | 多级心力衰竭事件检测 |
US10219767B2 (en) * | 2014-10-13 | 2019-03-05 | Koninklijke Philips N.V. | Classification of a health state of tissue of interest based on longitudinal features |
CN106560827B (zh) * | 2015-09-30 | 2021-11-26 | 松下知识产权经营株式会社 | 控制方法 |
US11282602B2 (en) * | 2016-10-26 | 2022-03-22 | Carefusion 2200, Inc. | Device and method for mobile monitoring of drainage catheter |
US10169872B2 (en) * | 2016-11-02 | 2019-01-01 | International Business Machines Corporation | Classification of severity of pathological condition using hybrid image representation |
EP3589190B1 (en) * | 2017-03-01 | 2022-12-28 | TherMidas Oy | Multimodal medical imaging and analyzing system, method and server |
US11004559B2 (en) * | 2017-12-15 | 2021-05-11 | International Business Machines Corporation | Differential diagnosis mechanisms based on cognitive evaluation of medical images and patient data |
-
2018
- 2018-12-27 US US16/233,670 patent/US10811135B2/en active Active
-
2019
- 2019-12-10 JP JP2019222765A patent/JP7187430B2/ja active Active
- 2019-12-20 CN CN201911330433.2A patent/CN111401398B/zh active Active
- 2019-12-23 EP EP19219569.1A patent/EP3675130A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013165874A (ja) | 2012-02-16 | 2013-08-29 | Hitachi Ltd | 画像診断支援システム、プログラム及び記憶媒体 |
JP2018175227A (ja) | 2017-04-10 | 2018-11-15 | 富士フイルム株式会社 | 医用画像表示装置、方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20200211694A1 (en) | 2020-07-02 |
CN111401398A (zh) | 2020-07-10 |
JP2020126598A (ja) | 2020-08-20 |
CN111401398B (zh) | 2023-11-14 |
EP3675130A1 (en) | 2020-07-01 |
US10811135B2 (en) | 2020-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7187430B2 (ja) | 人工知能の検出出力から疾患の進行を決定するシステムおよび方法 | |
US11712208B2 (en) | Systems and methods to deliver point of care alerts for radiological findings | |
US11341646B2 (en) | Systems and methods to deliver point of care alerts for radiological findings | |
US11049250B2 (en) | Systems and methods to deliver point of care alerts for radiological findings | |
US10628943B2 (en) | Deep learning medical systems and methods for image acquisition | |
US10565477B2 (en) | Deep learning medical systems and methods for image reconstruction and quality evaluation | |
JP7053541B2 (ja) | 患者固有の深層学習画像ノイズ除去方法およびシステム | |
US11069056B2 (en) | Multi-modal computer-aided diagnosis systems and methods for prostate cancer | |
US11443201B2 (en) | Artificial intelligence-based self-learning in medical imaging | |
US10984894B2 (en) | Automated image quality control apparatus and methods | |
US20240127436A1 (en) | Multi-modal computer-aided diagnosis systems and methods for prostate cancer | |
US10957038B2 (en) | Machine learning to determine clinical change from prior images | |
US20220284579A1 (en) | Systems and methods to deliver point of care alerts for radiological findings | |
CN114220534A (zh) | 针对前列腺癌的多模态计算机辅助诊断系统和方法 | |
US11410341B2 (en) | System and method for visualizing placement of a medical tube or line | |
US20220331556A1 (en) | System and method for visualizing placement of a medical tube or line |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201222 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210520 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220303 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220922 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220922 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221011 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221012 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7187430 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |