JP2022526964A - 非造影頭部ctにおける重大領域の迅速検出及びインデックス付けのための自動化システム - Google Patents

非造影頭部ctにおける重大領域の迅速検出及びインデックス付けのための自動化システム Download PDF

Info

Publication number
JP2022526964A
JP2022526964A JP2021558025A JP2021558025A JP2022526964A JP 2022526964 A JP2022526964 A JP 2022526964A JP 2021558025 A JP2021558025 A JP 2021558025A JP 2021558025 A JP2021558025 A JP 2021558025A JP 2022526964 A JP2022526964 A JP 2022526964A
Authority
JP
Japan
Prior art keywords
subvolume
interest
composite images
scan
indexing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021558025A
Other languages
English (en)
Other versions
JPWO2020200901A5 (ja
Inventor
ヨギシャ マリヤ
シュリニヴァス プラサド ヴィディヤ マダプシ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2022526964A publication Critical patent/JP2022526964A/ja
Publication of JPWO2020200901A5 publication Critical patent/JPWO2020200901A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、画像データを処理し、関心対象における関心領域にインデックス付けするための、処理システム及び対応する方法に関する。このシステムは、画像データを位置合わせするためのレジストレーションユニット、画像データからサブボリュームを生成するサブボリュームジェネレータ、各サブボリュームから合成画像の複数のセットを生成するための合成画像ジェネレータを備え、合成画像の各セットは、異なる投影を表わす。このシステムは、合成画像のセットのそれぞれを並列に評価することによって各サブボリュームにおけるインデックス付き関心領域を生成するためのインデックス付けユニットと、各サブボリュームの合成画像の各セットをスキャンレベルの優先順位付けに結合するための、結合ユニットとを備える。

Description

本発明は、概して、関心対象の画像データを処理し、関心対象の関心領域にインデックス付けするための処理システム、及び関心対象の画像データを処理し、関心対象の関心領域にインデックス付けするための方法に関する。
非造影頭部CT(NCHCT)イメージングは、患者の頭部(関心対象)の非侵襲性の頻繁な放射線スキャンであり、重大事例及び非重大事例の両方において、救急科における神経性及び外傷性の病訴試験のためのスクリーニングのために使用される。それらは広範に利用可能であり、獲得時間が比較的短いため、救急隊を訪れる患者に最適のイメージングモードであり、頭部外傷又は脳卒中症状のある患者への対応を導く唯一の検査となっている。
CT画像から得られた診断は、その後の治療パスを決定する。外傷などの重大な事例では、治療までの時間が最も重要であり、医師はできるだけ早くその後の治療を決定する必要がある。
CTスキャン(イメージング)の利用可能性が高まるにつれ、解釈のための訓練を受けた放射線科医がいない領域において、問題が増大している。また、「時間外」期間中に、救急科の上級医療スタッフは、最終的な決定は放射線科医に頼っているため、解釈において正しいのは3回のうち2回でしかない。
救急科に来院するCTを必要とする患者の数を考えると、適切なレベルの医療をトリガーするための即時の予備放射線レポートが救急科において最も重要である。優先順位付けのため、及び影響を受ける領域(関心領域)を事前に識別し、それにより診断と治療のプロセスを速め、患者の医療を改善するために、生命を脅かす病状を検出するための予備的なトリアージ(又はインデックス付け)システムが緊急に必要である。
現在、深層畳み込みニューラルネットワーク(DCNNs)は、医用画像分類タスクの主要な機械学習アプローチになっている。DCNNsのデータ駆動特性は、公的に使用可能な医用画像データセットの量の増加による恩恵を受けている。既存の文献では、Dense Convolutional Network(DenseNet)モデルやResidual Network(ResNets)モデルなどの最先端のDCNNsが使用されている。これらのモデルは両方とも、医用画像分類のために転移学習されている。
非造影頭部CTの自動解釈における現在のソリューションは、3次元(3D)全体スキャン分析に焦点を当てている。3D全体スキャンモデルは、予測を行う間に、コンテキスト情報を考慮する。ただし、大規模なスキャンを評価している間、DCNNsの場合のように、連続したプーリングでは血液流出の小さな領域を簡単に見逃す可能性がある。
一部の異常は、スライス間のコンテキスト情報(脳室の垂直方向の押圧力によって示される質量効果など)にも依存しており、スライスレベルで構築されたモデルは、モデルにコンテキスト情報も提供されない限り、これらを検出できない。スライスレベルの分析は、小さな異常(たとえば、血液流出の微細な領域)の識別には優れているが、計算と時間とがかかる可能性がある。また、熟練者が、これらのモデルのトレーニングに必要な、各スライスにラベルを付けることは、非常に時間と費用のかかるプロセスである。
より速く、複雑ではなく、コンテキスト情報をも考慮に入れる、関心対象における関心領域の改良されたインデックス付けに対するニーズに加えて、小さなサイズの異常を見失うという問題に対処するニーズがある。
本発明の目的は、上記の問題を解決するか、又は少なくとも代替案を提供する、関心対象の画像データを処理するためのシステム及び方法を提供することである。
特に、本発明の目的は、画像データ内のコンテキスト情報ならびに関心対象内の小さなサイズの異常を考慮に入れる、より速いインデックス付け又は異常優先順位付けを行うシステム及び方法を提供することである。
本発明の第1の態様では、関心対象の画像データを処理し、関心対象における関心領域にインデックス付けするための、処理システムが提供される。
画像データは、通常、CTイメージングシステム、特に非造影頭部CTイメージングシステムなどの、イメージングシステムによって生成される。非造影頭部CTイメージングシステムの場合、関心対象は患者の頭部である。
処理システムは、イメージングシステムからの画像データを位置合わせするように構成された、レジストレーションユニットを備える。
画像データはCTイメージングシステムによって生成され、処理システムによって受信及び位置合わせされる。画像データは、関心対象、例えば患者の頭部を表わす3Dボリューム画像データである。一実施形態では、画像データは、脳及び頭蓋骨領域の抽出などの関心領域の抽出を行う、セグメント化ユニット又は抽出ユニットによって受信される。
処理システムは、画像データからサブボリュームを生成するように構成されたサブボリュームジェネレータをさらに備え、各サブボリュームはスラブ厚さを有する。各スラブ厚さは、元のスキャンのいくつかのスライスを含む。好ましくは、サブボリュームは、元の画像データ又はスキャンデータのアキシャルビューから作成される。或いは、サブボリュームは、元の画像データ又はスキャンデータのコロナルビューから作成される。最も好ましい実施形態では、サブボリュームは、元の画像データ又はスキャンデータのアキシャルビューとコロナルビューとから作成される。
処理システムは、通常は3Dボリューム画像データである、受信されて位置合わせされた画像データからサブボリュームを生成するように構成されている。サブボリュームを作成することにより、3Dボリューム画像データは、それぞれがスラブ厚さを有する複数のサブボリュームに分割される。好ましくは、位置合わせされた画像データ又は3Dボリューム画像データは、サブボリュームが最適なスラブ厚さを有するように分割され、小さな異常がカバーされることを確実にする。
処理システムはまた、各サブボリュームから合成画像の複数のセットを生成するように構成された、合成画像ジェネレータを備え、合成画像の各セットは、異なる投影を表わす。好ましくは、各合成画像は2次元(2D)合成画像である。言い換えると、サブボリュームの複数の2次元(2D)合成画像が元のスキャンから作成される。
各サブボリュームから複数セットの合成画像を生成することにより、画像データにおける重要情報が失われるリスクが軽減され、よりロバストになる。これにより、無数の異常に対する可視性が向上する。したがって、合成画像ジェネレータは、単一のサブボリュームに対して複数の合成画像を作成する。好ましくは、3つの異なるタイプの合成画像があり、最大強度投影(MIP)、最小強度投影(MinIP)、及びグレーレベルヒストグラムからの閾値選択に基づく投影(OtsuIP)である。
グレーレベルヒストグラムからの閾値選択に基づく投影は、参照により本明細書に組み込まれる、大津信行(Nobuyuki Otsu)により、「A Threshold Selection Method from Gray-Level Histograms」というタイトルで、IEEE Transactions on Systems、Man、and Cybernetics,vol.smc-9,No.1,1979年1月に公開された投影方法であることが好ましい。
MIPに基づく合成画像のセットを有すると、超高密度領域(血液流出など)が保持されるという利点がある。
MinIPに基づく合成画像のセットを有すると、低密度領域、脳室、及び硬膜下の異常が維持されるという利点がある。
OtsuIPに基づく合成画像のセットを有すると、結合されたスライス全体の最大分散点が考慮されるため、関連情報が抑制されるリスクがさらに軽減される。
処理システムは、合成画像のセットのそれぞれを並列に評価することによって、各サブボリューム内のインデックス付き関心領域を生成するように構成された、インデックス付けユニットを備える。
好ましくは、サブボリュームは、アキシャルビューとコロナルビューとから作成される。これにより、アキシャルビューサブボリュームとコロナルビューサブボリュームが作成される。これにより、脳構造の垂直方向の引張力/押圧力を検出するための、コロナル面スライスの評価が可能になる。CTを使用して頭部の異常を検出するための最先端のシステムは、アキシャルスキャン又はアキシャルビューの評価のみに焦点を当てている。このことは、スライス毎に、周囲の少数のスライスのコンテキスト無しに行われたものである。コロナルビューサブボリュームを考慮すると、質量効果のような、より複雑な臨床状態の検出が可能になる。このため、コロナルビューを評価することは、この状態が構造の垂直方向の動きに現れる可能性があるので、有益である。スライス毎の評価の制約は、コロナルビューの評価によって垂直方向のコンテキスト情報も考慮することによって克服され、このことは、アキシャルビューだけが考慮される場合には正常に見える可能性のある、構造の垂直方向の押圧力/引張力の検出に重要である。
インデックス付けユニットは、好ましくは、関心対象の異常を分類し、各インデックス付けされた領域の異常確率スコアを生成するように構成された分類器であり、この分類器は、好ましくは、深層畳み込みニューラルネットワーク(DCNN)である。
処理システムはまた、各サブボリュームの合成画像の各セットをスキャンレベルの優先順位付けに結合するように構成された、結合ユニットを備える。
好ましくは、結合ユニットは、各サブボリューム(全サブボリューム)の合成画像の各セットの各深層畳み込みニューラルネットワークとリカレントニューラルネットワークとをカスケード接続し、それによってスキャンレベルの優先順位付けを行うように構成される。
複数のDCNNsをリカレントニューラルネットワーク(RNN)とカスケード接続する利点は、サブボリューム全体のコンテキスト情報を考慮できることである。
先に説明したように、質量効果などの複雑な臨床状態を検出するためには、スライス全体のコンテキスト情報を評価することが重要である。明確な分界(demarcation)(例えば、垂直スライス全体の石灰化の境界)が疑わしい事例の場合にも、コンテキスト情報を評価することが重要である。このことの自動化は、サブボリュームDCNNモジュールとリカレントベースのネットワークをカスケード接続することによって改善される。
優先順位付けと事前インデックス付けによって、より効率的な診断が可能になる。
サブボリュームにおいて検出された重要な所見は、RNNを使用して容易に結合することができる。これにより、患者レベルのスコア又はスキャンレベルの優先順位付けが作成され、これは、即時アクションに対する警告と優先順位付けとに使用してもよい。
診断及び治療までの時間をさらに改善するために、本発明はまた、各スキャンに対するサブボリュームの事前インデックス付けを提供し、この場合、スキャンの解釈が求められたときの即時アクセスに対して、重大な病状が検出される。
言い換えれば、本発明は、元のスキャン(イメージングシステムからの画像データ)のコロナルビューとともに、アキシャルビューから(十分な厚さの)サブボリュームを作成することを含む。複数の合成画像が、最大強度投影(MIP)、最小強度投影(MinIP)、及び大津閾値点から生成された投影(OtsuIP)を使用して、各サブボリュームから生成される。次に、各サブボリュームの3つの合成画像が、患者における重大な病状を検出するために、並列に評価されて、次いで、結合されてスキャンレベルの優先順位を取得する。重要な所見が検出された場合には、影響を受けたサブボリュームの自動選択が実行され、熟練者が重大な領域をすぐに見ることを可能にして、これによって診断と治療までの時間が改善される。
本発明はまた、関心対象の画像データを処理し、関心対象における関心領域にインデックス付けする方法に関する。この方法は、
レジストレーションユニットを用いて、イメージングシステムからの画像データを位置合わせするステップと、
サブボリュームジェネレータを用いて、画像データからサブボリュームを生成するステップであって、各サブボリュームはスラブ厚さを有する、ステップと、
合成画像ジェネレータを用いて各サブボリュームから合成画像の複数のセットを生成するステップであって、合成画像の各セットが異なる投影を表わす、ステップと、
合成画像のセットのそれぞれを並列に評価することによって、インデックス付けユニットを用いて、各サブボリュームにおける関心領域にインデックス付けするステップと、
結合ユニットを用いて、合成画像の各セットのインデックス付き関心領域を、スキャンレベル優先順位付けに結合するステップと
を有する。
一実施形態において、この方法は、以下でさらに説明されるように、脳/骨領域抽出のステップも有する。好ましくは、このステップは、画像データの位置合わせとサブボリュームの生成との間に実行される。
好ましくは、サブボリュームを生成するステップは、アキシャルビューからサブボリュームを作成するステップと、コロナルビューからサブボリュームを作成するステップとを含む。
好ましくは、合成画像の複数のセットを生成するステップは、最大強度投影を用いて生成される合成画像のセットを生成するステップと、最小強度投影を用いて生成される合成画像のセットを生成するステップと、グレーレベル閾値処理を用いて生成される合成画像のセットを生成するステップとをさらに有する。
本発明による方法の一実施形態において、インデックス付けするステップは、関心対象における異常を分類するステップ、及び深層畳み込みニューラルネットワーク(DCNN)である、分類器を用いて各インデックス付き領域に対して異常確率スコアを生成するステップをさらに含む。
本発明による方法の別の実施形態において、結合するステップは、各サブボリュームの合成画像の各セットの各深層畳み込みニューラルネットワークをリカレントニューラルネットワークとカスケード接続し、それによってスキャンレベル優先順位付けを行うステップをさらに含む。
本発明による方法の一実施形態において、結合するステップは、スキャンレベル優先順位付けに応じた、サブボリュームの事前インデックス付けをさらに含む。
言い換えると、上記方法は、
各ビュー(コロナル及びアキシャル)を所望の厚さのサブボリュームに分けるステップ、
各サブボリュームから合成画像(MIP、MinIP、OtsuIP)を作成するステップ、
重大な所見を検出するために、単一のサブボリュームに対する合成画像の各セットを並列に評価するステップ、
事前インデックス付け及びビューイングの間の即時アクセスのために、サブボリューム予測を利用するステップ、
RNNを介してサブボリューム全体のコンテキスト情報を使用してビューレベル予測を作成するステップ、
ビューレベルスコアを結合して、患者レベル予測を作成するステップ、及び
ワークリストを更新するため、及び優先順位付けのために、患者レベル予測を使用するステップ
の1つ又は複数を有する。
言い換えると、スキャン毎ではなく、(それぞれからの合成画像を作成することによる)サブボリューム毎の評価は、時間及び計算複雑度の点でより効率的であるので、時間及び計算複雑度が低減される。
外傷のような重大な事例において、治療までの時間が極めて重要であり、医師は、後続の治療をできる限り早く決定しなくてはならない。病状の正確な初期評価は、ケースハンドラ及び治療パス(すなわち、外科的又は内科的介入)を決定するので、これが必要とされ、いかなるエラーでも、NCHCTが十分である治療にいたるまでの時間における遅延を生じさせる。
次に、本発明を、添付の図面を参照して、例示として説明する。
イメージングシステム及びイメージングレビューシステムと共に、本発明による処理システムを示す図である。 本発明による方法を示す概略フロー図である。 本発明による好ましい方法を示す概略フロー図である。 アキシャルスキャン/ビューの3つの連続スライスの例を示す図である。 アキシャルスキャン/ビューの3つの連続スライスの例を示す図である。 アキシャルスキャン/ビューの3つの連続スライスの例を示す図である。 前述の連続スライスの結果として得られる合成画像を示す図である。 フルスキャン合成画像を示す図である。 水頭症を伴う出血を包含するアキシャルスキャン/ビューの最大強度投影を用いて生成された合成画像である。 水頭症を伴う出血を包含するアキシャルスキャン/ビューの最小強度投影を用いて生成された合成画像である。 低密度領域内に出血を包含するアキシャルスキャン/ビューの最大強度投影を用いて生成された合成画像である。 低密度領域内に出血を包含するアキシャルスキャン/ビューの最小強度投影を用いて生成された合成画像である。 硬膜下出血を包含するアキシャルスキャン/ビューの最大強度投影を用いて生成された合成画像を示す図である。 硬膜下出血を包含するアキシャルスキャン/ビューの最小強度投影を用いて生成された合成画像を示す図である。 正中線シフトを伴う出血を包含するアキシャルスキャン/ビューの最大強度投影によって生成された、合成画像である。 正中線シフトを伴う出血を包含するアキシャルスキャン/ビューの最小強度投影によって生成された合成画像である。 正中線シフトを伴う出血を包含するアキシャルスキャン/ビューの大津強度投影によって生成された合成画像である。 質量効果を伴う出血を包含する、関心対象のアキシャルスキャン/ビューを示す図である。 質量効果を伴う出血を包含する、関心対象のコロナルスキャン/ビューを示す図である。 本発明による方法の一実施形態の概略フロー図である。 本発明によるイメージレビューシステムのサンプルユーザインターフェイスを示す図である。 最大の脳エリアスライス(slicemaxbr)の脳ROI抽出及び識別を示す全体図である。 slice i=slicemaxbrのときの脳領域の精密な抽出を示す図である。 slice i<slicemaxbr又はi>slicemaxbrのときの脳領域の精密な抽出を示す図である。
処理システムは、診断と治療までの時間を改善するために、重大な領域の迅速検出とインデックス付けを行うための、自動化システムである。図1は、本発明が病院におけるワークフローにどのように適合するかを示している。デジタル画像S1、S2、…、Sn又は画像データAは、様々なスキャナ又は画像獲得ユニット110から、取り込み、又はスキャンされる。画像データAは、最初に品質がチェックされ、品質・標準化ユニット120によって標準化される。
次いで、検証されたデジタル画像Bは、画像記憶サーバ131に格納され、また、評価・割当てユニットである処理システム140に渡される。処理ユニット140は、サブボリュームジェネレータ、合成画像ジェネレータ、インデックス付けユニット、及び結合ユニットを含む、スキャンレビューユニット141を備える。
スキャンレビューユニット141はまた、レジストレーションユニット130を備えてもよい。代替的に、レジストレーションユニットは、画像記憶サーバ131である。
検証された画像データBがスキャンレビューユニット141で受信されると、それは処理され、重大性スコアC及び関心のあるインデックス付きスライスDが各サブボリュームから発見されて、したがって、レビュー済み画像のアーカイブを含む、レビュー済み画像記憶サーバ132に戻して格納される。
並行して、レビュー済み画像の重大性スコアCは、ワークロード割り当てユニット142に渡され、その中で、重大性スコアCを参照することによってワークリストEが更新され、ワークリスト記憶サーバ133に戻して格納される。最後に、ビューイング・レポーティングユニット150では、ワークリストEは、構成記憶サーバ134から個人について検索される。
インテリジェントビューイングステーション151のユーザがワークリストC内の画像を照会すると、システムはまた、処理システム140又はスキャンレビューユニット141によって識別される、事前インデックス付きの関心のあるスライスGを検索し、ディスプレイ152を通して同じものを表示する。次に、ユーザはレポートHを作成し、事例を診断することができ、それは最終的にレポート記憶サーバ135に戻る。
スキャンレビューユニット141又は画像レビューユニットは、サブボリュームジェネレータ、合成画像ジェネレータ、インデックス付けユニット、及び結合ユニットを備える。
サブボリュームジェネレータは、検証された画像データBからサブボリュームを生成し、各サブボリュームはスラブ厚さを有する。
合成画像は、各サブボリュームから合成画像の複数のセットを生成し、ここで合成画像の各セットは異なる投影を表わす。
インデックス付けユニットは、合成画像の各セットを並列に評価することによって、各サブボリュームにインデックス付き関心領域を生成する。
結合ユニットは、合成画像の各セットのインデックス付き関心領域を、スキャンレベル優先順位付けに結合する。
図2は、画像/スキャンレビューユニット141の概略フローチャートを示す。
第1のステップ205において、入力スキャン又は検証された画像データBは、検証された画像記憶サーバ132から検索される(205)。
分離・増強ステップ210において、スキャンは、コントラストの増強のために脳及び骨のウィンドウ処理を適用した後、脳及び頭蓋骨の領域に分離/セグメント化/抽出される。
フローチャートは脳領域のみの分析を表わしており、頭蓋骨に対しても同様のアプローチが続く。
一例では、頭部における頭蓋内領域は、教師なし方法を使用して抽出される。これは2つの主要なステップで構成され、第1は関心領域ROIと最大の脳領域を含むスライスの識別であり、第2のステップは脳領域の精密な抽出である。
ROI及び最大の脳領域を包含するスライスは、以下のサブステップ:
‐元のスキャンに脳ウィンドウ処理を適用するサブステップ、
‐脳ウィンドウ処理されたスキャンSの強度値を用いて、脳を3つの領域、骨、空気、及び軟組織に分割するサブステップ、
‐各スライスに対して最大の骨アイランド(bone island)を識別するサブステップ、
‐最大の骨アイランド(スライスに対する関心領域を表わす)に凸包(convex hull)を当てはめるサブステップ、
‐各スライスに対して識別された包(hull)を使用して、ROIマスクRmaskとマスキングされた脳スキャンRとを作成するサブステップ、及び
‐Rから各スライスRに対する最大の軟組織アイランドCRiを求めることによって、最大の脳領域を包含するスライスを、並列に識別するサブステップであって、この軟組織輪郭の最大面積を包含するスライスインデックスが、次式
slicemaxbr=argmax(area(CRi)),∀R∈R (1)
で与えられる、サブステップ
を用いて以上のように識別される。
ROIスキャンRと、最大の脳ボリュームスライス(slicemaxbr)とから、脳領域Bが、以下のサブステップ:
スライスRi、ここでi=slicemaxbr、に対して、スライスにおける最大の軟組織輪郭によって脳領域(Bmask)を識別するサブステップ、
スライスRi、ここでi>slicemaxbr、に対して、最初にスライスに先行のスライスのマスクBmaski-1を乗算して、フィルタリングされたスライスRFを取得するサブステップ、
上記で識別された3つの最大輪郭の最大を使用して脳領域マスクを作成するサブステップ、
閾値Tよりも小さい輪郭を除去し、開口フィルタを適用して、さらにノイズを除去し、スライスレベル脳領域マスクRmaskを作成するために、成長する簡単領域を適用するサブステップ、
i<slicemaxbrである、各スライスRに対して、最初に、スライスに、次のスライスBmaski+1のマスクを乗算して、フィルタリングされたスライスRFを取得するサブステップ、及び
最後に、ROIスキャンRにBamskを乗算して、脳領域抽出スキャンBを取得するサブステップ
によって抽出される。
図12、図13、及び図14では、それぞれ、最大の脳スライスの脳のROI抽出と識別のステップ、slice i=slicemaxbrのときの脳領域の精密な抽出のステップ、及びslice i<slicemaxbr又はi>slicemaxbrのときの脳領域の精密な抽出のステップが、概要的に開示されている。
脳領域スキャンから、ピクセル値を適切に並べ替えることによって、コロナルビュー及びアキシャルビューが、元のスキャンから作成される。言い換えると、アキシャルビューとコロナルビューとが作成される(215)。
次のステップ220において、生成されたビューのそれぞれが、次いで、n個(例えば、16個)のサブボリュームに分けられて、合計で2n個のサブボリュームを与える。
次のステップ225において、各サブボリュームiに対して、MIP、MinIP及びOtsuIPを使用して、3つの合成画像が生成される。
所与のサブボリュームiに対して3つの合成画像が得られると、それらは、DCNNのRGBチャネルにそれぞれ渡されて、分類のために並列処理ステップ230において並列に処理される。
好ましくは、DenseNet-121は、サブボリュームレベルでの異常を検出するための分類器として使用される。このようなDenseNet-121は、参照により本明細書に組み込まれる出版物、Iandola,F.、Miskewicz,M.、Karayev,S.、Girshick,R.、Darrell,T.、及びKEutzer,K.により、「Densenet: Implementing efficient convnet descriptor pyramids」というタイトルで、arXiv preprint arXiv:1404.1869(2014)に開示されている。
次のステップ240において、各合成画像セットは、DCNNを通過させられて、確率スコアを獲得する。
確率スコアは、以下の式で定義される。
Figure 2022526964000002
ここで、iは、所与のサブボリュームの単一のRGB画像として渡される入力合成画像であり、
Figure 2022526964000003
は、重大性クラスaに属する、サブボリューム画像i、ビューvの確率スコアを表わす。
チェックステップ245において、サブボリュームが重大な病状を包含し、それをインデックス付けしているかどうかを判定するために、確率スコアが閾値Tを超えているかどうかがチェックされる。
閾値Tを構成することができる。スコアがTより大きい場合、フルスキャンに対するサブボリュームの最初と最後のスライスのインデックス、ビュータイプ(つまり、コロナル又はアキシャル)、及び確率スコアが、スキャンIDとともに注記されて、画像レビューアーカイブに戻して記憶される。言い換えれば、それは、フルスキャンに対してサブボリューム内の最初と最後のスライスのインデックスを得るステップ250と、インデックス、ビュータイプ、及び確率スコアを画像レビューアーカイブに保存するステップ255とを含む。
サブボリュームスコアをスキャンレベル予測に結合するため、またサブボリューム全体のコンテキスト情報を考慮に入れるために、この方法は、DCNNをリカレントニューラルネットワークRNNとカスケード接続するステップ238を有する。
したがって、ステップ237において、所与のビューvに対する各サブボリュームIのDCNNの最後の全体平均プーリング層の出力が抽出されて、特徴のセットfが得られる。
次いで、所与のビューvのn個のサブボリュームのそれぞれの特徴セットfは、やはり図3に示されるように、ステップ328においてRNN中へ送給される。
一実施形態では、RNNは、入力/出力サイズそれぞれ1024/2048の単一のゲート付き回帰ユニット層GRUからなる。GRUの後には、出力サイズ1の完全に接続された層が続く。
ステップ260において、RNNの最後のタイムステップ出力が抽出され、式2と同様にスキャンレベル異常確率スコア
Figure 2022526964000004
を計算するためのシグモイド関数を使用して正規化される。スキャンレベル異常確率スコアは、スキャンレベルの優先順位付け、ビューレベルの優先順位付け、又はビューの重大性スコアである。
すべてのvビューが処理され、スコアが得られると、各ビュースコアの最大値、つまりmax(P∀v∈{axial,coronal})を取得することにより、全体的な患者レベルの重大性スコアが取得され、これは、ステップ262に示される。
次に、記憶ステップ265において、このスコアは、画像レビューアーカイブに戻して格納され、優先順位付けのためにワークロード割り当てユニットにも送られる。
図3は、本発明による方法の概要を示している。 位置合わせステップ300において、画像データ又は入力ビューv又は入力スキャンは、イメージングシステムから獲得され、レジストレーションユニットを用いて位置合わせされる。
好ましい実施形態では、次のウィンドウ処理及び抽出ステップ301が実行される。
次のステップ305において、サブボリュームが、サブボリュームジェネレータを用いて画像データから生成され、この場合に各サブボリュームはスラブ厚さを有する。好ましくは、画像データは、n個のサブボリューム(i1,i2,…,in)に分割される。
後続のステップ310a、310b、及び310nにおいて、合成画像の複数のセットが、複合画像生成器を用いて各サブボリュームnから生成される。合成画像の各セットは、異なる投影を表わす。
ステップ310aにおいて、第1のサブボリュームに対して合成画像のセットが生成される。ステップ310bにおいて、第2のサブボリュームに対して合成画像のセットが生成される。ステップ310nにおいて、n番目のサブボリュームに対して合成画像のセットが生成される。
ステップ310a、310b、310nのそれぞれの後に(したがって、各サブボリュームにおいて並列に)、インデックス付けユニットを用いて関心領域のインデックス付けが実行される。言い換えると、各サブボリュームにおける合成画像の各セットが、並列で評価される。好ましくは、この評価は、好ましくはDenseNetモデルDNを含む、深層畳み込みニューラルネットワークDCNNを用いて行われる。
好ましくは、所与のサブボリュームに対して3つの合成画像が得られると、それらは、それぞれDCNNのRGBチャネルに渡されて、分類のために並列に処理される。好ましくは、DenseNet-121が、サブボリュームレベルでの異常を検出するための分類器として使用される。
2つの主要なコンポーネントがあり、特徴抽出器を用いた特徴の抽出と、分類器による分類である。
特徴抽出器を用いた特徴の抽出のステップは、参照により本明細書に組み込まれる出版物、Iandola,F.、Miskewicz,M.、Karayev,S.、Girshick,R.、Darrell,T.、及びKEutzer,K.による、「Densenet: Implementing efficient convnet descriptor pyramids」というタイトルで、arXiv preprint arXiv:1404.1869(2014)に定義されるような、4つのデンスブロックを含む。
4つのデンスブロックの後に、全体平均プーリング層が続く。次いで、全体平均プーリング層の出力は、DFで表記される1Dベクトルにフラット化される。次いで、特徴DFは、完全に接続されたFC層と分類のためのシグモイド活性化(sigmoid activation)とで構成される、分類器に送給される。
最終シグモイド活性化層が、次式
Figure 2022526964000005
によってFC層の正規化された出力ベクトルp(a│i)に加えられ、ここでiは入力サブボリュームであり、
Figure 2022526964000006
はICHクラスaに属するサブボリュームiの確率スコアを表わす。グローバル特徴抽出器のパラメータWは、二値交差エントロピーBCE損失:
Figure 2022526964000007
を最小化することによって最適化される。
続いて、各サブボリュームの合成画像の各セットのすべてのインデックス付き関心領域が、結合ユニットによって結合される。好ましくは、結合ユニットは、例えば、異常があるかないかの確率を示す、スキャンレベル優先順位Iを出力するリカレントニューラルネットワークRNNである。
したがって、好ましい実施形態では、サブボリュームスコアをスキャンレベル予測に結合し、またサブボリューム全体のコンテキスト情報を考慮に入れるために、DenseNetはリカレントニューラルネットワークRNNとカスケード接続される。DenseNetの各サブボリュームDFの最後の全体平均プーリング層の出力が抽出される。次いで、所与のスキャンIに対するDF∀iがRNNに送給される。
一実施形態では、RNNは、それぞれ入力/出力サイズ1024/2048の単一のゲート付き回帰ユニット層GRUからなる。GRUの後には、出力サイズ1の完全に接続された層が続く。最後のシーケンスステップFCの出力は、スキャンレベルICHの予測に対して考慮される。
最終的なシグモイド活性化層は、式(3)と同様に、FC層の正規化された出力ベクトルp(a│i)に加えられる。次いで、RNNの重みWは、BCE損失によって最適化される。
形状(J,K,L)の各サブボリュームi、ここで、i={1,2…,2n}、j={1…J}、k={1…K},l={1…L}、に対して、MIP、MinIP及びOtsuIPを使用する3つの合成画像が以下のように生成される。
MIP(ijk)=max(i(J=j,K=k)) (5)
MinIP(ijk)=min(i(J=j,K=k)) (6)
OtsuIP(ijk)=otsu(i(J=j,K=k)) (7)
ここで、MIPは最大強度の投影であり、MinIPは最小強度の投影である。
さらに、otsuは、グレーレベル画像を二値画像に縮減する際の最大分散点を表わす、強度値を決定する。この閾値点を使用すると、スライス全体で最も重要な区別化要因(differentiator)を取り込むことできることがわかっている。MIP画像は、超高密度領域、特に出血の識別に役立つ。MIP画像は、石灰化及び血液流出の激しい領域を区別するのにも有益である。好ましくは、この場合、このようなサブボリュームの数n=16は、ラベリング中では十分であると思われる。
図4a、図4b、図4c、及び図4dに示すように、MIPは、非常に微細な出血領域の取り込においても効率的である。ここで、図4a、図4b、及び図4cは、患者の頭部に出血がある、アキシャルスキャン又はアキシャルビューの3つの連続したスライスを示す。言い換えれば、関心対象は頭部であり、関心領域は頭部における出血である。図4dは、同じアキシャルスキャンからの図4a、図4b、及び図4dのアキシャルスライスを含む(ただしこれらに限定されない)アキシャルスライスのセットからのMIP合成画像を示す。
図4eは、出血が見えない、同一アキシャルスキャンに対するフルスキャンMIP画像を示す。
MinIP画像は、脳室の異常、低密度領域及び硬膜下領域における異常の強調表示を可能にする。
図5aに示すように、MIP合成画像は出血の識別に役立ち、図5bに示すように、MinIP合成画像は明確な水頭症を示している。
一般に、MinIPは低密度領域の強調表示を改善し、図6a及び図6dに示すような低強度の血液流出、及び図7a及び図7bに示すような硬膜下出血の識別を容易にする。
図6a及び図6dは、それぞれ、低密度領域内の出血を含むアキシャルスキャンのMIP及びMinIPを表わす。
図7a及び図7bは、それぞれ、硬膜下出血を包含するアキシャルスキャンのMIP及びMinIPを表わす。
図8a及び図8bにそれぞれ示されているように、MIPは出血の領域(関心領域)を強調表示し、MinIPは脳室(別の関心領域)への影響を強調表示する。OtsuIPは、図8cで分かるように、超高密度領域と低密度領域の両方を非常によく取り込む。
図9a及び図9bは、脳室の垂直方向の押圧力をもたらす、出血のある患者の頭部を示す。このことは、図9bのコロナルビュー/スキャンにおいてはっきりと見られ、同一物の合成画像を使用して容易に検出することができる。したがって、図9aに示すようなアキシャルスキャン/ビューだけでなく、アキシャルスライスのスライス間コンテキスト情報を提供する、コロナルビューも考慮することが有益である。
図3に開示されている方法の全体的なトレーニング手順を以下に示す。
脳ウィンドウを適用し、脳領域を抽出し、各スキャンに対してサブボリュームのMIP、MinIP、及びOtsuIPを取得する。
確率的勾配降下(SGD)オプティマイザと二値交差エントロピー(BCE)損失関数を使用して、サブボリューム合成画像上でDCNN(DenseNet)モデルをトレーニングし、個々のサブボリュームの正規化された出力確率を出力するネットワークのW重みを取得する。
DenseNetモデルの重みWをロードし、BCE損失についてSGDオプティマイザを使用して微調整の次の段階(W又はWとW)のためにRNNをトレーニングし、各スキャンの正規化された出力確率を出力する、ネットワークのW(及びW)重みを取得する。
以下には、ワークロード割り当てユニットを含む、本発明の実施形態のより詳細な説明が続く。
スキャン/ビュー/画像のスコア、すなわち重大性が、(画像)処理ユニット140によって生成されると、それは次にワークロード割り当てユニット142に渡される。
次いで、スキャンは、スコアに基づいて、事前構成された閾値に基づく3つのゾーン、赤(即時の注意)、黄(重大な所見の可能性)、及び緑(緊急の注意なし)に分類される。
スキャンが赤ゾーンにある場合は、関係する熟練者に、即時行動の警報を自動的に送信することができる。黄ゾーンスキャンは、優先順位付けのために赤ゾーンスキャンに続いてワークリストの先頭に押し出される。緑ゾーンスキャンで重大な所見が得られる可能性は低いが、病院での通常のワークフローに従って評価される。重大性タイプの分類スコアをさらに使用して、ケースハンドラ(つまり、神経内科医又は神経外科医)に、即時評価のための優先順位スコアを割り当てることができる。
図10及び図11に示されるように、本発明はまた、放射線科医/熟練者によるレポーティング及び診断中に、事前にインデックス付けされた(重大な病状を有する可能性が高い)スライスのビューイングを行う実施形態を含む。
図10は、インデックス付きスライスの事前表示のステップを有する、本発明による方法の一実施形態の概略フロー図を示す。
インテリジェントビューイングステーション(又はディスプレイ)において、ワークリストの最上部にあるアイテムが最初に検索される(405)。言い換えると、このステップ405は、入力スキャン/ビューを得ることと同等である。
関連するスコア及びビュータイプとともに、事前インデックス付けされたスライスが、画像レビューアーカイブ415から得られる(410)。
次いで、記憶サーバにおける構成がチェックされて、事前表示フラグ420、すなわち、関心のある特定のスライスにビューアをプリセットするかどうかが検索される。
事前表示フラグがfalseに設定されている場合には、スキャンのデフォルトのアキシャルビュー及びコロナルビューが表示される(435)。事前表示フラグがtrueに設定されている場合には、最大のサブボリューム重大性スコアに関連付けられたインデックスが識別される(440)。次いで、識別されたサブボリュームの第1のスライスがインビュー445になるようにビューアが設定される。
図11は、インテリジェントビューイングステーション(又はディスプレイ)のサンプルユーザインターフェイスを示す。事前表示フラグに関係なく、ユーザはいつでも画像レビューユニットによって識別された重大な所見の領域を見ることができる。これを提供することにより、ユーザは関心領域を評価し、治療パスを迅速に決定することができる。
要約すると、本発明は、非造影頭部CTにおける重大な所見を識別するための迅速かつ効率的なシステム及び方法を可能にし、迅速な行動が必要とされる緊急シナリオにおいて非常に有用となる。
このシステムと方法は、放射線科医に頼めないシナリオにおいて、医師へのセカンドオピニオンとして使用することもできる。
検証研究では、公共的に利用可能なCQ500データセットが使用された。このデータセットには、様々なサイズの出血サブタイプが多数含まれている。この研究では、3つの放射線科医ラベルの過半数投票を利用してグラウンドトゥルース(ground truth)を決定した。サブボリュームDenseNet-121ネットワークのトレーニングのために、サブボリュームレベルのラベルが、(臨床的背景や経験がない)個人によって追加で作成された。
データセットのサイズを12倍に増やすために、回転拡張が適用される。トレーニング、試験、検証の分割は、患者の重複がないすべての実験で、それぞれ60、20、20である。各画像は、1次元ベクトルL=[l]でラベル付けされる。ここで、l∈0,1であり、1はICHの存在を表わし、0はICHのない事例を表わす。
研究の結果は、サブボリュームを使用し、DCNNをRNNとカスケード接続することによって改善が見られた。
サブボリュームの分析の価値を示すために、フルスキャンから得られた単独のMIP画像についてDenseNetモデルを(前述と同様に)トレーニングし、これをモデル(フルスキャンMIP)のベースラインとして使用した。
さらに、単純な最大値操作(サブボリュームの最大スコア)を使用してスキャンレベルの予測を取得するために、サブボリュームの確率を結合して、別のベースラインが作成された。
これにより、スキャンレベルのグラウンドトルースをよりよく学習するだけでなく、コンテキスト的な観点を扱うために、本発明でRNN(サブボリュームRNN)を使用することの付加価値を提示することも可能になる。
以下の表1は、上記の方法の比較を示す。見られる通り、小さな異常がよく見えるため、フルスキャン分析からサブボリューム分析に大幅な改善がある。単純な最大スコアを使用するのではなく、サブボリューム特徴をRNNと結合することによる改善もある。表2は、本発明と先行研究の比較を示す。
表1:CQ500テストセットついての様々な方法による結果の比較。所与の高感度コントロールポイントでの特異性が与えられている。
Figure 2022526964000008
表2:提案のアプローチと先行研究の比較。Chilamkyurthyらに対して、以下に報告される尺度は、我々のCQ500のテストサブセットについてであり、ここで、TPR/TNR(感度/特異性)は、差異が最小となる点にとられる。
Figure 2022526964000009
Arbabshirani,M.R.、Fornwalt,B.K.、Mongelluzzo,G.J.、Suever,J.D.,Geise,B.D.、Patel,A.A.、及びMoore,G.J.、(2018)、「Advanced machine learning in action:identification of intracranial hemorrhage on computed tomography scans of the head with clinical workflow integration.」、npj Digital Medicine,1(1),9.
Chang,P.D.、Kuoy,E.、Grinband,J.、Weinberg,B.D.、Thompson,M.、Homo,R.、Chen,J.、Abcede,H.、Sha_e,M.、Sugrue,L.及びFilippi,C.G.、2018、「Hybrid 3D/2D convolutional neural network for hemorrhage evaluation on head CT.」、American Journal of Neuroradiology、39(9)、pp.1609-1616.
Chilamkurthy,S.、Ghosh,R.、Tanamala,S.、Biviji,M.、Campeau,N.G.、Venugopal,V.K.、...及びWarier,P.(2018)、「Deep learning algorithms for detection of critical findings in head CT scans:a retrospective study.」、The Lancet、392(10162)、2388-2396.
RNNは、任意のシーケンシャルデータに対して一般化される。基本的な概念は、RNNが以前の状態からの特定のパラメーターを記憶して、現在の状態の値を計算できるということである。本発明では、「状態」とは、処理されている現在のサブボリュームを指す。RNNは、以前のサブボリュームの情報に基づいて現在のサブボリュームのパラメータに重みを付けるためにも使用され、このことは、スキャン/ビューレベルでの意思決定のための、以前のサブボリュームコンテキストが、それに含まれることを意味する。これにより、結果が改善される。
本発明は、質量効果に対して、構造の垂直方向の引張力/押圧力を評価するために、アキシャルとともにコロナルを考慮する。コロナルは、質量効果に対して、そのような構造の垂直方向の引張力/押圧力を評価するための最良の方法であることが分かるが、サジタルビューとの任意の組み合わせも有利であると予測される。
要約すると、本発明は、スライスレベルとフルスキャン分析の両方の利点を組み合わせた有利なアプローチである。小さなサブボリュームを作成することで、小さな異常を見逃さないことが保証され、データセットのサイズを増やして学習を改善することも可能になる。RNNを利用すると、スライス全体のコンテキスト情報も処理されるため、結果が改善される。
重要な情報が失われないことが保証されるように複数の合成画像を作成することにより、このモデルは、脳領域における任意の異常に対して一般化される。

Claims (15)

  1. 関心対象の画像データを処理し、前記関心対象における関心領域にインデックス付けするための処理システムであって、前記処理システムは、
    イメージングシステムからの画像データを位置合わせする、レジストレーションユニットと、
    前記画像データからサブボリュームを生成するサブボリュームジェネレータであって、各サブボリュームはスラブの厚さを有する、サブボリュームジェネレータと、
    各サブボリュームから合成画像の複数のセットを生成する合成画像ジェネレータであって、合成画像の各セットは異なる投影を表わす、合成画像ジェネレータと、
    合成画像の前記セットのそれぞれを並列に評価することによって、各サブボリューム内にインデックス付き関心領域を生成する、インデックス付けユニットと、
    各サブボリュームの合成画像の各セットをスキャンレベルの優先順位付けに結合する、結合ユニットと
    を備える、処理システム。
  2. 前記サブボリュームジェネレータは、アキシャルビューからのサブボリューム及びコロナルビューからのサブボリュームを生成する、請求項1に記載の処理システム。
  3. 合成画像の前記複数のセットは、少なくとも、
    最大強度投影を用いて生成された合成画像のセットと
    最小強度投影を用いて生成された合成画像のセットと、
    グレーレベルヒストグラムのグレーレベル閾値処理を用いて生成された合成画像のセットと
    を含む、請求項1又は2に記載の処理システム。
  4. 前記インデックス付けユニットは、関心対象における異常を分類し、各インデックス付き領域に対して異常確率スコアを生成する分類器を備え、前記分類器は深層畳み込みニューラルネットワークである、請求項1から3のいずれか一項に記載の処理システム。
  5. 前記結合ユニットは、各サブボリュームの合成画像の各セットの各深層畳み込みニューラルネットワークを、リカレントニューラルネットワークとカスケード接続し、それによってスキャンレベル優先順位付けを行う、請求項3又は4に記載の処理システム。
  6. 前記結合ユニットは、前記スキャンレベル優先順位付けに応じて、前記サブボリュームをさらに事前インデックス付けする、請求項1から5のいずれか一項に記載の処理システム。
  7. 関心対象の画像データを獲得するための画像獲得ユニット、及び
    前記画像データを処理してインデックス付けするための、請求項1から6のいずれか一項に記載の処理システム
    を備える、イメージングシステム、好ましくは、CTイメージングシステム。
  8. 請求項1から7のいずれか一項に記載の処理システムに記載の処理システム、及び
    ディスプレイ
    を備える、イメージレビューシステム。
  9. 関心対象の画像データを処理し、前記関心対象における前記関心領域にインデックス付けするための方法であって、前記方法は、
    レジストレーションユニットを用いて、イメージングシステムからの画像データを位置合わせするステップと、
    サブボリュームジェネレータを用いて、画像データからサブボリュームを生成するステップであって、各サブボリュームはスラブ厚さを有する、ステップと、
    合成画像ジェネレータを用いて各サブボリュームから合成画像の複数のセットを生成するステップであって、合成画像の各セットが異なる投影を表わす、ステップと、
    合成画像の前記セットのそれぞれを並列に評価することによって、インデックス付けユニットを用いて、各サブボリュームにおける関心領域をインデックス付けするステップと、
    結合ユニットを用いて、各サブボリュームの合成画像の各セットを、スキャンレベル優先順位付けに結合するステップと
    を有する、方法。
  10. 前記サブボリュームを生成するステップが、
    アキシャルビューからサブボリュームを生成するステップ、及び
    コロナルビューからサブボリュームを生成するステップ
    をさらに含む、請求項9に記載の方法。
  11. 前記合成画像の複数のセットを生成するステップが、
    最大強度投影を用いて生成された合成画像のセットを生成するステップ、
    最小強度投影を用いて生成された合成画像のセットを生成するステップ、及び
    グレーレベル閾値処理を用いて生成された合成画像のセットを生成するステップ
    をさらに含む、請求項9又は10に記載の方法。
  12. 前記インデックス付けするステップは、
    分類器を用いて関心対象における異常を分類し、インデックス付けされた各領域に対して異常確率スコアを生成するステップをさらに含み、前記分類器は、深層畳み込みニューラルネットワークである、請求項9から11のいずれか一項に記載の方法。
  13. 前記結合するステップは、
    各サブボリュームの合成画像の各セットの各深層畳み込みニューラルネットワークとリカレントニューラルネットワークとをカスケード接続し、それによってスキャンレベル優先順位付けを行うステップをさらに含む、請求項12に記載の方法。
  14. 前記結合するステップは、前記スキャンレベル優先順位付けに応じて、サブボリュームに事前インデックス付けするステップをさらに含む、請求項9から13のいずれか一項に記載の方法。
  15. コンピュータプログラムがコンピュータ上で実施されると、請求項9に記載の方法のステップをコンピュータに実施させるためのプログラムコード手段を有する、コンピュータプログラム。
JP2021558025A 2019-04-02 2020-03-24 非造影頭部ctにおける重大領域の迅速検出及びインデックス付けのための自動化システム Pending JP2022526964A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IN201941013219 2019-04-02
IN201941013219 2019-04-02
PCT/EP2020/058066 WO2020200901A1 (en) 2019-04-02 2020-03-24 Automated system for rapid detection and indexing of critical regions in non-contrast head ct

Publications (2)

Publication Number Publication Date
JP2022526964A true JP2022526964A (ja) 2022-05-27
JPWO2020200901A5 JPWO2020200901A5 (ja) 2023-03-31

Family

ID=69954065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021558025A Pending JP2022526964A (ja) 2019-04-02 2020-03-24 非造影頭部ctにおける重大領域の迅速検出及びインデックス付けのための自動化システム

Country Status (5)

Country Link
US (1) US11983871B2 (ja)
EP (1) EP3948887B1 (ja)
JP (1) JP2022526964A (ja)
CN (1) CN114127859A (ja)
WO (1) WO2020200901A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117291281A (zh) * 2023-08-29 2023-12-26 强联智创(北京)科技有限公司 评估脑部侧支循环的评估模型进行训练的方法及相关产品

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7689021B2 (en) * 2005-08-30 2010-03-30 University Of Maryland, Baltimore Segmentation of regions in measurements of a body based on a deformable model
US8538108B2 (en) * 2005-12-20 2013-09-17 University Of Maryland, Baltimore Method and apparatus for accelerated elastic registration of multiple scans of internal properties of a body
US9159127B2 (en) 2007-06-20 2015-10-13 Koninklijke Philips N.V. Detecting haemorrhagic stroke in CT image data
WO2010117573A2 (en) 2009-04-07 2010-10-14 Virginia Commonwealth University Automated measurement of brain injury indices using brain ct images, injury data, and machine learning
GB201117807D0 (en) 2011-10-14 2011-11-30 Siemens Medical Solutions Identifying hotspots hidden on mip
US9165360B1 (en) 2012-09-27 2015-10-20 Zepmed, Llc Methods, systems, and devices for automated analysis of medical scans
EP2973424B1 (en) * 2013-03-15 2018-02-21 Conavi Medical Inc. Data display and processing algorithms for 3d imaging systems
WO2017106645A1 (en) 2015-12-18 2017-06-22 The Regents Of The University Of California Interpretation and quantification of emergency features on head computed tomography
US20180070917A1 (en) * 2016-09-13 2018-03-15 Butterfly Network, Inc. Ingestible ultrasound device, system and imaging method
US10417788B2 (en) 2016-09-21 2019-09-17 Realize, Inc. Anomaly detection in volumetric medical images using sequential convolutional and recurrent neural networks
CN111107783B (zh) 2017-06-19 2022-08-05 维兹人工智能公司 用于计算机辅助分诊的方法和系统
US20190021677A1 (en) 2017-07-18 2019-01-24 Siemens Healthcare Gmbh Methods and systems for classification and assessment using machine learning
WO2019051271A1 (en) 2017-09-08 2019-03-14 The General Hospital Corporation SYSTEMS AND METHODS FOR CLASSIFYING CEREBRAL HEMORRHAGE IN MEDICAL IMAGES USING AN ARTIFICIAL INTELLIGENCE NETWORK

Also Published As

Publication number Publication date
US11983871B2 (en) 2024-05-14
EP3948887B1 (en) 2024-01-10
CN114127859A (zh) 2022-03-01
EP3948887A1 (en) 2022-02-09
WO2020200901A1 (en) 2020-10-08
US20220172357A1 (en) 2022-06-02

Similar Documents

Publication Publication Date Title
US10573000B2 (en) System and method for medical image management
CN106780475B (zh) 一种基于病理组织切片图像组织区域的图像处理装置
CN106339571B (zh) 用于分类医学图像数据组的人工神经网络
Niemeijer et al. Information fusion for diabetic retinopathy CAD in digital color fundus photographs
Devi et al. Malaria infected erythrocyte classification based on a hybrid classifier using microscopic images of thin blood smear
US11544844B2 (en) Medical image processing method and apparatus
US11257211B2 (en) Medical image processing apparatus, medical image processing system, and medical image processing method
CN112802000A (zh) 多模态医学影像智能辅助诊疗系统
WO2023198224A1 (zh) 一种精神障碍类磁共振图像初步筛查模型构建方法
US12002203B2 (en) Systems and methods for assessing a likelihood of CTEPH and identifying characteristics indicative thereof
EP4315245A2 (en) Medical image analysis using neural networks
Chudzik et al. Exudates segmentation using fully convolutional neural network and auxiliary codebook
Kumar et al. Deep learning-assisted retinopathy of prematurity (ROP) screening
KR102034648B1 (ko) 의료영상 관리 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
JP2022526964A (ja) 非造影頭部ctにおける重大領域の迅速検出及びインデックス付けのための自動化システム
US7558427B2 (en) Method for analyzing image data
EP4036867A2 (en) System and method for classifying dermatological images using machine learning
Vidya et al. Automated detection of intracranial hemorrhage in noncontrast head computed tomography
Baiju et al. Glaucoma and diabetic retinopathy diagnosis using image mining
Govindaraj et al. Eminent identification and classification of Diabetic Retinopathy in clinical fundus images using Probabilistic Neural Network
JP7475968B2 (ja) 医用画像処理装置、方法及びプログラム
Bhuvaneswari et al. Detection of Brain Hemorrhage from CT Scan Images using ROF Filter and Classification
Shaharuddin et al. Development of computer aided diagnosis system (CAD) for detection of kidney ultrasound images
Agarwal Diabetic Retinopathy Segmentation in IDRiD using Enhanced U-Net
Kaur et al. A New Deep Learning Framework for Accurate Intracranial Brain Hemorrhage Detection and Classification Using Real-Time Collected NCCT Images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230323

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240318

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240610