JP7110098B2 - 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化 - Google Patents

頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化 Download PDF

Info

Publication number
JP7110098B2
JP7110098B2 JP2018531110A JP2018531110A JP7110098B2 JP 7110098 B2 JP7110098 B2 JP 7110098B2 JP 2018531110 A JP2018531110 A JP 2018531110A JP 2018531110 A JP2018531110 A JP 2018531110A JP 7110098 B2 JP7110098 B2 JP 7110098B2
Authority
JP
Japan
Prior art keywords
image
convolutional neural
images
neural network
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018531110A
Other languages
English (en)
Other versions
JP2019500110A5 (ja
JP2019500110A (ja
Inventor
エル. ユ,エスター
ムケルジー,プラティック
ティー. マンリー,ジェフリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of California
Original Assignee
University of California
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of California filed Critical University of California
Publication of JP2019500110A publication Critical patent/JP2019500110A/ja
Publication of JP2019500110A5 publication Critical patent/JP2019500110A5/ja
Application granted granted Critical
Publication of JP7110098B2 publication Critical patent/JP7110098B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Geometry (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Pulmonology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)

Description

関連出願の相互参照
本出願は、2015年12月18日に出願された米国仮特許出願第62/269,778号の利益を主張するものであり、該出願は参照によりその全体が本明細書に組み込まれる。
本明細書に記載の技術は、頭部コンピュータ断層撮影(CT)画像の定量的評価に関し、特に、コンピュータアルゴリズム的方法及びそれを行うためのコンピュータハードウェアの実装に関する。
頭部外傷、急性出血性卒中、もしくは虚血性脳卒中、または他の神経救急が疑われる患者の迅速な初期評価において、頭部コンピュータ断層撮影(CT)スキャンが治療における後続ステップ、例えば、患者が入院、初期の外科的治療、及び/または虚血性脳卒中のための血栓溶解剤等の薬物の投与を必要としているかどうか(及びそれらに対する禁忌の非存在)等を決定する上で非常に重要な役割を果たすことは以前から認識されていた。
したがって、入院、神経外科受診、即時外科的介入、または薬物投与へのトリアージを大幅に円滑にするであろう、そのようなCT検査の迅速な解釈の方法が必要である。CTは、ますます、救急車、集中治療室、病棟、手術室、及び戦場で利用可能な携帯型のポイントオブケア画像化技術になりつつあるため、これは特に重要である。さらに、人間の目では不可能なCTスキャンの定量的分析及び定量的パラメータの抽出は、予後診断の改善、外科的管理及び他の専門的な治療の必要性に関するより多くの情報に基づく決定、ならびに主観的印象ではなく定量的データに基づいたより標準化された実践ガイドラインのために有用である。そのような定量的データは、例えば、出血部位を含む異常部位の体積の計算、ならびに正中偏位及び脳底槽の消失の重症度の定量化を含む。定性的データ及び定量的データのいずれも、直ちに臨床スタッフの役に立ち、放射線科レポート及び他の診療記録に速やかに組み込むことができる。
これまで、頭部CT分析のためにヒューリスティックアルゴリズムが提案されてきたが、それらは通常、異常な外観の変動性が高いことに部分的に起因して、真の臨床的有用性を達成するために必要な精度レベルには達しなかった。
本明細書に記載の背景技術に関する議論は、技術の内容を説明するために含まれる。これは、言及される任意の材料が、添付の特許請求の範囲のいずれかの優先日の時点で公開された、既知であった、または一般常識の一部であったことを認めるものであると解釈されるべきではない。
本出願の明細書及び特許請求の範囲を通して、「含む(comprise)」という語及びその変形例、例えば、「含む(comprising)」及び「含む(comprises)」は、他の付加物、構成要素、整数、またはステップを除外することを意図するものではない。
本開示は、急性頭蓋内出血、頭蓋内腫瘤効果の証拠、ならびに出血性卒中及び虚血性脳卒中を含む急性脳卒中等の神経救急の頭部コンピュータ断層撮影(CT)スキャンを処理するためにコンピュータによって実行される方法に関する。頭部CT検査から迅速なコンピュータ支援診断情報を提供することに加えて、本開示は、視覚的解釈単独では得ることができない定量的パラメータ及び他の情報の抽出を含む、CTスキャンの定量的分析を行うための方法を含む。そのような分析は、限定されないが出血部位を含む異常部位の体積の計算、正中偏位及び脳底槽の消失の重症度の定量化、ならびにこれらの異常所見の解剖学的位置の迅速な同定を含む。本方法は、CTスキャナコンソールコンピュータに直接インストールされた画像処理ワークステーション上で、またはコンピュータネットワークを介したCTスキャンの中央「クラウド」ベースの処理のためのリモートサーバ上で実装され得る。
本開示は、頭部CT分析のために専用に設計された近似アルゴリズムと、手動で分割した頭部CT画像からの高密度ピクセル単位のラベル付けを使用して異常な特徴を同定するように訓練されたある種の畳み込みニューラルネットワーク(CNN)、及びこれらの特徴の周囲に手動で描かれたボックスから異常な特徴を同定するように訓練された別の種類の畳み込みニューラルネットワークの両方を含む。
頭部CTスキャン上の異なる種類の異常な特徴の検出は、本明細書においてモジュール様式で記載され、頭部CTの異なる態様を評価するために異なる手法が使用される。異なるアルゴリズムが、ヒューリスティック手法とニューラルネットワーク手法とを組み合わせる。
異常なCT特徴を検出するためのシステムの特定の実施形態は、本明細書に記載される手法の全てを含んでもよいか、またはステップのうちの1つ、2つ、もしくはそれ以上のサブセットを含んでもよい。さらに、本明細書に記載される頭部CT解釈システムのアーキテクチャのモジュール性のため、それが含むアルゴリズム及び手法は、操作の目的または様式と著しく異なることなく、本明細書に記載されるものと同じかまたは異なる順序で実行されてもよい。
頭部コンピュータ断層撮影における緊急性の特徴の自動解釈及び定量化のための方法のフローチャートを示す。 図1の複数のステップで使用される例示的なコンピュータシステムの装置の略図を示す。 脳の正中偏位の定量的特徴付けのための近似法を示す。 緊急医療介入を必要とし得る頭蓋内出血または他の特徴を同定及び位置特定するように畳み込みニューラルネットワークを訓練する方法を示す。 頭蓋内出血または他の緊急性の特徴を位置特定するように訓練された畳み込みニューラルネットワークを適用するための方法を示す。 下方脳ヘルニアの存在及び重症度の特徴付けのための方法を示す。 出血性卒中の場合のように大規模な実質内出血を検出するための本明細書に記載されるシステムの例示的な用途を示す(図7A:異常の自動境界画定、図7B:頭部CT画像、図7C:放射線科医による異常の手動境界画定)。 外傷性頭蓋内出血の場合のように硬膜下出血を検出するための本明細書に記載されるシステムの例示的な用途を示す(図8A:異常の自動境界画定、図8B:頭部CT画像、図8C:放射線科医による異常の手動境界画定)。 小規模な実質内出血を検出するための本明細書に記載されるシステムの例示的な用途を示す(図9A:異常の自動境界画定、図9B:頭部CT画像、図9C:放射線科医による異常の手動境界画定)。 クラウドベースのコンピュータ環境(この特定の例では、ウェブサイトを通したユーザとの対話)に実装された、脳の正中偏位を検出するための本明細書に記載されるシステムの例示的な用途を示す。 非常に薄い硬膜下出血を検出するための本明細書に記載されるシステムの例示的な用途を示す。 出血を検出するための本明細書に記載されるシステムの例示的な用途を示し、検出は画像アーチファクトの存在下であっても正確である。 脳底槽を検出するための本明細書に記載されるシステムの例示的な用途を示す。 出血性挫傷及び下方脳ヘルニアを検出するための本明細書に記載されるシステムの例示的な用途を示す。 ヒューリスティックアルゴリズムを使用して脳の正中偏位及び脳底槽体積を検出及び定量化するための本明細書に記載されるシステムの例示的な用途を示す。 全層畳み込みニューラルネットワークを使用して、脳底槽を検出及び位置特定するため、ならびに下方脳ヘルニアの証拠のためにその形態及び体積を評価するための、本明細書に記載されるシステムの例示的な用途を示す。 全層畳み込みニューラルネットワークを使用して、脳室系を検出及び位置特定するため、ならびに正中偏位及び水頭症を含む頭蓋内腫瘤効果の証拠のためにその形態及び体積を評価するための、本明細書に記載されるシステムの例示的な用途を示す。
コンピュータシステム実装の態様
図1は、頭部CT画像上で異常な特徴を検出するための方法100のブロック図を示す。プロセスは102または104から開始し、頭部CTデータは、CTスキャナ上で作成されるか、またはPACS(Picture Archiving and Communication System)等の他のローカルまたはリモートコンピュータ格納デバイス上で同定される。
106では、これらのCTデータがコンピュータシステムのメモリにロードされ、その一般的アーキテクチャの一例が図2に示される。
図2を簡単に参照すると、CT画像を分析するために図1の種々の後続ステップを行うように構成され得る図2のコンピュータシステムは、CTスキャナコンソール自体に位置してもよいか、または別のワークステーションであってもよいか、またはコンピュータネットワークを介してアクセス可能な「クラウド」内のリモートサーバであってもよい。図2に示されるように、このコンピュータシステムは、一般的に、少なくとも1つの入力(ユーザーインターフェース等)202、少なくとも1つのプロセッサ(中央処理ユニット等)204、典型的には高速ランダムアクセスメモリ及び非揮発性メモリ(1つ以上の磁気ディスクドライブ等)の両方を含む少なくとも1種類のメモリ208、少なくとも1つの出力206(モニタまたは他の表示デバイス等)、画像及び他のデータ(図示せず)を格納するためのディスク(図示せず)、ならびにコンピュータ媒体を読み取るための単数または複数のデバイスを含み得る。コンピュータシステムは、本明細書において詳述されるように、好ましくはGPU(グラフィックス処理ユニット)210をGPUメモリ212とともに含み得る。コンピュータシステム200は、例えば、ワークステーション、ネットワークサーバ、ラップトップ、タブレット、もしくはノートブックコンピュータ、パーソナルデジタルアシスタント、スマートフォン、またはメインフレームコンピュータであってもよい。さらに、図2には示されないが、コンピュータシステムは、インターネット、及び例えば高速ネットワークケーブルを介した他のデバイス、または無線接続を含むネットワークを介して他のコンピュータと通信するための少なくとも1つのネットワーク接続または他の通信インターフェースを有してもよい。ネットワーク接続は、病院が相手とデータ(CTデータ及び本明細書に記載の方法を用いた分析の結果等)を共有するために使用することができ、その場合、他方の相手はコンピュータシステム200と同様の能力を有する第2のコンピュータシステム(図示せず)を有し、コンピュータ200から共有されるべきデータを受信することができる。コンピュータ200とインターネット等のネットワークとの間にはファイアウォール(図示せず)が任意選択的に存在してもよい。少なくとも1つ以上の中央処理ユニット204、メモリ208、及びユーザーインターフェースまたは入力202が、少なくとも1つの通信バス(図示せず)を介して互いに通信する。
メモリ208は、典型的には以下のうちのいくつかまたは全てを含む手順及びデータを格納する:基本的なシステムサービスを提供するためのオペレーションシステム;1つ以上のアプリケーションプログラム、例えば、パーサー、及びコンパイラ、ファイルシステム、画像及び他の医療データを格納する1つ以上のデータベース、ならびに任意選択的に、例えば画像分析を行うために高レベルの数学的操作を行うために必要な場合は浮動小数点コプロセッサ。本発明の技術の方法はまた、メモリ208内またはディスクのいずれかに格納された1つ以上の動的に連結されたライブラリに含まれる機能も利用することができる。
メモリに格納されるデータ及び他のルーチンは、データベース内のデータの量がメモリ208内に効率的に格納されるには大き過ぎる場合、代わりに、任意選択的にディスクに格納されてもよい。データ及びルーチンはまた、代わりにまたは部分的に、当業者に理解されるネットワーク方法に従って、ネットワークインターフェースを介してコンピュータシステム200と通信する1つ以上のリモートコンピュータに格納されてもよい。
とりわけ、メモリ208は、少なくともCT画像データの画像分析を行うための命令でコード化される。命令は、所望により、畳み込みニューラルネットワークを介した分析、深層学習分析、及びヒューリスティック手法のうちの1つ以上を行うためのプログラム命令をさらに含むことができる。
特に、制限はないが、ワークステーション、PC、ラップトップ、ノートブック、タブレット、ネットブック、ならびに携帯電話、移動電話、ウェアラブルデバイス、及びパーソナルデジタルアシスタントを含む他の移動計算デバイスを含む、様々な複雑さの1つ以上の計算装置(演算を行うようにプログラムされ得る機械)上で行われるような、本明細書に記載の技術の種々の実装が企図され得る。本明細書に記載の方法はさらに、量子コンピュータで性能の影響を受けやすい場合がある。計算デバイスは、本明細書に記載の方法を行うソフトウェアを実行するために、限定されないが、グラフィックプロセッサ及び数学コプロセッサを含む適切に構成されたプロセッサを有することができる。さらに、特定の計算機能は、典型的には1つより多くのコンピュータにわたって分布されるため、例えば、1つのコンピュータが入力及び命令を受け取り、第2のまたは追加のコンピュータがネットワーク接続を介して命令を受信し、リモートロケーションで処理を行い、任意選択的に結果または出力を第1のコンピュータに通信し返す。
計算装置の制御は、ユーザーインターフェース202を介してであってもよく、表示部、マウス、キーボード、及び/あるいは図2に示されていない他のアイテム、例えば、トラックパッド、トラックボール、タッチスクリーン、スタイラス、音声認識デバイス、ジェスチャ認識技術、人間指紋読み取り機、またはユーザの眼の動きに基づく等の他の入力、またはその入力の任意の部分的組み合わせもしくは組み合わせのうちの1つ以上を含んでもよい。
一実施形態において、計算装置は、QRコードのスキャニング、ジェスチャ認識の使用、バイオメトリックデータ入力、指紋読み取り機、音声認識、またはパスワード入力等によって、ユーザアクセスを制限するように構成することができる。
本技術の操作様式は、1つ以上のソフトウェアモジュール、関数、またはサブルーチンとしての実施形態に減少される場合、バッチモードであってもよいか(バッチで処理されるCTデータの格納されたデータベース上で)、または単一の画像もしくは関連する画像の集合に固有の命令を入力するユーザとの対話によるものであってもよい。
本明細書に記載の技術によって作成される画像の分析、及び画像自体は、例えば、モニタ、ラップトップ表示部、あるいはタブレットのスクリーン、ノートブック、ネットブック、または携帯電話もしくはウェアラブルデバイス等の1つ以上のコンピュータ表示部等の有形形態で表示することができる。画像分析はさらに、紙形式に印刷されてもよいか、コンピュータ可読媒体上に保存するためまたはコンピュータ間で転送もしくは共有するための形式の電子ファイルとして格納されてもよいか、あるいはプレゼンテーションの間等に講堂のスクリーンに投影されてもよい。
特定の初期設定がコンピュータ実装に組み込まれてもよいが、ユーザには、CTデータの分析に使用される特徴についてユーザが所望するだけの選択肢が与えられ得る。
CT画像の前処理
CT画像は、一般的に2Dスライスのスタックとして提供され、放射線科医がそれを一方向または別の方向にスクロールする。2Dスライスは任意の厚さのセクションとして表示することができる。またそれらは、骨の細部を強調するためまたは軟組織をより目立たせるため等の閲覧を容易にする何らかの基本的な画像処理を行った後で表示されてもよい。スタックは、任意の選択の2D平面において、または3Dレンダリングとして表示されてもよい。本発明の技術は、スライスの厚さまたは再構成の種類等のパラメータの特定の選択にかかわらず適用され得る。
次に図1のフローチャートに戻ると、108において、特定の再構成カーネル、例えば、「軟組織アルゴリズム」または「骨アルゴリズム」を使用してCTデータを画像に再構成することによりCTデータが変更され得る(しかしながら、必ずしも必要ではない)。この場合の「再構成カーネル」は、人間による閲覧のために、例えば、骨の細部を強調するためまたは軟組織をより目立たせるために、異なる外観の画像をもたらすCTデータへのローカルフィルタの適用を具体的に指す、CT画像の再構成において用いられる用語であることに留意されたい。画像はまた、冠状面、矢状面もしくは軸平面等の種々の平面において、あるいは特定の解剖学的構造(単数もしくは複数)または解剖学的テンプレートとのアライメントによって決定されるように再構成されてもよい。画像はまた、異なる「スライスの厚さ」で再構成され得、臨床画像の場合は2.5または5mmであることが多いが、多くの最新の多列検出器CTスキャナ上で得られるCTデータの場合、わずか0.5または0.625mm程度のより薄いスライスの再構成が可能である。
110では、頭蓋骨及び頭皮ならびに患者の顔内等の他の頭蓋外軟組織の全てまたは大部分が、ヒューリスティックアルゴリズムを使用して画像から除去される。たとえ目的が頭蓋内の異常を評価することであっても、頭部全体(頭蓋骨、頭皮及び/または他の頭蓋外軟組織を含む)を使用して畳み込みニューラルネットワーク(CNN)を訓練することができるが、ヒューリスティック法によって頭蓋骨、顔、及び他の頭蓋外軟組織の全てまたは大部分が最初に除去される場合、訓練はより迅速に進行することができ、より少ない訓練データ及び/またはより浅いもしくはあまり複雑でないCNNが用いられる。
ステップ110は、いくつかの方法のうちのいずれかによって行われてもよく、例えば、限定されないが、頭蓋骨及び顔面骨の大部分を確認するための高いハウンスフィールド単位数での閾値処理;その結果得られた骨に、次いで、閉鎖操作に続いて開放操作を行い、頭蓋骨基部の孔、穿頭孔、または頭蓋骨の他の不連続部を全て閉鎖し、それによって脳を完全に取り囲む連続した高密度の「ボールト」を達成すること;最後に、頭蓋内空間を隔離するために充填操作を行い、充填操作の前及び後に画像を差し引くことを含む。
110における頭蓋骨及び顔の除去は、デュアルエネルギー及びスペクトルCT技術を用いて補助されてもよく、急性出血を模倣する石灰化及び他の高密度物質が、それらのデュアルエネルギーまたはスペクトルCTの特徴によって同定される。頭蓋骨及び顔面骨の一部は、これらの技術によって同定され得、本明細書に記載されるように頭蓋骨及び顔を除去するためのヒューリスティックアルゴリズムを支持するために使用され得る。デュアルエネルギー及びスペクトルCTはまた、ヒューリスティック技術によって頭蓋骨、頭蓋骨基部、及び顔面骨がほとんど除去された後に残り得る血管及び硬膜の石灰化等の散在する石灰化を除去するための追加のステップとしても使用され得る。CNN(及びヒューリスティックアルゴリズム)によって同定され得る擬陽性頭蓋内出血の多くは、例えば石灰化を含む、典型的な急性出血のHU範囲内のCT減衰が大きい(ハウンスフィールド単位またはHU)の領域からなっているため、この後者のステップは不可欠ではないが、頭蓋内出血の同定のために本明細書において提案されるCNNアルゴリズムの性能を強化し得る。
112において、CT画像の各スライスまたはスタック全体についてCT密度(例えば、ハウンスフィールド単位)のヒストグラムが計算される。このヒストグラムを、例えば、軟組織、急性出血、脳脊髄液、及び石灰化のCT密度の予想されるおよその位置を中心とするガウス分布の和にフィッティングすることにより、手持ちの特定のCT画像についてこれらの異なる組織及び体液のCT密度が決定される。このステップは不可欠ではないが、較正が不十分なCTスキャナ等の技術上の問題に起因してそれらの真値から見かけのハウンスフィールド単位のわずかな偏差が生じる場合、本明細書に記載のヒューリスティックアルゴリズムのいくつかの性能を向上させることができる。
114において、CTデータから平均値を差し引いて正規化し、それらの平均が0になり、それらの標準偏差が1になるようにした。このステップは不可欠ではないが、畳み込みニューラルネットワークの性能を向上させるのに役立ち得る。
脳の正中偏位の検出
脳の正中偏位は、時に大脳鎌下ヘルニアとも称され、頭蓋内出血からの明確な異常であるが、その評価は頭部CTスキャンを解釈する上で欠かせないものである。脳の正中偏位は、頭部CT上の緊急性の特徴であり得る。116において、この重要な特徴が同定され、本明細書の他の箇所に記載されるように、大脳鎌に対する脳室系の偏位の程度によって定量化される。
簡潔に図3に戻ると、正中偏位を決定するためにどのようにヒューリスティックアルゴリズムが使用され得るかが示される。具体的には、図3は、116に記載される機能を良好な精度で達成するための、あるヒューリスティック法の一例を示している。
CT画像は、典型的には頭部を標準方向にして取得されるが、特に、意識障害がある、混乱している、または意識不明の患者の場合、これが達成され得ないことがある。大脳鎌の位置を特定する前に、肉眼で頭部の回転または傾斜を最初に同定し、位置合わせの結果を向上させるためにそれを修正することが有用であり得る。頭部姿勢の初期予測値を決定するための1つのヒューリスティック法は、たとえ頭部外傷における脳の歪みが存在する場合であっても概して信頼性があり、かつめったに変化しない顔特徴等のある特定の特徴的な解剖学的特徴またはランドマークを位置特定することである。一実施形態において、口語では「目玉」として知られる、固有の顔特徴である眼球は、円ハフ変換の適用によって同定される。次いで、眼球の中心点の位置により、頭部の傾斜または回転を肉眼で特定し、それによって頭部の方向の近似補正を可能にし、後のアトラスに対する位置合わせに役立つとともに、大脳鎌及び脳底槽等の正中線構造が近似的に位置することが予想される頭蓋内空間の正中線の同定を可能にする。
大脳鎌として知られる解剖学的構造は、左右の大脳半球を分離する正常な正中面の位置を定義するため、非常に重要な構造である。放射線科医は、脳がこの線の右に偏位したかまたはこの線の左に偏位したかを評価することによって脳の正中偏位を探す。図3の302、304、及び306に示される一実施形態において、エッジ検出アルゴリズムを適用し、続いてハフ変換により頭蓋内空間の正中線内の直線セグメントを同定することにより、鎌の位置が特定される。
正中偏位の場合には大脳鎌自体が歪む(曲がる)場合があり、直線セグメント自体が正中面を定義するために信頼性をもって使用できないこともある。図3の308において、直線セグメントと頭蓋内板との交点が決定される。これらの点は、次いで、鎌の予想される正常平面を定義するために使用することができる。
三次元の平面は、正解値を外れ値から切り離すRandom Sample Consensus (RANSAC)等の対話式方法を用いてこれらの点にフィッティングすることができる(310)。鎌の一部ではない偽直線セグメントによる点は最終フィットモデルに含まれないため、これは高い精度で鎌面を定義する。3D空間内のノイズの多いデータポイントのセットに対して平面をフィッティングさせるための他のアルゴリズムも、予想される正常な鎌面の位置を特定するために使用することができる。
脳の正中偏位を検出するために、312(図3)において、脳脊髄液(約0~15ハウンスフィールド単位)の範囲内であり、かつ溝等のCSFで満たされたより小さな構造を拒否するために少なくとも数cm3の体積を上回る低CT密度のピクセルからなる3D接続領域の同定を用いて脳室系が定義される。代替として、脳室系はまた、図4に示され、かつ図17に実例が示されるようなCNNの訓練を用いて同定されてもよい。訓練されたCNNを使用した脳室系の完全自動マッピングは、CNNの出力である尤度値に依存し、ハウンスフィールド単位で測定されるようなCT密度情報を必要としない。一旦、ヒューリスティック技術またはCNN技術のいずれかによって脳室系が描写されたら、314において、脳室系の対称性を定義するパラメータ(例えば、限定されないが、正中面に対する脳室系の質量中心)が計算される。これらは、次いで正中偏位を定量化するために使用することができる。正中偏位を定量化するための代替の方法は、透明中隔の手動分割により訓練されたCNNを使用して透明中隔の境界を画定し、鎌面に対する中隔の最大偏差を決定することである
畳み込みニューラルネットワークの適用
次に図1に戻ると、118において、頭蓋内出血の領域、サブタイプ、及び体積がCT画像から同定される。本明細書に記載される他のステップの場合と同様に、ヒューリスティック技術及び深層学習技術の両方が頭蓋内出血の検出のために行われ得る。好ましい実施形態において、全層畳み込みニューラルネットワーク(FCNN)は、手動で分割した頭部CTデータからの高密度ピクセル単位のラベル付けを用いてエンドツーエンドで訓練される。FCNNは、標準的なCNNの頂点またはその付近に典型的に見られる完全接続層を含まないという点において、畳み込みニューラルネットワークとは異なる。
CT画像上で肉眼で検出可能な頭蓋内出血は、少なくとも1つの寸法において約1ミリメートルから数十センチメートルの範囲のサイズを取ることができ、ほとんど限りなく多様な異なる形態を取ることができる。この問題は、全層畳み込みニューラルネットワークのより高い層とより低い層との組み合わせによって粗い詳細と細かい詳細とを組み合わせる手法を用いる高密度ピクセル単位の予測に適している。
118の分析を達成する方法は図4に示され、CT画像データ上でFCNNを訓練する際のステップのフローチャートが示される。
本明細書に記載の方法は、FCNNを高密度ピクセルのラベル付けの使用と併せた頭部CT分析に適用する。頭蓋内出血等の頭部CT画像上の該当する特徴の手動分割に由来する高密度ピクセルのラベル付けが、特徴を同定及びマッピングするようにFCNNを訓練するために使用される。標準的なCNNは、潜在的に、画像全体に対するフィードバックを使用して頭部CT上で頭蓋内出血または脳ヘルニア等の特徴を同定するように訓練することができるが(すなわち、画像ごとの学習)、高密度ピクセル単位の学習を使用して訓練されるFCNNは、所望のレベルの精度までネットワークを訓練するためにかなり少ない数の例示的画像を必要とするという点において、この目的にとってより効率的であり得る。例えば、頭蓋内出血の正確な検出及び定量化は、ブロック110、112、及び114に記載されるヒューリスティックアルゴリズムを用いて前処理したわずか1000個の例示的な頭部CT画像上で高密度ピクセル単位の学習を使用してFCNNを訓練することによって達成されてもよい。好ましくは、訓練画像のセットは、硬膜外出血、硬膜下出血、実質内出血、出血性せん断損傷、及びくも膜下出血等の病態の所望の幅広い範囲のサブタイプを包含する。典型的には、画像全体に適用されるラベルのみを使用して標準的なCNNを訓練することは、正確な検出を達成するためにはるかに多くの画像を必要とし、たとえその場合でも、該当する特徴を正確に位置特定または定量化しない場合がある。FCNN用の訓練画像のセットを拡張するために、鏡映反転(すなわち、左右を反射する)等の変換を使用して、または画像をわずかに回転させることによって元の画像を変更することにより合成画像を作成することができる。
高密度ピクセル単位の学習を使用してFCNNを訓練するために、一緒になってFCNNの最も低い2つの層を構成する2つの入力が使用される。ピクセル単位の画像データは、前処理された頭部CT画像(複数可)を含む「画像データ層」402として知られる、FCNNの最も低い2つの層のうちの一方を形成する。CT画像データは、FCNN全体のより良好な性能のために、画像データ層としての入力前に空間分解能においてアップサンプリングまたはダウンサンプリングされてもよい。同様に、未処理の画像データは、平均値を差し引かれてもよく、かつ/またはより良好な性能のために画像データ層としての入力前に単位分散になるよう縮尺変更されてもよい。画像データはまた、画像データ層において、例えば、2の整数乗である所望の寸法サイズを達成するために、その周縁部の周囲で追加のピクセルでパディングされてもよい(ステップは図示せず)。
FCNNの下位にある他の入力層(画像データ層を除く)は、画像データ層の各ピクセルにバイナリデータ(0または1)を含む「グランドトゥルース層」(特徴マップ)420である。グランドトゥルース層は、画像内の望ましい特徴、例えば、頭部CT画像上の急性出血の手動分割から生じ、所与のピクセルのゼロ(0)がそのピクセルにおける特徴の非存在に対応し、イチ(1)がそのピクセルにおける特徴の存在に対応する。代替として、画像特徴の分類の目的で、グランドトゥルース層は整数データ(例えば、0、1、2、...、n)を含んでもよく、nは、ゼロ(0)としてコード化される特徴の非存在を含まない、特徴クラスの数である。例えば、出血の異なるサブタイプは、臨床的に非常に異なる処理を受ける:手術のために急送されるものもあれば、直ちに生命を脅かすとは見なされないものもある。したがって、硬膜下は1、くも膜下は2、硬膜外は3、または実質内は4として、頭蓋内出血を手動でラベル付けすることができ、0は、そのピクセルにはいずれの種類の出血も見られないことをさらに示す。これによりFCNNが、出血の存在または非存在に加えて、出血の種類を分類することが可能となる。
画像の手動分割及びラベル付けは、CT画像の解釈において訓練を受けた専門家によって、多くの専門家または非専門家である読み手からの「クラウドソーシング」または結果の利用によって、経験の少ない読み手またはコンピュータアルゴリズムによって行われた分割を専門家が修正することによって、または上記のいくつかの組み合わせによって行うことができる。
画像データ層及びグランドトゥルースデータ層は、単一の2D画像、各々がFCNNの個別のチャネルに供給される数個の隣接する2D画像、または3D画像の体積からなり得る。例えば、小規模な出血等の、検出することが望ましい多くの特徴はスパースであるため、このスパース性が「クラス不均衡」問題を生じさせる可能性がある:その場合、CNNの訓練は、負のラベル、すなわちゼロ(0)のグランドトゥルース値を有するピクセルが優位となり、そのため、正の特徴を検出、位置特定、定量化、及び分類するための精度が低下する。この問題に対処するために、グランドトゥルース値がゼロであるピクセルのサブセットのみを訓練に使用することができるが、残りのゼロ値ピクセルは訓練には使用されない。クラス不均衡問題に対処するために、訓練に使用されるゼロ値ピクセルの数は、正のグランドトゥルース値を有するピクセルの数とほぼ一致してもよい。
頭部CT画像上の該当する特徴を認識するようにFCNNを訓練するために、画像データ層内のデータが、次いで、フィードフォワードCNNに典型的な計算プロセスにおいてインターリーブされた複数の畳み込み層及びプーリング層を通して伝播される。データ層とは異なり、ネットワークのより高い層の全ては、より低い層(単数または複数)から入力を受信してより高い層(単数または複数)に出力を送信する処理ユニットのアレイからなる処理層である。各「畳み込み層」(図4の404、406、及び410)がローカル処理を行う、すなわち、それは空間的に隣接する処理ユニットの出力のみを使用し、またネットワーク内のより高い層にその出力が供給される前に整流等の出力非線形性も含む。CNNの最も一般的な出力線形性は「正規化線形関数」(ReLU)であり、これは入力値x<0では出力y=0であり、入力値x>0では出力y=xである区分的線形関数である。
出力非線形性を有する1つ以上の畳み込み層の後、データは「プーリング層」(408及び412)に供給され、そこで下の層の複数の処理ユニットの出力を単一の出力に組み合わせ、それによってスカラー因子によってプールされる層内の全体的な処理ユニットの数を減少させる。これは、ダウンサンプリングの一形態であると見なされてもよい。データはネットワーク全体を通して伝播されるため、出力非線形性を有する複数サイクルの畳み込みに続いてプーリングが行われてもよい。プーリング及び畳み込みの最終段階の後、次いで、データは「逆畳み込み層」414を使用して画像データ層の元のピクセルサイズにデコンボリューションされ、また「クロップ層」416を使用して画像データ層の同じピクセル位置に位置合わせされる。
最後に、スコアリング層(418)であるネットワークの最上層でSoftMax with Loss等の標準的な精度測定基準を使用して、クロップ層とグランドトゥルース層の出力の一致が決定される。FCNNを訓練するために、次いで、スコアリング層における誤差の程度が、誤差逆伝播アルゴリズムを使用して下向きの処理層からネットワークにフィードバックされ(図4の矢印として示される)、タスクの性能を向上させるために、処理ユニット間の接続の強度である「重み」を調節する。
特徴の検出及び定量化の精度を向上させるために調節され得るFCNNのユニットの2つの関連特性は、「カーネル」及び「受容野」である。FCNNのi番目の層Fi内のユニットの「フィルタ」または「特徴エンコーダ」としても知られるカーネルは、そのユニットに直接接続された前の層Fi-1内のユニットのセットである。したがって、そのカーネルのメンバは、Fi内のユニットの出力を直接調整できるFi-1の唯一のユニットである。Fi内のユニットのカーネルサイズは、カーネル内に含まれるFi-1の層の両方の寸法(高さ及び幅)に沿ったユニットの数として表される。例えば、3×3のカーネルサイズのユニットは、前の層の高さ寸法に沿って3ユニット、及び幅寸法に沿って3ユニットに接続され、合計で9ヶ所接続されている。
本明細書の他の箇所に説明されるように、カーネルのメンバは、それらの層内の連続した長方形のユニットであり、1より大きな「拡張」因子が導入されない限りはそれらの間に介在するユニットは存在しないことが慣例的である。ユニットの受容野は、直接的にまたはFCNNの介在層を介してそれが接続される画像データ層(402)の領域である。したがって、受容野は、ユニットの値を変更する画像データ層内の要素のセットとして同等に定義され得る。第1の畳み込み層(404)において、ユニットのカーネルサイズ及び受容野サイズの両方は、それが直接接続される画像データ層の領域である。例えば、画像データ層に含まれる単一の2D画像の合計9個のピクセルを表す、単一チャネルを有する2D画像データ層の3×3正方形領域に接続された第1の畳み込み層内のユニットは、3×3のカーネルサイズ及び受容野サイズを有する。代わりに、2D画像データ層が3つのチャネルを有する場合でも、チャネルの数はいずれの特性にも影響を与えないため、ユニットの受容野サイズ及びカーネルサイズは3×3のままである。同様に、たとえ画像データ層が3Dであっても、ユニットのカーネルサイズ及び受容野サイズは3×3のままであり、それは、ユニットに接続された画像データ層の深さではなく、パッチの高さ及び幅のみがこれら2つの特性を決定するためである。第1の畳み込み層を越えると、ユニットの受容野は、ユニットのカーネル内にある前の層のユニットだけではなく、前の層のそれらのユニットの受容野内の全てのユニットも含むため、ユニットの受容野はそのカーネルサイズよりも大きい。
FCNNにおけるプーリング層のユニットに固有の2つの特性は、「プーリング機能」及び「ストライド」である。プーリング機能は、プーリング層のユニットのカーネル内のユニットの出力を組み合わせるために使用される数学的操作である。最も一般的に使用されるプーリング機能は「最大」及び「平均」である。最大プーリング層は、ユニットの出力が、そのカーネル内の全てのユニットの出力の最大値である層である。平均プーリング層は、ユニットの出力が、そのカーネル内のユニットの平均である層である。ストライド因子は、カーネルがプーリング層の隣接するユニットに対して偏位するユニットの数である。よって、ストライド因子は、典型的には正の整数である。プーリング層の全てのユニットのカーネルサイズが2×2であり、ストライドが2である場合、プーリング層ユニットのカーネルは重複していない。先行する層の重複していない各2×2正方形の出力がプーリング層の単一ユニット上にマッピングされるため、プーリング層の幅及び高さは、各々、先行する層の半分である。代わりにストライド因子が1である場合、プーリング層ユニットのカーネルは高さ寸法及び幅寸法の両方に沿って重複する。プーリング層の幅及び高さは、各々、先行する層の幅及び高さよりも1ユニットだけ少ない。一般的に、1より大きなストライド因子の場合、プーリング層の幅及び高さは、それぞれ、先行する層の幅及び高さをストライド因子で除したものである。
望ましい特徴の高密度ピクセル単位の学習のためのFCNNの精度を高めるために、「拡張」の特性がその畳み込み層の1つ以上に組み込まれてもよい。拡張は、空間分解能または空間有効範囲を損失することなく、畳み込み層のユニットの受容野を広げる。これは、1より大きなストライド因子を有するプーリングで起こるような空間的詳細の損失をもたらすことなく、より大きな空間スケールでの特徴の学習を可能にする。拡張はカーネルサイズを変更しないが、カーネルに属するユニットを広げ、それによって受容野を拡大する。受容野の拡大の程度は、典型的には2の整数乗であるように選択される正の整数である拡張因子に依存する。拡張因子は、次の畳み込み層Fi内のユニットのカーネルに属する畳み込み層Fi-1内の隣接する2つのユニット間の分離について説明する。したがって、最も近い隣接機器であるカーネルのユニットがそれらの畳み込み層内でそれらの間に介在するユニットを有しないため、拡張因子1(20に等しい)は、非拡張畳み込みと同等である。拡張因子2(21に等しい)は、互いに最も近い隣接機器であるカーネルのユニットが、それらの間にカーネルに属さない層の1つの介在ユニットを有することを意味する。拡張因子4(22に等しい)は、カーネルの最も近い隣接ユニットが、カーネルに属さない層の3つの介在ユニットによって分離されていることを意味する。よって、第1の畳み込み層(404)において、拡張因子1及びカーネルサイズ3×3のユニットは3×3の受容野サイズを有する。第2の畳み込み層(406)において、拡張因子2及びカーネルサイズ3×3のユニットは、7×7の受容野サイズを有する。第3の畳み込み層において、拡張因子4及びカーネルサイズ3×3のユニットは15×15の受容野サイズを有する。一般に、第1の畳み込み層F1にカーネルサイズ3×3を有し、各連続層Fiに指数関数的に増加する拡張因子2i-1を有するFCNNの場合、Fi+1内のユニットの受容野の高さ及び幅は両方とも(2i+2-1)である。
頭蓋内特徴検出及び出血性特徴分類のためのCNNの精度を高めるために、ならびに最適な精度により迅速に達するよう訓練プロセスを加速させるために、「深層残差学習」が用いられてもよい。この手法では、畳み込み層Fiの出力が後の畳み込み層Fi+nの出力に加えられてもよく、nは典型的には2または3である。重要なのは、追加がFi+nの出力非線形性(例えば、ReLU操作)の前に起こるということである。非連続的畳み込み層にわたって起こるこの追加は、追加される出力が介在層をスキップするため、「アイデンティティショートカット」としても知られる。超深層CNNの場合、すなわち、数十または数百個の層を有するCNNの場合、これらの「残差ネットワーク」(ResNet)は、特徴の検出及び分類に関して、この追加構成を有しない超深層CNNよりも高い精度を得ることができる。
ResNetの訓練時間を加速させるために、アイデンティティショートカット間の介在層(複数可)に「ボトルネック」構成が使用されてもよい。ボトルネック構成は、ショートカットの介在層(複数可)の前及び後の両方に1×1のカーネルサイズを有する畳み込み層を介入させる。ショートカットの前の1×1層は、ボトルネックの後で層に加えられる先行する出力層よりも小さいが、ショートカットによってスキップされる介在畳み込み層(複数可)と等しいチャネル寸法を有する。介在層の後の1×1層は、ショートカットの後の層と等しいチャネル寸法を有するが、それはスキップされる層(複数可)よりも大きい。このボトルネックは、介在層のチャネル寸法を減少させる一方で、それらの出力が追加され得るようにショートカットの前と後の層のチャネル寸法をなおも一致させることにより、全体的な計算負荷を低減する効果を有する。
訓練CT画像に基づくFCNNの重みの最適化は、いくつかの最適化アルゴリズムのうちの1つを用いて行うことができ、最も広く使用されているのは勾配降下アルゴリズムとして知られるクラスである。この用途に特に効果的な重み最適化アルゴリズムの選択は確率的勾配降下法(SGD)である。これは、コンピュータメモリの制約のために、全ての訓練画像上でFCNNを一度に訓練することは実際には不可能であるためである。SGDを用いると、FCNNの重み最適化は、「ミニバッチ学習」として知られる技術において、一度に小さなバッチの画像を使用して、またさらには「オンライン学習」として知られる技術において、一度に単一画像として行うことができる。これは、通常のコンピュータメモリ及び処理能力の制約内でFCNNの訓練を可能にする。
CNNの初期の重みは、特定の訓練データセットを用いて「ゼロから訓練する」ためにランダムに設定することができる。代替として、前のデータセット上で既に訓練されたCNNからの重みが、新しいデータセット上で訓練するための初期の重みとして使用されてもよい。この後者の手法は、「微調整」または「転移学習」として知られており、前のデータセットから学習した特徴を新しいデータセット上の訓練に持ち越すことができ、それによって訓練が加速されるだけでなく全体的な結果がより正確になるという利点を有する。頭部CTスキャン上の緊急性の特徴を学習するために、単一または複数の種類(複数可)のCTスキャナモデル(複数可)及びCT画像取得プロトコル(複数可)からのデータセットで既に訓練されたCNNを、異なる種類のCTスキャナ及び/またはCT画像取得プロトコルからの新しいデータセット上でさらに訓練することによって微調整することができる。これにより、緊急性の特徴の検出、マッピング、及び定量化の精度の観点から、新しい種類のCTスキャナ及び/またはCT画像取得プロトコルから取得されたCT画像上でより良好な性能を達成するように微調整されたCNNを実現する。この転移学習ストラテジーは、画像取得のためのCTスキャナのハードウェア及びソフトウェアの進歩にシステムが遅れないようにすることが可能である。
GPUへの実装
FCNNを含むCNNを訓練するために、今日最も効果的なコンピュータアーキテクチャは、1つ以上のグラフィックス処理ユニット(GPU)を含み、それらの各々が多くの個別の並行処理ユニットを含む。GPUを含むコンピュータアーキテクチャのブロック図を図2に示す。その超並列処理のために、GPUは、FCNNの多くの処理ユニットを、中央処理ユニット(CPU)にのみ基づくコンピュータアーキテクチャよりもはるかに効率的に具体化することができる。これによって、1つまたは少数のCPUを含むシステムよりも桁違いに迅速であり得るGPUに基づくシステムの訓練速度がもたらされる。GPUベースの計算システムは、パーソナルコンピュータに組み込まれた専用のGPUワークステーションもしくはGPUチップ(複数可)の形態でローカルであり得るか、またはAmazon Web Services(AWS)Elastic Computing Cloud(EC2)から入手可能なもの等のクラウドベースのGPUインスタンスの形態でリモートであり得る。GPUを使用したとしても、頭部CT画像上で特徴を検出するためのFCNNの訓練は、訓練画像の数及びGPUの処理能力に依存して、何時間もの、またはさらには最長1日もしくはそれ以上の計算時間を必要とし得る。3D体積でのFCNNの訓練は、典型的には、データの体積がより大きいことに起因して2D画像よりも多くの計算時間を必要とする。
頭部CT画像データ上のCNN訓練をさらに加速させるために、GPUの至る所で効率的なデータ転送を可能にするように、非常に高いバンド幅のネットワーク接続にわたって並行に作動する多くのGPUに重み最適化プロセスを分布させてもよい。そのような構成は、NVIDIA DevBox等のローカルマルチGPUワークステーション上で、またはAWS EC2 Cloud Formation等のクラウドベースのマルチGPU計算クラスタとして具体化することができる。複数のGPUを使用して「分布された深層学習」を達成するために2つの主な方法が存在する。「モデル並列処理」として知られる1つの手法は、CNNモデルの重みを異なるGPUにわたって分割し、各々が同じデータのセット上で訓練され、次いで、CNNモデルの全体的な出力を決定するためにGPUにわたって各CNNモデル部の出力が交換される。「データ並列処理」として知られる別の手法は、バッチ内のCT画像を異なるGPUにわたって分割し、同じCNNモデル全体で訓練され、次いで、バッチの各サブセットに対する訓練に起因する重み勾配の更新が加算されてデータの全バッチについて全体的な重み勾配の更新が決定される。モデル並列処理は、多くの重みを有する(完全接続層を有する等)CNNアーキテクチャにより効率的である。データ並列処理は、特に、大量のデータ上で訓練される場合、FCNN等の比較的少ない数の重みを有するCNNにより効率的である。モデル並列処理がCNNの完全接続層に使用される一方で、データ並列処理が畳み込み層に使用されるように、分布された深層学習は層に固有の様式で適用され得る。
大規模なCT画像データセット上でFCNNの訓練を加速するためには、複数のGPUにわたるデータ並列処理が最も効率的なストラテジーである。これは、バッチの異なる画像に対する重み勾配の更新がGPUにわたって並行して起こり、一旦完了すると、次いでそれらの重み勾配の更新がGPU上で合計され、バッチ全体に全体的な重みの更新をもたらすという点において、GPUにわたって「同期」である分布版のSGDを使用して実装され得る。SGD最適化の逆方向パスの重み勾配の更新のみがGPUにわたって合計される必要がある。順方向パスの重み勾配の更新は、単一GPU訓練の場合に起こるように各GPU上で独立して起こり得る。逆方向パスの重み勾配の更新は、「パラメータサーバ」と称される単一GPUによってGPUにわたって合計され得、次いで、合計された重み勾配の更新を他の全てのGPUに通信してそれらのFCNNモデルのコピーに使用する。
通信時間はGPUの数に比例するため、多数のGPUにわたって訓練する場合はパラメータサーバが通信ボトルネックになってもよい。この場合、「削減ツリー」手法を用いることがより効率的であり得、重み勾配の加算がネットワーク内の隣接するGPUにわたってボトムアップ様式で階層的に行われ、次いで最終的に加算された勾配が全てのGPUにトップダウンで伝播される。削減ツリーの通信時間は、GPUの数の対数に比例し、対数の底は、階層の各レベルで重み勾配を加算する隣接するGPUの数である。
訓練されたFCNNを新しい画像に適用する
図5に示すように、十分な頭部CT画像上で訓練されてから、訓練されたFCNNは、次いで、例えば、該当する特徴(複数可)を検出するためのその制度を決定するために、その訓練セット内の画像とは異なる頭部CT画像を評価するために使用され得る。このプロセスは、「試験」と称される。その性能の見直しは、FCNNスコアリング層の精度測定基準を使用して定量的に、または放射線科医等の専門家による出力の視覚的解釈によって定性的に行うことができる。完全に訓練されたFCNNを新しい画像に適用するこのプロセス(図5)は、FCNNを訓練するプロセス(図4)よりも著しく迅速であり、典型的にはわずか数秒から数分を要する。訓練されたFCNNを提供する迅速な性能にはGPUが必要とされない場合がある。しかしながら、複数のGPUが利用可能な場合、順方向パスのみが必要であり、したがって異なるGPUが異なる画像上で互いとは関係なく作動することができるため、FCNNの試験にデータ並列処理を適用することは簡単である。
FCNNの出力は、所与の特徴の存在または非存在を表す頭部CT画像の各ピクセルのバイナリ値の代わりに、そのピクセルに存在する特徴の尤度を表す0~1の範囲の実数である確率値が存在することを除いて、グランドトゥルースデータに類似する。特定の閾値、例えば0.7を超える確率を有する全てのピクセル(「閾値上ピクセル」)の面積の合計は、2D画像上の特徴の総面積を測定するために使用することができる。隣接する2D画像にわたって適用され、その各々がピクセル単位に基づいて特徴を同定するように訓練されたFCNNによって分類されており、閾値上ピクセルの面積の合計に2D画像の厚さを乗じたものが、画像の3Dスタック内の特徴の体積を計算するために使用され得る。これは、頭部CT画像が通常、全ての2D画像にわたって一定の厚さで再構成されるためである。
急性頭蓋内出血等の緊急性頭部CT特徴の検出、マッピング、及び定量化の精度は、単一の完全に訓練されたCNNだけでなく、複数の完全に訓練されたCNNのアンサンブルを用いることによって向上させることができる。各ピクセルに存在する特徴の、0~1の確率として表される各CNNの出力は、そのピクセルにおける特徴の全体的な確率を生成するように、他の全てのCNNの出力で、及び/または他の種類の機械学習分類子で平均化することができる。CNNのアンサンブルからの結果は、特に、アンサンブルの異なるCNNが訓練プロセスの間に使用される異なるネットワークアーキテクチャ及び/またはハイパーパラメータを有し、したがってCNNの全アンサンブルを使用することによって組み合わせることができる特徴検出プロセスに対して異なる強度を有し得る場合に、単一のCNNからの結果よりも正確であり得る。完全に訓練されたCNNを試験するためのデータ並列処理と同様に、各CNNが同じ試験データを使用して個別のGPU上で実行することができ、次いで、これらの結果を各CNNの最終出力が入手可能になってから組み合わせることができるため、完全に訓練されたCNNのアンサンブルを使用することは並列に動作する複数のGPUからの恩恵も受けている。これは、同じGPU上で各CNNを連続的に実行するよりもはるかに迅速である。単純に平均化することによって完全に訓練されたCNNの結果を組み合わせることに加えて、より高度な方法、例えば、あまり正確ではないことが分かっている結果よりも、所望の特徴に対してより良好な精度を有することが分かっているCNNの結果をより強く優先する重み付け平均等が可能である。
サイズ及びCT密度等の主な特徴の定量化のために、FCNNに由来する尤度値からピクセルにおける特徴の存在を決定するための最適な閾値は、画面上で検出される特定の特徴及び尤度値の分布に依存する。ピクセル単位の学習を使用して十分に訓練されたFCNNによる頭蓋内出血のマッピングの例では、専門家である放射線科医による尤度値のヒストグラムの経験的評価により、典型的には0.6~0.8の範囲の最適な閾値が得られる。訓練されたFCNNからのピクセル単位の尤度値を使用して特徴の空間的広がりをマッピングするための他の代替手法は、ヒストグラムの特徴に基づく自動閾値選択、及び固定尤度閾値は必要としないが、むしろ高い尤度値を有する連続ピクセルをクラスタ化する方法、例えば、閾値のないクラスタ強化(threshold-free cluster enhancement)を含む。
サイズ以外の、訓練されたFCNNを使用して定量化され得る頭部CTスキャン上の特徴の別の有用な特性は、X線減衰としても知られるCT密度であり、通常はハウンスフィールド単位で測定される。特徴の空間的広がりが頭部CT画像または画像のセット上でマッピングされると、その特徴を含む各ピクセルのCT密度が元の頭部CT画像から、ハウンスフィールド単位のそのピクセルの値として決定され得る。訓練されたFCNNの出力である尤度マップ内のピクセルが、元の頭部CT画像のピクセルと一致した状態に保たれるため、これはうまく機能する。CT密度情報の有用性の一例は頭蓋内出血によって提供され、出血領域内の血液のCT密度が、通常、出血の激しさを示し、より最近の出血は、通常、古い出血よりも高いハウンスフィールド単位を有し、それによって放射線科医及び臨床医に有用な情報を提供する。
患者の世話をする医療スタッフにとってだけではなく、研究目的のためにも、異常の解剖学的位置を知ることは有用であり、124において標準的なCTまたはMRI脳アトラスに脳を位置合わせすることによってこれを達成することができる。これは、解剖学的位置が入手可能な以下のうちのいずれかに対する評価中の頭部CTの位置合わせを含むいくつかの手法によって行うことができる:1)「標準的な」頭部CTアトラス、2)対応する脳MRIが存在する標準的な頭部CT、または3)直接的に脳MRI。このプロセスは、Montreal Neurological Institute(MNI)アトラス、または任意の他の分割もしくはラベル付けされたCTもしくはMRI脳アトラス等の任意の脳アトラスを用いて行うことができる。頭部CT画像の位置合わせに使用されるアルゴリズムは、アフィン変換のためのいくつかの標準的な方法、すなわち、平行移動、回転、スケーリング、及びせん断、または非線形ワーピングのうちの1つであり得る。場合によっては、大規模な頭蓋内出血または他の病変等の異常の存在によって脳が著しく歪み、標準的なアトラスへの正確な位置合わせがより困難となるため、より信頼性の高いランドマーク、例えば、鎌の頭蓋骨への付着部、鞍背、眼窩もしくは眼球、またはめったに変化しないか、または頭蓋内の病理学的条件の存在によって変位されない他の頭蓋骨もしくは顔のランドマークが、位置合わせを補助するために使用され得る。
スキャンの脳アトラスへの解剖学的位置合わせ後に入手可能な頭部CTスキャンからの正確な空間位置情報(例えば、ピクセルの座標)もまた、緊急性の特徴を検出、マッピング、及び測定するための、FCNNを含むCNNの精度を向上させるために有用であり得る。異常の中には頭部のある特定の位置に生じる確率が高いものもあり、CNNは、特定の位置における異常の存在または非存在の予測を向上させるためにその空間情報を使用することができる。これは、例えば、CNNを訓練する際に使用される特徴として三次元アトラス座標(x、y、及びz)を組み込むことによって達成され得る。
高密度ピクセル学習を使用するFCNNの場合、データ層内の画像が2Dであろうと3Dであろうと、データ層内の画像の各ピクセルに対する3つの空間座標をFCNNの第1の畳み込み層における3つの追加チャネルとして加えることができる(図4の404)。このように、第1の畳み込み層の出力が、この正確な空間情報を組み込む。代替として、各ユニットの受容野中心のx、y、及びz空間座標が、追加チャネルとしてより高いレベルの畳み込み層に加えられてもよい(例えば、図4の406または410)。ピクセルレベルの空間座標はまた、最終スコアリング層(418)に直接加えられてもよく、FCNNモデルの全体的な誤差がグランドトゥルース層との比較によって計算され、逆方向パスの間にFCNNを遡って重みの調節に使用される。
FCNNのより低いレベル/より高いレベルに空間位置情報を追加することによる、急性頭蓋内出血等の特定の緊急性の特徴を検出、マッピング、及び定量化するための性能の向上は、経験的に決定される。CNNの訓練に使用される空間情報は、三次元のx、y、及びz空間座標に限定されるものではなく、主要な脳の解剖学的ランドマークまでの距離等のアプリケーション固有であり得る他の重要な位置特徴も含むことができる。例えば、脳の正中線からまたは頭蓋内板からの距離は緊急性頭部CT分析の重要な特徴であることが多いため、この距離は、x、y、及びz空間座標に使用されるものに対する追加のチャネルとして畳み込み層の各ピクセルまたは各ユニットに加えられてもよい。さらに、本明細書の他の箇所に記載され、かつ図3及び図10に示される方法を用いて、CTスキャンの標準的な脳アトラスへの位置合わせなしで、脳の正中線からの距離を決定することもできる。したがって、このようないくつかの種類の空間情報は、たとえ、図10及び図12のように、スキャン画像のアーチファクトに起因して、及び/または標準的な脳アトラス空間への変換を妨げる重度の脳の歪みに起因して、脳アトラスへの位置合わせが不可能であることが分かっている場合でも、なおもCNNの訓練に使用することができる。
頭部CTスキャン上の緊急性の特徴の検出、位置特定、及び分類に使用することができるFCNN以外の別の種類のCNNは、領域ベースの畳み込みニューラルネットワーク(R-CNN)である。本明細書で上述した高密度ピクセル単位のラベル付けを用いたFCNNと比較すると、R-CNNの利点は、特徴の大まかな輪郭のみの手動描写を必要とすることであり、それは特徴に含まれる全ピクセルの手動分割ではなく、特徴の周りにボックスを描くのと同じくらい単純であり得る。しかしながら、この「バウンディングボックス」を用いた教師あり訓練手法を使用するR-CNNは、高密度ピクセル単位のラベル付けを用いるFCNNのようには特徴の位置特定またはそのサイズの定量化が正確ではない。
その最も効果的かつ効率的な実装において、R-CNNは、特徴の検出、位置特定、及び分類のタスクを完了する完全R-CNNの追加の層を有するFCNNの形態の領域提案ネットワーク(RPN)からなる。RPNは、該当する特徴を含むボックスを探す。これを行うために、RPNは、複数のスケール(すなわち、ボックスサイズ)及び複数のアスペクト比(すなわち、ボックスの幅と高さの比)の「アンカーボックス」と称される重複するセグメントに入力画像を分割する。画像全体が、各スケール及びアスペクト比のアンカーボックスによって覆われる。一般的に512×512ピクセルである入力頭部CT画像の場合、アンカーボックスの典型的なスケールは32、64、及び128ピクセルであり得、典型的なアスペクト比は、1:1、2:1、及び1:2である。
教師あり訓練の場合、RPNはまた、画像内に含まれる各特徴の画像上に手動で描かれる入力「グランドトゥルースボックス」を採用する。グランドトゥルースボックスとのIntersection-Over-Union (IoU)重複が0.7を超えるアンカーボックスは「正」であると見なされ、IoUは、2つのボックスの共通集合に含まれるピクセルの数と2つのボックスの和集合に含まれるピクセルの数との比として計算される。アンカーボックスはまた、グランドトゥルースボックスとのIoUの観点から上位のアンカーボックスの間に位置付けられる場合に正であると見なされてもよく、正であると認められたそのようなアンカーボックスのパーセンテージは、特定の特徴検出タスクによって異なり得る。いずれのグランドトゥルースとも0.3超のIoUを有しないアンカーボックスは「負」であると見なされる。アンカーボックスに対するこれらの正及び負のラベルはRPNを訓練するために使用され、これらの基準によって正または負であると認められないアンカーボックスにはラベルが付与されず、したがってRPNの訓練には寄与しない。
FCNNであるRPNの訓練は、本明細書で上述したものと同じ方法を使用する。標準的なFCNN手法との主な相違点は、RPNの提案されるバウンディングボックス領域とグランドトゥルースボックスとの間のマッチを決定するスコアリング層が、典型的なFCNN用のSoftMax with Lossとは異なる目的関数を使用することである。RPNの場合、最小限に抑えられる目的関数(すなわち誤差)は、分類誤差と回帰誤差の合計である。分類誤差は、各アンカーボックスが正である、すなわち、グランドトゥルースボックスと強く重複するという尤度を取得するのに対し、回帰誤差は、各正のアンカーボックスと、それと重複するグランドトゥルースボックスの二次元画像のx及びy座標に沿った位置における差を取得する。この「バウンディングボックス回帰」法は、R-CNN全体の位置特定精度を向上させる。本明細書で上述した高密度ピクセル単位のラベル付けを用いるFCNNと同様に、正のアンカーボックスが負のアンカーボックスよりもはるかに少ない場合、RPNは負のラベルを有するアンカーボックスのサブセットのみを用いてクラス不均衡問題を解決するように訓練することができる。R-CNN訓練のためのグランドトゥルースボックスは典型的には長方形の形状であるが、それらは任意の不規則な多角形の形状として手動で描かれてもよい。マルチチャネル2Dまたは完全3D教師あり訓練のために複数の隣接する2D画像にわたって特徴を描写するために、同じ特徴に対応する各2D画像上のグランドトゥルースボックスが同じラベルに割り当てられる。これらのグランドトゥルースボックスは、2D画像にわたって同じサイズまたは形状である必要はない。
R-CNNでは、RPNの後に特徴検出及び分類ネットワーク(FDCN)が続くが、これは単一の統合されたCNNを形成するようにRPNと組み合わせることができる。FDCNは、RPNの出力を入力として受け取る。FDCN自体は、FCNN及びRPNと同様に畳み込み及びプーリング層からなるが、このFDCNの初期部分の出力はFDCNの最終段階のために入力を形成し、それには、最大プーリング層に続いて将来的な処理のために1つ以上の連続的な「完全接続」層が含まれる。完全接続層は、その前の層が畳み込み層、プーリング層、またはそれ自体が完全接続層であるかどうかにかかわらず、全てのユニットが前の層の全てのユニットとの接続を有する層である。次いで、最後の完全接続層の出力は、特徴分類のための多クラスSoftMax plus Loss層及び特徴位置特定のためにバウンディングボックス回帰を行う別の層の両方に供給される。各グランドトゥルースボックス内の特徴について、任意の数のクラスに対して手動で提供される分類ラベルは、分類SoftMax plus Loss層を訓練するためのデータを提供する。例えば、0のクラスラベルは出血なし、1は硬膜下出血、2は硬膜外出血、3はくも膜下出血、及び4は実質内出血に使用することができる。これは高密度ピクセル単位のラベル付けを用いたFCNNの多クラス分類と同様であるが、但し、ラベルは、教師あり訓練に使用されるあらゆるピクセルにではなく、あらゆるグランドトゥルースボックスにのみ提供される必要がある。RPNの場合と同様に、FDCNの訓練は本明細書で上述したものと同じ方法を用いる。R-CNN全体の訓練を達成するために、RPN及びFDCNは交互に訓練されてもよく、RPNが最初に訓練され、次いでその出力がFDCNの訓練に用いられる。訓練されたFDCNは、次いでRPNを初期化するために使用され、反復プロセスが繰り返される。典型的には、最適な性能を達成するために1回または数回の反復のみが必要とされる。
下方脳ヘルニア及び鉤ヘルニアは、頭部CT上で遭遇し得る2つの他の緊急性の特徴である。120においてこれらの特徴が同定される。図6は、これらの重要な特徴の定量的測定を同定及び提供するためのヒューリスティックアルゴリズムのブロック図を示す。図6のヒューリスティックアルゴリズムの例では、脳底槽が頭蓋骨基部の周囲構造に対して位置付けられ、次いでその体積が測定される。本開示を通して脳底槽と称される鞍上槽は、鞍背に対するその関係によって位置付けられる。鞍背は、頭蓋骨基部内の普遍的なランドマークであり、骨ピクセルのみを維持するための閾値処理を行い(604)、鞍背を含む、眼球に対する典型的な3D空間領域(602)内で直線横(左右)方向の20度以内に正中線に線セグメントを検出する線形ハフ変換を適用する(606)ことによって位置付けることができる。このプロセスは、高い精度で鞍背を同定する(608)。次いで、脳底槽の体積が計算される(610)。代替として、脳底槽が同定されてもよく、その体積定量化及び形態は、脳底槽の手動分割からの高密度ピクセル単位のラベル付けを使用してFCNNを訓練することにより決定される。高密度ピクセル単位のラベル付けを使用してFCNNを訓練するプロセスについては本明細書で上述している。
126では、定量的サマリーパラメータが、全ての頭部CT検査について計算されるか、またはCT検査の臨床適応に基づいてユーザによって選択可能である。マーシャル及びロッテルダムCTスコアは、例えば、頭部外傷/外傷性頭蓋内損傷が疑われる臨床適応のために行われる頭部CT検査について計算されてもよい。
128では、全てのCT検査について、または特定のCT検査の臨床適応に基づいてユーザによって選択可能なフォーマットで、サマリーレポートが作製される。例えば、標準的な放射線学的解釈のフォーマットに続くレポートが作成され得、例えば、診療記録のための最終決定の前に、放射線科医または臨床医によって編集されるというオプションを伴う。
例示的なコンピュータ実装
本明細書に記載の方法は、好ましくは、1つ以上のコンピュータシステム上のソフトウェアとして実行される命令として実装され、実装は、コンピュータ画像処理の技術分野の当業者の能力内である。具体的には、本明細書に記載のCTデータの操作のためのコンピュータ機能は、データ及び画像処理の技術分野の熟練プログラマーによって開発され得る。機能は、場合によっては混合実装を含む多数の様々なプログラミング言語で実装され得る(すなわち、互いに通信するように適切に構成された1つより多くの計算言語で書かれた個別の部分に依存する)。例えば、機能、及び任意の必要なスクリプティング機能は、C、C++、Java、JavaScript、VisualBasic、Tcl/Tk、Python、Perl、C#等のNET言語、及び他の均等な言語でプログラムされ得る。画像処理のための特定の演算機能は、科学的なプログラミング言語で書かれてもよく、好ましくはGPUを利用する形態で実装される。技術の能力は、基本的な機能へのアクセスの実装または制御のために使用される根底にあるプログラミング言語によって限定されず、またそれに依存しない。代替として、機能性は、三次元画像データを操作するために以前に開発された機能に依存するツールキット等のより高いレベルの機能から実装されてもよい。
本明細書に記載の技術は、今日使用されている周知のコンピュータオペレーションシステムのいずれか及び本明細書に列挙されていない他のシステムによって実行するように開発することができる。これらのオペレーションシステムは、限定されないが、Windows (Microsoft Corporationから入手可能なWindows XP、Windows95、Windows2000、Windows Vista、Windows 7、Windows 8(Windows 8.1等として知られる種々の最新版を含む)、及びWindows 10等を含む);Apple iOS(iOS3、iOS4、及びiOS5、iOS6、iOS7、iOS8、iOS9、iOS10、ならびにそれらの間に存在する最新版等の変形例を含む);Apple Macintoshオペレーションシステム、例えば、OS9、OS 10.x、OS X(「Leopard」、「Snow Leopard」、「Mountain Lion」、「Lion」、「Tiger」、「Panther」、「Jaguar」、「Puma」、「Cheetah」、「Mavericks」、「Yosemite」、及び「El Capitan」として知られる変形例を含む;UNIXオペレーションシステム(例えば、Berkeley Standardバージョン)ならびにIRIX、ULTRIX、及びAIX等の変形例;Google Chrome、及びAndroid OSバージョン;ならびにLinuxオペレーションシステム(例えば、Red Hat Computing及びUbuntu等のオープンソースディストリビューションから入手可能)を含む。
所与の実装が、三次元画像データを操作するための機能、及び数学的形式をそれに適合させる態様を計算するための機能、ならびにニューラルネットワーク及び深層学習法の態様を実装するための機能等の既に実装されている他のソフトウェアコンポーネントに依存する限り、それらの機能は、当業者であるプログラマーにアクセス可能であると推定することができる。
さらに、本明細書に記載されるように、適切にプログラムされたコンピュータにCTデータを分析するための方法を実行させる実行可能命令は、任意の適切なコンピュータ可読形式で格納及び送達され得ることを理解されたい。これは、限定されないが、携帯型の読み取り可能なドライブ、例えば、コンピュータのUSBポートに接続することができるような大容量(例えば、0.5TB、1TB、2TB、またはそれ以上の)の「ハードドライブ」または「ペンドライブ」、コンピュータの内蔵ドライブ、CD-ROM、DVD-ROM、または任意選択的なディスクを含むことができる。さらに、実行可能命令は、携帯型コンピュータ可読媒体に格納され得、購買者またはユーザにそのような有形形態で送達され得る一方で、実行可能命令は、それ自体がWi-Fi等の無線技術に一部依存し得るインターネット接続を介してリモートロケーションからユーザのコンピュータにダウンロードされ得ることを理解されたい。本技術のそのような態様は、実行可能命令が信号の形態または他の無形実施形態を取ることを暗示するものではない。実行可能命令はまた、「仮想マシン」実装の一部として実行されてもよく、それは、パブリッククラウド、プライベートクラウト、またはハイブリッドクラウドの一部であるデータセンター等のローカルまたはリモートロケーションであり得る。
1つ以上の計算装置への本明細書に記載の方法のプログラム実装は、CTスキャナ等の医療用撮像デバイスと通信する機能の実装も含む。したがって、例示的な実装は、CTスキャナから直接データを受け取って、その出力を撮像デバイスに戻すか、または医療専門家もしくは技術者に直接に戻すように適切に構成され得る。このようにして、スキャナは、これまで医療専門家によるさらなる検討のための形態でしか表示することができなかった画像の有意義な分析を提供することができるため、本明細書に記載されるように実装された方法はCTスキャナの性能の向上をもたらす。
実施例1:出血性卒中において見られるような大規模な実質内出血の迅速な検出(図7)。
図7の中央に示されるCT画像(パネルB)は、本明細書の他の箇所に記載される方法を用いて頭蓋骨及び頭蓋外組織を除去するために前処理した。512×512ピクセルを含む前処理されたCT画像を、図5に示され、かつ本明細書で上述した種類の訓練されたFCNNの画像データ層に入力した。FCNNアーキテクチャは、504及び506に示されるような2つの畳み込み層からなり、508に示されるように、各々がReLU出力非線形性の後にプーリング層を有する。前の層からの隣接する入力をプーリングすることにより、この第1のプーリング層の出力は256×256ピクセルであった。プーリング層の出力は、510に示されるように、各々がReLU出力非線形性を有する2つの追加の畳み込み層に供給される(X=0及びY=1)。次いで、512に示されるように、これらの3番目及び4番目の畳み込み層の出力が第2のプーリング層に供給され、それによってピクセル寸法が128×128に減少された。この後に3つの追加の畳み込み層が続いた(図5のZ=3)。次いで、514に示されるように、最後の(7番目の)畳み込み層の出力が逆畳み込み層に供給され、そこで画像が512×512ピクセルにアップサンプリングされ、516に示されるようにその後にクロップ層が続き、出力が、画像データ層内の前処理された画像と同じピクセル位置に位置合わせされた(502)。次いで、図7の左側の画像で段階的な青色(0)から赤色(1)のカラースケール上に示されるように(0は、その位置には特徴が存在しないという確実性を示し、1は、その位置に特徴が存在するという確実性を示す)、クロップ層出力がスコアリング層内で各ピクセルにおける特徴の存在の尤度値のマップに変換された。このカラースキームは、このグレースケール図ではグレーのシェードとしてのみ示される。FCNNの出力は、バイナリの青色-赤色カラースキームを使用して(0は特徴の非存在を示し、赤色は特徴の存在を示す)、American Board of Radiologyによって認定された神経放射線科医によって特徴の手動境界画定と視覚的に比較され得る(図7の右側に示される)。このカラースキームは、このグレースケール図ではグレーのシェードとしてのみ示される。図5に示されるシステムによって作製される確率マップは、本明細書で上述した方法を用いて、サイズ及びCT密度等の特徴的な特徴を測定するために使用することができる。OS X Yosemiteを実行しているMacBook Pro 2014版上でCT画像の前処理及びFCNNの試験を行った。合計計算時間は5分未満であった。
前述のFCNNは、本明細書で先に報告した図4に示される方法を用いて訓練した。処理ユニットの論理入力数または論理出力数に応じて分散を用いてガウスデータをランダムにサンプリングすることにより、FCNNの層にわたって処理ユニット間の初期の重みを設定した。頭蓋内出血を検出及びマッピングするためのFCNNの訓練は、異なるサブタイプ(実質内、くも膜下、硬膜下、及び硬膜外)、サイズ、形状、及び数の急性出血を含む60枚の頭部CT画像を使用して行われた。各元のCT画像につき、左右反転により合成画像を作製し、それによって訓練画像の合計数を120に増加させた。各訓練画像につき、クロップ層出力(416)をスコアリング層(418)において委員会公認の神経放射線科医によって生成された頭部CT画像内の特徴の境界画定と比較し(420)、ピクセルは、放射線科医がその位置に特徴が存在すると考える場合、1のバイナリ値であるか、または放射線科医がその位置には特徴が存在しないと感じる場合、0のバイナリ値である。この「グランドトゥルース」特徴マップは、FCNNのグランドトゥルースデータ層に供給された。スコアリングは、対数損失レジームにおいて「SoftMax with Loss」として知られる正規化された指数関数を使用して行われ、クロップ層出力とグランドトゥルース特徴マップとの間の各ピクセルにおいてミスマッチ誤差値を得た。次いで、教師あり学習と一致したプロセスである確率的勾配降下法を用いてネットワークの重みを最適化し、誤差逆伝播を使用して(図4)、ミスマッチ誤差マップからの最終スコアを使用してFCNNの先行する層の重みを再設定した。FCNNの訓練は、確率的勾配降下法の最適化のために0.001の学習率及び0.9のモーメンタムでオンライン学習(またはバッチ当たり1つの画像)を使用して、Ubuntu Linux 14.04を実行しているAWS EC2 g2.8xlarge GPUインスタンス上で行われた。この手順を用いて頭部CT画像上で頭蓋内出血を検出及びマッピングするようにFCNNを訓練するための合計計算時間は、約20時間であった。
実施例2:頭部外傷/外傷性頭蓋内損傷において見られるような硬膜下血腫の迅速な検出(図8)。
図8の中央の頭部CT画像(パネルB)を、同じ前処理及び同じ方法で訓練された同じFCNNを使用して、前述の実施例に記載されるのと同一の手順を用いて分析した。図7に見られるように、自動化様式で得られた尤度マップ(パネルA)と専門家による特徴の手動境界画定との間に良好な一致が存在した(パネルC)。
実施例3:小規模な実質内出血の迅速な検出(図9)。
図9の中央の頭部CT画像(パネルB)を、前の2つの実施例に記載されるのと同一の手順を用いて分析した。この手順により、たとえ小規模な出血であっても自動的に検出及びマッピングさえできることが観察できた。
実施例4:脳の正中線の自動検出及びマッピング(図10)。
図10は、本明細書の他の箇所に記載されるような計算を行うコンピュータ製品とのユーザーインターフェースの表示を示す。インターフェースの中央表示の左側には、ユーザコントロールを含むサイドバーがある。元の(未処理の)頭部CT画像は、図10の大きな表示領域の左側にある。同じ画像が大きな表示領域の右側にあり、オーバーレイされた白い直線によって境界を画定された脳の正中線を示す。この境界画定は、図3及び図3を伴う本明細書で上述した説明に記載される手法を用いて完全自動化様式で行われる。CT画像の上半分の大きなストリークアーチファクト及び縦軸に対する頭部の傾きにもかかわらず、脳の正中線はこの方法を用いてなおも自動的に同定され得る。
この自動正中線検出機能は、実施例1に記載のFCNN訓練の場合と同様に、Ubuntu Linux 14.04を実行しているAWS EC2 g2.8xlarge GPUインスタンス上のクラウドで実行する「頭部CTスキャン上の緊急性の特徴の解釈及び定量化」の専用に設計されたウェブサイトに実装される。ウェブサイトは、ユーザが処理のために頭部CTスキャン(プライバシーの理由から匿名化されている)をアップロードすることを可能にし、異なる患者のスキャンを異なる症例として格納及び表示する能力を有する。CT画像の明るさ、コントラスト、及び拡大(「ズーム」)は、右サイドバーの中央のスライダーコントロールで調節することができるか、または「初期設定に戻す」ボタンをクリックすることにより初期値に再設定することができる。患者のスキャンは、右サイドバーの下にある「削除」ボタンをクリックすることによりウェブサイトから削除することができる。
実施例5:小規模な急性硬膜下出血の迅速な検出及びマッピング(図11)。
元の頭部CT画像は図11の左側にある。同じ画像が図の右側にあり、脳の正中線がオーバーレイされた白い直線によって境界を画定されており(白い破線矢印によって印される)、かすかな薄い急性硬膜下出血がこのグレースケール図において黒で境界を画定されている。実際の実装において、この出血は、CTスキャンのグレースケールの背景に対して見やすいように明るい色で境界を画定されている。正中線による境界画定は、実施例4に説明されるように完全自動化様式で行われた。急性出血の完全自動マッピングは、以下の相違点を除いて実施例1で説明した通りである。CT画像の処理がローカルコンピュータで行われる代わりに、実施例4でも使用されたようにUbuntu Linux 14.04を実行しているAWS EC2 g2.8xlarge GPUインスタンス上のクラウドで行われる。さらに、実施例1に記載され、かつ図5に例示されるFCNNアーキテクチャの詳細化として、本実施例においてクラウドに実装されるFCNNアーキテクチャもまた、本明細書で上述したような拡張された受容野を組み込む。
実施例6:金属の存在に由来するCT画像アーチファクトの存在における急性出血の排除(図12)。
元の頭部CT画像は図12の左側にある。処理後の画像は図の右側にあり、脳の正中線がオーバーレイされた白い直線によって境界を画定されており、白い破線矢印によって印されている。正中線による境界画定は、実施例4に説明されるように完全自動化様式で行われた。実施例5に記載されるのと同じ自動プロセスによって急性出血は検出されず、したがって、左側のCT画像の部分は自動アルゴリズムによって頭蓋内出血の領域として指定されない。これは、たとえ実際には血液が存在しなくても脳の部分に急性出血と類似する見かけのCT密度を与える、その位置の付近の金属の存在に由来する画像上部のストリークアーチファクトの存在にも左右されない。したがって、自動出血検出アルゴリズムは、頭部CTスキャンの経験の浅い評価者による急性出血の誤った同定があり得る場合に、これらのようなケースに正確に対処することができる。
実施例7:脳底槽の迅速な検出及びマッピング(図13)。
元の頭部CT画像は図13の左側にある。処理後の画像は図の右側にあり、脳の正中線がオーバーレイされた白い直線によって境界を画定されており、脳底槽の領域は白で境界を画定され、このグレースケール図のために短い太い矢印で印されている。実際の実装において、この出血は、CTスキャンのグレースケールの背景に対して見やすいように明るい色で境界を画定されている。正中線による境界画定は、実施例4に説明されるように完全自動化様式で行われる。脳底槽マッピングは、図6及び付随する説明に記載される完全自動ヒューリスティックアルゴリズムによって行われる。脳の正中線及び急性出血の検出及びマッピングの自動プロセスと同様に、脳底槽を検出及びマッピングするためのこのプロセスは、Ubuntu Linux 14.04を実行しているAWS EC2 g2.8xlarge GPUインスタンス上のクラウドで実装される。
実施例8:脳底槽の面積が小さい急性出血性挫傷及び下方脳鉤ヘルニアの迅速な検出及びマッピング(図14)。
元の頭部CT画像は図14の左側にある。処理後の画像は図の右側にあり、脳の正中線がオーバーレイされた白い直線によって境界を画定されており、脳挫傷に起因する急性出血の領域が黒で境界を画定され、脳底槽が白で境界を画定されている。正中線による境界画定は、実施例5に説明されるような出血の境界画定と同様に、実施例4に説明されるように完全自動化様式で行われた。脳底槽の境界画定は、実施例7に説明されるように完全自動化様式で行われた。この例において、脳底槽の面積及び対称性は、脳腫脹及び/または占拠性腫瘤病変(複数可)による右側頭葉の下方ヘルニアに起因して図13に例示される正常な構成と比較して小さい。下方ヘルニアは、ヘルニアの理由に応じて手術を必要とする可能性があり得る生命を脅かす緊急事態を意味し得る。
実施例9:ヒューリスティックアルゴリズムを使用した脳底槽の体積及び正中偏位の迅速な検出、マッピング、及び測定(図15)。
元の頭部CT画像は図15の左側にある。処理後の画像は図の右側にあり、脳の正中線がオーバーレイされた白い直線によって境界を画定され、かつ白い破線矢印によって印されており、脳底槽の領域は白で境界を画定され、短い太い矢印で印されている。正中線による境界画定は、実施例7に説明されるような脳底槽の境界画定と同様に、実施例4に説明されるように完全自動化様式で行われる。脳底槽の境界画定された領域から、脳底槽の境界画定に含まれる画像のピクセルの面積を合計し、次いで、この合計にCTスキャン収集のパラメータである画像の厚さを乗じることによって、その体積を計算することができる。この体積の典型的な単位は、ミリリットル(mL)としても知られる立方センチメートルである。本実施例において、右側のCT画像の下部に示されるように、脳底槽は4.4mLである。この値は、実施例4に記載されるクラウドベースのシステムに実装されるような、脳底槽の境界を画定する自動ヒューリスティックプロセスによって計算される。同様に、脳の正中線に位置するべき解剖学的構造が、脳腫脹及び/または占拠性腫瘤病変(複数可)によってどれくらい正中線から偏位したかに対応する距離も、自動的に測定及び表示され得る。この正中偏位が大きい場合、それは緊急手術を必要とし得る生命を脅かす緊急事態を意味し得る。この例において正中偏位を測定するための自動プロセスは、図3に説明される。この例では、計算された正中偏位は5ミリメートル(mm)未満であり、したがって右側のCT画像の下部に「著しい正中偏位は見られない」と表示されている。5mm超の正中偏位の場合には、実際の測定された正中偏位が代わりに表示されてもよい。これらの測定された脳底槽の体積及び正中偏位の距離は、脳ヘルニアの定量的な「バイオマーカー」であると見なされてもよく、患者の診断及び予後のために使用することができる。
実施例10:高密度ピクセルのラベル付けによって訓練されたFCNNを使用した脳底槽の面積、ならびにヒューリスティックアルゴリズムを使用した正中偏位の迅速な検出、マッピング、及び測定(図16)。
元の頭部CT画像は図16の右側にあり、白い直線で正中線の境界が画定されている。処理後の画像は、図の左側にある。脳底槽は、FCNNが、脳底槽の手動分割からの高密度ピクセル単位のラベル付けで訓練された後にFCNNを使用して完全自動化様式で境界が画定されている。FCNNによる脳底槽の境界画定は、FCNNの出力である尤度値に依存し(図の左側のスケールバーに示されるように)、実際のCT密度値(ハウンスフィールド単位)を必要としない。この図では、このスライド上の脳底槽の面積は、脳底槽の境界画定に含まれる画像のピクセルの面積を合計することによって計算され、平方センチメートルで表される。
実施例11:高密度ピクセルのラベル付けによって訓練されたFCNNを使用した側脳室面積の迅速な検出、マッピング、及び測定(図17)。
元の頭部CT画像は図17の右側にあり、白い直線で正中線の境界が画定されている。処理後の画像は、図の左側にある。左及び右の側脳室は、FCNNが手動分割からの高密度ピクセル単位のラベル付けで訓練された後にFCNNを使用して完全自動化様式で境界が画定されている。図の左側のスケールバーに示されるように、FCNNによる脳室系の境界画定は、FCNNの出力である尤度値に依存し、画像におけるハウンスフィールド単位のCT密度の知識を必要としない。この画像における側脳室の面積は、側脳室の境界画定に含まれる画像のピクセルの面積を合計することによって計算され、平方センチメートルで表される。この例では正中線の1mm以内であると示されている、FCNNによる側脳室の境界画定の質量中心の決定は、正中偏位の重症度を定量化する完全自動化方法を意味する。
本明細書に引用される全ての参考文献は、参照によりそれらの全体が本明細書に組み込まれる。
上記記載は、本発明の技術の種々の態様を例示することを意図している。本明細書に提示される例は添付の特許請求の範囲の範囲を限定することを意図するものではない。本発明はこれで完全に記載され、当業者には、添付の特許請求の範囲の主旨または範囲から逸脱することなく、多くの変更及び修正がなされてもよいことは明確である。

Claims (28)

  1. 頭部コンピュータ断層撮影(CT)画像の評価のためのコンピュータベースの方法であって、
    頭蓋内出血、頭蓋内腫瘤効果、脳ヘルニア、及び水頭症のうちの少なくとも1つを、コンピュータが、少なくとも部分的に深層学習法に基づいて、同定、位置特定、及び定量化することにより、前記頭部CT画像のセットの少なくとも1つの画像を分析することを含む、方法。
  2. 前記深層学習法が、頭蓋内出血、ならびに正中偏位等の頭蓋内腫瘤効果、脳ヘルニア、及び水頭症の同定、位置特定、及び定量化のために使用される、請求項1に記載の方法。
  3. 前記深層学習法は、畳み込みニューラルネットワークを含む、請求項2に記載の方法。
  4. 前記畳み込みニューラルネットワークは、全層畳み込みニューラルネットワークであり、前記頭部CT画像の手動分割からの高密度ピクセル単位のラベル付けを使用した前記畳み込みニューラルネットワークの訓練をさらに含む、請求項3に記載の方法。
  5. 前記畳み込みニューラルネットワークは、頭蓋内出血を実質内、くも膜下、硬膜下、または硬膜外に分類する等の、該当する特徴の分類のための多クラスピクセル単位のラベル付けを含む、請求項4に記載の方法。
  6. 前記畳み込みニューラルネットワークは、小規模な頭蓋内出血等の、前記画像のセットのスパース性の検出、位置特定、及び定量化を補助するために、前記ピクセル単位のラベルのサブセット上でのみ訓練される、請求項4に記載の方法。
  7. 前記畳み込みニューラルネットワークは、拡張された受容野を用いる畳み込みカーネルを含む、請求項3に記載の方法。
  8. 前記畳み込みニューラルネットワークは深層残差学習を用いる、請求項3に記載の方法。
  9. 前記畳み込みニューラルネットワークは、多クラス特徴分類及びバウンディングボックス回帰とともにグランドトゥルースバウンディングボックスのラベル付けを用いる領域ベースの畳み込みニューラルネットワークである、請求項3に記載の方法。
  10. 前記畳み込みニューラルネットワークは、空間位置情報を組み込む、請求項3に記載の方法。
  11. 他の種類の機械学習分類子を用いてまたは用いずに、畳み込みニューラルネットワークのアンサンブルが使用される、請求項3に記載の方法。
  12. 訓練を促進し、かつ前記畳み込みニューラルネットワークの性能を向上させるために、転移学習としても知られる微調整が用いられる、請求項3に記載の方法。
  13. モデル並列処理及び/またはデータ並列処理を実装するために、複数のGPUを使用して分布された深層学習が用いられる、請求項3に記載の方法。
  14. 前記頭部CT画像を定量的特徴について評価することをさらに含む、請求項1から13のいずれか一項に記載の方法。
  15. 前記分析することは、多くの異常を含む定量的特徴を決定することを含む、請求項1から14のいずれか一項に記載の方法。
  16. 前記異常は頭蓋内出血である、請求項15に記載の方法。
  17. 大脳鎌、鞍背及び脳底槽、ならびに眼球等の解剖学的特徴を同定することをさらに含む、請求項1から16のいずれか一項に記載の方法。
  18. 前記同定することはハフ変換に基づいている、請求項17に記載の方法。
  19. 出血の解剖学的位置を決定することを含み、前記出血の前記解剖学的位置は、脳アトラスに対する自動位置合わせによって決定される、請求項1から18のいずれか一項に記載の方法。
  20. 頭部コンピュータ断層撮影(CT)画像の臨床評価のためのコンピュータベースの方法であって、
    患者の頭部コンピュータ断層撮影(CT)画像のセットを受け取ることと、
    頭蓋骨特徴、頭皮、顔面骨、及び他の頭蓋外軟組織を前記画像のセットから除去することと、
    頭蓋内出血、頭蓋内腫瘤効果、正中偏位、脳ヘルニア、及び水頭症のうちの少なくとも1つを、コンピュータが、少なくとも部分的に深層学習法に基づいて、同定、位置特定、及び定量化することにより、前記頭部CT画像のセットの少なくとも1つの画像を分析することと、
    前記分析から得られた情報を臨床医に提供すること、を含む方法。
  21. 前記除去することは、
    高いハウンスフィールド単位数での閾値処理と、
    頭蓋骨の画像における不連続性を閉鎖することと、
    脳の画像を完全に取り囲む連続した高密度のボールトを作成することと、
    頭蓋内ピクセルを隔離するために充填操作を行うこと、によって行われる、請求項20に記載の方法。
  22. 前記分析することは、
    前記CT画像のセットの中の各画像についてCT密度のヒストグラムを計算することと、
    前記ヒストグラムを前記CT密度のおよその位置を中心とするガウス分布の和にフィッティングすること、を含む請求項20に記載の方法。
  23. 前記分析することは、
    訓練された畳み込みニューラルネットワークからの尤度値を使用して、脳ヘルニア、水頭症及び正中偏位をそれぞれ決定するために脳底槽と側脳室との境界を画定することを含む請求項20に記載の方法。
  24. 前記分析することは、
    脳の正中偏位を決定することと、
    エッジ検出アルゴリズムに続くハフ変換の適用によって大脳鎌を同定すること、を含む請求項20に記載の方法。
  25. 前記分析することは、畳み込みニューラルネットワークを介してヒューリスティックと深層学習とを組み合わせる、請求項20から24のいずれか一項に記載の方法。
  26. 請求項1から25のいずれか一項に記載の方法に従って画像を分析するように構成される、医療用撮像デバイス。
  27. 請求項1から25のいずれか一項に記載の方法を行うように構成される、計算装置。
  28. 請求項1から25のいずれか一項に記載の方法を行うための命令でコード化される、コンピュータ可読媒体。
JP2018531110A 2015-12-18 2016-12-16 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化 Active JP7110098B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562269778P 2015-12-18 2015-12-18
US62/269,778 2015-12-18
PCT/US2016/067170 WO2017106645A1 (en) 2015-12-18 2016-12-16 Interpretation and quantification of emergency features on head computed tomography

Publications (3)

Publication Number Publication Date
JP2019500110A JP2019500110A (ja) 2019-01-10
JP2019500110A5 JP2019500110A5 (ja) 2021-06-17
JP7110098B2 true JP7110098B2 (ja) 2022-08-01

Family

ID=59057840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018531110A Active JP7110098B2 (ja) 2015-12-18 2016-12-16 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化

Country Status (5)

Country Link
US (2) US11200664B2 (ja)
EP (1) EP3391284B1 (ja)
JP (1) JP7110098B2 (ja)
CN (1) CN108369642A (ja)
WO (1) WO2017106645A1 (ja)

Families Citing this family (119)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10331852B2 (en) 2014-01-17 2019-06-25 Arterys Inc. Medical imaging and efficient sharing of medical imaging information
EP3073915A4 (en) 2014-01-17 2017-08-16 Arterys Inc. Apparatus, methods and articles for four dimensional (4d) flow magnetic resonance imaging
WO2017091833A1 (en) 2015-11-29 2017-06-01 Arterys Inc. Automated cardiac volume segmentation
WO2017106645A1 (en) * 2015-12-18 2017-06-22 The Regents Of The University Of California Interpretation and quantification of emergency features on head computed tomography
CN108475415B (zh) * 2015-12-21 2022-05-27 商汤集团有限公司 用于图像处理的方法和系统
TW201736865A (zh) * 2016-04-13 2017-10-16 Nihon Medi-Physics Co Ltd 來自核子醫學影像的生理累積之自動去除及ct影像之自動分段
CN107784654B (zh) * 2016-08-26 2020-09-25 杭州海康威视数字技术股份有限公司 图像分割方法、装置及全卷积网络系统
US10627464B2 (en) 2016-11-22 2020-04-21 Hyperfine Research, Inc. Low-field magnetic resonance imaging methods and apparatus
US10955504B2 (en) 2016-11-22 2021-03-23 Hyperfine Research, Inc. Systems and methods for automated detection in magnetic resonance images
KR101836096B1 (ko) * 2016-12-02 2018-03-12 주식회사 수아랩 이미지 데이터의 상태 판단 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램
CN108229687B (zh) * 2016-12-14 2021-08-24 腾讯科技(深圳)有限公司 数据处理方法、数据处理装置及电子设备
US10789302B2 (en) * 2017-01-14 2020-09-29 Innoplexus Ag Method and system for extracting user-specific content
US10902598B2 (en) 2017-01-27 2021-01-26 Arterys Inc. Automated segmentation utilizing fully convolutional networks
EP3399449A1 (en) * 2017-05-02 2018-11-07 Koninklijke Philips N.V. Diagnostic support in an x-ray system
US10650520B1 (en) 2017-06-06 2020-05-12 PathAI, Inc. Systems and methods for training a statistical model to predict tissue characteristics for a pathology image
US10733730B2 (en) 2017-06-19 2020-08-04 Viz.ai Inc. Method and system for computer-aided triage
CN111107783B (zh) 2017-06-19 2022-08-05 维兹人工智能公司 用于计算机辅助分诊的方法和系统
US10783393B2 (en) * 2017-06-20 2020-09-22 Nvidia Corporation Semi-supervised learning for landmark localization
JP6765396B2 (ja) * 2017-07-11 2020-10-07 富士フイルム株式会社 医用画像処理装置、方法およびプログラム
CN110832508B (zh) 2017-07-11 2023-08-11 美国西门子医学诊断股份有限公司 用于样本管顶部圆形的基于学习的图像边缘增强的方法和系统
US20190021677A1 (en) * 2017-07-18 2019-01-24 Siemens Healthcare Gmbh Methods and systems for classification and assessment using machine learning
CN109300166B (zh) 2017-07-25 2023-04-25 同方威视技术股份有限公司 重建ct图像的方法和设备以及存储介质
WO2019027924A1 (en) * 2017-07-30 2019-02-07 Icahn School Of Medicine At Mount Sinai DEEP PLANNING RADIATION THERAPY SYSTEM AND METHOD
WO2019051271A1 (en) * 2017-09-08 2019-03-14 The General Hospital Corporation SYSTEMS AND METHODS FOR CLASSIFYING CEREBRAL HEMORRHAGE IN MEDICAL IMAGES USING AN ARTIFICIAL INTELLIGENCE NETWORK
WO2019063760A1 (en) 2017-09-28 2019-04-04 Koninklijke Philips N.V. DISPERSION CORRECTION BASED ON DEEP LEARNING
US10803984B2 (en) 2017-10-06 2020-10-13 Canon Medical Systems Corporation Medical image processing apparatus and medical image processing system
US11517197B2 (en) 2017-10-06 2022-12-06 Canon Medical Systems Corporation Apparatus and method for medical image reconstruction using deep learning for computed tomography (CT) image noise and artifacts reduction
EP3698320B1 (en) * 2017-10-20 2021-07-21 Nuvasive, Inc. Intervertebral disc modeling
WO2019103912A2 (en) 2017-11-22 2019-05-31 Arterys Inc. Content based image retrieval for lesion analysis
JP7066385B2 (ja) * 2017-11-28 2022-05-13 キヤノン株式会社 情報処理方法、情報処理装置、情報処理システム及びプログラム
JP7058988B2 (ja) * 2017-11-30 2022-04-25 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US10521911B2 (en) * 2017-12-05 2019-12-31 Siemens Healtchare GmbH Identification of defects in imaging scans
CN108021923B (zh) * 2017-12-07 2020-10-23 上海为森车载传感技术有限公司 一种用于深度神经网络的图像特征提取方法
CN107844784A (zh) * 2017-12-08 2018-03-27 广东美的智能机器人有限公司 人脸识别方法、装置、计算机设备和可读存储介质
CN107818326B (zh) * 2017-12-11 2018-07-20 珠海大横琴科技发展有限公司 一种基于场景多维特征的船只检测方法及系统
CN108171246B (zh) * 2017-12-21 2022-02-08 北京科技大学 一种服装显著区域检测方法
US11151449B2 (en) * 2018-01-24 2021-10-19 International Business Machines Corporation Adaptation of a trained neural network
WO2019173452A1 (en) 2018-03-07 2019-09-12 Rensselaer Polytechnic Institute Deep neural network for ct metal artifact reduction
US10593029B2 (en) * 2018-03-21 2020-03-17 Ford Global Technologies, Llc Bloom removal for vehicle sensors
JP6945493B2 (ja) * 2018-05-09 2021-10-06 富士フイルム株式会社 医用画像処理装置、方法およびプログラム
US11972567B2 (en) 2018-05-29 2024-04-30 The General Hospital Corporation System and method for analyzing medical images to detect and classify a medical condition using machine-learning and a case pertinent radiology atlas
KR102062386B1 (ko) * 2018-06-01 2020-01-03 건양대학교 산학협력단 딥 러닝을 이용한 엑스레이 영상의 뼈 영역 제거 시스템
JP7114347B2 (ja) * 2018-06-04 2022-08-08 浜松ホトニクス株式会社 断層画像予測装置および断層画像予測方法
DK3806744T3 (da) * 2018-06-14 2022-05-23 Kheiron Medical Tech Ltd Øjeblikkelig undersøgelse
JP7089072B2 (ja) * 2018-06-15 2022-06-21 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド 進歩したセマンティックセグメンテーションおよび敵対的訓練による、きめ細かなhil指標決定のための方法および装置
EP3807650A4 (en) * 2018-06-15 2021-11-17 Siemens Healthcare Diagnostics, Inc. SAMPLE CONTAINER CHARACTERIZATION USING A SINGLE DEEP NEURONAL NETWORK IN END-TO-END LEARNING MODE
JP7115114B2 (ja) * 2018-07-27 2022-08-09 コニカミノルタ株式会社 X線画像物体認識システム
US20200046952A1 (en) * 2018-08-08 2020-02-13 Minnetronix Neuro, Inc. Systems, catheters, and methods for treating along the central nervous system
US11055854B2 (en) * 2018-08-23 2021-07-06 Seoul National University R&Db Foundation Method and system for real-time target tracking based on deep learning
US11210779B2 (en) * 2018-09-07 2021-12-28 Siemens Healthcare Gmbh Detection and quantification for traumatic bleeding using dual energy computed tomography
JP7330476B2 (ja) * 2018-09-11 2023-08-22 国立大学法人 筑波大学 画像処理装置、及びプログラム
JP7339270B2 (ja) * 2018-09-14 2023-09-05 富士フイルム株式会社 医用画像処理装置、方法およびプログラム
JP7083037B2 (ja) * 2018-09-20 2022-06-09 富士フイルム株式会社 学習装置及び学習方法
JP7098498B2 (ja) * 2018-10-01 2022-07-11 富士フイルム株式会社 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム
CN111126242B (zh) * 2018-10-16 2023-03-21 腾讯科技(深圳)有限公司 肺部图像的语义分割方法、装置、设备及存储介质
CN112912964A (zh) * 2018-10-19 2021-06-04 豪夫迈·罗氏有限公司 利用卷积神经网络对冻干药物产品的缺陷检测
US11037030B1 (en) * 2018-10-29 2021-06-15 Hrl Laboratories, Llc System and method for direct learning from raw tomographic data
DK180231B1 (en) * 2018-10-31 2020-08-28 Synaptic Aps Method of establishing a brain status indication parameter and system therefor
US11526759B2 (en) * 2018-11-05 2022-12-13 International Business Machines Corporation Large model support in deep learning
JP7222882B2 (ja) * 2018-11-14 2023-02-15 キュア.エーアイ テクノロジーズ プライベート リミテッド 医用画像評価のためのディープラーニングの応用
US11610110B2 (en) 2018-12-05 2023-03-21 Bank Of America Corporation De-conflicting data labeling in real time deep learning systems
JP7096362B2 (ja) * 2018-12-14 2022-07-05 富士フイルム株式会社 ミニバッチ学習装置とその作動プログラムおよび作動方法
CN109671031B (zh) * 2018-12-14 2022-03-18 中北大学 一种基于残差学习卷积神经网络的多光谱图像反演方法
WO2020121678A1 (ja) * 2018-12-14 2020-06-18 富士フイルム株式会社 ミニバッチ学習装置とその作動プログラム、作動方法、および画像処理装置
US10373317B1 (en) * 2019-01-22 2019-08-06 StradVision, Inc. Learning method and learning device for attention-driven image segmentation by using at least one adaptive loss weight map to be used for updating HD maps required to satisfy level 4 of autonomous vehicles and testing method and testing device using the same
US11068694B2 (en) 2019-01-23 2021-07-20 Molecular Devices, Llc Image analysis system and method of using the image analysis system
US10410120B1 (en) * 2019-01-25 2019-09-10 StradVision, Inc. Learning method and testing method of object detector to be used for surveillance based on R-CNN capable of converting modes according to aspect ratios or scales of objects, and learning device and testing device using the same
CN109829501B (zh) * 2019-02-01 2021-02-19 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN110176017A (zh) * 2019-03-01 2019-08-27 北京纵目安驰智能科技有限公司 一种基于目标检测的边缘检测模型、方法和存储介质
US11583188B2 (en) * 2019-03-18 2023-02-21 General Electric Company Automated detection and localization of bleeding
KR102227439B1 (ko) * 2019-03-21 2021-03-15 울산대학교 산학협력단 얼굴 영역 이미지 분석 장치 및 방법
WO2020203552A1 (ja) * 2019-03-29 2020-10-08 富士フイルム株式会社 線構造抽出装置及び方法、プログラム並びに学習済みモデル
CN109893160A (zh) * 2019-04-02 2019-06-18 晓智科技(成都)有限公司 一种x光被测对象姿态调整辅助方法
JP2022526964A (ja) * 2019-04-02 2022-05-27 コーニンクレッカ フィリップス エヌ ヴェ 非造影頭部ctにおける重大領域の迅速検出及びインデックス付けのための自動化システム
CN110119710A (zh) * 2019-05-13 2019-08-13 广州锟元方青医疗科技有限公司 细胞分类方法、装置、计算机设备和存储介质
CN110135422B (zh) * 2019-05-20 2022-12-13 腾讯科技(深圳)有限公司 一种密集目标的检测方法和装置
CN110348444A (zh) * 2019-05-31 2019-10-18 浙江米猪控股有限公司 基于深度学习的错题收集方法、装置及设备
CN110197488A (zh) * 2019-05-31 2019-09-03 中国人民解放军96962部队 一种基于ct图像的定位分割系统和方法
US11462318B2 (en) * 2019-06-27 2022-10-04 Viz.ai Inc. Method and system for computer-aided triage of stroke
DE102019209790A1 (de) * 2019-07-03 2021-01-07 Siemens Healthcare Gmbh Verfahren zur Bereitstellung eines Bewertungsdatensatzes von einem ersten medizinischen dreidimensionalen Computertomographiedatensatz
WO2021016201A1 (en) * 2019-07-19 2021-01-28 The Regents Of The University Of California Expert-level detection of acute intracranial hemorrhage on head ct scans
CN110473172B (zh) * 2019-07-24 2022-07-05 上海联影智能医疗科技有限公司 医学图像解剖中线确定方法、计算机设备和存储介质
US11544844B2 (en) 2019-07-25 2023-01-03 Canon Medical Systems Corporation Medical image processing method and apparatus
WO2021021641A1 (en) 2019-07-30 2021-02-04 Viz.ai Inc. Method and system for computer-aided triage of stroke
US20220292681A1 (en) * 2019-08-23 2022-09-15 Memorial Sloan Kettering Cancer Center Fast whole slide tissue tiling method
US11587227B2 (en) * 2019-08-27 2023-02-21 Aidoc Medical Ltd System for detecting contrast in medical scans
EP3786881A1 (en) * 2019-08-29 2021-03-03 Koninklijke Philips N.V. Image processing for stroke characterization
WO2021050016A1 (en) * 2019-09-15 2021-03-18 Innowayrg Arastirma Gelistirme Ve Danismanlik Hizmetleri Sanayi Ve Ticaret Anonim Sirketi An artificial intelligence based system for determining optimal burr hole points in neurosurgery
JP2021051573A (ja) * 2019-09-25 2021-04-01 キヤノン株式会社 画像処理装置、および画像処理装置の制御方法
JP2021049198A (ja) 2019-09-25 2021-04-01 株式会社日立製作所 手術支援装置及び手術ナビゲーションシステム
EP3797692B1 (de) * 2019-09-30 2023-01-18 Siemens Healthcare GmbH Verfahren und vorrichtung zur ansteuerung eines medizinischen bildgebungsgeräts
CN110738643B (zh) * 2019-10-08 2023-07-28 上海联影智能医疗科技有限公司 脑出血的分析方法、计算机设备和存储介质
US11556450B2 (en) 2019-10-11 2023-01-17 International Business Machines Corporation Hybrid data-model parallelism for efficient deep learning
CN110852350B (zh) * 2019-10-21 2022-09-09 北京航空航天大学 一种基于多尺度迁移学习的肺结节良恶性分类方法和系统
CN110934608B (zh) * 2019-10-31 2020-11-13 上海杏脉信息科技有限公司 脑卒中早期cta图像评估系统及评估方法、可读存储介质
CN111161848B (zh) * 2019-10-31 2023-08-29 杭州深睿博联科技有限公司 Ct图像的病灶标注方法及装置、存储介质
CN110934606B (zh) * 2019-10-31 2021-02-12 上海杏脉信息科技有限公司 脑卒中早期平扫ct图像评估系统及评估方法、可读存储介质
CN110956636A (zh) * 2019-11-28 2020-04-03 北京推想科技有限公司 一种图像处理方法及装置
CN115315214A (zh) * 2020-02-05 2022-11-08 努沃集团有限公司 用于母体子宫活动检测的融合信号处理
CN111553894A (zh) * 2020-04-24 2020-08-18 上海杏脉信息科技有限公司 一种医学图像分割模型训练方法、介质及电子设备
JP7071037B2 (ja) * 2020-04-28 2022-05-18 ゼネラル・エレクトリック・カンパニイ 推論装置、医用システム、およびプログラム
US11301720B2 (en) * 2020-04-28 2022-04-12 International Business Machines Corporation Training set enrichment with insignificantly-abnormal medical images
CN111583212B (zh) * 2020-04-29 2021-11-30 上海杏脉信息科技有限公司 脑部中线移位的确定方法及装置
CN111583219B (zh) * 2020-04-30 2021-05-18 赤峰学院附属医院 颅颌面软硬组织的分析方法及装置、电子设备
CN111738295B (zh) * 2020-05-22 2024-03-22 南通大学 图像的分割方法及存储介质
CN111754520B (zh) * 2020-06-09 2023-09-15 江苏师范大学 一种基于深度学习的脑血肿分割方法及系统
CN111539956B (zh) * 2020-07-07 2020-12-29 南京安科医疗科技有限公司 基于脑部辅助图像的脑出血自动检测方法及电子介质
CN111862014A (zh) * 2020-07-08 2020-10-30 深圳市第二人民医院(深圳市转化医学研究院) 一种基于左右侧脑室分割的alvi自动测量方法及装置
US11328400B2 (en) * 2020-07-24 2022-05-10 Viz.ai Inc. Method and system for computer-aided aneurysm triage
US11734915B2 (en) 2020-08-24 2023-08-22 University Of South Florida Automated and assisted identification of stroke using feature-based brain imaging
US11861828B2 (en) * 2020-09-01 2024-01-02 Siemens Healthcare Gmbh Automated estimation of midline shift in brain ct images
US11842492B2 (en) 2021-04-16 2023-12-12 Natasha IRONSIDE Cerebral hematoma volume analysis
US11915829B2 (en) 2021-04-19 2024-02-27 Natasha IRONSIDE Perihematomal edema analysis in CT images
CN113284126B (zh) * 2021-06-10 2022-06-24 安徽省立医院(中国科学技术大学附属第一医院) 人工神经网络图像分析预测脑积水分流手术疗效的方法
US11694807B2 (en) 2021-06-17 2023-07-04 Viz.ai Inc. Method and system for computer-aided decision guidance
CN113517056B (zh) * 2021-06-18 2023-09-19 安徽医科大学 医学图像目标区域的识别方法、神经网络模型及应用
JPWO2023012967A1 (ja) * 2021-08-05 2023-02-09
WO2023097362A1 (en) * 2021-12-03 2023-06-08 Annalise-Ai Pty Ltd Systems and methods for analysis of computed tomography (ct) images
US20240144593A1 (en) * 2022-10-28 2024-05-02 Magnus Medical, Inc. Systems and methods for generating head models

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003060827A1 (en) 2002-01-18 2003-07-24 Kent Ridge Digital Labs Method and apparatus for determining symmetry in 2d and 3d images
JP2011514822A (ja) 2008-03-03 2011-05-12 エージェンシー フォー サイエンス,テクノロジー アンド リサーチ Ctスキャンデータをセグメント化する方法とシステム
JP2012235796A (ja) 2009-09-17 2012-12-06 Sharp Corp 診断処理装置、診断処理システム、診断処理方法、診断処理プログラム及びコンピュータ読み取り可能な記録媒体、並びに、分類処理装置
JP2013198763A (ja) 2005-04-15 2013-10-03 Toshiba Corp 医用画像処理装置

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69532916D1 (de) * 1994-01-28 2004-05-27 Schneider Medical Technologies Verfahren und vorrichtung zur bilddarstellung
US6775404B1 (en) * 1999-03-18 2004-08-10 University Of Washington Apparatus and method for interactive 3D registration of ultrasound and magnetic resonance images based on a magnetic position sensor
US6472993B1 (en) * 2001-10-16 2002-10-29 Pittway Corp. Singular housing window or door intrusion detector using earth magnetic field sensor
US6678399B2 (en) * 2001-11-23 2004-01-13 University Of Chicago Subtraction technique for computerized detection of small lung nodules in computer tomography images
JP4493408B2 (ja) * 2003-06-06 2010-06-30 富士フイルム株式会社 画像読影支援方法及び装置並びにプログラム
US7103399B2 (en) * 2003-09-08 2006-09-05 Vanderbilt University Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery
JP4364002B2 (ja) * 2004-02-06 2009-11-11 オリンパス株式会社 頭部装着型カメラ及び頭部装着型カメラによる撮影方法
US9492114B2 (en) * 2004-06-18 2016-11-15 Banner Health Systems, Inc. Accelerated evaluation of treatments to prevent clinical onset of alzheimer's disease
US20080021502A1 (en) * 2004-06-21 2008-01-24 The Trustees Of Columbia University In The City Of New York Systems and methods for automatic symmetry identification and for quantification of asymmetry for analytic, diagnostic and therapeutic purposes
US9471978B2 (en) * 2004-10-04 2016-10-18 Banner Health Methodologies linking patterns from multi-modality datasets
DE102005058095A1 (de) * 2005-12-05 2007-06-06 Forschungszentrum Jülich GmbH Verfahren zur topographischen Darstellung von Veränderungen in einem untersuchten Gehirn
IL179582A0 (en) * 2006-11-26 2007-05-15 Algotec Systems Ltd Comparison workflow automation by registration
US8208707B2 (en) * 2008-09-02 2012-06-26 General Electric Company Tissue classification in medical images
US20100145194A1 (en) * 2008-11-13 2010-06-10 Avid Radiopharmaceuticals, Inc. Histogram-based analysis method for the detection and diagnosis of neurodegenerative diseases
BRPI1005358A2 (pt) * 2009-01-30 2019-09-24 Koninl Philips Electronics Nv sistema para exibir as informações de ventilação pulmonar, método para exibir as informações de ventilação pulmonar e produto de programa de computador
WO2010117573A2 (en) * 2009-04-07 2010-10-14 Virginia Commonwealth University Automated measurement of brain injury indices using brain ct images, injury data, and machine learning
US8374414B2 (en) * 2010-11-05 2013-02-12 The Hong Kong Polytechnic University Method and system for detecting ischemic stroke
SG190445A1 (en) * 2011-02-01 2013-07-31 Agency Science Tech & Res Method and apparatus for processing of stroke ct scans
WO2013082289A1 (en) * 2011-11-30 2013-06-06 Rush University Medical Center System and methods for identification of implanted medical devices and/or detection of retained surgical foreign objects from medical images
US9245334B2 (en) * 2012-02-28 2016-01-26 Albert Einstein College Of Medicine, Inc. Methods for quantitative assessment of volumetric image from a subject and uses therof
US9165360B1 (en) * 2012-09-27 2015-10-20 Zepmed, Llc Methods, systems, and devices for automated analysis of medical scans
US9600138B2 (en) * 2013-03-15 2017-03-21 Synaptive Medical (Barbados) Inc. Planning, navigation and simulation systems and methods for minimally invasive therapy
WO2014139018A1 (en) * 2013-03-15 2014-09-18 Synaptive Medical (Barbados) Inc. Context aware surgical systems
CN105074773B (zh) * 2013-03-28 2019-08-06 皇家飞利浦有限公司 改善脑部扫描中的对称性
DE102013209892A1 (de) * 2013-05-28 2014-12-04 Henkel Ag & Co. Kgaa Mund- und Zahnpflege- und -reinigungsmittel mit gesteigerter antibakterieller Wirkung
US10535133B2 (en) * 2014-01-17 2020-01-14 The Johns Hopkins University Automated anatomical labeling by multi-contrast diffeomorphic probability fusion
EP3073915A4 (en) * 2014-01-17 2017-08-16 Arterys Inc. Apparatus, methods and articles for four dimensional (4d) flow magnetic resonance imaging
US11880989B2 (en) * 2014-04-25 2024-01-23 Thornhill Scientific Inc. Imaging abnormalities in vascular response
US20150324690A1 (en) 2014-05-08 2015-11-12 Microsoft Corporation Deep Learning Training System
WO2016011137A1 (en) * 2014-07-15 2016-01-21 Brigham And Women's Hospital, Inc. Systems and methods for generating biomarkers based on multivariate classification of functional imaging and associated data
US9754371B2 (en) * 2014-07-31 2017-09-05 California Institute Of Technology Multi modality brain mapping system (MBMS) using artificial intelligence and pattern recognition
US10028694B2 (en) * 2014-11-25 2018-07-24 Scienceplusplease, Llc Non-invasive systems and methods to detect cortical spreading depression for the detection and assessment of brain injury and concussion
US11234628B2 (en) * 2014-11-25 2022-02-01 Scienceplusplease, Llc Non-invasive systems and methods to detect cortical spreading depression for the detection and assessment of brain injury and concussion
US9984283B2 (en) * 2015-02-14 2018-05-29 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for automated detection of abnormalities in medical images
US9962086B2 (en) * 2015-03-31 2018-05-08 Toshiba Medical Systems Corporation Medical image data processing apparatus and method for determining the presence of an abnormality
CN104992430B (zh) * 2015-04-14 2017-12-22 杭州奥视图像技术有限公司 基于卷积神经网络的全自动的三维肝脏分割方法
US10657642B2 (en) * 2015-06-19 2020-05-19 New York University System, method and computer-accessible medium for the determination of accelerated brain atrophy and an optimal drainage site for a subdural hematoma using computed tomography
CN110688891B (zh) * 2015-08-15 2024-05-31 硕动力公司 采用3d批归一化的三维(3d)卷积
AU2016316683B2 (en) * 2015-09-04 2020-07-23 The Johns Hopkins University Low-profile intercranial device
US11717195B2 (en) * 2015-10-12 2023-08-08 FloTBI Inc. Assay and point of care device utilizing saliva for diagnosis and treatment of neurological conditions affecting brain health
DE102015221876A1 (de) * 2015-11-06 2017-05-11 Siemens Healthcare Gmbh Verfahren zum Auswerten von medizinischen Bilddaten eines Untersuchungsobjekts
WO2017106469A1 (en) * 2015-12-15 2017-06-22 The Regents Of The University Of California Systems and methods for analyzing perfusion-weighted medical imaging using deep neural networks
WO2017106645A1 (en) * 2015-12-18 2017-06-22 The Regents Of The University Of California Interpretation and quantification of emergency features on head computed tomography
CN106053752B (zh) * 2016-05-25 2017-12-19 华东理工大学 镍基高温紧固件的防断裂设计方法
US10140421B1 (en) * 2017-05-25 2018-11-27 Enlitic, Inc. Medical scan annotator system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003060827A1 (en) 2002-01-18 2003-07-24 Kent Ridge Digital Labs Method and apparatus for determining symmetry in 2d and 3d images
JP2013198763A (ja) 2005-04-15 2013-10-03 Toshiba Corp 医用画像処理装置
JP2011514822A (ja) 2008-03-03 2011-05-12 エージェンシー フォー サイエンス,テクノロジー アンド リサーチ Ctスキャンデータをセグメント化する方法とシステム
JP2012235796A (ja) 2009-09-17 2012-12-06 Sharp Corp 診断処理装置、診断処理システム、診断処理方法、診断処理プログラム及びコンピュータ読み取り可能な記録媒体、並びに、分類処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Fuyong Xing et al.,"An Automatic Learning-Based Framework for Robust Nucleus Segmetation",IEEE TRANSACTIONS ON MEDICAL IMAGING,2016年02月,Vol.35, No.2,pp.550-566

Also Published As

Publication number Publication date
CN108369642A (zh) 2018-08-03
US20180365824A1 (en) 2018-12-20
EP3391284A1 (en) 2018-10-24
US11200664B2 (en) 2021-12-14
US20220092772A1 (en) 2022-03-24
US11810296B2 (en) 2023-11-07
EP3391284B1 (en) 2024-04-17
JP2019500110A (ja) 2019-01-10
EP3391284A4 (en) 2019-07-31
WO2017106645A1 (en) 2017-06-22

Similar Documents

Publication Publication Date Title
JP7110098B2 (ja) 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化
JP2019500110A5 (ja)
Bakas et al. Advancing the cancer genome atlas glioma MRI collections with expert segmentation labels and radiomic features
US9613416B1 (en) Methods, systems, and devices for automated analysis and management of medical scans
Pan et al. Automatic opportunistic osteoporosis screening using low-dose chest computed tomography scans obtained for lung cancer screening
US10441225B2 (en) Predicting disease recurrence following trimodality therapy in non-small cell lung cancer using computed tomography derived radiomic features and clinico-pathologic features
US10492723B2 (en) Predicting immunotherapy response in non-small cell lung cancer patients with quantitative vessel tortuosity
US11017896B2 (en) Radiomic features of prostate bi-parametric magnetic resonance imaging (BPMRI) associate with decipher score
US20190021677A1 (en) Methods and systems for classification and assessment using machine learning
US10339648B2 (en) Quantitative predictors of tumor severity
US20040101181A1 (en) Automated method and system for computerized image analysis prognosis
US10699434B2 (en) Determination of result data on the basis of medical measurement data from various measurements
US20210090257A1 (en) Spatial distribution of pathological image patterns in 3d image data
US20210319879A1 (en) Method and system for computer aided detection of abnormalities in image data
US20150003702A1 (en) Processing and displaying a breast image
US11790524B2 (en) System and method for quantitative volumetric assessment and modeling of tumor lesions
US11241190B2 (en) Predicting response to therapy for adult and pediatric crohn's disease using radiomic features of mesenteric fat regions on baseline magnetic resonance enterography
Hsiao et al. A deep learning-based precision and automatic kidney segmentation system using efficient feature pyramid networks in computed tomography images
Rueckel et al. Reduction of missed thoracic findings in emergency whole-body computed tomography using artificial intelligence assistance
Elkhill et al. Geometric learning and statistical modeling for surgical outcomes evaluation in craniosynostosis using 3D photogrammetry
US10839513B2 (en) Distinguishing hyperprogression from other response patterns to PD1/PD-L1 inhibitors in non-small cell lung cancer with pre-therapy radiomic features
Parascandolo et al. Computer aided diagnosis: state-of-the-art and application to musculoskeletal diseases
Mousavi Moghaddam et al. Lung parenchyma segmentation from CT images with a fully automatic method
Ma et al. PHE-SICH-CT-IDS: A benchmark CT image dataset for evaluation semantic segmentation, object detection and radiomic feature extraction of perihematomal edema in spontaneous intracerebral hemorrhage
Martí-Bonmatí et al. Imaging Biomarkers in Oncology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210114

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20210427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220720

R150 Certificate of patent or registration of utility model

Ref document number: 7110098

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150