JP2020500377A - ディープラーニング医療システムおよび画像収集のための方法 - Google Patents

ディープラーニング医療システムおよび画像収集のための方法 Download PDF

Info

Publication number
JP2020500377A
JP2020500377A JP2019527369A JP2019527369A JP2020500377A JP 2020500377 A JP2020500377 A JP 2020500377A JP 2019527369 A JP2019527369 A JP 2019527369A JP 2019527369 A JP2019527369 A JP 2019527369A JP 2020500377 A JP2020500377 A JP 2020500377A
Authority
JP
Japan
Prior art keywords
image
data
learning
network
imaging system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019527369A
Other languages
English (en)
Other versions
JP7309605B2 (ja
Inventor
シェイ,ジアン
アヴィナシュ,ゴパル
シロヘイ,サアド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2020500377A publication Critical patent/JP2020500377A/ja
Application granted granted Critical
Publication of JP7309605B2 publication Critical patent/JP7309605B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

画像収集のための改良されたディープラーニングのための方法および装置が提供される。撮像システム構成装置は、画像収集のための少なくとも1つの撮像システムを構成するために、複数の先行画像収集からの第1の入力のセットに基づいて第1の撮像システム構成パラメータのセットを学習する第1のディープラーニングネットワーク(DLN)を実現する第1のプロセッサを含む訓練用学習装置であって、少なくとも1つの撮像システムによる複数の画像収集からの動作データを含むフィードバックを受け取って処理する訓練用学習装置を含む。例示的な装置は、第2のDLNを実現する第2のプロセッサを含む展開済み学習装置であって、第2のDLNは、訓練用学習装置の第1のDLNから生成され、展開済み学習装置は、画像収集のための第2の入力を受け取ることに応答して第2の撮像システム構成パラメータを撮像システムに提供するように構成される、展開済み学習装置を含む。【選択図】図15A

Description

本開示は、一般的には改良された医療システムに関し、より詳細には、改良されたディープラーニング医療システムおよび画像収集のための方法に関する。
経済的、技術的、および管理上の様々な障害によって、病院、診療所、医院などのヘルスケア施設は、患者に質の高いケアを提供することが困難となる場合がある。経済的要因、スタッフの技術不足、スタッフの減少、機器の複雑化、医療従事者全体にわたる放射線被曝線量の管理と標準化のための新たな資格により、患者の検査、診断、治療のための撮像および情報システムを効果的に管理して使用することが困難となっている。
システムを実際に導入するのにコストがかかりすぎるヘルスケアプロバイダを統合することで、地理的に分散した病院ネットワークを作成する。同時に、参照する医師は、共同作業をするためのより良いチャネルと共に、レポート内のデータをサポートするために、より直接的なアクセスを欲している。医師は多くの患者を抱え、時間も少なく、大量のデータが氾濫しており、彼らは支援を熱望している。
米国特許出願公開第2016/317127号明細書
特定の例は撮像システム構成装置を提供し、撮像システム構成装置は、画像収集のための少なくとも1つの撮像システムを構成するために、複数の先行画像収集からの第1の入力のセットに基づいて第1の撮像システム構成パラメータのセットを学習する第1のディープラーニングネットワークを実現する第1のプロセッサを含む訓練用学習装置であって、少なくとも1つの撮像システムによる複数の画像収集からの動作データを含むフィードバックを受け取って処理する訓練用学習装置を含む。例示的な装置は、第2のディープラーニングネットワークを実現する第2のプロセッサを含む展開済み学習装置であって、第2のディープラーニングネットワークは、訓練用学習装置の第1のディープラーニングネットワークから生成され、展開済み学習装置は、画像収集のための第2の入力を受け取ることに応答して第2の撮像システム構成パラメータを撮像システムに提供するように構成される、展開済み学習装置を含む。
特定の例は、実行された場合に、撮像システム構成装置を実現するように機械を構成する命令を含むコンピュータ可読媒体を提供する。例示的な装置は、画像収集のための少なくとも1つの撮像システムを構成するために、複数の先行画像収集からの第1の入力のセットに基づいて第1の撮像システム構成パラメータのセットを学習する第1のディープラーニングネットワークを実現する第1のプロセッサを含む訓練用学習装置であって、少なくとも1つの撮像システムによる複数の画像収集からの動作データを含むフィードバックを受け取って処理する訓練用学習装置を含む。例示的な装置は、第2のディープラーニングネットワークを実現する第2のプロセッサを含む展開済み学習装置であって、第2のディープラーニングネットワークは、訓練用学習装置の第1のディープラーニングネットワークから生成され、展開済み学習装置は、画像収集のための第2の入力を受け取ることに応答して第2の撮像システム構成パラメータを撮像システムに提供するように構成される、展開済み学習装置を含む。
特定の例は方法を提供し、本方法は、画像収集のための少なくとも1つの撮像システムを構成するために、複数の先行画像収集からの第1の入力のセットに基づいて第1の撮像システム構成パラメータのセットを学習する訓練用学習装置において第1のディープラーニングネットワークを訓練するステップであって、訓練用学習装置は、少なくとも1つの撮像システムによる複数の画像収集からの動作データを含むフィードバックを受け取って処理する、ステップを含む。例示的な方法は、第1のディープラーニングネットワークを用いて、展開済み学習装置において第2のディープラーニングネットワークを生成するステップを含む。例示的な方法は、画像収集のための第2の入力を受け取ることに応答して第2の撮像システム構成パラメータを撮像システムに提供するために、展開済み学習装置を第2のディープラーニングネットワークにより展開するステップを含む。例示的な方法は、撮像システムからのフィードバックを受け取るステップであって、フィードバックは、撮像システムによる画像収集からの動作データを含む、ステップを含む。例示的な方法は、受け取ったフィードバックに基づいて訓練用学習装置の第1のディープラーニングネットワークを更新するステップを含む。
例示的なディープラーニングニューラルネットワークを示す図である。 畳み込みニューラルネットワークとしての例示的なニューラルネットワークの特定の実施態様を示す図である。 画像解析畳み込みニューラルネットワークの例示的な実施態様を示す図である。 画像を処理および/または評価するためのディープラーニングネットワークを適用するための例示的な構成を示す図である。 複数のディープラーニングネットワークの組み合わせを示す図である。 ディープラーニングネットワークの例示的な訓練および展開段階を示す図である。 ディープラーニング製品を提供するために訓練済みネットワークパッケージを活用する例示的な製品を示す図である。 様々なディープラーニング装置の構成を示す図である。 様々なディープラーニング装置の構成を示す図である。 様々なディープラーニング装置の構成を示す図である。 ディープラーニングネットワークを活用する例示的な学習および改善ファクトリを示す図である。 ディープラーニングネットワークを活用する例示的な学習および改善ファクトリを示す図である。 ディープラーニングネットワークモデルを訓練し展開するための例示的な方法の例示的な流れ図である。 展開済みディープラーニングネットワークモデルベースの装置の動作中にフィードバックを収集して格納し、再展開のためにモデルを再訓練するための例示的なプロセスを示す図である。 1または複数のシステムおよび/または関連ユーザにアプリケーションを提供するためにディープラーニングを利用する、データファクトリ、アプリケーションファクトリ、およびラーニングファクトリを含む例示的なシステムを示す図である。 デジタルファクトリを用いて内部的および外部的に物理的に展開された装置(物理ファクトリ)を含む医療装置エコシステムの概要を示す図である。 デジタルファクトリと対話する例示的な物理的装置およびそのデータフローを示す図である。 デジタルファクトリにおいてデータを処理して活用するための例示的な方法の流れ図である。 データファクトリおよびラーニングファクトリにおいてデータを処理して活用するための例示的な方法に関するさらなる詳細を示す図である。 ディープラーニングによる患者の評価および診断のための例示的なヘルスケアシステムを示す図である。 患者の評価および診断のための例示的な改善されたヘルスケアシステムのさらなる詳細を示す図である。 収集エンジン、再構成エンジン、および診断エンジンがデータ品質評価エンジン、画像品質評価エンジン、および診断評価エンジンを伴う、例示的なシステム実施態様を示す図である。 改善された画像収集、処理、および患者診断のための例示的な方法の流れ図である。 図15Aの例示的なシステムの構成要素間を流れる際の例示的なデータフローおよび情報の変換を示す図である。 図14〜図15Bの例示的なシステムを使用する、画像収集、画像再構成、画像解析、および患者診断のための例示的なヘルスケア解析フレームワークを示す図である。 画像収集のための例示的な方法の流れ図である。 例示的な画像収集構成システムを示す図である。 図20の画像収集構成装置を訓練し展開するための例示的な方法の流れ図である。 患者に提供される線量の関数としての画像品質指数のグラフである。 画像品質ディープラーニングネットワークのための例示的な学習段階および試験/評価段階を示す図である。 画像品質ディープラーニングネットワークのための例示的な学習段階および試験/評価段階を示す図である。 例示的なディープコンボリューションネットワークのための例示的な学習、検証、および試験段階を示す図である。 例示的なディープコンボリューションネットワークのための例示的な学習、検証、および試験段階を示す図である。 再構成パラメータの初期セットに対する出力品質を決定するために活用される例示的な訓練済みネットワークを示す図である。 展開済みネットワークモデルを使用した画像品質評価およびフィードバックのための例示的なシステムを示す図である。 展開済みネットワークモデルを使用した検出および/または診断評価およびフィードバックのための例示的なシステムを示す図である。 本明細書に開示された技術を用いた実験結果のグラフである。 本明細書に開示された技術を用いた実験結果のグラフである。 本明細書に開示された技術を用いた実験結果のグラフである。 本明細書に開示された技術を用いた実験結果のグラフである。 本明細書に開示された技術を用いた実験結果のグラフである。 画像再構成のための例示的な方法の流れ図である。 画像再構成のための図31Aの例示的な方法の特定の実施態様に関するさらなる詳細を示す図である。 本明細書に開示および説明される構成要素を実現するために例示的な機械可読命令を実行するように構成されたプロセッサプラットフォームのブロック図である。 本明細書に開示される方法、装置、および製品を適用することができる例示的な撮像システムを示す図である。 本明細書に開示される方法、装置、および製品を適用することができる例示的な撮像システムを示す図である。
図面は一定の縮尺ではない。可能な限り、同じまたは同様の部分を指すために、同じ符号を図面および記載された説明全体にわたって使用する。
以下の詳細な説明では、本明細書の一部を形成する添付の図面を参照し、そこでは実施され得る特定の例を例示として示している。これらの例は、当業者が発明の主題を実施することを可能にするために十分に詳細に記載されており、他の例を利用してもよく、論理的、機械的、電気的、および他の変更を本開示の発明の主題の範囲から逸脱することなく行うことができることが理解されよう。したがって、以下の詳細な説明は、例示的な実施態様を説明するために提供され、本開示に記載される発明の主題の範囲を限定するものと解釈するべきではない。以下の説明の異なる態様からの特定の特徴は、以下に記載する発明の主題のさらに別の態様を形成するために組み合わせることができる。
本開示の様々な実施形態の要素を導入する場合に、「1つの(a)」、「1つの(an)」、「前記(the)」および「前記(said)」は1つまたは複数の要素があることを意味するものである。「備える(comprising)」、「含む(including)」および「有する(having)」という用語は包括的なものであって、列挙した要素以外の追加の要素が存在し得ることを意味するものとする。
特定の例は、医療システムまたはヘルスケアシステムの文脈で以下に説明されるが、他の例は、医療環境の外で実施することができる。例えば、非破壊検査、爆発物検出などの非医用撮像に特定の例を適用することができる。
I.概要
撮像装置(例えば、ガンマカメラ、陽電子放射断層撮影(PET)スキャナ、コンピュータ断層撮影(CT)スキャナ、X線装置、磁気共鳴(MR)撮像装置、超音波スキャナなど)は、疾患を診断および/または治療するために身体の部分(例えば、臓器、組織など)を表す医用画像(例えば、医用画像におけるネイティブデジタル撮像および通信(DICOM))を生成する。医用画像は、医用画像内に取り込まれた身体の部分に関連するボクセルを含む容積測定データを含むことができる。医用画像視覚化ソフトウェアは、医師が医用画像の様々な位置で機能的または解剖学的特徴を分割、注釈付け、測定、および/または報告することを可能にする。いくつかの例では、医師は、医用画像視覚化ソフトウェアを利用して、医用画像との関心領域を識別することができる。
医用画像データの収集、処理、解析、および記憶は、ヘルスケア環境における患者の診断および治療において重要な役割を果たす。医用撮像ワークフローおよびそのワークフローに関与する装置は、医用撮像ワークフローおよび装置の動作中に構成、監視、および更新することができる。医用撮像ワークフローおよび装置の構成、監視、および更新を支援するために、マシンラーニングを使用することができる。
特定の例は、撮像装置の改善を行い、および/または改善を容易にし、診断精度および/または有効範囲を改善する。特定の例は、改善された診断精度を提供するために改善された画像収集および再構成を容易にする。例えば、画像品質(IQ)メトリックおよび自動検証は、ディープラーニングおよび/または他のマシンラーニング技術を使用して容易にすることができる。
マシンラーニング技術は、それがディープラーニングネットワークであろうと他の経験的/観察的学習システムであろうと、例えば、画像内の対象物の位置を特定し、音声を理解し、音声をテキストに変換し、検索エンジン結果の関連性を改善するために使用することができる。ディープラーニングは、一連のアルゴリズムを使用して、線形および非線形変換を含む複数の処理層を有するディープグラフを使用して、データにおける高レベル抽象化をモデル化するマシンラーニングのサブセットである。多くのマシンラーニングシステムは、マシンラーニングネットワークの学習および更新によって変更されるべき初期特徴および/またはネットワーク重みでシード値を設定するが、ディープラーニングネットワークは、それ自体を解析のための「良好な」特徴を識別するように訓練する。多層アーキテクチャを使用すると、ディープラーニング技術を採用する機械は、従来のマシンラーニング技術を使用する機械よりも生データを処理しやすくなる。高度に相関する値または特有のテーマのグループのデータを調べることは、異なる評価または抽象層を使用して容易になる。
本明細書および特許請求の範囲を通して、以下の用語は、文脈上他に明確に指示されない限り、本明細書に明示的に関連する意味をとる。「ディープラーニング」という用語は、複数のデータ処理層を使用してデータセット内の様々な構造を認識し、データセットを高精度で分類するマシンラーニング技術である。ディープラーニングネットワークは、複数の入力および出力に基づいてパターンを学習する訓練用ネットワーク(例えば、訓練用ネットワークモデルまたは装置)とすることができる。ディープラーニングネットワークは、訓練用ネットワークから生成され、入力に応答して出力を提供する展開されたネットワーク(例えば、展開されたネットワークモデルまたは装置)とすることができる。
「教師あり学習」という用語は、機械が人間のソースから既に分類されたデータを提供されるディープラーニング訓練方法である。「教師なし学習」という用語は、機械が既に分類されたデータを与えられていないが、機械を異常検出に有用なものにするディープラーニング訓練方法である。「半教師あり学習」という用語は、機械と利用可能な分類されていない大量のデータとを比較して、人間のソースからの少量の分類データが機械に提供されるディープラーニング訓練方法である。
「表現学習」という用語は、生データをマシンラーニングタスクで利用できる表現または特徴に変換する方法の分野である。教師あり学習では、ラベル付き入力を介して特徴が学習される。
「畳み込みニューラルネットワーク」または「CNN」という用語は、データセット内の関連対象物および領域の検出、セグメンテーション、および認識のためにディープラーニングで使用される、相互に関連するデータの生物学から触発されたネットワークである。CNNは、複数の配列の形で生データを評価し、一連の段階でデータを分割し、学習された特徴のデータを検討する。
「転移学習」という用語は、第1のものと同じまたは同様の性質の別の問題を解決するために、1つの問題を適切にまたは不適切に解決するために使用される情報を記憶する機械のプロセスである。移転学習は「誘導学習」としても知られている。転移学習は、例えば、以前のタスクからのデータを利用することができる。
「アクティブラーニング」という用語は、機械が、外部エンティティによって選択された例を受動的に受け取るのではなく、訓練データを受け取る一連の例を選択するマシンラーニングのプロセスである。例えば、機械が学習するにつれて、機械は、外部の人間の専門家または外部システムのみに依存して例を識別して提供するのではなく、機械が学習に最も役立つと判定する例を機械が選択することができる。
「コンピュータ支援検出」または「コンピュータ支援診断」という用語は、可能な診断を示唆するために医用画像を解析するコンピュータを指す。
ディープラーニング
ディープラーニングは、機械に生データを与え、データ分類に必要な表現を判定することを可能にする表現学習法を用いるマシンラーニング技術の一種である。ディープラーニングは、ディープラーニング機械の内部パラメータ(例えば、ノード重み)を変更するために使用される逆伝搬アルゴリズムを使用してデータセット内の構造を確認する。ディープラーニング機械は、様々な多層アーキテクチャおよびアルゴリズムを利用することができる。例えば、マシンラーニングではネットワークの訓練に使用される特徴の識別が必要であるが、ディープラーニングでは生データを処理し、外部識別なしで関心のある特徴を識別する。
ニューラルネットワーク環境におけるディープラーニングには、ニューロンと呼ばれる多数の相互接続されたノードが含まれる。外部ソースから起動された入力ニューロンは、機械パラメータによって制御される他のニューロンへの接続に基づいて他のニューロンを起動する。ニューラルネットワークは、それ自身のパラメータに基づいて特定の方法で動作する。学習は、ニューラルネットワークが所望の仕方で動作するように、機械パラメータを修正し、および拡張によってネットワーク内のニューロン間の接続を修正する。
畳み込みニューラルネットワークを利用するディープラーニングは、畳み込みフィルタを使用してデータをセグメント化し、データ内で学習された観察可能な特徴を位置特定し識別する。CNNアーキテクチャの各フィルタまたは層は、入力データを変換してデータの選択性および不変性を向上させる。このデータの抽象化により、機械は、分類しようとしているデータの特徴に集中し、無関係の背景情報を無視することが可能となる。
ディープラーニングは、多くのデータセットに低レベル特徴を含む高レベル特徴が含まれているという理解に基づいて動作する。画像を調べる際に、例えば、対象物を探すのではなく、探している対象物を形成する部分を形成するモチーフを形成するエッジを探す方が効率的である。これらの特徴の階層は、音声およびテキストなどの様々なデータ形式で見ることができる。
学習された観察可能な特徴には、教師あり学習中に機械によって学習された対象物および定量化可能な規則が含まれる。十分に分類されたデータの大きなセットを備えた機械は、新しいデータを成功裏に分類するために特徴を識別し、抽出することに優れている。
転移学習を利用するディープラーニング機械は、データの特徴を人間の専門家が確認したある種の分類に適切につなげることができる。逆に、同じ機械が、人間の専門家による誤った分類を与えられた場合、分類のためのパラメータを更新する可能性がある。例えば、設定および/または他の構成情報は、設定および/または他の構成情報の学習された使用によって導くことができ、システムが(例えば、繰り返しおよび/または複数のユーザによって)より多く使用される場合、所与の状況では、設定および/または他の構成情報に関する多数の変動および/または他の可能性を減らすことができる。
例示的なディープラーニングニューラルネットワークは、例えば、一組の専門に分類されたデータについて訓練することができる。このデータセットはニューラルネットワークの第1のパラメータを構築し、これは教師あり学習の段階となる。教師あり学習の段階の間、所望の行動が実現されたかどうかをニューラルネットワークで試験することができる。
所望のニューラルネットワーク動作が実現されると(例えば、特定のしきい値に従って動作するように機械が訓練されたなど)、機械を使用するために展開することができる(例えば、「リアル」データなどで機械を試験する)。動作中、ニューラルネットワークの分類を、ニューラルネットワークの動作を改善し続けるために(例えば、エキスパートユーザ、エキスパートシステム、参照データベースなどによって)確認または拒否することができる。その場合、例示的ニューラルネットワークは、ニューラルネットワーク動作を決定する分類のためのパラメータが進行中の対話に基づいて更新されるので、転移学習の状態にある。特定の例では、ニューラルネットワークは、別のプロセスに直接フィードバックを提供することができる。特定の例では、ニューラルネットワークは、(例えば、クラウドなどを介して)バッファリングされ、別のプロセスに提供される前に検証されるデータを出力する。
畳み込みニューラルネットワーク(CNN)を用いたディープラーニング機械を画像解析のために用いることができる。CNN解析の段階は、自然画像、コンピュータ支援診断(CAD)などにおける顔認識に使用できる。
高品質の医用画像データは、X線、コンピュータ断層撮影(CT)、分子画像およびコンピュータ断層撮影(MICT)、磁気共鳴画像(MRI)などの1つまたは複数の撮像モダリティを使用して収集することができる。医用画像品質は、画像を生成する機械によっては影響を受けないが、患者の影響を受けることが多い。患者がMRI中に動くことで、例えば、正確な診断を妨げる可能性のあるぼやけた画像またはゆがんだ画像を生成することがある。
医用画像の解釈は、品質に関係なく、まだ発展途上である。医用画像は主に医師によって解釈されるが、これらの解釈は主観的であり、医師の現場での経験および/または疲労の状態によって影響を受けるであろう。マシンラーニングによる画像解析は、医療専門家のワークフローをサポートすることができる。
ディープラーニング機械は、例えば、画像品質および分類に関する画像解析を改善するためのコンピュータ支援検出サポートを提供することができる。しかしながら、ディープラーニング機械を医学分野に適用する場合に直面する問題により、しばしば多数の誤った分類が引き起こされる。ディープラーニング機械は、例えば、小さな訓練データセットを克服し、反復的な調整を必要としなければならない。
最小限の訓練を行ったディープラーニング機械を使用して、例えば、医用画像の品質を判定することができる。半教師ありおよび教師なしのディープラーニング機械を使用して、画像の質的側面を定量的に測定することができる。例えば、画像の品質が診断用として十分であるかどうかを判定するために、画像が収集された後にディープラーニング機械を利用することができる。教師ありディープラーニング機械は、コンピュータ支援診断にも使用することができる。教師あり学習は、例えば、誤分類に対する影響の受けやすさを軽減するのに役立つ。
ディープラーニング機械は、教師あり訓練で利用可能な小さなデータセットの効力を弱めるために医師と対話する場合に、転移学習を利用することができる。これらのディープラーニング機械は、訓練および転移学習を通じて、時間の経過と共にコンピュータ支援診断を改善することができる。
II.実施例
ディープラーニングネットワークシステムの例
図1は、例示的なディープラーニングニューラルネットワーク100を示す図である。例示的なニューラルネットワーク100は、層120、140、160、180を含む。層120、140は、ニューラル接続部130と接続されている。層140、160は、ニューラル接続部150と接続されている。層160、180は、ニューラル接続部170と接続されている。データは、入力112、114、116を介して入力層120から出力層180および出力190に進む。
層120は、図1の例では、複数のノード122、124、126を含む入力層である。層140、160は隠れ層であり、図1の例では、ノード142、144、146、148、162、164、166、168を含む。ニューラルネットワーク100は、図示されているよりも多くのまたは少ない隠れ層140、160を含むことができる。層180は、出力層であり、図1Aの例では、出力190を有するノード182を含む。各入力112〜116は、入力層120のノード122〜126に対応し、入力層120の各ノード122〜126は、隠れ層140の各ノード142〜148への接続部130を有する。隠れ層140の各ノード142〜148は、隠れ層160の各ノード162〜168への接続部150を有する。隠れ層160の各ノード162〜168は、出力層180への接続部170を有する。出力層180は、例示的なニューラルネットワーク100からの出力を提供する出力190を有する。
接続部130、150、および170のうち、特定の例示的な接続部132、152、172に重みを加えることができ、他の例示的な接続部134、154、174はニューラルネットワーク100内で重み付けを少なくすることができる。入力ノード122〜126は、例えば、入力112〜116を介して入力データを受信することによって起動される。隠れ層140、160のノード142〜148、162〜168は、接続部130、150をそれぞれ介してネットワーク100を通るデータの順方向の流れによって起動される。隠れ層140、160で処理されたデータが接続部170を介して送信された後、出力層180のノード182が起動される。出力層180の出力ノード182が起動される場合、ノード182は、ニューラルネットワーク100の隠れ層140、160で達成される処理に基づいて適切な値を出力する。
図2は、畳み込みニューラルネットワーク200としての例示的なニューラルネットワーク100の特定の実施態様を示す。図2の例に示すように、入力110は、入力110を処理して第2層140に伝搬する第1層120に提供される。入力110は、第2層140でさらに処理され、第3層160に伝搬される。第3層160は、出力層180に提供されるデータを分類する。より具体的には、図2の例に示すように、畳み込み204(例えば、5×5畳み込みなど)が第1層120において入力110(例えば、32x32データ入力など)の一部またはウィンドウ(「受容野」とも呼ばれる)202に適用され、特徴マップ206(例えば、(6x)28x28特徴マップなど)を提供する。畳み込み204は、入力110からの要素を特徴マップ206にマッピングする。第1層120はまた、縮小された特徴マップ210(例えば、(6x)14x14特徴マップなど)を生成するためにサブサンプリング(例えば、2x2サブサンプリングなど)を提供する。特徴マップ210は、畳み込み212を経て、第1層120から第2層140に伝搬され、そこで特徴マップ210は拡張特徴マップ214(例えば、(16x)10x10特徴マップなど)となる。第2層140におけるサブサンプリング216の後、特徴マップ214は、縮小された特徴マップ218(例えば、(16x)4x5特徴マップなど)となる。特徴マップ218は、畳み込み220を経て、第3層160に伝搬され、そこで、特徴マップ218は、例えば、畳み込み層222への接続部226を有するN個のカテゴリ224の出力層を形成する分類層222になる。
図3は、画像解析畳み込みニューラルネットワーク300の例示的な実施態様を示す。畳み込みニューラルネットワーク300は、入力画像302を受け取り、畳み込み層304内の画像を抽象化して、学習された特徴310〜322を識別する。第2の畳み込み層330において、画像は、複数の画像330〜338に変換され、その中で、学習された特徴310〜322はそれぞれ、各サブ画像330〜338において強調される。画像330〜338は、画像340〜348内の関心特徴310〜322に焦点を合わせるようにさらに処理される。結果的に得られる画像340〜348は、次いで、関心特徴310〜322を含む画像340〜348の一部350〜354を分離するために画像340〜348のサイズを縮小するプール層を通して処理される。畳み込みニューラルネットワーク300の出力350〜354は、最後の非出力層から値を受け取り、最後の非出力層から受信したデータに基づいて画像を分類する。特定の例では、畳み込みニューラルネットワーク300は、畳み込み層、プール層、学習された特徴、および出力などの多くの異なる変形を含むことができる。
図4Aは、画像を処理および/または評価するためのディープラーニングネットワークを適用するための例示的な構成400を示す。ディープラーニングは、画像収集、画像再構成、画像解析/診断などの様々なプロセスに適用できる。図4Aの例示的な構成400に示すように、生データ410(例えば、X線、コンピュータ断層撮影、超音波、磁気共鳴などの撮像スキャナ、スキャナから収集される超音波生データなどの生データ410)は、ディープラーニングネットワーク420に供給される。ディープラーニングネットワーク420は、データ410を処理して、生画像データ410を結果画像430(例えば、「良質」画像および/または診断に十分な品質を提供する他の画像)に相関付けおよび/または結合する。ディープラーニングネットワーク420は、生データ410を処理データ430に関連付けるためのノードおよび接続部(例えば、経路)を含む。ディープラーニングネットワーク420は、例えば、接続部について学習し、フィードバックを処理して接続を確立し、パターンを識別する訓練用ディープラーニングネットワークとすることができる。ディープラーニングネットワーク420は、例えば、訓練用ネットワークから生成され、訓練用ネットワーク内で確立された接続部およびパターンを活用して入力生データ410を収集し、結果的に得られる画像430を生成する、展開済みディープラーニングネットワークとすることができる。
DLN420が訓練され、生画像データ410から良好な画像630を生成すると、ネットワーク420は、「自己学習」プロセスを継続し、動作するにつれてその性能を改良することができる。例えば、入力データ(生データ)410には「冗長性」があり、ネットワーク420には冗長性があり、冗長性を利用することができる。
DLN420内のノードに割り当てられた重みが検査される場合には、非常に低い重みを有する多くの接続部およびノードが存在する可能性が高い。重みが低いことは、これらの接続部およびノードがDLN420の全体性能にほとんど寄与しないことを示す。したがって、これらの接続部およびノードは冗長である。このような冗長性は、入力(生データ)410の冗長性を低減するために評価することができる。入力410の冗長性を低減することは、例えば、スキャナハードウェアの節約、構成要素への要求の低減、および患者への暴露線量の低減をももたらし得る。
展開において、構成400は、入力定義410、訓練済みネットワーク420、および出力定義430を含むパッケージ400を形成する。パッケージ400は、撮像システム、解析エンジンなどの別のシステムに対して展開して設置することができる。
図4Bの例に示すように、ディープラーニングネットワーク420は、より大きなラーニングネットワークを形成するために、複数のディープラーニングネットワーク421〜423と連鎖および/または結合することができる。ネットワーク420〜423の結合は、例えば、入力に対する応答をさらに改良するために、および/またはネットワーク420〜423をシステムの様々な態様に割り当てるために使用することができる。
いくつかの例では、動作中、「弱い」接続部およびノードは、最初にゼロに設定することができる。その後、DLN420は保持プロセスにおいてそのノードを処理する。特定の例では、再訓練中にゼロに設定されたノードおよび接続部は変更することができない。ネットワーク420に冗長性が存在する場合、同様に良好な画像が生成される可能性が高い。図4Bに示すように、再訓練の後、DLN420はDLN421になる。また、DLN421は、弱い接続部およびノードを識別し、それらをゼロに設定するために検査される。このさらなる訓練済みネットワークはDLN422である。例示的なDLN422は、DLN421内の「0」と、ノードおよび接続部の新しいセットと、を含む。DLN422は、DLN423で良好な画像品質に達するまでプロセスを繰り返すことを継続し、これは「最小実行可能ネット(MVN)」と呼ばれる。DLN423がMVNであるのは、DLN423において追加の接続部またはノードをゼロに設定しようと試みた場合に画像品質が低下する可能性があるからである。
MVNがDLN423で取得されると、「ゼロ」領域(例えば、グラフ内の暗い不規則領域)が入力410にマッピングされる。各暗い領域は、入力空間内の1つまたは1セットのパラメータにマッピングされる可能性が高い。例えば、ゼロ領域の1つは、生データ内のビュー数およびチャネル数にリンクすることができる。これらのパラメータに対応するネットワーク423の冗長性は低減することができるので、入力データを低減し、同様に良好な出力を生成することができる可能性が高い。入力データを低減するために、低減されたパラメータに対応する生データの新しいセットが得られ、DLN421を介して実行される。ネットワーク420〜423は簡略化されてもされなくてもよいが、生データ入力410の「最小実行可能入力(MVI)」に達するまで、DLN420〜423の1つまたは複数が処理される。MVIでは、入力生データ410がさらに減少すると、画像430の品質が低下する可能性がある。MVIは、例えば、データ収集の複雑さの低減、システム構成要素への要求の低減、患者へのストレスの軽減(例えば、息止めまたは造影剤の低下)、および/または患者への線量の減少をもたらすことができる。
DLN420〜423内のいくつかの接続部およびノードをゼロに強制することによって、ネットワーク420〜423は、補償するために「側枝」を構築する。このプロセスでは、DLN420〜423のトポロジへの洞察が得られる。例えば、DLN421およびDLN422は、いくつかのノードおよび/または接続部が強制的にゼロになるので、異なるトポロジを有することに留意されたい。ネットワークから接続部およびノードを効果的に除去するこのプロセスは、「ディープラーニング」を超えて拡張され、「ディープディープラーニング」と呼ばれることがある。
特定の例では、入力データ処理およびディープラーニング段階は、別々のシステムとして実施することができる。しかし、別々のシステムとして、どちらのモジュールも、関心のある/重要性のある入力パラメータを選択するために、より大きな入力特徴評価ループを意識することはできない。入力データ処理の選択は高品質の出力を生成するために重要であるので、ディープラーニングシステムからのフィードバックを使用して、モデルを介して入力パラメータ選択の最適化または改善を行うことができる。生データ(例えば、ブルートフォースであり高価であり得る)を作成するために入力パラメータのセット全体を走査するのではなく、アクティブラーニングの変形を実施することができる。このアクティブラーニングの変形を使用して、開始パラメータ空間を決定して、モデル内で所望のまたは「最良の」結果を生成することができる。その結果、パラメータ値を無作為に減らして結果の品質を低下させる生の入力を生成し、品質の許容範囲またはしきい値を維持しながら、モデルの品質にほとんど影響を与えない入力を処理することによってランタイムを短縮することができる。
図5は、ディープラーニングネットワークの例示的な訓練および展開段階を示す。図5の例に示すように、訓練段階では、入力502のセットが処理のためにネットワーク504に提供される。この例では、入力502のセットは、識別される画像の顔特徴を含むことができる。ネットワーク504は、入力502を順方向506で処理してデータ要素を関連付け、パターンを識別する。ネットワーク504は、入力502が犬508を表していると判定する。訓練において、ネットワーク結果508は、既知の結果512と比較される(510)。この例では、既知の結果512は人間の顔である(例えば、入力データセット502は犬の顔ではなく人間の顔を表している)。ネットワーク504の決定508は既知の結果512と一致しない(510)ので、誤差514が生成される。誤差514は、ネットワーク504を通る後方パス516に沿って逆に、既知の結果512および関連データ502の解析をトリガする。したがって、訓練用ネットワーク504は、ネットワーク405を介して、データ502、512で前方パス506および後方パス516から学習する。
ネットワーク出力508と既知の出力512との比較が一定の基準またはしきい値(例えば、n倍に一致、x%より大きい一致など)に従って一致する(510)と、訓練用ネットワーク504を使用して、外部システムを伴う展開用のネットワークを生成することができる。展開されると、単一入力520が展開済みディープラーニングネットワーク522に提供され、出力524を生成する。この場合、訓練用ネットワーク504に基づいて、展開済みネットワーク522は、入力520が人間の顔524の画像であると判定する。
図6は、ディープラーニング製品を提供するために訓練済みネットワークパッケージを活用する例示的な製品を示す。図6の例に示すように、入力610(例えば、生データ)が前処理620のために提供される。例えば、生の入力データ610は、フォーマット、完全性などをチェックするために前処理される(620)。データ610が前処理されると(620)、データのパッチが作成される(630)。例えば、データのパッチまたは部分または「チャンク」は、処理のために特定のサイズおよびフォーマットで作成される(630)。次いで、パッチは、処理のために訓練済みネットワーク640に送られる。学習されたパターン、ノード、および接続部に基づいて、訓練済みネットワーク640は、入力パッチに基づいて出力を決定する。出力がアセンブルされる(650)(例えば、結合され、および/またはグループ化されて、使用可能な出力などが生成される)。次いで、出力が表示され(660)、および/またはユーザに出力される(例えば、人間のユーザ、臨床システム、撮像モダリティ、データ記憶装置(例えば、クラウド記憶装置、ローカル記憶装置、エッジデバイスなど)など)。
上述のように、ディープラーニングネットワークは、訓練、展開、および様々なシステムへの適用のための装置としてパッケージ化することができる。図7A〜図7Cは、様々なディープラーニング装置の構成を示す。例えば、図7Aは一般的なディープラーニング装置700を示す。例示的な装置700は、入力定義710、ディープラーニングネットワークモデル720、および出力定義730を含む。入力定義710は、1つまたは複数の入力を、ネットワーク720を介して1つまたは複数の出力730に変換することを含むことができる。
図7Bは、例示的な訓練用ディープラーニングネットワーク装置701を示す。すなわち、訓練装置701は、訓練用ディープラーニングネットワーク装置として構成された装置700の一例である。図7Bの例では、複数の訓練入力711がネットワーク721に提供され、ネットワーク721内で接続部を展開し、出力評価器731によって評価される出力を提供する。その場合、フィードバックが、出力評価器731によってネットワーク721に提供され、ネットワーク721をさらに発展させる(例えば、訓練する)。追加入力711は、ネットワーク721が訓練されていると出力評価器731が判定するまで(例えば、出力が特定のしきい値、誤差のマージンなどに従って入力対出力の既知の相関を満たすまで)ネットワーク721に提供することができる。
図7Cは、展開済みディープラーニングネットワーク装置703の一例を示す。訓練装置701が必要なレベルまで学習されると、訓練装置701を使用のために展開することができる。訓練装置701が複数の入力を処理して学習する間に、展開済み装置703は、例えば、出力を決定するために単一入力を処理する。図7Cの例に示すように、展開済み装置703は、入力定義713、訓練済みネットワーク723、および出力定義733を含む。訓練済みネットワーク723は、例えば、ネットワーク721が十分に訓練されると、ネットワーク721から生成することができる。展開済み装置703は、例えば、システム入力713を受け取り、ネットワーク723を介して入力713を処理して出力733を生成し、展開済み装置703が関連付けられたシステムによって使用することができる。
特定の例では、訓練装置701および/または展開済み装置703は、学習および改善ファクトリに統合されて、ターゲットシステムに出力を提供し、フィードバックを収集し、そしてフィードバックに基づいて更新/再訓練することができる。図8Aは、訓練用ディープラーニング装置701および展開済みディープラーニング装置703を含む例示的な学習および改善ファクトリ800を示す。図8Aの例に示すように、訓練用ディープラーニング装置701はモデル評価器802に出力を提供する。モデル評価器802は、装置701の出力を既知の出力と比較し、および/または出力の正確さ、精度、および/または品質を測定して、訓練装置701が展開の準備ができているかどうかを判定する。モデル評価器802が装置701が適切に訓練されたと決定すると、モデル評価器802は訓練済みネットワークのモデルを装置701からモデル展開モジュール804に提供し、モデル展開モジュールは展開のために訓練済みモデルを準備する。モジュール804は、準備されたモデルを展開済みディープラーニング装置ジェネレータ806に提供し、展開済みディープラーニング装置703を、装置701からの訓練済みネットワークのモデルの周囲の入力定義および出力定義のためのフレームワークまたはパッケージでインスタンス化する。
展開済み装置703は入力により動作して出力を提供し、フィードバックコレクタ808は出力(および入力)を監視し、展開済みディープラーニング装置703の動作に基づいてフィードバックを集める。フィードバックは、一定量のフィードバック(例えば、一定量、一定の品質/一貫性、一定の期間など)が収集されるまで、フィードバック記憶装置810に格納される。十分なフィードバックが収集されると、再訓練イニシエータ812がトリガされる。再訓練イニシエータ812は、フィードバック記憶装置810からデータを検索し、再訓練データセレクタ814と連携して動作して、フィードバック記憶装置810からデータを選択し、訓練用ディープラーニング装置701に提供する。モデル評価器802が訓練用ネットワークモデルが完成したことを満足するまで、訓練装置701のネットワークはフィードバックを使用して更新/再訓練される。次に、更新/再訓練されたモデルが準備され、上述のように展開済みディープラーニング装置703に展開される。
図8Bの例に示すように、学習および改善ファクトリ800は様々なレベル/階層で実施することができる。例えば、マイクロ学習および改善ファクトリ801は、特定の装置、装置機能などに対するサポートをモデル化および/または提供することができる。学習および改善ファクトリ803は、例えばシステムまたは設備全体を対象とすることができる。グローバル学習および改善ファクトリ805は、出力を提供し、組織、施設などをモデル化することができる。したがって、学習および改善ファクトリ801〜805は、システムの正確さ、性能、有効性、安全性、効率などを学習し、モデル化し、そして改善するために組織を通して実施することができる。
図8Cは、ディープラーニングネットワークモデルを訓練し展開するための例示的な方法820の流れ図を示す。ブロック822では、ディープラーニングネットワークモデルが訓練される。例えば、複数の入力がネットワークに提供され、出力が生成される。ブロック824では、ディープラーニングネットワークモデルが評価される。例えば、ネットワークの出力はそれらの入力に対する既知/基準出力と比較される。ネットワークが接続部を作成して学習するにつれて、ネットワークモデルの精度が向上する。ブロック826では、ネットワークが期待される出力を首尾よくモデル化したかどうかを判定するために出力が評価される。ネットワークがそうでない場合には、訓練プロセスがブロック822で継続する。ネットワークが出力のモデル化に成功した場合には、ブロック828で、ディープラーニングモデルベースの装置が生成される。ブロック830では、ディープラーニング装置が展開される。
ブロック832では、収集されたフィードバックがしきい値を満たすまで、展開されたディープラーニングモデルベースの装置の動作からのフィードバックが収集され格納される(ブロック834)。フィードバックは、入力、展開されたモデル情報、処理前および/または処理後の情報、実際のおよび/または修正された出力などを含むことができる。フィードバック収集しきい値が満たされると、ブロック836において、モデルの再訓練が開始される。ブロック838では、収集されたフィードバックからのデータ(および/または他の入力データ)が、ディープラーニングモデルを再訓練するために選択される。データ選択は、モデル訓練などのためにデータを適切にフォーマットするための前処理および/または後処理を含むことができる。次に制御はブロック822に進み、ディープラーニングネットワークモデルを(再)訓練する。
図8Dは、展開済みディープラーニングネットワークモデルベースの装置の動作中にフィードバックを収集して格納し(840)、再展開のためにモデルを再訓練するための例示的なプロセスを繰り返す。フィードバックは、入力、展開されたモデル情報、処理前および/または処理後の情報、実際のおよび/または修正された出力などを含むことができる。ブロック842では、収集されたフィードバックが収集/フィードバックしきい値(例えば、フィードバック量、フィードバックの頻度、フィードバックの種類、フィードバックのために経過した時間量など)を満たすかどうかを判定するために収集されたフィードバックが見直される。しきい値が満たされない場合には、フィードバックの収集および格納がブロック840で継続する。しかしながら、しきい値が満たされると、ブロック844において、モデルの再訓練が開始される。
ブロック846では、ディープラーニングネットワークモデルを再訓練するためにデータが選択される。データは収集されたフィードバックを含み、例えばモデルへの元の入力データおよび/または他の参照データを含む他のデータも含むことができる。したがって、モデルは、フィードバックデータだけではなく、例えば、ディープラーニングモデルに供給される新旧のデータの混合について再訓練することができる。データ選択は、モデル訓練などのためにデータを適切にフォーマットするための前処理および/または後処理を含むことができる。
ブロック848では、ディープラーニングネットワークモデルが(再)訓練される。すなわち、データは、ネットワークモデルを修正して出力を生成するための入力として提供される。ブロック850では、ネットワークモデルが(再)訓練されたかどうかを判定するために出力が評価される。ブロック852では、ネットワークが予想される出力をモデル化していない場合には、制御はブロック848に戻り、入力および出力評価を用いてモデル訓練を続ける。(再)訓練済みネットワークが予想される出力を(例えば、ある一定のしきい値時間などにわたって)首尾よくモデル化した場合には、次にブロック854で、ディープラーニングモデルベースの装置が生成される。ブロック856では、ディープラーニング装置が展開される。したがって、モデルは訓練されたおよび/または再訓練された状態で開始され、展開されたネットワークモデルベースの装置を生成するために使用することができる。展開済み装置は動作中に修正されないが、訓練モデルは、例えば展開済みネットワークモデルを交換/再展開するために更新および/またはその他の方法で修正および定期的に使用することができる。
図9は、1または複数のシステムおよび/または関連ユーザにアプリケーションを提供するためにディープラーニングを利用する、データファクトリ902、アプリケーションファクトリ916、およびラーニングファクトリ924を含む例示的なシステムを示す。図9の例では、データファクトリ902は、1つまたは複数のデータスキーマ904、キュレーションツール906、バルクデータ取り込み部908、データ選択/フィルタ910、連続データ取り込み部912、およびデータカタログ/レイク914を含む。例示的なデータファクトリ902は、データ908、912を取り込み、データ910を選択/フィルタリングし、特定のスキーマ904に従ってデータをフォーマットするためにデータを処理することができる。データは、1つまたは複数のキュレーションツール906に従って編成され、アプリケーションファクトリ916および/またはラーニングファクトリ924に利用可能となるようにデータカタログ/レイク914に格納することができる。アプリケーションファクトリ916は、システムおよび/または関連するユーザがアプリケーションサービス920および/またはパイプラインカタログ922を介して利用可能なアプリケーションを閲覧および/またはアクセスすることを可能にするビューア918を含む。
図9の例では、ラーニングファクトリ924は、例えばアプリケーションファクトリ916および/または他の外部システムに利用可能な1つまたは複数のネットワークモデル(例えば、ディープラーニングベースのネットワークモデル、マシンラーニングベースのネットワークマシンなど)を含むモデルカタログ926を含む。ラーニングファクトリ924はまた、モデルカタログ926内のモデルを形成するおよび/またはモデルによって活用されるデータを含むデータサイエンス928を含む。例示的なデータサイエンス928は、アーキテクチャカタログ930、データ準備932、結果/報告934、訓練および検証936、ならびに試験938を含み、データを編成および前処理し、ラーニングネットワークを訓練および検証し、結果を報告し、結果を試験するなどする。訓練され検証されたネットワークは、例えばモデルカタログ926を介して1つまたは複数のアプリケーションでの展開に利用可能となる。
図10は、デジタルファクトリ1006を用いて内部的に(1002)および外部的に(1004)物理的に展開された装置(物理ファクトリ)を含む医療装置エコシステム1000の概要を示す。図10の例に示すように、デジタルファクトリ1006は、データファクトリ902、データカタログ914、ラーニングファクトリ924、ディープラーニングネットワークベースのモデルカタログ926などを含む。デジタルファクトリ1006は、1つまたは複数のデジタルモデル1008(例えば、ディープラーニングネットワークモデル、マシンラーニングモデルなど)を提供し、かつ/またはそれと対話する。デジタルファクトリ1006は、内部的に(1002)展開された(例えば、装置1010、1012)および外部的に(1004)展開された(例えば、装置1014、1016)複数の装置1010〜1016を含む物理ファクトリと対話する。装置1010〜1016はデジタルファクトリ1006に接続され、データをデジタルファクトリ1006にアップロードし、カタログ926からモデルを購読し、モデルを更新するなどすることができる。例えば、内部展開1002の装置1010、1012は、デジタルファクトリ1006を用いた試験および改良の目的で使用することができ、一方、外部展開1004の装置1014、1016は、例えば意思決定および/または他の実行において装置1014、1016を支援する展開されたモデルにより「ライブ」である。
図11は、デジタルファクトリ1006と対話する物理装置1010の例示的構成1100およびそのデータフローを示し、これは、データファクトリ902およびそのデータカタログ914、データキュレーション906、ならびにラーニングファクトリ924およびそのモデルカタログ926、ならびにそのアプリケーションパイプラインカタログ922を有するアプリケーションファクトリ916などを含むことができる。図11の例に示すように、物理装置1010(例えば、撮像スキャナ)は、患者1108の画像データを収集するために、装置コントローラ1102、検出器1104、および線源1106を含む。スキャナ装置1010は、画像収集1114においてスキャンコンテキスト1110およびスキャナデータ1112を提供する。収集エンジン1114はデジタルファクトリ1006と対話して画像データの収集などをモデル化する。収集画像データは再構成1116に供給され、再構成エンジン1116はまた、収集画像データの再構成のためのモデルベースのリソースについてデジタルファクトリ1006と対話する。再構成された画像は、例えばデジタルファクトリ1006から提供されたアプリケーションと併せて閲覧1118のために提供される。例えば、(例えば、モデルおよび/またはデジタルファクトリ1006からの他のアプリケーションなどに基づいて)1つまたは複数のアプリケーションおよび/または測定値1120を再構成画像に適用することができる。処理された画像および/または他のデータは、デジタルファクトリ1006からのアプリケーション、データ、およびモデルを活用して臨床ワークフロー1122の改善されたおよび/または自動化された実行を促進する1つまたは複数の臨床ワークフロー1122で活用することができる。ワークフローの結果を解析および意思決定支援1124に提供して、例えばデジタルファクトリ1006と共に、結論、推奨、次の行動、モデルの改良などを推進することができる。
図12は、データファクトリ902およびラーニングファクトリ924内のデータを処理して活用するための例示的な方法1200の流れ図である。ブロック1202では、データが(例えば、バルク取り込み部908および/または連続取り込み部912などによって)取り込まれる。ブロック1204では、取り込まれたデータがキュレーションされる。例えば、1つまたは複数のデータ分類、処理、および/または他のキュレーションツール906を適用して、取り込まれたデータを編成することができる。ブロック1206では、キュレーションされたデータが処理され、学習に使用される。例えば、キュレーションされたデータを解析し、ディープラーニングネットワークを訓練することなどに使用することができる。ブロック1208では、処理されたデータから生成され、学習に基づいた出力がパッケージ化され展開される。例えば、1つまたは複数の訓練済みディープラーニングネットワークをモデルカタログ926にカタログ化し、展開に利用可能とすることができる。
図13は、データファクトリ902およびラーニングファクトリ924内のデータを処理して活用するための例示的な方法1200に関するさらなる詳細を示す。図13の例に示すように、データ取り込み部1202は、画像保管通信システム(PACS)、ベンダ中立アーカイブ(VNA)、企業アーカイブ(EA)、撮像スキャナなどの1つまたは複数のオンプレミスデータソース1302からデータを抽出することを含む。取り込まれたデータは収集され、データカタログ/レイク1306に格納される(1304)。ブロック1308では、画像および/または他のデータビューア1310を介して閲覧1310のためにデータを選択および/または取り出す。
図13はまた、データキュレーション/編成1204に関するさらなる詳細を提供する。ブロック1312では、選択され/取り出されたデータは、アプリケーションおよび/または他の要求に対する正しいデータであるかどうかを判定するために解析される。そうでなければ、制御はブロック1308に戻り、異なるデータを選択し/取り出す。正しいデータが選択されている場合には、次にブロック1314で、データがキュレーションされているかどうかを判定するためにデータが精査される。データがキュレーションされていない場合、ブロック1316で、データキュレーションが行われる。例えば、データキュレーションは、データの正確なラベリング、編集可能なバウンディングボックスを用いた関心領域(ROI)の識別、メタデータ情報の追加、不適切な事前キュレーション情報の修正など、および新しいデータセットとして保存することを含む。キュレーションされたデータはデータカタログ1306に戻される。ブロック1314でデータがキュレーションされている場合には、制御はブロック1206のデータ処理に移行する。
図13により詳細に示すように、データ処理1206は、1つまたは複数のデータ準備ツール1320を使用してデータ1318を準備することを含む。データは、ディープラーニングネットワークモデルおよび/または他のマシンラーニングモデルなどの開発など、人工知能(AI)の開発のために準備される(ブロック1322)。データ準備1318(例えば、訓練、検証、試験など)は、データパッチの作成およびラベリング、画像処理(例えば、クロップ、スカッシュなど)、より多くの訓練サンプルを生成するためのデータ増強、学習ネットワークモデルを提供するための三次元画像処理、データベースの作成および保存(例:JSONおよび/またはその他の形式)、パッチ画像データ記憶装置(例えば、.png、.jpegなど)などを含む。いくつかの例では、最終パッチ画像データデータセットは、データカタログ/レイク1306に格納される。
ブロック1324では、AI方法論(例えば、ディープラーニングネットワークモデルおよび/または他のマシンラーニングモデルなど)が、例えば、利用可能なモデルのAIカタログ1326から選択される。例えば、ディープラーニングモデルをインポートすることができ、モデルを修正することができ、転移学習を容易にすることができ、活性化機能を選択および/または修正することができ、マシンラーニングの選択および/または改善を行うことができ(例えば、サポートベクターマシン(SVM)、ランダムフォレスト(RF)など)、最適化アルゴリズム(例えば、確率的勾配降下法(SGD)、AdaGなど)を選択および/または修正することなどができる。AIカタログ1326は、古き良き人工知能(GOFAI)(例えばエキスパートシステムなど)、マシンラーニング(ML)(例えばSVM、RFなど)、ディープラーニング(DL)(例えば、畳み込みニューラルネットワーク(CNN)、リカレントニューラルネットワーク(RNN)、長期短期記憶(LSTM)、生成敵対ネットワーク(GAN)など)、パラダイム(例えば、教師付き、教師なし、強化など)などの1つまたは複数のAIモデルを含むことができる。
ブロック1328では、(例えば、活性化機能、重み、バイアス、ハイパーパラメータなどを使用して)モデル開発が初期化され、ブロック1330では、(例えば上述のように)モデルの訓練が行われる。特定の例では、訓練1330は、ハイパーパラメータ設定、ハイパーパラメータ検索、訓練/検証セット精度グラフ、曲線下面積(AUC)グラフ、断続的なモデルの生成および保存、訓練の早期または手動による停止などを含む訓練および検証を含む反復プロセスである。ブロック1332では、AIモデルの精度が評価され、その精度が許容できるかどうかが判定される。精度が許容できない場合には、追加のデータ準備およびその後の開発のために、制御はブロック1318に戻る。精度が許容可能である場合には、次にブロック1334で、AIモデルが試験のために解放される(例えば、追加の入力を提供し、出力を評価するなど)。ブロック1336では、試験の結果が報告される。例えば、実験パラメータおよび結果の連続記録を提供することができる。
図13はまた、パッケージングおよび展開1208に関するさらなる例示的な詳細を提供する。ブロック1338では、試験されたモデルの精度が許容できない場合には、制御はデータ準備のためにブロック1318に戻る。試験されたモデルの精度が許容可能である場合には、ブロック1340で、モデルは訓練済みモデルのカタログに追加される。ブロック1342では、訓練済みモデルのカタログ内の1つまたは複数のモデルがパッケージ化され、ブロック1344では、パッケージが(例えば、ターゲットサイト、ターゲットシステムなどに)展開される。
詳細なおよび/または他のマシンラーニングおよび関連する方法を利用する改善されたヘルスケアシステムの例
図14は、患者の評価および診断のための例示的なヘルスケアシステム1400を示す。例示的なシステム1400は、ユーザ1404(例えば、医師、看護師、技師、および/または他のヘルスケア開業医など)および患者1406などの人間1402と対話するための撮像装置1410、情報サブシステム1420、収集エンジン1430、再構成エンジン1440、および診断エンジン1450を含む。ヘルスケアシステム1400の構成要素は、ハードコードされた構成、ファームウェア構成、メモリと共にソフトウェア命令などを実行する1つまたは複数のプロセッサを使用して実装することができる。例えば、システム1400の1つまたは複数の構成要素は、ハードウェアおよび/またはソフトウェアコード、ルーチン、モジュール、または本明細書の他の箇所に記載の方法の様々な要素の性能を含む、現在説明されている機能を実行するように適合された命令の組み合わせを含むプロセッサベースのシステムを含むことができる。そのようなソフトウェアルーチンは、製造(例えば、コンパクトディスク、ハードドライブ、フラッシュメモリ、ユニバーサルシリアルバス(USB)ベースのドライブ、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)など)において具体化され、本明細書に記載の機能を実行するためにプロセッサによって実行されるように構成することができることに留意されたい。
例示的なシステム1400を使用して、患者1404は、情報サブシステム1420および/または収集エンジン1430からの設定に基づいて、撮像システム1410(例えば、CT、X線、MR、PET、超音波、MICT、単一光子放出型コンピュータ断層撮影(SPECT)、デジタルトモシンセシスなど)によって検査することができる。設定は、CNN、RNNなどの展開済みディープラーニングネットワークモデル/装置によって指示されおよび/または影響され得る。検査理由、患者の識別、患者の状況、集団健康情報などの情報に基づいて、撮像装置1410の設定は、収集エンジン1430による患者1406に関する画像収集のために、単独でまたは情報サブシステム1420(例えば、画像保管通信システム(PACS)、病院情報システム(HIS)、放射線学情報システム(RIS)、検査室情報システム(LIS)、心血管情報システム(CVIS)など)と組み合わせて構成することができる。情報サブシステム1420および/または収集エンジン1430からの情報、ならびに撮像装置1410からのフィードバックは、例えば画像収集のために将来の設定、推奨事項などを修正するために、収集されて訓練用ディープラーニングネットワークモデルに提供することができる。定期的におよび/または特定の基準を満足すると、訓練用ディープラーニングネットワークモデルは、フィードバックを処理し、システム1400に関して展開のための更新済みモデルを生成することができる。
単独で、または追加の患者の病歴、患者の状況、集団健康情報、検査の理由などと併せて、撮像装置1410から収集されたまたは生の画像データが再構成エンジン1440に提供され、そのデータを処理して結果の画像を生成する。再構成エンジン1440は、情報および収集画像データを使用して、患者1406の1つまたは複数の二次元(2D)および/または三次元(3D)画像を再構成する。再構成の方法、再構成エンジン1440の設定などは、CNN、RNNなどのディープラーニングネットワークによって設定され、および/または影響され得る。例えば、スライス厚、画像品質などは、ディープラーニングネットワークを使用して決定および修正することができる。
特定の例では、生画像データは再構成エンジン1440によって前処理することができる。前処理は、強度補正、類似化、フィルタリングなどの1つまたは複数のサブプロセスを含むことができる。特定の例では、画像データ中の解剖学的マーカーが検出されてもよく、画像グリッドが作成されてもよい。解剖学的マーカーおよび画像グリッドに基づいて、再構成エンジンは画像データを位置合わせすることができる(例えば、基準座標系などに従って)。位置合わせ後、画像データ内の関心のある特徴を抽出することができる。
特定の例では、生画像データにおいて関心のある特定の特徴は、関心のある特定の疾患または状態に応じて変わり得る。例えば、神経学的状態の診断において、診断を容易にするために脳画像データの特定の特徴を抽出することは有用であり得る。さらに、いくつかの例では、患者または1人または複数の参照個人の大脳皮質の厚さを決定することが望ましい場合がある。
特定の例は、撮像装置1410および収集エンジン1430によって収集された生データを処理し、その生画像データを再構成エンジン1440に提供して、a)診断決定支援エンジン1450に提供される機械可読画像、およびb)ユーザ診断のために表示される人間が見ることのできる画像の一方または両方を生成する。
例えば、画像再構成は主に人間の消費のために実行されるが、再構成前データは、データが人間に見えるように再構成されたかどうかを気にしない機械によって使用されることができる。したがって、再構成前データは、人間の消費用と機械の消費用とで異なる方法で処理することができる。機械可読画像データは、例えば、所与の疾患の指標に従って再構成エンジン1440によって処理することができ、その結果、再構成エンジン1440および/または診断エンジン1450は、(例えば、生画像データの収集状態で)再構成を実行することなく疾患を示すパターンを識別することができる。したがって、いくつかの例では、再構成エンジン1440は、臨床診断を行うために診断エンジン1450と対話するためにユーザ1404に頼るのではなく、診断エンジン1450で診断を実行することができる。
再構成エンジン1440から出力された画像は、次いで診断エンジン1450に提供することができる。診断エンジン1450は、再構成エンジン1440から画像データおよび/または情報サブシステム1420から非画像データを取り出し、そのデータ(例えば、静的データ、動的データ、経時的データなど)を処理して、患者1406に関して診断を決定する(および/またはユーザ1404による診断を容易にする)ことができる。診断エンジン1450に提供されるデータはまた、1つまたは複数の患者モニタ、例えば、脳波記録(EEG)装置、心電図記録(ECGまたはEKG)装置、筋電図記録(EMG)装置、電気インピーダンス断層撮影(EIT)装置、電子筋電図記録(ENG)装置、神経伝導データを収集するのに適した装置、および/またはこれらの装置の何らかの組み合わせなど、からのデータを含むことができる。
いくつかの例では、診断エンジン1450は、1つまたは複数の疾患タイプまたは疾患重症度レベルに関して患者1406の診断を容易にするために画像データからの1つまたは複数の関心のある特徴を処理する。画像データは、撮像装置1410、情報サブシステム1420、他の装置、他のデータベースなどの様々なソースから取得することができる。さらに、そのような画像データは、患者1406などの特定の患者、または母集団サンプルの1つまたは複数の参照個人に関連し得る。画像データは、例えば再構成エンジン1440および/または診断エンジン1450によって処理されて、画像から関心のある特徴を登録および抽出することができる。
次いで、情報を診断エンジン1450からユーザ1404、情報サブシステム1420、および/またはさらなる記憶、送信、解析、処理などのための他のシステムに出力することができる。情報は、例えば、英数字データフォーマットで表示され、さらなる解析および検討のために(例えば、メトリック解析、偏差メトリック、履歴参照比較などに基づいて)表にすることができる。その代わりにまたはそれに加えて、データは、例えば単独でまたは基準データに関して取られた、ヒートマップ、偏差マップ、表面マトリックスなどによる解析のために全体的に提示することができる。本譲受人によって共通に所有されている米国特許第9,271,651号、第8,934,685号、第8,430,816号、第8,099,299号、および第8,010,381号は、全体論的解析の例に関するさらなる開示を提供している。
患者のユーザ診断のための意思決定支援ツールも提供しながら、様々な患者の病気の種類および/または患者の状態、ならびに関連する重症度レベルに関して患者の診断を提供することができる。例えば、患者の臨床画像および非画像情報を全体的、直感的、かつ一様な方法で一緒に視覚化することができ、これによりユーザ1404による効率的な診断が容易になる。別の例では、既知の脳障害の患者の皮質偏差マップおよび参照皮質偏差マップは、追加の患者および参照偏差マップの計算、ならびにそのようなマップと他の臨床試験との組み合わせと共に視覚化され、脳障害の定量的評価および診断を可能にする。
診断を下すことは非常に特殊な仕事であり、そして高度に訓練された医用画像専門家でさえも画像の主観的評価を行う。この固有の主観性のために、診断は矛盾し、標準化されていない可能性がある。診断エンジン1450は、CNN、RNNなどのディープラーニングネットワークを使用して、診断の一貫性、標準化、および正確さを改善するのを助けることができる。非画像データなどの追加のデータは、診断エンジン1450によってディープラーニングネットワークに含めることができ、患者の診断に対する総合的なアプローチを提供する。
特定の例では、システム1400の構成要素は、インターネット、電話ネットワーク、ローカルエリアネットワーク(LAN)、ケーブルネットワーク、および/または無線ネットワークなどの、ただしこれらに限定されない、任意のタイプの公衆または私設ネットワークを介して情報をやり取りすることができる。ネットワークを介した通信を可能にするために、システム1400の1つまたは複数の構成要素は、イーサネット(登録商標)、デジタル加入者線(DSL)、電話線、同軸ケーブル、または任意の無線接続などへの接続を可能にする通信インターフェースを含む。
特定の例では、情報サブシステム1420はローカルアーカイブおよびリモートシステムを含む。リモートシステムは、定期的におよび/またはトリガ時にネットワークを介してローカルアーカイブを受信する。リモートシステムは、遠隔医療画像アーカイブのデータベースを生成するために、様々なコンピューティングデバイスからローカルアーカイブ(例えば、情報サブシステム1420、再構成エンジン1440、診断エンジン1450などからのローカルアーカイブを含む)を収集することができる。いくつかの例では、リモートシステムは、様々な臨床現場からのアーカイブに基づいて大規模データ解析を開発するために情報を解析、相関、および/または処理するためのマシンラーニングアルゴリズムを含む。例えば、複数の画像をリモートシステムによって収集して、展開されるニューラルネットワークを訓練し試験して、画像内の関心領域を自動的に検出することができる(例えば、自動輪郭など)。
図15は、患者の評価および診断のための例示的な改善されたヘルスケアシステム1500のさらなる詳細を示す。図15の例では、撮像装置1410、情報システム1420、収集エンジン1430、再構成エンジン1440、および診断エンジン1450は、複数のディープラーニングネットワーク1522、1532、1542、システム健全性モジュール1550、およびシステム設計エンジン1560で構成されている。
図15Aの例に示すように、収集エンジン1430、再構成エンジン1440、および診断エンジン1450の各々は、フィードバック評価および訓練のために関連する学習および改善ファクトリ1520、1530、1540と通信し、また、展開済みディープラーニング装置1522、1532、1542(例えば、CNN、RNN、他のディープニューラルネットワーク、ディープビリーフネットワーク、リカレントニューラルネットワーク、他のマシンラーニングなど)をそれぞれ含み、パラメータの選択、設定、データ処理、結果の決定などに役立つ。図15Aの例では、装置1522、1532、1542はエンジン1430、1440、1450に関して示されているが、装置1522〜1542は、例えば、図8Aに関して上述したようにファクトリ1520〜1540に組み込むことができる。学習および改善ファクトリ1520、1530、1540は、例えば、展開されたディープラーニング装置1522、1532、1542を学習、フィードバック、および更新するプロセスを実施する。エンジン1430、1440、1450は、処理されるファクトリ1520〜1540のうちの1つまたは複数にフィードバックを提供し、設定の調整、出力の調整、入力の要求などのために更新されたモデルを訓練する。定期的におよび/または別の方法でしきい値に達したとき、基準を満たすときなどに、ファクトリ1520、1530、1540は、例えば、装置1522、1532、1542のためのディープラーニングネットワークモデルを置換および/または再展開することができる。
展開済みディープラーニングネットワーク(DLN)装置1522、1532、1542および関連するファクトリ1520、1530、1540は、上述のネットワーク100、200、300の例と同様に、ディープラーニング畳み込みニューラルネットワークなどのネットワークを実装するように特に構成されたプロセッサおよびメモリを使用して実装することができる。各ファクトリ1520、1530、1540は、ネットワーク1520、1530、1540の意図された目的に関連する既知の入力および出力を確立することによって教示することができる。例えば、収集学習および改善ファクトリ1520は、患者情報、検査理由、撮像装置1410のデータなどに基づいて、収集エンジン1430が撮像装置1410に提供するための画像収集設定を改善することを任されている。再構成学習および改善ファクトリ1530は、例えば、収集画像データ、撮像装置1410の設定、および履歴データに基づいて画像品質および再構成フィードバックを決定することを任されている。診断学習および改善ファクトリ1540は、例えば、患者情報、画像再構成情報および解析、ならびに臨床知識ベースに基づいて患者診断を支援することを任されている。
各ファクトリ1520、1530、1540について、訓練、検証、および試験のためにデータセットが確立される。ファクトリ1520、1530、1540およびそれに含まれる訓練用ネットワークモデルを訓練および検証するための学習部分は、例えば、利用可能なデータの検証および試験の部分の倍数である。ファクトリ1520、1530、1540は複数の方法で初期化することができる。例えば、それぞれのファクトリ1520、1530、1540に関連する構成要素1430、1440、1450に関する事前知識が存在しない場合には、ファクトリ1520、1530、1540の訓練用ディープラーニングネットワークは、ネットワークの最終分類器層を除くすべての層に対して乱数を使用して初期化することができ、それはゼロに初期化することができる。事前知識が存在する場合には、ファクトリ1520、1530、1540のネットワーク層は、以前に学習した値をネットワーク内のノードに転送することによって初期化することができる。あるいは、事前知識が存在しなくても、ネットワーク層は、スタック型オートエンコーダ技術を使用して初期化することができる。
特定の例では、ファクトリ1520、1530、および/または1540への、ならびに/あるいはファクトリ1520、1530、および/または1540からのフィードバックは、入力データ、実際の出力、および望ましい出力を含む記憶装置に取り込まれる(例えば、クラウドベースの記憶などに格納および/またはバッファされる)。十分な量のフィードバックが受信されると、対応するファクトリ1520、1530、1540の訓練用DLNは、受信したフィードバックデータの量に応じて(例えば、元のフィードバックデータと追加のフィードバックデータなどに基づいて)増分的に再訓練されるか、または追加のフィードバックデータを使用して新たに訓練される。(再)訓練されると、ファクトリ1520〜1540からのネットワークモデルは、ディープラーニング装置1522〜1542のために展開済みネットワークモデルを生成および/または再展開するために使用することができる。
特定の例では、オートエンコーダ技術は、人工ニューラルネットワークなどにおいて、効率的なコーディングの教師なし学習を提供する。オートエンコーダ技術を使用して、表現または符号化を一組のデータについて学習することができる。自動符号化は、データを処理して層(隠れ層を含む)および層間の接続部を構築してニューラルネットワークを形成するために、エンコーダおよびデコーダを使用してデータのモデルおよび/または他の次元縮小を学習するために使用することができる。
例えば、オートエンコーダは、入力層、隠れ層、および出力層を含む3層ニューラルネットワークを使用して実装することができる。この例では、入力層および出力層は同数のノードまたはユニットを含むが、すべての隠れ層ノードが入力層内のすべてのノードに接続されているわけではない。むしろ、隠れ層内の各ノードは、入力層の局所領域内の入力ノードに接続されている。図3の例と同様に、オートエンコーダネットワークは、例えば、低減された数のパラメータで局所パターンおよび/または特徴を検出するために画像の部分をモデル化することができる。オートエンコーダの例は、2つの構成要素を含むことができる。すなわち、1)入力xを隠れ層表現h=f(x)にマッピングするエンコーダ関数f、および2)hを出力レイヤの再構成xにマッピングするデコーダ関数gである。重みおよびバイアスを使用して、オートエンコーダを使用して、隠れ層hを通る入力xの新しい表現を生成することができる。
確率的勾配降下法(SGD)を使用して学習データセットからランダムに選択されたデータの所定のセット(例えば、小さいセット)を含むバッチ(例えば、ミニバッチなど)において、誤差の逆伝搬または後方伝搬を使用して、オートエンコーダネットワークにおける正則化(例えば、ドロップアウト、非線形性の前のミニバッチのバッチ正規化など)による過剰訓練を防止するようにしつつ、所定のコスト関数を最小化または他の方法で低減させることができる。訓練データセット全体ではなくミニバッチを使用すると、解析はより早く収束するはずである。初期量の訓練データを活用してファクトリ1520、1530、1540のDLN(例えば、検証データの倍数など)を訓練した後、訓練中の後続のデータのバッチごとに、検証が実行され、検証誤差が監視される。例えば、最良の検証誤差を有する学習パラメータは、将来の訓練を改善するためのプロセスを通して追跡され蓄積される。最小誤差を提供するパラメータ(例えば、ハイパーパラメータ)が検証後に選択される。さらに、検証誤差が所定の反復回数の後に改善されない場合には、学習反復を停止することができる。検証誤差が改善された場合には、検証誤差が安定するまで反復を続けることができる。次に、例えば、ファクトリ1520、1530、1540のDLNに対してパラメータを選択することができる。
ハイパーパラメータは、ファクトリ1520、1530、1540において調整されるべき変数を表す。いくつかの例では、ハイパーパラメータは、その学習アルゴリズムをニューラルネットワークに適用する前に特定の学習アルゴリズムに対して選択される。ハイパーパラメータは、例えば、手動で固定することができ、および/またはアルゴリズムによって決定することができる。いくつかの例では、ハイパーパラメータ値を選択するために使用されるデータ(例えば、訓練データ)は、ファクトリ1520、1530、1540のDLNを試験するために使用することができない。したがって、例えばハイパーデータパラメータ値が訓練データを使用して決定されると、別個の試験データセットがネットワークを試験するために使用される。
収集エンジン1430、再構成エンジン1440、および診断エンジン1450からの出力および/または他のフィードバックは、システム健全性モジュール1550に提供されて、再構成エンジン1440からの画像品質インジケータ、診断エンジン1450によって提供される診断信頼スコア、ならびに/あるいは、例えば、収集エンジン1530、再構成エンジン1440、および/または診断エンジン1450を介してディープラーニングネットワーク1522、1532、1542によって生成された他のフィードバックに基づいてシステム1500の健全性の指標を生成する。収集エンジン1430、再構成エンジン1440、および診断エンジン1450によってシステム健全性モジュール1550に提供される出力/フィードバックもまた、学習および改善ファクトリ1520、1530に提供されて、その出力および/または他のフィードバックに基づいてそれらのネットワークモデルを更新する。したがって、前の段階の学習および改善ファクトリ1520、1530は、後の段階1530、1540などからのフィードバックを使用して更新することができる。システム健全性モジュール1550は、システム健全性および関連するメトリック、推奨値などの決定をモデル化および調整するために、それ自体の展開済みディープラーニング装置1552およびシステム学習および改善ファクトリ1555を含むことができる。
ディープラーニングネットワークは、パターンを学習することによってパターンを識別する。学習には、既知の入力と出力を使用してネットワークのパラメータを調整することが含まれる。学習されたネットワークは、新しい入力が与えられたときに出力を予測できる。したがって、学習プロセス中に、ネットワークは一般的な入力対出力マッピングのマッピングを表すようにパラメータを調整し、その結果、非常に高い精度で出力を決定できる。
展開されたディープラーニング装置(DDLD)1522、1532、1542への入力およびそこからの出力は、DDLD1522、1532、1542の目的に基づいて変化し得る。収集DDLD1522の場合、例えば、入力および出力は、患者パラメータと撮像装置1410のスキャンパラメータとを含むことができる。例えば、再構成DDLD1532の場合、入力および出力は、計算集約的なアルゴリズムを使用して投影領域データおよび再構成データを含むことができる。診断DDLD1542の場合、入力は、例えば、二次元および/または三次元の画像を含むことができ、出力は、例えば、マークされた視覚化画像または放射線医学報告を含むことができる。DDLD1522、1532、1542を実装するために使用されるネットワークの種類は、ターゲットタスクに基づいて変わってもよい。特定の例では、対応する収集、再構成、または診断学習および改善ファクトリ1520、1530、1540は、非医療データならびに医療データを活用することによって訓練することができ、訓練されたモデルを使用してDDLD1522、1532、1542を生成する。
例えば、再構成エンジン1440は、収集学習および改善ファクトリ1520にフィードバックを提供し、収集学習および改善ファクトリ1520は、再構成エンジン1440によって決定された画像品質および/または他の出力特性に基づいてDDLD1522を再展開し、かつ/または他の方法で収集エンジン1430のパラメータを更新することができる。そのようなフィードバックは、DDLD1522によってモデル化され処理されるときにその収集エンジン1430によってその設定を調整するために使用することができる。再構成エンジン1440はまた、それ自体の再構成学習および改善ファクトリ1530にフィードバックを提供することができる。収集エンジン1430はまた、それ自体の収集学習および改善ファクトリ1520にフィードバックを提供することができる。
同様に、例えば、診断エンジン1450は、再構成エンジン1440のために学習および改善ファクトリ1530にフィードバックを提供し、これによって、診断に関連する信頼スコアおよび/または診断エンジン1450によって決定された他の出力特性に基づいて、DDLD1532を再展開すること、および/またはそうでなければ再構成エンジン1440のパラメータを更新することができる。そのようなフィードバックは、再構成エンジン1440によって使用されて、DDLD1532によってモデル化され処理されたときにその設定を調整することができる。
1つまたは複数の学習および改善ファクトリ1520、1530、1540はまた、(例えば、診断エンジン1450の結果を使用して患者1406を診断および治療することなどに基づいて)1つまたは複数の人間のユーザ1404からフィードバックを受け取ることができる。エンジン1430〜1450と、ファクトリ1520〜1540dと、システム健全性モジュール1550と、エンジン1430、1440、1450との間のフィードバックを連鎖させることによって、撮像および診断プロセスの現在および/または後の段階から学習し、改善することができる。
したがって、特定の例は、システム1500および撮像装置1410、情報サブシステム1420、収集エンジン1430、再構成エンジン1440、診断エンジン1450などのその構成要素の構成および動作を改善するために、収集展開済みディープラーニング装置1522、再構築展開済みディープラーニング装置1532、診断展開済みディープラーニング装置1542、およびシステム健全性展開済みディープラーニング装置1552と併せて患者の検査の理由を考慮する。ディープラーニングは、画像解析、画像品質(例えば、明瞭度の品質、解像度、および/または他の画像品質特徴など)などに使用することができる。
学習データセットは、各学習および改善ファクトリ1520、1530、1540への入力として適用することができる。学習データセットは、例えば、出力として、割り当てられた画像品質メトリック(例えば、1〜5の等級など)を有する画像データセットを含むことができる。システム1500およびその構成要素は、継続的な改善のために、ファクトリ1520、1530、1540への出力およびフィードバックとして1つまたは複数のメトリックを評価する。ファクトリ1520、1530、1540、1555、ならびにDDLD1522、1532、1542、1552への入力および出力を自動化することにより、継続的なシステム動作および改善が容易になる。
特定の例では、異なる撮像モダリティ(MRI、CT、X線など)からの医用画像の3Dトポグラフィを使用することにより、分類、畳み込みなどの変化を提供することができる。モデルは、それぞれのDDLD1522、1532、1542によって形成することができる。モデルは、解剖学的構造、臨床応用、患者情報(例えば、データおよび/またはスカウトスキャンなど)、患者の病歴などに基づいて調整することができる。
特定の例では、各DDLD1522、1532、1542はシグネチャを決定する。例えば、DDLD1522、1532、1542は、機械(例えば、撮像装置1410、情報サブシステム1420など)サービス問題、患者の健康に関する臨床問題、ノイズテクスチャ問題、アーチファクト問題などについてのシグネチャを決定する。DDLD1522、1532、1542は、入力、学習された履歴パターン、患者の履歴、好みなどに基づいてこれらの問題のうちの1つを示すシグネチャを決定することができる。
特定の例は、DDLD1522、1532、1542を介して検証および回帰試験のためのメトリックを提供する。出力にはシグネチャ分類からの通知も含めることができる。特定の例は、人間の目視検査のための画像品質マトリックス/メトリックを提供する。特定の例は、人間以外の解釈(例えば、ビッグデータ解析、マシンラーニングなど)のための画像品質マトリックス/メトリックを提供する。
特定の例は、品質管理のための出力を提供すること(例えば、撮像スキャンの全体的な品質を反映するための数または値を提供することなど)ができる。特定の例は、再スキャン支援(例えば、再スキャンが保証されるかどうかの決定など)のための出力を提供する。特定の例は、プロトコル選択および/または新しいプロトコルカスタマイズを自動化するために使用することができる(例えば、新しいプロトコルパラメータを、画像品質メトリックなどに基づいて計算することができる)。
特定の例では、その出力を使用してハードウェアシステムの開発を改善することができる。例えば、問題が医療システムにおいて特定された場合(例えば、ハードウェアなどによって引き起こされたアーチファクト)、次の反復はその問題を解決または軽減するための解決策を提案することができる。特定の例では、臨床上の意思決定および支援を容易にするために、臨床状況がDDLD1522、1532、1542に追加される。
DDLD1522、1532、1542からの出力は、品質を測定するために使用されるアルゴリズムなどのアルゴリズムの開発を改善するために使用することができる。ファクトリ1520、1530、1540にフィードバックを提供することによって、アルゴリズムに対する変更をモデル化し、それぞれのファクトリ1520、1530、1540のDLNを介して試験して、変更がどのように出力データに影響を及ぼし得るかを判定することができる。フィードバックループにおける変化の捕捉およびモデル化は、例えば、収集画像データの非線形の反復的再構成と共に使用することができる。
特定の例は、システム1500による自動診断によって機械の健全性の監視および調整を容易にする。ディープラーニング出力情報に基づいて、サービス決定を行うことができる(例えば、機械がそれ自体で実行することができる自動化されたサービス、手動の人間による修理の依頼など)。機械ベースの意思決定支援を提供することができ、問題を示す1つまたは複数の機械固有のシグネチャを調査し調整することができる。
特定の例は、情報サブシステム1420から入力された患者情報と、それらのDDLD1522、1532、1542と共に収集エンジン1430、再構成エンジン1440、および診断エンジン1450からの出力とを組み合わせて、患者に関する追加の情報を推定することができる。特定の例では、患者の病歴、医学的問題、過去のデータセットなどに基づいて、DDLD1522は、どの収集設定が画像データセットを収集するのに最良であるかを判定するのを助けることができ、DDLD1532は、どのプロトコルが画像データセット出力を提供するための最良の選択であるかを判定するのを助けることができる。スキャン中の動きなどの患者の挙動、彼らの体がコントラストをどう処理するか、スキャンのタイミング、知覚される線量などは、例えばDDLD1522による入力として収集され、例えば画像装置1410の収集設定を決定することができる。
特定の例は、複数のDDLD1522、1532、1542を一緒に連鎖する改善されたインフラストラクチャを含むエンドツーエンドの画像収集および解析システムを提供する。例えば、撮像装置1410および収集エンジン1430によって収集された生データが処理され、再構成エンジン1440に提供されて、a)診断決定支援エンジン1450に提供される機械可読画像、およびb)ユーザ診断のために表示される人間が見ることのできる画像の一方または両方を生成する。収集、再構成、および診断のために異なるDLNが提供され、各DDLD1522、1532、1542は異なる入力、異なる処理、および異なる出力を有する。
したがって、例示的システム1500は、相互接続されたDDLD1522、1532、1542および対応するエンジン1430、1440を使用して1つまたは複数の画像を作成し、診断エンジン1450およびDDLD1542を介してその画像を意思決定支援にリンクさせて診断する。リアルタイム(または実質的にリアルタイム処理および伝送遅延)フィードバック(例えば、学習および改善ファクトリ1520、1530、1540とエンジン1430、1440、1450との間のフィードフォワードおよびフィードバック)ループが、例えば、収集エンジン1430、再構成エンジン1440、および診断エンジン1450の設定および動作の継続的改善のために(例えば、直接に、および/または更新/再訓練されたDLNなどに基づいてDDLD1522、1532、1542を交換/更新することによって)、収集と再構成の間、および診断と再構成の間で例示的なシステム1500に形成される。システム1500がその構成要素の動作から学習するにつれて、システム1500はその機能を改善することができる。ユーザ1404は(例えば、ファクトリ1520、1530、1540などに)オフラインフィードバックを提供することもできる。その結果、各ファクトリ1520、1530、1540は、例えば、患者1406に関連する個別化された変数と共にシステム1500の入力およびユーザの入力に基づいて異なる学習をする。
特定の例では、診断エンジン1450は、診断エンジン1450が遭遇することになる予想データの変動性を適切に表すことができる十分に大きいデータセットを使用して訓練、検証および試験されるDDLD1542と共に動作する。診断学習および改善ファクトリ1540は、例えば、診断エンジン1450および/または再構成エンジン1440によってさらに多くの入力が提供されるにつれて、その出力を改良するために使用することができる。次いで、ファクトリ1540は、例えばDDLD1542の展開されたDLNを置換することができる。
診断エンジン1450は、集団内の患者からのビッグデータ(例えば、情報サブシステム1420から検索される)に基づいて1つまたは複数の画像内のパターンを識別して、患者1406の診断をユーザ1404に提案する。例示的な診断エンジン1450は、ユーザ1404の焦点を合わせるための領域を強調表示し、例えば、ビッグデータ解析に基づいて将来の関心のある領域を予測することができる。画像が次善の方法で提示されたとしても、診断エンジン1450は、その特定の撮像スキャンに依存する決定よりもむしろ患者に依存する答えを提供することができる。診断エンジン1450は、画像を解析し、収集、再構成、解析などに使用される設定に基づいて、ユーザ1404が見ることができないトラブルスポットを識別することができる。出力は、別のシステム/装置を起動するために自動的にすることができ、かつ/またはユーザ1404に提案として提示することができる。システム1500からのデータ出力は、例えば、クラウドベースのシステムに提供することができる。システム健全性モジュール1550のシステム学習および改善ファクトリ1555に出力を提供して、システム健全性モジュール1550が、システム1500の健全性を維持または改善するためにいつ行動を取るべきかを学習することができる。
システム健全性モジュール1550は、複数の構成要素1430、1440、1450から入力を受け取り、システム1500に変更を加えるべきかどうかを決定するために入力を処理する。収集エンジン1430、再構成エンジン1440、診断エンジン1450などに影響する問題への暴露およびそれからの学習に基づいて、システム健全性モジュール1550は、収集エンジン1430に出力を提供して、撮像装置1410および/または他のシステム構成要素の挙動を修正する。システム健全性モジュール1550はまた、システム設計エンジン1560に出力を提供し、システム設計エンジン1560は、例えば、識別された課題/問題を使用して、撮像装置1410および/またはシステム1400、1500の構成要素の設計を修正する。
図15Bは、収集エンジン1430、再構成エンジン1440、および診断エンジン1450がデータ品質評価エンジン1570、画像品質評価エンジン1572、および診断評価エンジン1574を伴う、例示的なシステム実施態様1501を示す。図15Bの構成1501では、各エンジン1430、1440、1450は関連する評価エンジン1570、1572、1574から直接フィードバックを受け取る。特定の例では、収集エンジン1430、再構成エンジン1440、および/または診断エンジン1450は、それらの関連する展開済みディープラーニングモジュール1522、1532、1542を更新する必要なしにフィードバックを受け取る。その代わりにまたはそれに加えて、データ品質評価エンジン1570、画像品質評価エンジン1572、および診断評価エンジン1574は、エンジン1430〜1450にフィードバックを提供する。簡単にするために図15Bの例では直接接続が示されているが、ディープラーニングベースのフィードバックモジュール1570〜1574の各々は、例えば、異なるクラスの例示的な条件、関連する学習および改善ファクトリモジュール、オーケストレーションモジュール、ならびに関連するパラメータの更新および再開のためのトリガを含む関連する訓練画像データベースを有することを理解されたい。
したがって、収集エンジン1430は、例えば、データ品質評価エンジン(DQ−AE)1570、画像品質評価エンジン(IQ−AE)1572、および/または診断評価エンジン(Diag−AE)1574からフィードバックを受け取ることができる。再構成エンジン1440は、例えば、IQ−AE1572および/またはDiag−AE1574からフィードバックを受け取ることができる。診断エンジン1450は、例えば、Diag−AE1574からフィードバックを受け取ることができる。
図16は、改善された画像収集、処理、および患者診断のための例示的な方法1600の流れ図を示す。ブロック1602では、個別化された患者特性が収集エンジン1430に入力される。例えば、臨床医は、個別化された患者の特徴を収集エンジン1430に入力することができる。その代わりにまたはそれに加えて、個別化された患者特性は、情報サブシステム1420を介して画像化されるように識別された患者に提供することができる。ブロック1604では、収集エンジン1430が、入力された個別化された患者の特徴、ならびにDDLD1522から抽出された学習情報に基づいて、1つまたは複数の撮像装置1410の設定を提案する。
したがって、患者1406に特有の情報ならびにDDLD1522によって学習された情報を使用して、撮像装置1410による画像収集のための改善された設定を決定することができる。ブロック1606では、患者1406の1つまたは複数の画像が撮像装置1410によって収集される。画像は、収集エンジン1430によって提供された設定に従って取得される。設定は、収集エンジン1430によって撮像装置1410で自動的に構成され、および/またはユーザ1404(例えば、臨床医、放射線科医、技師など)によって手動で入力/上書きすることができる。
ブロック1608で、再構成エンジン1440は、収集エンジン1430から生画像データを受け取り、その画像データを処理して画像品質メトリックを割り当てる。画像品質(IQ)メトリックは、包括的な画像品質指標(IQI)および/または画像品質の様相に関する1つまたは複数の特定のメトリックであってもよい。例えば、特定の画像品質メトリックは、空間解像度、ノイズなどを含む。上述のブロック840で、再構成エンジン1440によって生成されたフィードバックを収集して記憶することができる。したがって、収集画像データの再構成からシステム1500によって学習された教訓は、撮像装置1410設定のさらなる改良のために収集学習および改善ファクトリ1520にフィードバックすることができる。画像データに対して画像品質解析を実行した後、再構成エンジン1440は画像データを処理してさらなる検討および解析のために画像を再構成する。この結果得られる1つまたは複数の画像は、コンピュータ支援診断(CAD)などの自動化された機械解析のために、または画像を人間が見るために処理することができる。
再構成DDLD1532からの構成設定は、収集画像データが機械解析および/または人間による観察のために処理するべきかどうかを決定するために使用される。ブロック1612では、結果として生じる画像の表示を人間が精査するために画像が再構成される。ブロック1614では、画像データを処理して、機械評価および画像の解析に適した画像を生成する。例えば、機械解析可能な画像を用いて、画像の特徴をコンピュータ検出のために最適化することができるが、放射線科医などのユーザにとって視覚的に認識可能である必要はない。しかしながら、人間が見ることのできる画像の場合、画像解剖学的構造の特徴は、再構成が有用であるためには人間の視聴者によって検出可能であるべきである。
ブロック1616では、人間が見ることのできる画像が再構成されている場合には、再構成エージェント1440がその画像を診断エンジン1450に提供し、診断エンジン1450がその画像をユーザ1404に表示する。ブロック1618では、機械解析可能な画像が生成され、次いで再構成エンジン1440が、診断エンジン1450からの画像データに基づいて自動処理および提案された診断のための機械可読画像を診断エンジン1450に提供する。
ブロック840では、人間が見ることのできる画像および/または機械が提案する診断に関するフィードバックが診断エンジン450から提供される。ブロック1624では、患者1406の診断は、単独で得られた、あるいはDDLD1542および/または情報サブシステム1420からのデータと共に得られた、ユーザ1404による画像の人間の閲覧および/または診断エンジン1450による画像の自動処理に基づいて行われる。
診断は、例えば、ユーザ1404、患者1406に提供され、および/または別のシステムに転送されることができる。例えば、ブロック840では、診断エンジン1450および/またはユーザ1404からフィードバックが提供される。システム設計エンジン1560にもフィードバックを提供することができる。ユーザ1404、診断エンジン1450、再構成エンジン440、収集エンジン1430、および/または他のシステム1500の構成要素からのフィードバックは、システム1500の健全性の指標を計算するためにシステム健全性モジュール1560に提供することができる。
図17は、システム1500の構成要素間を流れる際の例示的なデータフローおよび情報1700の変換を示す。図17の例に示すように、第1のデータ1702が撮像装置1410によって収集エンジン1430に提供される。第2のデータ1704が、情報サブシステム1420によって収集エンジン1430に提供される。収集エンジン1430は、第1のデータ1702および/または第2のデータ1704を含む第3のデータ1706を収集DDLD1522に送信する。収集DDLD1522は、第3のデータ1706を第4のデータ1708に変換し、第4のデータ1708を収集エンジン1430に送り返す。収集エンジン1430は、第4のデータ1708を撮像装置1410に送る。収集エンジン1430は、第5のデータ1710を再構成エンジン1440に送る。
再構成エンジン1440は、第5のデータ1710を含む第6のデータ1712を再構成DDLD1532に送る。DDLD1532は、第6のデータ1712を第7のデータ1714に変換し、第7のデータ1714を再構成エンジン1440に送り返す。再構成エンジン1440は、第7のデータ1714を収集エンジン1430に送る。再構成エンジン1440は、第8のデータ1716を診断エンジン1450に送る。
診断エンジン1450は、第8のデータ1716を含む第9のデータ1718を診断DDLD1542に送る。DDLD1542は、第9のデータ1718を第10のデータ1720に変換し、第10のデータ1720を診断エンジン1450に送り返す。診断エンジン1450は、第10のデータ1720を再構成エンジン1440に送る。
このように、特定の例は、患者情報、検査理由、および患者画像データを診断および他の医療関連情報に変換する。ディープラーニングネットワークなどのマシンラーニングを使用して、例えば、撮像、情報、および解析機器の操作を通じて、複数のパラメータ、設定などを開発、監視、および改良することができる。例えば、ディープラーニングネットワークを使用すると、(例えば、内部または試験環境において)撮像システムが展開される前に学習/訓練および試験を容易にすることができ、一方、例えば、システムが展開されて使用のために活性化された後に「現場」でパラメータの継続的調整が行われる。
特定の例は、様々な場所に展開することができるユニットまたはモジュールに編成されたコア処理能力を提供する。装置外処理を活用して、マイクロクラウド、ミニクラウド、および/またはグローバルクラウドなどを提供することができる。例えば、マイクロクラウドは、クラウド接続性を持たない顧客などに対して超低レイテンシ処理(例えばストロークなど)を対象とした撮像装置コンソールとの一対一構成を提供する。ミニクラウドは、例えば社内のデータを保持することを好む顧客向けの低レイテンシ処理を目的とした顧客ネットワークなどに展開される。グローバルクラウドは、優れた運用性を備えた高性能コンピューティングおよび情報技術インフラストラクチャの管理のために、顧客組織の全体にわたって展開される。
装置外処理エンジン(例えば、収集エンジン1430、再構成エンジン1440、診断エンジン1450など、およびそれらに関連する展開済みディープラーニングネットワーク装置1522、1532、および/または1542など)を使用して、収集設定を決定し、例えば撮像装置1410に送信することができる。例えば、検査目的、電子医療記録情報、心拍数および/または心拍数の変動性、血圧、体重、腹臥位/仰臥位の目視評価、頭を先または足を先にするなどを使用して、デフォルト視野(DFOV)、中心、ピッチ、配向、造影剤注入速度、造影剤注入タイミング、電圧、電流などの1つまたは複数の収集設定を決定することができ、それによって「ワンクリック」撮像装置を提供することができる。同様に、カーネル情報、スライス厚、スライス間隔などを使用して、例えば、画像品質フィードバックを含む1つまたは複数の再構成パラメータを決定することができる。収集フィードバック、再構成フィードバックなどをシステム設計エンジン1560に提供して、1つまたは複数のデジタルモデル(例えば、ディープラーニングモデル、マシンモデル、デジタルツインなど)によって表されるような撮像装置1410のリアルタイム(あるいは処理遅延および/または伝送遅延があれば実質的にリアルタイム)の健全性解析を提供することができる。デジタルモデルは、リアルタイムで(あるいは処理遅延および/または伝送遅延があれば実質的にリアルタイムで)撮像装置1410の構成要素の健全性を予測するために使用することができる。
各ディープラーニングネットワークは、関連する結果の結果と共にキュレーションされたデータを使用して訓練することができる。例えば、脳卒中に関するデータ(例えば、治療後の発症から90日後までのデータなど)を使用して、予測される脳卒中の結果を得るようにニューラルネットワークを訓練することができる。したがって、運用上、臨床上、治療上、および治療上の「バイオマーカー」は、最良のおよび/または他の改善された結果について識別することができる。同様に、肺がんデータは、CT、PET/CT、核医学を含む1つまたは複数の撮像装置1410について、スクリーニング、診断、治療計画、治療反応、最終結果などからの部門間追跡を含むディープラーニングネットワークによって解析することができる。
画像収集の場合は、1つまたは複数の既知の入力および1つまたは複数の既知の出力が与えられると、収集設定は、展開可能なDDLD1522を生成するための予測可能な出力について収集学習および改善ファクトリ1520を訓練するように自動的に決定することができる。撮像装置1410の設定の出力が信頼性のしきい値に達すると、収集エンジン1430は、(例えば、撮像装置1410に統合されて、および/または撮像装置1410と通信する別の装置として)撮像装置1410に収集設定を提供することを認証することができる。さらなる顧客訓練または試験を行わなくても、設定を使用し変更することができる。結果として、ユーザは、高品質の画像収集を収集し、劣悪なまたは標準以下の画像収集のセットを回避することができる。収集設定および関連するDDLD1522は、高品質の画像収集にのみ応答するように訓練することができ、設定の調整は、悪品質の画像が収集されたときにDDLD1522によって提案することができる。このように、ユーザの観点からは、高速画像検査を一貫して収集するために1つのボタンが押される。患者パラメータ、所望の出力のためのDICOMヘッダ、ならびに成功したおよび/または失敗したデータセットのための撮像装置1410のパラメータに対応する既存の医療検査から得られた所望の出力の表示と併せて検査の目的を使用して、DDLD1522は、良好な画像品質を認識し、対応する設定をデフォルト設定として提案することができ、ならびにユーザが画像収集のために撮像装置1410を構成する際に誤りを犯した場合に、誤りから回復するための設定を提案することができる。経時的に、収集学習および改善ファクトリ1520は、例えば収集エンジン1430に駆動するために改善されたDDLD1522を再訓練および再展開するための学習された成功および失敗に基づいて進化および改善することができる。
特定の例では、クラウドベースのプロトコルを取り込み管理して、プロトコルおよび/または規則の選択を自動化してクラウドを介して最善の実施を利用可能にすることができる。
品質フィードバックは画像再構成からも得ることができる。人間による精査なしで、例えば、DDLD1532によって、良いまたは悪い画像を識別し、1つまたは複数の画像品質メトリックおよび/またはインジケータと関連付けることができる。そのような画像品質指数(IQI)および/または他のメトリックは、DDLD1532を使用して再構成エンジン1440によって生成され、例えば人間によるレビューの有無にかかわらず医学的決定を下すために使用することができる。生成された指数/メトリックは、撮像装置1410が良好または不良な品質の画像を収集しているかどうか、およびどのような条件下でなどに関してDDLD1532および/またはユーザ1404に知らせるために使用することができる。
ディープラーニングでは、試験によって既知のケースの画像の品質を一定のレベルで自動的に評価できる。例えば、さらなる撮像装置1410の開発を容易にするために、撮像装置1410の設定と比較した画像品質の解析に基づくフィードバックをシステム設計エンジン1560に提供することができる。システム設計エンジン1560ならびに学習および改善ファクトリ1520および/または1530を使用して、画像品質の低下を検出し、例えば、撮像装置1410の健全性を含むシステム健全性1550を評価するために使用することができる。人間のユーザ1404は品質の漸進的な低下を検出しないかもしれないが、ディープラーニングは早期の検出のための客観的で公平な評価を提供する。
特定の例では、診断指数または検出可能性指数は、画像品質指標と同様に計算することができる。診断指数は、一組のデータが与えられたときにユーザ1404がどのような条件下で診断を下すことができるかの尺度とすることができる。DDLD1542および関連する診断学習および改善ファクトリ1540は、他の構成要素からの現在および過去のデータおよびシステム1500のパラメータを解析して、ユーザ1404、患者1406、状態の種類、患者の種類、検査の種類などに対して一貫した指標を提供する。例えば、ファクトリ1540の訓練用DLNが訓練されると、モデルをDDLD1542に展開することができ、診断データを画像品質と比較することができる。再構成エンジン1440、収集エンジン1430、関連する学習および改善ファクトリ1520、1530、および/またはユーザ1404にフィードバックを提供して、例えば、画像品質の指標および/または収集のための撮像装置1410の設定の対応する変更を提供することができる。
いくつかの例では、患者診断の数値表示の代わりにまたはそれに加えて、全体論的解析/表示を提供することができる。全体論的解析を使用して、ヒートマップ、偏差マップなどのような視覚的表示を提供して、特定の疾患または状態について、患者1406が傾向、特徴、指標などにどのように適合するか適合しないかを視覚化することができる。特定の例では、ファクトリ1540がその診断学習において向上するにつれて、視覚的表現が向上することができる。診断エンジン1450とそのDDLD1542との全体論的アプローチを使用して、複数のソースからのデータが処理され、人間がパターンを識別できる形式に変換される。ディープラーニングを使用して、DDLD1542は、何千ものデータのビューを処理することができるが、人間のユーザ1404は、焦点を失う前に10個のビューを合理的に処理することしかできないかもしれない。
DDLD1542のディープラーニングプロセスは、人間のユーザ1404が手動でパターンを検出および認識(例えば、参照)する必要がなく、パターンを識別することができる(そして診断エンジン1450を介して識別されたパターンの表示を潜在的に表示することを可能にする)。多変量解析およびパターン識別は、DDLD1542によって容易にすることができるが、人間のユーザ1404にはそうすることは困難であり得る。例えば、DDLD1542および診断エンジン1540は、人間には理解できない異なるパターン、および/または人間が理解できるが人間が合理的に精査および解析するには多すぎる可能性に埋もれているパターンを識別することができる。DDLD1542および診断エンジン1450は、例えば、人間による精査と併せてフィードバックを提供することができる。
特定の例では、全体論的解析は、単独で、または診断エンジン1450と併せて、ユーザ1404によって行われた診断に供給される。診断エンジン1450およびそのDDLD1542を使用して、例えば法的に規制された/医療機器として人間の判断についてのセカンドオピニオンを提供することができる。特定の例では、診断エンジン1450は、自動診断を提供するためにDDLD1542と連携して動作することができる。
例示的な解析フレームワーク
特定の例では、ヘルスケア解析フレームワーク1800を、例示的なシステム1400、1500(収集エンジン1430、再構成エンジン1440、および診断エンジン1450を、それらに関連するDDLD1520〜150および学習および改善ファクトリ1520〜1540と共に含む)を使用して、画像収集、画像再構成、画像解析、および患者診断のために提供することができる。図18の例に示すように、撮像装置1410のパラメータ、再構成エンジン1440のパラメータなどの入力は、物理ベースの装置比較1810に提供される。装置比較1810は、例えば、DDLD1522および/または他のマシンラーニングネットワークによって容易にすることができる。入力は、装置比較1810によって使用され、同じおよび/または異なるベンダからの同じおよび/または異なるタイプの他の撮像装置と撮像装置1410とを比較する。装置1410の特性、画像収集パラメータ、再構成設定などに基づいて比較を行う際に学習し支援するために、ディープラーニングおよび/または他のマシンラーニング技術を使用することができる。例えば、DDLD1522および/または1532を装置比較1810に使用して、撮像装置1410と他の撮像スキャナとのプロファイルおよび/または他の比較を行うことができる。
装置1410の比較情報はデータ評価仕様1820に提供される。データ評価仕様1820は、例えば、DDLD1522および/または1532、ならびに/あるいは別個のプロセッサによっても実装することができる。データ評価仕様1820は、再構成エンジン1440からの再構成画像1822と、収集エンジン1430および撮像装置1410からの生画像データの変換1824と、を処理する。ディープラーニング、辞書学習(例えば、他の画像から辞書を構築し、現在の画像に辞書定義を適用するなど)などのマシンラーニング方法を、再構築済みのおよび/または生の画像データに適用して画像属性および/またはタスクベースの画像品質評価メトリクス1826を定義することができる。画像品質情報(例えば、ノイズ、解像度など)は、ディープラーニングおよび/または他のマシンラーニング技法を用いて、画像および生の画像データから直接(例えば、特定のファントムおよび/または変調伝達関数(MTF)などを使用せずに、関心領域と共に)抽出することができる。さらに、ディープラーニングおよび/または他のマシンラーニングを使用して、データから1つまたは複数のタスクベースのメトリック(例えば、検出可能性など)を抽出することができる。属性およびメトリック1826は、装置ベースの比較に基づくデータ評価のための仕様を形成する。
特定の例では、モデルを形成することができる。データ評価仕様1820は、データ評価仕様1820への入力およびデータ評価仕様1820からの出力を数学的に表現またはモデル化するための伝達関数1828を構築する。伝達関数1828は、画像属性および/またはタスクベースの画像品質評価メトリクス1826を生成およびモデル化するのを助ける。特定の例では、小結節体積の計算、画像からの変動源の直接推定などの解析に基づいて変動をモデル化することができ、モデル化された変動を使用して再構成画像を標準化し解析を改善することができる。
画像データの解析および修正を提供するモデルおよび伝達関数1828に基づいて、結果プロセッサ1830は1つまたは複数の臨床結果を決定する。例えば、臨床結果のユーザ決定を容易にするために(例えば、診断エンジン1450を介して)情報を結果プロセッサ1830に提供することができる。その代わりにまたはそれに加えて、結果プロセッサ1830は、臨床結果の機械的決定を(例えば、画像解析と共に診断エンジン1450およびDDLD1542を使用して)生成することができる。
したがって、例えば、画像解像度の品質は、MTFと共にファントム(例えば、ワイヤ、エッジなど)を使用して伝統的に測定されてきた。しかしながら、多くの放射線科医は、画像を観察することによって臨床画像がより低い解像度を有すると言うことができる。ディープラーニングおよび/または他の機械ネットワークは、例えば繰り返しの暴露および解析を通してこの観察を模倣することを学習する。例えば、再構成画像1822、標準化変換1824などと共に装置比較1810からの情報を使用して、データ評価仕様1820は、再構成エンジン1440およびそのDDLD1532を有効にして、例えば、画像属性を計算し、診断エンジン1450およびそのDDLD1542と協働して臨床医に解析を提供するための変換を再較正し、例えば、DDLD1542によって定義および/または学習された範囲、しきい値などに関して、画像内の許容可能または許容不可能な解像度を識別することができる。解像度が許容できない場合には、DDLD1522を、学習および改善ファクトリ1520を介して更新することができ、例えば収集エンジン1430の設定が調整される。
画像収集の例
図19は、撮像装置1410および画像収集エンジン1430を用いた画像収集のための例示的な方法1900の流れ図を示す。ブロック1902では、個別化された患者変数が収集エンジン1430に入力される。個別化された患者変数は、患者の身長、患者の体重、撮像の種類、検査の理由、患者の病歴などを含むことができる。例えば、臨床医は、個別化された患者の特徴を収集エンジン1430に入力することができる。その代わりにまたはそれに加えて、個別化された患者特性は、情報サブシステム1420を介して画像化されるように識別された患者に提供することができる。
ブロック1904では、収集展開済みディープラーニングネットワーク装置1522は、収集エンジン1430への入力を解析する。例えば、DDLD1522は、画像収集のための撮像装置1410設定を生成するために、患者パラメータ、事前撮像装置1410の走査パラメータなどを処理する。CNN、RNN、オートエンコーダネットワーク、および/または他のディープ/マシンラーニングネットワークを使用して、DLN520は、現在の撮像装置1410の設定、患者情報、検査理由、患者履歴、および集団健康情報などと比較して事前収集を活用して予測出力を生成する。設定、イベント、および結果間の関係を調べて、適切な撮像装置1410の設定、検査の種類および患者の種類に基づく理想的なまたは好ましい収集設定、撮像装置1410の設計に対する変更などを決定することができる。設定は、十分な(劣った、および/または高品質などに対して)画像品質などのための強度または放射線量設定を含むことができる。設定には、収集タイプ、期間、角度、スキャン数、位置などを含めることができる。
ブロック1906では、収集エンジン1430は、入力された個別化された患者の特徴、ならびにDDLD1522から抽出された学習情報に基づいて、1つまたは複数の撮像装置1410の設定を提案する。上述のように、DDLD1522からの出力は、患者1406の画像を収集するために撮像装置1410のための1つまたは複数のパラメータもしくは構成設定として編成することができる。したがって、展開済みディープラーニングネットワーク装置1522によって学習された情報だけでなく患者1406に特有の情報を使用して、撮像装置1410による画像収集のための改善された設定を決定することができる。検査の理由、特定の患者情報、および既存の撮像装置1410の設定に基づいて、収集DDLD1522は、撮像装置1410を介して患者1406から画像データを収集するために収集エンジン1430によって使用される推奨設定を生成することができる。設定は、例えば、収集エンジン1430によって撮像装置1410に自動的に適用されてもよく、および/または手動で入力され/ユーザ1404によって上書きされてもよい。
ブロック1908では、患者1406の1つまたは複数の画像が撮像装置1410によって取得される。画像は、収集エンジン1430によって提供された設定に従って取得される。設定は、例えば、収集エンジン1430によって撮像装置1410で自動的に構成することができ、および/またはユーザ1404(例えば、臨床医、放射線科医、技師など)によって手動で入力/上書きすることができる。
ブロック1910では、収集画像データは再構成エンジン1440に送信される(例えば、人間が見ることのできる画像に再構成される、および/または機械処理されるなど)。(DDLD1532を使用する)再構成エンジン1440は、包括的な画像品質指標(IQI)および/または収集された生画像データに関連する画像品質の態様に関する1つまたは複数の特定の指標となる画像品質(IQ)指標を生成することができる。例えば、特定の画像品質メトリックは、空間解像度、ノイズなどを含む。
ブロック1912では、再構成エンジン1440からのフィードバックが収集学習および改善ファクトリ1520に提供されて、撮像装置1410設定の生成および推奨のためにDDLD520を改善する(例えば、収集エンジン1430と共に展開するための新しいDDLD1522を生成する)。したがって、収集画像データの再構成からシステム1500によって学習された教訓は、ネットワーク動作をさらに改良し、その結果として撮像装置1410の設定を改善するために、収集学習および改善ファクトリ1520(および/または画像品質評価エンジン1572など)にフィードバックすることができる。そのフィードバックは、(ファクトリ1520を介して)DDLD1522への、そして結果として、様々な患者1406のための画像収集のために撮像装置1410に提供される設定への継続的な改善を確実にする。
ブロック1914では、画像が表示されない場合には、追加のフィードバックは得られない。しかし、画像が表示されている場合には、ブロック1916で、追加のフィードバックが収集学習および改善ファクトリ1520に提供される。例えば、再構成DDLD1532、診断エンジン1450、診断DDLD1542、ユーザ1404などのうちの1つまたは複数は、収集学習および改善ファクトリ1520(および/または画像品質評価エンジン1572など)にさらなるフィードバックを提供して、その学習およびデータ処理を改善することができる。例えば、使用されるカーネル、ノイズ低減設定、スライス厚、間隔などに関するフィードバックを提供することができる。
特定の例では、収集エンジン1430および関連するDDLD1522は、画像収集のために撮像装置1410の動作を構成するために撮像装置1410に接続することができる装置として実装することができる。収集構成装置は、現場で技師または設置者によって使用することができ、装置のそれら自体の操作のために顧客に販売することなどができる。
図20は、撮像システム1401と通信する訓練用学習装置2010および画像収集構成装置2020を含む例示的な画像収集構成システム2000を示す。画像収集設定装置2020は、プロセッサ2030およびメモリ2040を含む。装置2020のプロセッサ2030は、展開済みディープラーニング装置2050をインスタンス化する。
特定の例では、画像収集構成装置2020は、訓練用学習装置2010を使用して前の組のパラメータを訓練し試験することによって決定された第1の組の撮像システム構成パラメータを使用して最初に構成される。装置2020はまた、システム動作、患者入力などに基づいて構成パラメータを決定する際に画像収集構成装置を支援するために訓練用学習装置2010を使用して生成されるそれ自体の展開済み学習装置2050を含む。装置2050は、訓練装置2010がフィードバックを受け取って進化し続ける間、構成装置2020と共に動作する。訓練装置2010は、特定の基準(例えば、収集されたフィードバックのしきい値、装置2050の結果とモデル化された装置2010の結果との間の偏差のマージンなど)が満たされると、展開済み学習装置2050を再展開することができる。装置2010、2050は、例えば上述のように実施することができる。
装置2020およびその初期パラメータは、装置2010のネットワークが訓練されると、訓練用学習装置2010を使用して展開することができる(例えば、患者の種類、検査の種類、画像収集の種類、画像品質しきい値などについての撮像装置1410の構成パラメータに関連する信頼性しきい値に達する)。構成装置2020が撮像装置1410のための関連する信頼できる設定推奨を生成するまでは、訓練装置2010は、推奨および調整を提供し、非効率性、不正確さなどに関するフィードバックを組み込むことを継続し、所与の検査目的、患者の種類、状態の種類、線量、安全しきい値、動作状態などについてのパラメータ選択を学習して改良させることを継続し、展開済み学習装置2050を再展開する。
学習装置2050が展開され、構成装置2020が十分な信頼性および品質を有すると検証されると、(例えば、撮像装置1410の製造業者に関連する技師による使用のために、直接顧客により、など)顧客サイトでの展開および設置のために画像収集構成装置2020を解放することができる。装置2020は、(例えば、ワイヤ、ケーブル、コネクタなどによって)撮像装置1410に物理的に接続または「差し込む」ために展開することができる。その代わりにまたはそれに加えて、画像収集構成装置2020は、撮像装置1410と無線で(例えば、ブルートゥース(登録商標)、ブルートゥース低エネルギー(BLE(商標))、近距離無線通信(NFC)、Wi−Fi(商標)などを介して)通信して、撮像装置1410に設定を送信し、撮像装置1410からフィードバックを受信することができる。例えば、装置1410、2020の動作中に設定推奨事項を学習し、修正し、改善し続けるために、訓練用学習装置2010によってフィードバックが使用される。装置2020はまた、再構成エンジン1440および/または他の画像処理ワークステーションと通信して、撮像装置1410による画像データ収集から生じる画像についての画像品質フィードバックを得ることができる。訓練装置2010は、このフィードバックを同様に使用して、例えば、質の良いものに応答し、質の悪い画像収集についての提案をするためにさらに訓練する。
図21は、画像収集構成装置2020を訓練し展開するための例示的な方法2100の流れ図を示す。ブロック2102では、画像収集構成装置2020は訓練装置2010を用いて訓練される。例えば、装置2020およびその初期構成設定は、装置2010による1つまたは複数のパラメータの参照セットの訓練および試験に基づいて、訓練用学習装置2010を使用して最初に訓練することができる。
ブロック2104において、訓練用学習装置2010の出力が(例えば、参照データからの既知の応答と比較して)しきい値を満たすまで、訓練は継続する。例えば、良い参照データと悪い参照データの両方を使用して、使用可能な結果と使用不可能な結果を認識するように装置2010を訓練することができる。訓練装置2010が患者の種類、検査の種類、画像収集の種類、画像品質しきい値などについての撮像装置1410の構成パラメータに関連する信頼性しきい値に達すると、訓練装置2010は、非効率性、不正確さなどに関するフィードバックを訓練し組み込むことを継続し、所与の検査目的、患者の種類、状態の種類、線量、安全しきい値、動作状態などについてのパラメータ選択を学習して改良させることを継続する。
訓練装置2010が十分な信頼性および品質を有するとして訓練され検証された後、ブロック2106で、展開済み学習装置2050が生成される。例えば、訓練装置2010の訓練済みネットワークは、展開済み学習装置2050のための展開ネットワークモデルを生成するために使用される。
ブロック2108では、(例えば、撮像装置1410の製造業者に関連する技術者による使用のために、直接顧客により)顧客サイトでの展開のために画像収集構成装置2020を解放することができる。装置2020は、(例えば、ワイヤ、ケーブル、コネクタなどによって)撮像装置1410に物理的に接続または「差し込む」ために展開することができる。その代わりにまたはそれに加えて、画像収集構成装置1120は、撮像装置1410と無線で(例えば、ブルートゥース(登録商標)、ブルートゥース低エネルギー(BLE(商標))、近距離無線通信(NFC)、Wi−Fi(商標)などを介して)通信して、撮像装置1410に設定を送信し、撮像装置1410からフィードバックを受信することができる。
ブロック2110では、画像収集構成装置2020は、患者1406の1つまたは複数の画像を収集するために撮像装置1410のための構成パラメータを生成することができる。患者1406、以前の患者情報(例えば、患者の病歴、情報サブシステム1420からの家族歴、二次元および/または三次元のスカウトスキャンなど)、検査の理由および/または検査の種類などに基づいて、構成装置2020の展開済みネットワーク2050は、患者1406の画像収集のために撮像装置1410を構成するための構成パラメータを生成する。
ブロック2112では、構成パラメータが構成装置2020によって出力される。構成装置2020は、画像収集のために撮像装置1410を自動的に構成するために(例えば、オペレータによる上書きおよび/または調整により)パラメータを撮像装置1410に提供することができる。構成装置2020はまた、画像収集のために撮像装置1410を設定するために使用されるパラメータをオペレータに提供することができる。
ブロック2114では、画像収集構成装置2020によって撮像装置1410からフィードバックが受信される。例えば、フィードバックは、撮像装置1410による画像収集の間および/またはその後に、有線および/または無線接続を介して受信することができる。特定の例では、パラメータ生成のためのDDLD2050の動作を改善するために、収集画像データの再構成および/または他の処理に関するフィードバックも収集構成装置2020および/または訓練装置2010に提供することができる。例えば、画像品質の指標(例えば、低すぎる、十分である、高すぎるなど)を訓練装置2010によって処理して、装置2050に展開される新しいディープラーニングネットワークを生成して、構成装置2020による撮像装置1410の設定の決定を改善することができる。ブロック840では、フィードバックが収集され、上述のように処理のために格納される。例えば、装置1410、2020の動作中に設定推奨を学習し、修正し、改善し続けるために、訓練装置2010によってフィードバックが使用される。フィードバックを使用して、例えば、質の良いものに応答し、質の悪い画像収集についての提案をするためにさらに訓練することができる。
したがって、画像収集構成装置2020は、ユーザおよび/またはサプライヤが撮像装置1410と共に提供することができるブラックボックスとして機能し、最小限のユーザ対話で撮像装置1410の動作を構成および改善することができる。顧客は装置2020を使用して調整することができるが、装置2020を撮像装置1410と共に展開する前に装置2020を訓練し試験する必要はない。平均的なユーザは、構成装置2020およびその展開済み学習装置2050を使用して、撮像装置1410からの品質の悪いまたは許容できない一組の画像収集を回避しながら、高品質(または読み取りに十分な診断品質など)の画像収集を得ることができる。
特定の例では、ユーザ1404がボタンを押すか、そうでなければオプションを選択し、構成装置2020が残りの操作を実行して撮像装置1410を構成し起動することで、画像収集のために1回だけボタンを押すことを容易にすることができる。例えば、装置2020は、画像収集のために患者情報と共に撮像装置1410に提供されるDICOMヘッダ情報を生成する。得られた画像は、患者の病歴、血圧などのデータを含むDICOMヘッダと関連付けることができる。以前の画像、以前の診断、他のモダリティからの情報などに関する情報を含めることができる。
展開済み学習装置2050は、良い(または十分な)品質の画像に応答し、低い(または不十分な)品質の画像が得られたときにはユーザ1404に提案を提供するように訓練される。装置2050は、良好な画像品質を認識し、特定の状況においてその高品質の画像を収集するために使用される設定をその特定の状況に対するデフォルト設定として提案する。(例えば、悪い設定、ユーザの誤りなどにより)悪い品質の画像が収集された場合、装置2050は、間違いを修正するために変更することができる異なる設定を提案することなどによって、間違いから回復する方法を提案することができる。入力パラメータは、デフォルトの視野(DFOV)、中心、電圧(kV)、電流(mA)、ピッチ、配向、注入速度、注入タイミングなどを含む。ランドマークを識別してそれらの設定を使用するためにスカウト画像を収集するのではなく、展開済み装置2050を通じたディープラーニングは、スキャン範囲、視野、および/または他の設定のワンクリック決定を容易にすることができ、オペレータは、例えば画像収集を修正または承認し起動することができる。
例えば、肝臓の検査では、患者をスキャンするための様々な方法がある。純粋なオペレータの選択、血液検査などではなく、症状、検査の指示の理由、血液検査の結果などを提供することによって、展開済み学習装置2050は、患者1406をどのようにスキャンするか、造影剤注入を使用するか使用しないか(例えば、どれくらい速く、濃度、総注入量など)、デュアルエネルギーを使用するか使用しないかなどを決定することができる。CT、MICT、SPECT、PETなどの複数の撮像モダリティについて設定を評価して構成することができ、これらは、異なる出力に対して異なる入力で同じプロセスをたどる。心臓撮像、神経灌流、肺がんのスクリーニング、治療反応などは、構成装置2020を使用して支援および改善することができる。
例えば、患者1406が造影肝臓検査を予定している場合には、正常な心臓の大きさ、大きさ、および肝機能を有する患者は特定の造影剤設定を使用するが、しかし、患者の心臓機能が低い(例えば、低下している)場合には、より遅いボーラス(例えばより遅い注入速度)およびより長く希釈された造影剤を撮像装置1410で設定して、造影剤を患者の特定の場所に確実に提供することを助けることができる構成装置2020によって提供されるより正確な構成設定がなくても、900を超える患者のビューを得ることができる。しかしながら、事前学習を活用することによって、例えば、診断には60の見解しか関与しない可能性がある。特定の例では、システム健全性モジュール1550およびシステム設計エンジン1560を用いて、システムが最適な性能で動作していない場合には、撮像装置1410が正常に動作していなくても収集および/または再構成を調整して診断画像品質を得ることができる。特定の例では、訓練用学習装置2010は、装置2010にそのノード、接続部、重みなどを再評価させるように(例えば、定期的に、および/または結果、データの種類、試験の種類などのイベントトリガに基づいて)摂動することができる。
特定の例では、装置2020への、ならびに/あるいは装置2020からのフィードバックは、入力データ、実際の出力、および望ましい出力を含む記憶装置に取り込まれる(例えば、クラウドベースの記憶などに格納および/またはバッファされる)。十分な量のフィードバックが受信されると、装置1120の訓練学習ネットワーク2010は、受信したフィードバックデータの量に応じて(例えば、元のフィードバックデータと追加のフィードバックデータなどに基づいて)増分的に再訓練されるか、または追加のフィードバックデータを使用して新たに訓練される。したがって、訓練用ネットワーク2010は、時間の経過と共に、撮像装置1410などのユーザおよび/またはサイトの嗜好について学習し、展開済み学習装置2050を再展開することによって、設定、アラート、推奨プロトコルなどの嗜好に反応することができる。
画像再構成の例
上述のように、収集画像データは、機械処理および/または人間による観察のために再構成および/または他の方法で処理することができる。しかしながら、画像データが意図された機械処理および/または人間の読み取りにとって十分な品質でなければ、撮像装置1410による画像収集は成功せず、患者1406にとって有益ではない。
画像品質は医用撮像にとって重要なパラメータである。以前は、空間分解能、時間分解能、低コントラスト検出能などの従来の撮像測定メトリックが、X線CTなどの様々な撮像装置の性能を比較するために医療用撮像業界で広く使用されてきた。最近では、タスクベースの結果の性能にリンクさせることができる画像品質メトリックを再定義することに大きな努力が払われている。しかしながら、複雑な解剖学的構造、対象物に依存する空間分解能、線量に依存する空間分解能、画像テクスチャ、用途依存性、ノイズおよびパターン、人間の視覚系、画像アーチファクト、解剖学的構造に依存する時間分解能、対象物に依存する低コントラスト検出能(LCD)、線量に依存するLCDなどの画像品質に影響を及ぼす多数の要因のために、これらの努力は限定された成功しか収めていない。
特定の例では、反復的な再構成は、多くのメトリックを非線形にし、予測可能性を低くする。例えば、反復的な再構成画像の変調伝達関数(MTF)は、線量依存性と同様に対象物のコントラストに依存する。したがって、例えばCTシステム全体に対して1セットのMTF番号を引用するだけではもはや不十分である。MTFが得られた試験条件を示さなければならない。これは数値を複雑な多次元変数に変換する。
この問題は人間の視覚系によってさらに複雑になる。画像の「品質」の判断は、観察者によって異なる可能性がある。例えば、各放射線科医は過去の経験に基づいて画像の外観に自分の好みを持っている。一部の放射線科医はより粗いノイズテクスチャを好むが、他の放射線科医はより細かいテクスチャを好む。多くの場合、放射線科医は画像内のノイズの存在と画像内の構造の「鮮明さ」を結び付ける。さらに、画像テクスチャは現在数学的に定義することができない。例えば、ノイズパワースペクトル(NPS)の導入など、多くの試みでは、ノイズテクスチャの微妙な違いを区別することができない。
問題の複雑さを考慮して、特定の例は、ディープラーニングおよび/または他のマシンラーニングに基づいて画像品質メトリックを確立するためのシステムおよび方法を提供する。説明のみを目的として、この方法論はX線CT撮像解析と品質メトリックに焦点を当てている。しかしながら、そのような技術は、MR、PET、SPECT、X線、超音波などの他の撮像モダリティに広く適用可能であり得ることを理解されたい。
X線CTでは、画像品質指数(IQI)は、線量などの複数の要因を含み、X線束のレベルなどの環境要因によって影響を受ける可能性がある。一般に、より高いX線線量はより良い画像品質を生み出す。しかしながら、CTは電離放射線を使用するので患者の健康に有害な影響があり、高レベルの放射線被曝はがんの可能性の増加に関連している。したがって、図22のグラフに示すように、患者に提供される線量の関数としてIQIを確立することが望ましい。IQI対線量は臨床応用に依存する可能性があることに留意されたい。例えば、40〜50ミリグレイ(mGy)の放射線を用いて良好な造影剤を用いない頭部画像を生成し、一方、8〜10mGyを用いて良好な腹部および骨盤の画像を生成する。
特定の例では、IQIは、人間が消費するための5段階の尺度に基づいている。他の例では、画像分類の確率値の変化としてコンピュータ解析のために画像品質が生成される。例えば1〜5の尺度で、3は画像が診断可能である(例えば診断品質である)ことを示し、5は完全な画像(例えばおそらく高すぎる線量で)を示し、1はその画像データが診断には使用できないことを示す。その結果、好ましいスコアは3〜4である。DDLD1532は、放射線科医の行動および1〜5の尺度を模倣することによって、収集画像データに基づいてIQIを生成することができる。画像データ属性を使用して、DDLD1532は、画像を解析し、特徴(例えば、小さな病変)を決定し、そして画像データ中の各特徴の診断品質を評価することができる。IQIが低い場合(例えば、1、2など)、DDLD1532は、収集DDLD1522において画像品質を改善する方法に関する提案を提供することができる。IQIが満足のいくものである場合(例えば3、4など)、その画像をユーザ1404(例えば放射線科医など)の読み取りのために推奨することができる。特定の例では、学習および改善ファクトリ1530は、特定のユーザおよび/またはサイトの画像品質の嗜好について経時的に学習することができる。例えば、医師Sは通常4のIQIを持つ画像を見るのが好きである。これを学習すると、学習および改善ファクトリ1530および/または画像品質評価エンジン1572は、4のIQIを達成するためのスキャンプロトコルを提案するか、またはプロトコルが医師SのIQI嗜好を達成しないであろうという警告をトリガすることができる。したがって、再構成学習および改善ファクトリ1530および/または画像品質評価エンジン1572は、IQI決定に基づいて自己学習プロトコルを容易にすることができる(例えば、ファクトリ1530は、ユーザがYのIQIに達するためにプロトコルXを好むことを学習する、など)。
特定の例では、再構成DDLD1532は、特定の値またはクラスに属する変動確率を有するものとして画像をモデル化することができる。例えば、画像は、関連する確率が90%、画像がクラス5に属する確率が9%、および画像がクラス3に属する確率が1%で、クラス4に属するものとして分類することができる。時間の経過に伴うこれらの割合の値を活用して、段階的な変化をより詳細なレベルで統計的に判断することができる。
IQIを生成する従来の方法は成功していないが、少なくともそれらは非線形反復再構成および人間の視覚系の予測不可能な性質を説明することができないので、特定の例は非線形反復再構成および人間の視覚化を説明するIQI生成を提供する。上記のように、ディープラーニングを使用して、入力データおよび所望の出力に基づいてターゲットアルゴリズムを訓練および改良することができる。特定の例は、IQIなどの画像再構成および画像品質メトリックの決定に、ディープラーニングおよび/または他のマシンラーニングを適用する。
ディープラーニングは、階層化アプローチを使用して対象物を認識することによって人間の脳を模倣しようとする。ディープラーニングネットワークが下位層から上位層にナビゲートされるにつれて、より高レベルの特徴セットが抽出され抽象化される。抽出および抽象化は、質問に対する答え、および答えを決定するために使用する重要な「特徴」の識別を提供する。例えば、IQIを決定するために使用される画像特徴は、局所信号対雑音比、マルコフ確率場、スケールおよび空間ベースのガボールウェーブレット分解、フーリエ変換などを含む。これらの特徴は、例えば、ニューラルネットワークを初期化し、自動特徴マップを補足して画像品質のための分類器を生成するために使用することができる。画像は、様々なモダリティの二次元(2D)、三次元(3D)、四次元(4D)、またはn次元(ND)の画像とすることができる。
ディープラーニング入力は、例えば、ラベル付き画像および/またはラベルなし画像を含む。ラベル付き画像は、臨床用途、人体の解剖学的構造、および/または他の重要な属性に基づいて分類することができる。ラベル付き画像もまた画像品質評価を受けており、各ラベル付き画像にIQIを割り当てることができる。ラベル付き画像は、その画像を用いて臨床上の決定を下すための信頼水準に基づいて評価される。例えば、レベル3は画像に基づいて決定を下すのに十分な信頼度を示し、レベル5は画像に基づいて決定を下す際の最高レベルの信頼度を示す。一方、レベル1は、そのような画像が診断に使用できないことを示す。ラベル付き画像は、最初にディープラーニング画像品質アルゴリズムを訓練するために使用される。
図23A〜図23Bは、画像品質ディープラーニングネットワークのための例示的な学習段階および試験/評価段階を示す。図23Aの例に示すように、既知のラベル付き画像2310が畳み込みネットワーク2320に適用される。画像2310は複数のユーザを使用して収集され、それらの画像品質指数は既知である。図1〜図3に関して上述したように、畳み込み2320を入力画像2310に適用して特徴マップを生成し、プーリング2330は画像サイズを縮小して関心のある特徴を含む画像2310の部分2325を分離して完全に接続された層2340を形成する。分類器2350(例えば、ソフトマックス分類器など)は、関心のある特徴を表すノードと重みを関連付ける。分類器2350は、既知の画像品質指数2360を生成するために使用することができる重み付けされた特徴を提供する。特定の例では、平均画像品質指数などの中心的傾向メトリックを、訓練目的のための既知の画像品質指数2360として使用することができる。評価は、例えば個々の画像に対して別々に実行することができる。
図23Aの例では、いくつかの畳み込みカーネル2320によって入力2310を畳み込むことによって、いくつかの特徴マップが作成される。各畳み込みカーネル2320はランダムに初期化され、学習が進むにつれて、ランダムカーネルは「特徴マップ」に収束する。これにはプール層2330が続く。完全に接続された層2340はプール2330によって形成され、追加の畳み込み層およびプール層が任意に追加されてもよい。分類器段階2350は、出力指数2360を決定するための最後の層である。特定の例では、ネットワーク2300の訓練は、確率的勾配法(SGD)を使用してバッチで行われる。
ラベルなし画像は、画像内の特徴を識別し、ラベル付けするためにまだ評価されていない画像である。ラベルなし画像を使用して、図23Aで訓練されたディープラーニングアルゴリズムの性能を試験し、そしてアルゴリズム性能を改良することができる。図23Bの例に示すように、例示的ネットワーク2300はまた、ラベルなし画像2315にも適用することができる。画像品質指数2365を生成し、既知の画像品質指数2360と比較して、ネットワーク2300の開発および信頼性を評価することができる。ネットワーク2300が試験され、画像品質の満足のいく決定要因であることがわかった場合には、ネットワーク2300は、例えば、再構成DDLD1532として展開することができる。
特定のIQIに関連付けられるように画像を分類するのに役立つことがあるいくつかのディープラーニングと他のマシンラーニング技術がある。例えば、ディープコンボリューションネットワークは、ラベル付きデータの可用性、計算上およびメモリ上の制約、パフォーマンス要件などに応じて、いくつかの方法で設定することができる。例示的なディープ畳み込みネットワークの畳み込み層では、初期層は、ノード重みがパラメータ化正規確率変数を使用して初期化される複数の特徴マップを含む。特徴マップの後には第1のプーリング層が続き、それに続いて第2の畳み込み層があり、それに続いて第2のプーリング層が続き、以下同様である。後続のプーリング層および畳み込み層は、構成、複雑さ、データの種類、ターゲット環境などに応じて任意に選択できる。最終層は、ネットワーク内の任意選択を評価するための、例えば、ソフトマックス分類器を使用する分類層である。
特定の例では、分類層に対する重みおよびバイアスは0に設定される。ソフトマックス層からの出力は、合計1までの正数の集合である。言い換えれば、ソフトマックス層からの出力は確率分布として考えることができる。この分布を使用して、ネットワークは所望のハイパーパラメータの値を選択するために使用することができる。図24A〜図24Bは、例示的なディープコンボリューションネットワークのための例示的な学習、検証、および試験段階を示す。
図24Aの例に示すように、多数のラベル付きデータが医療データの収集において利用可能ではない場合には、例示的ネットワーク2400を訓練し、検証し、そして試験することができる。学習段階2410において、ラベル付き画像は教師なし学習層2413(例えば、オートエンコーダなど)に入力2411される。教師なし学習層2413は、入力2411用の特徴空間を初期化する。教師なし学習層2413による処理の後、画像情報は次に畳み込みネットワーク2415の1つまたは複数の教師付き学習層に渡される。上述のように、畳み込み層2415を介して特徴マップを作成し、特徴を縮小することができる。教師付き学習層2415は、ネットワーク2400内の隠れ層であり、逆伝搬を実行する。次に、出力は分類層2417を介して分類され、分類層2417は重みおよびバイアスを解析し、1つまたは複数の画像品質指数2419を生成する。
検証段階2420において、ハイパーパラメータは、ラベルなし画像2421を教師なし学習層2413に入力し、次に畳み込みネットワーク2415の教師付き学習層に入力することによって調整される。分類2417の後、1つまたは複数の画像品質指数2419が生成される。
検証段階2420の間にパラメータを調整した後、試験段階2430は、畳み込みネットワークの学習された層2435を使用して入力ラベルなし画像2431を処理する。分類層2417は画像品質指数2439を生成する。
ラベル付きデータの多くのセットが利用可能である場合には、図24Bの例に示すようにネットワークを訓練し、検証し、試験することができる。学習段階2440において、ラベル付き画像は畳み込みネットワーク2445の1つまたは複数の学習層に入力2441される。上述のように、特徴マップを作成することができ、特徴を畳み込み層2445を介して縮小することができる。次に、出力は分類層2447を介して分類され、分類層2447は重みおよびバイアスを解析し、1つまたは複数の画像品質指数2449を生成する。
検証段階2450では、ラベルなし画像2451を畳み込みネットワーク2445の学習層に入力することによってハイパーパラメータが調整される。分類2447の後、1つまたは複数の画像品質指数2459が生成される。
検証段階2450の間にパラメータを調整した後、試験段階2460は、畳み込みネットワークの学習された層2465を使用して入力ラベルなし画像2461を処理する。分類層2447は画像品質指数2469を生成する。
図24A〜図24Bの例はオートエンコーダおよびディープコンボリューションネットワークを用いて示されているが、ディープ残差ネットワークも同様に例において使用することができる。ディープ残差ネットワークでは、所望の基礎となるマッピングは、ネットワークの積み重ねられた非線形内部層に関して明示的に定義される。フィードフォワードニューラルネットワークを使用して、ディープ残差ネットワークは、ノードを接続するために1つまたは複数の内部層を飛び越えるショートカット接続部を含むことができる。ディープ残差ネットワークは、上述したように、逆伝搬を用いた確率的勾配降下法(SGD)によって端から端まで訓練することができる。
さらに、ディープラーニングネットワークは、運用中の継続的な学習および評価を通じて改善することができる。特定の例では、入力データの前処理と組み合わせたニューラルネットワークの中間層の解析を使用してデータ内の冗長度を決定し、データ生成効率を高めることができる。データの前処理は、主成分解析、ウェーブレット分解、フーリエ分解、整合フィルタ分解などを含むことができるが、これらに限定されない。各前処理は異なる解析を生成することができ、前処理技術は1つまたは複数の既知の条件下でディープラーニングネットワークの構造に基づいて組み合わせることができる。次いで、メタ解析は、(例えば、実行された各前処理機能からの)複数の個々の解析にわたって実行することができる。
特定の例では、ディープラーニングシステムからのフィードバックを使用して入力パラメータ選択を最適化または改善し、それによって入力(例えば画像データ、装置パラメータなど)を処理して出力(例えば画像品質、装置設定など)を生成するのに使用されるディープラーニングネットワークを変更することができる。生データを作成するために入力パラメータのセット全体をスキャンするのではなく、アクティブラーニングのバリエーションを使用して、最良の結果が得られる開始パラメータ空間を選択し、次にパラメータ値をランダムに減少させて画像品質を低下させるが品質値の許容範囲を依然として維持する生入力を生成することができる。値をランダムに減少させると、ネットワーク内の冗長ノード、冗長接続などを排除するなど、画像品質にほとんど影響を与えない入力を処理することによって実行時間を短縮できる。
例えば、複数の入力パラメータを使用して各生データセットを処理し、対応する出力データセットを生成する一方で、処理済み出力データセットを依然として維持するパラメータセット値を減らすために、検索戦略を用いてパラメータ空間をナビゲートする。最初に、データ処理に使用されるパラメータ(例えば、再構成パラメータなど)が決定される。図25Aの例に示すように、訓練済みネットワーク2500を活用して、再構成パラメータの開始パラメータセットまたは初期パラメータセット2510の出力品質(例えば、再構成画像データセットのIQI)を決定し、ベースラインとして使用する。例えば、開始パラメータセット2510は、再構成パラメータParam 0、Param 1、…、Param Nを含む。既知の値(冗長パラメータを含む)から開始して、N個のデータセットについて基準IQIを決定することができる。
目標はパラメータの数を減らすことであるから、停止基準が満たされるまで(例えば、悪い結果をもたらす既知の自明な選択を排除するなど)、パラメータ値は所与の戦略(例えば勾配度合いなど)に従って減少する。パラメータ値セレクタ2504は、検索空間を制限し検索結果を更新する検索方針を決定する。生データセット2506(例えば、データセット0、データセット1、…、データセットN)は再構成2508のために処理されてN個の再構成画像データセット2510を生成する。IQI比較器2512は、各画像データセット2510を処理してパラメータ値セレクタ2504へのフィードバック値を生成する。フィードバック値は、平均パラメータベースのIQIと現在の平均パラメータベースのIQIとの間の視差に基づく。このプロセスは、正規化された空間内の各パラメータに対するパラメータ剪定プロセスの一般的な振る舞いをマップするために、異なるデータセットに対して繰り返される。最小のパラメータ値を提供するセットが識別されるまでプロセスは繰り返され、それは依然として最良の利用可能な解決策として使用することができる許容可能な画像品質を提供する。
図25Bは、展開済みネットワークモデルを使用した画像品質評価およびフィードバックのための例示的なシステム2501を示す。図25Bの例に示すように、収集パラメータ更新器および再始動器2520は、収集エンジン1430に更新を提供する。再構成パラメータ更新器および再始動器2522は、再構成エンジン1440に更新を提供する。オーケストレータ2524は、エンジン2520、2522、および展開モデル2526を有する画像品質評価エンジンの間で調整する。画像品質学習および更新ファクトリ2528は、訓練画像データベース2530から学習して、画像品質評価エンジン2526(例えば、画像品質評価エンジン1572など)と共に展開されるディープラーニングネットワークモデルを訓練する。動作中、展開済みモデル2526を有する画像品質評価エンジンは、例えば、ファクトリ2528の継続的な監視および改善に使用することができる情報を訓練画像データセット2530に提供する。訓練画像データセット2530は、例えば、異なるクラスの例示的な誤差状態を表す画像データを含むことができる。オーケストレータ2524を使用して、収集エンジン1430および/または再構成エンジン1440は、例えば、それぞれ収集パラメータ更新器および再始動器2520、および/または再構成パラメータ更新器および再始動器2522によって更新および再始動することができる。
図25Cは、診断エンジン1450に関連する検出/診断パラメータ更新器および再始動器2532をさらに含む例示的なシステム構成2503を示す。例示的システム2503はまた、展開モデル2534を有する検出/診断評価エンジンを含む。展開モデル2534を有する診断評価エンジンは、訓練画像データベース2530からのデータを活用して検出/診断学習および更新ファクトリ2536から生成される。訓練画像データベース2530は、例えば、異なるクラスの例示的な状態の検出および診断を表すデータを含む。
図25Cの例では、オーケストレータ2524は、エンジン2520、2522、2532、および展開済みモデル2534を有する検出/診断評価エンジンの間で調整を行う。検出/診断学習および更新ファクトリ2535は、訓練画像データベース2530から学習して、検出/診断評価エンジン2534(例えば、診断評価エンジン1574など)と共に展開されるディープラーニングネットワークモデルを訓練する。動作中、展開済みモデル2534を有する検出/診断評価エンジンは、例えば、ファクトリ2534の継続的な監視および改善に使用することができる情報を訓練画像データセット2530に提供する。エンジン2534は、例えばエキスパート2538と連携して動作することができる。オーケストレータ2524を使用して、収集エンジン1430、再構成エンジン1440、および/または診断エンジン1450は、例えば、収集パラメータ更新器および再始動器2520、再構成パラメータ更新器および再始動器2522、ならびに/あるいは検出/診断パラメータ更新器および再始動器2532によってそれぞれ更新および再始動することができる。
特定の例は、ターゲットの収集画像データからタスクベースの画像品質を計算するためにディープラーニングおよび/または他のマシンラーニング技術を利用する。人間は、画像を見ることによって画像品質のレベル(例えば、ノイズ、解像度、一般的な診断品質など)を視覚的に理解することができるので、人工知能または学習方法(例えば人工ニューラルネットワークなどを使用)を訓練して画像品質を評価することができる。画像品質(IQ)は、通常、ワイヤ、線対、および均一領域(例えば、空気、水、他の材料などから形成される)を使用したファントムスキャンに基づいて推定されてきた。これは、人間のオペレータによる物理的ファントムの別個のスキャンと技師および/または放射線科医による読み取りとを必要とし、画像品質を測定するために複数のファントムスキャンを実行することは実際的ではない。さらに、画像品質自体は、スキャンされている対象物または患者に依存し得る。したがって、試験ファントムを用いた画像品質は、実際の患者をスキャンするときに得られる品質を表すものではない可能性がある。最後に、点拡がり関数(PSF)の半値全幅(FWHM)、変調伝達関数(MTF)のカットオフ周波数、線対の最大可視周波数、ノイズの標準偏差などの従来のIQメトリクスは、真のタスクベースの画像品質を反映していない。代わりに、特定の例では、収集した臨床画像から直接IQを推定することが効果的である。特定の例は、学習モデルと呼ばれる、特徴ベースのマシンラーニングまたはディープラーニングアプローチを使用して画像品質を評価する。特定の例では、タスクベースの画像品質(および/または全体的な画像品質指数)は、実際の患者の画像および/または対象物の画像から直接計算することができる。
関心のある既知の画像品質(IQ)を有する画像(例えば、臨床画像)を使用して、学習モデルを訓練することができる。追加の訓練画像は、元の画像を操作することによって(例えば、異なる画像品質を有する訓練画像を得るためにぼかしまたはノイズ挿入などによって)生成することができる。学習モデルが訓練されると、そのモデルを新しい臨床画像に適用して、関心のある画像IQを推定することができる。
例えば、平均、標準偏差、尖度、歪度、エネルギー、モーメント、コントラスト、エントロピーなど、切り取られた生画像データおよびエッジマップ情報などから得られた画像入力特徴は、マシンラーニングシステムのためのトレーニングセットを形成するために、空間解像度レベル、空間解像度値などの1つまたは複数のラベルと組み合わされる。マシンラーニングネットワークは、訓練セットを使用して訓練モデルを形成し、そのモデルを画像データの試験セットから得られた特徴に適用する。その結果、マシンラーニングネットワークは、訓練モデル情報に基づいて推定空間分解能(例えば、レベルおよび/または値)を出力する。
特定の例では、回帰および/または分類方法を使用して、訓練データを対応する画像IQメトリックの絶対値および/またはレベルでラベル付けすることによって画像品質メトリックを生成することができる。すなわち、メトリックは、画像品質の定量的尺度(例えば、ノイズレベル、検出可能性など)、画像品質の記述的尺度(例えば、リッカートスコアなど)、画像品質の分類(例えば、画像が診断的であるかどうか、アーチファクトがあるかどうかなど)、および/または画像品質の全体的な指標(例えば、IQI)を含むことができる。
特徴ベースのマシンラーニング手法では、モデル訓練への入力は、訓練画像データセットから抽出された特徴を含む。特徴選択は、関心のある画像IQに合わせて調整することができる。特徴は、強度値のヒストグラムに基づく特徴(例えば、平均、標準偏差、歪度、尖度、エネルギー、エネルギー、コントラスト、モーメント、エントロピーなど)を含むが、これらに限定されない。これらの特徴は、生の画像データから計算することができ、および/または局所強調および/または他の画像操作および/または変換のために画像に差分フィルタを適用した後に抽出することができる。これらの特徴は、画像全体、トリミング画像、および/または1つまたは複数の関心領域(ROI)から計算することができる。隣接行列(Mahotas Haralickなど)に基づくグローバルおよび/またはローカルテクスチャ特徴も含めることができる。
ディープラーニング(例えば、畳み込みニューラルネットワーク)ベースのアプローチでは、一組の特徴を定義する必要はない。DLNは、訓練データセットの解析に基づいて特徴自体を識別する。特定の例では、特徴が入力の一部として識別されている特徴ベースのマシンラーニングアプローチを用いるよりも多くのデータが訓練に関与している(特徴が識別されていない場合)。
したがって、特定の例では、入力は、完全な画像、トリミングされた画像(例えば、関心領域にトリミングされた)、画像パッチなどを含むことができる。画像パッチを用いると、より小さな画像パッチを使用して局所的に画像品質を評価することができ、画像の画像品質マップを生成することができる。定量的画像IQ、例えば空間分解能、ノイズレベル、および/またはタスクベースのIQメトリクス(例えば、検出能など)などのメトリクスは、臨床画像から直接抽出することができる。放射線量を減らすか最小限に抑えながらリアルタイム(あるいは処理、記憶、および/またはデータ伝送レイテンシがある場合には実質的にリアルタイム)でスキャン技術および再構成を改善または最適化するために、および/または診断などを助けるために臨床医に定量化された画像IQを提供するために、画像を収集する間に、撮像技術(例えば、ハードウェアおよび/またはアルゴリズム)を比較するなどのために、画像品質評価が実行されるかまたは望まれる任意の状況において特定の例を適用することができる。提案された技術は、MRI、PET、SPECT、X線、トモシンセシス、超音波などのCTの例の間の他の撮像モダリティに適用することができる。
したがって、(例えば、画像解像度などにおける)変動の原因を識別し、変動を考慮して画像を再構成することによって、標準化変換は、マシンラーニングネットワークによって作成され、改良され、そして(例えば、再構成エンジン1430および関連するDDLD1532を使用して)画像再構成に適用することができる。画像属性が計算される場合には、再較正変換が開発され、改良され、そして画像属性を計算するために適用され得る。解析は臨床医に提供され、ラーニングネットワークを使用して画像解像度を評価するために使用することができる。
例えば、データセットがボリューム当たり224個の画像を有する9つの心臓ボリュームを含むと仮定する。ガウスぼかしを画像に適用して、4つの追加の解像度レベルで画像を生成する。合計サンプルサイズは、224*5*9=10080である。生の画像データから7つの特徴が抽出され、画像のエッジマップから8つの特徴が抽出される。サンプルを訓練セット(70%)と試験セット(30%)に分割することで交差検定が容易になり、ランダムフォレスト回帰が使用された。
結果が生成され、(マシンラーニングを使用して)推定された誤差または分布と実際の(測定された)誤差または分布との間で対比された。例えば、図26は、推定されたFWHM(ミリメートル単位)と真のFWHMとの比較を示す。図27は、真のFWHM分布の一例を示す。図28は、推定されたFWHM分布の一例を示す。図29は、PSFのFWHMにおける例示的な推定された誤差(例えば、推定されたFWHM−真のFWHM(mm))を示す。図30は、例示的なデータセットからの特徴の重要度の例示的な比較を示す。図30の例示的なグラフは、特徴指数によって特徴の重要度を構成する。生画像データからの特徴は、0:平均、1:尖度、2:歪度、3:エネルギー、4:モーメント、5:コントラスト、6:エントロピーを含む。エッジマップからの特徴は、7:平均、8:標準偏差、9:尖度、10:歪度、11:エネルギー、12:モーメント、13:コントラスト、14:エントロピーを含む。例示的なデータから示すように、マシンラーニングは臨床データセットから空間分解能を推定するための合理的な結果をもたらす。さらに、エッジマップのエントロピーは、生画像のエントロピーと同様に、空間解像度を推定するための重要な特徴であることが示されている。
さらなる使用事例は、肺結節/石灰化または小構造検出および肺がん検出のための解析を含むことができる。変動源は、ノイズ(例えば、mA、ピークキロボルト電圧(kVp)、患者のサイズなど)、解像度(例えば、再構成カーネルの種類、厚さ、ピクセルサイズなど)、呼吸運動および心臓運動(例えば、回転速度および患者のコンプライアンスなど)、ブルーミングアーチファクト(例えば、再構成方法、部分体積、動きなど)を含むことができる。結果への影響には、過小評価および見落とされた構造につながる体積および密度の測定誤差が含まれる可能性がある。別の使用事例は、冠状動脈疾患(CAD)を診断するための心臓灌流解析を含むことができる。変動源は、患者の生理機能(例えば、交差する患者と同じ患者、小さいダイナミックレンジなど)、ビーム硬化アーチファクト(患者の取り込み、ボーラスタイミングなど)、心臓の動き、コントラストプーリングなどを含むことができる。結果への影響は、誤った灌流マップ(例えば、灌流障害の見逃しまたは灌流障害の誤った診断など)を含むことができる。別の使用事例は、がん検出のための肝病変/小さな暗い構造を含むことができる。変動源は、ノイズ(例えば、mA、kVp、患者サイズなど)、解像度(例えば、再構成カーネルの種類、厚さ、ピクセルサイズなど)、構造化ノイズ(例えば、ストリーク、パターン、テクスチャなど)、シャドウイングアーチファクト(例えば、骨、肋骨、脊椎再構成アーチファクトなど)、動きなどを含むことができる。結果への影響は、コントラストの検出性が低いために病変の見落としや誤った診断を含むことができる。
別の使用事例は冠状動脈/血管撮像を含むことができる。変動源は、ストリークまたはブルーミングアーチファクト(例えば、再構成方法、部分体積、動きなど)、ノイズ(例えば、mA、kVp、患者サイズなど)、解像度などを含むことができる。結果への影響は、内腔の解析が必要な場合に、ノイズと分解能がより大きな影響を与えることを含むことができる。
別の使用事例は、脳卒中に対する脳灌流を含むことができる。変動源は、骨からのシャドウイングアーチファクト、小さな生理学的変化(例えば、ダイナミックレンジが小さいなど)、構造化ノイズ(例えば、再構成方法など)などを含むことができる。結果への影響は、誤った灌流マップ(例えば、灌流障害の見逃しまたは灌流障害の誤った診断など)などを含むことができる。
別の使用事例は、慢性閉塞性肺疾患(COPD)および/または他の肺疾患(例えば、じん肺など)の診断および分類(例えば、胸部VCAR)などを含むことができる。変動源は、ノイズ(例えば、mA、kVp、患者のサイズ、スライスの厚さなど)、解像度(例えば、カーネル、ピクセルサイズ、厚さのサイズなど)、コントラスト(例えば、ヨウ素など)、患者の生理学(例えば、スキャン中の肺容量、画像などから測定することができる)、呼吸の動きなどを含むことができる。結果への影響は、測定誤差(例えば、気道の直径/周囲、内腔の狭小化の過小評価、壁の肥厚の過大評価など)などを含むことができる。
別の使用事例は、肝脂肪の定量化(例えば、脂肪症の等級付け、肝硬変の病期分類など)を含むことができる。変動源は、ノイズ(例えば、mA、kVp、患者サイズなど)、解像度(例えば、再構成カーネルの種類、厚さ、ピクセルサイズなど)、構造化ノイズ(例えば、ストリーク、パターン、テクスチャなど)、シャドウイングアーチファクト(例えば、肋骨、脊椎再構成アーチファクトなど)などを含むことができる。結果への影響は、測定誤差やステージミスなどを含むことができる。別の使用事例は、他の臓器(例えば腎臓移植片など)または臓器内の塊(例えば嚢胞または結石など)などの体積/サイズの定量化を含むことができる。
図31Aは、画像再構成のための例示的な方法3100の流れ図である。ブロック3102では、画像データが収集エンジン1430から受け取られる。例えば、再構成エンジン1440は、収集エンジン1430を介して撮像装置1410から画像を受け取る。ブロック3104では、画像データが前処理される。例えば、DDLD1532は、収集画像データから人間が見ることができる画像および/または機械可読画像を生成するかどうかなど、1つまたは複数の設定またはパラメータに従って画像データを前処理する。例えば、再構成DDLD1532は、ノイズの多いデータを変換して高品質のデータを生成するために、(例えば、学習および改善ファクトリ1530内のDLNをノイズのあるおよびノイズのない画像対の複数の例について訓練することによって)ノイズ低減アルゴリズムを置き換えるように訓練済みネットワークと共に展開され得る。
上述のように、機械可読画像は人間が見るためにフォーマットされる必要はないが、その代わりに機械解析(例えばコンピュータ支援診断など)のために処理することができる。逆に、人間が見ることのできる画像は、放射線科医および/または他の人間のユーザ1404がその画像を読んで評価する(例えば放射線読影を実行する)ことができるように、特徴を明確にすべきである(例えば十分な解像度およびノイズの低減など)。DDLD1532は、例えば、再構成前に画像データを評価し、再構成設定を決定することができる。再構成および/または他の処理パラメータは、人間が見ることができる画像および/または機械可読の画像についてDDLD1532によって決定することができる。
ブロック3106では、再構成設定を評価して、人間が見ることのできる画像および/または機械可読画像を生成するかどうかを決定する。いくつかの例では、ユーザ1404が閲覧できるように、人間が見ることのできる画像だけが生成されるべきである。いくつかの例では、例えば、診断エンジン1450による自動評価のために、機械処理可能な画像データのみが生成されるべきである。いくつかの例では、人間が見ることのできる画像データと機械処理可能な画像データの両方が提供されるべきである。
人間が見ることのできる画像が所望される場合には、次にブロック3108で、人間が見るため(例えば、放射線科医の読み取り)の画像データを使用して画像が再構成される。例えば、生データを取り込んで画像を生成する計算集約的な反復再構成アルゴリズムを使用するのではなく、再構成エンジン1440およびDDLD1532(例えば、生画像データと再構成画像対の複数の例について訓練された)が生画像データを処理して、反復アルゴリズムと同等または同等に近い品質の1つまたは複数の再構成画像を生成することができる。さらに、上述のように、DDLD1532は、例えば、ノイズの多いデータをより高品質の画像データに変換することができる。さらに、DDLD1532は、画像データを調整し、撮像装置1410の検出器の視野(FOV)外の画像を再構成するための「ワイドビュー」を提供するために使用することができる。検出器の外側のデータを推定するために方程式を使用するのではなく、DDLD1532は訓練データセットから学習したことに基づいてギャップを埋めることができる。機械可読画像データが望まれる場合には、ブロック3110で、画像データが機械解析のために処理される。DDLD1532は、例えば、ノイズを除去し、視野を拡大するなどのために画像データを処理することができる。
ブロック3112では、再構成画像が解析される。例えば、画像は、品質、IQI、データ品質指数、他の画像品質メトリックなどについてDDLD1532によって解析される。DDLD1532は、再構成画像の内容(例えば、識別された特徴、解像度、ノイズなど)から学習し、(例えば、同じ患者1406、同じ種類などについての)以前の再構成画像と比較する。ブロック3114では、再構成された画像は診断エンジン1450に送られる。画像は、例えば、患者1406の診断を容易にするために診断エンジン1450およびそのDDLD1542によって表示および/またはさらに処理することができる。
同様に、ブロック3116では、処理された画像データが解析される。例えば、画像データは、品質、IQI、データ品質指数、他の画像品質メトリックなどについてDDLD1532によって解析される。DDLD1532は、機械処理可能な画像データ(例えば、識別された特徴、解像度、ノイズなど)の内容から学習し、(例えば、同じ患者1406、同じ種類などについての)以前の画像データおよび/または再構成画像と比較する。ブロック3118では、処理された画像データは診断エンジン1450に送られる。画像データは、例えば、患者1406の診断を容易にするために診断エンジン1450およびそのDDLD1542によってさらに処理することができる。例えば、機械可読画像データは、他の患者情報(例えば、病歴、検査結果、2D/3Dスカウト画像など)と共に診断エンジン1450に提供することができ、これは、患者1406を診断する際にユーザ1404を支援するための出力を生成する(例えば、放射線科医が画像を読むのを助けるための支援文書を作成するなど)ために一緒に処理することができる。
図31Bは、画像再構成のための図31Aの例示的な方法3100の特定の実施態様におけるブロック3112、3116に関するさらなる詳細を示す。図31Bの例示的な方法は、例示的な方法3100におけるブロック3112、3116の一方または両方によってトリガすることができる。
ブロック3120では、画像/画像データは、収集された画像が良質な画像であるかどうかを決定するために解析される。収集画像データが「良質な」画像を表すかどうかを判断するために、データを1つまたは複数のしきい値、値、設定などと比較することができる。上述のように、患者1406の診断のためのデータの信頼性および/または有用性を表すために、IQI、他のデータ品質指数、検出能指数、診断指数などを生成することができる。IQIは、診断のために放射線科医にとって画像の許容性の尺度(例えば、リッカート尺度など)を取り込む。例えば、解像度画像品質、ノイズ画像品質、生検データ品質、および/または他のデータ品質メトリックなどの他の指標を、診断のための画像データの適合性を表すために組み込むことができる。例えば、タスク特有のデータ品質指数は、機械指向解析のための収集画像データの品質を表すことができる。
ブロック3122では、収集および処理された画像および/または画像データが十分な品質ではない場合には、再構成DDLD1532は、収集された画像データが解析および診断に十分な品質ではないことを示すフィードバックを収集学習および改善ファクトリ1520に送る。このようにして、ファクトリ1520は、異なる状況に対して画像収集設定を学習し改善し続け、DDLD1522を再展開するためのネットワークモデルを生成することができる。ブロック3124では、収集エンジン1430は、(例えば、ブロック3102において)撮像装置1410を介して患者1406からの画像データの再収集をトリガする。したがって、再構成DDLD1532および収集DDLD1522は、患者1406が依然としてテーブルの上にいる間、または少なくとも撮像装置1410の近くにいる間に、撮像パラメータを変更して画像データを再収集するように協働することができ、それにより、患者1406およびスタッフへの苦労ならびに機器のスケジューリングが軽減される。
ブロック3126では、画像/画像データ品質がしきい値を満たす場合には、画像品質が評価されて、品質が高すぎるかどうかが判定され得る。高すぎる画像品質(例えば、「完全な」画像を示す5のIQIなど)は、画像データを収集するときに患者1406が多すぎる放射線に曝されたことを示すことができる。例えば、3または4の画像品質が、ユーザ1404および/または診断エンジン1450による診断読み取りに十分である場合には、5の画像品質は必要ではない。画像品質が高すぎる場合には、ブロック3128では、再構成DDLD1532から収集学習および改善ファクトリ1520にフィードバックが提供されて、将来の画像収集のために撮像装置1410の線量/強度設定を調整する(例えば、特定の種類、その患者のためなど)。次いで、プロセスはブロック3114および/または3118に続き、再構成された画像(ブロック3114)および/または処理された画像データ(ブロック3118)を処理および精査のために診断エンジン1450に提供する。
図1〜図31Bと関連して例示的な実施態様が示されているが、図1〜図31Bに関連して示される要素、プロセス、および/または装置は、他の方法で組み合わせること、分割すること、再配置すること、省略すること、排除すること、および/または実現することができる。さらに、本明細書に開示され説明される構成要素は、ハードウェア、機械可読命令、ソフトウェア、ファームウェア、ならびに/もしくはハードウェア、機械可読命令、ソフトウェアおよび/またはファームウェアの任意の組み合わせによって実現することができる。したがって、例えば、本明細書で開示および説明する構成要素は、アナログおよび/またはデジタル回路、論理回路、プログラム可能プロセッサ、特定用途向け集積回路(ASIC)、プログラマブル論理装置(PLD)、および/またはフィールドプログラマブル論理装置(FPLD)によって実現することができる。純粋にソフトウェアおよび/またはファームウェアの実施態様をカバーするために、この特許の装置またはシステムクレームのいずれかを読む場合、構成要素の少なくとも1つは、ソフトウェアおよび/またはファームウェアを記憶する、メモリ、デジタル多用途ディスク(DVD)、コンパクトディスク(CD)、ブルーレイディスクなどの有形のコンピュータ可読記憶装置または記憶ディスクを含むように本明細書によって明確に定義される。
本明細書で開示および説明した構成要素を実施するための例示的な機械可読命令を表すフローチャートを、少なくとも図8C、図8D、図12、図13、図16、図17、図19、図21、図31A、および図31Bと併せて示す。本例において、機械可読命令は、図32に関連して以下で説明する例示的プロセッサプラットフォーム3200に示されるプロセッサ3212などのプロセッサによって実行するためのプログラムを含む。本プログラムは、CD−ROM、フロッピーディスク、ハードドライブ、デジタル多用途ディスク(DVD)、ブルーレイディスク、またはプロセッサ3212と関連するメモリなどの有形のコンピュータ可読記憶媒体に記憶された機械可読命令で実施することができるが、あるいは、プログラム全体および/またはその一部を、プロセッサ3212以外の装置によって実行すること、および/またはファームウェアもしくは専用ハードウェアで実施することも可能である。さらに、例示的なプログラムは、少なくとも図8C、図8D、図12、図13、図16、図17、図19、図21、図31A、および図31Bに関連して示されたフローチャートを参照しながら説明したが、本明細書に開示され記載されている構成要素を実施する他の多くの方法を代わりに使用することができる。例えば、ブロックの実行順序を変更してもよく、記載されたブロックのいくつかを変更したり、削除したり、組み合わせたりしてもよい。少なくとも図8C、図8D、図12、図13、図16、図17、図19、図21、図31A、および図31Bのフローチャートは例示的な動作を図示の順序で示しているが、これらの動作は網羅的なものではなく、示された順序に限定されない。さらに、本開示の精神および範囲内で、当業者によって様々な変更および修正がなされてもよい。例えば、フローチャートに示されるブロックは、別の順序で実行してもよいし、並列に実行してもよい。
上述したように、少なくとも図8C、図8D、図12、図13、図16、図17、図19、図21、図31A、および図31Bの例示的なプロセスは、ハードディスクドライブ、フラッシュメモリ、読み取り専用メモリ(ROM)、コンパクトディスク(CD)、デジタル多用途ディスク(DVD)、キャッシュ、ランダムアクセスメモリ(RAM)、および/または他の任意の記憶装置もしくは情報が任意の期間(例えば、長期間、恒久的、短時間、一時的にバッファリングする間、および/または情報をキャッシュする間)で記憶されている記憶ディスクなどの有形のコンピュータ可読記憶媒体に記憶されるコード化された命令(例えば、コンピュータおよび/または機械可読命令)を使用して実施することができる。本明細書で使用される場合、有形のコンピュータ可読記憶媒体という用語は、任意の種類のコンピュータ可読記憶装置および/または記憶ディスクを含み、伝搬する信号を排除し、伝送媒体を排除するように明示的に定義される。本明細書で使用される場合、「有形のコンピュータ可読記憶媒体」および「有形の機械可読記憶媒体」は互換的に使用される。それに加えてまたはその代わりに、少なくとも図8C、図8D、図12、図13、図16、図17、図19、図21、図31A、および図31Bの例示的なプロセスは、ハードディスクドライブ、フラッシュメモリ、読み取り専用メモリ、コンパクトディスク、デジタル多用途ディスク、キャッシュ、ランダムアクセスメモリ、および/または他の任意の記憶装置もしくは情報が任意の期間(例えば、長期間、恒久的、短時間、一時的にバッファリングする間、および/または情報をキャッシュする間)で記憶されている記憶ディスクなどの非一時的コンピュータおよび/または機械可読媒体に記憶されるコード化された命令(例えば、コンピュータおよび/または機械可読命令)を使用して実施することができる。本明細書で使用される場合、非一時的コンピュータ可読媒体という用語は、任意の種類のコンピュータ可読記憶装置および/または記憶ディスクを含み、伝搬する信号を排除し、伝送媒体を排除するように明示的に定義される。本明細書で使用される場合、「少なくとも」という句が、請求項の前文における遷移用語として使用される場合、「備える(comprising)」という用語がオープンエンドであるのと同様にオープンエンドである。さらに、「含む(including)」という用語は、「備える(comprising)」という用語がオープンエンドであるのと同様にオープンエンドである。
図32は、少なくとも図8C、図8D、図12、図13、図16、図17、図19、図21、図31A、および図31Bの命令を実行するように構成された例示的なプロセッサプラットフォーム3200のブロック図であり、本明細書で開示および説明する例示的な構成要素を実施する。プロセッサプラットフォーム3200は、例えば、サーバ、パーソナルコンピュータ、モバイル装置(例えば、携帯電話、スマートフォン、iPad(登録商標)などのタブレット)、パーソナルデジタルアシスタント(PDA)、インターネットアプライアンス、または任意の他の種類のコンピューティングデバイスとすることができる。
図示する例のプロセッサプラットフォーム3200は、プロセッサ3212を含む。図示する例のプロセッサ3212はハードウェアである。例えば、プロセッサ3212は、任意の所望のファミリまたは製造業者からの集積回路、論理回路、マイクロプロセッサ、またはコントローラによって実現することができる。
図示する例のプロセッサ3212は、ローカルメモリ3213(例えば、キャッシュ)を含む。図32の例示的なプロセッサ3212は、少なくとも図8C、図8D、図12、図13、図16、図17、図19、図21、図31A、および図31Bの命令を実行して学習および改善ファクトリ1520、1530、1540、1555および/または情報サブシステム1420、収集エンジン1430、再構成エンジン1440、診断エンジン1450などの他の構成要素を実施する。図示する例のプロセッサ3212は、バス3218を介して揮発性メモリ3214および不揮発性メモリ3216を含む主メモリと通信する。揮発性メモリ3214は、同期ダイナミックランダムアクセスメモリ(SDRAM)、ダイナミックランダムアクセスメモリ(DRAM)、RAMBUSダイナミックランダムアクセスメモリ(RDRAM)、および/または任意の他の種類のランダムアクセスメモリ装置によって実現することができる。不揮発性メモリ3216は、フラッシュメモリおよび/または任意の他の所望の種類のメモリ装置によって実現することができる。主メモリ3214、3216へのアクセスは、クロックコントローラによって制御される。
図示する例のプロセッサプラットフォーム3200はまた、インターフェース回路3220を含む。インターフェース回路3220は、イーサネット(登録商標)インターフェース、ユニバーサルシリアルバス(USB)、および/またはPCIエクスプレスインターフェースなどの任意の種類のインターフェース規格によって実現することができる。
図示する例では、1つまたは複数の入力装置3222がインターフェース回路3220に接続される。入力装置3222は、ユーザがデータおよびコマンドをプロセッサ3212に入力することを可能にする。入力装置は、例えば、センサ、マイクロホン、カメラ(静止画または動画)、キーボード、ボタン、マウス、タッチスクリーン、トラックパッド、トラックボール、アイソポイント、および/または音声認識システムによって実現することができる。
1つまたは複数の出力装置3224もまた、図示する例のインターフェース回路3220に接続される。出力装置3224は、例えば、ディスプレイ装置(例えば、発光ダイオード(LED)、有機発光ダイオード(OLED)、液晶ディスプレイ、陰極線管ディスプレイ(CRT)、タッチスクリーン、触覚出力装置、および/またはスピーカ)によって実現することができる。したがって、図示する例のインターフェース回路3220は、通常、グラフィックスドライバカード、グラフィックスドライバチップ、またはグラフィックスドライバプロセッサを含む。
図示する例のインターフェース回路3220はまた、ネットワーク3226(例えば、イーサネット(登録商標)接続、デジタル加入者回線(DSL)、電話回線、同軸ケーブル、携帯電話システムなど)を介した外部装置(例えば、任意の種類のコンピューティングデバイス)とのデータのやり取りを容易にするために、送信器、受信器、トランシーバ、モデム、および/またはネットワークインターフェースカードなどの通信装置を含む。
図示する例のプロセッサプラットフォーム3200は、ソフトウェアおよび/またはデータを記憶するための1つまたは複数の大容量記憶装置3228も含む。そのような大容量記憶装置3228の例には、フロッピーディスクドライブ、ハードドライブディスク、コンパクトディスクドライブ、ブルーレイディスクドライブ、RAIDシステム、およびデジタル多用途ディスク(DVD)ドライブが含まれる。
図32のコード化された命令3232は、大容量記憶装置3228、揮発性メモリ3214、不揮発性メモリ3216、および/またはCDもしくはDVDなどの取り外し可能な有形コンピュータ可読記憶媒体に記憶することができる。
上記から、複数のディープラーニングおよび/または他のマシンラーニング技術を使用して、撮像および/または他のヘルスケアシステムの動作を監視、処理、および改善するために、上記した開示の方法、装置、および製品が開示されていることが理解されよう。
上記の方法、装置、および製品は、様々なヘルスケアおよび非ヘルスケアシステムに適用することができる。1つの特定の例では、上記の方法、装置、および製品は、CT撮像システムの構成要素、構成、および動作に適用することができる。図33〜図34は、本明細書に開示される方法、装置、および製品を適用することができるCT撮像スキャナとしての撮像装置1410の例示的な実施態様を示す。図33および図34は、ガントリ12を含むコンピュータ断層撮影(CT)撮像システム10を示す。ガントリ12は、回転部材13を有し、回転部材13は、回転部材13の反対側の検出器アセンブリ18に向けてX線ビーム16を投影するX線源14を有する。主ベアリングを利用して、回転部材13をガントリ12の静止構造に取り付けることができる。X線源14は、静止ターゲットまたは回転ターゲットのいずれかを含む。検出器アセンブリ18は、複数の検出器20およびデータ収集システム(DAS)22によって形成され、コリメータを含むことができる。複数の検出器20は、被検体24を通過する投影されたX線を感知し、DAS22は、その後の処理のためにそのデータをデジタル信号に変換する。各検出器20は、衝突するX線ビームの強度を表すアナログまたはデジタルの電気信号を生成し、したがって、被検体24を通過する場合に減衰ビームを生成する。X線投影データを収集するためのスキャン中、回転部材13および回転部材13に取り付けられた構成要素は、回転中心の周りを回転することができる。
回転部材13の回転およびX線源14の動作は、CTシステム10の制御機構26によって制御される。制御機構26は、X線源14に電力およびタイミング信号を供給するX線コントローラ28およびジェネレータ30と、回転部材13の回転速度および位置を制御するガントリモータコントローラ32とを含むことができる。画像再構成器34は、DAS22からサンプリングされデジタル化されたX線データを受け取り、高速画像再構成を実行する。再構成された画像はコンピュータ36に出力され、コンピュータ36はその画像をコンピュータ記憶装置38に格納する。
コンピュータ36はまた、キーボード、マウス、タッチセンシティブコントローラ、音声起動コントローラ、または任意の他の適切な入力装置などの何らかの形式のオペレータインターフェースを有するオペレータコンソール40を介してオペレータからコマンドおよび走査パラメータを受信する。ディスプレイ42は、オペレータがコンピュータ36からの再構成された画像および他のデータを観察することを可能にする。オペレータが供給したコマンドおよびパラメータは、制御信号および情報をDAS22、X線コントローラ28、およびガントリモータコントローラ32に提供するためにコンピュータ36によって使用される。さらに、コンピュータ36は、被検体24およびガントリ12を位置決めするために電動テーブル46を制御するテーブルモータコントローラ44を動作させる。特に、テーブル46は、ガントリ開口部48またはボアを通って被検体24を全体的または部分的に移動させる。座標系50は、被検体24が開口部48の内外に移動する患者またはZ軸52と、検出器アセンブリ18が通過するガントリ円周またはX軸54と、X線管14の焦点から検出器アセンブリ18への方向に沿って通るY軸56とを定義する。
したがって、特定の例では、ディープラーニングおよび/またはマシンラーニング技術を、CTスキャナ10およびそのガントリ12、回転部材13、X線源14、検出器アセンブリ18、制御機構26、画像再構成器34、コンピュータ36、オペレータコンソール40、ディスプレイ42、テーブルコントローラ44、テーブル46、および/またはガントリ開口部48などの構成、設計、および/または動作に適用することができる。構成要素の構成、動作、構造を入力、所望の出力、実際の出力などに基づいて監視して、例えば、スキャナ10および/またはその構成要素の構成、動作、および/または構造に対する変更を学習および提案することができる。
本明細書では、特定の例示的な方法、装置、および製品について説明したが、本特許の適用範囲はこれに限定されない。対照的に、この特許は、本特許請求の範囲内に相当するすべての方法、装置および製品を対象とする。
10 コンピュータ断層撮影(CT)撮像システム
12 ガントリ
13 回転部材
14 X線源
16 X線ビーム
18 検出器アセンブリ
20 検出器
24 被検体
26 制御機構
28 X線コントローラ
30 ジェネレータ
32 ガントリモータコントローラ
34 画像再構成器
36 コンピュータ
38 コンピュータ記憶装置
40 オペレータコンソール
42 ディスプレイ
44 テーブルモータコントローラ
46 電動テーブル
48 ガントリ開口部
50 座標系
52 Z軸
54 X軸
56 Y軸
100 ディープラーニングニューラルネットワーク
110〜116 入力
120 第1層
122〜126 入力ノード
130 ニューラル接続部
132 接続部
134 接続部
140 第2層
142〜148 ノード
150 ニューラル接続部
152 接続部
154 接続部
160 第3層
162〜168 ノード
170 ニューラル接続部
172 接続部
174 接続部
180 出力層
182 出力ノード
190 出力
200 畳み込みニューラルネットワーク
204 畳み込み
206 特徴マップ
210 特徴マップ
212 畳み込み
214 特徴マップ
216 サブサンプリング
218 特徴マップ
220 畳み込み
222 畳み込み層
224 N個のカテゴリ
226 接続部
300 画像解析畳み込みニューラルネットワーク
302 入力画像
304 畳み込み層
310〜322 特徴
330 第2の畳み込み層
331〜348 画像
350〜354 出力
400 構成
405 ネットワーク
410 生画像データ
420〜423 ディープラーニングネットワーク
430 画像
440 再構成エンジン
450 診断エンジン
502 入力
504 訓練用ネットワーク
506 順方向
508 ネットワーク結果
512 既知の結果
514 誤差
516 後方パス
520 単一入力
522 展開済みディープラーニングネットワーク
524 出力
610 入力データ
620 前処理
630 作成
640 訓練済みネットワーク
650 アセンブル
660 表示
700 ディープラーニング装置
701 訓練用ディープラーニングネットワーク装置
703 展開済みディープラーニングネットワーク装置
710 入力定義
711 訓練入力
713 入力定義
720 ディープラーニングネットワークモデル
721 ネットワーク
723 訓練済みネットワーク
730 出力定義
731 出力評価器
733 出力定義
800 改善ファクトリ
801 改善ファクトリ
802 モデル評価器
803 改善ファクトリ
804 モデル展開モジュール
805 改善ファクトリ
806 ディープラーニング装置ジェネレータ
808 フィードバックコレクタ
810 フィードバック記憶装置
812 再訓練イニシエータ
814 再訓練データセレクタ
820 方法
902 データファクトリ
904 データスキーマ
906 キュレーションツール
908 バルクデータ取り込み部
910 データ選択/フィルタ
912 連続データ取り込み部
914 データカタログ/レイク
916 アプリケーションファクトリ
918 ビューア
920 アプリケーションサービス
922 アプリケーションパイプラインカタログ
924 ラーニングファクトリ
926 モデルカタログ
928 データサイエンス
930 アーキテクチャカタログ
932 データ準備
934 結果/報告
936 訓練および検証
938 試験
1000 医療装置エコシステム
1002 内部展開
1004 外部展開
1006 デジタルファクトリ
1008 デジタルモデル
1010 装置
1012 装置
1014 装置
1016 装置
1100 構成
1102 装置コントローラ
1104 検出器
1106 線源
1108 患者
1110 スキャンコンテキスト
1112 スキャナデータ
1114 収集エンジン
1116 再構成エンジン
1118 閲覧
1120 画像収集構成装置
1122 臨床ワークフロー
1124 解析および意思決定支援
1200 方法
1202 データ取り込み部
1204 編成
1206 データ処理
1208 展開
1302 オンプレミスデータソース
1306 データカタログ/レイク
1310 データビューア
1318 データ準備
1320 データ準備ツール
1326 AIカタログ
1330 訓練
1400 ヘルスケアシステム
1401 撮像システム
1402 人間
1404 ユーザ
1406 患者
1410 撮像装置
1420 情報サブシステム
1430 収集エンジン
1440 再構成エンジン
1450 診断エンジン
1500 ヘルスケアシステム
1501 システム実施態様
1520 デジタルファクトリ
1522 展開済みディープラーニングネットワーク装置
1530 改善ファクトリ
1532 展開済みディープラーニングネットワーク装置
1540 改善ファクトリ
1542 展開済みディープラーニングネットワーク装置
1550 システム健全性モジュール
1552 展開済みディープラーニングネットワーク装置
1555 改善ファクトリ
1560 システム設計エンジン
1561 入力フォーマッタ
1563 モデルプロセッサ
1565 訓練用ディープラーニングネットワークモデル
1569 出力ジェネレータ
1570 データ品質評価エンジン
1572 画像品質評価エンジン
1574 診断評価エンジン
1580 システムデジタルモデルライブラリ
1581 収集デジタルモデル
1583 再構成デジタルモデル
1585 診断デジタルモデル
1587 複合システムデジタルモデル
1600 方法
1700 情報
1702 第1のデータ
1704 第2のデータ
1706 第3のデータ
1708 第4のデータ
1710 第5のデータ
1712 第6のデータ
1714 第7のデータ
1716 第8のデータ
1718 第9のデータ
1720 第10のデータ
1800 ヘルスケア解析フレームワーク
1810 物理ベースの装置比較
1820 データ評価仕様
1822 再構成画像
1824 生画像データ
1826 画像品質評価メトリクス
1828 伝達関数
1830 結果プロセッサ
1900 方法
2000 画像収集構成システム
2010 訓練用学習装置
2020 画像収集構成装置
2030 プロセッサ
2040 メモリ
2050 展開済みディープラーニング装置
2100 方法
2300 ネットワーク
2310 入力画像
2320 畳み込みネットワーク
2330 プール層
2340 完全に接続された層
2350 分類器段階
2360 既知の画像品質指数
2365 画像品質指数
2400 ネットワーク
2410 学習段階
2411 入力
2413 教師なし学習層
2415 畳み込みネットワーク
2417 分類層
2420 検証段階
2430 試験段階
2435 畳み込みネットワーク
2439 画像品質指数
2440 学習段階
2445 畳み込みネットワーク
2447 分類層
2450 検証段階
2460 試験段階
2465 畳み込みネットワーク
2469 画像品質指数
2500 訓練済みネットワーク
2501 システム
2504 パラメータ値セレクタ
2510 初期パラメータセット
2512 IQI比較器
2520 再始動器
2522 再始動器
2524 オーケストレータ
2526 画像品質評価エンジン
2528 更新ファクトリ
2530 訓練画像データセット
2532 再始動器
2534 検出/診断評価エンジン
2535 更新ファクトリ
2536 更新ファクトリ
2538 エキスパート
3100 方法
3200 プロセッサプラットフォーム
3212 プロセッサ
3213 ローカルメモリ
3214 主メモリ
3216 主メモリ
3218 バス
3220 インターフェース回路
3222 入力装置
3224 出力装置
3226 ネットワーク
3228 大容量記憶装置
3232 コード化された命令

Claims (20)

  1. 撮像システム構成装置であって、
    画像収集のための少なくとも1つの撮像システム(1401)を構成するために、複数の先行画像収集からの第1の入力のセットに基づいて第1の撮像システム構成パラメータのセットを学習する第1のディープラーニングネットワーク(420〜423)を実現する第1のプロセッサ(2030)を含む訓練用学習装置(2010)であって、前記少なくとも1つの撮像システム(1401)による前記複数の画像収集からの動作データを含むフィードバックを受け取って処理する訓練用学習装置(2010)と、
    第2のディープラーニングネットワーク(420〜423)を実現する第2のプロセッサ(2030)を含む展開済み学習装置(2050)であって、前記第2のディープラーニングネットワーク(420〜423)は、前記訓練用学習装置(2010)の前記第1のディープラーニングネットワーク(420〜423)から生成され、前記展開済み学習装置(2050)は、画像収集のための第2の入力を受け取ることに応答して第2の撮像システム構成パラメータを前記撮像システム(1401)に提供するように構成される、展開済み学習装置(2050)と、
    を含む装置。
  2. 前記撮像システム(1401)と接続するためのインターフェース(3220)をさらに含み、前記インターフェース(3220)は、接続されると、前記撮像システム(1401)と前記訓練用学習装置(2010)および前記展開済み学習装置(2050)のうちの少なくとも一方との間のデータの自動交換を可能にする、請求項1に記載の装置。
  3. 前記第2の入力は、前記画像収集の被検体(24)に関する患者情報を含む、請求項1に記載の装置。
  4. 前記フィードバックは画像再構成品質情報を含む、請求項1に記載の装置。
  5. 前記展開済み学習装置(2050)は、前記画像再構成品質情報がしきい値を満たさない場合に次の措置のための推奨を生成する、請求項4に記載の装置。
  6. 前記プロセッサ(2030)は、前記画像再構成品質情報がしきい値を満たす場合に、前記第1の撮像システム構成パラメータのセットを前記撮像システム(1401)のパラメータのデフォルトセットとして設定する、請求項4に記載の装置。
  7. 前記第2の入力は、前記画像収集に関連する健康診断の目的を含む、請求項1に記載の装置。
  8. 実行された場合に、撮像システム構成装置を実現するように機械を構成する命令を含むコンピュータ可読媒体であって、前記装置は、
    画像収集のための少なくとも1つの撮像システム(1401)を構成するために、複数の先行画像収集からの第1の入力のセットに基づいて第1の撮像システム構成パラメータのセットを学習する第1のディープラーニングネットワーク(420〜423)を実現する第1のプロセッサ(2030)を含む訓練用学習装置(2010)であって、前記少なくとも1つの撮像システム(1401)による前記複数の画像収集からの動作データを含むフィードバックを受け取って処理する訓練用学習装置(2010)と、
    第2のディープラーニングネットワーク(420〜423)を実現する第2のプロセッサ(2030)を含む展開済み学習装置(2050)であって、前記第2のディープラーニングネットワーク(420〜423)は、前記訓練用学習装置(2010)の前記第1のディープラーニングネットワーク(420〜423)から生成され、前記展開済み学習装置(2050)は、画像収集のための第2の入力を受け取ることに応答して第2の撮像システム構成パラメータを前記撮像システム(1401)に提供するように構成される、展開済み学習装置(2050)と、
    を含むコンピュータ可読媒体。
  9. 前記命令は、実行された場合に、前記撮像システム(1401)に接続するためのインターフェース(3220)を含むように前記機械をさらに構成し、前記インターフェース(3220)は、接続されると、前記撮像システム(1401)と前記訓練用学習装置(2010)および前記展開済み学習装置(2050)のうちの少なくとも一方との間のデータの自動交換を可能にする、請求項8に記載のコンピュータ可読媒体。
  10. 前記第2の入力は、前記画像収集の被検体(24)に関する患者情報を含む、請求項8に記載のコンピュータ可読媒体。
  11. 前記フィードバックは画像再構成品質情報を含む、請求項8に記載のコンピュータ可読媒体。
  12. 前記第1のディープラーニングネットワーク(420〜423)は、前記画像再構成品質情報がしきい値を満たさない場合に次の措置のための推奨を生成する、請求項11に記載のコンピュータ可読媒体。
  13. 前記画像再構成品質情報がしきい値を満たす場合に、前記第1の撮像システム構成パラメータのセットが前記撮像システム(1401)のパラメータのデフォルトセットとして設定される、請求項11に記載のコンピュータ可読媒体。
  14. 前記第2の入力は、前記画像収集に関連する健康診断の目的を含む、請求項8に記載のコンピュータ可読媒体。
  15. 画像収集のための少なくとも1つの撮像システム(1401)を構成するために、複数の先行画像収集からの第1の入力のセットに基づいて第1の撮像システム構成パラメータのセットを学習する訓練用学習装置(2010)において第1のディープラーニングネットワーク(420〜423)を訓練するステップであって、前記訓練用学習装置(2010)は、前記少なくとも1つの撮像システム(1401)による前記複数の画像収集からの動作データを含むフィードバックを受け取って処理する、ステップと、
    前記第1のディープラーニングネットワーク(420〜423)を用いて、展開済み学習装置(2050)において第2のディープラーニングネットワーク(420〜423)を生成するステップと、
    画像収集のための第2の入力を受け取ることに応答して第2の撮像システム構成パラメータを前記撮像システム(1401)に提供するために、前記展開済み学習装置(2050)を前記第2のディープラーニングネットワーク(420〜423)により展開するステップと、
    前記撮像システム(1401)からのフィードバックを受け取るステップであって、前記フィードバックは、前記撮像システム(1401)による前記画像収集からの動作データを含む、ステップと、
    前記受け取ったフィードバックに基づいて前記訓練用学習装置(2010)の前記第1のディープラーニングネットワーク(420〜423)を更新するステップと、
    を含む方法(820,1200,1600,1900,2100,3100)。
  16. インターフェース(3220)を介して前記画像収集構成装置(1120,2020)を前記撮像システム(1401)に接続するステップをさらに含み、前記インターフェース(3220)は、接続されると、前記撮像システム(1401)と前記訓練用学習装置(2010)および前記展開済み学習装置(2050)のうちの少なくとも一方との間のデータの自動交換を可能にする、請求項15に記載の方法(820,1200,1600,1900,2100,3100)。
  17. 前記第2の入力は、前記画像収集の被検体(24)に関する患者情報を含む、請求項15に記載の方法(820,1200,1600,1900,2100,3100)。
  18. 前記フィードバックは画像再構成品質情報を含む、請求項15に記載の方法(820,1200,1600,1900,2100,3100)。
  19. 前記第2のディープラーニングネットワーク(420〜423)は、前記画像再構成品質情報がしきい値を満たさない場合に次の措置のための推奨を生成する、請求項18に記載の方法(820,1200,1600,1900,2100,3100)。
  20. 前記画像収集構成装置(1120,2020)が、前記画像再構成品質情報がしきい値を満たす場合に、前記第1の撮像システム構成パラメータのセットをパラメータのデフォルトセットとして設定することをさらに含む、請求項18に記載の方法(820,1200,1600,1900,2100,3100)。
JP2019527369A 2016-11-23 2017-11-20 ディープラーニング医療システムおよび画像収集のための方法 Active JP7309605B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/360,626 2016-11-23
US15/360,626 US10127659B2 (en) 2016-11-23 2016-11-23 Deep learning medical systems and methods for image acquisition
PCT/US2017/062588 WO2018098078A1 (en) 2016-11-23 2017-11-20 Deep learning medical systems and methods for image acquisition

Publications (2)

Publication Number Publication Date
JP2020500377A true JP2020500377A (ja) 2020-01-09
JP7309605B2 JP7309605B2 (ja) 2023-07-18

Family

ID=60812129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019527369A Active JP7309605B2 (ja) 2016-11-23 2017-11-20 ディープラーニング医療システムおよび画像収集のための方法

Country Status (5)

Country Link
US (2) US10127659B2 (ja)
EP (1) EP3545526B1 (ja)
JP (1) JP7309605B2 (ja)
CN (1) CN110121749B (ja)
WO (1) WO2018098078A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021186592A1 (ja) * 2020-03-17 2021-09-23 株式会社村田製作所 診断支援装置及びモデル生成装置
TWI753361B (zh) * 2020-02-06 2022-01-21 商之器科技股份有限公司 用於醫療影像存取系統與輔助診斷的整合系統
JP7422946B2 (ja) 2020-07-02 2024-01-26 三菱電機株式会社 ベイジアングラフ探索を用いたニューラルネットワークアーキテクチャの自動構築
JP7467336B2 (ja) 2017-11-03 2024-04-15 ゼネラル・エレクトリック・カンパニイ 複数の撮像モダリティから得られた解剖学的構造の医療画像データを学習するための方法、処理ユニット及び、システム

Families Citing this family (164)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3170112A1 (en) * 2014-07-16 2017-05-24 Koninklijke Philips N.V. Irecon: intelligent image reconstruction system with anticipatory execution
US11129591B2 (en) 2016-04-21 2021-09-28 The University Of British Columbia Echocardiographic image analysis
US10203393B2 (en) * 2016-05-31 2019-02-12 Shanghai United Imaging Healthcare Co., Ltd. System and method for removing gibbs artifact in medical imaging system
WO2018022752A1 (en) * 2016-07-27 2018-02-01 James R. Glidewell Dental Ceramics, Inc. Dental cad automation using deep learning
CN107025369B (zh) * 2016-08-03 2020-03-10 北京推想科技有限公司 一种对医疗图像进行转换学习的方法和装置
US10452899B2 (en) * 2016-08-31 2019-10-22 Siemens Healthcare Gmbh Unsupervised deep representation learning for fine-grained body part recognition
US10127659B2 (en) 2016-11-23 2018-11-13 General Electric Company Deep learning medical systems and methods for image acquisition
KR101836096B1 (ko) * 2016-12-02 2018-03-12 주식회사 수아랩 이미지 데이터의 상태 판단 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램
US11832969B2 (en) * 2016-12-22 2023-12-05 The Johns Hopkins University Machine learning approach to beamforming
EP3559903B1 (en) 2016-12-23 2023-03-22 HeartFlow, Inc. Machine learning of anatomical model parameters
US10810721B2 (en) * 2017-03-14 2020-10-20 Adobe Inc. Digital image defect identification and correction
US10395141B2 (en) * 2017-03-20 2019-08-27 Sap Se Weight initialization for machine learning models
GB201705876D0 (en) 2017-04-11 2017-05-24 Kheiron Medical Tech Ltd Recist
GB201705911D0 (en) * 2017-04-12 2017-05-24 Kheiron Medical Tech Ltd Abstracts
KR102475826B1 (ko) * 2017-04-21 2022-12-09 삼성메디슨 주식회사 영상 분할 방법 및 그 전자 장치
US10922556B2 (en) 2017-04-28 2021-02-16 Intel Corporation Storage system of DNN outputs for black box
EP3399465A1 (en) 2017-05-05 2018-11-07 Dassault Systèmes Forming a dataset for fully-supervised learning
KR20180124381A (ko) * 2017-05-11 2018-11-21 현대자동차주식회사 운전자의 상태 판단 시스템 및 그 방법
CN107040628B (zh) * 2017-05-25 2019-04-12 维沃移动通信有限公司 一种摄像头组件及移动终端
US11256963B2 (en) * 2017-05-31 2022-02-22 Eizo Corporation Surgical instrument detection system and computer program
EP3270308B9 (en) * 2017-06-14 2022-05-18 Siemens Healthcare GmbH Method for providing a secondary parameter, decision support system, computer-readable medium and computer program product
GB201710877D0 (en) * 2017-07-06 2017-08-23 Nokia Technologies Oy A method and an apparatus for evaluating generative machine learning model
US10832387B2 (en) * 2017-07-19 2020-11-10 Petuum Inc. Real-time intelligent image manipulation system
US11257259B2 (en) * 2017-08-15 2022-02-22 Siemens Healthcare Gmbh Topogram prediction from surface data in medical imaging
CN107492099B (zh) * 2017-08-28 2021-08-20 京东方科技集团股份有限公司 医学图像分析方法、医学图像分析系统以及存储介质
KR101849072B1 (ko) * 2017-08-29 2018-04-16 주식회사 뷰노 콘텐츠 기반 의료 영상 검색 방법 및 시스템
US10803984B2 (en) * 2017-10-06 2020-10-13 Canon Medical Systems Corporation Medical image processing apparatus and medical image processing system
US11517197B2 (en) 2017-10-06 2022-12-06 Canon Medical Systems Corporation Apparatus and method for medical image reconstruction using deep learning for computed tomography (CT) image noise and artifacts reduction
US10540589B2 (en) * 2017-10-24 2020-01-21 Deep North, Inc. Image quality assessment using similar scenes as reference
WO2019084411A1 (en) * 2017-10-27 2019-05-02 Butterfly Network, Inc. QUALITY INDICATORS FOR COLLECTION AND AUTOMATED MEASUREMENT ON ULTRASONIC IMAGES
US11605447B2 (en) * 2017-10-27 2023-03-14 Siemens Healthcare Gmbh Intelligent agents for patient management
US10535001B2 (en) * 2017-11-06 2020-01-14 International Business Machines Corporation Reducing problem complexity when analyzing 3-D images
WO2019090533A1 (en) * 2017-11-08 2019-05-16 Shenzhen United Imaging Healthcare Co., Ltd. System and method for diagnositic and treatment
US10521705B2 (en) * 2017-11-14 2019-12-31 Adobe Inc. Automatically selecting images using multicontext aware ratings
US20190294992A1 (en) * 2017-11-28 2019-09-26 Yudong Zhu Hybrid learning for intelligent instruments
JP6950505B2 (ja) * 2017-12-08 2021-10-13 富士通株式会社 判別プログラム、判別方法および判別装置
JP2019109709A (ja) * 2017-12-18 2019-07-04 株式会社東芝 画像処理装置、画像処理方法およびプログラム
US11048946B2 (en) * 2017-12-21 2021-06-29 Samuel Chenillo System and method for identifying cognate image sequences
US10755454B2 (en) * 2017-12-22 2020-08-25 General Electric Company Clinical task-based processing of images
WO2019141769A1 (en) * 2018-01-19 2019-07-25 Koninklijke Philips N.V. Scan parameter adaption during a contrast enhanced scan
US11170545B2 (en) * 2018-01-24 2021-11-09 New York University Systems and methods for diagnostic oriented image quality assessment
US20190231288A1 (en) * 2018-01-26 2019-08-01 General Electric Company Systems and methods for contrast flow modeling with deep learning
US10393842B1 (en) * 2018-02-20 2019-08-27 The Board Of Trustees Of The Leland Stanford Junior University Highly-scalable image reconstruction using deep convolutional neural networks with bandpass filtering
EP3794607A1 (en) * 2018-05-16 2021-03-24 Koninklijke Philips N.V. Automated tumor identification during surgery using machine-learning
JP7126864B2 (ja) * 2018-05-25 2022-08-29 キヤノンメディカルシステムズ株式会社 医用信号処理装置及び学習プログラム
JP7114347B2 (ja) * 2018-06-04 2022-08-08 浜松ホトニクス株式会社 断層画像予測装置および断層画像予測方法
EP3807814A4 (en) 2018-06-15 2022-03-16 Subtle Medical, Inc. MAGNETIC RESONANCE IMAGING STANDARDIZATION SYSTEMS AND METHODS USING DEEP LEARNING
US11493585B2 (en) * 2018-06-29 2022-11-08 Canon Medical Systems Corporation Medical information processing apparatus and medical information processing method
US10878570B2 (en) * 2018-07-17 2020-12-29 International Business Machines Corporation Knockout autoencoder for detecting anomalies in biomedical images
WO2020020770A1 (en) * 2018-07-26 2020-01-30 Koninklijke Philips N.V. Ultrasound system with automated dynamic setting of imaging parameters based on organ detection
EP3605404B1 (de) * 2018-08-03 2023-10-04 Siemens Healthcare Diagnostics, Inc. Verfahren und vorrichtung zum trainieren einer maschinellen lernroutine zum steuern eines technischen systems
CN109325920B (zh) * 2018-08-06 2022-02-22 深圳大学 雾霾图像清晰化方法、系统及可存储介质
CN109003229B (zh) * 2018-08-09 2022-12-13 成都大学 基于三维增强深度残差网络的磁共振超分辨率重建方法
US11393085B2 (en) * 2018-08-10 2022-07-19 Southern Methodist University Image analysis using machine learning and human computation
CN109325410B (zh) * 2018-08-16 2021-10-19 广东工业大学 一种基于卷积神经网络的脑电信号eeg特征提取方法
SG10201907613PA (en) * 2018-08-19 2020-03-30 Chang Gung Memorial Hospital Linkou Method and System of Analyzing Medical Images
US10949951B2 (en) * 2018-08-23 2021-03-16 General Electric Company Patient-specific deep learning image denoising methods and systems
EP3617733A1 (en) * 2018-08-30 2020-03-04 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Method and apparatus for processing magnetic resonance data using machine learning
US10751029B2 (en) * 2018-08-31 2020-08-25 The University Of British Columbia Ultrasonic image analysis
JP7224618B2 (ja) * 2018-09-03 2023-02-20 孝文 栢 行動推奨装置及び行動推奨システム
JP7134805B2 (ja) * 2018-09-20 2022-09-12 キヤノンメディカルシステムズ株式会社 医用情報処理装置および医用情報処理システム
US10878311B2 (en) 2018-09-28 2020-12-29 General Electric Company Image quality-guided magnetic resonance imaging configuration
KR102246318B1 (ko) * 2018-10-05 2021-04-30 주식회사 딥바이오 병리 이미지 검색을 위한 시스템 및 방법
US10803585B2 (en) 2018-10-09 2020-10-13 General Electric Company System and method for assessing image quality
US10835761B2 (en) 2018-10-25 2020-11-17 Elekta, Inc. Real-time patient motion monitoring using a magnetic resonance linear accelerator (MR-LINAC)
US11083913B2 (en) 2018-10-25 2021-08-10 Elekta, Inc. Machine learning approach to real-time patient motion monitoring
JP7049974B2 (ja) * 2018-10-29 2022-04-07 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
EP3649955A1 (en) * 2018-11-07 2020-05-13 Koninklijke Philips N.V. Deep learning based spectral bolus tracking
CN109635835A (zh) * 2018-11-08 2019-04-16 深圳蓝韵医学影像有限公司 一种基于深度学习与迁移学习的乳腺病变区域检测方法
US10803987B2 (en) * 2018-11-16 2020-10-13 Elekta, Inc. Real-time motion monitoring using deep neural network
US11151420B2 (en) 2018-11-19 2021-10-19 International Business Machines Corporation Determination using learned model
KR102261473B1 (ko) * 2018-11-30 2021-06-07 주식회사 딥바이오 세미 슈퍼바이즈드 학습을 이용한 진단 시스템 제공방법 및 이를 이용하는 진단 시스템
US11126660B1 (en) * 2018-11-30 2021-09-21 A9.Com, Inc. High dimensional time series forecasting
US11087170B2 (en) * 2018-12-03 2021-08-10 Advanced Micro Devices, Inc. Deliberate conditional poison training for generative models
US10929708B2 (en) 2018-12-10 2021-02-23 International Business Machines Corporation Deep learning network for salient region identification in images
JP7246912B2 (ja) * 2018-12-18 2023-03-28 キヤノンメディカルシステムズ株式会社 医用情報処理装置及び医用情報処理システム
US10909681B2 (en) * 2019-01-03 2021-02-02 The Regents Of The University Of California Automated selection of an optimal image from a series of images
US10373026B1 (en) * 2019-01-28 2019-08-06 StradVision, Inc. Learning method and learning device for generation of virtual feature maps whose characteristics are same as or similar to those of real feature maps by using GAN capable of being applied to domain adaptation to be used in virtual driving environments
US10373025B1 (en) * 2019-01-28 2019-08-06 StradVision, Inc. Method and device for verifying integrity of parameters of CNN by using test pattern to enhance fault tolerance and fluctuation robustness in extreme situations for functional safety
CN109784490B (zh) 2019-02-02 2020-07-03 北京地平线机器人技术研发有限公司 神经网络的训练方法、装置和电子设备
CN109919204B (zh) * 2019-02-23 2023-06-23 华南理工大学 一种面向噪声图像的深度学习聚类方法
US10973472B2 (en) * 2019-03-05 2021-04-13 Siemens Healthcare Gmbh Artificial intelligence-based material decomposition in medical imaging
WO2020198854A1 (en) * 2019-03-29 2020-10-08 Polyvalor, Limited Partnership Method and system for producing medical images
WO2020209826A1 (en) * 2019-04-08 2020-10-15 Siemens Medical Solutions Usa, Inc. Deep reinforcement learning for computer assisted reading and analysis
US11041827B2 (en) 2019-04-12 2021-06-22 International Business Machines Corporation Carrier-resolved photo-hall system and method
EP3956906A4 (en) 2019-04-16 2023-01-18 International Medical Solutions, Inc. METHODS AND SYSTEMS FOR SYNCHRONIZING MEDICAL IMAGES ON ONE OR MORE NETWORKS AND DEVICES
JP7334900B2 (ja) * 2019-05-20 2023-08-29 国立研究開発法人理化学研究所 判別装置、学習装置、方法、プログラム、学習済みモデルおよび記憶媒体
US11310250B2 (en) 2019-05-24 2022-04-19 Bank Of America Corporation System and method for machine learning-based real-time electronic data quality checks in online machine learning and AI systems
US20200394458A1 (en) * 2019-06-17 2020-12-17 Nvidia Corporation Weakly-supervised object detection using one or more neural networks
JP7334073B2 (ja) * 2019-06-19 2023-08-28 キヤノンメディカルシステムズ株式会社 医用データ処理装置及び医用データ処理方法
US11373093B2 (en) 2019-06-26 2022-06-28 International Business Machines Corporation Detecting and purifying adversarial inputs in deep learning computing systems
US11481633B2 (en) * 2019-08-05 2022-10-25 Bank Of America Corporation Electronic system for management of image processing models
JP7446736B2 (ja) * 2019-08-09 2024-03-11 キヤノンメディカルシステムズ株式会社 医用データ処理装置および医用画像診断装置
US20220322915A1 (en) * 2019-08-16 2022-10-13 Hoya Corporation Processor for endoscope, endoscope system, information processing apparatus, non-transitory computer-readable storage medium, and information processing method
US20220327738A1 (en) * 2019-08-16 2022-10-13 Hoya Corporation Processor for endoscope, endoscope system, information processing apparatus, non-transitory computer-readable storage medium, and information processing method
US11042799B2 (en) 2019-08-20 2021-06-22 International Business Machines Corporation Cohort based adversarial attack detection
BR112022003391A2 (pt) * 2019-08-23 2022-05-17 Subtle Medical Inc Sistemas e métodos para a tomografia precisa e rápida de emissão de positron utilizando o aprendizado pro-fundo
US11238580B2 (en) 2019-08-29 2022-02-01 Varian Medical Systems International Ag Systems and methods for image cropping and anatomical structure segmentation in medical imaging
US11798159B2 (en) * 2019-09-20 2023-10-24 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for radiology image classification from noisy images
EP3799062A1 (de) * 2019-09-25 2021-03-31 Siemens Healthcare GmbH Verfahren zum bestimmen eines bevorzugten zielorts für ein fahrzeug
US20210093203A1 (en) * 2019-09-30 2021-04-01 DawnLight Technologies Systems and methods of determining heart-rate and respiratory rate from a radar signal using machine learning methods
CN117291830A (zh) * 2019-10-01 2023-12-26 长沙微妙医疗科技有限公司 使用自关注深度学习进行图像增强的系统和方法
US11583244B2 (en) * 2019-10-04 2023-02-21 GE Precision Healthcare LLC System and methods for tracking anatomical features in ultrasound images
DE102019215460A1 (de) * 2019-10-09 2021-04-15 Siemens Healthcare Gmbh Verfahren und Vorrichtung zur Rauschreduktion von Bildaufnahmen
US11570030B2 (en) * 2019-10-11 2023-01-31 University Of South Carolina Method for non-linear distortion immune end-to-end learning with autoencoder—OFDM
US11288841B2 (en) 2019-10-17 2022-03-29 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for patient positioning
TWI730467B (zh) 2019-10-22 2021-06-11 財團法人工業技術研究院 影像轉換方法及影像轉換網路
CN110755076B (zh) * 2019-11-01 2023-08-11 上海联影医疗科技股份有限公司 磁共振扫描仪的图像采集方法、装置、设备和介质
US20210133969A1 (en) * 2019-11-05 2021-05-06 Canon Medical Systems Corporation Medical information processing apparatus, system, and x-ray diagnosis apparatus
US11480594B2 (en) 2019-11-07 2022-10-25 Global Energy Interconnection Research Institute Co. Ltd Systems and methods of bad data identification and recovery for electric power systems
CN111128400B (zh) * 2019-11-26 2023-09-12 泰康保险集团股份有限公司 医学护理资料的处理方法及装置、存储介质、电子设备
EP3971762A4 (en) * 2019-11-28 2022-07-27 Huawei Cloud Computing Technologies Co., Ltd. IMAGE PROCESSING METHOD, DEVICE AND SYSTEM
KR20210067788A (ko) * 2019-11-29 2021-06-08 삼성전자주식회사 전자 장치, 시스템 및 그 제어 방법
CN111047293B (zh) * 2019-12-12 2023-11-03 云南云电同方科技有限公司 图形数据资源管理的方法及其系统
US11320357B2 (en) * 2019-12-23 2022-05-03 Chevron U.S.A. Inc. System and method for estimation of rock properties from core images
EP4085377A1 (en) * 2020-01-03 2022-11-09 PAIGE.AI, Inc. Systems and methods for processing electronic images for generalized disease detection
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
CN111242906B (zh) * 2020-01-06 2022-03-18 杭州电子科技大学 一种支持向量数据描述的胸部影像异常检测方法
US11918401B2 (en) 2020-01-09 2024-03-05 Idexx Laboratories, Inc. Methods and systems for x-ray imaging and labeling
CN111136659B (zh) * 2020-01-15 2022-06-21 南京大学 基于第三人称模仿学习的机械臂动作学习方法及系统
CN111260741B (zh) * 2020-02-07 2022-05-10 北京理工大学 一种利用生成对抗网络的三维超声模拟方法及装置
DE102020105696A1 (de) 2020-03-03 2021-09-09 Carl Zeiss Meditec Ag Scannendes Bilderzeugungsgerät und scannendes Bildaufnahmeverfahren
CN111476796B (zh) * 2020-03-10 2023-04-18 西北大学 一种结合多种网络的半监督冠状动脉分割系统及分割方法
EP3889882B1 (en) * 2020-03-31 2023-06-07 Siemens Healthcare GmbH Image normalization increasing robustness of machine learning applications for medical images
CN113470037A (zh) 2020-03-31 2021-10-01 阿里巴巴集团控股有限公司 数据处理方法、装置及系统
US11087883B1 (en) * 2020-04-02 2021-08-10 Blue Eye Soft, Inc. Systems and methods for transfer-to-transfer learning-based training of a machine learning model for detecting medical conditions
CN111476773A (zh) * 2020-04-07 2020-07-31 重庆医科大学附属儿童医院 一种耳廓畸形分析识别方法、系统、介质和电子终端
CN111626119B (zh) * 2020-04-23 2023-09-01 北京百度网讯科技有限公司 目标识别模型训练方法、装置、设备以及存储介质
CN111540425B (zh) * 2020-04-26 2021-01-15 和宇健康科技股份有限公司 基于人工智能的智慧医疗信息推送方法及电子病历云平台
DE102020111563A1 (de) 2020-04-28 2021-10-28 Carl Zeiss Meditec Ag Verfahren zum Gewinnen annotierter Daten mithilfe von Operationsmikroskopiesystemen
DE102020111584A1 (de) 2020-04-28 2021-10-28 Carl Zeiss Meditec Ag Verfahren zum Gewinnen von Daten mithilfe von Operationsmikroskopiesystemen
US11151710B1 (en) * 2020-05-04 2021-10-19 Applied Materials Israel Ltd. Automatic selection of algorithmic modules for examination of a specimen
CN111598878B (zh) * 2020-05-18 2023-06-27 中国医学科学院生物医学工程研究所 用于电阻抗成像的图像空间分辨能力的确定方法及装置
CN111666984B (zh) * 2020-05-20 2023-08-25 海南电网有限责任公司电力科学研究院 一种基于迁移学习的过电压智能识别方法
US20230186098A1 (en) * 2020-05-27 2023-06-15 Rutgers, The State University Of New Jersey Distributed generative adversarial networks suitable for privacy-restricted data
US11222406B2 (en) * 2020-06-05 2022-01-11 Canon Medical Systems Corporation Method and system for training a machine learning-based image denoising system
CN111739114B (zh) * 2020-06-15 2023-12-15 大连理工大学 一种基于孪生反馈网络的低剂量ct重建方法
CN111739076B (zh) * 2020-06-15 2022-09-30 大连理工大学 面向多种ct肺部纹理识别的非监督保内容域适应方法
KR102304750B1 (ko) * 2020-06-24 2021-09-24 주식회사 파워인스 인공지능 기반 비파괴검사 방법 및 시스템
US11431895B2 (en) 2020-06-24 2022-08-30 International Business Machines Corporation Photography guidance based on crowdsourced photographs
CN111950595A (zh) * 2020-07-14 2020-11-17 十堰市太和医院(湖北医药学院附属医院) 肝脏病灶图像处理方法、系统、存储介质、程序、终端
CN111968113B (zh) * 2020-09-02 2024-01-19 中国人民解放军国防科技大学 一种基于最优传输映射的脑影像二维卷积深度学习方法
CN111883237B (zh) * 2020-09-28 2021-01-15 平安科技(深圳)有限公司 病理切片图像处理方法、装置、电子设备及存储介质
CN112255662A (zh) * 2020-10-14 2021-01-22 南昌华亮光电有限责任公司 基于智能时间采样的伽马相机及探测方法
EP4236773A1 (en) * 2020-10-30 2023-09-06 Fresenius Medical Care Holdings, Inc. Techniques for image-based examination of fluid status
KR20220073209A (ko) * 2020-11-26 2022-06-03 조선대학교산학협력단 심전도 신호로부터 설명 가능한 히트맵 영상에 근거한 질병을 판별하는 시스템 및 판별 방법
DE102020215309A1 (de) 2020-12-03 2021-11-25 Siemens Healthcare Gmbh Verfahren zur Optimierung einer individualisierten Übertragung von medizinischen Daten von einem Erzeuger-System zu einem Empfänger-System
CN112859789B (zh) * 2021-01-29 2024-02-06 重庆邮电大学 一种基于cfd构建数据中心数字孪生体的方法及系统
US11744535B2 (en) 2021-03-23 2023-09-05 International Business Machines Corporation Automated population based assessment of contrast absorption phases
US11633168B2 (en) * 2021-04-02 2023-04-25 AIX Scan, Inc. Fast 3D radiography with multiple pulsed X-ray sources by deflecting tube electron beam using electro-magnetic field
US20220335254A1 (en) * 2021-04-16 2022-10-20 Baker Hughes Holdings Llc Computer vision inferencing for non-destructive testing
EP4084009A1 (en) * 2021-04-30 2022-11-02 Koninklijke Philips N.V. Diagnostic imaging system to support a clinical endpoint
CN113269305B (zh) * 2021-05-20 2024-05-03 郑州铁路职业技术学院 一种加强记忆的反馈语音强化方法
US20220414855A1 (en) * 2021-06-25 2022-12-29 Fei Company Area selection in charged particle microscope imaging
US11881041B2 (en) 2021-09-02 2024-01-23 Bank Of America Corporation Automated categorization and processing of document images of varying degrees of quality
US11538578B1 (en) 2021-09-23 2022-12-27 International Medical Solutions, Inc. Methods and systems for the efficient acquisition, conversion, and display of pathology images
CN113946688B (zh) * 2021-10-20 2022-09-23 中国人民解放军国防科技大学 一种寻找自然语言处理模型天然后门的方法
CN113842166A (zh) * 2021-10-25 2021-12-28 上海交通大学医学院 基于超声影像设备的超声图像采集方法以及相关装置
EP4199002A1 (en) 2021-12-16 2023-06-21 Koninklijke Philips N.V. A computer implemented method and a system
US20230252311A1 (en) * 2022-02-10 2023-08-10 Clarifai, Inc. Systems and methods for transductive out-of-domain learning
US20230298736A1 (en) * 2022-03-16 2023-09-21 Siemens Healthcare Gmbh Multi-view matching across coronary angiogram images
CN114880951B (zh) * 2022-06-06 2023-04-07 浙江理工大学 一种基于数字孪生的织物瑕疵预测方法
CN116958128B (zh) * 2023-09-18 2023-12-26 中南大学 基于深度学习的医学图像自动定位方法
CN117542485B (zh) * 2023-11-21 2024-05-10 江苏瑞康成医疗科技有限公司 一种影像检查的智慧处理方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008507372A (ja) * 2004-07-26 2008-03-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動化された疑わしいオブジェクト境界判定のためのシステム及び方法
US20140221832A1 (en) * 2013-02-01 2014-08-07 Siemens Medical Solutions Usa, Inc. Tuning ultrasound acquisition parameters
CN104545957A (zh) * 2013-10-22 2015-04-29 上海西门子医疗器械有限公司 X线影像系统、x线影像设备、服务器及方法
WO2015109254A2 (en) * 2014-01-17 2015-07-23 Morpheus Medical, Inc. Apparatus, methods and articles for four dimensional (4d) flow magnetic resonance imaging
WO2016009309A1 (en) * 2014-07-16 2016-01-21 Koninklijke Philips N.V. Irecon: intelligent image reconstruction system with anticipatory execution
WO2016034463A1 (en) * 2014-09-03 2016-03-10 Contextvision Ab Methods and systems for automatic control of subjective image quality in imaging of objects
US20160317127A1 (en) * 2015-04-28 2016-11-03 Qualcomm Incorporated Smart device for ultrasound imaging
JP2016190032A (ja) * 2015-03-30 2016-11-10 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッドSiemens Medical Solutions USA,Inc. 超音波イメージングにおける3次元関心ボリューム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8430816B2 (en) 2008-05-20 2013-04-30 General Electric Company System and method for analysis of multiple diseases and severities
US8010381B2 (en) 2008-05-20 2011-08-30 General Electric Company System and method for disease diagnosis from patient structural deviation data
US8099299B2 (en) 2008-05-20 2012-01-17 General Electric Company System and method for mapping structural and functional deviations in an anatomical region
US9271651B2 (en) 2009-11-30 2016-03-01 General Electric Company System and method for integrated quantifiable detection, diagnosis and monitoring of disease using patient related time trend data
US8934685B2 (en) 2010-09-21 2015-01-13 General Electric Company System and method for analyzing and visualizing local clinical features
US9730643B2 (en) * 2013-10-17 2017-08-15 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
WO2015134665A1 (en) 2014-03-04 2015-09-11 SignalSense, Inc. Classifying data with deep learning neural records incrementally refined through expert input
US9953425B2 (en) * 2014-07-30 2018-04-24 Adobe Systems Incorporated Learning image categorization using related attributes
US10346726B2 (en) * 2014-12-15 2019-07-09 Samsung Electronics Co., Ltd. Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image
US9524450B2 (en) * 2015-03-04 2016-12-20 Accenture Global Services Limited Digital image processing using convolutional neural networks
CN205665697U (zh) * 2016-04-05 2016-10-26 陈进民 基于细胞神经网络或卷积神经网络的医学影像识别诊断系统
CN106022287A (zh) * 2016-05-27 2016-10-12 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于深度学习与字典表示的跨年龄人脸验证方法
CN106097335B (zh) * 2016-06-08 2019-01-25 安翰光电技术(武汉)有限公司 消化道病灶图像识别系统及识别方法
US10127659B2 (en) 2016-11-23 2018-11-13 General Electric Company Deep learning medical systems and methods for image acquisition

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008507372A (ja) * 2004-07-26 2008-03-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動化された疑わしいオブジェクト境界判定のためのシステム及び方法
US20140221832A1 (en) * 2013-02-01 2014-08-07 Siemens Medical Solutions Usa, Inc. Tuning ultrasound acquisition parameters
CN104545957A (zh) * 2013-10-22 2015-04-29 上海西门子医疗器械有限公司 X线影像系统、x线影像设备、服务器及方法
WO2015109254A2 (en) * 2014-01-17 2015-07-23 Morpheus Medical, Inc. Apparatus, methods and articles for four dimensional (4d) flow magnetic resonance imaging
WO2016009309A1 (en) * 2014-07-16 2016-01-21 Koninklijke Philips N.V. Irecon: intelligent image reconstruction system with anticipatory execution
WO2016034463A1 (en) * 2014-09-03 2016-03-10 Contextvision Ab Methods and systems for automatic control of subjective image quality in imaging of objects
JP2016190032A (ja) * 2015-03-30 2016-11-10 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッドSiemens Medical Solutions USA,Inc. 超音波イメージングにおける3次元関心ボリューム
US20160317127A1 (en) * 2015-04-28 2016-11-03 Qualcomm Incorporated Smart device for ultrasound imaging

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7467336B2 (ja) 2017-11-03 2024-04-15 ゼネラル・エレクトリック・カンパニイ 複数の撮像モダリティから得られた解剖学的構造の医療画像データを学習するための方法、処理ユニット及び、システム
TWI753361B (zh) * 2020-02-06 2022-01-21 商之器科技股份有限公司 用於醫療影像存取系統與輔助診斷的整合系統
US11468979B2 (en) 2020-02-06 2022-10-11 Ebm Technologies Incorporated Integrated system for picture archiving and communication system and computer aided diagnosis
WO2021186592A1 (ja) * 2020-03-17 2021-09-23 株式会社村田製作所 診断支援装置及びモデル生成装置
JP7422946B2 (ja) 2020-07-02 2024-01-26 三菱電機株式会社 ベイジアングラフ探索を用いたニューラルネットワークアーキテクチャの自動構築

Also Published As

Publication number Publication date
JP7309605B2 (ja) 2023-07-18
EP3545526B1 (en) 2024-05-22
CN110121749B (zh) 2024-02-13
US10127659B2 (en) 2018-11-13
US20190050987A1 (en) 2019-02-14
US10628943B2 (en) 2020-04-21
EP3545526A1 (en) 2019-10-02
WO2018098078A1 (en) 2018-05-31
US20180144466A1 (en) 2018-05-24
CN110121749A (zh) 2019-08-13

Similar Documents

Publication Publication Date Title
US10896352B2 (en) Deep learning medical systems and methods for image reconstruction and quality evaluation
JP7051849B2 (ja) ディープラーニング医療システムおよび医療処置のための方法
US10628943B2 (en) Deep learning medical systems and methods for image acquisition
US11003988B2 (en) Hardware system design improvement using deep learning algorithms
KR102229853B1 (ko) 환자 특정적 딥러닝 이미지 잡음제거 방법들 및 시스템들
US10984905B2 (en) Artificial intelligence for physiological quantification in medical imaging
US11069056B2 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
JP6976360B2 (ja) データ処理装置及び方法、認識装置、学習データ保存装置、機械学習装置並びにプログラム
US11443201B2 (en) Artificial intelligence-based self-learning in medical imaging
US10984894B2 (en) Automated image quality control apparatus and methods
EP4066260A1 (en) Automated protocoling in medical imaging systems
EP4379672A1 (en) Methods and systems for classifying a medical image dataset

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190530

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200917

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210520

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220819

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220819

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220826

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220831

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220916

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220921

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230106

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230705

R150 Certificate of patent or registration of utility model

Ref document number: 7309605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150