JP7229996B2 - 流れを視覚化するための機械学習を使用したスペックルコントラスト分析 - Google Patents

流れを視覚化するための機械学習を使用したスペックルコントラスト分析 Download PDF

Info

Publication number
JP7229996B2
JP7229996B2 JP2020503912A JP2020503912A JP7229996B2 JP 7229996 B2 JP7229996 B2 JP 7229996B2 JP 2020503912 A JP2020503912 A JP 2020503912A JP 2020503912 A JP2020503912 A JP 2020503912A JP 7229996 B2 JP7229996 B2 JP 7229996B2
Authority
JP
Japan
Prior art keywords
image
data set
machine learning
pixel
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020503912A
Other languages
English (en)
Other versions
JPWO2019046003A5 (ja
JP2020532783A (ja
Inventor
ラファエリ,エデン
ピポニ,ダニエル
ベルサンガディー,チンメイ
ア リー,スン
Original Assignee
ヴェリリー ライフ サイエンシズ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴェリリー ライフ サイエンシズ エルエルシー filed Critical ヴェリリー ライフ サイエンシズ エルエルシー
Publication of JP2020532783A publication Critical patent/JP2020532783A/ja
Publication of JPWO2019046003A5 publication Critical patent/JPWO2019046003A5/ja
Application granted granted Critical
Publication of JP7229996B2 publication Critical patent/JP7229996B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • G06T2207/30104Vascular flow; Blood flow; Perfusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Image Analysis (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Description

関連出願の相互参照
本出願は、2017年8月30日に出願された「Speckle Contrast Analysis Using Machine Learning for Visualizing Flow」と題する、米国出願第62/551,997号の利益を主張し、参照によりその全体が本明細書に援用される。
実施形態は、機械学習を使用した画像分析の分野を対象とする。具体的には、実施形態は、深部組織内の体液の流れを分析することを対象とする。
生体組織内の血流を視覚化することができることは、外科的処置を含む医療診断または医療処置に役立つ場合がある。撮像技術は、画像データの大幅な処理を伴わずに、組織の表面近くの血流の領域を特定するのに十分に感度が高い場合がある。しかしながら、血管は、常に組織の表面近くにあるとは限らず、常に容易に撮像されるとは限らない。組織内をより深く流れる血液は、画像において検出することがより困難である場合がある。組織表面のはるか下に位置する血管では、血管からの画像信号が低い場合がある。皮膚および骨を含む、表面により近い物質は、これらの物質の下にある血管からのあらゆる信号を不明瞭にする場合がある。結果として、ぼやけまたは低コントラストなど、血液の流れに関連する画像特性は、未処理の画像において特定することが困難である場合がある。画像において流れを検出する改善された方法およびシステムが所望される。これらおよび他のニーズが対処される。
いくつかの実施形態では、画像は、動きを示す画像特性を特定するために、機械学習ベースのアプローチを使用して処理される。例えば、動的散乱の視覚的表示は、画像の明瞭な部分において特定され得る。次いで、処理された画像を使用して、流量を判定することができる。
いくつかの実施形態では、機械学習モデルを訓練および使用して、テスト画像データセットに基づいて動きデータを推定するための方法が提供される。方法は、コンピュータシステムにより、複数の訓練データ要素を含む訓練データセットを受信することを含み得る。複数の訓練データ要素の各訓練データ要素は、画像データセットおよび動きデータセットを含み得る。画像データセットは、第1の複数のピクセルの各ピクセルについて、画像特性値を含み得、画像特性値は、少なくともピクセルの強度に基づいている。動きデータセットは、移動を表す第1の複数のピクセルの一部分を示し得る。方法はまた、訓練データセットを使用して、機械学習モデルを訓練することも含み得る。訓練することは、画像データセットと動きデータセットとの間の対応に基づいて、機械学習モデルにおける関数の1つ以上のパラメータを特定することをもたらし得る。方法は、コンピュータシステムによって、テスト画像データセットを受信することをさらに含み得る。テスト画像データセットは、第2の複数のピクセルの各ピクセルについて、捕捉された深部組織画像におけるピクセルの強度を含み得る。捕捉された深部組織画像は、生物組織の表面下のある深度で物体を撮像しながら収集されていてもよい。第2の複数のピクセルは、第1の複数のピクセルと同じか、またはそれとは異なり得る。また、方法は、訓練された機械学習モデルおよびテスト画像データセットを使用して、テスト画像データセットに対する出力データを生成することを含み得る。出力データは、テスト画像データセットにおいて表される動きを特徴付け得る。
いくつかの実施形態では、機械学習モデルを訓練および使用して、テスト画像データセットについて動きデータを推定するためのシステムが提供される。システムは、1つ以上のプロセッサと、複数の命令を記憶するコンピュータ可読媒体と、を含み得る。複数の命令は、実行されると、プロセッサに、本明細書に記載の1つ以上の方法の一部またはすべてを行わせ得る。
いくつかの実施形態では、1つ以上のプロセッサによって実行されると、機械学習モデルを訓練および使用して、テスト画像データセットに基づいてデータを推定する方法を実行する複数の命令を記憶するコンピュータ可読媒体が提供される。方法は、本明細書に記載の1つ以上の方法の各々の一部またはすべてを含み得る。
本発明の実施形態の性質および利点のより良い理解は、以下の詳細な説明および添付の図面を参照して得ることができる。
特許または出願ファイルは、カラーで作成された少なくとも1つの図面を含む。カラー図面(複数可)を有する本特許または特許出願公報の複製は、請求および必要な手数料の支払いにより、米国特許商標庁によって提供される。
本発明のいくつかの実施形態による、従来のスペックルコントラストイメージングを使用したスペックル場の画像分析を示す。 本発明のいくつかの実施形態による、機械学習モデルを訓練および使用して、テスト画像データセットに基づいて動きデータを推定するためのシステムを示す。 本発明のいくつかの実施形態によるニューラルネットワークの図を示す。 本発明のいくつかの実施形態による、スペックル画像において流れの領域を特定するための畳み込みニューラルネットワークを使用する訓練アルゴリズムを示す。 本発明のいくつかの実施形態による、流れ(または動き)を有するピクセルと流れのないピクセルとを区別する画像を出力するために機械学習アルゴリズムを使用する訓練アルゴリズムを示す。 本発明のいくつかの実施形態による、流れを示すピクセルを生スペックル画像上に重ね合わせるために使用され得る方法を示す。 は、本発明のいくつかの実施形態による、レーザスペックルを作成および処理するために使用され得る方法を示す。 本発明のいくつかの実施形態による、機械学習モデルを訓練および使用して、テストデータセットについて動きデータを推定する方法を示す。 本発明のいくつかの実施形態による、機械学習モデルを訓練するために使用されるグラウンドトゥルースラベルおよび画像データを示す。 本発明のいくつかの実施形態による、異なる関心領域の画像および異なる領域の強度ヒストグラムを示す。 本発明のいくつかの実施形態による、生画像、およびロジスティック回帰機械学習モデルによって生成された生画像における流れを示す出力データを示す。 本発明のいくつかの実施形態による、畳み込みニューラルネットワーク機械学習モデルによって生成された流れを示す出力データを示す。 本発明のいくつかの実施形態による、捕捉された深部組織画像における血流を判定するための異なる方法の結果の比較を示す。
静止画像を使用して動きを検出するための1つの技術は、スペックルコントラストイメージングを含む。スペックルコントラストイメージングは、レーザで照射された対象を撮像することを含み得る。レーザ照明は、ランダムな干渉効果を生成し得、それは、スペックル強度パターンの視覚的結果を有する。対象の一部が動いている領域では、スペックル強度パターンは、時間とともに変化し得る。動きが画像センサの露出時間に比べて比較的速い場合、結果として得られるスペックル画像は、ぼやけて見えることがある。スペックルコントラストイメージングは、スペックル画像における局所的なぼやけまたはコントラストを測定する。しかしながら、画像における局所的(空間的)コントラスト(例えば、標準偏差と所定数のピクセルの強度値の平均との比)を分析することには限界がある。
生体イメージングでは、静的散乱および動的散乱の両方の組み合わせがスペックル場に寄与する場合があり、これにより、局所的(空間的)コントラストのみに基づく分析がエラーを起こしやすくなる。例えば、表面下の血流を撮像することは、皮膚または骨からの静的散乱、および血液からの動的散乱を含み得る。静的散乱と動的散乱との比を測定して、正確な流速測定のために較正する必要がある場合がある。また、ほとんどの散乱は、浅い深度の領域(例えば、表面から1mm未満)において発生し得る。血液が組織内でより深く流れる場合、血液は、大きい動的散乱を生じさせず、スペックルコントラストに限定的な影響しか与えない場合がある。
図1は、従来のスペックルコントラストイメージングを使用したスペックルの画像分析を示す。生スペックル画像は、左上に示される。局所的なスペックルコントラストは、スペックル画像における小さい関心領域全体にわたり、標準偏差とピクセル強度の平均値との比を計算することによって推定される。静的対象の一部を表示するピクセルは、1に近いコントラスト値を有し、動的(例えば、移動する)対象を表示するピクセルは、より低いコントラスト値を有する。右上の画像は、従来のスペックルコントラスト画像を示し、各ピクセルは、そのピクセル周辺の各関心領域についてのコントラスト値に基づいた強度を有する。より暗いピクセルは、より高い移動の尤度を示す。50%よりも大きい移動の尤度を有する流れの領域が生成され、左下の画像に示される。処理された(閾値設定された)スペックルコントラスト画像は、生スペックル画像に重ね合わされ、これが右下の画像に示される。2つの下の画像は、生スペックル画像の右下部分において何らかの移動を示す。しかしながら、流れは、流れを示す多くの領域が連続していないため、明確ではない。図1の分析に基づいて、明確な流路または血管を特定することは困難である。例えば、スペックル画像の右下の象限は、全体に点在する流れを示すピクセルを有し、血流を有する血管を容易に特定することはできない。
1.システム
図2は、機械学習モデルを訓練および使用して、テスト画像データセットに基づいて動きデータを推定するためのシステム200を示す。システム200は、訓練データセットを収集するように構成されている訓練データシステム202を含み得る。訓練データセットは、複数の深部組織画像を含むことができ、各画像は、画像が収集されたときに、画像内のどこで移動(例えば、血流)が発生していたかを示す他のデータに関連付けることができる。例えば、移動に関連付けられたピクセルのリストを特定することができる。別の例として、各深部組織画像は、浅部組織画像に関連付けることができる(例えば、浅部組織画像を使用して、移動をかなり確実に検出することができる場合)。
訓練データシステム202は、電子機器、撮像センサ(例えば、カメラ)、および光源(例えば、レーザ)を含み得る。電子機器は、撮像センサおよび光源の動作を一時的に制御することができる。したがって、光源は、対象(例えば、蛍光色素の提供の結果として組織内の血液が染色された人工あるいは本物の生体内または生体外組織)の深部を照射することができ、撮像センサは、画像データを収集することができる。場合によっては、パラダイムは、対象内のどこで流れが発生しているかがわかるように構築される。場合によっては、別の撮像センサおよび別の光源は、対象の同じ部分であるが反対側から照射するように構成されており、それにより、(場合によっては)浅部撮像の効果が生じ得、したがって、スペックルおよびスペックル移動の視覚的表示が浅部画像において容易に検出され、かかる移動の場所を深部画像の場所にマッピングすることができる。
訓練データセットは、画像データデータベース204および動きデータデータベース206に記憶することができる。画像データデータベース204は、画像データセットを含み得る。画像データセットは、複数の深部画像を表し得る。各画像について、画像データセットは、第1の複数のピクセルの各ピクセルについて、画像特性値を含み得る。第1の複数のピクセルは、訓練データシステム202内の画像センサの解像度と同じ数であり得る。画像特性値は、少なくともピクセルの強度に基づき得る。場合によっては、画像特性値は、RGB値を含む。
動きデータデータベース206は、動きデータセットを含み得る。動きデータセットは、画像データセットにおける複数の深部画像の各々について、画像内のどこで動きが発生しているかについての指示を含み得る。例えば、動きデータセットは、移動に対応する第1の複数のピクセルの一部分を特定し得る。動きデータセットは、生体組織内の液体の移動に対応する画像特性値を有する第1の複数のピクセルの不完全なサブセットを示し得る。画像データに関連付けられた動きデータは、既知であるか、または、測定可能であるため、訓練データは、グラウンドトゥルースとみなされ得る。画像データデータベース204および動きデータデータベース206は、設備208内に存在し得、それは、クラウド内にあるか、または他の方法でネットワークを介してアクセス可能であり得る。場合によっては、訓練データセットは、複数の訓練データシステム202を使用して収集される。
撮像システム210は、テスト画像データデータベース212からテスト画像データを取得し得る。撮像システム210は、撮像センサ(例えば、カメラ)、光源(例えば、レーザ)、および電子機器を含み得る。電子機器は、対象(例えば、生体外または生体内組織)が光源によって照射され、撮像センサが画像を捕捉するように、撮像センサおよび光源を制御することができる。撮像システム210は、訓練データシステム202と同様に動作し得る。場合によっては、撮像システム210は、訓練データシステム202のすべてまたは一部を含む。例えば、1つの同じシステムを使用して、訓練データおよび非訓練データを収集し得る。生体試料は、組織内の深部に血流を有する組織であり得る。捕捉された画像は、捕捉された深部組織画像であり得、それは、生物組織において、少なくとも0.5mm、少なくとも1mm、少なくとも2mm、少なくとも5mm、少なくとも1cm、少なくとも2cm、または少なくとも5cmの深度において撮像された対象を含む。結果として生じるテスト画像データセットは、テスト画像データデータベース212に記憶される。場合によっては、撮像システム210および/またはテスト画像データデータベース212は、施設214に配置され得る。施設214は、実験室、または病院、手術室、もしくは緊急救命室を含医療施設であり得る。場合によっては、テスト画像データデータベース212は、撮像システム210から離れている(例えば、クラウド内にある)。
画像データデータベース204からの画像データ、動きデータデータベース206からの動きデータ、および撮像システム210からのテスト画像データは、評価システム216によって受信され得る。評価システム216は、画像データデータベース204および動きデータデータベース206からの訓練データを使用して、機械学習モデルを訓練し得る。訓練することは、画像データセットと動きデータセットと間の対応に基づいて、機械学習モデルにおける関数の1つ以上のパラメータを特定することをもたし得る。機械学習モデルは、例えば、ロジスティック回帰またはサポートベクターマシンを含み得る。いくつかの実施形態では、機械学習モデルは、人工ニューラルネットワーク、全結合ニューラルネットワーク、または畳み込みニューラルネットワークを含み得る。畳み込みフィルタのセットは、1つ以上のパラメータに依存する場合がある。機械学習モデルを訓練することは、畳み込みフィルタのセットについて1つ以上のパラメータを特定することを含み得る。
評価システム216は、撮像システム210からテスト画像データセットを受信し得る。テスト画像データセットは、第2の複数のピクセルの各ピクセルについて、1つ以上の値を含み得る。第2の複数のピクセルの各ピクセルは、捕捉された深部組織画像において強度を有し得る。評価システムは、訓練された機械学習モデルおよびテスト画像データセットを使用して、テスト画像データセットに対する出力データを生成し得る。出力データは、テスト画像データセットにおいて表される動きを特徴付け得る。出力データは、出力データデータベース218に記憶され得る。
場合によっては、出力データは、移動に関連付けられていると判定される第2の複数のピクセルのうちの1つ以上を特定する。場合によっては、出力データは、第2の複数のピクセルの各々について、第2の複数のピクセルの不完全なサブセットにおける動きを示す処理値を含む出力画像を含み得る。例えば、出力画像の第2の複数のピクセルの各ピクセルは、ピクセルに関連付けられた場所における動きの尤度に依存し得る画像特性値(例えば、強度または色)を有し得る。例えば、ピクセルの画像特性値は、動きの尤度に直接依存する関数であり得る。出力データセットは、テスト画像データセットとは異なり、ピクセルの値は、多くの場合そのピクセルの周辺のピクセルに基づいたさらなる処理または分析(例えば、コントラストまたはぼかしの分析)なしでは、流れの尤度を示さない場合がある。したがって、出力データデータベース218は、記憶された画像を含み得る。
評価システム216はまた、訓練された機械学習モデルおよびテスト画像データセットを使用して生成された出力データに基づいて、テスト画像データセットに関連付けるために1つ以上の流量値を決定し得る。評価システム216は、1つ以上の流量値を出力し得る。流量データは、流量データデータベース220に記憶され得る。
評価システム216はまた、訓練された機械学習モデルおよびテスト画像データセットを使用して生成された出力データに基づいて、テスト画像データセットに関連付けるために1つ以上の深度値を決定し得る。評価システム216は、1つ以上の深度値を出力し得る。流量データは、深度データデータベース226に記憶され得る。
評価システム216は、ユーザシステム222と通信していてもよい。ユーザシステム222は、ユーザ224が評価システム216に情報を送信および受信することを可能にし得る。ユーザシステム222は、処理される画像を選択し、処理特性を特定し、画像を処理した結果を受信するよう要求し得、出力データおよび/または流量データの指示を表示し得る。ユーザシステム222を通して、ユーザ224は、処理の精度レベルを指定し得(所望の感度および/または特異性を含み得る)、流れの可能領域を示し得、画像のおおよその解剖学的場所を示し得、訓練に使用するために評価システム216に対して特定の統計値またはパラメータを選択し得、使用する機械学習モデルの種類を選択し得、分析するテスト画像データの部分を示し得、および/または評価の出力の形態を選択し得る。例えば、ユーザシステム222は、動きが検出された場所を示すオーバーレイを画像(例えば、図1の右下の画像)上に表示し、および/または流量値を表示し得る。ユーザシステム222は、ネットワークコンピュータ、スマートフォン、タブレット、または他の好適な電子デバイスを含み得る。
2.機械学習モデル
図3は、ニューラルネットワークの図を示す。スペックル画像302は、入力304を含む異なる入力について分析され得る。入力は、画像におけるピクセルでの照明の強度または波長を含み得る。入力は、隠れ変数306を含む隠れ変数に変換され得る。隠れ変数306は、入力304または複数の入力に基づく統計値であり得る。統計値は、中央値、最頻値、平均値、最小値、最大値、パーセンタイル、分散、歪度、または尖度を含み得る。隠れ変数306はまた、入力データのヒストグラム分布の形状または他の特性も含み得る。いくつかの実施形態では、可能な隠れ変数は、機械学習モデルがテストするために事前に決定されるか、または事前に選択され得る。場合によっては、隠れ変数は、入力と同じであり得る。次に、隠れ変数は、ピクセルにおける流れを表す出力308を含む出力に結び付けられ得る。出力の値は、既知であり得る。ニューラルネットワークは、隠れ変数と出力との間の重みを決定するように訓練され得る。ある隠れ変数は、出力と重要な関連性を有すると判定され得、より大きい重みは、関連性を反映している。他の隠れ変数は、出力とほとんど関連性がなく、重みは、ゼロに近いまたはゼロであり得る。当業者は、本明細書に記載する方法が、機械学習で使用される特徴量エンジニアリングおよびハイパーパラメータの決定に関連することを認識するであろう。
いくつかの実施形態では、隠れ変数は、事前に決定されるか、または事前に選択されるのではなく、機械学習モデルによって決定され得る。図4は、隠れ変数を特定し得る畳み込みニューラルネットワークを使用した訓練アルゴリズムを示す。生スペックル画像402は、関心領域404に分割される。各関心領域は、ピクセルの周囲の固定サイズであり得る。関心領域は、訓練画像として使用され得る。各訓練画像について、血管の流量値および深度は、グラウンドトゥルース流れマップ406に基づいて、割り当てられ得る。グラウンドトゥルース流れマップは、流れが生スペックル画像に関連付けられた試料において既知であるか、または測定されているため、取得され得る。ピクセルの強度を含む訓練データは、ニューラルネットワークに送られ得る。ニューラルネットワークは、ReLu活性化を有する畳み込み層408などの複数の畳み込み層を含み得る。畳み込み層は、平坦化層410に平坦化され得る。平坦化層からの出力は、同様にReLu活性化を有する全結合ネットワークに送られ得る。最終層は、入力画像を流れありまたは流れなしに分類するためのSoftmax活性化を有する2つのニューロン412を含み得る。
いくつかの実施形態では、機械学習モデルは、スペックル画像を入力とみなし、ピクセルに関連付けられた場所における流れの尤度に依存する強度または他の特性を有するピクセルを含む画像を出力し得る。図5は、生スペックル画像を、どこで移動が起こっているかを示す出力画像に変換するためのプロセスを図示する。スペックル画像502などの生スペックル画像全体が、訓練画像とみなされ得る。スペックル画像502は、畳み込みフィルタのセットを通じて送信され得る。畳み込みフィルタは、小さいサイズ(例えば、3×3または5×5)であり得、受容野のサイズを大きくするために拡張され得る。拡張率は、入力畳み込み層では1(拡張なし)に設定し、後続の層では段階的に増加され得る。図5に示すように、希釈率は、第1の畳み込みフィルタでは1に、第2の畳み込みフィルタでは2に、第3の畳み込みフィルタでは4に、第4の畳み込みフィルタでは8に設定される。図5では、最初の3つの畳み込みフィルタは、ReLu活性化を有する。第4の畳み込みフィルタは、シグモイド活性化を有する。畳み込みフィルタの出力は、平坦化され、グラウンドトゥルース画像504に対して比較される。グラウンドトゥルース画像は、人工構造物、コンピューターシミュレーション、または蛍光色素を注入した血液を使用して測定された流れを有する生体組織に基づき得る。グラウンドトゥルース画像における流れの領域は、測定、観察、または計算することができる。誤差(例えば、平均二乗誤差またはバイナリクロスエントロピー損失)が計算される。畳み込みフィルタに送られるパラメータは、誤差を最小限に抑えるように調整される。機械学習モデルは、生スペックル画像を取得し、流れありおよび流れなしの領域を肉眼で区別することができる画像を生成するように訓練され得る。例えば、出力画像において、流れありに関連付けられたピクセルは、流れなしに関連付けられたピクセルとは異なる強度または色を有し得る。強度または色の相違は、肉眼で区別されるほど十分に大きい場合がある。
いくつかの実施形態では、複数のスペックル画像は、訓練画像として使用され得る。これらの複数のスペックル画像は、異なる照明または撮像パラメータで取得した映像またはスペックルマップにおける複数の連続したフレームを含み得る。例えば、異なる照明波長は、試料の異なる部分においてスペクトル変化する吸収および散乱特性をエンコードし得る。異なる露光時間を有する画像は、単一の露光時間を有する画像よりも広い範囲の速度にわたる流量に関する情報をエンコードし得る。カラー明視野画像もまた、使用され得る。
モデルを訓練した後、モデルは、リアルタイムまたは事後に実行され、画像誘導手術などの用途のために流れの視覚化を生成し得る。外科内視鏡検査の用途では、画像または映像は、外科医を支援するために表示または重ね合わされ得る。
図6は、図5の出力をスペックル画像上に重ね合わせるために使用され得る方法600を示す。方法600は、インコヒーレント(白色光)照明で通常のカラー明視野画像を取得するための可視チャネル602を有し得る。方法600はまた、830nmの波長を含むインコヒーレント照明でスペックル画像を検出するためのIRチャネル604を有し得る。スペックルチャネルは、照明がコヒーレントである限り(例えば、レーザ)、いずれかの波長を使用し得る。830nmを含む赤外波長は、可視範囲では入手することができない深部組織を撮像するための追加情報を提供し得る。例えば、赤外光は、可視光よりも組織により深く浸透し得る。より深く浸透する光は、主要な血管が存在し得る場所を含む、組織のより深い部分からより多くの後方散乱信号を提供し得る。波長は、画像センサによって検出されるいずれかの波長であり得る。相補型金属酸化膜半導体(CMOS)または電荷結合素子(CCD)画像センサは、最大で約1,000nm~1,100nmに反応し得る。他の画像センサ(例えば、InGaAsベースのIRカメラ)は、より長い波長の照明のために使用され得る。
可視チャネルの後、可視チャネルデータは、デモザイク処理606を含むいくつかのフィルタリング処理を経てもよい。デモザイク処理606は、不完全なカラー試料から(例えば、カラーフィルタから)フルカラー画像を再構成し得る。例えば、デモザイク処理606は、画像センサの赤、緑、および青のフィルタによって提供されるモザイク状の試料からカラー画像を構成し得る。デモザイク処理606の後、ノイズ除去処理608は、画像のノイズを低減し得、信号対ノイズ比を増加させ得る。ノイズ除去技術は、クロマおよびルミナンスノイズ分離、線形平滑化フィルタ、異方性拡散、非局所的手段、非線形フィルタ、およびウェーブレット変換を含む、好適なフィルタ、変換、および統計的方法を含み得る。ノイズ除去処理608の後、フラットフィールド補正610を使用して、画像品質を向上させ得る。フラットフィールド補正は、検出器、または画像パスにおける歪みによって引き起こされ得る画像の乱れを除去し得る。
IRチャネルデータもまた、グレースケールデモザイク612を含むフィルタリング処理を経てもよい。グレースケールデモザイク612は、不完全な試料からグレースケール画像を構成し得る。ベイヤーフィルタ処理された画像センサを使用する場合は、デモザイキングが使用され得る。異なるカラーフィルタを有するピクセルは、異なる量子効率を有し得、それにより、IR照明で生画像においてモザイクパターンを生じさせ得る。グレースケールデモザイク612の後、複数のウィンドウサイズ全体にわたりピクセル統計値計算614が適用され得る。ピクセル統計値計算は、本明細書に記載のいずれかの隠れ変数または画像統計値の計算であり得る。
可視チャネル602およびIRチャネル604からのフィルタ処理されたデータは、それに適用される順モデル616を有し得る。モデルは、線形モデル、ニューラルネットワークモデル、または本明細書に記載のいずれかのモデルであり得る。モデルからの出力データは、動きを特徴付け得る。画像セグメンテーション618は、動きまたは流れに関連付けられたピクセルをセグメント化し得る。図6では、セグメント化されたピクセルは、緑チャネル620を使用して緑色のオーバーレイで表示される。他の実施形態では、セグメント化されたピクセルは、赤および青チャネル622を使用することを含む他の色を使用して表示され得る。緑色のオーバーレイは、RGBチャネルから生成された画像と合成624され、流れマップオーバーレイを有するカラー画像626を生成する。流れマップオーバーレイを有するカラー画像は、リアルタイムで表示される映像用であり得る。緑色のオーバーレイは、図6のカラーチャネルとして使用されたが、いずれかのカラーチャネルまたは複数のカラーチャネルをオーバーレイに使用することができる。
図7は、レーザスペックル画像を作成および処理するために使用され得る方法700を示す。方法700は、可視画像702および赤外線スペックル画像704を含み得る。可視画像702および赤外線スペックル画像704からのデータは、可視チャネルと赤外線チャネルとの間の可能性のある不整合を処理するために時間インターリーブ706され得る。可視画像702は、デモザイクパイプライン708を経てもよく、赤外線スペックル画像704は、デモザイクパイプライン710を経てもよい。デモザイクパイプライン708は、赤、青、および緑のチャネルからのデータを処理することを含む。方法700は、緑チャネル714から分離された赤および青チャネル712を示す。この図では、オーバーレイは、緑色で示されるため、緑チャネル714は、分離されているが、いずれかのチャネルまたはチャネルの組み合わせは、他から分離され得る。
デモザイクパイプライン710は、グレー画像のために赤、緑、および青チャネルの線形結合716をもたらし得る。平均または標準偏差などの画像統計値は、画像に対するウィンドウサイズ全体にわたって計算され得る(ブロック718)。シグモイド関数720は、画像統計値の計算に適用され得る。ブロック718および720は、評価システム216によって実行される分析と同様の分析を指し得る。シグモイド関数720の出力は、緑チャネルに出力され得る。次に、赤、緑、および青のチャネルは、レーザスペックル画像のために結合722され、レーザスペックル724を生成する。レーザスペックル724は、移動の尤度を伴って緑色の領域に示し得る。
次に、レーザスペックル724は、レーザスペックル画像を向上させるための追加の技術を受け得る。これらの技術は、レーザスペックルを取得してYCbCr色空間726に変換することを含み得る。次に、ウェーブレットノイズ除去728が適用され得、それに続いて緑チャネルパターンノイズ除去730が行われ得る。エッジ強化732、UV彩度734、およびガンマ補正736が適用されて、移動または流れを示す強化されたレーザスペックル画像を生成し得る。
3.方法
図8は、機械学習モデルを訓練および使用して、試験データセットについて動きデータを推定する方法800を示す。いくつかの実施形態では、方法800は、生体組織を光(例えば、レーザ)で照射すること、および生体組織から散乱した光を検出することを含み得る。方法800は、画像データセットを生成するために、生体組織から散乱された光の強度を捕捉することを含み得る。
ブロック802において、方法800は、コンピュータシステムによって、複数の訓練データ要素を含む訓練データを受信することを含み得、各訓練データ要素は、画像データセットおよび動きデータセットを含む。複数の訓練データ要素の各訓練データ要素は、画像データセットおよび動きデータセットを含み得る。画像データセットは、第1の複数のピクセルの各ピクセルについて、画像特性値を含み得、画像特性値は、少なくともピクセルの強度に基づいている。例えば、画像特性値は、ピクセルの強度であり得る。ピクセルの強度は、どの程度ピクセルが白い(もしくは暗い)か、またはピクセルの色の波長と相関し得るかということであり得る。いくつかの実施形態では、画像特性値は、1つ以上の他の強度に基づき得る。1つ以上の他の強度は、ピクセルを有する空間クラスタ内の別のピクセルの強度であり得る。例えば、画像特性値は、合計値、平均値、中央値、最頻値、またはピクセル周辺のピクセルの強度の他の統計値を含み得る。いくつかの実施形態では、画像特性値は、関心領域における強度のヒストグラムを含み得る。これらおよび他の実施形態では、入力データは、関心領域のフーリエ変換を受けるか、または関心領域の2D自己相関マップを有し得る。
動きデータセットは、移動を表す第1の複数のピクセルの一部分を示し得る。動きデータセットは、既知の、または測定された流れに基づき得る。動きデータセットは、グラウンドトゥルース流れマップと称され得る。グラウンドトゥルース流れマップは、人工構造物、コンピューターシミュレーション、または蛍光色素を注入した血液を使用して測定された流れを有する生体組織に基づき得る。動きデータセットは、生体組織内の液体の移動に対応する画像特性値を有する第1の複数のピクセルの不完全なサブセットを示し得る。動きデータセットにおけるデータ点は、流れの2進法表示、流れの確率、またはピクセルの流量を含み得る。
ブロック804において、方法800はまた、訓練データセットを使用して、機械学習モデルを訓練することも含み得る。訓練することは、画像データセットと動きデータセットとの間の対応に基づいて、機械学習モデルにおける関数の1つ以上のパラメータを特定することをもたらし得る。1つ以上のパラメータは、本明細書に記載のいずれかの隠れ変数を含み得る。対応は、画像データセットにおけるピクセルの画像特性値を、動きデータセットにおけるピクセルの移動の表示に関連付けることを含み得る。訓練することは、各訓練データ要素について、画像データセットに基づいて1つ以上の画像統計値を生成し得る。
機械学習モデルは、1つ以上の画像統計値を使用して訓練され得る。1つ以上のパラメータは、ピクセルの強度、および空間クラスタ内の1つ以上のピクセルに基づく統計値を含み得る。統計値は、中央値、最頻値、平均値、最小値、最大値、パーセンタイル、分散、歪度、または尖度を含み得る。パラメータはまた、入力データのヒストグラム分布の形状または他の特性を含み得る。画像特性値とは異なり、1つ以上のパラメータは、1つ以上の画像統計値のうちのある画像統計値に関連付けられた重みを含み得る。画像統計値は、本明細書に記載のいずれかの画像統計値であり得る。
ブロック806において、方法800は、コンピュータシステムによって、テスト画像データセットを受信することをさらに含み得る。テスト画像データセットは、第2の複数のピクセルの各ピクセルについて、捕捉された深部組織画像におけるピクセルの強度を含み得る。捕捉された深部組織画像は、生物組織における表面から一定の深度(例えば、少なくとも1mm)までの対象を撮像している間に収集されていてもよい。対象は、生体組織、血液、骨、または皮膚を含み得る。第2の複数のピクセルは、(例えば、ピクセルの数および/または画像の示された範囲に関して)第1の複数のピクセルと同じか、またはそれとは異なり得る。いくつかの実施形態では、方法800は、テスト画像データセットを取得することを含み得る。テスト画像データセットを取得することは、生体組織を光で照照射することと、組織からの散乱を検出することと、を含み得る。方法800は、テスト画像データセットを取得する際に蛍光染料の使用を除外し得る。
ブロック808において、方法800は、訓練された機械学習モデルおよびテスト画像データセットを使用して、テスト画像データセットに対する出力データを生成することを含み得る。機械学習モデルは、ロジスティック回帰、サポートベクターマシン、または人工ニューラルネットワークであり得る。出力データは、テスト画像データセットにおいて表される動きを特徴付け得る。出力データは、表形式または好適な形式の出力画像または流れデータを含む、本明細書に記載のいずれかの出力データであり得る。
いくつかの実施形態では、機械学習モデルが畳み込みニューラルネットワークである場合、畳み込みフィルタのセットは、1つ以上のパラメータに依存し得る。機械学習モデルを訓練することは、畳み込みフィルタのセットに対して1つ以上のパラメータを特定することを含み得る。パラメータは、畳み込みフィルタの重み付け、拡張、または活性化の種類(例えば、ReLu、シグモイド)を含み得る。テスト画像データセットに対する出力データを生成することは、第2の複数のピクセルを含む画像を出力することを含み得る。第2の複数のピクセルの各ピクセルは、図5に記載のプロセスと同様に、ピクセルに関連付けられた位置における流れの尤度に依存し得る画像特性値(例えば、強度または色)を有し得る。
ブロック810において、方法800は、訓練された機械学習およびテスト画像データセットを使用して生成された出力データに基づいて、テスト画像データセットに関連付けるための1つ以上の流量値および/または1つ以上の深度値を決定することを含み得る。流量値は、流れの確率、流れの2進法表示、または流量の測定値(例えば、cm/分の数値)であり得る。深度値は、絶対的な深度測定値(例えば、表面からのミリメートル)または相対的な深度測定値(例えば、血管が皮膚または骨、あるいは別の血管よりも深い)であり得る。
ブロック812において、方法800は、1つ以上の流量値および/または1つ以上の深度値を出力することを含み得る。流量値は、数値として出力され得、または流量値は、出力画像における異なるピクセル強度または他の画像特性値によって表され得る。
方法800は、出力データに基づいて特許に対する治療を決定することをさらに含み得る。例えば、治療は、血流を有しない領域における外科的切開または他の処置を含み得、それにより患者の健康を改善し得る。
いくつかの実施形態は、1つ以上のプロセッサによって実行されると、機械学習モデルを訓練および使用して、テスト画像データセットに基づいてデータを推定する方法を実行する複数の命令を記憶するコンピュータ可読媒体を含み得る。方法は、本明細書に記載のいずれかの方法であり得る。
実施例1
図9は、機械学習モデルを訓練するために使用されるグラウンドトゥルースラベルおよび画像データを示す。図9は、図1で使用された同じ試料の画像を示す。試料は、生体組織内の表面下の血流の人工的な構造物である。試料は、豚肉の2つの層の間に挟まれた血流を有するプラスチックチューブを含んでいた。
本例では、生データ画像は、左上に示される。右上の画像は、上部の肉の層を取り除いた写真に基づいて、流れについてのグラウンドトゥルースラベルを示すオーバーレイでラベル付けされた生データ画像を示す。ラベル付けされた流れの領域は、訓練のための動きデータセットとして使用される。動きデータセットは、流れを有する各ピクセルの確率を示し、1は流れを示し、0は静的状態(流れなし)を示す。訓練のための画像データセットは、生データ画像からランダムに選択されたピクセルの不完全なサブセット、およびランダムに選択されたピクセルの各ピクセルの強度である。左下の画像は、右上の画像からのグラウンドトゥルースオーバーレイと一致するより暗い帯域を示し、訓練のために使用されるピクセル(例えば、画像データセット)を強調している。機械学習モデルは、画像データセットおよび動きデータセットを使用して訓練される。訓練された機械学習モデルを検証するために、訓練のために使用されていない生データ画像のピクセルは、検証のためのテスト画像データセットとして使用された。モデルを検証するために使用されるピクセルは、右下に示される。
実施例2
図10は、上の列に異なる関心領域の画像、および下の列に異なる領域の強度ヒストグラムを示す。異なる関心領域は、グラウンドトゥルース流れマップに基づいて、流れを有する場合は1として、流れを有しない場合は0としてラベル付けされる。ヒストグラムは、x軸に強度、y軸に強度を有するピクセル数を示す。流れがあるとラベル付けされた領域の強度のヒストグラム分布は、流れを有しないとしてラベル付けされた領域とは異なる分布を有する。例えば、流れのある領域は、流れのない領域よりも狭いヒストグラム分布を示す。機械学習モデルは、ヒストグラム分布の形状または他の特性を、訓練においてパラメータまたは隠れ変数として使用し得る。
実施例3
図11は、生画像、およびロジスティック回帰機械学習モデルによって生成された生画像における流れを示す出力データを示す。図11の画像は、図9の訓練ターゲットおよび検証ターゲットを使用した訓練の結果である。赤色のピクセルは、機械学習モデルによって、50%を超える流れを有する確率を有すると特定された領域を示す。訓練に考慮される関心領域の統計値は、標準偏差を平均値、中央値、歪度、および最小値で割ったものであった。訓練およびテストは、様々なサイズの領域で使用された。左上の画像は、7×7領域での結果を示す。右上の画像は、11×11領域での結果を示す。左下の画像は、15×15領域での結果を示す。右下の画像は、19×19領域での結果を示す。7×7領域での結果は、流れを有するとして多くの分離されたピクセルを特定することにより、より多くのノイズを示す。11×11領域は、流れを有するとしてより少ない分離されたピクセルを示す。より大きい関心領域は、流れのある領域を特定する際により少ないノイズを可能にし得る。しかしながら、ロジスティック回帰機械学習モデルを使用した図11のすべての画像は、図1で実行されたように、従来のスペックルコントラストイメージング技術を使用した場合よりも少ないノイズを示す。図11の流れの領域は、図1よりも、目視検査によって容易に特定することができる。
実施例4
図12は、図4で説明したプロセスと同様の畳み込みニューラルネットワークを使用した結果を示す。12×12、14×14、16×16、および18×18を含む、異なる関心領域が使用される。各セットの左の画像は、畳み込みニューラルネットワークからの出力データをグレースケールで示し、ここで、流れを有するより高い確率を有するピクセルは、より白い。各セットの右の画像は、50%を超える流れを有する確率を有するピクセルのみを白として示す。図11のロジスティック回帰結果と同様に、より大きい領域サイズを使用した結果は、より少ないノイズを示す。図12の結果は、畳み込みニューラルネットワークを使用して、深部組織内の血流の領域を特定することができることを示す。
実施例5
図13は、捕捉された深部組織画像における血流を判定するための異なる方法の結果の比較を示す。左端の画像は、従来のスペックルコントラストイメージング、および機械学習ベースの方法を使用したシグモイド活性化によって判定された流れを緑色のオーバーレイで示す。真ん中の画像は、図12の18×18の関心領域を使用して畳み込みニューラルネットワークによって判定された流れを緑色のオーバーレイで示す。右端の画像は、グラウンドトゥルース流れマップ上の流れベースのオーバーレイを示す。画像からわかるように、畳み込みニューラルネットワークから生成されたオーバーレイは、スペックルコントラストイメージングおよびシグモイド活性化から生成されたオーバーレイよりも、グラウンドトゥルース流れマップに類似している。畳み込みニューラルネットワークからのオーバーレイは、スペックルコントラストイメージングからのオーバーレイよりもノイズが少ない。スペックルコントラストイメージングは、スペックル画像の右下の領域を、流れを有すると誤認する。流れの2つの明確な帯域は、畳み込みニューラルネットワークから生成されたオーバーレイにおいて、容易に特定することができる。一方、スペックルコントラストイメージングからのオーバーレイは、より低い帯域を明確に示していない。この比較は、畳み込みニューラルネットワークから生成された出力が、従来のスペックルコントラストイメージングから生成された出力よりも優れていることを示す。
特定の実施形態の具体的な詳細は、本発明の実施形態の精神および範囲から逸脱することなく、いずれかの好適な方法で組み合わされ得る。しかしながら、本発明の他の実施形態は、個々の態様、またはこれらの個々の態様の具体的な組み合わせに関する具体的な実施形態を対象とし得る。
本発明の例示的な実施形態の上記の説明は、例示および説明の目的で提示されている。網羅的であること、または記載された正確な形態に本発明を限定することは意図されておらず、上記の教示に照らして多くの修正および変形が可能である。
前述の説明では、説明の目的で、本技術の様々な実施形態の理解を提供するために多くの詳細が記載されている。しかしながら、これらの詳細の一部を用いずに、または追加の詳細を用いて、特定の実施形態を実施し得ることは、当業者には明らかであろう。
いくつかの実施形態について説明したが、本発明の精神から逸脱することなく、様々な修正、代替構成、および同等物を使用し得ることは、当業者によって認識されるであろう。さらに、本発明を不必要に不明瞭にすることを避けるために、いくつかの周知のプロセスおよび要素については説明されていない。さらに、いずれかの具体的な実施形態の詳細は、その実施形態の変形例に常に存在するとは限らず、または他の実施形態に追加されてもよい。
値の範囲が提供されている場合、その範囲の上限と下限との間の各介在値はまた、文脈で特に明記しない限り、下限の1/10の単位まで、具体的に開示されることが理解される。記載範囲内のいずれかの指定値または介在値と、その記載範囲内の他のいずれかの指定値または介在値との間のより小さい各範囲は、包含される。これらのより小さい範囲の上限および下限は、独立して範囲に含まれるか、または除外されてもよく、いずれかの限界がより小さい範囲に含まれるか、どちらの限界も含まれないか、または両方の限界が含まれる各範囲はまた、記載範囲内のいずれかの具体的に除外された限界を条件として、本発明に包含される。記載範囲が限界のうちの1つまたは両方を含む場合、それらの含まれる限界のいずれかまたは両方を除いた範囲も含まれる。
本明細書および添付の特許請求の範囲で使用される場合、単数形「a」、「an」、および「the」は、文脈で特に明記しない限り、複数の指示対象を含む。したがって、例えば、「方法」への言及は、複数のかかる方法を含み、「粒子」への言及は、1つ以上の粒子および当業者に既知のその同等物への言及などを含む。本発明は、明確さと理解の目的でこれまで詳細に説明されてきた。しかしながら、添付の特許請求の範囲内で特定の変更および修正を実施し得ることが理解されよう。
本明細書に引用されるすべての刊行物、特許、および特許出願は、あらゆる目的のために参照によりその全体が本明細書に援用される。従来技術であると認められるものはない。

Claims (19)

  1. テスト画像データセットに基づいて動きデータを推定する方法であって、
    第1の複数のピクセルの各ピクセルについて、捕捉された深部組織画像における前記ピクセルの強度を含むテスト画像データセットを受信することであって、前記捕捉された深部組織画像は、生体組織の表面下の少なくとも1mmの深度で対象を撮像しながら収集された画像である、前記テスト画像データセットを受信することと、
    コンピュータシステムにおいて、前記テスト画像データセットを機械学習モデルに投入して処理することにより、前記テスト画像データセットに表される予測される動きを判定することであって、前記機械学習モデルは、前記機械学習モデルの1つ以上のパラメータを学習するための訓練データセットを使用して訓練されており、前記訓練データセットは、複数の訓練データ要素を含み、前記複数の訓練データ要素の各訓練データ要素は、
    第2の複数のピクセルの各ピクセルについて、画像特性値を含む画像データセットであって、前記画像特性値は、少なくとも前記ピクセルの強度に基づいている、画像データセットと、
    移動を表す前記第2の複数のピクセルの一部分を示す動きデータセットと、を含む、前記予測される動きを判定することと、
    前記テスト画像データセットについて、前記機械学習モデルからの前記予測される動きに対応する出力データを生成することと、を含む、方法。
  2. 前記機械学習モデルおよび前記テスト画像データセットを使用して生成された前記出力データに基づいて、前記テスト画像データセットに関連付ける1つ以上の流量値を判定することと、
    前記1つ以上の流量値を出力することと、をさらに含む、請求項1に記載の方法。
  3. 前記画像特性値は、1つ以上の他の強度にさらに基づいており、前記1つ以上の他の強度の各強度は、前記ピクセルを有する空間クラスタ内の別のピクセルの強度である、請求項1に記載の方法。
  4. 前記1つ以上のパラメータは、
    前記ピクセルの前記強度と、
    前記空間クラスタ内の1つ以上のピクセルと、に基づく統計値を含む、請求項3に記載の方法。
  5. 前記複数の訓練データ要素の各訓練データ要素について、前記画像データセットに基づいて1つ以上の画像統計値を生成することをさらに含み、前記機械学習モデルは、前記1つ以上の画像統計値を使用して訓練され、前記1つ以上のパラメータは、前記1つ以上の画像統計値のうちの画像統計値に関連付けられた重みを含む、請求項1に記載の方法。
  6. 前記動きデータセットは、前記生体組織内の流体の移動に対応する画像特性値を有する前記第2の複数のピクセルの不完全なサブセットを示す、請求項1に記載の方法。
  7. 前記機械学習モデルは、畳み込みニューラルネットワークを含み、
    畳み込みフィルタのセットは、前記1つ以上のパラメータに依存し、
    前記機械学習モデルを訓練することは、前記畳み込みフィルタのセットに対する前記1つ以上のパラメータを特定することを含み、
    前記テスト画像データセットについて前記出力データを生成することは、前記第1の複数のピクセルを含む画像を出力することを含む、請求項1に記載の方法。
  8. 前記動きデータセットは、血液を使用して測定された流れに基づいている、請求項1に記載の方法。
  9. テスト画像データセットに基づいて動きデータを推定するためのシステムであって、1つ以上のプロセッサと、実行されるときに前記1つ以上のプロセッサに、
    第1の複数のピクセルの各ピクセルについて、捕捉された深部組織画像における前記ピクセルの強度を含むテスト画像データセットを受信することであって、前記捕捉された深部組織画像は、生体組織の表面下の少なくとも1mmの深度で対象を撮像しながら収集された画像である、前記テスト画像データセットを受信することと、
    前記テスト画像データセットを機械学習モデルに投入して処理することにより、前記テスト画像データセットに表される予測される動きを判定することであって、前記機械学習モデルは、前記機械学習モデルの1つ以上のパラメータを学習するための訓練データセットを使用して訓練されており、前記訓練データセットは、複数の訓練データ要素を含み、前記複数の訓練データ要素の各訓練データ要素は、
    第2の複数のピクセルの各ピクセルについて、画像特性値を含む画像データセットであって、前記画像特性値は、少なくとも前記ピクセルの強度に基づいている、画像データセットと、
    移動を表す前記第2の複数のピクセルの一部分を示す動きデータセットと、を含む、前記予測される動きを判定することと、
    前記テスト画像データセットについて、前記機械学習モデルからの前記予測される動きに対応する出力データを生成することと、を行わせる、複数の命令を記憶するコンピュータ可読媒体と、を含む、システム。
  10. 前記複数の命令は、実行されるときに、前記1つ以上のプロセッサに、
    前記機械学習モデルおよび前記テスト画像データセットを使用して生成された前記出力データに基づいて、前記テスト画像データセットに関連付けるために1つ以上の流量値を判定することと、
    前記1つ以上の流量値を出力することと、をさらに行わせる、請求項に記載のシステム。
  11. 前記画像特性値は、1つ以上の他の強度にさらに基づいており、前記1つ以上の他の強度の各強度は、前記捕捉された深部組織画像における前記ピクセルを有する空間クラスタ内の別のピクセルの強度である、請求項に記載のシステム。
  12. 前記1つ以上のパラメータは、
    前記ピクセルの前記強度と、
    前記空間クラスタ内の1つ以上のピクセルと、に基づく統計値を含む、請求項11に記載のシステム。
  13. 前記複数の命令は、実行されるときに、前記1つ以上のプロセッサに、
    前記複数の訓練データ要素の各訓練データ要素について、前記画像データセットに基づいて1つ以上の画像統計値を生成することをさらに行わせ、前記機械学習モデルは、前記1つ以上の画像統計値を使用して訓練され、前記1つ以上のパラメータは、前記1つ以上の画像統計値のうちの画像統計値に関連付けられた重みを含む、請求項に記載のシステム。
  14. 前記動きデータセットは、前記生体組織内の流体の移動に対応する画像特性値を有する前記第2の複数のピクセルの不完全なサブセットを示す、請求項に記載のシステム。
  15. 前記機械学習モデルは、畳み込みニューラルネットワークを含み、
    畳み込みフィルタのセットは、前記1つ以上のパラメータに依存し、
    前記機械学習モデルを訓練することは、前記畳み込みフィルタのセットに対する前記1つ以上のパラメータを特定することを含み、
    前記テスト画像データセットについて前記出力データを生成することは、前記第1の複数のピクセルを含む画像を出力することを含む、請求項に記載のシステム。
  16. 1つ以上のプロセッサによって実行されるとき、テスト画像データセットに基づいてデータを推定する方法を実行する複数の命令を記憶する非一時的コンピュータ可読媒体であって、前記方法は、
    第1の複数のピクセルの各ピクセルについて、捕捉された深部組織画像における前記ピクセルの強度を含むテスト画像データセットを受信することであって、前記捕捉された深部組織画像は、生体組織の表面下のある深度で対象を撮像しながら収集されており、前記深度は、少なくとも1mmである、前記テスト画像データセットを受信することと、
    前記テスト画像データセットを機械学習モデルに投入して処理することにより、前記テスト画像データセットに表される予測される動きを判定することであって、前記機械学習モデルは、前記機械学習モデルの1つ以上のパラメータを学習するための訓練データセットを使用して訓練されており、前記訓練データセットは、複数の訓練データ要素を含み、前記複数の訓練データ要素の各訓練データ要素は、
    第2の複数のピクセルの各ピクセルについて、画像特性値を含む画像データセットであって、前記画像特性値は、少なくとも前記ピクセルの強度に基づいている、画像データセットと、
    移動を表す前記第2の複数のピクセルの一部分を示す動きデータセットと、を含む、前記予測される動きを判定することと、
    前記テスト画像データセットについて、前記機械学習モデルからの前記予測される動きに対応する出力データを生成することと、を含む、非一時的コンピュータ可読媒体。
  17. 前記方法は、
    前記機械学習モデルおよび前記テスト画像データセットを使用して生成された前記出力データに基づいて、前記テスト画像データセットに関連付けるために1つ以上の流量値を判定することと、
    前記1つ以上の流量値を出力することと、をさらに含む、請求項16に記載の非一時的コンピュータ可読媒体。
  18. 前記画像特性値は、1つ以上の他の強度にさらに基づいており、前記1つ以上の他の強度の各強度は、前記捕捉された深部組織画像における前記ピクセルを有する空間クラスタ内の別のピクセルの強度である、請求項16に記載の非一時的コンピュータ可読媒体。
  19. 前記動きデータセットは、前記生体組織内の流体の移動に対応する画像特性値を有する前記第2の複数のピクセルの不完全なサブセットを示す、請求項16に記載の非一時的コンピュータ可読媒体。
JP2020503912A 2017-08-30 2018-08-13 流れを視覚化するための機械学習を使用したスペックルコントラスト分析 Active JP7229996B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762551997P 2017-08-30 2017-08-30
US62/551,997 2017-08-30
PCT/US2018/046530 WO2019046003A1 (en) 2017-08-30 2018-08-13 GRANULARITY CONTRAST ANALYSIS USING AUTOMATIC LEARNING TO VISUALIZE A FLOW

Publications (3)

Publication Number Publication Date
JP2020532783A JP2020532783A (ja) 2020-11-12
JPWO2019046003A5 JPWO2019046003A5 (ja) 2022-04-08
JP7229996B2 true JP7229996B2 (ja) 2023-02-28

Family

ID=63490686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020503912A Active JP7229996B2 (ja) 2017-08-30 2018-08-13 流れを視覚化するための機械学習を使用したスペックルコントラスト分析

Country Status (5)

Country Link
US (2) US10776667B2 (ja)
EP (1) EP3676797B1 (ja)
JP (1) JP7229996B2 (ja)
CN (2) CN111052180A (ja)
WO (1) WO2019046003A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111052180A (zh) 2017-08-30 2020-04-21 威里利生命科学有限责任公司 用于可视化流动的使用机器学习的散斑对比度分析
NL2021837B1 (en) * 2018-10-19 2020-05-13 Stichting Vu Multimode waveguide imaging
US11373298B2 (en) * 2019-03-28 2022-06-28 Canon Medical Systems Corporation Apparatus and method for training neural networks using small, heterogeneous cohorts of training data
CN114364298A (zh) * 2019-09-05 2022-04-15 奥林巴斯株式会社 内窥镜系统、处理系统、内窥镜系统的工作方法以及图像处理程序
CN110659591B (zh) * 2019-09-07 2022-12-27 中国海洋大学 基于孪生网络的sar图像变化检测方法
KR20210045229A (ko) * 2019-10-16 2021-04-26 삼성전자주식회사 컴퓨팅 장치 및 그 동작 방법
EP4070098A1 (en) 2019-12-05 2022-10-12 Tempus Labs, Inc. Large scale organoid analysis
CN111260586B (zh) 2020-01-20 2023-07-04 北京百度网讯科技有限公司 扭曲文档图像的矫正方法和装置
US11561178B2 (en) 2020-04-20 2023-01-24 Tempus Labs, Inc. Artificial fluorescent image systems and methods
US11393182B2 (en) 2020-05-29 2022-07-19 X Development Llc Data band selection using machine learning
CN112288008B (zh) * 2020-10-29 2022-03-01 四川九洲电器集团有限责任公司 一种基于深度学习的马赛克多光谱图像伪装目标检测方法
CN115984405B (zh) * 2023-01-12 2024-03-29 中国科学院宁波材料技术与工程研究所 基于自相关性增强的散射成像方法、系统及模型训练方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016061052A1 (en) 2014-10-14 2016-04-21 East Carolina University Methods, systems and computer program products for visualizing anatomical structures and blood flow and perfusion physiology using imaging techniques

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2526166C (en) 2003-06-12 2014-04-15 Bracco Research Sa Blood flow estimates through replenishment curve fitting in ultrasound contrast imaging
US7397935B2 (en) * 2004-05-10 2008-07-08 Mediguide Ltd. Method for segmentation of IVUS image sequences
US9672471B2 (en) * 2007-12-18 2017-06-06 Gearbox Llc Systems, devices, and methods for detecting occlusions in a biological subject including spectral learning
CA2866509A1 (en) 2011-12-21 2013-06-27 Volcano Corporation Method for visualizing blood and blood-likelihood in vascular images
US11206990B2 (en) * 2013-01-23 2021-12-28 Pedra Technology Pte Ltd Deep tissue flowmetry using diffuse speckle contrast analysis
WO2014152919A1 (en) * 2013-03-14 2014-09-25 Arizona Board Of Regents, A Body Corporate Of The State Of Arizona For And On Behalf Of Arizona State University Kernel sparse models for automated tumor segmentation
US8824752B1 (en) * 2013-03-15 2014-09-02 Heartflow, Inc. Methods and systems for assessing image quality in modeling of patient anatomic or blood flow characteristics
US9717417B2 (en) * 2014-10-29 2017-08-01 Spectral Md, Inc. Reflective mode multi-spectral time-resolved optical imaging methods and apparatuses for tissue classification
EP3229668A4 (en) * 2014-12-08 2018-07-11 Luis Daniel Munoz Device, system and methods for assessing tissue structures, pathology, and healing
US9839483B2 (en) * 2015-04-21 2017-12-12 Heartflow, Inc. Systems and methods for risk assessment and treatment planning of arterio-venous malformation
CN107977709B (zh) * 2017-04-01 2021-03-16 北京科亚方舟医疗科技股份有限公司 预测血管树血管路径上的血流特征的深度学习模型和系统
CN111052180A (zh) 2017-08-30 2020-04-21 威里利生命科学有限责任公司 用于可视化流动的使用机器学习的散斑对比度分析

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016061052A1 (en) 2014-10-14 2016-04-21 East Carolina University Methods, systems and computer program products for visualizing anatomical structures and blood flow and perfusion physiology using imaging techniques

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Kausik Basak et al.,Learning of speckle statistics for in vivoand noninvasive characterization of cutaneous wound regions using laser specklecontrast imaging,MICROVASCULAR RESEARCH,米国,ACADEMIC PRESS,2016年04月27日,VOL:107,PAGE(S):6 - 16,http://dx.doi.org/10.1016/j.mvr.2016.04.008
Nicholas Vincent et al.,Detection of Hyperperfusion on Arterial Spin Labeling using Deep Learning,[online],2015年,https://ieeexplore.ieee.org/document/7359870
石川咲絵,外2名,サポートベクターマシンにおける最適解の性質,[online],2012年,https://core.ac.uk/download/pdf/235255656.pdf

Also Published As

Publication number Publication date
US10776667B2 (en) 2020-09-15
WO2019046003A1 (en) 2019-03-07
US20190065905A1 (en) 2019-02-28
EP3676797A1 (en) 2020-07-08
CN114820494B (zh) 2023-08-29
EP3676797B1 (en) 2023-07-19
JP2020532783A (ja) 2020-11-12
US20200356820A1 (en) 2020-11-12
CN114820494A (zh) 2022-07-29
US11514270B2 (en) 2022-11-29
CN111052180A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
JP7229996B2 (ja) 流れを視覚化するための機械学習を使用したスペックルコントラスト分析
US11154200B2 (en) Skin assessment using image fusion
Figueiredo et al. Automated lesion detectors in retinal fundus images
EP3829416B1 (en) Method and system for augmented imaging in open treatment using multispectral information
JP2021532881A (ja) マルチスペクトル情報を用いた拡張画像化のための方法およびシステム
JP6265588B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
JP6361776B2 (ja) 診断支援装置、及び診断支援装置における画像処理方法、並びにプログラム
US20090136101A1 (en) Method and System for Analyzing Skin Conditions Using Digital Images
US20130121546A1 (en) Inspection of region of interest
EP2486543A1 (en) Formation of a time-varying signal representative of at least variations in a value based on pixel values
CN109635871B (zh) 一种基于多特征融合的胶囊内窥镜图像分类方法
JP4599520B2 (ja) マルチスペクトル画像処理方法
Figueiredo et al. Computer-assisted bleeding detection in wireless capsule endoscopy images
CN111784686A (zh) 一种内窥镜出血区域的动态智能检测方法、系统及可读存储介质
JP2018200640A (ja) 画像処理装置および画像処理方法
Lee et al. Bleeding detection algorithm for capsule endoscopy
Pedersen et al. Image quality metrics for the evaluation and optimization of capsule video endoscopy enhancement techniques
CN111820870B (zh) 生物影像处理方法以及生理信息检测装置
JP7087390B2 (ja) 診断支援装置、画像処理方法及びプログラム
JP6585623B2 (ja) 生体情報計測装置、生体情報計測方法および生体情報計測プログラム
Zaki et al. Tracing of retinal blood vessels through edge information
WO2020145091A1 (ja) 血圧測定装置、モデル設定装置、および血圧測定方法
Lee et al. Image analysis for locating bleeding regions in gastrointestinal endoscopy
Ray et al. An Effective Threshold Based Technique for Retinal Image Blood Vessel Segmentation on Fundus Image Using Average and Gaussian Filters
Imtiaz Color Image Enhancement Techniques for Endoscopic images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230215

R150 Certificate of patent or registration of utility model

Ref document number: 7229996

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150