JP7229996B2 - 流れを視覚化するための機械学習を使用したスペックルコントラスト分析 - Google Patents
流れを視覚化するための機械学習を使用したスペックルコントラスト分析 Download PDFInfo
- Publication number
- JP7229996B2 JP7229996B2 JP2020503912A JP2020503912A JP7229996B2 JP 7229996 B2 JP7229996 B2 JP 7229996B2 JP 2020503912 A JP2020503912 A JP 2020503912A JP 2020503912 A JP2020503912 A JP 2020503912A JP 7229996 B2 JP7229996 B2 JP 7229996B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- data set
- machine learning
- pixel
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
- G06T2207/30104—Vascular flow; Blood flow; Perfusion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Image Analysis (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Description
本出願は、2017年8月30日に出願された「Speckle Contrast Analysis Using Machine Learning for Visualizing Flow」と題する、米国出願第62/551,997号の利益を主張し、参照によりその全体が本明細書に援用される。
図2は、機械学習モデルを訓練および使用して、テスト画像データセットに基づいて動きデータを推定するためのシステム200を示す。システム200は、訓練データセットを収集するように構成されている訓練データシステム202を含み得る。訓練データセットは、複数の深部組織画像を含むことができ、各画像は、画像が収集されたときに、画像内のどこで移動(例えば、血流)が発生していたかを示す他のデータに関連付けることができる。例えば、移動に関連付けられたピクセルのリストを特定することができる。別の例として、各深部組織画像は、浅部組織画像に関連付けることができる(例えば、浅部組織画像を使用して、移動をかなり確実に検出することができる場合)。
図3は、ニューラルネットワークの図を示す。スペックル画像302は、入力304を含む異なる入力について分析され得る。入力は、画像におけるピクセルでの照明の強度または波長を含み得る。入力は、隠れ変数306を含む隠れ変数に変換され得る。隠れ変数306は、入力304または複数の入力に基づく統計値であり得る。統計値は、中央値、最頻値、平均値、最小値、最大値、パーセンタイル、分散、歪度、または尖度を含み得る。隠れ変数306はまた、入力データのヒストグラム分布の形状または他の特性も含み得る。いくつかの実施形態では、可能な隠れ変数は、機械学習モデルがテストするために事前に決定されるか、または事前に選択され得る。場合によっては、隠れ変数は、入力と同じであり得る。次に、隠れ変数は、ピクセルにおける流れを表す出力308を含む出力に結び付けられ得る。出力の値は、既知であり得る。ニューラルネットワークは、隠れ変数と出力との間の重みを決定するように訓練され得る。ある隠れ変数は、出力と重要な関連性を有すると判定され得、より大きい重みは、関連性を反映している。他の隠れ変数は、出力とほとんど関連性がなく、重みは、ゼロに近いまたはゼロであり得る。当業者は、本明細書に記載する方法が、機械学習で使用される特徴量エンジニアリングおよびハイパーパラメータの決定に関連することを認識するであろう。
図8は、機械学習モデルを訓練および使用して、試験データセットについて動きデータを推定する方法800を示す。いくつかの実施形態では、方法800は、生体組織を光(例えば、レーザ)で照射すること、および生体組織から散乱した光を検出することを含み得る。方法800は、画像データセットを生成するために、生体組織から散乱された光の強度を捕捉することを含み得る。
図9は、機械学習モデルを訓練するために使用されるグラウンドトゥルースラベルおよび画像データを示す。図9は、図1で使用された同じ試料の画像を示す。試料は、生体組織内の表面下の血流の人工的な構造物である。試料は、豚肉の2つの層の間に挟まれた血流を有するプラスチックチューブを含んでいた。
図10は、上の列に異なる関心領域の画像、および下の列に異なる領域の強度ヒストグラムを示す。異なる関心領域は、グラウンドトゥルース流れマップに基づいて、流れを有する場合は1として、流れを有しない場合は0としてラベル付けされる。ヒストグラムは、x軸に強度、y軸に強度を有するピクセル数を示す。流れがあるとラベル付けされた領域の強度のヒストグラム分布は、流れを有しないとしてラベル付けされた領域とは異なる分布を有する。例えば、流れのある領域は、流れのない領域よりも狭いヒストグラム分布を示す。機械学習モデルは、ヒストグラム分布の形状または他の特性を、訓練においてパラメータまたは隠れ変数として使用し得る。
図11は、生画像、およびロジスティック回帰機械学習モデルによって生成された生画像における流れを示す出力データを示す。図11の画像は、図9の訓練ターゲットおよび検証ターゲットを使用した訓練の結果である。赤色のピクセルは、機械学習モデルによって、50%を超える流れを有する確率を有すると特定された領域を示す。訓練に考慮される関心領域の統計値は、標準偏差を平均値、中央値、歪度、および最小値で割ったものであった。訓練およびテストは、様々なサイズの領域で使用された。左上の画像は、7×7領域での結果を示す。右上の画像は、11×11領域での結果を示す。左下の画像は、15×15領域での結果を示す。右下の画像は、19×19領域での結果を示す。7×7領域での結果は、流れを有するとして多くの分離されたピクセルを特定することにより、より多くのノイズを示す。11×11領域は、流れを有するとしてより少ない分離されたピクセルを示す。より大きい関心領域は、流れのある領域を特定する際により少ないノイズを可能にし得る。しかしながら、ロジスティック回帰機械学習モデルを使用した図11のすべての画像は、図1で実行されたように、従来のスペックルコントラストイメージング技術を使用した場合よりも少ないノイズを示す。図11の流れの領域は、図1よりも、目視検査によって容易に特定することができる。
図12は、図4で説明したプロセスと同様の畳み込みニューラルネットワークを使用した結果を示す。12×12、14×14、16×16、および18×18を含む、異なる関心領域が使用される。各セットの左の画像は、畳み込みニューラルネットワークからの出力データをグレースケールで示し、ここで、流れを有するより高い確率を有するピクセルは、より白い。各セットの右の画像は、50%を超える流れを有する確率を有するピクセルのみを白として示す。図11のロジスティック回帰結果と同様に、より大きい領域サイズを使用した結果は、より少ないノイズを示す。図12の結果は、畳み込みニューラルネットワークを使用して、深部組織内の血流の領域を特定することができることを示す。
図13は、捕捉された深部組織画像における血流を判定するための異なる方法の結果の比較を示す。左端の画像は、従来のスペックルコントラストイメージング、および機械学習ベースの方法を使用したシグモイド活性化によって判定された流れを緑色のオーバーレイで示す。真ん中の画像は、図12の18×18の関心領域を使用して畳み込みニューラルネットワークによって判定された流れを緑色のオーバーレイで示す。右端の画像は、グラウンドトゥルース流れマップ上の流れベースのオーバーレイを示す。画像からわかるように、畳み込みニューラルネットワークから生成されたオーバーレイは、スペックルコントラストイメージングおよびシグモイド活性化から生成されたオーバーレイよりも、グラウンドトゥルース流れマップに類似している。畳み込みニューラルネットワークからのオーバーレイは、スペックルコントラストイメージングからのオーバーレイよりもノイズが少ない。スペックルコントラストイメージングは、スペックル画像の右下の領域を、流れを有すると誤認する。流れの2つの明確な帯域は、畳み込みニューラルネットワークから生成されたオーバーレイにおいて、容易に特定することができる。一方、スペックルコントラストイメージングからのオーバーレイは、より低い帯域を明確に示していない。この比較は、畳み込みニューラルネットワークから生成された出力が、従来のスペックルコントラストイメージングから生成された出力よりも優れていることを示す。
Claims (19)
- テスト画像データセットに基づいて動きデータを推定する方法であって、
第1の複数のピクセルの各ピクセルについて、捕捉された深部組織画像における前記ピクセルの強度を含むテスト画像データセットを受信することであって、前記捕捉された深部組織画像は、生体組織の表面下の少なくとも1mmの深度で対象を撮像しながら収集された画像である、前記テスト画像データセットを受信することと、
コンピュータシステムにおいて、前記テスト画像データセットを機械学習モデルに投入して処理することにより、前記テスト画像データセットに表される予測される動きを判定することであって、前記機械学習モデルは、前記機械学習モデルの1つ以上のパラメータを学習するための訓練データセットを使用して訓練されており、前記訓練データセットは、複数の訓練データ要素を含み、前記複数の訓練データ要素の各訓練データ要素は、
第2の複数のピクセルの各ピクセルについて、画像特性値を含む画像データセットであって、前記画像特性値は、少なくとも前記ピクセルの強度に基づいている、画像データセットと、
移動を表す前記第2の複数のピクセルの一部分を示す動きデータセットと、を含む、前記予測される動きを判定することと、
前記テスト画像データセットについて、前記機械学習モデルからの前記予測される動きに対応する出力データを生成することと、を含む、方法。 - 前記機械学習モデルおよび前記テスト画像データセットを使用して生成された前記出力データに基づいて、前記テスト画像データセットに関連付ける1つ以上の流量値を判定することと、
前記1つ以上の流量値を出力することと、をさらに含む、請求項1に記載の方法。 - 前記画像特性値は、1つ以上の他の強度にさらに基づいており、前記1つ以上の他の強度の各強度は、前記ピクセルを有する空間クラスタ内の別のピクセルの強度である、請求項1に記載の方法。
- 前記1つ以上のパラメータは、
前記ピクセルの前記強度と、
前記空間クラスタ内の1つ以上のピクセルと、に基づく統計値を含む、請求項3に記載の方法。 - 前記複数の訓練データ要素の各訓練データ要素について、前記画像データセットに基づいて1つ以上の画像統計値を生成することをさらに含み、前記機械学習モデルは、前記1つ以上の画像統計値を使用して訓練され、前記1つ以上のパラメータは、前記1つ以上の画像統計値のうちの画像統計値に関連付けられた重みを含む、請求項1に記載の方法。
- 前記動きデータセットは、前記生体組織内の流体の移動に対応する画像特性値を有する前記第2の複数のピクセルの不完全なサブセットを示す、請求項1に記載の方法。
- 前記機械学習モデルは、畳み込みニューラルネットワークを含み、
畳み込みフィルタのセットは、前記1つ以上のパラメータに依存し、
前記機械学習モデルを訓練することは、前記畳み込みフィルタのセットに対する前記1つ以上のパラメータを特定することを含み、
前記テスト画像データセットについて前記出力データを生成することは、前記第1の複数のピクセルを含む画像を出力することを含む、請求項1に記載の方法。 - 前記動きデータセットは、血液を使用して測定された流れに基づいている、請求項1に記載の方法。
- テスト画像データセットに基づいて動きデータを推定するためのシステムであって、1つ以上のプロセッサと、実行されるときに前記1つ以上のプロセッサに、
第1の複数のピクセルの各ピクセルについて、捕捉された深部組織画像における前記ピクセルの強度を含むテスト画像データセットを受信することであって、前記捕捉された深部組織画像は、生体組織の表面下の少なくとも1mmの深度で対象を撮像しながら収集された画像である、前記テスト画像データセットを受信することと、
前記テスト画像データセットを機械学習モデルに投入して処理することにより、前記テスト画像データセットに表される予測される動きを判定することであって、前記機械学習モデルは、前記機械学習モデルの1つ以上のパラメータを学習するための訓練データセットを使用して訓練されており、前記訓練データセットは、複数の訓練データ要素を含み、前記複数の訓練データ要素の各訓練データ要素は、
第2の複数のピクセルの各ピクセルについて、画像特性値を含む画像データセットであって、前記画像特性値は、少なくとも前記ピクセルの強度に基づいている、画像データセットと、
移動を表す前記第2の複数のピクセルの一部分を示す動きデータセットと、を含む、前記予測される動きを判定することと、
前記テスト画像データセットについて、前記機械学習モデルからの前記予測される動きに対応する出力データを生成することと、を行わせる、複数の命令を記憶するコンピュータ可読媒体と、を含む、システム。 - 前記複数の命令は、実行されるときに、前記1つ以上のプロセッサに、
前記機械学習モデルおよび前記テスト画像データセットを使用して生成された前記出力データに基づいて、前記テスト画像データセットに関連付けるために1つ以上の流量値を判定することと、
前記1つ以上の流量値を出力することと、をさらに行わせる、請求項9に記載のシステム。 - 前記画像特性値は、1つ以上の他の強度にさらに基づいており、前記1つ以上の他の強度の各強度は、前記捕捉された深部組織画像における前記ピクセルを有する空間クラスタ内の別のピクセルの強度である、請求項9に記載のシステム。
- 前記1つ以上のパラメータは、
前記ピクセルの前記強度と、
前記空間クラスタ内の1つ以上のピクセルと、に基づく統計値を含む、請求項11に記載のシステム。 - 前記複数の命令は、実行されるときに、前記1つ以上のプロセッサに、
前記複数の訓練データ要素の各訓練データ要素について、前記画像データセットに基づいて1つ以上の画像統計値を生成することをさらに行わせ、前記機械学習モデルは、前記1つ以上の画像統計値を使用して訓練され、前記1つ以上のパラメータは、前記1つ以上の画像統計値のうちの画像統計値に関連付けられた重みを含む、請求項9に記載のシステム。 - 前記動きデータセットは、前記生体組織内の流体の移動に対応する画像特性値を有する前記第2の複数のピクセルの不完全なサブセットを示す、請求項9に記載のシステム。
- 前記機械学習モデルは、畳み込みニューラルネットワークを含み、
畳み込みフィルタのセットは、前記1つ以上のパラメータに依存し、
前記機械学習モデルを訓練することは、前記畳み込みフィルタのセットに対する前記1つ以上のパラメータを特定することを含み、
前記テスト画像データセットについて前記出力データを生成することは、前記第1の複数のピクセルを含む画像を出力することを含む、請求項9に記載のシステム。 - 1つ以上のプロセッサによって実行されるとき、テスト画像データセットに基づいてデータを推定する方法を実行する複数の命令を記憶する非一時的コンピュータ可読媒体であって、前記方法は、
第1の複数のピクセルの各ピクセルについて、捕捉された深部組織画像における前記ピクセルの強度を含むテスト画像データセットを受信することであって、前記捕捉された深部組織画像は、生体組織の表面下のある深度で対象を撮像しながら収集されており、前記深度は、少なくとも1mmである、前記テスト画像データセットを受信することと、
前記テスト画像データセットを機械学習モデルに投入して処理することにより、前記テスト画像データセットに表される予測される動きを判定することであって、前記機械学習モデルは、前記機械学習モデルの1つ以上のパラメータを学習するための訓練データセットを使用して訓練されており、前記訓練データセットは、複数の訓練データ要素を含み、前記複数の訓練データ要素の各訓練データ要素は、
第2の複数のピクセルの各ピクセルについて、画像特性値を含む画像データセットであって、前記画像特性値は、少なくとも前記ピクセルの強度に基づいている、画像データセットと、
移動を表す前記第2の複数のピクセルの一部分を示す動きデータセットと、を含む、前記予測される動きを判定することと、
前記テスト画像データセットについて、前記機械学習モデルからの前記予測される動きに対応する出力データを生成することと、を含む、非一時的コンピュータ可読媒体。 - 前記方法は、
前記機械学習モデルおよび前記テスト画像データセットを使用して生成された前記出力データに基づいて、前記テスト画像データセットに関連付けるために1つ以上の流量値を判定することと、
前記1つ以上の流量値を出力することと、をさらに含む、請求項16に記載の非一時的コンピュータ可読媒体。 - 前記画像特性値は、1つ以上の他の強度にさらに基づいており、前記1つ以上の他の強度の各強度は、前記捕捉された深部組織画像における前記ピクセルを有する空間クラスタ内の別のピクセルの強度である、請求項16に記載の非一時的コンピュータ可読媒体。
- 前記動きデータセットは、前記生体組織内の流体の移動に対応する画像特性値を有する前記第2の複数のピクセルの不完全なサブセットを示す、請求項16に記載の非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762551997P | 2017-08-30 | 2017-08-30 | |
US62/551,997 | 2017-08-30 | ||
PCT/US2018/046530 WO2019046003A1 (en) | 2017-08-30 | 2018-08-13 | GRANULARITY CONTRAST ANALYSIS USING AUTOMATIC LEARNING TO VISUALIZE A FLOW |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020532783A JP2020532783A (ja) | 2020-11-12 |
JPWO2019046003A5 JPWO2019046003A5 (ja) | 2022-04-08 |
JP7229996B2 true JP7229996B2 (ja) | 2023-02-28 |
Family
ID=63490686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020503912A Active JP7229996B2 (ja) | 2017-08-30 | 2018-08-13 | 流れを視覚化するための機械学習を使用したスペックルコントラスト分析 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10776667B2 (ja) |
EP (1) | EP3676797B1 (ja) |
JP (1) | JP7229996B2 (ja) |
CN (2) | CN111052180A (ja) |
WO (1) | WO2019046003A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111052180A (zh) | 2017-08-30 | 2020-04-21 | 威里利生命科学有限责任公司 | 用于可视化流动的使用机器学习的散斑对比度分析 |
NL2021837B1 (en) * | 2018-10-19 | 2020-05-13 | Stichting Vu | Multimode waveguide imaging |
US11373298B2 (en) * | 2019-03-28 | 2022-06-28 | Canon Medical Systems Corporation | Apparatus and method for training neural networks using small, heterogeneous cohorts of training data |
CN114364298A (zh) * | 2019-09-05 | 2022-04-15 | 奥林巴斯株式会社 | 内窥镜系统、处理系统、内窥镜系统的工作方法以及图像处理程序 |
CN110659591B (zh) * | 2019-09-07 | 2022-12-27 | 中国海洋大学 | 基于孪生网络的sar图像变化检测方法 |
KR20210045229A (ko) * | 2019-10-16 | 2021-04-26 | 삼성전자주식회사 | 컴퓨팅 장치 및 그 동작 방법 |
EP4070098A1 (en) | 2019-12-05 | 2022-10-12 | Tempus Labs, Inc. | Large scale organoid analysis |
CN111260586B (zh) | 2020-01-20 | 2023-07-04 | 北京百度网讯科技有限公司 | 扭曲文档图像的矫正方法和装置 |
US11561178B2 (en) | 2020-04-20 | 2023-01-24 | Tempus Labs, Inc. | Artificial fluorescent image systems and methods |
US11393182B2 (en) | 2020-05-29 | 2022-07-19 | X Development Llc | Data band selection using machine learning |
CN112288008B (zh) * | 2020-10-29 | 2022-03-01 | 四川九洲电器集团有限责任公司 | 一种基于深度学习的马赛克多光谱图像伪装目标检测方法 |
CN115984405B (zh) * | 2023-01-12 | 2024-03-29 | 中国科学院宁波材料技术与工程研究所 | 基于自相关性增强的散射成像方法、系统及模型训练方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016061052A1 (en) | 2014-10-14 | 2016-04-21 | East Carolina University | Methods, systems and computer program products for visualizing anatomical structures and blood flow and perfusion physiology using imaging techniques |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2526166C (en) | 2003-06-12 | 2014-04-15 | Bracco Research Sa | Blood flow estimates through replenishment curve fitting in ultrasound contrast imaging |
US7397935B2 (en) * | 2004-05-10 | 2008-07-08 | Mediguide Ltd. | Method for segmentation of IVUS image sequences |
US9672471B2 (en) * | 2007-12-18 | 2017-06-06 | Gearbox Llc | Systems, devices, and methods for detecting occlusions in a biological subject including spectral learning |
CA2866509A1 (en) | 2011-12-21 | 2013-06-27 | Volcano Corporation | Method for visualizing blood and blood-likelihood in vascular images |
US11206990B2 (en) * | 2013-01-23 | 2021-12-28 | Pedra Technology Pte Ltd | Deep tissue flowmetry using diffuse speckle contrast analysis |
WO2014152919A1 (en) * | 2013-03-14 | 2014-09-25 | Arizona Board Of Regents, A Body Corporate Of The State Of Arizona For And On Behalf Of Arizona State University | Kernel sparse models for automated tumor segmentation |
US8824752B1 (en) * | 2013-03-15 | 2014-09-02 | Heartflow, Inc. | Methods and systems for assessing image quality in modeling of patient anatomic or blood flow characteristics |
US9717417B2 (en) * | 2014-10-29 | 2017-08-01 | Spectral Md, Inc. | Reflective mode multi-spectral time-resolved optical imaging methods and apparatuses for tissue classification |
EP3229668A4 (en) * | 2014-12-08 | 2018-07-11 | Luis Daniel Munoz | Device, system and methods for assessing tissue structures, pathology, and healing |
US9839483B2 (en) * | 2015-04-21 | 2017-12-12 | Heartflow, Inc. | Systems and methods for risk assessment and treatment planning of arterio-venous malformation |
CN107977709B (zh) * | 2017-04-01 | 2021-03-16 | 北京科亚方舟医疗科技股份有限公司 | 预测血管树血管路径上的血流特征的深度学习模型和系统 |
CN111052180A (zh) | 2017-08-30 | 2020-04-21 | 威里利生命科学有限责任公司 | 用于可视化流动的使用机器学习的散斑对比度分析 |
-
2018
- 2018-08-13 CN CN201880055861.6A patent/CN111052180A/zh active Pending
- 2018-08-13 US US16/101,653 patent/US10776667B2/en active Active
- 2018-08-13 JP JP2020503912A patent/JP7229996B2/ja active Active
- 2018-08-13 EP EP18765240.9A patent/EP3676797B1/en active Active
- 2018-08-13 WO PCT/US2018/046530 patent/WO2019046003A1/en unknown
- 2018-08-13 CN CN202210409469.5A patent/CN114820494B/zh active Active
-
2020
- 2020-07-27 US US16/939,301 patent/US11514270B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016061052A1 (en) | 2014-10-14 | 2016-04-21 | East Carolina University | Methods, systems and computer program products for visualizing anatomical structures and blood flow and perfusion physiology using imaging techniques |
Non-Patent Citations (3)
Title |
---|
Kausik Basak et al.,Learning of speckle statistics for in vivoand noninvasive characterization of cutaneous wound regions using laser specklecontrast imaging,MICROVASCULAR RESEARCH,米国,ACADEMIC PRESS,2016年04月27日,VOL:107,PAGE(S):6 - 16,http://dx.doi.org/10.1016/j.mvr.2016.04.008 |
Nicholas Vincent et al.,Detection of Hyperperfusion on Arterial Spin Labeling using Deep Learning,[online],2015年,https://ieeexplore.ieee.org/document/7359870 |
石川咲絵,外2名,サポートベクターマシンにおける最適解の性質,[online],2012年,https://core.ac.uk/download/pdf/235255656.pdf |
Also Published As
Publication number | Publication date |
---|---|
US10776667B2 (en) | 2020-09-15 |
WO2019046003A1 (en) | 2019-03-07 |
US20190065905A1 (en) | 2019-02-28 |
EP3676797A1 (en) | 2020-07-08 |
CN114820494B (zh) | 2023-08-29 |
EP3676797B1 (en) | 2023-07-19 |
JP2020532783A (ja) | 2020-11-12 |
US20200356820A1 (en) | 2020-11-12 |
CN114820494A (zh) | 2022-07-29 |
US11514270B2 (en) | 2022-11-29 |
CN111052180A (zh) | 2020-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7229996B2 (ja) | 流れを視覚化するための機械学習を使用したスペックルコントラスト分析 | |
US11154200B2 (en) | Skin assessment using image fusion | |
Figueiredo et al. | Automated lesion detectors in retinal fundus images | |
EP3829416B1 (en) | Method and system for augmented imaging in open treatment using multispectral information | |
JP2021532881A (ja) | マルチスペクトル情報を用いた拡張画像化のための方法およびシステム | |
JP6265588B2 (ja) | 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム | |
JP6361776B2 (ja) | 診断支援装置、及び診断支援装置における画像処理方法、並びにプログラム | |
US20090136101A1 (en) | Method and System for Analyzing Skin Conditions Using Digital Images | |
US20130121546A1 (en) | Inspection of region of interest | |
EP2486543A1 (en) | Formation of a time-varying signal representative of at least variations in a value based on pixel values | |
CN109635871B (zh) | 一种基于多特征融合的胶囊内窥镜图像分类方法 | |
JP4599520B2 (ja) | マルチスペクトル画像処理方法 | |
Figueiredo et al. | Computer-assisted bleeding detection in wireless capsule endoscopy images | |
CN111784686A (zh) | 一种内窥镜出血区域的动态智能检测方法、系统及可读存储介质 | |
JP2018200640A (ja) | 画像処理装置および画像処理方法 | |
Lee et al. | Bleeding detection algorithm for capsule endoscopy | |
Pedersen et al. | Image quality metrics for the evaluation and optimization of capsule video endoscopy enhancement techniques | |
CN111820870B (zh) | 生物影像处理方法以及生理信息检测装置 | |
JP7087390B2 (ja) | 診断支援装置、画像処理方法及びプログラム | |
JP6585623B2 (ja) | 生体情報計測装置、生体情報計測方法および生体情報計測プログラム | |
Zaki et al. | Tracing of retinal blood vessels through edge information | |
WO2020145091A1 (ja) | 血圧測定装置、モデル設定装置、および血圧測定方法 | |
Lee et al. | Image analysis for locating bleeding regions in gastrointestinal endoscopy | |
Ray et al. | An Effective Threshold Based Technique for Retinal Image Blood Vessel Segmentation on Fundus Image Using Average and Gaussian Filters | |
Imtiaz | Color Image Enhancement Techniques for Endoscopic images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210811 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220331 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7229996 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |