JP2018514844A - 細胞画像および映像の深層畳み込みネットワークベースの分類のためのシステムおよび方法 - Google Patents

細胞画像および映像の深層畳み込みネットワークベースの分類のためのシステムおよび方法 Download PDF

Info

Publication number
JP2018514844A
JP2018514844A JP2017547958A JP2017547958A JP2018514844A JP 2018514844 A JP2018514844 A JP 2018514844A JP 2017547958 A JP2017547958 A JP 2017547958A JP 2017547958 A JP2017547958 A JP 2017547958A JP 2018514844 A JP2018514844 A JP 2018514844A
Authority
JP
Japan
Prior art keywords
image
feature
images
applying
input images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017547958A
Other languages
English (en)
Inventor
ワン シャオフア
ワン シャオフア
スン シャンフイ
スン シャンフイ
チェン テレンス
チェン テレンス
ジョルジェスク ボグダン
ジョルジェスク ボグダン
カーメン アリ
カーメン アリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of JP2018514844A publication Critical patent/JP2018514844A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2136Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/693Acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)

Abstract

細胞分類を実行する方法は、畳み込みスパース符号化プロセスを用いて、複数の特徴マップを、入力画像のセットおよび複数の生物学的に特定のフィルタに基づいて生成するステップを含む。特徴プーリング動作は、複数の特徴マップの各々に適用され、複数の画像表現を生成する。各画像表現は、複数の細胞タイプの1つとして分類される。

Description

[1]本発明は、概して、細胞画像および映像の深層畳み込みネットワークベースの分類を実行する方法、システムおよび装置に関するものである。提案された技術は、例えば、さまざまな細胞画像分類タスクに適用されてもよい。
[2]生体内細胞画像処理は、画像処理システム、例えば内視鏡から獲得される画像を用いた、生きている細胞の研究である。蛍光タンパク質および合成フルオロフォア技術の最近の進歩のため、生体内細胞画像処理技術に向けられる研究努力の量は増加しており、生体内細胞画像処理技術は、細胞および組織機能の基本的な性質への洞察を提供する。生体内細胞画像処理技術は、現在複数のモダリティにわたり、例えば、多光子、スピニングディスク顕微鏡検査、蛍光、位相コントラストおよび差動干渉コントラストおよびレーザー走査共焦点ベースデバイスを含む。
[3]さらに、さまざまな日常的な臨床病理学試験のために、コンピュータ支援画像分析技術を使用することに対する関心が高まってきた。顕微鏡検査画像データが格納され、デジタル的に処理される量はさらに増加しているので、1つの挑戦は、これらの画像を分類し、医療処置の間、確実に画像を理解することである。これらの技術によって取得された結果を用いて、臨床医の手動/主観的な分析を支援し、より信頼性が高く整合した試験結果を導く。このために、手動の試験手順の欠点に対処するために、所定の生体内細胞画像内のパターンを自動的に決定するコンピュータ支援診断(CAD)システムおよび方法を用いることができた。最新の画像認識システムは、人間が設計した特徴、例えばスケール不変特徴変換(SIFT)、ローカルバイナリーパターン(LBP)、勾配方向ヒストグラム(HOG)およびガボール特徴に依存する。人間が設計した特徴は、多数のベンチマークデータセットにおいて最新性能を提供するが、これらの用途は、その作業の手動の性質のために制限される。
[4]近年、教師なし特徴学習は、さまざまな画像認識タスクについて、人間が設計した特徴を上回ることが示された。細胞画像認識について、教師なし学習は、対象物/画像認識プロセスの生物学的推論に根ざしている特徴を学習する可能性を提供する。したがって、教師なし学習技術を用いて、人間が設計した特徴を分析に利用する現在の分類システムの制限に対処する細胞分類システムおよび方法を提供することが望ましい。
[5]本発明の実施形態は、細胞画像および映像の深層畳み込みネットワークベースの分類に関する方法、システムおよび装置を提供することによって、上述した欠点の1つまたは複数に対処および解決する。簡潔には、細胞画像は、生物学的に特定のフィルタおよび弁別的な(discriminative)特徴マップを学習する教師なし特徴学習方法を用いて、および、画像の特徴マップを与えられる最終的な画像表現を生成する3つの処理ユニットの連結を用いて分類される。本願明細書において述べられる各種実施形態を用いて、細胞画像の認識精度を増加してもよい。本願明細書において提供されている例は、脳腫瘍内視鏡検査画像に向けられる。しかしながら、本願明細書において記載されている技術が同様に他のタイプの医療画像の分類または自然画像の分類にさえ適用されてもよいことを理解されたい。
[6]いくつかの実施形態によれば、細胞分類を実行する方法は、畳み込みスパース符号化プロセスを用いて、複数の特徴マップを、入力画像のセットおよび複数の生物学的に特定のフィルタに基づいて生成するステップを含む。特徴プーリング動作は、特徴マップの各々に適用され、複数の画像表現を生成する。各画像表現は、複数の細胞タイプの1つとして分類される。いくつかの実施形態では、要素ごとの絶対値関数は、特徴マップに適用されてもよい。一実施形態では、要素ごとの絶対値関数の適用の後、局所コントラスト正規化が行われ、局所コントラスト正規化は、例えば、局所的減算動作(演算)および除算動作(演算)を特徴マップの各々に適用するステップを含んでもよい。入力画像のセットが映像ストリームを備える実施形態では、各画像表現は、多数決を用いて所定の長さを有する時間窓内で分類されてもよい。
[7]上述した方法の一実施形態では、入力画像は、例えば、内視鏡検査デバイスまたはデジタルホログラフィック顕微鏡検査デバイスを用いて医療処置の間獲得される。エントロピー値は、入力画像ごとに計算される。各エントロピー値は、それぞれの画像内のテクスチャ情報の量を表す。1つまたは複数の低エントロピー画像(例えば、閾値未満のエントロピー値を有する画像)は、入力画像のセット内で識別される。次に、入力画像のセットは、入力画像に基づいて生成され、低エントロピー画像を除外する。
[8]上述した方法のいくつかの実施形態では、教師なし学習プロセスは、複数の訓練画像に基づいて生物学的に特定のフィルタを決定するために用いられる。例えば、一実施形態では、教師なし学習プロセスは、コスト関数を反復的に適用し、生物学的に特定のフィルタおよび複数の訓練画像の各々を再構成する特徴マップの最適セットについて解く。コスト関数は、例えば、交互投影法を用いて解かれてもよい。
[9]他の実施形態によれば、医療処置の間、細胞分類を実行する第2の方法は、医療処置の前および間に実行される特徴を含む。医療処置前に、教師なし学習プロセスを用いて、生物学的に特定のフィルタを訓練画像に基づいて決定する。医療処置の間、細胞分類プロセスが実行される。このプロセスは、内視鏡検査デバイスを用いて入力画像を獲得するステップと、畳み込みスパース符号化プロセスを用いて、特徴マップを、入力画像および生物学的に特定のフィルタに基づいて生成するステップと、を含んでもよい。特徴プーリング動作は、特徴マップに適用され、画像表現を生成し、訓練された分類器を用いて、画像表現に対応するクラスラベルを識別する。このクラスラベルは、例えば、入力画像内の生物学的物質が悪性であるか、良性であるか、または、健康な組織であるかの徴候を提供してもよい。クラスラベルが識別されると、内視鏡検査デバイスに動作可能に結合されたディスプレイに示されてもよい。
[10]さまざまな特徴は、上述した第2の方法に追加、修正および/または改良されてもよい。例えば、いくつかの実施形態では、要素ごとの絶対値関数は、特徴プーリング動作を適用する前に、特徴マップに適用される。いくつかの実施形態では、局所コントラスト正規化は、特徴プーリング動作を適用する前に、特徴マップに適用される。この局所コントラスト正規化は、例えば、局所的減算動作および除算動作を特徴マップに適用することを含んでもよい。
[11]他の実施形態によれば、細胞分類を実行するシステムは、顕微鏡検査デバイス、画像処理コンピュータおよびディスプレイを含む。顕微鏡検査デバイスは、医療処置の間、入力画像のセットを獲得するように構成される。このデバイスは、例えば、共焦点レーザー内視鏡検査デバイスまたはデジタルホログラフィック顕微鏡検査デバイスを備えてもよい。画像処理コンピュータは、医療処置の間、細胞分類プロセスを実行するように構成される。この細胞分類プロセスは、畳み込みスパース符号化プロセスを用いて、特徴マップを、入力画像のセットおよび生物学的に特定のフィルタに基づいて生成するステップと、特徴プーリング動作を特徴マップの各々に適用し、画像表現を生成するステップと、を含んでもよく、次に、画像表現は、入力画像のセットに対応する細胞クラスラベルを識別する際に用いられてもよい。いくつかの実施形態では、細胞分類プロセスは、特徴プーリング動作を適用する前に、要素ごとの絶対値関数および局所コントラスト正規化を特徴マップの各々に適用するステップをさらに含む。システムに含まれるディスプレイは、医療処置の間、1つの細胞クラスラベルを示すように構成される。
[12]本発明の追加の特徴および効果は、図示の実施形態の以下の詳細な説明から明らかになり、添付の図面を参照しながら詳細な説明を開始する。
[13]本発明の前述の態様および他の態様は、添付の図面に関連して読まれると、以下の詳細な説明から最も理解される。本発明を例示するために、図面には、現在好適な実施形態が示されるが、本発明が開示される特定の手段に限定されないことを理解されたい。図面には、以下の図が含まれる。
いくつかの実施形態に従う、細胞分類を実行するのに用いてもよい内視鏡検査ベースシステムの一例を提供する。 本発明のいくつかの実施形態において適用されてもよい細胞分類プロセスの概要を提供する。 膠芽腫および髄膜腫の低エントロピーおよび高エントロピーの画像のセットを提供する。 いくつかの実施形態において利用されてもよいような、脳腫瘍データセット画像内の画像エントロピー分布の一例を提供する。 いくつかの実施形態に従う、フィルタ学習の間用いられてもよい交互投影法の一例を提供する。 いくつかの実施形態に従う、訓練画像として膠芽腫画像および髄膜腫画像のセットを用いて生成された学習したフィルタの一例を提供する。 本願明細書において述べられる技術のいくつかを用いて実行されてもよいような特徴マップ抽出の一例を提供する。 本発明の実施形態が実施されてもよい例示的なコンピューティング環境を示す。
[22]以下の開示は、細胞オンライン画像分類システムに関する方法、システムおよび装置に向けられたいくつかの実施形態を含み、細胞オンライン画像分類システムは、深層畳み込みネットワークに基づく教師なし特徴学習モデルを利用する。従来技術において理解されているように、深層畳み込みネットワークは、畳み込みの画像分解に基づく教師なし学習フレームワークである。深層畳み込みネットワークは、生物学的に関連した特徴を入力画像から学習する能力を提供し、学習した特徴は、フレームワークのその畳み込み再構成の性質のため変換に不変である。細胞分類のさまざまなシステム、方法および装置は、2つの細胞画像診断法、すなわち、共焦点レーザー内視鏡検査(CLE)およびデジタルホログラフィック顕微鏡検査(DHM)を参照して記載されている。しかしながら、この開示の各種実施形態がこれらの診断法に限定されず、さまざまな臨床設定において適用されてもよいことを理解されたい。さらに、本願明細書に記載されている技術がさまざまなタイプの医療画像の分類または自然画像の分類にさえ適用されてもよいことを理解されたい。
[23]図1は、いくつかの実施形態に従う、細胞分類を実行するのに用いられてもよい内視鏡検査ベースシステム100の一例を提供する。内視鏡検査は、簡潔には、組織学のような画像を人体内部からリアルタイムに「光学的生検」として公知のプロセスにより取得するための技術である。「内視鏡検査」という用語は、一般的に、蛍光共焦点顕微鏡検査を意味するが、多光子顕微鏡検査および光干渉断層撮影もまた内視鏡使用に適用され、同様に各種実施形態において用いられてもよい。市販の臨床内視鏡の非限定的な例は、PentaxのISC−1000/EC3870CIKおよびCellvizio(Mauna Kea Technologies、パリ、フランス)を含む。主要な用途は、従来は、消化管を画像処理する際、特にバレット食道、膵臓胞および結腸直腸の病変の診断および特性評価のためであった。共焦点内視鏡検査の診断スペクトルは、近年、結腸直腸癌のスクリーニングおよび監視から、バレット食道、ヘリコバクターピロリ関連の胃炎および初期の胃癌の方に拡大した。内視鏡検査は、腸粘膜および生体内組織構造の表面下の分析を、進行中の内視鏡検査の間最大分解能で点走査レーザー蛍光分析によって可能にする。細胞、脈管および接続構造は、詳細に見ることができる。共焦点レーザー内視鏡検査を用いて見られる新規な詳細画像は、腸の表面上および表面下にある細胞構造および機能における固有の観察を可能にする。さらに、以下で詳述するように、内視鏡検査は、悪性(膠芽腫)および良性(髄膜腫)の腫瘍を通常の組織から識別することが臨床的に重要である脳外科手術に適用されてもよい。
[24]図1の例において、一群のデバイスは、共焦点レーザー内視鏡検査(CLE)を実行するように構成される。これらのデバイスは、画像処理コンピュータ110に動作可能に結合されるプローブ105および画像処理ディスプレイ115を含む。図1において、プローブ105は、共焦点細径プローブである。しかしながら、さまざまなタイプの細径プローブが用いられてもよく、さまざまな視野、画像深さ、遠位端直径、方位分解能および距離分解能を画像処理するために設計されるプローブを含むことに留意されたい。画像処理コンピュータ110は、画像処理の間プローブ105により用いられる励起光またはレーザー源を提供する。さらに、画像処理コンピュータ110は、タスク、例えば、プローブ105によって収集される画像の記録、再構成、修正および/またはエクスポートを実行するための画像処理ソフトウェアを含んでもよい。画像処理コンピュータ110は、以下、図2を参照して詳述される細胞分類プロセスを実行するように構成されてもよい。
[25]フットペダル(図1に示されない)は、画像処理コンピュータ110に接続され、ユーザが機能を実行できるようにしてもよく、機能とは、例えば、共焦点画像処理透過の深さの調整、画像獲得の開始および終了、および/または、ローカルのハードドライブまたはリモートのデータベース、例えばデータベースサーバ125に画像を保存することである。代替的または追加的に、他の入力デバイス(例えば、コンピュータ、マウス等)が、画像処理コンピュータ110に接続され、これらの機能を実行してもよい。画像処理ディスプレイ115は、プローブ105によってキャプチャされる画像を、画像処理コンピュータ110を介して受信し、これらの画像を臨床設定において視認するために示す。
[26]図1の例を続けると、画像処理コンピュータ110は、ネットワーク120に(直接的または間接的に)接続される。ネットワーク120は、公知技術の任意のコンピュータネットワークを含んでもよく、イントラネットまたはインターネットを含むが、これらに限定されるものではない。ネットワーク120によって、画像処理コンピュータ110は、画像、映像または他の関連データをリモートのデータベースサーバ125に格納することができる。さらに、ユーザコンピュータ130は、画像処理コンピュータ110またはデータベースサーバ125と通信し、データ(例えば、画像、映像または他の関連データ)を検索することができ、このデータは、次に、ユーザコンピュータ130でローカルに処理可能である。例えば、ユーザコンピュータ130は、画像処理コンピュータ110またはデータベースサーバ125からデータを検索してもよく、そのデータを用いて、図2で後述する細胞分類プロセスを実行してもよい。
[27]図1は、CLEベースのシステムを示すが、他の実施形態では、システムは、DHM画像処理デバイスを代替的に用いてもよい。干渉位相顕微鏡検査としても知られるDHMは、透明な標本におけるナノメートル以下の光学的厚さ変化を量的に撮影する能力を提供する画像処理技術である。標本に関する強度(振幅)情報のみがキャプチャされる従来のデジタル顕微鏡検査とは異なり、DHMは、位相および強度の両方をキャプチャする。ホログラムとしてキャプチャされる位相情報は、コンピュータアルゴリズムを用いて、標本に関する拡張した形態学的情報(例えば、深さおよび表層特徴)を再構成するために使用可能である。最新のDHMの実施態様は、いくつかの追加の利点、例えば高速走査/データ獲得速度、低ノイズ、高分解能およびラベルなしのサンプル獲得の可能性を提供する。DHMは、1960年代に最初に記載されたが、計測器サイズ、動作の複雑性およびコストは、この技術を臨床またはポイントオブケア用途に広範囲に採用する際の大きな障害であった。最近の開発は、これらの障害に対処する試みをしながら、鍵となる特徴を強化し、DHMが医療および医療以外における中心的かつ多角的な重要技術として魅力的なオプションになりうる可能性を高めている。
[28]高分解能かつ広視野の画像処理を、拡張した深さおよび形態学的情報で、潜在的にラベルなしの方法で達成するDHMの能力は、いくつかの臨床用途に用いられる技術を位置付けし、臨床用途は、血液学(例えば、赤血球容積測定、白血球差、細胞種類分類)、尿沈渣分析(例えば、層内のマイクロ流体サンプルを走査して沈渣を再構成し、沈渣成分の分類精度を改善する)、組織病理学(例えば、DHMの拡張形態/コントラストを利用し、新しい組織内でラベル付けなく健康な細胞から癌を識別する)、希少細胞検出(例えば、DHMの拡張形態/コントラストを利用し、希少細胞、例えば循環腫瘍/上皮細胞、幹細胞、感染細胞等を区別する)を含む。DHM技術の最新の進歩、特にサイズ、複雑性およびコストの減少を考えると、これらおよび他の用途(図2において後述する細胞分類プロセスを含む)は、臨床環境内で、または、ポイントオブケアの分散的方法において実行可能である。
[29]図2は、本発明のいくつかの実施形態において適用されてもよい細胞分類プロセス200の概要を提供する。このプロセス200は、3部分、すなわち、オフラインの教師なしフィルタ学習と、オフラインの教師あり分類器訓練と、オンラインの画像および映像分類と、を備えるパイプラインとして示される。プロセス100の中心的要素は、フィルタ学習、畳み込みスパース符号化、特徴プーリングおよび分類である。簡潔には、生物学的に特定のフィルタは、1つまたは複数の訓練画像から学習される。1つまたは複数の画像フレームは、生物学的画像処理デバイス(図1参照)から、直接的または間接的に受信される。次に、畳み込みスパース符号化が適用され、学習したフィルタを、学習したフィルタで畳み込まれる画像のためのスパース特徴マップのセットの合計として分解する。次に、これらの特徴マップは、3つの層、すなわち、要素ごとの絶対値修正(element−wise absolute value rectification:Abs)、局所コントラスト正規化(LCN)および特徴プーリング(FP)によって処理される。最後に、分類器は、結果として生じる特徴に適用され、所定の細胞データに基づいて、データのための1つまたは複数のクラスラベルを識別する。これらのクラスラベルは、例えば、特定の組織が悪性であるか、または、良性であるかの徴候を提供してもよい。さらに、いくつかの実施形態では、クラスラベルは、健康な組織の徴候を提供してもよい。細胞分類プロセス200を実行するための各種要素は、いくつかの実施形態において適用されてもよいいくつかの追加の任意の特徴とともに、以下、より詳細に記載されている。
[30]細胞分類プロセス200の開始前に、エントロピーベースの画像剪定要素205を任意に用いて、低い画像テクスチャ情報を有する(例えば、低コントラストで、ほとんど分類情報を含まない)画像フレームであって、臨床的に興味がなく、画像分類に適さないかもしれない画像フレームを自動的に除去してもよい。この除去を用いて、例えば、いくつかのCLEデバイスの限定された画像処理能力を対象にしてもよい。画像エントロピーは、画像の「情報性」を記載するのに用いられる量であり、すなわち、画像内に含まれる情報の量である。低エントロピー画像は、ごくわずかなコントラストおよび同一または同様のグレー値を有する大量のピクセルを有する。一方、高エントロピー画像は、あるピクセルから次のピクセルまで多くのコントラストを有する。図3は、膠芽腫および髄膜腫の低エントロピーおよび高エントロピーの画像のセットを提供する。図示のように、低エントロピー画像は、多くの均一な画像領域を含み、一方、高エントロピー画像は、豊富な画像構造によって特徴付けられる。
[31]いくつかの実施形態では、エントロピーベースの画像剪定要素205は、エントロピー閾値を用いて剪定を実行する。この閾値は、データセットの全体にわたって画像エントロピーの分布に基づいて設定されてもよい。図4は、いくつかの実施形態において利用されてもよいような、脳腫瘍データセット画像内の画像エントロピー分布の一例を提供する。図示のように、エントロピーが残りの画像のエントロピーより著しく低い比較的多数の画像が存在する。このように、この例に関して、エントロピー閾値は、画像の10%が本システムの後のステージから廃棄されるように設定可能である(例えば、図4に示されるデータについては4.05)。
[32]図2を続けて参照し、フィルタ学習要素215は、生物学的に特定のフィルタを訓練画像から学習するように構成される。さまざまな技術が、フィルタを学習する際に用いられてもよい。例えば、いくつかの実施形態では、最適化問題は、反復的に解かれ、フィルタを決定する。X={x i=1が2D画像のセットであり、x∈Rm×nであり、F={f k=1が畳み込みフィルタであり、f∈Rw×wであるとする。画像xごとに、Z={z k=1が特徴マップのセットであり、z は、次元(m+w−1)×(n+w−1)を有する。訓練の間、フィルタ学習要素215は、フィルタの最適セットおよび各訓練画像を再構成する特徴マップについて解くことを意図する。いくつかの実施形態では、これらの計算は、以下の式(1)(2)によって定量化される。
Figure 2018514844
式(1)の第1の項は、画像再構成エラーを意味し、第2の項は、特徴マップにかけられるスパース性の正則化を意味する。この式において、||・||は、L1ノルムであり、||・||は、L2ノルムである。スター*は、2D離散畳み込み演算を意味する。パラメータλは、スパース性の正則化項の重みパラメータである。ユニットエネルギー制約(式(2))は、フィルタにかけられ、自明な解を回避してもよい。いくつかの実施形態では、式(1)は、交互投影法によって解かれ、フィルタを固定して保ちながら、特徴マップにわたりL(F,Z)を最小化し、次に、特徴マップを固定して保ちながら、フィルタにわたりL(F,Z)を最小化する、ということを交互に行ってもよい。対象式(1)がFおよびZに対して凸結合ではないが、FおよびZの各々に対して、他方が固定されているとき凸である。このように、アルゴリズムの収束は保証される。アルゴリズムの例示的実施態様は、図5において与えられる。
[33]フィルタの学習のために上述した技術が、どのようにフィルタが決定されてもよいかの単なる一例である点に留意されたい。この技術は、種々の実施形態において変化してもよい。例えば、交互投影法以外の最適化アルゴリズムを用いて、式を解いてもよいし(例えば、交互方向乗数法(Alternating Direction Method of Multipliers)または高速反復収縮閾値アルゴリズム(Fast Iterative Shrinkage Thresholding Algorithm))、異なる学習技術が使用されてもよい(例えば、ニューラルネットワーク)。追加的に(または代替的に)、上述した以外の式が、フィルタ計算に用いられてもよい。
[34]畳み込みスパース符号化要素220は、フィルタ学習要素215からの学習したフィルタを利用し、学習したフィルタを、学習したフィルタで畳み込まれる入力画像210のためのスパース特徴マップのセットの合計として分解する。式(1)に対して上述した表記を用いて、これらの特徴マップは、本願明細書において{z }と称される。畳み込みスパース符号化は、直接シフト不変をモデル化するように設計され、スパース符号化技術を大型画像に適用することのスケーラビリティ問題を直接克服する一般的に公知の技術である。畳み込みスパース符号化のための対象式は、(3)のように表現されてもよい。
Figure 2018514844
式(3)は、上述した式(1)を解くのと同様に、最適化方程式を用いて解いてもよい。このように、例えば、FISTAまたは交互方向乗数法のような技術が使用されてもよい。
[35]畳み込みスパース符号化要素220がその処理を完了した後、特徴マップ{z }は、3つの層、すなわち、要素ごとの絶対値修正(Abs)、局所コントラスト正規化(LCN)および特徴プーリング(FP)によって処理される。図2に示されるAbs要素230は、各特徴マップ内の絶対値を要素ごとに計算し、次の動作の取消し効果を回避する。LCN要素235は、局所的減算動作および除算動作を実行することによって、特徴マップ{z }にわたり、より強い特徴応答を強化し、より弱い特徴応答を抑制する。所定の位置z i,pq(pおよびqは、特徴マップz 上のxおよびy方向のピクセルインデックスである)のための局所的減算動作は、例えば、(4)のように決定されてもよい。
Figure 2018514844
式(4)において、wΔpΔqは、ΣΔpΔqΔpΔq=1のように正規化された重み関数であり、ΔpΔqは、xおよびy方向のピクセルインデックスである。局所的除算動作は、式(4)に従って実行されてもよい。
Figure 2018514844
[36]特徴プーリング要素240は、1つまたは複数の特徴プーリング動作を適用し、特徴マップをまとめ、最終的な画像表現を生成する。特徴プーリング要素240は、例えば、最大プーリング、平均プーリングまたはこれらの組み合わせを含む従来周知の任意のプーリング技術を適用してもよい。例えば、いくつかの実施形態では、特徴プーリング要素240は、最大プーリング動作および平均プーリング動作の構成を用いる。例えば、各特徴マップは、規則的間隔の正方形パッチに分割されてもよく、最大プーリング動作が適用されてもよい(すなわち、各正方形パッチ上の特徴のための最大応答が決定されてもよい)。最大プーリング動作は、転換に対する局所不変性を可能にする。次に、最大応答の平均は、正方形パッチから計算されてもよい、すなわち、平均プーリングは、最大プーリング後に適用される。最後に、平均プーリング動作から特徴応答を集約することによって、画像表現が形成されてもよい。
[37]分類要素245は、1つまたは複数の所定の基準に基づいて、最終的な画像表現のための1つまたは複数のクラスラベルを識別する。これらのクラスラベルは、例えば、特定の組織が悪性であるか、または、良性であるかの徴候を提供してもよい。さらに、いくつかの実施形態では、クラスラベルは、健康な組織の徴候を提供してもよい。分類要素245は、臨床研究に基づいて訓練および構成されてもよい1つまたは複数の分類器アルゴリズムを利用する。例えば、いくつかの実施形態では、分類器は、脳腫瘍データセットを用いて訓練され、その結果、画像を膠芽腫または髄膜腫にラベル付け(分類)することができる。さまざまなタイプの分類器アルゴリズムは、分類要素245により用いられてもよく、サポートベクターマシン(SVM)、k近傍(k−NN)およびランダムフォレストを含むが、これらに限定されるものではない。さらに、異なるタイプの分類器を組み合わせて用いることもできる。
[38]映像画像シーケンスのために、多数決要素250は、映像ストリームのための認識性能を高める多数決ベースの分類方式を任意に実行してもよい。このように、入力画像が映像ストリームベースである場合、プロセス200は、隣接する画像から視覚的刺激を組み込むことができる。多数決要素250は、因果関係を示す方法(causal fashion)で現行フレームを囲む固定長の時間窓内の画像の多数決結果を用いて、クラスラベルを現在の画像に割り当てる。窓の長さは、ユーザ入力に基づいて構成されてもよい。例えば、ユーザは、この種の値を導出するのに用いてもよい特定の長さの値または臨床設定を提供してもよい。代替的に、長さは、過去の結果の分析に基づいて、時間とともに動的に調整されてもよい。例えば、多数決要素250が不十分または準最適な結果を提供していることをユーザが示す場合、小さい値によって窓サイズを修正することによって窓を調整してもよい。時間とともに、多数決要素250は、細胞分類プロセス200によって処理されているデータタイプごとに、最適な窓の長さを学習することができる。いくつかの実施形態では、窓の長さは、また、フレームレートに依存してもよい。
[39]細胞分類プロセス200の例示的応用として、脳腫瘍組織を検査するために患者の脳内に挿入されるCLEデバイス(図1参照)を用いて収集される内視鏡の映像のデータセットを考慮する。この収集の結果は、膠芽腫のための映像セットおよび髄膜腫のための映像セットになってもよい。この種の映像において収集される画像の一例は、図3に示される。低い画像テクスチャ情報を有するいくつかのフレームが、臨床的に興味がなく、画像分類に弁別的ではないことに注意されたい。画像エントロピーを用いて、画像領域の「情報性」(すなわち、画像内に含まれる情報の量)を測定してもよい。所定の閾値未満の画像エントロピー値を有する画像は、評価から除外されてもよい。
[40]この例を続けて、交互投影アルゴリズム(図5参照)を用いて、生物学的要素に特定のフィルタのセットを学習してもよい。膠芽腫画像および髄膜腫画像の大きいセットが、訓練画像として用いられてもよい。図6は、この種のデータを用いて生成される学習したフィルタの一例を提供する。図6に見られるように、フィルタは、膠芽腫画像および髄膜腫画像内の粒状パターンおよびテクスチャパターンに類似するドットおよびエッジによって特徴付けられる。次に、畳み込みスパース符号化が適用され、学習したフィルタを、学習したフィルタで畳み込まれるスパース特徴マップのセットの合計として分解する。図7は、本願明細書において述べられる技術のいくつかを用いて実行されてもよいような特徴マップ抽出の一例を提供する。上の図は、例示的入力画像のための特徴マップのセットである。所定の膠芽腫画像の特徴マップ内のエントリは、大部分はゼロである。フィルタと画像パターンとの間の類似点および特徴マップのスパース性は、ともに、本発明の特徴を、従来の手動で設計された特徴表現よりも弁別的にする。
[41]細胞分類プロセス200の他の応用は、オンラインの映像分類を実行することである。それゆえ、必ずしも、最初に全部の映像シーケンスを獲得し、次に分類する、ということを行わなくてもよい。
[42]本願明細書において述べられる技術の性能を評価するために、分析は、1つの映像を抜き出す検証法(leave−one−video−out)を用いて実行された。より具体的には、第1段階として、10個の膠芽腫および10個の髄膜腫のシーケンスがランダムに選択された。次に、第2段階として、その第1のセットからのシーケンスの1対が試験のために選択され、残りのシーケンスが訓練のために選択された。次に、第3段階として、4000個の膠芽腫フレームおよび4000個の髄膜腫フレームが、訓練セットから選択される。第2および第3のステップは、5回反復され、平均が計算された。画像ごとに、その特徴マップは、式(3)の対象を最小化することによって計算される。次に、特徴マップは、(図2を参照して上述した)Abs、LCNおよび特徴プーリング技術によって処理され、最終画像を生成した。次に、SVM分類器は、画像の最終的な分類を提供するために利用された。この分析は、異なるプーリングパラメータのセットを用いて実行され、10ピクセルの間隔および30ピクセルのパッチサイズを有する最大プーリングが良好な認識性能を提供することを示し、以下の表に示すように、上述した脳腫瘍データセットについての認識精度を提供する。
Figure 2018514844
[43]図8は、本発明の実施形態が実施されてもよい例示的なコンピューティング環境800を示す。例えば、このコンピューティング環境800を用いて、図1に示されている1つまたは複数のデバイスを実施し、図2に記載されている細胞分類プロセス200を実行してもよい。コンピューティング環境800は、コンピュータシステム810を含んでもよく、コンピュータシステム810は、本発明の実施形態が実施されてもよいコンピューティングシステムの一例である。コンピュータおよびコンピューティング環境、例えばコンピュータシステム810およびコンピューティング環境800は、当業者に周知であるので、本願明細書では簡潔に記載されている。
[44]図8に示すように、コンピュータシステム810は、コンピュータシステム810内で情報を通信するための通信メカニズム、例えばバス821または他の通信メカニズムを含んでもよい。コンピュータシステム810は、バス821に結合され、情報を処理するための1つまたは複数のプロセッサ820をさらに含む。プロセッサ820は、1つまたは複数の中央処理装置(CPU)、グラフィック処理装置(GPU)または他の任意の周知のプロセッサを含んでもよい。
[45]コンピュータシステム810は、バス821に結合され、プロセッサ820によって実行される情報および命令を格納するためのシステムメモリ830もまた含む。システムメモリ830は、揮発性および/または不揮発性メモリの形のコンピュータ可読記憶媒体、例えば読み出し専用メモリ(ROM)831および/またはランダムアクセスメモリ(RAM)832を含んでもよい。システムメモリRAM832は、他の動的なストレージデバイス(例えば、ダイナミックRAM、スタティックRAMおよび同期DRAM)を含んでもよい。システムメモリROM831は、他のスタティックストレージデバイス(例えば、プログラマブルROM、消去可能なPROMおよび電気的消去可能なPROM)を含んでもよい。さらに、システムメモリ830を用いて、一時的な変数または他の中間情報を、プロセッサ820による命令の実行中に格納してもよい。コンピュータシステム810内の要素間で情報を転送するのに役立つ基本的なルーチンを含む基本入出力システム833(BIOS)は、例えばスタートアップの間、ROM831内に格納されてもよい。RAM832は、直ちにアクセス可能である、および/または、現在プロセッサ820によって動作されるデータおよび/またはプログラムモジュールを含んでもよい。システムメモリ830は、例えば、オペレーティングシステム834、アプリケーションプログラム835、他のプログラムモジュール836およびプログラムデータ837をさらに含んでもよい。
[46]コンピュータシステム810は、バス821に結合され、1つまたは複数のストレージデバイスを制御し、情報および命令を格納するためのディスクコントローラ840、例えばハードディスク841および取り外し可能なメディアドライブ842(例えば、フロッピーディスクドライブ、コンパクトディスクドライブ、テープドライブおよび/またはソリッドステートドライブ)もまた含む。ストレージデバイスは、コンピュータシステム810に、適切なデバイスインタフェース(例えば、スカジ(SCSI)、インテグレートデバイスエレクトロニクス(IDE)、ユニバーサルシリアルバス(USB)またはファイヤーワイヤー)を用いて追加されてもよい。
[47]コンピュータシステム810は、バス821に結合され、ディスプレイ866を制御するためのディスプレイコントローラ865もまた含んでもよく、ディスプレイ866は、例えば、情報をコンピュータユーザに表示するための陰極線管(CRT)または液晶ディスプレイ(LCD)である。コンピュータシステムは、入力インタフェース860および1つまたは複数の入力デバイス、例えばキーボード862およびポインティングデバイス861を含み、コンピュータユーザと相互作用し、情報をプロセッサ820に提供する。ポインティングデバイス861は、例えば、マウス、トラックボールまたはポインティングスティックでもよく、指示情報および命令選択をプロセッサ820に通信し、ディスプレイ866上のカーソル移動を制御する。ディスプレイ866は、タッチスクリーンインタフェースを提供してもよく、タッチスクリーンインタフェースによって、入力は、ポインティングデバイス861による指示情報および命令選択の通信を補充または置換することができる。
[48]コンピュータシステム810は、メモリ、例えばシステムメモリ830内に含まれる1つまたは複数の命令の1つまたは複数のシーケンスを実行しているプロセッサ820に応答して、本発明の実施形態の処理ステップの一部または全部を実行してもよい。この種の命令は、他のコンピュータ可読媒体、例えばハードディスク841または取り外し可能メディアドライブ842からシステムメモリ830に読み込まれてもよい。ハードディスク841は、本発明の実施形態により用いられる1つまたは複数のデータストアおよびデータファイルを含んでもよい。データストアコンテンツおよびデータファイルは、暗号化されセキュリティを改善してもよい。プロセッサ820は、多重プロセス構成で使用され、システムメモリ830内に含まれる命令の1つまたは複数のシーケンスを実行してもよい。代替実施形態では、配線回路が、ソフトウェア命令の代わりに、または、ソフトウェア命令と組み合わせて用いられてもよい。このように、実施形態は、ハードウェア回路およびソフトウェアのいかなる特定の組み合わせにも限定されない。
[49]上述したように、コンピュータシステム810は、少なくとも1つのコンピュータ可読媒体またはメモリを含み、本発明の実施形態に従ってプログラムされる命令を保持し、本願明細書に記載されているデータ構造、テーブル、記録または他のデータを含んでもよい。本願明細書で用いられる「コンピュータ可読媒体」という用語は、命令をプロセッサ820に提供し、実行することに関する任意の媒体を意味する。コンピュータ可読媒体は、不揮発性媒体、揮発性媒体および伝送媒体を含むが、これらに限定されず多くの形をとってもよい。不揮発性媒体の非限定的な例は、光ディスク、ソリッドステートドライブ、磁気ディスクおよび光磁気ディスク、例えばハードディスク841または取り外し可能メディアドライブ842を含む。揮発性媒体の非限定的な例は、ダイナミックメモリ、例えばシステムメモリ830を含む。伝送媒体の非限定的な例は、同軸ケーブル、銅線およびファイバオプティクスを含み、バス821を形成する線を含む。伝送媒体は、音響波または光波、例えば電波および赤外線通信の間生成される波の形をとってもよい。
[50]コンピューティング環境800は、ネットワーク環境において、1つまたは複数のリモートコンピュータ、例えばリモートコンピュータ880に対する論理接続を用いて動作するコンピュータシステム810をさらに含んでもよい。リモートコンピュータ880は、パーソナルコンピュータ(ラップトップまたはデスクトップ)、モバイル機器、サーバ、ルータ、ネットワークPC、ピアデバイスまたは他のコモンネットワークノードでもよく、典型的には、コンピュータシステム810に関して上述した要素の多数または全部を含む。ネットワーク環境において用いられるとき、コンピュータシステム810は、ネットワーク871、例えばインターネットを介する通信を確立するためのモデム872を含んでもよい。モデム872は、バス821に、ユーザネットワークインタフェース870を介して、または、他の適切なメカニズムを介して接続されてもよい。
[51]ネットワーク871は、従来技術において一般的に公知の任意のネットワークまたはシステムでもよく、インターネット、イントラネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、メトロポリタンエリアネットワーク(MAN)、直接接続または直列接続、携帯電話ネットワーク、または、コンピュータシステム810と他のコンピュータ(例えば、リモートコンピュータ880)との間の通信を容易にすることができる他の任意のネットワークまたは媒体を含む。ネットワーク871は、有線、無線またはそれらの組み合わせでもよい。有線接続は、イーサネット、ユニバーサルシリアルバス(USB)、RJ−11または従来技術において一般的に公知の他の任意の有線接続を用いて実施されてもよい。無線接続は、Wi−Fi、WiMAXおよびブルートゥース、赤外線、携帯ネットワーク、衛星または従来技術において一般的に公知の他の任意の無線接続方法を用いて実施されてもよい。さらに、いくつかのネットワークは、単独でまたは互いに通信して機能し、ネットワーク871内の通信を容易にしてもよい。
[52]本発明の実施形態は、ハードウェアおよびソフトウェアの任意の組み合わせによって実施されてもよい。さらに、本発明の実施形態は、例えばコンピュータ可読非一時的媒体を有する製品(例えば、1つまたは複数のコンピュータプログラム製品)に含まれてもよい。媒体は、本願明細書において、例えば、本発明の実施形態のメカニズムを提供および容易にするためのコンピュータ可読プログラム符号を実現してきた。製品は、コンピュータシステムの一部として含まれることもできるし、別々に売られることもできる。
[53]さまざまな態様および実施形態が本願明細書において開示されてきたが、他の態様および実施形態は、当業者にとって明らかである。本願明細書において開示されるさまざまな態様および実施形態は、説明のためであって、制限することを意図せず、真の範囲および精神は、以下の請求項によって示される。
[54]本願明細書で用いられる実行可能アプリケーションは、例えば、ユーザ命令または入力に応答して、プロセッサに所定の機能を実施するように調整するための符号または機械可読命令を備え、所定の機能は、例えば、オペレーティングシステム、文脈データ獲得システムまたは他の情報処理システムの機能である。実行可能手順は、符号または機械可読命令のセグメント、サブルーチン、または、1つまたは複数の特定のプロセスを実行するための実行可能アプリケーションの部分または符号の他の異なるセクションである。これらのプロセスは、入力データおよび/またはパラメータの受信、受信した入力データ上の動作の実行および/または受信した入力パラメータに応答した機能の実行、結果として生じる出力データおよび/またはパラメータの提供を含んでもよい。
[55]本願明細書で用いられるグラフィカルユーザインタフェース(GUI)は、1つまたは複数の表示画像を含み、ディスプレイプロセッサによって生成され、プロセッサまたは他のデバイスとのユーザ相互作用、関連データの獲得および機能の処理を可能にする。GUIは、実行可能手順または実行可能アプリケーションもまた含む。実行可能手順または実行可能アプリケーションは、ディスプレイプロセッサにGUI表示画像を表す信号を生成するように調整する。これらの信号は、ユーザが見るための画像を表示するディスプレイデバイスに供給される。プロセッサは、実行可能手順または実行可能アプリケーションの制御下で、入力デバイスから受信する信号に応答して、GUI表示画像を操作する。このようにして、ユーザは、入力デバイスを用いて、表示画像と相互作用してもよく、プロセッサまたは他のデバイスとのユーザ相互作用を可能にする。
[56]本願明細書における機能およびプロセスステップは、自動的に実行されてもよいし、ユーザ命令に応答して完全にまたは部分的に実行されてもよい。自動的に実行される動作(ステップを含む)は、1つまたは複数の実行可能命令またはデバイス動作に応答して、ユーザが動作を直接開始することなく実行される。
[57]図面のシステムおよびプロセスは、排他的ではない。他のシステム、プロセスおよびメニューは、本発明の原理に従って同一の目的を達成するために導出されてもよい。本発明は、特定の実施形態を参照して記載されてきたが、本願明細書において図示および記載された実施形態およびバリエーションが単に図示目的のためだけであることを理解されたい。現在の設計に対する変更態様は、当業者によって、本発明の範囲を逸脱することなく実施されてもよい。本願明細書において記載されているように、さまざまなシステム、サブシステム、エージェント、マネージャおよびプロセスは、ハードウェア要素、ソフトウェア要素および/またはそれらの組み合わせを用いて実装可能である。本願明細書における請求項の要素は、その要素が「〜のための手段」という用語を用いて明確に記載されていない限り、米国特許法第112条第6段落の規定により解釈されるべきではない。

Claims (20)

  1. 細胞分類を実行する方法であって、前記方法は、
    畳み込みスパース符号化プロセスを用いて、複数の特徴マップを、入力画像のセットおよび複数の生物学的に特定のフィルタに基づいて生成するステップと、
    特徴プーリング動作を前記複数の特徴マップの各々に適用し、複数の画像表現を生成するステップと、
    各画像表現を複数の細胞タイプの1つとして分類するステップと、
    を含む方法。
  2. 複数の入力画像を獲得するステップと、
    前記複数の入力画像ごとにエントロピー値を計算するステップであって、各エントロピー値は、それぞれの画像内のテクスチャ情報の量を表すステップと、
    入力画像の前記セット内の1つまたは複数の低エントロピー画像を識別するステップであって、前記1つまたは複数の低エントロピー画像は、各々、閾値未満のそれぞれのエントロピー値に関連付けられるステップと、
    前記複数の入力画像に基づいて、入力画像の前記セットを生成するステップであって、入力画像の前記セットは、前記1つまたは複数の低エントロピー画像を除外するステップと、
    をさらに含む、
    請求項1に記載の方法。
  3. 前記複数の入力画像は、内視鏡検査デバイスを用いて医療処置の間獲得される、
    請求項2に記載の方法。
  4. 前記複数の入力画像は、医療処置の間、デジタルホログラフィック顕微鏡検査デバイスを用いて獲得される、
    請求項2に記載の方法。
  5. 教師なし学習プロセスを用いて、前記複数の生物学的に特定のフィルタを複数の訓練画像に基づいて決定するステップをさらに含む、
    請求項1に記載の方法。
  6. 前記教師なし学習プロセスは、コスト関数を反復的に適用し、前記複数の生物学的に特定のフィルタおよび前記複数の訓練画像の各々を再構成する特徴マップの最適セットについて解く、
    請求項5に記載の方法。
  7. 前記コスト関数は、交互投影法を用いて解かれる、
    請求項6に記載の方法。
  8. 複数の特徴マップを生成した後、要素ごとの絶対値関数を前記複数の特徴マップに適用するステップをさらに含む、
    請求項1に記載の方法。
  9. 前記要素ごとの絶対値関数を前記複数の特徴マップに適用した後、局所コントラスト正規化を前記複数の特徴マップに適用するステップをさらに含む、
    請求項8に記載の方法。
  10. 前記局所コントラスト正規化は、局所的減算動作および除算動作を前記複数の特徴マップの各々に適用するステップを含む、
    請求項9に記載の方法。
  11. 入力画像の前記セットは、映像ストリームを備え、各画像表現は、多数決を用いて所定の長さを有する時間窓内で分類される、
    請求項1に記載の方法。
  12. 医療処置の間、細胞分類を実行する方法であって、前記方法は、
    前記医療処置前に、教師なし学習プロセスを用いて、複数の生物学的に特定のフィルタを複数の訓練画像に基づいて決定するステップと、
    前記医療処置の間、細胞分類プロセスを実行するステップと、
    を含み、細胞分類プロセスを実行するステップは、
    内視鏡検査デバイスを用いて入力画像を獲得するステップと、
    畳み込みスパース符号化プロセスを用いて、特徴マップを、前記入力画像および前記複数の生物学的に特定のフィルタに基づいて生成するステップと、
    特徴プーリング動作を前記特徴マップに適用し、画像表現を生成するステップと、
    訓練された分類器を用いて、前記画像表現に対応するクラスラベルを識別するステップと、
    前記クラスラベルを、前記内視鏡検査デバイスに動作可能に結合されたディスプレイに示すステップと、
    を含む方法。
  13. 前記細胞分類プロセスは、
    前記特徴プーリング動作を適用する前に、要素ごとの絶対値関数を前記特徴マップに適用するステップをさらに含む、
    請求項12に記載の方法。
  14. 前記細胞分類プロセスは、
    前記特徴プーリング動作を適用する前に、局所コントラスト正規化を前記特徴マップに適用するステップをさらに含む、
    請求項13に記載の方法。
  15. 前記局所コントラスト正規化は、局所的減算動作および除算動作を前記特徴マップに適用するステップを含む、
    請求項14に記載の方法。
  16. 前記クラスラベルは、前記入力画像内の生物学的物質が悪性であるか、または、良性であるかの徴候を提供する、
    請求項12に記載の方法。
  17. 細胞分類を実行するシステムであって、前記システムは、
    医療処置の間、入力画像のセットを獲得するように構成される顕微鏡検査デバイスと、
    前記医療処置の間、細胞分類プロセスを実行するように構成される画像処理コンピュータと、
    ディスプレイと、
    を備え、
    前記細胞分類プロセスは、
    畳み込みスパース符号化プロセスを用いて、複数の特徴マップを、入力画像の前記セットおよび複数の生物学的に特定のフィルタに基づいて生成するステップと、
    特徴プーリング動作を前記複数の特徴マップの各々に適用し、複数の画像表現を生成するステップと、
    入力画像の前記セットに対応する1つまたは複数の細胞クラスラベルを識別するステップと、
    を含み、
    前記ディスプレイは、前記医療処置の間、前記1つまたは複数の細胞クラスラベルを示すように構成される、
    システム。
  18. 前記顕微鏡検査デバイスは、共焦点レーザー内視鏡検査デバイスである、
    請求項17に記載のシステム。
  19. 前記顕微鏡検査デバイスは、デジタルホログラフィック顕微鏡検査デバイスである、
    請求項17に記載のシステム。
  20. 前記画像処理コンピュータによって実行される前記細胞分類プロセスは、
    前記特徴プーリング動作を適用する前に、要素ごとの絶対値関数および局所コントラスト正規化を前記複数の特徴マップの各々に適用するステップをさらに含む、
    請求項17に記載のシステム。
JP2017547958A 2015-03-11 2015-03-11 細胞画像および映像の深層畳み込みネットワークベースの分類のためのシステムおよび方法 Pending JP2018514844A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2015/019844 WO2016144341A1 (en) 2015-03-11 2015-03-11 Systems and methods for deconvolutional network based classification of cellular images and videos

Publications (1)

Publication Number Publication Date
JP2018514844A true JP2018514844A (ja) 2018-06-07

Family

ID=52745936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017547958A Pending JP2018514844A (ja) 2015-03-11 2015-03-11 細胞画像および映像の深層畳み込みネットワークベースの分類のためのシステムおよび方法

Country Status (6)

Country Link
US (1) US20180082153A1 (ja)
EP (1) EP3268894A1 (ja)
JP (1) JP2018514844A (ja)
KR (1) KR20170128454A (ja)
CN (1) CN107408197A (ja)
WO (1) WO2016144341A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106462746B (zh) * 2014-06-16 2020-03-10 西门子医疗保健诊断公司 分析数字全息显微术数据以用于血液学应用
US10810485B2 (en) * 2016-09-13 2020-10-20 Intel Corporation Dynamic context-selective convolutional neural network for time series data classification
CN107871136A (zh) * 2017-03-22 2018-04-03 中山大学 基于稀疏性随机池化的卷积神经网络的图像识别方法
JP6710853B2 (ja) * 2017-07-07 2020-06-17 浩一 古川 プローブ型共焦点レーザー顕微内視鏡画像診断支援装置
CN107967484B (zh) * 2017-11-14 2021-03-16 中国计量大学 一种基于多分辨率的图像分类方法
JP7324757B2 (ja) 2018-01-10 2023-08-10 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド 訓練が低減されたニューラルネットワークを使用したバイオ流体検体の特徴付けのための方法および装置
CN108388853B (zh) * 2018-02-09 2020-09-01 重庆东渝中能实业有限公司 针对白细胞与血小板共存全息图的分步重建与计数方法
CN108564114B (zh) * 2018-03-28 2022-05-27 电子科技大学 一种基于机器学习的人体粪便白细胞自动识别方法
CN110321759B (zh) 2018-03-29 2020-07-07 北京字节跳动网络技术有限公司 一种视频特征提取方法及装置
IT201800005163A1 (it) * 2018-05-08 2019-11-08 Sistema di rilevamento di masse tumorali basato sulla risonanza magnetica per immagini
US11948088B2 (en) * 2018-05-14 2024-04-02 Nokia Technologies Oy Method and apparatus for image recognition
CN109543724B (zh) * 2018-11-06 2021-09-03 南京晓庄学院 一种多层鉴别卷积稀疏编码学习方法
IL311148A (en) 2018-11-11 2024-04-01 Netspark Ltd Online video filtering
US11574476B2 (en) * 2018-11-11 2023-02-07 Netspark Ltd. On-line video filtering
US10868950B2 (en) * 2018-12-12 2020-12-15 Karl Storz Imaging, Inc. Systems and methods for operating video medical scopes using a virtual camera control unit
CN109920518B (zh) * 2019-03-08 2021-11-16 腾讯科技(深圳)有限公司 医学影像分析方法、装置、计算机设备和存储介质
US11195060B2 (en) * 2019-07-05 2021-12-07 Art Eye-D Associates Llc Visualization of subimage classifications
CN111310838A (zh) * 2020-02-21 2020-06-19 单光存 一种基于深度Gabor网络的药效图像分类识别方法
CN113808738B (zh) * 2021-09-18 2022-03-15 安徽爱朋科技有限公司 一种基于自识别影像的疾病识别系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005252859A (ja) * 2004-03-05 2005-09-15 Kddi Corp 動画像データのシーン分割装置
JP2011525009A (ja) * 2008-05-30 2011-09-08 ジーイー・ヘルスケア・バイオサイエンス・コーポレイション 1以上のデフォーカス画像又は低コントラスト対雑音比画像を検出し除去するシステム及び方法
JP2011527056A (ja) * 2008-07-03 2011-10-20 エヌイーシー ラボラトリーズ アメリカ インク 印環細胞検出器及び関連する方法
JP2015032308A (ja) * 2013-07-31 2015-02-16 富士通株式会社 畳み込みニューラルネットワークの分類器、及びその分類方法、訓練方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6690817B1 (en) * 1993-08-18 2004-02-10 Applied Spectral Imaging Ltd. Spectral bio-imaging data for cell classification using internal reference
US6154560A (en) * 1996-08-30 2000-11-28 The Cleveland Clinic Foundation System and method for staging regional lymph nodes using quantitative analysis of endoscopic ultrasound images
DE60130742T2 (de) * 2001-05-28 2008-07-17 Honda Research Institute Europe Gmbh Mustererkennung mit hierarchischen Netzen
US20050196826A1 (en) * 2004-03-05 2005-09-08 Sherrill James V. Self calibrating detection
JP2006081156A (ja) * 2004-08-13 2006-03-23 Fuji Photo Film Co Ltd 画像処理装置および方法並びにプログラム
US8041090B2 (en) * 2005-09-10 2011-10-18 Ge Healthcare Uk Limited Method of, and apparatus and computer software for, performing image processing
US7606777B2 (en) * 2006-09-01 2009-10-20 Massachusetts Institute Of Technology High-performance vision system exploiting key features of visual cortex
US7427862B2 (en) * 2006-09-29 2008-09-23 Baker Hughes Incorporated Increasing the resolution of electromagnetic tools for resistivity evaluations in near borehole zones
EP2149330B1 (en) * 2007-05-08 2016-05-18 Olympus Corporation Image processing apparatus and image processing program
US8031924B2 (en) * 2007-11-30 2011-10-04 General Electric Company Methods and systems for removing autofluorescence from images
US8731882B2 (en) * 2009-09-24 2014-05-20 Asml Netherlands B.V. Methods and apparatus for modeling electromagnetic scattering properties of microscopic structures and methods and apparatus for reconstruction of microscopic structures
CN102411715A (zh) * 2010-09-21 2012-04-11 张云超 有监督学习功能的细胞图像自动分类方法和系统
CN103793709A (zh) * 2012-10-26 2014-05-14 西门子医疗保健诊断公司 细胞识别方法和装置、以及尿液分析仪
CN103116762B (zh) * 2013-03-20 2015-10-14 南京大学 一种基于自调制字典学习的图像分类方法
US10776606B2 (en) * 2013-09-22 2020-09-15 The Regents Of The University Of California Methods for delineating cellular regions and classifying regions of histopathology and microanatomy
US9536177B2 (en) * 2013-12-01 2017-01-03 University Of Florida Research Foundation, Inc. Distributive hierarchical model for object recognition in video
WO2016054118A1 (en) * 2014-09-29 2016-04-07 Howard Hughes Medical Institute Non-linear structured illumination microscopy
CN104361363B (zh) * 2014-11-25 2018-01-16 中国科学院自动化研究所 深度反卷积特征学习网络、生成方法及图像分类方法
US10795144B2 (en) * 2014-12-06 2020-10-06 Howard Hughes Medical Institute Microscopy with structured plane illumination and point accumulation for imaging and nanoscale topography
EP3433816A1 (en) * 2016-03-22 2019-01-30 URU, Inc. Apparatus, systems, and methods for integrating digital media content into other digital media content

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005252859A (ja) * 2004-03-05 2005-09-15 Kddi Corp 動画像データのシーン分割装置
JP2011525009A (ja) * 2008-05-30 2011-09-08 ジーイー・ヘルスケア・バイオサイエンス・コーポレイション 1以上のデフォーカス画像又は低コントラスト対雑音比画像を検出し除去するシステム及び方法
JP2011527056A (ja) * 2008-07-03 2011-10-20 エヌイーシー ラボラトリーズ アメリカ インク 印環細胞検出器及び関連する方法
JP2015032308A (ja) * 2013-07-31 2015-02-16 富士通株式会社 畳み込みニューラルネットワークの分類器、及びその分類方法、訓練方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHOU, Y. ET AL.: "Classification of Histology Sections via Multispectral Convolutional Sparse Coding", 2014 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION [ONLINE], JPN6018052341, 2014, pages 3081 - 3088, XP032649490, ISSN: 0004096334, DOI: 10.1109/CVPR.2014.394 *

Also Published As

Publication number Publication date
CN107408197A (zh) 2017-11-28
KR20170128454A (ko) 2017-11-22
WO2016144341A1 (en) 2016-09-15
EP3268894A1 (en) 2018-01-17
US20180082153A1 (en) 2018-03-22

Similar Documents

Publication Publication Date Title
JP2018514844A (ja) 細胞画像および映像の深層畳み込みネットワークベースの分類のためのシステムおよび方法
Celebi et al. Dermoscopy image analysis: overview and future directions
Perperidis et al. Image computing for fibre-bundle endomicroscopy: A review
Shaziya et al. Automatic lung segmentation on thoracic CT scans using U-net convolutional network
US20180096191A1 (en) Method and system for automated brain tumor diagnosis using image classification
US20180082104A1 (en) Classification of cellular images and videos
JP3947109B2 (ja) コンピュータ利用画像分析
JP2018532441A (ja) 脳腫瘍を分類するための視覚表現学習
Rakotomamonjy et al. Scattering features for lung cancer detection in fibered confocal fluorescence microscopy images
US20170256052A1 (en) Leveraging on local and global textures of brain tissues for robust automatic brain tumor detection
Cui et al. Deep learning in medical hyperspectral images: A review
Kolluru et al. Voxel-based plaque classification in coronary intravascular optical coherence tomography images using decision trees
JP6580446B2 (ja) 画像処理装置及び画像処理方法
Laghari et al. How to collect and interpret medical pictures captured in highly challenging environments that range from nanoscale to hyperspectral imaging
Turkmen et al. Advanced computing solutions for analysis of laryngeal disorders
Yadav et al. A study on automatic early detection of skin cancer
Rao et al. Automatic segmentation based graphical interface for recognition of tomography image analysis of damage cell
An et al. Application of machine learning method in optical molecular imaging: a review
Nejim et al. Quantitative analysis of second harmonic generated images of collagen fibers: a review
Nakao et al. Visualizing in vivo brain neural structures using volume rendered feature spaces
Kolekar et al. Skin lesion semantic segmentation using convolutional encoder decoder architecture
Bandyopadhyay et al. Artificial-intelligence-based diagnosis of brain tumor diseases
Naeem et al. DVFNet: A deep feature fusion-based model for the multiclassification of skin cancer utilizing dermoscopy images
Upadhyay et al. Medical Imaging in Artificial Intelligence: a Literature Survey
Mahbod Towards Improvement of Automated Segmentation and Classification of Tissues and Nuclei in Microscopic Images Using Deep Learning Approaches

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190819