JP7441830B2 - 画像評価デバイスを構成するための方法、ならびにまた画像評価方法および画像評価デバイス - Google Patents

画像評価デバイスを構成するための方法、ならびにまた画像評価方法および画像評価デバイス Download PDF

Info

Publication number
JP7441830B2
JP7441830B2 JP2021517208A JP2021517208A JP7441830B2 JP 7441830 B2 JP7441830 B2 JP 7441830B2 JP 2021517208 A JP2021517208 A JP 2021517208A JP 2021517208 A JP2021517208 A JP 2021517208A JP 7441830 B2 JP7441830 B2 JP 7441830B2
Authority
JP
Japan
Prior art keywords
neural network
type
network module
training
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021517208A
Other languages
English (en)
Other versions
JP2022502767A (ja
Inventor
フロリアン・ビュットナー
マルクス・ミヒャエル・ガイペル
ガビー・マルクアルト
ダニエラ・ザイデル
クリストフ・ティーツ
Original Assignee
シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド filed Critical シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド
Publication of JP2022502767A publication Critical patent/JP2022502767A/ja
Application granted granted Critical
Publication of JP7441830B2 publication Critical patent/JP7441830B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Description

たとえば医療診断の際の画像記録の自動評価では、技術システムまたは非技術システムを監視する場合に、および/または自律システムの視覚センサ装置との関連で、機械学習法がますます使用されるようになっている。これらの方法を用いて、学習ベースの画像評価デバイスは、画像に表示された物体を自動的に認識するように、またはその物体を1つの物体型に割り当てるように訓練することができる。
この関連で、例として、医療診断装置の画像評価デバイスは、顕微鏡写真の細胞型もしくは組織型を明確に認識するように、または顕微鏡写真をそれぞれ1つの細胞型もしくは組織型に割り当てるように訓練される。特に、画像評価デバイスは、生物細胞、たとえば血液細胞の複数の画像記録をそれぞれ、物体型として1つの細胞型に、および物体部分型としてこの細胞型の1つの発生段階に割り当てるように訓練される。
物体型および場合により物体部分型がすでに割り当てられている非常に多くの所定の画像が、このような訓練に使用されることが多い。このような訓練画像によって、学習ベースの画像評価デバイスは、所定の物体型および場合により物体部分型を可能な限り適切に再生するように、すなわちたとえば、所定の物体型および物体部分型に関してあり得る偏差が最も少なく細胞型およびその発生段階を認識するように訓練することができる。多数の知られている学習法、特に教師あり学習法が、このような訓練を実行するために利用可能である。
しかし、実際には、認識されるべき物体型の一部は、他の物体型よりも発生する頻度がかなり低いということがしばしば起こる。この関連で、一部の生物細胞型、特に病理的細胞型は、全細胞型の0.005%未満の割合を占めるにすぎない。したがって、まれな物体型の利用可能な訓練画像の数は一般に、より普通の物体型のものの利用可能数よりもかなり少ない。しかし、訓練に利用可能な訓練画像が少数しかない場合には、訓練の成功すなわち認識精度が、従来の訓練法ではかなり低下する可能性がある。さらに、まれな物体型の部分型は、困難を伴ってようやく認識または差別化されることが多い。
しかし、まさに医療分野では、いっそうまれな病理学的パターンおよび発生段階を可能な限り正確に特定することが重要であることが多い。まれな物体型をより適切に分類するために、特定の画像フィーチャが専門家によって個々に決定され、訓練がその画像フィーチャに適合されることが知られている。別法として、または加えて、訓練は、まれな物体型の十分な数の訓練画像が評価されるまで継続される。しかし、上述の手順の結果として、必要な訓練費用が、特にまれな物体型が含まれる場合に、大幅に増加することがある。
本発明の目的は、画像評価デバイスを構成するための方法、画像評価方法、およびまたより効率的な訓練を可能にする画像評価デバイスを明示することである。
この目的は、請求項1に記載の構成を有する構成方法によって、請求項9に記載の構成を有する画像評価方法によって、請求項12に記載の構成を有する画像評価デバイスによって、請求項13に記載の構成を有するコンピュータプログラム製品によって、およびまた請求項14に記載の構成を有するコンピュータ可読記憶媒体によって、達成される。
画像化された物体の物体型および物体部分型を決定するための画像評価デバイスを構成するために、物体型および物体部分型にそれぞれ割り当てられた多数の訓練画像が、画像フィーチャを認識するために第1のニューラルネットワークモジュールに供給される。生物細胞が特に、物体として機能することができ、そのそれぞれの細胞型が物体型として決定され、そのそれぞれの発生段階または細胞状態が物体部分型として決定される。さらに、第1のニューラルネットワークモジュールの訓練出力データセットが、画像フィーチャに基づいて物体型を認識するために、第2のニューラルネットワークモジュールに供給される。本発明によれば、第1および第2のニューラルネットワークモジュールは、第2のニューラルネットワークモジュールの訓練出力データセットが、訓練画像に割り当てられた物体型を少なくともほぼ再生するように、一緒に訓練される。さらに、それぞれの物体型に対し:
- この物体型に割り当てられた訓練画像が、訓練された第1のニューラルネットワークモジュールに供給され、
- それぞれの訓練画像に対して生成された後者の訓練出力データセットは、それぞれの訓練画像の物体部分型に割り当てられ、
- これらの部分型割り当ては、画像評価デバイスが画像フィーチャに基づいて物体部分型を認識するための、部分型認識モジュールを構成する基礎として使用される。
構成をデータ駆動型訓練と物体型専用構成に分割すると、物体型専用の訓練データの不足によって生じる従来の訓練方法の多くの不都合を軽減することが可能になる。結果として、本発明による構成方法は、まれな物体型の物体部分型を決定する場合に、また一般に物体頻度の非常に不均一な分布がある場合に、特に効率的であると判明することが多い。
本発明による、画像化された物体の物体型および物体部分型を決定するための画像評価方法が、上記のように訓練された第1および第2のニューラルネットワークモジュールによって、ならびにまた上記のように構成された部分型認識モジュールによって実現される。この場合、評価されるべき画像が、訓練された第1のニューラルネットワークモジュールに供給され、訓練された第1のニューラルネットワークモジュールからもたらされた出力データセットが、訓練された第2のニューラルネットワークモジュールに供給される。次に、物体型が、訓練された第2のニューラルネットワークモジュールからもたらされた出力データセットから得られる。さらに、得られた物体型に専用に構成された部分型認識モジュールが選択され、訓練された第1のニューラルネットワークモジュールの出力データセットと相関的に関連している物体部分型が決定される。最後に、得られた物体型、およびまた決定された物体部分型が出力される。
本発明による構成方法に対応する、本発明による画像評価方法における分割の故に、この画像評価方法は一般に、まれな物体型の物体部分型をより確実に決定することを、特に物体頻度の非常に不均一な分布がある場合に、可能にする。
対応する画像評価デバイス、コンピュータプログラム製品、およびまたコンピュータ可読記憶媒体が、本発明による構成方法および/または本発明による画像評価方法を実行するために提供される。
本発明による構成方法、本発明による画像評価方法、本発明による画像評価デバイス、およびまた本発明によるコンピュータプログラム製品は、たとえば、1つまたはそれ以上のプロセッサ、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、および/またはいわゆる「フィールドプログラマブルゲートアレイ」(FPGA)によって、実行または実現される。
本発明の有利な実施形態および展開は、従属請求項に明記されている。
好ましくは、部分型割り当ては、画像フィーチャと物体部分型の間の相関の相関パラメータを得るための基礎として使用される。部分型認識モジュールは、相関パラメータに基づいて構成される。このような相関または相関パラメータは、まだ分類されていない所与の画像フィーチャに対して統計的標準方法を用いて、その画像フィーチャと最もよく、または十分によく相互に関連づける物体部分型を決定することを可能にする。
本発明の1つの有利な実施形態によれば、確率的分類器、特にいわゆるベイズ分類器が、部分型認識モジュールとして使用される。この場合、推定確率および/または条件付き確率、および不確かさが相関パラメータとして使用される。確率的分類器、特にいわゆるベイズ分類器が、所与の画像フィーチャまたは他のフィーチャを、これらが所属する確率が最も高い集合に割り当てることができる。
有利なことに、部分型認識モジュールは、第2のニューラルネットワークモジュールに対応する結合構造を有することができる。多層パーセプトロンが第2のニューラルネットワークモジュールとして使用される場合、この意味で対応する部分型認識モジュールは、多層ベイズパーセプトロンとして具現化される。対応する結合構造の場合では、第2のニューラルネットワークモジュールの学習パラメータおよびハイパーパラメータは、有利には部分型認識モジュールの構成で再使用される。
さらに、物体型に対して認識されるべき物体部分型が、所定の順序情報によって指定された秩序ある順序を形成するという仮定のもとに、部分型認識モジュールは、順序情報に基づいて構成される。このような順序は、たとえば、諸細胞型の発生段階の時間的順序によって与えられる。
部分型認識モジュールの構成中に、好ましくは、いわゆる順序回帰がそのような順序情報に基づいて実行される。特に、部分型認識モジュールのニューラル最終層の起動機能が適合され、かつ/またはいわゆるプロビットモデルが使用される。さらに、起動機能の起動閾値が学習される。
本発明の別の実施形態によれば、確率的分類器の構成パラメータの事前分布が、訓練された第2のニューラルネットワークモジュールの学習パラメータに基づいて決定される。この場合では、特に、訓練によって設定または最適化されている第2のニューラルネットワークモジュールのパラメータが、学習パラメータとして指定される。特に、マルコフ連鎖モンテカルロ法、および変動ベースの、または他のベイズ導出法が、確率的分類器の構成パラメータを得るために使用される。このようにして、学習パラメータおよび学習パラメータの値分散に関する訓練によって得られた情報が、有利には部分型認識モジュールを構成するために再使用される。
さらに、部分型認識モジュールの構成パラメータは、第1および/または第2のニューラルネットワークモジュールの訓練パラメータに応じて設定される。訓練パラメータは、訓練を制御するハイパーパラメータおよび他のパラメータとすることができ、かつ/または訓練によって取得される。
さらに、本発明による構成方法、およびまた本発明による画像評価方法では、第1のニューラルネットワークモジュール、第2のニューラルネットワークモジュールおよび/または部分型認識モジュールは、人工ニューラルネットワーク、回帰ニューラルネットワーク、畳み込みニューラルネットワーク、多層パーセプトロン、ベイズニューラルネットワーク、オートエンコーダ、ディープラーニングアーキテクチャ、サポートベクタマシン、データ駆動型の訓練可能回帰モデル、k最近傍分類器、物理モデルおよび/または決定木を含み得る。
本発明の例示的な一実施形態について、以下で図面を参照してより詳細に説明する。ここでは、それぞれの場合で以下の概略的な図を参照する。
本発明による画像評価デバイスの構成を示す図である。 構成された画像評価デバイスによる画像の評価を示す図である。
図1は、評価されるべき画像上に画像化された物体を認識するための、および特に、それぞれに画像化された物体の物体型およびまた物体部分型を決定するための、本発明による画像評価デバイスBAの構成を示す。
画像評価デバイスBAは、画像評価デバイスBAの方法工程を実行するための1つまたはそれ以上のプロセッサPROCと、画像評価デバイスBAによって処理されるべきデータを記憶するための、プロセッサPROCに連結された1つまたはそれ以上のメモリMEMとを有する。
この例示的な実施形態では、認識されるべき物体としての生物細胞の顕微鏡画像記録を評価するための医療画像評価デバイスBAが、本発明の例示的な適用例として説明される。細胞の1つまたはそれ以上の画像に基づいて、細胞の細胞型は物体型として決定されるものであり、前記細胞型の発生段階または細胞状態は、物体部分型として決定されるものである。この目的のために、画像評価デバイスBAは、以下で説明するように、機械学習法を用いて構成される。
この構成の文脈では、非常に多数の以前に分類された訓練画像TPIC、ここでは生物細胞の顕微鏡画像記録が、画像評価デバイスBAによってデータベースDBから読み込まれる。分類されたとは、本明細書では訓練画像TPICが、たとえば専門家によって以前に、1つの物体型OT、すなわちたとえば細胞型に、および1つの物体部分型OST、すなわち発生段階または細胞状態に、それぞれ割り当てられていることを意味する。それぞれの物体型OTおよび物体部分型OSTはそれぞれ、型および部分型の識別子の形で指定され、また画像評価デバイスBAによってデータベースDBから、関連した訓練画像TPICに割り当てられたように読み込まれる。
読み込まれた訓練画像TPICは、画像評価デバイスBAの第1のニューラルネットワークモジュールCNNに供給される。訓練画像TPICはここで、画像データセットによってその都度表示される。第1のニューラルネットワークモジュールCNNは、好ましくは、ディープ畳み込みニューラルネットワークを形成する畳み込みニューラル層を含む。このような畳み込みニューラルネットワークは、供給画像内の画像フィーチャを効率的に認識するのに特に適している。このような画像フィーチャは、画像に含まれた縁部、角部、領域もしくは他の、特に局部的、幾何学的特性、または画像要素間の関係を特に明示することができる。
第1のニューラルネットワークモジュールCNNは、物体型認識に特に適している供給画像の画像フィーチャを抽出するように、またはその画像フィーチャを出力データとして生成するように訓練されるものである。この場合、それぞれに供給された画像の画像フィーチャは、その画像フィーチャからそれぞれ得られる、第1のニューラルネットワークモジュールCNNの出力データセットによって表示される。それゆえに、前記第1のニューラルネットワークモジュールの出力データセットは、物体型認識に必須の画像フィーチャに変えられた画像データとみなすことができる。このような画像フィーチャは、フィーチャと呼ばれることも多い。
この訓練のために、第1のニューラルネットワークモジュールCNNによって訓練画像TPICから生成された訓練出力データセットFEAは、画像評価デバイスBAの第2のニューラルネットワークモジュールMLPに供給される。この場合、それぞれの訓練出力データセットFEAは、それぞれの訓練画像TPICを処理することにより、その都度得られる。
第2のニューラルネットワークモジュールMLPは、好ましくは多層パーセプトロン(MLP)を含む。このようなパーセプトロンMLPは、分類タスク、ここでは画像フィーチャに基づく物体の分類、に特に適している。
第1および第2のニューラルネットワークモジュールCNNおよびMLPは、ディープニューラルネットワークDNNを一緒に形成する。したがって、ニューラルネットワークCNNおよびMLPは特に、上位ディープニューラルネットワークDNNのサブネットワークとみなすこともできる。
本発明によれば、第2のニューラルネットワークモジュールMLPは、適切な画像フィーチャに基づいて所定の物体型OTを認識するように訓練されるものである。
第1のニューラルネットワークモジュールCNNおよび第2のニューラルネットワークモジュールMLPの両方の上記の訓練目的を達成するために、両方のネットワークモジュールCNNおよびMLPが一緒に訓練される。ここで試みるのは、供給された訓練出力データセットFEAから第2のニューラルネットワークモジュールMLPによって生成された訓練出力データセットOOTが、供給された訓練画像TPICに以前に割り当てられた物体型OTを可能な限り正確に再生することを確実にすることである。第2のニューラルネットワークモジュールMLPのそれぞれの訓練出力データセットOOTが、それぞれの訓練画像TPICを処理することにより、その都度ここで得られる。
訓練とは一般に、たとえばニューラルネットワークのパラメータ化システムモデルの入力データセット(ここではTPIC)をニューラルネットワークの出力データセット(ここでは訓練出力データセットOOT)にマッピングすることの最適化を意味すると理解されたい。このマッピングは、訓練段階中に、所定の基準、学習された基準および/または学習されるべき基準、によって最適化される。分類モデルでは、たとえば、分類誤り、分析誤りおよび/または予測誤りが基準として使用される。この場合、ネットワークモジュールCNNおよびMLPの共同訓練では、訓練出力データセットOOTが、以前に割り当てられた物体型OTに可能な限り頻繁に、および/または可能な限り適切に対応することを確実にしようと試みる。
この目的のために、ネットワークモジュールCNNおよびMLPの学習パラメータは、第2のニューラルネットワークモジュールMLPによって物体型として出力される訓練出力データセットOOTが、この訓練画像TPICの所定の物体型OTを可能な限り適切に再生するように、訓練によって設定される。この場合、学習パラメータは、たとえば、ネットワークモジュールCNNおよびMLPのニューロンのネットワーキング構造、ならびに/またはこれらのニューロン間の接続の重みを含み得る。
試みられる学習パラメータの最適化は、たとえば、訓練出力データセットOOTと、これに対応する所定の物体型OTとの間の偏差Dを適切な測定法で決定することによって達成される。この場合、偏差Dは、ディープニューラルネットワークDNNの分類誤りを表す。訓練出力データセットOOTおよび所定の物体型がベクトルで表される場合、偏差Dは、たとえば前記ベクトルの多次元ユークリッド距離または重み付き距離として決定される。決定された偏差Dは、ディープニューラルネットワークDNNへ、すなわち、図1の破線矢印で示されているように、ネットワークモジュールCNNおよびMLPの共同訓練へフィードバックされる。
フィードバックされた偏差Dに基づいて、ディープニューラルネットワークDNNは、この偏差Dを最小にするように、すなわち、所定の物体型OTを出力物体型OOTによって可能な限り適切に再生するように訓練される。この目的のために、学習パラメータは、偏差Dが最小になるまで、または最小値に近くなるまで、標準最適化法を用いて変えられる。例として、最急降下法が最小化のために使用される。多数の標準的な機械学習法が、上記の最適化を実行するために利用可能である。
上述の共同訓練によって、最初に第1のネットワークモジュールCNNが、物体型認識に特によく適している画像フィーチャを認識または生成するように訓練され、次に第2のネットワークモジュールMLPが、これらの画像フィーチャに基づいて関連物体型を決定するように同時に訓練される。
ネットワークモジュールCNNおよびMLPのデータ駆動型の訓練のこの形は一般に、非常に多数の訓練画像が利用可能である分類問題に非常に成功裏に適用される。しかし、導入部ですでに述べたように、まれな物体型の物体部分型を認識する場合は特に、ディープニューラルネットワークを効率的に訓練するために利用可能な関連する訓練画像があまりに少ないということが起こるのがまれではない。
このため、本発明によれば、物体部分型を突き止めるために、第2のニューラルネットワークモジュールMLPの代わりに、確率的分類器が物体型専用の部分型認識モジュールとして使用される。このような確率的分類器は一般に、比較的少量の参照データに基づいてさえ分類を実行することができる。たとえば、その参照データは基礎として使用されて、存在するそれぞれの物体部分型のそれぞれの確率が決定され、確率が高いか最も高い物体部分型が分類結果として出力される。
それぞれの部分型認識モジュールによる画像の部分型分類は、この画像の分類関連の画像フィーチャに基づいて実行され、それによって、訓練された第1のニューラルネットワークモジュールCNNが言わば再使用されて画像フィーチャが生成される。訓練された第1のニューラルネットワークモジュールCNNのこの再使用は、図1の破線矢印で示されている。
有利なことに、いずれの場合にも物体型ごとに、専用の部分型認識モジュールが特に、画像フィーチャに基づいて物体部分型を認識するために構成される。
この目的のために、訓練画像TPIC(OT、OST)が画像評価デバイスBAの分配モジュールSPLに供給され、それぞれ割り当てられた物体型、ここではOT1、OT2、...に応じて、前記モジュールによって物体型専用の構成パイプラインの間で分配される。2つの物体型OT1およびOT2だけが、理解しやすいように図1に明示されている。
この関連で、物体型OT1に割り当てられた訓練画像TPIC(OT1、OST)が、訓練された第1のニューラルネットワークモジュールCNNに供給され、このCNNは、TPIC(OT1、OST)から物体型OT1に専用の画像フィーチャFEA1を訓練出力データセットとして生成する。それぞれの訓練画像TPIC(OT1、OST)の画像フィーチャFEA1は、この訓練画像の物体部分型OSTに割り当てられ、この割り当てによって、物体型OT1に専用の部分型認識モジュールとしての確率的分類器BMLP1に伝達される。これらの物体割り当ては、この物体型OT1の物体部分型を認識するための確率的分類器BMLP1を構成する基礎として使用される。
確率的分類器BMLP1は、好ましくはベイズニューラルネットワークとして具現化される。後者は、有利には第2のニューラルネットワークモジュールMLPに対応するニューロン間の結合構造、または対応するアーキテクチャを有する。この例示的な実施形態では、確率的分類器BMLP1は、このように多層ベイズパーセプトロンとして実施される。
確率的分類器BMLP1は、たとえば、物体型OT1の全部またはほとんど全部の訓練画像TPIC(OT1、OST)の物体型専用の画像フィーチャFEA1が、確率的分類器BMLP1内のそれぞれの訓練画像のそれぞれの物体部分型OSTに割り当てられたように記憶されるようにして構成される。この構成では、まれな物体型OT1の場合に必要な記憶費用が比較的少ない。さらに、結果として、ニューラルネットワークの従来の訓練の場合とは異なり、画像フィーチャおよび物体部分型の割り当てに関する全訓練情報が実質的に維持される。
このように構成された確率的分類器BMLP1を用いて、ある物体部分型を認識する場合、たとえば、分類されるべき画像の画像フィーチャが、この物体型の全記憶画像フィーチャと簡単に比較され、偏差が最小であるか小さい物体部分型が分類結果として決定される。対照的に、このような比較を全訓練画像にわたって、すなわち、共通の物体型にもわたって広げることは一般に、訓練画像がしばしば非常に大量であるために、受け入れ可能な費用で実施することができない。
別法として、または加えて、画像フィーチャFEA1を物体部分型OSTに割り当てることに基づいて、画像フィーチャFEA1と物体部分型OSTの間の統計的相関が決定され、物体専用の相関パラメータCP1によって明示または表示される。確率的分類器BMLP1は、これらの相関または相関パラメータCP1に基づいて構成される。この目的のために、多数の知られている標準的な方法を使用することが可能であり、この方法によって、ベイズニューラルネットワークの構成に必要な条件付き確率、不確かさおよび/または確率的グラフが、構成パラメータとして相関から決定される。
さらに、特に細胞型の発生段階の分類中に、必要な、またはあり得る発生段階の順序についての順序情報が、確率的分類器BMLP1によって、部分型認識中の追加情報または制約として評価される。好ましくは、順序情報に基づいて、いわゆる順序回帰が、確率的分類器BMLP1の構成中に実行される。
さらに、確率的分類器BMLP1の相関パラメータCP1についてのいわゆる事前分布ADが、第2のニューラルネットワークモジュールMLPの学習パラメータから得られ、この学習パラメータは訓練によって、すなわち、ここではニューラル接続の最適化重みから、および/またはその重みの統計的分布から設定される。このようにして、第2のニューラルネットワークモジュールMLPの学習パラメータおよび他の訓練パラメータを、図1の破線矢印で示されるように、確率的分類器BMLP1を構成するためのハイパーパラメータHPとして使用することが可能である。
特に物体型OT1に関する上述の手順は、関連した物体型内の物体部分型を認識するための画像評価デバイスBAの、1つまたはそれ以上の別の物体型専用の部分型認識モジュールBMLP2、...をこのように構成するために物体型OT2にも同様に実行され、場合により別の物体型にも実行される。
新たに記録された、および/またはまだ分類されていない画像が次に、上述のように訓練および構成された画像評価デバイスBAによって評価されることが意図されている。
図2は、訓練および構成された画像評価デバイスBAによる、物体OBJの画像PICについてのこのような評価を示す。図1と同じ参照符号が図2に使用されている限り、同一の構成要素が示されている。
この例示的な実施形態では、記録された物体OBJは生物細胞であり、構成された画像評価デバイスBAによって、その細胞型は物体型として認識されるものであり、また、その発生段階は物体部分型として認識されるものである。評価されるべき画像PICは、カメラを備えた顕微鏡MICによって記録される。
記録された画像PICは、画像評価デバイスBAによって読み込まれ、訓練された第1のニューラルネットワークモジュールCNNに供給される。訓練された第1のニューラルネットワークモジュールCNNは、画像PICから出力データセットFEAを生成し、前記出力データセットは、上述の訓練目的に応じて、好ましくは、物体型認識に特によく適している画像フィーチャを含む。訓練された第1のニューラルネットワークモジュールCNNによって生成された出力データセットFEAは、訓練された第1のニューラルネットワークモジュールCNNによって、訓練された第2のニューラルネットワークモジュールMLPへ供給される。第1のニューラルネットワークモジュールCNNの出力データセットFEAから、訓練された第2のニューラルネットワークモジュールMLPは、上述の訓練目的に応じて、記録された物体OBJの物体型を可能な限り正確に明示するものである出力データセットを得る。この例示的な実施形態では、訓練された第2のニューラルネットワークモジュールMLPの出力データセットは、物体OBJの物体型OT1を明示すると仮定されるものとする。
訓練された第1のニューラルネットワークモジュールCNNによって生成された画像フィーチャFEA、およびまた決定された物体型OT1は、画像評価デバイスBAの選択モジュールSELへ伝達される。選択モジュールSELは、物体型に専用にそれぞれ構成されている確率的分類器BMLP1、BMLP2、...に連結されており、確率的分類器BMLP1、BMLP2、...のうちの1つを、それぞれ得られた物体型に応じて選択する働きをする。この例示的な実施形態では、OT1は、物体型OT1に専用の確率的分類器BMLP1が選択モジュールSELによって選択されているので、物体型として決定された。
さらに、画像フィーチャFEAが、選択モジュールSELから、図2の点線矢印で示されているように、選択された確率的分類器BMLP1へ特に伝達される。選択された分類器BMLP1は、その相関パラメータCP1に基づいて、および/または第1のニューラルネットワークモジュールCNNの記憶された訓練出力データセットもしくは画像フィーチャと比較することによって、画像フィーチャFEAと相互に関連づける。この場合、好ましくは、相関パラメータCP1に応じて、すなわち相関性が最大であるか十分に大きい最良のものを画像フィーチャFEAと相互に関連づける物体部分型が決定される。別法として、または加えて、画像フィーチャFEAと、第1のニューラルネットワークモジュールCNNの記憶された訓練出力データセットまたは画像フィーチャとの間の距離を突き止めることも可能である。この場合、割り当てられた訓練出力データセットが最小または十分に小さい距離を有する物体部分型が決定される。上記のように決定された物体部分型は、物体OBJの最も確からしい物体部分型OSTとみなすことができる。
訓練された第2のニューラルネットワークモジュールMLPによって決定された物体型OT1と、分類器BMLP1によってここで決定された物体部分型OSTとは最終的に、物体OBJの分類結果として画像評価デバイスBAによって出力される。
データ駆動型の物体型認識(ビッグデータ手法と呼ばれることも多い)と、少量の訓練データ(スモールデータ)にも適している確率的な物体部分型認識とに分割される分類タスクの結果として、認識確実性が著しく改善されることが多い。このことは特に、まれな物体型の物体部分型を認識することに当てはまる。
上述の医療診断における適用に加えて、本発明による構成方法および/または画像評価方法は、多くのさらなる技術分野で、画像化された物体を効率的に分類するために、したがってたとえば、光学的に監視する技術的もしくは非技術的システム、たとえば生産設備もしくは農業用の肥沃な土地、自律システムの光学センサ装置、または一般的な光学分類タスクなどに使用することができる。

Claims (14)

  1. 画像化された物体(OBJ)の物体型(OT)および物体部分型(OST)を決定するための画像評価デバイス(BA)を構成するための方法であって、
    a)物体型(OT)および物体部分型(OST)の両方に割り当てられた多数の訓練画像(TPIC)が、画像フィーチャを認識するために第1のニューラルネットワークモジュール(CNN)に供給され、
    b)第1のニューラルネットワークモジュール(CNN)の訓練出力データセット(FEA)が、画像フィーチャに基づいて物体型を認識するために、第2のニューラルネットワークモジュール(MLP)に供給され、
    c)第1および第2のニューラルネットワークモジュール(CNN、MLP)は、該第2のニューラルネットワークモジュール(MLP)の訓練出力データセット(OOT)が、訓練画像(TPIC)に割り当てられた物体型(OT)を少なくともほぼ再生するように、一緒に訓練され、
    d)それぞれの物体型(OT)に対し:
    該物体型(OT)に割り当てられた訓練画像(TPIC)は、訓練された第1のニューラルネットワークモジュール(CNN)に供給され、
    それぞれの訓練画像(TPIC)に対して生成された後者の訓練出力データセット(FEA1、FEA2)は、それぞれの訓練画像(TPIC)の物体部分型(OST)に割り当てられ、
    これらの部分型割り当ては、画像評価デバイス(BA)が画像フィーチャに基づいて物体部分型(OST)を認識するための、部分型認識モジュール(BMLP1、BMLP2)を構成する基礎として使用される、前記方法。
  2. 部分型割り当ては、画像フィーチャと物体部分型(OST)の間の相関の相関パラメータ(CP1、CP2)を得るための基礎として使用されること、および
    部分型認識モジュール(BMLP1、BMLP2)は、相関パラメータ(CP1、CP2)に基づいて構成されることを特徴とする、請求項1に記載の方法。
  3. 確率的分類器が、部分型認識モジュール(BMLP1、BMLP2)として使用される
    ことを特徴とする、請求項1または2に記載の方法。
  4. 部分型認識モジュール(BMLP1、BMLP2)は、第2のニューラルネットワークモジュール(MLP)に対応する結合構造を有することを特徴とする、請求項1~3のいずれか1項に記載の方法。
  5. 物体型(OT)に対して認識されるべき物体部分型(OST)は、所定の順序情報によって指定された秩序ある順序を形成すること、および
    部分型認識モジュール(BMLP1、BMLP2)は、順序情報に基づいて構成されることを特徴とする、請求項1~4のいずれか1項に記載の方法。
  6. 部分型認識モジュール(BMLP1、BMLP2)の構成中に、順序回帰が順序情報に基づいて実行されることを特徴とする、請求項5に記載の方法。
  7. 確率的分類器(BMLP1、BMLP2)の構成パラメータの事前分布は、訓練された第2のニューラルネットワークモジュール(MLP)の学習パラメータに基づいて決定されることを特徴とする、請求項3~6のいずれか1項に記載の方法。
  8. 部分型認識モジュール(BMLP1、BMLP2)の構成パラメータは、第1(CNN)および/または第2(MLP)のニューラルネットワークモジュールの訓練パラメータに応じて設定されることを特徴とする、請求項1~7のいずれか1項に記載の方法。
  9. 画像化された物体(OBJ)の物体型(OT)および物体部分型(OST)を決定するための画像評価方法であって、
    a)評価されるべき画像(PIC)が、請求項1~8のいずれか1項に記載のように訓練された第1のニューラルネットワークモジュール(CNN)に供給され、
    b)訓練された第1のニューラルネットワークモジュール(CNN)からもたらされた出力データセット(FEA)が、請求項1~8のいずれか1項に記載のように訓練された第2のニューラルネットワークモジュール(MLP)に供給され、
    c)物体型(OT)が、訓練された第2のニューラルネットワークモジュール(MLP)からもたらされた出力データセットから得られ、
    d)得られた物体型(OT)の専用であり、請求項1~8のいずれか1項に記載のように構成されている、部分型認識モジュール(BMLP1)が選択され、
    e)訓練された第1のニューラルネットワークモジュール(CNN)の出力データセット(FEA)と相関的に関連している物体部分型(OST)が、選択された部分型認識モジュール(BMLP1)によって決定され、
    f)得られた物体型(OT)、およびまた決定された物体部分型(OST)が出力される、前記画像評価方法。
  10. 相関的に関連している物体部分型(OST)を決定することが、訓練された第1のニューラルネットワークモジュール(CNN)の出力データセット(FEA)と、第1のニューラルネットワークモジュール(CNN)の複数の記憶された訓練出力データセットとの間のそれぞれの距離を決定することを含むこと、
    他の訓練出力データセットよりも距離が小さい訓練出力データセットが選択されること、および
    選択された訓練出力データセットに割り当てられた物体部分型が、相関的に関連している物体部分型(OST)として決定されることを特徴とする、請求項9に記載の画像評価方法。
  11. 第1のニューラルネットワークモジュール(CNN)、第2のニューラルネットワーク
    モジュール(MLP)および/または部分型認識モジュール(BMLP1、BMLP2)は、人工ニューラルネットワーク、回帰ニューラルネットワーク、畳み込みニューラルネットワーク、多層パーセプトロン、ベイズニューラルネットワーク、オートエンコーダ、ディープラーニングアーキテクチャ、サポートベクタマシン、データ駆動型の訓練可能回帰モデル、k最近傍分類器、物理モデルおよび/または決定木を含むことを特徴とする、請求項1~10のいずれか1項に記載の方法。
  12. 請求項1~11のいずれか1項に記載の方法を実行するように設計された、画像化された物体(OBJ)の物体型(OT)および物体部分型(OST)を決定するための画像評価デバイス(BA)。
  13. 請求項1~11のいずれか1項に記載の方法を実行するように設計されたコンピュータプログラム。
  14. 請求項13に記載のコンピュータプログラムを有するコンピュータ可読記憶媒体。
JP2021517208A 2018-09-28 2019-09-16 画像評価デバイスを構成するための方法、ならびにまた画像評価方法および画像評価デバイス Active JP7441830B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18197650.7A EP3629242B1 (de) 2018-09-28 2018-09-28 Verfahren zum konfigurieren einer bildauswerteeinrichtung sowie bildauswerteverfahren und bildauswerteeinrichtung
EP18197650.7 2018-09-28
PCT/IB2019/057772 WO2020065436A1 (de) 2018-09-28 2019-09-16 Verfahren zum konfigurieren einer bildauswerteeinrichtung sowie bildauswerteverfahren und bildauswerteeinrichtung

Publications (2)

Publication Number Publication Date
JP2022502767A JP2022502767A (ja) 2022-01-11
JP7441830B2 true JP7441830B2 (ja) 2024-03-01

Family

ID=63713690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021517208A Active JP7441830B2 (ja) 2018-09-28 2019-09-16 画像評価デバイスを構成するための方法、ならびにまた画像評価方法および画像評価デバイス

Country Status (5)

Country Link
US (1) US20220012531A1 (ja)
EP (1) EP3629242B1 (ja)
JP (1) JP7441830B2 (ja)
CN (1) CN112840352B (ja)
WO (1) WO2020065436A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113554356B (zh) * 2021-09-18 2023-06-20 中国地质大学(武汉) 基于多模型融合的人口分布估计方法、装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160086078A1 (en) 2014-09-22 2016-03-24 Zhengping Ji Object recognition with reduced neural network weight precision
WO2018001689A1 (en) 2016-06-28 2018-01-04 Contextvision Ab Method and system for detecting pathological anomalies in a digital pathology image and method for annotating a tissue slide
WO2018052587A1 (en) 2016-09-14 2018-03-22 Konica Minolta Laboratory U.S.A., Inc. Method and system for cell image segmentation using multi-stage convolutional neural networks
WO2018140014A1 (en) 2017-01-25 2018-08-02 Athelas, Inc. Classifying biological samples using automated image analysis
US20180263568A1 (en) 2017-03-09 2018-09-20 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Clinical Image Classification

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4532915B2 (ja) * 2004-01-29 2010-08-25 キヤノン株式会社 パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
EP1828961A2 (en) * 2004-12-17 2007-09-05 Koninklijke Philips Electronics N.V. Method and apparatus for automatically developing a high performance classifier for producing medically meaningful descriptors in medical diagnosis imaging
CN105849274B (zh) * 2013-10-28 2020-01-21 分子装置有限公司 用于显微图像中的单独细胞的分类和识别的方法和系统
AU2015261891A1 (en) * 2014-05-23 2016-10-13 Ventana Medical Systems, Inc. Systems and methods for detection of biological structures and/or patterns in images
US20170262996A1 (en) * 2016-03-11 2017-09-14 Qualcomm Incorporated Action localization in sequential data with attention proposals from a recurrent network
US10846566B2 (en) * 2016-09-14 2020-11-24 Konica Minolta Laboratory U.S.A., Inc. Method and system for multi-scale cell image segmentation using multiple parallel convolutional neural networks
CA2948499C (en) * 2016-11-16 2020-04-21 The Governing Council Of The University Of Toronto System and method for classifying and segmenting microscopy images with deep multiple instance learning
CN108564123B (zh) * 2018-04-10 2021-11-02 复旦大学附属肿瘤医院 一种甲状腺肿瘤细胞学涂片图像分类方法及其装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160086078A1 (en) 2014-09-22 2016-03-24 Zhengping Ji Object recognition with reduced neural network weight precision
WO2018001689A1 (en) 2016-06-28 2018-01-04 Contextvision Ab Method and system for detecting pathological anomalies in a digital pathology image and method for annotating a tissue slide
WO2018052587A1 (en) 2016-09-14 2018-03-22 Konica Minolta Laboratory U.S.A., Inc. Method and system for cell image segmentation using multi-stage convolutional neural networks
WO2018140014A1 (en) 2017-01-25 2018-08-02 Athelas, Inc. Classifying biological samples using automated image analysis
US20180263568A1 (en) 2017-03-09 2018-09-20 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Clinical Image Classification

Also Published As

Publication number Publication date
US20220012531A1 (en) 2022-01-13
EP3629242B1 (de) 2024-07-03
EP3629242A1 (de) 2020-04-01
CN112840352A (zh) 2021-05-25
WO2020065436A1 (de) 2020-04-02
CN112840352B (zh) 2024-07-23
JP2022502767A (ja) 2022-01-11

Similar Documents

Publication Publication Date Title
Roy et al. A fast accurate fine-grain object detection model based on YOLOv4 deep neural network
WO2023138300A1 (zh) 目标检测方法及应用其的移动目标跟踪方法
US11334789B2 (en) Feature selection for retraining classifiers
US10650508B2 (en) Automatic defect classification without sampling and feature selection
JP7074460B2 (ja) 画像検査装置および方法
KR102582194B1 (ko) 선택적 역전파
KR20170140214A (ko) 신경망을 위한 훈련 기준으로서의 필터 특이성
US11068694B2 (en) Image analysis system and method of using the image analysis system
US10002136B2 (en) Media label propagation in an ad hoc network
US20220051138A1 (en) Method and device for transfer learning between modified tasks
CN112868032B (zh) 提升ai识别学习能力
CN113792768A (zh) 超图神经网络分类方法和装置
US11568543B2 (en) Attention masks in neural network video processing
US20220038620A1 (en) Aesthetic Learning Methods and Apparatus for Automating Image Capture Device Controls
JP7441830B2 (ja) 画像評価デバイスを構成するための方法、ならびにまた画像評価方法および画像評価デバイス
US20220300805A1 (en) Device and method for defect inspection based on explainable artificial intelligence
CN113496251A (zh) 确定用于识别图像中的物体的分类器的装置、识别图像中的物体的装置和相应方法
CN112534447B (zh) 训练用于控制工程系统的机器学习例程的方法和设备
CN112507981A (zh) 模型生成方法、虹膜图像质量评估方法及电子设备
US12045153B1 (en) Apparatus and method of hot-swapping a component of a component unit in a cluster
US20220318631A1 (en) Deep neural network with reduced parameter count
US20240203105A1 (en) Methods, Systems, and Computer Systems for Training a Machine-Learning Model, Generating a Training Corpus, and Using a Machine-Learning Model for Use in a Scientific or Surgical Imaging System
WO2023109319A1 (en) Systems and methods for crop disease diagnosis
US20220300750A1 (en) Device and in particular a computer-implemented method for classifying data sets
Strandberg Semi-Supervised Domain Adaptation for Pick Classification in Pick and Place Machines

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240219

R150 Certificate of patent or registration of utility model

Ref document number: 7441830

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150