JP6636678B2 - 画像内物体の注釈付けの学習 - Google Patents

画像内物体の注釈付けの学習 Download PDF

Info

Publication number
JP6636678B2
JP6636678B2 JP2019530204A JP2019530204A JP6636678B2 JP 6636678 B2 JP6636678 B2 JP 6636678B2 JP 2019530204 A JP2019530204 A JP 2019530204A JP 2019530204 A JP2019530204 A JP 2019530204A JP 6636678 B2 JP6636678 B2 JP 6636678B2
Authority
JP
Japan
Prior art keywords
image
annotation
scale
processor
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019530204A
Other languages
English (en)
Other versions
JP2020501273A (ja
Inventor
ドミトリー ニコラエヴィッチ ズナメンスキー
ドミトリー ニコラエヴィッチ ズナメンスキー
カマナ シグデル
カマナ シグデル
ドリエル マーク ファン
ドリエル マーク ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2020501273A publication Critical patent/JP2020501273A/ja
Application granted granted Critical
Publication of JP6636678B2 publication Critical patent/JP6636678B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19167Active pattern learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Description

本発明は、画像内物体の注釈付けを学習するためのシステム及びコンピュータで実施化される方法に関する。本発明は、更に、斯かるシステムを有するワークステーション及び撮像装置に、並びにプロセッサシステムに該方法を実行させるための命令を有するコンピュータ読取可能な媒体に関する。
デジタル病理学においては、コンピュータビジョンアルゴリズムを用いて、特に機械学習アルゴリズムを用いて自動的細胞及び組織型検出を実行することが知られている。このような機械学習アルゴリズムの訓練は、人による(手動)組織又は細胞注釈付けを必要とする。しかしながら、異なる型の組織又は細胞を特徴付けるための病理学画像の手動注釈付けは、時間のかかる仕事である。信頼性のある注釈付けは病理学者を必要とし、このことは注釈付けを費用の掛かる処理にさせる。加えて、病理学画像の手動注釈付けは、退屈な作業であると共に、訓練された病理学者にとってさえもエラーを生じ易い仕事であり得る。
上述した問題は、デジタル病理学以外の領域でも生じる。このように、ユーザにとり機械学習アルゴリズムを訓練する労力を低減することが望ましい。
文献CN104537676は、オンライン学習に基づく段階的画像分割方法を記載している。該段階的画像分割方法は以下のステップを有する。即ち、入力画像に対して多層分解が実行され、該画像の多層表現が得られる。対話型分割がユーザラベルに基づいて実行され、分割モデルが訓練及び更新され、画像は反復ループにより徐々に正確に分割される。対話型分割過程において、誤って分割された領域の一部はユーザラベルにより補正され、訓練サンプルがユーザラベルから抽出され、該サンプルはサンプル拡張戦略により拡張される。拡張により得られた訓練サンプルは分割モデルを訓練及び更新するために利用され、分割予測が入力画像に対して実行される。
文献CN104537676は、このように、ユーザに訓練の前に大量の画像を手動で注釈付けさせるというより、分割モデルが対話的に、即ち、ユーザが分割過程の間に分割結果を補正することにより訓練及び更新される。当該訓練は、このように、段階的に実行される。
不利なことに、文献CN104537676では誤った分割結果の全てを補正するためにはユーザの相当の量の努力を依然として必要とするであろう。
Int J Comput Vis, 2011, vol. 93, no. 3のDhruv Batra他による“Interactively Co-segmentating Topically Related Images with Intelligent Scribble Guidance”なる名称の文献は、一群の関連画像からの前景物体の対話型共分割(co-segmentation)のためのアルゴリズムを記載している。ユーザが次に何処に走り書きすべきかを知的に推奨する自動推奨システムが記載されている。ユーザから一連の初期走り書きが与えられた場合、当該群内の各画像に対して推奨マップが計算される。より多くの走り書きを受けるために、最高の推奨点数を持つ画像(及び領域)がユーザに提示される。推奨点数として、複数の“手掛かり”が組み合わされる。
ユーザが機械学習アルゴリズムの訓練のためのフィードバックを一層選択的に供給することを可能にするシステム及び方法を得ることが有利であろう。
本発明の第1態様は画像内の物体(対象)の注釈付け(アノテーション)を学習するシステムを提供し、該システムは、
− 画像の多重縮尺(マルチスケール)表現を表す画像データにアクセスするよう構成された画像データインターフェースであって、該画像の多重縮尺表現が前記画像を異なる空間解像度で表す複数の縮尺(スケール)を有する画像データインターフェースと、
− 一群の命令を表す命令データを有するメモリと、
− 前記画像データインターフェース及び前記メモリと通信すると共に、前記一群の命令を実行するように構成されたプロセッサであって、該一群の命令が、該プロセッサにより実行された場合に、該プロセッサに機械学習アルゴリズムを使用して、前記多重縮尺画像の1以上の縮尺における物体の学習された注釈付けを得るようにさせるプロセッサと、
− ユーザインターフェースサブシステムであって、
i)前記多重縮尺画像を見るためにディスプレイ上に視野窓を形成(確立)するよう構成された表示プロセッサであって、前記視野窓が、前記複数の縮尺のうちの何れが該視野窓内に示されるべきかを決定する倍率及び該縮尺の何の部分が示されるべきかを定める空間オフセットパラメータに基づいて設定(構成)可能である表示プロセッサ、及び
ii)ユーザによる前記視野窓内の物体の手動注釈付けを示すユーザ入力データを入力するユーザ入力インターフェース、
を有するユーザインターフェースサブシステムと、
を有し、
前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに、
− 前記ユーザによる前記物体の手動注釈付けを、前記機械学習アルゴリズムの学習入力として使用させ、
− 前記ユーザ入力データを入力する前に、前記視野窓のための前記倍率及び前記空間オフセットパラメータを、前記多重縮尺画像の何処で前記ユーザによる前記物体の手動注釈付けが前記機械学習アルゴリズムによる学習された物体の注釈付けにおいて変化基準を満たすような変化を生じるかを識別することにより決定させる。
本発明の他の態様は、前記システムを有するワークステーション又は撮像装置を提供する。
本発明の他の態様は画像内の物体の注釈付けを学習するコンピュータで実施される方法を提供し、該方法は、
− 画像の多重縮尺表現を表す画像データにアクセスするステップであって、該画像の多重縮尺表現が前記画像を異なる空間解像度で表す複数の縮尺を有する、アクセスするステップと、
− 機械学習アルゴリズムを使用して、前記多重縮尺画像の1以上の縮尺における物体の学習された注釈付けを得るステップと、
− 前記多重縮尺画像を見るためにディスプレイ上に視野窓を形成(確立)するステップであって、前記視野窓が、前記複数の縮尺のうちの何れが該視野窓内に示されるべきかを決定する倍率及び該縮尺の何の部分が示されるべきかを定める空間オフセットパラメータに基づいて設定(構成)可能である、形成(確立)するステップと、
− ユーザによる前記視野窓内の物体の手動注釈付けを示すユーザ入力データを入力するステップと、
を有し、
当該方法は、更に、
− 前記ユーザによる前記物体の手動注釈付けを、前記機械学習アルゴリズムの学習における訓練フィードバックとして使用するステップと、
− 前記ユーザ入力データを入力する前に、前記視野窓のための前記倍率及び前記空間オフセットパラメータを、前記多重縮尺画像の何処で前記ユーザによる前記物体の手動注釈付けが前記機械学習アルゴリズムによる学習された物体の注釈付けにおいて変化基準を満たすような変化を生じるかを識別することにより決定するステップ、
を有する。
本発明の他の態様は、プロセッサシステムに前記方法を実行させるように構成された命令を表す一時的又は非一時的データを有するコンピュータ読取可能な媒体を提供する。
上述した方策は、画像の多重縮尺表現の注釈付けを伴う。このような多重縮尺表現自体は既知である。限定するものでない例は、画像のピラミッド表現である。例えばデジタル病理学において、画像は、典型的に、n番目の画像レベルが(n−1)番目の画像レベルと比較して2倍低い解像度を有する多重解像度画像ピラミッドとして記憶される。他の限定するものでない例は、画像のスケール空間表現である。一般的に、このような多重縮尺表現は、同一の画像内容を異なる空間的詳細レベルで表す複数の縮尺(スケール)を有し又は提供する。
前述した方策は、更に、ユーザが多重縮尺画像をディスプレイ上の視野窓(ビューイングウインドウ)内で見ることを可能にする。該視野窓は、複数の画像縮尺のうちの何れが示されるかを決定する倍率(拡大縮小係数)により設定可能である。典型的に、選択される画像縮尺は視野窓より大きいので、該視野窓は1以上の設定可能な空間オフセットパラメータ(例えば、水平及び垂直オフセット)を有する。このような空間オフセットは、視野窓内での画像内容のパンニングを可能にすることができる。この段落で説明される機能は、それ自体、例えば医療用ワークステーションから既知であることに注意されたい。
前記方策は、更に、前記多重縮尺画像の1以上の縮尺における物体の注釈付けを形成するために機械学習アルゴリズムを用いることを伴う。このような機械学習アルゴリズムの限定するものでない例は、強化学習アルゴリズム又は畳み込みニューラルネットワークである。得られた注釈付けは、“学習された注釈付け”とも称する。当該機械学習アルゴリズムは、更に、ユーザによる当該物体の注釈付けを訓練フィードバックとして使用する。手動注釈付けは、ユーザにより、前記視野窓を用いて、例えば該視野窓内で輪郭を描くことにより又は画像注釈付けの分野においてそれ自体既知の何らかの他の方法で供給することができる。該手動注釈付けは、学習された注釈付けの補正を含むこともできる。例えば、手動注釈付けは、ユーザが注釈付けされた物体のラベルを補正することを含むことができる。特定の例において、手動注釈付けは、文献CN104537676と同一の又は同様の態様で訓練フィードバックとして使用することができる。この点に関し、注釈付けは分割又は輪郭描写を有することができるのみならず、既に分割された物体にラベルを割り当て又はラベルを変更することも含むことができることに注意されたい。
前記方策は、更に、前記視野窓のための倍率及び空間オフセットパラメータを自動的に決定するステップを伴う。即ち、該方策は前記多重縮尺画像の何処でユーザによる物体の手動注釈付けが当該機械学習アルゴリズムによる多重縮尺画像内の学習された物体の注釈付けに十分な変化を生じるかを識別する。ここで、“何処で”なる用語は、或る画像縮尺及び該画像縮尺内の空間位置を示すことができる。当該画像縮尺を識別することにより、視野窓のための倍率を識別することができる。該画像縮尺における空間位置を識別することにより、視野窓のための空間オフセットパラメータを決定することができる。次いで、該視野窓は、該倍率及び空間オフセットパラメータで自動的に設定(構成)することができる。代わりに、斯かる倍率及び空間オフセットパラメータはユーザに対して、例えば図形指示情報又はテキストの形で示され、ユーザが視野窓をそれに従って手動で設定することを可能にすることができる。
前記方策は、ユーザが前記多重縮尺画像における、該ユーザのフィードバックが当該機械学習アルゴリズムによる該多重縮尺画像内の学習された物体の注釈付けを十分に変化させると考えられる位置に向けられるという効果を有する。ここで、“十分に変化させる”なる用語は、変化基準を満たす変化であると技術的に理解されるべきである。例えば、該変化基準は絶対又は相対閾値であり得る。他の例は、該変化基準が最大の得られ得る変化を識別することができるというものである。このような変化は種々の尺度により定量化することができることが理解される。限定するものでない例は、或る尺度が、当該手動注釈付けを訓練フィードバックとして使用する前及び後の学習された注釈付けの間の差を決定することができるというものである。特定の例において、学習された注釈付けがピクセル単位のラベル付けを生じる場合、ピクセル単位のラベル付けの差を当該多重縮尺画像の全ピクセルにわたって総和して、当該変化の定量化を得ることができる。
当該多重縮尺画像の何処でユーザによる物体の手動注釈付けが当該機械学習アルゴリズムによる全体の学習された物体の注釈付けを十分に変化させるかを識別することにより、ユーザは自身のフィードバックが大きな貢献をもたらす場所に向かって誘導されるであろう。訓練フィードバックとして使用される場合に学習された注釈付けを大きく変化させない手動注釈付けは余分であると考えることができることが理解される。かくして、このようなタイプの手動注釈付けは回避することができる。有利にも、学習された注釈付けに対して殆ど影響を有さない手動注釈付けを回避することができることにより、ユーザは機械学習アルゴリズムの訓練の間において入力を一層選択的に供給することができる。
本発明の分野において、“手動注釈付けをシミュレーションする”とは、注釈付けが“自動的に”、即ちユーザを巻き込まないで、実行されると理解されることが分かる。このような自動的注釈付けは、通常、通常は手動注釈付けに基づくものであるグラウンドトゥルース/参照、及び手動注釈付けを訓練入力として使用する略全ての学習ベースの自動注釈付け技術に従う人の注釈者をシミュレーションしようとするものである。かくして、“手動注釈付けをシミュレーションする”という概念は、ユーザによるというより、プロセッサ/方法による自動的注釈付けを示す。
前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに前記多重縮尺画像における何処で、前記ユーザによる前記物体の手動注釈付けが当該機械学習アルゴリズムによる前記学習された物体の注釈付けの最大変化又は絶対若しくは相対閾値を超える変化を生じるかを識別させることができる。このように、ユーザは、自身のフィードバックが当該機械学習アルゴリズムの訓練に対して最大の貢献又は閾値を超えることにより十分な貢献をもたらす場所に向かって誘導され得る。
例えば、前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに、
− 前記多重縮尺画像の異なる縮尺における及び/又は各縮尺の異なる部分における物体の手動注釈付けをシミュレーションし、
− シミュレーションされた前記手動注釈付けを、前記機械学習アルゴリズムにおける異なる学習入力として使用し、
− 結果としての異なる学習された物体の注釈付けの変化を定量化して、前記機械学習アルゴリズムによる学習された物体の注釈付けにおける最大の変化をもたらすシミュレーションされた手動注釈付けを識別し、及び
− 前記視野窓のための前記倍率及び前記空間オフセットパラメータを識別された前記シミュレーションされた手動注釈付けに基づいて選択する、
ことにより、前記視野窓のための前記倍率及び前記空間オフセットパラメータを決定させることができる。
上記方策は、異なる手動注釈付けをシミュレーションすると共に、シミュレーションされた手動注釈付けの各々に関して結果的変化を定量化するステップを含む。このことは、当該機械学習アルゴリズムによる学習された物体の注釈付けにおいて最大の変化をもたらすシミュレーションされた手動注釈付けを識別することを可能にする。ユーザを該シミュレーションされた手動注釈付けが位置する画像縮尺及び位置に向かって誘導することにより、該ユーザは、自身のフィードバックが当該機械学習アルゴリズムの訓練に対して最大に貢献する場所に向かって誘導され得る。この点に関し、該シミュレーションされる手動注釈付けは、ユーザの手動注釈付けとは実際に相違しそうであることに注意されたい。例えば、該シミュレーションされる手動注釈付けは粗いもの、例えば局部ベースというより領域ベースでラベルを割り当てることを含むもの、であり得る。それにも拘わらず、該シミュレーションされる手動注釈付けは、ユーザによる後の手動注釈付けに対する最大の影響度の領域を識別することを可能にし得る。
オプションとして、前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに、
− 各縮尺の前記多重縮尺画像を画像部分に分割させ、及び
− 前記物体の手動注釈付けを、前記画像部分の少なくとも1つに物体ラベルを割り当て又は該少なくとも1つの以前に割り当てられた物体ラベルを変更することによりシミュレーションさせる。
当該手動注釈付けは、例えば手動注釈付けの変化の影響を画像部分毎に定量化することにより、相対的に粗いレベルでシミュレーションすることができる。例えば、これら画像部分は、例えば8×8又は16×16ピクセルのブロックとすることができる。このことは、多重縮尺画像における何処でユーザによる物体の手動注釈付けが最大の変化を生じるかを識別する計算的複雑さを制限することを可能にする。代わりに、これら画像部分は、例えば分割アルゴリズムを用いて自動的に分割された物体とすることもできる。
オプションとして、前記プロセッサは、各画像部分における前記手動注釈付けにより影響を受ける変化の度合いのマップを発生するように構成することができ、前記ユーザインターフェースサブシステムは該マップを前記表示される多重縮尺画像に重ね合わせるように構成することができる。例えば、上記変化の度合いは、当該カラーの輝度、彩度又は色調が該変化の度合いに従って変化されるカラーコーティングを用いて視覚化することができる。
オプションとして、前記ユーザインターフェースサブシステムは、前記プロセッサにより決定された前記倍率及び前記空間オフセットパラメータを前記視野窓に自動的に適用するように構成される。このように、ユーザは注釈付けされるべき画像領域に向かって直接誘導される。
オプションとして、
− 前記ユーザインターフェースサブシステムは、ユーザにより選択される画像領域を決定するために、前記ユーザが、画像を見る間に前記視野窓のための前記倍率及び前記空間オフセットパラメータを手動で選択することを可能にするように構成され、
− 前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに前記機械学習アルゴリズムを使用して前記ユーザにより選択された画像領域における学習された物体の注釈付けを取得させ、
− 前記ユーザインターフェースサブシステムは、前記視野窓において前記学習された物体の注釈付けを視覚化するように構成される。
このように、ユーザには、当該機械学習アルゴリズムにより提供される学習された注釈付けについてのフィードバックが提供される。かくして、ユーザによる手動注釈付けは、当該多重縮尺画像における現在の状態の学習された注釈付けを考慮に入れることができる。更に、当該手動注釈付けが学習された注釈付けの補正を伴う場合、ユーザは、これが視野窓内で見えるので、前記学習された注釈付けを容易に補正することができる。後者の目的で、前記ユーザインターフェースサブシステムは、オプションとして、前記ユーザが前記視野窓において前記学習された物体の注釈付けを手動で補正することを可能にするように構成することができ、前記一群の命令は、前記プロセッサにより実行された場合に、オプションとして該プロセッサに前記補正された注釈付けを前記機械学習アルゴリズムにおける訓練フィードバックとして使用させることができる。
オプションとして、前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに前記機械学習アルゴリズムを前記多重縮尺画像の各縮尺に適用させ、これにより、各々が各縮尺における学習された物体の注釈付けを表す複数の注釈付けマップを得る。オプションとして、前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに前記複数の注釈付けマップを組み合わせる又は重ね合わせることにより前記多重縮尺画像の意味記述を発生させる。異なる縮尺上での同時的注釈付けは、当該多重縮尺画像の意味的理解を提供する。例えば、一層精細な縮尺上では、異なる細胞型を検出することができる一方、一層粗い画像縮尺上では異なる組織型を検出することができる。前記複数の注釈付けマップを組み合わせ又は重ね合わせることにより、意味記述を、例えば、或る画像領域に関する意味記述を画像縮尺にまたがる同一の画像領域における注釈付けの関数として提供する規則セットに基づいて、自動的に発生することができる。
当業者によれば、上述した本発明の実施態様、構成例及び/又はオプション的態様の2以上は、有効と思われる如何なる方法で組み合わせることもできると理解されるであろう。
当該システムの上述した変更例及び変形例に対応するワークステーション、撮像装置、コンピュータで実施される方法及び/又はコンピュータプログラム製品の変更例及び変形例は、当業者により本説明に基づいて実施することができるものである。
当業者であれば、当該システム及び方法は、これらに限られるものではないが、標準的X線撮像、コンピュータトモグラフィ(CT)、磁気共鳴撮像(MRI)、超音波(US)、陽電子放射トモグラフィ(PET)、単一光子放射コンピュータトモグラフィ(SPECT)及び核医学(NM)等の種々の取得方式により取得される画像データに適用することができると理解するであろう。しかしながら、非医療的使用も考えられる。当該画像データは、非医療的画像データとすることもできる。
本発明の上記及び他の態様は、以下の記載において添付図面を参照して例示として説明される実施態様から明らかとなり、斯かる実施態様を参照して解説される。
図1は、物体の注釈付けを学習するためのシステムを示す。 図2は、多重縮尺画像を画像ピラミッドの形で示す。 図3は、ユーザが多重縮尺画像を見ることを可能にするために当該システムによりディスプレイ上で形成することができる視野窓を示す。 図4は、視野窓が学習される注釈付けに対し最大の影響力を有する画像領域を示すために当該システムにより自動的に設定されることを示す。 図5は、当該システムがユーザに当該影響力を視覚的に示すために視野窓内の画像コンテンツ上にオーバーレイを供給することを示す。 図6は、物体の注釈付けを学習するための方法を示す。 図7は、プロセッサシステムに当該方法を実行させるための命令を有するコンピュータ読取可能な媒体を示す。
各図は純粋に概略的なものであって寸法通りには描かれていないことに注意すべきである。各図において、既に説明された要素に対応する要素は、同一の符号を有し得る。
図1は、画像内の物体(対象)の注釈付けを学習するためのシステム100を示す。システム100は、画像の多重縮尺(マルチスケール)表現を表す画像データ030にデータ通信部022を介してアクセスするよう構成された画像データインターフェース120を有するように図示されている。当該画像の多重縮尺表現は、該画像を異なる空間解像度で表す複数の縮尺を有することができる。図1の例において、画像データインターフェース120は、当該多重縮尺画像の画像データ030を有する外部画像貯蔵部020に接続されるように図示されている。例えば、該画像貯蔵部020は、当該システム100が接続され若しくは含まれ得る病院情報システム(HIS)の画像保管通信システム(PACS)により構成され又は該画像保管通信システムの一部とすることができる。従って、システム100は上記HISを介して多重縮尺画像の画像データ030にアクセスすることができる。代わりに、該多重縮尺画像の画像データ030は、システム100の内部データ記憶部からアクセスすることができる。一般的に、画像データインターフェース120は、ローカルエリア若しくは広域ネットワーク(例えば、インターネット)に対するネットワークインターフェース、内部若しくは外部記憶部に対する記憶インターフェース等の種々の形態をとることができる。
システム100は、更に、データ通信部122を介して画像データインターフェース120と内部的に通信するように構成されたプロセッサ140、該プロセッサ140によりデータ通信部142を介してアクセスすることが可能なメモリ160、並びに表示プロセッサ182及びユーザ入力インターフェース184を備え、データ通信部144を介してプロセッサ140と内部的に通信するように構成されたユーザインターフェースサブシステム180を有するように図示されている。
ユーザインターフェースサブシステム180は、当該システム100の動作中において、ユーザが当該多重縮尺画像における物体を手動で注釈付けすることを可能にするよう構成することができる。この目的のために、表示プロセッサ182は、ディスプレイ060用の表示データ062を発生して、該ディスプレイ060上に多重縮尺画像を見るための視野窓(ビューイングウインドウ)を形成するように構成することができる。例えば、該視野窓は表示プロセッサ182により発生されるグラフィックユーザインターフェースの一部とすることができる。ユーザ入力インターフェース184は、ユーザにより操作可能なユーザ装置080からユーザ入力データ082を受信して該ユーザが手動注釈付けを示すことを可能にすると共に、恐らく一般的には前記グラフィックユーザインターフェースと対話することを可能にするよう構成される。
図1では外部ディスプレイであるとして図示されているが、ディスプレイ060は内部ディスプレイとすることもできる。当該視野窓は、表示プロセッサ182によりアクセス可能なメモリ(例えば、メモリ160又は当該システム100の他のメモリである)にデータとして記憶された一連のインターフェース命令により表すことができる。ユーザ入力装置080は、これらに限られるものではないが、コンピュータマウス、タッチスクリーン、キーボード、マイクロフォン等の種々の形態をとることができる。図1は、該ユーザ入力装置がコンピュータマウス080であることを示している。一般的に、ユーザ入力インターフェース184は、ユーザ入力装置080のタイプに対応するタイプのものである。即ち、該インターフェースは、それに対応するユーザ装置インターフェースである。
プロセッサ140は、当該システム100の動作の間において、前記多重縮尺画像の1以上の縮尺における物体の学習された注釈付けを得るために機械学習アルゴリズムを使用するように構成することができる。該機械学習アルゴリズムは、メモリ160にデータとして記憶された一連の命令により表すことができる。機械学習アルゴリズムの例は、これらに限られるものではないが、ディープラーニングアルゴリズム、例えば畳み込みニューラルネットワークを含む。このようなアルゴリズム自体は、機械学習及びコンピュータビジョンの分野で既知である。
図1には示されていないが、当該ディスプレイ上に形成される視野窓は、前記複数の縮尺のうちの何れが該視野窓内に示されるべきかを決定する倍率及び該縮尺の何の部分が該視野窓内に示されるべきかを定める空間オフセットパラメータに基づいて設定(構成)可能なものとすることができる。プロセッサ140は、当該システム100の動作の間において、当該視野窓のための倍率及び空間オフセットパラメータを、当該多重縮尺画像における何処で、ユーザによる当該物体の手動注釈付けが物体の学習された注釈付けに変化を生じさせるかを、変化評価基準を満たす当該機械学習アルゴリズムにより識別することにより決定するよう構成することができる。かくして、当該手動注釈付けを、プロセッサ140により識別された多重縮尺画像における所望の領域で実行することができる。
システム100の動作を、該システムの種々のオプション的側面を含み、更に図2〜図5を参照して説明する。
一般的に、図1のシステムは、ワークステーション又は撮像装置等の装置若しくは機器として(又は、内に)具現化することができる。該装置若しくは機器は、適切なソフトウェアを実行する1以上の(マイクロ)プロセッサを有することができる。当該システムの前記プロセッサ及び表示プロセッサは、各々、これら(マイクロ)プロセッサの1以上により、又は同じ(マイクロ)プロセッサにより具現化することができる。例えば当該システムの機械学習アルゴリズム、視野窓若しくは該視野窓を有するグラフィックユーザインターフェース及び/又は他の機能を実施化するソフトウェアは、対応するメモリ又は複数のメモリに(例えば、RAM等の揮発性メモリに又はフラッシュ等の不揮発性メモリに)ダウンロードされた及び/又は記憶されたものとすることができる。他の例として、当該システムのプロセッサ及び表示プロセッサは、上記機器若しくは装置内に、例えばフィールドプログラマブルゲートアレイ(FPGA)等のプログラマブルロジックの形態で実施化することもできる。前記画像データインターフェース及びユーザ入力インターフェースは、斯かる機器若しくは装置の各インターフェースにより実施化することができる。一般的に、当該システムの各ユニットは、回路の形態で実施化することができる。当該システムは分散された(例えば、異なる機器若しくは装置を含む)態様で実施化することもできることに注意されたい。例えば、当該システムの分散は、例えば、サーバ及びシンクライアントPACSワークステーションを用いるクライアント/サーバモデルに則ったものとすることができる。
図2は、図1のシステム100により入力として使用することができる多重縮尺画像200を、画像の多重縮尺表現の一例である画像ピラミッドの形態で示す。図2に見られるように、該多重縮尺画像200は複数の画像縮尺(図2は、明瞭化の理由で、限られた数の縮尺のみを示す)を含むことができる。例示として、図2の多重縮尺画像はデジタル病理画像とすることができる。このようなデジタル病理画像は典型的に多重解像度画像ピラミッドとして記憶され、その場合において、n番目の画像レベルは(n−)番目の画像レベルと比較して2倍低い解像度を有する。図2の例において、画像縮尺“0”208は“生の”病理画像(例えば、本来の撮像解像度に対応する)に対応することができる一方、一層高い画像縮尺(例えば、縮尺“5”206、縮尺“6”204及び縮尺“8”202)は32、64及び256倍、各々、減少された解像度を有することができる。このような縮尺は“レベル”とも称することができることに注意されたい。
各画像縮尺の一定のサイズの部分(例えばX×Yピクセルの窓)を見るユーザにとり、画像内容及び前後関係は各画像縮尺において非常に異なって出現し得る。例えば、ユーザは、画像縮尺“0”208においては個々の細胞220を知覚することができる一方、画像縮尺“5”206及びそれ以上では微少臓器及び異なる組織210を見ることになる。
図3は、ユーザが多重縮尺画像を見ることを可能にするために当該システムによりディスプレイ上に形成することができる視野窓(ビューイングウインドウ)300を示す。このような視野窓300は、選択された各画像縮尺の上述した一定サイズの部分を表示することができる。図3の例において、該視野窓は、組織210を示す画像縮尺において(例えば、画像縮尺5又は6において)当該多重縮尺画像を表示するように図示されている。ユーザは該視野窓を用いて当該多重縮尺画像をズームイン又はズームアウトすることができ、これにより、当該システムを他の画像縮尺を表示するようにさせることができる。この目的のために、ユーザは倍率を表すスライダ310等のUIエレメントを使用することができる。同様に、選択された画像縮尺をパン(平行移動)するために、ユーザは水平及び/又は垂直空間オフセットを選択するためのスライダ320,330等のUIエレメントを使用し、これにより当該画像内容を該視野窓内でパンすることができる。
図1を参照して簡単に説明したように、図3の視野窓はユーザにより訓練フィードバックを供給するために(即ち、物体を手動で注釈付けすることにより)使用することができる。例えば、ユーザは、物体の輪郭を描き、画像部分に物体のラベルを割り当て、又は当該機械学習アルゴリズムにより割り当てられた物体ラベルを変更することができる。
細胞及び組織等の物体の手動注釈付けのために図3に示されたような視野窓を使用すること自体は既知である。しかしながら、病理画像の例においては細胞機能が前後関係に依存することが理解されるであろう。当該細胞が何の組織/臓器内に位置するかが分かる場合、該細胞の型を区別することは一層容易になる。即ち、細胞は、このような前後関係に依存して異なる細胞型及び機能に帰属し得る。病理学者は、典型的に、特定の組織/細胞型を注釈付け/検出するために異なる倍率レベル上の画像前後関係を暗黙的に使用している。即ち、前後関係から個々の細胞を分類するよりも特定の細胞/組織の組み合わせを悪性又は健康として分類するほうが容易であり得る。更に、異なる分類を用いて、幾つかの細胞/組織型を同時に、一貫した方法で、注釈付け及び分類することが一層容易であり得る。
注釈付けの観点から、注釈付けされる/分割される物体の前後関係は、特定の視野窓内で見えると共に特定の解像度でサンプリングされた複数の全ての他の物体と考えることができる。ユーザがズームイン/アウトする場合、当該物体の前後関係は、量(例えば、見える物体の数)及び質(例えば、特定の解像度における物体のピクセル表現は相違する)の両方において変化し得る。例えば、ズームインされた画像の場合、或る細胞の前後関係は複数の隣接する細胞であり得る一方、ズームアウトされた画像の場合、前後関係は複数の周囲の組織であり得る。
多重縮尺画像を注釈付けする従来の方法において、画像の注釈付けは、通常、正確な倍率値についての情報が維持されないような特定の倍率で実施されている。注釈付けのために選択される倍率は、注釈付け速度、正確さ及び一貫性の間の妥協であり得る。このように、高いズーム率において、注釈付けは正確になり得るが、視野窓内の物体しか直接的に比較することができず、周囲の細胞構造及び組織の前後関係は該視野窓の境界を超えるものとなるので、低速で余り一貫性のなりものとなり得る。低いズーム率の場合、注釈付けは一層速くなるが、個々の細胞は殆ど見えないので余り正確ではない。
図4は、学習される注釈付けに対して最大の影響を有する画像領域を自動的に示すように構成された図1のシステムの結果を示す。即ち、視野窓300は異なる画像縮尺、即ち個々の細胞220が示される図2の画像縮尺“0”を示すことが分かる。更に、最大影響度の特定の画像領域を示す水平及び垂直空間オフセットパラメータが選択されたものであり得る。ここで、“最大影響度の画像領域”なる用語は、ユーザによる手動注釈付けが機械学習アルゴリズムにより学習される注釈付けの曖昧さを最大に解決すると見なされる画像縮尺及び画像位置と理解される。上記最大影響度は、当該多重縮尺画像における学習された注釈付けの、手動注釈付けが適用される画像領域の関数としての変化の程度を決定すると共に、最大の変化に関連する画像領域を選択することにより計算することができる。他の例として、上記画像領域は、学習された注釈付けの変化が相当のものである(例えば、絶対又は相対閾値を超えることにより)ことに基づいて識別することもできる。かくして、“最大影響度”なる参照は、“十分な影響度”にも当てはまり得る。
最大影響度の画像領域を識別するために、当該システムのプロセッサは、シミュレーションされた手動注釈付けの結果の変化の程度を定量化することにより、視野窓(これにより画像領域)のための倍率及び空間オフセットパラメータを決定するように(適切な命令により)構成することができる。例えば、該プロセッサは、物体の手動注釈付けを異なる縮尺で及び/又は多重縮尺画像の各縮尺の異なる部分においてシミュレーションし、該シミュレーションされた手動注釈付けを当該機械学習アルゴリズムへの異なる学習入力として使用し、結果としての物体の異なる学習された注釈付けの変化を定量化して、当該機械学習アルゴリズムによる物体の学習された注釈付けの最大変化をもたらすようなシミュレーションされた手動注釈付けを識別し、該識別されたシミュレーションされた手動注釈付けに基づいて視野窓のための倍率及び空間オフセットパラメータを選択することができる。
他の例において、当該システムは該システムにより反復的に実行することが可能な以下の擬似コードを実行することができる:
A.ユーザ又はシステムは倍率及び空間オフセットを選択する
B.多重縮尺画像の全画像部分に対して、以下を実行する:
a.ラベルを選択する
b.(教師なし)分割方法を選択する
c.教師なしアルゴリズムを使用して画像部分をクラスタに分割する
d.ラベルを割り当て/消去することにより分割マップを編集する
e.機械学習アルゴリズムを更新する
f.上記ステップによりもたらされた変化を定量化する
C.ユーザによる注釈付けが自動注釈付けマップに最大に影響を与える画像部分を提供する倍率及び空間オフセットを検索する(これは、当該システムによりステップAに戻る場合に選択することができる)。ステップa〜bは注釈付けマップの最初の再計算以降に対してオプションとすることができることに注意されたい。
ユーザによる手動注釈付けをシミュレーションするために画像内容をクラスタに分割する代わりに、画像内容の規則的仕切り(regular partitioning)を用いることができる。例えば、画像内容を、ユーザによる特定のブロックの手動注釈付けをシミュレーションするために当該ラベルが変更され得るようなブロックに仕切ることができる。特定の例において、当該システムは該システムにより反復的に実行することができる下記の擬似コードを実行することができる。最初に、当該多重縮尺画像は、例えば8×8ピクセルのブロックに分割することができる。次いで、各又は一群のブロックの“影響度”を:
a)ブロックのラベルを変更する
b)ラベルが変更されたブロックを手動注釈付けと見なす
c)機械学習アルゴリズムを更新する
d)異なって注釈付けされたピクセルの数を計数する(このピクセル数は当該ブロックの“影響度”と見なすことができる)
により計算することができる。
ブロック又は他の画像部分が識別されたなら、倍率及び空間オフセットパラメータ(又は複数のパラメータ)は当該特定のブロック又は画像部分を有する画像領域を示すために選択することができることに注意されたい。例えば、該倍率及び空間オフセットパラメータ(又は複数のパラメータ)は、当該特定のブロック又は画像部分に中心が合い得る。
一般的に、当該プロセッサは各縮尺の多重縮尺画像を分割又は仕切りにより画像部分に分割すると共に、当該物体の手動注釈付けを、斯かる画像部分の少なくとも1つに物体ラベルを割り当て又は該少なくとも1つに以前に割り当てられた物体ラベルを変更することによりシミュレーションすることができる。特定の画像部分の影響度は、該特定の画像部分がラベルを変更するとして、ラベルを変更する画像部分のサイズとして計算することができる。ここで、“ラベルを変更する”なる用語は、細胞型等の物体の型の変更を含むことができるのみならず、注釈付けの間において割り当てることができる如何なる他の種類のラベル付けも含む。
図5は、当該システムが、ユーザに当該画像部分を視覚的に示すために視野窓内に示された画像領域上にオーバーレイ350を供給している場合を示す。該オーバーレイ350は、当該画像領域における何処でユーザによる手動注釈付けが学習される注釈付けに最大に影響を与えると考えられるかを示すことができる。オーバーレイ350を発生するために、当該システムは、決定されたシミュレーションされた手動注釈付けの影響度を利用することができる。オーバーレイ350は当該画像縮尺上の透明なカラーオーバーレイとすることができ、その場合において、透明度、輝度、色調、彩度又は他の視覚的特性をシステムにより当該画像部分における手動注釈付けの影響度に比例して選択することができる。図5の例において、一層暗い陰影は一層少ない影響度を示す一方、一層明るい陰影は一層高い影響度を示す。
一般的に、当該システムにより異なる倍率レベルで取得された注釈付けマップは、画像前後関係の意味記述を提供するために組み合わせることができる。当該システムは該意味記述を、a)画像注釈付けと首尾一貫したものとなる(例えば、該意味記述が手動注釈付けと一致する)、b)画像内容と首尾一貫したものとなる(例えば、該画像内容の同様のピクセルに同様の意味記述が割り当てられる)ように自動的に作成/改善することができる。この目的のために、当該システムは各画像縮尺に関して得られた注釈付けマップを組み合わせ又は重畳することができる。例えば、一層精細な解像度レイヤ上のセグメント上の或る注釈付けマップが個々の細胞を区分けする一方、一層粗い解像度レイヤ上の他の注釈付けマップが“血管”と“筋細胞”との間を区別する場合、これらの注釈付けマップを組み合わせることにより、“血管細胞”及び“筋細胞”を識別することができる。規則に基づくシステム、ルックアップテーブル又は同様の技術を、意味記述を得るために用いることができる。例えば、規則に基づくシステムは、特定の空間位置が与えられたとして、細胞が精細な解像度レイヤにおいて識別され、筋組織が粗い解像度レイヤにおいて識別された場合、当該意味記述は“筋細胞”であると決定することができる。
当該システムは、以下の特定の前後関係で有利に使用することができることが分かる。画像注釈付け処理の間において、病理学者が当該多重縮尺画像を閲覧及びズームする間に、当該システムは現視野窓内の画像内容を自動的に分析して自動注釈付けマップ(又は複数のマップ)を提案することができる。該病理学者は、これらの注釈付けマップを、誤って分類されたラベル(例えば、細胞又は組織型)を排除することにより見直すことができる。該病理学者は自身の新たな分割又は新たなラベルを指定することにより新たな注釈付けを供給することもできる。これら注釈付けマップは、画像縮尺(例えば、解像度レベル)固有のものであると考えられ、従って、限られた範囲の隣接する画像縮尺内でのみ見えるように定義され得るものである。しかしながら、該限られた範囲の画像縮尺内で、斯かる注釈付けマップは見えるように伝搬させることもできる。
更に、当該機械学習アルゴリズムは画像縮尺の各々において併行して訓練することもできることが分かる。該機械学習アルゴリズムは、現画像座標において利用可能な全ての手動注釈付けの重ね合わせに依存するコスト関数を有することができる。該機械学習アルゴリズムはディープラーニングアルゴリズムとすることができる。
図6は、画像内の物体の注釈付けを学習するためのコンピュータで実施される方法400を示す。方法400は、必要ではないが、図1等を参照して説明したシステム100の動作に対応し得る。
方法400は、“ACCESSING IMAGE DATA”なる名称の処理において、画像の多重縮尺表現を表す画像データにアクセスするステップ410を有する。方法400は、更に、“OBTAINING LEARNED ANNOTATION OF OBJCTS”なる名称の処理において、前記多重縮尺画像の1以上の縮尺における物体の学習された注釈付けを得るために機械学習アルゴリズムを使用するステップ420を有する。該方法400は、更に、“ESTABLISHING VIEWING WINDOW”なる名称の処理において、多重縮尺画像を見るためにディスプレイ上に視野窓を形成(確立)するステップ430を有する。該方法400は、更に、“IDENTIFYING IMAGE AREA OF INFLUENCE”なる名称の処理において、当該多重縮尺画像における何処で、ユーザによる物体の手動注釈付けが当該機械学習アルゴリズムにより学習された物体の注釈付けの変化基準を満たす変化を生じるかを識別するステップ440を有する。該方法400は、更に、“CONFIGURING VIEWING WINDOW”なる名称の処理において、当該視野窓のための倍率及び空間オフセットパラメータを決定するステップ450を有する。該方法400は、更に、“RECEIVING MANUAL ANNOTATION”なる名称の処理において、ユーザによる当該視野窓内の物体の手動注釈付けを示すユーザ入力データを入力するステップ460を有する。該方法400は、更に、“USING MANUAL ANNOTATION AS TRAINING FEEDBACK”なる名称の処理において、ユーザによる当該物体の手動注釈付けを当該機械学習アルゴリズムの学習における訓練フィードバックとして使用するステップ470を有する。
上述した処理は、適用可能な場合において特定の順序が例えば入力/出力の関係により必要とされるなら、例えば連続的に、同時に又はこれらの組み合わせ等のように、如何なる適切な順序で実行することもできることが理解される。
方法400は、コンピュータ上でコンピュータにより実施される方法として、専用のハードウェアとして、又は両者の組み合わせとして実施化することができる。図7にも示された通り、斯かるコンピュータのための命令(例えば、実行可能なコード)は、コンピュータ読取可能な媒体500上に、例えばマシン読取可能な物理的マークの系列510、及び/又は異なる電気的、磁気的又は光学的特性若しくは値の系列の形態で記憶することができる。上記実行可能なコードは一時的又は非一時的態様で記憶することができる。コンピュータ読取可能な媒体の例は、メモリ装置、光学記憶装置、集積回路、サーバ、オンラインソフトウェア等を含む。図7は光ディスク500を示す。
制限するものでないと示されるか否かに拘わらず、例、実施態様又はオプションとしてのフィーチャは、請求項に記載された発明を限定する如くに理解されてはならない。
本発明は、本発明を実施させるように構成されたコンピュータプログラム、特に担体上又は内のコンピュータプログラムにも当てはまることが理解される。斯かるプログラムは、ソースコード、オブジェクトコード、部分的にコンパイルされた形態における等のソースコード及びオブジェクトコードの中間のコード、又は本発明による方法の実施に使用するのに適した何らかの他の形態等の形態とすることができる。このようなプログラムは多くの異なるアーキテクチャ設計を有することができることも理解される。例えば、本発明による方法又はシステムの機能を実施化するプログラムコードは、1以上のサブルーチンに分割することができる。これらのサブルーチンの間に当該機能を分散させる多くの異なる方法が、当業者にとり明らかであろう。斯かるサブルーチンは、自己充足型プログラムを形成するために1つの実行可能なファイルに一緒に記憶することができる。このような実行可能なファイルは、コンピュータ実行可能な命令、例えばプロセッサ命令及び/又はインタープリタ命令(例えば、ジャバインタプリタ命令)を有することができる。他の例として、前記サブルーチンの1以上又は全ては、少なくとも1つの外部ライブラリファイルに記憶され、主プログラムと静的に又は動的に(例えば、実行時に)リンクされるようにすることができる。該主プログラムは、前記サブルーチンの少なくとも1つに対する呼び出し(コール)を含む。これらサブルーチンは、互いに対する機能呼び出しを有することもできる。コンピュータプログラム製品に関する実施態様は、ここに記載される方法の少なくとも1つの各処理段に対応するコンピュータ実行可能な命令を有する。これらの命令は、サブルーチンに分割することができ、及び/又は静的若しくは動的にリンクされ得る1以上のファイルに記憶することができる。コンピュータプログラム製品に関する他の実施態様は、ここに記載されるシステム及び/又は製品の少なくとも1つの各手段に対応するコンピュータ実行可能な命令を有する。これらの命令は、サブルーチンに分割することができ、及び/又は静的若しくは動的にリンクされ得る1以上のファイルに記憶することができる。
コンピュータプログラムの担体は、当該プログラムを担持することができる如何なる主体又は装置とすることもできる。例えば、該担体は、ROM(例えば、CD ROM)又は半導体ROM等のデータ記憶部、又は磁気記録媒体(例えば、ハードディスク)を含むことができる。更に、該担体は、電気若しくは光ケーブルを介して又は他の手段により伝送することができる電気若しくは光信号等の伝送可能な担体とすることができる。当該プログラムが斯様な信号において具現化される場合、当該担体は斯様なケーブル又は他の装置若しくは手段により構成され得る。他の例として、当該担体は当該プログラムが内蔵された集積回路とすることができ、該集積回路は関連する方法を実行するように構成され又は該方法の実行に使用される。
上述した実施態様は本発明を限定するというよりも解説するものであり、当業者であれば、多くの代替実施態様を添付請求項の範囲から逸脱することなく設計することができることに注意すべきである。尚、請求項において、括弧内に記載された如何なる符号も当該請求項を限定するものと見なしてはならない。また、単数形の要素は複数の斯様な要素の存在を排除するものではない。また、本発明は、幾つかの別個の要素を有するハードウェアにより、及び適切にプログラムされたコンピュータにより実施化することができる。また、幾つかの手段を列挙する装置の請求項において、これら手段の幾つかは1つの同一のハードウェア品目により具現化することができる。また、特定の手段が互いに異なる従属請求項に記載されているという単なる事実は、これら手段の組み合わせを有利に使用することができないということを示すものではない。
符号の以下のリストは、図面の解釈を容易にするために提供されるもので、請求項を限定するものと見なしてはならない。
020 画像貯蔵部
022 データ通信部
030 画像データ
060 ディスプレイ
062 表示データ
080 ユーザ入力装置
082 ユーザ入力データ
100 物体の注釈付けを学習するシステム
120 画像データインターフェース
122 内部データ通信部
140 プロセッサ
142,144 内部データ通信部
160 メモリ
180 ユーザインターフェースサブシステム
182 表示プロセッサ
184 ユーザ入力インターフェース
200 画像の多重縮尺表現
202〜208 画像縮尺
210 組織
220 細胞
300 視野窓(ビューイングウインドウ)
310,312 倍率のためのUIエレメント
320,322 水平オフセットのためのUIエレメント
330,332 垂直オフセットのためのUIエレメント
350 影響のある画像領域を示すオーバーレイ
400 物体の注釈付けを学習する方法
410 画像データにアクセスするステップ
420 学習された物体の注釈付けを得るステップ
430 視野窓を形成するステップ
440 影響のある画像領域を識別するステップ
450 視野窓を設定するステップ
460 手動注釈付けを入力するステップ
470 手動注釈付けを訓練フィードバックとして使用するステップ
500 コンピュータ読取可能な媒体
510 命令を表す非一時的データ

Claims (14)

  1. 画像内の物体の注釈付けを学習するシステムであって、前記システムは、
    画像の多重縮尺表現を表す画像データにアクセスする画像データインターフェースであって、該画像の多重縮尺表現が前記画像を異なる空間解像度で表す複数の縮尺を有する画像データインターフェースと、
    一群の命令を表す命令データを有するメモリと、
    前記画像データインターフェース及び前記メモリと通信し、前記一群の命令を実行するプロセッサであって、該一群の命令が、該プロセッサにより実行された場合に、該プロセッサに機械学習アルゴリズムを使用して、前記多重縮尺画像の1以上の縮尺における物体の学習された注釈付けを得るようにさせるプロセッサと、
    i)前記多重縮尺画像を見るためにディスプレイ上に視野窓を形成する表示プロセッサであって、前記視野窓が、前記複数の縮尺のうちの何れが該視野窓内に示されるべきかを決定する倍率及び該縮尺の何の部分が示されるべきかを定める空間オフセットパラメータに基づいて設定可能である表示プロセッサ、及び
    ii)ユーザによる前記視野窓内の物体の手動注釈付けを示すユーザ入力データを入力するユーザ入力インターフェース、
    を有するユーザインターフェースサブシステムと、
    を有し、
    前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに、
    前記多重縮尺画像の異なる縮尺における及び/又は各縮尺の異なる部分における物体の手動注釈付けをシミュレーションさせ、
    シミュレーションされた前記手動注釈付けを、前記機械学習アルゴリズムにおいて異なる学習入力として使用させ、
    結果としての異なる学習された物体の注釈付けの変化を定量化して、前記機械学習アルゴリズムによる学習された物体の注釈付けにおける最大の変化又は絶対若しくは相対閾値を超える変化をもたらすシミュレーションされた手動注釈付けを識別させ、
    前記視野窓のための前記倍率及び前記空間オフセットパラメータを識別された前記シミュレーションされた手動注釈付けに基づいて選択させ、及び
    前記ユーザ入力データを入力した後に、前記ユーザによる前記物体の手動注釈付けを前記機械学習アルゴリズムの学習入力として使用させる、
    システム。
  2. 前記一群の命令が、前記プロセッサにより実行された場合に、該プロセッサに、
    各縮尺の前記多重縮尺画像を画像部分に分割させ、及び
    前記物体の手動注釈付けを、前記画像部分の少なくとも1つに物体ラベルを割り当て又は該少なくとも1つの以前に割り当てられた物体ラベルを変更することによりシミュレーションさせる、
    請求項1に記載のシステム。
  3. 前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに各画像部分における前記手動注釈付けにより影響を受ける変化の度合いのマップを発生させ、前記ユーザインターフェースサブシステムが前記視野窓に前記マップを重ね合わせる、請求項2に記載のシステム。
  4. 前記ユーザインターフェースサブシステムが、前記プロセッサにより決定された前記倍率及び前記空間オフセットパラメータを前記視野窓に自動的に適用する、請求項1ないし3の何れか一項に記載のシステム。
  5. 前記ユーザインターフェースサブシステムは、ユーザにより選択される画像領域を決定するために、前記ユーザが、画像を見る間に前記視野窓のための前記倍率及び前記空間オフセットパラメータを手動で選択することを可能にし、
    前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに前記機械学習アルゴリズムを使用して前記ユーザにより選択された画像領域における学習された物体の注釈付けを取得させ、
    前記ユーザインターフェースサブシステムが、前記視野窓において前記学習された物体の注釈付けを視覚化する、
    請求項1ないし4の何れか一項に記載のシステム。
  6. 前記ユーザインターフェースサブシステムは、前記ユーザが前記視野窓において前記学習された物体の注釈付けを手動で補正することを可能にし、
    前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに前記補正された注釈付けを前記機械学習アルゴリズムにおける学習入力として使用させる、請求項5に記載のシステム。
  7. 前記一群の命令が、前記プロセッサにより実行された場合に、該プロセッサに前記機械学習アルゴリズムを前記多重縮尺画像の各縮尺に適用させ、これにより、各々が各縮尺における学習された物体の注釈付けを表す複数の注釈付けマップを得る、請求項1ないし6の何れか一項に記載のシステム。
  8. 前記一群の命令が、前記プロセッサにより実行された場合に、該プロセッサに前記複数の注釈付けマップを組み合わせる又は重ね合わせることにより前記多重縮尺画像の意味記述を発生させる、請求項7に記載のシステム。
  9. 前記機械学習アルゴリズムが畳み込みニューラルネットワークを有する、請求項1ないし8の何れか一項に記載のシステム。
  10. 請求項1ないし9の何れか一項に記載のシステムを有する、ワークステーション。
  11. 請求項1ないし9の何れか一項に記載のシステムを有する、撮像装置。
  12. 請求項1ないし9の何れか一項に記載のシステムを用いて訓練される機械学習アルゴリズムを表す一時的又は非一時的データを有する、コンピュータ読取可能な媒体。
  13. 画像内の物体の注釈付けを学習するコンピュータで実施される方法であって、前記方法は、
    画像の多重縮尺表現を表す画像データにアクセスするステップであって、該画像の多重縮尺表現が前記画像を異なる空間解像度で表す複数の縮尺を有する、アクセスするステップと、
    機械学習アルゴリズムを使用して、前記多重縮尺画像の1以上の縮尺における物体の学習された注釈付けを得るステップと、
    前記多重縮尺画像を見るためにディスプレイ上に視野窓を形成するステップであって、前記視野窓が、前記複数の縮尺のうちの何れが該視野窓内に示されるべきかを決定する倍率及び該縮尺の何の部分が示されるべきかを定める空間オフセットパラメータに基づいて設定可能である、形成するステップと、
    ユーザによる前記視野窓内の物体の手動注釈付けを示すユーザ入力データを入力するステップと、
    を有し、
    当該方法が、更に、
    前記多重縮尺画像の異なる縮尺における及び/又は各縮尺の異なる部分における物体の手動注釈付けをシミュレーションするステップと、
    シミュレーションされた前記手動注釈付けを、前記機械学習アルゴリズムにおいて異なる学習入力として使用するステップと、
    結果としての異なる学習された物体の注釈付けの変化を定量化して、前記機械学習アルゴリズムによる学習された物体の注釈付けにおける最大の変化又は絶対若しくは相対閾値を超える変化をもたらすシミュレーションされた手動注釈付けを識別するステップと、
    前記視野窓のための前記倍率及び前記空間オフセットパラメータを識別された前記シミュレーションされた手動注釈付けに基づいて選択するステップと、
    前記ユーザ入力データを入力した後に、前記ユーザによる前記物体の手動注釈付けを前記機械学習アルゴリズムの学習入力として使用するステップと、
    を有する、方法。
  14. プロセッサシステムに請求項13に記載の方法を実行させる命令を表す一時的又は非一時的データを有する、コンピュータ読取可能な媒体。
JP2019530204A 2016-12-08 2017-12-05 画像内物体の注釈付けの学習 Active JP6636678B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16202827.8 2016-12-08
EP16202827 2016-12-08
PCT/EP2017/081585 WO2018104342A1 (en) 2016-12-08 2017-12-05 Learning annotation of objects in image

Publications (2)

Publication Number Publication Date
JP2020501273A JP2020501273A (ja) 2020-01-16
JP6636678B2 true JP6636678B2 (ja) 2020-01-29

Family

ID=57542777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019530204A Active JP6636678B2 (ja) 2016-12-08 2017-12-05 画像内物体の注釈付けの学習

Country Status (6)

Country Link
US (1) US10885392B2 (ja)
EP (1) EP3552151A1 (ja)
JP (1) JP6636678B2 (ja)
CN (1) CN110050281B (ja)
RU (1) RU2739713C1 (ja)
WO (1) WO2018104342A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3657514A1 (en) * 2018-11-22 2020-05-27 Koninklijke Philips N.V. Interactive iterative image annotation
US10853704B2 (en) * 2018-12-18 2020-12-01 Clarifai, Inc. Model-based image labeling and/or segmentation
US11170264B2 (en) * 2019-05-31 2021-11-09 Raytheon Company Labeling using interactive assisted segmentation
US20210035015A1 (en) * 2019-07-31 2021-02-04 GE Precision Healthcare LLC Annotation pipeline for machine learning algorithm training and optimization
CN112991145B (zh) * 2019-12-16 2023-03-24 杭州海康威视数字技术股份有限公司 图像生成方法、系统、电子设备及机器可读存储介质
JP2021096748A (ja) * 2019-12-19 2021-06-24 ソニーグループ株式会社 医療画像分析方法、医療画像分析プログラムおよび医療画像分析システム
US11574246B2 (en) * 2020-01-21 2023-02-07 Microsoft Technology Licensing, Llc Updating training examples for artificial intelligence
US11526694B2 (en) 2020-03-31 2022-12-13 International Business Machines Corporation Model training using fully and partially-annotated images
US11449716B2 (en) 2020-03-31 2022-09-20 International Business Machines Corporation Model training using partially-annotated images
US20210334955A1 (en) * 2020-04-24 2021-10-28 Nvidia Corporation Image annotation using one or more neural networks
US11189375B1 (en) * 2020-05-27 2021-11-30 GE Precision Healthcare LLC Methods and systems for a medical image annotation tool
KR102246266B1 (ko) * 2020-06-08 2021-04-29 주식회사 루닛 레이블 정보에 대한 피드백을 제공하는 방법 및 시스템
US11531829B2 (en) * 2020-07-24 2022-12-20 Accenture Global Solutions Limited Automatic image annotation
US11651499B2 (en) * 2020-09-17 2023-05-16 International Business Machines Corporation Reducing structural redundancy in automatic image segmentation
JP7444098B2 (ja) * 2021-02-15 2024-03-06 Jfeスチール株式会社 スラグ流出判定方法、転炉操業方法、溶鋼製造方法、スラグ流出判定装置、転炉操業設備、及び溶鋼製造設備
KR102582431B1 (ko) * 2021-07-13 2023-09-26 (주)블루컴 차량 식별 학습 데이터 생성 방법 및 이를 이용한 차량 식별 학습 데이터 생성 시스템
US11556335B1 (en) 2021-09-14 2023-01-17 International Business Machines Corporation Annotating program code

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001156135A (ja) * 1999-11-29 2001-06-08 Hitachi Ltd 欠陥画像の分類方法及びその装置並びにそれを用いた半導体デバイスの製造方法
US6970860B1 (en) * 2000-10-30 2005-11-29 Microsoft Corporation Semi-automatic annotation of multimedia objects
US7231375B2 (en) * 2003-10-10 2007-06-12 Microsoft Corporation Computer aided query to task mapping
US7551187B2 (en) * 2004-02-10 2009-06-23 Microsoft Corporation Systems and methods that utilize a dynamic digital zooming interface in connection with digital inking
US20060127880A1 (en) * 2004-12-15 2006-06-15 Walter Harris Computerized image capture of structures of interest within a tissue sample
US7814040B1 (en) * 2006-01-31 2010-10-12 The Research Foundation Of State University Of New York System and method for image annotation and multi-modal image retrieval using probabilistic semantic models
US8341112B2 (en) * 2006-05-19 2012-12-25 Microsoft Corporation Annotation by search
US8280132B2 (en) * 2006-08-01 2012-10-02 Rutgers, The State University Of New Jersey Malignancy diagnosis using content-based image retreival of tissue histopathology
CN102156752A (zh) 2011-04-27 2011-08-17 北京数码大方科技有限公司 Cad中注释性对象的更新方法和装置
US20140233826A1 (en) * 2011-09-27 2014-08-21 Board Of Regents Of The University Of Texas System Systems and methods for automated screening and prognosis of cancer from whole-slide biopsy images
JP6091137B2 (ja) * 2011-12-26 2017-03-08 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法およびプログラム
US9886546B2 (en) * 2012-11-20 2018-02-06 General Electric Company Methods and apparatus to label radiology images
WO2014089499A1 (en) * 2012-12-06 2014-06-12 Clarient Diagnostic Services, Inc. Selection and display of biomarker expressions
US9113781B2 (en) * 2013-02-07 2015-08-25 Siemens Aktiengesellschaft Method and system for on-site learning of landmark detection models for end user-specific diagnostic medical image reading
EP2973396B1 (en) * 2013-03-14 2018-10-10 Ventana Medical Systems, Inc. Whole slide image registration and cross-image annotation devices, systems and methods
WO2014144234A1 (en) 2013-03-15 2014-09-18 Sony Corporation Combining information of different levels for content-based retrieval of digital pathology images
US10497157B2 (en) * 2013-04-19 2019-12-03 Koninklijke Philips N.V. Grouping image annotations
US9412162B2 (en) 2013-08-21 2016-08-09 Sectra Ab Methods, systems and circuits for generating magnification-dependent images suitable for whole slide images
US10853407B2 (en) * 2013-09-05 2020-12-01 Ebay, Inc. Correlating image annotations with foreground features
WO2015035229A2 (en) * 2013-09-05 2015-03-12 Cellscope, Inc. Apparatuses and methods for mobile imaging and analysis
US20170193009A1 (en) * 2015-12-31 2017-07-06 Entefy Inc. Systems and methods for filtering of computer vision generated tags using natural language processing
US9760990B2 (en) * 2014-12-14 2017-09-12 International Business Machines Corporation Cloud-based infrastructure for feedback-driven training and image recognition
CN104537676B (zh) 2015-01-12 2017-03-22 南京大学 一种基于在线学习的渐进式图像分割方法
CN105761269A (zh) * 2016-03-14 2016-07-13 北京大学 基于多尺度区分性子空间的图像显著对象的检测方法

Also Published As

Publication number Publication date
US10885392B2 (en) 2021-01-05
CN110050281A (zh) 2019-07-23
RU2739713C1 (ru) 2020-12-28
WO2018104342A1 (en) 2018-06-14
JP2020501273A (ja) 2020-01-16
CN110050281B (zh) 2023-06-20
EP3552151A1 (en) 2019-10-16
US20190347524A1 (en) 2019-11-14

Similar Documents

Publication Publication Date Title
JP6636678B2 (ja) 画像内物体の注釈付けの学習
JP6877868B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN106663309B (zh) 用于医学成像中的用户引导的骨骼分段的方法和存储介质
EP3547179A1 (en) Method and system for adjusting color of image
Banerjee et al. Automated 3D segmentation of brain tumor using visual saliency
JP2007111531A (ja) 画像の一貫性を改善する方法、信号、機械読出可能媒体およびシステム
US9129391B2 (en) Semi-automated preoperative resection planning
US20180108169A1 (en) Image rendering apparatus and method
CN107567637B (zh) 脑组织分类
US11683438B2 (en) Systems and methods to semi-automatically segment a 3D medical image using a real-time edge-aware brush
CN107567638B (zh) 对解剖结构的基于模型的分割
Wang et al. Left atrial appendage segmentation based on ranking 2-D segmentation proposals
JP2019518288A (ja) 医療画像における変化検出
CN114387380A (zh) 用于生成3d医学图像数据的基于计算机的可视化的方法
JP2016526232A (ja) 多重分類による画像のボリュームレンダリング
EP4207063A1 (en) Device, system and method for segmentation of images
US11830622B2 (en) Processing multimodal images of tissue for medical evaluation
CN114882163A (zh) 体绘制方法、系统、装置和存储介质
CN112912924B (zh) 预测算法分割的正确性
EP4198884A1 (en) Method and system for processing an image
EP4361942A1 (en) System and method for segmenting an object in image data
US20230030618A1 (en) Making measurements in images
Reska et al. HIST-an application for segmentation of hepatic images
CN116311247A (zh) 用于自动图像标注的方法和程序产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190605

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190605

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191218

R150 Certificate of patent or registration of utility model

Ref document number: 6636678

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250