JP6636678B2 - 画像内物体の注釈付けの学習 - Google Patents
画像内物体の注釈付けの学習 Download PDFInfo
- Publication number
- JP6636678B2 JP6636678B2 JP2019530204A JP2019530204A JP6636678B2 JP 6636678 B2 JP6636678 B2 JP 6636678B2 JP 2019530204 A JP2019530204 A JP 2019530204A JP 2019530204 A JP2019530204 A JP 2019530204A JP 6636678 B2 JP6636678 B2 JP 6636678B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- annotation
- scale
- processor
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 claims description 58
- 238000000034 method Methods 0.000 claims description 49
- 230000008859 change Effects 0.000 claims description 43
- 230000015654 memory Effects 0.000 claims description 14
- 238000003384 imaging method Methods 0.000 claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 210000004027 cell Anatomy 0.000 description 24
- 238000012549 training Methods 0.000 description 20
- 210000001519 tissue Anatomy 0.000 description 15
- 230000008569 process Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000007170 pathology Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000000638 solvent extraction Methods 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 4
- 238000002372 labelling Methods 0.000 description 3
- 210000000663 muscle cell Anatomy 0.000 description 3
- 230000001575 pathological effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000009206 nuclear medicine Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 230000003915 cell function Effects 0.000 description 1
- 238000009500 colour coating Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 230000003211 malignant effect Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 210000005167 vascular cell Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/2163—Partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19167—Active pattern learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/26—Techniques for post-processing, e.g. correcting the recognition result
- G06V30/262—Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
- G06V30/274—Syntactic or semantic context, e.g. balancing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
Description
− 画像の多重縮尺(マルチスケール)表現を表す画像データにアクセスするよう構成された画像データインターフェースであって、該画像の多重縮尺表現が前記画像を異なる空間解像度で表す複数の縮尺(スケール)を有する画像データインターフェースと、
− 一群の命令を表す命令データを有するメモリと、
− 前記画像データインターフェース及び前記メモリと通信すると共に、前記一群の命令を実行するように構成されたプロセッサであって、該一群の命令が、該プロセッサにより実行された場合に、該プロセッサに機械学習アルゴリズムを使用して、前記多重縮尺画像の1以上の縮尺における物体の学習された注釈付けを得るようにさせるプロセッサと、
− ユーザインターフェースサブシステムであって、
i)前記多重縮尺画像を見るためにディスプレイ上に視野窓を形成(確立)するよう構成された表示プロセッサであって、前記視野窓が、前記複数の縮尺のうちの何れが該視野窓内に示されるべきかを決定する倍率及び該縮尺の何の部分が示されるべきかを定める空間オフセットパラメータに基づいて設定(構成)可能である表示プロセッサ、及び
ii)ユーザによる前記視野窓内の物体の手動注釈付けを示すユーザ入力データを入力するユーザ入力インターフェース、
を有するユーザインターフェースサブシステムと、
を有し、
前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに、
− 前記ユーザによる前記物体の手動注釈付けを、前記機械学習アルゴリズムの学習入力として使用させ、
− 前記ユーザ入力データを入力する前に、前記視野窓のための前記倍率及び前記空間オフセットパラメータを、前記多重縮尺画像の何処で前記ユーザによる前記物体の手動注釈付けが前記機械学習アルゴリズムによる学習された物体の注釈付けにおいて変化基準を満たすような変化を生じるかを識別することにより決定させる。
− 画像の多重縮尺表現を表す画像データにアクセスするステップであって、該画像の多重縮尺表現が前記画像を異なる空間解像度で表す複数の縮尺を有する、アクセスするステップと、
− 機械学習アルゴリズムを使用して、前記多重縮尺画像の1以上の縮尺における物体の学習された注釈付けを得るステップと、
− 前記多重縮尺画像を見るためにディスプレイ上に視野窓を形成(確立)するステップであって、前記視野窓が、前記複数の縮尺のうちの何れが該視野窓内に示されるべきかを決定する倍率及び該縮尺の何の部分が示されるべきかを定める空間オフセットパラメータに基づいて設定(構成)可能である、形成(確立)するステップと、
− ユーザによる前記視野窓内の物体の手動注釈付けを示すユーザ入力データを入力するステップと、
を有し、
当該方法は、更に、
− 前記ユーザによる前記物体の手動注釈付けを、前記機械学習アルゴリズムの学習における訓練フィードバックとして使用するステップと、
− 前記ユーザ入力データを入力する前に、前記視野窓のための前記倍率及び前記空間オフセットパラメータを、前記多重縮尺画像の何処で前記ユーザによる前記物体の手動注釈付けが前記機械学習アルゴリズムによる学習された物体の注釈付けにおいて変化基準を満たすような変化を生じるかを識別することにより決定するステップ、
を有する。
− 前記多重縮尺画像の異なる縮尺における及び/又は各縮尺の異なる部分における物体の手動注釈付けをシミュレーションし、
− シミュレーションされた前記手動注釈付けを、前記機械学習アルゴリズムにおける異なる学習入力として使用し、
− 結果としての異なる学習された物体の注釈付けの変化を定量化して、前記機械学習アルゴリズムによる学習された物体の注釈付けにおける最大の変化をもたらすシミュレーションされた手動注釈付けを識別し、及び
− 前記視野窓のための前記倍率及び前記空間オフセットパラメータを識別された前記シミュレーションされた手動注釈付けに基づいて選択する、
ことにより、前記視野窓のための前記倍率及び前記空間オフセットパラメータを決定させることができる。
− 各縮尺の前記多重縮尺画像を画像部分に分割させ、及び
− 前記物体の手動注釈付けを、前記画像部分の少なくとも1つに物体ラベルを割り当て又は該少なくとも1つの以前に割り当てられた物体ラベルを変更することによりシミュレーションさせる。
− 前記ユーザインターフェースサブシステムは、ユーザにより選択される画像領域を決定するために、前記ユーザが、画像を見る間に前記視野窓のための前記倍率及び前記空間オフセットパラメータを手動で選択することを可能にするように構成され、
− 前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに前記機械学習アルゴリズムを使用して前記ユーザにより選択された画像領域における学習された物体の注釈付けを取得させ、
− 前記ユーザインターフェースサブシステムは、前記視野窓において前記学習された物体の注釈付けを視覚化するように構成される。
A.ユーザ又はシステムは倍率及び空間オフセットを選択する
B.多重縮尺画像の全画像部分に対して、以下を実行する:
a.ラベルを選択する
b.(教師なし)分割方法を選択する
c.教師なしアルゴリズムを使用して画像部分をクラスタに分割する
d.ラベルを割り当て/消去することにより分割マップを編集する
e.機械学習アルゴリズムを更新する
f.上記ステップによりもたらされた変化を定量化する
C.ユーザによる注釈付けが自動注釈付けマップに最大に影響を与える画像部分を提供する倍率及び空間オフセットを検索する(これは、当該システムによりステップAに戻る場合に選択することができる)。ステップa〜bは注釈付けマップの最初の再計算以降に対してオプションとすることができることに注意されたい。
a)ブロックのラベルを変更する
b)ラベルが変更されたブロックを手動注釈付けと見なす
c)機械学習アルゴリズムを更新する
d)異なって注釈付けされたピクセルの数を計数する(このピクセル数は当該ブロックの“影響度”と見なすことができる)
により計算することができる。
020 画像貯蔵部
022 データ通信部
030 画像データ
060 ディスプレイ
062 表示データ
080 ユーザ入力装置
082 ユーザ入力データ
100 物体の注釈付けを学習するシステム
120 画像データインターフェース
122 内部データ通信部
140 プロセッサ
142,144 内部データ通信部
160 メモリ
180 ユーザインターフェースサブシステム
182 表示プロセッサ
184 ユーザ入力インターフェース
200 画像の多重縮尺表現
202〜208 画像縮尺
210 組織
220 細胞
300 視野窓(ビューイングウインドウ)
310,312 倍率のためのUIエレメント
320,322 水平オフセットのためのUIエレメント
330,332 垂直オフセットのためのUIエレメント
350 影響のある画像領域を示すオーバーレイ
400 物体の注釈付けを学習する方法
410 画像データにアクセスするステップ
420 学習された物体の注釈付けを得るステップ
430 視野窓を形成するステップ
440 影響のある画像領域を識別するステップ
450 視野窓を設定するステップ
460 手動注釈付けを入力するステップ
470 手動注釈付けを訓練フィードバックとして使用するステップ
500 コンピュータ読取可能な媒体
510 命令を表す非一時的データ
Claims (14)
- 画像内の物体の注釈付けを学習するシステムであって、前記システムは、
画像の多重縮尺表現を表す画像データにアクセスする画像データインターフェースであって、該画像の多重縮尺表現が前記画像を異なる空間解像度で表す複数の縮尺を有する画像データインターフェースと、
一群の命令を表す命令データを有するメモリと、
前記画像データインターフェース及び前記メモリと通信し、前記一群の命令を実行するプロセッサであって、該一群の命令が、該プロセッサにより実行された場合に、該プロセッサに機械学習アルゴリズムを使用して、前記多重縮尺画像の1以上の縮尺における物体の学習された注釈付けを得るようにさせるプロセッサと、
i)前記多重縮尺画像を見るためにディスプレイ上に視野窓を形成する表示プロセッサであって、前記視野窓が、前記複数の縮尺のうちの何れが該視野窓内に示されるべきかを決定する倍率及び該縮尺の何の部分が示されるべきかを定める空間オフセットパラメータに基づいて設定可能である表示プロセッサ、及び
ii)ユーザによる前記視野窓内の物体の手動注釈付けを示すユーザ入力データを入力するユーザ入力インターフェース、
を有するユーザインターフェースサブシステムと、
を有し、
前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに、
前記多重縮尺画像の異なる縮尺における及び/又は各縮尺の異なる部分における物体の手動注釈付けをシミュレーションさせ、
シミュレーションされた前記手動注釈付けを、前記機械学習アルゴリズムにおいて異なる学習入力として使用させ、
結果としての異なる学習された物体の注釈付けの変化を定量化して、前記機械学習アルゴリズムによる学習された物体の注釈付けにおける最大の変化又は絶対若しくは相対閾値を超える変化をもたらすシミュレーションされた手動注釈付けを識別させ、
前記視野窓のための前記倍率及び前記空間オフセットパラメータを識別された前記シミュレーションされた手動注釈付けに基づいて選択させ、及び
前記ユーザ入力データを入力した後に、前記ユーザによる前記物体の手動注釈付けを前記機械学習アルゴリズムの学習入力として使用させる、
システム。 - 前記一群の命令が、前記プロセッサにより実行された場合に、該プロセッサに、
各縮尺の前記多重縮尺画像を画像部分に分割させ、及び
前記物体の手動注釈付けを、前記画像部分の少なくとも1つに物体ラベルを割り当て又は該少なくとも1つの以前に割り当てられた物体ラベルを変更することによりシミュレーションさせる、
請求項1に記載のシステム。 - 前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに各画像部分における前記手動注釈付けにより影響を受ける変化の度合いのマップを発生させ、前記ユーザインターフェースサブシステムが前記視野窓に前記マップを重ね合わせる、請求項2に記載のシステム。
- 前記ユーザインターフェースサブシステムが、前記プロセッサにより決定された前記倍率及び前記空間オフセットパラメータを前記視野窓に自動的に適用する、請求項1ないし3の何れか一項に記載のシステム。
- 前記ユーザインターフェースサブシステムは、ユーザにより選択される画像領域を決定するために、前記ユーザが、画像を見る間に前記視野窓のための前記倍率及び前記空間オフセットパラメータを手動で選択することを可能にし、
前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに前記機械学習アルゴリズムを使用して前記ユーザにより選択された画像領域における学習された物体の注釈付けを取得させ、
前記ユーザインターフェースサブシステムが、前記視野窓において前記学習された物体の注釈付けを視覚化する、
請求項1ないし4の何れか一項に記載のシステム。 - 前記ユーザインターフェースサブシステムは、前記ユーザが前記視野窓において前記学習された物体の注釈付けを手動で補正することを可能にし、
前記一群の命令は、前記プロセッサにより実行された場合に、該プロセッサに前記補正された注釈付けを前記機械学習アルゴリズムにおける学習入力として使用させる、請求項5に記載のシステム。 - 前記一群の命令が、前記プロセッサにより実行された場合に、該プロセッサに前記機械学習アルゴリズムを前記多重縮尺画像の各縮尺に適用させ、これにより、各々が各縮尺における学習された物体の注釈付けを表す複数の注釈付けマップを得る、請求項1ないし6の何れか一項に記載のシステム。
- 前記一群の命令が、前記プロセッサにより実行された場合に、該プロセッサに前記複数の注釈付けマップを組み合わせる又は重ね合わせることにより前記多重縮尺画像の意味記述を発生させる、請求項7に記載のシステム。
- 前記機械学習アルゴリズムが畳み込みニューラルネットワークを有する、請求項1ないし8の何れか一項に記載のシステム。
- 請求項1ないし9の何れか一項に記載のシステムを有する、ワークステーション。
- 請求項1ないし9の何れか一項に記載のシステムを有する、撮像装置。
- 請求項1ないし9の何れか一項に記載のシステムを用いて訓練される機械学習アルゴリズムを表す一時的又は非一時的データを有する、コンピュータ読取可能な媒体。
- 画像内の物体の注釈付けを学習するコンピュータで実施される方法であって、前記方法は、
画像の多重縮尺表現を表す画像データにアクセスするステップであって、該画像の多重縮尺表現が前記画像を異なる空間解像度で表す複数の縮尺を有する、アクセスするステップと、
機械学習アルゴリズムを使用して、前記多重縮尺画像の1以上の縮尺における物体の学習された注釈付けを得るステップと、
前記多重縮尺画像を見るためにディスプレイ上に視野窓を形成するステップであって、前記視野窓が、前記複数の縮尺のうちの何れが該視野窓内に示されるべきかを決定する倍率及び該縮尺の何の部分が示されるべきかを定める空間オフセットパラメータに基づいて設定可能である、形成するステップと、
ユーザによる前記視野窓内の物体の手動注釈付けを示すユーザ入力データを入力するステップと、
を有し、
当該方法が、更に、
前記多重縮尺画像の異なる縮尺における及び/又は各縮尺の異なる部分における物体の手動注釈付けをシミュレーションするステップと、
シミュレーションされた前記手動注釈付けを、前記機械学習アルゴリズムにおいて異なる学習入力として使用するステップと、
結果としての異なる学習された物体の注釈付けの変化を定量化して、前記機械学習アルゴリズムによる学習された物体の注釈付けにおける最大の変化又は絶対若しくは相対閾値を超える変化をもたらすシミュレーションされた手動注釈付けを識別するステップと、
前記視野窓のための前記倍率及び前記空間オフセットパラメータを識別された前記シミュレーションされた手動注釈付けに基づいて選択するステップと、
前記ユーザ入力データを入力した後に、前記ユーザによる前記物体の手動注釈付けを前記機械学習アルゴリズムの学習入力として使用するステップと、
を有する、方法。 - プロセッサシステムに請求項13に記載の方法を実行させる命令を表す一時的又は非一時的データを有する、コンピュータ読取可能な媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16202827.8 | 2016-12-08 | ||
EP16202827 | 2016-12-08 | ||
PCT/EP2017/081585 WO2018104342A1 (en) | 2016-12-08 | 2017-12-05 | Learning annotation of objects in image |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020501273A JP2020501273A (ja) | 2020-01-16 |
JP6636678B2 true JP6636678B2 (ja) | 2020-01-29 |
Family
ID=57542777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019530204A Active JP6636678B2 (ja) | 2016-12-08 | 2017-12-05 | 画像内物体の注釈付けの学習 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10885392B2 (ja) |
EP (1) | EP3552151A1 (ja) |
JP (1) | JP6636678B2 (ja) |
CN (1) | CN110050281B (ja) |
RU (1) | RU2739713C1 (ja) |
WO (1) | WO2018104342A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3657514A1 (en) * | 2018-11-22 | 2020-05-27 | Koninklijke Philips N.V. | Interactive iterative image annotation |
US10853704B2 (en) * | 2018-12-18 | 2020-12-01 | Clarifai, Inc. | Model-based image labeling and/or segmentation |
US11170264B2 (en) * | 2019-05-31 | 2021-11-09 | Raytheon Company | Labeling using interactive assisted segmentation |
US20210035015A1 (en) * | 2019-07-31 | 2021-02-04 | GE Precision Healthcare LLC | Annotation pipeline for machine learning algorithm training and optimization |
CN112991145B (zh) * | 2019-12-16 | 2023-03-24 | 杭州海康威视数字技术股份有限公司 | 图像生成方法、系统、电子设备及机器可读存储介质 |
JP2021096748A (ja) * | 2019-12-19 | 2021-06-24 | ソニーグループ株式会社 | 医療画像分析方法、医療画像分析プログラムおよび医療画像分析システム |
US11574246B2 (en) * | 2020-01-21 | 2023-02-07 | Microsoft Technology Licensing, Llc | Updating training examples for artificial intelligence |
US11526694B2 (en) | 2020-03-31 | 2022-12-13 | International Business Machines Corporation | Model training using fully and partially-annotated images |
US11449716B2 (en) | 2020-03-31 | 2022-09-20 | International Business Machines Corporation | Model training using partially-annotated images |
US20210334955A1 (en) * | 2020-04-24 | 2021-10-28 | Nvidia Corporation | Image annotation using one or more neural networks |
US11189375B1 (en) * | 2020-05-27 | 2021-11-30 | GE Precision Healthcare LLC | Methods and systems for a medical image annotation tool |
KR102246266B1 (ko) * | 2020-06-08 | 2021-04-29 | 주식회사 루닛 | 레이블 정보에 대한 피드백을 제공하는 방법 및 시스템 |
US11531829B2 (en) * | 2020-07-24 | 2022-12-20 | Accenture Global Solutions Limited | Automatic image annotation |
US11651499B2 (en) * | 2020-09-17 | 2023-05-16 | International Business Machines Corporation | Reducing structural redundancy in automatic image segmentation |
JP7444098B2 (ja) * | 2021-02-15 | 2024-03-06 | Jfeスチール株式会社 | スラグ流出判定方法、転炉操業方法、溶鋼製造方法、スラグ流出判定装置、転炉操業設備、及び溶鋼製造設備 |
KR102582431B1 (ko) * | 2021-07-13 | 2023-09-26 | (주)블루컴 | 차량 식별 학습 데이터 생성 방법 및 이를 이용한 차량 식별 학습 데이터 생성 시스템 |
US11556335B1 (en) | 2021-09-14 | 2023-01-17 | International Business Machines Corporation | Annotating program code |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001156135A (ja) * | 1999-11-29 | 2001-06-08 | Hitachi Ltd | 欠陥画像の分類方法及びその装置並びにそれを用いた半導体デバイスの製造方法 |
US6970860B1 (en) * | 2000-10-30 | 2005-11-29 | Microsoft Corporation | Semi-automatic annotation of multimedia objects |
US7231375B2 (en) * | 2003-10-10 | 2007-06-12 | Microsoft Corporation | Computer aided query to task mapping |
US7551187B2 (en) * | 2004-02-10 | 2009-06-23 | Microsoft Corporation | Systems and methods that utilize a dynamic digital zooming interface in connection with digital inking |
US20060127880A1 (en) * | 2004-12-15 | 2006-06-15 | Walter Harris | Computerized image capture of structures of interest within a tissue sample |
US7814040B1 (en) * | 2006-01-31 | 2010-10-12 | The Research Foundation Of State University Of New York | System and method for image annotation and multi-modal image retrieval using probabilistic semantic models |
US8341112B2 (en) * | 2006-05-19 | 2012-12-25 | Microsoft Corporation | Annotation by search |
US8280132B2 (en) * | 2006-08-01 | 2012-10-02 | Rutgers, The State University Of New Jersey | Malignancy diagnosis using content-based image retreival of tissue histopathology |
CN102156752A (zh) | 2011-04-27 | 2011-08-17 | 北京数码大方科技有限公司 | Cad中注释性对象的更新方法和装置 |
US20140233826A1 (en) * | 2011-09-27 | 2014-08-21 | Board Of Regents Of The University Of Texas System | Systems and methods for automated screening and prognosis of cancer from whole-slide biopsy images |
JP6091137B2 (ja) * | 2011-12-26 | 2017-03-08 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法およびプログラム |
US9886546B2 (en) * | 2012-11-20 | 2018-02-06 | General Electric Company | Methods and apparatus to label radiology images |
WO2014089499A1 (en) * | 2012-12-06 | 2014-06-12 | Clarient Diagnostic Services, Inc. | Selection and display of biomarker expressions |
US9113781B2 (en) * | 2013-02-07 | 2015-08-25 | Siemens Aktiengesellschaft | Method and system for on-site learning of landmark detection models for end user-specific diagnostic medical image reading |
EP2973396B1 (en) * | 2013-03-14 | 2018-10-10 | Ventana Medical Systems, Inc. | Whole slide image registration and cross-image annotation devices, systems and methods |
WO2014144234A1 (en) | 2013-03-15 | 2014-09-18 | Sony Corporation | Combining information of different levels for content-based retrieval of digital pathology images |
US10497157B2 (en) * | 2013-04-19 | 2019-12-03 | Koninklijke Philips N.V. | Grouping image annotations |
US9412162B2 (en) | 2013-08-21 | 2016-08-09 | Sectra Ab | Methods, systems and circuits for generating magnification-dependent images suitable for whole slide images |
US10853407B2 (en) * | 2013-09-05 | 2020-12-01 | Ebay, Inc. | Correlating image annotations with foreground features |
WO2015035229A2 (en) * | 2013-09-05 | 2015-03-12 | Cellscope, Inc. | Apparatuses and methods for mobile imaging and analysis |
US20170193009A1 (en) * | 2015-12-31 | 2017-07-06 | Entefy Inc. | Systems and methods for filtering of computer vision generated tags using natural language processing |
US9760990B2 (en) * | 2014-12-14 | 2017-09-12 | International Business Machines Corporation | Cloud-based infrastructure for feedback-driven training and image recognition |
CN104537676B (zh) | 2015-01-12 | 2017-03-22 | 南京大学 | 一种基于在线学习的渐进式图像分割方法 |
CN105761269A (zh) * | 2016-03-14 | 2016-07-13 | 北京大学 | 基于多尺度区分性子空间的图像显著对象的检测方法 |
-
2017
- 2017-12-05 RU RU2019120949A patent/RU2739713C1/ru active
- 2017-12-05 EP EP17825126.0A patent/EP3552151A1/en not_active Withdrawn
- 2017-12-05 WO PCT/EP2017/081585 patent/WO2018104342A1/en unknown
- 2017-12-05 US US16/467,005 patent/US10885392B2/en active Active
- 2017-12-05 CN CN201780075488.6A patent/CN110050281B/zh active Active
- 2017-12-05 JP JP2019530204A patent/JP6636678B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US10885392B2 (en) | 2021-01-05 |
CN110050281A (zh) | 2019-07-23 |
RU2739713C1 (ru) | 2020-12-28 |
WO2018104342A1 (en) | 2018-06-14 |
JP2020501273A (ja) | 2020-01-16 |
CN110050281B (zh) | 2023-06-20 |
EP3552151A1 (en) | 2019-10-16 |
US20190347524A1 (en) | 2019-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6636678B2 (ja) | 画像内物体の注釈付けの学習 | |
JP6877868B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
CN106663309B (zh) | 用于医学成像中的用户引导的骨骼分段的方法和存储介质 | |
EP3547179A1 (en) | Method and system for adjusting color of image | |
Banerjee et al. | Automated 3D segmentation of brain tumor using visual saliency | |
JP2007111531A (ja) | 画像の一貫性を改善する方法、信号、機械読出可能媒体およびシステム | |
US9129391B2 (en) | Semi-automated preoperative resection planning | |
US20180108169A1 (en) | Image rendering apparatus and method | |
CN107567637B (zh) | 脑组织分类 | |
US11683438B2 (en) | Systems and methods to semi-automatically segment a 3D medical image using a real-time edge-aware brush | |
CN107567638B (zh) | 对解剖结构的基于模型的分割 | |
Wang et al. | Left atrial appendage segmentation based on ranking 2-D segmentation proposals | |
JP2019518288A (ja) | 医療画像における変化検出 | |
CN114387380A (zh) | 用于生成3d医学图像数据的基于计算机的可视化的方法 | |
JP2016526232A (ja) | 多重分類による画像のボリュームレンダリング | |
EP4207063A1 (en) | Device, system and method for segmentation of images | |
US11830622B2 (en) | Processing multimodal images of tissue for medical evaluation | |
CN114882163A (zh) | 体绘制方法、系统、装置和存储介质 | |
CN112912924B (zh) | 预测算法分割的正确性 | |
EP4198884A1 (en) | Method and system for processing an image | |
EP4361942A1 (en) | System and method for segmenting an object in image data | |
US20230030618A1 (en) | Making measurements in images | |
Reska et al. | HIST-an application for segmentation of hepatic images | |
CN116311247A (zh) | 用于自动图像标注的方法和程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190605 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190605 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6636678 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |