JP2022548160A - 機械学習アルゴリズムを使用したトレーニングデータセットの準備 - Google Patents
機械学習アルゴリズムを使用したトレーニングデータセットの準備 Download PDFInfo
- Publication number
- JP2022548160A JP2022548160A JP2022517201A JP2022517201A JP2022548160A JP 2022548160 A JP2022548160 A JP 2022548160A JP 2022517201 A JP2022517201 A JP 2022517201A JP 2022517201 A JP2022517201 A JP 2022517201A JP 2022548160 A JP2022548160 A JP 2022548160A
- Authority
- JP
- Japan
- Prior art keywords
- images
- user
- computer system
- image
- classification label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 65
- 238000004422 calculation algorithm Methods 0.000 title claims description 111
- 238000010801 machine learning Methods 0.000 title claims description 52
- 230000000007 visual effect Effects 0.000 claims abstract description 54
- 238000000034 method Methods 0.000 claims description 74
- 230000009467 reduction Effects 0.000 claims description 32
- 230000004044 response Effects 0.000 claims description 12
- 238000009877 rendering Methods 0.000 claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 8
- 210000004940 nucleus Anatomy 0.000 description 7
- 238000012552 review Methods 0.000 description 7
- 210000004027 cell Anatomy 0.000 description 6
- 238000002372 labelling Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000003855 cell nucleus Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000000799 fluorescence microscopy Methods 0.000 description 1
- 239000007850 fluorescent dye Substances 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 229920000638 styrene acrylonitrile Polymers 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
- G06F18/41—Interactive pattern learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
- G06V10/7788—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/945—User interactive design; Environments; Toolboxes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
Description
Claims (40)
- (a)コンピュータシステムを用いて、複数の画像のおのおののための画像派生特徴のデータセットを受け取ることであって、前記画像派生特徴は、前記複数の画像を分析するために、第1の機械学習アルゴリズムを使用することによって決定される、受け取ることと、
(b)前記コンピュータシステムを用いて、次元削減アルゴリズムを使用して、画像派生特徴の前記データセットから、次元削減データセットを生成することと、
(c)前記コンピュータシステムを用いて、クラスタリングアルゴリズムを使用して、前記次元削減データセット内のデータポイントの複数のクラスタを識別することと、
(d)前記コンピュータシステムを用いて、クラスタによってグループ化されたアイコンとして、前記データポイントの視覚表現を生成することであって、各アイコンは、1つまたは複数の特定のデータポイントを表し、前記1つまたは複数の特定のデータポイントに関連付けられた前記1つまたは複数の画像を表示させるように選択可能である、生成することと、
(e)前記コンピュータシステムにおいて、前記アイコンのうちの1つまたは複数のアイコンの選択を受け取ることと、
(f)前記選択に応じて、前記コンピュータシステムを用いて、前記1つまたは複数の選択されたアイコンによって表される前記1つまたは複数の特定のデータポイントに関連付けられた前記画像を表示させることと、
(g)前記コンピュータシステムにおいて、前記表示された画像のうちの少なくとも1つの画像のためのユーザ分類ラベルを受け取ることとを備える、方法。 - (h)前記コンピュータシステムを用いて、前記次元削減アルゴリズムおよび第2の機械学習アルゴリズムを用いて、前記ユーザ分類ラベルを使用して、前記複数の画像におけるラベルなし画像のための画像派生特徴の前記データセットから、第2の次元削減データセットを生成することと、
(i)前記コンピュータシステムを用いて、前記クラスタリングアルゴリズムを使用して、前記ラベルなし画像のうちの1つの画像のための予測分類ラベルを識別することと、
(j)前記コンピュータシステムにおいて、1つまたは複数の特定のラベルなし画像のための前記予測分類ラベルに対するユーザ応答を受け取ることとをさらに備える、請求項1に記載の方法。 - 前記ユーザ応答は、前記1つまたは複数の特定のラベルなし画像のためのユーザ分類ラベルとしての、前記予測分類ラベルの受諾である、請求項2に記載の方法。
- 前記ユーザ応答は、前記1つまたは複数の特定のラベルなし画像のための前記予測分類ラベルの拒否である、請求項2に記載の方法。
- 前記ユーザ応答は、前記1つまたは複数の特定のラベルなし画像を分類から除外するコマンドである、請求項2に記載の方法。
- 前記複数の画像のすべてが、ユーザ分類ラベルでラベル付けされるか、または分類から除外されるまで、ステップ(h)~(j)を繰り返すことをさらに備える、請求項2から請求項5のいずれか一項に記載の方法。
- (k)前記コンピュータシステムを用いて、予測分類ラベルによってグループ化された第2のアイコンとして、前記第2の次元削減データセット内の前記データポイントの視覚表現を生成することであって、各第2のアイコンは、前記第2の次元削減データセット内の1つまたは複数の特定のデータポイントを表し、前記第2の次元削減データセット内の前記1つまたは複数の特定のデータポイントに関連付けられた前記1つまたは複数の画像を表示させるように選択可能である、生成することと、
(l)前記コンピュータシステムにおいて、前記第2のアイコンのうちの1つまたは複数のアイコンの選択を受け取ることと、
(m)前記選択に応じて、前記コンピュータシステムを用いて、前記1つまたは複数の選択された第2のアイコンによって表される前記1つまたは複数の特定のデータポイントに関連付けられた画像を表示させることであって、
前記予測分類ラベルに対する第2のユーザ応答は、前記1つまたは複数の選択された第2のアイコンによって表される前記1つまたは複数の特定のデータポイントに関連付けられた前記画像の表示に応答して受け取られる、表示させることとを備える、請求項2から請求項5のいずれか一項に記載の方法。 - 前記第2の機械学習アルゴリズムは、反復最適化アルゴリズムである、請求項2から請求項7のいずれか一項に記載の方法。
- 前記複数の画像は、細胞の画像を含む、請求項1から請求項8のいずれか一項に記載の方法。
- 前記細胞の前記画像は、複数の細胞のマルチスペクトル画像、複数の前記細胞のマルチモーダル画像、またはその両方を含む、請求項9に記載の方法。
- 前記複数の画像は、より大きな画像のプールからランダムに選択される、請求項1から請求項10のいずれか一項に記載の方法。
- 前記第1の機械学習アルゴリズムは、畳み込みニューラルネットワークである、請求項1から請求項11のいずれか一項に記載の方法。
- 前記次元削減データセットは、3次元以下を有する、請求項1から請求項12のいずれか一項に記載の方法。
- 前記複数のクラスタは、X×Y個のクラスタに等しく、Xは、ユーザが前記画像を分類したいグループの数であり、Yは、1以上である、請求項1から請求項13のいずれか一項に記載の方法。
- ステップ(d)のクラスタによってグループ化されたアイコンとしての前記データポイントの視覚表現は、クラスタによってグループ化された前記アイコンの2次元レンダリングを含み、同じクラスタにおけるアイコンは、同じ色で陰影付けられ、ともに近くに配置された、請求項1から請求項14のいずれか一項に記載の方法。
- ステップ(k)の予測分類ラベルによってグループ化された第2のアイコンとしての、前記第2の次元削減データセット内の前記データポイントの前記視覚表現は、予測分類ラベルによってグループ化された前記第2のアイコンの2次元レンダリングを含み、同じ予測分類ラベルにおける第2のアイコンは、同じ色で陰影付けられ、ともに近くに配置された、請求項7から請求項15のいずれか一項に記載の方法。
- (n)前記コンピュータシステムを用いて、
クラスタによってグループ化されたアイコンとしての前記データポイントの前記視覚表現と、
前記1つまたは複数の選択されたアイコンによって表される前記1つまたは複数の特定のデータポイントに関連付けられた1つまたは複数の画像の画像ギャラリと、
各クラスタの表示を含む第1のリストと、
各ユーザ分類ラベルの表示を含む第2のリストとを含む、ユーザインターフェースを表示させることをさらに備える、請求項1から請求項16のいずれか一項に記載の方法。 - 前記表示された画像のうちの少なくとも1つの画像のためのユーザ分類ラベルを受け取ることは、
前記ユーザインターフェースにおいてメニューを表示させることであって、前記メニューは、各ユーザ分類レベルの表示を含む、表示させることと、
前記ユーザ分類ラベルに対応する前記表示のユーザ選択を受け取ることによって、前記ユーザ分類ラベルを受け取ることとを含む、請求項17に記載の方法。 - (o)前記コンピュータシステムを用いて、
予測分類ラベルによってグループ化された第2のアイコンとしての第2の次元削減データセット内の前記データポイントの前記視覚表現と、
1つまたは複数の選択された第2のアイコンによって表される前記1つまたは複数の特定のデータポイントに関連付けられた1つまたは複数の画像の画像ギャラリと、
各予測分類ラベルの表示を含む第3のリストと、
各ユーザ分類ラベルの表示を含む前記第2のリストとを含むように、前記ユーザインターフェースを更新させることをさらに備えた、請求項7から請求項18のいずれか一項に記載の方法。 - ラベル付けされた画像およびそれらそれぞれのユーザ分類ラベルを含む画像を分類するために、第3の機械学習アルゴリズムをトレーニングするための、ラベル付けされたトレーニングデータセットを準備することをさらに備える、請求項1から請求項19のいずれか一項に記載の方法。
- コンピュータシステムによって、画像を分類するために、ターゲット機械学習アルゴリズムをトレーニングするために、ラベル付けされたトレーニングデータセットを準備するためのユーザインターフェースをユーザデバイス上に表示させることであって、前記ユーザインターフェースは、
複数の画像から導出された画像データの次元削減データセットの2次元視覚表現を含む第1の領域であって、前記2次元視覚表現は、前記データセット内の複数のアイコンと、クラスタの表示とを含む、第1の領域と、
前記複数の画像のうちの1つまたは複数の画像を含む第2の領域とを含む、表示させることと、
前記コンピュータシステムにおいて、前記ユーザインターフェースを介して、前記第2の領域に表示される前記画像のうちの1つまたは複数の画像に、ユーザ分類ラベルを適用するユーザ入力を受け取ることとを備える、方法。 - 各アイコンは、前記複数の画像のうちの1つまたは複数の画像を表し、前記表された画像を、前記第2の領域に表示させるように選択可能であり、
前記第2の領域に含まれる前記複数の画像のうちの前記1つまたは複数の画像は、1つまたは複数のアイコンのユーザ選択に応答して含まれる、請求項21に記載の方法。 - 前記ユーザインターフェースは、前記データセット内の前記クラスタのリストを含む第3の領域を含み、
前記第2の領域に含まれる前記複数の画像のうちの前記1つまたは複数の画像は、前記リスト上の前記クラスタのうちの1つのクラスタであるユーザ選択に応じて含まれる、請求項21に記載の方法。 - ユーザ分類ラベルを適用するユーザ入力を受け取った後、前記コンピュータシステムを用いて、ラベル付き画像の前記ユーザ分類ラベルを使用して、複数のラベルなし画像のための予測分類ラベルを準備することと、
前記コンピュータシステムを用いて、ラベルなし画像のクラスタの2次元視覚表現において前記予測分類ラベルを示すように、前記ユーザインターフェースを更新させることであって、各ラベルなし画像は、それぞれの第2のアイコンによって表され、第2のアイコンの各クラスタは、予測分類ラベルに対応する、更新させることとをさらに備える、請求項21から請求項23のいずれか一項に記載の方法。 - 予測分類ラベルを準備し、前記ユーザインターフェースを更新させることは、受け取られたユーザ分類ラベルを適用するユーザ入力に応じて、自動的に実行される、請求項24に記載の方法。
- 予測分類ラベルについて、同じ所与のクラスタにおける各第2のアイコンは、共有色で陰影付けられ、ともに近くに配置される、請求項24または請求項25に記載の方法。
- 前記ユーザインターフェースは、前記予測分類ラベルのおのおののリストを含む第4の領域を含むように更新される、請求項24から請求項26のいずれか一項に記載の方法。
- 各第2のアイコンは、前記1つまたは複数の表されたラベルなし画像を、前記第2の領域に表示させるように選択可能である、請求項24から請求項27のいずれか一項に記載の方法。
- 前記第4の領域における予測分類ラベルの前記リストの各エントリは、その予測分類ラベルを有する、より多くのラベルなし画像を、前記第2の領域に表示させるように選択可能である、請求項27または請求項28に記載の方法。
- 前記コンピュータシステムを用いて、前記複数のラベルなし画像のうちの1つまたは複数の画像を、前記第2の領域に表示させることと、
前記コンピュータシステムにおいて、前記更新されたユーザインターフェースを介して、前記第2の領域に表示された前記ラベルなし画像のうちの1つまたは複数の画像に、ユーザ分類ラベルを適用するユーザ入力を受け取ることとをさらに備える、請求項24から請求項29のいずれか一項に記載の方法。 - 前記更新されたユーザインターフェースを介して受け取られた前記ユーザ入力は、
前記予測分類ラベルを、前記1つまたは複数の表示されたラベルなし画像のためのユーザ分類ラベルとして受け入れるユーザ入力を含む、請求項30に記載の方法。 - 前記更新されたユーザインターフェースを介して受け取られた前記ユーザ入力は、
前記1つまたは複数の表示されたラベルなし画像のためのユーザ分類ラベルとして、前記予測分類ラベルを拒否するユーザ入力を含む、請求項30に記載の方法。 - 前記更新されたユーザインターフェースを介して受け取られた前記ユーザ入力は、
1つまたは複数の表示されたラベルなし画像を分類から除外するユーザ入力を含む、請求項30に記載の方法。 - 画像ビューアの一部に表示される前記画像のうちの1つまたは複数の画像に、ユーザ分類ラベルを適用するユーザ入力を受け取ることは、
メニューを、前記ユーザインターフェースに表示させることであって、前記メニューは、各ユーザ分類ラベルの表示を含む、表示させることと、
前記ユーザ分類ラベルに対応する前記表示のユーザ選択を受け取ることによって、前記ユーザ分類ラベルを受け取ることとを含む、請求項21から請求項33のいずれか一項に記載の方法。 - 前記画像データは、第1の機械学習アルゴリズムによって前記複数の画像から導出され、
前記第1の機械学習アルゴリズムによって導出された前記画像データは、次元削減アルゴリズムによって次元削減されて、画像データの前記次元削減データセットを生成し、
前記画像データの前記次元削減データセットは、クラスタリングアルゴリズムによってクラスタリングされた、請求項21から請求項34のいずれか一項に記載の方法。 - 前記ユーザインターフェースは、各クラスタにおけるそれぞれの画像の数の表示を含む、前記データセット内の前記クラスタのリストを含む第3の領域を含む、請求項21から請求項35のいずれか一項に記載の方法。
- 前記ユーザインターフェースは、各ユーザ分類ラベルでラベル付けされたそれぞれの画像の数の表示を含む、前記ユーザ分類ラベルのリストを含む第5の領域を含む、請求項21から請求項36のいずれか一項に記載の方法。
- 前記複数の画像は、細胞の画像を含む、請求項21から請求項37のいずれか一項に記載の方法。
- 前記細胞の前記画像は、複数の細胞のマルチスペクトル画像、複数の前記細胞のマルチモーダル画像、またはその両方を含む、請求項38に記載の方法。
- 前記ラベル付けされた画像およびそれらのそれぞれのユーザ分類ラベルを含む画像を分類するために、前記機械学習アルゴリズムをトレーニングするための前記ラベル付けされたトレーニングデータセットを準備することをさらに備える、請求項21から請求項39のいずれか一項に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962902344P | 2019-09-18 | 2019-09-18 | |
US62/902,344 | 2019-09-18 | ||
PCT/US2020/049804 WO2021055189A1 (en) | 2019-09-18 | 2020-09-09 | Using machine learning algorithms to prepare training datasets |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022548160A true JP2022548160A (ja) | 2022-11-16 |
JP7378597B2 JP7378597B2 (ja) | 2023-11-13 |
Family
ID=74868059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022517201A Active JP7378597B2 (ja) | 2019-09-18 | 2020-09-09 | 機械学習アルゴリズムを使用したトレーニングデータセットの準備 |
Country Status (8)
Country | Link |
---|---|
US (1) | US11861514B2 (ja) |
EP (1) | EP4032020A4 (ja) |
JP (1) | JP7378597B2 (ja) |
KR (1) | KR20220058637A (ja) |
CN (1) | CN114424251A (ja) |
AU (1) | AU2020348209B2 (ja) |
CA (1) | CA3150868A1 (ja) |
WO (1) | WO2021055189A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3150868A1 (en) | 2019-09-18 | 2021-03-25 | Bryan Richard Davidson | Using machine learning algorithms to prepare training datasets |
US20220180244A1 (en) * | 2020-12-08 | 2022-06-09 | Vmware, Inc. | Inter-Feature Influence in Unlabeled Datasets |
US11928159B2 (en) * | 2021-03-16 | 2024-03-12 | Google Llc | Systems and methods for clustering with list-decodable covers |
US11714802B2 (en) * | 2021-04-02 | 2023-08-01 | Palo Alto Research Center Incorporated | Using multiple trained models to reduce data labeling efforts |
CN113378998B (zh) * | 2021-07-12 | 2022-07-22 | 西南石油大学 | 一种基于机器学习的地层岩性随钻识别方法 |
US20230041867A1 (en) * | 2021-07-28 | 2023-02-09 | 11089161 Canada Inc. (Dba: Looksgoodai) | Method and system for automatic formatting of presentation slides |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014137284A (ja) * | 2013-01-17 | 2014-07-28 | Dainippon Screen Mfg Co Ltd | 教師データ作成支援装置、教師データ作成装置、画像分類装置、教師データ作成支援方法、教師データ作成方法および画像分類方法 |
JP2018142097A (ja) * | 2017-02-27 | 2018-09-13 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8406498B2 (en) * | 1999-01-25 | 2013-03-26 | Amnis Corporation | Blood and cell analysis using an imaging flow cytometer |
US7561738B2 (en) | 2004-09-22 | 2009-07-14 | Microsoft Corporation | Symbol grouping and recognition in expression recognition |
US8234228B2 (en) * | 2008-02-07 | 2012-07-31 | Nec Laboratories America, Inc. | Method for training a learning machine having a deep multi-layered network with labeled and unlabeled training data |
US8352465B1 (en) | 2009-09-03 | 2013-01-08 | Google Inc. | Grouping of image search results |
US20170330029A1 (en) * | 2010-06-07 | 2017-11-16 | Affectiva, Inc. | Computer based convolutional processing for image analysis |
US9031331B2 (en) | 2012-07-30 | 2015-05-12 | Xerox Corporation | Metric learning for nearest class mean classifiers |
WO2014205231A1 (en) | 2013-06-19 | 2014-12-24 | The Regents Of The University Of Michigan | Deep learning framework for generic object detection |
US9704054B1 (en) * | 2015-09-30 | 2017-07-11 | Amazon Technologies, Inc. | Cluster-trained machine learning for image processing |
GB201517462D0 (en) * | 2015-10-02 | 2015-11-18 | Tractable Ltd | Semi-automatic labelling of datasets |
US20180144270A1 (en) | 2016-11-23 | 2018-05-24 | Primal Fusion Inc. | System and method for modifying a knowledge representation based on a machine learning classifier |
US9990687B1 (en) | 2017-01-19 | 2018-06-05 | Deep Learning Analytics, LLC | Systems and methods for fast and repeatable embedding of high-dimensional data objects using deep learning with power efficient GPU and FPGA-based processing platforms |
US10467760B2 (en) * | 2017-02-23 | 2019-11-05 | Adobe Inc. | Segmenting three-dimensional shapes into labeled component shapes |
US20180247227A1 (en) | 2017-02-24 | 2018-08-30 | Xtract Technologies Inc. | Machine learning systems and methods for data augmentation |
KR20200040752A (ko) | 2017-07-05 | 2020-04-20 | 팜 벤처스 그룹, 인코포레이티드 | 모바일 컴퓨팅 디바이스에서 컨텍스트 액션들을 서피싱하기 위한 개선된 사용자 인터페이스 |
US10489722B2 (en) * | 2017-07-27 | 2019-11-26 | Disney Enterprises, Inc. | Semiautomatic machine learning model improvement and benchmarking |
US11615879B2 (en) * | 2017-09-08 | 2023-03-28 | The General Hospital Corporation | System and method for automated labeling and annotating unstructured medical datasets |
US10477641B2 (en) * | 2017-09-24 | 2019-11-12 | Massachusetts Institute Of Technology | Methods and apparatus for image analysis for lighting control |
US10380260B2 (en) | 2017-12-14 | 2019-08-13 | Qualtrics, Llc | Capturing rich response relationships with small-data neural networks |
US10169680B1 (en) * | 2017-12-21 | 2019-01-01 | Luminar Technologies, Inc. | Object identification and labeling tool for training autonomous vehicle controllers |
US11238070B1 (en) * | 2018-07-17 | 2022-02-01 | A9.Com, Inc. | Dense cluster filtering |
US10997748B2 (en) * | 2019-04-19 | 2021-05-04 | The Boeing Company | Machine learning model development with unsupervised image selection |
CA3150868A1 (en) | 2019-09-18 | 2021-03-25 | Bryan Richard Davidson | Using machine learning algorithms to prepare training datasets |
-
2020
- 2020-09-09 CA CA3150868A patent/CA3150868A1/en active Pending
- 2020-09-09 AU AU2020348209A patent/AU2020348209B2/en active Active
- 2020-09-09 CN CN202080065814.7A patent/CN114424251A/zh active Pending
- 2020-09-09 WO PCT/US2020/049804 patent/WO2021055189A1/en unknown
- 2020-09-09 EP EP20866700.6A patent/EP4032020A4/en active Pending
- 2020-09-09 JP JP2022517201A patent/JP7378597B2/ja active Active
- 2020-09-09 US US17/016,244 patent/US11861514B2/en active Active
- 2020-09-09 KR KR1020227012535A patent/KR20220058637A/ko unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014137284A (ja) * | 2013-01-17 | 2014-07-28 | Dainippon Screen Mfg Co Ltd | 教師データ作成支援装置、教師データ作成装置、画像分類装置、教師データ作成支援方法、教師データ作成方法および画像分類方法 |
JP2018142097A (ja) * | 2017-02-27 | 2018-09-13 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2021055189A1 (en) | 2021-03-25 |
EP4032020A4 (en) | 2023-01-18 |
US20210081822A1 (en) | 2021-03-18 |
EP4032020A1 (en) | 2022-07-27 |
CA3150868A1 (en) | 2021-03-25 |
KR20220058637A (ko) | 2022-05-09 |
US11861514B2 (en) | 2024-01-02 |
CN114424251A (zh) | 2022-04-29 |
JP7378597B2 (ja) | 2023-11-13 |
AU2020348209A1 (en) | 2022-03-17 |
AU2020348209B2 (en) | 2023-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7378597B2 (ja) | 機械学習アルゴリズムを使用したトレーニングデータセットの準備 | |
Greenwald et al. | Whole-cell segmentation of tissue images with human-level performance using large-scale data annotation and deep learning | |
US11176415B2 (en) | Assisted image annotation | |
Jeckel et al. | Advances and opportunities in image analysis of bacterial cells and communities | |
CN109791693B (zh) | 用于提供可视化全切片图像分析的数字病理学系统及相关工作流程 | |
US9036888B2 (en) | Systems and methods for performing quality review scoring of biomarkers and image analysis methods for biological tissue | |
US20140314300A1 (en) | System and method for reviewing and analyzing cytological specimens | |
US20150032671A9 (en) | Systems and methods for selecting and analyzing particles in a biological tissue | |
US8737709B2 (en) | Systems and methods for performing correlation analysis on clinical outcome and characteristics of biological tissue | |
AU2013255961B2 (en) | Systems and methods for performing quality review scoring of biomarkers and image analysis methods for biological tissue | |
JP7477517B2 (ja) | 画像分析システムおよび画像分析システムを使用する方法 | |
US11681505B2 (en) | Systems and methods for facilitating generation and deployment of machine learning software applications | |
RU2689818C1 (ru) | Способ интерпретации искусственных нейронных сетей | |
Hubbard et al. | Accelerated EM connectome reconstruction using 3D visualization and segmentation graphs | |
US20130230219A1 (en) | Systems and methods for efficient comparative non-spatial image data analysis | |
US20230145376A1 (en) | Data processing system | |
US20220309670A1 (en) | Method and system for visualizing information on gigapixels whole slide image | |
Pretorius et al. | Visual Parameter Optimization for Biomedical Image Analysis: A Case Study. | |
US11507252B2 (en) | Methods and systems for monitoring objects for labelling | |
US20230230352A1 (en) | Methods and systems for contextual smart computer vision with action(s) | |
US20240086460A1 (en) | Whole slide image search | |
US20240004540A1 (en) | Methods, apparatuses, and computer-readable media for enhancing digital pathology platform | |
US20230085927A1 (en) | Visualization system and method for interpretation and diagnosis of deep neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231031 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7378597 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |