JP2022548160A - 機械学習アルゴリズムを使用したトレーニングデータセットの準備 - Google Patents

機械学習アルゴリズムを使用したトレーニングデータセットの準備 Download PDF

Info

Publication number
JP2022548160A
JP2022548160A JP2022517201A JP2022517201A JP2022548160A JP 2022548160 A JP2022548160 A JP 2022548160A JP 2022517201 A JP2022517201 A JP 2022517201A JP 2022517201 A JP2022517201 A JP 2022517201A JP 2022548160 A JP2022548160 A JP 2022548160A
Authority
JP
Japan
Prior art keywords
images
user
computer system
image
classification label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022517201A
Other languages
English (en)
Other versions
JP7378597B2 (ja
Inventor
デヴィッドソン,ブライアン・リチャード
ヴェンカタチャラム,ヴィディヤ
ザヤツ,アーティオム
リーデル,マイケル・シイ
Original Assignee
ルミネックス コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ルミネックス コーポレーション filed Critical ルミネックス コーポレーション
Publication of JP2022548160A publication Critical patent/JP2022548160A/ja
Application granted granted Critical
Publication of JP7378597B2 publication Critical patent/JP7378597B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

コンピュータシステムは、複数の画像のための画像派生特徴のデータセットを受け取り、このデータセットの次元を削減し、次元削減データセット内のクラスタを識別し、次元削減データセットのデータポイントの視覚表現を、クラスタによってグループ化されたアイコンとして生成するように構成される。トレーニングデータセットに含めるために、画像にユーザ分類ラベルを適用するためのユーザ入力が受け取られる。ユーザインターフェースは、ユーザに情報を提示し、ユーザから情報を受け取って、ユーザ分類ラベルの適用を容易にするように使用可能である。【選択図】図1

Description

本開示は、一般に、画像認識アルゴリズムをトレーニングするためのトレーニングデータセットの作成に関する。
画像認識アルゴリズムは、機械が、異なる画像と、画像に表された識別オブジェクトとを区別し、様々な事例において、それに応じて画像を分類することを可能にする。しかしながら、画像認識アルゴリズムが、これらタスクを実行するには、最初に、アルゴリズムを、トレーニングデータセットでトレーニングする必要がある。トレーニングデータセットは、アルゴリズムのトレーニングに使用可能な画像のみならず、画像に何が表されているかを示す「正解ラベル」を含む。様々な事例において、これら正解ラベルは、トレーニングデータセットにおける画像をレビューした人によって割り当てられる。
本開示は、ターゲット機械学習アルゴリズムのためのトレーニングデータセットを準備するために、分類ラベルで画像にラベル付けを行うユーザを支援するための機械学習技法の使用に関する。ターゲット機械学習アルゴリズムの精度は、トレーニングデータセットの精度に部分的に依存するため、トレーニングデータセットを準備するには、通常、ユーザが、個々の画像をレビューして、分類ラベルを適用させる必要がある。数百または数千の画像で構成されるトレーニングデータセットの場合、このユーザレビュープロセスは、特に画像をレビューするために専門的なトレーニングを受けたユーザが必要とされる場合、時間および費用がかかる場合がある。したがって、コンピュータシステムを使用すると、ユーザレビュープロセスが容易になり、より正確かつ高速になり、トレーニングデータセットが作成されるプロセスを改善できる。機械学習アルゴリズムを用いて、コンピュータシステムは、同じ分類ラベルを有する可能性が高い画像をグループ化し、実施形態において、分類ラベルを予測できる。
様々な実施形態において、コンピュータシステムは、第1の機械学習アルゴリズムを使用して、複数の画像から特徴を導出する。次に、コンピュータシステムは、次元削減アルゴリズムを使用して、これら画像派生特徴のデータベースの次元を削減する。その後、コンピュータシステムは、クラスタリングアルゴリズムを使用して、次元削減データセットにおけるデータポイントのクラスタを識別する。その後、コンピュータシステムは、次元削減データセットのデータポイントの視覚表現を生成し、ユーザのための画像のうちの1つまたは複数の画像を表示させる。コンピュータシステムは、画像にユーザ分類ラベルを適用するユーザ入力を受け取る。
本開示はまた、ユーザに情報を提示し、ターゲット機械学習アルゴリズムのトレーニングデータセットに含まれる画像に分類ラベルを適用するための入力をユーザから受け取るように動作可能なユーザインターフェースに関する。様々な実施形態において、ユーザインターフェースは、複数の画像、および複数の画像のうちの1つまたは複数から導出された画像データの次元削減データセットの2次元または3次元表現を含む。ユーザインターフェースは、画像を分類するために、ターゲット機械学習アルゴリズムをトレーニングするためのラベル付きトレーニングデータセットを準備するためのユーザ入力を受け取り、ユーザ分類ラベルを画像に適用するように使用可能である。
図1は、複数の画像を使用してトレーニングデータセットを準備するように構成されたコンピュータシステムの実施形態を示すブロック図である。 図2は、様々な実施形態にしたがって、ラベル付けし、トレーニングデータセットに含めるように使用可能な画像のサンプリングの図である。 図3は、様々な実施形態による、トレーニングデータセット作成方法の実施形態を示すフローチャートである。 図4は、複数の画像の次元削減データセットの視覚表現の例の図である。 図5Aは、開示された実施形態にしたがって、図1のユーザインターフェースによって動作されるグラフィカルユーザインターフェースの例示的な実施形態の表示画面である。 図5Bは、開示された実施形態にしたがって、図1のユーザインターフェースによって動作されるグラフィカルユーザインターフェースの例示的な実施形態の表示画面である。 図5Cは、開示された実施形態にしたがって、図1のユーザインターフェースによって動作されるグラフィカルユーザインターフェースの例示的な実施形態の表示画面である。 図5Dは、開示された実施形態にしたがって、図1のユーザインターフェースによって動作されるグラフィカルユーザインターフェースの例示的な実施形態の表示画面である。 図5Eは、開示された実施形態にしたがって、図1のユーザインターフェースによって動作されるグラフィカルユーザインターフェースの例示的な実施形態の表示画面である。 図5Fは、開示された実施形態にしたがって、図1のユーザインターフェースによって動作されるグラフィカルユーザインターフェースの例示的な実施形態の表示画面である。 図6は、様々な実施形態による、トレーニングデータセット作成方法の実施形態を示すフローチャートである。 図7は、様々な実施形態による、トレーニングデータセット作成方法の実施形態を示すフローチャートである。 図8は、図1の様々な構成要素を実施し得る例示的なコンピュータシステムのブロック図である。
本開示は、「1つの実施形態」または「実施形態」への言及を含む。「1つの実施形態において」または「実施形態において」という句の出現は、必ずしも同じ実施形態を指すとは限らない。特定の特徴、構成、または特性は、本開示と一致する任意の適切な方式で組み合わせることができる。
本開示内で、(「ユニット」、「回路」、他の構成要素などと様々に呼ばれ得る)異なるエンティティは、1つまたは複数のタスクまたは動作を実行するように「構成された」と説明または主張され得る。-[エンティティ]は、[1つまたは複数のタスクを実行する]ように構成される-というこの定型文は、本明細書で、構成(すなわち、電子回路などの物理的なもの)を指すために使用される。より具体的には、この定型文は、この構成が、動作中、1つまたは複数のタスクを実行するように整えられていることを示すために使用される。構成は、その構成が現在動作されていない場合でも、何らかのタスクを実行するように「構成」されていると言える。「データセットを生成するように構成されたコンピュータシステム」は、たとえば、問題のコンピュータシステムが現在使用されていない(たとえば、電源が接続されていない)場合でも、動作中にこの機能を実行する回路構成を有するコンピュータシステムをカバーすることが意図される。したがって、あるタスクを実行するように「構成された」と説明または記述されたエンティティは、タスクを実施するように実行可能なデバイス、回路、メモリ格納プログラム命令などの物理的なものを指す。この句は、本明細書では、無形のものを指すために使用されない。したがって、「するように構成された」構成は、本明細書では、アプリケーションプログラミングインターフェース(API)などのソフトウェアエンティティを指すために使用されない。
「構成された」という用語は、「ように構成可能である」ことを意味することは意図されない。たとえば、プログラムされていないFPGAは、特定の機能を実行するように「構成された」とは見なされないが、その機能を実行「するように構成可能」であり、プログラミング後に機能を実行する「ように構成」される場合がある。
構成が1つまたは複数のタスクを実行するように「構成された」との、添付の特許請求の範囲における記述は、特許請求の範囲の要素について、合衆国法典第35編第112条(f)を行使しないことが明確に意図される。したがって、出願された本出願における特許請求の範囲のいずれも、ミーンズプラスファンクション要素を有すると解釈されることは意図されない。出願人が審査中に第112条(f)の行使を希望する場合は、[機能を実行する]「ための手段」構成を使用して、特許請求の範囲の要素を記述する。
本明細書で使用される場合、「第1」、「第2」などの用語は、具体的に述べられていないのであれば、それらが先行する名詞のラベルとして使用され、いかなるタイプの順序付け(たとえば、空間的、時間的、論理的など)も意味しない。たとえば、「第1」および「第2」の機械学習アルゴリズムへの言及は、特に明記されていない限り、これら2つの間の順序付けを意味しない。
本明細書で使用される場合、「に基づく」という用語は、判定に影響を与える1つまたは複数の要因を説明するために使用される。この用語は、追加の要因が判定に影響を与える可能性を排除しない。つまり、判定は、指定された要因のみに基づく場合もあれば、指定された要因のみならず、他の指定されていない要因に基づく場合もある。「Bに基づいてAを判定する」という句を考える。この句は、Bが、Aを判定するために使用される要因、またはAの判定に影響を与える要因であることを指定する。この句は、Aの判定が、Cなどの他の要因にも基づいている可能性があることを排除しない。この句はまた、AがBのみに基づいて判定される実施形態をカバーするように意図される。したがって、本明細書で使用される場合、「に基づく」という句は、「少なくとも部分的に基づく」という句と同義である。
本明細書で使用される場合、「モジュール」という文言は、一連の動作を格納または実行する構成を指す。モジュールは、一連の動作を実施するハードウェア、またはコンピュータシステムの1つまたは複数のプロセッサによって実行されると、コンピュータシステムに一連の動作を実行させる、一連の命令を格納するメモリを指す。したがって、モジュールは、命令を実施する特定用途向け集積回路、命令を格納するメモリ、および前記命令を実行する1つまたは複数のプロセッサ、または両方の組合せを含み得る。
ここで図1を参照して、コンピュータシステム100の例示的な実施形態のブロック図が示される。様々な実施形態において、コンピュータシステム100は、複数の画像120を受け取り、複数の画像120およびユーザ入力を使用してトレーニングデータセット130を準備する。様々な実施形態において、コンピュータシステム100は、第1の機械学習アルゴリズム102、次元削減アルゴリズム103、クラスタリングアルゴリズム106、第2の機械学習アルゴリズム110、およびユーザインターフェース108を適用して、画像120を使用してトレーニングデータセット130を準備する。
様々な実施形態において、コンピュータシステム100は、画像120を受け取り、ユーザ入力を受け取り、トレーニングデータセット130を準備するように構成されたいくつかのコンピューティングシステムのいずれかである。様々な実施形態において、コンピュータシステム100は、単一のコンピューティングシステム(たとえば、単一のサーバ、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、スマートフォン)で実施されるが、他の実施形態において、ともに動作する複数のコンピュータ(たとえば、サーバのクラウド)とともに実施される。様々な実施形態において、コンピュータシステム100の第1の部分(たとえば、サーバまたはサーバのクラウド)は、様々なアルゴリズムを実行するように構成され、コンピュータシステム100の第2の部分(たとえば、ラップトップコンピュータ、タブレットコンピュータ)は、ユーザに情報を提示し、ユーザから情報を受け取るために、ユーザインターフェース108を実施するように構成される。
様々な実施形態において、複数の画像120は、ユーザ分類ラベルなどのメタデータとともに、トレーニングデータセット130に含まれるように使用可能である画像のグループのいずれかであり得る。様々な実施形態において、たとえば、画像120は、細胞または他の生物学的標本の画像を含む。様々な実施形態において、細胞のこれら画像は、複数の細胞のマルチスペクトル画像、複数の細胞のマルチモーダル画像、またはその両方を含む。そのような画像は、たとえば、標本が蛍光色素で染色され、光源で励起される蛍光画像を使用して作成され得る。しかしながら、開示された技法は、単に細胞の画像に限定されず、トレーニングデータセット130に含めることができる任意のタイプの画像(たとえば、植物の写真、動物の写真、周囲の通りを走行中の車両から撮影された写真、人間の顔の画像など)に使用できる。様々な実施形態において、画像120の数は、ターゲット機械学習アルゴリズムの基準、ターゲット機械学習アルゴリズムの許容可能なトレーニング時間の量、およびターゲット機械学習アルゴリズムの所望の精度に応じて変化できる。たとえば、画像120のより大きなセットは、より大きなトレーニングデータセット130に変換できる。ターゲット機械学習アルゴリズムをトレーニングするために必要な時間の量は、トレーニングデータセット130のサイズが増加するにつれて増加するが、様々な実施形態において、ターゲット機械学習アルゴリズムの精度も増加する可能性がある。様々な実施形態において、複数の画像120は、500から3000の画像120を含む。様々な実施形態において、画像120は、より大きな画像のプールからランダムに選択される。
様々な実施形態において、トレーニングデータセット130は、他の画像(すなわち、画像120以外の画像)を分類するためにターゲット機械学習アルゴリズムをトレーニングするように使用可能である。そのような実施形態において、トレーニングデータセット130は、画像120の一部またはすべて、および本明細書で論じられるようにこれら画像120に適用されるユーザ分類ラベルを含む。本明細書で使用される場合、「ターゲット機械学習アルゴリズム」は、トレーニングデータセット130でトレーニングされた場合に、画像を分類するように使用可能である任意の画像認識アルゴリズムを含む。たとえば、図5A~図5Fに関連して本明細書で論じられる実施形態において、トレーニングデータセット130は、各画像内の核の数(たとえば、1つ、2つ、または3つ以上)を識別するユーザ分類ラベルを有する細胞の画像を含む。トレーニングデータセット130でトレーニングされた後、ターゲット機械学習アルゴリズムは、他の画像が1つ、2つ、または3つ以上の核を含むか否かを判定するように動作可能である。
様々な実施形態において、第1の機械学習アルゴリズム102は、画像を(たとえば、画像のピクセルを分析することによって)分析し、これら画像120から特徴を導出して、画像派生特徴のデータセットを生成するように実行可能ないくつかのアルゴリズムのうちのいずれかである。様々な実施形態において、第1の機械学習アルゴリズム102は、畳み込みニューラルネットワーク(CNN)である。そのような実施形態のいくつかでは、第1の機械学習アルゴリズム102は、ImageNetからの大規模な画像のデータベースでトレーニングされた、Inception V3畳み込みニューラルネットワークである。第1の傾斜アルゴリズム102がCNNである実施形態において、画像のための画像派生特徴は、画像の内容を説明し、異なる画像120を区別するために使用される「ボトルネック特徴」である。様々な事例において、画像ごとに数千のボトルネック特徴が存在し得る。第1の機械学習アルゴリズム102の出力は、様々な実施形態において、多次元データセット(たとえば、画像120の特徴ごとに1つの次元)を含む。たとえば、画像120を分析した後、第1の機械学習アルゴリズム102は、画像120のチャネルごとに2048個の特徴のデータセットを生成する。様々な事例において、複数の画像120は、1から12までの画像のチャネルを含む。
様々な実施形態において、次元削減アルゴリズム104は、第1の機械学習アルゴリズム102によって出力された多次元データセットの次元を、主要な変数のセットを取得することによる検討の下、ランダムな変数の数を削減することによって、次元削減データセットに削減するように実行可能ないくつかのアルゴリズムのうちのいずれかである。様々な実施形態において、次元削減アルゴリズム104は、次元を数桁削減する。たとえば、いくつかの実施形態において、第1の機械学習アルゴリズム102は、各画像120のための2048個の特徴を出力し、次元削減アルゴリズム104は、このデータセットの次元を3次元以下に削減する。様々な実施形態において、次元削減アルゴリズム104は、主成分分析(PCA)、均一マニホルド近似および射影(UMAP)、またはt分散確率的隣接埋込(t-SNE)のうちの1つまたは複数であり得る。
様々な実施形態において、次元削減アルゴリズム104はまた、第2の機械学習アルゴリズム110から入力を取得するように実行可能である。本明細書で論じられるように、第2の機械学習アルゴリズム110は、ユーザインターフェース108を介して受け取られたユーザ分類ラベルに基づいて、ラベルなし画像120のための予測分類ラベルを出力するように実行可能である。次元削減アルゴリズム104は、ラベルなし画像102ごとに実行可能であり、これら予測分類ラベルを、第1の機械学習アルゴリズム102によって出力された多次元データセットとともに考慮して、たとえば3次元以下を有する別の削減された次元データセットを生成する。
様々な実施形態において、次元削減アルゴリズム104は、この削減された次元データセットを、クラスタリングアルゴリズム106に出力するように実行可能である。そのような実施形態において、クラスタリングアルゴリズム106は、削減された次元データセット内のデータポイントのクラスタを判定するように実行可能である。クラスタリングアルゴリズム106は、k-meansクラスタリングまたはスペクトルクラスタリングアルゴリズムを含むがこれらに限定されない、いくつかの適切なクラスタリングアルゴリズムのいずれかであり得る。様々な実施形態において、クラスタの数はユーザによって設定され、削減された次元データセットにおける様々なデータポイントは、最も近いクラスタにグループ化される。様々な実施形態において、複数のクラスタは、X×Y個のクラスタに等しく、ここで、Xは、ユーザが画像を分類したいグループの数(たとえば、潜在的なユーザ分類ラベルの数)であり、Yは、1以上である。様々な実施形態において、たとえば、Yは5に等しいが、他の数を使用できる。様々な実施形態において、(すなわち、ユーザは、ユーザ分類ラベルを入力し、第2の機械学習アルゴリズム110および次元削減アルゴリズム104は、予測分類ラベルを有する次元削減データセットを出力した)2回目以降の反復中、クラスタリングアルゴリズム106は、ラベルなし画像に対応するデータポイントを、最も近い分類ラベルへクラスタ化する。このクラスタリングは、ユーザインターフェース108を介して予測分類ラベルとしてユーザに提示される。
様々な実施形態において、ユーザインターフェース108は、ユーザに情報を提示し、ユーザが、画像120を使用して、トレーニングデータセット130を準備できるようにする入力を、ユーザから受け取るように実行可能である。様々な実施形態において、ユーザインターフェース108は、各アイコンが1つまたは複数の特定のデータポイントを表すクラスタによってグループ化されたアイコンとして、削減された次元データセットにおけるデータポイントの視覚表現(たとえば、本明細書で図4を参照して論じられる視覚表現400)を提示するように実行可能なグラフィカルユーザインターフェース(GUI)である。様々な実施形態において、ユーザインターフェース108の様々な部分は、アイコン自体、データセットにおけるクラスタのリスト、ユーザ分類ラベルのリスト、予測分類ラベルのリスト、またはその組合せなどの1つまたは複数の特定のデータポイントに関連付けられた1つまたは複数の画像120を表示させるように選択可能である。ユーザインターフェース108はまた、画像120のうちの様々な画像のためのユーザ分類ラベルのユーザ入力を受け取るように実行可能である。ユーザインターフェース108は、本明細書では、図4および図5A~図5Fを参照してさらに詳細に論じられる。
様々な実施形態において、第2の機械学習アルゴリズム110は、他の画像120のためにユーザによって入力されたユーザ分類ラベルに基づいて、ラベルなし画像120の分類ラベルを予測するように実行可能である。様々な実施形態において、第2の機械学習アルゴリズム110は、反復最適化アルゴリズムである。様々な実施形態において、第2の機械学習アルゴリズム110は、対数損失を伴う確率的勾配降下(SGD)モデルまたはランダムフォレストモデルを含むがこれらに限定されない、任意の適切な教師あり学習アルゴリズムであってよい。本明細書で論じられるように、様々な実施形態において、第2の学習アルゴリズム110は、次元削減アルゴリズム104に出力するように実行可能である。次に、クラスタリングアルゴリズム106は、ラベルなし画像120のデータポイントを、最も近い分類ラベルにクラスタリングする。そのような実施形態において、このクラスタリングの結果は、予測分類ラベルとしてユーザインターフェース108を使用してユーザに提示される。様々な事例において、ユーザは、予測分類ラベルをユーザ分類ラベルとして受け入れるか、または予測分類ラベルを拒否して、別のユーザ分類ラベルを選択し、画像120のための分類ラベルを不明としてマークする(たとえば、レビューするために第2のユーザに残す)ことによって、またはトレーニングデータセット130から画像120を完全に除外することによって、予測分類ラベルに応答する。様々な実施形態において、次元削減アルゴリズム104から、クラスタリングアルゴリズム106、ユーザインターフェース108、第2の機械学習アルゴリズム110、次元削減アルゴリズム104への図1に示されるループは、すべての画像120がラベル付けまたは除外されるまで反復する。画像120にラベル付けするプロセスは、図3、図6、および図7を参照して本明細書でさらに詳細に説明される。
様々な実施形態において、本明細書に開示される技法は、ユーザが、複数のラベルなし画像120から、トレーニングデータセット130を、より迅速かつ正確に準備することを可能にする。ユーザが各画像120を単独で見て、トレーニングデータセット130に含めるために、その画像120にユーザ分類ラベルを割り当てる必要はなく、代わりに、コンピュータシステム100によって適用される様々なアルゴリズムは、意思決定における様々な支援をユーザに提供して、ラベル付けプロセスをより効率化する。これは、特定の画像120にどのラベルを適用するかの決定が、特定のトレーニングを受け、労働時間が高価である個人(たとえば、微生物学者または放射線科医)によってレビューされる事例において特に重要である。
本明細書で論じられる様々な実施形態において、第1の機械学習アルゴリズム102、次元削減アルゴリズム104、およびクラスタリングアルゴリズム106は、機械学習技法を使用して、視覚的特性を共有すると予測され、多くの場合、同じユーザ分類ラベルを与えられる様々なクラスタに、画像120を事前に分類する。(たとえば、図4に関連して論じられた視覚表現400における)クラスタリングの視覚表現、ならびにラベル付けされている画像は、様々な実施形態において、ユーザインターフェース108を使用して表示される。本明細書で論じられるように、ユーザは、様々なクラスタをレビューし、(たとえば、複数の画像120を強調表示し、各強調表示された画像にラベルを適用することによって)同時に複数の画像120にユーザ分類ラベルを割り当てることができる。本明細書で論じられるように、クラスタリングのこのプロセスは、「教師なし」(すなわち、最初のクラスタリングではユーザ入力が使用されなかった)トレーニング技法を使用し、このトレーニング技法は、その後、トレーニングデータセット130のために、ラベル付けされた材料を準備するために、ユーザによってレビューされる。
本明細書で論じられるように、様々な実施形態において、いくつかのユーザ分類ラベルが入力された後、第2の学習アルゴリズム120を使用して、コンピュータシステム100は、ユーザの入力を考慮して、ラベル付けプロセスをさらに合理化できる。本明細書で論じられるように、第2の学習アルゴリズム110を使用することにより、コンピュータシステム100は、ラベルなしのままの画像120の一部(またはすべて)について、どの分類ラベルが正しいかを予測するように動作可能である。様々な実施形態において、次元削減アルゴリズム104は、第2の学習アルゴリズム110の出力を考慮して、クラスタリングアルゴリズム106を使用して、クラスタ化される第2の次元削減データセットを生成する。本明細書で論じられるように、ユーザインターフェース108は、予測されたユーザ分類ラベルのクラスタを(たとえば、図5Eおよび図5Fに関連して論じられる視覚表現512で)ユーザに示すように更新される。本明細書で論じられるように、ユーザは、様々なクラスタをレビューし、(たとえば、複数の画像120を強調表示し、各強調表示された画像にラベルを適用することによって)同時に複数の画像120にユーザ分類ラベルを割り当てることができる。本明細書で論じられるように、このクラスタリングのプロセスは、「半教師あり」(すなわち、以前のユーザ入力が、改訂されたクラスタリングで使用されたが、ユーザはまだ、すべての画像120をレビューしていない)トレーニング技法を使用し、このトレーニング技法は、その後、トレーニングデータセット130のために、ラベル付けされた材料を準備するために、ユーザによってレビューされる。したがって、様々な実施形態において、本明細書に開示される技法は、データセット130をトレーニングするために画像120にラベル付けするユーザに、教師なしクラスタリングから、半教師ありの予測への、ガイド付きパスを提供すると同時に、意思決定を支援するための視覚化および直感的なユーザインターフェースを提供する。
ここで図2を参照するように、画像120のサンプリングが示される。様々な実施形態において、各画像120は、視覚部分およびメタデータ202(たとえば、特定の画像120の名前、作成されたときなど)を含む。図5A~図5Fに関連して本明細書で論じられるように、様々な実施形態において、特定の画像120がレビューされ、(たとえば、ユーザインターフェース108を使用して)ラベル付けされている場合、画像は、オブジェクト200を使用して表される。様々な実施形態において、オブジェクト200は、特定の画像(図2に示される画像の名前など)に関するメタデータ202を含み、選択可能である。本明細書で論じられるように、様々な実施形態において、オブジェクト200を選択することにより、ユーザは、ユーザ分類ラベルを適用する(および/または予測分類ラベルに応答する)ことができる。
図2はまた、画像派生特徴204の少数の例を含む。様々な実施形態において、第1の機械学習アルゴリズム102は、画像120から様々な特徴を導出する。様々な事例において、これら特徴は、画像120のピクセルデータの数学的記述によって表される。しかしながら、視覚的に表される場合、これら画像派生特徴204は、他の画像120と区別できるように画像120を集合的に記述する画像120の一部である。したがって、3つの画像派生特徴204a、204b、および204cが図2に示されているが、画像派生特徴の数は、上記で論じたように、3つよりはるかに多い可能性がある(たとえば、様々な実施形態において、画像120あたり数千の特徴がある)。
ここで図3を参照して、トレーニングデータセット作成方法300の実施形態を示すフローチャートが示される。様々な実施形態において、方法300に関連付けられた様々な動作は、コンピュータシステム100を用いて実行される。
ブロック302において、ユーザは、トレーニングデータセット130を準備するために、ラベル付けのために、ラベルなし(または十分にラベル付けられていない)トレーニングデータセット(たとえば、複数の画像120)を入力する。本明細書で論じられるように、ユーザは、画像のより大きな集合から、ラベル付けする画像120をランダムに選択し得る。ユーザは、ストレージ媒体(たとえば、ディスクまたはハードドライブ)の挿入、または画像120のコンピュータシステム100へのダウンロードを含むがこれらに限定されない任意の適切な方法によって画像120を入力し得る。本明細書で論じられる技法のいくつかが、コンピュータのリモートクラウドにおいて実施される、コンピュータシステム100によって実行される様々な実施形態において、ユーザは、処理のために、画像120をクラウドにアップロードし得る。
ブロック304において、コンピュータシステム100は、トレーニングデータセットからのピクセルデータから(たとえば、第1の機械学習アルゴリズム102を用いて)特徴(たとえば、図2に示される特徴204)を導出する。ブロック306において、コンピュータシステム100は(たとえば、次元削減アルゴリズム104を用いて)、特徴204の次元を削減する。様々な事例において、次元削減は、複数の画像を使用して、第1の機械学習アルゴリズム102によって準備された派生特徴204のデータセットに対して実行される。他の事例では(たとえば、方法300がブロック314からブロック306に進むとき)、複数の画像120のいくつかに適用されたユーザ分類ラベルを考慮しながら、派生特徴204のデータセットに対して次元削減が実行される。いずれの事例でも、次元削減アルゴリズム104は、複数の画像120のおのおのである、比較的大きな次元のデータセット(たとえば、画像120の2048個の特徴のデータセット)を受け取り、このデータセットを、いくつかの実施形態では、2次元、または他の実施形態では、3次元などの実質的に少数の次元に削減する。
ブロック308において、コンピュータシステム100は、次元削減データセットのデータポイントの視覚表現400(本明細書では「オブジェクトマップ」とも呼ばれる)を準備する。図4を参照してさらに詳細に論じられるように、この視覚表現400は、様々な実施形態において、次元削減データベースにおける1つまたは複数のデータポイントを表すアイコンを用いた2次元プロットである。他の実施形態において、視覚表現400は、次元削減データベースにおける1つまたは複数のデータポイントを表すアイコンを用いた3次元プロットである。
ブロック310において、複数の画像120のための分類ラベルを予測するか否かの判定がなされる。様々な実施形態において、コンピュータシステム100は、入力されたユーザ分類ラベルの数に基づいて、この判定を行うように構成される。たとえば、しきい値(たとえば、30%、40%、または他のしきい値)を下回るラベルである画像120のパーセンテージである場合、またはユーザ分類が受け取られていない場合、判定は自動的に行われ、方法300はブロック312に進む。パーセンテージがしきい値を超える場合、方法300はブロック310に進む。様々な実施形態において、判定は、方法300が、ブロック312またはブロック314へ進むべきか否かを判定するユーザによって行われ、コンピュータシステム100は、ユーザからのコマンドにしたがって進む。
ブロック312において、コンピュータシステム100は、様々な実施形態において、次元削減データセットを、(たとえば、クラスタリングアルゴリズム106を用いて)所定数のクラスタにクラスタ化する。予測分類ラベルが生成されていない方法300の反復では、クラスタリングアルゴリズムは、データポイントをX×Y個のクラスタにクラスタ化し、ここで、Xは、ユーザが画像を分類したいグループの数(たとえば、ユーザ分類ラベルの数)であり、Yは、1以上(たとえば、3、4、5)である。様々な実施形態において、これらクラスタは、図4および図5A~図5Fに関連して本明細書で論じられる視覚表現400に組み込まれる。
ブロック316において、コンピュータシステム100は、分類ラベルを予測すると判定し、(たとえば、第2の学習アルゴリズム110を用いて、)複数の画像120におけるラベルなし画像のための分類ラベルを予測する。分類ラベルが予測された方法300の反復では、様々なデータポイントが、各ユーザ分類ラベルのためのクラスタにクラスタ化される。そのような実施形態において、ユーザ分類ラベルを有する画像120を表すデータポイントは、それぞれのラベルに関連付けられたクラスタにクラスタ化され、ラベルなしデータポイントは、予測分類ラベルとして、最も近いクラスタにクラスタ化される。コンピュータシステム100は、予測分類ラベルを組み込んだ視覚表現400を生成する。様々な実施形態において、この更新された視覚表現400は、図5D、図5E、および図5Fを参照してさらに詳細に論じられるように、ユーザインターフェース上に現れる。
ブロック314および318において、コンピュータシステム100は、ユーザ分類ラベルを適用するためのユーザ入力を受け取る。ブロック314において、コンピュータシステム100は、ユーザ入力を受け取って、ユーザ分類ラベルを、1つまたは複数のラベルなし画像120に適用する。様々な実施形態において、この入力は、図5Cを参照してさらに詳細に論じられるように、ユーザインターフェース上に現れるメニューを介して受け取られる。同様に、ブロック318において、コンピュータシステム100は、様々な実施形態において、予測分類ラベルを与えられた1つまたは複数のラベルなし画像120に、ユーザ分類ラベルを適用するためのユーザ入力を受け取る。様々な実施形態において、この入力は、図5Fを参照してさらに詳細に論じられるように、ユーザインターフェース108上に現れるメニューを介して受け取られる。様々な実施形態において、そのようなユーザ分類ラベルは、ターゲット機械学習アルゴリズムをトレーニングする際に使用するための画像に含まれるものを説明する、様々な画像120のためのラベルを含む(たとえば、図5A~図5Fで論じられるように、画像は、1つの核、2つの核、または3つ以上の核を含む)。様々な実施形態において、ユーザ分類ラベルはまた、トレーニングデータセット130から画像を除外するラベルとなることができる。様々な実施形態において、ユーザ分類ラベルは、ラベルを不明とすることができる(たとえば、ユーザは、どのラベルを適用するかを識別できない)。様々な実施形態において、不明および除外とラベルされた画像120は、トレーニングデータセット130に含まれない。ブロック314および318の後、複数の画像130のいくつかが、ラベルなしのままである場合、方法300は、様々な実施形態において、ブロック306にループバックする。
ここで図4を参照して、複数の画像120のための次元削減データセットの例示的な視覚表現400が示される。図4に示される実施形態において、視覚表現400は、クラスタ402にグループ化された次元削減アルゴリズム104によって出力された次元削減データセットにおけるデータポイントを表す複数のアイコン404を含む2次元レンダリングである。図4に示される実施形態において、次元削減データセットにおけるデータポイントは、15個のクラスタ404a~404oにグループ化される。様々な実施形態において、このクラスタリングは、(a)同じクラスタ402におけるデータポイントに対応するアイコン404が、ともに密集して配置されるように、視覚表現400をレンダリングすること、(b)同じクラスタ402におけるデータポイントに対応するアイコン404が、同じ色(たとえば、クラスタ402aの場合は赤、クラスタ402bの場合は青、クラスタ402cの場合は緑)で陰影付けられるように、視覚表現400をレンダリングすること、(c)同じクラスタ402におけるデータポイントに対応するアイコン404が、ポリゴンによって囲まれるように、視覚表現400をレンダリングすること、または組合せを含むが、これらに限定されない、1つまたは複数の技法を使用して、視覚表現400において表される。様々な実施形態において、図4に示される視覚表現400の2次元実施形態における様々なアイコン404の位置は、次元削減データセットの2次元に基づく(たとえば、X軸座標は、第1の次元に基づき、Y軸座標は、第2の次元に基づく)。同様に、次元削減データセットが、3次元を有する場合、視覚表現400は、次元削減データセットの3次元に基づく様々なアイコン404の位置を有する3次元図である(たとえば、X軸座標は、第1の次元に基づき、Y軸座標は、第2の次元に基づき、Z軸座標は、第3の次元に基づく)。本明細書で論じられるように、クラスタの数は、ユーザ分類ラベルの数と、予測分類ラベルが生成されたか否かとに応じて変化し得る。
図5Eおよび図5Fを参照して本明細書で論じられるように、更新された視覚表現512は、ユーザ分類ラベルのおのおのについて、1つのクラスタにグループ化された(今回は、第2の機械学習アルゴリズム111の出力を考慮する)次元削減アルゴリズム104によって出力された次元削減データセットを表示する、様々な事例において生成される。様々な実施形態において、このクラスタリングは、(a)同じクラスタ402におけるデータポイントに対応するアイコン404が、ともに近くに配置されるように、視覚表現512をレンダリングすること、(b)同じクラスタ402におけるデータポイントに対応するアイコンが、同じ色で陰影付けられるように、視覚表現512をレンダリングすること、(c)同じクラスタ402におけるデータポイントに対応するアイコン404が、ポリゴンによって囲まれるように、視覚表現512をレンダリングすること、または組合せを含むが、これらに限定されない、1つまたは複数の技法を使用して、視覚表現400において表される。
ここで、図5A~図5Fを参照して、開示された実施形態にしたがって、ユーザインターフェース108によって動作されるグラフィカルユーザインターフェース(GUI)500の例示的な実施形態の様々な表示画面が示される。様々な実施形態において、GUI500は、コンピュータシステム100に(たとえば、HDMIケーブルを介して)直接、または(たとえば、WANおよび/またはLANを介して表示画面へストリーミングされて)間接的に結合された表示画面(たとえば、モニタ、ラップトップコンピュータディスプレイ、タブレットコンピュータディスプレイ)に表示される。本明細書で論じられるように、GUI500は、情報をユーザに提示し、ターゲット機械学習アルゴリズムをトレーニングするために、ラベル付けされたトレーニングデータセット130を準備するための入力(たとえば、入力分類画像130)を、ユーザから受け取るように使用可能である。
GUI500の各画面において、複数の領域が、本明細書で論じられる様々な情報を表示するために使用される。様々な実施形態において、各画面は、2次元視覚表現400(または更新された視覚表現512)を含む第1の領域510を含む。本明細書で論じられるように、視覚表現400は、複数の画像から導出された画像データの次元削減データセットを表す。様々な実施形態において、2次元視覚表現400は、データセット内の複数のアイコン404と、クラスタ402の表示とを含む。様々な実施形態において、各画面はまた、複数の画像130のうちの1つまたは複数の画像を含む第2の領域を含む。様々な実施形態において、様々な画面は、識別されたクラスタのリスト(および実施形態において、おのおのにグループ化された画像130の数)を表示するための第3の領域530を含む。様々な他の実施形態において、様々な画面は、予測分類ラベルのリスト(および実施形態において、おのおのにグループ化された画像130の数)を表示するための更新された第3の領域532を含む。様々な実施形態において、様々な画面は、ユーザ分類ラベルのリスト(および実施形態において、おのおのでラベル付けされた画像130の数)を表示するための第4の領域540を含む。図5A~図5Fにおいて、第1の領域510は、GUI500の右側に配置され、第2の領域520は、GUI500の中央に配置され、第3の領域530(および更新された第3の領域532)および第4の領域540は、GUI500の左側に配置されるが、これら様々な領域は、任意の順序で並べることができる。図5A~図5Fにおける様々な領域は、同じウィンドウの一部として示されているが、他の実施形態において、領域のいくつかまたはすべては、別個のウィンドウとして提示され得る。再び図3を参照すると、ブロック302~312の動作は、図5Aに示される画面の表示前に実行され、ブロック314の動作は、図5Cに示される画面の表示中に実行され、ブロック310における決定は、図5Dに示される画面の表示中に行われ、ブロック316の動作は、図5Eに示される画面の表示前に実行され、ブロック316の動作は、図5Fに示される画面の表示中に実行される。
様々な実施形態において、第1の領域510は、図4を参照して本明細書で論じられる視覚表現400、または図5Eおよび図5Fを参照して本明細書で論じられる更新された視覚表現512を表示するように使用可能である。様々な実施形態において、視覚表現400(または更新された視覚表現512)の各アイコン404は、次元削減データセットにおける1つまたは複数のデータポイントを表す。さらに、そのような実施形態において、各アイコン404は、複数の画像120のうちの1つまたは複数の画像を表し、表された画像120を、第2の領域520に表示させるように選択可能である。
様々な実施形態において、第2の領域520は、1つまたは複数の画像120を表示するように使用可能である。様々な実施形態において、第2の領域520に表示される画像120は、第1の領域5120の一部(たとえば、アイコン404によって表される画像120を表示させる1つまたは複数のアイコン404)、第3の領域530または更新された第3の領域532の一部(たとえば、そのクラスタに関連付けられた画像120を表示させる特定のクラスタに対応するリストの一部)、および/または第4の領域540の一部(たとえば、特定のユーザ分類ラベルでラベル付けされた画像120を表示させるユーザ分類ラベルに対応するリストの一部)の使用選択に応じて表示される。第2の領域520に表示される各画像120は、様々な実施形態において、オブジェクト200として表示される。図2を参照して本明細書で論じられるように、各オブジェクトは、画像120のためのメタデータに関連付けられ、選択可能である。たとえば、本明細書で論じられるように、ユーザは、画像を選択することにより、ユーザ分類ラベルを適用するか、または選択された画像120のための予測分類ラベルに応答することができる。
様々な実施形態において、第3の領域530は、データセット内のクラスタのリストを表示するように使用可能である。同様に、(本明細書では「第5の領域」とも呼ばれる)更新された第3の領域532は、残りのラベルなし画像120がクラスタ化される予測分類ラベルのリストを表示するように使用可能である。いずれの場合も、リストの各エントリは、様々な実施形態において、そのクラスタに関連付けられた画像120を、第2の領域520に表示させるように選択可能である。様々な実施形態において、第3の領域530および更新された第3の領域532に表示されるリストは、各クラスタに関連付けられたそれぞれの画像120の数の表示を含む。
様々な実施形態において、第4の領域540は、画像120に適用されるユーザ分類ラベルのリストを表示するように使用可能である。そのような実施形態のいくつかでは、リストの各エントリは、ユーザ分類ラベルでラベル付けされた画像120を、第2の領域520に表示させるように選択可能である。様々な実施形態において、第4の領域540に表示されるリストは、各ユーザ分類ラベルでラベル付けされたそれぞれの画像120の数の表示を含む。
ここで図5Aを参照して、GUI500の第1の画面が示される。この第1の画面の表示前に、画像120は、コンピュータシステムによって受け取られ、第1の機械学習アルゴリズム102は、画像120から特徴を導出し、導出された特徴のデータセットの次元は、次元削減アルゴリズム104によって削減され、クラスタリングアルゴリズム106によってクラスタが決定された。次元削減データセットの視覚表現400は、第1の領域510において表示される。いくつかの画像120が、第2の領域520に表示されるが、ユーザ選択が受け取られていないので、表示される画像120は、特定のクラスタに関連付けられていない(たとえば、ランダムに表示され得、キャプチャされたときの時系列で表示され得、名前のアルファベット順に表示され得る)。クラスタのリストは、各クラスタに関連付けられた画像120の数の表示とともに、第3の領域530に表示される。最後に、この事例で使用される3つのユーザ分類ラベルのリストは、第4の領域540において表示される。図5A~図5Fに示される例では、ユーザ分類ラベルは、各画像120に存在する細胞核の数に基づいて決定され、1つの核を含む画像120の場合は1N、2つの核を含む画像120の場合は2N、3つ以上の核を含む画像120の場合は3_4Nである。本明細書で論じられるように、3つを超えるユーザ分類ラベルを使用することができ、特定の画像120にどのラベルを適用すべきかを判定するための基準もまた、様々な事例において変化する。
ここで図5Bを参照すると、クラスタ402bにおける1つまたは複数のアイコン404のユーザ選択が受け取られている。それに応じて、クラスタ402bに関連付けられた画像120が、第2の領域520に表示され、クラスタ402bに関連付けられた第3の領域530におけるリストの一部が強調表示される。
ここで図5Cを参照すると、様々な実施形態において、ユーザ分類ラベルは、GUI500に表示されたメニュー522を介してユーザから受け取られる。様々な実施形態において、メニュー522は、トレーニングデータセット130のための様々なラベル、ならびにトレーニングデータセット130から1つまたは複数の画像120を除外するためのラベルなどの追加のラベルを含む、各ユーザ分類ラベルの表示を含む。図5Cに示される例では、メニュー522は、3つのユーザ分類ラベル1N、2N、および3_4Nの表示、ならびにそれに応じて選択された画像120をマークするための「不明に移動」および「除外に移動」するコマンドを含む。図5Cに示されるように、いくつかの画像120は、第2の領域520において強調表示され、メニュー522へのユーザ入力は、強調表示された画像120にユーザ分類ラベルまたはコマンドを適用する。
ここで図5Dを参照すると、様々な画像120にユーザ分類ラベルを適用するユーザ入力が受け取られている。第4の領域540に示されるように、170の画像は、1Nとラベル付けされ、110の画像は、2Nとラベル付けされ、146の画像120は、3_4Nとラベル付けされている。図5Dに示される実施形態において、ユーザは、ボタン524をクリックすることで分類ラベルを予測するためのコマンドを入力できる。このコマンドに応答して、予測分類ラベルは、方法300のブロック316で論じられるように割り当てられる。あるいは、しきい値数の画像120がラベル付けされた後、分類ラベルの予測が自動的に行われる。
ここで図5Eを参照すると、GUI500は、更新された視覚表現512および更新された第3の領域532を含む。本明細書で論じられるように、残りのラベルなし画像120は、予測分類ラベルを割り当てられ、予測分類ラベルによってクラスタ化される。したがって、視覚表現512は、4つのクラスタを含み、1つは、各ユーザ分類ラベルに関連付けられ、もう1つは、分類ラベルが判定されていない(または何らかの理由で判定できない)画像用である。更新された第3の領域532は、予測分類ラベルのリスト、Pred 1N、Pred 2N、Pred 3_4N、不明、および各予測ラベルにおける画像120の数の表示を含む。様々な実施形態において、更新された視覚表現512はまた、ユーザ分類ラベルを有する画像120に関連付けられたデータポイントを含む。これらラベル付き画像120を表すアイコン404は、異なる色である、(たとえば、ラベル付き画像120を表すアイコン404は、ラベルなし画像120を表すアイコン404よりも暗い色であるが、濃い緑と薄緑、または濃い青と水色などの同じ色の系統である)こと、または、異なる形状であること(たとえば、ラベルなし画像の場合は、円形アイコン404、ラベルの付きの画像120の場合は、星型アイコン)によることを含むが、限定されない、ラベルなし画像を表すアイコン404と視覚的に異なり得る。本明細書で論じられる視覚表現400と同様に、更新された視覚表現512のアイコン404は、選択されたアイコン404によって表される画像120を表示させることができる選択された。図5Eに示す画面では、Pred 1Nクラスタが選択される。この選択に応答して、Pred 1Nクラスタにおける画像120が、第2の領域520に表示される。
ここで図5Fを参照すると、様々な実施形態において、ユーザは、GUI500に表示されたメニュー522を介してユーザから受け取られるコマンドによって、予測分類ラベルに応答する。様々な実施形態において、メニュー522によって、ユーザは、メニュー522における予測分類ラベルに対応するユーザ分類ラベルの表示を選択することによって、予測分類ラベルを、ユーザ分類ラベルとして受け入れることができるか、または、メニュー522における異なる表示を選択することによって、予測分類ラベルを拒否できる。様々な実施形態において、メニュー522は、トレーニングデータセット130のための様々なラベル、ならびにトレーニングデータセット130から1つまたは複数の画像120を除外するためのラベルなどの追加のラベルを含む、各ユーザ分類ラベルの表示を含む。図5Fに示される例では、メニュー522は、3つのユーザ分類ラベル1N、2N、および3_4Nの表示、ならびにそれに応じて選択された画像120をマークするための「不明に移動」および「除外に移動」するコマンドを含む。図5Fに示されるように、いくつかの画像120は、第2の領域520において強調表示され、メニュー522へのユーザ入力は、強調表示された画像120にユーザ分類ラベルまたはコマンドを適用する。
ここで図6を参照して、トレーニングデータセット作成方法600の実施形態を示すフローチャートが示される。様々な実施形態において、方法600に関連付けられた様々な動作は、コンピュータシステム100を用いて実行される。ブロック602において、コンピュータシステム100は、複数の画像120のおのおののための画像派生特徴のデータセットを受け取り、画像派生特徴は、複数の画像120を分析するために、第1の機械学習アルゴリズム102を使用することによって決定される。ブロック604において、コンピュータシステム100は、次元削減アルゴリズム106を使用して、画像派生特徴のデータセットから、次元削減データセットを生成する。ブロック606において、コンピュータシステムは、クラスタリングアルゴリズム106を使用して、次元削減データセット内のデータポイントの複数のクラスタを識別する。ブロック608において、コンピュータシステム100は、クラスタ402によってグループ化されたアイコン404として、データポイントの視覚表現400を生成する。各アイコン404は、1つまたは複数の特定のデータポイントを表し、1つまたは複数の特定のデータポイントに関連付けられた1つまたは複数の画像120を表示させるように選択可能である。ブロック610において、コンピュータシステム100は、アイコン404のうちの1つまたは複数のアイコンの選択を受け取る。ブロック612において、コンピュータシステム100は、1つまたは複数の選択されたアイコン404によって表される1つまたは複数の特定のデータポイントに関連付けられた画像120を表示させる。ブロック614において、コンピュータシステム100は、表示された画像のうちの少なくとも1つの画像のためのユーザ分類ラベルを受け取る。ブロック616において、コンピュータシステム100は、ラベルなし画像120のための分類ラベルを予測し、予測分類ラベルに対するユーザ応答を受け取る。
ここで図7を参照して、トレーニングデータセット作成方法700の実施形態を示すフローチャートが示される。様々な実施形態において、方法700に関連付けられた様々な動作は、コンピュータシステム100を用いて実行される。ブロック702において、コンピュータシステム100は、画像を分類するために、ターゲット機械学習アルゴリズムをトレーニングするために、ラベル付けされたトレーニングデータセット130を準備するためのユーザインターフェース(たとえば、GUI500)をユーザデバイス上に表示させる。ユーザインターフェースは、複数の画像120から導出された画像データの次元削減データセットの2次元視覚表現400を含む第1の領域510を含む。2次元視覚表現400は、データセット内の複数のアイコン404と、クラスタ404の表示とを含む。ユーザインターフェースはまた、複数の画像120のうちの1つまたは複数の画像を含む第2の領域520を含む。ブロック704において、コンピュータシステム100は、第2の領域520に表示された画像120のうちの1つまたは複数の画像にユーザ分類ラベルを適用するユーザ入力を受け取る。
例示的なコンピュータシステム
ここで図8に移って示すように、コンピュータシステム100の様々な構成要素を実施し得る、例示的なコンピュータシステム800のブロック図が示される。コンピュータシステム800は、相互接続860(たとえば、システムバス)を介して、システムメモリ820およびI/Oインターフェース840に結合されたプロセッササブシステム880を含む。I/Oインターフェース840は、1つまたは複数のI/Oデバイス850に結合される。コンピュータシステム800は、サーバシステム、パーソナルコンピュータシステム、デスクトップコンピュータ、ラップトップまたはノートブックコンピュータ、メインフレームコンピュータシステム、タブレットコンピュータ、ハンドヘルドコンピュータ、ワークステーション、ネットワークコンピュータ、モバイル電話のような消費者向けデバイス、音楽プレーヤ、または情報携帯端末(PDA)を含むがこれらに限定されない、様々なタイプのデバイスのいずれかであり得る。便宜上、単一のコンピュータシステム800が図8に示されているが、システム800はまた、ともに動作する2つ以上のコンピュータシステムとして実施され得る。
プロセッササブシステム880は、1つまたは複数のプロセッサまたは処理ユニットを含み得る。コンピュータシステム800の様々な実施形態において、プロセッササブシステム880の複数のインスタンスは、相互接続860に結合され得る。様々な実施形態において、プロセッササブシステム880(または880内の各プロセッサユニット)は、キャッシュまたは他の形態のオンボードメモリを含み得る。
システムメモリ820は、プロセッササブシステム880によって実行可能なプログラム命令を格納して、システム800に対して、本明細書で説明される様々な動作を実行させるように使用可能である。システムメモリ820は、ハードディスクストレージ、フロッピーディスクストレージ、リムーバブルディスクストレージ、フラッシュメモリ、ランダムアクセスメモリ(RAM-SRAM、EDO RAM、SDRAM、DDR SDRAM、RAMBUS RAMなど)、読取専用メモリ(PROM、EEPROMなど)などのような異なる物理メモリ媒体を使用して実施され得る。コンピュータシステム800におけるメモリは、メモリ820などの一次ストレージに限定されない。むしろ、コンピュータシステム800はまた、プロセッササブシステム880におけるキャッシュメモリ、およびI/Oデバイス850上の二次ストレージ(たとえば、ハードドライブ、ストレージアレイなど)のような他の形態のストレージを含み得る。いくつかの実施形態において、これら他の形態のストレージはまた、プロセッササブシステム880によって実行可能なプログラム命令を格納し得る。
I/Oインターフェース840は、様々な実施形態にしたがって、他のデバイスに結合し、通信するように構成された様々なタイプのインターフェースのうちのいずれかであり得る。1つの実施形態において、I/Oインターフェース840は、フロントサイドから1つまたは複数のバックサイドへのバスへのブリッジチップ(たとえば、サウスブリッジ)である。I/Oインターフェース840は、1つまたは複数の対応するバスまたは他のインターフェースを介して、1つまたは複数のI/Oデバイス850に結合され得る。I/Oデバイス850の例は、ストレージデバイス(ハードドライブ、光学ドライブ、リムーバブルフラッシュドライブ、ストレージアレイ、SAN、またはそれらに関連するコントローラ)、(たとえば、ローカルまたはワイドエリアネットワークへの)ネットワークインターフェースデバイス、または他のデバイス(たとえば、グラフィック、ユーザインターフェースデバイスなど)を含む。1つの実施形態において、コンピュータシステム800は、(たとえば、WiFi、Bluetooth、イーサネットなどを介して通信するように構成された)ネットワークインターフェースデバイス850を介してネットワークに結合される。
特定の実施形態が上記されたが、これら実施形態は、特定の特徴に関して単一の実施形態のみが記載されている場合でさえ、本開示の範囲を限定するように意図されない。本開示で提供される特徴の例は、特に明記しない限り、限定的ではなく例示的であることが意図される。上記の説明は、本開示の利益を有する当業者に明らかであるような代替、修正、および同等物を網羅することが意図される。
本開示の範囲は、本明細書で扱われる問題のいずれかまたはすべてを軽減するか否かに関わらず、本明細書で(明示的または暗黙的に)開示される任意の特徴または特徴の組合せ、またはその一般化を含む。したがって、そのような特徴の任意の組合せに対する本出願(またはそれに対する優先権出願)の審査中に、新しい請求項が作成され得る。特に、添付の特許請求の範囲に関して、従属請求項からの特徴は、独立請求項の特徴と組み合わせることができ、それぞれの独立請求項からの特徴は、添付の特許請求の範囲に列挙された特定の組合せだけでなく、任意の適切な方式で組み合わされ得る。

Claims (40)

  1. (a)コンピュータシステムを用いて、複数の画像のおのおののための画像派生特徴のデータセットを受け取ることであって、前記画像派生特徴は、前記複数の画像を分析するために、第1の機械学習アルゴリズムを使用することによって決定される、受け取ることと、
    (b)前記コンピュータシステムを用いて、次元削減アルゴリズムを使用して、画像派生特徴の前記データセットから、次元削減データセットを生成することと、
    (c)前記コンピュータシステムを用いて、クラスタリングアルゴリズムを使用して、前記次元削減データセット内のデータポイントの複数のクラスタを識別することと、
    (d)前記コンピュータシステムを用いて、クラスタによってグループ化されたアイコンとして、前記データポイントの視覚表現を生成することであって、各アイコンは、1つまたは複数の特定のデータポイントを表し、前記1つまたは複数の特定のデータポイントに関連付けられた前記1つまたは複数の画像を表示させるように選択可能である、生成することと、
    (e)前記コンピュータシステムにおいて、前記アイコンのうちの1つまたは複数のアイコンの選択を受け取ることと、
    (f)前記選択に応じて、前記コンピュータシステムを用いて、前記1つまたは複数の選択されたアイコンによって表される前記1つまたは複数の特定のデータポイントに関連付けられた前記画像を表示させることと、
    (g)前記コンピュータシステムにおいて、前記表示された画像のうちの少なくとも1つの画像のためのユーザ分類ラベルを受け取ることとを備える、方法。
  2. (h)前記コンピュータシステムを用いて、前記次元削減アルゴリズムおよび第2の機械学習アルゴリズムを用いて、前記ユーザ分類ラベルを使用して、前記複数の画像におけるラベルなし画像のための画像派生特徴の前記データセットから、第2の次元削減データセットを生成することと、
    (i)前記コンピュータシステムを用いて、前記クラスタリングアルゴリズムを使用して、前記ラベルなし画像のうちの1つの画像のための予測分類ラベルを識別することと、
    (j)前記コンピュータシステムにおいて、1つまたは複数の特定のラベルなし画像のための前記予測分類ラベルに対するユーザ応答を受け取ることとをさらに備える、請求項1に記載の方法。
  3. 前記ユーザ応答は、前記1つまたは複数の特定のラベルなし画像のためのユーザ分類ラベルとしての、前記予測分類ラベルの受諾である、請求項2に記載の方法。
  4. 前記ユーザ応答は、前記1つまたは複数の特定のラベルなし画像のための前記予測分類ラベルの拒否である、請求項2に記載の方法。
  5. 前記ユーザ応答は、前記1つまたは複数の特定のラベルなし画像を分類から除外するコマンドである、請求項2に記載の方法。
  6. 前記複数の画像のすべてが、ユーザ分類ラベルでラベル付けされるか、または分類から除外されるまで、ステップ(h)~(j)を繰り返すことをさらに備える、請求項2から請求項5のいずれか一項に記載の方法。
  7. (k)前記コンピュータシステムを用いて、予測分類ラベルによってグループ化された第2のアイコンとして、前記第2の次元削減データセット内の前記データポイントの視覚表現を生成することであって、各第2のアイコンは、前記第2の次元削減データセット内の1つまたは複数の特定のデータポイントを表し、前記第2の次元削減データセット内の前記1つまたは複数の特定のデータポイントに関連付けられた前記1つまたは複数の画像を表示させるように選択可能である、生成することと、
    (l)前記コンピュータシステムにおいて、前記第2のアイコンのうちの1つまたは複数のアイコンの選択を受け取ることと、
    (m)前記選択に応じて、前記コンピュータシステムを用いて、前記1つまたは複数の選択された第2のアイコンによって表される前記1つまたは複数の特定のデータポイントに関連付けられた画像を表示させることであって、
    前記予測分類ラベルに対する第2のユーザ応答は、前記1つまたは複数の選択された第2のアイコンによって表される前記1つまたは複数の特定のデータポイントに関連付けられた前記画像の表示に応答して受け取られる、表示させることとを備える、請求項2から請求項5のいずれか一項に記載の方法。
  8. 前記第2の機械学習アルゴリズムは、反復最適化アルゴリズムである、請求項2から請求項7のいずれか一項に記載の方法。
  9. 前記複数の画像は、細胞の画像を含む、請求項1から請求項8のいずれか一項に記載の方法。
  10. 前記細胞の前記画像は、複数の細胞のマルチスペクトル画像、複数の前記細胞のマルチモーダル画像、またはその両方を含む、請求項9に記載の方法。
  11. 前記複数の画像は、より大きな画像のプールからランダムに選択される、請求項1から請求項10のいずれか一項に記載の方法。
  12. 前記第1の機械学習アルゴリズムは、畳み込みニューラルネットワークである、請求項1から請求項11のいずれか一項に記載の方法。
  13. 前記次元削減データセットは、3次元以下を有する、請求項1から請求項12のいずれか一項に記載の方法。
  14. 前記複数のクラスタは、X×Y個のクラスタに等しく、Xは、ユーザが前記画像を分類したいグループの数であり、Yは、1以上である、請求項1から請求項13のいずれか一項に記載の方法。
  15. ステップ(d)のクラスタによってグループ化されたアイコンとしての前記データポイントの視覚表現は、クラスタによってグループ化された前記アイコンの2次元レンダリングを含み、同じクラスタにおけるアイコンは、同じ色で陰影付けられ、ともに近くに配置された、請求項1から請求項14のいずれか一項に記載の方法。
  16. ステップ(k)の予測分類ラベルによってグループ化された第2のアイコンとしての、前記第2の次元削減データセット内の前記データポイントの前記視覚表現は、予測分類ラベルによってグループ化された前記第2のアイコンの2次元レンダリングを含み、同じ予測分類ラベルにおける第2のアイコンは、同じ色で陰影付けられ、ともに近くに配置された、請求項7から請求項15のいずれか一項に記載の方法。
  17. (n)前記コンピュータシステムを用いて、
    クラスタによってグループ化されたアイコンとしての前記データポイントの前記視覚表現と、
    前記1つまたは複数の選択されたアイコンによって表される前記1つまたは複数の特定のデータポイントに関連付けられた1つまたは複数の画像の画像ギャラリと、
    各クラスタの表示を含む第1のリストと、
    各ユーザ分類ラベルの表示を含む第2のリストとを含む、ユーザインターフェースを表示させることをさらに備える、請求項1から請求項16のいずれか一項に記載の方法。
  18. 前記表示された画像のうちの少なくとも1つの画像のためのユーザ分類ラベルを受け取ることは、
    前記ユーザインターフェースにおいてメニューを表示させることであって、前記メニューは、各ユーザ分類レベルの表示を含む、表示させることと、
    前記ユーザ分類ラベルに対応する前記表示のユーザ選択を受け取ることによって、前記ユーザ分類ラベルを受け取ることとを含む、請求項17に記載の方法。
  19. (o)前記コンピュータシステムを用いて、
    予測分類ラベルによってグループ化された第2のアイコンとしての第2の次元削減データセット内の前記データポイントの前記視覚表現と、
    1つまたは複数の選択された第2のアイコンによって表される前記1つまたは複数の特定のデータポイントに関連付けられた1つまたは複数の画像の画像ギャラリと、
    各予測分類ラベルの表示を含む第3のリストと、
    各ユーザ分類ラベルの表示を含む前記第2のリストとを含むように、前記ユーザインターフェースを更新させることをさらに備えた、請求項7から請求項18のいずれか一項に記載の方法。
  20. ラベル付けされた画像およびそれらそれぞれのユーザ分類ラベルを含む画像を分類するために、第3の機械学習アルゴリズムをトレーニングするための、ラベル付けされたトレーニングデータセットを準備することをさらに備える、請求項1から請求項19のいずれか一項に記載の方法。
  21. コンピュータシステムによって、画像を分類するために、ターゲット機械学習アルゴリズムをトレーニングするために、ラベル付けされたトレーニングデータセットを準備するためのユーザインターフェースをユーザデバイス上に表示させることであって、前記ユーザインターフェースは、
    複数の画像から導出された画像データの次元削減データセットの2次元視覚表現を含む第1の領域であって、前記2次元視覚表現は、前記データセット内の複数のアイコンと、クラスタの表示とを含む、第1の領域と、
    前記複数の画像のうちの1つまたは複数の画像を含む第2の領域とを含む、表示させることと、
    前記コンピュータシステムにおいて、前記ユーザインターフェースを介して、前記第2の領域に表示される前記画像のうちの1つまたは複数の画像に、ユーザ分類ラベルを適用するユーザ入力を受け取ることとを備える、方法。
  22. 各アイコンは、前記複数の画像のうちの1つまたは複数の画像を表し、前記表された画像を、前記第2の領域に表示させるように選択可能であり、
    前記第2の領域に含まれる前記複数の画像のうちの前記1つまたは複数の画像は、1つまたは複数のアイコンのユーザ選択に応答して含まれる、請求項21に記載の方法。
  23. 前記ユーザインターフェースは、前記データセット内の前記クラスタのリストを含む第3の領域を含み、
    前記第2の領域に含まれる前記複数の画像のうちの前記1つまたは複数の画像は、前記リスト上の前記クラスタのうちの1つのクラスタであるユーザ選択に応じて含まれる、請求項21に記載の方法。
  24. ユーザ分類ラベルを適用するユーザ入力を受け取った後、前記コンピュータシステムを用いて、ラベル付き画像の前記ユーザ分類ラベルを使用して、複数のラベルなし画像のための予測分類ラベルを準備することと、
    前記コンピュータシステムを用いて、ラベルなし画像のクラスタの2次元視覚表現において前記予測分類ラベルを示すように、前記ユーザインターフェースを更新させることであって、各ラベルなし画像は、それぞれの第2のアイコンによって表され、第2のアイコンの各クラスタは、予測分類ラベルに対応する、更新させることとをさらに備える、請求項21から請求項23のいずれか一項に記載の方法。
  25. 予測分類ラベルを準備し、前記ユーザインターフェースを更新させることは、受け取られたユーザ分類ラベルを適用するユーザ入力に応じて、自動的に実行される、請求項24に記載の方法。
  26. 予測分類ラベルについて、同じ所与のクラスタにおける各第2のアイコンは、共有色で陰影付けられ、ともに近くに配置される、請求項24または請求項25に記載の方法。
  27. 前記ユーザインターフェースは、前記予測分類ラベルのおのおののリストを含む第4の領域を含むように更新される、請求項24から請求項26のいずれか一項に記載の方法。
  28. 各第2のアイコンは、前記1つまたは複数の表されたラベルなし画像を、前記第2の領域に表示させるように選択可能である、請求項24から請求項27のいずれか一項に記載の方法。
  29. 前記第4の領域における予測分類ラベルの前記リストの各エントリは、その予測分類ラベルを有する、より多くのラベルなし画像を、前記第2の領域に表示させるように選択可能である、請求項27または請求項28に記載の方法。
  30. 前記コンピュータシステムを用いて、前記複数のラベルなし画像のうちの1つまたは複数の画像を、前記第2の領域に表示させることと、
    前記コンピュータシステムにおいて、前記更新されたユーザインターフェースを介して、前記第2の領域に表示された前記ラベルなし画像のうちの1つまたは複数の画像に、ユーザ分類ラベルを適用するユーザ入力を受け取ることとをさらに備える、請求項24から請求項29のいずれか一項に記載の方法。
  31. 前記更新されたユーザインターフェースを介して受け取られた前記ユーザ入力は、
    前記予測分類ラベルを、前記1つまたは複数の表示されたラベルなし画像のためのユーザ分類ラベルとして受け入れるユーザ入力を含む、請求項30に記載の方法。
  32. 前記更新されたユーザインターフェースを介して受け取られた前記ユーザ入力は、
    前記1つまたは複数の表示されたラベルなし画像のためのユーザ分類ラベルとして、前記予測分類ラベルを拒否するユーザ入力を含む、請求項30に記載の方法。
  33. 前記更新されたユーザインターフェースを介して受け取られた前記ユーザ入力は、
    1つまたは複数の表示されたラベルなし画像を分類から除外するユーザ入力を含む、請求項30に記載の方法。
  34. 画像ビューアの一部に表示される前記画像のうちの1つまたは複数の画像に、ユーザ分類ラベルを適用するユーザ入力を受け取ることは、
    メニューを、前記ユーザインターフェースに表示させることであって、前記メニューは、各ユーザ分類ラベルの表示を含む、表示させることと、
    前記ユーザ分類ラベルに対応する前記表示のユーザ選択を受け取ることによって、前記ユーザ分類ラベルを受け取ることとを含む、請求項21から請求項33のいずれか一項に記載の方法。
  35. 前記画像データは、第1の機械学習アルゴリズムによって前記複数の画像から導出され、
    前記第1の機械学習アルゴリズムによって導出された前記画像データは、次元削減アルゴリズムによって次元削減されて、画像データの前記次元削減データセットを生成し、
    前記画像データの前記次元削減データセットは、クラスタリングアルゴリズムによってクラスタリングされた、請求項21から請求項34のいずれか一項に記載の方法。
  36. 前記ユーザインターフェースは、各クラスタにおけるそれぞれの画像の数の表示を含む、前記データセット内の前記クラスタのリストを含む第3の領域を含む、請求項21から請求項35のいずれか一項に記載の方法。
  37. 前記ユーザインターフェースは、各ユーザ分類ラベルでラベル付けされたそれぞれの画像の数の表示を含む、前記ユーザ分類ラベルのリストを含む第5の領域を含む、請求項21から請求項36のいずれか一項に記載の方法。
  38. 前記複数の画像は、細胞の画像を含む、請求項21から請求項37のいずれか一項に記載の方法。
  39. 前記細胞の前記画像は、複数の細胞のマルチスペクトル画像、複数の前記細胞のマルチモーダル画像、またはその両方を含む、請求項38に記載の方法。
  40. 前記ラベル付けされた画像およびそれらのそれぞれのユーザ分類ラベルを含む画像を分類するために、前記機械学習アルゴリズムをトレーニングするための前記ラベル付けされたトレーニングデータセットを準備することをさらに備える、請求項21から請求項39のいずれか一項に記載の方法。
JP2022517201A 2019-09-18 2020-09-09 機械学習アルゴリズムを使用したトレーニングデータセットの準備 Active JP7378597B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962902344P 2019-09-18 2019-09-18
US62/902,344 2019-09-18
PCT/US2020/049804 WO2021055189A1 (en) 2019-09-18 2020-09-09 Using machine learning algorithms to prepare training datasets

Publications (2)

Publication Number Publication Date
JP2022548160A true JP2022548160A (ja) 2022-11-16
JP7378597B2 JP7378597B2 (ja) 2023-11-13

Family

ID=74868059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022517201A Active JP7378597B2 (ja) 2019-09-18 2020-09-09 機械学習アルゴリズムを使用したトレーニングデータセットの準備

Country Status (8)

Country Link
US (1) US11861514B2 (ja)
EP (1) EP4032020A4 (ja)
JP (1) JP7378597B2 (ja)
KR (1) KR20220058637A (ja)
CN (1) CN114424251A (ja)
AU (1) AU2020348209B2 (ja)
CA (1) CA3150868A1 (ja)
WO (1) WO2021055189A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3150868A1 (en) 2019-09-18 2021-03-25 Bryan Richard Davidson Using machine learning algorithms to prepare training datasets
US20220180244A1 (en) * 2020-12-08 2022-06-09 Vmware, Inc. Inter-Feature Influence in Unlabeled Datasets
US11928159B2 (en) * 2021-03-16 2024-03-12 Google Llc Systems and methods for clustering with list-decodable covers
US11714802B2 (en) * 2021-04-02 2023-08-01 Palo Alto Research Center Incorporated Using multiple trained models to reduce data labeling efforts
CN113378998B (zh) * 2021-07-12 2022-07-22 西南石油大学 一种基于机器学习的地层岩性随钻识别方法
US20230041867A1 (en) * 2021-07-28 2023-02-09 11089161 Canada Inc. (Dba: Looksgoodai) Method and system for automatic formatting of presentation slides

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137284A (ja) * 2013-01-17 2014-07-28 Dainippon Screen Mfg Co Ltd 教師データ作成支援装置、教師データ作成装置、画像分類装置、教師データ作成支援方法、教師データ作成方法および画像分類方法
JP2018142097A (ja) * 2017-02-27 2018-09-13 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8406498B2 (en) * 1999-01-25 2013-03-26 Amnis Corporation Blood and cell analysis using an imaging flow cytometer
US7561738B2 (en) 2004-09-22 2009-07-14 Microsoft Corporation Symbol grouping and recognition in expression recognition
US8234228B2 (en) * 2008-02-07 2012-07-31 Nec Laboratories America, Inc. Method for training a learning machine having a deep multi-layered network with labeled and unlabeled training data
US8352465B1 (en) 2009-09-03 2013-01-08 Google Inc. Grouping of image search results
US20170330029A1 (en) * 2010-06-07 2017-11-16 Affectiva, Inc. Computer based convolutional processing for image analysis
US9031331B2 (en) 2012-07-30 2015-05-12 Xerox Corporation Metric learning for nearest class mean classifiers
WO2014205231A1 (en) 2013-06-19 2014-12-24 The Regents Of The University Of Michigan Deep learning framework for generic object detection
US9704054B1 (en) * 2015-09-30 2017-07-11 Amazon Technologies, Inc. Cluster-trained machine learning for image processing
GB201517462D0 (en) * 2015-10-02 2015-11-18 Tractable Ltd Semi-automatic labelling of datasets
US20180144270A1 (en) 2016-11-23 2018-05-24 Primal Fusion Inc. System and method for modifying a knowledge representation based on a machine learning classifier
US9990687B1 (en) 2017-01-19 2018-06-05 Deep Learning Analytics, LLC Systems and methods for fast and repeatable embedding of high-dimensional data objects using deep learning with power efficient GPU and FPGA-based processing platforms
US10467760B2 (en) * 2017-02-23 2019-11-05 Adobe Inc. Segmenting three-dimensional shapes into labeled component shapes
US20180247227A1 (en) 2017-02-24 2018-08-30 Xtract Technologies Inc. Machine learning systems and methods for data augmentation
KR20200040752A (ko) 2017-07-05 2020-04-20 팜 벤처스 그룹, 인코포레이티드 모바일 컴퓨팅 디바이스에서 컨텍스트 액션들을 서피싱하기 위한 개선된 사용자 인터페이스
US10489722B2 (en) * 2017-07-27 2019-11-26 Disney Enterprises, Inc. Semiautomatic machine learning model improvement and benchmarking
US11615879B2 (en) * 2017-09-08 2023-03-28 The General Hospital Corporation System and method for automated labeling and annotating unstructured medical datasets
US10477641B2 (en) * 2017-09-24 2019-11-12 Massachusetts Institute Of Technology Methods and apparatus for image analysis for lighting control
US10380260B2 (en) 2017-12-14 2019-08-13 Qualtrics, Llc Capturing rich response relationships with small-data neural networks
US10169680B1 (en) * 2017-12-21 2019-01-01 Luminar Technologies, Inc. Object identification and labeling tool for training autonomous vehicle controllers
US11238070B1 (en) * 2018-07-17 2022-02-01 A9.Com, Inc. Dense cluster filtering
US10997748B2 (en) * 2019-04-19 2021-05-04 The Boeing Company Machine learning model development with unsupervised image selection
CA3150868A1 (en) 2019-09-18 2021-03-25 Bryan Richard Davidson Using machine learning algorithms to prepare training datasets

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137284A (ja) * 2013-01-17 2014-07-28 Dainippon Screen Mfg Co Ltd 教師データ作成支援装置、教師データ作成装置、画像分類装置、教師データ作成支援方法、教師データ作成方法および画像分類方法
JP2018142097A (ja) * 2017-02-27 2018-09-13 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
WO2021055189A1 (en) 2021-03-25
EP4032020A4 (en) 2023-01-18
US20210081822A1 (en) 2021-03-18
EP4032020A1 (en) 2022-07-27
CA3150868A1 (en) 2021-03-25
KR20220058637A (ko) 2022-05-09
US11861514B2 (en) 2024-01-02
CN114424251A (zh) 2022-04-29
JP7378597B2 (ja) 2023-11-13
AU2020348209A1 (en) 2022-03-17
AU2020348209B2 (en) 2023-04-20

Similar Documents

Publication Publication Date Title
JP7378597B2 (ja) 機械学習アルゴリズムを使用したトレーニングデータセットの準備
Greenwald et al. Whole-cell segmentation of tissue images with human-level performance using large-scale data annotation and deep learning
US11176415B2 (en) Assisted image annotation
Jeckel et al. Advances and opportunities in image analysis of bacterial cells and communities
CN109791693B (zh) 用于提供可视化全切片图像分析的数字病理学系统及相关工作流程
US9036888B2 (en) Systems and methods for performing quality review scoring of biomarkers and image analysis methods for biological tissue
US20140314300A1 (en) System and method for reviewing and analyzing cytological specimens
US20150032671A9 (en) Systems and methods for selecting and analyzing particles in a biological tissue
US8737709B2 (en) Systems and methods for performing correlation analysis on clinical outcome and characteristics of biological tissue
AU2013255961B2 (en) Systems and methods for performing quality review scoring of biomarkers and image analysis methods for biological tissue
JP7477517B2 (ja) 画像分析システムおよび画像分析システムを使用する方法
US11681505B2 (en) Systems and methods for facilitating generation and deployment of machine learning software applications
RU2689818C1 (ru) Способ интерпретации искусственных нейронных сетей
Hubbard et al. Accelerated EM connectome reconstruction using 3D visualization and segmentation graphs
US20130230219A1 (en) Systems and methods for efficient comparative non-spatial image data analysis
US20230145376A1 (en) Data processing system
US20220309670A1 (en) Method and system for visualizing information on gigapixels whole slide image
Pretorius et al. Visual Parameter Optimization for Biomedical Image Analysis: A Case Study.
US11507252B2 (en) Methods and systems for monitoring objects for labelling
US20230230352A1 (en) Methods and systems for contextual smart computer vision with action(s)
US20240086460A1 (en) Whole slide image search
US20240004540A1 (en) Methods, apparatuses, and computer-readable media for enhancing digital pathology platform
US20230085927A1 (en) Visualization system and method for interpretation and diagnosis of deep neural networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231031

R150 Certificate of patent or registration of utility model

Ref document number: 7378597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150