JP7443401B2 - 生物学関連のデータを処理するための機械学習アルゴリズムをトレーニングするためのシステムおよび方法、顕微鏡ならびにトレーニングされた機械学習アルゴリズム - Google Patents

生物学関連のデータを処理するための機械学習アルゴリズムをトレーニングするためのシステムおよび方法、顕微鏡ならびにトレーニングされた機械学習アルゴリズム Download PDF

Info

Publication number
JP7443401B2
JP7443401B2 JP2021572433A JP2021572433A JP7443401B2 JP 7443401 B2 JP7443401 B2 JP 7443401B2 JP 2021572433 A JP2021572433 A JP 2021572433A JP 2021572433 A JP2021572433 A JP 2021572433A JP 7443401 B2 JP7443401 B2 JP 7443401B2
Authority
JP
Japan
Prior art keywords
training data
language
biological
machine learning
dimensional representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021572433A
Other languages
English (en)
Other versions
JP2022542639A (ja
Inventor
カッペル コンスタンティン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leica Microsystems CMS GmbH
Original Assignee
Leica Microsystems CMS GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Microsystems CMS GmbH filed Critical Leica Microsystems CMS GmbH
Publication of JP2022542639A publication Critical patent/JP2022542639A/ja
Application granted granted Critical
Publication of JP7443401B2 publication Critical patent/JP7443401B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B40/00ICT specially adapted for biostatistics; ICT specially adapted for bioinformatics-related machine learning or data mining, e.g. knowledge discovery or pattern finding
    • G16B40/20Supervised data analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B30/00ICT specially adapted for sequence analysis involving nucleotides or amino acids
    • G16B30/20Sequence assembly
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B40/00ICT specially adapted for biostatistics; ICT specially adapted for bioinformatics-related machine learning or data mining, e.g. knowledge discovery or pattern finding
    • G16B40/30Unsupervised data analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Biotechnology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Bioethics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Proteomics, Peptides & Aminoacids (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

各例は、生物学関連のデータの処理に関する。
多くの生物学的用途において、膨大な量のデータが生成される。例えば、画像は、莫大な量の生物学的構造から取得され、データベースに格納される。生物学的データを手動で分析するのは、非常に時間および費用がかかる。
したがって、生物学関連のデータを処理するための改善されたコンセプトが必要とされている。
この要求は、請求項の主題によって満たすことができる。
いくつかの実施形態は、1つまたは複数のプロセッサと、1つまたは複数のストレージデバイスと、を含むシステムに関する。当該システムは、生物学関連の言語ベースの入力トレーニングデータを受信し、1つまたは複数のプロセッサによって実行される言語認識機械学習アルゴリズムによって、生物学関連の言語ベースの入力トレーニングデータの第1の高次元表現を生成するように構成されている。第1の高次元表現は、それぞれ異なる値を有する少なくとも3つのエントリを含む。さらに、当該システムは、1つまたは複数のプロセッサによって実行される言語認識機械学習アルゴリズムによって、第1の高次元表現に基づいて、生物学関連の言語ベースの出力トレーニングデータを生成し、生物学関連の言語ベースの入力トレーニングデータと、生物学関連の言語ベースの出力トレーニングデータと、の比較に基づいて、言語認識機械学習アルゴリズムを調整するように構成されている。さらに、当該システムは、生物学関連の言語ベースの入力トレーニングデータに関連付けられた生物学関連の画像ベースの入力トレーニングデータを受信し、1つまたは複数のプロセッサによって実行される視覚認識機械学習アルゴリズムによって、生物学関連の画像ベースの入力トレーニングデータの第2の高次元表現を生成するように構成されている。第2の高次元表現は、それぞれ異なる値を有する少なくとも3つのエントリを含む。さらに、当該システムは、第1の高次元表現と第2の高次元表現との比較に基づいて、視覚認識機械学習アルゴリズムを調整するように構成されている。
言語認識機械学習アルゴリズムを使用することによって、生物学的テキスト入力を高次元表現にマッピングすることができる。高次元表現が(ワンホットエンコーディングされた表現とは対照的に)種々の異なる値を有するエントリを有することを可能にすることによって、意味論的に類似した生物学的入力を、類似した高次元表現にマッピングすることができる。画像を、言語認識機械学習アルゴリズムによってトレーニングされた高次元表現にマッピングするために、視覚認識機械学習アルゴリズムをトレーニングすることにより、類似した生物学的コンテンツを有する画像を、類似した高次元表現にマッピングすることもできる。その結果、相応にトレーニングされた視覚認識機械学習アルゴリズムによる画像の分類が、意味論的に正確である尤度または少なくとも意味論的に近似する尤度を、大幅に改善することができる。さらに、相応にトレーニングされた視覚認識機械学習アルゴリズムが、トレーニングされていない画像を、類似した意味の高次元表現に近い高次元表現に、または意味論的に一致する高次元表現により正確にマッピングすることが可能となり得る。トレーニングされた言語認識機械学習アルゴリズムおよび/またはトレーニングされた視覚認識機械学習アルゴリズムは、生物学関連の言語ベースおよび/または画像ベースの入力データの、意味論的に正確な分類または非常に精確な分類を提供することが可能であり得る提案されているコンセプトによって取得可能である。トレーニングされた言語認識機械学習アルゴリズムおよび/またはトレーニングされた視覚認識機械学習アルゴリズムは、言語ベースの検索入力または画像ベースの検索入力に基づいて、複数の生物学的画像の中から生物学関連の画像を検索すること、生物学関連の画像をタグ付けすること、典型的な画像を検出または生成することおよび/または同様の用途を可能にすることができる。
図面の簡単な説明
以下では、装置および/または方法のいくつかの例を、単なる例として、添付の図面を参照しながら説明する。
生物学関連のデータを処理するための機械学習アルゴリズムをトレーニングするためのシステムの概略図である。 言語認識機械学習アルゴリズムのトレーニングの概略図である。 視覚認識機械学習アルゴリズムのトレーニングの概略図である。 視覚認識ニューラルネットワークのうちの、ResNetアーキテクチャに基づいた部分の計算グラフである。 視覚認識ニューラルネットワークのうちの、変更されたCBAMブロックを有するResNetアーキテクチャに基づいた部分の計算グラフである。 視覚認識ニューラルネットワークのうちの、DenseNetアーキテクチャに基づいた部分の計算グラフである。 視覚認識ニューラルネットワークのうちの、注意機構を有するDenseNetアーキテクチャに基づいた部分の計算グラフである。 生物学関連のデータを処理するための機械学習アルゴリズムをトレーニングするためのシステムの概略図である。 生物学関連のデータを処理するための機械学習アルゴリズムをトレーニングするための方法のフローチャートである。
次に、いくつかの例が示されている添付の図面を参照しながら、種々の例をより完全に説明する。図面において、線、層および/または領域の厚さは、見やすくするために誇張されている場合がある。
したがって、さらなる例によって種々の修正形態および代替形態を実現することが可能であるが、そのうちのいくつかの特定の例が図面に示されており、続いて詳細に説明される。しかしながら、この詳細な説明は、さらなる例を、説明されている特定の形態に限定するものではない。さらなる例は、本開示の範囲内に含まれる全ての修正形態、均等形態および代替形態を網羅することができる。同一または同様の参照符号は、図面の説明全体にわたり同様または類似の要素を指しており、それらの要素を、互いに比較したとき、同一または類似の機能を提供しながら、同一または変更された形態で実現することができる。
ある要素が別の要素と「接続されている」または「結合されている」と記載されている場合、これらの要素は、直接的に接続または結合されていてもよいし、または1つまたは複数の介在要素を介して接続または結合されていてもよいと理解される。2つの要素AおよびBが「または」を使用して組み合わされている場合、このことは、明示的または暗示的に別様に定義されていない限り、全ての可能な組み合わせ、すなわちAのみ、BのみならびにAおよびBが開示されているものと理解されたい。同じ組み合わせについての代替的な表現は、「AおよびBのうちの少なくとも1つ」または「Aおよび/またはB」である。同じことは、必要な変更を加えて、3つ以上の要素の組み合わせにも当てはまる。
特定の例を説明する目的で本明細書において用いられる用語は、さらなる例を限定することを意図するものではない。“a”,“an”および“the”のような単数形が用いられ、単一の要素のみを用いることが必須であると明示的または暗示的に定義されていないときはいつでも、さらなる例が、複数の要素を用いて同じ機能を実現してもよい。同様に、ある機能が複数の要素を用いて実装されるものとして後で説明されている場合、さらなる例が、単一の要素または処理エンティティを用いて同じ機能を実現してもよい。さらに、“comprises(含む)”、“comprising(含んでいる)”、“includes(含む)”および/または“including(含んでいる)”という用語は、使用される場合、記載された特徴、整数、ステップ、操作、プロセス、動作、要素および/または構成要素の存在を指定するが、1つまたは複数の他の特徴、整数、ステップ、操作、プロセス、動作、要素、構成要素および/またはそれらの任意のグループの存在または追加を排除しないと理解される。
別様に定義されていない限り、全ての用語(技術用語および科学用語を含む)は、本明細書において、各例が属する分野の通常の意味で使用されている。
図1は、1つの実施形態による、生物学関連のデータを処理するための機械学習アルゴリズムをトレーニングするためのシステム100の概略図を示す。システム100は、1つまたは複数のプロセッサ110と、1つまたは複数のストレージデバイス120と、を含む。システム100は、生物学関連の言語ベースの入力トレーニングデータ102を受信するように構成されている。さらに、システム100は、1つまたは複数のプロセッサ110によって実行される言語認識機械学習アルゴリズムによって、生物学関連の言語ベースの入力トレーニングデータ102の第1の高次元表現を生成するように構成されている。第1の高次元表現は、それぞれ異なる値を有する少なくとも3つのエントリ(または互いに異なる値を有する少なくとも20個のエントリ、少なくとも50個のエントリ、または少なくとも100個のエントリ)を含む。さらに、システム100は、1つまたは複数のプロセッサ110によって実行される言語認識機械学習アルゴリズムによって、第1の高次元表現に基づいて、生物学関連の言語ベースの出力トレーニングデータを生成するように構成されている。さらに、システム100は、生物学関連の言語ベースの入力トレーニングデータ102と、生物学関連の言語ベースの出力トレーニングデータと、の比較に基づいて、言語認識機械学習アルゴリズムを調整するように構成されている。さらに、システム100は、生物学関連の言語ベースの入力トレーニングデータ102に関連付けられた生物学関連の画像ベースの入力トレーニングデータ104を受信するように構成されている。さらに、システム100は、1つまたは複数のプロセッサ110によって実行される視覚認識機械学習アルゴリズムによって、生物学関連の画像ベースの入力トレーニングデータ104の第2の高次元表現を生成するように構成されている。第2の高次元表現は、それぞれ異なる値を有する少なくとも3つのエントリ(または互いに異なる値を有する少なくとも20個のエントリ、少なくとも50個のエントリ、または少なくとも100個のエントリ)を含む。さらに、システム100は、第1の高次元表現と第2の高次元表現との比較に基づいて、視覚認識機械学習アルゴリズムを調整するように構成されている。
生物学関連の言語ベースの入力トレーニングデータ102は、生物学的構造、生物学的機能、生物学的挙動、または生物学的活動に関連するテキスト入力であってもよい。例えば、生物学関連の言語ベースの入力トレーニングデータ102は、ヌクレオチド配列、タンパク質配列、生物学的分子もしくは生物学的構造の記述、生物学的分子もしくは生物学的構造の挙動の記述および/または生物学的機能もしくは生物学的活動の記述であってもよい。テキスト入力は、実験またはデータセットの文脈での、生物学的分子(例えば、多糖類、ポリ/オリゴヌクレオチド、タンパク質、または脂質)またはその挙動を記述する自然言語であってもよい。また、ヌクレオチド配列、タンパク質配列、または制御されたクエリ言語でのようなテキストであってもよい。例えば、生物学関連の言語ベースの入力トレーニングデータ102は、ヌクレオチド配列またはタンパク質配列であってもよい。なぜなら、多種多様な種々の配列が既知であり、データベースにおいて利用可能であり、かつ/またはこれらの配列に関して生物学的機能および/または生物学的活動が既知であるからである。生物学関連の言語ベースの入力トレーニングデータ102は、20文字を超える(または40文字を超える、60文字を超える、もしくは80文字を超える)長さを含むことができる。例えば、ヌクレオチド配列(DNA/RNA)は、アミノ酸に関して3つの塩基対が指定されているので、ポリペプチド配列(例えば、ペプチド、タンパク質)よりも約3倍長いことが多い。例えば、生物学関連の言語ベースの入力トレーニングデータ102は、生物学関連の言語ベースの入力トレーニングデータがタンパク質配列またはアミノ酸である場合には、20文字を超える長さを含むことができる。生物学関連の言語ベースの入力トレーニングデータ102は、生物学関連の言語ベースの入力トレーニングデータがヌクレオチド配列または自然言語での記述テキストである場合には、60文字を超える長さを含むことができる。例えば、生物学関連の言語ベースの入力トレーニングデータ102は、少なくとも1つの非数値文字(例えば、アルファベット文字)を含むことができる。生物学関連の言語ベースの入力トレーニングデータ102は、トークンまたは入力トークンとも称され得る。生物学関連の言語ベースの入力トレーニングデータ102は、1つまたは複数のストレージデバイス120から、もしくはストレージデバイスによって格納されたデータベースから受信可能であるか、またはユーザによって入力可能である。生物学関連の言語ベースの入力トレーニングデータは、トレーニンググループのうちの第1の生物学関連の言語ベースの入力トレーニングデータセット(例えば、入力文字のシーケンス、例えば、ヌクレオチド配列またはタンパク質配列)であってもよい。トレーニンググループは、複数の生物学関連の言語ベースの入力トレーニングデータセットを含むことができる。
生物学関連の言語ベースの出力トレーニングデータは、オプションとして次の要素の予測を含む、生物学関連の言語ベースの入力トレーニングデータ102と同じ種類のものであってもよい。例えば、生物学関連の言語ベースの入力トレーニングデータ102は、生物学的配列(例えば、ヌクレオチド配列またはタンパク質配列)であってもよく、生物学関連の言語ベースの出力トレーニングデータも、生物学的配列(例えば、ヌクレオチド配列またはタンパク質配列)であってもよい。言語認識機械学習アルゴリズムは、生物学関連の言語ベースの出力トレーニングデータが、オプションとして生物学的配列の次の要素の予測を含む、生物学関連の言語ベースの入力トレーニングデータ102と等しくなるようにトレーニング可能である。別の例では、生物学関連の言語ベースの入力トレーニングデータ102は、粗視化された検索用語の生物学的クラスであってもよく、生物学関連の言語ベースの出力トレーニングデータも、粗視化された検索用語の生物学的クラスであってもよい。
択一的に、生物学関連の言語ベースの出力トレーニングデータは、生物学関連の言語ベースの入力トレーニングデータ102とは異なる種類のものである。例えば、生物学関連の言語ベースの入力トレーニングデータ102は、生物学的配列(例えば、ヌクレオチド配列またはタンパク質配列)であり、生物学関連の言語ベースの出力トレーニングデータは、粗視化された検索用語の生物学的クラスである。この例では、入力トレーニングデータ102として使用されるそれぞれの生物学的配列は、生物学的用語のグループのうちの1つの粗視化された検索用語に属することができ、言語認識機械学習アルゴリズムは、入力トレーニングデータとして使用されるそれぞれの生物学的配列を、生物学的用語のグループのうちの対応する粗視化された検索用語に分類するようにトレーニング可能である。
生物学的用語のグループは、同じ生物学的トピックに属する複数の粗視化された検索用語(またはいわゆる分子生物学的主題の見出し用語)を含むことができる。生物学的用語のグループは、触媒活性(例えば、抽出物および生成物を表す単語を使用する何らかの反応方程式として)、触媒経路(例えば、どの経路が関与しているか、例えば、糖分解)、触媒部位および/または触媒領域(例えば、結合部位、活性部位、ヌクレオチド結合部位)であってもよく、GO(遺伝子オントロジー)(例えば、分子機能、例えば、ニコチンアミドアデニンジヌクレオチドNAD結合、微小管結合)、GO生物学的機能(例えば、アポトーシス、グルコネオゲネシス)、酵素および/または経路データベース(例えば、BRENDA/EC番号またはUniPathwaysにおける、例えば、sic機能のための一意の識別子)であってもよく、細胞内局在(例えば、サイトゾル、核、細胞骨格)、ファミリーおよび/またはドメイン(例えば、翻訳後修飾のための、例えば、結合部位、モチーフ)であってもよく、オープンリーディングフレーム、一塩基多型、制限部位(例えば、制限酵素によって認識されるオリゴヌクレオチド)および/または生合成経路(例えば、脂質、多糖類、ヌクレオチド、またはタンパク質の生合成)であってもよい。例えば、生物学的用語のグループは、細胞内局在のグループであってもよく、粗視化された検索用語は、細胞質ゾル、核および細胞骨格であってもよい。
生物学関連の言語ベースの出力トレーニングデータは、言語認識機械学習アルゴリズムのデコーダによって生成可能である。例えば、第1の高次元表現を生成するために、現在のパラメータのセット(例えば、ニューラルネットワークの重み)を用いて言語認識機械学習アルゴリズムを適用することによって、生物学関連の言語ベースの出力トレーニングデータを生成することができる。言語認識機械学習アルゴリズムの現在のパラメータのセットは、言語認識機械学習アルゴリズムの調整中に更新可能である。
生物学関連の画像ベースの入力トレーニングデータ104は、ヌクレオチドもしくはヌクレオチド配列を含む生物学的構造、タンパク質もしくはタンパク質配列を含む生物学的構造、生物学的分子、生物学的組織、特定の挙動を有する生物学的構造および/または特定の生物学的機能もしくは特定の生物学的活動を有する生物学的構造の画像の画像トレーニングデータ(例えば、トレーニング画像のピクセルデータ)であってもよい。生物学的構造は、分子、ウイロイドもしくはウイルス、人工もしくは天然の膜で包囲された小胞、(細胞小器官のような)細胞内構造、細胞、スフェロイド、オルガノイド、三次元細胞培養、生物学的組織、臓器スライス、または生体内もしくは生体外の臓器の一部であってもよい。例えば、生物学的構造の画像は、細胞内または組織内のタンパク質の位置の画像であってもよいし、または標識されたヌクレオチドプローブが結合する内因性ヌクレオチド(例えば、DNA)を有する細胞または組織の画像(例えば、in situハイブリダイゼーション)であってもよい。画像トレーニングデータは、画像のそれぞれの色次元(例えば、RGB表現の場合には3つの色次元)について、画像のそれぞれのピクセルに対するピクセル値を含むことができる。例えば、画像診断法に応じて、励起波長または発光波長、蛍光寿命、偏光、三空間次元でのステージ位置、種々異なる撮像角度に関連して、他のチャネルを適用してもよい。生物学関連の画像ベースの入力トレーニングデータ104は、XYピクセルマップ、体積測定データ(XYZ)、時系列データ(XY+T)、またはそれらの組み合わせ(XYZT)であってもよい。さらに、画像ソースの種類に応じて、チャネル(例えば、スペクトル発光帯)、励起波長、ステージ位置、マルチウェルプレートまたはマルチポジショニング実験および/またはミラーでのような論理的位置および/またはライトシート撮像でのような対物レンズ位置のような、追加的な次元を含むことができる。例えば、ピクセルマップまたは高次元のピクチャーとして画像をユーザが入力してもよいし、またはデータベースが提供してもよい。視覚認識機械学習アルゴリズムは、この画像を意味論的埋め込み(例えば、第2の高次元表現)に変換することができる。例えば、生物学関連の画像ベースの入力トレーニングデータ104は、生物学関連の言語ベースの入力トレーニングデータ102に対応する。例えば、生物学関連の画像ベースの入力トレーニングデータは、生物学関連の画像ベースの入力トレーニングデータ104が生物学関連の言語ベースの入力トレーニングデータ102に関連付けられるように、生物学関連の言語ベースの入力トレーニングデータ102によって記述された生物学的構造を表現する。生物学関連の画像ベースの入力トレーニングデータ104は、1つまたは複数のストレージデバイスから、もしくはストレージデバイスによって格納されたデータベースから受信可能であるか、またはユーザによって入力可能である。生物学関連の画像ベースの入力トレーニングデータ104は、トレーニンググループのうちの第1の生物学関連の画像ベースの入力トレーニングデータセットであってもよい。トレーニンググループは、複数の生物学関連の画像ベースの入力トレーニングデータセットを含むことができる。
高次元表現(例えば、第1および第2の高次元表現)は、隠れ表現、潜在ベクトル、埋め込み、意味論的埋め込みおよび/またはトークン埋め込みであってもよく、かつ/または隠れ表現、潜在ベクトル、埋め込み、意味論的埋め込みおよび/またはトークン埋め込みとも称され得る。
第1の高次元表現および/または第2の高次元表現は、(例えば、数値のみを含む)数値表現であってもよい。第1の高次元表現および/または第2の高次元表現は、正の値のみを含むことができるか、または正の値を有するエントリと負の値を有するエントリとを含むことができる。対照的に、生物学関連の言語ベースの入力トレーニングデータは、アルファベット文字または他の非数字文字のみを含むことができるか、またはアルファベット文字、他の非数字文字および/または数字の混合物を含むことができる。第1の高次元表現および/または第2の高次元表現は、100を超える次元(または300もしくは500を超える次元)を含むことができ、かつ/または10000未満の次元(または3000未満または1000未満の次元)を含むことができる。高次元表現のそれぞれのエントリは、高次元表現の1つの次元であってもよい(例えば、100次元を有する高次元表現は、100個のエントリを含む)。例えば、300を超えて1000未満の次元を有する高次元表現を使用することにより、意味論的相関を有する生物学関連のデータのために適した表現が可能となり得る。第1の高次元表現は、第1のベクトルであってもよく、第2の高次元表現は、第2のベクトルであってもよい。第1の高次元表現のエントリおよび第2の高次元表現のエントリのためにベクトル表現が使用される場合には、効率的な比較および/または他の計算(例えば、正規化)を実施することができるが、他の表現(例えば、行列として)も可能であり得る。例えば、第1の高次元表現および/または第2の高次元表現は、正規化されたベクトルであってもよい。第1の高次元表現および第2の高次元表現は、同じ値(例えば、1)に正規化可能である。例えば、(例えば、言語認識機械学習アルゴリズムおよび/または視覚認識機械学習アルゴリズムの)モデルの最後の層は、追加的に正規化を実行することができる非線形演算を表現することができる。例えば、最初のモデル(言語モデル)が交差エントロピー損失関数によってトレーニングされている場合には、いわゆるソフトマックス演算:
Figure 0007443401000001
を使用することができ、ここで、yは、入力値に対応するモデルの予測であり、Kは、全ての入力値の数である。
例えば、第1の高次元表現および/または第2の高次元表現は、ワンホットエンコーディングされた表現とは対照的に、0に等しくない値を有する複数の異なるエントリ(少なくとも3つ)を含むことができる。0に等しくない値を有する複数の異なるエントリを有することができる高次元表現を使用することにより、高次元表現同士の間の意味論的な関係性に関する情報を再現することができる。例えば、第1の高次元表現のエントリの値の50%超(または70%超もしくは90%超)および/または第2の高次元表現のエントリの値の50%超(または70%超もしくは90%超)は、0に等しくなくてもよい。ワンホットエンコーディングされた表現が、0に等しくない2つ以上のエントリを有することも時にはあるが、高い値を有するエントリは1つだけであり、その他の全てのエントリは、ノイズレベル(例えば、その1つの高い値の10%未満)の値を有する。対照的に、第1の高次元表現の5つを超えるエントリ(または20を超えるエントリもしくは50を超えるエントリ)の値を、例えば、第1の高次元表現のエントリの最大絶対値の10%よりも大きく(または20%よりも大きく、もしくは30%よりも大きく)することができる。さらに、第2の高次元表現の5つを超えるエントリ(または20を超えるエントリもしくは50を超えるエントリ)の値を、例えば、第2の高次元表現のエントリの最大絶対値の10%よりも大きく(または20%よりも大きく、もしくは30%よりも大きく)することができる。例えば、第1の高次元表現および/または第2の高次元表現のそれぞれのエントリは、-1~1の間の値を含むことができる。
第1の高次元表現は、言語認識機械学習アルゴリズムのエンコーダによって生成可能である。例えば、第1の高次元表現は、生物学関連の言語ベースの入力トレーニングデータ102に、現在のパラメータのセットを用いて言語認識機械学習アルゴリズムを適用することによって生成される。言語認識機械学習アルゴリズムの現在のパラメータのセットは、言語認識機械学習アルゴリズムの調整中に更新可能である。例えば、言語認識機械学習アルゴリズムの調整は、複数の言語認識ニューラルネットワークの重みの調整を含み、言語認識ニューラルネットワークの重みの最終的なセットが、1つまたは複数のストレージデバイス120によって格納されていてもよい。さらに、第2の高次元表現は、生物学関連の画像ベースの入力トレーニングデータに、現在のパラメータのセットを用いて視覚認識機械学習アルゴリズムを適用することによって生成可能である。視覚認識機械学習アルゴリズムの現在のパラメータのセットは、視覚認識機械学習アルゴリズムの調整中に更新可能である。例えば、視覚認識機械学習アルゴリズムの調整は、複数の視覚認識ニューラルネットワークの重みの調整を含み、視覚認識ニューラルネットワークの重みの最終的なセットが、1つまたは複数のストレージデバイス120によって格納されていてもよい。
第1の高次元表現の1つまたは複数のエントリの値および/または第2の高次元表現の1つまたは複数のエントリの値は、特定の生物学的機能または特定の生物学的活動が存在する尤度に比例することができる。入力データセットの意味論的な類似性を維持する高次元表現を生成するマッピングを使用することにより、意味論的に類似した高次元表現同士は、意味論的に類似性の低い高次元表現同士よりも互いにより近い距離を有することができる。さらに、2つの高次元表現が、同じまたは類似した特定の生物学的機能または特定の生物学的活動を有する入力データセットを表現している場合には、これらの2つの高次元表現の1つまたは複数のエントリは、同じまたは類似した値を有することができる。意味論の維持により、高次元表現の1つまたは複数のエントリは、特定の生物学的機能または特定の生物学的活動の発生または存在を示すことができる。例えば、高次元表現の1つまたは複数のエントリの値が高くなればなるほど、これらの1つまたは複数のエントリと相関する生物学的機能または生物学的活動が存在する尤度がより高くなり得る。
システム100は、トレーニンググループのうちの複数の生物学関連の言語ベースの入力トレーニングデータセットの各々のために、第1の高次元表現を生成することを繰り返すことができる。さらに、システム100は、それぞれの生成された第1の高次元表現ごとに、生物学関連の言語ベースの出力トレーニングデータを生成することができる。システム100は、トレーニンググループのうちの複数の生物学関連の言語ベースの入力トレーニングデータセットの、生物学関連の言語ベースの入力トレーニングデータと、対応する生物学関連の言語ベースの出力トレーニングデータとのそれぞれの比較に基づいて、言語認識機械学習アルゴリズムを調整することができる。換言すれば、システム100は、生物学関連の言語ベースの入力トレーニングデータセットのトレーニンググループのうちのそれぞれの生物学関連の言語ベースの入力トレーニングデータごとに、第1の高次元表現を生成することと、生物学関連の言語ベースの出力トレーニングデータを生成することと、言語認識機械学習アルゴリズムを調整することとを繰り返すように構成可能である。トレーニンググループは、トレーニング目標(例えば、しきい値を下回るように損失関数の出力を変化させること)を満たすことができるように十分な生物学関連の言語ベースの入力トレーニングデータセットを含むことができる。
言語認識機械学習アルゴリズムのトレーニング中に生成された複数の全ての第1の高次元表現は、潜在空間または意味論的空間と称され得る。
システム100は、トレーニンググループのうちの複数の生物学関連の画像ベースの入力トレーニングデータセットの各々のために、第2の高次元表現を生成することを繰り返すことができる。さらに、システム100は、第1の高次元表現と、対応する第2の高次元表現とのそれぞれの比較に基づいて、視覚認識機械学習アルゴリズムを調整することができる。換言すれば、システム100は、生物学関連の画像ベースの入力トレーニングデータセットのトレーニンググループのうちのそれぞれの生物学関連の画像ベースの入力トレーニングデータごとに、第2の高次元表現を生成することと、視覚認識機械学習アルゴリズムを調整することとを繰り返すことができる。トレーニンググループは、トレーニング目標(例えば、しきい値を下回るように損失関数の出力を変化させること)を満たすことができるように十分な生物学関連の画像ベースの入力トレーニングデータセットを含むことができる。
生物学関連の言語ベースの入力トレーニングデータセットのトレーニンググループは、生物学関連の画像ベースの入力トレーニングデータセットのトレーニンググループよりも多くのエントリを含むことができる。例えば、生物学関連の言語ベースの入力トレーニングデータセットが、複数の異なるヌクレオチド配列またはタンパク質配列である場合には、対応するヌクレオチドまたは対応するタンパク質を含んでいる生物学的構造の画像よりも、より多数の異なるヌクレオチド配列またはタンパク質配列を有するデータベースを、トレーニングのために利用することが可能であり得る。さらに、トレーニングされた第1の高次元表現の数が、トレーニングされた第2の高次元表現の数よりも多い場合には、トレーニングされていない生物学関連の画像ベースの入力データのゼロショット学習が可能となり得る。トレーニングされた視覚認識機械学習アルゴリズムは、見たことのない生物学関連の画像ベースの入力データを、意味論的に類似した生物学関連の言語ベースの入力データの1つまたは複数の第1の高次元表現までの距離が短い第2の高次元表現にマッピングすることができる。択一的に、例えば、生物学関連の言語ベースの入力トレーニングデータセットが、生物学的分子または生物学的構造の種々の挙動の記述であるか、または生物学的機能または生物学的活動の記述である場合には、生物学関連の言語ベースの入力トレーニングデータセットのトレーニンググループは、生物学関連の画像ベースの入力トレーニングデータセットのトレーニンググループよりも少ないエントリを含むことができる。なぜなら、この種の入力データについてのそれぞれ異なる入力データセットの数は、制限され得るからである(例えば、500未満、100未満、または50未満のそれぞれ異なる生物学関連の言語ベースの入力トレーニングデータセット)。
例えば、システム100は、言語認識機械学習アルゴリズムと、視覚認識機械学習アルゴリズム(例えば、視覚意味論的モデルとも称される)との組み合わせを使用する。言語認識機械学習アルゴリズムおよび/または視覚認識機械学習アルゴリズムは、深層学習アルゴリズムおよび/または人工知能アルゴリズムであってもよい。
言語認識機械学習アルゴリズムは、テキストモデル、言語モデル、または言語学モデルとも称され得る。言語認識機械学習アルゴリズムは、言語認識ニューラルネットワークであってもよいし、または言語認識ニューラルネットワークを含んでいてもよい。言語認識ニューラルネットワークは、30を超える層(または50もしくは80を超える層)および/または500未満の層(または300もしくは200未満の層)を含むことができる。言語認識ニューラルネットワークは、リカレントニューラルネットワーク、例えば長短期記憶ネットワークであってもよい。リカレントニューラルネットワーク、例えば長短期記憶ネットワークを使用することにより、生物学関連の言語ベースの入力データのための高精度の言語認識機械学習アルゴリズムを提供することができる。しかしながら、他の言語認識アルゴリズムを適用することも可能であり得る。例えば、言語認識機械学習アルゴリズムは、可変長の入力データを取り扱うことができるアルゴリズム(例えば、Transformer-XLアルゴリズム)であってもよい。例えば、生物学関連の言語ベースの入力トレーニングデータセットのトレーニンググループのうちの第1の生物学関連の言語ベースの入力トレーニングデータの長さは、生物学関連の言語ベースの入力トレーニングデータセットのトレーニンググループのうちの第2の生物学関連の言語ベースの入力トレーニングデータの長さとは異なる。Transformer-XLアルゴリズムとしてアルゴリズムを使用することにより、モデルは、比較的長い配列および可変長の配列の両方にわたって構造を検知することが可能となり得る。ニューラルネットワークを使用する他の言語モデルアーキテクチャとは一線を画すことができるTransformer-XLに固有の性質は、分析されている最中のそれぞれのセグメントの隠れ状態が次のセグメントの隠れ状態を取得するために再利用されるという事実に基づいて、意味論的な依存関係を可変長にわたって学習することができるという能力に因るものであり得る。この種の状態の蓄積により、連続するセグメント同士の間に回帰的かつ意味論的な結びつきを構築することが可能となり得る。このようにして、生物学的機能をエンコーディングする長期的な依存関係を捉えることが可能となる。例えば、ヌクレオチド配列では、以前は遠く離れていたヌクレオチド配列を効果的に連結する遺伝子の転写中に、長いDNAのストレッチが切り取られる(例えば、スプライシングされる)。Transformer-XLアーキテクチャを使用することにより、このような長期的な依存関係を捉えることが可能となり得る。さらに、タンパク質配列では、(アルファヘリックスまたはベータシートのような)連続するポリペプチド二次構造が、しばしば、いわゆる「折り畳み」(例えば、空間内での二次構造の三次元配置)を形成する。これらの折り畳みは、それぞれ一意の生物学的機能を有するタンパク質サブドメインの一部であってもよい。したがって、意味論的埋め込みにエンコーディングされるべき生物学的機能を正確に捉えるためには、長期的な意味論的な依存関係が重要であり得る。他のアプローチは、固定長の依存関係しか学習することができない可能性があり、これにより、正確な意味論を学習するためのモデルの能力が制限される可能性がある。例えば、タンパク質配列は、典型的に、数十から数百のアミノ酸の長さである(1つのアミノ酸は、タンパク質配列における1文字として表現される)。「意味論」、例えば(生物学ではポリペプチド、モチーフ、またはドメインと称される)配列からの部分文字列の生物学的機能は、長さに関して種々異なり得る。したがって、可変長の依存関係に適合することができるTransformer-XLのようなアーキテクチャを使用することができる。
言語認識機械学習アルゴリズムは、生物学関連の言語ベースの入力トレーニングデータ102と、生物学関連の言語ベースの出力トレーニングデータと、の比較に基づいて、言語認識機械学習アルゴリズムのパラメータを調整することによってトレーニング可能である。例えば、この比較に基づいて、言語認識ニューラルネットワークのネットワーク重みを調整することができる。言語認識機械学習アルゴリズムのパラメータ(例えば、ネットワーク重み)の調整は、損失関数(例えば、交差エントロピー損失関数)を考慮して実施可能である。損失関数は、予測と既存の注釈との間の等価性の程度である実際値をもたらすことができる。トレーニングは、損失関数が最小になるまで、内部自由度(例えば、ニューラルネットワークの重み)を変化させることができる。例えば、言語認識機械学習アルゴリズムの調整のための、生物学関連の言語ベースの入力トレーニングデータ102と、生物学関連の言語ベースの出力トレーニングデータと、の比較は、交差エントロピー損失関数に基づくことができる。例えば、M>2(例えば、マルチクラス分類)の場合には、観測ごとにそれぞれのクラスラベルについての別個の損失を計算することができ、その結果を、
Figure 0007443401000002
のように合計することができ、ここで、Mは、クラスの数(例えば、細胞小器官の場合には、核、細胞質、原形質膜、ミトコンドリア)であり、logは、自然対数であり、yは、クラスラベルcが観測oのための正確な分類である場合、バイナリインジケータ(0または1)であり、pは、観測oがクラスcのものである予測確率である。
言語認識機械学習アルゴリズムをトレーニングするために交差エントロピー損失関数を使用することにより、トレーニングを高速に収束させることができ、かつ/または生物学関連のデータのために十分にトレーニングされたアルゴリズムを提供することができるが、他の損失関数を使用することも可能である。
視覚認識機械学習アルゴリズムは、画像認識モデル、視覚モデル、または画像分類器とも称され得る。視覚認識機械学習アルゴリズムは、視覚認識ニューラルネットワークであってもよいか、視覚認識ニューラルネットワークを含んでいてもよい。視覚認識ニューラルネットワークは、20を超える層(または40もしくは80を超える層)および/または400未満の層(または200もしくは150未満の層)を含むことができる。視覚認識ニューラルネットワークは、畳み込みニューラルネットワークまたはカプセルネットワークであってもよい。畳み込みニューラルネットワークまたはカプセルネットワークを使用することにより、生物学関連の画像ベースの入力データのための高精度の視覚認識機械学習アルゴリズムを提供することができる。しかしながら、他の視覚認識アルゴリズムを適用することも可能であり得る。例えば、視覚認識ニューラルネットワークは、複数の畳み込み層および複数のプーリング層を含むことができる。しかしながら、例えば畳み込みのために、カプセルネットワークが使用される場合および/またはストライド=1の代わりにストライド=2が使用される場合には、プーリング層を回避することができる。視覚認識ニューラルネットワークは、正規化線形ユニット活性化関数を使用することができる。正規化線形ユニット活性化関数を使用することにより、生物学関連の画像ベースの入力データのための高精度の視覚認識機械学習アルゴリズムを提供することができるが、他の活性化関数(例えば、ハードタン活性化関数、シグモイド活性化関数、またはタン活性化関数)を適用することも可能であり得る。
例えば、視覚認識ニューラルネットワークは、畳み込みニューラルネットワークアーキテクチャを含んでいてもよく、かつ/または入力画像のサイズに応じた深さのResNetまたはDenseNetであってもよい。例えば、384×384ピクセルの画像ピクセルサイズまでは、50層の深さまでのResNetアーキテクチャが、良好な結果を提供することができる。約512×512~800×800ピクセルまでは、101層の深さを有するResNetを使用することができる。これらの画像サイズよりも大きい場合には、ResNet151、DenseNet121、またはDenseNet169のような、より深いアーキテクチャを使用することができる。
視覚認識機械学習アルゴリズムは、対応する入力トレーニングデータの、言語認識機械学習アルゴリズムによって生成された高次元表現と、視覚認識機械学習アルゴリズムによって生成された高次元表現と、の比較に基づいて、視覚認識機械学習アルゴリズムのパラメータを調整することによってトレーニング可能である。例えば、この比較に基づいて、視覚認識ニューラルネットワークのネットワーク重みを調整することができる。視覚認識機械学習アルゴリズムのパラメータ(例えば、ネットワーク重み)の調整は、損失関数を考慮して実施可能である。例えば、視覚認識機械学習アルゴリズムの調整のための、第1の高次元表現と第2の高次元表現との比較は、コサイン類似性損失関数に基づくことができる。視覚認識機械学習アルゴリズムをトレーニングするためにコサイン類似性損失関数を使用することにより、トレーニングを高速に収束させることができ、かつ/または生物学関連のデータのために十分にトレーニングされたアルゴリズムを提供することができるが、他の損失関数を使用することも可能である。
例えば、視覚モデルは、意味論的埋め込み空間において(例えば、ベクトルとして)どのようにして画像を表現すべきかを学習することができる。したがって、予測A(第2の高次元表現)と、グラウンドトゥルースB(第1の高次元表現)とを表現することができる、2つのベクトルの距離に対する尺度を使用することができる。例えば、1つの尺度は、
Figure 0007443401000003
の形態で定義されるようなコサイン類似性であり、予測AとグラウンドトゥルースBとのドット積を、(例えば、L2-ノルムまたはユークリッドノルムのように)各自のそれぞれの絶対値のドット積で除算したものである。
図2は、(例えば、トークン埋め込みの検出を示す)言語認識機械学習アルゴリズム220のトレーニングの一例を示す。データベース200から、または実行中の実験における撮像装置(例えば、顕微鏡)から到来する生物学的配列または自然言語210(例えば、ヌクレオチド配列、例えば、GATTACA)に対して、テキストモデル220をトレーニングすることができる。自然言語処理(NLP)タスクは、例えば、文(独立変数)における次の単語(従属変数)を予測することであるか、または短いストレッチのテキスト250が与えられた場合に、次の文字(例えば、ヌクレオチド配列における次のヌクレオチド、例えば、GATTACAに続くC)を予測することである。他のNLPタスクは、テキストまたは翻訳から感情を予測することを含むことができる。生物学的配列の文脈では、独立変数は、タンパク質配列もしくはヌクレオチド配列、またはそれらの短いストレッチであってもよい。従属変数は、配列における次の要素、または前述の粗視化された検索用語のいずれか、またはそれらの組み合わせであってもよい。トレーニング中、データは、隠れ表現260(第1の高次元表現)を学習するためにエンコーダ経路230を通過し、この隠れ表現260から有用な予測250(例えば、生物学関連の言語ベースの出力トレーニングデータ)を行うためにデコーダ経路240を通過することができる。定量的メトリック(例えば、損失関数)は、グラウンドトゥルースデータに対する予測の精度を測定することができる。モデルのトレーニング可能なパラメータに関するこの損失関数の勾配を使用して、これらのトレーニング可能なパラメータを調整することができる。損失関数のための事前に設定されたしきい値に到達するまで、このトレーニングを繰り返すことができる。トレーニング中におけるトークン埋め込みの検出の結果は、それぞれのトークンから各自のそれぞれの埋め込み、例えば、潜在ベクトル260(第1の高次元表現)へのマッピングであってもよい。潜在空間は、意味論的空間を表現することができる。例えば、この埋め込みによって、それぞれのトークン(例えば、単語、ペプチド、またはポリヌクレオチド)に意味を割り当てることができる。
予測250は、生物学関連の言語ベースの出力トレーニングデータyによって表現可能である。例えば、y=W*Xであり、ここで、Xは、生物学関連の言語ベースの入力トレーニングデータ(例えば、生物学的配列)であり、Wは、モデルのトレーニングされたパラメータである。さらに、バイアス項が含まれていてもよい。
オプションとして、言語認識機械学習アルゴリズムをトレーニングした後、トークン埋め込みに画像をマッピングすることができる。換言すれば、生物学関連の言語ベースの入力トレーニングデータに対応する生物学的構造を表示している画像を選択することができる。例えば、生物学関連の言語ベースの入力トレーニングデータは、ヌクレオチド配列(例えば、図2のGATTACA)であってもよく、このヌクレオチド配列を含んでいる生物学的構造の画像を選択することができる。複数の生物学関連の言語ベースの入力トレーニングデータセットに対応する複数の画像を、視覚認識機械学習アルゴリズムをトレーニングするためのトレーニングセットとして選択することができる。このようなトレーニング画像のデータベースが既に利用可能である場合には、トレーニング画像の選択を省略してもよい。
視覚モデルは、例えば、画像内にどの細胞内コンパートメントが表示されているかの画像のクラスを予測することのような、コンピュータ視覚タスクを担うことができる。他の用途では、視覚モデルは、ワンホットエンコーディングされたラベルを従属変数として取得する。例えば、システム100は、上述したように、テキストモデルによって学習されたそれぞれのトークン埋め込みに画像クラスをマッピングする。例えば、クラス“p53”、“ヒストンH1”および“GAPDH”を予測することを学習する画像分類器であれば、3つのタンパク質のためのそれぞれのタンパク質配列のトークン埋め込みを予測することを学習するであろう(例えば、ヌクレオチド配列または科学刊行物中のテキスト記述から学習されたトークン埋め込みにも同じことが当てはまり得る)。グラウンドトゥルースデータにおけるマッピング自体は、関心対象である分子を表示しているピクチャーと、トレーニングのために使用された生物学的配列または自然言語の各自のそれぞれの意味論的埋め込みとのルックアップテーブルであってもよい。
言語認識機械学習アルゴリズムを介した入力テキストの順方向経路によって取得することができる高次元表現260のみを、関心対象にすることができる。トレーニングのために、言語分類問題を定義することができる。例えば、ソフトマックス層は、高次元表現260の決定に従うことができ、トレーニングのために、交差エントロピー損失関数を使用することができる。図2には、テキストを再び生成する追加的なデコーダ経路240が示されており、これは、モデルがテキストを出力する場合を表現している。例えば、最初の単語が入力されると、文の後半の予測を行うことができる。生物学関連の用途の場合には、例えば、配列の最初の部分を入力することができ、配列の後半または次の文字のみを特定の確率で予測することができる。高次元表現260のみが関心対象であるので、この予測250は、関心対象ではないかもしれないが、この予測によってトレーニングを改善することができる。その場合、図3の視覚モデルは、高次元表現260をグラウンドトゥルース330として予測することができる。この用途では、損失関数として、交差エントロピー損失関数の代わりにコサイン距離関数を使用することができる。両方のベクトル260,330を0または1に正規化することはできない可能性がある。BatchNormalizationを使用して数を制御可能に維持することができるので、ベクトルの値が1よりはるかに大きくなることはないだろう。
図3は、視覚認識機械学習アルゴリズム320のトレーニングの一例を示す。トークン埋め込みを予測するために、視覚モデル320のトレーニングを実施することができる。図3に示されているように、公開または私的な画像データベースのようなデータリポジトリ300からの、または実行中の実験における顕微鏡からの画像310に対して、視覚モデル320をトレーニングすることができる。従属変数は、テキストモデルによって学習されて、オプションとして上述したような画像クラスにマッピングされる、対応するトークン埋め込み330(第2の高次元表現)であってもよい。視覚モデルは、先行するトレーニング段階においてテキストモデルによって学習された生物学的機能の意味論を含んでいる画像クラスの表現を予測することを学習することができる。
図4は、視覚認識ニューラルネットワークのうちの、ResNetアーキテクチャに基づいた部分400(例えばResNetブロック)の一例を示す。例えば、視覚認識ニューラルネットワークは、(例えば、ResNetに類似する)以下のパラメータを用いて記述可能である。テンソルの次元(例えば、深層ニューラルネットワークを通過したデータ)は、
形状=bs×ch×高さ×幅
であってもよく、ここで、bsは、バッチサイズ(例えば、確率的勾配降下最適化の1つのミニバッチにロードされる画像の数)であり、chは、フィルタの数(例えば、入力画像のための「チャネル」の数に等しく、例えば、RGB画像の場合にはch=3である)であり、高さは、画像内の行の数であり、幅は、画像内の列の数である。例えば、顕微鏡は、より多くの次元(例えば、軸方向の次元(z)、スペクトル放射の次元、寿命の次元、スペクトル励起の次元および/またはステージの次元)を生成可能であってもよく、これらの次元を、視覚認識ニューラルネットワークによって追加的に処理することができる。しかしながら、以下の例は、単にチャネル、高さおよび幅を有するケースに関連しているに過ぎない場合がある(例えば、ch>3である例も実施可能である)。
視覚認識ニューラルネットワークは、計算グラフとして表現可能であり、演算は、入力データ(例えば、テンソル)に対する特定の演算を表現する「層」として要約可能である。以下の表記を使用することができる:
ch_0 演算前の入力テンソルのチャネルの数。
X Xは、上述したような形状のn次元のテンソルであってもよい。
conv(nin,nout,k,s)(x) n次元の畳み込み演算430(例えば、図示の例では2Dの畳み込み)であり、ninの入力チャネル(例えば、空間フィルタ)と、noutの出力チャネルと、k×k(例えば、3×3)のカーネルサイズと、テンソルXに適用されるs×s(例えば、1×1)のストライドとを有する。
relu(x)={x<0の場合には0、そうでない場合にはx} 正規化線形ユニットは、図示のように畳み込み後に実行される非線形性である。グラフにおいて、この演算は、“Relu”420として描写されている。
bn(x)=(x-μ)/σ バッチ正規化は、各自のそれぞれのバッチの平均μおよび標準偏差σに正規化されたテンソルXを取得する。グラフにおいて、この演算は、“BatchNormalization”410として描写されている。
fc(x)=Wx+b 全結合層は、線形演算子であり、ここで、Wは、重みであり、bは、バイアス項である(例えば、bは、グラフには図示されていない)。
Figure 0007443401000004
ここで、ninおよびnoutは、現在の活性化の入力チャネルおよび出力チャネルの次元である。
m(x) 前の層からの活性化によって開始する、形状(1,64,256,256)のテンソルXに適用されるボトルネック構成を有するResNetブロック400が、図4に示されている。
いくつかのボトルネックブロックは、空間的な次元を2分の1にダウンサンプリングすることができ、その一方で、チャネル(例えば、空間フィルタ)の数を4倍にアップサンプリングすることができる。ResNetブロックをグループで組み合わせて、18~152層の全体的なアーキテクチャをもたらすことができる。例えば、50、101、または152の層およびボトルネックを使用して、ResNetブロックおよび/または事前活性化を用いるResNetブロックを、提案されているコンセプトの視覚認識ニューラルネットワークのために使用することができる。
例えば、視覚認識ニューラルネットワークは、少なくとも、第1のバッチ正規化演算410と、これに後続する第1のReLu演算420と、これに後続する第1の畳み込み演算430(例えば、1×1)と、これに後続する第2のバッチ正規化演算410と、これに後続する第2のReLu演算420と、これに後続する第2の畳み込み演算430(例えば、3×3)と、これに後続する(例えば、第2の畳み込み演算の出力と、第1のバッチ正規化演算の入力とを加算する)加算演算440と、を含むことができる。第1のバッチ正規化演算410の前に、加算演算440の後に、かつ/または第1のバッチ正規化演算410と加算演算440との間に、1つまたは複数の追加的な演算を実施してもよい。
図5は、視覚認識ニューラルネットワーク400のうちの、ResNetアーキテクチャに基づいた部分500(例えば、修正されたResNet-CBAM(畳み込みブロック注意モジュール)ブロック)の一例を示す。例えば、ResNet-CBAMブロック500は、空間注意と組み合わされたResNetブロックにおいて、いわゆるチャネル注意ブロックを使用することができる。
図4に関連して使用した表記に加えて、以下の表記を使用することができる:
Figure 0007443401000005
大域平均プーリングは、高さおよび幅の次元にわたって平均化することによって、次元(bs×ch×h×w)を有するテンソルXを、次元(bs×ch×1×1)に崩壊させる。グラフにおいて、この演算は、“GlobalAveragePool”510として描写されている。
Figure 0007443401000006
大域最大プーリングは、高さおよび幅の次元にわたって最大値を選択することによって、次元(bs×ch×h×w)を有するテンソルXを、次元(bs×ch×1×1)に崩壊させる。グラフにおいて、この演算は、“GlobalMaxPool”520として描写されている。
チャネル注意のためには、大域平均プーリング510単体の代わりに、大域平均プーリング510と大域最大プーリング520との連結530を使用することができる。このようにして、モデルは、モデルを外れ値に対してもより弾性にする「ソフトな」大域平均プーリングと、その一方で最大限の活性化の維持とを、両方とも学習することができる。したがって、モデルは、どちらを強調すべきかを決定することが可能であり得る。例えば、前の演算の出力を、大域平均プーリング演算510および大域最大プーリング演算520のための入力として提供することができ、大域平均プーリング演算510の出力と、大域最大プーリング演算520の出力とを、同じ後続の演算(例えば、連結)への入力として提供することができる。
さらに、小型のMLP(多層パーセプトロン)の代わりに1×1カーネルサイズを使用することができ、これにより、チャネル注意モジュールにおけるいくらかの冗長的な平坦化演算および非絞り込み演算を省略することができる。
チャネル注意モジュールおよび空間注意モジュールの両方は、最後の活性化関数としてシグモイド非線形性540を使用することができる。このようにして、ReLU活性化を使用した場合よりも有利な特徴スケーリングを得ることができる。
オプションとして、勾配が過度に大きくなることを回避するために、チャネル注意と空間注意との間で、チャネル注意を用いたスケーリングが行われた直後にバッチ正規化410を実行してもよい。
先行するResNetボトルネックブロックの出力と、CBAMブロックの出力とは、図5に示されているように加算される。CBAMブロックは、“大域平均プーリング”510および“大域最大プーリング”520によって開始し、最後の“Mul”(乗算)550によって終了する。
Figure 0007443401000007
のボトルネックブロックを、図5に示されているRn_CBAM(x)によって置換することにより、これらのRn_CBAM(x)構築ブロックからResNetアーキテクチャを組み立てることができる。例えば、提案されているコンセプトのために50、101および152の層を有する比較的深いアーキテクチャを使用することができるが、他の深さも可能であり得る。
平均値演算560および最大値演算570は、平均値演算560を介して次元chにわたる算術的な平均値を生成し(例えば、1×64×256×256は、1×1×256×256を取得する)、最大値演算570を介して次元chに沿った最大値投影を生成することによって、一緒に動作することができる。後続の連結演算530は、2つの投影の結果を連結する。
例えば、視覚認識ニューラルネットワークは、少なくとも、第1のバッチ正規化演算410と、これに後続する第1のReLu演算420と、これに後続する第1の畳み込み演算430(例えば、カーネルサイズ1×1)と、これに後続する第2のバッチ正規化演算410と、これに後続する第2のReLu演算420と、これに後続する第2の畳み込み演算430(例えば、カーネルサイズ3×3)と、これに後続する大域平均プーリング演算510と、これに並列な大域最大プーリング演算520と、これらに後続する第1の連結演算530と、これに後続する第3の畳み込み演算430(例えば、1×1)と、これに後続する第3のReLu演算420と、これに後続する第4の畳み込み演算430(例えば、カーネルサイズ1×1)と、これに後続する第1のシグモイド演算540と、これに後続する(例えば、第1のシグモイド演算の出力と、第2の畳み込み演算の出力とを乗算する)第1の乗算(Mul)演算550と、これに後続する第3のバッチ正規化演算410と、これに後続する平均値演算560と、これに並列な最大値演算570と、これらに後続する第2の連結演算530と、これに後続する第5の畳み込み演算430(例えば、カーネルサイズ7×7)と、これに後続する第2のシグモイド演算540と、これに後続する(例えば、第2のシグモイド演算の出力と、第3のバッチ正規化演算の出力とを乗算する)第2の乗算(Mul)演算550と、これに後続する(例えば、第2の乗算演算の出力と、前のブロックからの入力とを加算する)加算演算440と、を含むことができる。第2の畳み込み演算と第3のバッチ正規化演算との間の演算を、チャネル注意モジュールと称することができ、第1の乗算演算と第2の乗算演算との間の演算を、空間注意モジュールと称することができる。第1のバッチ正規化演算から第2の畳み込み演算までの演算を、ResNetボトルネックブロックと称することができ、第2の畳み込み演算と第2の乗算演算との間の演算を、CBAMブロックと称することができる。CBAMブロックを使用して、モデルが正確な特徴に焦点を合わせるように第2の畳み込みをスケーリングすることができる。第1のバッチ正規化演算410の前に、加算演算440の後に、かつ/または第1のバッチ正規化演算410と加算演算440との間に、1つまたは複数の追加的な演算を実施してもよい。
図6は、視覚認識ニューラルネットワークのうちの、DenseNetアーキテクチャに基づいた部分600(例えば、ボトルネック構成を有する緻密層)の一例を示す。ResNetに代わるアーキテクチャは、DenseNetと称され、このDenseNetは、上流の層の活性化を下流の層へ直接的に提供可能にするために、(例えば、ResNetの場合のような加算の代わりに)連続的な活性化マップを連結することに基づいている。提案されているコンセプトの場合には、個々の緻密層Hl_B(x)のレベルに対して注意機構が追加されたDenseNetアーキテクチャを使用することができる。チャネル注意機構を、疎化されたDenseNetと組み合わせることができる。
提案されているコンセプトの場合には、空間注意およびチャネル注意の両方を緻密層と組み合わせることができる。(例えば、図4および図5に関連して)ResNetアーキテクチャに関して説明したように、オプションとして、チャネルと空間注意モジュールとの間でバッチ正規化を使用することも可能である。注意経路の出力を緻密層の出力に加算する代わりに、緻密層によって新たに生成されたk個の活性化に注意機構のみを適用してもよく、注意経路の再スケーリングされた出力を緻密層の入力と最後に連結させてもよい。例えば、全く最初の緻密層を除いた全ての層に関して、活性化は、注意機構が取り付けられた前の緻密層を既に通過している。連続的に再スケーリングしても、結果はこれ以上改善されない可能性がある。逆に、そのような再スケーリングは、必要に応じてネットワークがより下流の層で注意に関する新たな再スケーリングを学習することを、妨げることさえあり得る。さらに、k個の新たに作成された層だけに注意を向けることにより、計算複雑性を低減することができ、計算複雑性を制限するためのパッチとしての縮小比率rの必要性を省略することができる。緻密層およびDenseNetブロックのために、疎構成ではなく完全構成を使用することができる。
図4および図5に関連して使用した表記に加えて、以下の表記を使用することができる:
Hl_B(x) ボトルネック構成を有する緻密層600が、図6に示されている。
Figure 0007443401000008
次元(bs,ch,h,w)を有する入力テンソルXは、それぞれ事前活性化(bn+relu)を有する2つの連続する畳み込みを通過する。第1の畳み込みは、1×1カーネルを有し、ch個の活性化を出力する。第2の畳み込みは、3×3カーネルを有し、k個の活性化のみを出力する。この例では、k=16である。最後に、16個の新たな活性化が緻密層の入力と連結される。この例では、ch=64であり、したがって、出力は、ch+k=80個の活性化を有する。
視覚認識ニューラルネットワークのうちの、図4に示されている部分と比較すると、加算演算440が(例えば、第2の畳み込み演算の出力と、第1のバッチ正規化演算の入力との)連結演算530によって置換されている。さらなる詳細は、図4に関連して説明されている。
図7は、視覚認識ニューラルネットワークのうちの、DenseNetアーキテクチャに基づいた部分700(例えば、注意機構を有する緻密層)の一例を示す。
図4、図5および図6に関連して使用した表記に加えて、以下の表記を使用することができる:
Hl_A 注意機構を有する緻密層700。
Figure 0007443401000009
DenseNetのこの構築ブロックを、提案されているコンセプトのために使用することができる。上述したResNetに関して説明した注意機構と同様に、連続する2つの注意モジュールにそれぞれチャネル注意および空間注意が導入される。注意経路の出力は、緻密層の出力と連結される。
Figure 0007443401000010
の要素を、各自のそれぞれのHl_A(x)相手側要素によって置換することにより、これらのHl_A(x)構築ブロックからDenseNetを取得することができる。
視覚認識ニューラルネットワークのうちの、図5に示されている部分と比較すると、加算演算440が(例えば、第2の乗算演算の出力と、第1のバッチ正規化演算の入力との)連結演算530によって置換されている。さらなる詳細は、図5に関連して説明されている。
システム100は、図4~図7のうちの1つに示されているような部分を含む視覚認識ニューラルネットワークを使用するように構成可能である。
システム100は、コンピュータデバイス内に配置されている1つまたは複数のプロセッサ110および1つまたは複数のストレージデバイス120を備えるコンピュータデバイス(例えば、パーソナルコンピュータ、ラップトップ、タブレットコンピュータ、または携帯電話)であってもよいし、またはこれを含んでいてもよい。あるいは、システム100は、分散コンピュータシステム(例えば、ローカルクライアントおよび1つまたは複数のリモートサーバファームおよび/またはデータセンター等の様々な場所に分散されている1つまたは複数のプロセッサ110および1つまたは複数のストレージデバイス120を備えるクラウドコンピューティングシステム)であってもよい。システム100は、システム100の種々の構成要素を結合するためのシステムバスを含むデータ処理システムを含むことができる。システムバスは、システム100の種々の構成要素間の通信リンクを提供することができ、シングルバスとして、複数のバスの組み合わせとして、または任意の他の適切な手法で実装可能である。システムバスには、電子アセンブリを結合することができる。電子アセンブリは、任意の回路または回路の組み合わせを含んでいてもよい。1つの実施形態では、電子アセンブリは、任意の種類のものとすることができる、プロセッサを含んでいる。本明細書で使用されるように、プロセッサは、例えば、顕微鏡または顕微鏡部品(例えば、カメラ)のマイクロプロセッサ、マイクロコントローラ、複合命令セットコンピューティング(CISC)マイクロプロセッサ、縮小命令セットコンピューティング(RISC)マイクロプロセッサ、超長命令語(VLIW)マイクロプロセッサ、グラフィックプロセッサ、デジタル信号プロセッサ(DSP)、マルチコアプロセッサ、フィールド・プログラマブル・ゲート・アレイ(FPGA)、または任意の他の種類のプロセッサまたは処理回路等のあらゆる種類の計算回路を意図していてもよいが、これらに限定されない。電子アセンブリに含まれ得る他の種類の回路は、カスタム回路、特定用途向け集積回路(ASlC)等であってもよく、例えばこれは、携帯電話、タブレットコンピュータ、ラップトップコンピュータ、双方向無線機および類似の電子システム等の無線装置において使用される1つまたは複数の回路(通信回路等)である。システム100は、ランダムアクセスメモリ(RAM)の形態のメインメモリ等の特定の用途に適した1つまたは複数の記憶素子を含み得る1つまたは複数のストレージデバイス120、1つまたは複数のハードドライブおよび/またはコンパクトディスク(CD)、フラッシュメモリカード、デジタルビデオディスク(DVD)等のリムーバブルメディアを扱う1つまたは複数のドライブ等を含んでいる。システム100は、ディスプレイ装置、1つまたは複数のスピーカおよびキーボードおよび/またはマウス、トラックボール、タッチスクリーン、音声認識装置を含み得るコントローラ、またはシステムのユーザがシステム100に情報を入力することおよびシステム100から情報を受け取ることを可能にする任意の他の装置も含んでいてもよい。
さらに、システム100は、コンピュータデバイスまたは分散コンピュータシステムに接続された顕微鏡を含むことができる。顕微鏡は、生物学的標本から画像を撮影することによって生物学関連の画像ベースの入力トレーニングデータ104を生成するように構成可能である。
顕微鏡は、光学顕微鏡(例えば、超解像顕微鏡またはナノ顕微鏡のような、回折限界顕微鏡またはサブ回折限界顕微鏡)であってもよい。顕微鏡は、スタンドアロン顕微鏡であってもよいし、または付属の構成要素(例えば、共焦点スキャナ、追加的なカメラ、レーザ、気候室、自動装填機構、液体搬送システム、付属の光学構成要素、例えば、追加的な多光子光路、ライトシート撮像、光ピンセットなど)を有する顕微鏡システムであってもよい。生物学的配列(例えば、タンパク質、核酸、脂質)に関連するオブジェクトの画像を撮影することができる限り、他の画像ソースを使用することも可能である。例えば、上記または下記の実施形態による顕微鏡により、深部を発見する顕微鏡法が可能となり得る。
システム100のさらなる詳細および態様は、提案されているコンセプトおよび/または上記または下記(例えば、図8~図9)の1つまたは複数の例に関連して言及される。システム100は、提案されているコンセプトおよび/または上記または下記の1つまたは複数の例の1つまたは複数の態様に対応する1つまたは複数の追加的なオプションの特徴を含むことができる。
いくつかの実施形態は、図1~図7のうちの1つまたは複数に関連して説明したようなシステムを含む顕微鏡に関する。択一的に、顕微鏡は、図1~図7のうちの1つまたは複数に関連して説明したようなシステムの一部であってもよい。図8は、機械学習アルゴリズムをトレーニングするためのシステム800の概略図を示す。生物学的標本の画像を撮影するように構成された顕微鏡810は、機械学習アルゴリズムをトレーニングするように構成されたコンピュータデバイス820(例えば、パーソナルコンピュータ、ラップトップ、タブレットコンピュータ、または携帯電話)に接続されている。顕微鏡810およびコンピュータデバイス820は、図1~図7のうちの1つまたは複数に関連して説明したように実装可能である。
図9は、生物学関連のデータを処理するための機械学習アルゴリズムをトレーニングするための方法のフローチャートである。方法900は、生物学関連の言語ベースの入力トレーニングデータを受信すること910と、言語認識機械学習アルゴリズムによって、生物学関連の言語ベースの入力トレーニングデータの第1の高次元表現を生成すること920と、を含む。第1の高次元表現は、それぞれ異なる値を有する少なくとも3つのエントリを含む。さらに、方法900は、言語認識機械学習アルゴリズムによって、第1の高次元表現に基づいて、生物学関連の言語ベースの出力トレーニングデータを生成すること930と、生物学関連の言語ベースの入力トレーニングデータと、生物学関連の言語ベースの出力トレーニングデータと、の比較に基づいて、言語認識機械学習アルゴリズムを調整すること940と、を含む。さらに、方法900は、生物学関連の言語ベースの入力トレーニングデータに関連付けられた生物学関連の画像ベースの入力トレーニングデータを受信すること950と、視覚認識機械学習アルゴリズムによって、生物学関連の画像ベースの入力トレーニングデータの第2の高次元表現を生成すること960と、を含む。第2の高次元表現は、それぞれ異なる値を有する少なくとも3つのエントリを含む。さらに、方法900は、第1の高次元表現と第2の高次元表現との比較に基づいて、視覚認識機械学習アルゴリズムを調整すること970を含む。
言語認識機械学習アルゴリズムを使用することによって、生物学的テキスト入力を高次元表現にマッピングすることができる。高次元表現が(ワンホットエンコーディングされた表現とは対照的に)種々の異なる値を有するエントリを有することを可能にすることによって、意味論的に類似した生物学的入力を、類似した高次元表現にマッピングすることができる。画像を、言語認識機械学習アルゴリズムによってトレーニングされた高次元表現にマッピングするために、視覚認識機械学習アルゴリズムをトレーニングすることにより、類似した生物学的コンテンツを有する画像を、類似した高次元表現にマッピングすることもできる。その結果、相応にトレーニングされた視覚認識機械学習アルゴリズムによる画像の分類が、意味論的に正確である尤度または少なくとも意味論的に近似する尤度を、大幅に改善することができる。さらに、相応にトレーニングされた視覚認識機械学習アルゴリズムが、トレーニングされていない画像を、類似した意味の高次元表現に近い高次元表現に、または意味論的に一致する高次元表現に、より正確にマッピングすることが可能となり得る。トレーニングされた言語認識機械学習アルゴリズムおよび/またはトレーニングされた視覚認識機械学習アルゴリズムは、生物学関連の言語ベースおよび/または画像ベースの入力データの、意味論的に正確な分類または非常に精確な分類を提供することが可能であり得る提案されているコンセプトによって取得可能である。トレーニングされた言語認識機械学習アルゴリズムおよび/またはトレーニングされた視覚認識機械学習アルゴリズムは、言語ベースの検索入力または画像ベースの検索入力に基づいて、複数の生物学的画像の中から生物学関連の画像を検索すること、生物学関連の画像をタグ付けすること、典型的な画像を検出または生成することおよび/または同様の用途を可能にすることができる。
方法900のさらなる詳細および態様は、提案されているコンセプトおよび/または上記または下記(例えば、図1~図8)の1つまたは複数の例に関連して言及される。方法900は、提案されているコンセプトおよび/または上記または下記の1つまたは複数の例の1つまたは複数の態様に対応する1つまたは複数の追加的なオプションの特徴を含むことができる。
いくつかの実施形態は、トレーニングされた機械学習アルゴリズムであって、当該機械学習アルゴリズムは、生物学関連の言語ベースの入力トレーニングデータを受信することと、言語認識機械学習アルゴリズムによって、生物学関連の言語ベースの入力トレーニングデータの第1の高次元表現を生成することとによってトレーニングされた、機械学習アルゴリズムに関する。第1の高次元表現は、それぞれ異なる値を有する少なくとも3つのエントリを含む。さらに、トレーニングされた機械学習アルゴリズムは、言語認識機械学習アルゴリズムによって、第1の高次元表現に基づいて、生物学関連の言語ベースの出力トレーニングデータを生成することと、生物学関連の言語ベースの入力トレーニングデータと、生物学関連の言語ベースの出力トレーニングデータと、の比較に基づいて、言語認識機械学習アルゴリズムを調整することとによってトレーニングされている。さらに、トレーニングされた機械学習アルゴリズムは、生物学関連の言語ベースの入力トレーニングデータに関連付けられた生物学関連の画像ベースの入力トレーニングデータを受信することと、視覚認識機械学習アルゴリズムによって、生物学関連の画像ベースの入力トレーニングデータの第2の高次元表現を生成することであって、なお、第2の高次元表現は、それぞれ異なる値を有する少なくとも3つのエントリを含む、こととによってトレーニングされている。さらに、トレーニングされた機械学習アルゴリズムは、第1の高次元表現と第2の高次元表現との比較に基づいて、視覚認識機械学習アルゴリズムを調整することによってトレーニングされている。
トレーニングされた機械学習アルゴリズムは、トレーニングされた視覚認識機械学習アルゴリズム(例えば、調整された視覚認識機械学習アルゴリズム)および/またはトレーニングされた言語認識機械学習アルゴリズム(例えば、調整された言語認識機械学習アルゴリズム)であってもよい。トレーニングされた機械学習アルゴリズムの少なくとも一部は、ストレージデバイスによって格納された、学習されたパラメータ(例えば、ニューラルネットワークの重み)であってもよい。
トレーニングされた機械学習アルゴリズムのさらなる詳細および態様は、提案されているコンセプトおよび/または上記または下記(例えば、図1~図9)の1つまたは複数の例に関連して言及される。トレーニングされた機械学習アルゴリズムは、提案されているコンセプトおよび/または上記または下記の1つまたは複数の例の1つまたは複数の態様に対応する1つまたは複数の追加的なオプションの特徴を含むことができる。
以下では、(例えば図1~図9のうちの1つまたは複数に関連して)上記の実施形態のうちの1つまたは複数に関する用途および/または実装の詳細のいくつかの例について説明する。
例えば、一般的に生物学および顕微鏡法は、特に膨大な量のデータを生成しており、これらのデータには注釈が乏しいか、または全く注釈が付されないことが多い。多くの場合、振り返ってみて、どの注釈が有用であったか、または実験の時点でどの新しい生物学的発見が知られていないかが明らかになるだけである。提案されているコンセプトに基づいて、データベースに格納された、または顕微鏡における実行中の実験の一部としての、大量の画像データの意味論的な探索およびタグ付けを可能にすることにより、このようなデータにアクセスすることが可能となり得る。実験は、1回限りの実験であってもよいし、またはスクリーニングキャンペーンのような長期的な実験の一部であってもよい。
実行中の実験の文脈において、提案されているコンセプトは、単一細胞内、細胞小器官内、または組織内で発現されるタンパク質のような標本だけでなく、臓器または発達状態のようなより一般的な構造の一部でもある生物学的構造の検索を自動化するために役立つことができる。このようにして、標本中の関連する部分を検出するための時間のかかるステップを自動化することが可能となり得る。そうでなければ、このステップは、時間的なプレッシャーの下で(例えば、高価な研究機器が期間限定的に予約されていたため)、不快な環境(例えば、騒々しい暗室)で、反復的な手動での作業を行う人間の専門家を必要とし得る。提案されているコンセプトは、個々のバイアスを回避することにより、このステップをより客観的なものにすることもできる。
提案されているコンセプトは、これまで見たことのない種類の画像の分類または注釈付けを意味するゼロショット学習を可能にすることができる。提案されているコンセプトの画像モデル部分は、ワンホットエンコーディングされたクラスではなく意味論的埋め込み(例えば、高次元表現)を予測することができるので、提案されているコンセプトは、意味論的空間(例えば、複数の高次元表現)における未知の画像に対する最も近い一致を検出することが可能であり得る。例えば、以前は未知であった微視的構造内の生物学的機能を検出する新たな発見が可能となり得る。例えば、データベース内に一致する情報が見つからない場合には、提案されているコンセプトは、画像または利用可能な情報に基づいて、欠落している情報を推測することができる。これにより、注釈がないまたは注釈が乏しい大量の既存のデータの検索が可能となり得る。
提案されているコンセプトは、意味論的テキスト埋め込みを画像モデル(例えば、畳み込みニューラルネットワーク、CNN)と組み合わせて、光学顕微鏡法または電子顕微鏡法からのような注釈のないまたは注釈の乏しい生物学的画像、画像スタック、時間経過、またはこれらの組み合わせを検索可能にするか、またはそれらから生物学的情報を抽出する深層学習アプローチを使用することができる。1つの態様によれば、顕微鏡法において、テキストモデルと視覚モデルとの(例えば、言語認識アルゴリズムと視覚認識アルゴリズムとの)組み合わせを使用することができる。
提案されている視覚的・意味論的モデル(例えば、言語認識機械学習アルゴリズムと視覚認識機械学習アルゴリズムとの組み合わせ)は、2段階のプロセスに基づくことができる。段階1は、テキスト認識タスクを解くために、生物学的配列に対してテキストモデル(例えば、言語認識アルゴリズム)をトレーニングすることができる。次いで、段階2では、段階1のモデルによって検出された意味論的埋め込みを、視覚モデル(例えば、視覚認識アルゴリズム)によって予測されるべき目標値として使用することができる。この組み合わせおよびオプションとして実行中の実験中での顕微鏡における用途は、種々の用途を可能にすることができる。
例えば、分類タスクのために他の視覚モデルがトレーニングされているワンホットエンコーディングされたクラスベクトルは、それぞれのクラスを完全に無関係として扱い、したがって、クラスの如何なる意味論も捉えることはできない。対照的に、段階1のテキストモデルは、意味論を(例えば、潜在ベクトル、意味論的埋め込み、または高次元表現とも称される)トークン埋め込みとして捉えることができる。トークンは、文字、単語、または生物学的分子の文脈では二次構造、結合モチーフ、触媒部位、プロモーター配列などであってもよい。次いで、視覚モデルを、これらの意味論的埋め込みに対してトレーニングすることができ、したがって、視覚モデルは、トレーニングされた同じクラスに対してのみならず、トレーニングセットに含まれていない新しいクラスに対しても予測を行うことができる。したがって、意味論的埋め込み空間は、生物学的機能のプロキシとして機能することができる。提案されている撮像システム(例えば、顕微鏡)によって撮像される類似の機能を有する分子は、この埋め込み空間において隣り合うものとして見えることができる。対照的に、ワンホットエンコーディングされたクラスベクトルを予測する他の分類器を用いた場合には、生物学的機能に関する情報を利用することができない。したがって、他の分類器は、これまで見たことのないクラスに関する予測を行うこと(「ゼロショット学習」)に失敗し、それらのクラスが誤分類された場合には、予測されたクラスは、実際のクラスとは完全に無関係であることが多い。
提案されているコンセプトは、深層ニューラルネットワークでのように、テキスト上でトレーニングされ、テキストの隠れ表現として意味論的埋め込みを学習するテキストモデル(例えば、言語モデル)を組み合わせることによって、予測モデルをトレーニングすることができる。タンパク質配列またはヌクレオチド配列のような生物学的配列をテキストとして使用してもよい。他の実施形態は、生物学的分子の機能を記述するために科学刊行物で使用されるテキストのような自然言語を使用してもよい。視覚モデル(例えば、畳み込みニューラルネットワーク、CNN)は、(例えば、他の方法で使用されるワンホットエンコーディングされた特徴ベクトルとは異なり)各自のそれぞれの埋め込みを予測するようにトレーニング可能である。
例えば、提案されているコンセプトの1つの態様は、言語モデル(またはテキストモデル)と視覚モデルとの組み合わせに基づいて構築されたシステムおよび実施形態を説明する。
言語モデルは、長短期記憶(LSTM)モデルのような深層リカレントニューラルネットワーク(RNN)として実行可能である。視覚モデルは、深層畳み込みニューラルネットワーク(CNN)として実行可能である。他の実施形態は、種々異なる種類の深層学習モデルまたは機械学習モデルを使用してもよい。例えば、視覚モデルは、カプセルネットワークとして実行可能である。
種々異なる知識ドメインにわたるテキスト情報と視覚情報とを組み合わせることによって、視覚モデルは、トレーニング時に用いられた画像の真の意味論的表現を学習することが可能となり得る。例えば、画像分類の分野では、CNNは、1つの単語で画像コンテンツを記述する種々のクラスを予測するようにトレーニング可能である。この単語は、ワンホットエンコーディングされたベクトルとして表現可能である。ワンホットエンコーディングの場合には、“Lilium sp. pollen grain(ユリ花粉粒)”および“Endosomes(エンドソーム)”に対するエンコーディングは、これら2つの細胞小器官が、細胞小器官および花粉粒よりも互いに格段に類似していたとしても、“Endosomes(エンドソーム)”および“Lysosomes(リソソーム)”と同程度の近さであるか、または同程度に離れている。したがって、ワンホットエンコーディングされたベクトルを予測するようにトレーニングされた視覚モデルは、完全に正しいかまたは完全に間違っているかのいずれかとなり得る。しかしながら、クラスの(例えば、言語モデルによって学習される)意味論的埋め込みを予測するようにモデルがトレーニングされる場合には、その予測を、この埋め込み空間における意味論的に関連するオブジェクトに、より近づけることができる。
例えば、提案されているコンセプトによれば、言語モデルは、テキスト上でトレーニングされ、テキストの隠れ表現として意味論的埋め込みを学習する。例えば、文における次の単語を予測するようにトレーニングされた言語モデルは、500次元の潜在ベクトルにおいて単語を表現することができる。他の次元も可能である。自然言語処理では、50次元~1000次元の間の潜在ベクトルを使用することができる。提案されているコンセプトは、タンパク質配列またはヌクレオチド配列のような生物学的配列をテキストとして使用し、各自のそれぞれの埋め込みを予測するように視覚モデルをトレーニングすることができる。生物学的配列は、生物学的機能をエンコーディングすることができ、したがって、「生物学的言語」の形態として理解可能である。さらに、画像を表現するために自然言語も使用することができる。なぜなら、タンパク質配列またはヌクレオチド配列のような生物学的エンティティの機能的役割を説明する多数の科学刊行物が存在するだけでなく、顕微鏡画像を特徴付ける際にこの情報を有用にする細胞内局在、または発達状態および/もしくは代謝状態も存在するからである。
トレーニングされたモデルを取得するためのステップは、例えば、以下であってもよい:
・トークン埋め込みを検出する:例えば、それぞれの生物学的分子(例えば、ヌクレオチド、タンパク質)に関する科学刊行物におけるヌクレオチド/タンパク質配列またはテキスト記述/キャプションの形態での生物学的分子の表現に基づいて、第1の言語/言語学モデル(例えば、RNN、LSTM)をトレーニングすること。例えば、生成されたトークン埋め込みは、モデルのトレーニング中に導出可能である。この第1のトレーニング段階自体の最終的な結果(例えば、配列における次の要素の予測)は、関心対象ではない場合がある。しかしながら、予測目標を定義することにより、トレーニングの精度および/または速度を改善することができる。
・それぞれのトークン埋め込みへの画像(例えば、それぞれの生物学的分子の画像)のマッピング。換言すれば、言語/言語学モデルのトレーニングの生物学的テキスト入力を表現する生物学的構造から画像を選択することができる。これらの画像を、第2段階のトレーニングのために使用することができる。対応する生物学的テキスト記述を有する画像のデータベースが使用される場合には、画像のこのマッピングは、不要となり得る。
・第1のモデルにより検出されたそれぞれのトークン埋め込みを予測するための画像認識モデル(例えばCNN、カプセルネットワーク)の第2段階のトレーニング。入力は、それぞれの生物学的分子の画像である。画像は、第1のモデルによって生成されたトークン埋め込みに含まれている意味論にマッピング可能である。
例えば、トークン埋め込みは、図2に示されているようにテキストモデルを構築することによって検出可能である。リポジトリ200から生物学的配列210を独立変数としてテキストモデル220に渡すことができる。テキストモデルは、短いストレッチの配列から次の文字(例えば、タンパク質配列におけるアミノ酸、またはヌクレオチド配列における塩基)を予測するなどの言語処理タスクを担うことができる。他の言語処理タスクは、適切であるが別の異なる種類の埋め込みを検出することが可能であり得る。そのようなタスクは、ホモロジー予測、文における次の単語の予測などを含むことができる。データは、隠れ表現を学習するためにエンコーダ経路230を通過し、この隠れ表現から有用な予測250を行うためにデコーダ経路を通過することができる。隠れ表現は、潜在空間への埋め込み(例えば、高次元ベクトル)とみなすことができる。トレーニングされたモデルにおいて、このトークン埋め込みは、それぞれのトークンの、各自のそれぞれの潜在ベクトル260へのマッピングを表現することができる。自然言語処理タスクを担っているテキストモデルでは、トークンは、単語と同等であってもよく、トークン埋め込みは、単語埋め込みであってもよい。
例えば、視覚モデルは、図3に示されているようにトークンベクトルを予測するようにトレーニングされている。データリポジトリ300から、または実行中の実験中の顕微鏡から、画像310を独立変数として視覚モデル320の入力に渡すことができる。従属変数として、所望のイメージクラスにマッピングされたトークン埋め込み330を、出力においてモデルに示すことができる。視覚モデルは、それぞれの入力ごとにトークン埋め込みを予測することを学習することができる。
実施形態は、機械学習モデルまたは機械学習アルゴリズムの使用に基づいていてもよい。機械学習は、モデルおよび推論に依存する代わりに、コンピュータシステムが、明示的な命令を使用することなく、特定のタスクを実行するために使用し得るアルゴリズムおよび統計モデルを参照してもよい。例えば、機械学習では、ルールに基づくデータ変換の代わりに、過去のデータおよび/またはトレーニングデータの分析から推論されるデータ変換が使用されてもよい。例えば、画像コンテンツは、機械学習モデルを用いて、または機械学習アルゴリズムを用いて分析されてもよい。機械学習モデルが画像コンテンツを分析するために、機械学習モデルは、入力としてのトレーニング画像と出力としてのトレーニングコンテンツ情報を用いてトレーニングされてもよい。多数のトレーニング画像および/またはトレーニングシーケンス(例えば単語または文)および関連するトレーニングコンテンツ情報(例えばラベルまたは注釈)によって機械学習モデルをトレーニングすることによって、機械学習モデルは、画像コンテンツを認識することを「学習」するので、トレーニングデータに含まれていない画像コンテンツが機械学習モデルを用いて認識可能になる。同じ原理が、同じように他の種類のセンサデータに対して使用されてもよい:トレーニングセンサデータと所望の出力を用いて機械学習モデルをトレーニングすることによって、機械学習モデルは、センサデータと出力との間の変換を「学習し」、これは、機械学習モデルに提供された非トレーニングセンサデータに基づいて出力を提供するために使用可能である。
機械学習モデルは、トレーニング入力データを用いてトレーニングされてもよい。上記の例は、「教師あり学習」と称されるトレーニング方法を使用する。教師あり学習では、機械学習モデルは、複数のトレーニングサンプルを用いてトレーニングされ、ここで各サンプルは複数の入力データ値と複数の所望の出力値を含んでいてもよく、すなわち各トレーニングサンプルは、所望の出力値と関連付けされている。トレーニングサンプルと所望の出力値の両方を指定することによって、機械学習モデルは、トレーニング中に、提供されたサンプルに類似する入力サンプルに基づいてどの出力値を提供するのかを「学習」する。教師あり学習の他に、半教師あり学習が使用されてもよい。半教師あり学習では、トレーニングサンプルの一部は、対応する所望の出力値を欠いている。教師あり学習は、教師あり学習アルゴリズム、例えば分類アルゴリズム、回帰アルゴリズムまたは類似度学習アルゴリズムに基づいていてもよい。出力が、値の限られたセットに制限される場合、すなわち入力が値の限られたセットのうちの1つに分類される場合、分類アルゴリズムが使用されてもよい。出力が(範囲内の)任意の数値を有していてもよい場合、回帰アルゴリズムが使用されてもよい。類似度学習アルゴリズムは、分類アルゴリズムと回帰アルゴリズムの両方に類似していてもよいが、2つのオブジェクトがどの程度類似しているかまたは関係しているかを測定する類似度関数を用いた例からの学習に基づいている。教師あり学習または半教師あり学習の他に、機械学習モデルをトレーニングするために教師なし学習が使用されてもよい。教師なし学習では、入力データ(だけ)が供給される可能性があり、教師なし学習アルゴリズムは、例えば、入力データをグループ化またはクラスタリングすること、データに共通性を見出すことによって入力データにおいて構造を見出すために使用されてもよい。クラスタリングは、複数の入力値を含んでいる入力データを複数のサブセット(クラスター)に割り当てることであるので、同じクラスター内の入力値は1つまたは複数の(事前に定められた)類似度判断基準に従って類似しているが、別のクラスターに含まれている入力値と類似していない。
強化学習は機械学習アルゴリズムの第3のグループである。換言すれば、強化学習は機械学習モデルをトレーニングするために使用されてもよい。強化学習では、1つまたは複数のソフトウェアアクター(「ソフトウェアエージェント」と称される)が、周囲において行動を取るようにトレーニングされる。取られた行動に基づいて、報酬が計算される。強化学習は、(報酬の増加によって明らかにされるように)累積報酬が増加し、与えられたタスクでより良くなるソフトウェアエージェントが得られるように行動を選択するように、1つまたは複数のソフトウェアエージェントをトレーニングすることに基づいている。
さらに、いくつかの技術が、機械学習アルゴリズムの一部に適用されてもよい。例えば、特徴表現学習が使用されてもよい。換言すれば、機械学習モデルは、少なくとも部分的に特徴表現学習を用いてトレーニングされてもよい、かつ/または機械学習アルゴリズムは、特徴表現学習構成要素を含んでいてもよい。表現学習アルゴリズムと称され得る特徴表現学習アルゴリズムは、自身の入力に情報を保存するだけでなく、多くの場合、分類または予測を実行する前の前処理ステップとして、有用にするように情報の変換も行ってもよい。特徴表現学習は、例えば、主成分分析またはクラスター分析に基づいていてもよい。
いくつかの例では、異常検知(すなわち、外れ値検知)が使用されてもよく、これは、入力またはトレーニングデータの大部分と著しく異なることによって疑念を引き起こしている入力値の識別を提供することを目的としている。換言すれば、機械学習モデルは、少なくとも部分的に異常検知を用いてトレーニングされてもよく、かつ/または機械学習アルゴリズムは、異常検知構成要素を含んでいてもよい。
いくつかの例では、機械学習アルゴリズムは、予測モデルとして決定木を使用してもよい。換言すれば、機械学習モデルは、決定木に基づいていてもよい。決定木において、項目(例えば、入力値のセット)に関する観察は、決定木のブランチによって表されてもよく、この項目に対応する出力値は、決定木のリーフによって表されてもよい。決定木は、出力値として離散値と連続値の両方をサポートしてもよい。離散値が使用される場合、決定木は、分類木として表されてもよく、連続値が使用される場合、決定木は、回帰木として表されてもよい。
相関ルールは、機械学習アルゴリズムにおいて使用され得る別の技術である。換言すれば、機械学習モデルは、1つまたは複数の相関ルールに基づいていてもよい。相関ルールは、大量のデータにおける変数間の関係を識別することによって作成される。機械学習アルゴリズムは、データから導出された知識を表す1つまたは複数の相関的なルールを識別してもよい、かつ/または利用してもよい。これらのルールは、例えば、知識を格納する、操作するまたは適用するために使用されてもよい。
機械学習アルゴリズムは通常、機械学習モデルに基づいている。換言すれば、用語「機械学習アルゴリズム」は、機械学習モデルを作成する、トレーニングするまたは使用するために使用され得る命令のセットを表していてもよい。用語「機械学習モデル」は、例えば、機械学習アルゴリズムによって実行されるトレーニングに基づいて学習した知識を表すデータ構造および/またはルールのセットを表していてもよい。実施形態では、機械学習アルゴリズムの用法は、基礎となる1つの機械学習モデル(または基礎となる複数の機械学習モデル)の用法を意味していてもよい。機械学習モデルの用法は、機械学習モデルおよび/または機械学習モデルであるデータ構造/ルールのセットが機械学習アルゴリズムによってトレーニングされることを意味していてもよい。
例えば、機械学習モデルは、人工ニューラルネットワーク(ANN)であってもよい。ANNは、網膜または脳において見出されるような、生物学的ニューラルネットワークによって影響を与えられるシステムである。ANNは、相互接続された複数のノードと、ノード間の、複数の接合部分、いわゆるエッジを含んでいる。通常、3種類のノードが存在しており、すなわち入力値を受け取る入力ノード、他のノードに接続されている(だけの)隠れノードおよび出力値を提供する出力ノードが存在している。各ノードは、人工ニューロンを表していてもよい。各エッジは、1つのノードから別のノードに、情報を伝達してもよい。ノードの出力は、その入力の和の(非線形)関数として定義されてもよい。ノードの入力は、入力を提供するエッジまたはノードの「重み」に基づく関数において使用されてもよい。ノードおよび/またはエッジの重みは、学習過程において調整されてもよい。換言すれば、人工ニューラルネットワークのトレーニングは、与えられた入力に対して所望の出力を得るために、人工ニューラルネットワークのノードおよび/またはエッジの重みを調整することを含んでいてもよい。
択一的に、機械学習モデルは、サポートベクターマシン、ランダムフォレストモデルまたは勾配ブースティングモデルであってもよい。サポートベクターマシン(すなわち、サポートベクターネットワーク)は、例えば、分類または回帰分析においてデータを分析するために使用され得る、関連する学習アルゴリズムを伴う、教師あり学習モデルである。サポートベクターマシンは、2つのカテゴリのいずれかに属する複数のトレーニング入力値を伴う入力を提供することによってトレーニングされてもよい。サポートベクターマシンは、2つのカテゴリのいずれかに新しい入力値を割り当てるようにトレーニングされてもよい。択一的に、機械学習モデルは、確率有向非巡回グラフィカルモデルであるベイジアンネットワークであってもよい。ベイジアンネットワークは、有向非巡回グラフを用いて、確率変数とその条件付き依存性のセットを表していてもよい。択一的に、機械学習モデルは、検索アルゴリズムと自然淘汰の過程を模倣した発見的方法である遺伝的アルゴリズムに基づいていてもよい。
本明細書で使用されるように、用語「および/または(かつ/または)」は、関連する記載項目のうちの1つまたは複数の項目のあらゆる全ての組み合わせを含んでおり、「/」として略記されることがある。
いくつかの態様を装置の文脈において説明してきたが、これらの態様が、対応する方法の説明も表していることが明らかであり、ここではブロックまたは装置がステップまたはステップの特徴に対応している。同様に、ステップの文脈において説明された態様は、対応する装置の対応するブロックまたは項目または特徴の説明も表している。ステップの一部または全部は、例えば、プロセッサ、マイクロプロセッサ、プログラマブルコンピュータまたは電子回路等のハードウェア装置(またはハードウェア装置を使用すること)によって実行されてもよい。いくつかの実施形態では、極めて重要なステップのいずれか1つまたは複数が、そのような装置によって実行されてもよい。
一定の実装要件に応じて、本発明の実施形態は、ハードウェアまたはソフトウェアで実装され得る。この実装は、非一過性の記録媒体によって実行可能であり、非一過性の記録媒体は、各方法を実施するために、プログラマブルコンピュータシステムと協働する(または協働することが可能である)、電子的に読取可能な制御信号が格納されている、デジタル記録媒体等であり、これは例えば、フロッピーディスク、DVD、ブルーレイ、CD、ROM、PROMおよびEPROM、EEPROMまたはFLASHメモリである。したがって、デジタル記録媒体は、コンピュータ読取可能であってもよい。
本発明のいくつかの実施形態は、本明細書に記載のいずれかの方法が実施されるように、プログラマブルコンピュータシステムと協働することができる、電子的に読取可能な制御信号を有するデータ担体を含んでいる。
一般的に、本発明の実施形態は、プログラムコードを備えるコンピュータプログラム製品として実装可能であり、このプログラムコードは、コンピュータプログラム製品がコンピュータ上で実行されるときにいずれかの方法を実施するように作動する。このプログラムコードは、例えば、機械可読担体に格納されていてもよい。例えば、コンピュータプログラムは、非一過性の記録媒体に格納されていてもよい。いくつかの実施形態は、実行されるときに提案されているコンセプトまたは上述した1つもしくは複数の例による方法を実施するための機械可読命令を含む、非一過性の記録媒体に関する。
別の実施形態は、機械可読担体に格納されている、本明細書に記載のいずれかの方法を実施するためのコンピュータプログラムを含んでいる。
したがって、換言すれば、本発明の実施形態は、コンピュータプログラムがコンピュータ上で実行されるときに本明細書に記載のいずれかの方法を実施するためのプログラムコードを有するコンピュータプログラムである。
したがって、本発明の別の実施形態は、プロセッサによって実行されるときに本明細書に記載のいずれかの方法を実施するために、格納されているコンピュータプログラムを含んでいる記録媒体(またはデータ担体またはコンピュータ読取可能な媒体)である。データ担体、デジタル記録媒体または被記録媒体は、典型的に、有形である、かつ/または非一過性である。本発明の別の実施形態は、プロセッサと記録媒体とを含んでいる、本明細書に記載されたような装置である。
したがって、本発明の別の実施形態は、本明細書に記載のいずれかの方法を実施するためのコンピュータプログラムを表すデータストリームまたは信号シーケンスである。データストリームまたは信号シーケンスは例えば、データ通信接続、例えばインターネットを介して転送されるように構成されていてもよい。
別の実施形態は、処理手段、例えば、本明細書に記載のいずれかの方法を実施するように構成または適合されているコンピュータまたはプログラマブルロジックデバイスを含んでいる。
別の実施形態は、本明細書に記載のいずれかの方法を実施するために、インストールされたコンピュータプログラムを有しているコンピュータを含んでいる。
本発明の別の実施形態は、本明細書に記載のいずれかの方法を実施するためのコンピュータプログラムを(例えば、電子的にまたは光学的に)受信機に転送するように構成されている装置またはシステムを含んでいる。受信機は、例えば、コンピュータ、モバイル機器、記憶装置等であってもよい。装置またはシステムは、例えば、コンピュータプログラムを受信機に転送するために、ファイルサーバを含んでいてもよい。
いくつかの実施形態では、プログラマブルロジックデバイス(例えば、フィールド・プログラマブル・ゲート・アレイ)が、本明細書に記載された方法の機能の一部または全部を実行するために使用されてもよい。いくつかの実施形態では、フィールド・プログラマブル・ゲート・アレイは、本明細書に記載のいずれかの方法を実施するためにマイクロプロセッサと協働してもよい。一般的に、有利には、任意のハードウェア装置によって方法が実施される。
100 生物学関連のデータを処理するための機械学習アルゴリズムをトレーニングするためのシステム
102 生物学的関連の言語ベースの入力トレーニングデータ
104 生物学関連の画像ベースの入力トレーニングデータ
110 1つまたは複数のプロセッサ
120 1つまたは複数のストレージデバイス
200 データベース;リポジトリ
210 生物学関連の言語ベースの入力トレーニングデータ;生物学的配列
220 言語認識機械学習アルゴリズム;テキストモデル
230 言語認識機械学習アルゴリズムのエンコーダ経路
240 言語認識機械学習アルゴリズムのデコーダ経路
250 生物学関連の言語ベースの出力トレーニングデータ;予測
260 第1の高次元表現;隠れ表現;潜在ベクトル;トークン埋め込み
300 リポジトリ
310 生物学関連の画像ベースの入力トレーニングデータ;画像
320 視覚認識機械学習アルゴリズム;視覚モデル
330 第2の高次元表現;隠れ表現;潜在ベクトル;トークン埋め込み
400 視覚認識ニューラルネットワークの部分;ResNetブロック
410 バッチ正規化演算
420 ReLu演算
430 畳み込み演算
440 加算演算
500 視覚認識ニューラルネットワークの部分;ResNet-CBAMブロック
510 大域平均プーリング演算
520 大域最大プーリング演算
530 連結演算
540 シグモイド演算
550 乗算演算
560 平均値演算
570 最大値演算
600 視覚認識ニューラルネットワークの部分;ボトルネック構成を有する緻密層
700 視覚認識ニューラルネットワークの部分;注意機構を有する緻密層
800 機械学習アルゴリズムをトレーニングするためのシステム
810 顕微鏡
820 コンピュータデバイス
900 生物学関連のデータを処理するための機械学習アルゴリズムをトレーニングするための方法
910 生物学関連の言語ベースの入力トレーニングデータを受信する
920 第1の高次元表現を生成する
930 生物学関連の言語ベースの出力トレーニングデータを生成する
940 言語認識機械学習アルゴリズムを調整する
950 生物学関連の画像ベースの入力トレーニングデータを受信する
960 第2の高次元表現を生成する
970 視覚認識機械学習アルゴリズムを調整する

Claims (12)

  1. 1つまたは複数のプロセッサ(110)と、1つまたは複数のストレージデバイス(120)と、を含むシステム(100)であって、前記システム(100)は、
    生物学関連の言語ベースの入力トレーニングデータ(102,210)を受信し、前記生物学関連の言語ベースの入力トレーニングデータ(102,210)は、ヌクレオチド配列、タンパク質配列、生物学的分子もしくは生物学的構造の記述、生物学的分子もしくは生物学的構造の挙動の記述、または、生物学的機能もしくは生物学的活動の記述のうちの少なくとも1つであり、
    前記1つまたは複数のプロセッサ(110)によって実行される言語認識機械学習アルゴリズム(220)によって、前記生物学関連の言語ベースの入力トレーニングデータ(102,210)の第1の高次元表現(260)を生成し、前記第1の高次元表現(260)は、それぞれ異なる値を有する少なくとも3つのエントリを含み、
    前記1つまたは複数のプロセッサ(110)によって実行される前記言語認識機械学習アルゴリズム(220)によって、前記第1の高次元表現(260)に基づいて、生物学関連の言語ベースの出力トレーニングデータ(250)を生成し、
    前記生物学関連の言語ベースの入力トレーニングデータ(102,210)と、前記生物学関連の言語ベースの出力トレーニングデータ(250)と、の比較に基づいて、前記言語認識機械学習アルゴリズム(220)を調整し、
    前記生物学関連の言語ベースの入力トレーニングデータ(102,210)に関連付けられた生物学関連の画像ベースの入力トレーニングデータ(104,310)を受信し、
    前記1つまたは複数のプロセッサ(110)によって実行される視覚認識機械学習アルゴリズム(320)によって、前記生物学関連の画像ベースの入力トレーニングデータ(104,310)の第2の高次元表現(330)を生成し、前記第2の高次元表現(330)は、それぞれ異なる値を有する少なくとも3つのエントリを含み、
    前記第1の高次元表現(260)と前記第2の高次元表現(330)との比較に基づいて、前記視覚認識機械学習アルゴリズム(320)を調整する、
    ように構成されており
    前記生物学関連の言語ベースの入力トレーニングデータ(102,210)は、生物学的配列であり、
    前記生物学関連の言語ベースの出力トレーニングデータ(250)は、前記生物学的配列における次の要素についての予測を含み、
    前記生物学関連の画像ベースの入力トレーニングデータ(104,310)は、ヌクレオチドもしくはヌクレオチド配列を含む生物学的構造、タンパク質もしくはタンパク質配列を含む生物学的構造、生物学的分子、生物学的組織、特定の挙動を有する生物学的構造、または、特定の生物学的機能もしくは特定の生物学的活動を有する生物学的構造のうちの少なくとも1つの画像の画像トレーニングデータである、
    システム。
  2. 前記第1の高次元表現(260)の1つまたは複数のエントリの値は、特定の生物学的機能または特定の生物学的活動が存在する尤度に比例する、
    請求項1記載のシステム。
  3. 前記第2の高次元表現(330)の1つまたは複数のエントリの値は、特定の生物学的機能または特定の生物学的活動が存在する尤度に比例する、
    請求項1または2記載のシステム。
  4. 前記第1の高次元表現(260)のエントリの値の50%超および前記第2の高次元表現(330)のエントリの値の50%超は、0に等しくない、
    請求項1から3までのいずれか1項記載のシステム。
  5. 前記第1の高次元表現(260)の5つを超えるエントリの値は、前記第1の高次元表現(260)のエントリの最大絶対値の10%よりも大きく、
    前記第2の高次元表現(330)の5つを超えるエントリの値は、前記第2の高次元表現(330)のエントリの最大絶対値の10%よりも大きい、
    請求項1から4までのいずれか1項記載のシステム。
  6. 前記生物学関連の言語ベースの入力トレーニングデータ(102,210)は、20文字を超える長さを含む、
    請求項1から5までのいずれか1項記載のシステム。
  7. 前記システムは、生物学関連の言語ベースの入力トレーニングデータセットのトレーニンググループのうちのそれぞれの生物学関連の言語ベースの入力トレーニングデータ(102,210)ごとに、
    第1の高次元表現(260)を生成することと、
    生物学関連の言語ベースの出力トレーニングデータ(250)を生成することと、
    前記言語認識機械学習アルゴリズム(220)を調整することと、
    を繰り返すように構成されている、
    請求項1から6までのいずれか1項記載のシステム。
  8. 前記生物学関連の言語ベースの入力トレーニングデータセットの前記トレーニンググループのうちの第1の生物学関連の言語ベースの入力トレーニングデータ(102,210)の長さは、前記生物学関連の言語ベースの入力トレーニングデータセットの前記トレーニンググループのうちの第2の生物学関連の言語ベースの入力トレーニングデータ(102,210)の長さとは異なる、
    請求項7記載のシステム。
  9. 前記システムは、生物学関連の画像ベースの入力トレーニングデータセットのトレーニンググループのうちのそれぞれの生物学関連の画像ベースの入力トレーニングデータ(104,310)ごとに、
    第2の高次元表現(330)を生成することと、
    前記視覚認識機械学習アルゴリズム(320)を調整することと、
    を繰り返すように構成されている、
    請求項1から8までのいずれか1項記載のシステム。
  10. 請求項1から9までのいずれか1項記載のシステムを含む、顕微鏡。
  11. システムによって、生物学関連のデータを処理するための機械学習アルゴリズムをトレーニングするための方法(900)であって、前記方法は、
    生物学関連の言語ベースの入力トレーニングデータを前記システムが受信するステップ(910)であって、前記生物学関連の言語ベースの入力トレーニングデータ(102,210)は、ヌクレオチド配列、タンパク質配列、生物学的分子もしくは生物学的構造の記述、生物学的分子もしくは生物学的構造の挙動の記述、または、生物学的機能もしくは生物学的活動の記述のうちの少なくとも1つであるステップと、
    言語認識機械学習アルゴリズムによって、前記生物学関連の言語ベースの入力トレーニングデータの第1の高次元表現を前記システムが生成するステップであって、前記第1の高次元表現は、それぞれ異なる値を有する少なくとも3つのエントリを含むステップ(920)と、
    前記言語認識機械学習アルゴリズムによって、前記第1の高次元表現に基づいて、前記生物学関連の言語ベースの出力トレーニングデータを前記システムが生成するステップ(930)と、
    前記生物学関連の言語ベースの入力トレーニングデータと、前記生物学関連の言語ベースの出力トレーニングデータと、の比較に基づいて、前記言語認識機械学習アルゴリズムを前記システムが調整するステップ(940)と、
    前記生物学関連の言語ベースの入力トレーニングデータに関連付けられた生物学関連の画像ベースの入力トレーニングデータを前記システムが受信するステップ(950)と、
    視覚認識機械学習アルゴリズムによって、前記生物学関連の画像ベースの入力トレーニングデータの第2の高次元表現を前記システムが生成するステップであって、前記第2の高次元表現は、それぞれ異なる値を有する少なくとも3つのエントリを含むステップ(960)と、
    前記第1の高次元表現と前記第2の高次元表現との比較に基づいて、前記視覚認識機械学習アルゴリズムを前記システムが調整するステップ(970)と、
    を含み、
    前記生物学関連の言語ベースの入力トレーニングデータ(102,210)は、生物学的配列であり、
    前記生物学関連の言語ベースの出力トレーニングデータ(250)は、前記生物学的配列における次の要素についての予測を含み、
    前記生物学関連の画像ベースの入力トレーニングデータ(104,310)は、ヌクレオチドもしくはヌクレオチド配列を含む生物学的構造、タンパク質もしくはタンパク質配列を含む生物学的構造、生物学的分子、生物学的組織、特定の挙動を有する生物学的構造、または、特定の生物学的機能もしくは特定の生物学的活動を有する生物学的構造のうちの少なくとも1つの画像の画像トレーニングデータである、
    方法(900)。
  12. プロセッサによって実行されるときに請求項11記載の方法を実施するためのプログラムコードを有する、コンピュータプログラム。
JP2021572433A 2019-06-07 2019-06-07 生物学関連のデータを処理するための機械学習アルゴリズムをトレーニングするためのシステムおよび方法、顕微鏡ならびにトレーニングされた機械学習アルゴリズム Active JP7443401B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2019/064960 WO2020244774A1 (en) 2019-06-07 2019-06-07 A system and method for training machine-learning algorithms for processing biology-related data, a microscope and a trained machine learning algorithm

Publications (2)

Publication Number Publication Date
JP2022542639A JP2022542639A (ja) 2022-10-06
JP7443401B2 true JP7443401B2 (ja) 2024-03-05

Family

ID=66810816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021572433A Active JP7443401B2 (ja) 2019-06-07 2019-06-07 生物学関連のデータを処理するための機械学習アルゴリズムをトレーニングするためのシステムおよび方法、顕微鏡ならびにトレーニングされた機械学習アルゴリズム

Country Status (5)

Country Link
US (1) US20220246244A1 (ja)
EP (1) EP3981003A1 (ja)
JP (1) JP7443401B2 (ja)
CN (1) CN114450751A (ja)
WO (1) WO2020244774A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11599749B1 (en) * 2019-12-23 2023-03-07 Thales Sa Method of and system for explainable knowledge-based visual question answering
US11961287B2 (en) * 2020-10-02 2024-04-16 Servicenow Canada Inc. Method and system for meaningful counterfactual explanations
CN112906813A (zh) * 2021-03-09 2021-06-04 中南大学 一种基于密度聚类和胶囊神经网络的浮选工况识别方法
CN113065588A (zh) * 2021-03-24 2021-07-02 齐鲁工业大学 基于双线性注意力网络的医学影像数据分类方法及系统
CN112949841B (zh) * 2021-05-13 2022-08-16 德鲁动力科技(成都)有限公司 一种基于Attention的CNN神经网络的行人重识别方法
CN113178229B (zh) * 2021-05-31 2022-03-08 吉林大学 一种基于深度学习的rna和蛋白质结合位点的识别方法
CN113449801B (zh) * 2021-07-08 2023-05-02 西安交通大学 一种基于多级图像上下文编解码的图像人物行为描述生成方法
CN113517030B (zh) * 2021-07-19 2022-09-20 中国人民解放军国防科技大学 基于病毒传播网络的基因序列表示学习方法
CN113658047A (zh) * 2021-08-18 2021-11-16 北京石油化工学院 一种结晶图像超分辨率重建方法
CN113762278B (zh) * 2021-09-13 2023-11-17 中冶路桥建设有限公司 一种基于目标检测的沥青路面损坏识别方法
CN113920989B (zh) * 2021-12-13 2022-04-01 中国科学院自动化研究所 一种语音识别与语音翻译端到端系统及设备
CN114778485B (zh) * 2022-06-16 2022-09-06 中化现代农业有限公司 基于近红外光谱和注意力机制网络的品种鉴定方法及系统
CN115099275B (zh) * 2022-06-29 2023-07-07 西南医科大学 一种基于人工神经网络的心律失常诊断模型的训练方法
CN116052774B (zh) * 2022-07-04 2023-11-28 湖南中医药大学 基于深度学习的关键miRNA识别方法及系统
CN116204674B (zh) * 2023-04-28 2023-07-18 中国科学技术大学 一种基于视觉概念词关联结构化建模的图像描述方法
CN116913383B (zh) * 2023-09-13 2023-11-28 鲁东大学 一种基于多模态的t细胞受体序列分类方法
CN117572379B (zh) * 2024-01-17 2024-04-12 厦门中为科学仪器有限公司 一种基于cnn-cbam收缩二分类网络的雷达信号处理方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127475B1 (en) 2013-05-31 2018-11-13 Google Llc Classifying images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127475B1 (en) 2013-05-31 2018-11-13 Google Llc Classifying images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MENDIETA, M. et al.,A cross-modal transfer approach for histological images: A case study in aquaculture for disease identification using zero-shot learning,2017 IEEE Second Ecuador Technical Chapters Meeting (ETCM) [online],IEEE,2018年01月08日,[retrieved on 2023.08.23],<URL: https://ieeexplore.ieee.org/document/8247501>,DOI : 10.1109/ETCM.2017.8247501
SOCHER, R. et al.,Zero-Shot Learning Through Cross-Modal Transfer,arXiv[online],2013年,p.1-7,[retrieved on 2023.08.23],<URL: https://arxiv.org/abs/1301.3666>

Also Published As

Publication number Publication date
JP2022542639A (ja) 2022-10-06
US20220246244A1 (en) 2022-08-04
EP3981003A1 (en) 2022-04-13
WO2020244774A1 (en) 2020-12-10
CN114450751A (zh) 2022-05-06

Similar Documents

Publication Publication Date Title
JP7443401B2 (ja) 生物学関連のデータを処理するための機械学習アルゴリズムをトレーニングするためのシステムおよび方法、顕微鏡ならびにトレーニングされた機械学習アルゴリズム
Zhu et al. Converting tabular data into images for deep learning with convolutional neural networks
Shafiq et al. Deep residual learning for image recognition: A survey
Emmert-Streib et al. An introductory review of deep learning for prediction models with big data
Alom et al. A state-of-the-art survey on deep learning theory and architectures
Elbasir et al. DeepCrystal: a deep learning framework for sequence-based protein crystallization prediction
Hu et al. Efficient forward architecture search
Arowolo et al. A survey of dimension reduction and classification methods for RNA-Seq data on malaria vector
US20230011970A1 (en) Method and an apparatus for predicting a future state of a biological system, a system and a computer program
Zuo et al. Dataset-aware multi-task learning approaches for biomedical named entity recognition
JP7346603B2 (ja) 生物学関連のデータを処理するためのシステムおよび方法ならびに顕微鏡
Ullah et al. PScL-DDCFPred: an ensemble deep learning-based approach for characterizing multiclass subcellular localization of human proteins from bioimage data
US11960518B2 (en) System and method for processing biology-related data, a system and method for controlling a microscope and a microscope
Geete et al. Robust transcription factor binding site prediction using deep neural networks
Dionysiou et al. Convolutional neural networks in combination with support vector machines for complex sequential data classification
Ranjan et al. λ-Scaled-attention: A novel fast attention mechanism for efficient modeling of protein sequences
US12026191B2 (en) System and method for processing biology-related data, a system and method for controlling a microscope and a microscope
Masurkar et al. Human protein subcellular localization using convolutional neural network as feature extractor
US20240212109A1 (en) Systems and methods for training a machine-learning algorithm and application of a machine-learning model for denoising images
US20220245188A1 (en) A system and method for processing biology-related data, a system and method for controlling a microscope and a microscope
Eichenberger Applications of deep learning in biology
EP3980938A1 (en) A system and method for generating a biology-related image-based output data set of a typical image of a biological structure and a system and method for training a generative adversarial network
Purohit Sequence-based Protein Interaction Site Prediction using Computer Vision and Deep Learning
Szymborski et al. INTREPPPID-An Orthologue-Informed Quintuplet Network for Cross-Species Prediction of Protein-Protein Interaction
Samiei Meta-Learning for Cancer Phenotype Prediction from Gene Expression Data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240221

R150 Certificate of patent or registration of utility model

Ref document number: 7443401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150