JP2023546193A - 経時的に試料中の粒子を表す入力画像のシーケンスを分類する方法 - Google Patents
経時的に試料中の粒子を表す入力画像のシーケンスを分類する方法 Download PDFInfo
- Publication number
- JP2023546193A JP2023546193A JP2023524074A JP2023524074A JP2023546193A JP 2023546193 A JP2023546193 A JP 2023546193A JP 2023524074 A JP2023524074 A JP 2023524074A JP 2023524074 A JP2023524074 A JP 2023524074A JP 2023546193 A JP2023546193 A JP 2023546193A
- Authority
- JP
- Japan
- Prior art keywords
- sample
- input
- sequence
- image
- particles
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000002245 particle Substances 0.000 title claims abstract description 84
- 238000000034 method Methods 0.000 claims abstract description 59
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 46
- 238000012545 processing Methods 0.000 claims abstract description 15
- 238000011176 pooling Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 8
- 230000002123 temporal effect Effects 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 4
- 239000003242 anti bacterial agent Substances 0.000 description 17
- 241000894006 Bacteria Species 0.000 description 16
- 229940088710 antibiotic agent Drugs 0.000 description 16
- 230000003287 optical effect Effects 0.000 description 14
- 239000013598 vector Substances 0.000 description 10
- 230000001580 bacterial effect Effects 0.000 description 9
- 230000003115 biocidal effect Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 238000011534 incubation Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 5
- 230000001427 coherent effect Effects 0.000 description 4
- 238000009647 digital holographic microscopy Methods 0.000 description 4
- 230000004992 fission Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 239000002609 medium Substances 0.000 description 4
- 244000005700 microbiome Species 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 238000012258 culturing Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000005549 size reduction Methods 0.000 description 3
- 241000233866 Fungi Species 0.000 description 2
- 240000004808 Saccharomyces cerevisiae Species 0.000 description 2
- 238000009635 antibiotic susceptibility testing Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000003776 cleavage reaction Methods 0.000 description 2
- 239000000356 contaminant Substances 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000001066 destructive effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000001963 growth medium Substances 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 230000007017 scission Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 229920001817 Agar Polymers 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 239000008272 agar Substances 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000032823 cell division Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 231100000433 cytotoxic Toxicity 0.000 description 1
- 230000001472 cytotoxic effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000003446 ligand Substances 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000002503 metabolic effect Effects 0.000 description 1
- 238000000386 microscopy Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004660 morphological change Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000000399 optical microscopy Methods 0.000 description 1
- 229920000729 poly(L-lysine) polymer Polymers 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000003566 sealing material Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 238000010865 video microscopy Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
Abstract
本発明は、経時的に試料(12)中の標的粒子(11a~11f)を表す入力画像のシーケンスを分類するための方法に関し、本方法は、クライアント(2)のデータ処理手段(20)によって実行される以下のステップ、すなわち、(b)シーケンス内の入力画像を3次元スタックとして連結するステップと、(c)畳み込みニューラルネットワーク(CNN)を使用して3次元スタックを直接分類するステップとを含むことを特徴とする。
Description
本発明は、生物学的粒子の光学的取得の分野に関する。生物学的粒子は、例えば、細菌、真菌、または酵母などの微生物とすることができる。これはまた、細胞、多細胞生物、または粉塵を含む汚染粒子タイプの任意の他の粒子を含むことができる。
本発明は、例えば、抗生物質の適用後の細菌の代謝状態を知るために生物学的粒子の状態を分析するのに特に有利に適用可能である。本発明により、例えば、細菌のアンチバイオグラムを作成することができる。
アンチバイオグラムは、1つまたは複数の抗生物質(複数可)に対する細菌株の表現型を試験することを目的とした実験技法である。従来、アンチバイオグラムは、細菌と抗生物質とを含む試料を培養することにより作成される。
欧州特許出願第2603601号には、抗生物質の存在下でのインキュベーション期間後の細菌の状態を可視化することによってアンチバイオグラムを作成する方法が記載されている。細菌を可視化するために、細菌は、それらの構造を明らかにすることができる蛍光マーカーによってマークされる。次いで、マーカーの蛍光を測定することで、抗生物質が細菌に対して効果的に作用したかどうかを決定することができる。
細菌株に対して有効な抗生物質を決定するための従来のプロセスは、当該株を含む試料を(例えば、患者、動物、食品バッチなどから)採取し、次いで試料を分析センターに送ることを含む。分析センターは、試料を受け取ると、まず、細菌株の少なくとも1つのコロニーを得るために細菌株の培養を始め、培養は24時間~72時間の範囲である。次いで、このコロニーから、様々な抗生物質および/または様々な濃度の抗生物質を含むいくつかの試料を調製し、もう一度試料をインキュベートする。同じく24~72時間の範囲の新たな培養期間の後、各試料を手作業で分析して、抗生物質が有効に作用したかどうかを決定する。そして、その結果は、抗生物質および/または最も有効な抗生物質濃度を適用するために、プラクティショナ(practitioner)に返される。
しかしながら、マーキングプロセスは、実施するのに特に長く複雑であり、これらの化学マーカーは、細菌に対して細胞毒性効果を有する。その結果として、この可視化モードでは、細菌の培養のいくつかの瞬間に細菌を観察することができず、したがって、測定の信頼性を保証するためには、24~72時間程度の十分に長い培養時間を使用する必要がある。生物学的粒子を可視化するための他の方法では、試料の非破壊測定を可能にする顕微鏡を使用する。
デジタルホログラフィック顕微鏡法(DHM)は、従来の光学顕微鏡法の被写界深度の制約を克服することができる撮像技法である。概略的には、これは、観察される物体によって回折された光波と空間的コヒーレンスを有する参照波との間の干渉によって形成されるホログラムを記録することを含む。この技法は、SPIE Reviews, Vol. 1, No. 1, January 2010で発表されたMyung K. Kimによる「Principles and techniques of digital holographic microscopy」と題する総説に記載されている。
近年では、自動化された方法で微生物を同定するためにデジタルホログラフィック顕微鏡法の使用が提案されている。したがって、国際出願WO2017/207184には、焦点合わせのデジタル再構成に関連付けられた焦点合わせなしの単純な取得を統合する、粒子を取得するための方法が記載されており、取得時間を制限しながら生物学的粒子を観察することを可能にする。
典型的には、このソリューションにより、数日かかる可能性がある上述の従来のプロセスとは異なり、わずか10分程度のインキュベーション後に抗生物質の存在下での細菌に対する構造修飾を検出し、2時間の終わりにその感度を検出すること(分裂の有無または分裂を示すパターンの検出)ができる。実際、測定は非破壊的であるので、試料を破壊するリスク、したがって分析時間を延長するリスクを冒すことなく、培養プロセスの非常に早い段階で分析を実施することが可能である。
粒子の挙動、例えば、その移動速度またはその細胞分裂プロセスを可視化するために、経時的な粒子の進化を表すフィルムを形成するように、複数の連続画像で粒子を追跡することさえ可能である(粒子は最初の分析後に変化しないので)。
したがって、この可視化方法は優れた結果をもたらすことが理解される。例えば、試料中に存在する抗生物質に対する細菌の感受性に関する結論に、特に自動的に、達することが意図される場合、これらの画像またはこのフィルムをそれ自体で解釈することは困難である。
単に経時的に細菌を計数することから、画像分析によって特定の「構成」を検出することを目的とした「形態学的」分析まで、様々な技法が提案されている。例えば、細菌が分裂の準備をしているとき、分裂自体のかなり前に2つの極が分布に現れ、その結果、分布の2つの別個の部分が生じる。
Choi J., Yoo J., Lee M.ら(2014年)による論文「A rapid antimicrobial susceptibility test based on single cell morphological analysis」、Science Translational Medicine, 6(267), https://doi.org/10.1126/scitranslmed.3009650は、2つの技法を組み合わせて抗生物質の有効性を評価することを提案している。しかしながら、著者らが強調しているように、彼らのアプローチは、抗生物質によって引き起こされる形態学的変化の性質に強く依存する、ある特定の数の閾値の非常に正確な較正を必要とする。
より最近では、Yu H., Jing W., Iriya R.ら(2018)による論文「Phenotypic Antimicrobial Susceptibility Testing with Deep Learning Video Microscopy」、Analytical Chemistry, 90(10), 6314-6322, https://doi.org/10.1021/acs.analchem.8b01128に、深層学習に基づくアプローチが記載されている。著者らは、畳み込みニューラルネットワーク(CNN)によって、形態学的特徴および細菌の動きに関連する特徴を抽出することを提案している。しかしながら、このソリューションは、一方では、コンピューティングリソースに関して非常に集中的であることが判明しており、他方では、CNNをトレーニングするために学習画像の大規模なベースを必要とする。
したがって、本発明の目的とする技術的課題は、生物学的粒子の画像を分類するための、より効率的であるとともにそれほど集中的ではないソリューションを提供できるようにすることである。
第1の態様によれば、本発明は、試料中の標的粒子を表す入力画像のシーケンスを分類するための方法に関し、この方法は、クライアントのデータ処理手段によって、以下のステップを実施することを含むことを特徴とする:
(b)シーケンスの上記入力画像を3次元スタックの形態で連結するステップ;
(c)畳み込みニューラルネットワーク(CNN)によって上記3次元スタックを直接分類するステップであって、上記CNNは、4次元出力特徴マップを生成するために4次元入力特徴マップに4次元フィルタを適用する「3D」畳み込み層と、活性化層および3Dプーリング層、次いで平坦化層、最後に1つまたは複数の全結合層(複数可)から構成される一連の畳み込みブロックから構成される、ステップ。
(b)シーケンスの上記入力画像を3次元スタックの形態で連結するステップ;
(c)畳み込みニューラルネットワーク(CNN)によって上記3次元スタックを直接分類するステップであって、上記CNNは、4次元出力特徴マップを生成するために4次元入力特徴マップに4次元フィルタを適用する「3D」畳み込み層と、活性化層および3Dプーリング層、次いで平坦化層、最後に1つまたは複数の全結合層(複数可)から構成される一連の畳み込みブロックから構成される、ステップ。
有利かつ非限定的な特徴によれば:
粒子は、各入力画像において均一な方法で示され、特に中心に配置され、所定の方向に位置合わせされる。
本方法は、上記標的粒子を上記均一な方法で示すように、各入力画像から試料の全体画像を抽出するステップ(a)を含む。
ステップ(a)は、各入力画像について、試料中の上記標的粒子を検出するように上記全体画像をセグメント化し、次いで、上記検出された標的粒子上で入力画像をクロッピングすることを含む。
ステップ(a)は、観察装置によって取得された試料(12)の強度画像から上記全体画像を取得することを含む。
上記3次元スタックは、2つの空間次元および時間次元を有し、上記フィルタおよび特徴マップは、3つの第1の次元として上記空間次元および時間次元を有し、第4の次元としてセマンティック深度を有する。
上記3D畳み込み層のフィルタは、入力特徴マップの深さに等しい深さを有し、出力特徴マップは、3D畳み込み層のフィルタの数に等しい深さを有する。
上記CNNは、2つの畳み込みブロックのみを含む。
本方法は、サーバのデータ処理手段によって、上記試料中の粒子の画像の以前に分類されたシーケンスの学習ベースから上記分類器のパラメータを学習するステップ(a0)を含む。
第2の態様によれば、データ処理手段を備える少なくとも1つのクライアントを備える、試料中の標的粒子を経時的に表す入力画像のシーケンスを分類するためのシステムが提案され、上記データ処理手段が、以下を実施するように構成されることを特徴とする:
- シーケンスの上記入力画像を3次元スタックの形態で連結すること;
- 畳み込みニューラルネットワーク(CNN)によって上記3次元スタックを直接分類することであって、上記CNNは、4次元出力特徴マップを生成するために4次元入力特徴マップに4次元フィルタを適用する「3D」畳み込み層と、活性化層および3Dプーリング層、次いで平坦化層、最後に1つまたは複数の全結合層(複数可)から構成される一連の畳み込みブロックから構成される、分類すること。
- シーケンスの上記入力画像を3次元スタックの形態で連結すること;
- 畳み込みニューラルネットワーク(CNN)によって上記3次元スタックを直接分類することであって、上記CNNは、4次元出力特徴マップを生成するために4次元入力特徴マップに4次元フィルタを適用する「3D」畳み込み層と、活性化層および3Dプーリング層、次いで平坦化層、最後に1つまたは複数の全結合層(複数可)から構成される一連の畳み込みブロックから構成される、分類すること。
有利かつ非限定的な特徴によれば、システムは、試料中の上記標的粒子を観察するための装置をさらに備える。
第3および第4の態様によれば、試料中の標的粒子を表す入力画像のシーケンスを分類するための第1の態様による方法を実行するためのコード命令を含むコンピュータプログラム製品が提案され、コンピュータプログラム製品が、試料中の標的粒子を表す入力画像のシーケンスを分類するための第1の態様による方法を実行するためのコード命令を含むコンピュータ機器のアイテムによって読み取ることができる記憶手段が提案される。
本発明のさらなる特徴および利点は、好ましい実施形態の以下の説明を読めば明らかになるであろう。この説明は、添付の図面を参照して提供されるであろう。
本発明による方法を実施するためのアーキテクチャの図である。
本発明による方法の好ましい実施形態で使用される、試料中の粒子を観察するための装置の一例を示す。
本発明による方法の一実施形態における入力画像の取得を示す。
本発明による方法の好ましい実施形態における入力画像の取得を示す。
本発明による方法の好ましい実施形態のステップを示す。
本発明による方法の好ましい実施形態において使用される畳み込みニューラルネットワークアーキテクチャの一例を示す。
アーキテクチャ
本発明は、標的粒子と呼ばれる、試料12中に存在する粒子11a~11fを表す入力画像のシーケンスを分類するための方法に関する。この方法は、試料12中に存在する粒子11a~11fのすべてまたはいくつかに対して同時に実施することができ、それぞれが順番に標的粒子と考えられることに留意されたい。
本発明は、標的粒子と呼ばれる、試料12中に存在する粒子11a~11fを表す入力画像のシーケンスを分類するための方法に関する。この方法は、試料12中に存在する粒子11a~11fのすべてまたはいくつかに対して同時に実施することができ、それぞれが順番に標的粒子と考えられることに留意されたい。
理解されるように、この方法は、機械学習コンポーネント、特に畳み込みニューラルネットワーク(CNN)を含む。
入力または学習データは、画像タイプのものであり、試料12中の標的粒子11a~11fを表す(言い換えれば、それは、標的粒子を視認できる試料の画像を含む)。上記シーケンスは、同じ標的粒子11a~11fの経時的な複数の入力画像から構成される。理解されるように、必要に応じて、いくつかの粒子が考慮される場合には、試料12の粒子11a~11fの画像の複数のシーケンスを入力として有することが可能である。
試料12は、観察されるべき粒子11a~11fが位置している、水、緩衝液、培地、または反応性媒体(抗生物質を含む場合も含まない場合もある)などの液体から構成される。
代替的な実施形態として、試料12は、粒子11a~11fが位置している、好ましくは半透明の、寒天などの固体媒体の形態であり得る。試料12はまた、ガス状媒体とすることができる。粒子11a~11fは、媒体の内部または試料12の表面上に位置することができる。
粒子11a~11fは、細菌、真菌または酵母などの微生物であってもよい。これはまた、細胞、多細胞生物、または粉塵を含む汚染粒子タイプの任意の他の粒子を含むことができる。説明の残りの部分を通して、粒子が細菌である(そして、理解されるように、試料12が抗生物質を含む)好ましい例が使用される。観察された粒子11a~11fのサイズは、500nmから数百μm、さらには数ミリメートルの間で変化する。
入力画像のシーケンスの「分類」は、画像の可能な記述クラスのセットの中から少なくとも1つのクラスを決定することを含む。例えば、細菌タイプの粒子の場合、バイナリ分類、すなわち、抗生物質に対して耐性があることまたは抗生物質に対して耐性がないことをそれぞれ示す「分裂あり」または「分裂なし」という効果の2つの可能なクラスを有することが可能である。本発明は、上記標的粒子11a~11fに対する抗生物質の効果のバイナリ分類の例が主に説明されるとしても、任意の種類の特定の分類に限定されるものではない。
本方法は、サーバ1およびクライアント2によって、図1に示すようなアーキテクチャ内で実施される。サーバ1は、(学習方法を実施する)学習機器であり、クライアント2は、(分類方法を実施する)操作機器のアイテム、例えば、医者または病院の端末である。
2つの機器1、2のアイテムを組み合わせることは十分に可能であるが、好ましくは、サーバ1はリモート装置であり、クライアント2は消費者装置、特に、デスクトップコンピュータ、ポータブル装置などである。クライアント装置2は、典型的には直接処理するために、有利には、上記入力画像(または、以下から分かるように、試料12の全体画像などの「生の」取得データ、さらには電磁マトリックス)を直接取得することができるように、観察装置10に接続され、代替的に、入力画像は、クライアント装置2にロードされる。
いずれにしても、機器1、2の各アイテムは、典型的には、データを交換するために、ローカルネットワークまたはインターネットなどのワイドエリアネットワークにリンクされたリモートコンピューティング機器である。各々は、プロセッサタイプのデータ処理手段3、20と、コンピュータメモリ、例えば、フラッシュメモリまたはハードディスクなどのデータ記憶手段4、21とを備える。クライアント2は、典型的には、対話するためのスクリーンなどのユーザインターフェース22を備える。
サーバ1は、有利には、学習データベース、すなわち、様々な条件(以下を参照)下ですでに分類された粒子11a~11fの画像のシーケンスのセット(例えば、抗生物質に対する感受性または耐性を示す「分裂あり」または「分裂なし」を示す標識に関連付けられている)を記憶する。学習データは、例えば、細菌の培養物について、「株」、「抗生物質の条件」、「時間」などを示す、試験条件を定義する標識に関連付けられ得ることに留意されたい。
取得
説明したように、本方法が、任意の方法で得られた標的粒子11a~11fの任意の画像を入力として直接取り込むことができる場合であっても、本方法は、好ましくは、観察装置10によって供給されたデータから入力画像を取得するステップ(a)から開始する。
説明したように、本方法が、任意の方法で得られた標的粒子11a~11fの任意の画像を入力として直接取り込むことができる場合であっても、本方法は、好ましくは、観察装置10によって供給されたデータから入力画像を取得するステップ(a)から開始する。
既知の方法で、当業者は、特に、国際出願WO2017/207184に記載されているようなデジタルホログラフィック顕微鏡法(DHM)技法を使用することができる。特に、ホログラムと呼ばれる、試料12の強度画像を取得することができ、この画像は、標的粒子に焦点が合っておらず(「ピンぼけ(out of focus)」画像としてみなされ)、データ処理手段(これは、例えば、装置10またはクライアント2の装置20に統合されている、以下を参照)によって処理することができる。ホログラムは、特定の方法で、試料中のすべての粒子11a~11fを「表す」ことが理解される。
図2は、試料12中に存在する粒子11a~11fを観察するための装置10の一例を示す。試料12は、空間的および時間的にコヒーレントである光源15(例えば、レーザ)または擬似コヒーレントである光源15(例えば、発光ダイオード、レーザダイオード)と、光源のスペクトル領域において感度を有するデジタルセンサ16との間に配置される。好ましくは、光源15は、低いスペクトル幅、例えば、200nm未満、100nm未満、さらには25nm未満のスペクトル幅を有する。説明の残りの部分を通して、例えば、可視領域にある光源の中心発光波長に言及する。光源15は、試料の第1の面13に配向され、例えば、光ファイバなどの導波路によって伝達されるコヒーレント信号Snを放出する。
試料12(説明したように、典型的には培養培地)は、下部スライドおよび上部スライド、例えば、従来の顕微鏡スライドによって垂直方向に区切られた分析チャンバ内に収容される。分析チャンバは、接着剤または任意の他の密封材料によって横方向に区切られる。下部スライドおよび上部スライドは、光源15の波長に対して透明であり、試料およびチャンバは、例えば、光源の波長の50%超が、下部スライドへの垂直入射下で通過することを可能にする。
好ましくは、粒子11a~11fは、上部スライド上の試料12中に配置される。この目的のために、上部スライドの下面は、粒子を付着させるためのリガンド、例えば、微生物の文脈内ではポリカチオン(例えば、ポリ-L-リジン)を含む。これにより、光学システムの被写界深度に等しいかまたは近い厚さ、すなわち、1mm未満の厚さ(例えば、チューブレンズ)、好ましくは100μm未満の厚さ(例えば、顕微鏡対物レンズ)で粒子を含むことができる。それにもかかわらず、粒子11a~11fは、試料12内を移動し得る。
好ましくは、装置は、例えば、顕微鏡対物レンズおよびチューブレンズによって形成され、空気中に、試料から一定の距離に配置された光学システム23を備える。光学システム23は、任意に、対物レンズの前または対物レンズとチューブレンズとの間に位置することができるフィルタを備える。光学システム23は、その光軸と、対物レンズからある距離にあるその物体平面(焦点面(focusing plane)とも呼ばれる)と、光学システムによって物体平面と共役になるその像平面とによって特徴付けられる。言い換えれば、物体平面に位置する物体には、焦平面(focal plane)とも呼ばれる像平面におけるこの物体の対応する鮮明な像を有する。システム23の光学特性は固定されている(例えば、固定焦点光学系)。物体平面および像平面は、光軸に直交している。
画像センサ16は、試料の第2の面14に面して、焦平面に、または焦平面に近接して位置する。センサ、例えば、CCDまたはCMOSセンサは、感知基本部位の周期的な2次元アレイと、それ自体既知の方法で露光時間および部位のリセットを調整する近接電子機器とを備える。基本部位の出力信号は、露光時間中に当該部位に入射するスペクトル領域の放射の量に依存する。その後、この信号は、例えば、近接電子機器によって、デジタル画像の画像点、すなわち「画素」に変換される。したがって、センサは、C列およびL行を有する行列の形態のデジタル画像を生成する。行列の座標(c,l)のこの行列の各画素は、それ自体既知の方法で、光学システム23の焦平面内のデカルト座標(x(c,I),y(c,I))の位置、例えば、矩形の感知基本部位の中心の位置に対応する。
周期的アレイのピッチおよびフィルファクタは、観察される粒子のサイズに関してナイキスト-シャノン基準に適合するように選択され、それにより、粒子ごとに少なくとも2つの画素が定義される。したがって、画像センサ16は、光源のスペクトル領域における試料の透過画像を取得する。
画像センサ16によって取得される画像は、粒子11a~11fによって回折された波と、試料と相互作用することなく上記試料を通過した参照波との間の干渉から生じる限り、ホログラフィック情報を含む。明らかに、上述したように、CMOSまたはCCDセンサの文脈内では、取得されたデジタル画像は、強度画像であり、したがって、この場合、位相情報は、この強度画像にコード化されることが理解される。
代替的に、光源15から発生するコヒーレント信号Snを、例えば、半透明のスライドによって2つの成分に分割することが可能である。そして、第1の成分が参照波として働き、第2の成分が試料12によって回折され、光学システム23の像平面内の像が回折波と参照波との間の干渉から生じる。
図3aを参照すると、ステップ(a)において、ホログラムから試料12の複数の全体画像を再構成し、次いで、試料の全体画像から各入力画像を抽出することが可能である。
実際に、標的粒子11a~11fは、各入力画像において均一な方法で表され、特に、中心に配置され、所定の方向(例えば、水平方向)に位置合わせされる必要があることが理解されよう。入力画像はまた、標準化されたサイズを有している必要がある(入力画像内に標的粒子11a~11fのみが見えることも望ましい)。したがって、入力画像は「サムネイル」と呼ばれ、例えば、250×250画素のサイズを定義することができる。入力画像のシーケンスが所望される限り、例えば、120分の時間間隔にわたって、1分ごとに1つの画像が撮影され、したがって、120枚の入力画像のシーケンスが得られる。
各全体画像の再構成は、説明したように、装置10のデータ処理手段またはクライアント2のデータ処理手段20によって実施される。
典型的には、「電磁マトリックス」と呼ばれる一連の複素行列が(取得の瞬間について)構成され、試料12(ホログラム)の強度画像に基づいて、光学システム23の焦点面に対する複数の偏差、特に、試料内に位置する偏差について、光軸に沿って伝播する光波面をモデル化する。
これらの行列は、様々な焦点距離における全体画像のスタックを形成するために、(例えば、エルミート標準を介して)実空間に投影することができる。
上記から、平均焦点距離を決定すること(および対応する全体画像を選択すること、またはホログラムからそれを再計算すること)、または標的粒子に対する最適な焦点距離を決定すること(および対応する全体画像を再び選択すること、またはホログラムからそれを再計算すること)が可能である。
いずれにしても、図3bを参照すると、ステップ(a)は、有利には、試料中の上記標的粒子を検出するために上記全体画像をセグメント化することを含み、次いでクロッピングすることを含む。特に、各入力画像は、上記均一な方法で上記標的粒子を表すように、試料の全体画像のうちの1つから抽出することができる。
一般に、セグメント化は、1つまたは複数の全体画像を改善するために、フィラメントまたはマイクロコロニーなどの任意のアーチファクトを除去することで、関心のあるすべての粒子を検出することを可能にし、次いで、検出された粒子のうちの1つが標的粒子であるとして選択され、対応するサムネイルが抽出される。説明したように、この作業は、すべての検出された粒子に対して行うことができる。
セグメント化は、任意の既知の方法で実施することができる。図3bの例では、細かいセグメント化を実行してアーチファクトを除去した後に、粗いセグメント化を実行して、この場合、粒子11a~11fを検出する。当業者は、任意の既知のセグメント化技法を使用することができる。
標的粒子11a~11fについての入力画像のシーケンスを取得するために、追跡技法を実施して、ある全体画像から次の全体画像への粒子の任意の移動を追跡することができる。
図3aの右側に見られるように、試料について(試料12のいくつかの、さらにはすべての粒子について、経時的に行う)取得されたすべての入力画像がプールされ、試料12の記述ベース(言い換えれば、実験の記述ベース)を形成することができ、特に、クライアント2の記憶手段21にコピーされることに留意されたい。「粒子」レベルとは対照的に、「フィールド」レベルが参照される。例えば、粒子11a~11fが細菌であり、試料12が抗生物質を含むか、または含まない場合、この記述ベースは、取得の全フィールドにわたるこれらの細菌の成長、形態、内部構造、および光学特性に関するすべての情報を含む。理解されるように、この記述ベースは、上記学習ベースに含めるためにサーバ1に送信することができる。
積層
理解されるように、本方法は、画像ごとに要求または作業することも、中間的な方法で特徴マップを抽出することもなく、入力画像のシーケンスに対して直接作用することができるという点で異なる。さらに、非常に単純で軽量なCNNは、信頼性が高く効率的な分類を実行するのに十分であることが分かる。
理解されるように、本方法は、画像ごとに要求または作業することも、中間的な方法で特徴マップを抽出することもなく、入力画像のシーケンスに対して直接作用することができるという点で異なる。さらに、非常に単純で軽量なCNNは、信頼性が高く効率的な分類を実行するのに十分であることが分かる。
図4を参照すると、本方法は、シーケンスの上記入力画像を3次元スタック、言い換えれば3D「スタック」の形態で連結するステップ(b)を含む。より具体的には、入力画像はすべて、同じサイズを有し、行列のシーケンスを形成しているので、3次元スタックを取得するためには入力画像の順序でそれらを積み重ねる必要があるだけである。
したがって、以下に見られるように、RGB画像が3つのチャネルを有する2次元オブジェクトであるのと同じように、本方法が、このスタックを、単一のチャネルを有する単一の3次元オブジェクト(例えば、サイズ250×250の入力画像があり、1分ごとに1つの画像が120分間にわたって取得される場合、250×250×120のサイズを有する)として非常にオリジナルな方法で処理する場合であっても、この3次元スタックは、取得の瞬間と同じ数のチャネルを有する画像とみなすことができる。最初の2つの次元は、従来、空間次元(すなわち、入力画像のサイズ)であり、第3の次元は、「時間」次元(取得の瞬間)である。
好ましくは、ステップ(b)は、上記3次元スタックをダウンサンプリングすること、すなわち、入力のサイズを低減することを含む。
上記ダウンサンプリングは、スタックの時間次元および/またはその空間次元、好ましくは両方に対して実施することができる。
特に:
- 時間次元に関しては、取得期間をn個の間隔に切ることによって、およびこれらの間隔の終わりに対応するシーケンスのn+1枚の画像を選択することによって、例えば、120枚の画像のシーケンスから5枚の画像のみを保持すること、要するに、120/4=30分ごとに1つの画像(特に、1、30、60、90、および120分の終わりに取得された画像)を撮影することによって、低減させることができる。しかしながら、(例えば、取得期間の終了時よりも開始時により多くの画像を選択することによって)不均一な方法で画像を選択することが依然として可能である。
- 空間次元に関しては、それらは、(比率を維持するために各軸で)所与のサンプリング係数、例えば、2の係数を用いて、任意の画像ダウンサンプリング技法を使用して低減させることができる。
- 時間次元に関しては、取得期間をn個の間隔に切ることによって、およびこれらの間隔の終わりに対応するシーケンスのn+1枚の画像を選択することによって、例えば、120枚の画像のシーケンスから5枚の画像のみを保持すること、要するに、120/4=30分ごとに1つの画像(特に、1、30、60、90、および120分の終わりに取得された画像)を撮影することによって、低減させることができる。しかしながら、(例えば、取得期間の終了時よりも開始時により多くの画像を選択することによって)不均一な方法で画像を選択することが依然として可能である。
- 空間次元に関しては、それらは、(比率を維持するために各軸で)所与のサンプリング係数、例えば、2の係数を用いて、任意の画像ダウンサンプリング技法を使用して低減させることができる。
前述の2つのダウンサンプリングを併せて実装することで、サイズ250×250×120のスタックからサイズ125×125×5のスタックに移行する(スタックのサイズは、ほぼ100分の1に低減される)。
このダウンサンプリングは、実際には、(入力画像を選択して修正することによって)スタックを生成する前に行われ得ることに留意されたい。
分類
ステップ(c)において、上記3次元スタックは、スタックである3次元オブジェクトを処理する能力により、「3D CNN」と呼ばれる適切な畳み込みニューラルネットワークによって直接分類される。実際、上述したように、3次元スタックが、(例えば、RGB画像の場合のように)いくつかのチャネルを有する2次元オブジェクトとしてではなく、単一の3次元オブジェクトとして(すなわち、単一のチャネルを有する)CNNによって処理されることを理解することが重要である。
直接分類または「エンドツーエンド」という用語は、上記標的粒子11a~11fの少なくとも1つの特徴マップの別個の抽出を伴わないことを意味すると理解され、CNNは、当然、特徴マップの形態の内部状態を有するが、これらは決してCNNの外部に送られず、上記CNNは、分類の結果を唯一の出力として有することが理解される。
リマインダとして、一般に、CNNは、視覚タスク、より具体的には、画像分類に特に適している。一般に、CNNは、複数の畳み込み層を使用し、本3D CNNは、様々な入力画像間の時空間依存性をモデル化する少なくとも1つの3D畳み込み層を使用する。
「3D畳み込み層」は、4次元フィルタを適用する畳み込み層を意味すると理解され、したがって、すでに3次元であるスタックの複数のチャネル、言い換えれば、4次元特徴マップに対して作用することができる。言い換えれば、3D畳み込み層は、4次元フィルタを4次元入力特徴マップに適用して、4次元出力特徴マップを生成する。第4および最後の次元は、任意の特徴マップと同様に、セマンティック深度である。
これは、2次元オブジェクト(画像)のいくつかのチャネルを表す3次元特徴マップにしか作用することができない従来の畳み込み層とは区別されるべきである。
3D畳み込みのこの概念は、直感に反するように見えることがあるが、入力のチャネルの数(すなわち、入力特徴マップの深さ)に等しい深さを有する複数の「フィルタ」が、(画像の2Dにおける)入力のすべての次元にわたってそれらをスキャンすることによって適用されることのみを予想する畳み込み層の概念を一般化したものであり、フィルタの数は出力深さを定義する。
したがって、本明細書で言及される3D畳み込みは、入力における3次元スタックのチャネルの数に等しい深さを有する4次元フィルタを適用し、3次元スタックのボリューム全体にわたって、したがって2つの空間次元だけでなく時間次元にもわたって、すなわち3Dで(そのため、3D畳み込みの名称)、これらのフィルタをスキャンする。したがって、フィルタごとに1つの3次元スタック、すなわち4次元特徴マップが取得される。従来の畳み込み層では、多数のフィルタを使用することで出力におけるセマンティック深度(チャネル数)を確実に増加させることができるが、常に、3次元特徴マップが存在するであろう。
3D畳み込み層は、より重いままであり、より大きな計算能力を必要とするが、説明したように、非常に単純なアーキテクチャ(および、VGG616など、既知のCNNよりもはるかに単純)で十分であることが理解される。図5は、本3D CNNの実施形態のアーキテクチャを示す。
従来、このアーキテクチャは、有利には、3D畳み込み層、特徴マップの深さを増加させるための活性化層(例えば、ReLU関数)、および特徴マップのサイズが(一般に2分の1に)低減されることを可能にする3Dプーリング層から構成される一連の「畳み込み」ブロックを含む。2つの畳み込みブロックで十分であり、そのため、非常に好ましくは、本3D CNNは2つの畳み込みブロックのみを含むことは注目に値する。
「3Dプーリング層」は、3D畳み込みに関して、すでに3次元であるスタックの1つまたは複数のチャネルを有する、4次元特徴マップに作用することが可能な層を意味するものと理解される。言い換えれば、サイズ低減は、3次元スタックのすべての次元、すなわち、4次元特徴マップの最初の3つの次元にわたって行われる。
本明細書の残りの部分を通して、幾何学的方向における特徴マップの「次元」の数、すなわち、これらのカードが延びる独立した方向の数(例えば、ベクトルは1次元オブジェクトであり、画像は2次元であり、本特徴マップは4次元である)と、これらの特徴マップの「変数」の数、言い換えれば、各次元におけるサイズ、すなわち、独立した自由度の数(これは、実際には、ベクトル空間における次元の概念に対応するものであり、より具体的には、所与の数の変数を有する特徴マップのセットが、この変数の数に等しい次元を有するベクトル空間を構成する)との間で明確に区別がなされる。
したがって、図5の例では、3D CNNは、説明したように、2つのブロックに分散された6つの層から始まる。第1のブロックは、入力として単一のチャネルを有する3次元スタックを取り(したがって、上記で提案したように有利にダウンサンプリングされたときにサイズ125×125×5×1のオブジェクトを形成する)、深度を30に増加させる畳み込み+ReLuシーケンス(第1の3D畳み込み層およびReLU関数を有する活性化層)と、次いで、出力として62×62×2×30の特徴マップを有する最大プーリング層(全体平均プーリングを使用することも可能である)とを含む(3Dプーリング層は、2つの空間次元だけでなく3つの次元に対して説明したように作用し、したがって、時間次元を含む2による除算を伴う)。
図示の例では、第1の3D畳み込み層は、3×3×3×1の次元を有する30個のフィルタを使用し、したがって、((3*3*3*1)+1)*30=570個のパラメータを必要とする。
第2のブロックは、第1のブロックと同一のアーキテクチャを有し、新しい畳み込み+ReLUセット(第2の3D畳み込み層およびReLU関数を有する活性化層)からの出力として、62×62×2×60(深さ2倍)の特徴マップを生成し、最大プーリング層からの出力として、12×12×1×60の特徴マップを生成する(この場合の空間サイズの低減は5分の1であるが、時間サイズの低減は常に2分の1であることに留意されたい)。
この場合、第2の3D畳み込み層は、3×3×3×30の次元を有する60個のフィルタを使用し、したがって、((3*3*3*30)+1)*60=32,460個のパラメータを必要とする。
最後の畳み込みブロック(この場合、第2)の出力において、3D CNNは、有利には、このブロックの出力における「最終」特徴マップ(「最も深い」情報を含む)をベクトル(1次元オブジェクト)に変換する「平坦化」層を含む。したがって、例えば、12×12×1×60の特徴マップは、12*12*1*60=8,640サイズのベクトルに遷移する。いずれのレベルにおいても任意のマップ/フィルタサイズに制限はなく、上述のサイズは単なる例であることが理解されよう。
最後に、従来の方法では、完了時に、1つまたは複数の全結合層(複数可)(FC、または図5に示されるような「密」層)、および任意選択で最終活性化層、例えばsoftmaxが存在する。図示の例では、第1の層FCは、サイズ8,640のベクトルをサイズ100のより小さいベクトルに変換し(これは、(8,640+1)*100=864,100個のパラメータを必要とする)、第2の層FCは、サイズ8,640のベクトルをサイズ2の最終ベクトルに変換する(これは、(100+1)*2=202個のパラメータを必要とする)。
好ましくは、3D CNNは、畳み込みブロック、次いで平坦化層、最後に1つまたは複数の全結合層(複数可)のシーケンスから構成される(すなわち、それらを厳密に含む)。
3D CNNのこの最後の部分は、期待される結果、この場合、入力画像シーケンスのクラスを返す(サイズ2のベクトルはバイナリ結果に対応する)。
したがって、パラメータの総数は900,000未満であり、これは、特に、入力データがすでに大きい画像のシーケンスであるという事実を考慮すると、CNN(一般に数千万のパラメータ)には著しく低いことが分かる。したがって、本3D CNNは、適度なコンピューティングリソースを有するものを含む複数のクライアント2によって使用することができる。
好ましくは、本方法は、サーバ1のデータ処理手段3によって、学習ベースから3D CNNのパラメータを学習するステップ(a0)を含むことができる。実際、このステップは、典型的には、かなり上流で、特にリモートサーバ1によって実施される。説明したように、学習ベースは、ある量の学習データ、特に、それらのクラス(例えば、バイナリ分類のための「分裂あり」または「分裂なし」)に関連付けられた画像のシーケンスを含むことができる。
3D CNNのトレーニングは、従来の方法で実行することができる。学習コスト関数は、勾配降下アルゴリズムを介して最小化される従来の「クロスエントロピー」データへのアタッチメントで構成することができる。
すべての実施形態において、CNNの学習されたパラメータは、必要に応じて、分類に使用するためにクライアント2のデータ記憶手段21に記憶することができる。同じCNNを複数のクライアント2に埋め込むことができ、必要な学習段階は1つだけであることに留意されたい。
コンピュータプログラム製品
第2および第3の態様によれば、本発明は、試料12中の標的粒子11a~11fを表す入力画像シーケンスを分類するための方法を(特にサーバ1および/またはクライアント2のデータ処理手段3、20上で)実行するためのコード命令を含むコンピュータプログラム製品、ならびにこのコンピュータプログラム製品が見出されるコンピュータ機器のアイテム(サーバ1および/またはクライアント2のメモリ4、21)によって読み取り可能な記憶手段に関する。
第2および第3の態様によれば、本発明は、試料12中の標的粒子11a~11fを表す入力画像シーケンスを分類するための方法を(特にサーバ1および/またはクライアント2のデータ処理手段3、20上で)実行するためのコード命令を含むコンピュータプログラム製品、ならびにこのコンピュータプログラム製品が見出されるコンピュータ機器のアイテム(サーバ1および/またはクライアント2のメモリ4、21)によって読み取り可能な記憶手段に関する。
Claims (13)
- 試料内の標的粒子を経時的に表す入力画像のシーケンスを分類するための方法であって、クライアントのデータ処理手段によって、
(b)前記シーケンスの前記入力画像を3次元スタックの形態で連結するステップと、
(c)畳み込みニューラルネットワーク(CNN)によって前記3次元スタックを直接分類するステップであって、前記CNNは、4次元出力特徴マップを生成するために4次元入力特徴マップに4次元フィルタを適用する「3D」畳み込み層と、活性化層および3Dプーリング層、次いで平坦化層、最後に1つまたは複数の全結合層(複数可)から構成される一連の畳み込みブロックから構成される、ステップと
を実施することを含むことを特徴とする方法。 - 前記粒子は、各入力画像において均一な方法で示され、特に中心に配置され、所定の方向に位置合わせされる、請求項1に記載の方法。
- 前記標的粒子を前記均一な方法で示すように、各入力画像から前記試料の全体画像を抽出するステップ(a)を含む、請求項2に記載の方法。
- 前記抽出するステップ(a)は、各入力画像について、前記試料中の前記標的粒子を検出するように前記全体画像をセグメント化し、次いで、前記検出された標的粒子上で前記入力画像をクロッピングすることを含む、請求項3に記載の方法。
- ステップ(a)は、観察装置によって取得された前記試料の強度画像から前記全体画像を取得することを含む、請求項3または4に記載の方法。
- 前記3次元スタックは、2つの空間次元および前記時間次元を有し、前記フィルタおよび特徴マップは、3つの第1の次元として前記空間次元および時間次元を有し、第4の次元としてセマンティック深度を有する、請求項1から5のいずれか一項に記載の方法。
- 前記3D畳み込み層のフィルタは、前記入力特徴マップの深さに等しい深さを有し、前記出力特徴マップは、前記3D畳み込み層のフィルタの数に等しい深さを有する、請求項6に記載の方法。
- 前記CNNは、2つの畳み込みブロックのみを含む、請求項1から7のいずれか一項に記載の方法。
- サーバのデータ処理手段によって、前記試料中の粒子の画像の以前に分類されたシーケンスの学習ベースから前記CNNのパラメータを学習するステップ(a0)を含む、請求項1から8のいずれか一項に記載の方法。
- データ処理手段を備える少なくとも1つのクライアントを備える、試料中の標的粒子を経時的に表す入力画像のシーケンスを分類するためのシステムであって、前記データ処理手段が、
- 前記シーケンスの前記入力画像を3次元スタックの形態で連結することと、
- 畳み込みニューラルネットワーク(CNN)によって前記3次元スタックを直接分類することであって、前記CNNは、4次元出力特徴マップを生成するために4次元入力特徴マップに4次元フィルタを適用する「3D」畳み込み層と、活性化層および3Dプーリング層、次いで平坦化層、最後に1つまたは複数の全結合層(複数可)から構成される一連の畳み込みブロックから構成される、分類することと
を実施するように構成されることを特徴とする、システム。 - 前記試料中の前記標的粒子を観察するための装置をさらに備える、請求項10に記載のシステム。
- コンピュータプログラム製品であって、前記プログラムがコンピュータ上で実行されると、経時的に試料中の標的粒子を表す入力画像のシーケンスを分類するための請求項1から9のいずれか一項に記載の方法を実行するためのコード命令を含むコンピュータプログラム製品。
- コンピュータプログラム製品が、経時的に試料中の標的粒子を表す入力画像のシーケンスを分類するための請求項1から9のいずれか一項に記載の方法を実行するためのコード命令を含むコンピュータ機器のアイテムによって読み取ることができる記憶手段。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2010744 | 2020-10-20 | ||
FR2010744 | 2020-10-20 | ||
PCT/FR2021/051817 WO2022084616A1 (fr) | 2020-10-20 | 2021-10-19 | Procédé de classification d'une séquence d'images d'entrée représentant une particule dans un échantillon au cours du temps |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023546193A true JP2023546193A (ja) | 2023-11-01 |
Family
ID=74183333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023524074A Pending JP2023546193A (ja) | 2020-10-20 | 2021-10-19 | 経時的に試料中の粒子を表す入力画像のシーケンスを分類する方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230386233A1 (ja) |
EP (1) | EP4232946A1 (ja) |
JP (1) | JP2023546193A (ja) |
CN (1) | CN116888644A (ja) |
WO (1) | WO2022084616A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3141785A1 (fr) * | 2022-11-03 | 2024-05-10 | Fondation B-Com | Procédé et dispositif d’estimation d’une carte de profondeur associée à un hologramme numérique représentant une scène et programme d’ordinateur associé |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013538567A (ja) | 2010-08-12 | 2013-10-17 | ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア | 抗菌化合物を同定するおよび抗生物質感受性を決定する方法 |
EP3252455A1 (fr) | 2016-05-30 | 2017-12-06 | Biomérieux | Dispositif et procede d'acquisition d'une particule presente dans un echantillon |
-
2021
- 2021-10-19 JP JP2023524074A patent/JP2023546193A/ja active Pending
- 2021-10-19 WO PCT/FR2021/051817 patent/WO2022084616A1/fr active Application Filing
- 2021-10-19 US US18/032,399 patent/US20230386233A1/en active Pending
- 2021-10-19 CN CN202180072004.9A patent/CN116888644A/zh active Pending
- 2021-10-19 EP EP21807183.5A patent/EP4232946A1/fr active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4232946A1 (fr) | 2023-08-30 |
WO2022084616A1 (fr) | 2022-04-28 |
CN116888644A (zh) | 2023-10-13 |
US20230386233A1 (en) | 2023-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Orenstein et al. | The Scripps Plankton Camera system: A framework and platform for in situ microscopy | |
CN109154563B (zh) | 用于获取样本中所存在的粒子的装置和方法 | |
EP1963927B1 (en) | Method and apparatus for analysis of a sample of cells | |
US20210321963A1 (en) | Systems and methods for enhanced imaging and analysis | |
US20180080760A1 (en) | Method for analysing particles | |
Walcutt et al. | Assessment of holographic microscopy for quantifying marine particle size and concentration | |
US20240095910A1 (en) | Plaque detection method for imaging of cells | |
JP2023546193A (ja) | 経時的に試料中の粒子を表す入力画像のシーケンスを分類する方法 | |
US20240020949A1 (en) | Method for classifying an input image representing a particle in a sample | |
JP2023546192A (ja) | 試料中の粒子を表す入力画像の分類方法 | |
Akiba et al. | Design and testing of an underwater microscope and image processing system for the study of zooplankton distribution | |
Vaughan et al. | A review of microscopic cell imaging and neural network recognition for synergistic cyanobacteria identification and enumeration | |
JP2023546190A (ja) | 試料中の粒子を含む入力画像の分類方法 | |
Belcher et al. | Novel application of confocal laser scanning microscopy and 3D volume rendering toward improving the resolution of the fossil record of charcoal | |
Trolinger et al. | A new digital holographic microscope for the study of biological systems | |
D'Almeida | Development of lens-free holographic microscopes using multiheight and multispectral phase recovery methods | |
Hodgson et al. | Progress towards a system for the automatic recognition of pollen using light microscope images | |
Grüning et al. | Direct Inference of Cell Positions using Lens-Free Microscopy and Deep Learning | |
Grimes | Image processing and analysis methods in quantitative endothelial cell biology | |
Wu | Deep Learning-Enabled Computational Imaging in Optical Microscopy and Air Quality Monitoring | |
Grant-Jacob et al. | Single-frame 3D lensless microscopic imaging via deep learning | |
WO2023059764A1 (en) | Method and apparatus for searching and analyzing cell images | |
Weller | The semi-automated classification of sedimentary organic matter and dinoflagellate cysts in palynological preparations | |
Brakenhoff et al. | 3-Dimensional Imaging of Biological Structures by High Resolution Confocal Scanning Laser Microscopy |