DE112022001967T5 - Klassifizierung von zellkernen mit vermeidung von artefakten - Google Patents

Klassifizierung von zellkernen mit vermeidung von artefakten Download PDF

Info

Publication number
DE112022001967T5
DE112022001967T5 DE112022001967.0T DE112022001967T DE112022001967T5 DE 112022001967 T5 DE112022001967 T5 DE 112022001967T5 DE 112022001967 T DE112022001967 T DE 112022001967T DE 112022001967 T5 DE112022001967 T5 DE 112022001967T5
Authority
DE
Germany
Prior art keywords
image
artifact
neural network
network model
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112022001967.0T
Other languages
English (en)
Inventor
Eric Cosatto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Laboratories America Inc
Original Assignee
NEC Laboratories America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Laboratories America Inc filed Critical NEC Laboratories America Inc
Publication of DE112022001967T5 publication Critical patent/DE112022001967T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7753Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Verfahren und Systeme zum Trainieren eines neuronalen Netzwerkmodells umfassen das Erweitern (306) eines ursprünglichen Trainingsdatensatzes, um einen erweiterten Trainingsdatensatz zu erzeugen, indem ein Bildartefakt auf einen Teil eines ursprünglichen Bildes des ursprünglichen Datensatzes angewendet wird, um ein Artefaktbild zu erzeugen. Ein Zielbild wird erzeugt (308), das dem Artefaktbild entspricht, indem Beschriftungen aus dem Zielbild an der Position des Artefakts gelöscht werden. Ein neuronales Netzwerkmodell wird unter Verwendung des erweiterten Trainingsdatensatzes und des entsprechenden Zielbildes trainiert (204), wobei das neuronale Netzwerkmodell eine erste Ausgabe, die Artefaktbereiche identifiziert, und andere Ausgaben, die Objekte identifizieren, enthält.

Description

  • INFORMATIONEN ZUR VERANDTEN ANMELDUNGEN
  • Diese Anmeldung beansprucht die Priorität der US-Non-Provisional-Patentanmeldung Nr. 17/711,546 , eingereicht am 1. April 2022, und der US-Patentanmeldung Nr. 63/170,677 , eingereicht am 5. April 2021, die beide durch Bezugnahme in vollem Umfang einbezogen sind.
  • HINTERGRUND
  • Technischer Bereich
  • Die vorliegende Erfindung bezieht sich auf die Erkennung und Klassifizierung von Tumorzellen und insbesondere auf das Training eines maschinellen Lernmodells zur Identifizierung von Bereichen in Gewebebildern, die Artefakte enthalten.
  • Beschreibung der verwandten Technik
  • Zur Ermittlung des Tumorzellanteils, der ein Maß für die Aggressivität des Krebses ist, wird die Anzahl der Zellen im Tumorbereich gezählt. Bei einigen Gewebeproben kann die Zahl der Zellen in die Millionen gehen. Allerdings können Bildartefakte wie eingefärbte Bereiche, unscharfe Bereiche, Gewebefalten und überfärbte Bereiche die Zellklassifizierung beeinträchtigen.
  • ZUSAMMENFASSUNG
  • Ein Verfahren zum Trainieren eines neuronalen Netzwerkmodells umfasst das Erweitern eines ursprünglichen Trainingsdatensatzes, um einen erweiterten Trainingsdatensatz zu erzeugen, indem ein Bildartefakt auf einen Teil eines ursprünglichen Bildes des ursprünglichen Datensatzes angewendet wird, um ein Artefaktbild zu erzeugen. Es wird ein Zielbild erzeugt, das dem Artefaktbild entspricht, indem Beschriftungen aus dem Zielbild an der Position des Artefakts gelöscht werden. Ein neuronales Netzwerkmodell wird unter Verwendung des erweiterten Trainingsdatensatzes und des entsprechenden Zielbildes trainiert, wobei das neuronale Netzwerkmodell eine erste Ausgabe, die Artefaktbereiche identifiziert, und andere Ausgaben, die Objekte identifizieren, enthält.
  • Ein Verfahren zum Analysieren einer Gewebeprobe umfasst das Analysieren eines Gewebeprobenbildes unter Verwendung eines neuronalen Netzwerkmodells, das eine ersten Ausgabe, die Zellen identifiziert, eine zweite Ausgang, die Tumorzellen identifiziert, und eine dritte Ausgabe, die einen Artefaktbereich identifiziert, umfasst. Als Reaktion auf die Feststellung, dass der Anteil des Gewebeprobenbildes innerhalb des einen oder der mehreren erkannten Artefaktbereiche einen Schwellenwert überschreitet, wird eine Korrekturmaßnahme durchgeführt, um ein korrigiertes Gewebeprobenbild zu erzeugen. Es wird eine Analyse des korrigierten Gewebeprobenbildes durchgeführt.
  • Ein System zum Trainieren eines neuronalen Netzwerkmodells enthält einen Hardwareprozessor und einen Speicher, der ein Computerprogramm speichert. Wenn es von dem Hardware-Prozessor ausgeführt wird, veranlasst das Computerprogramm den Hardware-Prozessor, einen ursprünglichen Trainingsdatensatz zu erweitern, um einen erweiterten Trainingsdatensatz zu erzeugen, indem ein Bildartefakt auf einen Teil eines ursprünglichen Bildes des ursprünglichen Datensatzes angewendet wird, um ein Artefaktbild zu erzeugen, um ein Zielbild zu erzeugen, das dem Artefaktbild entspricht, indem Beschriftungen aus dem Zielbild an der Position des Artefakts gelöscht werden, und um ein neuronales Netzwerkmodell unter Verwendung des erweiterten Trainingsdatensatzes und des entsprechenden Zielbildes zu trainieren, wobei das neuronale Netzwerkmodell eine erste Ausgabe, die Artefaktregionen identifiziert, und andere Ausgaben, die Objekte identifizieren, enthält.
  • Diese und andere Merkmale und Vorteile werden aus der folgenden detaillierten Beschreibung illustrativer Ausführungsformen ersichtlich, die in Verbindung mit den beigefügten Zeichnungen zu lesen ist.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die Offenbarung wird in der folgenden Beschreibung bevorzugter Ausführungsformen unter Bezugnahme auf die folgenden Figuren Details zur Verfügung stellen, wobe:
    • 1 ist ein Blockdiagramm eines Objektträger-Analysesystems, das Artefaktbereiche eines gescannten Objektträger -Bildes identifizieren und ausschließen kann, gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 2 ist ein Block-/Ablaufdiagramm eines Verfahrens zur Diagnose und Behandlung auf der Grundlage eines gescannten Objektträgerbildes unter Verwendung einer Analyse, die Artefaktbereiche des gescannten Objektträgerbildes identifizieren und ausschließen kann, gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 3 ist ein Block-/Ablaufdiagramm eines Verfahrens zur Erweiterung eines Trainingsdatensatzes um Trainingsproben, die Artefakte enthalten, in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung;
    • 4 ist ein Blockdiagramm eines neuronalen Netzmodells, das verschiedene Ausgabeschichten für verschiedene Funktionen hat, gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 5 ist ein Diagramm, das die Analyse eines Objektträgerbildes zeigt, das einen Artefaktbereich enthält, gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 6 ist ein Blockdiagramm eines Computergeräts, das Software zum Trainieren eines Modells und zur Durchführung von Diagnose und Behandlung unter Verwendung von Artefakterkennung für Objektträgerbilder gemäß einer Ausführungsform der vorliegenden Erfindung enthält;
    • 7 ist ein Diagramm einer neuronalen Netzwerkarchitektur, die zur Implementierung eines Teils des Modells gemäß einer Ausführungsform der vorliegenden Erfindung verwendet werden kann; und
    • 8 ist ein Diagramm einer tiefen neuronalen Netzwerkarchitektur, die zur Implementierung eines Teils des Modells gemäß einer Ausführungsform der vorliegenden Erfindung verwendet werden kann.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Zur Ermittlung des Tumorzellverhältnisses (TCR) können normale und Tumorzellen für einen bestimmten Bereich einer Gewebeprobe automatisch gezählt werden. Bilder mit hoher Vergrößerung können verwendet werden, um Details einzelner Zellen zu zeigen, während Bilder mit geringerer Vergrößerung zeigen, wie Zellen in größeren Strukturen, z. B. Drüsen, angeordnet sind. Krebszellen können von gesunden Zellen durch ihre individuellen Zellmerkmale, durch ihre Anordnung oder durch beides unterschieden werden.
  • Der Objektträger kann jedoch Bereiche enthalten, in denen TCR-Berechnungen vermieden werden sollten, z. B. wenn der Objektträger Bereiche mit Artefakten enthält. Wenn diese Artefaktbereiche einen zu großen Teil des Objektträgers einnehmen, muss der Objektträger möglicherweise erneut gescannt oder ersetzt werden. Solche Bereiche können mit Hilfe eines maschinellen Lernmodells erkannt werden, das darauf trainiert ist, Artefakte zusammen mit Funktionen zur Zellidentifizierung und -klassifizierung zu erkennen. Dies kann einen Hinweis auf die Qualität des Objektträgers geben, anhand dessen bestimmt werden kann, wie vertrauenswürdig die Ergebnisse der Objektträgeranalyse sind.
  • Das maschinelle Lernmodell kann ein neuronales Faltungsnetzwerk mit mehreren Ausgabeschichten enthalten, die unterschiedliche Klassifizierungsaufgaben erfüllen. Zum Beispiel können drei verschiedene Ausgabeschichten verwendet werden - eine zur Identifizierung der Lage aller Kerne, eine zur spezifischen Identifizierung von Tumorkernen und eine zur Identifizierung von Artefaktbereichen. Zum Trainieren des maschinellen Lernmodells kann eine Verlustfunktion verwendet werden, die sicherstellt, dass die Artefakterkennung die anderen Ausgabeschichten nicht überfordert, z. B. als gewichtete Summe der Verluste der einzelnen Ausgabeschichten.
  • Das maschinelle Lernmodell kann mit einem Datensatz trainiert werden, der um Artefaktinformationen erweitert wurde. Beispielsweise können ausgehend von einem ursprünglichen Trainingsdatensatz, der Bilder mit markierten Zellen und Tumorzellen enthält, erweiterte Trainingsmuster eingeführt werden, die ein Artefakt zu einem ursprünglichen Trainingsmuster hinzufügen. Dies kann z. B. durch Hinzufügen einer Unschärfe oder einer Farbverschiebung zum ursprünglichen Trainingsmuster geschehen. Um sicherzustellen, dass das maschinelle Lernmodell die Grenzen zwischen Artefaktbereichen und normalen Bereichen korrekt erlernt, müssen die Änderungen nicht an der gesamten Original-Trainingsstichprobe vorgenommen werden, sondern können stattdessen auf der Grundlage einer zufällig generierten Maske vorgenommen werden. Kernmarkierungen können aus Artefaktbereichen in den erweiterten Proben entfernt werden, um zu verhindern, dass Kerne in diesen Bereichen erkannt werden.
  • Unter Bezugnahme auf die Abbildungen, in denen gleiche Ziffern gleiche oder ähnliche Elemente darstellen, und zunächst auf 1 wird ein System zur Analyse von Gewebeproben und zur Erstellung von TCR-Berichten gezeigt. Eine Gewebeprobe 102 wird entnommen und auf einen Objektträger gelegt. Der Objektträger kann mit einem Gesamt-Objektträger-Scanner 104 gescannt werden, wodurch ein Bild des Objektträgers entsteht, das in einer Objektträger-Datenbank 106 gespeichert wird.
  • Die Objektträgeranalyse 108 kann jedes Bild in Verarbeitungsabschnitte unterteilen, die nach einem regelmäßigen Raster und/oder nach den Angaben des Benutzers zu den Abschnitten des Objektträgerbildes, auf die man sich konzentrieren möchte, bestimmt werden können. Die Objektträgeranalyse 108 kann einen Bericht 110 erstellen, in dem die aus dem Objektträger 102 gewonnenen Informationen beschrieben werden, z. B. TCR, Lage der Krebszellen usw. Dieser Bericht 110 kann von medizinischem Fachpersonal verwendet werden, um die Diagnose eines Patienten zu unterstützen, die Art und das Ausmaß einer Krebserkrankung zu bestimmen, einen Bereich des Gewebes zu identifizieren, der für genetische Tests geeignet ist, einen Behandlungsverlauf zu ermitteln usw.
  • Wie hier beschrieben, kann die Objektträgeranalyse 108 die Identifizierung von Teilen des Objektträgerbildes umfassen, die Artefakte enthalten, wie z. B. eingefärbte Bereiche, unscharfe Bereiche, Gewebefalten oder überfärbte Bereiche. Diese Bereiche müssen möglicherweise von der Erstellung des Berichts 110 ausgeschlossen werden und können dazu führen, dass die Gewebeprobe 102 erneut gescannt oder ausgetauscht wird, wenn die Artefaktbereiche mehr als einen Schwellenwert des Objektträgerbildes einnehmen.
  • 2 zeigt ein Verfahren zur Durchführung der Analyse einer Gewebeprobe. Es werden zwei Phasen gezeigt, darunter die Erstellung eines Multiklassifizierungsmodells in Block 201 und die Diagnose und Behandlung in Block 205. Diese beiden Phasen können zu unterschiedlichen Zeiten und an unterschiedlichen Orten durchgeführt werden. Beispielsweise kann die Erstellung des Multiklassifizierungsmodells in Block 201 weit im Voraus erfolgen, wobei das trainierte Modell zur Verwendung in Krankenhäusern und Forschungszentren verteilt wird. Die Diagnose und Behandlung in Block 205 kann mit einem vorab trainierten Modell erfolgen, das auf Gewebeproben basiert, die kürzlich von einem Patienten entnommen wurden. Jede dieser Phasen kann unabhängig und von verschiedenen Stellen durchgeführt werden.
  • Die Erstellung des Multi-Klassifikationsmodells in Block 201 beginnt mit der Erweiterung eines Trainingsdatensatzes in Block 202. Diese Erweiterung wird weiter unten ausführlicher beschrieben, kann aber auch die Verarbeitung von Bildern in einem bereits vorhandenen Trainingsdatensatz umfassen, um Versionen der Bilder hinzuzufügen, die künstlich erzeugte Artefakte enthalten. In Block 204 wird dann der erweiterte Datensatz verwendet, um den Multi-Output-Objektträger-Klassifikator zu trainieren. Die Bilder des Trainingsdatensatzes können in Bildkacheln aufgeteilt werden, da ein ganzer Objektträger zu groß sein kann, um auf einmal verarbeitet zu werden. Jede Kachel kann dann in das Modell eingegeben werden, ein Prozess, der für mehrere Kacheln parallel durchgeführt werden kann. Die Ergebnisse des Klassifikators für die verschiedenen Kacheln können zusammengefasst und zu einem Bericht für den gesamten Objektträger kombiniert werden. Die verschiedenen Ergebnisse des Klassifikators können z. B. Informationen zur Zellidentifizierung, zur Klassifizierung von Tumorzellen und zur Artefaktregion liefern. Die Informationen zur Identifizierung von Zellen und Tumorzellen können die Position jeder Zelle bzw. jeder Tumorzelle innerhalb eines bestimmten Objektträgerbildes enthalten. Die Informationen über den Artefaktbereich können beispielsweise eine Grenze enthalten, die einen oder mehrere Bereiche des Objektträgerbildes identifiziert, die einen Artefakt enthalten, und können darüber hinaus statistische Informationen enthalten, wie z. B. den prozentualen Anteil des Objektträgerbildes, der von dem oder den Artefaktbereichen eingenommen wird.
  • Zur Diagnose und Behandlung 205 gehört das Scannen einer Gewebeprobe, um ein neues Objektträgerbild 206 zu erzeugen. Die Gewebeprobe kann auf beliebige Weise entnommen und mit dem Ganz-Objektträger-Scanner 104 gescannt werden. In Block 208 wird das Objektträgerbild als Eingabe für das trainierte Multiklassifizierungsmodell verwendet, das Informationen über alle Zellen, alle Tumorzellen und alle Artefaktregionen auf dem Objektträgerbild erzeugt. Die Informationen über die Artefaktregionen können beispielsweise einen Wert für jedes Pixel des Objektträgerbildes enthalten, der die Wahrscheinlichkeit angibt, dass das Pixel zu einem Artefakt gehört. Ein Artefaktbereich kann dann durch Anwendung eines Schwellenwerts definiert werden, wobei ausreichend hoch bewertete Pixel zu Artefaktbereichen hinzugefügt werden.
  • Block 209 führt eine Analyse der klassifizierten Bilder durch, z. B. die Bestimmung von TCR-Werten. Die Analyse 209 kann Artefaktregionen von der Betrachtung ausschließen, so dass die Zell- und Tumorzellinformationen in diesen Regionen die Analyse nicht beeinflussen. Block 210 führt die Behandlung auf der Grundlage der Ergebnisse des Multi-Klassifizierungsmodells durch, indem beispielsweise weitere Tests wie Gentests angefordert, Chemotherapeutika verabreicht oder eine Operation durchgeführt werden.
  • In 3 ist ein Verfahren zur Erweiterung eines Trainingsdatensatzes dargestellt. Block 302 kopiert ein Trainingsbild aus einem ursprünglichen Trainingsdatensatz. Block 304 erzeugt eine Maske, die Artefaktbereiche innerhalb des kopierten Bildes definiert. Die Maske kann zufällige Teile des Bildes in einem oder mehreren diskreten Bereichen identifizieren.
  • In Block 306 wird ein Artefakt auf die maskierten Bereiche des kopierten Bildes angewendet. Die Anwendung des Artefakts kann beispielsweise die Faltung eines Gauß-Kerns mit dem Bild umfassen, um eine synthetische Unschärfe hinzuzufügen, während Tinte durch Anwendung einer Kombination aus Unschärfe und Farbverschiebung simuliert werden kann. Zielkarten für jedes Artefakt, die als Äquivalent zu Labels in einem voll gefalteten Modell verstanden werden können, können zur Berechnung des Verlusts verwendet werden. Der Verlust kann z. B. ein mittlerer quadratischer Fehler sein, der durch Mittelung des Quadrats der Differenz für jedes Pixel der Ausgabe und des Ziels ermittelt wird. In Block 308 werden dann die Markierungen für Kerne innerhalb der maskierten Region(en) entfernt, so dass Kerne in Bereichen mit Artefakten nicht erkannt werden.
  • In 4 ist ein Blockdiagramm eines neuronalen Netzmodells dargestellt. Das Modell kann auf einem beliebigen voll gefalteten Netz basieren, das Eingaben beliebiger Größe entgegennimmt und eine oder mehrere Ausgangskarten derselben Größe erzeugt. Dasselbe vollständig gefaltete Netz 402 kann für verschiedene Ausgabeschichten verwendet werden, je nach den Informationen, die aus dem Eingangsbild extrahiert werden. So kann das Modell eine Ausgabeschicht 404 für alle Zellen, eine Ausgabeschicht 406 für Tumorzellen und eine Ausgabeschicht 408 für Artefaktbereiche enthalten.
  • Beim Training des Modells kann eine Verlustfunktion optimiert werden, die die einzelnen Ausgaben gewichtet. Die Verlustfunktion kann zum Beispiel wie folgt dargestellt werden: L t o t a l = a L ( o u t p u t 1,   t a r g e t 1 ) + b L ( o u t p u t 2,   t a r g e t 2 ) + c L ( o u t p u t 3,   t a r g e t 3 )
    Figure DE112022001967T5_0001
    wobei die Funktion L(·,·) eine Verlustfunktion sein kann, wie z. B. der mittlere quadratische Fehler oder die binäre Kreuzentropie, und a, b und c die Gewichte sind, die der Aufgabe „Alle Zellen“, der Aufgabe „Tumorzellen“ und der Aufgabe „Artefaktsegmentierung“ zugeordnet sind. In jedem Fall spiegeln die Ausgangs- und Zielwerte die Ergebnisse der jeweiligen Aufgaben mit den entsprechenden erwarteten Werten wider.
  • 5 zeigt ein beispielhaftes Objektträgerbild 500 nach der Identifizierung von Artefaktbereichen in Block 208. Das Objektträgerbild 500 enthält die gescannte Gewebeprobe 502. In diesem Beispiel wurde eine Reihe von Kacheln 504 innerhalb des Bildes identifiziert, in diesem Fall durch Anlegen eines Gitters über das gescannte Gewebebild 502, wobei die Pixel, die in das jeweilige Gitter fallen, eine entsprechende Kachel bilden. Es wird auch eine Reihe von Markierungen 506 gezeigt, die von einem menschlichen Bediener bereitgestellt wurden, um die Kacheln zu begrenzen, so dass die Kacheln 504 nur innerhalb einer durch die Markierungen 506 festgelegten Grenze bestimmt werden. In einigen Beispielen können die TCR-Analyse und andere Analysen auf den markierten Bereich beschränkt werden.
  • Zusätzlich wird ein Artefaktbereich 508 angezeigt. Zellinformationen werden in der Artefaktregion nicht berücksichtigt, unabhängig von den durch den Bediener markierten Regionen. Wenn also die markierte Region ganz oder teilweise eine Artefaktregion umfasst, werden die in der/den Artefaktregion(en) vorhandenen Zellen bei der Analyse nicht berücksichtigt.
  • In 6 ist eine beispielhafte Rechenvorrichtung 600 gemäß einer Ausführungsform der vorliegenden Erfindung dargestellt. Die Rechenvorrichtung 600 ist so konfiguriert, dass sie eine Klassifikatorverbesserung durchführt.
  • Die Rechenvorrichtung 600 kann als jede Art von Rechen- oder Computergerät ausgeführt werden, das in der Lage ist, die hierin beschriebenen Funktionen auszuführen, einschließlich, ohne Einschränkung, eines Computers, eines Servers, eines Rack-basierten Servers, eines Blade-Servers, einer Workstation, eines Desktop-Computers, eines Laptop-Computers, eines Notebooks, eines Tablet-Computers, eines mobilen Rechengeräts, eines tragbaren Rechengeräts, eines Netzwerkgeräts, eines Webgeräts, eines verteilten Rechensystems, eines prozessorbasierten Systems und/oder eines elektronischen Geräts für Verbraucher. Zusätzlich oder alternativ kann das Rechengerät 600 als ein oder mehrere Rechenschlitten, Speicherschlitten oder andere Racks, Schlitten, Rechengehäuse oder andere Komponenten eines physisch disaggregierten Rechengeräts verkörpert werden.
  • Wie in 6 dargestellt, umfasst das Computergerät 600 den Prozessor 610, ein Eingabe-/Ausgabe-Subsystem 620, einen Speicher 630, ein Datenspeichergerät 640 und ein Kommunikations-Subsystem 650 und/oder andere Komponenten und Geräte, die üblicherweise in einem Server oder einem ähnlichen Computergerät zu finden sind. In anderen Ausführungsformen kann die Rechenvorrichtung 600 andere oder zusätzliche Komponenten enthalten, wie sie üblicherweise in einem Servercomputer zu finden sind (z. B. verschiedene Eingabe-/Ausgabegeräte). Darüber hinaus können in einigen Ausführungsformen eine oder mehrere der dargestellten Komponenten in eine andere Komponente integriert sein oder anderweitig einen Teil dieser Komponente bilden. Zum Beispiel kann der Speicher 630 oder Teile davon in einigen Ausführungsformen in den Prozessor 610 integriert sein.
  • Der Prozessor 610 kann als jede Art von Prozessor ausgeführt werden, der die hier beschriebenen Funktionen ausführen kann. Der Prozessor 610 kann als Einzelprozessor, als mehrere Prozessoren, als Zentraleinheit(en) (CPU(s)), als Grafikverarbeitungseinheit(en) (GPU(s)), als Einzel- oder Mehrkernprozessor(en), als digitaler Signalprozessor(en), als Mikrocontroller oder als andere(r) Prozessor(en) oder Verarbeitungs-/Steuerungsschaltung(en) ausgeführt werden.
  • Der Speicher 630 kann als jede Art von flüchtigem oder nichtflüchtigem Speicher oder Datenspeicher ausgeführt werden, der die hier beschriebenen Funktionen ausführen kann. Im Betrieb kann der Speicher 630 verschiedene Daten und Software speichern, die während des Betriebs des Computergeräts 600 verwendet werden, wie z. B. Betriebssysteme, Anwendungen, Programme, Bibliotheken und Treiber. Der Speicher 630 ist mit dem Prozessor 610 über das E/A-Subsystem 620 kommunikativ verbunden, das als Schaltungen und/oder Komponenten ausgeführt sein kann, um Eingabe-/Ausgabeoperationen mit dem Prozessor 610, dem Speicher 630 und anderen Komponenten des Computergeräts 600 zu erleichtern. Beispielsweise kann das E/A-Subsystem 620 als Speicher-Controller-Hubs, Eingabe-/Ausgabesteuerungs-Hubs, Plattform-Controller-Hubs, integrierte Steuerschaltungen, Firmware-Geräte, Kommunikationsverbindungen (z. B. Punkt-zu-Punkt-Verbindungen, Busverbindungen, Drähte, Kabel, Lichtleiter, Leiterbahnen usw.) und/oder andere Komponenten und Subsysteme zur Erleichterung der Eingabe-/Ausgabeoperationen ausgeführt werden oder diese enthalten. In einigen Ausführungsformen kann das E/A-Teilsystem 620 einen Teil eines System-on-Chip (SOC) bilden und zusammen mit dem Prozessor 610, dem Speicher 630 und anderen Komponenten des Computergeräts 600 auf einem einzigen integrierten Schaltungschip untergebracht werden.
  • Die Datenspeichervorrichtung 640 kann als jede Art von Vorrichtung oder Vorrichtungen ausgeführt werden, die für die kurz- oder langfristige Speicherung von Daten konfiguriert sind, wie z. B. Speichervorrichtungen und -schaltungen, Speicherkarten, Festplattenlaufwerke, Solid-State-Laufwerke oder andere Datenspeichervorrichtungen. Die Datenspeichervorrichtung 640 kann Programmcode 640A zum Trainieren eines Mutationsregelmodells und Programmcode 640B zum Mutieren von Peptidsequenzen gemäß einem Mutationsregelmodell speichern. Das Kommunikationssubsystem 650 der Computervorrichtung 600 kann als eine beliebige Netzwerkschnittstellensteuerung oder eine andere Kommunikationsschaltung, - vorrichtung oder -sammlung davon ausgeführt werden, die in der Lage ist, die Kommunikation zwischen der Computervorrichtung 600 und anderen entfernten Vorrichtungen über ein Netzwerk zu ermöglichen. Das Kommunikationssubsystem 650 kann so konfiguriert sein, dass es eine oder mehrere Kommunikationstechnologien (z. B. drahtgebundene oder drahtlose Kommunikation) und zugehörige Protokolle (z. B. Ethernet, InfiniBand®, Bluetooth®, Wi-Fi®, WiMAX usw.) verwendet, um eine solche Kommunikation durchzuführen.
  • Wie dargestellt, kann das Computergerät 600 auch ein oder mehrere Peripheriegeräte 660 enthalten. Die Peripheriegeräte 660 können eine beliebige Anzahl von zusätzlichen Eingabe-/Ausgabegeräten, Schnittstellengeräten und/oder anderen Peripheriegeräten umfassen. In einigen Ausführungsformen können die Peripheriegeräte 660 beispielsweise ein Display, einen Touchscreen, Grafikschaltkreise, eine Tastatur, eine Maus, ein Lautsprechersystem, ein Mikrofon, eine Netzwerkschnittstelle und/oder andere Eingabe-/Ausgabegeräte, Schnittstellengeräte und/oder Peripheriegeräte umfassen.
  • Natürlich kann das Computergerät 600 auch andere Elemente (nicht dargestellt) enthalten, wie es für einen Fachmann ohne weiteres vorstellbar ist, oder auch bestimmte Elemente weglassen. Zum Beispiel können verschiedene andere Sensoren, Eingabegeräte und/oder Ausgabegeräte in der Rechenvorrichtung 600 enthalten sein, abhängig von der jeweiligen Implementierung derselben, wie von einem Fachmann leicht zu verstehen ist. Zum Beispiel können verschiedene Arten von drahtlosen und/oder verdrahteten Eingabe- und/oder Ausgabegeräten verwendet werden. Darüber hinaus können zusätzliche Prozessoren, Steuerungen, Speicher usw. in verschiedenen Konfigurationen verwendet werden. Diese und andere Variationen des Verarbeitungssystems 600 können von einem Fachmann angesichts der hierin enthaltenen Lehren der vorliegenden Erfindung ohne weiteres in Betracht gezogen werden.
  • In den 7 und 8 sind beispielhafte neuronale Netzarchitekturen dargestellt, die zur Implementierung von Teilen der vorliegenden Modelle verwendet werden können. Ein neuronales Netz ist ein verallgemeinertes System, das seine Funktionsweise und Genauigkeit durch den Kontakt mit zusätzlichen empirischen Daten verbessert. Das neuronale Netz wird durch den Kontakt mit den empirischen Daten trainiert. Während des Trainings speichert das neuronale Netz eine Vielzahl von Gewichten, die auf die eingehenden empirischen Daten angewendet werden, und passt sie an. Durch Anwendung der angepassten Gewichte auf die Daten können die Daten als zu einer bestimmten vordefinierten Klasse aus einer Reihe von Klassen gehörend identifiziert werden, oder es kann eine Wahrscheinlichkeit ausgegeben werden, dass die eingegebenen Daten zu jeder der Klassen gehören.
  • Die empirischen Daten, die auch als Trainingsdaten bezeichnet werden, aus einer Reihe von Beispielen können als eine Reihe von Werten formatiert und in den Eingang des neuronalen Netzes eingegeben werden. Jedes Beispiel kann mit einem bekannten Ergebnis oder einer bekannten Ausgabe verbunden sein. Jedes Beispiel kann als Paar (x, y) dargestellt werden, wobei x für die Eingabedaten und y für die bekannte Ausgabe steht. Die Eingabedaten können eine Vielzahl verschiedener Datentypen und mehrere unterschiedliche Werte umfassen. Das Netz kann einen Eingangsknoten für jeden Wert haben, der die Eingabedaten des Beispiels ausmacht, und auf jeden Eingabewert kann eine eigene Gewichtung angewendet werden. Die Eingabedaten können zum Beispiel als Vektor, Array oder String formatiert werden, je nach Architektur des zu konstruierenden und zu trainierenden neuronalen Netzes.
  • Das neuronale Netz „lernt“, indem es die aus den Eingabedaten erzeugte Ausgabe des neuronalen Netzes mit den bekannten Werten der Beispiele vergleicht und die gespeicherten Gewichte anpasst, um die Unterschiede zwischen den Ausgabewerten und den bekannten Werten zu minimieren. Die Anpassung der gespeicherten Gewichte kann durch Rückwärtsfortpflanzung erfolgen, wobei die Auswirkung der Gewichte auf die Ausgabewerte durch Berechnung des mathematischen Gradienten und Anpassung der Gewichte in einer Weise bestimmt werden kann, die die Ausgabe in Richtung einer minimalen Differenz verschiebt. Diese Optimierung, die als Gradientenabstiegsverfahren bezeichnet wird, ist ein nicht einschränkendes Beispiel dafür, wie das Training durchgeführt werden kann. Eine Teilmenge von Beispielen mit bekannten Werten, die nicht für das Training verwendet wurden, kann verwendet werden, um die Genauigkeit des neuronalen Netzes zu testen und zu validieren.
  • Während des Betriebs kann das trainierte neuronale Netz durch Generalisierung auf neue Daten angewendet werden, die zuvor nicht für das Training oder die Validierung verwendet wurden. Die angepassten Gewichte des neuronalen Netzes können auf die neuen Daten angewendet werden, wobei die Gewichte eine aus den Trainingsbeispielen entwickelte Funktion schätzen. Die Parameter der geschätzten Funktion, die durch die Gewichte erfasst werden, beruhen auf statistischer Inferenz.
  • In geschichteten neuronalen Netzen sind die Knoten in Form von Schichten angeordnet. Ein beispielhaftes einfaches neuronales Netz hat eine Eingabeschicht 720 mit Quellknoten 722 und eine einzelne Berechnungsschicht 730 mit einem oder mehreren Berechnungsknoten 732, die auch als Ausgabeknoten fungieren, wobei es für jede mögliche Kategorie, in die das Eingabebeispiel klassifiziert werden könnte, einen einzelnen Berechnungsknoten 732 gibt. Eine Eingabeschicht 720 kann eine Anzahl von Quellknoten 722 aufweisen, die der Anzahl von Datenwerten 712 in den Eingabedaten 710 entspricht. Die Datenwerte 712 in den Eingabedaten 710 können als Spaltenvektor dargestellt werden. Jeder Berechnungsknoten 732 in der Berechnungsschicht 730 erzeugt eine lineare Kombination gewichteter Werte aus den in die Eingangsknoten 720 eingespeisten Eingangsdaten 710 und wendet eine nichtlineare Aktivierungsfunktion an, die auf die Summe differenzierbar ist. Das beispielhafte einfache neuronale Netz kann eine Klassifizierung von linear trennbaren Beispielen (z. B. Mustern) durchführen.
  • Ein tiefes neuronales Netz, z. B. ein mehrschichtiges Perzeptron, kann eine Eingabeschicht 720 mit Quellknoten 722, eine oder mehrere Berechnungsschichten 730 mit einem oder mehreren Berechnungsknoten 732 und eine Ausgabeschicht 740 aufweisen, in der es für jede mögliche Kategorie, in die das Eingabebeispiel eingeordnet werden könnte, einen einzelnen Ausgabeknoten 742 gibt. Eine Eingabeschicht 720 kann eine Anzahl von Quellknoten 722 aufweisen, die der Anzahl der Datenwerte 712 in den Eingabedaten 710 entspricht. Die Berechnungsknoten 732 in der/den Berechnungsschicht(en) 730 können auch als verborgene Schichten bezeichnet werden, da sie zwischen den Quellknoten 722 und dem/den Ausgangsknoten 742 liegen und nicht direkt beobachtet werden. Jeder Knoten 732, 742 in einer Berechnungsschicht erzeugt eine lineare Kombination gewichteter Werte aus den Werten, die von den Knoten in einer vorherigen Schicht ausgegeben werden, und wendet eine nichtlineare Aktivierungsfunktion an, die über den Bereich der linearen Kombination differenzierbar ist. Die auf den Wert jedes vorherigen Knotens angewendeten Gewichte können beispielsweise mit w1, w2, ... wn-1, wn bezeichnet werden. Die Ausgabeschicht liefert die Gesamtantwort des Netzes auf die eingegebenen Daten. Ein tiefes neuronales Netz kann vollständig verbunden sein, d. h. jeder Knoten in einer Berechnungsschicht ist mit allen anderen Knoten in der vorherigen Schicht verbunden, oder es kann andere Konfigurationen von Verbindungen zwischen den Schichten aufweisen. Fehlen die Verbindungen zwischen den Knoten, wird das Netz als teilweise verbunden bezeichnet.
  • Das Training eines tiefen neuronalen Netzes kann zwei Phasen umfassen: eine Vorwärtsphase, in der die Gewichte jedes Knotens festgelegt werden und sich die Eingabe durch das Netz fortpflanzt, und eine Rückwärtsphase, in der ein Fehlerwert rückwärts durch das Netz propagiert wird und die Gewichtswerte aktualisiert werden.
  • Die Berechnungsknoten 732 in der/den einen oder mehreren (versteckten) Berechnungsschicht(en) 730 führen eine nichtlineare Transformation der Eingabedaten 712 durch, die einen Merkmalsraum erzeugt. Die Klassen oder Kategorien können in dem Merkmalsraum leichter getrennt werden als im ursprünglichen Datenraum.
  • Die hier beschriebenen Ausführungsformen können vollständig aus Hardware, vollständig aus Software oder sowohl aus Hardware- als auch aus Softwareelementen bestehen. In einer bevorzugten Ausführungsform ist die vorliegende Erfindung in Software implementiert, die Firmware, residente Software, Mikrocode usw. umfasst, aber nicht darauf beschränkt ist.
  • Die Ausführungsformen können ein Computerprogrammprodukt umfassen, auf das von einem computerverwendbaren oder computerlesbaren Medium aus zugegriffen werden kann, das Programmcode zur Verwendung durch oder in Verbindung mit einem Computer oder einem Befehlsausführungssystem bereitstellt. Ein computernutzbares oder computerlesbares Medium kann jede Vorrichtung umfassen, die das Programm zur Verwendung durch oder in Verbindung mit dem Befehlsausführungssystem, der Vorrichtung oder dem Gerät speichert, kommuniziert, weitergibt oder transportiert. Das Medium kann ein magnetisches, optisches, elektronisches, elektromagnetisches, Infrarot- oder Halbleitersystem (oder ein Gerät oder eine Vorrichtung) oder ein Ausbreitungsmedium sein. Das Medium kann ein computerlesbares Speichermedium wie ein Halbleiter- oder Festkörperspeicher, ein Magnetband, eine austauschbare Computerdiskette, ein Direktzugriffsspeicher (RAM), ein Festwertspeicher (ROM), eine starre Magnetplatte, eine optische Platte usw. sein.
  • Jedes Computerprogramm kann in einem maschinenlesbaren Speichermedium oder einer maschinenlesbaren Vorrichtung (z. B. Programmspeicher oder Magnetplatte) gespeichert sein, das bzw. die von einem allgemeinen oder speziellen programmierbaren Computer gelesen werden kann, um den Betrieb eines Computers zu konfigurieren und zu steuern, wenn das Speichermedium oder die Vorrichtung von dem Computer gelesen wird, um die hier beschriebenen Verfahren durchzuführen. Das erfindungsgemäße System kann auch als in einem computerlesbaren Speichermedium verkörpert angesehen werden, das mit einem Computerprogramm konfiguriert ist, wobei das so konfigurierte Speichermedium einen Computer veranlasst, in einer spezifischen und vordefinierten Weise zu arbeiten, um die hierin beschriebenen Funktionen auszuführen.
  • Ein Datenverarbeitungssystem, das zur Speicherung und/oder Ausführung von Programmcode geeignet ist, kann mindestens einen Prozessor umfassen, der direkt oder indirekt über einen Systembus mit Speicherelementen verbunden ist. Zu den Speicherelementen können ein lokaler Speicher, der während der tatsächlichen Ausführung des Programmcodes verwendet wird, ein Massenspeicher und Cache-Speicher gehören, in denen zumindest ein Teil des Programmcodes vorübergehend gespeichert wird, um die Anzahl der Abrufe des Codes aus dem Massenspeicher während der Ausführung zu verringern. Eingabe-/Ausgabe- oder E/A-Geräte (einschließlich, aber nicht beschränkt auf Tastaturen, Bildschirme, Zeigegeräte usw.) können entweder direkt oder über zwischengeschaltete E/A-Controller mit dem System verbunden werden.
  • Netzwerkadapter können auch an das System gekoppelt werden, damit das Datenverarbeitungssystem mit anderen Datenverarbeitungssystemen oder entfernten Druckern oder Speichergeräten über zwischengeschaltete private oder öffentliche Netzwerke verbunden werden kann. Modems, Kabelmodems und Ethernet-Karten sind nur einige der derzeit verfügbaren Arten von Netzwerkadaptern.
  • Wie hier verwendet, kann sich der Begriff „Hardware-Prozessor-Teilsystem“ oder „Hardware-Prozessor“ auf einen Prozessor, einen Speicher, eine Software oder Kombinationen davon beziehen, die zusammenarbeiten, um eine oder mehrere spezifische Aufgaben zu erfüllen. In zweckmäßigen Ausführungsformen kann das Hardware-Prozessor-Teilsystem ein oder mehrere Datenverarbeitungselemente (z. B. Logikschaltungen, Verarbeitungsschaltungen, Befehlsausführungsgeräte usw.) enthalten. Das eine oder die mehreren Datenverarbeitungselemente können in einer zentralen Verarbeitungseinheit, einer Grafikverarbeitungseinheit und/oder einer separaten prozessor- oder rechnerelementbasierten Steuerung (z. B. Logikgatter usw.) enthalten sein. Das Hardware-Prozessor-Subsystem kann einen oder mehrere On-Board-Speicher enthalten (z. B. Caches, dedizierte Speicher-Arrays, Festwertspeicher usw.). In einigen Ausführungsformen kann das Hardware-Prozessor-Teilsystem einen oder mehrere Speicher enthalten, die sich auf der Platine oder außerhalb der Platine befinden können oder die für die Verwendung durch das Hardware-Prozessor-Teilsystem bestimmt sein können (z. B. ROM, RAM, BIOS (Basic Input/Output System), usw.).
  • In einigen Ausführungsformen kann das Hardware-Prozessor-Teilsystem ein oder mehrere Softwareelemente enthalten und ausführen. Das eine oder die mehreren Software-Elemente können ein Betriebssystem und/oder eine oder mehrere Anwendungen und/oder spezifischen Code enthalten, um ein bestimmtes Ergebnis zu erzielen.
  • In anderen Ausführungsformen kann das Hardware-Prozessor-Teilsystem spezielle, spezialisierte Schaltungen enthalten, die eine oder mehrere elektronische Verarbeitungsfunktionen ausführen, um ein bestimmtes Ergebnis zu erzielen. Solche Schaltungen können eine oder mehrere anwendungsspezifische integrierte Schaltungen (ASICs), feldprogrammierbare Gate-Arrays (FPGAs) und/oder programmierbare Logik-Arrays (PLAs) umfassen.
  • Diese und andere Variationen eines Hardware-Prozessor-Subsystems sind auch in Übereinstimmung mit Ausführungsformen der vorliegenden Erfindung in Betracht gezogen.
  • Die Bezugnahme in der Beschreibung auf „eine Ausführungsform“ oder „eine Ausführungsform“ der vorliegenden Erfindung sowie andere Varianten davon bedeutet, dass ein bestimmtes Merkmal, eine bestimmte Struktur, eine bestimmte Eigenschaft usw., die im Zusammenhang mit der Ausführungsform beschrieben werden, in mindestens einer Ausführungsform der vorliegenden Erfindung enthalten sind. Daher beziehen sich die Ausdrücke „in einer Ausführungsform“ oder „in einer Ausführungsform“ sowie andere Variationen, die an verschiedenen Stellen in der Beschreibung erscheinen, nicht notwendigerweise alle auf dieselbe Ausführungsform. Es ist jedoch zu verstehen, dass die Merkmale einer oder mehrerer Ausführungsformen angesichts der hierin enthaltenen Lehren der vorliegenden Erfindung kombiniert werden können.
  • Es ist zu beachten, dass die Verwendung der folgenden Ausdrücke „/“, „und/oder“ und „mindestens eines von“, z. B. in den Fällen „A/B“, „A und/oder B“ und „mindestens eines von A und B“, nur die Auswahl der ersten aufgeführten Option (A) oder nur die Auswahl der zweiten aufgeführten Option (B) oder die Auswahl beider Optionen (A und B) einschließen soll. Ein weiteres Beispiel: In den Fällen „A, B und/oder C“ und „mindestens eine der Optionen A, B und C“ soll diese Formulierung nur die Auswahl der ersten aufgeführten Option (A) oder nur die Auswahl der zweiten aufgeführten Option (B) oder nur die Auswahl der dritten aufgeführten Option (C) umfassen, oder nur die Auswahl der ersten und der zweiten aufgeführten Option (A und B), oder nur die Auswahl der ersten und der dritten aufgeführten Option (A und C), oder nur die Auswahl der zweiten und der dritten aufgeführten Option (B und C), oder die Auswahl aller drei Optionen (A und B und C). Dies kann für beliebig viele der aufgeführten Optionen erweitert werden.
  • Das Vorstehende ist in jeder Hinsicht illustrativ und beispielhaft, aber nicht einschränkend zu verstehen, und der Umfang der hierin offenbarten Erfindung ist nicht aus der detaillierten Beschreibung, sondern vielmehr aus den Ansprüchen zu entnehmen, die gemäß der vollen Breite der Patentgesetze ausgelegt werden. Es versteht sich von selbst, dass die hier gezeigten und beschriebenen Ausführungsformen nur zur Veranschaulichung der vorliegenden Erfindung dienen und dass der Fachmann verschiedene Modifikationen vornehmen kann, ohne vom Umfang und Geist der Erfindung abzuweichen. Der Fachmann kann verschiedene andere Merkmalskombinationen implementieren, ohne von dem Umfang und dem Geist der Erfindung abzuweichen. Nachdem somit Aspekte der Erfindung mit den von den Patentgesetzen geforderten Einzelheiten und Einzelheiten beschrieben worden sind, ist das, was beansprucht und durch die Patentschrift geschützt werden soll, in den beigefügten Ansprüchen dargelegt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 17/711546 [0001]
    • US 63/170677 [0001]

Claims (20)

  1. Ein computerimplementiertes Verfahren zum Trainieren eines neuronalen Netzwerkmodells, das Folgendes umfasst: Erweitern (306) eines ursprünglichen Trainingsdatensatzes, um einen erweiterten Trainingsdatensatz zu erzeugen, indem ein Bildartefakt auf einen Teil eines ursprünglichen Bildes des ursprünglichen Datensatzes angewendet wird, um ein Artefaktbild zu erzeugen; Erzeugen (308) eines dem Artefaktbild entsprechenden Zielbildes durch Löschen von Objektbeschriftungen aus dem Zielbild an der Position des Artefakts; und Trainieren (204) eines neuronalen Netzwerkmodells unter Verwendung des erweiterten Trainingsdatensatzes und des entsprechenden Zielbildes, wobei das neuronale Netzwerkmodell eine erste Ausgabe, die Artefaktbereiche identifiziert, und andere Ausgaben, die Objekte identifizieren, enthält.
  2. Verfahren nach Anspruch 1, wobei das Anwenden des Bildartefakts das Bestimmen einer Maske umfasst, die einen Bereich des Originalbildes identifiziert, auf den das Bildartefakt angewendet wird.
  3. Verfahren nach Anspruch 2, wobei das Anwenden des Bildartefakts ferner das Falten des Bildes in dem identifizierten Bereich mit einem Gaußschen Kernel umfasst, um eine Unschärfe hinzuzufügen.
  4. Verfahren nach Anspruch 3, wobei die Anwendung des Bildartefakts ferner die Anwendung einer Farbverschiebung in dem identifizierten Bereich umfasst, um Tinte zu simulieren.
  5. Verfahren nach Anspruch 2, wobei die Bestimmung einer Maske das Erzeugen einer zufälligen Anzahl von Bereichen umfasst, wobei jeder der zufälligen Anzahl von Bereichen eine zufällig erzeugte Form aufweist.
  6. Verfahren nach Anspruch 1, wobei das Trainieren des neuronalen Netzmodells das Minimieren einer Verlustfunktion umfasst, die eine gewichtete Summe eines Verlustterms aus dem ersten Ausgang und entsprechenden Verlusttermen aus anderen, Objekte identifizierenden Ausgängen umfasst.
  7. Verfahren nach Anspruch 1, wobei das neuronale Netzmodell ein vollständig gefaltetes neuronales Netzmodell mit Ausgangskarten ist.
  8. Verfahren nach Anspruch 7, wobei die erste Ausgabe des voll gefalteten neuronalen Netzwerkmodells eine Karte ist und das Zielbild eine Maske des Bildartefakts darstellt, und wobei das Erzeugen des Zielbildes das Löschen von Beschriftungen von Objekten innerhalb der Artefaktmaske umfasst.
  9. Ein computerimplementiertes Verfahren zur Analyse einer Gewebeprobe, umfassend: Analysieren (209) eines Gewebeprobenbildes unter Verwendung eines neuronalen Netzwerkmodells, das einen ersten Ausgang, der Zellen identifiziert, einen zweiten Ausgang, der Tumorzellen identifiziert, und einen dritten Ausgang, der einen Artefaktbereich identifiziert, enthält; und Durchführen (210) einer Korrekturmaßnahme in Reaktion auf die Feststellung, dass der Anteil des Gewebeprobenbildes innerhalb des einen oder der mehreren erfassten Artefaktbereiche einen Schwellenwert überschreitet, um ein korrigiertes Gewebeprobenbild zu erzeugen; und Durchführung (209) einer Analyse des korrigierten Gewebeprobenbildes.
  10. Verfahren nach Anspruch 9, wobei die Korrekturmaßnahme die erneute Abtastung einer entsprechenden Gewebeprobe umfasst.
  11. Verfahren nach Anspruch 9, wobei die Korrekturmaßnahme die Entnahme einer neuen Gewebeprobe und das Scannen der neuen Gewebeprobe umfasst.
  12. Verfahren nach Anspruch 9, wobei die Analyse die Bestimmung eines Tumorzellverhältnisses für einen Teil des korrigierten Gewebeprobenbildes umfasst, der keinen Artefaktbereich enthält.
  13. Ein System zum Trainieren eines neuronalen Netzwerkmodells, das Folgendes umfasst: einen Hardware-Prozessor (610); und einen Speicher (630), der ein Computerprogramm speichert, das, wenn es von dem Hardware-Prozessor ausgeführt wird, den Hardware-Prozessor veranlasst,: Erweitern (306) eines ursprünglichen Trainingsdatensatzes, um einen erweiterten Trainingsdatensatz zu erzeugen, indem ein Bildartefakt auf einen Teil eines ursprünglichen Bildes des ursprünglichen Datensatzes angewendet wird, um ein Artefaktbild zu erzeugen; Erzeugen (308) eines dem Artefaktbild entsprechenden Zielbildes durch Löschen von Markierungen aus dem Zielbild an der Position des Artefakts; und Trainieren (204) eines neuronalen Netzwerkmodells unter Verwendung des erweiterten Trainingsdatensatzes und des entsprechenden Zielbildes, wobei das neuronale Netzwerkmodell eine erste Ausgabe, die Artefaktbereiche identifiziert, und andere Ausgaben, die Objekte identifizieren, enthält.
  14. System nach Anspruch 13, wobei das Computerprogramm den Hardwareprozessor außerdem veranlasst, eine Maske zu bestimmen, die einen Bereich des Originalbildes identifiziert, auf den das Bildartefakt angewendet wird.
  15. System nach Anspruch 14, wobei das Computerprogramm den Hardwareprozessor außerdem veranlasst, das Bild in dem identifizierten Bereich mit einem Gauß-Kern zu falten, um Unschärfe hinzuzufügen.
  16. System nach Anspruch 15, wobei das Computerprogramm den Hardwareprozessor außerdem veranlasst, eine Farbverschiebung in dem identifizierten Bereich vorzunehmen, um Tinte zu simulieren.
  17. System nach Anspruch 14, wobei das Computerprogramm ferner den Hardwareprozessor veranlasst, eine zufällige Anzahl von Bereichen für die Maske zu erzeugen, wobei jeder der zufälligen Anzahl von Bereichen eine zufällig erzeugte Form aufweist.
  18. System nach Anspruch 13, wobei das Computerprogramm ferner den Hardwareprozessor veranlasst, eine Verlustfunktion zu minimieren, die eine gewichtete Summe eines Verlustterms aus dem ersten Ausgang und entsprechenden Verlusttermen aus anderen, Objekte identifizierenden Ausgängen enthält.
  19. System nach Anspruch 13, wobei das neuronale Netzmodell ein vollständig gefaltetes neuronales Netzmodell mit Ausgangskarten ist.
  20. System nach Anspruch 19, wobei die erste Ausgabe des voll gefalteten neuronalen Netzwerkmodells eine Karte ist und das Zielbild eine Maske des Bildartefakts darstellt, und wobei das Computerprogramm ferner den Hardwareprozessor veranlasst, Kennzeichnungen von Objekten innerhalb der Artefaktmaske zu löschen.
DE112022001967.0T 2021-04-05 2022-04-04 Klassifizierung von zellkernen mit vermeidung von artefakten Pending DE112022001967T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202163170677P 2021-04-05 2021-04-05
US63/170,677 2021-04-05
US17/711,546 2022-04-01
US17/711,546 US20220319158A1 (en) 2021-04-05 2022-04-01 Cell nuclei classification with artifact area avoidance
PCT/US2022/023278 WO2022216590A1 (en) 2021-04-05 2022-04-04 Cell nuclei classification with artifact area avoidance

Publications (1)

Publication Number Publication Date
DE112022001967T5 true DE112022001967T5 (de) 2024-01-25

Family

ID=83448195

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112022001967.0T Pending DE112022001967T5 (de) 2021-04-05 2022-04-04 Klassifizierung von zellkernen mit vermeidung von artefakten

Country Status (4)

Country Link
US (1) US20220319158A1 (de)
JP (1) JP2024513242A (de)
DE (1) DE112022001967T5 (de)
WO (1) WO2022216590A1 (de)

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10438096B2 (en) * 2016-12-27 2019-10-08 Definiens Ag Identifying and excluding blurred areas of images of stained tissue to improve cancer scoring
US20200085382A1 (en) * 2017-05-30 2020-03-19 Arterys Inc. Automated lesion detection, segmentation, and longitudinal identification
US10489907B2 (en) * 2017-11-13 2019-11-26 Siemens Healthcare Gmbh Artifact identification and/or correction for medical imaging
WO2019183153A1 (en) * 2018-03-21 2019-09-26 Kla-Tencor Corporation Training a machine learning model with synthetic images
US10810460B2 (en) * 2018-06-13 2020-10-20 Cosmo Artificial Intelligence—AI Limited Systems and methods for training generative adversarial networks and use of trained generative adversarial networks
US20210201474A1 (en) * 2018-06-29 2021-07-01 Photogauge, Inc. System and method for performing visual inspection using synthetically generated images
KR101889725B1 (ko) * 2018-07-04 2018-08-20 주식회사 루닛 악성 종양 진단 방법 및 장치
KR20200075940A (ko) * 2018-12-13 2020-06-29 가천대학교 산학협력단 실시간 데이터 셋 확대 생성 시스템, 실시간 데이터 셋 확대 생성 방법, 및 이를 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체
EP3757872A1 (de) * 2019-06-28 2020-12-30 Visiopharm A/S Abtastende/vorabtastende qualitätskontrolle von objektträgern
US11423678B2 (en) * 2019-09-23 2022-08-23 Proscia Inc. Automated whole-slide image classification using deep learning
US11823378B2 (en) * 2019-12-20 2023-11-21 PAIGE.AI, Inc. Systems and methods for processing electronic images to detect contamination in specimen preparations
KR102374840B1 (ko) * 2020-10-20 2022-03-15 두산중공업 주식회사 딥러닝 학습용 결함 이미지 생성 방법 및 이를 위한 시스템

Also Published As

Publication number Publication date
US20220319158A1 (en) 2022-10-06
JP2024513242A (ja) 2024-03-22
WO2022216590A1 (en) 2022-10-13

Similar Documents

Publication Publication Date Title
DE102020105535A1 (de) Neuronale Netzwerkvorrichtung und Verfahren zum Quantisieren von Parametern eines neuronalen Netzwerks
DE102018111905A1 (de) Domänenspezifische Sprache zur Erzeugung rekurrenter neuronaler Netzarchitekturen
DE112019002206B4 (de) Knockout-autoencoder zum erkennen von anomalien in biomedizinischen bildern
DE102017124573A1 (de) Systeme und verfahren zum beschneiden von neuronalen netzen für eine betriebsmitteleffiziente folgerung
DE112020000279T5 (de) Erlernen eines erkennungsmodells unter verwenden einer verlustfunktion
DE112016004534T5 (de) Nicht überwachtes Abgleichen in feinkörnigen Datensätzen zur Einzelansicht-Objektrekonstruktion
DE112019001044T5 (de) Verfahren und vorrichtung für maschinelles lernen, programm, gelerntes modell und diskriminiervorrichtung
DE112016002496T5 (de) Getemperte Spärlichkeit durch adaptives und dynamisches Schrumpfen
EP3557487B1 (de) Generieren von validierungsdaten mit generativen kontradiktorischen netzwerken
DE112017000669T5 (de) Semantische Segmentierung auf der Grundlage einer globalen Optimierung
DE112021002867T5 (de) Defektdetektion für eine leiterplattenbaugruppe
DE112020000448T5 (de) Kameraselbstkalibrierungsnetz
DE112021000392T5 (de) Leistungsfähiges kommentieren der grundwahrheit
DE102021202189A1 (de) Maschinell erlernte anomalieerkennung
DE102019122402A1 (de) Das klassifizieren von zeitreihenbilddaten
DE102019121285A1 (de) Systeme und Verfahren zur Lokalisierung systematischer Fehler mittels physical failure analysis (PFA)
DE112020003343T5 (de) System und verfahren mit einem robusten tiefen generativen modell
DE112021005910T5 (de) Schnellere abdeckungskonvergenz mit automatischer testparameterabstimmung bei eingeschränkter zufallsverifikation
DE112020005732T5 (de) Erzeugen von trainingsdaten zur objekterkennung
DE102021203251B3 (de) Digitale Pathologie unter Verwendung eines künstlichen neuronalen Netzes
DE112021005678T5 (de) Normieren von OCT-Bilddaten
DE102021124445A1 (de) Metamerkmal-trainingsmodelle für maschinenlernalgorithmen
DE112021003761T5 (de) Prädiktive modelle mit zerlegbaren hierarchischen ebenen, die konfiguriert werden, um interpretierbare resultate zu erzeugen
DE102019117680A1 (de) Automatisiertes segmentierungsverfahren für die qualitätsprüfung
DE112022001991T5 (de) Tumorzelen-isolinien

Legal Events

Date Code Title Description
R012 Request for examination validly filed