DE112021004559T5 - System zur robusten vorhersage bei unregelmässigen zeitreihen in dialysepatientenakten - Google Patents

System zur robusten vorhersage bei unregelmässigen zeitreihen in dialysepatientenakten Download PDF

Info

Publication number
DE112021004559T5
DE112021004559T5 DE112021004559.8T DE112021004559T DE112021004559T5 DE 112021004559 T5 DE112021004559 T5 DE 112021004559T5 DE 112021004559 T DE112021004559 T DE 112021004559T DE 112021004559 T5 DE112021004559 T5 DE 112021004559T5
Authority
DE
Germany
Prior art keywords
time series
cluster
ddgm
correlation
variables
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021004559.8T
Other languages
English (en)
Inventor
Jingchao Ni
Bo Zong
Wei Cheng
Haifeng Chen
Yinjun Wu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Laboratories America Inc
Original Assignee
NEC Laboratories America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Laboratories America Inc filed Critical NEC Laboratories America Inc
Publication of DE112021004559T5 publication Critical patent/DE112021004559T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Urology & Nephrology (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

Es wird ein Verfahren zum Managen von Daten von Dialysepatienten durch Verwenden eines Modells einer tiefen dynamischen Gaußschen Mischung (DDGM (= Deep Dynamic Gaussian Mixture)), um medizinische Zeitreihendaten vorherzusagen, präsentiert. Das Verfahren enthält ein Auffüllen (1001) fehlender Werte in einer multivariaten Eingabezeitreihe durch Modellparameter über eine Präimputationskomponente durch Verwenden einer zeitlichen Intensitätsfunktion basierend auf Gaußkerneln und einer mehrdimensionalen Korrelation basierend auf zu erlernenden Korrelationsparametern; und ein Speichern (1003), über eine Vorhersagekomponente, von Parametern, die Cluster-Schwerpunkte bzw. -Zentroide darstellen, die von der DDGM verwendet werden, um Zeitreihen zum Erfassen von Korrelationen zwischen verschiedenen Zeitreihenabtastungen bzw. -proben zu clustern.

Description

  • INFORMATION ÜBER VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht die Priorität der am 31. August 2020 eingereichten vorläufigen Anmeldung Nr. 63/072,325 und der am 23. August 2021 eingereichten US-Patentanmeldung Nr. 17/408,769 , die hierin jeweils in ihrer Gesamtheit durch Bezugnahme enthalten sind.
  • HINTERGRUND
  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine multivariate Zeitreihenanalyse und insbesondere ein System zur robusten Vorhersage bei unregelmäßigen Zeitreihen in Dialysepatientenakten.
  • Beschreibung des zugehörigen Standes der Technik
  • Ein Vorhersagen bei spärlichen multivariaten Zeitreihen (MTS (= Multivariate Time Series) zielt darauf ab, die Prädiktoren zukünftiger Werte von Zeitreihen angesichts ihrer unvollständigen Vergangenheit zu modellieren, was für viele auftauchende Anwendungen von Vorteil ist. Die meisten vorhandenen Verfahren verarbeiten MTS jedoch einzeln und nutzen nicht die dynamischen Verteilungen, die den MTS zugrunde liegen, was zu suboptimalen Ergebnissen führt, wenn die Spärlichkeit bzw. Seltenheit hoch ist.
  • ZUSAMMENFASSUNG
  • Es wird ein Verfahren zum Managen von Daten von Dialysepatienten durch Verwenden eines Modells einer tiefen dynamischen Gauß-Mischung (DDGM (= Deep Dynamic Gaussian Mixture)) zur Vorhersage medizinischer Zeitreihendaten präsentiert. Das Verfahren enthält ein Füllen fehlender Werte in einer multivariaten Eingabezeitreihe durch Modellparameter über eine Präimputationskomponente durch Verwenden einer zeitlichen Intensitätsfunktion basierend auf Gaußkerneln und einer mehrdimensionalen Korrelation basierend auf zu erlernenden Korrelationsparametern und ein Speichern, über eine Vorhersagekomponente, von Parametern, die von der DDGM verwendete Cluster-Schwerpunkte bzw. -Zentroide darstellen, um Zeitreihen zum Erfassen von Korrelationen zwischen verschiedenen Zeitreihenabtastungen zu clustern.
  • Es wird ein nichtflüchtiges Speichermedium präsentiert, das ein computerlesbares Programm zum Managen von Daten von Dialysepatienten durch Verwenden eines Modells einer tiefen dynamischen Gauß-Mischung (DDGM (= Deep Dynamic Gaussian Mixture)) zur Vorhersage medizinischer Zeitreihendaten umfasst. Das computerlesbare Programm veranlasst dann, wenn es auf einem Computer ausgeführt wird, dass der Computer die folgenden Schritte durchführt: Füllen fehlender Werte in einer multivariaten Eingabezeitreihe durch Modellparameter über eine Präimputationskomponente durch Verwenden einer zeitlichen Intensitätsfunktion basierend auf Gaußkerneln und einer mehrdimensionalen Korrelation basierend auf zu erlernenden Korrelationsparametern und Speichern, über eine Vorhersagekomponente, von Parametern, die von der DDGM verwendete Cluster-Schwerpunkte bzw. -Zentroide darstellen, um Zeitreihen zum Erfassen von Korrelationen zwischen verschiedenen Zeitreihenabtastungen zu clustern.
  • Es wird ein System zum Managen von Daten von Dialysepatienten durch Verwenden eines Modells einer tiefen dynamischen Gauß-Mischung (DDGM (= Deep Dynamic Gaussian Mixture)) zur Vorhersage medizinischer Zeitreihendaten präsentiert. Das System enthält eine Präimputationskomponente zum Auffüllen fehlender Werte in einer multivariaten Eingabezeitreihe durch Modellparameter durch Verwenden einer zeitlichen Intensitätsfunktion basierend auf Gaußkernen und einer mehrdimensionalen Korrelation basierend auf zu erlernenden Korrelationsparametern und eine Vorhersagekomponente zum Speichern von Parametern, die von der DDGM verwendete Cluster-Schwerpunkte bzw. -Zentroide darstellen, um Zeitreihen zum Erfassen von Korrelationen zwischen verschiedenen Zeitreihenabtastungen zu clustern.
  • Diese und andere Merkmale und Vorteile werden aus der folgenden detaillierten Beschreibung illustrativer Ausführungsformen davon offensichtlich werden, die in Verbindung mit den beigefügten Zeichnungen zu lesen ist.
  • Figurenliste
  • Die Offenbarung wird Details in der folgenden Beschreibung bevorzugter Ausführungsformen unter Bezugnahme auf die folgenden Figuren bereitstellen, wobei:
    • 1 ein Block-/Flussdiagramm einer beispielhaften Tabelle ist, die fehlende Werte in medizinischen Zeitreihen gemäß Ausführungsformen der vorliegenden Erfindung darstellt;
    • 2 ein Block-/Flussdiagramm einer beispielhaften Architektur einer tiefen dynamischen Gauß-Mischung (DDGM (= Deep Dynamic Gaussian Mixture)) gemäß Ausführungsformen der vorliegenden Erfindung ist;
    • 3 ein Block-/Flussdiagramm der Präimputationskomponente und der Vorhersagekomponente der DDGM gemäß Ausführungsformen der vorliegenden Erfindung ist;
    • 4 ein Block-/Flussdiagramm eines beispielhaften Inferenznetzwerks der Vorhersagekomponente der DDGM gemäß Ausführungsformen der vorliegenden Erfindung ist;
    • 5 ein Block-/Flussdiagramm eines beispielhaften generativen Netzwerks der Vorhersagekomponente der DDGM gemäß Ausführungsformen der vorliegenden Erfindung ist;
    • 6 ein Block-/Flussdiagramm eines beispielhaften inversen Abstandsgewichtungsmechanismus gemäß Ausführungsformen der vorliegenden Erfindung ist;
    • 7 ein Block-/Flussdiagramm des Prozesses zum Verwenden der Präimputationskomponente und der Vorhersagekomponente der DDGM gemäß Ausführungsformen der vorliegenden Erfindung ist;
    • 8 eine beispielhafte praktische Anwendung für die DDGM gemäß Ausführungsformen der vorliegenden Erfindung ist;
    • 9 ein beispielhaftes Verarbeitungssystem für die DDGM gemäß Ausführungsformen der vorliegenden Erfindung ist; und
    • 10 ein Block-/Flussdiagramm eines beispielhaften Verfahrens zum Ausführen der DDGM gemäß Ausführungsformen der vorliegenden Erfindung ist.
  • DETAILLIERTE BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSFORMEN
  • Es wird ein generatives Modell eingeführt, das den Übergang von latenten Clustern anstelle von isolierten Merkmalsdarstellungen verfolgt, um ein robustes Modellieren zu erreichen. Das generative Modell zeichnet sich durch eine dynamische Gaußsche Mischungsverteilung aus, die die Dynamik von Clustering-Strukturen erfasst und zur Bereitstellung von Zeitreihen verwendet wird. Das generative Modell wird durch neuronale Netze parametrisiert. Ein strukturiertes Inferenznetzwerk wird zum Ermöglichen einer induktiven Analyse ebenfalls implementiert. Ein Gating-Mechanismus wird weiterhin eingeführt, um die Gauß-Mischungsverteilungen dynamisch abzustimmen.
  • Die Analyse von multivariaten Zeitreihen (MTS) wird bei einer Vielzahl von Anwendungen verwendet, wie beispielsweise zur Überwachung cyber-physischer Systeme, zur Finanzprognose, zur Verkehrsanalyse und zur klinischen Diagnose. Die jüngsten Fortschritte im Bereich Deep Learning haben viele innovative Modelle für maschinelles Lernen an bzw. auf MTS-Daten hervorgebracht, die bemerkenswerte Ergebnisse bei einer Reihe grundlegender Aufgaben, einschließlich Prognose, Ereignisvorhersage und Anomalieerkennung, gezeigt haben. Trotz dieser Erfolge behandeln die meisten existierenden Modelle die Eingabe-MTS als homogen und mit vollständigen Sequenzen. Bei vielen neuen Anwendungen werden MTS-Signale jedoch aus heterogenen Quellen integriert und sind sehr spärlich.
  • Zum Beispiel können für Dialysepatienten gesammelte MTS-Signale mehrere fehlende Werte aufweisen. Dialyse ist eine wichtige Nierenaustauschtherapie zur Reinigung des Blutes von Patienten, deren Nieren nicht normal arbeiten. Dialysepatienten haben Routinen von Dialyse, Bluttests, Thorax-Röntgenaufnahmen etc., die Daten wie beispielsweise Venendruck, Glukosespiegel und Herz-Thorax-Verhältnis (CTR) aufzeichnen. Diese Signalquellen können unterschiedliche Frequenzen haben. Zum Beispiel werden Bluttests und CTR oft seltener ausgewertet als Dialyse. Verschiedene Quellen werden möglicherweise nicht rechtzeitig ausgerichtet, und was die Dinge noch schlimmer macht, ist, dass einige Quellen möglicherweise unregelmäßig beprobt werden und fehlende Einträge vorhanden sein können. Trotz solcher Diskrepanzen geben verschiedene Signale komplementäre Ansichten über den körperlichen Zustand eines Patienten und sind daher alle wichtig für die diagnostische Analyse. Jedoch führt ein einfaches Kombinieren der Signale zu sehr spärlichen MTS-Daten. Ähnliche Szenarien finden sich auch in anderen Bereichen, z.B. im Finanzwesen werden Zeitreihen aus Finanznachrichten, Aktienmärkten und Investmentbanken in asynchronen Zeitschritten gesammelt, sind aber stark korreliert. In großflächigen komplexen Überwachungssystemen können Sensoren mehrerer Teilkomponenten unterschiedliche Betriebsumgebungen haben, wodurch kontinuierlich asynchrone Zeitreihen erzeugt werden, die noch miteinander in Beziehung stehen können.
  • Die geringe Dichte von MTS-Signalen stellt dann, wenn sie aus heterogenen Quellen integriert werden, mehrere Herausforderungen dar. Insbesondere erschwert es zeitliche Abhängigkeiten und verhindert, dass gängige Modelle wie rekurrente neuronale Netze (RNNs) direkt verwendet werden. Das gebräuchlichste Verfahren zum Umgang mit Spärlichkeit besteht darin, zuerst fehlende Werte zu imputieren und dann Vorhersagen für die imputierte MTS zu treffen. Dieser zweistufige Ansatz berücksichtigt jedoch nicht die Beziehung zwischen fehlenden Mustern und Vorhersageaufgaben, was zu suboptimalen Ergebnissen führt, wenn die Spärlichkeit schwerwiegend ist.
  • In jüngster Zeit wurden einige End-to-End-Modelle vorgeschlagen. Ein Ansatz betrachtet fehlende Zeitschritte als Intervalle und entwirft RNNs mit kontinuierlicher Dynamik über funktionale Zerfälle zwischen beobachteten Zeitschritten. Ein anderer Ansatz besteht darin, alle verpassten Einträge zu parametrisieren und die Parameter gemeinsam mit Vorhersagemodellen zu trainieren, so dass die fehlenden Muster für nachgelagerte Aufgaben gelernt werden. Diese Methoden bzw. Verfahren haben jedoch den Nachteil, dass MTS-Proben bzw. Abtastungen einzeln bewertet werden. Latente relationale Strukturen, die von verschiedenen MTS-Stichproben gemeinsam genutzt werden, werden selten für eine robuste Modellierung untersucht.
  • Bei vielen Anwendungen sind MTS nicht unabhängig, sondern durch versteckte Strukturen miteinander verbunden. In einem Fall kann jeder Patient während des Behandlungsverlaufs von zwei Dialysepatienten unterschiedliche latente Zustände wie Nierenerkrankungen und Anämie erfahren, die durch Zeitreihen wie Glukose-, Albumin- und Thrombozytenspiegel externalisiert werden. Wenn zwei Patienten ähnliche pathologische Zustände haben, können einige ihrer Daten aus ähnlichen Zustandsmustern generiert bzw. erzeugt werden und Clusterstrukturen bilden. Daher sind die Rückleitung latenter Zustände und die Modellierung ihrer Dynamik vielversprechend, um die komplementären Informationen in Clustern zu nutzen, was das Problem der Spärlichkeit lindern kann. Dieses Konzept ist nicht auf den medizinischen Bereich beschränkt. In der Meteorologie können beispielsweise nahe gelegene Beobachtungsstationen, die das Klima überwachen, ähnliche Wetterbedingungen (latente Zustände) erfahren, die die Erstellung von Metriken wie Temperatur und Niederschlag im Laufe der Zeit bestimmen. Obwohl es vielversprechend ist, ist die Ableitung der latenten Clusterstrukturen bei gleichzeitiger Modellierung der Dynamik, die spärlichen MTS-Daten zugrunde liegt, ein herausforderndes Thema.
  • Um dieses Problem anzugehen, führen die beispielhaften Ausführungsformen ein auf einer dynamischen Gauß-Mischung basierendes tiefes generatives Modell (DGM2) ein. DGM2 hat ein Zustandsraummodell unter einem nichtlinearen Übergangsemissionsrahmen bzw. -framework. Für jede MTS modelliert DGM2 den Übergang latenter Clustervariablen anstelle von isolierten Merkmalsdarstellungen, bei denen alle Übergangsverteilungen durch neuronale Netze parametrisiert werden. DGM2 zeichnet sich durch seinen Emissionsschritt aus, bei dem eine dynamische Gauß-Mischungsverteilung vorgeschlagen wird, um die Dynamik von Clusterstrukturen zu erfassen. Für eine induktive Analyse greifen die beispielhaften Ausführungsformen auf Variations-Inferenzen zurück und implementieren strukturierte Inferenznetzwerke, um Posterior-Verteilungen anzunähern. Um zuverlässige Inferenzen zu gewährleisten, übernehmen die beispielhaften Ausführungsformen auch das Paradigma einer parametrischen Präimputation und verknüpfen eine Präimputationsschicht vor den Inferenznetzwerken. Das DGM2-Modell ist für diskrete Variablen ausgelegt und so konstruiert, dass es durchgängig bzw. End-to-End trainierbar ist.
  • Daher untersuchen die beispielhaften Ausführungsformen das Problem der Vorhersage mit spärlichen MTS durch Modellierung der latenten dynamischen Clustering-Strukturen. Die beispielhaften Ausführungsformen stellen DGM2 vor, ein tiefes generatives Modell, das den Übergang latenter Cluster und die Emission aus einer dynamischen Gaußmischung für robuste Prognosen nutzt.
  • Wie es vom gemeinsamen Imputation-Vorhersage-Framework vorgeschlagen ist, kann eine Abtastung von spärlichen MTS mit fehlenden Einträgen gegen einen Satz bzw. eine Gruppe gleichmäßig verteilter Referenzzeitpunkte t = 1, ..., w dargestellt werden.
  • Lässt man x1:w = (x1, ... , xw) ∈ ℝdxw eine MTS der Länge-w sein, aufgezeichnet von den Zeitschritten 1 bis w, wobei x t = ( x t 1 , x t d ) T d
    Figure DE112021004559T5_0001
    ein zeitlicher Merkmalsvektor beim t-ten Zeitschritt ist, ist x t i
    Figure DE112021004559T5_0002
    die i-te Variable von xt und ist d die Gesamtanzahl von Variablen. Um Beobachtungszeiten zu markieren, verwenden die beispielhaften Ausführungsformen eine binäre Maske m1:w = (m1, m2, ..., mw) ∈ {0, 1}dxw, wobei m t i = 1
    Figure DE112021004559T5_0003
    = 1 anzeigt, dass x t i
    Figure DE112021004559T5_0004
    ein beobachteter Eintrag ist, sonst gilt m t i = 0
    Figure DE112021004559T5_0005
     
    Figure DE112021004559T5_0006
    mit einem entsprechenden Platzhalter x t i = NaN .
    Figure DE112021004559T5_0007
  • Die beispielhaften Ausführungsformen konzentrieren sich auf ein Vorhersageproblem für spärliche MTS, das die wahrscheinlichste Sequenz einer Länge r in der Zukunft angesichts der unvollständigen Beobachtungen in vergangenen w Zeitschritten schätzt, z.B. zielen die beispielhaften Ausführungsformen darauf ab, folgendes zu erhalten: x ˜ w + 1 w + r = arg max x w + 1 w + r   p ( x w + 1 w + r | x 1 : w , m 1 : w )
    Figure DE112021004559T5_0008
    wobei x ˜ w + 1 w + r = ( x ˜ w + 1 , , x ˜ w + r )
    Figure DE112021004559T5_0009
    vorhergesagte Schätzungen sind und p ( | )
    Figure DE112021004559T5_0010
    eine zu erlernende Vorhersage- bzw. Prognosefunktion ist.
  • Die bespielhaften Ausführungsformen führen das DGM2-Modell wie folgt ein. Inspiriert vom erfolgreichen Paradigma von gemeinsamer Imputation und Vorhersage entwerfen die beispielhaften Ausführungsformen DGM2 so, dass es eine Präimputationsschicht zum Erfassen der zeitlichen Intensität und der mehrdimensionalen Korrelationen in jeder MTS hat, um fehlende Einträge zu parametrisieren. Die parametrisierte MTS wird einer Prognose- bzw. Vorhersagekomponente zugeführt, die über ein tiefes generatives Modell verfügt, das die latenten dynamischen Verteilungen für robuste Prognosen bzw. Vorhersagen schätzt.
  • In Bezug auf die Präimputationsschicht zielt diese Schicht darauf ab, die fehlenden Einträge zu schätzen, indem die glatten Trends und zeitlichen Intensitäten der beobachteten Teile genutzt werden, was dazu beitragen kann, die Auswirkungen von Spärlichkeit in den nachgelagerten Vorhersageaufgaben zu mildern.
  • Für die i-te Variable am t∗-ten Referenzzeitpunkt verwenden die beispielhaften Ausführungsformen einen Gaußkernel k(t*, t; αi) = ei(t*-t)2 , um den zeitlichen Einfluss eines beliebigen Zeitschritts t (1 ≤ t ≤ w) auf t* zu bewerten, wobei αi ein zu lernender Parameter ist. Basierend auf dem Kernel verwenden die beispielhaften Ausführungsformen dann eine gewichtete Aggregation zum Schätzen von x t i ,
    Figure DE112021004559T5_0011
    durch: x ˜ t * i = 1 λ ( t * , m i ; a i ) i = 1 w κ ( t * , t ; a i ) m t i x t i
    Figure DE112021004559T5_0012
    wobei m i = ( m 1 i , , m w i ) T w
    Figure DE112021004559T5_0013
    die Maske der i-ten Variablen ist und λ ( t* ,m i ;a i ) = t = 1 w m t i κ ( t * , t ; a i )
    Figure DE112021004559T5_0014
    eine Intensitätsfunktion ist, die die Beobachtungsdichte bei t* auswertet, wobei m t i
    Figure DE112021004559T5_0015
    verwendet wird, um unbeobachtete Zeitschritte auf Null zusetzen.
  • Um die Korrelationen verschiedener Variablen zu berücksichtigen, führen die beispielhaften Ausführungsformen auch die Informationen über d Variable hinweg zusammen, indem sie erlernbare Korrelationskoeffizienten ρij für i, j = 1, ... , d einführen und eine parametrisierte Ausgabe formulieren, wenn x t * i
    Figure DE112021004559T5_0016
    nicht beobachtet wird, so dass: x ^ t * i = [ j = 1 d ρ i j λ ( t * , m i ; a j ) x ¯ t * i ] / j ' = 1 d λ ( t * , m i ; a j ' )
    Figure DE112021004559T5_0017
    wobei ρij als 1 für i = j gesetzt ist und λ(t*; mi; αj) eingeführt ist, um die Zuverlässigkeit von x ¯ t * i
    Figure DE112021004559T5_0018
    anzuzeigen, da ein größeres λ(t*; mi; αj) mehr Beobachtungen in der Nähe von x ˜ t * i
    Figure DE112021004559T5_0019
    impliziert.
  • In dieser Schicht gilt für den Satz bzw. die Gruppe von Parametern α = [α1, ... , αd] und p = ρ = [ ρ i j ] i , j = 1 d .
    Figure DE112021004559T5_0020
    DGM2 trainiert sie gemeinsam mit seinem generativen Modell, um fehlende Muster mit den Vorhersage- bzw. Prognoseaufgaben auszurichten bzw. in Einklang zu bringen.
  • In Bezug auf die Vorhersagekomponente implementieren die beispielhaften Ausführungsformen ein generatives Modell, das die latenten dynamischen Clustering-Strukturen für robuste Vorhersagen erfasst. Es soll angenommen werden, dass es k latente Cluster gibt, die allen zeitlichen Merkmalen xt in einem Batch von MTS-Abtastungen zugrunde liegen. Für jeden Zeitschritt t assoziieren die beispielhaften Ausführungsformen xt mit einer latenten Clustervariablen zt, um anzuzeigen, zu welchem Cluster xt gehört. Anstelle des Übergangs von xt → xt+1 modellieren die beispielhaften Ausführungsformen den Übergang der Clustervariablen zt → Zt+1. Da die Cluster die komplementären Informationen ähnlicher Merkmale in MTS-Abtastungen zu verschiedenen Zeitpunkten integrieren, ist ihre Nutzung robuster als die Verwendung einzelner spärlicher Merkmale xt.
  • In Bezug auf das generative Modell folgt der generative Prozess von DGM2 dem Übergangs- und Emissionsrahmen bzw. -framework von Zustandsraummodellen.
  • Erstens verwendet der Übergangsprozess von DGM2 eine wiederkehrende Struktur aufgrund seiner Effektivität bei einer Modellierung langfristiger zeitlicher Abhängigkeiten sequentieller Variablen. Jedes Mal wird die Wahrscheinlichkeit eines neuen Zustands zt+1 auf seine vorherigen Zustände z1:t = (z1, .... ,zt) aktualisiert. Die beispielhaften Ausführungsformen verwenden eine erlernbare Funktion, um die Übergangswahrscheinlichkeit zu definieren, z.B. p(zt+1|z1:t) = ƒθ(z1;t), wobei die Funktion ƒθ(·) durch θ parametrisiert wird, was Varianten von RNNs sein kann, um nichtlineare Dynamik zu codieren, die zwischen den latenten Variablen hergestellt werden kann.
  • Für den Emissionsprozess implementieren die beispielhaften Ausführungsformen eine dynamische Gaußsche Mischungsverteilung, die durch dynamisches Abstimmen einer statischen Basismischungsverteilung definiert wird. Man lässt µi (i = 1, ..., k) den Mittelwert der i-ten Mischungskomponente der Basisverteilung sein, und p(µi) die entsprechende Mischungswahrscheinlichkeit. Die Emission (oder Prognose bzw. Vorhersage) eines neuen Merkmals xt+1 im Zeitschritt t + 1 enthält die folgenden Schritte, das heißt ein Ziehen einer latenten Clustervariablen zt+1 aus einer kategorialen Verteilung auf alle Mischungskomponenten und ein Ziehen von xt+1 aus der Gaußverteilung N ( μ z t + 1 , σ 1 I ) ,
    Figure DE112021004559T5_0021
    wobei σ ein Hyperparameter ist und I ist eine Identitätsmatrix. Die beispielhaften Ausführungsformen verwenden isotropen Gauß wegen seiner Effizienz und Effektivität.
  • Im ersten Schritt wird die kategoriale Verteilung üblicherweise auf p(µ) = [p(µ1), ... , p(µk)] ∈ ℝk definiert, z.B. die statischen Mischungswahrscheinlichkeiten, die die Dynamik in MTS nicht widerspiegeln können. Vor diesem Hintergrund und unter Berücksichtigung der Tatsache, dass ein Übergangswahrscheinlichkeit p(zt+1|z1:t) angibt, zu welchem Cluster xt+1 gehört, passen die beispielhaften Ausführungsformen die Mischungswahrscheinlichkeit bei jedem Zeitschritt unter Verwendung von p(zt+1|z1:t) dynamisch an durch: ψ t + 1 = ( 1 γ ) p ( z t + 1 | z 1 : t ) dynamic adjustment + γ p ( μ ) basis mixture
    Figure DE112021004559T5_0022
    (Dynamische Einstellung) (Basismischung)
    wobei ψt+1 die dynamische Mischungsverteilung im Zeitschritt t + 1 ist und γ ein Hyperparameter innerhalb von [0, 1] ist, der den relativen Änderungsgrad steuert, der von der Basismischungsverteilung abweicht.
  • Der dynamische Einstellungs- bzw. Anpassungsprozess von ψt+1 an einer Gaußmischung mit zwei Komponenten kann gezeigt werden, wobei p(zt+1|z1:t) die Mischung in Richtung zu der Komponente (z.B. Cluster) einstellt, zu der xt+1 gehört. Es ist bemerkenswert, dass ein Hinzufügen bzw. eine Zugabe der Basismischung in ψt+1, vorteilhaft ist, da es die Beziehungen zwischen verschiedenen Komponenten bestimmt, was das Erlernen der Mittel µ = [µ1, ..., µk] während eines Modelltrainings regelt.
  • Daher kann der generative Prozess für jede MTS-Abtastung zusammengefasst werden:
    • (a) Ziehen von z1 ~ Einheitlich(k)
    • (b) für einen Zeitschritt t = 1, ... ,w:
    • i. Berechnen der Übergangswahrscheinlichkeit durch: p(zt+1|z1:t) = ƒθ(z1; t)
    • ii. Ziehen von zt+1 ~ Kategoriales p(zt+1|z1:t) für den Übergang.
    • iii. Ziehen von z̃t+1 ~ Kategoriales ψt+1 unter Verwendung von ψt+1 zur Emission
    • iv. Ziehen eines Merkmalsvektors x ¯ t +1 N ( μ z t + 1 , σ 1 I )
      Figure DE112021004559T5_0023

    wobei zt+1 (Schritt ii) und z̃t+1 (Schritt iii) unterschiedlich sind. zt+1 wird beim Übergang (Schritt i) zur Aufrechterhaltung einer wiederkehrenden Eigenschaft verwendet und z̃t+1 wird bei der Emission aus der aktualisierten Mischungsverteilung verwendet.
  • Im obigen Prozess werden die Parameter in µi von Abtastungen im selben Cluster gemeinsam genutzt, wodurch komplementäre Informationen für robuste Prognosen konsolidiert werden.
  • Hinsichtlich der Parametrisierung des generativen Modells ist die parametrische Funktion im generativen Prozess fe(-), für die die beispielhaften Ausführungsformen eine rekurrente neuronale Netzarchitektur wählen als: p ( z t + 1 | z 1 : t ) = s o f t m a x ( M L P ( h t ) )
    Figure DE112021004559T5_0024

    wobei ht = RNN(zt, ht-1)
    und ht ist der t-te verborgene Zustand ist, MLP ein mehrschichtiges Perzeptron darstellt, RNN entweder durch ein langes Kurzzeitgedächtnis (LSTM) oder ein torgesteuertes rekurrentes Netzwerk (GRU) instanziiert werden kann. Um den Anwendungen gerecht zu werden, bei denen die Referenzzeitschritte von MTS ungleichmäßig verteilt sein könnten, können die beispielhaften Ausführungsformen auch die auf neuronalen gewöhnlichen Differentialgleichungen (ODE) basierenden RNNs enthalten, um die Zeitintervalle zu behandeln.
  • Zusammenfassend ist die Gruppe von trainierbaren Parameter des generativen Modells ϑ = {θ, µ}. Angesichts dessen zielen die beispielhaften Ausführungsformen darauf ab, die logarithmische Grenzwahrscheinlichkeit der Beobachtung jeder MTS-Abtastung bzw. Probe zu maximieren, z.B. L ( ϑ ) = log ( z 1 : w p ϑ ( x 1: w , z 1: w ) )
    Figure DE112021004559T5_0025

    wobei die gemeinsame Wahrscheinlichkeit in
    Figure DE112021004559T5_0026
    in Bezug auf die dynamische Mischungsverteilung in ψt+1, faktorisiert werden kann, nachdem die Jensen-Ungleichung auf
    Figure DE112021004559T5_0027
    angewendet ist durch: L ( ϑ ) = i = 0 w 1 z 1:t+1 [ log ( p ϑ ( x t +1 | z t +1 ) ) p θ ( z 1:t )   [ ( 1 γ ) p θ ( z t +1 | z 1: t ) + γ p ( μ z t + 1 ) ] ]
    Figure DE112021004559T5_0028

    wobei die obige untere Grenze als das zu maximierende Ziel dienen wird.
  • Um die Parameter ϑ zu schätzen, ist das Ziel, die obige Gleichung zu maximieren. Eine Summierung von z1:t+1 über alle möglichen Sequenzen ist jedoch rechnerisch schwierig. Daher ist eine Bewertung der wahren Posterior-Dichte p(z|x1:w) schwer zu bewältigen. Um dieses Problem zu umgehen und gleichzeitig eine induktive Analyse zu ermöglichen, greifen die beispielhaften Ausführungsformen auf Variationsinferenz zurück und führen ein Inferenznetzwerk ein.
  • In Bezug auf das Inferenznetzwerk führen die beispielhaften Ausführungsformen ein angenähertes Posterior qϕ(z|x1:w) ein, das durch neuronale Netze mit einem Parameter ϕ parametrisiert wird. Die beispielhaften Ausführungsformen entwerfen das Inferenznetzwerk strukturell und verwenden tiefe Markov-Prozesse, um die zeitlichen Abhängigkeiten zwischen latenten Variablen aufrechtzuerhalten, was zur folgenden Faktorisierung führt: q ϕ ( z | x 1: w ) = q ϕ ( z 1 | x 1 ) t = 1 w 1 q ϕ ( z t +1 | x 1 : t + 1 , z t )
    Figure DE112021004559T5_0029
  • Mit der Einführung von qϕ(z|x1:w), anstatt die logarithmische Grenzwahrscheinlichkeit
    Figure DE112021004559T5_0030
    zu maximieren, sind die beispielhaften Ausführungsformen daran interessiert, die Variationsnachweisuntergrenze (ELBO) l ( ϑ , φ ) L ( ϑ )
    Figure DE112021004559T5_0031
    in Bezug auf sowohl ϑ als auch ϕ zu maximieren.
  • Durch Einarbeiten des begrenzenden Schritts in
    Figure DE112021004559T5_0032
    können die beispielhaften Ausführungsformen die EBLO des Problems ableiten, die geschrieben ist durch: l ( ϑ , ϕ ) = ( 1 γ ) t 1 E q ϕ ( z t | x 1: t ) [ log ( p ϑ ( x t | z t ) ) ] t = 1 w 1 E q ϕ ( z t | x 1: t ) [ D K L ( q ϕ ( z t +1 | x 1 : t + 1 , z t ) p ϑ ( z t +1 | , z 1 : t ) ) ] D K L ( q ϕ ( z 1 | x 1 ) p ϑ ( z 1 ) ) + γ i = 1 w z t = 1 k p ϑ ( μ z t ) log ( p ϑ ( x t | z t ) )
    Figure DE112021004559T5_0033

    wobei D K L ( | )
    Figure DE112021004559T5_0034
    die KL-Divergenz ist und pϑ (z1) ein einheitlicher Prior ist, wie es beim generativen Prozess beschrieben ist. Ähnlich zu einem Variations-Autoencoder (VAE) hilft er, eine Überanpassung zu verhindern und die Generalisierungsfähigkeit des Modells zu verbessern.
  • Die ℓ(ϑ, φ)-Gleichung gibt auch Aufschluss darüber, wie die dynamische Mischungsverteilung in ψt+1 funktioniert. Zum Beispiel kapseln die ersten drei Terme bzw. Begriffe die Lernkriterien für dynamische Einstellungen bzw. Anpassungen ein und regelt der letzte Term nach γ die Beziehungen zwischen verschiedenen Basismischungskomponenten.
  • In der Architektur des Inferenznetzwerks qϕ(zt+1|x1:t+1, zt) ist eine wiederkehrende bzw. rekurrente Struktur:
  • q ϕ ( z t +1 | x 1 : t + 1 , z t ) = s o f t m a x [ M L P ( h ˜ t +1 ) ]
    Figure DE112021004559T5_0035

    wobei h̃t+1 = RNN(xt, h̃t)
    t der t-te latente Zustand der RNNs ist und z0 auf 0 gesetzt ist, so dass er keine Auswirkungen auf die Iteration hat.
  • Da eine Abtastung einer diskreten Variablen zt aus den kategorialen Verteilungen nicht differenzierbar ist, ist es schwierig, die Modellparameter zu optimieren. Um es loszuwerden, verwenden die beispielhaften Ausführungsformen den Gumbel-Softmax-Reparametrisierungstrick, um differenzierbare diskrete Proben bzw. Abtastungen zu erzeugen. Auf diese Weise ist das Modell DGM2 durchgängig trainierbar.
  • In Bezug auf torgesteuerte dynamische Verteilungen in ψt+1 wird die Dynamik der Gaußschen Mischungsverteilung durch einen Hyperparameter γ abgestimmt, was möglicherweise einige Abstimmungsbemühungen für Validierungsdatensätze erfordert. Um dies zu umgehen, führen die beispielhaften Ausführungsformen eine Gate-Funktion y(h̃t) = sigmoid (MLP(h̃t)) ein, die die vom Inferenznetzwerk extrahierten Informationen verwendet, um γ in ψt+1, zu ersetzen. Als solches wird ψt es zu einer torgesteuerten Verteilung, die bei jedem Zeitschritt dynamisch abgestimmt werden kann.
  • In Bezug auf das Modelltraining lernen die beispielhaften Ausführungsformen gemeinsam die Parameter { α , ϱ , ϑ , ϕ }
    Figure DE112021004559T5_0036
    der Präimputationsschicht, des generativen Netzwerks pϑ und des Inferenznetzwerks qϕ, indem sie die ELBO in der Gleichung für ℓ(ϑ, φ) maximieren.
  • Die größte Herausforderung bei einer Bewertung ℓ(ϑ, φ) besteht darin, die Gradienten aller Terme unter der Erwartung E q ϕ
    Figure DE112021004559T5_0037
    zu erhalten. Da zt kategorisch ist, kann der erste Term analytisch mit der Wahrscheinlichkeit qϕ(zt|x1:t) berechnet werden. Jedoch ist qϕ(zt|x1:t) keine Ausgabe des Inferenznetzwerks, so dass die beispielhaften Ausführungsformen eine Unterroutine ableiten, um qϕ(zt|x1:t) aus qϕ(zt|x1:t, zt-1) zu berechnen. Im zweiten Term verwenden, da die KL-Divergenz sequentiell ausgewertet wird, die beispielhaften Ausführungsformen angestammte Abtasttechniken, um zt von Zeitschritt 1 bis w abzutasten, um die Verteilung qϕ anzunähern. Bemerkenswert ist auch, dass in ℓ(ϑ, φ) die beispielhaften Ausführungsformen beobachtete Werte nur in xt auswerten, indem sie Masken mt verwenden, um die unbeobachteten Teile auszublenden.
  • Als solches ist das gesamte DGM2 differenzierbar, und die beispielhaften Ausführungsformen verwenden stochastische Gradientenabstiege zur Optimierung von ℓ(ϑ, φ). Im letzten Term der Gleichung für ℓ(ϑ, φ) müssen die beispielhaften Ausführungsformen auch eine Dichteschätzung der Basismischungsverteilung durchführen, z.B. p(µ) schätzen.
  • Angesichts eines Batchs von MTS-Abtastungen können bei einer Annahme, dass es n zeitliche Merkmale xt in diesem Batch gibt und ihre Sammlung durch eine Gruppe bzw. einen Satz X bezeichnet ist, die beispielhaften Ausführungsformen dann die Mischungswahrscheinlichkeit abschätzen durch: p ( μ i ) = x i X q ϕ ( z t = i | x 1:t , z t 1 ) / n ,  for  i = , , k
    Figure DE112021004559T5_0038

    wobei qΦ(zt = i|x1:t,zt-1) die abgeleitete Zugehörigkeitswahrscheinlichkeit von xt zum i-ten latenten Cluster durch qϕ(zt+1|x1:t+1, zt) = softmax(MLP(h̃t+1)) ist.
  • Wendet man sich wieder der Zeitreihenvorhersage im medizinischen Bereich zu, hat der enorme Einsatz digitaler Systeme in Krankenhäusern und vielen medizinischen Einrichtungen eine große Menge an Gesundheitsdaten von Patienten hervorgebracht. Die Big Data bzw. riesigen Datenmengen sind von erheblichem Wert, wodurch künstliche Intelligenz (KI) genutzt werden kann, um eine klinische Beurteilung in der Medizin zu unterstützen. Als eines der kritischen Themen in der modernen Medizin hat die Zahl der Patienten mit Nierenerkrankungen weltweit soziale, medizinische und sozioökonomische Fragen aufgeworfen. Hämodialyse, oder einfach Dialyse, ist ein Prozess zur Reinigung des Blutes eines Patienten, dessen Nieren nicht normal arbeiten, und ist eine der wichtigsten Nierenersatztherapien (RRT). Dialysepatienten mit hohem Risiko für Herz-Kreislauf- und andere Erkrankungen benötigen jedoch ein intensives Management von Blutdruck, Anämie, Mineralstoffwechsel usw. Andernfalls können Patienten während der Dialyse auf kritische Ereignisse wie niedrigen Blutdruck, Wadenkrämpfe und sogar Mortalität stoßen. Daher muss sich das medizinische Personal unter verschiedenen Gesichtspunkten für den Beginn der Dialyse entscheiden.
  • Angesichts der Verfügbarkeit großer medizinischer Daten ist es wichtig, KI-Systeme zu entwickeln, um prognostische Vorhersagen einiger kritischer medizinischer Indikatoren wie Blutdruck, Dehydrierungsausmaß, hydraulischer Druck usw. während der Vordialysephase zu treffen. Dies ist ein Zeitreihenprognoseproblem im medizinischen Bereich. Die größte Herausforderung dieses Problems ist die große Anzahl fehlender Werte in Krankenakten, die 50% ~ 80% Einträge in den Daten ausmachen können. Dies liegt vor allem an den unregelmäßigen Terminen bei verschiedenen Tests für jeden Patienten.
  • Dialysemessprotokolle haben eine Häufigkeit von 3 mal / Woche (z.B. Blutdruck, Gewicht, Venendruck, etc.), Bluttestmessungen haben eine Häufigkeit von 2 mal / Monat (z.B. Albumin, Glukose, Thrombozytenzahl usw.) und Kardio-Thorax-Verhältnis (CTR) hat eine Häufigkeit von 1 mal / Monat. Die drei Teile sind dynamisch und ändern sich im Laufe der Zeit, so dass sie durch Zeitreihen modelliert werden können, aber mit unterschiedlichen Frequenzen bzw. Häufigkeiten.
  • Wenn diese verschiedenen Datenteile miteinander kombiniert werden, fehlen bei niederfrequenten Zeitreihen (z.B. Bluttestmessungen) viele Einträge zu den Daten, bei denen nur hochfrequente Zeitreihen aufgezeichnet werden (z.B. Dialysemessungen), wie es in der Tabelle 100 in 1 aufgezeigt ist.
  • Außerdem könnte es bei jedem Testtermin aufgrund von Unwissen, Zeitbeschränkungen und Kosten fehlende Elemente geben. Daher ist eine präzise Zeitreihenprognose mit einem Vorhandensein von fehlenden Werten wichtig, um die Entscheidungsprozesse des medizinischen Personals zu unterstützen, und ist daher vorteilhaft, um das Risiko von Ereignissen während einer Dialyse zu reduzieren.
  • Die beispielhaften Ausführungsformen versuchen, das Potential der Managementdaten von Dialysepatienten zu nutzen, um automatische und qualitativ hochwertige Prognosen von medizinischen Zeitreihen bereitzustellen. Die vorliegende Erfindung ist ein künstliches intelligentes System. Ihr Haupt- bzw. Kernberechnungssystem verwendet ein Modell für eine tiefe dynamische Gaußsche Mischung (DDGM (= Deep Dynamic Gaussian Mixture)), das eine gemeinsame Imputation und Prognose medizinischer Zeitreihen mit fehlenden Werten ermöglicht. Daher kann das System als DDGM-System bezeichnet werden. Die Architektur des DDGM-Systems 200 ist in 2 dargestellt.
  • Es ist auch erwähnenswert, dass das DDGM-System 200 allgemein ist und auf andere Krankenaktendaten mit ähnlichem Format angewendet werden kann, wie es in 1 dargestellt ist.
  • Das DDGM-System 200 kann von Krankenhäusern 202 erhaltene Patienten- bzw. Krankenakten 204 enthalten, wobei die Krankenakten 204 über Clouds 206 einer Datenbank 208 zur Verfügung gestellt sind. Ein Datenverarbeitungssystem 210 verarbeitet Daten aus der Datenbank 208, um medizinische Zeitreihen 212 zu erhalten, die dem DDGM-Computersystem 214 zur Verfügung gestellt werden. Ein Datenspeicher 216 kann ebenfalls vorgesehen sein.
  • Das DDGM-Computing-System 214 kann eine Vorberechnungskomponente (bzw. Präimputationskomponente) 220 und eine Vorhersagekomponente 230 enthalten.
  • 3 zeigt die Gesamtarchitektur des DDGM-Systems 200.
  • In Bezug auf die Präimputationskomponente 220 besteht das Ziel der Präimputationskomponente 220 darin, fehlende Werte in der Eingabezeitreihe durch einige parametrisierte Funktionen zu füllen, so dass die Parameter gemeinsam mit den Vorhersageaufgaben trainiert werden können. Nachdem diese Parameter gut trainiert sind, werden durch Übergeben neuer Eingabezeitreihen durch die Komponente 220 die fehlenden Werte der Zeitreihe automatisch von den Funktionen gefüllt. Die gefüllten Werte nähern sich den tatsächlichen Messungen an, und die fertige Ausgabe wird der Vorhersagekomponente 230 zugeführt, was eine zuverlässige Verarbeitung erleichtert.
  • Die Vorberechnungskomponente 220 enthält eine zeitliche Intensitätsfunktion 224 und eine mehrdimensionale Korrelation 226.
  • In Bezug auf die zeitliche Intensitätsfunktion 224 ist diese Funktion dazu entworfen, die zeitliche Beziehung zwischen Zeitschritten zu modellieren. Fehlende Werte können von allen vorhandenen Beobachtungen abhängen, die interpoliert werden können, indem die beobachteten Werte mit unterschiedlichen Gewichtungen summiert werden. Intuitiv wird der Zeitschritt, in dem der fehlende Wert erscheint, hauptsächlich von seinen nächsten Zeitschritten beeinflusst. Um diese Tatsache widerzuspiegeln, entwerfen die beispielhaften Ausführungsformen die zeitliche Intensitätsfunktion 224 basierend auf einem inversen Abstands- bzw. Entfernungsgewichtungsmechanismus, z.B. erhalten nahe gelegene Zeitschritte höhere Gewichtungen als weit entfernte Zeitschritte, wie es in 6 dargestellt ist.
  • Angenommen, der fehlende Wert tritt im Zeitschritt t* für die i-te Dimension der multivariaten Eingabezeitreihe auf, dann entwerfen die beispielhaften Ausführungsformen die Intensitätsfunktion basierend auf einem Gaußschen Kernel wie folgt:
  • ƒ = t = 1 T e α ( t t * ) 2
    Figure DE112021004559T5_0039

    wobei T die Länge der Zeitreihe ist und α ein Parameter, um zu lernen, ist. Die Beziehung 600 zwischen der Ausgabe dieser Funktion und Zeitschritten ist in 6 dargestellt.
  • In Bezug auf eine mehrdimensionale Korrelation ist ein Modul 226 so entworfen, dass es die Korrelation zwischen verschiedenen Dimensionen der multivariaten Eingabezeitreihe erfasst. Angenommen, die Zeitreihen haben insgesamt D Dimensionen, dann initialisiert das Modul 226 einen Matrixparameter ρ ∈ ℝD×D, der eine kontinuierliche D-mal-D-Matrix ist. Jeder Eintrag ρij stellt die Korrelation zwischen einer Dimension i und j dar. Diese Parametermatrix wird auch mit anderen Teilen des Modells an den Trainingsdaten trainiert.
  • Durch Hineinstopfen bzw. Einstecken dieses Parameters in die zeitliche Intensitätsfunktion 224 können die beispielhaften Ausführungsformen die Funktion, die innerhalb der Präimputationskomponente 220 läuft, erhalten als:
  • x ^ i t * j = 1 D t = 1 T e α ( t t * ) 2 ρ i j x j t
    Figure DE112021004559T5_0040

    wobei x̂it* den imputierten Wert der i-ten Dimension im t*-ten Zeitschritt darstellt. xjt ist die Beobachtung der j-ten Dimension im t-ten Zeitschritt. Der ausgegebene x̂it* Wert wird verwendet werden, um fehlende Werte in der Eingabezeitreihe aufzufüllen, und wird zur Verarbeitung zur nächsten Vorhersagekomponente gesendet werden.
  • In Bezug auf die Vorhersagekomponente 230 verbindet diese Komponente die Ausgabe 228 der Komponente 220 mit der nachgelagerten Vorhersageaufgabe. Das Ziel der Komponente 230 ist es, einige Cluster-Zentroide über ein Modell einer dynamischen Gauß-Mischung zu lernen, um die Robustheit von Vorhersageergebnissen weiter zu verbessern. Die Komponente 230 hat die Fähigkeit, Werte für zukünftige Zeitschritte zum Zwecke einer Zeitreihenvorhersage zu erzeugen.
  • Es gibt z.B. drei Module oder Elemente innerhalb der Komponente 230.
  • In Bezug auf das Inferenznetzwerk 232 ist die Eingabe zu diesem Modul die Ausgabe 228 der Komponente 220, d.h. Zeitreihen mit aufgefüllten fehlenden Werten.
  • Wie es in 4 gezeigt ist, wird unter der Annahme, dass die Zeitreihen x1, x2, ...,xT sind , jede von ihnen iterativ von einer LSTM-Einheit verarbeitet und gibt latente Merkmalsvektoren h1, h2, hT aufeinanderfolgend aus, so dass ht = LSTM(xt, ht-1).
  • Jedes Mal, wenn ein ht erzeugt wird, wird es zu einem Untermodul mit drei Schichten gesendet, d.h. MLP, softmax und Gumbel softmax. Die Ausgabe dieses Untermoduls ist eine Folge von spärlichen Vektoren z1, z2, ...,zT, die die abgeleitete Clustervariable für jeden Zeitschritt darstellen. Wenn es zum Beispiel k mögliche Cluster in den Daten gibt, dann ist zt ein Länge-k-Vektor, wobei der höchste Wert die Clustermitgliedschaft des Merkmalsvektors xt angibt, so dass:
  • z t = G S o f t m a x ( S o f t m a x ( M L P ( h t ) ) )
    Figure DE112021004559T5_0041
  • Der Entwurf des Inferenznetzwerks folgt dem Variationsinferenzprozess des statistischen Modells. Die Ausgabevektoren z1, z2, ..., zT sind latente Variablen, die vom generativen Netzwerk 234 zur Erzeugung bzw. Generierung/Vorhersage bzw. Prognose neuer Werte verwendet werden.
  • In Bezug auf das generative Netzwerk 234 und parametrisierte Cluster-Zentroide 236 ist die Eingabe zum Modul 234 die Ausgabe des Inferenznetzwerks 232, z.B. latente Variablen z1, z2, ..., zT. Wie es in 5 dargestellt ist, werden diese Variablen iterativ von einer LSTM-Einheit verarbeitet, und neue latente Merkmalsvektoren h1, h2, ..., hT werden aufeinanderfolgend ausgegeben, wie beispielsweise ht = LSTM(zt, ht-1).
  • Jedes Mal, wenn ein ht erzeugt wird, wird er zu einem anderen Untermodul mit drei Schichten gesendet, nämlich MLP, softmax und Gumbel softmax. Die Ausgabe dieses Untermoduls wird eine neue Folge von spärlichen Vektoren ẑ1, ẑ2..., ẑT sein, die die generative Clustervariable für jeden Zeitschritt darstellen.
  • Die Variablen unterscheiden sich von denen in der Ausgabe des Inferenznetzwerks 232. Dies liegt daran, dass die Ausgabe des Inferenznetzwerks 232 nur bis zum Zeitschritt T sein kann. Im Gegensatz dazu kann die Ausgabe des generativen Netzwerks 234 bis zu einem beliebigen Zeitschritt nach T für Vorhersagezwecke sein.
  • Dann wird ẑ1, ẑ2,... , ẑT zum Cluster-Zentroidmodul 236 gesendet, um einen Mittelwertvektor ϕt für t = 1, ... T zu erzeugen. Auch kann t größer als T sein.
  • Jeder Mittelwertvektor ϕt wird verwendet, um eine bestimmte Messung im Zeitschritt t zu erzeugen, indem aus einem Gaußschen Mischungsmodell gezogen wird.
  • Das heißt: ẑt~Categorical(Pr(ẑt)) ,
    wobei x̂t~N(ϕt , σ-1I).
  • „Kategorial“ stellt eine kategoriale Verteilung dar, N stellt eine Gaußverteilung σ dar, stellt Varianz dar und I stellt eine Identitätsmatrix dar.
  • Auf diese Weise können die beispielhaften Ausführungsformen iterativ x̂t+1, x̂t+2, ..., x̂t+w zur Vorhersage zukünftiger Messungen für w Zeitschritte ziehen.
  • In Bezug auf ein Modelltraining, um das Modell zu trainieren, maximieren die beispielhaften Ausführungsformen die Wahrscheinlichkeit an bzw. auf den beobachteten Trainingsdaten.
  • Die zu maximierende Zielfunktion ist gegeben als: L ( x | ϕ , θ , Ω ) = t = 2 T E q ( z t | x 1 : T ) ( log p ( x t | z t ; ϕ ) )   t = 2 T E q ( z 1 : t 1 | x 1 : T ) ( D K L ( q ( z t | z t 1 , x 1 : T , Ω ) p ( z t | , z 1 : t 1 , θ ) ) )   D K L ( q ( z 1 | z 0 , x 1 : T ; Ω ) p ( z 1 ) )
    Figure DE112021004559T5_0042

    wobei
    Figure DE112021004559T5_0043
    eine Erwartung darstellt und DKL eine KL-Divergenzfunktion darstellt. Die Eingabe zu dieser Funktion enthält z1, z2, ..., zT, ẑ1, ẑ2, ..., ẑT, x1, x2, ..., xT und x̂1, x̂2, ..., x̂T und die Ausgabe ist ein Wert, der die Wahrscheinlichkeit darstellt, die Trainingsdaten angesichts der durch DDGM 200 durchgeführten Wahrscheinlichkeitsberechnungen zu beobachten. Durch Maximieren dieser Wahrscheinlichkeit durch einen Gradientenabstiegsalgorithmus werden die Modellparameter trainiert. Nachdem das Modell gut trainiert ist, kann es verwendet werden, um Vorhersagen für neu eingegebene Zeitreihen durchzuführen.
  • Daher können die Verfahren der Ausführungsbeispiele implementiert werden durch:
  • Eingeben der Zeitreihe (mit fehlenden Werten) zur Präimputationskomponente 220.
  • Die Präimputationskomponente 220 verwendet Intensitätsfunktionen und Korrelationsparameter, um fehlende Werte aufzufüllen.
  • Die Ausgabe der Präimputationskomponente 220 wird zum Eingangstor der Vorhersagekomponente 230 gesendet.
  • Die Eingabe der Komponente 230 wird zuerst durch das Inferenznetzwerk 232 laufen, um latente Variablen für die Zeitschritte 1, ..., T abzuleiten.
  • Die abgeleiteten latenten Variablen werden zum generativen Netzwerk 234 gesendet werden, um eine weitere Kopie von Clustervariablen für die Zeitschritte 1, ..., T zu erzeugen.
  • Nach dem Zeitschritt T kann das generative Netzwerk 234 seine erzeugten Clustervariablen als eigene Eingabe verwenden, um iterativ neue Clustervariablen für Zeitschritte nach T zu erzeugen.
  • Für die Ausgabe der vorherigen Schritte, z.B. der erzeugten Clustervariablen, werden sie zur Parametrisierung von Cluster-Zentroiden 236 gesendet, um Mittelwertvektoren zu erzeugen.
  • Aus der Gaußschen Mischungsverteilung, erfolgt unter Verwendung der erzeugten Mittelwertvektoren, eine Ziehen vorhergesagter Messwerte für jeden vorhergesagten Zeitschritt.
  • Nur für die Trainingsphase erfolgt ein Senden der erzeugten Werte und der Beobachtungen (für t = 1, ..., T) in den Trainingsdaten zur Zielfunktion für ein Modelltraining.
  • Zusammenfassend bieten die beispielhaften Ausführungsformen eine systematische und Big-Data-betriebene Lösung für das Problem einer dialysemedizinischen Zeitreihenprognose. Die neuen Aspekte des DDGM-Systems liegen in seinem Computing- bzw. Rechen- bzw. Computersystem, das entworfen ist, um das Problem von fehlenden Werten in dialysemedizinischen Zeitreihendaten zu behandeln. Es wird eine Präimputationskomponente präsentiert, die fehlende Werte durch parametrisierte Funktionen auffüllt (Parameter werden gemeinsam mit Vorhersageaufgaben gelernt). Die Vor- bzw. Präimputationskomponente hat eine zeitliche Intensitätsfunktion, die die zeitliche Abhängigkeit zwischen Zeitstempeln erfasst, und eine mehrdimensionale Korrelation, die eine Korrelation zwischen mehreren Dimensionen erfasst. Eine clusterbasierte Vorhersagekomponente erfasst die Korrelation zwischen verschiedenen Zeitreihenabtastungen, um die imputierten Werte weiter zu verfeinern.
  • Die Vorteile des DDGM-Systems bieten wenigstens eine Perspektive auf drei Ebenen für eine robuste Imputation, einschließlich zeitlicher Abhängigkeit, dimensionsübergreifender Korrelation und abtastübergreifender Korrelation (über Clustering). Im Hinblick auf die Imputation und Vorhersage ist es von Vorteil, die Abhängigkeit zwischen fehlenden Mustern und Vorhersageaufgaben zu unterscheiden. Somit ist das DDGM-System ein speziell entwickeltes intelligentes System, das den Stand der Technik durch die oben genannten Vorteile, d.h. dreistufige robuste Imputation und gemeinsame Imputation und Vorhersage, voranbringt.
  • Die erfinderischen Merkmale enthalten wenigstens die Präimputationskomponente zum Auffüllen fehlender Werte durch Modellparameter unter Verwendung von zwei Arten von Funktionen, nämlich einer zeitlichen Intensitätsfunktion auf der Grundlage von Gaußkerneln und einer mehrdimensionalen Korrelation basierend auf zu erlernenden Korrelationsparametern.
    Die Vorhersagekomponente ist ein generatives Modell, das auf der Gaußschen Mischungsverteilung für Speicherparameter basiert, die Clusterzentren darstellen, die vom Modell verwendet werden, um Zeitreihen zur Erfassung der Korrelationen zwischen Abtastungen bzw. Proben zu clustern. Zusätzlich wird ein gemeinsamer Imputations- und Vorhersagetrainingsalgorithmus eingeführt, um das Erlernen imputierter Werte zu erleichtern, die gut auf die Vorhersageaufgaben abgestimmt sind.
  • 7 ist ein Block-/Flussdiagramm des Verfahrens zur Verwendung der Präimputationskomponente und der Vorhersagekomponente von DDGM gemäß Ausführungsformen der vorliegenden Erfindung.
  • Bei einem Block 710 enthält das DDGM-Computing-System eine Präimputationskomponente und eine Vorhersagekomponente. Die Vorhersagekomponente hat ein Haupt- bzw. Kernsystem für eine Clusterbildung über ein neu entworfenes Modell für eine tiefe dynamische Gauß-Mischung.
  • Bei einem Block 712 modelliert die Präimputationskomponente zwei Arten von Informationen in multivariaten Zeitreihen für eine hohe Imputationsqualität, d.h. zeitliche Abhängigkeit zwischen fehlenden Werten und Beobachtungen und mehrdimensionale Korrelationen zwischen fehlenden Werten und Beobachtungen.
  • Bei einem Block 714 ist die Vorhersagekomponente ein statistisch generatives Modell, das zeitliche Beziehungen von Clustervariablen in verschiedenen Zeitschritten modelliert, neue Zeitreihen basierend auf einem Modell einer dynamischen Gaußschen Mischung und Clustervariablen vorhersagt und durch tiefe neuronale Netze einschließlich LSTM-Einheiten, MLP und Softmax-Schichten realisiert wird.
  • Bei einem Block 716 werden in Bezug auf das gemeinsame Trainingsparadigma die Parameter in den beiden Komponenten des Systems gemeinsam trainiert, so dass sowohl die Imputations- als auch die Vorhersagekomponente für die Vorhersageaufgabe optimiert werden.
  • 8 ist ein Block-/ Flussdiagramm 800 einer praktischen Anwendung von DDGM gemäß Ausführungsformen der vorliegenden Erfindung.
  • Bei einem praktischen Beispiel muss ein Patient 802 das Medikament 806 (Dialyse) für eine Krankheit 804 (Nierenerkrankung) erhalten. Es werden Optionen berechnet, um unterschiedliche Dosierungen des Medikaments 806 (oder unterschiedliche Tests) anzugeben. Die beispielhaften Verfahren verwenden das DDGM-Modell 970 über eine Präimputationskomponente 220 und eine Vorhersagekomponente 230. In einem Fall kann DDGM 970 die Option niedriger Dosierung (oder eine Testoption) für den Patienten 802 wählen. Die Ergebnisse 810 (z.B. Dosierung oder Testoptionen) können auf einer Benutzeroberfläche 812 bereitgestellt oder angezeigt werden, die von einem Benutzer 814 gehandhabt wird.
  • 9 ist ein beispielhaftes Verarbeitungssystem für die DDGM gemäß Ausführungsformen der vorliegenden Erfindung.
  • Das Verarbeitungssystem enthält wenigstens einen Prozessor (CPU) 904, der über einen Systembus 902 operativ mit anderen Komponenten gekoppelt ist. Eine GPU 905, ein Cache 906, ein Nurlesespeicher (ROM) 908, ein Direktzugriffsspeicher (RAM) 910, ein Eingabe/Ausgabe-(I/O-)Adapter 920, ein Netzwerkadapter 930, ein Benutzerschnittstellenadapter 940 und ein Anzeigeadapter 950 sind operativ mit dem Systembus 902 gekoppelt. Zusätzlich kann DDGM 970 verwendet werden, um eine Präimputationskomponente 220 und eine Vorhersagekomponente 230 auszuführen.
  • Eine Speichervorrichtung 922 ist durch den I/O-Adapter 920 operativ mit dem Systembus 902 gekoppelt. Die Speichervorrichtung 922 kann eine beliebige Plattenspeichervorrichtung (z.B. eine magnetische oder optische Plattenspeichervorrichtung), eine magnetische Festkörpervorrichtung und so weiter sein.
  • Ein Transceiver 932 ist durch den Netzwerkadapter 930 operativ mit dem Systembus 902 gekoppelt.
  • Benutzereingabevorrichtungen 942 sind durch den Benutzerschnittstellenadapter 940 operativ mit dem Systembus 902 gekoppelt. Die Benutzereingabevorrichtungen 942 können irgendetwas von einer Tastatur, einer Maus, einem Keypad bzw. einer Kleintastatur, einer Bilderfassungsvorrichtung, einer Bewegungserfassungsvorrichtung, einem Mikrofon, einer Vorrichtung, die die Funktionalität von wenigstens zwei der vorhergehenden Vorrichtungen enthält, und so weiter sein. Natürlich können auch andere Typen von Eingabevorrichtungen verwendet werden, während der Sinngehalt der vorliegenden Erfindung erhalten bleibt. Die Benutzereingabevorrichtungen 942 können derselbe Typ von Benutzereingabevorrichtung oder unterschiedliche Typen von Benutzereingabevorrichtungen sein. Die Benutzereingabevorrichtungen 942 werden verwendet, um Informationen zum Verarbeitungssystem einzugeben und von diesem auszugeben.
  • Eine Anzeigevorrichtung 952 ist durch den Anzeigeadapter 950 operativ mit dem Systembus 902 gekoppelt.
  • Das Verarbeitungssystem kann natürlich auch andere Elemente (nicht gezeigt) enthalten, wie es von einem Fachmann auf dem Gebiet leicht in Betracht gezogen wird, sowie bestimmte Elemente weglassen. Zum Beispiel können verschiedene andere Eingabevorrichtungen und/oder Ausgabevorrichtungen im System enthalten sein, abhängig von der besonderen Implementierung derselben, wie es von einem gewöhnlichen Fachmann auf dem Gebiet leicht verstanden wird. Zum Beispiel können verschiedene Typen von drahtlosen und/oder verdrahteten bzw. kabelgebundenen Ein- und/oder Ausgabevorrichtungen verwendet werden. Darüber hinaus können auch zusätzliche Prozessoren, Steuerungen bzw. Controller, Speicher und so weiter in verschiedenen Konfigurationen verwendet werden, wie es von einem gewöhnlichen Fachmann auf dem Gebiet leicht eingesehen wird. Diese und andere Variationen des Verarbeitungssystems werden von einem gewöhnlichen Fachmann auf dem Gebiet angesichts der hierin bereitgestellten Lehren der vorliegenden Erfindung leicht in Betracht gezogen.
  • 10 ist ein Block-/Flussdiagramm eines beispielhaften Verfahrens zum Ausführen von MILD gemäß Ausführungsformen der vorliegenden Erfindung.
  • Bei einem Block 1001 erfolgt ein Auffüllen fehlender Werte in einer multivariaten Eingabezeitreihe durch Modellparameter über eine Präimputationskomponente unter Verwendung einer zeitlichen Intensitätsfunktion basierend auf Gaußkerneln und einer mehrdimensionalen Korrelation basierend auf zu erlernenden Korrelationsparametern.
  • Bei einem Block 1003 erfolgt, über eine Vorhersagekomponente, ein Speichern von Parametern, die Cluster-Schwerpunkte bzw. -Zentroide darstellen, die von der DDGM verwendet werden, um Zeitreihen zum Erfassen von Korrelationen zwischen verschiedenen Zeitreihenabtastungen bzw. -proben zu clustern.
  • Wie sie hierin verwendet sind, können die Ausdrücke „Daten“, „Inhalt“, „Information“ und ähnliche Ausdrücke austauschbar verwendet werden, um sich auf Daten zu beziehen, die gemäß verschiedenen beispielhaften Ausführungsformen aufgenommen, gesendet, empfangen, angezeigt und/oder gespeichert werden können. Somit sollte die Verwendung von irgendwelchen solchen Ausdrücken nicht dafür genommen werden, den Sinngehalt und Schutzumfang der Offenbarung zu beschränken. Weiterhin können dort, wo hierin eine Computervorrichtung beschrieben ist, um Daten von einer anderen Computervorrichtung zu empfangen, die Daten direkt von einer anderen Computervorrichtung empfangen werden oder sie können indirekt von über eine oder mehrere dazwischenliegende bzw. vermittelnde Computervorrichtungen empfangen werden, wie zum Beispiel einen oder mehrere Server, Relais, Router, Netzwerk-Zugangspunkten, Basisstationen und/oder ähnliches. Gleichermaßen können dort, wo hierin eine Computervorrichtung beschrieben ist, um Daten zu einer anderen Computervorrichtung zu senden, die Daten direkt zu der anderen Computervorrichtung gesendet werden oder sie können indirekt über eine oder mehrere dazwischenliegende bzw. vermittelnde Computervorrichtungen gesendet werden, wie zum Beispiel einen oder mehrere Server, Relais, Router, Netzwerk-Zugangspunkten, Basisstationen und/oder ähnliches.
  • Wie es von einem Fachmann auf dem Gebiet eingesehen werden wird, können Aspekte der vorliegenden Erfindung als ein System, ein Verfahren oder ein Computerprogrammprodukt ausgeführt werden. Demgemäß können Aspekte der vorliegenden Erfindung die Form einer Ausführungsform gänzlich in Hardware, einer Ausführungsform gänzlich in Software (einschließlich Firmware, residenter Software, Mikrocode, etc.) oder einer Ausführungsform, die Software- und Hardware-Aspekte kombiniert, annehmen, auf die alle hierin allgemein als „Schaltung“, „Modul“, „Recheneinheit“, „Vorrichtung“ oder „System“ Bezug genommen werden kann. Weiterhin können Aspekte der vorliegenden Erfindung die Form eines Computerprogrammprodukts annehmen, das in einem oder mehreren computerlesbaren Medien mit darauf verkörpertem computerlesbaren Programmcode verkörpert ist.
  • Irgendeine Kombination von einem oder mehreren computerlesbaren Medien kann verwendet werden. Das computerlesbare Medium kann ein computerlesbares Signalmedium oder ein computerlesbares Speichermedium sein. Ein computerlesbares Speichermedium kann, ist aber nicht darauf beschränkt, zum Beispiel ein elektronisches, magnetisches, optisches, elektromagnetisches, Infrarot- oder Halbleitersystem, eine Vorrichtung oder ein Gerät sein, oder irgendeine Kombination aus den voranstehenden. Mehr spezifische Beispiele (eine nicht erschöpfende Liste) des computerlesbaren Speichermediums würden das Folgende enthalten: eine elektrische Verbindung mit einem oder mehreren Drähten, eine portierbare Computerdiskette, eine Festplatte, einen Direktzugriffsspeicher (RAM), einen Nurlesespeicher (ROM), einen löschbaren programmierbaren Nurlesespeicher (EPROM oder USB-Stick), eine optische Faser bzw. Glasfaser, einen Nurlesespeicher einer portierbaren Computerdiskette (CD-ROM), eine optische Datenspeichervorrichtung, eine magnetische Datenspeichervorrichtung oder irgendeine geeignete Kombination des voranstehenden. In Zusammenhang mit diesem Dokument kann ein computerlesbares Speichermedium irgendein konkretes Medium sein, das ein Programm zur Verwendung durch oder in Verbindung mit einem System, einer Vorrichtung oder einem Gerät zur Anweisungsausführung enthalten oder speichern kann.
  • Ein computerlesbares Signalmedium kann ein ausgebreitetes Datensignal mit einem darin verkörperten computerlesbaren Programmcode enthalten, wie zum Beispiel im Basisband oder als Teil einer Trägerwelle. Ein solches ausgebreitetes Signal kann irgendeine Vielfalt von Formen annehmen, einschließlich, aber nicht darauf beschränkt, elektromagnetisch, optisch oder irgendeine geeignete Kombination davon. Ein computerlesbares Signalmedium kann irgendein computerlesbares Medium sein, das kein computerlesbares Speichermedium ist und das ein Programm zur Verwendung durch oder in Verbindung mit einem System, einer Vorrichtung oder einem Gerät zur Anweisungsausführung kommunizieren, ausbreiten oder transportieren kann.
  • Ein auf einem computerlesbaren Medium verkörperter Programmcode kann unter Verwendung von irgendeinem geeigneten Medium übertragen werden, einschließlich, aber nicht darauf beschränkt, drahtlos, drahtgebunden, Glasfaserkabel, RF, etc., oder irgendeiner geeigneten Kombination des voranstehenden.
  • Ein Computerprogrammcode zum Ausführen von Operationen für Aspekte der vorliegenden Erfindung kann in irgendeiner Kombination von einer oder mehreren Programmiersprachen geschrieben sein, einschließlich einer objektorientierten Programmiersprache, wie beispielsweise Java, Smalltalk, C++ oder ähnlichem, und herkömmlicher verfahrensorientierter Programmiersprachen, wie beispielsweise der C++-Programmiersprache oder ähnlichen Programmiersprachen. Der Programmcode kann gänzlich auf dem Computer eines Anwenders, teilweise auf dem Computer eines Anwenders, als ein alleinstehendes Software-Paket, teilweise auf dem Computer eines Anwenders und teilweise auf einem entfernten Computer oder gänzlich auf dem entfernten Computer oder Server ausführen. Beim letzteren Szenario kann der entfernte Computer mit dem Computer eines Anwenders durch irgendeinen Typ von Netzwerk verbunden sein, einschließlich eines lokalen Netzes (LAN) oder eines Weitverkehrsnetzes (WAN), oder die Verbindung kann zu einem externen Computer (zum Beispiel durch das Internet unter Verwendung eines Internet-Dienstanbieters) ausgeführt werden.
  • Aspekte der vorliegenden Erfindung werden nachstehend unter Bezugnahme auf Ablaufdiagrammdarstellungen und/oder Blockdiagramme von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der vorliegenden Erfindung beschrieben. Es wird verstanden werden, dass jeder Block der Ablaufdiagrammdarstellungen und/oder der Blockdiagramme und Kombinationen von Blöcken in den Ablaufdiagrammdarstellungen und/oder den Blockdiagrammen durch Computerprogrammanweisungen implementiert werden können. Diese Computerprogrammanweisungen können einem Prozessor eines allgemeinen Computers, eines Computers für spezielle Zwecke oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine zu erzeugen, so dass die Anweisungen, die über den Prozessor des Computers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung ausführen, Mittel zum Implementieren der Funktionen/Handlungen erzeugen, die in dem Ablaufdiagramm und/oder den Blockdiagrammblöcken oder Blöcken oder Modulen spezifiziert sind.
  • Diese Computerprogrammanweisungen können auch in einem computerlesbaren Medium gespeichert werden, das einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder andere Vorrichtungen bzw. Geräte anleiten kann, auf eine bestimmte Weise zu funktionieren, so dass die im dem computerlesbaren Medium gespeicherten Anweisungen einen Herstellungsgegenstand bzw. ein Erzeugnis erzeugen bzw. produzieren, einschließlich Anweisungen, die die Funktion/Handlung implementieren, die im Ablaufdiagramm und/oder Blockdiagrammblock oder Blöcken oder Modulen spezifiziert ist.
  • Die Computerprogrammanweisungen können auch auf einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder andere Vorrichtungen bzw. Geräte geladen werden, um zu veranlassen, dass eine Reihe von Operationsschritten auf dem Computer, einer anderen programmierbaren Vorrichtung oder anderen Vorrichtungen bzw. Geräten durchgeführt wird, um einen computerimplementierten Prozess zu erzeugen bzw. zu produzieren, so dass die Anweisungen, die auf dem Computer oder einer anderen programmierbaren Vorrichtung ausführen, Prozesse zum Implementieren des Funktionen/Handlungen bereitstellen, die in dem Ablaufdiagramm und/oder dem Blockdiagrammblock oder den Blöcken oder Modulen spezifiziert sind.
  • Es ist einzusehen, dass beabsichtigt ist, das der Ausdruck „Prozessor“, wie er hierin verwendet wird, irgendeine Verarbeitungsvorrichtung enthält, wie zum Beispiel eine, welche eine CPU (zentrale Verarbeitungseinheit) und/oder eine andere Verarbeitungsschaltung enthält. Es ist auch zu verstehen, dass sich der Ausdruck „Prozessor“ auf mehr als eine Verarbeitungsvorrichtung beziehen kann und dass verschiedene Elemente, die mit einer Verarbeitungsvorrichtung assoziiert sind, durch andere Verarbeitungsvorrichtungen gemeinsam genutzt werden können.
  • Es ist beabsichtigt, dass der Ausdruck „Speicher“, wie er hierin verwendet ist, einen Speicher enthält, der mit einem Prozessor oder einer CPU assoziiert ist, wie zum Beispiel einen RAM, einen ROM, eine feste Speichervorrichtung (z.B. eine Festplatte), eine entfernbare Speichervorrichtung (z.B. eine Diskette), einen USB-Stick, etc.. Ein solcher Speicher kann als ein computerlesbares Speichermedium angesehen werden.
  • Zusätzlich ist beabsichtigt, dass die Formulierung „Eingabe/AusgabeVorrichtungen“ oder „I/O-Vorrichtungen“, wie sie hierin verwendet ist, zum Beispiel eine oder mehrere Eingabevorrichtungen (z.B. Tastatur, Maus, Scanner, etc.) zum Eingeben von Daten zur Verarbeitungseinheit und/oder eine oder mehrere Ausgabevorrichtungen (z.B. Lautsprecher, Anzeige, Drucker etc.) zum Präsentieren von Ergebnissen, assoziiert mit der Verarbeitungseinheit, enthält.
  • Das Voranstehende ist in jederlei Hinsicht als illustrativ und beispielhaft, aber nicht als beschränkend, zu verstehen, und der Schutzumfang der hierin offenbarten Erfindung ist nicht aus der detaillierten Beschreibung zu bestimmen, sondern eher aus den Ansprüchen, wie sie gemäß der vollständigen Breite interpretiert werden, die durch das Patentrecht zugelassen ist. Es ist zu verstehen, dass die hierin gezeigten und beschriebenen Ausführungsformen nur illustrativ für die Prinzipien der vorliegenden Erfindung sind und dass Fachleute auf dem Gebiet verschiedene Modifikationen implementieren können, ohne von dem Schutzumfang und dem Sinngehalt der Erfindung abzuweichen. Fachleute auf dem Gebiet könnten verschiedene andere Merkmalskombinationen implementieren, ohne von dem Schutzumfang und dem Sinngehalt der Erfindung abzuweichen. Sind somit die Aspekte der Erfindung mit den Details und der Besonderheit, die durch das Patentrecht erforderlich sind, beschrieben worden, ist das, was beansprucht ist und durch das Patent geschützt erwünscht ist, in den beigefügten Ansprüchen dargelegt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 17408769 [0001]

Claims (20)

  1. Verfahren zum Managen von Daten von Dialysepatienten durch Verwenden eines Modells einer tiefen dynamischen Gaußschen Mischung (DDGM (= Deep Dynamic Gaussian Mixture)), um medizinische Zeitreihendaten vorherzusagen, wobei das Verfahren folgendes umfasst: Auffüllen (1001) fehlender Werte in einer multivariaten Eingabezeitreihe durch Modellparameter über eine Präimputationskomponente durch Verwenden einer zeitlichen Intensitätsfunktion basierend auf Gaußkerneln und einer mehrdimensionalen Korrelation basierend auf zu erlernenden Korrelationsparametern; und Speichern (1003), über eine Vorhersagekomponente, von Parametern, die Cluster-Schwerpunkte bzw. -Zentroide darstellen, die von der DDGM verwendet werden, um Zeitreihen zum Erfassen von Korrelationen zwischen verschiedenen Zeitreihenabtastungen bzw. -proben zu clustern.
  2. Verfahren nach Anspruch 1, wobei die zeitliche Intensitätsfunktion zeitliche Beziehungen zwischen Zeitschritten modelliert.
  3. Verfahren nach Anspruch 2, wobei die zeitliche Intensitätsfunktion auf einem inversen Abstandsgewichtungsmechanismus basiert.
  4. Verfahren nach Anspruch 1, wobei die mehrdimensionale Korrelation Korrelationen zwischen verschiedenen Dimensionen der eingegebenen multivariaten Zeitreihe erfasst.
  5. Verfahren nach Anspruch 4, wobei die mehrdimensionale Korrelation einen Matrixparameter ρ ∈ ℝD×D initialisiert, der eine kontinuierliche DxD-Matrix ist und wobei jeder Eintrag ρij die Korrelation zwischen Dimension i und j darstellt.
  6. Verfahren nach Anspruch 1, wobei die Vorhersagekomponente ein Inferenznetzwerk und ein generatives Netzwerk enthält.
  7. Verfahren nach Anspruch 6, wobei das Inferenznetzwerk latente Variablen ableitet.
  8. Verfahren nach Anspruch 7, wobei die abgeleiteten latenten Variablen dem generativen Netzwerk zur Verfügung gestellt werden, um eine weitere Kopie von Clustervariablen zu erzeugen.
  9. Verfahren nach Anspruch 8, wobei das generative Netzwerk nach einer Zeit T die erzeugten Clustervariablen als seine eigene Eingabe verwendet, um iterativ neue Clustervariablen für Zeitschritte nach T zu erzeugen.
  10. Nichtflüchtiges computerlesbares Speichermedium, das ein computerlesbares Programm zum Managen von Daten von Dialysepatienten durch Verwenden eines Modells einer tiefen dynamischen Gaußschen Mischung (DDGM (= Deep Dynamic Gaussian Mixture)), um medizinische Zeitreihendaten vorherzusagen, umfasst, wobei das computerlesbare Programm dann, wenn es auf einem Computer ausgeführt wird, veranlasst, dass der Computer die folgenden Schritte durchführt: Auffüllen (1001) fehlender Werte in einer multivariaten Eingabezeitreihe durch Modellparameter über eine Präimputationskomponente durch Verwenden einer zeitlichen Intensitätsfunktion basierend auf Gaußkerneln und einer mehrdimensionalen Korrelation basierend auf zu erlernenden Korrelationsparametern; und Speichern (1003), über eine Vorhersagekomponente, von Parametern, die Cluster-Schwerpunkte bzw. -Zentroide darstellen, die von der DDGM verwendet werden, um Zeitreihen zum Erfassen von Korrelationen zwischen verschiedenen Zeitreihenabtastungen bzw. -proben zu clustern.
  11. Nichtflüchtiges computerlesbares Speichermedium nach Anspruch 10, wobei die zeitliche Intensitätsfunktion zeitliche Beziehungen zwischen Zeitschritten modelliert.
  12. Nichtflüchtiges computerlesbares Speichermedium nach Anspruch 11, wobei die zeitliche Intensitätsfunktion auf einem inversen Abstandsgewichtungsmechanismus basiert.
  13. Nichtflüchtiges computerlesbares Speichermedium nach Anspruch 10, wobei die mehrdimensionale Korrelation Korrelationen zwischen verschiedenen Dimensionen der eingegebenen multivariaten Zeitreihe erfasst.
  14. Nichtflüchtiges computerlesbares Speichermedium nach Anspruch 13, wobei die mehrdimensionale Korrelation einen Matrixparameter ρ ∈ ℝD×D initialisiert, der eine kontinuierliche DxD-Matrix ist und wobei jeder Eintrag ρij die Korrelation zwischen Dimension i und j darstellt.
  15. Nichtflüchtiges computerlesbares Speichermedium nach Anspruch 10, wobei die Vorhersagekomponente ein Inferenznetzwerk und ein generatives Netzwerk enthält.
  16. Nichtflüchtiges computerlesbares Speichermedium nach Anspruch 15, wobei das Inferenznetzwerk latente Variablen ableitet.
  17. Nichtflüchtiges computerlesbares Speichermedium nach Anspruch 16, wobei die abgeleiteten latenten Variablen dem generativen Netzwerk zur Verfügung gestellt werden, um eine weitere Kopie von Clustervariablen zu erzeugen.
  18. Nichtflüchtiges computerlesbares Speichermedium nach Anspruch 17, wobei das generative Netzwerk nach einer Zeit T die erzeugten Clustervariablen als seine eigene Eingabe verwendet, um iterativ neue Clustervariablen für Zeitschritte nach T zu erzeugen,
  19. System zum Managen von Daten von Dialysepatienten durch Verwenden eines Modells einer tiefen dynamischen Gaußschen Mischung (DDGM (= Deep Dynamic Gaussian Mixture)), um medizinische Zeitreihendaten vorherzusagen, wobei das System folgendes umfasst: eine Präimputationskomponente (220) zum Auffüllen fehlender Werte in einer multivariaten Eingangszeitreihe durch Modellparameter durch Verwenden einer zeitlichen Intensitätsfunktion basierend auf Gaußkerneln und einer mehrdimensionalen Korrelation basierend auf zu erlernenden Korrelationsparametern; und eine Vorhersagekomponente (230) zum Speichern von Parametern, die Cluster-Schwerpunkte bzw. -Zentroide darstellen, die von der DDGM verwendet werden, um Zeitreihen zum Erfassen von Korrelationen zwischen verschiedenen Zeitreihenabtastungen bzw. -proben zu clustern.
  20. System nach Anspruch 19, wobei die Vorhersagekomponente ein Inferenznetzwerk und ein generatives Netzwerk enthält, wobei das Inferenznetzwerk latente Variablen ableitet, wobei die abgeleiteten latenten Variablen dem generativen Netzwerk zur Verfügung gestellt werden, um eine weitere Kopie von Clustervariablen zu erzeugen.
DE112021004559.8T 2020-08-31 2021-08-24 System zur robusten vorhersage bei unregelmässigen zeitreihen in dialysepatientenakten Pending DE112021004559T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063072325P 2020-08-31 2020-08-31
US63/072,325 2020-08-31
US17/408,769 2021-08-23
US17/408,769 US20220068445A1 (en) 2020-08-31 2021-08-23 Robust forecasting system on irregular time series in dialysis medical records
PCT/US2021/047296 WO2022046734A1 (en) 2020-08-31 2021-08-24 Robust forecasting system on irregular time series in dialysis medical records

Publications (1)

Publication Number Publication Date
DE112021004559T5 true DE112021004559T5 (de) 2023-08-10

Family

ID=80353977

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021004559.8T Pending DE112021004559T5 (de) 2020-08-31 2021-08-24 System zur robusten vorhersage bei unregelmässigen zeitreihen in dialysepatientenakten

Country Status (4)

Country Link
US (1) US20220068445A1 (de)
JP (1) JP7471471B2 (de)
DE (1) DE112021004559T5 (de)
WO (1) WO2022046734A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220197977A1 (en) * 2020-12-22 2022-06-23 International Business Machines Corporation Predicting multivariate time series with systematic and random missing values
CN115547500B (zh) * 2022-11-03 2023-03-24 深圳市龙岗区第三人民医院 血液透析病人的健康监测设备及系统
CN116705337B (zh) * 2023-08-07 2023-10-27 山东第一医科大学第一附属医院(山东省千佛山医院) 一种健康数据采集及智能分析方法
CN117634949B (zh) * 2023-11-27 2024-05-28 北京创智和宇科技有限公司 基于drg/dip的医保结算清单与病案首页联动的质控方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130116999A1 (en) * 2011-11-04 2013-05-09 The Regents Of The University Of Michigan Patient-Specific Modeling and Forecasting of Disease Progression
US10956821B2 (en) * 2016-11-29 2021-03-23 International Business Machines Corporation Accurate temporal event predictive modeling
JP7277269B2 (ja) * 2018-06-08 2023-05-18 株式会社アドバンス 個体差別血液透析装置
US11169514B2 (en) * 2018-08-27 2021-11-09 Nec Corporation Unsupervised anomaly detection, diagnosis, and correction in multivariate time series data
GB2577312B (en) * 2018-09-21 2022-07-20 Imperial College Innovations Ltd Task embedding for device control
JP7081678B2 (ja) * 2018-09-27 2022-06-07 日本電気株式会社 情報処理装置及びシステム、並びに、モデル適応方法及びプログラム
KR102182807B1 (ko) * 2018-12-10 2020-11-25 한국과학기술원 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치 및 그 동작 방법

Also Published As

Publication number Publication date
WO2022046734A1 (en) 2022-03-03
JP7471471B2 (ja) 2024-04-19
JP2023538188A (ja) 2023-09-07
US20220068445A1 (en) 2022-03-03

Similar Documents

Publication Publication Date Title
de La Torre et al. A deep learning interpretable classifier for diabetic retinopathy disease grading
DE112021004559T5 (de) System zur robusten vorhersage bei unregelmässigen zeitreihen in dialysepatientenakten
DE102018111905A1 (de) Domänenspezifische Sprache zur Erzeugung rekurrenter neuronaler Netzarchitekturen
DE112021000189T5 (de) Mikrodienst-Aufspaltungsstrategie von monolithischen Anwendungen
DE112021004908T5 (de) Computerbasierte systeme, rechenkomponenten und rechenobjekte, die eingerichtet sind, dynamische ausreisser-verzerrungs-verringerung bei maschinenlernmodellen zu implementieren
DE112018005227T5 (de) Merkmalsextraktion mithilfe von multi-task-lernen
DE102017220898A1 (de) Verfahren und Vorrichtung zur Klassifizierung einer während der Sicherheitskontrolle zu kontrollierenden Person
DE102014113692A1 (de) Verdichtung von longitudinalen epa für eine verbesserte phänotypisierung
Bihis et al. A generalized flow for multi-class and binary classification tasks: An Azure ML approach
DE112018005205T5 (de) Komprimierung von vollständig verbundenen / wiederkehrenden Schichten von einem oder mehreren tiefen Netzen durch Durchsetzen von räumlicher Lokalität für Gewichtsmatrizen und erwirken von Frequenzkomprimierung
DE112021006232T5 (de) Proaktive anomalieerkennung
DE112021001566T5 (de) Ermitteln von abhängigkeiten multivariater zeitreihendaten
DE112020004471T5 (de) Folgerungsvorrichtung, Trainingsvorrichtung, Folgerungsverfahren und Trainingsverfahren
DE112019006156T5 (de) Erkennung und behandlung von unsachgemässen eingaben durch neuronale netzwerke
Rahman et al. Predicting human design decisions with deep recurrent neural network combining static and dynamic data
EP3719811A1 (de) Konsistenz von datenkennzeichnungen bei der medizinischen bildverarbeitung zur zellklassifizierung
DE102018206108A1 (de) Generieren von Validierungsdaten mit generativen kontradiktorischen Netzwerken
DE112021002866T5 (de) Modelltreueüberwachung und -neuerstellung zur entscheidungsunterstützung eines fertigungsverfahrens
DE102021127244A1 (de) Künstliche Intelligenz Optimierungsplattform
Balan et al. An intelligent human age and gender forecasting framework using deep learning algorithms
EP4016543A1 (de) Verfahren und vorrichtung zur bereitstellung einer medizinischen information
DE112021005678T5 (de) Normieren von OCT-Bilddaten
Jung et al. Inter-regional high-level relation learning from functional connectivity via self-supervision
Liu et al. A stock series prediction model based on variational mode decomposition and dual-channel attention network
DE112021003761T5 (de) Prädiktive modelle mit zerlegbaren hierarchischen ebenen, die konfiguriert werden, um interpretierbare resultate zu erzeugen

Legal Events

Date Code Title Description
R012 Request for examination validly filed