DE112021003125T5 - Systeme und Verfahren zur Erzeugung früher gesundheitsbasierter Alarme aus kontinuierlich erfassten Daten - Google Patents

Systeme und Verfahren zur Erzeugung früher gesundheitsbasierter Alarme aus kontinuierlich erfassten Daten Download PDF

Info

Publication number
DE112021003125T5
DE112021003125T5 DE112021003125.2T DE112021003125T DE112021003125T5 DE 112021003125 T5 DE112021003125 T5 DE 112021003125T5 DE 112021003125 T DE112021003125 T DE 112021003125T DE 112021003125 T5 DE112021003125 T5 DE 112021003125T5
Authority
DE
Germany
Prior art keywords
data
known user
voice
features
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021003125.2T
Other languages
English (en)
Inventor
Pieter Vorenkamp
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Syntiant Corp
Original Assignee
Syntiant Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Syntiant Corp filed Critical Syntiant Corp
Publication of DE112021003125T5 publication Critical patent/DE112021003125T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/20ICT specially adapted for the handling or processing of medical references relating to practices or guidelines

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Ein sprachbasiertes Gesundheitserkennungssystem, das verwendet wird, um Stimmveränderungen eines Benutzers zu überwachen, um frühe Zeichen von möglichen Gesundheitsproblemen zu erkennen. Das System kann einen sprachbasierten Gesundheitserkennungssystem-Server umfassen, der kommunikativ mit Sensoren, wie tragbaren Computervorrichtungen, gekoppelt ist. Die Sensoren können verwendet werden, um Signaldaten zu erfassen und die Vitalzeichen eines Benutzers zu überwachen. Der Server kann so konfiguriert sein, dass er die Signaldaten von den Sensoren empfängt, Merkmale aus den Signaldaten identifiziert und Merkmale aus den Merkmalen extrahiert. Die extrahierten Merkmale können Stimmmerkmale des Benutzers umfassen, wie Stimmneigung, Geschwindigkeit, Umfang, Gewichtung und Klangfarbe. Der Server kann so konfiguriert sein, dass er erkennt, ob die extrahierten Merkmale einen vorbestimmten Schwellenwert überschreiten. Das System kann daher frühzeitig gesundheitsbasierte Alarme für potentielle Gesundheitsprobleme des Benutzers ausgeben, wenn die erkannten Merkmale den vorbestimmten Schwellenwert überschreiten und sich außerhalb ihrer regulären Kontrollgrenzen bewegen.

Description

  • Priorität
  • Diese Anmeldung beansprucht den Nutzen und die Priorität der US-Patentanmeldung Nr. 17/337,814, eingereicht am 3. Juni 2021, die wiederum die Priorität der US-Vorläufigen Anmeldung Nr. 63/124,306 , eingereicht am 11. Dezember 2020, und der US-Vorläufigen Anmeldung Nr. 63/034,811 , eingereicht am 4. Juni 2020, beansprucht, die alle in vollem Umfang hierin enthalten sind.
  • Gebiet
  • Das Gebiet der vorliegenden Offenbarung bezieht sich in Allgemeinen auf die Datenverarbeitung künstlicher Intelligenz. Insbesondere bezieht sich das Gebiet der Offenbarung auf das Verarbeiten kontinuierlich erfasster Daten, um als Reaktion auf erfasste Änderungen an einem oder mehreren bekannten Merkmalen eines Benutzers Frühwarn-Gesundheitsalarme zu erzeugen.
  • Hintergrund
  • Die Früherkennung wurde als Schlüsselfaktor bei der Behandlung schwerer Gesundheitsprobleme identifiziert. Es ist auch bekannt, dass es viele frühe Anzeichen für einige schwerwiegende Gesundheitsprobleme gibt. Einige der frühen Anzeichen eines Schlaganfalls, die erkannt wurden, sind beispielsweise herabhängendes Gesicht, Armschwäche und Sprachschwierigkeiten. Ein weiteres Beispiel sind die bekannten Frühzeichen von Alzheimer, die unter anderem eine Zunahme der Körpertemperatur, der Herzfrequenz, der Sauerstoffsättigung (Sp02) und der Stimmneigung einschließen können. Einige dieser Frühzeichen lassen sich durch die kontinuierliche Überwachung grundlegender Vitalzeichen wie Blutdruck, Herzfrequenz, Körpertemperatur und SpO2 überwachen.
  • Derzeit weisen viele elektronische Uhren und Fitness-Tracker die Fähigkeit auf, verschiedene Daten kontinuierlich zu überwachen und zu messen, einschließlich einiger, wenn nicht aller, der oben genannten grundlegenden Vitalzeichen. Und mit jeder neuen Generation von elektronischen Uhren und Fitness-Trackern, die auf den Markt kommen, können die überwachten Daten und die Analyse der überwachten Daten durch diese Vorrichtungen genutzt werden, um eine zunehmende Menge an aussagekräftigen Daten und Korrelationen zu erzeugen. Die meisten Vitalzeichen, abgesehen von der Körpertemperatur und der Herzfrequenz, müssen jedoch in der Regel in einem Krankenhaus gemessen werden, auch wenn viele Anwender lieber in der Privatsphäre und Sicherheit ihrer eigenen Wohnung bleiben würden. In der Zwischenzeit werden die wenigen Vitalzeichen, die von tragbaren Vorrichtungen gemessen werden können, noch nicht genutzt, da diese Vorrichtungen noch nicht medizinisch und administrativ zugelassen sind, was bedeutet, dass die Genauigkeit dieser Vorrichtungen möglicherweise noch nicht den medizinischen Mindeststandards entspricht. Da sich die Sensortechnologie und die Algorithmen jedoch weiterhin drastisch weiterentwickeln, ist es sehr wahrscheinlich, dass diese Vorrichtungen in der nächsten Generation genauere und zuverlässigere Daten erzeugen werden.
  • Figurenliste
  • Die vorstehenden und andere Aspekte, Eigenschaften und Vorteile verschiedener Ausführungsformen der vorliegenden Offenbarung werden aus der folgenden Beschreibung in Verbindung mit den folgenden verschiedenen Figuren der Zeichnungen deutlicher werden. Die Zeichnungen beziehen sich auf Ausführungsformen der vorliegenden Offenbarung, in denen:
    • 1 eine beispielhafte Darstellung eines sprachbasierten Gesundheitserkennungssystems gemäß einer Ausführungsform der vorliegenden Offenbarung ist;
    • 2A eine abstrakte Darstellung einer sprachbasierten Gesundheitserkennungsvorrichtung gemäß einer Ausführungsform der vorliegenden Offenbarung ist;
    • 2B eine abstrakte Darstellung bekannter Benutzerdaten gemäß einer Ausführungsform der vorliegenden Offenbarung ist;
    • 3 eine detaillierte Blockdiagrammdarstellung eines sprachbasierten Gesundheitserkennungsservers ist, der in einem sprachbasierten Gesundheitserkennungssystem gemäß einer Ausführungsform der vorliegenden Offenbarung verwendet wird;
    • 4 ein Flussdiagramm eines Prozesses zum Erzeugen bekannter Benutzerdaten gemäß einer Ausführungsform der vorliegenden Offenbarung ist;
    • 5 ein Flussdiagramm eines sprachbasierten Gesundheitserkennungsprozesses gemäß einer Ausführungsform der vorliegenden Offenbarung ist;
    • 6A ein Flussdiagramm eines immer eingeschalteten sprachbasierten Gesundheitserkennungsprozesses gemäß einer Ausführungsform der vorliegenden Offenbarung ist;
    • 6B ein Flussdiagramm eines immer eingeschalteten sprachbasierten Gesundheitserkennungsprozesses unter Verwendung einer externen Rechenvorrichtung gemäß einer Ausführungsform der vorliegenden Offenbarung ist.
  • Detaillierte Beschreibung
  • Angesichts der vorstehend beschriebenen Probleme besteht die Notwendigkeit, Veränderungen eines Benutzers zu überwachen, um auf der Basis kontinuierlich erfasster Daten frühzeitige gesundheitsbezogene Alarme für potenzielle Gesundheitsprobleme zu erzeugen. Die hierin beschriebenen Ausführungsformen stellen diese erzeugten frühen gesundheitsbezogenen Alarme mit Systemen und Verfahren bereit, die sich auf die
  • Erkennung und Extraktion von Eigenschaften aus Audiodatensignalen beziehen, die zur frühzeitigen Erkennung von Warnungen vor potenziellen schwerwiegenden Gesundheitsproblemen für den Benutzer verwendet werden können. Wie nachstehend näher beschrieben, können die Ausführungsformen es dem Benutzer erlauben, eine oder mehrere Eigenschaften und Vitaldaten einzugeben, die einem oder mehreren gesprochenen Wörtern und/oder extrahierten Eigenschaften entsprechen können.
  • Die Ausführungsformen können so konfiguriert sein, dass sie kontinuierlich gesprochene Wörter in einem stromsparenden, ständig eingeschalteten (d. h. kontinuierlich erkannten) Modus erkennen und eine oder mehrere Eigenschaften aus den erkannten gesprochenen Wörtern extrahieren, um Vitaldaten und Schwellendaten (oder Trenddaten) der extrahierten Eigenschaften über eine vorher festgelegte Periode zu ermitteln. In den hierin beschriebenen Ausführungsformen können die gesprochenen Wörter eine Vielfalt von Wörtern, Phrasen, Audiogesten, Audiosignalen usw. einschließen, die mit einem oder mehreren Nutzern verknüpft sein kann, sind aber nicht darauf beschränkt. Da sich Audio- und verwandte Sensortechnologien weiterentwickeln, können die hierin beschriebenen Ausführungsformen beispielsweise in der Lage sein, eine oder mehrere Eigenschaften (oder Parameter, Merkmale usw.) aus der Stimme und den gesprochenen Wörtern eines Benutzers im Allgemeinen zu erkennen, sodass die Ausführungsformen beliebige Schlüsselwörter und/oder beliebige gesprochene Wörter aus der Sprache dieses Benutzers erkennen, analysieren oder anderweitig nutzen können. Mit anderen Worten, Merkmale der Stimme eines Benutzers können erkannt, geparst oder anderweitig verwendet werden, ohne dass ein bestimmtes Schlüsselwort oder eine vorprogrammierte Phrase erforderlich ist, um eine Vorrichtung oder einen Sensor auszulösen, damit sie/er mit dem „Hören“ beginnt.
  • In mehreren Ausführungsformen können die extrahierten Eigenschaften ein oder mehrere Stimmmerkmale einschließen, die aus den erfassten Schlüsselwörtern des Benutzers extrahiert wurden. Beispielsweise können die extrahierten Stimmmerkmale als nicht einschränkendes Beispiel Stimmlage, Stimmgeschwindigkeit, Stimmumfang, Stimmgewicht, Stimmfarbklang und so weiter einschließen. Unterdessen können die extrahierten Merkmale in anderen Ausführungsformen beliebige andere gesundheitsbasierte Daten einschließen, die mit beliebigen Arten von Sensoren in Verbindung mit beliebigen extrahierten Stimmmerkmalen extrahiert und/oder erfasst werden. Beispielsweise können die extrahierten gesundheitsbasierten Daten mit einem oder mehreren frühen Anzeichen von Gesundheitsveränderungen korrelieren, die jeweils mit einem oder mehreren potenziellen schweren Gesundheitsproblemen korrelieren können.
  • Darüber hinaus können Ausführungsformen konfiguriert sein, um zu bestimmen, ob irgendwelche der extrahierten Stimmmerkmale einen vorbestimmten Schwellenwert überschritten haben. Als Reaktion auf die Bestimmung, dass eines oder mehrere der extrahierten Stimmmerkmale ihre vorbestimmten Schwellenwerte überschritten haben, können die Ausführungsformen konfiguriert sein, um Alarmdaten zu erzeugen und zu übertragen, einschließlich Alarmbenachrichtigungen über Frühzeichen-Gesundheitsalarmsignale an eine persönliche Computervorrichtung des Benutzers oder des Betreuers des Benutzers. Beispielsweise kann das Frühzeichen-Gesundheitsalarmsignal verwendet werden, um dem Benutzer einen Frühwarnalarm vor einem möglichen schweren Gesundheitsproblem bereitzustellen und unverzüglich eine weitere Diagnose des möglichen Problems zu suchen.
  • Bevor die folgenden Ausführungsformen detaillierter beschrieben werden, sollte klar sein, dass keine der hierin beschriebenen Ausführungsformen den Umfang der hierin enthaltenen Konzepte einschränkt. Ebenso sollte klar sein, dass eine bestimmte hierin beschriebene Ausführungsform Eigenschaften aufweisen kann, die ohne weiteres von der bestimmten Ausführungsform getrennt und wahlweise mit Eigenschaften mehrerer anderer hierin beschriebener Ausführungsformen kombiniert oder durch diese ersetzt werden können.
  • Bezüglich der hierin verwendeten Begriffe ist zu verstehen, dass diese Begriffe der Beschreibung bestimmter Ausführungsformen dienen und den Umfang der hierin beschriebenen Konzepte und/oder anderer Ausführungsformen nicht einschränken. Ordnungszahlen (z. B. erste, zweite, dritte usw.) werden im Allgemeinen verwendet, um verschiedene Eigenschaften oder Schritte in einer Gruppe von Eigenschaften oder Schritten zu unterscheiden oder zu identifizieren, und stellen keine serielle oder numerische Begrenzung dar. Beispielsweise müssen „erste“, „zweite“ und „dritte“ Eigenschaften oder Schritte nicht notwendigerweise in dieser Reihenfolge erscheinen, und die bestimmten Ausführungsformen, die solche Eigenschaften oder Schritte einschließen, müssen nicht notwendigerweise auf die drei Eigenschaften oder Schritte beschränkt sein. Bezeichnungen wie „links“, „rechts“, „vorne“, „hinten“, „oben“, „unten“ und dergleichen werden der Einfachheit halber verwendet und sollen beispielsweise keine bestimmte feste Position oder Ausrichtung oder Richtung implizieren. Stattdessen werden derartige Bezeichnungen verwendet, um beispielsweise die relative Position, Ausrichtung oder Richtungen wiederzugeben. Singularformen von „ein“, „eine“ und „der/die/das“ schließen Pluralformen ein, es sei denn, der Kontext schreibt eindeutig etwas anderes vor.
  • Beispielsweise kann der Begriff „Logik“ in bestimmten Situationen für Hardware, Firmware und/oder Software stehen, die konfiguriert ist, um eine oder mehrere Funktionen auszuführen. Als Hardware kann die Logik eine Schaltung mit Datenverarbeitungs- oder Speicherfunktionalität einschließen. Beispiele für derartige Schaltungen können einen Mikroprozessor, einen oder mehrere Prozessorkerne, ein programmierbares Gate-Array, eine Mikrosteuerung, eine Steuerung, eine anwendungsspezifische integrierte Schaltung, einen drahtlosen Empfänger, eine Sender und/oder Transceiver-Schaltung, Halbleiterspeicher oder kombinatorische Logik einschließen, sind jedoch nicht darauf beschränkt.
  • Zusätzlich kann der Begriff „Eigenschaft“ hierin alle gesundheitsbezogenen Daten und alle anderen sensorbezogenen Daten einschließen, die von jeder Art von Sensoren, jeder Art von Sensorverarbeitungsvorrichtungen (z. B. jeder Art von tragbaren Vorrichtungen) usw. empfangen, übertragen, erfasst, verarbeitet und/oder extrahiert werden können, wobei diese Daten so konfiguriert sein können, dass sie Frühzeichen von Gesundheitsveränderungen erkennen und mit diesen korrelieren, die mit einem oder mehreren potenziellen schweren Gesundheitsproblemen korrelieren können. Beispielsweise kann jede Art von Sensor kommunikativ mit einer Sensorausgabe-Detektorlogik einer sprachbasierten Erfassungsvorrichtung gekoppelt werden, wobei die Sensorausgabe-Detektorlogik so konfiguriert sein kann, dass sie ein oder mehrere Merkmale (oder Eigenschaften, Muster usw.) aus den von einem solchen Sensor empfangenen Signaldaten identifiziert, und wobei die Sensorausgabe-Detektorlogik ferner so konfiguriert sein kann, dass sie ein oder mehrere Wörter aus den empfangenen Signaldaten erkennt, sodass die identifizierten Merkmale mindestens eines oder mehrere der erkannten Wörter einschließen können. In ähnlicher Weise, wie hierin verwendet, kann der Begriff „Stimmeigenschaft“ alle stimmlichen Merkmale einschließen, die aus der Stimme und den von Benutzern gesprochenen Wörtern in Verbindung mit anderen gewünschten Merkmalen extrahiert und mit jeder Art von Sensoren und Sensorverarbeitungsvorrichtungen erfasst werden können, um ebenso Frühzeichen von Gesundheitsveränderungen zu erkennen und mit diesen zu korrelieren, die jeweils mit einem oder mehreren potenziellen schweren Gesundheitsproblemen korrelieren können.
  • Der Begriff „maschinelles Lernen“ kann beliebige Rechenschaltungen einschließen, die eine digitale Implementierung eines neuronalen Netzwerks umfassen. Diese Schaltkreise können die Emulation mehrerer neuronaler Strukturen und/oder Operationen eines biologisch basierten Gehirns und/oder Nervensystems einschließen. Einige Ausführungsformen von Schaltungen für maschinelles Lernen und/oder künstliche Intelligenz können probabilistische Berechnungen umfassen, die algorithmische Ansätze zum Umgang mit Unsicherheit, Mehrdeutigkeit und Widerspruch in empfangenen Eingabedaten erzeugen können. Schaltungen für maschinelles Lernen können aus Systemen mit sehr großer Integration (VLSI) bestehen, die elektronische analoge Schaltungen, digitale Schaltungen, analoge/digitale VLSI im gemischten Modus und/oder Softwaresysteme enthalten. Der Begriff „Prozess“ kann eine Instanz eines Computerprogramms einschließen (z. B. eine Sammlung von Anweisungen, die hierin auch als Anwendung bezeichnet wird). In einer Ausführungsform kann der Prozess aus einem oder mehreren Threads bestehen, die gleichzeitig ausgeführt werden (z. B. kann jeder Thread denselben oder einen anderen Befehl gleichzeitig ausführen).
  • Der Begriff „Verarbeitung“ kann das Ausführen einer Binärdatei oder eines Skripts einschließen oder das Starten einer Anwendung, in der ein Objekt verarbeitet wird, wobei das Starten so zu verstehen ist, dass die Anwendung in einen offenen Zustand versetzt wird und in einigen Implementierungen Simulationen von Aktionen durchgeführt werden, die für menschliche Interaktionen mit der Anwendung typisch sind.
  • Der Begriff „Objekt“ bezieht sich im Allgemeinen auf eine Sammlung von Daten, ob während der Übertragung (z. B. über ein Netzwerk) oder im Ruhezustand (z. B. gespeichert), die häufig eine logische Struktur oder Organisation aufweisen, die eine Kategorisierung oder Typisierung ermöglicht. Hierin werden die Begriffe „Binärdatei“ und „binär“ austauschbar verwendet.
  • Der Begriff „Datei“ wird im weitesten Sinne verwendet, um sich auf einen Satz oder eine Sammlung von Daten, Informationen oder anderen Inhalten zu beziehen, die mit einem Computerprogramm verwendet werden. Auf eine Datei kann als einzelne Entität, Objekt oder Einheit zugegriffen, sie geöffnet, gespeichert, manipuliert oder anderweitig verarbeitet werden. Eine Datei kann andere Dateien enthalten und kann verwandte oder nicht verwandte Inhalte oder überhaupt keine Inhalte enthalten. Eine Datei kann auch ein logisches Format haben und/oder Teil eines Dateisystems mit einer logischen Struktur oder Organisation mehrerer Dateien sein. Dateien können einen Namen haben, der manchmal einfach als „Dateiname“ bezeichnet wird, und häufig angehängte Eigenschaften oder andere Metadaten. Es gibt viele Arten von Dateien, z. B. Datendateien, Textdateien, Programmdateien und Verzeichnisdateien. Eine Datei kann von einem Benutzer einer Computervorrichtung erzeugt oder von der Computervorrichtung erzeugt werden. Der Zugriff auf und/oder Operationen an einer Datei können durch eine oder mehrere Anwendungen und/oder das Betriebssystem einer Computervorrichtung vermittelt werden. Ein Dateisystem kann die Dateien der Computervorrichtung einer Speichervorrichtung organisieren. Das Dateisystem kann das Verfolgen von Dateien ermöglichen und den Zugriff auf diese Dateien ermöglichen. Ein Dateisystem kann auch Operationen an einer Datei ermöglichen. In einigen Ausführungsformen können die Operationen an der Datei Dateierstellung, Dateimodifikation, Dateiöffnung, Dateilesen, Dateischreiben, Dateischließen und Dateilöschen einschließen.
  • Schließlich sind die Begriffe „oder“ und „und/oder“, wie sie hierin verwendet werden, als umfassend zu interpretieren oder bedeuten irgendeinen oder irgendeine Kombination. Daher bedeuten „A, B oder C“ oder „A, B und/oder C“ „eines der Folgenden: A; B; C; A und B; A und C; B und C; A, B und C.“ Eine Ausnahme von dieser Definition tritt nur dann auf, wenn eine Kombination von Elementen, Funktionen, Schritten oder Handlungen sich in gewisser Weise von Natur aus gegenseitig ausschließt.
  • Nun Bezug nehmend auf 1 ist eine beispielhafte Veranschaulichung eines sprachbasierten Gesundheitserkennungssystems 100 gemäß Ausführungsformen der Offenbarung gezeigt. In vielen Ausführungsformen kann das sprachbasierte Gesundheitserkennungssystem 100 eine Vielzahl von persönlichen Erfassungsvorrichtungen 101-109, einen sprachbasierten Gesundheitserkennungsserver 120, einen Betreuerserver 130 und einen oder mehrere Datenspeicher 140 und 142 umfassen. Das sprachbasierte Gesundheitserkennungssystem 100 kann die persönlichen Computervorrichtungen 101-109 nutzen und/oder anderweitig mit ihnen kommunizieren, die so konfiguriert sein können, dass sie verschiedene Arten von Daten überwachen, einschließlich, aber nicht beschränkt auf Audiodaten, Vitalzeichendaten, Stimmeigenschaftsdaten usw. von bekannten Benutzern, um Frühzeichen potenzieller Gesundheitsprobleme der bekannten Benutzer zu erkennen.
  • Wie hierin verwendet, kann ein bekannter Benutzer ein bestimmter Benutzer sein, der aus einer Vielzahl von Quellen stammt und durch eine beliebige der persönlichen Computervorrichtungen 101-109 identifiziert wird. Das sprachbasierte Gesundheitserkennungssystem 100 kann beispielsweise so konfiguriert sein, dass es insbesondere identifiziert, ob ein bestimmtes Schlüsselwort von dem bekannten Benutzer gesagt wird. Der bekannte Benutzer kann aus einer Vielzahl von identifizierten Quellen abgeleitet werden, die in einer vorbestimmten Liste von autorisierten bekannten Benutzern enthalten sein können, die der jeweiligen persönlichen Computervorrichtung zugeordnet ist. Diesen identifizierten und autorisierten bekannten Benutzern können eine Vielzahl von Stimmeigenschaften in ihrer Sprache zugeordnet werden, die für diesen bestimmten bekannten Benutzer einzigartig sind. Diese einzigartigen Eigenschaften können genutzt werden, um bestimmte Schlüsselwörter, die von einem bekannten Benutzer gesprochen wurden, mit anderen Wörtern zu identifizieren, die von einem nicht identifizierten Benutzer gesprochen wurden, der möglicherweise nicht mit der jeweiligen Vorrichtung verknüpft ist und somit nicht in der vorbestimmten Liste der autorisierten bekannten Benutzer zu finden ist.
  • In vielen Ausführungsformen kann das sprachbasierte Gesundheitserkennungssystem 100 die persönlichen Computervorrichtungen 101-109 verwenden, die so konfiguriert sein können, dass sie Daten im Zusammenhang mit der Erzeugung, Aufzeichnung, Verfolgung und Verarbeitung von bekannten Benutzerdaten, Datenschutzdaten, Schwellendaten, erfassten Daten wie Vitalzeichen der bekannten Benutzer und/oder anderen Signaldaten übertragen und empfangen, wobei das sprachbasierte Gesundheitserkennungssystem 100 jeweils eine Vielzahl von Alarmen (oder Alarmbenachrichtigungen) in Bezug auf die übertragenen und empfangenen Daten von den Sensoren als Reaktion auf eine oder mehrere stimmliche Eigenschaften der bekannten Benutzer, die einen vorbestimmten Schwellenwert überschreiten, erzeugen kann. In derartigen Ausführungsformen können die Stimmeigenschaften ein oder mehrere Stimmmerkmale umfassen, die aus den Audiodaten extrahiert wurden (d. h. extrahierte Stimmeigenschaften), die für den bekannten Benutzer spezifisch sind, wie etwa, aber nicht beschränkt auf, Stimmlage, Stimmgeschwindigkeit, Stimmumfang, Stimmgewichtung, Stimmfarbklang und/oder ähnliches.
  • Wie in der in 1 veranschaulichten Ausführungsform gezeigt, kann der sprachbasierte Gesundheitserkennungsserver 120 kommunikativ mit einem oder mehreren Netzwerk(en) 110 wie beispielsweise dem Internet gekoppelt sein. Der sprachbasierte Gesundheitserfassungsserver 120 kann so implementiert werden, dass er eine Vielzahl von Daten über das Netzwerk 110 an eine beliebige Anzahl von Computervorrichtungen überträgt, wie etwa, aber nicht beschränkt auf, die persönlichen Computervorrichtungen 101-109, den Betreuer-Server 130 und/oder andere Computervorrichtungen. In zusätzlichen Ausführungsformen können alle sprachbasierten Gesundheitserkennungsdaten in zusätzlichen cloudbasierten Servern von Dienstanbietern, Edge-Netzwerksystemen und/oder ähnlichem gespiegelt werden. In anderen zusätzlichen Ausführungsformen kann der sprachbasierte Gesundheitserkennungsserver 120 als ein oder mehrere virtuelle Server innerhalb eines cloudbasierten Dienstes und/oder einer Anwendung gehostet werden.
  • In einigen Ausführungsformen kann die Übertragung von Daten, die dem sprachbasierten Gesundheitserkennungssystem 100 zugeordnet sind, über das Netzwerk 110 durch eine oder mehrere drahtgebundene und/oder drahtlose Verbindungen erfolgen. Beispielsweise können eine oder mehrere der persönlichen Computervorrichtungen 101-109 über einen drahtlosen Netzwerkzugangspunkt und/oder beliebige drahtlose Vorrichtungen drahtlos mit dem Netzwerk 110 gekoppelt sein. Wie in 1 veranschaulicht, kann es sich bei den persönlichen Computervorrichtungen 101-109 um jede Art von Computervorrichtungen handeln, die in der Lage sind, Audiodaten zu erfassen und von jedem der bekannten Benutzer verwendet zu werden, einschließlich, aber nicht beschränkt auf ein Paar intelligenter Hörgeräte 101 wie Ohrhörer, Kopfhörer usw., ein am Kopf montiertes Display 102 wie Virtual-Reality-Displays usw., eine Spielkonsole 103, eine tragbare Vorrichtung 104, ein Computer-Tablet 105, eine tragbare Vorrichtung 106 wie intelligente Uhren, Fitnessuhren usw., eine intelligente Fernbedienung 107, wie sprachgesteuerte Fernbedienungen für Fernseher, sprachgesteuerte Garagenfernbedienungen, sprachgesteuerte Fernbedienungen für Vorrichtungen/Geräte usw., einen intelligenten Lautsprecher 108, wie sprachgesteuerte intelligente persönliche Assistenten, sprachgesteuerte Lautsprecher usw., und eine intelligente Haushaltsvorrichtung 109, wie sprachgesteuerte Thermostatsteuerungen, sprachgesteuerte Sicherheitsüberwachungsvorrichtungen, intelligente Haushaltsgeräte, sprachgesteuerte Beleuchtungssteuerungsvorrichtungen usw.
  • In weiteren Ausführungsformen können die persönlichen Computervorrichtungen 101-109 jede Art von sprachbasierten Computervorrichtungen sein. Beispielsweise können die sprachbasierten Computervorrichtungen jede Art von tragbaren handgeführten Vorrichtungen einschließen, wie eine mobile Vorrichtung, ein Mobiltelefon, ein mobiles oder zelluläres Pad, ein Computer-Tablet, einen persönlichen digitalen Assistenten (PDA), jede Art von tragbaren Vorrichtungen, jede andere gewünschte sprachbasierte Vorrichtung und/oder ein oder mehrere weit verbreitete laufende Software- und/oder mobile Betriebssysteme. Bei den sprachgesteuerten Computervorrichtungen kann es sich um persönliche Computer und/oder Laptops handeln, auf denen verschiedene Betriebssysteme laufen. Bei den sprachgesteuerten Computervorrichtungen kann es sich um Workstation-Computer handeln, auf denen eine Vielzahl von handelsüblichen Betriebssystemen läuft. Alternativ kann es sich bei den sprachbasierten Computervorrichtungen auch um jede andere elektronische Vorrichtung handeln, wie einen Thin-Client-Computer, ein internetfähiges Spielsystem mit einer Messaging-Eingabevorrichtung und/oder eine persönliche sprachfähige Messaging-Vorrichtung, die die Kommunikation über das Netzwerk 110 ermöglicht. Obwohl in 1 neun persönliche Computervorrichtungen 101-109 veranschaulicht sind, kann das sprachbasierte Gesundheitserkennungssystem 100 ohne Einschränkung jede beliebige Anzahl von Computervorrichtungen und jede Art von Computervorrichtungen verwenden. Ebenso versteht es sich von selbst, dass alle Arten von drahtgebundenen und/oder drahtlosen Verbindungen zwischen allen Komponenten des sprachbasierten Gesundheitserkennungssystems 100 ohne Einschränkungen verwendet werden können, basierend auf jeder gewünschten Kombination von Vorrichtungen, Verbindungen usw.
  • In verschiedenen Ausführungsformen kann das sprachbasierte Gesundheitserkennungssystem 100 so implementiert werden, dass es kontinuierlich Daten des sprachbasierten Gesundheitserkennungssystems empfängt und überwacht, wie bekannte Benutzerdaten, Datenschutzdaten, Schwellenwertdaten, erfasste Daten und/oder beliebige andere Signaldaten von den bekannten Benutzern über eine beliebige Anzahl von persönlichen Computervorrichtungen 101-109, Personalcomputern, persönlichen Abhörcomputervorrichtungen und/oder persönlichen mobilen Computervorrichtungen. In vielen Ausführungsformen kann das sprachbasierte Gesundheitserkennungssystem eine Vielzahl von Daten verarbeiten, die sich auf Schlüsselwörter, Vitalzeichendaten, Basis-Messungen und Stimmeigenschaften der bekannten Benutzer beziehen; bestimmen, ob die verarbeiteten Stimmeigenschaften vorbestimmte Schwellenwerte überschreiten, wie dynamische und/oder statische vorbestimmte Schwellenwerte; und Alarmbenachrichtigungen an die bekannten Benutzer und/oder den Betreueralarm-Server 130 als Reaktion darauf erzeugen und übertragen, dass die extrahierten Stimmeigenschaften den vorbestimmten Schwellenwert überschritten haben. Des Weiteren können in einigen Ausführungsformen die Alarmbenachrichtigungen aus einer Liste vorbestimmter Einwirkungen innerhalb des sprachbasierten Gesundheitserkennungsservers 120, des Betreuerservers 130 und/oder der persönlichen Computervorrichtungen 101-109 erzeugt werden.
  • In anderen Ausführungsformen können die Daten des sprachbasierten Gesundheitserkennungssystems ebenso von persönlichen Identifizierungsdaten, wie persönlichen Anamnesedaten, abgetrennt werden und an den sprachbasierten Gesundheitserkennungsserver 120, den Betreuerserver 130, die Datenspeicher 140, 142 und/oder andere cloudbasierte Dienste zur Verarbeitung und/oder Speicherung übertragen werden. Die verarbeiteten und/oder gespeicherten Daten können dann zurück an die persönlichen Computervorrichtungen 101-109 übertragen werden, um sie an die bekannten Benutzer auszugeben. Beispielsweise können die abgetrennten, verarbeiteten und gespeicherten Daten unter Verwendung einer oder mehrerer Formen der Datenübertragung wie Blockchain-basierte Datenübertragung, Hash-basierte Datenübertragung, verschlüsselte Datenübertragung und/oder andere ähnlich geschützte Datenübertragungstechniken übertragen werden. In verschiedenen Ausführungsformen kann der Betreuer-Server 130 so implementiert werden, dass er Daten in Bezug auf die Vitalzeichen der bekannten Benutzer und alle damit verbundenen Alarmdaten der bekannten Benutzer empfängt (und/oder überträgt), was Alarmmeldungen einschließt, die als Frühwarnalarm für potenzielle schwerwiegende Gesundheitsprobleme der bekannten Benutzer empfangen werden. Der Betreuer-Server 130 kann beispielsweise ein Server, eine Vorrichtung und/oder ein System sein, das Ärzten, Krankenschwestern und/oder anderen primären Betreuern zugeordnet ist, die eine medizinisch-patientische Beziehung zu den bekannten Nutzern aufweisen und qualifiziert sind, weitere Diagnosen für potenzielle schwere Gesundheitsprobleme zu erstellen.
  • Zusätzlich kann der sprachbasierte Gesundheitserkennungsserver 120 in einigen Ausführungsformen implementiert werden, um einen oder mehrere sprachbasierte Gesundheitserkennungsdienste oder Softwareanwendungen auszuführen, die von einer oder mehreren Komponenten des sprachbasierten Gesundheitserkennungssystems 100 bereitgestellt werden. Die sprachbasierten Gesundheitserkennungsdienste oder Softwareanwendungen können nicht-virtuelle und virtuelle Umgebungen für die Gesundheitsüberwachung/-detektion einschließen. In einigen Ausführungsformen können diese Dienste den bekannten Benutzern der persönlichen Computervorrichtungen 101-109 als webbasierte oder cloudbasierte Dienste oder im Rahmen eines Software as a Service (SaaS)-Modells angeboten werden. Die bekannten Benutzer der persönlichen Computervorrichtungen 101-109 können ihrerseits eine oder mehrere Client-/Benutzeranwendungen verwenden, um mit dem sprachbasierten Gesundheitserkennungsserver 120 (und/oder dem Betreuer-Server 130) zu interagieren und die von diesen Servern angebotenen Dienste zu nutzen.
  • Der sprachbasierte Gesundheitserkennungsserver 120 kann als personalisierter Computer, spezialisierter Server (einschließlich, als nicht einschränkendes Beispiel, Personal Computer (PC)-Server, Mid-Range-Server, Mainframe-Computer, Rack-Server usw.), Server-Farmen, Server-Cluster und/oder jede andere geeignete gewünschte Konfiguration konfiguriert werden. Der sprachbasierte Gesundheitserkennungsserver 120 kann eine oder mehrere virtuelle Maschinen einschließen, auf denen virtuelle Betriebssysteme laufen, und/oder andere Computerarchitekturen, die Virtualisierung einschließen. Ein oder mehrere flexible Pools von logischen Speichervorrichtungen können virtualisiert werden, um virtuelle Vorrichtungen für den sprachbasierten Erfassungsvorrichtung-Server 120 zu verwalten. Virtuelle Netzwerke können durch den sprachbasierten Gesundheitserkennungsserver 120 über ein softwaredefiniertes (oder cloudbasiertes/definiertes) Netzwerk gesteuert werden. In verschiedenen Ausführungsformen kann der sprachbasierte Gesundheitserkennungsserver 120 so konfiguriert sein, dass er eine oder mehrere hierin beschriebene Anweisungen, Programme, Dienste und/oder Softwareanwendungen ausführt. Beispielsweise kann der sprachbasierte Gesundheitserkennungsserver 120 mit einem Server verknüpft sein, der implementiert ist, um einen der nachstehend in den 4, 5 und/oder 6A-6B beschriebenen Prozesse durchzuführen. Der sprachbasierte Gesundheitserkennungsserver 120 kann eine oder mehrere zusätzliche Serveranwendungen und/oder Mid-Tier-Anwendungen implementieren, einschließlich, aber nicht beschränkt auf Hypertext Transport Protocol (HTTP)-Server, File Transfer Protocol (FTP)-Server, Common Gateway Interface (CGI)-Server, Datenbankserver und/oder dergleichen.
  • Wie in 1 gezeigt, kann das sprachbasierte Gesundheitserkennungssystem 100 ebenso die ein oder mehreren Datenspeicher 140 und 142 einschließen. Die Datenspeicher 140 und 142 können sich an verschiedenen Orten befinden. Als nicht einschränkendes Beispiel können sich einer oder mehrere der Datenspeicher 140 und 142 auf einem nicht-transitorischen Speichermedium befinden, das lokal zu dem sprachbasierten Gesundheitserkennungsserver 120 ist (und/oder sich darin befindet). Alternativ können die Datenspeicher 140 und 142 von dem sprachbasierten Gesundheitserkennungsserver 120 entfernt sein und über beliebige gewünschte Verbindungen/Konfigurationen mit dem sprachbasierten Gesundheitserkennungsserver 120 kommunizieren. In einigen Ausführungsformen können die Datenspeicher 140 und 142 ein oder mehrere externe medizinische Datenspeicher sein, die verwendet werden, um Daten zu speichern, die sich auf Patienteninformationen, private Informationen und/oder die Krankengeschichte eines beliebigen der bekannten Benutzer beziehen. Beispielsweise können die externen medizinischen Datenspeicher entfernt von dem sprachbasierten Gesundheitserkennungsserver 120 und irgendeiner der persönlichen Computervorrichtungen 101 - 109 gespeichert werden.
  • Unter Bezugnahme auf 2A wird eine abstrakte Darstellung einer sprachbasierten Gesundheitserkennungsvorrichtung 200 gemäß einer Ausführungsform der Offenbarung gezeigt. In vielen Ausführungsformen kann die sprachbasierte Gesundheitserkennungsvorrichtung 200 einen Prozessor 210, einen Speicher 215 mit einer sprachbasierten Gesundheitserkennungsanwendung 220, eine Eingabe/Ausgabe 230 und einen Datenspeicher 240 einschließen. Die in 2A abgebildete sprachbasierte Gesundheitserkennungsvorrichtung 200 kann dem in 1 abgebildeten sprachbasierten Gesundheitserkennungsserver 120 ähnlich sein. Beispielsweise kann die sprachbasierte Gesundheitserkennungsvorrichtung 200 von dem sprachbasierten Gesundheitserkennungssystem 100 in Verbindung mit anderen zusätzlichen Vorrichtungen, Servern und/oder Systemen implementiert werden, wie etwa, aber nicht beschränkt auf, eine oder mehrere der persönlichen Computervorrichtungen 101-109 und den in 1 veranschaulichten Betreuer-Server 130. In einigen Ausführungsformen kann die sprachbasierte Gesundheitserkennungsvorrichtung 200 eine beliebige Vorrichtung sein, die einen sprachbasierten Gesundheitserkennungssystemprozess wie den in 1 veranschaulichten sprachbasierten Gesundheitserkennungssystemprozess 100 implementieren kann. Wie bereits erwähnt, können die Computervorrichtungen jede der persönlichen Computervorrichtungen 101-109 der 1 einschließen und/oder jede Computervorrichtung einschließen, die ausreicht, um sprachbasierte Gesundheitserkennungsvorgänge von bekannten Benutzern zu empfangen, zu übertragen und zu beantworten.
  • In verschiedenen Ausführungsformen kann die sprachbasierte Gesundheitserkennungsvorrichtung 200 kommunikativ mit einer der persönlichen Computervorrichtungen 101-109 aus 1 gekoppelt sein, die so konfiguriert sind, dass sie Stimmeigenschaften überwachen und Stimmveränderungen identifizieren. Derartige Stimmveränderungen können von der sprachbasierten Gesundheitserkennungsvorrichtung 200 dazu verwendet werden, Frühzeichen von möglichen Gesundheitsproblemen bekannter Benutzer zu identifizieren und zu erkennen. In vielen Ausführungsformen kann die sprachbasierte Gesundheitserkennungsvorrichtung 200 diese frühen Gesundheitsprobleme erkennen, indem sie eine oder mehrere Logiken innerhalb einer sprachbasierten Gesundheitserkennungsanwendung 220 implementiert, um Audiodaten von den Sensoren zu empfangen, Schlüsselwörter aus den empfangenen Audiodaten zu identifizieren und Stimmeigenschaften aus den identifizierten Schlüsselwörtern zu extrahieren.
  • Wie in 2A veranschaulicht, kann der Speicher 215 die sprachbasierte Gesundheitserkennungsanwendung 220 umfassen, die darüber hinaus eine Vitalüberwachungslogik 221, eine Probenvorverarbeitungslogik 222, eine Probenverarbeitungslogik 223, eine Schlüsselwort-Detektorlogik 224 (und/oder eine Sensorausgabe-Detektorlogik), eine Stimmeigenschaftenlogik 225, eine Vitalverarbeitungslogik 226, eine Alarmlogik 227, eine Datenschutzlogik 228 und/oder eine heuristische Logik 229 umfasst. Der Datenspeicher 240 kann erfasste Daten 241, Datenschutzdaten 242, Schwellendaten 243, Signaldaten 244 und bekannte Benutzerdaten 250 einschließen.
  • In einer Reihe von Ausführungsformen kann die Vitalüberwachungslogik 221 so konfiguriert sein, dass sie Daten zwischen der sprachbasierten Gesundheitserkennungsvorrichtung 200 und externen Computervorrichtungen, wie den persönlichen Computervorrichtungen 101-109 der 1, externen Sensor-/Überwachungsdiensten usw., empfängt und/oder deren Übertragung erleichtert. Die von der Vitalüberwachungslogik 221 empfangenen Daten können beispielsweise als die erfassten Daten 241 im Datenspeicher 240 gespeichert werden, wobei die erfassten Daten 241 jede Art von Daten einschließen können, die von der Vitalüberwachungslogik 221 erfasst und empfangen wurden. In einigen Ausführungsformen kann die Vitalüberwachungslogik 221 über eine Netzwerkverbindung, ähnlich dem in 1 veranschaulichten Netzwerk 110, Kommunikationskanäle mit den externen Vorrichtungen herstellen. Bestimmte Ausführungsformen können die vom Betriebssystem der sprachbasierten Gesundheitserkennungsvorrichtung 200 bereitgestellten Netzwerkverbindungswerkzeuge nutzen.
  • Die Vitalüberwachungslogik 221 kann so konfiguriert sein, dass sie Signaleingaben von geeigneten Signalquellen empfängt, wie einem Mikrofon, einer Audiodatenquelle und/oder einem Sensor. Das Mikrofon kann Audiomikrofone, digitale Mikrofone oder andere Vorrichtungen zur Erkennung von Wellenformen einschließen. Die Audiodatenquelle kann jede andere Art von verarbeitender Datenquelle umfassen, die in der Lage ist, verschiedene Eingangssignale zu empfangen/erfassen/bereitzustellen. Der Sensor kann jede Art von Sensoren und/oder sensorfähigen Vorrichtungen umfassen, wie etwa, aber nicht beschränkt auf, Vitalzeichenüberwachungssensoren (z. B. Sensoren, die zur Überwachung von Herzfrequenz, Blutdruck, Körpertemperatur, Sauerstoffsättigung (SpO2), Stimmeigenschaften usw. verwendet werden), medizinische Sensoren, Fitness-Tracking-Sensoren, Infrarotsensoren, Drucksensoren, Temperatursensoren, Näherungssensoren, Bewegungssensoren, Fingerabdruckscanner, Fotoaugensensoren, drahtlose Signalantennen, Beschleunigungssensoren, Gyroskope, Magnetometer, Neigungssensoren, Feuchtigkeitssensoren, Barometer, Lichtsensoren (z. B. Umgebungslichtsensoren), Farbsensoren, Berührungssensoren, Strömungssensoren, Füllstandsensoren, Ultraschallsensoren, Rauch-, Alkohol- und/oder Gassensoren (d. h. Sensoren, die in der Lage sind, Rauch/Alkohol/Gas in den menschlichen Atemwegen zu erkennen) und so weiter. Zum Beispiel können die von der Vitalüberwachungslogik 221 über das Mikrofon, die Audiodatenquelle und/oder die Sensoren empfangenen Signaleingangsdaten als Signaldaten 244 in den erfassten Daten 241 des Datenspeichers 240 gespeichert werden, wobei die Signaldaten 244 jede Art von Signaleingangsdaten wie Audiodaten, Audiosignalströme, Audiowellenform-Samples usw. einschließen können.
  • In vielen Ausführungsformen kann die Probenvorverarbeitungslogik 222 in Verbindung mit der Probenverarbeitungslogik 223 so konfiguriert sein, dass sie mit den von der Vitalüberwachungslogik 221 empfangenen Signaldaten 244 alle Daten im Zusammenhang mit den erfassten Daten 241 empfängt, verarbeitet und überträgt. Die Probenvorverarbeitungslogik 222 kann so konfiguriert sein, dass sie die Stimmeigenschaften, die aus den vorverarbeiteten Sensordaten wie den erfassten Daten 241 extrahiert wurden, verwendet, um zu einer oder mehreren umsetzbaren Entscheidungen durch ein neuronales Netzwerk oder dergleichen zu gelangen. In vielen Ausführungsformen kann die Probenvorverarbeitungslogik 222 als Filterbank oder ähnliches konfiguriert werden, die beispielsweise die erfassten Signaldaten 244 empfängt, wobei die empfangenen Daten von der Probenvorverarbeitungslogik 222 basierend auf den gewünschten einwirkungsfähigen Entscheidungen gefiltert und vorverarbeitet werden können, bevor diese Daten der Probenverarbeitungslogik 223 zugeführt werden. Das bedeutet, dass die Probenvorverarbeitungslogik 222 in einigen Ausführungsformen als ein Anreicherungsfilter oder ähnliches konfiguriert werden kann, der so konfiguriert werden kann, dass er unerwünschtes Rauschen in einem Signal unterdrückt, indem er bestimmte Komponenten des Signals auf einer zeitlich variierenden Basis selektiv abschwächt oder verstärkt, und/oder indem er unerwünschtes Rauschen in einem Signal unterdrückt, indem er bestimmte Komponenten des Signals auf einer zeitlich variierenden Basis selektiv abschwächt oder verstärkt. Beispielsweise kann die Probenvorverarbeitungslogik 222 als PDM-Dezimierungslogik (Pulse-Density-Modulation) konfiguriert sein, die so konfiguriert ist, dass sie PDM-Audioproben von einer der hierin beschriebenen Signaleingangsquellen auf eine Basisband-Audioabtastrate zur Verwendung in der sprachbasierten Gesundheitserkennungsvorrichtung 200 dezimiert.
  • Die Probenverarbeitungslogik 223 kann so konfiguriert sein, dass sie jede Art von Signaldaten empfängt, wie Frequenzelemente oder Signalspektruminformationen in Form von Fourier-Transformationen oder ähnlichen Frequenzzerlegungen, wobei die empfangenen Signaldaten für Audiosignalverarbeitungsaufgaben wie Audioverbesserung, Rauschunterdrückung und/oder ähnliches verarbeitet werden können. In vielen Ausführungsformen kann die Probenverarbeitungslogik 223 die Audiosignalverarbeitungsaufgaben übernehmen und mit der Schlüsselwortdetektorlogik 224 zusammenarbeiten, die so konfiguriert ist, dass sie Audioeingangsdaten empfängt und anschließend Worterkennungsaufgaben durchführt, wie die Intensivierung von Merkmalen aus den empfangenen Eingangsdaten und so weiter. Beispielsweise kann, wie hierin beschrieben, die Schlüsselwortdetektorlogik 224 eine Sensorausgabe-Detektorlogik sein, die so konfiguriert ist, dass sie Merkmale, Schlüsselwörter usw. aus den empfangenen Signaldaten 244 identifiziert, und dann kann die Probenverarbeitungslogik 223 so konfiguriert sein, dass sie jeweils Schlüsselwortdaten (und/oder Merkmalsdaten, Sensorausgabedaten usw.) in Bezug auf die identifizierten Schlüsselwörter erzeugt und die erzeugten Schlüsselwortdaten mit den bekannten Benutzerdaten 250 vergleicht, wie nachstehend näher beschrieben. In einigen Ausführungsformen kann die Probenverarbeitungslogik 223 in Verbindung mit der Schlüsselwortdetektorlogik 224 dazu verwendet werden, die identifizierten Schlüsselwörter und die erzeugten/verarbeiteten Schlüsselwortdaten an die Stimmeigenschaftenlogik 225 zu übertragen, und zwar basierend auf dem Ergebnis(se), die aus den durchgeführten Aufgaben zur Worterkennung von beiden und/oder einer oder mehreren der Probenverarbeitungslogik 223 und der Schlüsselwortdetektorlogik 224 aggregiert wurden. Zusätzlich, wie nachstehend näher beschrieben, kann die Schlüsselwortdetektorlogik 224 Zugriff auf einen oder mehrere Datentypen innerhalb der in 2B dargestellten bekannten Benutzerdaten 250 aufweisen, die eine oder mehrere Listen von Schlüsselwörtern, die in den Schlüsselwortdaten 267 gespeichert sind, Stimmeigenschaften, die in den Vitaldaten 263 gespeichert sind, und/oder bestimmte Stimmidentifikationsdaten der bestimmten bekannten Benutzer, die in den Stimmdaten 261 und/oder persönlichen Informationsdaten 264 gespeichert sind, einschließen können.
  • In verschiedenen Ausführungsformen kann die Stimmeigenschaftenlogik 225 so konfiguriert sein, dass sie eine oder mehrere Stimmeigenschaften aus den verarbeiteten Schlüsselwortdaten extrahiert. Beispielsweise kann die Stimmeigenschaftenlogik 225 alle Stimmeigenschaften extrahieren, die mit den überwachten Zeichen der bekannten Benutzer verknüpft sind, wobei die extrahierten Stimmeigenschaften in den Schwellenwertdaten 243 und den in 2B veranschaulichten Vitalbasisdaten 263 gespeichert werden können. Die Stimmeigenschaften, die von der Stimmeigenschaftenlogik 225 extrahiert werden, können aus allen Audiosignalen extrahiert werden, die von der Vitalüberwachungslogik 221 erfasst werden, wobei jede Stimmeigenschaft einem oder mehreren besonders überwachten Vitalzeichen des bekannten Benutzers entspricht. Die extrahierten Stimmeigenschaften können Stimmeigenschaften des bekannten Benutzers umfassen, wie Stimmneigung, Geschwindigkeit, Umfang, Gewichtung und Klangfarbe. In einigen Ausführungsformen kann die Stimmeigenschaftenlogik 225 so konfiguriert sein, dass sie die extrahierten Stimmeigenschaften und alle verarbeiteten Vitalbasisdaten an die Vitalverarbeitungslogik 226 überträgt, die so konfiguriert sein kann, dass sie erkennt, ob die extrahierten Stimmeigenschaften ihre jeweiligen vorbestimmten Schwellenwerte überschreiten.
  • In vielen Ausführungsformen kann die Vitalverarbeitungslogik 226 so konfiguriert sein, dass sie ein oder mehrere extrahierte Stimmeigenschaften mit bekannten Vitalbasisdaten des Benutzers vergleicht, beispielsweise mit den in 2B veranschaulichten Vitalbasisdaten 263, die in den bekannten Benutzerdaten 250 gespeichert sind. Die Vitalverarbeitungslogik 226 kann ebenso so konfiguriert sein, dass sie bestimmt, ob die eine oder die mehreren verarbeiteten Stimmeigenschaften einen oder mehrere vorbestimmte Schwellenwerte überschreiten, wie dynamische und statische vorbestimmte Schwellenwerte, die nachstehend ausführlicher beschrieben werden. In verschiedenen Ausführungsformen kann die Vitalverarbeitungslogik externe Faktoren nutzen, die von der heuristischen Logik 229 erfasst werden, um die Verarbeitung der extrahierten Stimmeigenschaften und/oder die Erzeugung von Alarmdaten 266 der 2B mit der Alarmlogik 227 zu erleichtern, wie nachstehend ausführlicher beschrieben.
  • In vielen Ausführungsformen kann die Alarmlogik 227 so konfiguriert sein, dass sie die in 2B dargestellten Alarmdaten 266 als Reaktion darauf erzeugt, dass ein oder mehrere extrahierte Stimmeigenschaften die in den Schwellendaten 243 gespeicherten vorbestimmten Schwellenwerte überschreiten, wobei die Schwellendaten 243 verwendet werden können, um jegliche Trends der extrahierten Stimmeigenschaften in Bezug auf die dynamischen und/oder statischen vorbestimmten Schwellenwerte zu bestimmen. Die Alarmlogik 227 kann ebenso konfiguriert sein und die erzeugten Alarmdaten an eine oder mehrere Vorrichtungen übertragen. In vielen Ausführungsformen kann die Alarmlogik 227 so konfiguriert sein, dass sie die Alarmdaten 266 erzeugt und überträgt, die einer oder mehreren erzeugten und übertragenen Warnungen der bekannten Benutzer zugeordnet sind. Beispielsweise kann die Alarmlogik 227 so konfiguriert sein, dass sie Alarme bekannter Benutzer erzeugt und überträgt, wenn bestimmt wird, dass die extrahierten Eigenschaften ihre jeweiligen vorbestimmten Schwellenwerte überschritten haben.
  • In einigen Ausführungsformen können die gespeicherten Alarmdaten 266 mit der Alarmlogik 227 erzeugt werden, die dann eine oder mehrere vorbestimmte Aktionen auslösen kann, die in den in 2B veranschaulichten vorbestimmten Aktionsdaten 262 gespeichert sind. Die von der Alarmlogik 227 erzeugten vorbestimmten Aktionen können mindestens eine oder mehrere bekannte Benutzerwarnungen und Betreueralarme auf der Basis der ausgelösten vorbestimmten Aktionsdaten 262 einschließen. Die bekannten Benutzeralarme können einen Frühwarnungsalarm, einen Warnalarm und einen Notfallalarm umfassen. Die Betreueralarme können einen Betreuerfrühwarnalarm, einen Betreuerwarnalarm und einen Betreuernotfallalarm umfassen. In vielen Fällen können die von der Alarmlogik 227 erzeugten Benutzer- und Betreueralarme alle Arten von Alarmmeldungen umfassen, die der frühzeitigen Erkennung potenziell schwerwiegender Gesundheitsprobleme dienen, die den bekannten Benutzern zugeordnet sind.
  • In einigen Ausführungsformen kann die Datenschutzlogik 228 so konfiguriert sein, dass sie beliebige Datenschutzdaten 242 empfängt und überträgt, die ebenso beliebige medizinische Verlaufsdaten wie die in 2B veranschaulichten medizinischen Verlaufsdaten 265 einschließen können. Die Datenschutzlogik 228 kann dazu verwendet werden, alle privaten Daten 242 zu übertragen, die sich auf medizinische Informationen beziehen, die privat und einem der bekannten Benutzer zugeordnet sind. Die Datenschutzlogik 228 kann so konfiguriert werden, dass bestimmte Datenschutzdaten 242, die nicht übertragen werden dürfen, abgetrennt werden, und/oder so konfiguriert werden, dass alle Datenschutzdaten 242, wie die Daten zur Krankengeschichte 265, über eine Blockchain-basierte Datenübertragung, eine Hash-basierte Datenübertragung, eine verschlüsselungsbasierte Datenübertragung und/oder eine andere ähnlich geschützte Datenübertragung übertragen werden.
  • In einigen Ausführungsformen kann die heuristische Logik 229 beispielsweise so konfiguriert sein, dass sie mit der Vitalüberwachungslogik 221 und/oder einer anderen Vorrichtung eine Vielzahl externer Faktoren erfasst, die zusätzliche Daten liefern können, die zur Verbesserung der Bestimmungen der Vitalverarbeitungslogik 226 verwendet werden können. In einigen Ausführungsformen können ein oder mehrere externe Faktoren, die dem bekannten Benutzer zugeordnet sind, genutzt werden, um einen Einblick in die erfassten Daten 241 in Verbindung mit den erfassten Sprachdaten 261, den Vitalbasisdaten 263 und/oder den in 2B veranschaulichten Daten des bekannten Benutzers 250 zu erhalten. Externe Faktoren können beispielsweise darauf hinweisen, dass ein bekannter Benutzer zu einer bestimmten Zeit in der Woche ein Trainingsprogramm absolviert, das auf natürliche Weise Veränderungen in der Stimme des Benutzers verursachen kann. Diese bestimmten akuten Veränderungen können dann genutzt werden, um weitere Erkenntnisse zu gewinnen (oder zumindest zusätzliche Datenpunkte zu erzeugen), wenn Veränderungen und/oder Schwellenwerte in ihren Sprachdaten 261 und anderen in den 2A-2B veranschaulichten Daten verarbeitet werden. Die externen Faktoren können ebenso alle zusätzlichen Daten einschließen, die sich auf das Ereignis und den physischen Ort beziehen, an dem die Daten erfasst wurden. Einige externe Faktoren, die mit der heuristischen Logik 229 erfasst werden, können die Global Positioning System (GPS)-Koordinaten des Wohnorts des bekannten Benutzers einschließen, den Ort, an dem die Messungen der Vitalzeichen vorgenommen wurden (z. B. während einer Aktivität im Freien, im Urlaub, bei der Arbeit usw.), die Uhrzeit, zu der sie vorgenommen wurden (z. B. spät in der Nacht oder früh am Morgen usw.), die Qualität der Aufzeichnung, die Dauer der Aufzeichnung usw.
  • 2B zeigt eine abstrakte Darstellung der bekannten Benutzerdaten 250 in Übereinstimmung mit den Ausführungsformen der Offenbarung. Wie vorstehend unter Bezugnahme auf 2A beschrieben, können die bekannten Benutzerdaten 250 im Datenspeicher 240 vorhanden sein und für jeden bekannten Benutzer, der mit der Vorrichtung 200 verknüpft ist, eindeutig sein. Die bekannten Benutzerdaten in den 2A-2B sind so veranschaulicht, dass sie in Abschnitte unterteilt und auf der Grundlage der einzelnen, dem bekannten Benutzer zugeordneten Datentypen gespeichert sind. Nachstehend wird veranschaulicht, welche Arten von Daten in den bekannten Benutzerdaten 250 enthalten sein können. Die bekannten Benutzerdaten 250 können Sprachdaten 261, vorbestimmte Aktionsdaten 262, Vitalbasisdaten 263, persönliche Informationsdaten 264 mit Schlüsselwortdaten 267, medizinische Verlaufsdaten 265 und Alarmdaten 266 umfassen. Obwohl in 2B sechs Datentypen 261-266 veranschaulicht sind, kann jede beliebige Anzahl von Datentypen verwendet werden, und jeder oder mehrere der veranschaulichten Datentypen können weggelassen, kombiniert usw. werden, ohne Einschränkungen. Zusätzlich können die bekannten Benutzerdaten 250 für alle bekannten Benutzer verwendet werden und/oder können ebenso verwendet werden, um alle gewünschten Datentypen zu speichern, die nur einem bekannten Benutzer zugeordnet sind, wobei jeder der bekannten Benutzer seine eigenen bekannten Benutzerdaten 250 mit einer beliebigen Anzahl von Datentypen und allen Arten von Daten aufweisen kann, die in den bekannten Benutzerdaten 250 gespeichert sind, ohne Einschränkung.
  • In vielen Ausführungsformen können die Stimmdaten 261 alle Stimmdaten einschließen, die jedem einzelnen bekannten Benutzer zugeordnet sind, was die Unterscheidung bestimmter Stimmeigenschaften jedes bekannten Benutzers einschließen kann. Die Sprachdaten 261 können beispielsweise die Sprachdaten eines Benutzers einschließen, der eine Sprachbehinderung hat, während der zweite Benutzer keine Probleme hat und die diesem zweiten Benutzer zugeordneten Sprachdaten sich von denen des einen Benutzers unterscheiden. Die Sprachdaten 261 können rohe Audiodaten umfassen, die während der sprachbasierten Gesundheitserkennungsvorrichtung mit einem Mikrofon oder einer anderen Vorrichtung zur Audioaufzeichnung aufgezeichnet wurden. Diese Sprachdaten 261 können Wellenformdaten umfassen und können je nach Anwendung und/oder Computerressourcen in jedes gewünschte Audioformat formatiert werden. Begrenzte Speicherressourcen können beispielsweise dazu führen, dass vermehrt Komprimierungsalgorithmen verwendet werden, um die Größe zu reduzieren, während die Rechenressourcen den Umfang der Komprimierung begrenzen können, die im laufenden Betrieb durchgeführt werden kann. Die Sprachdaten 261 können in verlustbehafteten oder verlustfreien Formaten gespeichert werden. In einigen Ausführungsformen können die Sprachdaten 261 verarbeitet werden, bevor sie an anderer Stelle innerhalb des sprachbasierten Gesundheitserkennungssystems gespeichert oder verwendet werden. Die Vorverarbeitung kann Rauschunterdrückung, Frequenzentzerrung, Normalisierung und/oder Komprimierung einschließen. Eine derartige Vorverarbeitung kann die Menge an Zusatzdaten erhöhen, die aus den Sprachdaten 261 erzeugt werden können.
  • In zusätzlichen Ausführungsformen können die vorbestimmten Aktionsdaten 262 aus einer oder mehreren Aktionen bestehen, die basierend darauf ausgelöst werden, dass die extrahierten Merkmale ihre vorbestimmten Schwellenwerte überschreiten. Beispielsweise kann die Alarmlogik 227 der 2A dazu konfiguriert sein, als Reaktion auf erzeugte Alarmdaten eine oder mehrere vorbestimmte Aktionen innerhalb der vorbestimmten Aktionsdaten 262 auszulösen. Die ausgelösten Aktionen können mindestens eine oder mehrere der bekannten Benutzeralarme und Betreueralarme einschließen, die auf den ausgelösten vorbestimmten Aktionsdaten 262 basieren, die dem jeweiligen bekannten Benutzer zugeordnet sind, wobei jeder der bekannten Benutzer die gleichen und/oder unterschiedliche vorbestimmte Aktionsdaten aufweisen kann, die auf den Präferenzen jedes der bekannten Benutzer basieren. Beispielsweise kann ein erster bekannter Benutzer Daten in den vorbestimmten Aktionsdaten 262 aufweisen, die es der Vorrichtung 200 erlauben, alle Alarmdaten 266 zu erzeugen und an die Mutter des ersten bekannten Benutzers zu übertragen, während alle anderen bekannten Benutzer angeben können, dass alle vorbestimmten Aktionsdaten 262 nur an sie selbst übertragen werden dürfen. Des Weiteren können die ausgelösten bekannten Benutzeralarme einen Frühwarnungsalarm, einen Warnalarm und einen Notfallalarm umfassen. Ebenso können die ausgelösten Betreueralarme einen Betreuerfrühwarnungsalarm, einen Betreuerwarnungsalarm und einen Betreuernotfallalarm umfassen.
  • In vielen Ausführungsformen können die Vitalbasisdaten 263 alle Daten sein, die sich auf ein oder mehrere Vitalzeichen beziehen, die für jeden der bekannten Benutzer von der Vitalüberwachungslogik 221 der 2A überwacht werden. Die Vitalbasisdaten 263 können ein oder mehrere Vitalzeichen für jeden der bekannten Benutzer einschließen, einschließlich, aber nicht beschränkt auf, Körpertemperatur, Herzfrequenz, Sauerstoffsättigung (Sp02), Blutdruck, Stimmeigenschaften und so weiter. Einige dieser Vitalzeichen lassen sich durch die kontinuierliche Überwachung grundlegender Vitalzeichen wie Blutdruck, Herzfrequenz, Körpertemperatur und SpO2 überwachen. Einige dieser Vitalzeichen können durch die kontinuierliche Überwachung der grundlegenden Vitalzeichen wie Blutdruck, Herzfrequenz, Körpertemperatur und SpO2 überwacht werden. In bestimmten Ausführungsformen können die Vitalbasisdaten 263 alle Daten umfassen, die von einer oder mehreren der in 1 dargestellten persönlichen Computervorrichtungen 101-109, wie der tragbaren Vorrichtung 106 und/oder der in 1 dargestellten mobilen Vorrichtung 104, überwacht, erzeugt und/oder empfangen werden. Wie vorstehend beschrieben, kann es sich bei der tragbaren Vorrichtung 106 beispielsweise um eine Smartwatch handeln, sie kann aber ebenso dazu verwendet werden, Vitalzeichen wie Herzfrequenz, Blutdruck und/oder andere gewünschte Vitalzeichendaten, die über das Betriebssystem der Vorrichtung verfügbar sind, zu verfolgen.
  • Wie vorstehend beschrieben, können die Vitalbasisdaten 263 von jedem der bekannten Benutzer erzeugt werden, der sich bei einem sprachbasierten Gesundheitserkennungssystem (oder ähnlichem) anmeldet und jeweils die Vitalzeichendaten der bekannten Benutzer für jedes der Vitalzeichen bestimmt, die von dem jeweiligen bekannten Benutzer verfolgt und ausgewählt werden. Die Vitalbasisdaten 263 können in Kombination mit anderen Datentypen innerhalb der bekannten Benutzerdaten 250 und mit den Schwellwertdaten 243 und den erfassten Daten 241 verwendet werden, sodass die Kombination dieser Daten und der einen oder mehreren Logiken der sprachbasierten Gesundheitserkennungsanwendung 220 dann alle vorbestimmten Vitalzeichen kontinuierlich überwachen und dem bekannten Benutzer eine Rückmeldung oder Alarmdaten 266 liefern kann, sobald eine Kombination von Parametern ihre vorbestimmten Schwellenwerte überschritten hat. Beispielsweise können die Vitalbasisdaten 263 ebenso alle Daten einschließen, die sich auf einen der vorbestimmten Schwellenwerte beziehen, wie die dynamischen Schwellenwerte, die statischen Schwellenwerte und so weiter. Zusätzlich können die Vitalbasisdaten 263 alle Daten einschließen, die sich auf die Stimmeigenschaften beziehen, die aus der Analyse der in den 2A-2B veranschaulichten Daten 241, Signaldaten 244, Stimmdaten 261 und Schlüsselwortdaten 267 extrahiert (oder abgeleitet) wurden.
  • Beispielsweise können die Vitalbasisdaten 263 alle Stimmeigenschaften einschließen, die von der Stimmeigenschaftenlogik 225 der 2A aus Audiosignalen extrahiert wurden, die von der Vitalüberwachungslogik 221 der 2A erfasst wurden, wobei jede Stimmeigenschaft, die in den Vitalbasisdaten 263 gespeichert ist, einem oder mehreren bestimmten überwachten Vitalzeichen des bekannten Benutzers entspricht. Die extrahierten Stimmeigenschaften können Stimmeigenschaften des bekannten Benutzers umfassen, wie Stimmneigung, Geschwindigkeit, Umfang, Gewichtung und Klangfarbe. In einigen Ausführungsformen kann die Vorrichtung 200 der 2A so konfiguriert sein, dass sie erkennt, ob die extrahierten Stimmeigenschaften ihre jeweiligen vorbestimmten Schwellenwerte überschreiten, wobei die Daten solcher Stimmeigenschaften und Schwellenwerte in den Vitalbasisdaten 263 gespeichert werden können.
  • In einer Reihe von Ausführungsformen können die persönlichen Informationsdaten 264 auch die Schlüsselwortdaten 267 umfassen. Die persönlichen Informationsdaten 264 können alle zusätzlichen persönlichen Daten umfassen, die erzeugt und jedem der bekannten Benutzer zugeordnet werden können. In einigen Ausführungsformen können die persönlichen Informationsdaten 263 relevante persönliche Konto- und Kontaktdaten wie Namen, Adressen, Telefonnummern, Alter, Metadaten zu externen Faktoren, zugeordnete persönliche Computervorrichtungen usw. umfassen. Beispielsweise können einige oder alle persönlichen Kontodaten mit dem bekannten Benutzer verknüpfte Daten sein, die genutzt werden können, um Einblick in die erfassten Sprachdaten 261, Vitalbasisdaten 263, bekannte Benutzerdaten 250 und/oder alle erfassten Daten 241 im Datenspeicher 240 der 2A zu erhalten. Die Benutzerdaten können beispielsweise anzeigen, dass ein Benutzer Geburtstag hat, und können dann verwendet werden, um bei der Verarbeitung seiner Sprachdaten 261 und anderer nachfolgender Daten weitere Erkenntnisse zu gewinnen (oder zumindest einen zusätzlichen Datenpunkt aufzuweisen). Die Metadaten des externen Faktors können alle zusätzlichen Daten einschließen, die sich auf das Ereignis und den physischen Ort beziehen, an dem die Daten erfasst wurden. Einige Beispiele für Metadaten zu externen Faktoren können mit der heuristischen Logik 229 und/oder dergleichen erfasst werden, wobei einige der Beispiele die Global Positioning System (GPS)-Koordinaten des Wohnorts des bekannten Benutzers einschließen können, den Ort, an dem die Messungen der Vitalzeichen vorgenommen wurden (z. B. während einer Aktivität im Freien, im Urlaub, bei der Arbeit usw.), die Uhrzeit, zu der sie vorgenommen wurden (z. B. spät in der Nacht oder früh am Morgen usw.), die Qualität der Aufzeichnung, die Dauer der Aufzeichnung usw.
  • Zusätzlich können die Schlüsselwortdaten 267, die in den persönlichen Informationsdaten 264 gespeichert sind, für jeden der bekannten Benutzer personalisiert werden. Die Schlüsselwortdaten 267 können beispielsweise alle Daten einschließen, die sich auf Wörter, Phrasen, Unterhaltungen und/oder Ähnliches beziehen, die mit einem bestimmten bekannten Benutzer verknüpft sind. Die sprachbasierte Gesundheitserkennungsvorrichtung 200 der 2A kann beispielsweise als Schlüsselwortspotter konfiguriert sein. Die Merkmale, die aus den dezimierten Audioproben extrahiert werden, sind ein oder mehrere Signale in einem Zeitbereich, einem Frequenzbereich oder sowohl im Zeit- als auch im Frequenzbereich, die für Schlüsselwörter und Stimmeigenschaften charakteristisch sind, können trainiert werden, um von einem oder mehreren neuronalen Netzen der sprachbasierten Gesundheitserkennungsvorrichtung 200 erkannt zu werden. Die Schlüsselwortdaten 267 können alle Daten einschließen, die sich auf benutzerdefinierte Schlüsselwörter beziehen, die aus jeder Art von Signalen identifiziert werden können, die der jeweilige Benutzer erkennen möchte. Bei den benutzerspezifischen Schlüsselwortdaten kann es sich beispielsweise um gesprochene Schlüsselwörter, bestimmte Stimmeigenschaften der gesprochenen Schlüsselwörter, nonverbale akustische Signale wie bestimmte Geräusche, Signale und so weiter handeln. In einem derartigen Beispiel kann der jeweilige Benutzer die benutzerspezifischen Schlüsselwortdaten in den Schlüsselwortdaten 267 erzeugt und gespeichert haben, sodass die sprachbasierte Gesundheitserkennungsvorrichtung 200 zusätzlich zu anderen Standardschlüsselwörtern, die bereits in den in 2A veranschaulichten Signaldaten 244 eingeschlossen und gespeichert sind, personalisierte Wörter, Phrasen usw. wie „Hallo“, „Guten Morgen“, „Ein“, „Aus“, „Heißer“ und „Kälter“ erkennen kann.
  • In einigen Ausführungsformen können die medizinischen Verlaufsdaten 265 alle Daten umfassen, die sich auf medizinische Informationen und erkannte medizinische Datenpunkte beziehen, die privat sind und jedem der jeweiligen bekannten Benutzer zugeordnet sind. Die medizinischen Verlaufsdaten 265 können alle persönlichen und/oder privaten Informationen einschließen, die für den bekannten Benutzer spezifisch sind, wie z. B. frühere medizinische Ereignisse wie Operationen, Sprachstörungen usw., aktuelle Medikamente, die der bekannte Benutzer einnimmt, und so weiter. In einigen Ausführungsformen können ein oder mehrere Datenpunkte aus den medizinischen Verlaufsdaten 265 während der Vitalverarbeitungslogik 226 verwendet werden, um die extrahierten Stimmeigenschaften anhand ihrer vorbestimmten Schwellenwerte zu bestimmen, z. B. ob der bestimmte bekannte Benutzer bereits eine bestehende Sprachbehinderung hat, die berücksichtigt werden muss, usw. Zusätzlich können die medizinischen Verlaufsdaten 265, wie vorstehend beschrieben, auf der sprachbasierten Gesundheitserkennungsvorrichtung 200 gespeichert werden, im Gegensatz zu den in 1 dargestellten Datenspeichern 140, 142, bei denen die medizinischen Verlaufsdaten 265 von allen besonderen privaten Daten abgetrennt werden können, die nicht übertragen werden dürfen und/oder über die in 2A dargestellte Datenschutzlogik 228 übertragen werden können. Die medizinischen Verlaufsdaten 265 können zum Beispiel mittels Blockchain-basierter Datenübertragung, Hash-basierter Datenübertragung, verschlüsselter Datenübertragung und/oder einer anderen ähnlich geschützten Datenübertragung übertragen werden.
  • In vielen Ausführungsformen können die Alarmdaten 266 alle Daten umfassen, die einem oder mehreren erzeugten und übertragenen Alarmen für jeden der bekannten Benutzer zugeordnet sind. Beispielsweise können die Alarmdaten 266 alle bekannten Benutzeralarme einschließen, die in Bezug auf die Feststellung erzeugt und übertragen wurden, dass die extrahierten Eigenschaften ihre jeweiligen vorbestimmten Schwellenwerte überschritten haben. In einigen Ausführungsformen können die gespeicherten Alarmdaten 266 mit der Alarmlogik 227 der 2A erzeugt werden, die so konfiguriert ist, dass sie Alarmdaten erzeugt, die mindestens einen oder mehrere bekannte Benutzeralarme und Betreueralarme als Reaktion auf die ausgelösten vorbestimmten Aktionsdaten 262 auslösen. Die bekannten Benutzeralarme können einen Frühwarnungsalarm, einen Warnalarm und einen Notfallalarm umfassen. Die Betreueralarme können einen Betreuerfrühwarnalarm, einen Betreuerwarnalarm und einen Betreuernotfallalarm umfassen. In vielen Ausführungsformen können die in den Alarmdaten 266 gespeicherten Benutzeralarme und Betreueralarme jede Art von Alarmbenachrichtigung umfassen, die zur frühzeitigen Erkennung eines potenziellen schwerwiegenden Gesundheitsproblems, das dem jeweiligen Benutzer zugeordnet ist, verwendet werden kann.
  • Der Fachmann wird verstehen, dass die hierin in Bezug auf die 2A-2B veranschaulichten bekannten Benutzerdaten 250 nur eine einzige Darstellung möglicher bekannter Benutzerdaten sind. Verschiedene Ausführungsformen können beispielsweise aufweisen, dass bekannte Benutzerdaten 250 zusammengeführt werden, sodass alle Sprachdaten 261 zusammen gespeichert werden, alle vorbestimmten Aktionsdaten 262 für alle bekannten Benutzereinträge zusammen gespeichert werden, usw. Des Weiteren können auch andere Verfahren zur Speicherung der bekannten Benutzerdaten 250 ohne Einschränkung verwendet werden, sodass die bekannten Benutzerdaten 250 extern gespeichert werden können, während andere Aspekte lokal gespeichert werden. Beispielsweise können die bekannten Benutzerdaten 250 die Sprachdaten 261 extern speichern, während die anderen Datentypen 262-266 lokal gespeichert werden können, um zu vermeiden, dass private Daten wie die medizinischen Verlaufsdaten 265 und die persönlichen Informationsdaten 264 preisgegeben werden.
  • 3 veranschaulicht ein detailliertes Blockdiagramm eines sprachbasierten Gesundheitserkennungssystems 120, das in Übereinstimmung mit der Offenbarung in einem sprachbasierten Gesundheitserkennungssystem 300 verwendet wird. Das in 3 abgebildete sprachbasierte Gesundheitserkennungssystem 300 kann dem in 1 abgebildeten sprachbasierten Gesundheitserkennungssystem 100 ähnlich sein. Zusätzlich kann der in 3 veranschaulichte sprachbasierte Gesundheitserkennungsserver 120 dem in 1 veranschaulichten sprachbasierten Gesundheitserkennungsserver 120 im Wesentlichen ähnlich sein.
  • Das sprachbasierte Gesundheitserkennungssystem 300 veranschaulicht ein beispielhaftes System zur Spracherkennung und zur Erkennung von Eigenschaften der Stimme unter Verwendung des sprachbasierten Gesundheitserkennungsservers 120. Wie in 3 gezeigt, kann der sprachbasierte Gesundheitserkennungsserver 120 in vielen Ausführungsformen so konfiguriert sein, dass er Audioeingangsproben 322 an ein oder mehrere neuronale Netzwerke 324 bereitstellt, die jeweils die bereitgestellten Audioeingangsproben 322 verarbeiten können, um die Signalausgangsdaten 326 zu erzeugen. Der Aufbau und die Verwendung der neuronalen Netzwerke auf diese Weise wird in der gemeinsam angemeldeten US-Patentanmeldung 16/701,860 , eingereicht am 3. Dezember 2019, näher beschrieben, die dem gemeinsamen Rechtsnachfolger zugewiesen ist und deren Offenbarung hierin in vollem Umfang enthalten ist.
  • In einigen Ausführungsformen kann das sprachbasierte Gesundheitserkennungssystem 300 einen Benutzer 302, eine mobile Vorrichtung 104, ein Netzwerk 110, den sprachbasierten Gesundheitserkennungsserver 120 und einen Betreuer-Server 130 umfassen. Die mobile Vorrichtung 104, das Netzwerk 110, der sprachbasierte Gesundheitserkennungsserver 120 und der Betreuungsserver 130 in 3 können der in 1 veranschaulichten mobilen Vorrichtung 104, dem Netzwerk 110, dem sprachbasierten Gesundheitserkennungsserver 120 und dem Betreuungsserver 130 im Wesentlichen ähnlich sein. In einigen Ausführungsformen kann der Benutzer 302 ein bekannter Benutzer sein, der die mobile Vorrichtung 104 benutzt, wobei die mobile Vorrichtung 104 jede Art von hierin beschriebener Vorrichtung sein kann.
  • In vielen Ausführungsformen kann das sprachbasierte Gesundheitserkennungssystem 300 den sprachbasierten Gesundheitserkennungsserver 120 verwenden, um Audiodaten 304 zu empfangen, die von der mobilen Vorrichtung 104 erfasst wurden. Der sprachbasierte Gesundheitserkennungsserver 120 kann so konfiguriert sein, dass er die Audiodaten 304 verarbeitet, um ein oder mehrere Audioeingangssamples 322 zu erkennen (oder zu identifizieren, zu erzeugen usw.), die einem neuronalen Netzwerk 324, wie einem digitalen neuronalen Netzwerk oder dergleichen, bereitgestellt werden. Zusätzlich kann der sprachbasierte Gesundheitserkennungsserver 120 so konfiguriert sein, dass er Signalausgangsdaten 326 verwendet, die von dem neuronalen Netzwerk 324 erzeugt werden können. Ebenso kann der sprachbasierte Gesundheitserkennungsserver 120 so konfiguriert sein, dass er bei Bedarf als Reaktion auf die empfangenen Audiodaten 304 Alarmdaten 306 auf der Basis der erzeugten Signalausgangsdaten 326 erzeugt. Zusätzlich kann der sprachbasierte Gesundheitserkennungsserver 120 verwendet werden, um Daten im Zusammenhang mit den erzeugten Alarmdaten 306 an den Betreuerserver 130 zu übertragen.
  • In einigen Implementierungen kann der sprachbasierte Gesundheitserkennungsserver 120 einen Satz von Audio-Eingangsproben 322 empfangen. Der Server kann Daten empfangen, die eine Zeit-Frequenz-Darstellung basierend auf einer Reihe von Audio-Eingangsproben 322 anzeigen. Das Computersystem 320 kann die Zeit-Frequenz-Darstellung, die auf einem Satz von Audio-Eingangs-/Wellenform-Proben basiert, als Eingabe für ein neuronales Netzwerk bereitstellen. Das Computersystem 320 kann ein oder mehrere von dem Benutzer 302 gesprochene Schlüsselwörter identifizieren und die identifizierten Schlüsselwörter als Audio-Eingangsproben 322 an das neuronale Netzwerk 324 weitergeben.
  • In dem veranschaulichten Beispiel kann der Benutzer 302 der mobilen Vorrichtung 104 Wörter sprechen und die mobile Vorrichtung 104 kann jeweils Mehrkanal-Audio aufnehmen, das die Sprache (d. h. die gesprochenen Wörter) einschließt. Die mobile Vorrichtung 104 kann das aufgezeichnete Audiodatensignal312 über das Netzwerk 110 an den sprachbasierten Gesundheitserkennungsserver 120 übertragen. Der sprachbasierte Gesundheitserkennungsserver 120 kann die Audiodaten 304 empfangen, um ein oder mehrere Audio-Eingangsproben 322 zu erhalten. Beispielsweise kann der sprachbasierte Gesundheitserkennungsserver 120 eine Reihe von Audio-Eingangsproben (oder Wellenformproben) 322 aus den Audiodaten 304 identifizieren, die innerhalb eines Zeitfensters des Audiodatensignals 304 auftreten können. Der sprachbasierte Gesundheitserkennungsserver 120 kann die Audiowellenform-Proben 322 an das neuronale Netzwerk 324 bereitstellen.
  • Das neuronale Netzwerk 324 kann so konfiguriert und trainiert werden, dass es als akustisches Modell fungiert. Beispielsweise kann das neuronale Netzwerk 324 eine oder mehrere Wahrscheinlichkeiten anzeigen, die als Zeit-Frequenz-Eigenschaftsrepräsentationen implementiert werden können, die verschiedenen Spracheinheiten entsprechen, wobei die Zeit-Frequenz-Eigenschaftsrepräsentationen auf der Basis der Audio-Eingangsproben 322 ausgegeben werden können. In einigen Ausführungsformen kann das neuronale Netzwerk 324 so konfiguriert sein, dass es Schlüsselwörter aus den empfangenen Audiodaten identifiziert und Stimmeigenschaften aus den identifizierten Schlüsselwörtern extrahiert. Die extrahierten Stimmeigenschaften können Stimmmerkmale des Benutzers umfassen, wie Stimmneigung, Geschwindigkeit, Umfang, Gewichtung und Klangfarbe. Das neuronale Netzwerk 324 kann ebenso konfiguriert sein, um zu erkennen, ob die extrahierten Stimmeigenschaften einen vorbestimmten Schwellenwert überschreiten und die Signalausgabedaten 326 mit den erkannten extrahierten Eigenschaften, die ihren vorbestimmten Schwellenwert überschritten haben, bereitzustellen. Der sprachbasierte Gesundheitserkennungsserver 120 kann daher die vom neuronalen Netzwerk 324 bereitgestellten Signalausgabedaten 326 verwenden, um Frühwarnungsalarmdaten 306 für potenzielle Gesundheitsprobleme an die mobile Vorrichtung 104 des Benutzers 302 zu senden, wenn die erkannten stimmlichen Eigenschaften den vorbestimmten Schwellenwert überschreiten.
  • Unter Bezugnahme auf 4 wird nun ein beispielhaftes Flussdiagramm eines sprachbasierten Gesundheitserkennungsprozesses 400 zur Erzeugung bekannter Benutzerdaten in Übereinstimmung mit Ausführungsformen der Offenbarung gezeigt. Der Prozess 400 kann als Flussdiagramm veranschaulicht werden, das dazu dient, ein sprachbasiertes Gesundheitserkennungssystem zu personalisieren und zu aktualisieren, indem bekannte Benutzerdaten erzeugt werden, die einem bekannten Benutzer zum Ausführen gewünschter benutzerspezifischer Funktionen zur Verfügung gestellt werden können. Der Prozess 400 kann mit einer oder mehreren Computervorrichtungen und/oder Systemen implementiert werden, einschließlich, aber nicht beschränkt auf das in 1 veranschaulichte sprachbasierte Gesundheitserkennungssystem 100, die in 2A dargestellte sprachbasierte Gesundheitserkennungsvorrichtung 200, das in 3 dargestellte sprachbasierte Gesundheitserkennungssystem 300 und/oder den in den 1 und 3 dargestellten sprachbasierten Gesundheitserkennungsserver 120. Zusätzlich kann der Prozess 400, wie vorstehend in verschiedenen Ausführungsformen beschrieben, mit Hilfe einer oder mehrerer webbasierter Anwendungen und/oder einer anderen geeigneten Softwareanwendung implementiert werden. In einigen Ausführungsformen kann die Anwendung(en) als cloudbasierte Anwendung implementiert und/oder als eigenständige Softwareanwendung verteilt werden, je nach Wunsch und ohne Einschränkungen.
  • Bei Block 410 kann der Prozess 400 mit der Eingabe von benutzerdefinierten Schlüsselwortdaten eines Benutzers beginnen. Die eingegebenen benutzerspezifischen Schlüsselwortdaten ermöglichen es dem Benutzer oder einem Kunden, beliebige Zielsignale in die Anwendung einzugeben. Bei den benutzerdefinierten Schlüsselwortdaten kann es sich um jede Art von Signalen (oder Zielsignalen) handeln, die der Benutzer erkennen möchte. Bei den benutzerspezifischen Schlüsselwortdaten kann es sich beispielsweise um gesprochene Schlüsselwörter, nonverbale akustische Signale wie bestimmte Geräusche, Bildtypen usw. handeln, die von einem oder mehreren Sensoren wie den in 1 dargestellten persönlichen Computervorrichtungen 101-109 und/oder dergleichen erfasst werden. In einer beispielhaften Ausführungsform kann der Benutzer die gewünschten Schlüsselwörter eingeben, und die Sensoren können die personalisierten Schlüsselwörter erkennen, wie etwa, als nicht einschränkendes Beispiel, „Ein“, „Aus“, „Wärmer“ und „Kälter“, zusätzlich zu allen anderen Standardschlüsselwörtern, die bereits in einem Schlüsselwortdatenspeicher eingeschlossen sind.
  • Bei Block 420 kann der Prozess 400 Vitalbasisdaten für die von dem Benutzer angegebenen Schlüsselwortdaten erzeugen. Die erzeugten Vitalbasisdaten können eine oder mehrere Stimmeigenschaften und Basisdaten einschließen, die sich auf die von dem Benutzer angegebenen Schlüsselwörter beziehen. Wie hierin beschrieben, kann der Benutzer nach Eingabe der gewünschten Schlüsselwörter ebenso die eine oder mehrere Stimmeigenschaften und die Basisdaten basierend auf den eingegebenen Schlüsselwörtern festlegen. Eine sprachbasierte Gesundheitserkennungsvorrichtung kann beispielsweise verwendet werden, um die zeitlichen Veränderungen der von dem Benutzer gesprochenen Schlüsselwörter kontinuierlich zu überwachen und zu erkennen. Dies ermöglicht es der Vorrichtung, eine oder mehrere vorbestimmte Stimmeigenschaften der gesprochenen Schlüsselwörter zu extrahieren, um beispielsweise Trends und Schwellenmesswerte der extrahierten Eigenschaften im Laufe der Zeit zu ermitteln und zu bestimmen. Die extrahierten Stimmeigenschaften können eine oder mehrere Stimmeigenschaften einschließen, die aus Audiodaten (oder Audiosignalen, Samples usw.) extrahiert wurden, die für den Benutzer spezifisch sind, einschließlich, aber nicht beschränkt auf, Stimmneigung, Stimmgeschwindigkeit, Stimmumfang, Stimmgewichtung, Stimmklangfarbe usw. Als solche können alle vorher festgelegten Stimmveränderungen der extrahierten Eigenschaften auf der Basis der Vitalbasisdaten verwendet werden, um dem Benutzer und/oder einem Betreuer des Benutzers frühzeitige Gesundheitswarnsignale zu geben. Beispielsweise kann der Prozess 400 es dem Benutzer erlauben, sich bei der vorstehend erwähnten Anwendung anzumelden und die entsprechenden Eigenschaften und Vitalbasisdaten in Bezug auf die eingegebenen Schlüsselwörter zu erstellen. In vielen Ausführungsformen können die extrahierten Eigenschaften anhand der erzeugten Basisdaten überprüft (oder verifiziert) werden. In vielen Ausführungsformen können die extrahierten Stimmeigenschaften dann analysiert werden, um zu bestimmen, ob eine der extrahierten Stimmeigenschaften einen oder mehrere vorbestimmte Schwellenwerte überschritten hat. Wie vorstehend beschrieben, können die Vitalbasisdaten die Daten aller extrahierten stimmlichen Eigenschaften einschließen, die im Laufe der Zeit ermittelt wurden. Diese Daten werden verwendet, um Trends und Schwellenwerte der extrahierten stimmlichen Eigenschaften zu ermitteln und so ein oder mehrere Vitalzeichen des Benutzers zu verfolgen. In vielen Ausführungsformen können die Vitalbasisdaten des Benutzers einen oder mehrere Schwellenwerte einschließen, die den extrahierten Eigenschaften zugeordnet sind, die den überwachten Vitalzeichen entsprechen. Beispielsweise kann ein erster vorbestimmter Schwellenwert einen Bereich von minimalen und maximalen Datenwerten für ein Vitalzeichen einschließen, das für einen Benutzer überwacht wird, wobei ein bestimmter Datenwert für eine extrahierte Stimmeigenschaft des Benutzers erzeugt werden kann und typischerweise in diesen Schwellenwert fällt, wenn der Benutzer gesund ist.
  • Umgekehrt können in anderen Ausführungsformen, wenn das eine oder die mehreren extrahierten Stimmeigenschaften ihre jeweiligen vorbestimmten Schwellenwerte überschritten haben, ein oder mehrere Frühzeichen-Gesundheitsalarm-Datensignale erzeugt und an den Benutzer übertragen werden, und/oder die extrahierten Stimmeigenschaften können weiterverarbeitet werden, um eine oder mehrere nachfolgende Einwirkungen zu bestimmen (z. B. das Frühzeichen-Gesundheitsalarm-Signal erzeugen und an einen primären Betreuer des Benutzers übertragen). Das Frühzeichen-Gesundheitsalarm-Datensignal kann dem Benutzer eine Frühwarnung über ein potenzielles schwerwiegendes Gesundheitsproblem geben und ihn zu einer weiteren Diagnose des potenziellen schwerwiegenden Gesundheitsproblems auffordern, wobei das potenzielle schwerwiegende Gesundheitsproblem einem oder mehreren der Vitalzeichen entspricht, die für den Benutzer auf der Basis der erzeugten Vitalbasisdaten überwacht werden.
  • Bei Block 430 kann der Prozess 400 Signaldaten aus einem dem Benutzer zugeordneten Datenspeicher abrufen. Die Signaldaten können aus Standardschlüsselwörtern oder dergleichen bestehen, die erkannt werden können. Bei Block 440 kann der Prozess 400 einen modifizierten Datenspeicher basierend auf der Kombination von benutzerspezifizierten Schlüsselwortdaten und den Signaldaten aufbauen. In einigen Ausführungsformen können die benutzerspezifizierten Zielsignale mit geeigneten, entsprechenden Bezeichnungen gekennzeichnet sein, während alle anderen Signale mittels einer generischen Bezeichnung, wie beispielsweise „Andere“, identifiziert werden können. Danach kann der modifizierte Datenspeicher dann verwendet werden, um eine neuronale Netzwerkimplementierung zu trainieren. Bei Block 450 kann der Prozess 400 ein neuronales Netzwerk trainieren, das auf dem modifizierten Datenspeicher basiert, um sowohl die Kombination der vom Benutzer angegebenen Schlüsselwortdaten als auch die Signaldaten im modifizierten (oder aktualisierten) Datenspeicher zu erkennen. Es ist denkbar, dass die Implementierung des neuronalen Netzwerks ein Softwaremodell eines neuronalen Netzwerks ist, wie das in 3 veranschaulichte neuronale Netzwerk 324. Bei Block 460 kann der Prozess 400 bekannte Benutzerdaten erzeugen, um die Implementierung des neuronalen Netzwerks zu trainieren. Beispielsweise können die erzeugten bekannten Benutzerdaten von einer sprachbasierten Gesundheitserkennungsvorrichtung verwendet werden, um die vom Benutzer angegebenen Schlüsselwörter in dem modifizierten Datenspeicher zu erkennen.
  • Bei Block 470 kann der Prozess 400 optional die erzeugten bekannten Benutzerdaten in ein Dateiformat übersetzen, das für die Speicherung in einem Speicher einer persönlichen Computervorrichtung oder einer anderen Vorrichtung geeignet ist. Der Speicher kann beispielsweise ähnlich wie der in 2A veranschaulichte Datenspeicher 240 sein. In einigen Ausführungsformen kann eine Programmierdatei, die die erzeugten bekannten Benutzerdaten umfasst, einem Endbenutzer beim Kauf der Vorrichtung bereitgestellt werden. In einigen Ausführungsformen kann die Datei in eine oder mehrere integrierte Schaltungen und/oder Logiken programmiert werden, die vom Endbenutzer erworben werden können. Wenn der Endbenutzer die Datei, die die erzeugten bekannten Benutzerdaten umfasst, in die Vorrichtung installiert, entweder mittels der vorstehend erwähnten Programmierdatei, Schaltungen und/oder Logiken, kann die Vorrichtung die eingegebenen benutzerspezifischen Schlüsselwörter in dem modifizierten Datenspeicher erkennen. Wie der Fachmann weiß, wird das Training oder die Implementierung des neuronalen Netzwerks außerhalb der Vorrichtung durchgeführt und die daraus resultierenden bekannten Benutzerdaten werden im Speicher abgelegt, sodass die Vorrichtung die Audiosignale auch im Offline-Zustand (d.h. in Abwesenheit einer Cloud oder einer anderen Netzwerkverbindung) überwachen kann.
  • Nun Bezug nehmend auf 5 ist ein beispielhaftes Flussdiagramm eines sprachbasierten Gesundheitserkennungsprozesses 500 gemäß Ausführungsformen der Offenbarung gezeigt. Der Prozess 500 kann als Flussdiagramm veranschaulicht werden, um Alarmdaten zur Früherkennung von Gesundheitsproblemen bekannter Benutzer zu erzeugen. Der Prozess 500 kann mit einer oder mehreren Computervorrichtungen und/oder Systemen implementiert werden, einschließlich, aber nicht beschränkt auf das in 1 veranschaulichte sprachbasierte Gesundheitserkennungssystem 100, die in 2A dargestellte sprachbasierte Gesundheitserkennungsvorrichtung 200, das in 3 dargestellte sprachbasierte Gesundheitserkennungssystem 300 und/oder den in den 1 und 3 dargestellten sprachbasierten Gesundheitserkennungsserver 120. Zusätzlich kann der Prozess 500, wie vorstehend in verschiedenen Ausführungsformen beschrieben, mit Hilfe einer oder mehrerer webbasierter Anwendungen und/oder einer anderen geeigneten Softwareanwendung implementiert werden. In einigen Ausführungsformen kann die Anwendung(en) als cloudbasierte Anwendung implementiert und/oder als eigenständige Softwareanwendung verteilt werden, je nach Wunsch und ohne Einschränkungen.
  • Bei Block 510 kann der Prozess 500 Audiosignaldaten empfangen. Beispielsweise können die empfangenen Audiosignaldaten in Form von rohen analogen Audiosignalen, digitalen Signaldaten und Mustern, die bestimmte Geräusche oder ähnliches darstellen, und/oder jedem anderen erkennbaren Signaleingang bereitgestellt werden, die von einem oder mehreren Sensoren wie den in 1 dargestellten persönlichen Computervorrichtungen 101-109 erfasst werden. Die empfangenen Audiosignaldaten können von einer sprachbasierten Gesundheitserkennungsvorrichtung erfasst oder aus der Ferne erfasst und an die sprachbasierte Gesundheitserkennungsvorrichtung zur Verarbeitung übertragen werden. Bei Block 520 kann der Prozess 500 ein oder mehrere Schlüsselwörter in den empfangenen Audiosignaldaten identifizieren (oder erkennen).
  • Beispielsweise kann die sprachbasierte Gesundheitserkennungsvorrichtung die vorbestimmten Schlüsselwörter in den empfangenen Audiosignaldaten erkennen. In vielen Ausführungsformen werden die identifizierten Schlüsselwörter von Geräuschen, Stimmen oder ähnlichem empfangen, die in der Nähe der Vorrichtung aufgenommen wurden.
  • Bei Block 530 kann der Prozess 500 Stimmeigenschaften aus den identifizierten Schlüsselwörtern extrahieren. Die extrahierten Stimmeigenschaften werden dann verarbeitet und mit den Vitalbasisdaten abgeglichen, die dem bekannten Benutzer zugeordnet sind. Die extrahierten stimmlichen Eigenschaften können insbesondere mit den identifizierten Schlüsselwörtern übereinstimmen. Die extrahierten stimmlichen Eigenschaften können eine oder mehrere stimmliche Eigenschaften einschließen, die von dem bekannten Benutzer erzeugt und aus den identifizierten Schlüsselwörtern extrahiert wurden, einschließlich, aber nicht beschränkt auf die Stimmlage, die Stimmgeschwindigkeit, den Stimmumfang, die Stimmgewichtung, die Stimmklangfarbe und/oder dergleichen. Bei Block 540 kann der Prozess 500 eine oder mehrere Änderungen an den extrahierten Stimmeigenschaften verarbeiten. Beispielsweise können die verarbeiteten Stimmeigenschaften mit den bekannten Benutzerdaten verglichen werden, die einem bestimmten bekannten Benutzer zugeordnet sind. Zusätzlich können die verarbeiteten Stimmeigenschaften mit den Vitalbasisdaten verglichen werden, die dem bekannten Benutzer zugeordnet sind. Durch Abschluss dieser Auswertung können die verarbeiteten Stimmeigenschaften des bekannten Benutzers die Identifizierung einer oder mehrerer Veränderungen zulassen, die für den bekannten Benutzer spezifisch sein können. Bei dieser Bewertung im Vergleich zu einer Grundlage, die für den bekannten Benutzer spezifisch ist, können bereits vorhandene Eigenschaften berücksichtigt werden, wie etwa, aber nicht beschränkt auf, eine Sprachbehinderung, lokale Sprachdialekte und/oder Akzente.
  • Bei Block 550 kann der Prozess 500 bestimmen, ob die extrahierte(n) Eigenschaft(en) einen vorbestimmten Schwellenwert überschritten haben. Wenn die extrahierten Stimmeigenschaften ihre jeweiligen vorbestimmten Schwellenwerte nicht überschritten haben, kann der Prozess 500 zurück zu Block 510 gehen. Die extrahierten Eigenschaften werden dann beispielsweise analysiert, um zu bestimmen, ob eine der extrahierten Stimmeigenschaften ihre jeweiligen vorbestimmten Schwellenwerte überschritten hat, wobei ebenso ein oder mehrere externe Faktoren angenommen werden, die sich auf die vorbestimmten Schwellenwerte und/oder die verarbeiteten Stimmeigenschaften auswirken können (z. B. kann die in 2A veranschaulichte heuristische Logik 229 verwendet werden, wenn derartige externe Faktoren berücksichtigt werden). Zusätzlich kann, wie vorstehend beschrieben, der vorbestimmte Schwellenwert mindestens einen oder mehrere dynamische/statische vorbestimmte Schwellenwerte umfassen. Der vorbestimmte Schwellenwert kann beispielsweise einen statischen vorbestimmten Schwellenwert umfassen, der basierend auf den Vitalbasisdaten des bekannten Benutzers erzeugt werden kann. In einigen Ausführungsformen kann der statische vorbestimmte Schwellenwert einen statischen Bereich von minimalen und maximalen Datenwerten umfassen, die den Vitalbasisdaten des bekannten Benutzers zugeordnet sind. Das bedeutet, dass der statische vorbestimmte Schwellenwert einen minimalen Datenwert und einen maximalen Datenwert für ein Vitalzeichen aufweisen kann, wobei sowohl der minimale als auch der maximale Datenwert für das eine Vitalzeichen festgelegt sind, nicht verändert werden können und/oder keine anderen externen Faktoren berücksichtigen.
  • In weiteren Ausführungsformen kann der vorbestimmte Schwellenwert einen dynamischen Schwellenwert umfassen. Der dynamische Schwellenwert kann basierend auf einer Vielzahl von sich ändernden Faktoren erzeugt werden, einschließlich, aber nicht beschränkt auf die Vitalbasisdaten des bekannten Benutzers. Darüber hinaus kann der dynamische Schwellenwert einen dynamischen Bereich minimaler und maximaler Datenwerte umfassen, die den Vitalbasisdaten des bekannten Benutzers zugeordnet sind. Der dynamische Schwellenwert kann beispielsweise in Verbindung mit einer Vitalverarbeitungslogik (z. B. der Vitalverarbeitungslogik 226 in 2A) erzeugt werden, die so konfiguriert sein kann, dass sie den dynamischen Bereich der minimalen und maximalen Datenwerte dynamisch anpasst, basierend auf einem oder mehreren externen Faktoren, die von einer heuristischen Logik (z. B. der heuristischen Logik 229 in 2A) erfasst werden. In einigen Ausführungsformen kann der eine oder die mehreren erfassten externen Faktoren mindestens einen oder mehrere von geografischen Orten, Zeit, Datum, Echtzeitaktivitäten, physischen Orten, Umgebungstemperaturen und/oder überwachten Temperaturen umfassen. An einem heißen Tag zum Beispiel kann der dynamische vorbestimmte Schwellenwert die jeweiligen minimalen und maximalen Datenwerte für die überwachten Vitalzeichen, die der Temperatur des bekannten Benutzers zugeordnet sind, dynamisch anpassen. Es ist denkbar, dass eine Vielzahl von dynamischen Schwellenwerten basierend auf einer beliebigen Anzahl von externen Faktoren konfiguriert werden kann.
  • Dementsprechend kann der Prozess 500 bei Block 560, wenn die extrahierten Stimmeigenschaften ihre jeweiligen Schwellenwerte überschritten haben, Alarmdaten in Bezug auf die extrahierten Stimmeigenschaften erzeugen, die ihre vorbestimmten Schwellenwerte überschritten haben. Die erzeugten Alarmdaten können beispielsweise als Datenbefehl, als Funktionsaufruf, als damit verbundene vorbestimmte Einwirkung, als Spannungsänderung innerhalb der Vorrichtung und/oder dergleichen konfiguriert sein. Bei Block 570 kann der Prozess 500 die erzeugten Alarmdaten an eine oder mehrere Vorrichtungen übertragen. Zusätzlich können die übertragenen Alarmdaten als Reaktion auf die erzeugten Alarmdaten vorbestimmte Aktionsdaten auslösen, die dem bekannten Benutzer zugeordnet sind, was mindestens einen oder mehrere bekannte Benutzeralarme und/oder Betreueralarme auslösen kann. Beispielsweise können die bekannten Benutzeralarme einen Frühwarnungsalarm, einen Warnalarm und einen Notfallalarm umfassen, während die Betreueralarme einen Betreuerfrühwarnungsalarm, einen Betreuerwarnalarm und einen Betreuernotfallalarm umfassen können. Schließlich kann der Prozess 500 so konfiguriert sein, dass er als Reaktion auf die erzeugten und übertragenen Alarmdaten einen der Benutzeralarme an eine persönliche Computervorrichtung des bekannten Benutzers und/oder einen der Betreueralarme an einen dem bekannten Benutzer zugeordneten Betreuer-Server überträgt, wobei sowohl die Benutzeralarme als auch die Betreueralarme eine Alarmbenachrichtigung über eine frühzeitige Erkennung eines potenziellen schweren Gesundheitsproblems umfassen, das dem bekannten Benutzer zugeordnet ist.
  • Nun Bezug nehmend auf 6A ist ein beispielhaftes Flussdiagramm eines immer eingeschalteten sprachbasierten Gesundheitserkennungsprozesses 600 gemäß Ausführungsformen der Offenbarung gezeigt. Der Prozess 600 kann als Flussdiagramm veranschaulicht werden, das verwendet wird, um Daten auf der Vorrichtung des bekannten Benutzers zu überwachen und Alarmdaten zur Früherkennung von Gesundheitsproblemen bekannter Benutzer zu erzeugen. Der Prozess 600 kann mit einer oder mehreren Computervorrichtungen und/oder Systemen implementiert werden, einschließlich, aber nicht beschränkt auf das in 1 veranschaulichte sprachbasierte Gesundheitserkennungssystem 100, die in 2A dargestellte sprachbasierte Gesundheitserkennungsvorrichtung 200, das in 3 dargestellte sprachbasierte Gesundheitserkennungssystem 300 und/oder den in den 1 und 3 dargestellten sprachbasierten Gesundheitserkennungsserver 120. Zusätzlich kann der Prozess 600, wie vorstehend in verschiedenen Ausführungsformen beschrieben, mit Hilfe einer oder mehrerer webbasierter Anwendungen und/oder einer anderen geeigneten Softwareanwendung implementiert werden. In einigen Ausführungsformen kann die Anwendung(en) teilweise oder ganz als cloudbasierte Anwendung implementiert und/oder als eigenständige Softwareanwendung verteilt werden, je nach Wunsch und ohne Einschränkungen.
  • In Block 610 kann der Prozess 600 in einen Hörmodus mit geringem Stromverbrauch und ständiger Überwachung übergehen. In vielen Ausführungsformen kann der Prozess 600 mit einer sprachbasierten Gesundheitserkennungsvorrichtung oder ähnlichem implementiert werden. Die sprachbasierte Gesundheitserkennungsvorrichtung kann zum Beispiel der in 2A veranschaulichten sprachbasierten Gesundheitserkennungsvorrichtung 200 ähnlich sein. In den folgenden Ausführungsformen kann die Vorrichtung verwendet werden, um in den Hörmodus überzugehen, der von einem Sensor (oder dergleichen) genutzt werden kann und sich in der Vorrichtung in einem stromsparenden, ständig eingeschalteten (oder stromverbrauchenden) Zustand befindet, sodass der Sensor jede Art von Audiodatensignalen mit geringer Latenz erkennen kann.
  • Bei Block 620 kann der Prozess 600 Audiodaten von einem oder mehreren Sensoren und/oder persönlichen Computervorrichtungen eines Benutzers empfangen. Beispielsweise kann die Vorrichtung ein oder mehrere Audiosignaleingänge in Form von analogen Rohaudiosignalen, digitalen Signaldaten und Mustern, die bestimmte Klänge oder ähnliches darstellen, und/oder andere erkennbare Signaleingänge empfangen, die von einer oder mehreren Audiodatenquellen, Sensoren und/oder ähnlichem erfasst werden. Die empfangenen Audiosignale können innerhalb der Vorrichtung erfasst werden oder aus der Ferne erfasst und an die Vorrichtung zur Verarbeitung übertragen werden. Bei Block 630 kann der Prozess 600 vorbestimmte Schlüsselwörter in den empfangenen Audiodaten erkennen. Beispielsweise kann die Vorrichtung ein oder mehrere vom Benutzer vorgegebene Schlüsselwörter in den empfangenen Audiodaten erkennen. Bei Block 640 kann der Prozess 600 die erkannten Schlüsselwörter gegen bekannte Benutzerdaten verarbeiten, die dem Benutzer zugeordnet sind. Beispielsweise können die übertragenen Schlüsselwörter gegen die bekannten Benutzerdaten verarbeitet werden, ähnlich den bekannten Benutzerdaten 250, die in den 2A-2B dargestellt sind. Beispielsweise werden in einigen Ausführungsformen das eine oder die mehreren erkannten Schlüsselwörter dann verarbeitet und mit den bekannten Benutzerdaten eines oder mehrerer bekannter Benutzer verglichen. Die bekannten Benutzerdaten können Daten umfassen, die dem einen oder mehreren bekannten Benutzern zugeordnet sind, die zur Verwendung der Vorrichtung vorautorisiert wurden. Zusätzlich zu den vorautorisierten bekannten Benutzern können die bekannten Benutzerdaten auch Schlüsselwörter, Eigenschaften und/oder andere gewünschte Daten auf der Basis der bekannten Benutzer einschließen, derartige Daten können mit dem einen oder mehreren Datentypen in den in 2B dargestellten bekannten Benutzerdaten 250 veranschaulicht werden. In einigen Ausführungsformen können die bekannten Benutzer durch die Verarbeitung der erkannten Schlüsselwörter bestimmt werden, da ein separates Erkennungsnetzwerk verwendet werden kann, um die Quellen der bekannten Benutzer zu bestimmen. Beispielsweise kann die Überprüfung der erkannten Schlüsselwörter gegen die bekannten Benutzer aufeinanderfolgend oder parallel zu Schritt 630 erfolgen.
  • Bei Block 650 kann der Prozess 600 die extrahierten Stimmeigenschaften mit den Basisdaten der bekannten Benutzer abgleichen. Die extrahierten Eigenschaften können dann beispielsweise verarbeitet und gegen die Vitalbasisdaten der bekannten Benutzerdaten verifiziert werden. Wie hierin beschrieben, können die extrahierten Stimmeigenschaften und die bekannten Vitalbasisdaten des Benutzers insbesondere mit den erkannten Schlüsselwörtern übereinstimmen. Bei Block 660 kann der Prozess 600 bestimmen, ob die verarbeiteten und extrahierten Stimmeigenschaften einen vorbestimmten Schwellenwert überschritten haben. Diese Bestimmung kann beispielsweise ähnlich sein wie die Bestimmung bei Block 550, die vorstehend in 5 veranschaulicht ist. Bei Block 670 kann der Prozess 600 Alarmdaten als Reaktion auf die extrahierten Stimmmerkmale erzeugen, die ihre vorbestimmten Schwellenwerte überschritten haben. Bei Block 680 kann der Prozess 600 die erzeugten Alarmdaten an eine oder mehrere persönliche Computervorrichtungen übertragen. Beispielsweise können die übertragenen Alarmdaten in einer erkennbaren Form übertragen werden, die von einem der persönlichen Computervorrichtungen 101-109 aus 1 empfangen werden kann. Bei Block 690 kann der Prozess 600 optional die erzeugten Alarmdaten an eine Betreuervorrichtung, Server und/oder System übertragen. Beispielsweise können die übertragenen Alarmdaten in einer erkennbaren Form übertragen werden, die von dem Betreuer-Server 130 der 1 empfangen werden kann. Die übertragenen Alarmdaten, die von dem Betreuer empfangen werden, können sie über eine frühzeitige Gesundheitserkennung eines möglichen schwerwiegenden Gesundheitsproblems, das dem Benutzer zugeordnet ist, warnen.
  • Unter Bezugnahme auf 6B wird in Übereinstimmung mit der Offenbarung ein beispielhaftes Flussdiagramm eines immer eingeschalteten sprachbasierten Gesundheitserkennungsprozesses 601 gezeigt, der eine externe Computervorrichtung verwendet. Der Prozess 601 kann als Flussdiagramm veranschaulicht werden, das verwendet wird, um Daten, die nicht auf der Vorrichtung sind, des bekannten Benutzers zu empfangen und Alarmdaten zur Früherkennung von Gesundheitsproblemen bekannter Benutzer zu erzeugen. Der in 6B veranschaulichte Prozess 601 kann dem in 6A veranschaulichten Prozess 600 ähnlich sein, mit der Ausnahme, dass jeder (und/oder die meisten) der veranschaulichten Schritte des Prozesses 601 in einem cloudbasierten Server und/oder ähnlichem implementiert werden kann. Der Prozess 601 kann mit einer oder mehreren Computervorrichtungen und/oder Systemen implementiert werden, einschließlich, aber nicht beschränkt auf das in 1 veranschaulichte sprachbasierte Gesundheitserkennungssystem 100, die in 2A dargestellte sprachbasierte Gesundheitserkennungsvorrichtung 200, das in 3 dargestellte sprachbasierte Gesundheitserkennungssystem 300 und/oder den in den 1 und 3 dargestellten sprachbasierten Gesundheitserkennungsserver 120. Zusätzlich kann der Prozess 601, wie vorstehend in verschiedenen Ausführungsformen beschrieben, mit Hilfe einer oder mehrerer webbasierter Anwendungen und/oder einer anderen geeigneten Softwareanwendung implementiert werden. In einigen Ausführungsformen kann die Anwendung(en) teilweise oder ganz als cloudbasierte Anwendung implementiert und/oder als eigenständige Softwareanwendung verteilt werden, je nach Wunsch und ohne Einschränkungen.
  • In Block 611 kann der Prozess 601 in einen Hörmodus mit geringem Stromverbrauch und ständiger Überwachung übergehen. Dieser eingegebene Hörmodus kann beispielsweise dem eingegebenen Hörmodus in Block 610 ähneln, der vorstehend in 6A veranschaulicht ist. Bei Block 621 kann der Prozess 601 Audiodaten empfangen, die von einem oder mehreren Sensoren und/oder persönlichen Computervorrichtungen übertragen wurden, die sich bei einem Benutzer befinden können. Bei Block 625 kann der Prozess 601 dann bestimmen, ob vorbestimmte Schlüsselwörter in den empfangenen Audiodaten erkannt wurden. Wenn keine vorbestimmten Schlüsselwörter erkannt werden, kann der Prozess 601 zu Block 611 zurückkehren. Umgekehrt kann der Prozess 601, wenn vorbestimmte Schlüsselwörter erkannt werden, zum Block 631 übergehen und die erkannten Schlüsselwörter in den empfangenen Audiodaten verarbeiten. Es versteht sich, dass die vorherigen Blöcke den entsprechenden Blöcken, die vorstehend in 6A veranschaulicht sind, ähnlich sein können.
  • Bei Block 641 kann der Prozess 601 die verarbeiteten Schlüsselwörter an eine oder mehrere externe Vorrichtungen übertragen. Wie vorstehend beschrieben, können die externen Computervorrichtungen als cloudbasierte Vorrichtung, Server, System und/oder ähnliches implementiert werden. Beispielsweise können die cloudbasierten externen Computervorrichtungen so konfiguriert sein, dass sie erkannte Schlüsselwörter von den einen Sensoren und/oder persönlichen Computervorrichtungen empfangen. Bei Block 651 kann der Prozess 601 die übertragenen Schlüsselwörter mit bekannten Benutzerdaten abgleichen. Beispielsweise können die übertragenen Schlüsselwörter gegen die bekannten Benutzerdaten verarbeitet werden, ähnlich den bekannten Benutzerdaten 250, die in den 2A-2B dargestellt sind. Bei Block 661 kann der Prozess 601 die extrahierten Eigenschaften gegen Basisdaten der bekannten Benutzer verarbeiten. Bei Block 665 kann der Prozess 601 bestimmen, ob extrahierte Eigenschaften einen vorbestimmten Schwellenwert überschritten haben. Wenn die extrahierten Stimmeigenschaften ihre jeweiligen vorbestimmten Schwellenwerte nicht überschritten haben, kann der Prozess 601 fortfahren, um den Prozess zu beenden. Umgekehrt, wenn die extrahierten Stimmeigenschaften ihre jeweiligen vorbestimmten Schwellenwerte überschritten haben, kann der Prozess 601 zu Block 671 übergehen und Alarmdaten in Bezug auf die überschrittenen extrahierten Eigenschaften erzeugen. Es versteht sich, dass die vorherigen Blöcke den entsprechenden Blöcken, die vorstehend in 6A veranschaulicht sind, ähnlich sein können.
  • Bei Block 681 kann der Prozess 601 erzeugte Alarmdaten an die persönliche Computervorrichtung übertragen. Beispielsweise kann die cloudbasierte Vorrichtung (oder ein Dienst, eine Anwendung usw.) die erzeugten Alarmdaten an eine persönliche Computervorrichtung übertragen, die dem Benutzer zugeordnet ist. Bei Block 685 kann der Prozess 601 vorbestimmte Aktionen basierend auf übertragenen Alarmdaten verarbeiten. Beispielsweise können die verarbeiteten vorbestimmten Aktionen das Erzeugen von Alarmbenachrichtigungen und/oder das Auslösen anderer gewünschter Aktionen einschließen, die dem Benutzer zugeordnet sind. Bei Block 691 kann der Prozess 601 die verarbeiteten Alarmdaten an einen Betreuer übertragen. Es versteht sich, dass dieser Block dem entsprechenden Block(Blöcken), der vorstehend in 6A veranschaulicht ist, ähnlich sein kann.
  • Die hierin gezeigten und detailliert beschriebenen Informationen sind in vollem Umfang geeignet, das vorstehend beschriebene Ziel(e) der vorliegenden Offenbarung und die gegenwärtig bevorzugte Ausführungsform der vorliegenden Offenbarung zu erreichen, und stellen somit den Gegenstand dar, der im Rahmen der vorliegenden Offenbarung im weitesten Sinne in Betracht gezogen wird. Der Umfang der vorliegenden Offenbarung umfasst auch andere Ausführungsformen, die dem Fachmann ersichtlich sein könnten, und wird dementsprechend durch nichts anderes als die beigefügten Ansprüche eingeschränkt. Jede Bezugnahme auf ein Element in der Einzahl soll nicht „ein und nur ein“ bedeuten, es sei denn, dies ist ausdrücklich so angegeben, sondern vielmehr „ein oder mehrere“. Alle strukturellen und funktionellen Äquivalente zu den Elementen der vorstehend beschriebenen bevorzugten Ausführungsform und der zusätzlichen Ausführungsformen, die vom Fachmann als gleichwertig angesehen werden, werden hiermit ausdrücklich durch Bezugnahme aufgenommen und sollen von den vorliegenden Ansprüchen umfasst werden.
  • Darüber hinaus ist es nicht erforderlich, dass ein System oder Verfahren jedes einzelne Problem behandelt, das durch die vorliegende Offenbarung gelöst werden soll, damit die Lösungen für solche Probleme von den vorliegenden Ansprüchen erfasst werden. Des Weiteren ist kein Element, keine Komponente und kein Verfahrensschritt in der vorliegenden Offenbarung dazu bestimmt, der Öffentlichkeit gewidmet zu werden, unabhängig davon, ob das Element, die Komponente oder der Verfahrensschritt ausdrücklich in den Ansprüchen erwähnt wird. Verschiedene Änderungen und Modifikationen in Bezug auf die Form, das Material, das Werkstück und die Details des Herstellungsmaterials können vorgenommen werden, ohne dass der Geist und der Umfang der vorliegenden Offenbarung, wie sie in den beigefügten Ansprüchen dargelegt sind, verlassen wird, und sind ebenso von der vorliegenden Offenbarung umfasst, wie sie für den Fachmann offensichtlich sind.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 63/124306 [0001]
    • US 63/034811 [0001]
    • US 16701860 B [0056]

Claims (28)

  1. System zur Erzeugung von Daten zur Früherkennung von Gesundheitsproblemen, umfassend: ein oder mehrere Sensoren; einen Prozessor, der kommunikativ mit dem einen oder den mehreren Sensoren gekoppelt ist; und einen Speicher, der kommunikativ mit dem Prozessor gekoppelt ist, wobei der Speicher umfasst: eine Vitalüberwachungslogik, um Signaldaten von dem einen oder mehreren Sensoren zu empfangen; eine Sensorausgabe-Detektorlogik, die konfiguriert ist, um Merkmale aus den empfangenen Signaldaten zu identifizieren; eine Merkmalslogik, die konfiguriert ist, um ein oder mehrere Merkmale aus den identifizierten Merkmalen zu extrahieren; eine Vitalverarbeitungslogik, die konfiguriert ist, um zu bestimmen, ob das eine oder die mehreren extrahierten Merkmale einen vorbestimmten Schwellenwert überschreiten; und eine Alarmlogik, die konfiguriert ist, um als Reaktion auf das eine oder die mehreren extrahierten Merkmale, die den vorbestimmten Schwellenwert überschreiten, Alarmdaten zu erzeugen.
  2. System nach Anspruch 1, wobei der eine oder die mehreren Sensoren konfiguriert sind, um ein oder mehrere Vitalzeichen eines bekannten Benutzers zu überwachen.
  3. System nach Anspruch 1, wobei die Signaldaten Audiodaten umfassen, die von einer ständig eingeschalteten Vorrichtung gesammelt werden.
  4. System nach Anspruch 2, wobei die identifizierten Merkmale mindestens ein oder mehrere Merkmale umfassen, die dem bekannten Benutzer zugeordnet sind, wobei die Sensorausgabe-Detektorlogik ferner konfiguriert ist, um Wörter zu erkennen, die dem bekannten Benutzer zugeordnet sind, und wobei die identifizierten Merkmale mindestens ein oder mehrere der erkannten Wörter einschließen.
  5. System nach Anspruch 4, wobei der Speicher ferner umfasst: eine Probenverarbeitungslogik, die konfiguriert ist zum: Erzeugen von Merkmalsdaten basierend auf den identifizierten Merkmalen aus der Sensorausgabe-Detektorlogik; und Verarbeiten der Merkmalsdaten gegen bekannte Benutzerdaten, die dem bekannten Benutzer zugeordnet sind.
  6. System nach Anspruch 5, wobei das eine oder die mehreren extrahierten Merkmale aus den verarbeiteten Merkmalsdaten des bekannten Benutzers extrahiert werden.
  7. System nach Anspruch 6, wobei das eine oder die mehreren extrahierten Merkmale mindestens eines oder mehrere von einer Stimmlage, einer Stimmgeschwindigkeit, einem Stimmumfang, einer Stimmgewichtung und einer Stimmklangfarbe umfassen.
  8. System nach Anspruch 2, wobei der eine oder die mehreren Sensoren mindestens eine oder mehrere von tragbaren Vorrichtungen, intelligenten Hörgeräten, kopfmontierten Displays, Spielkonsolen, mobilen Computervorrichtungen, Computertablets, intelligenten Fernbedienungen, sprachbasierten Lautsprechern und intelligenten Heimvorrichtungen umfassen.
  9. System nach Anspruch 7, wobei das Bestimmen der extrahierten Merkmale ferner Bestimmen einschließt, ob die extrahierten Merkmale den vorbestimmten Schwellenwert überschreiten, basierend auf Vitalbasisdaten des bekannten Benutzers.
  10. System nach Anspruch 1, wobei das System in einem ständigen Energiesparmodus arbeitet, sodass das System kontinuierlich bereit ist, die Signaldaten zu empfangen.
  11. System nach Anspruch 2, wobei die Alarmlogik ferner konfiguriert ist, um als Reaktion auf die erzeugten Alarmdaten eine oder mehrere Aktionen auszulösen, die vorbestimmten Aktionsdaten zugeordnet sind, die sich auf den bekannten Benutzer beziehen.
  12. System nach Anspruch 11, wobei die Alarmlogik ferner konfiguriert ist, um als Reaktion auf die ausgelösten vorbestimmten Aktionsdaten des bekannten Benutzers mindestens eine oder mehrere der Alarme für bekannte Benutzer und Alarme für Betreuer auszulösen.
  13. System nach Anspruch 12, wobei die bekannten Benutzeralarme einen Frühwarnalarm, einen Warnalarm und einen Notfallalarm umfassen.
  14. System nach Anspruch 13, wobei die Betreueralarme mindestens einen von einem Betreuerfrühwarnalarm, einem Betreuerwarnalarm und einem Betreuernotfallalarm umfassen.
  15. System nach Anspruch 14, wobei die Alarmlogik in Reaktion auf die erzeugten Alarmdaten ferner konfiguriert ist zum: Übertragen einer der bekannten Benutzeralarme an eine persönliche Computervorrichtung des bekannten Benutzers; und Übertragen einer der Betreueralarme an einen Betreuerserver, der dem bekannten Benutzer zugeordnet ist, wobei sowohl bekannte Benutzer- als auch Betreueralarme eine Alarmbenachrichtigung über eine frühe Gesundheitserkennung eines möglichen schwerwiegenden Gesundheitsproblems umfassen, das dem bekannten Benutzer zugeordnet ist.
  16. System nach Anspruch 15, wobei der Speicher ferner eine Datenschutzlogik umfasst, die konfiguriert ist, um die dem bekannten Benutzer zugeordneten medizinischen Verlaufsdaten zu schützen, und wobei die Datenschutzlogik ferner konfiguriert ist, um die geschützten medizinischen Verlaufsdaten des bekannten Benutzers an den Betreuungsserver zu übertragen und Daten in Reaktion auf die übertragenen medizinischen Verlaufsdaten von dem Betreuungsserver über eine oder mehrere Formen der Datenübertragung zu empfangen.
  17. System nach Anspruch 16, wobei die eine oder mehrere Formen der Datenübertragung eine der folgenden umfasst: Blockchain-basierte Datenübertragung, Hash-basierte Datenübertragung und verschlüsselungsbasierte Datenübertragung.
  18. System nach Anspruch 9, wobei der vorbestimmte Schwellenwert einen statischen vorbestimmten Schwellenwert umfasst, wobei der statische vorbestimmte Schwellenwert basierend auf den Vitalbasisdaten des bekannten Benutzers erzeugt wird und wobei der statische vorbestimmte Schwellenwert einen statischen Bereich von minimalen und maximalen Datenwerten umfasst, die den Vitalbasisdaten des bekannten Benutzers zugeordnet sind.
  19. System nach Anspruch 9, wobei der vorbestimmte Schwellenwert einen dynamischen vorbestimmten Schwellenwert umfasst, wobei der dynamische vorbestimmte Schwellenwert basierend auf den Vitalbasisdaten des bekannten Benutzers erzeugt wird, und wobei der dynamische vorbestimmte Schwellenwert einen dynamischen Bereich von minimalen und maximalen Datenwerten umfasst, die den Vitalbasisdaten des bekannten Benutzers zugeordnet sind.
  20. System nach Anspruch 19, wobei die Vitalverarbeitungslogik ferner konfiguriert ist, um den dynamischen Bereich der minimalen und maximalen Datenwerte des dynamischen vorbestimmten Schwellenwerts basierend auf einem oder mehreren externen Faktoren, die von einer heuristischen Logik erfasst werden, dynamisch anzupassen und wobei der eine oder die mehreren erfassten externen Faktoren mindestens einen oder mehrere von geographischem Standort, Zeit, Datum, Echtzeitaktivitäten, physischem Standort, Umgebungstemperatur und überwachter Temperatur umfassen.
  21. Verfahren zur Erkennung von Stimmveränderungen, um Daten zur Früherkennung von schweren Gesundheitsproblemen bereitzustellen, umfassend: Empfangen von Signaldaten von einem oder mehreren Sensoren, die einem bekannten Benutzer zugeordnet sind; Identifizieren von Merkmalen aus den empfangenen Signaldaten; Extrahieren eines oder mehrerer Merkmale aus den identifizierten Merkmalen; Verarbeiten des einen oder der mehreren extrahierten Merkmale gegen von Vitalbasisdaten von dem bekannten Benutzer; Bestimmen, ob das eine oder die mehreren extrahierten Merkmale einen vorbestimmten Schwellenwert überschreiten; Erzeugen von Alarmdaten basierend auf dem einen oder den mehreren extrahierten Merkmalen, die den vorbestimmten Schwellenwert überschritten haben; und Übertragen der erzeugten Alarmdaten an eine persönliche Computervorrichtung des bekannten Benutzers.
  22. Verfahren nach Anspruch 21, ferner umfassend: Erzeugen von Merkmalsdaten basierend auf den identifizierten Merkmalen; und Verarbeiten der Merkmalsdaten gegen bekannte Benutzerdaten, die dem bekannten Benutzer zugeordnet sind, wobei das Identifizieren von Merkmalen aus den empfangenen Signaldaten ferner Erfassen von Wörtern aus den empfangenen Signaldaten einschließt und wobei die identifizierten Merkmale mindestens eines oder mehrere der erfassten Wörter einschließen.
  23. Verfahren nach Anspruch 22, wobei das eine oder die mehreren extrahierten Merkmale aus den verarbeiteten Merkmalen des bekannten Benutzers extrahiert werden und wobei das eine oder die mehreren extrahierten Merkmale mindestens eines oder mehrere von einer Stimmlage, einer Stimmgeschwindigkeit, einem Stimmumfang, einer Stimmgewichtung und einer Stimmklangfarbe umfassen.
  24. Verfahren nach Anspruch 21, wobei der eine oder die mehreren Sensoren mindestens eine oder mehrere von tragbaren Vorrichtungen, intelligenten Hörgeräten, kopfmontierten Displays, Spielkonsolen, mobilen Computervorrichtungen, Computertablets, intelligenten Fernbedienungen, sprachbasierten Lautsprechern und intelligenten Heimvorrichtungen umfassen.
  25. Verfahren nach Anspruch 23, wobei das Bestimmen der extrahierten Merkmale ferner Bestimmen einschließt, ob die extrahierten Merkmale den vorbestimmten Schwellenwert überschreiten, basierend auf Vitalbasisdaten des bekannten Benutzers.
  26. System zur entfernten Erzeugung von Daten zur Früherkennung von Gesundheitsproblemen, umfassend: einen Prozessor; und einen Speicher, der kommunikativ mit dem Prozessor gekoppelt ist, wobei der Speicher umfasst: eine Probenverarbeitungslogik, die konfiguriert ist zum: Empfangen von Merkmalen von Signaldaten, die von einer oder mehreren Computervorrichtungen erfasst wurden, die einem bekannten Benutzer zugeordnet sind; Erzeugen von Merkmalsdaten basierend auf den identifizierten Merkmalen; und Verarbeiten der erzeugten Merkmalsdaten gegen bekannte Benutzerdaten; eine Merkmalslogik, die konfiguriert ist, um ein oder mehrere Merkmale aus den verarbeiteten Merkmalsdaten zu extrahieren; eine Vitalverarbeitungslogik, die konfiguriert ist zum: Verarbeiten des einen oder der mehreren extrahierten Merkmale gegen bekannte Benutzerbasisdaten; und Bestimmen, ob das eine oder die mehreren verarbeiteten Merkmale einen vorbestimmten Schwellenwert überschreiten; und eine Alarmlogik, die konfiguriert ist zum: Erzeugen von Alarmdaten als Reaktion darauf, dass das eine oder die mehreren extrahierten Merkmale den vorbestimmten Schwellenwert überschreiten; und Übertragen der erzeugten Alarmdaten an die eine oder mehreren Computervorrichtungen, die dem bekannten Benutzer zugeordnet sind.
  27. System nach Anspruch 26, ferner umfassend eine Datenschutzlogik, die konfiguriert ist, um jegliche Datenschutzdaten zu empfangen und zu übertragen.
  28. System nach Anspruch 27, wobei die Datenschutzdaten medizinische Verlaufsdaten umfassen, und wobei die Datenschutzlogik ferner konfiguriert ist, um die Datenschutzdaten zu übertragen, die sich auf die medizinischen Verlaufsdaten beziehen, die privat sind und dem bekannten Benutzer zugeordnet sind.
DE112021003125.2T 2020-06-04 2021-06-04 Systeme und Verfahren zur Erzeugung früher gesundheitsbasierter Alarme aus kontinuierlich erfassten Daten Pending DE112021003125T5 (de)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US202063034811P 2020-06-04 2020-06-04
US63/034,811 2020-06-04
US202063124306P 2020-12-11 2020-12-11
US63/124,306 2020-12-11
US17/337,814 US20210383929A1 (en) 2020-06-04 2021-06-03 Systems and Methods for Generating Early Health-Based Alerts from Continuously Detected Data
US17/337,814 2021-06-03
PCT/US2021/035876 WO2021247983A1 (en) 2020-06-04 2021-06-04 Systems and methods for generating early health-based alerts from continuously detected data

Publications (1)

Publication Number Publication Date
DE112021003125T5 true DE112021003125T5 (de) 2023-04-06

Family

ID=78817867

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021003125.2T Pending DE112021003125T5 (de) 2020-06-04 2021-06-04 Systeme und Verfahren zur Erzeugung früher gesundheitsbasierter Alarme aus kontinuierlich erfassten Daten

Country Status (3)

Country Link
US (1) US20210383929A1 (de)
DE (1) DE112021003125T5 (de)
WO (1) WO2021247983A1 (de)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7558622B2 (en) * 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
EP2523625B1 (de) * 2010-01-14 2017-03-08 PhysIQ Inc. Multivariater restgrössen-gesundheitsindex zur überwachung der menschlichen gesundheit
US8784311B2 (en) * 2010-10-05 2014-07-22 University Of Florida Research Foundation, Incorporated Systems and methods of screening for medical states using speech and other vocal behaviors
EP3195244A4 (de) * 2014-09-14 2018-04-25 League Inc. System und verfahren für gesundheitsdienstleister zur bereitstellung von programmen an individuen
US10643639B2 (en) * 2017-06-21 2020-05-05 Ajit Arun Zadgaonkar System and method for determining cardiac parameters and physiological conditions by analysing speech samples
US10706329B2 (en) * 2018-11-13 2020-07-07 CurieAI, Inc. Methods for explainability of deep-learning models

Also Published As

Publication number Publication date
US20210383929A1 (en) 2021-12-09
WO2021247983A1 (en) 2021-12-09

Similar Documents

Publication Publication Date Title
Brodbeck et al. Rapid transformation from auditory to linguistic representations of continuous speech
Kaya et al. Modelling auditory attention
Pell et al. Emotional speech processing: Disentangling the effects of prosody and semantic cues
CN109087670B (zh) 情绪分析方法、系统、服务器及存储介质
Delaney-Busch et al. Friendly drug-dealers and terrifying puppies: Affective primacy can attenuate the N400 effect in emotional discourse contexts
Gradišek et al. Predicting species identity of bumblebees through analysis of flight buzzing sounds
DE212015000185U1 (de) Soziale Erinnerungen
DE112020001332T5 (de) System zur Bewertung der Stimmwiedergabe
US20140278506A1 (en) Automatically evaluating and providing feedback on verbal communications from a healthcare provider
DE112019000747T5 (de) Einer erkrankung und/oder behandlung eines patienten zugehörige augmented-reality-vorlage
US9907469B2 (en) Combining information from multiple formats
Jaworski The author, agency and suicide
EP3253073A1 (de) Verfahren zur automatisierten ermittlung von parameterwerten für ein hörhilfegerät
Gómez et al. The word segmentation process as revealed by click detection
Gennari et al. Orthogonal neural codes for speech in the infant brain
DE102015218948A1 (de) Vorrichtung und Verfahren zur Bestimmung eines medizinischen Gesundheitsparameters eines Probanden mittels Stimmanalyse
DE112019007274T5 (de) Automatisches untertiteln hörbarer teile von inhalten auf einem computergerät
Luthra et al. Neural substrates of subphonemic variation and lexical competition in spoken word recognition
Schwab et al. Automated bat call classification using deep convolutional neural networks
Coltheart et al. Computational modelling of the effects of semantic dementia on visual word recognition
Wang et al. The application of Gammatone frequency cepstral coefficients for forensic voice comparison under noisy conditions
Beltrán et al. Recognition of audible disruptive behavior from people with dementia
KR20200002201A (ko) 인공지능을 통한 스마트 헬스케어 시스템
US20180189451A1 (en) Measuring somatic response to stimulus utilizing a mobile computing device
DE102018111896A1 (de) Bereitstellen einer Ausgabe, die mit einem Dialekt verknüpft ist