Prioritätpriority
Diese Anmeldung beansprucht den Nutzen und die Priorität der US-Patentanmeldung Nr. 17/337,814, eingereicht am 3. Juni 2021, die wiederum die Priorität der US-Vorläufigen Anmeldung Nr. 63/124,306 , eingereicht am 11. Dezember 2020, und der US-Vorläufigen Anmeldung Nr. 63/034,811 , eingereicht am 4. Juni 2020, beansprucht, die alle in vollem Umfang hierin enthalten sind.This application claims the benefit of and priority from U.S. Patent Application No. 17/337,814, filed June 3, 2021, which in turn claims priority from U.S. Provisional Application No. 63/124,306 , filed December 11, 2020, and U.S. Provisional Application No. 63/034,811 , filed June 4, 2020, all of which are incorporated herein in their entirety.
GebietArea
Das Gebiet der vorliegenden Offenbarung bezieht sich in Allgemeinen auf die Datenverarbeitung künstlicher Intelligenz. Insbesondere bezieht sich das Gebiet der Offenbarung auf das Verarbeiten kontinuierlich erfasster Daten, um als Reaktion auf erfasste Änderungen an einem oder mehreren bekannten Merkmalen eines Benutzers Frühwarn-Gesundheitsalarme zu erzeugen.The field of the present disclosure generally relates to artificial intelligence computing. More particularly, the field of the disclosure relates to processing continuously sensed data to generate early warning health alerts in response to sensed changes in one or more known characteristics of a user.
Hintergrundbackground
Die Früherkennung wurde als Schlüsselfaktor bei der Behandlung schwerer Gesundheitsprobleme identifiziert. Es ist auch bekannt, dass es viele frühe Anzeichen für einige schwerwiegende Gesundheitsprobleme gibt. Einige der frühen Anzeichen eines Schlaganfalls, die erkannt wurden, sind beispielsweise herabhängendes Gesicht, Armschwäche und Sprachschwierigkeiten. Ein weiteres Beispiel sind die bekannten Frühzeichen von Alzheimer, die unter anderem eine Zunahme der Körpertemperatur, der Herzfrequenz, der Sauerstoffsättigung (Sp02) und der Stimmneigung einschließen können. Einige dieser Frühzeichen lassen sich durch die kontinuierliche Überwachung grundlegender Vitalzeichen wie Blutdruck, Herzfrequenz, Körpertemperatur und SpO2 überwachen.Early detection has been identified as a key factor in treating serious health problems. It is also known that there are many early signs of some serious health problems. Some of the early signs of stroke that have been recognized include drooping face, arm weakness, and difficulty speaking. Another example is the well-known early signs of Alzheimer's, which can include an increase in body temperature, heart rate, oxygen saturation (Sp02), and pitched voice, among others. Some of these early signs can be monitored by continuously monitoring basic vital signs such as blood pressure, heart rate, body temperature and SpO2.
Derzeit weisen viele elektronische Uhren und Fitness-Tracker die Fähigkeit auf, verschiedene Daten kontinuierlich zu überwachen und zu messen, einschließlich einiger, wenn nicht aller, der oben genannten grundlegenden Vitalzeichen. Und mit jeder neuen Generation von elektronischen Uhren und Fitness-Trackern, die auf den Markt kommen, können die überwachten Daten und die Analyse der überwachten Daten durch diese Vorrichtungen genutzt werden, um eine zunehmende Menge an aussagekräftigen Daten und Korrelationen zu erzeugen. Die meisten Vitalzeichen, abgesehen von der Körpertemperatur und der Herzfrequenz, müssen jedoch in der Regel in einem Krankenhaus gemessen werden, auch wenn viele Anwender lieber in der Privatsphäre und Sicherheit ihrer eigenen Wohnung bleiben würden. In der Zwischenzeit werden die wenigen Vitalzeichen, die von tragbaren Vorrichtungen gemessen werden können, noch nicht genutzt, da diese Vorrichtungen noch nicht medizinisch und administrativ zugelassen sind, was bedeutet, dass die Genauigkeit dieser Vorrichtungen möglicherweise noch nicht den medizinischen Mindeststandards entspricht. Da sich die Sensortechnologie und die Algorithmen jedoch weiterhin drastisch weiterentwickeln, ist es sehr wahrscheinlich, dass diese Vorrichtungen in der nächsten Generation genauere und zuverlässigere Daten erzeugen werden.Currently, many electronic watches and fitness trackers feature the ability to continuously monitor and measure various data, including some, if not all, of the basic vital signs mentioned above. And with each new generation of electronic watches and fitness trackers coming onto the market, the monitored data and the analysis of the monitored data by these devices can be used to generate an increasing amount of meaningful data and correlations. However, most vital signs, apart from body temperature and heart rate, typically need to be measured in a hospital setting, although many users would prefer to remain in the privacy and security of their own homes. In the meantime, the few vital signs that can be measured by wearable devices are still unused as these devices are not yet medically and administratively approved, which means that the accuracy of these devices may not yet meet minimum medical standards. However, as sensor technology and algorithms continue to evolve drastically, it is highly likely that next-generation devices will produce more accurate and reliable data.
Figurenlistecharacter list
Die vorstehenden und andere Aspekte, Eigenschaften und Vorteile verschiedener Ausführungsformen der vorliegenden Offenbarung werden aus der folgenden Beschreibung in Verbindung mit den folgenden verschiedenen Figuren der Zeichnungen deutlicher werden. Die Zeichnungen beziehen sich auf Ausführungsformen der vorliegenden Offenbarung, in denen:
- 1 eine beispielhafte Darstellung eines sprachbasierten Gesundheitserkennungssystems gemäß einer Ausführungsform der vorliegenden Offenbarung ist;
- 2A eine abstrakte Darstellung einer sprachbasierten Gesundheitserkennungsvorrichtung gemäß einer Ausführungsform der vorliegenden Offenbarung ist;
- 2B eine abstrakte Darstellung bekannter Benutzerdaten gemäß einer Ausführungsform der vorliegenden Offenbarung ist;
- 3 eine detaillierte Blockdiagrammdarstellung eines sprachbasierten Gesundheitserkennungsservers ist, der in einem sprachbasierten Gesundheitserkennungssystem gemäß einer Ausführungsform der vorliegenden Offenbarung verwendet wird;
- 4 ein Flussdiagramm eines Prozesses zum Erzeugen bekannter Benutzerdaten gemäß einer Ausführungsform der vorliegenden Offenbarung ist;
- 5 ein Flussdiagramm eines sprachbasierten Gesundheitserkennungsprozesses gemäß einer Ausführungsform der vorliegenden Offenbarung ist;
- 6A ein Flussdiagramm eines immer eingeschalteten sprachbasierten Gesundheitserkennungsprozesses gemäß einer Ausführungsform der vorliegenden Offenbarung ist;
- 6B ein Flussdiagramm eines immer eingeschalteten sprachbasierten Gesundheitserkennungsprozesses unter Verwendung einer externen Rechenvorrichtung gemäß einer Ausführungsform der vorliegenden Offenbarung ist.
The foregoing and other aspects, features, and advantages of various embodiments of the present disclosure will become more apparent from the following description in conjunction with the following various drawing figures. The drawings relate to embodiments of the present disclosure in which: - 1 Figure 12 is an exemplary illustration of a voice-based health recognition system according to an embodiment of the present disclosure;
- 2A Figure 12 is a high-level representation of a voice-based health recognition device according to an embodiment of the present disclosure;
- 2 B Figure 12 is an abstract representation of known user data in accordance with an embodiment of the present disclosure;
- 3 Figure 12 is a detailed block diagram representation of a voice health recognition server used in a voice health recognition system according to an embodiment of the present disclosure;
- 4 Figure 12 is a flowchart of a process for generating known user data according to an embodiment of the present disclosure;
- 5 Figure 12 is a flow diagram of a voice-based health recognition process according to an embodiment of the present disclosure;
- 6A Figure 12 is a flow diagram of an always-on speech-based health detection process according to an embodiment of the present disclosure;
- 6B a flowchart of an always-on speech-based health detection process using an external computing device according to one embodiment of the present disclosure.
Detaillierte BeschreibungDetailed description
Angesichts der vorstehend beschriebenen Probleme besteht die Notwendigkeit, Veränderungen eines Benutzers zu überwachen, um auf der Basis kontinuierlich erfasster Daten frühzeitige gesundheitsbezogene Alarme für potenzielle Gesundheitsprobleme zu erzeugen. Die hierin beschriebenen Ausführungsformen stellen diese erzeugten frühen gesundheitsbezogenen Alarme mit Systemen und Verfahren bereit, die sich auf dieIn view of the problems described above, there is a need to monitor changes in a user in order to generate early health-related alerts for potential health problems based on continuously collected data. The embodiments described herein provide these generated early health-related alerts with systems and methods that address the
Erkennung und Extraktion von Eigenschaften aus Audiodatensignalen beziehen, die zur frühzeitigen Erkennung von Warnungen vor potenziellen schwerwiegenden Gesundheitsproblemen für den Benutzer verwendet werden können. Wie nachstehend näher beschrieben, können die Ausführungsformen es dem Benutzer erlauben, eine oder mehrere Eigenschaften und Vitaldaten einzugeben, die einem oder mehreren gesprochenen Wörtern und/oder extrahierten Eigenschaften entsprechen können.Detection and extraction of properties from audio data signals that can be used to provide early warning of potential serious health problems to the user. As described in more detail below, embodiments may allow the user to enter one or more attributes and vital signs, which may correspond to one or more spoken words and/or extracted attributes.
Die Ausführungsformen können so konfiguriert sein, dass sie kontinuierlich gesprochene Wörter in einem stromsparenden, ständig eingeschalteten (d. h. kontinuierlich erkannten) Modus erkennen und eine oder mehrere Eigenschaften aus den erkannten gesprochenen Wörtern extrahieren, um Vitaldaten und Schwellendaten (oder Trenddaten) der extrahierten Eigenschaften über eine vorher festgelegte Periode zu ermitteln. In den hierin beschriebenen Ausführungsformen können die gesprochenen Wörter eine Vielfalt von Wörtern, Phrasen, Audiogesten, Audiosignalen usw. einschließen, die mit einem oder mehreren Nutzern verknüpft sein kann, sind aber nicht darauf beschränkt. Da sich Audio- und verwandte Sensortechnologien weiterentwickeln, können die hierin beschriebenen Ausführungsformen beispielsweise in der Lage sein, eine oder mehrere Eigenschaften (oder Parameter, Merkmale usw.) aus der Stimme und den gesprochenen Wörtern eines Benutzers im Allgemeinen zu erkennen, sodass die Ausführungsformen beliebige Schlüsselwörter und/oder beliebige gesprochene Wörter aus der Sprache dieses Benutzers erkennen, analysieren oder anderweitig nutzen können. Mit anderen Worten, Merkmale der Stimme eines Benutzers können erkannt, geparst oder anderweitig verwendet werden, ohne dass ein bestimmtes Schlüsselwort oder eine vorprogrammierte Phrase erforderlich ist, um eine Vorrichtung oder einen Sensor auszulösen, damit sie/er mit dem „Hören“ beginnt.The embodiments may be configured to recognize continuously spoken words in a low-power, always-on (i.e., continuously recognized) mode and to extract one or more characteristics from the recognized spoken words to provide vital signs and threshold (or trend) data of the extracted characteristics over a determine a predetermined period. In the embodiments described herein, spoken words may include, but are not limited to, a variety of words, phrases, audio gestures, audio signals, etc. that may be associated with one or more users. For example, as audio and related sensor technologies advance, the embodiments described herein may be able to recognize one or more properties (or parameters, characteristics, etc.) from a user's voice and spoken words in general, such that the embodiments may Recognize, analyze or otherwise use keywords and/or any spoken words from that user's language. In other words, features of a user's voice can be recognized, parsed, or otherwise used without requiring a specific keyword or pre-programmed phrase to trigger a device or sensor for s/he to begin "listening."
In mehreren Ausführungsformen können die extrahierten Eigenschaften ein oder mehrere Stimmmerkmale einschließen, die aus den erfassten Schlüsselwörtern des Benutzers extrahiert wurden. Beispielsweise können die extrahierten Stimmmerkmale als nicht einschränkendes Beispiel Stimmlage, Stimmgeschwindigkeit, Stimmumfang, Stimmgewicht, Stimmfarbklang und so weiter einschließen. Unterdessen können die extrahierten Merkmale in anderen Ausführungsformen beliebige andere gesundheitsbasierte Daten einschließen, die mit beliebigen Arten von Sensoren in Verbindung mit beliebigen extrahierten Stimmmerkmalen extrahiert und/oder erfasst werden. Beispielsweise können die extrahierten gesundheitsbasierten Daten mit einem oder mehreren frühen Anzeichen von Gesundheitsveränderungen korrelieren, die jeweils mit einem oder mehreren potenziellen schweren Gesundheitsproblemen korrelieren können.In several embodiments, the extracted characteristics may include one or more voice characteristics extracted from the user's captured keywords. For example, as a non-limiting example, the extracted voice features may include pitch, voice speed, vocal range, voice weight, voice color tone, and so on. Meanwhile, in other embodiments, the extracted features may include any other health-based data extracted and/or collected with any type of sensors associated with any extracted voice features. For example, the health-based data extracted may correlate with one or more early signs of health changes, each of which may correlate with one or more potential serious health problems.
Darüber hinaus können Ausführungsformen konfiguriert sein, um zu bestimmen, ob irgendwelche der extrahierten Stimmmerkmale einen vorbestimmten Schwellenwert überschritten haben. Als Reaktion auf die Bestimmung, dass eines oder mehrere der extrahierten Stimmmerkmale ihre vorbestimmten Schwellenwerte überschritten haben, können die Ausführungsformen konfiguriert sein, um Alarmdaten zu erzeugen und zu übertragen, einschließlich Alarmbenachrichtigungen über Frühzeichen-Gesundheitsalarmsignale an eine persönliche Computervorrichtung des Benutzers oder des Betreuers des Benutzers. Beispielsweise kann das Frühzeichen-Gesundheitsalarmsignal verwendet werden, um dem Benutzer einen Frühwarnalarm vor einem möglichen schweren Gesundheitsproblem bereitzustellen und unverzüglich eine weitere Diagnose des möglichen Problems zu suchen.Additionally, embodiments may be configured to determine whether any of the extracted voice features have exceeded a predetermined threshold. In response to determining that one or more of the extracted voice features have exceeded their predetermined thresholds, the embodiments may be configured to generate and transmit alert data, including early sign health alert notifications, to a personal computing device of the user or the user's caregiver . For example, the early sign health alert signal can be used to provide the user with an early warning alert of a potential serious health issue and immediately seek further diagnosis of the potential issue.
Bevor die folgenden Ausführungsformen detaillierter beschrieben werden, sollte klar sein, dass keine der hierin beschriebenen Ausführungsformen den Umfang der hierin enthaltenen Konzepte einschränkt. Ebenso sollte klar sein, dass eine bestimmte hierin beschriebene Ausführungsform Eigenschaften aufweisen kann, die ohne weiteres von der bestimmten Ausführungsform getrennt und wahlweise mit Eigenschaften mehrerer anderer hierin beschriebener Ausführungsformen kombiniert oder durch diese ersetzt werden können.Before the following embodiments are described in more detail, it should be understood that none of the embodiments described herein limit the scope of the concepts contained herein. Likewise, it should be understood that a particular embodiment described herein may have features that can be readily separated from that particular embodiment and optionally combined with or substituted for features of several other embodiments described herein.
Bezüglich der hierin verwendeten Begriffe ist zu verstehen, dass diese Begriffe der Beschreibung bestimmter Ausführungsformen dienen und den Umfang der hierin beschriebenen Konzepte und/oder anderer Ausführungsformen nicht einschränken. Ordnungszahlen (z. B. erste, zweite, dritte usw.) werden im Allgemeinen verwendet, um verschiedene Eigenschaften oder Schritte in einer Gruppe von Eigenschaften oder Schritten zu unterscheiden oder zu identifizieren, und stellen keine serielle oder numerische Begrenzung dar. Beispielsweise müssen „erste“, „zweite“ und „dritte“ Eigenschaften oder Schritte nicht notwendigerweise in dieser Reihenfolge erscheinen, und die bestimmten Ausführungsformen, die solche Eigenschaften oder Schritte einschließen, müssen nicht notwendigerweise auf die drei Eigenschaften oder Schritte beschränkt sein. Bezeichnungen wie „links“, „rechts“, „vorne“, „hinten“, „oben“, „unten“ und dergleichen werden der Einfachheit halber verwendet und sollen beispielsweise keine bestimmte feste Position oder Ausrichtung oder Richtung implizieren. Stattdessen werden derartige Bezeichnungen verwendet, um beispielsweise die relative Position, Ausrichtung oder Richtungen wiederzugeben. Singularformen von „ein“, „eine“ und „der/die/das“ schließen Pluralformen ein, es sei denn, der Kontext schreibt eindeutig etwas anderes vor.As for the terms used herein, it is to be understood that these terms are for the purpose of describing particular embodiments and do not limit the scope of the concepts described herein and/or other embodiments. Ordinal numbers (e.g. first, second, third, etc.) are generally used to distinguish or identify different properties or steps in a group of properties or steps, and do not represent a serial or numeric delimitation. For example, must "First,""second," and "third" features or steps do not necessarily appear in that order, and the particular embodiments including such features or steps need not necessarily be limited to the three features or steps. Terms such as "left", "right", "front", "back", "top", "bottom" and the like are used for convenience and are not intended to imply a particular fixed position or orientation or direction, for example. Instead, such labels are used to represent, for example, relative position, orientation, or directions. Singular forms of "a,""an," and "the" include plural forms, unless the context clearly dictates otherwise.
Beispielsweise kann der Begriff „Logik“ in bestimmten Situationen für Hardware, Firmware und/oder Software stehen, die konfiguriert ist, um eine oder mehrere Funktionen auszuführen. Als Hardware kann die Logik eine Schaltung mit Datenverarbeitungs- oder Speicherfunktionalität einschließen. Beispiele für derartige Schaltungen können einen Mikroprozessor, einen oder mehrere Prozessorkerne, ein programmierbares Gate-Array, eine Mikrosteuerung, eine Steuerung, eine anwendungsspezifische integrierte Schaltung, einen drahtlosen Empfänger, eine Sender und/oder Transceiver-Schaltung, Halbleiterspeicher oder kombinatorische Logik einschließen, sind jedoch nicht darauf beschränkt.For example, in certain situations, the term "logic" may represent hardware, firmware, and/or software configured to perform one or more functions. As hardware, the logic may include circuitry with data processing or storage functionality. Examples of such circuitry may include a microprocessor, one or more processor cores, a programmable gate array, a microcontroller, a controller, an application specific integrated circuit, a wireless receiver, transmitter and/or transceiver circuitry, semiconductor memory, or combinatorial logic but not limited to this.
Zusätzlich kann der Begriff „Eigenschaft“ hierin alle gesundheitsbezogenen Daten und alle anderen sensorbezogenen Daten einschließen, die von jeder Art von Sensoren, jeder Art von Sensorverarbeitungsvorrichtungen (z. B. jeder Art von tragbaren Vorrichtungen) usw. empfangen, übertragen, erfasst, verarbeitet und/oder extrahiert werden können, wobei diese Daten so konfiguriert sein können, dass sie Frühzeichen von Gesundheitsveränderungen erkennen und mit diesen korrelieren, die mit einem oder mehreren potenziellen schweren Gesundheitsproblemen korrelieren können. Beispielsweise kann jede Art von Sensor kommunikativ mit einer Sensorausgabe-Detektorlogik einer sprachbasierten Erfassungsvorrichtung gekoppelt werden, wobei die Sensorausgabe-Detektorlogik so konfiguriert sein kann, dass sie ein oder mehrere Merkmale (oder Eigenschaften, Muster usw.) aus den von einem solchen Sensor empfangenen Signaldaten identifiziert, und wobei die Sensorausgabe-Detektorlogik ferner so konfiguriert sein kann, dass sie ein oder mehrere Wörter aus den empfangenen Signaldaten erkennt, sodass die identifizierten Merkmale mindestens eines oder mehrere der erkannten Wörter einschließen können. In ähnlicher Weise, wie hierin verwendet, kann der Begriff „Stimmeigenschaft“ alle stimmlichen Merkmale einschließen, die aus der Stimme und den von Benutzern gesprochenen Wörtern in Verbindung mit anderen gewünschten Merkmalen extrahiert und mit jeder Art von Sensoren und Sensorverarbeitungsvorrichtungen erfasst werden können, um ebenso Frühzeichen von Gesundheitsveränderungen zu erkennen und mit diesen zu korrelieren, die jeweils mit einem oder mehreren potenziellen schweren Gesundheitsproblemen korrelieren können.Additionally, the term "property" herein may include any health-related data and any other sensor-related data received, transmitted, collected, processed, and processed by any type of sensors, any type of sensor-processing device (e.g., any type of wearable device), etc /or extracted, which data may be configured to detect and correlate with early signs of health changes that may correlate with one or more potential serious health problems. For example, any type of sensor may be communicatively coupled to sensor output detector logic of a voice-based sensing device, where the sensor output detector logic may be configured to detect one or more features (or properties, patterns, etc.) from the signal data received from such a sensor identified, and wherein the sensor output detector logic may be further configured to recognize one or more words from the received signal data, such that the identified features may include at least one or more of the recognized words. Similarly, as used herein, the term "voice characteristic" can include any vocal characteristics that can be extracted from the voice and words spoken by users in conjunction with other desired characteristics and detected with any type of sensors and sensor processing devices to do the same Identify and correlate with early signs of health changes, each of which may correlate with one or more potential serious health problems.
Der Begriff „maschinelles Lernen“ kann beliebige Rechenschaltungen einschließen, die eine digitale Implementierung eines neuronalen Netzwerks umfassen. Diese Schaltkreise können die Emulation mehrerer neuronaler Strukturen und/oder Operationen eines biologisch basierten Gehirns und/oder Nervensystems einschließen. Einige Ausführungsformen von Schaltungen für maschinelles Lernen und/oder künstliche Intelligenz können probabilistische Berechnungen umfassen, die algorithmische Ansätze zum Umgang mit Unsicherheit, Mehrdeutigkeit und Widerspruch in empfangenen Eingabedaten erzeugen können. Schaltungen für maschinelles Lernen können aus Systemen mit sehr großer Integration (VLSI) bestehen, die elektronische analoge Schaltungen, digitale Schaltungen, analoge/digitale VLSI im gemischten Modus und/oder Softwaresysteme enthalten. Der Begriff „Prozess“ kann eine Instanz eines Computerprogramms einschließen (z. B. eine Sammlung von Anweisungen, die hierin auch als Anwendung bezeichnet wird). In einer Ausführungsform kann der Prozess aus einem oder mehreren Threads bestehen, die gleichzeitig ausgeführt werden (z. B. kann jeder Thread denselben oder einen anderen Befehl gleichzeitig ausführen).The term "machine learning" can encompass any computing circuitry that includes a digital implementation of a neural network. These circuits may include emulation of multiple neural structures and/or operations of a biologically based brain and/or nervous system. Some embodiments of machine learning and/or artificial intelligence circuits may include probabilistic calculations that may generate algorithmic approaches to deal with uncertainty, ambiguity, and contradiction in received input data. Machine learning circuits may consist of very large scale integration (VLSI) systems containing electronic analog circuits, digital circuits, mixed mode analog/digital VLSI, and/or software systems. The term "process" may include an instance of a computer program (e.g., a collection of instructions, also referred to herein as an application). In one embodiment, the process may consist of one or more threads executing concurrently (e.g., each thread may execute the same or a different instruction concurrently).
Der Begriff „Verarbeitung“ kann das Ausführen einer Binärdatei oder eines Skripts einschließen oder das Starten einer Anwendung, in der ein Objekt verarbeitet wird, wobei das Starten so zu verstehen ist, dass die Anwendung in einen offenen Zustand versetzt wird und in einigen Implementierungen Simulationen von Aktionen durchgeführt werden, die für menschliche Interaktionen mit der Anwendung typisch sind.The term "processing" may include running a binary file or script, or launching an application in which an object is processed, where launching is understood to mean putting the application in an open state and, in some implementations, simulations of Actions are performed that are typical of human interactions with the application.
Der Begriff „Objekt“ bezieht sich im Allgemeinen auf eine Sammlung von Daten, ob während der Übertragung (z. B. über ein Netzwerk) oder im Ruhezustand (z. B. gespeichert), die häufig eine logische Struktur oder Organisation aufweisen, die eine Kategorisierung oder Typisierung ermöglicht. Hierin werden die Begriffe „Binärdatei“ und „binär“ austauschbar verwendet.The term "object" generally refers to a collection of data, whether in transit (e.g., over a network) or at rest (e.g., stored), often having a logical structure or organization that requires a Categorization or typing enabled. The terms "binary file" and "binary" are used interchangeably herein.
Der Begriff „Datei“ wird im weitesten Sinne verwendet, um sich auf einen Satz oder eine Sammlung von Daten, Informationen oder anderen Inhalten zu beziehen, die mit einem Computerprogramm verwendet werden. Auf eine Datei kann als einzelne Entität, Objekt oder Einheit zugegriffen, sie geöffnet, gespeichert, manipuliert oder anderweitig verarbeitet werden. Eine Datei kann andere Dateien enthalten und kann verwandte oder nicht verwandte Inhalte oder überhaupt keine Inhalte enthalten. Eine Datei kann auch ein logisches Format haben und/oder Teil eines Dateisystems mit einer logischen Struktur oder Organisation mehrerer Dateien sein. Dateien können einen Namen haben, der manchmal einfach als „Dateiname“ bezeichnet wird, und häufig angehängte Eigenschaften oder andere Metadaten. Es gibt viele Arten von Dateien, z. B. Datendateien, Textdateien, Programmdateien und Verzeichnisdateien. Eine Datei kann von einem Benutzer einer Computervorrichtung erzeugt oder von der Computervorrichtung erzeugt werden. Der Zugriff auf und/oder Operationen an einer Datei können durch eine oder mehrere Anwendungen und/oder das Betriebssystem einer Computervorrichtung vermittelt werden. Ein Dateisystem kann die Dateien der Computervorrichtung einer Speichervorrichtung organisieren. Das Dateisystem kann das Verfolgen von Dateien ermöglichen und den Zugriff auf diese Dateien ermöglichen. Ein Dateisystem kann auch Operationen an einer Datei ermöglichen. In einigen Ausführungsformen können die Operationen an der Datei Dateierstellung, Dateimodifikation, Dateiöffnung, Dateilesen, Dateischreiben, Dateischließen und Dateilöschen einschließen.The term "file" is used broadly to refer to a set or collection of data, information, or other content created with a computer program ver be turned. A file can be accessed, opened, stored, manipulated, or otherwise processed as a single entity, object, or unit. A file can contain other files and can contain related or unrelated content or no content at all. A file can also have a logical format and/or be part of a file system with a logical structure or organization of multiple files. Files can have a name, sometimes simply referred to as "filename", and often have attached properties or other metadata. There are many types of files, e.g. B. data files, text files, program files and directory files. A file may be created by a user of a computing device or may be created by the computing device. Access to and/or operations on a file may be mediated through one or more applications and/or the operating system of a computing device. A file system can organize the files of the computing device of a storage device. The file system can allow tracking of files and provide access to those files. A file system can also allow operations on a file. In some embodiments, operations on the file may include file creation, file modification, file opening, file reading, file writing, file closing, and file deleting.
Schließlich sind die Begriffe „oder“ und „und/oder“, wie sie hierin verwendet werden, als umfassend zu interpretieren oder bedeuten irgendeinen oder irgendeine Kombination. Daher bedeuten „A, B oder C“ oder „A, B und/oder C“ „eines der Folgenden: A; B; C; A und B; A und C; B und C; A, B und C.“ Eine Ausnahme von dieser Definition tritt nur dann auf, wenn eine Kombination von Elementen, Funktionen, Schritten oder Handlungen sich in gewisser Weise von Natur aus gegenseitig ausschließt.Finally, as used herein, the terms "or" and "and/or" are to be construed as encompassing or meaning any one or any combination. Therefore, “A, B or C” or “A, B and/or C” means “any of the following: A; B; C; A and B; A and C; B and C; A, B, and C.” An exception to this definition occurs only when a combination of elements, functions, steps, or actions are in some way inherently mutually exclusive.
Nun Bezug nehmend auf 1 ist eine beispielhafte Veranschaulichung eines sprachbasierten Gesundheitserkennungssystems 100 gemäß Ausführungsformen der Offenbarung gezeigt. In vielen Ausführungsformen kann das sprachbasierte Gesundheitserkennungssystem 100 eine Vielzahl von persönlichen Erfassungsvorrichtungen 101-109, einen sprachbasierten Gesundheitserkennungsserver 120, einen Betreuerserver 130 und einen oder mehrere Datenspeicher 140 und 142 umfassen. Das sprachbasierte Gesundheitserkennungssystem 100 kann die persönlichen Computervorrichtungen 101-109 nutzen und/oder anderweitig mit ihnen kommunizieren, die so konfiguriert sein können, dass sie verschiedene Arten von Daten überwachen, einschließlich, aber nicht beschränkt auf Audiodaten, Vitalzeichendaten, Stimmeigenschaftsdaten usw. von bekannten Benutzern, um Frühzeichen potenzieller Gesundheitsprobleme der bekannten Benutzer zu erkennen.Referring now to 1 1, an exemplary illustration of a voice-based health recognition system 100 is shown, in accordance with embodiments of the disclosure. In many embodiments, the voice-based health recognition system 100 may include a plurality of personal sensing devices 101-109, a voice-based health recognition server 120, a caregiver server 130, and one or more data stores 140 and 142. Speech-based health recognition system 100 may utilize and/or otherwise communicate with personal computing devices 101-109, which may be configured to monitor various types of data, including but not limited to audio data, vital sign data, voice characteristics data, etc. from known users to identify early signs of potential health issues for known users.
Wie hierin verwendet, kann ein bekannter Benutzer ein bestimmter Benutzer sein, der aus einer Vielzahl von Quellen stammt und durch eine beliebige der persönlichen Computervorrichtungen 101-109 identifiziert wird. Das sprachbasierte Gesundheitserkennungssystem 100 kann beispielsweise so konfiguriert sein, dass es insbesondere identifiziert, ob ein bestimmtes Schlüsselwort von dem bekannten Benutzer gesagt wird. Der bekannte Benutzer kann aus einer Vielzahl von identifizierten Quellen abgeleitet werden, die in einer vorbestimmten Liste von autorisierten bekannten Benutzern enthalten sein können, die der jeweiligen persönlichen Computervorrichtung zugeordnet ist. Diesen identifizierten und autorisierten bekannten Benutzern können eine Vielzahl von Stimmeigenschaften in ihrer Sprache zugeordnet werden, die für diesen bestimmten bekannten Benutzer einzigartig sind. Diese einzigartigen Eigenschaften können genutzt werden, um bestimmte Schlüsselwörter, die von einem bekannten Benutzer gesprochen wurden, mit anderen Wörtern zu identifizieren, die von einem nicht identifizierten Benutzer gesprochen wurden, der möglicherweise nicht mit der jeweiligen Vorrichtung verknüpft ist und somit nicht in der vorbestimmten Liste der autorisierten bekannten Benutzer zu finden ist.As used herein, a known user can be a particular user, derived from a variety of sources, and identified by any of personal computing devices 101-109. For example, the voice-based health recognition system 100 may be configured to specifically identify whether a particular keyword is said by the known user. The known user may be derived from a variety of identified sources, which may be included in a predetermined list of authorized known users associated with the particular personal computing device. These identified and authorized known users can be associated with a variety of voice characteristics in their speech that are unique to that particular known user. These unique properties can be used to identify certain keywords spoken by a known user with other words spoken by an unidentified user who may not be associated with the particular device and thus not in the predetermined list of authorized known users can be found.
In vielen Ausführungsformen kann das sprachbasierte Gesundheitserkennungssystem 100 die persönlichen Computervorrichtungen 101-109 verwenden, die so konfiguriert sein können, dass sie Daten im Zusammenhang mit der Erzeugung, Aufzeichnung, Verfolgung und Verarbeitung von bekannten Benutzerdaten, Datenschutzdaten, Schwellendaten, erfassten Daten wie Vitalzeichen der bekannten Benutzer und/oder anderen Signaldaten übertragen und empfangen, wobei das sprachbasierte Gesundheitserkennungssystem 100 jeweils eine Vielzahl von Alarmen (oder Alarmbenachrichtigungen) in Bezug auf die übertragenen und empfangenen Daten von den Sensoren als Reaktion auf eine oder mehrere stimmliche Eigenschaften der bekannten Benutzer, die einen vorbestimmten Schwellenwert überschreiten, erzeugen kann. In derartigen Ausführungsformen können die Stimmeigenschaften ein oder mehrere Stimmmerkmale umfassen, die aus den Audiodaten extrahiert wurden (d. h. extrahierte Stimmeigenschaften), die für den bekannten Benutzer spezifisch sind, wie etwa, aber nicht beschränkt auf, Stimmlage, Stimmgeschwindigkeit, Stimmumfang, Stimmgewichtung, Stimmfarbklang und/oder ähnliches.In many embodiments, the voice-based health recognition system 100 may use the personal computing devices 101-109, which may be configured to collect data related to the generation, recording, tracking, and processing of known user data, privacy data, threshold data, collected data such as vital signs of known Transmitting and receiving user and/or other signaling data, the voice-based health detection system 100 each providing a variety of alerts (or alert notifications) related to the transmitted and received data from the sensors in response to one or more vocal characteristics of the known users representing a predetermined Exceed threshold can generate. In such embodiments, the voice characteristics may include one or more voice characteristics extracted from the audio data (i.e., extracted voice characteristics) that are specific to the known user, such as, but not limited to, voice pitch, voice speed, vocal range, voice weight, voice color tone, and /or similar.
Wie in der in 1 veranschaulichten Ausführungsform gezeigt, kann der sprachbasierte Gesundheitserkennungsserver 120 kommunikativ mit einem oder mehreren Netzwerk(en) 110 wie beispielsweise dem Internet gekoppelt sein. Der sprachbasierte Gesundheitserfassungsserver 120 kann so implementiert werden, dass er eine Vielzahl von Daten über das Netzwerk 110 an eine beliebige Anzahl von Computervorrichtungen überträgt, wie etwa, aber nicht beschränkt auf, die persönlichen Computervorrichtungen 101-109, den Betreuer-Server 130 und/oder andere Computervorrichtungen. In zusätzlichen Ausführungsformen können alle sprachbasierten Gesundheitserkennungsdaten in zusätzlichen cloudbasierten Servern von Dienstanbietern, Edge-Netzwerksystemen und/oder ähnlichem gespiegelt werden. In anderen zusätzlichen Ausführungsformen kann der sprachbasierte Gesundheitserkennungsserver 120 als ein oder mehrere virtuelle Server innerhalb eines cloudbasierten Dienstes und/oder einer Anwendung gehostet werden.As in the in 1 illustrated embodiment, the voice-based Health detection server 120 may be communicatively coupled to one or more network(s) 110, such as the Internet. Voice-based health assessment server 120 may be implemented to transmit a variety of data over network 110 to any number of computing devices, such as but not limited to personal computing devices 101-109, caregiver server 130, and/or other computing devices. In additional embodiments, all voice-based health identification data may be mirrored in additional cloud-based servers of service providers, edge network systems, and/or the like. In other additional embodiments, voice-based health detection server 120 may be hosted as one or more virtual servers within a cloud-based service and/or application.
In einigen Ausführungsformen kann die Übertragung von Daten, die dem sprachbasierten Gesundheitserkennungssystem 100 zugeordnet sind, über das Netzwerk 110 durch eine oder mehrere drahtgebundene und/oder drahtlose Verbindungen erfolgen. Beispielsweise können eine oder mehrere der persönlichen Computervorrichtungen 101-109 über einen drahtlosen Netzwerkzugangspunkt und/oder beliebige drahtlose Vorrichtungen drahtlos mit dem Netzwerk 110 gekoppelt sein. Wie in 1 veranschaulicht, kann es sich bei den persönlichen Computervorrichtungen 101-109 um jede Art von Computervorrichtungen handeln, die in der Lage sind, Audiodaten zu erfassen und von jedem der bekannten Benutzer verwendet zu werden, einschließlich, aber nicht beschränkt auf ein Paar intelligenter Hörgeräte 101 wie Ohrhörer, Kopfhörer usw., ein am Kopf montiertes Display 102 wie Virtual-Reality-Displays usw., eine Spielkonsole 103, eine tragbare Vorrichtung 104, ein Computer-Tablet 105, eine tragbare Vorrichtung 106 wie intelligente Uhren, Fitnessuhren usw., eine intelligente Fernbedienung 107, wie sprachgesteuerte Fernbedienungen für Fernseher, sprachgesteuerte Garagenfernbedienungen, sprachgesteuerte Fernbedienungen für Vorrichtungen/Geräte usw., einen intelligenten Lautsprecher 108, wie sprachgesteuerte intelligente persönliche Assistenten, sprachgesteuerte Lautsprecher usw., und eine intelligente Haushaltsvorrichtung 109, wie sprachgesteuerte Thermostatsteuerungen, sprachgesteuerte Sicherheitsüberwachungsvorrichtungen, intelligente Haushaltsgeräte, sprachgesteuerte Beleuchtungssteuerungsvorrichtungen usw.In some embodiments, transmission of data associated with voice-based health recognition system 100 may occur over network 110 through one or more wired and/or wireless connections. For example, one or more of personal computing devices 101-109 may be wirelessly coupled to network 110 via a wireless network access point and/or any wireless devices. As in 1 As illustrated, the personal computing devices 101-109 can be any type of computing device capable of capturing audio data and used by any of the known users, including but not limited to a pair of intelligent hearing aids 101 such as Earphones, headphones, etc., a head-mounted display 102 such as virtual reality displays, etc., a game console 103, a wearable device 104, a computer tablet 105, a wearable device 106 such as smart watches, fitness watches, etc., a smart Remote control 107 such as voice controlled television remote controls, voice controlled garage remote controls, voice controlled remote device/appliance controls, etc., a smart speaker 108 such as voice controlled intelligent personal assistants, voice controlled speakers, etc., and a smart home device 109 such as voice controlled thermostat controls, voice controlled security monitoring devices, smart home appliances, voice controlled lighting control devices, etc.
In weiteren Ausführungsformen können die persönlichen Computervorrichtungen 101-109 jede Art von sprachbasierten Computervorrichtungen sein. Beispielsweise können die sprachbasierten Computervorrichtungen jede Art von tragbaren handgeführten Vorrichtungen einschließen, wie eine mobile Vorrichtung, ein Mobiltelefon, ein mobiles oder zelluläres Pad, ein Computer-Tablet, einen persönlichen digitalen Assistenten (PDA), jede Art von tragbaren Vorrichtungen, jede andere gewünschte sprachbasierte Vorrichtung und/oder ein oder mehrere weit verbreitete laufende Software- und/oder mobile Betriebssysteme. Bei den sprachgesteuerten Computervorrichtungen kann es sich um persönliche Computer und/oder Laptops handeln, auf denen verschiedene Betriebssysteme laufen. Bei den sprachgesteuerten Computervorrichtungen kann es sich um Workstation-Computer handeln, auf denen eine Vielzahl von handelsüblichen Betriebssystemen läuft. Alternativ kann es sich bei den sprachbasierten Computervorrichtungen auch um jede andere elektronische Vorrichtung handeln, wie einen Thin-Client-Computer, ein internetfähiges Spielsystem mit einer Messaging-Eingabevorrichtung und/oder eine persönliche sprachfähige Messaging-Vorrichtung, die die Kommunikation über das Netzwerk 110 ermöglicht. Obwohl in 1 neun persönliche Computervorrichtungen 101-109 veranschaulicht sind, kann das sprachbasierte Gesundheitserkennungssystem 100 ohne Einschränkung jede beliebige Anzahl von Computervorrichtungen und jede Art von Computervorrichtungen verwenden. Ebenso versteht es sich von selbst, dass alle Arten von drahtgebundenen und/oder drahtlosen Verbindungen zwischen allen Komponenten des sprachbasierten Gesundheitserkennungssystems 100 ohne Einschränkungen verwendet werden können, basierend auf jeder gewünschten Kombination von Vorrichtungen, Verbindungen usw.In other embodiments, personal computing devices 101-109 may be any type of speech-based computing device. For example, the voice-based computing devices may include any type of portable handheld device, such as a mobile device, cell phone, mobile or cellular pad, computer tablet, personal digital assistant (PDA), any type of handheld device, any other desired voice-based Device and/or one or more widely used running software and/or mobile operating systems. The voice controlled computing devices can be personal computers and/or laptops running various operating systems. The voice controlled computing devices can be workstation computers running a variety of commercially available operating systems. Alternatively, the voice-enabled computing devices may be any other electronic device, such as a thin client computer, an internet-enabled gaming system with a messaging input device, and/or a personal voice-enabled messaging device that enables communication over the network 110 . Although in 1 As nine personal computing devices 101-109 are illustrated, the voice-based health recognition system 100 may use any number of computing devices and any type of computing device without limitation. Likewise, it goes without saying that all types of wired and/or wireless connections between all components of the speech-based health recognition system 100 can be used without restrictions, based on any desired combination of devices, connections, etc.
In verschiedenen Ausführungsformen kann das sprachbasierte Gesundheitserkennungssystem 100 so implementiert werden, dass es kontinuierlich Daten des sprachbasierten Gesundheitserkennungssystems empfängt und überwacht, wie bekannte Benutzerdaten, Datenschutzdaten, Schwellenwertdaten, erfasste Daten und/oder beliebige andere Signaldaten von den bekannten Benutzern über eine beliebige Anzahl von persönlichen Computervorrichtungen 101-109, Personalcomputern, persönlichen Abhörcomputervorrichtungen und/oder persönlichen mobilen Computervorrichtungen. In vielen Ausführungsformen kann das sprachbasierte Gesundheitserkennungssystem eine Vielzahl von Daten verarbeiten, die sich auf Schlüsselwörter, Vitalzeichendaten, Basis-Messungen und Stimmeigenschaften der bekannten Benutzer beziehen; bestimmen, ob die verarbeiteten Stimmeigenschaften vorbestimmte Schwellenwerte überschreiten, wie dynamische und/oder statische vorbestimmte Schwellenwerte; und Alarmbenachrichtigungen an die bekannten Benutzer und/oder den Betreueralarm-Server 130 als Reaktion darauf erzeugen und übertragen, dass die extrahierten Stimmeigenschaften den vorbestimmten Schwellenwert überschritten haben. Des Weiteren können in einigen Ausführungsformen die Alarmbenachrichtigungen aus einer Liste vorbestimmter Einwirkungen innerhalb des sprachbasierten Gesundheitserkennungsservers 120, des Betreuerservers 130 und/oder der persönlichen Computervorrichtungen 101-109 erzeugt werden.In various embodiments, the voice-based health recognition system 100 may be implemented to continuously receive and monitor voice-based health recognition system data, such as known user data, privacy data, threshold data, sensed data, and/or any other signal data from the known users via any number of personal computing devices 101-109, personal computers, personal listening computing devices, and/or personal mobile computing devices. In many embodiments, the voice-based health recognition system can process a variety of data related to keywords, vital sign data, baseline measurements, and voice characteristics of known users; determining whether the processed voice characteristics exceed predetermined thresholds, such as dynamic and/or static predetermined thresholds; and generate and transmit alert notifications to the known users and/or the attendant alert server 130 in response to the extracted voice characteristics meeting the predetermined thresholds have exceeded value. Furthermore, in some embodiments, the alert notifications may be generated from a list of predetermined exposures within speech-based health detection server 120, caregiver server 130, and/or personal computing devices 101-109.
In anderen Ausführungsformen können die Daten des sprachbasierten Gesundheitserkennungssystems ebenso von persönlichen Identifizierungsdaten, wie persönlichen Anamnesedaten, abgetrennt werden und an den sprachbasierten Gesundheitserkennungsserver 120, den Betreuerserver 130, die Datenspeicher 140, 142 und/oder andere cloudbasierte Dienste zur Verarbeitung und/oder Speicherung übertragen werden. Die verarbeiteten und/oder gespeicherten Daten können dann zurück an die persönlichen Computervorrichtungen 101-109 übertragen werden, um sie an die bekannten Benutzer auszugeben. Beispielsweise können die abgetrennten, verarbeiteten und gespeicherten Daten unter Verwendung einer oder mehrerer Formen der Datenübertragung wie Blockchain-basierte Datenübertragung, Hash-basierte Datenübertragung, verschlüsselte Datenübertragung und/oder andere ähnlich geschützte Datenübertragungstechniken übertragen werden. In verschiedenen Ausführungsformen kann der Betreuer-Server 130 so implementiert werden, dass er Daten in Bezug auf die Vitalzeichen der bekannten Benutzer und alle damit verbundenen Alarmdaten der bekannten Benutzer empfängt (und/oder überträgt), was Alarmmeldungen einschließt, die als Frühwarnalarm für potenzielle schwerwiegende Gesundheitsprobleme der bekannten Benutzer empfangen werden. Der Betreuer-Server 130 kann beispielsweise ein Server, eine Vorrichtung und/oder ein System sein, das Ärzten, Krankenschwestern und/oder anderen primären Betreuern zugeordnet ist, die eine medizinisch-patientische Beziehung zu den bekannten Nutzern aufweisen und qualifiziert sind, weitere Diagnosen für potenzielle schwere Gesundheitsprobleme zu erstellen.In other embodiments, voice health identification system data may also be separated from personal identification data, such as personal medical history data, and transmitted to voice health identification server 120, caregiver server 130, data stores 140, 142, and/or other cloud-based services for processing and/or storage . The processed and/or stored data can then be transmitted back to the personal computing devices 101-109 for delivery to the known users. For example, the separated, processed, and stored data may be transferred using one or more forms of data transfer, such as blockchain-based data transfer, hash-based data transfer, encrypted data transfer, and/or other similarly protected data transfer techniques. In various embodiments, the caregiver server 130 may be implemented to receive (and/or transmit) data relating to the known users' vital signs and any associated known user alert data, including alert messages intended as early warning alerts for potential serious Health problems of known users are received. Caregiver server 130 may be, for example, a server, device, and/or system associated with physicians, nurses, and/or other primary caregivers who have a medical-patient relationship with the known users and are qualified to provide further diagnostics to create potential serious health problems.
Zusätzlich kann der sprachbasierte Gesundheitserkennungsserver 120 in einigen Ausführungsformen implementiert werden, um einen oder mehrere sprachbasierte Gesundheitserkennungsdienste oder Softwareanwendungen auszuführen, die von einer oder mehreren Komponenten des sprachbasierten Gesundheitserkennungssystems 100 bereitgestellt werden. Die sprachbasierten Gesundheitserkennungsdienste oder Softwareanwendungen können nicht-virtuelle und virtuelle Umgebungen für die Gesundheitsüberwachung/-detektion einschließen. In einigen Ausführungsformen können diese Dienste den bekannten Benutzern der persönlichen Computervorrichtungen 101-109 als webbasierte oder cloudbasierte Dienste oder im Rahmen eines Software as a Service (SaaS)-Modells angeboten werden. Die bekannten Benutzer der persönlichen Computervorrichtungen 101-109 können ihrerseits eine oder mehrere Client-/Benutzeranwendungen verwenden, um mit dem sprachbasierten Gesundheitserkennungsserver 120 (und/oder dem Betreuer-Server 130) zu interagieren und die von diesen Servern angebotenen Dienste zu nutzen.Additionally, in some embodiments, voice-based health recognition server 120 may be implemented to run one or more voice-based health recognition services or software applications provided by one or more components of voice-based health recognition system 100 . The voice-based health detection services or software applications may include non-virtual and virtual health monitoring/detection environments. In some embodiments, these services may be offered to known users of personal computing devices 101-109 as web-based or cloud-based services, or under a Software as a Service (SaaS) model. In turn, the known users of the personal computing devices 101-109 may use one or more client/user applications to interact with the voice-based health recognition server 120 (and/or the caregiver server 130) and utilize the services offered by these servers.
Der sprachbasierte Gesundheitserkennungsserver 120 kann als personalisierter Computer, spezialisierter Server (einschließlich, als nicht einschränkendes Beispiel, Personal Computer (PC)-Server, Mid-Range-Server, Mainframe-Computer, Rack-Server usw.), Server-Farmen, Server-Cluster und/oder jede andere geeignete gewünschte Konfiguration konfiguriert werden. Der sprachbasierte Gesundheitserkennungsserver 120 kann eine oder mehrere virtuelle Maschinen einschließen, auf denen virtuelle Betriebssysteme laufen, und/oder andere Computerarchitekturen, die Virtualisierung einschließen. Ein oder mehrere flexible Pools von logischen Speichervorrichtungen können virtualisiert werden, um virtuelle Vorrichtungen für den sprachbasierten Erfassungsvorrichtung-Server 120 zu verwalten. Virtuelle Netzwerke können durch den sprachbasierten Gesundheitserkennungsserver 120 über ein softwaredefiniertes (oder cloudbasiertes/definiertes) Netzwerk gesteuert werden. In verschiedenen Ausführungsformen kann der sprachbasierte Gesundheitserkennungsserver 120 so konfiguriert sein, dass er eine oder mehrere hierin beschriebene Anweisungen, Programme, Dienste und/oder Softwareanwendungen ausführt. Beispielsweise kann der sprachbasierte Gesundheitserkennungsserver 120 mit einem Server verknüpft sein, der implementiert ist, um einen der nachstehend in den 4, 5 und/oder 6A-6B beschriebenen Prozesse durchzuführen. Der sprachbasierte Gesundheitserkennungsserver 120 kann eine oder mehrere zusätzliche Serveranwendungen und/oder Mid-Tier-Anwendungen implementieren, einschließlich, aber nicht beschränkt auf Hypertext Transport Protocol (HTTP)-Server, File Transfer Protocol (FTP)-Server, Common Gateway Interface (CGI)-Server, Datenbankserver und/oder dergleichen.The speech-based health detection server 120 can be implemented as a personalized computer, specialized server (including, by way of non-limiting example, personal computer (PC) servers, mid-range servers, mainframe computers, rack servers, etc.), server farms, server cluster and/or any other suitable desired configuration can be configured. The voice-based health detection server 120 may include one or more virtual machines running virtual operating systems and/or other computer architectures that include virtualization. One or more flexible pools of logical storage devices can be virtualized to manage virtual devices for speech-based capture device server 120 . Virtual networks can be controlled by the voice-based health detection server 120 over a software-defined (or cloud-based/defined) network. In various embodiments, the voice-based health detection server 120 may be configured to execute one or more instructions, programs, services, and/or software applications described herein. For example, the speech-based health detection server 120 may be associated with a server implemented to perform any of the below 4 , 5 and/or perform the processes described in Figures 6A-6B. The speech-based health detection server 120 may implement one or more additional server applications and/or mid-tier applications, including but not limited to Hypertext Transport Protocol (HTTP) servers, File Transfer Protocol (FTP) servers, Common Gateway Interface (CGI) servers, database servers and/or the like.
Wie in 1 gezeigt, kann das sprachbasierte Gesundheitserkennungssystem 100 ebenso die ein oder mehreren Datenspeicher 140 und 142 einschließen. Die Datenspeicher 140 und 142 können sich an verschiedenen Orten befinden. Als nicht einschränkendes Beispiel können sich einer oder mehrere der Datenspeicher 140 und 142 auf einem nicht-transitorischen Speichermedium befinden, das lokal zu dem sprachbasierten Gesundheitserkennungsserver 120 ist (und/oder sich darin befindet). Alternativ können die Datenspeicher 140 und 142 von dem sprachbasierten Gesundheitserkennungsserver 120 entfernt sein und über beliebige gewünschte Verbindungen/Konfigurationen mit dem sprachbasierten Gesundheitserkennungsserver 120 kommunizieren. In einigen Ausführungsformen können die Datenspeicher 140 und 142 ein oder mehrere externe medizinische Datenspeicher sein, die verwendet werden, um Daten zu speichern, die sich auf Patienteninformationen, private Informationen und/oder die Krankengeschichte eines beliebigen der bekannten Benutzer beziehen. Beispielsweise können die externen medizinischen Datenspeicher entfernt von dem sprachbasierten Gesundheitserkennungsserver 120 und irgendeiner der persönlichen Computervorrichtungen 101 - 109 gespeichert werden.As in 1 As shown, voice-based health recognition system 100 may also include one or more data stores 140 and 142 . The data stores 140 and 142 can be in different locations. As a non-limiting example, one or more of data stores 140 and 142 may reside on a non-transitory storage medium that is local to (and/or resides in) voice-based health awareness server 120 . Alternatively, the data stores 140 and 142 may be remote from the voice-based health detection server 120 and via anyone communicate desired connections/configurations with the speech-based health recognition server 120. In some embodiments, data stores 140 and 142 may be one or more external medical data stores used to store data related to patient information, private information, and/or medical history of any of the known users. For example, the external medical data stores may be stored remotely from the voice-based health recognition server 120 and any of the personal computing devices 101-109.
Unter Bezugnahme auf 2A wird eine abstrakte Darstellung einer sprachbasierten Gesundheitserkennungsvorrichtung 200 gemäß einer Ausführungsform der Offenbarung gezeigt. In vielen Ausführungsformen kann die sprachbasierte Gesundheitserkennungsvorrichtung 200 einen Prozessor 210, einen Speicher 215 mit einer sprachbasierten Gesundheitserkennungsanwendung 220, eine Eingabe/Ausgabe 230 und einen Datenspeicher 240 einschließen. Die in 2A abgebildete sprachbasierte Gesundheitserkennungsvorrichtung 200 kann dem in 1 abgebildeten sprachbasierten Gesundheitserkennungsserver 120 ähnlich sein. Beispielsweise kann die sprachbasierte Gesundheitserkennungsvorrichtung 200 von dem sprachbasierten Gesundheitserkennungssystem 100 in Verbindung mit anderen zusätzlichen Vorrichtungen, Servern und/oder Systemen implementiert werden, wie etwa, aber nicht beschränkt auf, eine oder mehrere der persönlichen Computervorrichtungen 101-109 und den in 1 veranschaulichten Betreuer-Server 130. In einigen Ausführungsformen kann die sprachbasierte Gesundheitserkennungsvorrichtung 200 eine beliebige Vorrichtung sein, die einen sprachbasierten Gesundheitserkennungssystemprozess wie den in 1 veranschaulichten sprachbasierten Gesundheitserkennungssystemprozess 100 implementieren kann. Wie bereits erwähnt, können die Computervorrichtungen jede der persönlichen Computervorrichtungen 101-109 der 1 einschließen und/oder jede Computervorrichtung einschließen, die ausreicht, um sprachbasierte Gesundheitserkennungsvorgänge von bekannten Benutzern zu empfangen, zu übertragen und zu beantworten.With reference to 2A A high-level representation of a voice-based health recognition device 200 according to an embodiment of the disclosure is shown. In many embodiments, voice-based health recognition device 200 may include processor 210, memory 215 with voice-based health recognition application 220, input/output 230, and data storage 240. In the 2A The voice-based health recognition device 200 depicted in FIG 1 be similar to the voice-based health detection server 120 depicted. For example, voice-based health recognition device 200 may be implemented by voice-based health recognition system 100 in conjunction with other additional devices, servers, and/or systems, such as, but not limited to, one or more of personal computing devices 101-109 and the 1 illustrated caregiver server 130. In some embodiments, the voice-based health recognition device 200 may be any device that implements a voice-based health recognition system process such as those described in FIG 1 illustrated speech-based health recognition system process 100 can implement. As previously mentioned, the computing devices may be any of the personal computing devices 101-109 of 1 and/or include any computing device sufficient to receive, transmit and respond to voice-based health identification events from known users.
In verschiedenen Ausführungsformen kann die sprachbasierte Gesundheitserkennungsvorrichtung 200 kommunikativ mit einer der persönlichen Computervorrichtungen 101-109 aus 1 gekoppelt sein, die so konfiguriert sind, dass sie Stimmeigenschaften überwachen und Stimmveränderungen identifizieren. Derartige Stimmveränderungen können von der sprachbasierten Gesundheitserkennungsvorrichtung 200 dazu verwendet werden, Frühzeichen von möglichen Gesundheitsproblemen bekannter Benutzer zu identifizieren und zu erkennen. In vielen Ausführungsformen kann die sprachbasierte Gesundheitserkennungsvorrichtung 200 diese frühen Gesundheitsprobleme erkennen, indem sie eine oder mehrere Logiken innerhalb einer sprachbasierten Gesundheitserkennungsanwendung 220 implementiert, um Audiodaten von den Sensoren zu empfangen, Schlüsselwörter aus den empfangenen Audiodaten zu identifizieren und Stimmeigenschaften aus den identifizierten Schlüsselwörtern zu extrahieren.In various embodiments, voice-based health recognition device 200 may be communicative with one of personal computing devices 101-109 1 be coupled that are configured to monitor voice characteristics and identify voice changes. Such voice changes can be used by the speech-based health recognition device 200 to identify and recognize early signs of possible health problems of known users. In many embodiments, the voice-based health recognition device 200 can detect these early health issues by implementing one or more logic within a voice-based health recognition application 220 to receive audio data from the sensors, identify keywords from the received audio data, and extract voice characteristics from the identified keywords.
Wie in 2A veranschaulicht, kann der Speicher 215 die sprachbasierte Gesundheitserkennungsanwendung 220 umfassen, die darüber hinaus eine Vitalüberwachungslogik 221, eine Probenvorverarbeitungslogik 222, eine Probenverarbeitungslogik 223, eine Schlüsselwort-Detektorlogik 224 (und/oder eine Sensorausgabe-Detektorlogik), eine Stimmeigenschaftenlogik 225, eine Vitalverarbeitungslogik 226, eine Alarmlogik 227, eine Datenschutzlogik 228 und/oder eine heuristische Logik 229 umfasst. Der Datenspeicher 240 kann erfasste Daten 241, Datenschutzdaten 242, Schwellendaten 243, Signaldaten 244 und bekannte Benutzerdaten 250 einschließen.As in 2A As illustrated, memory 215 may include speech-based health detection application 220, which may also include vital monitoring logic 221, sample preprocessing logic 222, sample processing logic 223, keyword detector logic 224 (and/or sensor output detector logic), voice characteristics logic 225, vital processing logic 226, an alarm logic 227, a data protection logic 228 and/or a heuristic logic 229. Data store 240 may include captured data 241, privacy data 242, threshold data 243, signal data 244, and known user data 250.
In einer Reihe von Ausführungsformen kann die Vitalüberwachungslogik 221 so konfiguriert sein, dass sie Daten zwischen der sprachbasierten Gesundheitserkennungsvorrichtung 200 und externen Computervorrichtungen, wie den persönlichen Computervorrichtungen 101-109 der 1, externen Sensor-/Überwachungsdiensten usw., empfängt und/oder deren Übertragung erleichtert. Die von der Vitalüberwachungslogik 221 empfangenen Daten können beispielsweise als die erfassten Daten 241 im Datenspeicher 240 gespeichert werden, wobei die erfassten Daten 241 jede Art von Daten einschließen können, die von der Vitalüberwachungslogik 221 erfasst und empfangen wurden. In einigen Ausführungsformen kann die Vitalüberwachungslogik 221 über eine Netzwerkverbindung, ähnlich dem in 1 veranschaulichten Netzwerk 110, Kommunikationskanäle mit den externen Vorrichtungen herstellen. Bestimmte Ausführungsformen können die vom Betriebssystem der sprachbasierten Gesundheitserkennungsvorrichtung 200 bereitgestellten Netzwerkverbindungswerkzeuge nutzen.In a number of embodiments, vital monitoring logic 221 may be configured to exchange data between voice-based health recognition device 200 and external computing devices, such as personal computing devices 101-109 of FIG 1 , external sensor/monitoring services, etc., receives and/or facilitates the transmission thereof. For example, the data received by the vital monitoring logic 221 may be stored as the collected data 241 in the data store 240 , where the collected data 241 may include any type of data that the vital monitoring logic 221 collected and received. In some embodiments, the vital monitoring logic 221 may be connected over a network connection similar to that shown in FIG 1 illustrated network 110, establish communication channels with the external devices. Certain embodiments may utilize the network connection tools provided by the operating system of the speech-based health recognition device 200.
Die Vitalüberwachungslogik 221 kann so konfiguriert sein, dass sie Signaleingaben von geeigneten Signalquellen empfängt, wie einem Mikrofon, einer Audiodatenquelle und/oder einem Sensor. Das Mikrofon kann Audiomikrofone, digitale Mikrofone oder andere Vorrichtungen zur Erkennung von Wellenformen einschließen. Die Audiodatenquelle kann jede andere Art von verarbeitender Datenquelle umfassen, die in der Lage ist, verschiedene Eingangssignale zu empfangen/erfassen/bereitzustellen. Der Sensor kann jede Art von Sensoren und/oder sensorfähigen Vorrichtungen umfassen, wie etwa, aber nicht beschränkt auf, Vitalzeichenüberwachungssensoren (z. B. Sensoren, die zur Überwachung von Herzfrequenz, Blutdruck, Körpertemperatur, Sauerstoffsättigung (SpO2), Stimmeigenschaften usw. verwendet werden), medizinische Sensoren, Fitness-Tracking-Sensoren, Infrarotsensoren, Drucksensoren, Temperatursensoren, Näherungssensoren, Bewegungssensoren, Fingerabdruckscanner, Fotoaugensensoren, drahtlose Signalantennen, Beschleunigungssensoren, Gyroskope, Magnetometer, Neigungssensoren, Feuchtigkeitssensoren, Barometer, Lichtsensoren (z. B. Umgebungslichtsensoren), Farbsensoren, Berührungssensoren, Strömungssensoren, Füllstandsensoren, Ultraschallsensoren, Rauch-, Alkohol- und/oder Gassensoren (d. h. Sensoren, die in der Lage sind, Rauch/Alkohol/Gas in den menschlichen Atemwegen zu erkennen) und so weiter. Zum Beispiel können die von der Vitalüberwachungslogik 221 über das Mikrofon, die Audiodatenquelle und/oder die Sensoren empfangenen Signaleingangsdaten als Signaldaten 244 in den erfassten Daten 241 des Datenspeichers 240 gespeichert werden, wobei die Signaldaten 244 jede Art von Signaleingangsdaten wie Audiodaten, Audiosignalströme, Audiowellenform-Samples usw. einschließen können.The vital monitoring logic 221 may be configured to receive signal inputs from appropriate signal sources, such as a microphone, an audio data source, and/or a sensor. The microphone may include audio microphones, digital microphones, or other waveform detection devices. The audio data source may comprise any other type of processing data source capable of various inputs to receive/capture/provide input signals. The sensor can include any type of sensors and/or sensor-enabled devices, such as, but not limited to, vital sign monitoring sensors (e.g., sensors used to monitor heart rate, blood pressure, body temperature, oxygen saturation (SpO2), voice characteristics, etc ), medical sensors, fitness tracking sensors, infrared sensors, pressure sensors, temperature sensors, proximity sensors, motion sensors, fingerprint scanners, photo eye sensors, wireless signal antennas, accelerometers, gyroscopes, magnetometers, tilt sensors, humidity sensors, barometers, light sensors (such as ambient light sensors), color sensors , touch sensors, flow sensors, liquid level sensors, ultrasonic sensors, smoke, alcohol and/or gas sensors (ie sensors capable of detecting smoke/alcohol/gas in the human respiratory tract) and so on. For example, the signal input data received by the vital monitoring logic 221 via the microphone, the audio data source and/or the sensors can be stored as signal data 244 in the captured data 241 of the data store 240, the signal data 244 being any type of signal input data such as audio data, audio signal streams, audio waveform may include samples, etc.
In vielen Ausführungsformen kann die Probenvorverarbeitungslogik 222 in Verbindung mit der Probenverarbeitungslogik 223 so konfiguriert sein, dass sie mit den von der Vitalüberwachungslogik 221 empfangenen Signaldaten 244 alle Daten im Zusammenhang mit den erfassten Daten 241 empfängt, verarbeitet und überträgt. Die Probenvorverarbeitungslogik 222 kann so konfiguriert sein, dass sie die Stimmeigenschaften, die aus den vorverarbeiteten Sensordaten wie den erfassten Daten 241 extrahiert wurden, verwendet, um zu einer oder mehreren umsetzbaren Entscheidungen durch ein neuronales Netzwerk oder dergleichen zu gelangen. In vielen Ausführungsformen kann die Probenvorverarbeitungslogik 222 als Filterbank oder ähnliches konfiguriert werden, die beispielsweise die erfassten Signaldaten 244 empfängt, wobei die empfangenen Daten von der Probenvorverarbeitungslogik 222 basierend auf den gewünschten einwirkungsfähigen Entscheidungen gefiltert und vorverarbeitet werden können, bevor diese Daten der Probenverarbeitungslogik 223 zugeführt werden. Das bedeutet, dass die Probenvorverarbeitungslogik 222 in einigen Ausführungsformen als ein Anreicherungsfilter oder ähnliches konfiguriert werden kann, der so konfiguriert werden kann, dass er unerwünschtes Rauschen in einem Signal unterdrückt, indem er bestimmte Komponenten des Signals auf einer zeitlich variierenden Basis selektiv abschwächt oder verstärkt, und/oder indem er unerwünschtes Rauschen in einem Signal unterdrückt, indem er bestimmte Komponenten des Signals auf einer zeitlich variierenden Basis selektiv abschwächt oder verstärkt. Beispielsweise kann die Probenvorverarbeitungslogik 222 als PDM-Dezimierungslogik (Pulse-Density-Modulation) konfiguriert sein, die so konfiguriert ist, dass sie PDM-Audioproben von einer der hierin beschriebenen Signaleingangsquellen auf eine Basisband-Audioabtastrate zur Verwendung in der sprachbasierten Gesundheitserkennungsvorrichtung 200 dezimiert.In many embodiments, the sample pre-processing logic 222 may be configured in conjunction with the sample processing logic 223 to use the signal data 244 received from the vital monitoring logic 221 to receive, process, and transmit any data associated with the acquired data 241 . The sample pre-processing logic 222 may be configured to use the voice characteristics extracted from the pre-processed sensor data, such as the acquired data 241, to arrive at one or more actionable decisions through a neural network or the like. In many embodiments, the sample pre-processing logic 222 may be configured as a filter bank or the like that receives, for example, the acquired signal data 244, where the received data may be filtered and pre-processed by the sample pre-processing logic 222 based on the desired actionable decisions before such data is provided to the sample processing logic 223 . That is, in some embodiments, the sample preprocessing logic 222 may be configured as an enhancement filter or the like, which may be configured to suppress unwanted noise in a signal by selectively attenuating or enhancing certain components of the signal on a time-varying basis, and/or by suppressing unwanted noise in a signal by selectively attenuating or amplifying certain components of the signal on a time-varying basis. For example, sample preprocessing logic 222 may be configured as pulse-density modulation (PDM) decimation logic configured to decimate PDM audio samples from any of the signal input sources described herein to a baseband audio sample rate for use in speech-based health recognition device 200.
Die Probenverarbeitungslogik 223 kann so konfiguriert sein, dass sie jede Art von Signaldaten empfängt, wie Frequenzelemente oder Signalspektruminformationen in Form von Fourier-Transformationen oder ähnlichen Frequenzzerlegungen, wobei die empfangenen Signaldaten für Audiosignalverarbeitungsaufgaben wie Audioverbesserung, Rauschunterdrückung und/oder ähnliches verarbeitet werden können. In vielen Ausführungsformen kann die Probenverarbeitungslogik 223 die Audiosignalverarbeitungsaufgaben übernehmen und mit der Schlüsselwortdetektorlogik 224 zusammenarbeiten, die so konfiguriert ist, dass sie Audioeingangsdaten empfängt und anschließend Worterkennungsaufgaben durchführt, wie die Intensivierung von Merkmalen aus den empfangenen Eingangsdaten und so weiter. Beispielsweise kann, wie hierin beschrieben, die Schlüsselwortdetektorlogik 224 eine Sensorausgabe-Detektorlogik sein, die so konfiguriert ist, dass sie Merkmale, Schlüsselwörter usw. aus den empfangenen Signaldaten 244 identifiziert, und dann kann die Probenverarbeitungslogik 223 so konfiguriert sein, dass sie jeweils Schlüsselwortdaten (und/oder Merkmalsdaten, Sensorausgabedaten usw.) in Bezug auf die identifizierten Schlüsselwörter erzeugt und die erzeugten Schlüsselwortdaten mit den bekannten Benutzerdaten 250 vergleicht, wie nachstehend näher beschrieben. In einigen Ausführungsformen kann die Probenverarbeitungslogik 223 in Verbindung mit der Schlüsselwortdetektorlogik 224 dazu verwendet werden, die identifizierten Schlüsselwörter und die erzeugten/verarbeiteten Schlüsselwortdaten an die Stimmeigenschaftenlogik 225 zu übertragen, und zwar basierend auf dem Ergebnis(se), die aus den durchgeführten Aufgaben zur Worterkennung von beiden und/oder einer oder mehreren der Probenverarbeitungslogik 223 und der Schlüsselwortdetektorlogik 224 aggregiert wurden. Zusätzlich, wie nachstehend näher beschrieben, kann die Schlüsselwortdetektorlogik 224 Zugriff auf einen oder mehrere Datentypen innerhalb der in 2B dargestellten bekannten Benutzerdaten 250 aufweisen, die eine oder mehrere Listen von Schlüsselwörtern, die in den Schlüsselwortdaten 267 gespeichert sind, Stimmeigenschaften, die in den Vitaldaten 263 gespeichert sind, und/oder bestimmte Stimmidentifikationsdaten der bestimmten bekannten Benutzer, die in den Stimmdaten 261 und/oder persönlichen Informationsdaten 264 gespeichert sind, einschließen können.Sample processing logic 223 may be configured to receive any type of signal data, such as frequency elements or signal spectrum information in the form of Fourier transforms or similar frequency decompositions, where the received signal data may be processed for audio signal processing tasks such as audio enhancement, noise reduction, and/or the like. In many embodiments, sample processing logic 223 may perform the audio signal processing tasks and cooperate with keyword detector logic 224, which is configured to receive audio input data and then perform word recognition tasks, such as enhancing features from the received input data and so on. For example, as described herein, the keyword detector logic 224 can be sensor output detector logic configured to identify features, keywords, etc. from the received signal data 244, and then the sample processing logic 223 can be configured to extract keyword data ( and/or feature data, sensor output data, etc.) related to the identified keywords and compares the generated keyword data to the known user data 250, as further described below. In some embodiments, sample processing logic 223 may be used in conjunction with keyword detector logic 224 to transmit the identified keywords and generated/processed keyword data to voice characteristics logic 225 based on the result(s) obtained from the word recognition tasks performed aggregated by both and/or one or more of sample processing logic 223 and keyword detector logic 224. Additionally, as described in more detail below, the keyword detector logic 224 may access one or more data types within the in 2 B illustrated known user data 250 comprising one or more lists of keywords stored in keyword data 267, voice characteristics stored in vital data 263, and/or particular voice identification data of the particular known users stored in voice data 261 and/or personal information data 264 stored may include.
In verschiedenen Ausführungsformen kann die Stimmeigenschaftenlogik 225 so konfiguriert sein, dass sie eine oder mehrere Stimmeigenschaften aus den verarbeiteten Schlüsselwortdaten extrahiert. Beispielsweise kann die Stimmeigenschaftenlogik 225 alle Stimmeigenschaften extrahieren, die mit den überwachten Zeichen der bekannten Benutzer verknüpft sind, wobei die extrahierten Stimmeigenschaften in den Schwellenwertdaten 243 und den in 2B veranschaulichten Vitalbasisdaten 263 gespeichert werden können. Die Stimmeigenschaften, die von der Stimmeigenschaftenlogik 225 extrahiert werden, können aus allen Audiosignalen extrahiert werden, die von der Vitalüberwachungslogik 221 erfasst werden, wobei jede Stimmeigenschaft einem oder mehreren besonders überwachten Vitalzeichen des bekannten Benutzers entspricht. Die extrahierten Stimmeigenschaften können Stimmeigenschaften des bekannten Benutzers umfassen, wie Stimmneigung, Geschwindigkeit, Umfang, Gewichtung und Klangfarbe. In einigen Ausführungsformen kann die Stimmeigenschaftenlogik 225 so konfiguriert sein, dass sie die extrahierten Stimmeigenschaften und alle verarbeiteten Vitalbasisdaten an die Vitalverarbeitungslogik 226 überträgt, die so konfiguriert sein kann, dass sie erkennt, ob die extrahierten Stimmeigenschaften ihre jeweiligen vorbestimmten Schwellenwerte überschreiten.In various embodiments, the voice characteristics logic 225 may be configured to extract one or more voice characteristics from the processed keyword data. For example, the voice characteristics logic 225 may extract all of the voice characteristics associated with the monitored characters of the known users, where the extracted voice characteristics are contained in the threshold data 243 and the in 2 B illustrated vital basis data 263 can be stored. The voice characteristics extracted by voice characteristics logic 225 may be extracted from all audio signals captured by vital monitoring logic 221, with each voice characteristic corresponding to one or more particularly monitored vital signs of the known user. The extracted voice characteristics may include voice characteristics of the known user, such as voice slope, speed, range, weight, and timbre. In some embodiments, the voice characteristics logic 225 may be configured to transmit the extracted voice characteristics and any processed vital basis data to the vital processing logic 226, which may be configured to detect whether the extracted voice characteristics exceed their respective predetermined thresholds.
In vielen Ausführungsformen kann die Vitalverarbeitungslogik 226 so konfiguriert sein, dass sie ein oder mehrere extrahierte Stimmeigenschaften mit bekannten Vitalbasisdaten des Benutzers vergleicht, beispielsweise mit den in 2B veranschaulichten Vitalbasisdaten 263, die in den bekannten Benutzerdaten 250 gespeichert sind. Die Vitalverarbeitungslogik 226 kann ebenso so konfiguriert sein, dass sie bestimmt, ob die eine oder die mehreren verarbeiteten Stimmeigenschaften einen oder mehrere vorbestimmte Schwellenwerte überschreiten, wie dynamische und statische vorbestimmte Schwellenwerte, die nachstehend ausführlicher beschrieben werden. In verschiedenen Ausführungsformen kann die Vitalverarbeitungslogik externe Faktoren nutzen, die von der heuristischen Logik 229 erfasst werden, um die Verarbeitung der extrahierten Stimmeigenschaften und/oder die Erzeugung von Alarmdaten 266 der 2B mit der Alarmlogik 227 zu erleichtern, wie nachstehend ausführlicher beschrieben.In many embodiments, the vital processing logic 226 may be configured to compare one or more extracted voice characteristics to known user vitals, such as those described in 2 B illustrated vital baseline data 263 stored in known user data 250. Vital processing logic 226 may also be configured to determine whether the one or more voice characteristics being processed exceed one or more predetermined thresholds, such as dynamic and static predetermined thresholds, described in more detail below. In various embodiments, the vital processing logic may utilize external factors detected by the heuristic logic 229 to facilitate processing of the extracted voice characteristics and/or generation of alert data 266 2 B with alarm logic 227, as described in more detail below.
In vielen Ausführungsformen kann die Alarmlogik 227 so konfiguriert sein, dass sie die in 2B dargestellten Alarmdaten 266 als Reaktion darauf erzeugt, dass ein oder mehrere extrahierte Stimmeigenschaften die in den Schwellendaten 243 gespeicherten vorbestimmten Schwellenwerte überschreiten, wobei die Schwellendaten 243 verwendet werden können, um jegliche Trends der extrahierten Stimmeigenschaften in Bezug auf die dynamischen und/oder statischen vorbestimmten Schwellenwerte zu bestimmen. Die Alarmlogik 227 kann ebenso konfiguriert sein und die erzeugten Alarmdaten an eine oder mehrere Vorrichtungen übertragen. In vielen Ausführungsformen kann die Alarmlogik 227 so konfiguriert sein, dass sie die Alarmdaten 266 erzeugt und überträgt, die einer oder mehreren erzeugten und übertragenen Warnungen der bekannten Benutzer zugeordnet sind. Beispielsweise kann die Alarmlogik 227 so konfiguriert sein, dass sie Alarme bekannter Benutzer erzeugt und überträgt, wenn bestimmt wird, dass die extrahierten Eigenschaften ihre jeweiligen vorbestimmten Schwellenwerte überschritten haben.In many embodiments, the alarm logic 227 can be configured to use the in 2 B alert data 266 is generated in response to one or more extracted voice characteristics exceeding the predetermined thresholds stored in threshold data 243, which threshold data 243 may be used to detect any trends of the extracted voice characteristics with respect to the dynamic and/or static predetermined thresholds determine. The alarm logic 227 can also be configured and transmit the generated alarm data to one or more devices. In many embodiments, the alert logic 227 may be configured to generate and transmit the alert data 266 associated with one or more generated and transmitted known user alerts. For example, the alert logic 227 may be configured to generate and transmit known user alerts when the extracted properties are determined to have exceeded their respective predetermined thresholds.
In einigen Ausführungsformen können die gespeicherten Alarmdaten 266 mit der Alarmlogik 227 erzeugt werden, die dann eine oder mehrere vorbestimmte Aktionen auslösen kann, die in den in 2B veranschaulichten vorbestimmten Aktionsdaten 262 gespeichert sind. Die von der Alarmlogik 227 erzeugten vorbestimmten Aktionen können mindestens eine oder mehrere bekannte Benutzerwarnungen und Betreueralarme auf der Basis der ausgelösten vorbestimmten Aktionsdaten 262 einschließen. Die bekannten Benutzeralarme können einen Frühwarnungsalarm, einen Warnalarm und einen Notfallalarm umfassen. Die Betreueralarme können einen Betreuerfrühwarnalarm, einen Betreuerwarnalarm und einen Betreuernotfallalarm umfassen. In vielen Fällen können die von der Alarmlogik 227 erzeugten Benutzer- und Betreueralarme alle Arten von Alarmmeldungen umfassen, die der frühzeitigen Erkennung potenziell schwerwiegender Gesundheitsprobleme dienen, die den bekannten Benutzern zugeordnet sind.In some embodiments, the stored alert data 266 can be generated with the alert logic 227, which can then trigger one or more predetermined actions defined in the 2 B illustrated predetermined action data 262 are stored. The predetermined actions generated by the alert logic 227 may include at least one or more known user alerts and attendant alerts based on the predetermined action data 262 triggered. The known user alerts may include an early warning alert, a warning alert, and an emergency alert. The caregiver alerts may include a caregiver early warning alert, a caregiver warning alert, and a caregiver emergency alert. In many cases, the user and caregiver alerts generated by alerting logic 227 may include any type of alert intended to provide early detection of potentially serious health issues associated with known users.
In einigen Ausführungsformen kann die Datenschutzlogik 228 so konfiguriert sein, dass sie beliebige Datenschutzdaten 242 empfängt und überträgt, die ebenso beliebige medizinische Verlaufsdaten wie die in 2B veranschaulichten medizinischen Verlaufsdaten 265 einschließen können. Die Datenschutzlogik 228 kann dazu verwendet werden, alle privaten Daten 242 zu übertragen, die sich auf medizinische Informationen beziehen, die privat und einem der bekannten Benutzer zugeordnet sind. Die Datenschutzlogik 228 kann so konfiguriert werden, dass bestimmte Datenschutzdaten 242, die nicht übertragen werden dürfen, abgetrennt werden, und/oder so konfiguriert werden, dass alle Datenschutzdaten 242, wie die Daten zur Krankengeschichte 265, über eine Blockchain-basierte Datenübertragung, eine Hash-basierte Datenübertragung, eine verschlüsselungsbasierte Datenübertragung und/oder eine andere ähnlich geschützte Datenübertragung übertragen werden.In some embodiments, the privacy logic 228 may be configured to receive and transmit any privacy data 242, which may also include any medical history data such as that described in 2 B medical history data 265 illustrated. The privacy logic 228 can be used to transmit any private data 242 related to medical information that is private and associated with one of the known users. Privacy logic 228 can be configured to strip off certain privacy data 242 that is not permitted to be transmitted and/or configured to hash all privacy data 242, such as medical history data 265, via blockchain-based data transmission -based data transmission, an encryption-based data transmission and/or another similarly protected data transmission.
In einigen Ausführungsformen kann die heuristische Logik 229 beispielsweise so konfiguriert sein, dass sie mit der Vitalüberwachungslogik 221 und/oder einer anderen Vorrichtung eine Vielzahl externer Faktoren erfasst, die zusätzliche Daten liefern können, die zur Verbesserung der Bestimmungen der Vitalverarbeitungslogik 226 verwendet werden können. In einigen Ausführungsformen können ein oder mehrere externe Faktoren, die dem bekannten Benutzer zugeordnet sind, genutzt werden, um einen Einblick in die erfassten Daten 241 in Verbindung mit den erfassten Sprachdaten 261, den Vitalbasisdaten 263 und/oder den in 2B veranschaulichten Daten des bekannten Benutzers 250 zu erhalten. Externe Faktoren können beispielsweise darauf hinweisen, dass ein bekannter Benutzer zu einer bestimmten Zeit in der Woche ein Trainingsprogramm absolviert, das auf natürliche Weise Veränderungen in der Stimme des Benutzers verursachen kann. Diese bestimmten akuten Veränderungen können dann genutzt werden, um weitere Erkenntnisse zu gewinnen (oder zumindest zusätzliche Datenpunkte zu erzeugen), wenn Veränderungen und/oder Schwellenwerte in ihren Sprachdaten 261 und anderen in den 2A-2B veranschaulichten Daten verarbeitet werden. Die externen Faktoren können ebenso alle zusätzlichen Daten einschließen, die sich auf das Ereignis und den physischen Ort beziehen, an dem die Daten erfasst wurden. Einige externe Faktoren, die mit der heuristischen Logik 229 erfasst werden, können die Global Positioning System (GPS)-Koordinaten des Wohnorts des bekannten Benutzers einschließen, den Ort, an dem die Messungen der Vitalzeichen vorgenommen wurden (z. B. während einer Aktivität im Freien, im Urlaub, bei der Arbeit usw.), die Uhrzeit, zu der sie vorgenommen wurden (z. B. spät in der Nacht oder früh am Morgen usw.), die Qualität der Aufzeichnung, die Dauer der Aufzeichnung usw. For example, in some embodiments, heuristic logic 229 may be configured to use vital monitoring logic 221 and/or other device to detect a variety of external factors that may provide additional data that may be used to improve vital processing logic 226 determinations. In some embodiments, one or more external factors associated with the known user may be used to provide insight into the captured data 241 in conjunction with the captured speech data 261, the vital base data 263, and/or the in 2 B illustrated known user 250 data. External factors can indicate, for example, that a known user is undergoing an exercise program at a certain time of the week that can naturally cause changes in the user's voice. These particular acute changes can then be used to gain further insights (or at least generate additional data points) when changes and/or thresholds in their speech data 261 and others in the 2A-2B illustrated data are processed. The external factors can also include any additional data related to the event and the physical location where the data was collected. Some external factors captured by heuristic logic 229 may include the Global Positioning System (GPS) coordinates of the known user's home, the location where the vital signs measurements were taken (e.g., during an activity in the outdoors, on vacation, at work, etc.), the time they were taken (e.g. late at night or early in the morning, etc.), the quality of the recording, the duration of the recording, etc.
2B zeigt eine abstrakte Darstellung der bekannten Benutzerdaten 250 in Übereinstimmung mit den Ausführungsformen der Offenbarung. Wie vorstehend unter Bezugnahme auf 2A beschrieben, können die bekannten Benutzerdaten 250 im Datenspeicher 240 vorhanden sein und für jeden bekannten Benutzer, der mit der Vorrichtung 200 verknüpft ist, eindeutig sein. Die bekannten Benutzerdaten in den 2A-2B sind so veranschaulicht, dass sie in Abschnitte unterteilt und auf der Grundlage der einzelnen, dem bekannten Benutzer zugeordneten Datentypen gespeichert sind. Nachstehend wird veranschaulicht, welche Arten von Daten in den bekannten Benutzerdaten 250 enthalten sein können. Die bekannten Benutzerdaten 250 können Sprachdaten 261, vorbestimmte Aktionsdaten 262, Vitalbasisdaten 263, persönliche Informationsdaten 264 mit Schlüsselwortdaten 267, medizinische Verlaufsdaten 265 und Alarmdaten 266 umfassen. Obwohl in 2B sechs Datentypen 261-266 veranschaulicht sind, kann jede beliebige Anzahl von Datentypen verwendet werden, und jeder oder mehrere der veranschaulichten Datentypen können weggelassen, kombiniert usw. werden, ohne Einschränkungen. Zusätzlich können die bekannten Benutzerdaten 250 für alle bekannten Benutzer verwendet werden und/oder können ebenso verwendet werden, um alle gewünschten Datentypen zu speichern, die nur einem bekannten Benutzer zugeordnet sind, wobei jeder der bekannten Benutzer seine eigenen bekannten Benutzerdaten 250 mit einer beliebigen Anzahl von Datentypen und allen Arten von Daten aufweisen kann, die in den bekannten Benutzerdaten 250 gespeichert sind, ohne Einschränkung. 2 B Figure 2 shows an abstract representation of known user data 250 in accordance with embodiments of the disclosure. As above with reference to 2A described, known user data 250 may reside in data store 240 and be unique to each known user associated with device 200 . The known user data in the 2A-2B are illustrated as being divided into sections and stored on the basis of each data type associated with the known user. The types of data that may be included in known user data 250 are illustrated below. Known user data 250 may include voice data 261, predetermined action data 262, vital base data 263, personal information data 264 with keyword data 267, medical history data 265, and alarm data 266. Although in 2 B Six data types 261-266 are illustrated, any number of data types may be used, and any one or more of the data types illustrated may be omitted, combined, etc., without restrictions. Additionally, the known user data 250 can be used for all known users and/or can likewise be used to store any desired data types associated with only one known user, with each of the known users having their own known user data 250 with any number of data types and all types of data stored in known user data 250 without limitation.
In vielen Ausführungsformen können die Stimmdaten 261 alle Stimmdaten einschließen, die jedem einzelnen bekannten Benutzer zugeordnet sind, was die Unterscheidung bestimmter Stimmeigenschaften jedes bekannten Benutzers einschließen kann. Die Sprachdaten 261 können beispielsweise die Sprachdaten eines Benutzers einschließen, der eine Sprachbehinderung hat, während der zweite Benutzer keine Probleme hat und die diesem zweiten Benutzer zugeordneten Sprachdaten sich von denen des einen Benutzers unterscheiden. Die Sprachdaten 261 können rohe Audiodaten umfassen, die während der sprachbasierten Gesundheitserkennungsvorrichtung mit einem Mikrofon oder einer anderen Vorrichtung zur Audioaufzeichnung aufgezeichnet wurden. Diese Sprachdaten 261 können Wellenformdaten umfassen und können je nach Anwendung und/oder Computerressourcen in jedes gewünschte Audioformat formatiert werden. Begrenzte Speicherressourcen können beispielsweise dazu führen, dass vermehrt Komprimierungsalgorithmen verwendet werden, um die Größe zu reduzieren, während die Rechenressourcen den Umfang der Komprimierung begrenzen können, die im laufenden Betrieb durchgeführt werden kann. Die Sprachdaten 261 können in verlustbehafteten oder verlustfreien Formaten gespeichert werden. In einigen Ausführungsformen können die Sprachdaten 261 verarbeitet werden, bevor sie an anderer Stelle innerhalb des sprachbasierten Gesundheitserkennungssystems gespeichert oder verwendet werden. Die Vorverarbeitung kann Rauschunterdrückung, Frequenzentzerrung, Normalisierung und/oder Komprimierung einschließen. Eine derartige Vorverarbeitung kann die Menge an Zusatzdaten erhöhen, die aus den Sprachdaten 261 erzeugt werden können.In many embodiments, voice data 261 may include all voice data associated with each known user, which may include distinguishing certain voice characteristics of each known user. For example, the speech data 261 may include the speech data of a user who has a speech disability, while the second user has no problems and the speech data associated with that second user is different from that of the one user. Speech data 261 may include raw audio data recorded with a microphone or other audio recording device during the speech-based health recognition device. This speech data 261 may include waveform data and may be formatted into any desired audio format depending on the application and/or computer resources. For example, limited memory resources may result in increased use of compression algorithms to reduce size, while computational resources may limit the amount of compression that can be performed on the fly. Speech data 261 can be stored in lossy or lossless formats. In some embodiments, voice data 261 may be processed before being stored or used elsewhere within the voice-based health recognition system. The pre-processing can include noise reduction, frequency equalization, normalization and/or compression. Such pre-processing can increase the amount of ancillary data that can be generated from the speech data 261.
In zusätzlichen Ausführungsformen können die vorbestimmten Aktionsdaten 262 aus einer oder mehreren Aktionen bestehen, die basierend darauf ausgelöst werden, dass die extrahierten Merkmale ihre vorbestimmten Schwellenwerte überschreiten. Beispielsweise kann die Alarmlogik 227 der 2A dazu konfiguriert sein, als Reaktion auf erzeugte Alarmdaten eine oder mehrere vorbestimmte Aktionen innerhalb der vorbestimmten Aktionsdaten 262 auszulösen. Die ausgelösten Aktionen können mindestens eine oder mehrere der bekannten Benutzeralarme und Betreueralarme einschließen, die auf den ausgelösten vorbestimmten Aktionsdaten 262 basieren, die dem jeweiligen bekannten Benutzer zugeordnet sind, wobei jeder der bekannten Benutzer die gleichen und/oder unterschiedliche vorbestimmte Aktionsdaten aufweisen kann, die auf den Präferenzen jedes der bekannten Benutzer basieren. Beispielsweise kann ein erster bekannter Benutzer Daten in den vorbestimmten Aktionsdaten 262 aufweisen, die es der Vorrichtung 200 erlauben, alle Alarmdaten 266 zu erzeugen und an die Mutter des ersten bekannten Benutzers zu übertragen, während alle anderen bekannten Benutzer angeben können, dass alle vorbestimmten Aktionsdaten 262 nur an sie selbst übertragen werden dürfen. Des Weiteren können die ausgelösten bekannten Benutzeralarme einen Frühwarnungsalarm, einen Warnalarm und einen Notfallalarm umfassen. Ebenso können die ausgelösten Betreueralarme einen Betreuerfrühwarnungsalarm, einen Betreuerwarnungsalarm und einen Betreuernotfallalarm umfassen.In additional embodiments, the predetermined action data 262 may consist of one or more actions that are triggered based on the extracted features exceeding their predetermined thresholds. For example, the alarm logic 227 of the 2A configured to take one or more predetermined actions in response to generated alert data NEN within the predetermined action data 262 to trigger. The triggered actions may include at least one or more of the known user alerts and attendant alerts based on the triggered predetermined action data 262 associated with the respective known user, where each of the known users may have the same and/or different predetermined action data associated with based on the preferences of each of the known users. For example, a first known user may have data in the predetermined action data 262 that allows the device 200 to generate and transmit all alert data 266 to the mother of the first known user, while all other known users may indicate that all predetermined action data 262 may only be transferred to yourself. Furthermore, the known user alerts triggered may include an early warning alert, a warning alert, and an emergency alert. Likewise, the triggered caregiver alerts may include a caregiver early warning alert, a caregiver warning alert, and a caregiver emergency alert.
In vielen Ausführungsformen können die Vitalbasisdaten 263 alle Daten sein, die sich auf ein oder mehrere Vitalzeichen beziehen, die für jeden der bekannten Benutzer von der Vitalüberwachungslogik 221 der 2A überwacht werden. Die Vitalbasisdaten 263 können ein oder mehrere Vitalzeichen für jeden der bekannten Benutzer einschließen, einschließlich, aber nicht beschränkt auf, Körpertemperatur, Herzfrequenz, Sauerstoffsättigung (Sp02), Blutdruck, Stimmeigenschaften und so weiter. Einige dieser Vitalzeichen lassen sich durch die kontinuierliche Überwachung grundlegender Vitalzeichen wie Blutdruck, Herzfrequenz, Körpertemperatur und SpO2 überwachen. Einige dieser Vitalzeichen können durch die kontinuierliche Überwachung der grundlegenden Vitalzeichen wie Blutdruck, Herzfrequenz, Körpertemperatur und SpO2 überwacht werden. In bestimmten Ausführungsformen können die Vitalbasisdaten 263 alle Daten umfassen, die von einer oder mehreren der in 1 dargestellten persönlichen Computervorrichtungen 101-109, wie der tragbaren Vorrichtung 106 und/oder der in 1 dargestellten mobilen Vorrichtung 104, überwacht, erzeugt und/oder empfangen werden. Wie vorstehend beschrieben, kann es sich bei der tragbaren Vorrichtung 106 beispielsweise um eine Smartwatch handeln, sie kann aber ebenso dazu verwendet werden, Vitalzeichen wie Herzfrequenz, Blutdruck und/oder andere gewünschte Vitalzeichendaten, die über das Betriebssystem der Vorrichtung verfügbar sind, zu verfolgen.In many embodiments, the vital baseline data 263 may be any data relating to one or more vital signs stored for each of the known users by the vital monitoring logic 221 of the 2A be monitored. The vital baseline data 263 may include one or more vital signs for each of the known users, including but not limited to body temperature, heart rate, oxygen saturation (Sp02), blood pressure, voice characteristics, and so on. Some of these vital signs can be monitored by continuously monitoring basic vital signs such as blood pressure, heart rate, body temperature and SpO2. Some of these vital signs can be monitored by continuously monitoring basic vital signs such as blood pressure, heart rate, body temperature and SpO2. In certain embodiments, the vital baseline data 263 may include any data obtained from one or more of the 1 illustrated personal computing devices 101-109, such as portable device 106 and/or in 1 illustrated mobile device 104, are monitored, generated and/or received. As described above, wearable device 106 may be, for example, a smartwatch, but may also be used to track vital signs such as heart rate, blood pressure, and/or other desired vital sign data available through the device's operating system.
Wie vorstehend beschrieben, können die Vitalbasisdaten 263 von jedem der bekannten Benutzer erzeugt werden, der sich bei einem sprachbasierten Gesundheitserkennungssystem (oder ähnlichem) anmeldet und jeweils die Vitalzeichendaten der bekannten Benutzer für jedes der Vitalzeichen bestimmt, die von dem jeweiligen bekannten Benutzer verfolgt und ausgewählt werden. Die Vitalbasisdaten 263 können in Kombination mit anderen Datentypen innerhalb der bekannten Benutzerdaten 250 und mit den Schwellwertdaten 243 und den erfassten Daten 241 verwendet werden, sodass die Kombination dieser Daten und der einen oder mehreren Logiken der sprachbasierten Gesundheitserkennungsanwendung 220 dann alle vorbestimmten Vitalzeichen kontinuierlich überwachen und dem bekannten Benutzer eine Rückmeldung oder Alarmdaten 266 liefern kann, sobald eine Kombination von Parametern ihre vorbestimmten Schwellenwerte überschritten hat. Beispielsweise können die Vitalbasisdaten 263 ebenso alle Daten einschließen, die sich auf einen der vorbestimmten Schwellenwerte beziehen, wie die dynamischen Schwellenwerte, die statischen Schwellenwerte und so weiter. Zusätzlich können die Vitalbasisdaten 263 alle Daten einschließen, die sich auf die Stimmeigenschaften beziehen, die aus der Analyse der in den 2A-2B veranschaulichten Daten 241, Signaldaten 244, Stimmdaten 261 und Schlüsselwortdaten 267 extrahiert (oder abgeleitet) wurden.As described above, the basic vitals data 263 may be generated by each of the known users logging into a speech-based health recognition system (or similar) and determining the known users' vital sign data for each of the vital signs tracked and selected by the respective known user . The vital base data 263 can be used in combination with other data types within the known user data 250 and with the threshold data 243 and the collected data 241 such that the combination of this data and the one or more logic of the speech-based health recognition application 220 then continuously monitor all predetermined vital signs and the known users can provide feedback or alert data 266 once a combination of parameters has exceeded their predetermined thresholds. For example, the vital baseline data 263 may also include any data related to any of the predetermined thresholds, such as the dynamic thresholds, the static thresholds, and so on. In addition, the vital baseline data 263 may include any data relating to the voice characteristics resulting from the analysis of the 2A-2B illustrated data 241, signal data 244, voice data 261, and keyword data 267 have been extracted (or derived).
Beispielsweise können die Vitalbasisdaten 263 alle Stimmeigenschaften einschließen, die von der Stimmeigenschaftenlogik 225 der 2A aus Audiosignalen extrahiert wurden, die von der Vitalüberwachungslogik 221 der 2A erfasst wurden, wobei jede Stimmeigenschaft, die in den Vitalbasisdaten 263 gespeichert ist, einem oder mehreren bestimmten überwachten Vitalzeichen des bekannten Benutzers entspricht. Die extrahierten Stimmeigenschaften können Stimmeigenschaften des bekannten Benutzers umfassen, wie Stimmneigung, Geschwindigkeit, Umfang, Gewichtung und Klangfarbe. In einigen Ausführungsformen kann die Vorrichtung 200 der 2A so konfiguriert sein, dass sie erkennt, ob die extrahierten Stimmeigenschaften ihre jeweiligen vorbestimmten Schwellenwerte überschreiten, wobei die Daten solcher Stimmeigenschaften und Schwellenwerte in den Vitalbasisdaten 263 gespeichert werden können.For example, vital baseline data 263 may include all of the voice characteristics identified by voice characteristics logic 225 of FIG 2A extracted from audio signals generated by vital monitoring logic 221 of 2A where each voice characteristic stored in the vital baseline data 263 corresponds to one or more particular monitored vital signs of the known user. The extracted voice characteristics may include voice characteristics of the known user, such as voice slope, speed, range, weight, and timbre. In some embodiments, the device 200 of FIG 2A configured to detect whether the extracted voice characteristics exceed their respective predetermined thresholds, data of such voice characteristics and thresholds being storable in vital base data 263 .
In einer Reihe von Ausführungsformen können die persönlichen Informationsdaten 264 auch die Schlüsselwortdaten 267 umfassen. Die persönlichen Informationsdaten 264 können alle zusätzlichen persönlichen Daten umfassen, die erzeugt und jedem der bekannten Benutzer zugeordnet werden können. In einigen Ausführungsformen können die persönlichen Informationsdaten 263 relevante persönliche Konto- und Kontaktdaten wie Namen, Adressen, Telefonnummern, Alter, Metadaten zu externen Faktoren, zugeordnete persönliche Computervorrichtungen usw. umfassen. Beispielsweise können einige oder alle persönlichen Kontodaten mit dem bekannten Benutzer verknüpfte Daten sein, die genutzt werden können, um Einblick in die erfassten Sprachdaten 261, Vitalbasisdaten 263, bekannte Benutzerdaten 250 und/oder alle erfassten Daten 241 im Datenspeicher 240 der 2A zu erhalten. Die Benutzerdaten können beispielsweise anzeigen, dass ein Benutzer Geburtstag hat, und können dann verwendet werden, um bei der Verarbeitung seiner Sprachdaten 261 und anderer nachfolgender Daten weitere Erkenntnisse zu gewinnen (oder zumindest einen zusätzlichen Datenpunkt aufzuweisen). Die Metadaten des externen Faktors können alle zusätzlichen Daten einschließen, die sich auf das Ereignis und den physischen Ort beziehen, an dem die Daten erfasst wurden. Einige Beispiele für Metadaten zu externen Faktoren können mit der heuristischen Logik 229 und/oder dergleichen erfasst werden, wobei einige der Beispiele die Global Positioning System (GPS)-Koordinaten des Wohnorts des bekannten Benutzers einschließen können, den Ort, an dem die Messungen der Vitalzeichen vorgenommen wurden (z. B. während einer Aktivität im Freien, im Urlaub, bei der Arbeit usw.), die Uhrzeit, zu der sie vorgenommen wurden (z. B. spät in der Nacht oder früh am Morgen usw.), die Qualität der Aufzeichnung, die Dauer der Aufzeichnung usw.In a number of embodiments, personal information data 264 may also include keyword data 267 . Personal information data 264 may include any additional personal data that may be generated and associated with each of the known users. In some embodiments, personal information data 263 may include relevant personal account and contact data such as names, addresses, phone numbers, age, external factors metadata, associated personal computing devices, and so forth. For example, some or any personal account data associated with the known user, which can be used to gain insight into the recorded speech data 261, vital base data 263, known user data 250 and/or any recorded data 241 in the data store 240 of the 2A to obtain. For example, the user data may indicate that a user's birthday is and then used to gain further insight (or at least have an additional data point) when processing their voice data 261 and other subsequent data. The external factor metadata may include any additional data related to the event and the physical location where the data was collected. Some examples of external factor metadata may be collected using heuristic logic 229 and/or the like, where some of the examples may include the Global Positioning System (GPS) coordinates of the known user's home, the location where the vital sign measurements were taken (e.g. during an outdoor activity, on vacation, at work, etc.), the time they were taken (e.g. late at night or early in the morning, etc.), the quality of the recording, the duration of the recording, etc.
Zusätzlich können die Schlüsselwortdaten 267, die in den persönlichen Informationsdaten 264 gespeichert sind, für jeden der bekannten Benutzer personalisiert werden. Die Schlüsselwortdaten 267 können beispielsweise alle Daten einschließen, die sich auf Wörter, Phrasen, Unterhaltungen und/oder Ähnliches beziehen, die mit einem bestimmten bekannten Benutzer verknüpft sind. Die sprachbasierte Gesundheitserkennungsvorrichtung 200 der 2A kann beispielsweise als Schlüsselwortspotter konfiguriert sein. Die Merkmale, die aus den dezimierten Audioproben extrahiert werden, sind ein oder mehrere Signale in einem Zeitbereich, einem Frequenzbereich oder sowohl im Zeit- als auch im Frequenzbereich, die für Schlüsselwörter und Stimmeigenschaften charakteristisch sind, können trainiert werden, um von einem oder mehreren neuronalen Netzen der sprachbasierten Gesundheitserkennungsvorrichtung 200 erkannt zu werden. Die Schlüsselwortdaten 267 können alle Daten einschließen, die sich auf benutzerdefinierte Schlüsselwörter beziehen, die aus jeder Art von Signalen identifiziert werden können, die der jeweilige Benutzer erkennen möchte. Bei den benutzerspezifischen Schlüsselwortdaten kann es sich beispielsweise um gesprochene Schlüsselwörter, bestimmte Stimmeigenschaften der gesprochenen Schlüsselwörter, nonverbale akustische Signale wie bestimmte Geräusche, Signale und so weiter handeln. In einem derartigen Beispiel kann der jeweilige Benutzer die benutzerspezifischen Schlüsselwortdaten in den Schlüsselwortdaten 267 erzeugt und gespeichert haben, sodass die sprachbasierte Gesundheitserkennungsvorrichtung 200 zusätzlich zu anderen Standardschlüsselwörtern, die bereits in den in 2A veranschaulichten Signaldaten 244 eingeschlossen und gespeichert sind, personalisierte Wörter, Phrasen usw. wie „Hallo“, „Guten Morgen“, „Ein“, „Aus“, „Heißer“ und „Kälter“ erkennen kann.In addition, the keyword data 267 stored in the personal information data 264 can be personalized for each of the known users. For example, keyword data 267 may include any data relating to words, phrases, conversations, and/or the like associated with a particular known user. The voice-based health recognition device 200 of FIG 2A can be configured as a keyword spotter, for example. The features extracted from the decimated audio samples are one or more signals in a time domain, a frequency domain, or both the time and frequency domain that are characteristic of keywords and voice characteristics can be trained to be identified by one or more neural Networks of the voice-based health detection device 200 to be recognized. The keyword data 267 may include any data related to user-defined keywords that can be identified from any type of signals that the particular user wishes to recognize. The user-specific keyword data can be, for example, spoken keywords, certain voice characteristics of the spoken keywords, non-verbal acoustic signals such as certain noises, signals, and so on. In such an example, the respective user may have created and stored the user-specific keyword data in the keyword data 267 so that the speech-based health recognition device 200, in addition to other standard keywords already in the in 2A signal data 244 illustrated and stored, can recognize personalized words, phrases, etc. such as "hello", "good morning", "on", "off", "hotter" and "colder".
In einigen Ausführungsformen können die medizinischen Verlaufsdaten 265 alle Daten umfassen, die sich auf medizinische Informationen und erkannte medizinische Datenpunkte beziehen, die privat sind und jedem der jeweiligen bekannten Benutzer zugeordnet sind. Die medizinischen Verlaufsdaten 265 können alle persönlichen und/oder privaten Informationen einschließen, die für den bekannten Benutzer spezifisch sind, wie z. B. frühere medizinische Ereignisse wie Operationen, Sprachstörungen usw., aktuelle Medikamente, die der bekannte Benutzer einnimmt, und so weiter. In einigen Ausführungsformen können ein oder mehrere Datenpunkte aus den medizinischen Verlaufsdaten 265 während der Vitalverarbeitungslogik 226 verwendet werden, um die extrahierten Stimmeigenschaften anhand ihrer vorbestimmten Schwellenwerte zu bestimmen, z. B. ob der bestimmte bekannte Benutzer bereits eine bestehende Sprachbehinderung hat, die berücksichtigt werden muss, usw. Zusätzlich können die medizinischen Verlaufsdaten 265, wie vorstehend beschrieben, auf der sprachbasierten Gesundheitserkennungsvorrichtung 200 gespeichert werden, im Gegensatz zu den in 1 dargestellten Datenspeichern 140, 142, bei denen die medizinischen Verlaufsdaten 265 von allen besonderen privaten Daten abgetrennt werden können, die nicht übertragen werden dürfen und/oder über die in 2A dargestellte Datenschutzlogik 228 übertragen werden können. Die medizinischen Verlaufsdaten 265 können zum Beispiel mittels Blockchain-basierter Datenübertragung, Hash-basierter Datenübertragung, verschlüsselter Datenübertragung und/oder einer anderen ähnlich geschützten Datenübertragung übertragen werden.In some embodiments, medical history data 265 may include any data related to medical information and detected medical data items that are private and associated with each of the respective known users. Medical history data 265 may include any personal and/or private information specific to the known user, such as: B. Previous medical events such as surgeries, speech disorders, etc., current medications the known user is taking, and so on. In some embodiments, one or more data points from medical history data 265 may be used during vital processing logic 226 to determine the extracted voice characteristics against their predetermined thresholds, e.g. e.g., whether the particular known user already has an existing speech disability that needs to be addressed, etc. Additionally, as described above, the medical history data 265 may be stored on the speech-based health recognition device 200, in contrast to the data shown in FIG 1 illustrated data memories 140, 142, in which the medical history data 265 can be separated from all special private data that may not be transmitted and/or via the in 2A shown data protection logic 228 can be transmitted. For example, the medical history data 265 may be transmitted using blockchain-based data transmission, hash-based data transmission, encrypted data transmission, and/or other similarly protected data transmission.
In vielen Ausführungsformen können die Alarmdaten 266 alle Daten umfassen, die einem oder mehreren erzeugten und übertragenen Alarmen für jeden der bekannten Benutzer zugeordnet sind. Beispielsweise können die Alarmdaten 266 alle bekannten Benutzeralarme einschließen, die in Bezug auf die Feststellung erzeugt und übertragen wurden, dass die extrahierten Eigenschaften ihre jeweiligen vorbestimmten Schwellenwerte überschritten haben. In einigen Ausführungsformen können die gespeicherten Alarmdaten 266 mit der Alarmlogik 227 der 2A erzeugt werden, die so konfiguriert ist, dass sie Alarmdaten erzeugt, die mindestens einen oder mehrere bekannte Benutzeralarme und Betreueralarme als Reaktion auf die ausgelösten vorbestimmten Aktionsdaten 262 auslösen. Die bekannten Benutzeralarme können einen Frühwarnungsalarm, einen Warnalarm und einen Notfallalarm umfassen. Die Betreueralarme können einen Betreuerfrühwarnalarm, einen Betreuerwarnalarm und einen Betreuernotfallalarm umfassen. In vielen Ausführungsformen können die in den Alarmdaten 266 gespeicherten Benutzeralarme und Betreueralarme jede Art von Alarmbenachrichtigung umfassen, die zur frühzeitigen Erkennung eines potenziellen schwerwiegenden Gesundheitsproblems, das dem jeweiligen Benutzer zugeordnet ist, verwendet werden kann.In many embodiments, alert data 266 may include any data associated with one or more generated and transmitted alerts for each of the known users. For example, alert data 266 may include any known user alerts that were generated and transmitted with respect to determining that the extracted properties exceeded their respective predetermined thresholds. In some embodiments, the stored alarm data 266 can be combined with the alarm logic 227 of FIG 2A configured to generate alert data that triggers at least one or more known user alerts and attendant alerts in response to the predetermined action data 262 being triggered. The known user alerts may include an early warning alert, a warning alert, and an emergency alert. The caregiver alerts may include a caregiver early warning alert, a caregiver warning alert, and a caregiver emergency alert. In many embodiments, the user alerts and caregiver alerts stored in alert data 266 may include any type of alert notification that can be used for early detection of a potential serious health issue associated with the particular user.
Der Fachmann wird verstehen, dass die hierin in Bezug auf die 2A-2B veranschaulichten bekannten Benutzerdaten 250 nur eine einzige Darstellung möglicher bekannter Benutzerdaten sind. Verschiedene Ausführungsformen können beispielsweise aufweisen, dass bekannte Benutzerdaten 250 zusammengeführt werden, sodass alle Sprachdaten 261 zusammen gespeichert werden, alle vorbestimmten Aktionsdaten 262 für alle bekannten Benutzereinträge zusammen gespeichert werden, usw. Des Weiteren können auch andere Verfahren zur Speicherung der bekannten Benutzerdaten 250 ohne Einschränkung verwendet werden, sodass die bekannten Benutzerdaten 250 extern gespeichert werden können, während andere Aspekte lokal gespeichert werden. Beispielsweise können die bekannten Benutzerdaten 250 die Sprachdaten 261 extern speichern, während die anderen Datentypen 262-266 lokal gespeichert werden können, um zu vermeiden, dass private Daten wie die medizinischen Verlaufsdaten 265 und die persönlichen Informationsdaten 264 preisgegeben werden.Those skilled in the art will understand that the references herein to the 2A-2B Known User Data 250 illustrated is only a single representation of possible known user data. For example, various embodiments may include merging known user data 250 such that all voice data 261 is stored together, all predetermined action data 262 for all known user entries are stored together, etc. Furthermore, other methods of storing known user data 250 may also be used without limitation so that the known user data 250 can be stored externally while other aspects are stored locally. For example, known user data 250 may store voice data 261 externally, while other data types 262-266 may be stored locally to avoid exposing private data such as medical history data 265 and personal information data 264.
3 veranschaulicht ein detailliertes Blockdiagramm eines sprachbasierten Gesundheitserkennungssystems 120, das in Übereinstimmung mit der Offenbarung in einem sprachbasierten Gesundheitserkennungssystem 300 verwendet wird. Das in 3 abgebildete sprachbasierte Gesundheitserkennungssystem 300 kann dem in 1 abgebildeten sprachbasierten Gesundheitserkennungssystem 100 ähnlich sein. Zusätzlich kann der in 3 veranschaulichte sprachbasierte Gesundheitserkennungsserver 120 dem in 1 veranschaulichten sprachbasierten Gesundheitserkennungsserver 120 im Wesentlichen ähnlich sein. 3 FIG. 12 illustrates a detailed block diagram of a voice-based health recognition system 120 used in a voice-based health recognition system 300, in accordance with the disclosure. This in 3 The speech-based health recognition system 300 depicted in the 1 voice-based health recognition system 100 depicted. In addition, the in 3 illustrated speech-based health detection server 120 in 1 illustrated speech-based health detection server 120 may be substantially similar.
Das sprachbasierte Gesundheitserkennungssystem 300 veranschaulicht ein beispielhaftes System zur Spracherkennung und zur Erkennung von Eigenschaften der Stimme unter Verwendung des sprachbasierten Gesundheitserkennungsservers 120. Wie in 3 gezeigt, kann der sprachbasierte Gesundheitserkennungsserver 120 in vielen Ausführungsformen so konfiguriert sein, dass er Audioeingangsproben 322 an ein oder mehrere neuronale Netzwerke 324 bereitstellt, die jeweils die bereitgestellten Audioeingangsproben 322 verarbeiten können, um die Signalausgangsdaten 326 zu erzeugen. Der Aufbau und die Verwendung der neuronalen Netzwerke auf diese Weise wird in der gemeinsam angemeldeten US-Patentanmeldung 16/701,860 , eingereicht am 3. Dezember 2019, näher beschrieben, die dem gemeinsamen Rechtsnachfolger zugewiesen ist und deren Offenbarung hierin in vollem Umfang enthalten ist.Speech-based health recognition system 300 illustrates an example system for speech recognition and voice characteristics recognition using speech-based health recognition server 120. As shown in FIG 3 As shown, in many embodiments, the speech-based health detection server 120 may be configured to provide audio input samples 322 to one or more neural networks 324 , each of which may process the provided audio input samples 322 to generate the signal output data 326 . The construction and use of neural networks in this way is discussed in the jointly pending application U.S. Patent Application 16/701,860 , filed December 3, 2019, which is assigned to common assignee, the disclosure of which is incorporated herein in its entirety.
In einigen Ausführungsformen kann das sprachbasierte Gesundheitserkennungssystem 300 einen Benutzer 302, eine mobile Vorrichtung 104, ein Netzwerk 110, den sprachbasierten Gesundheitserkennungsserver 120 und einen Betreuer-Server 130 umfassen. Die mobile Vorrichtung 104, das Netzwerk 110, der sprachbasierte Gesundheitserkennungsserver 120 und der Betreuungsserver 130 in 3 können der in 1 veranschaulichten mobilen Vorrichtung 104, dem Netzwerk 110, dem sprachbasierten Gesundheitserkennungsserver 120 und dem Betreuungsserver 130 im Wesentlichen ähnlich sein. In einigen Ausführungsformen kann der Benutzer 302 ein bekannter Benutzer sein, der die mobile Vorrichtung 104 benutzt, wobei die mobile Vorrichtung 104 jede Art von hierin beschriebener Vorrichtung sein kann.In some embodiments, the voice-based health recognition system 300 may include a user 302, a mobile device 104, a network 110, the voice-based health recognition server 120, and a caregiver server 130. The mobile device 104, the network 110, the voice-based health recognition server 120 and the care server 130 in 3 can the in 1 illustrated mobile device 104, network 110, voice-based health awareness server 120, and caregiver server 130. In some embodiments, user 302 may be a known user using mobile device 104, where mobile device 104 may be any type of device described herein.
In vielen Ausführungsformen kann das sprachbasierte Gesundheitserkennungssystem 300 den sprachbasierten Gesundheitserkennungsserver 120 verwenden, um Audiodaten 304 zu empfangen, die von der mobilen Vorrichtung 104 erfasst wurden. Der sprachbasierte Gesundheitserkennungsserver 120 kann so konfiguriert sein, dass er die Audiodaten 304 verarbeitet, um ein oder mehrere Audioeingangssamples 322 zu erkennen (oder zu identifizieren, zu erzeugen usw.), die einem neuronalen Netzwerk 324, wie einem digitalen neuronalen Netzwerk oder dergleichen, bereitgestellt werden. Zusätzlich kann der sprachbasierte Gesundheitserkennungsserver 120 so konfiguriert sein, dass er Signalausgangsdaten 326 verwendet, die von dem neuronalen Netzwerk 324 erzeugt werden können. Ebenso kann der sprachbasierte Gesundheitserkennungsserver 120 so konfiguriert sein, dass er bei Bedarf als Reaktion auf die empfangenen Audiodaten 304 Alarmdaten 306 auf der Basis der erzeugten Signalausgangsdaten 326 erzeugt. Zusätzlich kann der sprachbasierte Gesundheitserkennungsserver 120 verwendet werden, um Daten im Zusammenhang mit den erzeugten Alarmdaten 306 an den Betreuerserver 130 zu übertragen.In many embodiments, voice-based health recognition system 300 may use voice-based health recognition server 120 to receive audio data 304 captured from mobile device 104 . The speech-based health recognition server 120 may be configured to process the audio data 304 to recognize (or identify, generate, etc.) one or more audio input samples 322 that are provided to a neural network 324, such as a digital neural network or the like become. In addition, the speech-based health detection server 120 can be configured to use signal output data 326 that can be generated by the neural network 324 . Likewise, the speech-based health detection server 120 may be configured to generate alert data 306 based on the generated signal output data 326 in response to the audio data 304 received, if necessary. In addition, the speech-based health detection server 120 can be used to transmit data related to the alert data 306 generated to the caregiver server 130 .
In einigen Implementierungen kann der sprachbasierte Gesundheitserkennungsserver 120 einen Satz von Audio-Eingangsproben 322 empfangen. Der Server kann Daten empfangen, die eine Zeit-Frequenz-Darstellung basierend auf einer Reihe von Audio-Eingangsproben 322 anzeigen. Das Computersystem 320 kann die Zeit-Frequenz-Darstellung, die auf einem Satz von Audio-Eingangs-/Wellenform-Proben basiert, als Eingabe für ein neuronales Netzwerk bereitstellen. Das Computersystem 320 kann ein oder mehrere von dem Benutzer 302 gesprochene Schlüsselwörter identifizieren und die identifizierten Schlüsselwörter als Audio-Eingangsproben 322 an das neuronale Netzwerk 324 weitergeben.In some implementations, the voice-based health detection server 120 can receive a set of audio input samples 322 . The server may receive data indicative of a time-frequency representation based on a series of audio input samples 322 . Computer system 320 may provide the time-frequency representation based on a set of audio input/waveform samples as input to a neural network. Computer system 320 may identify one or more keywords spoken by user 302 and provide the identified keywords to neural network 324 as audio input samples 322 .
In dem veranschaulichten Beispiel kann der Benutzer 302 der mobilen Vorrichtung 104 Wörter sprechen und die mobile Vorrichtung 104 kann jeweils Mehrkanal-Audio aufnehmen, das die Sprache (d. h. die gesprochenen Wörter) einschließt. Die mobile Vorrichtung 104 kann das aufgezeichnete Audiodatensignal312 über das Netzwerk 110 an den sprachbasierten Gesundheitserkennungsserver 120 übertragen. Der sprachbasierte Gesundheitserkennungsserver 120 kann die Audiodaten 304 empfangen, um ein oder mehrere Audio-Eingangsproben 322 zu erhalten. Beispielsweise kann der sprachbasierte Gesundheitserkennungsserver 120 eine Reihe von Audio-Eingangsproben (oder Wellenformproben) 322 aus den Audiodaten 304 identifizieren, die innerhalb eines Zeitfensters des Audiodatensignals 304 auftreten können. Der sprachbasierte Gesundheitserkennungsserver 120 kann die Audiowellenform-Proben 322 an das neuronale Netzwerk 324 bereitstellen.In the illustrated example, the user 302 of the mobile device 104 can speak words and the mobile device 104 can record multi-channel audio that includes the speech (i.e., the spoken words), respectively. The mobile device 104 can transmit the recorded audio data signal 312 to the speech-based health recognition server 120 via the network 110 . The voice-based health recognition server 120 may receive the audio data 304 to obtain one or more audio input samples 322 . For example, the speech-based health detection server 120 can identify a series of audio input samples (or waveform samples) 322 from the audio data 304 that can occur within a time window of the audio data signal 304 . The speech-based health detection server 120 can provide the audio waveform samples 322 to the neural network 324 .
Das neuronale Netzwerk 324 kann so konfiguriert und trainiert werden, dass es als akustisches Modell fungiert. Beispielsweise kann das neuronale Netzwerk 324 eine oder mehrere Wahrscheinlichkeiten anzeigen, die als Zeit-Frequenz-Eigenschaftsrepräsentationen implementiert werden können, die verschiedenen Spracheinheiten entsprechen, wobei die Zeit-Frequenz-Eigenschaftsrepräsentationen auf der Basis der Audio-Eingangsproben 322 ausgegeben werden können. In einigen Ausführungsformen kann das neuronale Netzwerk 324 so konfiguriert sein, dass es Schlüsselwörter aus den empfangenen Audiodaten identifiziert und Stimmeigenschaften aus den identifizierten Schlüsselwörtern extrahiert. Die extrahierten Stimmeigenschaften können Stimmmerkmale des Benutzers umfassen, wie Stimmneigung, Geschwindigkeit, Umfang, Gewichtung und Klangfarbe. Das neuronale Netzwerk 324 kann ebenso konfiguriert sein, um zu erkennen, ob die extrahierten Stimmeigenschaften einen vorbestimmten Schwellenwert überschreiten und die Signalausgabedaten 326 mit den erkannten extrahierten Eigenschaften, die ihren vorbestimmten Schwellenwert überschritten haben, bereitzustellen. Der sprachbasierte Gesundheitserkennungsserver 120 kann daher die vom neuronalen Netzwerk 324 bereitgestellten Signalausgabedaten 326 verwenden, um Frühwarnungsalarmdaten 306 für potenzielle Gesundheitsprobleme an die mobile Vorrichtung 104 des Benutzers 302 zu senden, wenn die erkannten stimmlichen Eigenschaften den vorbestimmten Schwellenwert überschreiten.The neural network 324 can be configured and trained to act as an acoustic model. For example, the neural network 324 may indicate one or more probabilities, which may be implemented as time-frequency property representations corresponding to different speech units, where the time-frequency property representations may be output based on the audio input samples 322. In some embodiments, the neural network 324 can be configured to identify keywords from the received audio data and to extract voice characteristics from the identified keywords. The extracted voice characteristics may include user voice characteristics such as pitch, speed, range, weight, and timbre. The neural network 324 may also be configured to detect whether the extracted voice characteristics exceed a predetermined threshold and provide the signal output data 326 with the extracted characteristics detected having exceeded their predetermined threshold. The speech-based health detection server 120 can therefore use the signal output data 326 provided by the neural network 324 to send early warning alert data 306 to the user's 302 mobile device 104 for potential health problems when the detected vocal characteristics exceed the predetermined threshold.
Unter Bezugnahme auf 4 wird nun ein beispielhaftes Flussdiagramm eines sprachbasierten Gesundheitserkennungsprozesses 400 zur Erzeugung bekannter Benutzerdaten in Übereinstimmung mit Ausführungsformen der Offenbarung gezeigt. Der Prozess 400 kann als Flussdiagramm veranschaulicht werden, das dazu dient, ein sprachbasiertes Gesundheitserkennungssystem zu personalisieren und zu aktualisieren, indem bekannte Benutzerdaten erzeugt werden, die einem bekannten Benutzer zum Ausführen gewünschter benutzerspezifischer Funktionen zur Verfügung gestellt werden können. Der Prozess 400 kann mit einer oder mehreren Computervorrichtungen und/oder Systemen implementiert werden, einschließlich, aber nicht beschränkt auf das in 1 veranschaulichte sprachbasierte Gesundheitserkennungssystem 100, die in 2A dargestellte sprachbasierte Gesundheitserkennungsvorrichtung 200, das in 3 dargestellte sprachbasierte Gesundheitserkennungssystem 300 und/oder den in den 1 und 3 dargestellten sprachbasierten Gesundheitserkennungsserver 120. Zusätzlich kann der Prozess 400, wie vorstehend in verschiedenen Ausführungsformen beschrieben, mit Hilfe einer oder mehrerer webbasierter Anwendungen und/oder einer anderen geeigneten Softwareanwendung implementiert werden. In einigen Ausführungsformen kann die Anwendung(en) als cloudbasierte Anwendung implementiert und/oder als eigenständige Softwareanwendung verteilt werden, je nach Wunsch und ohne Einschränkungen.With reference to 4 An example flowchart of a voice-based health recognition process 400 for generating known user data, consistent with embodiments of the disclosure, is now shown. The process 400 can be illustrated as a flow chart for personalizing and updating a voice-based health recognition system by generating known user data that can be provided to a known user to perform desired user-specific functions. The process 400 may be implemented with one or more computing devices and/or systems, including but not limited to the 1 illustrated speech-based health recognition system 100, in 2A illustrated speech-based health recognition device 200, which is in 3 illustrated speech-based health recognition system 300 and / or in the 1 and 3 Additionally, as described above in various embodiments, the process 400 may be implemented using one or more web-based applications and/or any other suitable software application. In some embodiments, the application(s) may be implemented as a cloud-based application and/or distributed as a standalone software application, as desired and without limitation.
Bei Block 410 kann der Prozess 400 mit der Eingabe von benutzerdefinierten Schlüsselwortdaten eines Benutzers beginnen. Die eingegebenen benutzerspezifischen Schlüsselwortdaten ermöglichen es dem Benutzer oder einem Kunden, beliebige Zielsignale in die Anwendung einzugeben. Bei den benutzerdefinierten Schlüsselwortdaten kann es sich um jede Art von Signalen (oder Zielsignalen) handeln, die der Benutzer erkennen möchte. Bei den benutzerspezifischen Schlüsselwortdaten kann es sich beispielsweise um gesprochene Schlüsselwörter, nonverbale akustische Signale wie bestimmte Geräusche, Bildtypen usw. handeln, die von einem oder mehreren Sensoren wie den in 1 dargestellten persönlichen Computervorrichtungen 101-109 und/oder dergleichen erfasst werden. In einer beispielhaften Ausführungsform kann der Benutzer die gewünschten Schlüsselwörter eingeben, und die Sensoren können die personalisierten Schlüsselwörter erkennen, wie etwa, als nicht einschränkendes Beispiel, „Ein“, „Aus“, „Wärmer“ und „Kälter“, zusätzlich zu allen anderen Standardschlüsselwörtern, die bereits in einem Schlüsselwortdatenspeicher eingeschlossen sind.At block 410, the process 400 may begin entering a user's custom keyword data. The entered user-specific keyword data allows the user or a customer to enter any targeting signals into the application. The custom keyword data can be any type of signals (or target signals) that the user wants to recognize. The user-specific keyword data can be, for example, spoken keywords, non-verbal acoustic signals such as certain noises, types of images, etc., which are detected by one or more sensors such as those in 1 illustrated personal computing devices 101-109 and/or the like. In an exemplary embodiment, the user can enter the desired keywords and the sensors can recognize the personalized keywords, such as, by way of non-limiting example, "on", "off", "warmer" and "colder", in addition to any other standard keywords already included in a keyword data store.
Bei Block 420 kann der Prozess 400 Vitalbasisdaten für die von dem Benutzer angegebenen Schlüsselwortdaten erzeugen. Die erzeugten Vitalbasisdaten können eine oder mehrere Stimmeigenschaften und Basisdaten einschließen, die sich auf die von dem Benutzer angegebenen Schlüsselwörter beziehen. Wie hierin beschrieben, kann der Benutzer nach Eingabe der gewünschten Schlüsselwörter ebenso die eine oder mehrere Stimmeigenschaften und die Basisdaten basierend auf den eingegebenen Schlüsselwörtern festlegen. Eine sprachbasierte Gesundheitserkennungsvorrichtung kann beispielsweise verwendet werden, um die zeitlichen Veränderungen der von dem Benutzer gesprochenen Schlüsselwörter kontinuierlich zu überwachen und zu erkennen. Dies ermöglicht es der Vorrichtung, eine oder mehrere vorbestimmte Stimmeigenschaften der gesprochenen Schlüsselwörter zu extrahieren, um beispielsweise Trends und Schwellenmesswerte der extrahierten Eigenschaften im Laufe der Zeit zu ermitteln und zu bestimmen. Die extrahierten Stimmeigenschaften können eine oder mehrere Stimmeigenschaften einschließen, die aus Audiodaten (oder Audiosignalen, Samples usw.) extrahiert wurden, die für den Benutzer spezifisch sind, einschließlich, aber nicht beschränkt auf, Stimmneigung, Stimmgeschwindigkeit, Stimmumfang, Stimmgewichtung, Stimmklangfarbe usw. Als solche können alle vorher festgelegten Stimmveränderungen der extrahierten Eigenschaften auf der Basis der Vitalbasisdaten verwendet werden, um dem Benutzer und/oder einem Betreuer des Benutzers frühzeitige Gesundheitswarnsignale zu geben. Beispielsweise kann der Prozess 400 es dem Benutzer erlauben, sich bei der vorstehend erwähnten Anwendung anzumelden und die entsprechenden Eigenschaften und Vitalbasisdaten in Bezug auf die eingegebenen Schlüsselwörter zu erstellen. In vielen Ausführungsformen können die extrahierten Eigenschaften anhand der erzeugten Basisdaten überprüft (oder verifiziert) werden. In vielen Ausführungsformen können die extrahierten Stimmeigenschaften dann analysiert werden, um zu bestimmen, ob eine der extrahierten Stimmeigenschaften einen oder mehrere vorbestimmte Schwellenwerte überschritten hat. Wie vorstehend beschrieben, können die Vitalbasisdaten die Daten aller extrahierten stimmlichen Eigenschaften einschließen, die im Laufe der Zeit ermittelt wurden. Diese Daten werden verwendet, um Trends und Schwellenwerte der extrahierten stimmlichen Eigenschaften zu ermitteln und so ein oder mehrere Vitalzeichen des Benutzers zu verfolgen. In vielen Ausführungsformen können die Vitalbasisdaten des Benutzers einen oder mehrere Schwellenwerte einschließen, die den extrahierten Eigenschaften zugeordnet sind, die den überwachten Vitalzeichen entsprechen. Beispielsweise kann ein erster vorbestimmter Schwellenwert einen Bereich von minimalen und maximalen Datenwerten für ein Vitalzeichen einschließen, das für einen Benutzer überwacht wird, wobei ein bestimmter Datenwert für eine extrahierte Stimmeigenschaft des Benutzers erzeugt werden kann und typischerweise in diesen Schwellenwert fällt, wenn der Benutzer gesund ist.At block 420, the process 400 may generate vital basis data for the keyword data provided by the user. The vital baseline data generated may include one or more voice characteristics and baseline data related to the keywords specified by the user. As described herein, after entering the desired keywords, the user may also specify the one or more voice characteristics and base data based on the entered keywords. For example, a speech-based health recognizer can be used to continuously monitor and detect changes over time in keywords spoken by the user. This allows the device to extract one or more predetermined voice characteristics of the spoken keywords, for example to identify and determine trends and threshold measurements of the extracted characteristics over time. The extracted voice characteristics may include one or more voice characteristics extracted from audio data (or audio signals, samples, etc.) specific to the user, including but not limited to, voice pitch, vocal speed, vocal range, voice weight, voice timbre, etc. As such any predetermined voice changes of the extracted characteristics based on the vital base data can be used to provide early health warnings to the user and/or a caregiver of the user. For example, the process 400 may allow the user to log into the aforementioned application and create the appropriate properties and vitals related to the entered keywords. In many embodiments, the extracted properties can be checked (or verified) against the generated base data. In many embodiments, the extracted voice characteristics can then be analyzed to determine whether any of the extracted voice characteristics exceeded one or more predetermined thresholds. As described above, the vital baseline data may include the data of all extracted vocal characteristics determined over time. This data is used to trend and threshold the extracted vocal characteristics to track one or more of the user's vital signs. In many embodiments, the user's vitals baseline data may include one or more thresholds associated with the extracted characteristics corresponding to the monitored vital signs. For example, a first predetermined threshold may include a range of minimum and maximum data values for a vital sign being monitored for a user, where a particular data value may be generated for an extracted voice characteristic of the user and typically falls within that threshold when the user is healthy .
Umgekehrt können in anderen Ausführungsformen, wenn das eine oder die mehreren extrahierten Stimmeigenschaften ihre jeweiligen vorbestimmten Schwellenwerte überschritten haben, ein oder mehrere Frühzeichen-Gesundheitsalarm-Datensignale erzeugt und an den Benutzer übertragen werden, und/oder die extrahierten Stimmeigenschaften können weiterverarbeitet werden, um eine oder mehrere nachfolgende Einwirkungen zu bestimmen (z. B. das Frühzeichen-Gesundheitsalarm-Signal erzeugen und an einen primären Betreuer des Benutzers übertragen). Das Frühzeichen-Gesundheitsalarm-Datensignal kann dem Benutzer eine Frühwarnung über ein potenzielles schwerwiegendes Gesundheitsproblem geben und ihn zu einer weiteren Diagnose des potenziellen schwerwiegenden Gesundheitsproblems auffordern, wobei das potenzielle schwerwiegende Gesundheitsproblem einem oder mehreren der Vitalzeichen entspricht, die für den Benutzer auf der Basis der erzeugten Vitalbasisdaten überwacht werden.Conversely, in other embodiments, if the one or more extracted voice characteristics have exceeded their respective predetermined thresholds, one or more early sign health alert data signals may be generated and transmitted to the user, and/or the extracted voice characteristics may be further processed to produce one or determine multiple subsequent exposures (e.g., generate and transmit the early sign health alert signal to a primary caregiver of the user). The early sign health alert data signal can give the user an early warning of a potential serious health problem and prompt them for further diagnosis of the potential serious health problem, where the potential serious health problem corresponds to one or more of the vital signs that are generated for the user based on the Basic vital data are monitored.
Bei Block 430 kann der Prozess 400 Signaldaten aus einem dem Benutzer zugeordneten Datenspeicher abrufen. Die Signaldaten können aus Standardschlüsselwörtern oder dergleichen bestehen, die erkannt werden können. Bei Block 440 kann der Prozess 400 einen modifizierten Datenspeicher basierend auf der Kombination von benutzerspezifizierten Schlüsselwortdaten und den Signaldaten aufbauen. In einigen Ausführungsformen können die benutzerspezifizierten Zielsignale mit geeigneten, entsprechenden Bezeichnungen gekennzeichnet sein, während alle anderen Signale mittels einer generischen Bezeichnung, wie beispielsweise „Andere“, identifiziert werden können. Danach kann der modifizierte Datenspeicher dann verwendet werden, um eine neuronale Netzwerkimplementierung zu trainieren. Bei Block 450 kann der Prozess 400 ein neuronales Netzwerk trainieren, das auf dem modifizierten Datenspeicher basiert, um sowohl die Kombination der vom Benutzer angegebenen Schlüsselwortdaten als auch die Signaldaten im modifizierten (oder aktualisierten) Datenspeicher zu erkennen. Es ist denkbar, dass die Implementierung des neuronalen Netzwerks ein Softwaremodell eines neuronalen Netzwerks ist, wie das in 3 veranschaulichte neuronale Netzwerk 324. Bei Block 460 kann der Prozess 400 bekannte Benutzerdaten erzeugen, um die Implementierung des neuronalen Netzwerks zu trainieren. Beispielsweise können die erzeugten bekannten Benutzerdaten von einer sprachbasierten Gesundheitserkennungsvorrichtung verwendet werden, um die vom Benutzer angegebenen Schlüsselwörter in dem modifizierten Datenspeicher zu erkennen.At block 430, the process 400 may retrieve waveform data from a data store associated with the user. The signal data can consist of standard keywords or the like that can be recognized. At block 440, the process 400 may build a modified data store based on the combination of user-specified keyword data and the signal data. In some embodiments, the user-specified target signals may be labeled with appropriate, corresponding labels, while all other signals may be identified using a generic label, such as "Other." Thereafter, the modified data store can then be used to train a neural network implementation. At block 450, the process 400 may train a neural network based on the modified data store to recognize both the combination of the user-specified keyword data and the signal data in the modified (or updated) data store. It is conceivable that the implementation of the neural network is a software model of a neural network, like the one shown in 3 illustrated neural network 324. At block 460, the process 400 may generate known user data to train the neural network implementation. For example, the generated known user data from a language-based health recognition device are used to recognize the user-specified keywords in the modified data store.
Bei Block 470 kann der Prozess 400 optional die erzeugten bekannten Benutzerdaten in ein Dateiformat übersetzen, das für die Speicherung in einem Speicher einer persönlichen Computervorrichtung oder einer anderen Vorrichtung geeignet ist. Der Speicher kann beispielsweise ähnlich wie der in 2A veranschaulichte Datenspeicher 240 sein. In einigen Ausführungsformen kann eine Programmierdatei, die die erzeugten bekannten Benutzerdaten umfasst, einem Endbenutzer beim Kauf der Vorrichtung bereitgestellt werden. In einigen Ausführungsformen kann die Datei in eine oder mehrere integrierte Schaltungen und/oder Logiken programmiert werden, die vom Endbenutzer erworben werden können. Wenn der Endbenutzer die Datei, die die erzeugten bekannten Benutzerdaten umfasst, in die Vorrichtung installiert, entweder mittels der vorstehend erwähnten Programmierdatei, Schaltungen und/oder Logiken, kann die Vorrichtung die eingegebenen benutzerspezifischen Schlüsselwörter in dem modifizierten Datenspeicher erkennen. Wie der Fachmann weiß, wird das Training oder die Implementierung des neuronalen Netzwerks außerhalb der Vorrichtung durchgeführt und die daraus resultierenden bekannten Benutzerdaten werden im Speicher abgelegt, sodass die Vorrichtung die Audiosignale auch im Offline-Zustand (d.h. in Abwesenheit einer Cloud oder einer anderen Netzwerkverbindung) überwachen kann.At block 470, process 400 may optionally translate the generated known user data into a file format suitable for storage in memory of a personal computing device or other device. For example, the memory can be similar to that in 2A data storage 240 illustrated. In some embodiments, a programming file comprising the generated known user data may be provided to an end user upon purchase of the device. In some embodiments, the file can be programmed into one or more integrated circuits and/or logic that can be purchased by the end user. When the end user installs the file comprising the generated known user data into the device, either by means of the aforementioned programming file, circuitry and/or logic, the device can recognize the entered user-specific keywords in the modified data store. As those skilled in the art know, the training or implementation of the neural network is performed external to the device and the resulting known user data is stored in memory, allowing the device to play the audio signals even when offline (i.e. in the absence of a cloud or other network connection). can monitor.
Nun Bezug nehmend auf 5 ist ein beispielhaftes Flussdiagramm eines sprachbasierten Gesundheitserkennungsprozesses 500 gemäß Ausführungsformen der Offenbarung gezeigt. Der Prozess 500 kann als Flussdiagramm veranschaulicht werden, um Alarmdaten zur Früherkennung von Gesundheitsproblemen bekannter Benutzer zu erzeugen. Der Prozess 500 kann mit einer oder mehreren Computervorrichtungen und/oder Systemen implementiert werden, einschließlich, aber nicht beschränkt auf das in 1 veranschaulichte sprachbasierte Gesundheitserkennungssystem 100, die in 2A dargestellte sprachbasierte Gesundheitserkennungsvorrichtung 200, das in 3 dargestellte sprachbasierte Gesundheitserkennungssystem 300 und/oder den in den 1 und 3 dargestellten sprachbasierten Gesundheitserkennungsserver 120. Zusätzlich kann der Prozess 500, wie vorstehend in verschiedenen Ausführungsformen beschrieben, mit Hilfe einer oder mehrerer webbasierter Anwendungen und/oder einer anderen geeigneten Softwareanwendung implementiert werden. In einigen Ausführungsformen kann die Anwendung(en) als cloudbasierte Anwendung implementiert und/oder als eigenständige Softwareanwendung verteilt werden, je nach Wunsch und ohne Einschränkungen.Referring now to 5 An exemplary flowchart of a voice-based health recognition process 500 is shown, in accordance with embodiments of the disclosure. The process 500 can be illustrated as a flowchart to generate alert data for early detection of known users' health problems. The process 500 may be implemented with one or more computing devices and/or systems, including but not limited to the 1 illustrated speech-based health recognition system 100, in 2A illustrated speech-based health recognition device 200, which is in 3 illustrated speech-based health recognition system 300 and / or in the 1 and 3 In addition, as described above in various embodiments, the process 500 may be implemented using one or more web-based applications and/or any other suitable software application. In some embodiments, the application(s) may be implemented as a cloud-based application and/or distributed as a standalone software application, as desired and without limitation.
Bei Block 510 kann der Prozess 500 Audiosignaldaten empfangen. Beispielsweise können die empfangenen Audiosignaldaten in Form von rohen analogen Audiosignalen, digitalen Signaldaten und Mustern, die bestimmte Geräusche oder ähnliches darstellen, und/oder jedem anderen erkennbaren Signaleingang bereitgestellt werden, die von einem oder mehreren Sensoren wie den in 1 dargestellten persönlichen Computervorrichtungen 101-109 erfasst werden. Die empfangenen Audiosignaldaten können von einer sprachbasierten Gesundheitserkennungsvorrichtung erfasst oder aus der Ferne erfasst und an die sprachbasierte Gesundheitserkennungsvorrichtung zur Verarbeitung übertragen werden. Bei Block 520 kann der Prozess 500 ein oder mehrere Schlüsselwörter in den empfangenen Audiosignaldaten identifizieren (oder erkennen). At block 510, the process 500 may receive audio signal data. For example, the received audio signal data may be provided in the form of raw analog audio signals, digital signal data and patterns representing particular sounds or the like, and/or any other recognizable signal input obtained from one or more sensors such as those described in 1 illustrated personal computing devices 101-109. The received audio signal data may be captured by a voice-based health recognition device or captured remotely and transmitted to the voice-based health recognition device for processing. At block 520, the process 500 may identify (or recognize) one or more keywords in the received audio signal data.
Beispielsweise kann die sprachbasierte Gesundheitserkennungsvorrichtung die vorbestimmten Schlüsselwörter in den empfangenen Audiosignaldaten erkennen. In vielen Ausführungsformen werden die identifizierten Schlüsselwörter von Geräuschen, Stimmen oder ähnlichem empfangen, die in der Nähe der Vorrichtung aufgenommen wurden.For example, the speech-based health recognition device can recognize the predetermined keywords in the received audio signal data. In many embodiments, the identified keywords are received from sounds, voices, or the like, recorded in the vicinity of the device.
Bei Block 530 kann der Prozess 500 Stimmeigenschaften aus den identifizierten Schlüsselwörtern extrahieren. Die extrahierten Stimmeigenschaften werden dann verarbeitet und mit den Vitalbasisdaten abgeglichen, die dem bekannten Benutzer zugeordnet sind. Die extrahierten stimmlichen Eigenschaften können insbesondere mit den identifizierten Schlüsselwörtern übereinstimmen. Die extrahierten stimmlichen Eigenschaften können eine oder mehrere stimmliche Eigenschaften einschließen, die von dem bekannten Benutzer erzeugt und aus den identifizierten Schlüsselwörtern extrahiert wurden, einschließlich, aber nicht beschränkt auf die Stimmlage, die Stimmgeschwindigkeit, den Stimmumfang, die Stimmgewichtung, die Stimmklangfarbe und/oder dergleichen. Bei Block 540 kann der Prozess 500 eine oder mehrere Änderungen an den extrahierten Stimmeigenschaften verarbeiten. Beispielsweise können die verarbeiteten Stimmeigenschaften mit den bekannten Benutzerdaten verglichen werden, die einem bestimmten bekannten Benutzer zugeordnet sind. Zusätzlich können die verarbeiteten Stimmeigenschaften mit den Vitalbasisdaten verglichen werden, die dem bekannten Benutzer zugeordnet sind. Durch Abschluss dieser Auswertung können die verarbeiteten Stimmeigenschaften des bekannten Benutzers die Identifizierung einer oder mehrerer Veränderungen zulassen, die für den bekannten Benutzer spezifisch sein können. Bei dieser Bewertung im Vergleich zu einer Grundlage, die für den bekannten Benutzer spezifisch ist, können bereits vorhandene Eigenschaften berücksichtigt werden, wie etwa, aber nicht beschränkt auf, eine Sprachbehinderung, lokale Sprachdialekte und/oder Akzente.At block 530, the process 500 may extract voice characteristics from the identified keywords. The extracted voice characteristics are then processed and matched against the vital baseline data associated with the known user. In particular, the extracted vocal characteristics may match the identified keywords. The extracted vocal characteristics may include one or more vocal characteristics generated by the known user and extracted from the identified keywords, including but not limited to voice pitch, voice speed, vocal range, voice weight, voice timbre, and/or the like . At block 540, process 500 may process one or more changes to the extracted voice characteristics. For example, the processed voice characteristics can be compared to known user data associated with a particular known user. In addition, the processed voice characteristics can be compared to the vital basis data associated with the known user. By completing this evaluation, the processed voice characteristics of the known user may allow identification of one or more changes specific to the known user can be fish. Pre-existing characteristics, such as, but not limited to, a speech impediment, local dialects, and/or accents, may be taken into account in this assessment versus a baseline specific to the known user.
Bei Block 550 kann der Prozess 500 bestimmen, ob die extrahierte(n) Eigenschaft(en) einen vorbestimmten Schwellenwert überschritten haben. Wenn die extrahierten Stimmeigenschaften ihre jeweiligen vorbestimmten Schwellenwerte nicht überschritten haben, kann der Prozess 500 zurück zu Block 510 gehen. Die extrahierten Eigenschaften werden dann beispielsweise analysiert, um zu bestimmen, ob eine der extrahierten Stimmeigenschaften ihre jeweiligen vorbestimmten Schwellenwerte überschritten hat, wobei ebenso ein oder mehrere externe Faktoren angenommen werden, die sich auf die vorbestimmten Schwellenwerte und/oder die verarbeiteten Stimmeigenschaften auswirken können (z. B. kann die in 2A veranschaulichte heuristische Logik 229 verwendet werden, wenn derartige externe Faktoren berücksichtigt werden). Zusätzlich kann, wie vorstehend beschrieben, der vorbestimmte Schwellenwert mindestens einen oder mehrere dynamische/statische vorbestimmte Schwellenwerte umfassen. Der vorbestimmte Schwellenwert kann beispielsweise einen statischen vorbestimmten Schwellenwert umfassen, der basierend auf den Vitalbasisdaten des bekannten Benutzers erzeugt werden kann. In einigen Ausführungsformen kann der statische vorbestimmte Schwellenwert einen statischen Bereich von minimalen und maximalen Datenwerten umfassen, die den Vitalbasisdaten des bekannten Benutzers zugeordnet sind. Das bedeutet, dass der statische vorbestimmte Schwellenwert einen minimalen Datenwert und einen maximalen Datenwert für ein Vitalzeichen aufweisen kann, wobei sowohl der minimale als auch der maximale Datenwert für das eine Vitalzeichen festgelegt sind, nicht verändert werden können und/oder keine anderen externen Faktoren berücksichtigen.At block 550, the process 500 may determine whether the extracted property(s) have exceeded a predetermined threshold. If the extracted voice characteristics have not exceeded their respective predetermined thresholds, the process 500 may proceed back to block 510. The extracted characteristics are then analyzed to determine, for example, whether any of the extracted voice characteristics exceeded their respective predetermined thresholds, also assuming one or more external factors that may affect the predetermined thresholds and/or the processed voice characteristics (e.g B. can the in 2A illustrated heuristic logic 229 can be used when such external factors are taken into account). Additionally, as described above, the predetermined threshold may include at least one or more dynamic/static predetermined thresholds. The predetermined threshold may comprise, for example, a static predetermined threshold that may be generated based on the known user's vitals baseline data. In some embodiments, the static predetermined threshold may include a static range of minimum and maximum data values associated with the known user's vitals baseline data. That is, the static predetermined threshold may have a minimum data value and a maximum data value for a vital sign, where both the minimum and maximum data values for the one vital sign are fixed, cannot be changed, and/or do not take other external factors into account.
In weiteren Ausführungsformen kann der vorbestimmte Schwellenwert einen dynamischen Schwellenwert umfassen. Der dynamische Schwellenwert kann basierend auf einer Vielzahl von sich ändernden Faktoren erzeugt werden, einschließlich, aber nicht beschränkt auf die Vitalbasisdaten des bekannten Benutzers. Darüber hinaus kann der dynamische Schwellenwert einen dynamischen Bereich minimaler und maximaler Datenwerte umfassen, die den Vitalbasisdaten des bekannten Benutzers zugeordnet sind. Der dynamische Schwellenwert kann beispielsweise in Verbindung mit einer Vitalverarbeitungslogik (z. B. der Vitalverarbeitungslogik 226 in 2A) erzeugt werden, die so konfiguriert sein kann, dass sie den dynamischen Bereich der minimalen und maximalen Datenwerte dynamisch anpasst, basierend auf einem oder mehreren externen Faktoren, die von einer heuristischen Logik (z. B. der heuristischen Logik 229 in 2A) erfasst werden. In einigen Ausführungsformen kann der eine oder die mehreren erfassten externen Faktoren mindestens einen oder mehrere von geografischen Orten, Zeit, Datum, Echtzeitaktivitäten, physischen Orten, Umgebungstemperaturen und/oder überwachten Temperaturen umfassen. An einem heißen Tag zum Beispiel kann der dynamische vorbestimmte Schwellenwert die jeweiligen minimalen und maximalen Datenwerte für die überwachten Vitalzeichen, die der Temperatur des bekannten Benutzers zugeordnet sind, dynamisch anpassen. Es ist denkbar, dass eine Vielzahl von dynamischen Schwellenwerten basierend auf einer beliebigen Anzahl von externen Faktoren konfiguriert werden kann.In other embodiments, the predetermined threshold may include a dynamic threshold. The dynamic threshold may be generated based on a variety of changing factors, including but not limited to the known user's vitals. In addition, the dynamic threshold may include a dynamic range of minimum and maximum data values associated with the known user's vitals data. For example, the dynamic threshold may be used in conjunction with vital processing logic (e.g., vital processing logic 226 in 2A) are generated, which can be configured to dynamically adjust the dynamic range of the minimum and maximum data values based on one or more external factors controlled by heuristic logic (e.g., heuristic logic 229 in 2A) are recorded. In some embodiments, the one or more sensed external factors may include at least one or more of geographic location, time, date, real-time activity, physical location, ambient temperature, and/or monitored temperature. For example, on a hot day, the dynamic predetermined threshold may dynamically adjust the respective minimum and maximum data values for the monitored vital signs associated with the known user's temperature. It is conceivable that a variety of dynamic thresholds could be configured based on any number of external factors.
Dementsprechend kann der Prozess 500 bei Block 560, wenn die extrahierten Stimmeigenschaften ihre jeweiligen Schwellenwerte überschritten haben, Alarmdaten in Bezug auf die extrahierten Stimmeigenschaften erzeugen, die ihre vorbestimmten Schwellenwerte überschritten haben. Die erzeugten Alarmdaten können beispielsweise als Datenbefehl, als Funktionsaufruf, als damit verbundene vorbestimmte Einwirkung, als Spannungsänderung innerhalb der Vorrichtung und/oder dergleichen konfiguriert sein. Bei Block 570 kann der Prozess 500 die erzeugten Alarmdaten an eine oder mehrere Vorrichtungen übertragen. Zusätzlich können die übertragenen Alarmdaten als Reaktion auf die erzeugten Alarmdaten vorbestimmte Aktionsdaten auslösen, die dem bekannten Benutzer zugeordnet sind, was mindestens einen oder mehrere bekannte Benutzeralarme und/oder Betreueralarme auslösen kann. Beispielsweise können die bekannten Benutzeralarme einen Frühwarnungsalarm, einen Warnalarm und einen Notfallalarm umfassen, während die Betreueralarme einen Betreuerfrühwarnungsalarm, einen Betreuerwarnalarm und einen Betreuernotfallalarm umfassen können. Schließlich kann der Prozess 500 so konfiguriert sein, dass er als Reaktion auf die erzeugten und übertragenen Alarmdaten einen der Benutzeralarme an eine persönliche Computervorrichtung des bekannten Benutzers und/oder einen der Betreueralarme an einen dem bekannten Benutzer zugeordneten Betreuer-Server überträgt, wobei sowohl die Benutzeralarme als auch die Betreueralarme eine Alarmbenachrichtigung über eine frühzeitige Erkennung eines potenziellen schweren Gesundheitsproblems umfassen, das dem bekannten Benutzer zugeordnet ist.Accordingly, at block 560, if the extracted voice characteristics have exceeded their respective thresholds, the process 500 may generate alarm data related to the extracted voice characteristics having exceeded their predetermined thresholds. The generated alarm data may be configured, for example, as a data command, a function call, a predetermined action associated therewith, a voltage change within the device, and/or the like. At block 570, the process 500 may transmit the generated alert data to one or more devices. Additionally, in response to the generated alert data, the transmitted alert data may trigger predetermined action data associated with the known user, which may trigger at least one or more known user alerts and/or attendant alerts. For example, the known user alerts may include an early warning alert, a warning alert, and an emergency alert, while the caregiver alerts may include a caregiver early warning alert, a caregiver warning alert, and a caregiver emergency alert. Finally, the process 500 may be configured to, in response to the generated and transmitted alert data, transmit one of the user alerts to a personal computing device of the known user and/or one of the caregiver alerts to a caregiver server associated with the known user, where both the user alerts and caregiver alerts include early detection alert notification of a potential serious health issue associated with the known user.
Nun Bezug nehmend auf 6A ist ein beispielhaftes Flussdiagramm eines immer eingeschalteten sprachbasierten Gesundheitserkennungsprozesses 600 gemäß Ausführungsformen der Offenbarung gezeigt. Der Prozess 600 kann als Flussdiagramm veranschaulicht werden, das verwendet wird, um Daten auf der Vorrichtung des bekannten Benutzers zu überwachen und Alarmdaten zur Früherkennung von Gesundheitsproblemen bekannter Benutzer zu erzeugen. Der Prozess 600 kann mit einer oder mehreren Computervorrichtungen und/oder Systemen implementiert werden, einschließlich, aber nicht beschränkt auf das in 1 veranschaulichte sprachbasierte Gesundheitserkennungssystem 100, die in 2A dargestellte sprachbasierte Gesundheitserkennungsvorrichtung 200, das in 3 dargestellte sprachbasierte Gesundheitserkennungssystem 300 und/oder den in den 1 und 3 dargestellten sprachbasierten Gesundheitserkennungsserver 120. Zusätzlich kann der Prozess 600, wie vorstehend in verschiedenen Ausführungsformen beschrieben, mit Hilfe einer oder mehrerer webbasierter Anwendungen und/oder einer anderen geeigneten Softwareanwendung implementiert werden. In einigen Ausführungsformen kann die Anwendung(en) teilweise oder ganz als cloudbasierte Anwendung implementiert und/oder als eigenständige Softwareanwendung verteilt werden, je nach Wunsch und ohne Einschränkungen.Referring now to 6A FIG. 6 is an exemplary flowchart of an always-on speech-based health detection process 600, in accordance with embodiments of FIG revelation shown. The process 600 can be illustrated as a flow chart used to monitor data on the known user's device and generate alert data for early detection of health problems of known users. The process 600 may be implemented with one or more computing devices and/or systems, including but not limited to the 1 illustrated speech-based health recognition system 100, in 2A illustrated speech-based health recognition device 200, which is in 3 illustrated speech-based health recognition system 300 and / or in the 1 and 3 Additionally, as described above in various embodiments, the process 600 may be implemented using one or more web-based applications and/or any other suitable software application. In some embodiments, the application(s) may be partially or fully implemented as a cloud-based application and/or distributed as a standalone software application, as desired and without limitation.
In Block 610 kann der Prozess 600 in einen Hörmodus mit geringem Stromverbrauch und ständiger Überwachung übergehen. In vielen Ausführungsformen kann der Prozess 600 mit einer sprachbasierten Gesundheitserkennungsvorrichtung oder ähnlichem implementiert werden. Die sprachbasierte Gesundheitserkennungsvorrichtung kann zum Beispiel der in 2A veranschaulichten sprachbasierten Gesundheitserkennungsvorrichtung 200 ähnlich sein. In den folgenden Ausführungsformen kann die Vorrichtung verwendet werden, um in den Hörmodus überzugehen, der von einem Sensor (oder dergleichen) genutzt werden kann und sich in der Vorrichtung in einem stromsparenden, ständig eingeschalteten (oder stromverbrauchenden) Zustand befindet, sodass der Sensor jede Art von Audiodatensignalen mit geringer Latenz erkennen kann.At block 610, the process 600 may transition to a low power listening mode with constant monitoring. In many embodiments, the process 600 can be implemented with a voice-based health recognition device or the like. The speech-based health recognition device can, for example, 2A illustrated speech-based health recognition device 200 may be similar. In the following embodiments, the device can be used to enter the listening mode, which can be used by a sensor (or the like) and is in a low-power, always-on (or consuming) state in the device so that the sensor can be any type of low-latency audio data signals.
Bei Block 620 kann der Prozess 600 Audiodaten von einem oder mehreren Sensoren und/oder persönlichen Computervorrichtungen eines Benutzers empfangen. Beispielsweise kann die Vorrichtung ein oder mehrere Audiosignaleingänge in Form von analogen Rohaudiosignalen, digitalen Signaldaten und Mustern, die bestimmte Klänge oder ähnliches darstellen, und/oder andere erkennbare Signaleingänge empfangen, die von einer oder mehreren Audiodatenquellen, Sensoren und/oder ähnlichem erfasst werden. Die empfangenen Audiosignale können innerhalb der Vorrichtung erfasst werden oder aus der Ferne erfasst und an die Vorrichtung zur Verarbeitung übertragen werden. Bei Block 630 kann der Prozess 600 vorbestimmte Schlüsselwörter in den empfangenen Audiodaten erkennen. Beispielsweise kann die Vorrichtung ein oder mehrere vom Benutzer vorgegebene Schlüsselwörter in den empfangenen Audiodaten erkennen. Bei Block 640 kann der Prozess 600 die erkannten Schlüsselwörter gegen bekannte Benutzerdaten verarbeiten, die dem Benutzer zugeordnet sind. Beispielsweise können die übertragenen Schlüsselwörter gegen die bekannten Benutzerdaten verarbeitet werden, ähnlich den bekannten Benutzerdaten 250, die in den 2A-2B dargestellt sind. Beispielsweise werden in einigen Ausführungsformen das eine oder die mehreren erkannten Schlüsselwörter dann verarbeitet und mit den bekannten Benutzerdaten eines oder mehrerer bekannter Benutzer verglichen. Die bekannten Benutzerdaten können Daten umfassen, die dem einen oder mehreren bekannten Benutzern zugeordnet sind, die zur Verwendung der Vorrichtung vorautorisiert wurden. Zusätzlich zu den vorautorisierten bekannten Benutzern können die bekannten Benutzerdaten auch Schlüsselwörter, Eigenschaften und/oder andere gewünschte Daten auf der Basis der bekannten Benutzer einschließen, derartige Daten können mit dem einen oder mehreren Datentypen in den in 2B dargestellten bekannten Benutzerdaten 250 veranschaulicht werden. In einigen Ausführungsformen können die bekannten Benutzer durch die Verarbeitung der erkannten Schlüsselwörter bestimmt werden, da ein separates Erkennungsnetzwerk verwendet werden kann, um die Quellen der bekannten Benutzer zu bestimmen. Beispielsweise kann die Überprüfung der erkannten Schlüsselwörter gegen die bekannten Benutzer aufeinanderfolgend oder parallel zu Schritt 630 erfolgen.At block 620, process 600 may receive audio data from one or more sensors and/or personal computing devices of a user. For example, the device may receive one or more audio signal inputs in the form of raw analog audio signals, digital signal data and patterns representing particular sounds or the like, and/or other recognizable signal inputs captured from one or more audio data sources, sensors, and/or the like. The received audio signals can be captured within the device or captured remotely and transmitted to the device for processing. At block 630, the process 600 may identify predetermined keywords in the received audio data. For example, the device may recognize one or more user-supplied keywords in the received audio data. At block 640, process 600 may process the recognized keywords against known user data associated with the user. For example, the transmitted keywords can be processed against the known user data, similar to the known user data 250 described in Figs 2A-2B are shown. For example, in some embodiments, the one or more identified keywords are then processed and compared to the known user data of one or more known users. The known user data may include data associated with the one or more known users who have been pre-authorized to use the device. In addition to the pre-authorized known users, the known user data may also include keywords, attributes and/or other desired data based on known users, such data may be associated with the one or more data types in the in 2 B known user data 250 shown. In some embodiments, the known users can be determined by processing the recognized keywords, since a separate recognition network can be used to determine the sources of the known users. For example, the checking of the recognized keywords against the known users can be performed sequentially or in parallel with step 630.
Bei Block 650 kann der Prozess 600 die extrahierten Stimmeigenschaften mit den Basisdaten der bekannten Benutzer abgleichen. Die extrahierten Eigenschaften können dann beispielsweise verarbeitet und gegen die Vitalbasisdaten der bekannten Benutzerdaten verifiziert werden. Wie hierin beschrieben, können die extrahierten Stimmeigenschaften und die bekannten Vitalbasisdaten des Benutzers insbesondere mit den erkannten Schlüsselwörtern übereinstimmen. Bei Block 660 kann der Prozess 600 bestimmen, ob die verarbeiteten und extrahierten Stimmeigenschaften einen vorbestimmten Schwellenwert überschritten haben. Diese Bestimmung kann beispielsweise ähnlich sein wie die Bestimmung bei Block 550, die vorstehend in 5 veranschaulicht ist. Bei Block 670 kann der Prozess 600 Alarmdaten als Reaktion auf die extrahierten Stimmmerkmale erzeugen, die ihre vorbestimmten Schwellenwerte überschritten haben. Bei Block 680 kann der Prozess 600 die erzeugten Alarmdaten an eine oder mehrere persönliche Computervorrichtungen übertragen. Beispielsweise können die übertragenen Alarmdaten in einer erkennbaren Form übertragen werden, die von einem der persönlichen Computervorrichtungen 101-109 aus 1 empfangen werden kann. Bei Block 690 kann der Prozess 600 optional die erzeugten Alarmdaten an eine Betreuervorrichtung, Server und/oder System übertragen. Beispielsweise können die übertragenen Alarmdaten in einer erkennbaren Form übertragen werden, die von dem Betreuer-Server 130 der 1 empfangen werden kann. Die übertragenen Alarmdaten, die von dem Betreuer empfangen werden, können sie über eine frühzeitige Gesundheitserkennung eines möglichen schwerwiegenden Gesundheitsproblems, das dem Benutzer zugeordnet ist, warnen.At block 650, the process 600 may match the extracted voice characteristics to the baseline data of the known users. The extracted properties can then be processed, for example, and verified against the basic vital data of the known user data. In particular, as described herein, the extracted voice characteristics and the user's known vitals may match the recognized keywords. At block 660, the process 600 may determine whether the processed and extracted voice characteristics have exceeded a predetermined threshold. This determination may be, for example, similar to the determination at block 550 made above in 5 is illustrated. At block 670, the process 600 may generate alarm data in response to the extracted voice features exceeding their predetermined thresholds. At block 680, process 600 may transmit the generated alert data to one or more personal computing devices. For example, the transmitted alarm data can be transmitted in a recognizable form that can be used by one of the personal computing devices 101-109 1 can be received. At block 690, the process 600 can optionally transmit the generated alert data to a caregiver device, server, and/or system. For example, the transmitted alert data may be transmitted in a recognizable form that the supervisor server 130 of 1 can be received. The transmitted alert data received by the caregiver can alert them to early health detection of a possible serious health problem associated with the user.
Unter Bezugnahme auf 6B wird in Übereinstimmung mit der Offenbarung ein beispielhaftes Flussdiagramm eines immer eingeschalteten sprachbasierten Gesundheitserkennungsprozesses 601 gezeigt, der eine externe Computervorrichtung verwendet. Der Prozess 601 kann als Flussdiagramm veranschaulicht werden, das verwendet wird, um Daten, die nicht auf der Vorrichtung sind, des bekannten Benutzers zu empfangen und Alarmdaten zur Früherkennung von Gesundheitsproblemen bekannter Benutzer zu erzeugen. Der in 6B veranschaulichte Prozess 601 kann dem in 6A veranschaulichten Prozess 600 ähnlich sein, mit der Ausnahme, dass jeder (und/oder die meisten) der veranschaulichten Schritte des Prozesses 601 in einem cloudbasierten Server und/oder ähnlichem implementiert werden kann. Der Prozess 601 kann mit einer oder mehreren Computervorrichtungen und/oder Systemen implementiert werden, einschließlich, aber nicht beschränkt auf das in 1 veranschaulichte sprachbasierte Gesundheitserkennungssystem 100, die in 2A dargestellte sprachbasierte Gesundheitserkennungsvorrichtung 200, das in 3 dargestellte sprachbasierte Gesundheitserkennungssystem 300 und/oder den in den 1 und 3 dargestellten sprachbasierten Gesundheitserkennungsserver 120. Zusätzlich kann der Prozess 601, wie vorstehend in verschiedenen Ausführungsformen beschrieben, mit Hilfe einer oder mehrerer webbasierter Anwendungen und/oder einer anderen geeigneten Softwareanwendung implementiert werden. In einigen Ausführungsformen kann die Anwendung(en) teilweise oder ganz als cloudbasierte Anwendung implementiert und/oder als eigenständige Softwareanwendung verteilt werden, je nach Wunsch und ohne Einschränkungen.With reference to 6B In accordance with the disclosure, an example flowchart of an always-on speech-based health detection process 601 using an external computing device is shown. The process 601 can be illustrated as a flowchart used to receive off-device data from the known user and to generate alert data for early detection of health problems of known users. the inside 6B Process 601 illustrated may correspond to that in 6A Illustrated process 600, except that each (and/or most) of the illustrated steps of process 601 may be implemented in a cloud-based server and/or the like. Process 601 may be implemented with one or more computing devices and/or systems, including but not limited to the 1 illustrated speech-based health recognition system 100, in 2A illustrated speech-based health recognition device 200, which is in 3 illustrated speech-based health recognition system 300 and / or in the 1 and 3 Additionally, as described above in various embodiments, the process 601 may be implemented using one or more web-based applications and/or any other suitable software application. In some embodiments, the application(s) may be partially or fully implemented as a cloud-based application and/or distributed as a standalone software application, as desired and without limitation.
In Block 611 kann der Prozess 601 in einen Hörmodus mit geringem Stromverbrauch und ständiger Überwachung übergehen. Dieser eingegebene Hörmodus kann beispielsweise dem eingegebenen Hörmodus in Block 610 ähneln, der vorstehend in 6A veranschaulicht ist. Bei Block 621 kann der Prozess 601 Audiodaten empfangen, die von einem oder mehreren Sensoren und/oder persönlichen Computervorrichtungen übertragen wurden, die sich bei einem Benutzer befinden können. Bei Block 625 kann der Prozess 601 dann bestimmen, ob vorbestimmte Schlüsselwörter in den empfangenen Audiodaten erkannt wurden. Wenn keine vorbestimmten Schlüsselwörter erkannt werden, kann der Prozess 601 zu Block 611 zurückkehren. Umgekehrt kann der Prozess 601, wenn vorbestimmte Schlüsselwörter erkannt werden, zum Block 631 übergehen und die erkannten Schlüsselwörter in den empfangenen Audiodaten verarbeiten. Es versteht sich, dass die vorherigen Blöcke den entsprechenden Blöcken, die vorstehend in 6A veranschaulicht sind, ähnlich sein können.At block 611, the process 601 may transition to a low-power, always-monitoring listening mode. This entered listening mode may be similar, for example, to the entered listening mode in block 610, described above in 6A is illustrated. At block 621, process 601 may receive audio data transmitted from one or more sensors and/or personal computing devices that may be located on a user. At block 625, the process 601 may then determine whether predetermined keywords were recognized in the received audio data. If no predetermined keywords are recognized, the process 601 may return to block 611. Conversely, if predetermined keywords are identified, process 601 may proceed to block 631 and process the identified keywords in the received audio data. It will be understood that the previous blocks correspond to the corresponding blocks set out above in 6A are illustrated may be similar.
Bei Block 641 kann der Prozess 601 die verarbeiteten Schlüsselwörter an eine oder mehrere externe Vorrichtungen übertragen. Wie vorstehend beschrieben, können die externen Computervorrichtungen als cloudbasierte Vorrichtung, Server, System und/oder ähnliches implementiert werden. Beispielsweise können die cloudbasierten externen Computervorrichtungen so konfiguriert sein, dass sie erkannte Schlüsselwörter von den einen Sensoren und/oder persönlichen Computervorrichtungen empfangen. Bei Block 651 kann der Prozess 601 die übertragenen Schlüsselwörter mit bekannten Benutzerdaten abgleichen. Beispielsweise können die übertragenen Schlüsselwörter gegen die bekannten Benutzerdaten verarbeitet werden, ähnlich den bekannten Benutzerdaten 250, die in den 2A-2B dargestellt sind. Bei Block 661 kann der Prozess 601 die extrahierten Eigenschaften gegen Basisdaten der bekannten Benutzer verarbeiten. Bei Block 665 kann der Prozess 601 bestimmen, ob extrahierte Eigenschaften einen vorbestimmten Schwellenwert überschritten haben. Wenn die extrahierten Stimmeigenschaften ihre jeweiligen vorbestimmten Schwellenwerte nicht überschritten haben, kann der Prozess 601 fortfahren, um den Prozess zu beenden. Umgekehrt, wenn die extrahierten Stimmeigenschaften ihre jeweiligen vorbestimmten Schwellenwerte überschritten haben, kann der Prozess 601 zu Block 671 übergehen und Alarmdaten in Bezug auf die überschrittenen extrahierten Eigenschaften erzeugen. Es versteht sich, dass die vorherigen Blöcke den entsprechenden Blöcken, die vorstehend in 6A veranschaulicht sind, ähnlich sein können.At block 641, process 601 may transmit the processed keywords to one or more external devices. As described above, the external computing devices may be implemented as a cloud-based device, server, system, and/or the like. For example, the cloud-based external computing devices may be configured to receive recognized keywords from the one or more sensors and personal computing devices. At block 651, process 601 may match the transmitted keywords to known user data. For example, the transmitted keywords can be processed against the known user data, similar to the known user data 250 described in Figs 2A-2B are shown. At block 661, process 601 may process the extracted properties against known user baseline data. At block 665, process 601 may determine whether extracted properties have exceeded a predetermined threshold. If the extracted voice characteristics have not exceeded their respective predetermined thresholds, the process 601 may proceed to end the process. Conversely, if the extracted voice characteristics have exceeded their respective predetermined thresholds, the process 601 may proceed to block 671 and generate alarm data related to the extracted characteristics being exceeded. It will be understood that the previous blocks correspond to the corresponding blocks set out above in 6A are illustrated may be similar.
Bei Block 681 kann der Prozess 601 erzeugte Alarmdaten an die persönliche Computervorrichtung übertragen. Beispielsweise kann die cloudbasierte Vorrichtung (oder ein Dienst, eine Anwendung usw.) die erzeugten Alarmdaten an eine persönliche Computervorrichtung übertragen, die dem Benutzer zugeordnet ist. Bei Block 685 kann der Prozess 601 vorbestimmte Aktionen basierend auf übertragenen Alarmdaten verarbeiten. Beispielsweise können die verarbeiteten vorbestimmten Aktionen das Erzeugen von Alarmbenachrichtigungen und/oder das Auslösen anderer gewünschter Aktionen einschließen, die dem Benutzer zugeordnet sind. Bei Block 691 kann der Prozess 601 die verarbeiteten Alarmdaten an einen Betreuer übertragen. Es versteht sich, dass dieser Block dem entsprechenden Block(Blöcken), der vorstehend in 6A veranschaulicht ist, ähnlich sein kann.At block 681, process 601 may transmit generated alert data to the personal computing device. For example, the cloud-based device (or service, application, etc.) may transmit the generated alert data to a personal computing device associated with the user. At block 685, process 601 may process predetermined actions based on transmitted alert data. For example, the predetermined actions processed may include generating alarm notifications gene and/or triggering other desired actions associated with the user. At block 691, process 601 may transmit the processed alert data to a caregiver. It should be understood that this block corresponds to the corresponding block(s) set out above in 6A illustrated may be similar.
Die hierin gezeigten und detailliert beschriebenen Informationen sind in vollem Umfang geeignet, das vorstehend beschriebene Ziel(e) der vorliegenden Offenbarung und die gegenwärtig bevorzugte Ausführungsform der vorliegenden Offenbarung zu erreichen, und stellen somit den Gegenstand dar, der im Rahmen der vorliegenden Offenbarung im weitesten Sinne in Betracht gezogen wird. Der Umfang der vorliegenden Offenbarung umfasst auch andere Ausführungsformen, die dem Fachmann ersichtlich sein könnten, und wird dementsprechend durch nichts anderes als die beigefügten Ansprüche eingeschränkt. Jede Bezugnahme auf ein Element in der Einzahl soll nicht „ein und nur ein“ bedeuten, es sei denn, dies ist ausdrücklich so angegeben, sondern vielmehr „ein oder mehrere“. Alle strukturellen und funktionellen Äquivalente zu den Elementen der vorstehend beschriebenen bevorzugten Ausführungsform und der zusätzlichen Ausführungsformen, die vom Fachmann als gleichwertig angesehen werden, werden hiermit ausdrücklich durch Bezugnahme aufgenommen und sollen von den vorliegenden Ansprüchen umfasst werden.The information shown and detailed herein is fully capable of achieving the above-described object(s) of the present disclosure and the presently preferred embodiment of the present disclosure, and thus constitutes subject matter which is intended to be considered in the broadest sense of the present disclosure is considered. The scope of the present disclosure also includes other embodiments that may be apparent to those skilled in the art and accordingly is not limited by anything other than the appended claims. Any reference to an element in the singular shall not mean "one and only one" unless expressly so stated, but rather "one or more". All structural and functional equivalents to the elements of the preferred embodiment described above and additional embodiments deemed equivalent by those skilled in the art are expressly incorporated herein by reference and are intended to be encompassed by the present claims.
Darüber hinaus ist es nicht erforderlich, dass ein System oder Verfahren jedes einzelne Problem behandelt, das durch die vorliegende Offenbarung gelöst werden soll, damit die Lösungen für solche Probleme von den vorliegenden Ansprüchen erfasst werden. Des Weiteren ist kein Element, keine Komponente und kein Verfahrensschritt in der vorliegenden Offenbarung dazu bestimmt, der Öffentlichkeit gewidmet zu werden, unabhängig davon, ob das Element, die Komponente oder der Verfahrensschritt ausdrücklich in den Ansprüchen erwähnt wird. Verschiedene Änderungen und Modifikationen in Bezug auf die Form, das Material, das Werkstück und die Details des Herstellungsmaterials können vorgenommen werden, ohne dass der Geist und der Umfang der vorliegenden Offenbarung, wie sie in den beigefügten Ansprüchen dargelegt sind, verlassen wird, und sind ebenso von der vorliegenden Offenbarung umfasst, wie sie für den Fachmann offensichtlich sind.Furthermore, a system or method need not address each and every problem sought to be solved by the present disclosure in order for solutions to such problems to be encompassed by the present claims. Furthermore, no element, component, or method step in the present disclosure is intended to be made public, regardless of whether the element, component, or method step is expressly recited in the claims. Various changes and modifications in form, material, work and details of manufacture can be made without departing from the spirit and scope of the present disclosure as set forth in the appended claims, and are as well encompassed by the present disclosure as would be apparent to those skilled in the art.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
-
US 63/124306 [0001]US63/124306 [0001]
-
US 63/034811 [0001]US63/034811 [0001]
-
US 16701860 B [0056]US 16701860B [0056]