DE102020123145A1 - training system - Google Patents
training system Download PDFInfo
- Publication number
- DE102020123145A1 DE102020123145A1 DE102020123145.8A DE102020123145A DE102020123145A1 DE 102020123145 A1 DE102020123145 A1 DE 102020123145A1 DE 102020123145 A DE102020123145 A DE 102020123145A DE 102020123145 A1 DE102020123145 A1 DE 102020123145A1
- Authority
- DE
- Germany
- Prior art keywords
- user
- analysis
- server device
- data
- training system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012549 training Methods 0.000 title claims abstract description 60
- 238000004458 analytical method Methods 0.000 claims abstract description 266
- 238000003860 storage Methods 0.000 claims description 28
- 238000013518 transcription Methods 0.000 claims description 7
- 230000035897 transcription Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 230000036760 body temperature Effects 0.000 claims description 4
- 230000006978 adaptation Effects 0.000 claims description 3
- 230000004886 head movement Effects 0.000 claims description 3
- 238000007405 data analysis Methods 0.000 claims description 2
- 238000004088 simulation Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 20
- 238000004891 communication Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 239000000945 filler Substances 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010972 statistical evaluation Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/08—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
- G09B5/14—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations with provision for individual teacher-student communication
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Trainingssystem (2), umfassend: eine Benutzereinrichtung (4) mit einer ersten Recheneinheit (6); einer Datenschnittstelle (8) zum Senden und Empfangen von Daten; und einem Mikrofon (10) zum Aufzeichnen von durch einen Benutzer gesprochener Sprache; eine Servereinrichtung (12) mit einer zweiten Recheneinheit (14), wobei die Benutzereinrichtung (4) eingerichtet ist durch einen Benutzer gesprochene Sprache aufzunehmen; die aufgenommene, durch den Benutzer gesprochene Sprache an die Servereinrichtung (12) als Sprachdaten zu übermitteln; wobei die Servereinrichtung (12) eingerichtet ist eine Analyse der Sprachdaten durchzuführen; und eine Ansteuerung einer externen Einheit (16) basierend auf dem Analyseergebnis durchzuführen.Training system (2), comprising: a user device (4) with a first computing unit (6); a data interface (8) for sending and receiving data; and a microphone (10) for recording speech spoken by a user; a server device (12) with a second processing unit (14), wherein the user device (4) is set up to record speech spoken by a user; transmit the recorded speech spoken by the user to the server device (12) as speech data; wherein the server device (12) is set up to carry out an analysis of the voice data; and control an external unit (16) based on the analysis result.
Description
Stand der TechnikState of the art
Bisherige Trainingssysteme, beispielsweise zum Trainieren der Präsentation vor großen Menschenmengen, basieren auf unmittelbarer Interaktion eines trainierenden Benutzers und eines Trainers und setzen zumeist eine Anwesenheit eines Publikums oder ähnliches voraus. Zeitliche und räumliche Nähe des trainierenden Benutzers und des Trainers sowie ggf. eines Publikums sind Voraussetzung.Previous training systems, for example for training the presentation in front of large crowds, are based on the direct interaction of a training user and a trainer and usually require the presence of an audience or the like. Temporal and spatial proximity of the training user and the trainer and, if applicable, an audience are a prerequisite.
Zudem wird ein starres Setup eines Trainingssystems benötigt. Ein flexibles Training mit unterschiedlichen Einrichtungen und an unterschiedlichen Orten ist nicht möglich.In addition, a rigid setup of a training system is required. Flexible training with different facilities and at different locations is not possible.
Allgemeine Beschreibung der AusführungsformenGeneral description of the embodiments
Die Erfindung betrifft ein Trainingssystem, umfassend eine Benutzereinrichtung und eine Servereinrichtung. Die Servereinrichtung kann als cloudbasierte, ggf. virtuelle, Servereinrichtung ausgebildet sein. Die Servereinrichtung kann als öffentliche Servereinrichtung ausgebildet sein. Die Servereinrichtung kann auch aus einer Vielzahl von Servereinrichtungen gebildet sein, welche bspw. unterschiedliche der nachfolgend beschriebenen Funktionalitäten der Servereinrichtung ausführen. Die Servereinrichtung kann zumindest eines von einem Programm zum Ausführen von Host-Funktionalitäten und einem Hostrechner aufweisen. Die Benutzereinrichtung und die Servereinrichtung können an unterschiedlichen Orten positioniert sein und über Datenkommunikation verbunden sein, etwa per Funk oder über ein Netzwerk. Auf die Servereinrichtung kann über ein Netzwerk, insbesondere ein virtuelles, privates Netzwerk, zugegriffen werden.The invention relates to a training system comprising a user device and a server device. The server device can be embodied as a cloud-based, possibly virtual, server device. The server device can be designed as a public server device. The server device can also be formed from a large number of server devices which, for example, execute different functionalities of the server device described below. The server device can have at least one of a program for executing host functionalities and a host computer. The user equipment and the server equipment can be located at different locations and connected via data communication, such as by radio or via a network. The server device can be accessed via a network, in particular a virtual, private network.
Die Benutzereinrichtung weist eine erste Recheneinheit, eine Datenschnittstelle zum Senden und Empfangen von Daten und ein Mikrofon zum Aufzeichnen von durch einen Benutzer gesprochener Sprache auf. Die erste Recheneinheit kann als Mikrocontroller ausgebildet sein. Die Datenschnittstelle zum Senden und Empfangen von Daten kann eine kabelgebundene oder kabellose Datenschnittstelle sein, und kann eingerichtet sein, über mindestens eines von Ethernet, WLAN oder Mobilfunk Daten auszutauschen. Die Benutzereinrichtung kann zusätzlich über ein Speichermedium, wie einen RAM, verfügen, und kann ferner dazu eingerichtet sein, zu sendende Daten zwischenzuspeichern, insbesondere bei Nichtbestehen der Datenkommunikation mit der Servereinrichtung. Daten können zumindest eines an Ton-, Bild- und Vitaldaten umfassen. Tondaten können Sprachdaten umfassen. Bilddaten können zumindest eines an bewegten und statischen Bilddaten umfassen, etwa Bilddaten des Benutzers oder Bilddaten des Blick- oder Umfelds des Benutzers. Vitaldaten können zumindest eines an Körpertemperatur und Herzfrequenz des Benutzers umfassen. Das Mikrofon kann etwa ein Kondensatormikrofon oder ein Piezomikrofon sein und es kann eingerichtet sein, gesprochene Sprache des Benutzers aufzuzeichnen und Information zu der aufgezeichneten gesprochenen Sprache des Benutzers als Sprachdaten abzuspeichern. Gesprochene Sprache kann für einen kontinuierlichen Zeitraum aufgezeichnet werden, insbesondere auf der Speichereinrichtung.The user device has a first processing unit, a data interface for sending and receiving data and a microphone for recording speech spoken by a user. The first computing unit can be in the form of a microcontroller. The data interface for sending and receiving data can be a wired or wireless data interface and can be set up to exchange data via at least one of Ethernet, WLAN or mobile radio. The user device can also have a storage medium, such as a RAM, and can also be set up to temporarily store data to be sent, in particular if there is no data communication with the server device. Data may include at least one of audio, visual, and vital data. Audio data may include voice data. Image data can include at least one of moving and static image data, such as image data of the user or image data of the user's gaze or surroundings. Vital signs may include at least one of the user's body temperature and heart rate. The microphone can be a condenser microphone or a piezo microphone, for example, and it can be set up to record the user's spoken language and to store information about the recorded spoken language of the user as voice data. Spoken language can be recorded for a continuous period of time, particularly on the storage device.
Die Servereinrichtung weist eine zweite Recheneinheit auf. Die zweite Recheneinheit kann als Mikrocontroller ausgebildet sein. Die zweite Recheneinheit kann als cloudbasiertes Computer- und/oder Rechenmedium ausgebildet sein.The server device has a second processing unit. The second processing unit can be in the form of a microcontroller. The second computing unit can be embodied as a cloud-based computer and/or computing medium.
Die Benutzereinrichtung ist eingerichtet, durch einen Benutzer gesprochene Sprache aufzunehmen und die aufgenommene, durch den Benutzer gesprochene Sprache an die Servereinrichtung als Sprachdaten zu übermitteln. Die erste Recheneinheit kann eingerichtet sein, das Mikrofon anzuschalten, den Beginn und das Ende des Aufzeichnens der gesprochenen Sprache des Benutzers mittels des Mikrofons zu steuern, das Mikrofon auszuschalten und/oder das Senden der Sprachdaten über die Datenschnittstelle, insbesondere das Senden an die Servereinrichtung, zu steuern. Die zweite Recheneinheit der Servereinrichtung kann dazu eingerichtet sein, das Senden der Sprachdaten mittels der Datenschnittstelle der Benutzereinrichtung zu steuern, bspw. indem die zweite Recheneinheit ein erfolgreiches Empfangen der Sprachdaten der ersten Recheneinheit bestätigt und/oder ein nicht erfolgreiches Empfangen der Sprachdaten der ersten Recheneinheit mitteilt.The user device is set up to record speech spoken by a user and to transmit the recorded speech spoken by the user to the server device as speech data. The first processing unit can be set up to switch on the microphone, to control the start and end of the recording of the user's spoken language using the microphone, to switch off the microphone and/or to send the voice data via the data interface, in particular to send it to the server device, to control. The second processing unit of the server device can be set up to control the sending of the voice data using the data interface of the user device, e.g. by the second processing unit confirming successful receipt of the voice data from the first processing unit and/or notifying the first processing unit of unsuccessful receipt of the voice data .
Die Servereinrichtung ist dazu eingerichtet, eine Analyse der Sprachdaten durchzuführen. Hierzu kann die Servereinrichtung dazu eingerichtet sein, die Analyse selbstständig durchzuführen oder sie kann dazu eingerichtet sein, sich zum Durchführen der Analyse zumindest teilweise mindestens einer weiteren (Analyse-) Einrichtung zu bedienen. Die Analyse kann hierbei das Verarbeiten der Sprachdaten und die Extraktion von Informationen, wie bspw. Muster aus diesen Sprachdaten umfassen. Die Analyse der Sprachdaten kann eine Mustererkennung umfassen. Die Analyse kann bspw. mittels künstlicher Intelligenz, etwa mittels Einsatzes neuronaler Netze erfolgen. Die Analyse kann jedoch auch zumindest teilweise durch einen Menschen, wie einen Trainer erfolgen. Die Servereinrichtung ist ferner dazu eingerichtet, eine Ansteuerung einer externen Einheit basierend auf einem Analyseergebnis durchzuführen. Die Analyse der Sprachdaten kann hierbei das Analyseergebnis ergeben. Die Ansteuerung kann ein Senden eines Steuersignals von der Servereinrichtung an die externe Einheit aufweisen. Das Analyseergebnis der Sprachdaten kann die extrahierte Information, wie das erkannte Muster, der Sprachdaten aufweisen. Die externe Einheit kann hierbei bspw. ein Ausgabegerät und/oder ein Steuergerät aufweisen. Die Ansteuerung der externen Einheit basierend auf dem Analyseergebnis kann ein Ausführen einer Funktion durch das Steuergerät bewirken. Die Ansteuerung der externen Einheit basierend auf dem Analyseergebnis kann alternativ oder zusätzlich eine Ausgabe über das Ausgabegerät bewirken.The server device is set up to carry out an analysis of the voice data. For this purpose, the server device can be set up to carry out the analysis independently or it can be set up to use at least one other (analysis) device at least partially to carry out the analysis. In this case, the analysis can include the processing of the speech data and the extraction of information, such as patterns from this speech data. The analysis of the speech data can include pattern recognition. The analysis can be carried out, for example, by means of artificial intelligence, for example by using neural networks. However, the analysis can also be carried out at least partially by a human, such as a trainer. The server device is also set up to control an external unit based on an analysis result. The analysis of the voice data can produce the analysis result. the Activation can include sending a control signal from the server device to the external unit. The analysis result of the voice data may include the extracted information, such as the recognized pattern, of the voice data. The external unit can have an output device and/or a control unit, for example. The control of the external unit based on the analysis result can cause a function to be executed by the control unit. The activation of the external unit based on the analysis result can alternatively or additionally result in an output via the output device.
Das Trainingssystem kann durch die beschriebene Ausgestaltung eine Aufgabenverteilung von Aufnahme der Sprache des Benutzers durch die Benutzereinrichtung, Analyse durch die Servereinrichtung und Reaktion auf diese Analyse, angesteuert durch das Analyseergebnis, umsetzen. Durch diese Aufgabenverteilung ist eine zeitliche und räumliche Trennung von Aufnahme, Analyse und Reaktion auf von einem Benutzer gesprochener Sprache umsetzbar. Vorteilhafterweise kann hiermit auf eine unmittelbare zeitliche und räumliche Interaktion zwischen einem Benutzer, welcher eine Präsentation hält, und einem Trainer, welcher Information über die vom Benutzer gehaltene Präsentation mittels der angesteuerten externen Einheit erhalten kann, verzichtet werden. Somit können die Flexibilität und damit der Einsatzbereich dieser Trainingseinrichtung durch die verteilte Ausgestaltung des Trainingssystems mittels der Einrichtungen erhöht werden. Gleichzeitig ermöglicht es die technische Struktur vielfältige Einrichtungen mit unterschiedlichen Funktionalitäten flexibel einzusetzen.With the configuration described, the training system can implement a task distribution of recording the user's speech by the user device, analysis by the server device and reaction to this analysis, controlled by the analysis result. This distribution of tasks means that recording, analysis and reaction to language spoken by a user can be separated in terms of time and space. Advantageously, direct temporal and spatial interaction between a user holding a presentation and a trainer, who can obtain information about the presentation held by the user by means of the controlled external unit, can hereby be dispensed with. Thus, the flexibility and thus the area of use of this training device can be increased by the distributed configuration of the training system using the devices. At the same time, the technical structure makes it possible to flexibly use a wide range of facilities with different functionalities.
In einer weiteren Ausführungsform der vorliegenden Erfindung umfasst die Benutzereinrichtung mindestens eines von einem mobilen Endgerät, einem Computer und einem Aufzeichnungsgerät, insbesondere einem Aufzeichnungsgerät mit Schnittstelle. Das mobile Endgerät kann ein Smartphone, ein Tablet, ein Laptop und/oder ein Wearable, etwa ein Head-Mounted Display sein. Vorteilhafterweise ist somit die Position der Benutzereinrichtung unabhängig von der Position der Servereinrichtung. Zudem erlaubt die Ausgestaltung ein Training in verschiedenen Umgebungen zu unterschiedlichen Zeitpunkten durch die flexible Gestaltung des Aufbaus des Trainingssystems.In a further embodiment of the present invention, the user device comprises at least one of a mobile terminal device, a computer and a recording device, in particular a recording device with an interface. The mobile end device can be a smartphone, a tablet, a laptop and/or a wearable such as a head-mounted display. The position of the user device is thus advantageously independent of the position of the server device. In addition, the design allows training in different environments at different times due to the flexible design of the structure of the training system.
In einer weiteren Ausführungsform weist die Servereinrichtung eine externe Schnittstelle auf, auf welche ein Zugriff von außerhalb der Servereinrichtung zugelassen wird. Die externe Schnittstelle kann eingerichtet sein, Daten zu senden und zu empfangen. Die externe Schnittstelle kann ferner eingerichtet sein, Daten kabelgebunden oder kabellos, etwa via Ethernet, WLAN oder Mobilfunk, zu senden und/oder zu empfangen. Ferner weist die Servereinrichtung nach dieser weiteren Ausführungsform eine Analyseschnittstelle auf, auf welche ein Zugriff durch die Servereinrichtung zugelassen wird. Die Analyseschnittstelle kann eine gesicherte Schnittstelle sein, auf welche lediglich die Servereinrichtung zugreifen kann. Die Analyseschnittstelle kann eine Datenbankschnittstelle sein, über welche Daten einer Datenbank gesendet und/oder empfangen werden können. Vorteilhafterweise erfolgt somit jegliche Datenkommunikation, welche über die Analyseschnittstelle erfolgt, über die Servereinrichtung, womit Datenmissbrauch und Verlust von Daten, welche über die Analyseschnittstelle kommuniziert werden, minimiert und/oder zumindest nachvollzogen werden können. Zudem erlaubt diese Ausgestaltung eine flexible Anbindung verschiedener Benutzereinrichtungen während gleichzeitig die Datensicherheit durch die Trennung der Schnittstellen erhöht wird.In a further embodiment, the server device has an external interface to which access from outside the server device is permitted. The external interface can be set up to send and receive data. The external interface can also be set up to send and/or receive data in a wired or wireless manner, for example via Ethernet, WLAN or mobile radio. Furthermore, according to this further embodiment, the server device has an analysis interface to which access by the server device is permitted. The analysis interface can be a secure interface which only the server device can access. The analysis interface can be a database interface via which data from a database can be sent and/or received. Any data communication that takes place via the analysis interface is thus advantageously carried out via the server device, with which data misuse and loss of data communicated via the analysis interface can be minimized and/or at least traced. In addition, this refinement allows flexible connection of different user devices, while at the same time data security is increased by separating the interfaces.
In einer weiteren Ausführungsform der Erfindung erfolgt die Übermittlung der Sprachdaten von der Benutzereinrichtung an die Servereinrichtung über die externe Schnittstelle. Dazu kann die erste Recheneinheit der Benutzereinrichtung dazu eingerichtet sein, die aufgenommenen Sprachdaten mittels der Datenschnittstelle der Benutzereinrichtung an die externe Schnittstelle der Servereinrichtung zu übermitteln. Ferner umfasst gemäß dieser weiteren Ausführungsform die Analyse der Sprachdaten ein Speichern der empfangenen Sprachdaten in einer Speichereinrichtung der Servereinrichtung. Die Speichereinrichtung kann einen RAM oder auch ein nicht-flüchtiges Speichermedium, wie eine SSD oder eine HDD, aufweisen. Die externe Schnittstelle der Servereinrichtung kann dazu eingerichtet sein, die von der Benutzereinrichtung empfangenen Sprachdaten in der Speichereinrichtung zu speichern. Ferner umfasst gemäß dieser weiteren Ausführungsform die Analyse der Sprachdaten ein Übermitteln der gespeicherten Daten an eine Analyseeinrichtung unter Verwendung der Analyseschnittstelle. Das Übermitteln kann ein Senden der Sprachdaten aufweisen, etwa via Ethernet, WLAN oder Funk, etwa Mobilfunk. Die Analyseeinrichtung kann eine externe, eine interne oder eine Mischung aus ein oder mehreren externen und ein oder mehreren internen Analyseeinrichtungen aufweisen. Dabei kann die interne Analyseeinrichtung in der Servereinrichtung ausgebildet sein und die externe Analyseeinrichtung unabhängig von der Servereinrichtung ausgebildet sein. Die Analyseeinrichtung kann als private Servereinrichtung ausgebildet sein, auf die lediglich über die Analyseschnittstelle zugegriffen werden kann und kann damit eine private Analyseeinrichtung bilden. Die private Analyseeinrichtung kann auf die in der Speichereinrichtung gespeicherten Sprachdaten der öffentlichen Servereinrichtung mittels der Analyseschnittstelle zugreifen. Die Analyseeinrichtung kann als cloudbasiertes Computermedium oder als physisches Computermedium, wie einen stationären Computer oder einen Prozessor, ausgebildet sein. Ferner umfasst gemäß dieser weiteren Ausführungsform die Analyse der Sprachdaten ein Speichern von Analyseergebnissen der Analyseeinrichtung in der Speichereinrichtung. Die Analyseeinrichtung kann dazu eingerichtet sein, die Analyseergebnisse zu bestimmen bzw. die Analyse durchzuführen. Die Analyseeinrichtung kann dazu eingerichtet sein, die Analyseergebnisse über die Analyseschnittstelle in der Speichereinrichtung zu speichern. Die zweite Recheneinheit der Servereinrichtung kann dazu eingerichtet sein, über die Analyseschnittstelle die Analyseergebnisse von der Analyseeinrichtung abzufragen und nach Empfangen der Analyseergebnisse von der Analyseeinrichtung die Analyseergebnisse in der Speichereinrichtung zu speichern. Ferner umfasst gemäß dieser weiteren Ausführungsform die Analyse der Sprachdaten ein Abrufen der Analyseergebnisse durch die Servereinrichtung von der Speichereinrichtung. Die zweite Recheneinheit kann dazu eingerichtet sein, die Analyseergebnisse von der Speichereinrichtung abzufragen. Vorteilhafterweise kann durch die Analyse der Sprachdaten in einer Analyseeinrichtung, auf welche lediglich über die Analyseschnittstelle der Servereinrichtung zugegriffen werden kann, rechenleistungsintensive Analyse der Daten von der Datenkommunikation mit der Benutzereinrichtung, welche von der Servereinrichtung übernommen wird, getrennt werden, wobei gleichzeitig Datenmissbrauch und -verlust mittels der Analyseschnittstelle effektiv verhindert werden kann. Zudem kann über die Verwendung der hier gezeigten Schnittstellen auf verschiedene externe Analysesysteme zugegriffen und diese gezielt für bestimmte Analysen eingebunden werden; all dies bei gleichzeitiger höchster Datensicherheit, da nur auf für die jeweilige Analyse notwendige Daten durch die jeweilige Analyseeinrichtung zugegriffen werden kann.In a further embodiment of the invention, the voice data is transmitted from the user device to the server device via the external interface. For this purpose, the first processing unit of the user device can be set up to transmit the recorded voice data to the external interface of the server device using the data interface of the user device. Furthermore, according to this further embodiment, the analysis of the voice data includes storing the received voice data in a memory device of the server device. The storage device can have a RAM or a non-volatile storage medium such as an SSD or an HDD. The external interface of the server device can be set up to store the voice data received from the user device in the storage device. Furthermore, according to this further embodiment, the analysis of the voice data includes a transmission of the stored data to an analysis device using the analysis interface. The transmission can include sending the voice data, for example via Ethernet, WLAN or radio, for example mobile radio. The analysis device can have an external, an internal or a mixture of one or more external and one or more internal analysis devices. The internal analysis device can be embodied in the server device and the external analysis device can be embodied independently of the server device. The analysis device can be designed as a private server device that can only be accessed via the analysis interface and can thus form a private analysis device. The private analysis device can access the voice data of the public server device stored in the memory device using the analysis interface. The analysis device can be used as a cloud-based computer me medium or as a physical computing medium such as a stationary computer or processor. Furthermore, according to this further embodiment, the analysis of the speech data includes storing analysis results of the analysis device in the memory device. The analysis device can be set up to determine the analysis results or to carry out the analysis. The analysis device can be set up to store the analysis results in the storage device via the analysis interface. The second processing unit of the server device can be set up to request the analysis results from the analysis device via the analysis interface and to store the analysis results in the memory device after receiving the analysis results from the analysis device. Furthermore, according to this further embodiment, the analysis of the voice data includes the server device retrieving the analysis results from the storage device. The second computing unit can be set up to query the analysis results from the storage device. Advantageously, by analyzing the voice data in an analysis device, which can only be accessed via the analysis interface of the server device, the analysis of the data, which requires a lot of computing power, can be separated from the data communication with the user device, which is taken over by the server device, with data being misused and lost at the same time can be effectively prevented using the analysis interface. In addition, by using the interfaces shown here, various external analysis systems can be accessed and these can be specifically integrated for specific analyses; All this with the highest level of data security at the same time, since only the data required for the respective analysis can be accessed by the respective analysis device.
In einer weiteren Ausführungsform überprüft die Analyseschnittstelle in vordefinierten Abständen, ob Sprachdaten in der Speichereinrichtung zur Verfügung stehen, welche noch nicht analysiert wurden. Dabei kann, nachdem erkannt wurde, dass noch nicht analysierte Sprachdaten in der Speichereinrichtung zur Verfügung stehen, die Analyseschnittstelle dazu eingerichtet sein, diese noch nicht analysierten Sprachdaten von der Speichereinrichtung abzurufen. Vordefinierte Abstände können Zeitabstände sein. Diese Zeitabstände können von der Speichereinrichtung vorgegeben und geändert werden, etwa bei Erreichen von bestimmten relativen Speicherplatzbelegungen in der Speichereinrichtung. Beispielsweise kann die Speichereinrichtung bei einer Zunahme von benötigtem Speicherplatz für noch nicht analysierte Sprachdaten die Zeitabstände verringern. Vorteilhafterweise wird somit erreicht, dass ein Austausch zwischen den Einheiten ohne einen direkten Zugriff und eine direkte Kommunikation zwischen den angebundenen Einheiten erfolgen kann. Zudem kann die Speichereinrichtung derart dimensioniert werden, dass sämtliche noch zu analysierende Sprachdaten darauf gespeichert werden können. Weiterhin können Zeitabstände über die externe Datenschnittstelle vorgegeben werden, beispielsweise von der externen Einheit. So kann vorteilhafterweise die Analyse der Sprachdaten häufiger und mit kürzerem zeitlichem Abstand erfolgen, wenn die Ansteuerung der externen Einheit zeitkritisch ist. Ebenfalls können größere Zeitabstände von der externen Einheit bei zeitunkritischer Ansteuerung basierend auf dem Analyseergebnis vorgegeben werden, wodurch seltener die gespeicherten Sprachdaten an die Analyseeinrichtung übermittelt werden müssen. Somit ist eine kommunikative Verbindung zwischen der Analyseschnittstelle der Servereinrichtung und der Analyseeinrichtung seltener notwendig. Dadurch ist vorteilhafterweise die relative Positionierung der Servereinrichtung zur Analyseeinrichtung unabhängiger und der Energieverbrauch zum Übermitteln der Sprachdaten von der Servereinrichtung zur Analyseeinrichtung minimiert, wobei gleichzeitig eine optimale Dimensionierung der Speichereinrichtung und/oder die Zeitkritikalität der Analyse bei der Definition der Abstände miteinbezogen werden können. Auch kann die Verarbeitung bestmöglich unter Berücksichtigung der Serverlast und der Zeitkritikalität der Analysen angepasst werden.In a further embodiment, the analysis interface checks at predefined intervals whether voice data that has not yet been analyzed is available in the storage device. After it has been recognized that voice data that has not yet been analyzed is available in the memory device, the analysis interface can be set up to retrieve this voice data that has not yet been analyzed from the memory device. Predefined intervals can be time intervals. These time intervals can be specified and changed by the memory device, for example when certain relative storage space occupancies in the memory device are reached. For example, the memory device can reduce the time intervals when the memory space required for voice data that has not yet been analyzed increases. Advantageously, this means that an exchange between the units can take place without direct access and direct communication between the connected units. In addition, the memory device can be dimensioned in such a way that all speech data still to be analyzed can be stored on it. Furthermore, time intervals can be specified via the external data interface, for example by the external unit. In this way, the voice data can advantageously be analyzed more frequently and with a shorter time interval if the activation of the external unit is time-critical. Larger time intervals can also be specified by the external unit based on the analysis result in the case of non-time-critical activation, as a result of which the stored voice data need to be transmitted to the analysis device less frequently. A communicative connection between the analysis interface of the server device and the analysis device is therefore less necessary. As a result, the relative positioning of the server device to the analysis device is advantageously more independent and the energy consumption for transmitting the voice data from the server device to the analysis device is minimized, while at the same time an optimal dimensioning of the storage device and/or the time criticality of the analysis can be included in the definition of the distances. The processing can also be adjusted as best as possible, taking into account the server load and the time criticality of the analyses.
In einer weiteren Ausführungsform umfasst die Analyse mindestens einen ersten Analyseabschnitt und einen zweiten Analyseabschnitt, und die Analyseschnittstelle ist ausgebildet zu überprüfen, ob ein Analyseergebnis des ersten Analyseabschnitts in der Speichereinrichtung abgespeichert ist und in diesem Falle das Analyseergebnis des ersten Analyseabschnitts an die Analyseeinrichtung zur Durchführung des zweiten Analyseabschnitts zu übermitteln. Nach der Analyse des ersten Analyseabschnitts kann die Analyseeinrichtung eingerichtet sein, das Analyseergebnis des ersten Analyseabschnitts mittels der Analyseschnittstelle in der Speichereinrichtung abzuspeichern. Folglich kann dieselbe und/oder eine andere Analyseeinrichtung dazu ausgebildet sein, die Analyse des zweiten Analyseabschnitts auszuführen. Vorteilhafterweise kann somit die Analyse in rechenintensive und weniger rechenintensive Analyseabschnitte unterteilt werden, welche resourcenoptimiert von jeweiligen Analyseeinrichtungen ausgeführt werden. Auch kann eine Analyse im Rahmen des zweiten Analyseabschnitts durchgeführt werden, welche von dem Analyseergebnis des ersten Analyseabschnitts abhängt, auch wenn die Analyseabschnitte durch unterschiedliche (externe) Analyseeinrichtungen durchgeführt werden, ohne eine direkte Kommunikation der Analyseeinrichtungen und mit höchster Kontrolle des Datenflusses.In a further embodiment, the analysis comprises at least a first analysis section and a second analysis section, and the analysis interface is designed to check whether an analysis result of the first analysis section is stored in the storage device and, in this case, send the analysis result of the first analysis section to the analysis device for carrying out the to transmit the second analysis section. After the analysis of the first analysis section, the analysis device can be set up to store the analysis result of the first analysis section in the storage device using the analysis interface. Consequently, the same and/or a different analysis device can be designed to carry out the analysis of the second analysis section. The analysis can thus advantageously be subdivided into computationally intensive and less computationally intensive analysis sections, which are carried out in a resource-optimized manner by the respective analysis devices. An analysis can also be carried out as part of the second analysis section, which depends on the analysis result of the first analysis section, even if the analysis sections are carried out by different (external) analysis devices, without direct communication between the analysis devices and with maximum control of the data flow.
Der erste Analyseabschnitt kann jedoch in einer möglichen Ausgestaltung auch ein Abschnitt zum Anlernen eines neuronalen Netzwerks aufweisen. Beispielsweise kann die Analyse des ersten Analyseabschnitts durch überwachtes Lernen des neuronalen Netzes mithilfe eines Trainers ausgeführt werden. Alternativ oder zusätzlich kann die Analyse des ersten Analyseabschnitts durch unüberwachtes Lernen des neuronalen Netzes, und damit unabhängig von dem Trainer ausgeführt werden. Unüberwachtes Lernen kann beispielsweise auf statistischer Auswertung der zu analysierenden Sprachdaten basieren. Beispielsweise kann der zweite Analyseabschnitt ein Abschnitt zur Verarbeitung von Sprachdaten mittels des angelernten neuronalen Netzwerks sein.However, in one possible embodiment, the first analysis section can also have a section for training a neural network. For example, the analysis of the first analysis section can be performed by supervised learning of the neural network using a trainer. Alternatively or additionally, the analysis of the first analysis section can be carried out by unsupervised learning of the neural network, and thus independently of the trainer. Unsupervised learning can be based, for example, on statistical evaluation of the language data to be analyzed. For example, the second analysis section may be a section for processing speech data using the learned neural network.
In einer weiteren Ausführungsform umfasst der erste Analyseabschnitt eine Transkription der Sprachdaten in Text. Die Transkription kann mittels einer Maschine, wie einer Analyseeinrichtung in Form eines Computers, oder mittels eines Menschen, etwa mittels des Trainers, erfolgen. Die Transkription kann vor weiteren Analyseabschnitten oder Teilen von Analyseabschnitten erfolgen. Die Transkription der Sprachdaten kann parallel zu einer weiteren Analyse des ersten Analyseabschnitts erfolgen. Beispielsweise kann diese parallele Analyse eine Analyse der Sprachdaten in Bezug auf Volumen, Pausen und/oder Stimmhöhe/Sprechhöhe erfolgen und damit unabhängig von der Transkription der Sprachdaten sein. Diese Parallelisierung von verschiedenen ersten Analyseabschnitten kann vorteilhafterweise die gesamte Analyse beschleunigen. Ein nachfolgender zweiter Analyseabschnitt kann auf dem Informationsgehalt der Transkription der Sprachdaten basieren. Beispielsweise können weitere Analyseabschnitte auf einer Anzahl an Wörter, der Satzstellung und/oder der relativen Häufigkeit an Füllwörtern und/oder Fremd-/Lehnwörtern basieren, welche basierend auf der Transkription bestimmt werden können. Vorteilhafterweise erfolgt die Transkription der Sprachdaten im ersten Analyseabschnitt, sodass die Datenmenge relativ zu den aufgenommenen Sprachdaten verringert werden kann, ohne den Informationsgehalt für bestimmte Analysen weiterer Analyseabschnitte zu beeinträchtigen. Damit kann die Speichereinrichtung ökonomischer ausgelegt werden und/oder die Übertragung zwischen der Analyseschnittstelle und zumindest einer Analyseeinrichtung kann schneller und/oder ökonomischer erfolgen. Zudem kann durch die Parallelisierung und sequenziellen Abarbeitung unter Berücksichtigung der Abhängigkeiten die Verarbeitung und die Analyse (bspw. durch externe Analyseeinrichtungen) beschleunigt werden.In a further embodiment, the first analysis section comprises a transcription of the speech data into text. The transcription can be done by a machine, such as an analyzer in the form of a computer, or by a human, such as the trainer. The transcription can take place before further analysis sections or parts of analysis sections. The speech data can be transcribed parallel to a further analysis of the first analysis section. For example, this parallel analysis can be an analysis of the speech data with regard to volume, pauses and/or voice pitch/pitch and thus be independent of the transcription of the speech data. This parallelization of different first analysis sections can advantageously speed up the entire analysis. A subsequent second analysis section can be based on the information content of the transcription of the speech data. For example, further analysis sections can be based on a number of words, the sentence order and/or the relative frequency of filler words and/or foreign/loan words, which can be determined based on the transcription. The speech data is advantageously transcribed in the first analysis section, so that the amount of data can be reduced relative to the recorded speech data without impairing the information content for specific analyzes of further analysis sections. The memory device can thus be designed more economically and/or the transmission between the analysis interface and at least one analysis device can take place more quickly and/or more economically. In addition, the processing and the analysis (e.g. by external analysis devices) can be accelerated by the parallelization and sequential processing, taking into account the dependencies.
In einer weiteren Ausführungsform ist die Servereinrichtung eingerichtet, für empfangene Sprachdaten Zugriffsadressen zum temporären Zugriff durch eine Analyseeinrichtung zu erzeugen, wobei die Servereinrichtung ferner eingerichtet ist, den Zugriff durch die Analyseeinrichtung durch den Widerruf der Zugriffsadressen zu unterbinden. Die Servereinrichtung kann eingerichtet sein, für eine jede Analyseeinrichtung und ggf. für jeden aus den Sprachdaten erzeugten Datensatz, wie Analyseergebnissen, des Trainingssystems einen eigenen temporären Zugriff mittels separater Zugriffsadressen zu erzeugen. Alternativ kann die Servereinrichtung dazu eingerichtet sein, eine gemeinsame Zugriffsadresse für mehrere Analyseeinrichtungen und/oder Datensätze zu erzeugen. Über die passende Zugriffsadresse kann jede Analyseeinrichtung über die Analyseschnittstelle auf die Speichereinrichtung zugreifen. Der Widerruf der Zugriffsadressen kann manuell, beispielsweise durch einen manuellen Widerruf des Benutzers über die Benutzereinrichtung und/oder über die externe Einheit erfolgen. Der manuelle Widerruf des Benutzers kann in der Speichereinrichtung gespeichert werden und/oder mit den Sprachdaten, worauf zugegriffen werden soll, gespeichert werden. Der Widerruf kann jedoch auch automatisch erfolgen, wenn der Zugriff nicht mehr benötigt wird, weil bspw. die Analyse durch die Analyseeinrichtung abgeschlossen ist. Vorteilhafterweise kann somit die Zugriffssteuerung bezüglich des Zugriffs der Analyseeinrichtung auf die Sprachdaten zentral durch die Servereinrichtung erfolgen und die Datensicherheit erhöht werden.In a further embodiment, the server device is set up to generate access addresses for received voice data for temporary access by an analysis device, the server device also being set up to prevent access by the analysis device by revoking the access addresses. The server device can be set up to generate its own temporary access by means of separate access addresses for each analysis device and possibly for each data set generated from the speech data, such as analysis results, of the training system. Alternatively, the server device can be set up to generate a common access address for a number of analysis devices and/or data sets. Each analysis device can access the storage device via the analysis interface via the appropriate access address. The access addresses can be revoked manually, for example by a manual revocation by the user via the user device and/or via the external unit. The user's manual revocation may be stored in the storage device and/or stored with the language data to be accessed. However, the revocation can also take place automatically if access is no longer required, for example because the analysis by the analysis device has been completed. The access control with regard to the access of the analysis device to the speech data can thus advantageously be carried out centrally by the server device and the data security can be increased.
In einer weiteren Ausführungsform erfolgt die Ansteuerung der externen Einheit basierend auf dem Analyseergebnis mittels der externen Schnittstelle. Die Ansteuerung kann ereignisgetriggert erfolgen. Ein solches Ereignis kann das Vorhandensein des Analyseergebnisses gespeichert in der Speichereinrichtung sein. Ein solches Ereignis kann jedoch auch das aktive Anfragen der Ansteuerung durch die externe Einheit sein. Die Ansteuerung kann zeitgetriggert erfolgen. Beispielsweise kann die zweite Recheneinheit dazu eingerichtet sein, in regelmäßigen Abständen die Speichereinrichtung auf das Vorhandensein gespeicherter Analyseergebnisse zu prüfen und gegebenenfalls an die externe Einheit mittels der externen Schnittstelle senden. Vorteilhafterweise erfolgt jegliche externe Kommunikation der Servereinheit mit externen Einheiten mittels der externen Schnittstelle und stellt somit ein minimales Sicherheitsrisiko bezüglich unerlaubten Zugriffes auf die Servereinrichtung und insbesondere auf Daten und/oder Analyseergebnisse, welche in der Speichereinrichtung gespeichert sind, dar.In a further embodiment, the external unit is controlled based on the analysis result by means of the external interface. Control can be event-triggered. Such an event can be the presence of the analysis result stored in the memory device. However, such an event can also be the active request for control by the external unit. The control can be time-triggered. For example, the second processing unit can be set up to check the storage device at regular intervals for the presence of stored analysis results and, if necessary, to send them to the external unit via the external interface. Advantageously, any external communication between the server unit and external units takes place via the external interface and thus represents a minimal security risk with regard to unauthorized access to the server device and in particular to data and/or analysis results stored in the storage device.
In einer weiteren Ausführungsform ist die externe Schnittstelle dazu eingerichtet, Daten mit der Benutzereinrichtung in Abhängigkeit der Funktionalitäten der Benutzereinrichtung auszutauschen. Alternativ oder zusätzlich umfasst die externe Schnittstelle eine Mehrzahl von Unterschnittstellen und eine Auswahl der Unterschnittstellen erfolgt in Abhängigkeit der Funktionalitäten der Benutzereinrichtung. Funktionalitäten der Benutzereinrichtung können aufnehmende/sensorische und/oder wiedergebende Funktionalitäten umfassen, beispielsweise ein Mikrofon und/oder einen Lautsprecher. Beispielsweise kann die externe Schnittstelle dazu eingerichtet sein, Sprachdaten mit der Benutzereinrichtung über die externe Schnittstelle auszutauschen. Eine jede der Unterschnittstellen kann dazu eingerichtet sein, Daten bezüglich einer bestimmten Funktionalität zu senden und/oder zu empfangen. Beispielsweise kann eine Unterschnittstelle dazu eingerichtet sein, Sprachdaten von der Benutzereinrichtung zu empfangen. Beispielsweise kann eine Unterschnittstelle dazu eingerichtet sein, Tondaten von der Speichereinrichtung der Servereinrichtung an die Benutzereinrichtung zu senden. Vorteilhafterweise erfolgt somit ein nach Funktionalitäten der Benutzereinrichtung getrennter Datenaustausch zwischen der Benutzereinrichtung und der externen Schnittstelle der Servereinrichtung über Unterschnittstellen. Somit kann vorteilhafterweise ein Austausch und eine Verwendung verschiedener Benutzerschnittstellen mit unterschiedlichen Funktionalitäten erfolgen. Dies erhöht die Flexibilität und ermöglicht den Einsatz diverser Geräte, wie Smartphones, Computer, Head-Mounted-Displays etc.In a further embodiment, the external interface is set up to exchange data with the user device depending on the functionalities of the user device. Alternatively or additionally, the external interface includes a plurality of sub-interfaces and a selection of the sub-interfaces is made depending on the functionalities of the user device. Functionalities of the user device can include recording/sensing and/or reproducing functionalities, for example a microphone and/or a loudspeaker. For example, the external interface can be set up to exchange voice data with the user device via the external interface. Each of the sub-interfaces may be configured to send and/or receive data related to a specific functionality. For example, a sub-interface may be configured to receive voice data from user equipment. For example, a sub-interface can be set up to send sound data from the storage device of the server device to the user device. A data exchange between the user device and the external interface of the server device, which is separated according to the functionalities of the user device, thus advantageously takes place via sub-interfaces. This means that different user interfaces with different functionalities can advantageously be exchanged and used. This increases flexibility and enables the use of various devices such as smartphones, computers, head-mounted displays, etc.
In einer Ausführungsform ist die Benutzereinrichtung eingerichtet, von der Servereinrichtung einen Datenstrom über die Datenschnittstelle zu empfangen, welcher eine digitale Szenerie und/oder Präsentationsinhalte umfasst, und die digitale Szenerie und/oder die Präsentationsinhalte einem Benutzer über die Benutzereinrichtung wiederzugeben, und ist ferner eingerichtet, von durch einen Benutzer gesprochene Sprache während der Wiedergabe mittels der Benutzereinrichtung aufzunehmen. Hierbei kann die Benutzereinrichtung insbesondere ein Head-Mounted-Display, jedoch auch andere oben beschrieben Einrichtungen, aufweisen. Die digitale Szenerie kann Augmented und/oder Virtual Reality aufweisen. Die digitale Szenerie kann von Analyseergebnissen abhängen und entsprechend dieser angepasst werden. Die Wiedergabe kann über eine Wiedergabeeinheit der Benutzereinrichtung, wie einen Lautsprecher oder einen Bildschirm erfolgen. Die erste Recheneinheit kann dazu eingerichtet sein, das Mikrofon zur Aufnahme von gesprochener Sprache des Benutzers anzusteuern, sobald und/oder solange die digitale Szenerie dem Benutzer über die Benutzereinrichtung wiedergegeben wird. Das Head-Mounted-Display kann sowohl die Wiedergabe der digitalen Szenerie an den Benutzer als auch die Aufnahme gesprochener Sprache durch den Benutzer ausführen, wobei hierbei das Head-Mounted-Display das Mikrofon aufweist. Vorteilhafterweise kann mittels gleichzeitiger Wiedergabe und Aufnahme eine Relation zwischen der digitalen Szenerie und der gesprochenen Sprache hergestellt werden. Besonders vorteilhafterweise kann Information bezüglich dieser Relation von der Benutzereinrichtung gespeichert werden und an die Servereinrichtung zur Analyse gesendet werden.In one embodiment, the user device is set up to receive a data stream from the server device via the data interface, which data stream includes a digital scenery and/or presentation content, and to play back the digital scenery and/or the presentation content to a user via the user device, and is further set up of speech spoken by a user during playback by the user device. In this case, the user device can in particular have a head-mounted display, but also other devices described above. The digital scenery can have augmented and/or virtual reality. The digital scenery can depend on analysis results and be adjusted accordingly. The playback can take place via a playback unit of the user device, such as a loudspeaker or a screen. The first computing unit can be set up to activate the microphone to record the user's spoken language as soon as and/or as long as the digital scenery is being played back to the user via the user device. The head-mounted display can perform both the playback of the digital scenery to the user and the user's recording of spoken language, in which case the head-mounted display has the microphone. Advantageously, a relation between the digital scenery and the spoken language can be established by means of simultaneous playback and recording. Particularly advantageously, information relating to this relation can be stored by the user device and sent to the server device for analysis.
In einer weiteren Ausführungsform umfasst die Analyse mindestens eine der Datenanalysen der Sprechgeschwindigkeit, der verwendeten Worte, der Sprechhöhe, der Wortzahl, der Intonation, der Lautstärke und der Sprechpausen. Die Analyse der Sprachdaten mittels Mustererkennung kann mittels Datenanalyse mindestens einer dieser Daten erfolgen. Das Analyseergebnis der Sprachdaten kann beispielsweise enthalten, dass die vom Benutzer gesprochene und in den Sprachdaten aufgezeichnete Sprache Aufschluss über die Lautstärke der gesprochenen Sprache des Benutzers gibt. Das Analyseergebnis kann beispielsweise eine Häufung von Sprechpausen in bestimmten Abschnitten der aufgenommenen Sprache des Benutzers aufzeigen. Vorteilhafterweise kann somit eine detaillierte Analyse der gesprochenen Sprache des Benutzers erfolgen was wiederum einen Rückschluss auf dessen Befinden, wie Anpassung etc., erlaubt.In a further embodiment, the analysis comprises at least one of the data analyzes of the speaking rate, the words used, the speaking pitch, the number of words, the intonation, the volume and the pauses in speaking. The speech data can be analyzed using pattern recognition using data analysis of at least one of these data. The result of the analysis of the voice data can contain, for example, that the language spoken by the user and recorded in the voice data provides information about the volume of the spoken language of the user. The result of the analysis can show, for example, an accumulation of pauses in speaking in specific sections of the recorded speech of the user. Advantageously, a detailed analysis of the user's spoken language can thus be carried out, which in turn allows conclusions to be drawn about his condition, such as adaptation etc.
In einer weiteren Ausführungsform ist die Servereinrichtung ferner eingerichtet, die Analyse über die Zeit auszuführen, die Analyse zeitlich mit den Präsentationsinhalten zu überlagern, und ein Analyseergebnis basierend auf der Überlagerung zu erzeugen. Die Analyse über die Zeit kann basierend auf den in der Speichereinrichtung aufgezeichneten Sprachdaten über die Zeit basieren und zeitlich von diesen begrenzt sein. Die Analyse über die Zeit kann beispielsweise ein Bestimmen des Analyseergebnisses über die Zeit aufweisen. So kann das Analyseergebnis beispielsweise den zeitlichen Verlauf von Sprechpausen, der Lautstärke oder der Verwendung besonderer Wörter, beispielsweise Füllwörter, aufweisen. Die zweite Recheneinheit und/oder die Analyseeinrichtung können dazu eingerichtet sein, die Analyse zeitlich mit den Präsentationsinhalten zu überlagern und das Analyseergebnis basierend auf der Überlagerung zu erzeugen. Vorteilhafterweise ist somit ein Rückschluss auf die Reaktion des Benutzers auf die dem Benutzer wiedergegebene Szenerie und/oder Präsentationsinhalte basierend auf der gesprochenen Sprache des Benutzers möglich. Besonders vorteilhaft ist durch die Analyse über die Zeit ein detaillierter Rückschluss bezüglich der gesprochenen Sprache des Benutzers zu bestimmten Teilen der digitalen Szenerie und/oder Präsentationsinhalte möglich.In a further embodiment, the server device is also set up to carry out the analysis over time, to overlay the analysis over time with the presentation content, and to generate an analysis result based on the overlay. The analysis over time may be based on and time limited by the speech data over time recorded in the storage device. The analysis over time can include, for example, determining the analysis result over time. For example, the analysis result can show the course of pauses in speech over time, the volume or the use of special words, for example filler words. The second computing unit and/or the analysis device can be set up to temporally overlay the analysis with the presentation content and to generate the analysis result based on the overlay. It is thus advantageously possible to draw conclusions about the user's reaction to the scenery and/or presentation content reproduced for the user based on the spoken language of the user. A detailed conclusion regarding the spoken language of the user regarding specific parts of the digital scenery and/or presentation content is particularly advantageously possible through the analysis over time.
In einer weiteren Ausführungsform umfasst die Benutzereinrichtung ferner mindestens eine Sensoreinheit, welche eingerichtet ist, mindestens eines zu erfassen von Handbewegungen des Benutzers, Blickrichtung des Benutzers, Kopfbewegungen des Benutzers, und Körpertemperatur des Benutzers, wobei die Benutzereinrichtung eingerichtet ist, durch die Sensoreinheit ausgegebene Sensordaten an die Servereinrichtung zu übermitteln, und die Servereinrichtung eingerichtet ist, die Analyse basierend auf den Sensordaten auszuführen. Die Sensoreinheit kann beispielsweise eine Kamera, ein Gyrometer, einen Beschleunigungssensor, einen Herzfrequenzmessgerät und/oder einen Temperatursensor, wie einen Infrarotsensor, aufweisen. Das Übermitteln der Sensordaten kann mittels der Datenschnittstelle an die externe Schnittstelle erfolgen. Die übermittelten Sensordaten können in der Speichereinrichtung gespeichert werden. Die Servereinrichtung kann, ggf. unter Verwendung/Ansteuerung externer oder interner Analyseeinrichtungen, dazu eingerichtet sein, die Sensordaten in Verbindung mit den Sprachdaten zu analysieren. Die Sensordaten können einen zeitlichen Verlauf der Handbewegungen, Blickrichtung, Kopfbewegungen, Herzfrequenz und/oder Körpertemperatur des Benutzers aufweisen. Somit kann eine zeitliche Analyse dieser Sensordaten erfolgen. Vorteilhafterweise kann somit eine detailliertere Analyse der nonverbalen Handlungen des Benutzers oder seines Befindens erfolgen und das Analyseergebnis basierend auf diesen Informationen bestimmt werden.In a further embodiment, the user device further comprises at least one sensor unit, which is set up to detect at least one of the user's hand movements, the user's line of sight, the user's head movements User, and body temperature of the user, wherein the user device is set up to transmit sensor data output by the sensor unit to the server device, and the server device is set up to carry out the analysis based on the sensor data. The sensor unit can have, for example, a camera, a gyrometer, an acceleration sensor, a heart rate monitor and/or a temperature sensor, such as an infrared sensor. The sensor data can be transmitted to the external interface by means of the data interface. The transmitted sensor data can be stored in the memory device. The server device can be set up to analyze the sensor data in connection with the voice data, possibly using/activating external or internal analysis devices. The sensor data can show a time course of the user's hand movements, line of sight, head movements, heart rate and/or body temperature. In this way, this sensor data can be analyzed over time. Advantageously, a more detailed analysis of the user's non-verbal actions or his state of mind can be carried out and the analysis result can be determined based on this information.
In einer weiteren Ausführungsform ist die externe Einheit als Benutzerschnittstelle ausgebildet und die Analyseergebnisse werden mittels der Ansteuerung durch die Servereinrichtung angezeigt. Die Benutzerschnittstelle kann eine Anzeigeneinrichtung, wie ein Display und/oder einen Lautsprecher zum Ausgeben von Information über die Benutzerschnittstelle an den Benutzer der externen Einheit aufweisen. Die Benutzerschnittstelle kann eine Tastatur, eine Kamera und/oder ein Mikrofon zum Aufnehmen von Information über die Benutzerschnittstelle von dem Benutzer der externen Einheit aufweisen. Vorteilhafterweise hat der Benutzer der externen Einheit über die Anzeige der Analyseergebnisse mittels der Benutzerschnittstelle somit Zugriff auf die Analyseergebnisse, besonders vorteilhafterweise hat der Benutzer Zugriff auf die Analyseergebnisse in visueller und/oder akustischer Weise und/oder in dauerhafter Weise, indem der Benutzer der externen Einheit auf die Analyseergebnisse mittels der Benutzereinrichtung mehrfach nacheinander, wiederholt und/oder zeitlich versetzt bezüglich des Zeitpunkts des Bestimmens der Analyseergebnisse Zugriff hat.In a further embodiment, the external unit is designed as a user interface and the analysis results are displayed by being controlled by the server device. The user interface can have a display device such as a display and/or a loudspeaker for outputting information via the user interface to the user of the external unit. The user interface may include a keyboard, camera, and/or microphone for capturing information about the user interface from the user of the external device. Advantageously, the user of the external unit has access to the analysis results via the display of the analysis results using the user interface, particularly advantageously the user has access to the analysis results in a visual and/or acoustic manner and/or in a permanent manner by the user of the external unit has access to the analysis results by means of the user device multiple times in succession, repeatedly and/or at different times with respect to the point in time at which the analysis results were determined.
In einer weiteren Ausführungsform ist die Benutzerschnittstelle eingerichtet, es einem zweiten Benutzer zu ermöglichen, eine digitale Szenerie und/oder Präsentationsinhalte auszuwählen und diese dem anderen Benutzer zuzuweisen, wobei die Servereinrichtung eingerichtet ist, diese durch den zweiten Benutzer ausgewählte digitale Szenerie und/oder Präsentationsinhalte als Datenstrom an die Benutzereinrichtung auszugeben, und die Benutzerschnittstelle eingerichtet ist, die Analyseergebnisse dem zweiten Benutzer anzuzeigen. Die Benutzerschnittstelle kann eine beliebige Einheit aufweisen, wie einen Client oder ein Portal. Der zweite Benutzer kann ein Trainer sein. Das Zuweisen der digitalen Szenerie an einen Benutzer kann in der Speichereinrichtung gespeichert werden. Die Benutzerschnittstelle kann alternativ oder zusätzlich eingerichtet sein, die Analyseergebnisse dem ersten Benutzer anzuzeigen. Vorteilhafterweise kann das Ausgeben der digitalen Szenerie und/oder der Präsentationsinhalte zeitlich versetzt zur Zuweisung erfolgen. Durch das Zuweisen der Präsentationsinhalte und die Anzeige der Analyseergebnisse kann der zweite Benutzer, etwa der Trainer, mit dem ersten Benutzer, etwa einem Trainierenden, interagieren und den Trainingsverlauf beobachten und analysieren, ohne örtliche und/oder zeitliche Einschränkungen der Benutzer.In a further embodiment, the user interface is set up to enable a second user to select a digital scenery and/or presentation content and to assign it to the other user, with the server facility being set up to use this digital scenery and/or presentation content selected by the second user as Output data stream to the user device, and the user interface is set up to display the analysis results to the second user. The user interface can have any entity, such as a client or a portal. The second user can be a trainer. Assigning the digital scenery to a user can be stored in the storage device. Alternatively or additionally, the user interface can be set up to display the analysis results to the first user. Advantageously, the digital scenery and/or the presentation content can be output at a different time than the assignment. By assigning the presentation content and displaying the analysis results, the second user, such as the trainer, can interact with the first user, such as a trainee, and observe and analyze the course of the training, without the users being restricted in terms of location and/or time.
In einer weiteren Ausführungsform ist die Benutzerschnittstelle eingerichtet, dem zweiten Benutzer sowohl die Sprachdaten als auch die Präsentationsinhalte wiederzugeben, und Eingaben vom zweiten Benutzer zu empfangen, wobei die Eingaben zumindest Abschnitten der Präsentationsinhalte zugeordnet und in der Servereinrichtung gespeichert werden. Dem zweiten Benutzer können zusätzlich die Analyseergebnisse angezeigt werden. Die Eingaben des zweiten Benutzers können Kommentare zu den Sprachdaten, den Analyseergebnissen und/oder dem Präsentationsinhalt aufweisen. Die Eingaben des zweiten Benutzers können in der Speichereinrichtung gespeichert werden. Der erste Benutzer kann mittels der Benutzereinrichtung auf diese gespeicherten Eingaben des zweiten Benutzers zugreifen. Vorteilhafterweise kann mit zeitlichem und/oder örtlichem Abstand somit auf die Eingaben des zweiten Benutzers, welche auf der Servereinrichtung gespeichert sind, durch den ersten Benutzer zugegriffen werden. Somit wird die Interaktion zwischen dem ersten und zweiten Benutzer weiter zeitlich und/oder örtlich entkoppelt. Es ist daher möglich, ein Training und eine automatische Analyse mit einer Unterstützung durch einen Trainer in Form des zweiten Benutzers zu kombinieren, um den Trainingserfolg weiter zu steigern.In a further embodiment, the user interface is set up to play back both the voice data and the presentation content to the second user and to receive inputs from the second user, the inputs being assigned at least to sections of the presentation content and stored in the server device. The analysis results can also be displayed to the second user. The second user's input may include comments about the speech data, the analysis results, and/or the presentation content. The second user's inputs can be stored in the storage device. The first user can access these stored entries of the second user by means of the user device. Advantageously, the inputs of the second user, which are stored on the server device, can be accessed by the first user with a time and/or spatial distance. The interaction between the first and second user is thus further decoupled in terms of time and/or location. It is therefore possible to combine training and an automatic analysis with support from a trainer in the form of the second user in order to further increase the success of the training.
In einer weiteren Ausführungsform ist die Servereinrichtung eingerichtet, für jeden Benutzer der Benutzereinrichtung ein Benutzerprofil zu speichern, und die Servereinrichtung ist eingerichtet, Sprachdaten des Benutzers zu analysieren und im Benutzerprofil des Benutzers ein auf der Analyse der Sprachdaten basierendes Sprachprofil zu speichern. Das Benutzerprofil kann Daten wie den Namen des Benutzers, aufgenommene Sprachdaten des Benutzers, Analyseergebnisse und/oder dem Benutzer zu präsentierende digitale Szenerien und/oder Präsentationsinhalte aufweisen. Durch Eingabe von Information des Benutzers, wie Name und Passwort, kann eine den Benutzer eineindeutig identifizierende Information erzeugt werden, beispielsweise ein Software-Token. Das Software-Token kann von der Servereinheit, insbesondere von der zweiten Recheneinheit erzeugt werden. Alternativ oder zusätzlich kann unabhängig von einer Eingabe des Benutzers in die Benutzereinrichtung ein Hardware-Token in der Benutzereinrichtung gespeichert sein. Mindestens eines solcher Token kann verwendet werden, um den Zugriff auf die in den Benutzerprofilen der Servereinrichtung gespeicherten Daten benutzerspezifisch verwalten zu können. Beispielsweise kann ein Anfragen eines Analyseergebnisses eines Benutzers, gespeichert in der Servereinrichtung, das vorherige Senden eines Tokens zur Authentifikation umfassen. Durch das Vorhandensein eines Tokens in der Benutzereinrichtung kann bei erneutem Senden von Daten, Sprachdaten oder einer Anfrage, Analyseergebnisse zu erhalten, das Token automatisch von der Benutzereinrichtung an die Servereinrichtung zur Identifikation und/oder Authentifikation gesendet werden. Vorteilhafterweise kann somit eine Servereinheit für mehrere Benutzer zum Analysieren von Sprachdaten verwendet werden, wobei eine korrekte Ansteuerung einer oder mehrerer externer Einheiten basierend auf den Analyseergebnissen der Benutzer erfolgt.In a further embodiment, the server device is set up to store a user profile for each user of the user device, and the server device is set up to analyze the user's speech data and to store a speech profile based on the analysis of the speech data in the user's user profile. The user profile may include data such as the user's name, recorded user voice data, analysis results, and/or digital scenes to be presented to the user and/or have presentation content. By entering user information such as name and password, information uniquely identifying the user can be generated, for example a software token. The software token can be generated by the server unit, in particular by the second processing unit. Alternatively or additionally, a hardware token can be stored in the user device independently of an input by the user in the user device. At least one such token can be used in order to be able to manage user-specific access to the data stored in the user profiles of the server device. For example, a request for an analysis result from a user stored in the server device can include the prior sending of a token for authentication. Due to the presence of a token in the user device, the token can be automatically sent from the user device to the server device for identification and/or authentication when data, voice data or a request to obtain analysis results is sent again. Advantageously, a server unit can thus be used for multiple users to analyze voice data, with one or more external units being correctly controlled based on the analysis results of the users.
In einer weiteren Ausführungsform ist die Servereinrichtung ferner dazu eingerichtet, eine Grundtonbestimmung für einen Benutzer auszuführen und das Ergebnis im Benutzerprofil zu speichern. Die Grundtonbestimmung kann bezüglich zumindest eines Teils der Sprachdaten erfolgen. Der Grundton kann Aufschluss über die wahrgenommene Tonhöhe geben. Die Analyse der Sprachdaten kann auf der Grundtonbestimmung basieren. Beispielsweise kann in einem ersten Schritt, insbesondere in einem ersten Analyseabschnitt, die Analyse auf Basis des bestimmten Grundtons für den Benutzer individualisiert werden. Somit kann die folgende Analyse zielgerichtet für jeden Benutzer ausgeführt werden. Somit kann in folgenden Analyseschritten nur eine Untermenge von möglichen Analysen basierend auf der individualisierten Analyse ausgeführt werden. Dadurch kann vorteilhafterweise die Analyseeinrichtung, welche diese folgenden individualisierten Analysen ausführt,, ökonomisch dimensioniert werden. Ferner ist es mittels der Grundtonbestimmung möglich, die individuelle Sprechhöhe des Benutzers zu bestimmen und im Rahmen der Analyse Abweichungen von dieser zu identifizieren. Somit kann die Analyse auf dem individuellen Grundton des Benutzers durchgeführt werden, was eine weitere Verbesserung des Analyseergebnisses durch eine Erkennung der Abweichung vom Grundton, bspw. durch Stress des Benutzers bei der Präsentation, erlaubt.In a further embodiment, the server device is also set up to carry out a basic tone determination for a user and to store the result in the user profile. The fundamental tone can be determined with respect to at least part of the speech data. The fundamental tone can provide information about the perceived pitch. The analysis of the speech data can be based on the determination of the fundamental. For example, in a first step, in particular in a first analysis section, the analysis can be individualized for the user on the basis of the fundamental tone determined. In this way, the following analysis can be carried out in a targeted manner for each user. Thus, only a subset of possible analyzes based on the individualized analysis can be carried out in the following analysis steps. As a result, the analysis device, which carries out these subsequent individualized analyses, can advantageously be dimensioned economically. Furthermore, by means of determining the fundamental tone, it is possible to determine the individual speaking pitch of the user and to identify deviations from this within the framework of the analysis. The analysis can thus be carried out on the user's individual fundamental tone, which allows a further improvement in the analysis result by recognizing the deviation from the fundamental tone, for example due to stress on the part of the user during the presentation.
In einer weiteren Ausführungsform ist die Servereinrichtung dazu eingerichtet, eine Vergleichsoperation zwischen dem Analyseergebnis und dem Ergebnis einer vorrangegangenen Analyse des Benutzers auszuführen, und eine Ansteuerung einer externen Einheit basierend auf dem Ergebnis der Vergleichsoperation durchzuführen. Das Ergebnis der vorrangegangenen Analyse des Benutzers kann in der Speichereinrichtung gespeichert sein. Das Ergebnis der vorrangegangenen Analyse des Benutzers kann in dem Benutzerprofil des Benutzers gespeichert sein. Die Vergleichsoperation kann beispielsweise die Sprechgeschwindigkeit, die Sprechhöhe, die Sprechpausen und/oder die Lautstärke basierend auf den Analyseergebnissen vergleichen. Alternativ oder zusätzlich kann die Vergleichsoperation zwischen dem Analyseergebnis und Mustern und/oder Vorbildern ausgeführt werden. Beispielsweise kann der zweite Benutzer ein Analyseergebnis seiner aufgenommenen Sprachdaten zum Ausführen der Vergleichsoperation bereitstellen. Vorteilhafterweise ist somit ein Unterschied zwischen verschiedenen Analyseergebnissen objektiv feststellbar. Damit kann unter anderem eine kürzere und damit effektivere Nutzung des Trainingssystems gewährleistet werden.In a further embodiment, the server device is set up to perform a comparison operation between the analysis result and the result of a previous analysis of the user, and to control an external unit based on the result of the comparison operation. The result of the previous analysis of the user can be stored in the memory device. The result of the previous analysis of the user can be stored in the user's user profile. The comparison operation can, for example, compare the speaking rate, the speaking pitch, the pauses in speaking, and/or the volume based on the analysis results. Alternatively or additionally, the comparison operation can be carried out between the analysis result and samples and/or role models. For example, the second user can provide an analysis result of his recorded speech data for carrying out the comparison operation. A difference between different analysis results can thus advantageously be ascertained objectively. This ensures, among other things, a shorter and therefore more effective use of the training system.
In einer weiteren Ausführungsform umfasst die digitale Szenerie eine Simulation und/oder eine Videoaufzeichnung eines Publikums, vor welcher der Benutzer bei der Wiedergabe der digitalen Szenerie die zum Präsentationsinhalt zugehörige Präsentation präsentiert. Die Wiedergabe der digitalen Szenerie kann dabei insbesondere über das Head-Mounted-Display erfolgen, jedoch auch über andere Einheiten mit bspw. einem Display. Vorteilhafterweise kann somit wiederholbar vor dem Publikum präsentiert werden, ohne dabei von der zeitlichen und/oder örtlichen Verfügbarkeit des Publikums abhängig zu sein.In a further embodiment, the digital scenery comprises a simulation and/or a video recording of an audience in front of which the user presents the presentation associated with the presentation content when the digital scenery is played back. The digital scenery can be reproduced in particular via the head-mounted display, but also via other units with a display, for example. Advantageously, the presentation can thus be repeated in front of the audience without being dependent on the availability of the audience in terms of time and/or location.
In einer weiteren Ausführungsform umfasst die Ansteuerung einer externen Einheit basierend auf dem Analyseergebnis die Anpassung der digitalen Szenerie. Die Ansteuerung der externen Einheit basierend auf dem Analyseergebnis umfasst insbesondere die Anpassung der digitalen Szenerie, wenn die externe Einheit die Benutzereinrichtung ist. Insbesondere kann die angepasste digitale Szenerie dem Benutzer über die Wiedergabeeinheit der Benutzereinrichtung ausgegeben werden, beispielsweise über das Display des Head-Mounted-Displays oder das Display eines beliebigen anderen mobilen Endgeräts. Beispielsweise kann das Analyseergebnis beinhalten, dass die Sprachdaten Aufschluss darüber geben, dass der Benutzer bei bestimmten Stellen der digitalen Szenerie während eines ersten Teils der Präsentation auffällig oft Sprechpausen einlegt. Die Analyseergebnisse können dem Benutzer mit der Wiedergabeeinheit mittels Ansteuerung durch die Servereinrichtung angezeigt werden. Alternativ oder zusätzlich kann die Ansteuerung basierend auf dem Analyseergebnis eine veränderte digitale Szenerie für einen nachfolgenden, zweiten Teil der Präsentation bewirken, bspw. durch eine Anpassung von in der digitalen Szenerie wiedergegebenen Personen und deren Verhalten. Vorteilhafterweise kann somit in einer zeitsparenden Art und Weise, insbesondere während einer Präsentation, die Ansteuerung der externen Einheit und die Anpassung der digitalen Szenerie erfolgen, wodurch u.A. auch der Energieverbrauch dieser externen Einheit durch kürzere Verwendungszeiten vermindert werden kann.In a further embodiment, the control of an external unit based on the analysis result includes the adaptation of the digital scenery. The control of the external unit based on the analysis result includes, in particular, the adjustment of the digital scenery when the external unit is the user device. In particular, the adapted digital scenery can be output to the user via the display unit of the user device, for example via the display of the head-mounted display or the display of any other mobile terminal device. For example, the analysis result can include the fact that the speech data provide information about the fact that the user pauses in speaking at certain points in the digital scenery during a first part of the presentation. The analysis results can be sent to the user with the playback unit by means of control displayed by the server setup. Alternatively or additionally, based on the analysis result, the control can bring about a changed digital scenery for a subsequent, second part of the presentation, for example by adapting the people reproduced in the digital scenery and their behavior. Advantageously, the external unit can be controlled and the digital scenery adapted in a time-saving manner, in particular during a presentation, which means that the energy consumption of this external unit can also be reduced due to shorter usage times.
Die oben beschriebene externe Einheit kann auch mehrere externe Einheiten, bspw. eine erste externe Einheit und eine zweite externe Einheit, umfassen, welche jeweils entsprechend einer der oben beschriebenen Ausführungsformen ausgebildet und angesteuert werden kann.The external unit described above can also include a plurality of external units, for example a first external unit and a second external unit, which can each be designed and controlled in accordance with one of the embodiments described above.
Die oben beschriebene Benutzerschnittstelle kann auch mehreren Benutzerschnittstellen, bspw. eine erste Benutzerschnittstelle und eine zweite Benutzerschnittstelle, umfassen, welche jeweils nach entsprechend einer der oben beschriebenen Ausführungsformen ausgebildet und angesteuert werden kann.The user interface described above can also include a plurality of user interfaces, for example a first user interface and a second user interface, which can each be designed and controlled according to one of the embodiments described above.
Figurenlistecharacter list
-
1 zeigt ein Trainingssystem gemäß einer Ausführungsform1 12 shows a training system according to an embodiment -
2 zeigt ein Trainingssystem gemäß einer Ausführungsform, wobei die Benutzereinrichtung sowohl die externe Einheit als auch das Head-Mounted-Display ausbildet.2 FIG. 12 shows a training system according to an embodiment, wherein the user device forms both the external unit and the head-mounted display. -
3a ,3b ,3c zeigen verschiedene Ausgestaltungen von Benutzereinrichtungen und ein Head-Mounted-Display.3a ,3b ,3c show various configurations of user devices and a head-mounted display. -
4 zeigt ein Ablaufdiagram für ein Verfahren zum Trainieren mittels eines Trainingssystems gemäß einer der Ausführungsformen.4 shows a flowchart for a method for training using a training system according to one of the embodiments.
Detaillierte Beschreibung der AusführungsformenDetailed description of the embodiments
Die Benutzereinrichtung 4 weist eine erste Recheneinheit 6, eine Datenschnittstelle 8, ein Mikrofon 10 und eine Wiedergabeeinheit 30 auf. Die Recheneinheit 6 kann hier beispielsweise durch einen Mikrocontroller ausgebildet sein. Die Datenschnittstelle 8 ist eine Datenschnittstelle zum Senden und Empfangen von Daten und kann hier beispielsweise als eine kabelgebundene Schnittstelle ausgebildet sein. Verschiedene Ausgestaltungen der Benutzereinrichtung 4, 4a, 4b, 4c mit jeweils mindestens einer Wiedergabeeinheit 30 können den
Die erste Recheneinheit 6, die Datenschnittstelle 8, das Mikrofon 10 und die Wiedergabeeinheit 30 in
Die Servereinrichtung 12 der
Das Trainingssystem 2, wie in
Mit anderen Worten kann ein Benutzer an einem ersten Ort eine Präsentation halten. Über die Benutzereinrichtung 4 kann währenddessen die gesprochene Sprache des Benutzers mittels des Mikrofons 10 aufgenommen, als Sprachdaten gespeichert und an die Servereinrichtung 12 gesendet werden. Mittels Analyse der Sprachdaten kann ein Muster in den Sprachdaten erkannt werden und Information bezüglich dieses erkannten Musters als Analyseergebnis gespeichert werden. Dieses Analyseergebnis kann an die externe Einheit 16, 16a zur Ansteuerung gesendet werden. Das Trainingssystem 2 ermöglicht es somit einem ersten Benutzer, welcher Präsentationsfähigkeiten verbessern möchte, mittels der Benutzereinrichtung 4 und einer vorgegebenen digitalen Szenerie dieses Ziel zeit- und ortsunabhängig zu verfolgen. Unter Einbeziehung der externen Einheit 16, welche einem zweiten Benutzer, wie einem Trainer, zugeordnet werden kann, ist eine Trainingsumgebung mit Feedbackmöglichkeit ohne direkten räumlichen oder zeitlichen Kontakt geschaffen. Der Trainer kann mittels der Analyse und Kommunikation der aufgenommenen und analysierten Daten des ersten Benutzers über den Status des Präsentationsfähigkeiten des ersten Benutzers informiert sein. Ferner kann mittels der Analyseergebnisse ein weiteres Training des ersten Benutzers dahingehend von dem Trainingssystem 2 optimiert werden, dass die zu trainierende Präsentation sich auf bisherige Schwachstellen in den Präsentationsfähigkeiten des ersten Benutzers, offengelegt über die Analyseergebnisse, konzentriert. Eine zeit- und energiesparende Möglichkeit der Datenaufnahme, -analyse und Ansteuerung zwischen verschiedenen Einrichtungen 4, 12, 16 ist somit, bei gleichzeitiger hoher Flexibilität durch die modulare Struktur des Trainingssystems, vorgestellt.In other words, a user can give a presentation at a first location. Meanwhile, the spoken language of the user can be recorded via the user device 4 using the
BezugszeichenlisteReference List
- 22
- Trainingssystemtraining system
- 4, 4a, 4b, 4c4, 4a, 4b, 4c
- Benutzereinrichtunguser setup
- 66
- (erste) Recheneinheit(first) unit of account
- 88th
- Datenschnittstelledata interface
- 1010
- Mikrofonmicrophone
- 1212
- Servereinrichtungserver setup
- 1414
- (zweite) Recheneinheit(second) unit of account
- 1616
- (erste) externe Einheit(first) external unit
- 16a16a
- (zweite) externe Einheit(second) external unit
- 1818
- externe Schnittstelleexternal interface
- 18a, 18b, 18c18a, 18b, 18c
- Unterschnittstellesubinterface
- 2020
- Analyseschnittstelleanalysis interface
- 2222
- Speichereinrichtungstorage facility
- 2424
- Analyseeinrichtunganalysis device
- 2626
- Head-Mounted-DisplayHead Mounted Display
- 2828
- Sensoreinheitsensor unit
- 3030
- Wiedergabeeinheitplayback unit
- S1S1
- (Schritt) Aufnahme von durch einen Benutzer gesprochener Sprache(Step) Recording speech spoken by a user
- S2S2
- (Schritt) Übermitteln von aufgenommenen Sprachdaten(Step) Transmitting recorded voice data
- S3S3
- (Schritt) Analyse der Sprachdaten(Step) Analysis of the speech data
- S4S4
- (Schritt) Ansteuerung einer externen Einheit basierend auf Analyseergebnis(Step) Controlling an external unit based on the analysis result
Claims (22)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020123145.8A DE102020123145A1 (en) | 2020-09-04 | 2020-09-04 | training system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020123145.8A DE102020123145A1 (en) | 2020-09-04 | 2020-09-04 | training system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020123145A1 true DE102020123145A1 (en) | 2022-03-10 |
Family
ID=80266668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020123145.8A Withdrawn DE102020123145A1 (en) | 2020-09-04 | 2020-09-04 | training system |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020123145A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10244870A1 (en) | 2002-09-09 | 2004-03-18 | Brenig, Helmut H., Dr. | Text and/or speech dialogue based dialogue practice device, has communications device for speech and/or data transmission and for connection to databank of data processing device |
US20140302469A1 (en) | 2013-04-08 | 2014-10-09 | Educational Testing Service | Systems and Methods for Providing a Multi-Modal Evaluation of a Presentation |
US20150287339A1 (en) | 2014-04-04 | 2015-10-08 | Xerox Corporation | Methods and systems for imparting training |
US20190130788A1 (en) | 2017-10-26 | 2019-05-02 | Aquinas Learning, Inc. | Virtual Reality Microsimulation Platform |
-
2020
- 2020-09-04 DE DE102020123145.8A patent/DE102020123145A1/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10244870A1 (en) | 2002-09-09 | 2004-03-18 | Brenig, Helmut H., Dr. | Text and/or speech dialogue based dialogue practice device, has communications device for speech and/or data transmission and for connection to databank of data processing device |
US20140302469A1 (en) | 2013-04-08 | 2014-10-09 | Educational Testing Service | Systems and Methods for Providing a Multi-Modal Evaluation of a Presentation |
US20150287339A1 (en) | 2014-04-04 | 2015-10-08 | Xerox Corporation | Methods and systems for imparting training |
US20190130788A1 (en) | 2017-10-26 | 2019-05-02 | Aquinas Learning, Inc. | Virtual Reality Microsimulation Platform |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10220524B4 (en) | Method and system for processing voice data and recognizing a language | |
DE10163213A1 (en) | Method for operating a speech recognition system | |
DE112020002858T5 (en) | SYNCHRONIZED SOUND GENERATION FROM VIDEOS | |
DE102021125184A1 (en) | PERSONAL TALK RECOMMENDATIONS USING LISTENER RESPONSES | |
DE10220521B4 (en) | Method and system for processing voice data and classifying calls | |
CN110524558A (en) | A kind of aided education robot | |
DE102021211765A1 (en) | DATA ANONYMIZATION FOR DATA LABELING AND DEVELOPMENT PURPOSES | |
EP2930926A1 (en) | Method, software product and device for managing a conference | |
DE112021005731T5 (en) | MECHANISM FOR INTELLIGENT BUFFERING OF REQUESTS | |
DE10220522B4 (en) | Method and system for processing voice data using voice recognition and frequency analysis | |
DE102020123145A1 (en) | training system | |
DE112020002743T5 (en) | INFORMATION PROCESSING DEVICE | |
DE112017001987T5 (en) | Data processing apparatus, data processing method and program | |
DE112017007900T5 (en) | SYSTEMS AND METHODS FOR GENERATING DATA IN NATURAL LANGUAGE | |
DE112017006145T5 (en) | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING SYSTEM | |
DE102006045719A1 (en) | Medical system e.g. computer tomograph, has voice input unit with training module, which is designed to interpret voice data set and to produce training control signal based on interpretation results | |
DE102020129601A1 (en) | METHOD OF CONTROLLING PROCESSES BY VOICE COMMAND INPUT | |
DE102017121780B4 (en) | Hierarchical annotation of dialog acts | |
EP1363271A1 (en) | Method and system for processing and storing of dialogue speech data | |
DE112018006597T5 (en) | Speech processing apparatus and method | |
DE10127852A1 (en) | Procedure for detecting conversational information e.g. over a telephone line, involves extracting part of the information for storage | |
DE102020129602A1 (en) | METHOD OF CONTROLLING PROCESSES BY VOICE COMMAND INPUT | |
DE102021116285A1 (en) | Method and arrangement for converting and transmitting instructional content and presentations | |
DE102020129603A1 (en) | METHOD OF CONTROLLING PROCESSES BY VOICE COMMAND INPUT | |
DE102023112338A1 (en) | METHOD FOR CONTROLLING PROCESSES USING VOICE COMMAND INPUT |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |