DE102011107934A1 - Assistenzsystem - Google Patents
Assistenzsystem Download PDFInfo
- Publication number
- DE102011107934A1 DE102011107934A1 DE102011107934A DE102011107934A DE102011107934A1 DE 102011107934 A1 DE102011107934 A1 DE 102011107934A1 DE 102011107934 A DE102011107934 A DE 102011107934A DE 102011107934 A DE102011107934 A DE 102011107934A DE 102011107934 A1 DE102011107934 A1 DE 102011107934A1
- Authority
- DE
- Germany
- Prior art keywords
- speech
- state
- controlled system
- acoustic
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004891 communication Methods 0.000 claims abstract description 28
- 238000001514 detection method Methods 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims abstract description 20
- 238000007726 management method Methods 0.000 claims abstract description 14
- 230000001419 dependent effect Effects 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 abstract description 2
- 230000009471 action Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 8
- 230000006978 adaptation Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 2
- 238000004393 prognosis Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000024703 flight behavior Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
- G05B15/02—Systems controlled by a computer electric
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0004—Transmission of traffic-related information to or from an aircraft
- G08G5/0013—Transmission of traffic-related information to or from an aircraft with a ground station
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0017—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
- G08G5/0026—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0043—Traffic management of multiple aircrafts from the ground
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0073—Surveillance aids
- G08G5/0082—Surveillance aids for monitoring traffic from a ground station
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Artificial Intelligence (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Die Erfindung betrifft ein Assistenzsystem (1, 25) zur Unterstützung bei situationsabhängigen Planungs- und/oder Führungsaufgaben einer Regelstrecke (2) mit – einer Zustandserfassungseinheit (3) zum Erfassen zumindest eines Zustandes (5, 5a) der Regelstrecke (2), wobei – eine akustische Aufnahmeeinheit (9, 27), die zum Aufnehmen von akustischen Sprachsignalen einer Sprachkommunikation (24) zwischen mindestens zwei Personen (21, 22) ausgebildet ist, und – eine Sprachverarbeitungseinheit (7), die zum Erkennen von Sprachinformationen (10) bezüglich der Regelstrecke (2) aus den aufgenommenen akustischen Sprachsignalen eingerichtet ist, vorgesehen sind, vorgesehen sind, wobei die Zustandserfassungseinheit (3) zum Anpassen des erfassten Zustandes (5) und/oder eines aus dem aktuellen Zustand ableitbaren prognostizierten Zustandes (5a) der Regelstrecke (2) in Abhängigkeit von den erkannten Sprachinformationen (10) eingerichtet ist.
Description
- Die Erfindung betrifft ein Assistenzsystem zur Unterstützung bei situationsabhängigen Planungs- und/oder Führungsaufgaben einer Regelstrecke mit einer Zustandserfassungseinheit zum Erfassen zumindest eines Zustandes der Regelstrecke. Die Erfindung betrifft ebenfalls ein Verfahren zur Unterstützung bei situationsabhängigen Planungs- und/oder Führungsaufgaben einer Regelstrecke mit Erfassen zumindest eines Zustandes der Regelstrecke. Die Erfindung betrifft ebenfalls ein Computerprogramm hierzu.
- Durch den weiter steigenden Grad der Automation in fast allen Lebensbereichen kommen vermehrt immer mehr Assistenzsysteme zum Einsatz, die ganz oder nur in Teilbereichen die Planungs- und/oder Führungsaufgaben unterstützen oder sogar vollständig übernehmen sollen, um die mit der Planungs- und/oder Führungsaufgabe beauftragten Personen zu entlasten und die Sicherheit zu erhöhen.
- In den meisten Fällen sind die Assistenzsysteme dabei derart eingerichtet, dass ein oder mehrere Zustände bezüglich der Regelstrecke durch das Detektieren von Merkmalen der Regelstrecke, wie beispielsweise Parameter der Regelstrecke, Messwerte, Objekte und/oder Umgebungsmerkmale erfasst werden. Hierzu sind die Assistenzsysteme mit einer Reihe von Sensorsystemen oder Datenbanken verbunden, aus denen die für die Erfassung des Zustandes notwendigen Informationen abgreifbar sind. Dadurch kann das Assistenzsystem ein maschinelles Situationsbewusstsein aufbauen, um daraus dann entsprechende Unterstützungsmaßnahmen für die betreffenden Personen ableiten oder eine vollautomatisierte Regelung durchführen zu können.
- Nicht selten kommt es bei derartigen Regelungskreisläufen vor, dass von den für die Planungs- und/oder Führungsaufgabe beauftragten Personen Handlungsanweisungen gegeben werden, die sich auf die Regelstrecke erst zeitverzögert auswirken, so dass die nachgeschalteten Assistenzsysteme, die mit Hilfe ihrer angeschlossenen Sensorik den aktuellen Zustand der Regelstrecke versuchen zu erfassen, eine solche Veränderung ebenfalls zeitverzögert feststellen. In der Zwischenzeit geben die Assistenzsysteme jedoch Handlungsempfehlungen an die Personen, die auf alten Informationen über den Zustand der Regelstrecke beruhen, so dass die Ablehnung derartiger Assistenzsystem dadurch gefördert wird. Sollen die Assistenzsysteme zumindest auch teilweise selbstständig Handlungsaufgaben übernehmen, so kann dies mit unter schwerwiegende Folgen haben, wenn eine Situationsveränderung nicht rechtzeitig erkannt wird. Insbesondere bei Regelstrecken, bei denen von außen durch den Menschen noch eingegriffen werden kann, besteht hier eine besondere Gefahr.
- Stand der Technik
- Aus der
DE 10 2009 034 069 A1 ist eine Bedienvorrichtung für ein Kraftfahrzeug bekannt, das ein Display zur Darstellung veränderlicher Informationen aufweist. Mit Hilfe einer Blickrichtungserkennungseinheit kann die Blickrichtung des Kraftfahrzeugführers ermittelt werden, wobei die Bedienvorrichtung mit Hilfe von akustischen Befehlen bedient werden kann, wenn die Blickrichtung des Kraftfahrzeugführers auf das Display gerichtet ist. - Aufgabe
- Aufgabe der vorliegenden Erfindung ist es, ein verbessertes Assistenzsystem zur Unterstützung bei situationsabhängigen Planungs- und/oder Führungsaufgaben einer Regelstrecke zu schaffen, das schnell auf sich verändernde Zustände oder Situationen der Regelstrecke reagieren kann, ohne das Bedienpersonal zusätzlich zu belasten.
- Lösung
- Die Aufgabe wird mit dem eingangs genannten Assistenzsystem erfindungsgemäß dadurch gelöst, dass
- – eine akustische Aufnahmeeinheit, die zum Aufnehmen von akustischen Sprachsignalen einer Sprachkommunikation zwischen mindestens zwei Personen ausgebildet ist, und
- – eine Sprachverarbeitungseinheit, die zum Erkennen von Sprachinformationen bezüglich der Regelstrecke aus den aufgenommenen akustischen Sprachsignalen eingerichtet ist, vorgesehen sind,
- Somit kann das Assistenzsystem wesentlich schneller auf sich verändernde Situationen oder Zustände reagieren, ohne dabei Gefahr laufen zu müssen, in den „Out-of-the-Loop”-Zustand zu geraten. Denn durch das Mithören bei der Sprachkommunikation von Menschen, die in den Arbeitsprozess der Regelstrecke eingebunden sind, können frühzeitig veranlasste Zustandsänderungen auf der Regelstrecke erkannt werden, so dass der erfasste Zustand entsprechend frühzeitig angepasst werden kann. Die von dem Assistenzsystem abgeleiteten Handlungsempfehlungen bezüglich der Regelstrecke sind aufgrund der frühzeitigen Anpassung des Zustandes bzw. eines prognostizierten Zustandes wesentlich genauer und auf die Situation wesentlich besser abgestimmt, so dass die Unterstützungsqualität derartiger Assistenzsysteme erheblich verbessert wird.
- Die Erfassung zumindest eines Zustandes der Regelstrecke durch die Zustandserfassungseinheit kann durch ein mit der Zustandserfassungseinheit in Verbindung stehenden ersten Sensorsystem erfolgen, wie sie generell für die Überwachung von Regelstrecken verwendet werden, wie beispielsweise Radarsensoren, Ortungseinheiten, Temperatursensoren, etc. Aus den erfassten Daten der Sensorik lässt sich dann der aktuelle Zustand der Regelstrecke erfassen. Unter Kenntnis des aktuellen Zustandes der Regelstrecke lässt sich darüber hinaus auch ein prognostizierter Zustand für die Zukunft ableiten, der eine Prognose für die Entwicklung der Zustände der Regelstrecke angibt. Dadurch lässt sich ableiten, wie sich ein Zustand zukünftig entwickelt.
- Dabei stellen die akustischen Sprachsignale keine direkte Anweisung in Form einer Gerätebedienung an das Assistenzsystem dar, sondern sind Teil einer Sprachkommunikation zwischen zwei Personen. Durch das lautlose Mithören des Assistenzsystems während der Sprachkommunikation ist es für die betroffenen Personen nicht erforderlich, das Assistenzsystem auf eine Spracheingabe vorzubereiten. Dadurch wird eine deutliche Entlastung bei der Planungs- und/oder Führungsaufgabe durch die Personen erreicht. Die akustische Aufnahmeeinheit in Verbindung mit der Sprachverarbeitungseinheit bilden somit ein weiteres, zweites Sensorsystem für die Erfassung oder Prognose des Zustandes der Regelstrecke. Die Erfindung ist somit dadurch gekennzeichnet, dass die akustische Aufnahmeeinheit und die Sprachverarbeitungseinheit als ein zweites Sensorsystem vorgesehen sind.
- Vorteilhafterweise erfolgt die Erkennung der Sprachinformationen durch die Sprachverarbeitungseinheit aus den aufgenommenen akustischen Sprachsignalen in Abhängigkeit von einem Kontext, der aus dem erfassten oder prognostizierten Zustand ermittelt werden kann. Da der Zustand der Regelstrecke bzw. die Regelstrecke selbst auch den existierenden Kontext für die Erkennung von Sprachinformationen liefern kann, kann dadurch signifikant die Erkennungsrate bei der Spracherkennung erhöht werden, insbesondere dann, wenn eine kontextbasierte Spracherkennung eingesetzt wird. Der Kontext des erfassten Zustandes kann dabei aus dem vorhandenen Situationswissen über die Regelstrecke, insbesondere aus Sensordaten und Datenbanken abgeleitet werden.
- Um die Erkennungsrate der Spracherkennung weiter zu erhöhen, ist es ganz besonders vorteilhaft, wenn mittels einer Sprachhypotheseneinheit in Abhängigkeit von dem erfassten oder prognostizierten Zustand der Regelstrecke Sprachhypothesen über zukünftig zu erwartende Sprachinformationen ermittelt werden. Durch das Ermitteln von Hypothesen bezüglich zukünftiger Sprachinformationen lässt sich dann die Erkennung der Sprachinformationen in Abhängigkeit dieser Hypothesen durchführen. Der von dem erfassten oder prognostizierten Zustand abgeleitete Sprachkontext kann somit um Hypothesen über zukünftige Sprachinformationen oder Sprachkontexte erweitert werden, was sich höchst positiv auf die Erkennungsrate auswirkt.
- Ganz besonders vorteilhaft ist es nun, wenn zu den ermittelten Sprachhypothesen zusätzlich Eintrittswahrscheinlichkeiten zugeordnet werden, die das Eintreffen dieser Hypothese mit einer gewissen Wahrscheinlichkeit prognostizieren. Die Hypothesen stellen dabei eine Möglichkeit, ausgehend von dem aktuellen oder prognostizierten Zustand, für das Auftreten von bestimmten Sprachinformationen dar, die sich mit einer gewissen Wahrscheinlichkeit für die erfasste Situation ergeben könnten.
- Durch die Sprachhypothesen und die den Sprachhypothesen zugeordneten Eintrittswahrscheinlichkeiten lässt sich dabei die Genauigkeit der Spracherkennung signifikant erhöhen, da nunmehr bezüglich des Kontextes der erfassten Situation die Spracherkennung auf den wesentlichen Teil gerichtet werden kann.
- In einer vorteilhaften Ausführungsform ist das Assistenzsystem derart eingerichtet, dass die Aufnahmeeinheit zum Empfangen von elektrischen Signalen einer elektrischen Sprach-Kommunikationsverbindung und zum Aufnehmen der akustischen Sprachsignale aus den empfangenen elektrischen Signalen eingerichtet ist. Dies ist besonders dann vorteilhaft, wenn die Kommunikation zwischen den Personen über eine elektrische Sprach-Kommunikationsverbindung erfolgt, beispielsweise über Funk oder über ein Telefonnetzwerk.
- Darüber hinaus weist das Assistenzsystem in einer weiteren vorteilhaften Ausgestaltung eine Ausgabeeinheit auf, die zum Ausgeben von generierten Unterstützungsanweisungen zum Unterstützen der situationsabhängigen Planungs- und/oder Führungsaufgabe der Regelstrecke eingerichtet ist, wobei die Unterstützungsanweisungen aus dem erfassten oder prognostizierten Zustand abgeleitet werden können. Eine derartige Ausgabeeinheit kann beispielsweise ein Display sein, auf dem Handlungsanweisungen für eine Person dargestellt werden. Die Ausgabeeinheit kann aber auch mit einer Steuerungseinrichtung verbunden sein, um direkt auf Stellgrößen der Regelstrecke zugreifen und so zumindest teilweise autonom auf die Regelstrecke einwirken zu können, wodurch ein zumindest teilweiser automatischer Betrieb ermöglicht wird.
- Im Übrigen wird die Aufgabe auch mit einem Verfahren der eingangs genannten Art erfindungsgemäß gelöst durch die Schritte:
- – Aufnehmen von akustischen Sprachsignalen einer Sprachkommunikation zwischen mindestens zwei Personen durch eine akustische Aufnahmeeinheit,
- – automatisiertes Erkennen von Sprachinformationen bezüglich der Regelstrecke aus den aufgenommenen akustischen Sprachsignalen durch eine Sprachverarbeitungseinheit, und
- – Anpassen des erfassten Zustandes und/oder eines aus dem aktuellen Zustand ableitbaren prognostizierten Zustandes der Regelstrecke in Abhängigkeit von den erkannten Sprachinformationen durch die Zustandserfassungseinheit.
- Vorteilhafte Ausgestaltungen des Verfahrens finden sich in den entsprechenden Unteransprüchen.
- Die Erfindung wird anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
-
1 – schematische Darstellung des erfindungsgemäßen Assistenzsystems; -
2 – schematische Darstellung einer Regungskette bei der Fluglotsenunterstützung. -
1 zeigt schematisch das erfindungsgemäße Assistenzsystem1 , das zur Unterstützung von Planungs- und/oder Führungsaufgaben einer Regelstrecke2 Anwendung finden kann. Eine Regelstrecke2 kann beispielsweise der Landeanflug von Flugzeugen auf einem Flughafen sein, der in der Regel von Lotsen überwacht und geregelt wird. - Das Assistenzsystem
1 weist eine Zustandserfassungseinheit3 auf, die mit Hilfe von Sensoren4a ,4b Daten über die Regelstrecke2 erfasst und daraus einen aktuellen Zustand5 der Regelstrecke2 ermittelt. Aus diesem aktuellen Zustand5 der Regelstrecke2 lässt sich ein prognostizierter Zustand5a ableiten, der eine zukünftige Entwicklung des Zustandes5 der Regelstrecke2 berücksichtigt. - Sowohl der aktuelle Zustand
5 als auch ein möglicherweise abgeleiteter und prognostizierter Zustand5a dienen in einer Kontextermittlungseinheit6 als Grundlage für die Ermittlung eines Sprachkontextes, der als Eingabe in den Spracherkenner bzw. die Sprachverarbeitungseinheit7 vorgesehen ist. Denn aufgrund der Kenntnis des aktuellen Zustandes5 bzw. eines prognostizierten Zustandes5a , die sich letztendlich aus den Sensordaten der Regelstrecke2 ableiten lassen, liegt der Zustandserfassungseinheit somit letztendlich auch der Kontext vor, der dem Spracherkenner7 als Grundlage für die Spracherkennung dienen soll. Dadurch kann die Genauigkeit bei der Erkennung wesentlich erhöht werden. - Darüber hinaus kann zusätzlich eine Sprachhypotheseneinheit
8 vorgesehen sein, die aus dem aktuellen Zustand5 oder prognostizierten Zustand5a Sprachhypothesen bezüglich zukünftiger eventuell auftretender Sprachinformationen ermitteln kann. Die Sprachhypotheseneinheit8 kann dabei Bestandteil der Zustandserfassungseinheit3 oder der Sprachverarbeitungseinheit7 sein. Der von der Kontextermittlungseinheit6 ermittelte Sprachkontext kann somit um die Sprachhypothesen der Hypotheseneinheit8 erweitert werden. - Sowohl der von der Kontextermittlungseinheit
6 ermittelte Sprachkontext als auch die Sprachhypothesen werden über einen Eingang der Sprachverarbeitungseinheit7 in diese übertragen und eingespeist. Des Weiteren ist das Assistenzsystem1 mit einer akustischen Aufnahmeeinheit9 verbunden, die ebenfalls mit einem Eingang der Sprachverarbeitungseinheit7 signaltechnisch verbunden ist. Die akustische Aufnahmeeinheit9 ist dabei derart eingerichtet, dass sie akustische Sprachsignale in einer Sprachkommunikation zwischen mindestens zwei Personen (nicht dargestellt) aufnimmt, wodurch die akustische Aufnahmeeinheit9 ein weiterer Sensor bzw. eine weitere Sensorik zur Zustandserfassung der Regelstrecke2 darstellt. Die akustische Aufnahmeeinheit9 kann dabei in einem einfachsten Fall ein Mikrofon sein, welches die Kommunikation zwischen zwei oder mehreren Personen mithört. Die akustische Aufnahmeeinheit9 kann aber auch eine elektrische Vorrichtung sein, mit der Sprachsignale aus einem elektrischen Signal, wie sie beispielsweise bei einer Funkverbindung oder einer Telefonverbindung vorliegt, abgegriffen werden können. Somit lassen sich auch Kommunikationen zwischen Personen mithören, die über eine Fernsprecheinrichtung miteinander kommunizieren. - Die von der akustischen Aufnahmeeinheit
9 aufgenommenen Sprachsignale werden nun durch die Sprachverarbeitungseinheit7 unter Berücksichtigung des ermittelten Sprachkontextes und der ermittelten Sprachhypothesen analysiert und die in den akustischen Signalen enthaltenen Sprachinformationen10 erkannt. Aufgrund der Tatsache, dass der Kontext für die Spracherkennung aus der Regelstrecke und den erfassten Zuständen5 ,5a direkt oder indirekt ableitbar ist, lässt sich die Spracherkennung der erfassten akustischen Sprachsignale wesentlich erhöhen. Bei dieser kontextbasierten Spracherkennung wird nicht nur das aktuelle Sprachsignal, sondern auch der Kontext, der von einer externen Quelle kommt, zur Spracherkennung herangezogen. Dies ist zwar aufwändiger, aber auch leistungsfähiger, da dadurch der Suchraum entweder regelbasiert oder probabilistisch eingeschränkt wird. Da der erfasste Zustand eine Vielzahl von Daten und Parametern über die Regelstrecke2 umfasst, kann hier der für die Spracherkennung notwendige Kontext abgeleitet werden. - So wird vorteilhafterweise nur noch ein geringer Teil des Kontextes vom Spracherkenner selbst bestimmt, während der wesentliche Teil der Kontextinformation über die Zustanderfassungseinheit aus dem Zustand und dem prognostizierten Zustand bestimmt werden. Der Gesamtkontext wird somit aus dem Systemzustand und dem Dialog zweier Kommunikationspartner abgeleitet. Diese redundante Bestimmung des Sprachkontextes ermöglicht es dem Spracherkenner, falsche Erkennungshypothesen, die mit der Kontextinformation nicht konsistent sind, frühzeitig zu verwerfen und damit Fehlerkennungen zu vermeiden, wodurch letztendlich die Erkennungsleistung wesentlich erhöht wird.
- Der Gesamtkontext wird somit zum einen über ein erstes Sensorsystem, welches den Systemzustand der Regelstrecke erfasst, und über ein zweites Sensorsystem, welches die Sprachkommunikation zweier Kommunikationspartner erfasst, ermittelt, was die Spracherkennung selber wesentlich verbessert.
- Die so erkannten Sprachinformationen werden nun wieder zurück an die Zustandserfassungseinheit
3 übertragen, wobei in Abhängigkeit der erkannten Sprachinformationen10 der aktuelle Zustand5 oder der prognostizierte Zustand5a in Abhängigkeit dieser Sprachinformationen10 angepasst wird. Denn wurde beispielsweise aus den Gesprächen zwischen den Personen erkannt, dass Änderungen innerhalb der Regelstrecke durchgeführt werden sollen, so dass sich der Zustand ändern wird, wobei diese Zustandsänderung noch nicht von der Sensorik4a ,4b erfassbar ist, so kann der aktuelle Zustand5 oder der für die Zukunft prognostizierte Zustand5a aufgrund des Gespräches bereits angepasst werden, so dass das Assistenzsystem wesentlich genauere Informationen über die Regelstrecke2 hat und somit entsprechende Handlungsempfehlungen, die an einer Ausgabeeinheit11 ausgegeben werden können, wesentlich genauer sind. - So kann die Anpassung der Zustände
5 ,5a durch die Zustandserfassungseinheit3 beispielhaft derart erfolgen, dass bestimmte Parameter und/oder Daten, welche den Zustand der Regelstrecke2 beschreiben, verändern werden, so dass sich für die Zustandserfassungseinheit3 ein veränderter Zustand5 bzw.5a darstellt, der mit den von der Sensorik4a ,4b sensierten Daten zumindest für einen Moment zwangsläufig nicht konsistent sein muss. - Das Assistenzsystem kann neben den beschriebenen Einheiten weitere Einheiten aufweisen, die beispielsweise bestimmte Regelungen für die Regelstrecke
2 vorsehen bzw. entsprechende Handlungsinformationen oder Handlungsempfehlungen über die Ausgabeeinheit11 ausgeben können. Beispielhaft sei hier ein Lotsenunterstützungssystem genannt, das ebenfalls in das Assistenzsystem1 eingebettet und dem Lotsen bei seiner Regelungs- und Führungsaufgabe unterstützen soll. Durch die Anpassung der erfassten Zustände bzw. prognostizierten Zustände der Regelstrecke2 kann dem Lotsenunterstützungssystem eine wesentlich bessere Grundlage für seine Berechnungen und Handlungsempfehlungen gegeben werden, was die Akzeptanz und Sicherheit erhöht. - Ein derartiges System zeigt
2 beispielhaft für die Regelstrecke bei der Führung eines Flugzeuges durch einen Lotsen21 . Der Fluglotse21 , der sich in der Regel im Kontrollzentrum oder im Tower des Flughafens aufhält, steht mit dem Piloten22 eines Flugzeuges23 in Funkverbindung. Der Fluglotse21 erteilt über die Funkverbindung24 dem Piloten22 des Flugzeuges23 entsprechende Anweisungen, damit der Pilot22 das Flugzeug23 auf einer vorbestimmten Trajektorie auf dem Flughafen landen kann. - Seit einiger Zeit sind zur Unterstützung des Lotsen
21 sogenannte Lotsenunterstützungssysteme25 bekannt, die dem Lotsen in Abhängigkeit von der aktuellen Situation im Luftraum des Flughafens verschiedene Vorschläge für die Landesequenzen und/oder für Flugführungsanweisungen für die Flugzeuge liefern können. Mit Hilfe von Sensoren26a ,26b , die beispielsweise Radarsensoren sein können und somit kontinuierlich Radardaten an das Lotsenunterstützungssystem25 liefern, kann eine Situation innerhalb des Flugraumes bzw. ein Zustand für den Lotsen aufgebaut werden, um die Flugzeuge sicher auf dem Flughafen landen zu lassen. Diese Daten liefern dem Lotsenunterstützungssystem25 aber auch die Grundlage für die Vorschläge der Landesequenzen und/oder Führungsanweisungen an die Flugzeuge. - Verändert der Lotse
21 jedoch seine Strategie, so merkt das System25 solange nichts, bis eindeutige Hinweise in den Radardaten hinsichtlich eines abweichenden Flugverhaltens vorliegen und erkannt wurden. Dies kann jedoch bis zu 30 Sekunden und mehr dauern, so dass während dieser Zeit die dargestellte Situation bzw. der erfasste Zustand über die Regelstrecke und die von dem System25 gelieferten Vorschläge mit der eigentlichen Situation bzw. dem eigentlichen Zustand nicht konsistent sind. Diese mangelnde Übereinstimmung zwischen der Lotsenabsicht und dem maschinellen Situationsbewusstsein des Unterstützungssystems25 führt jedoch zu eingeschränkten Vorschlägen, die letztendlich für eine mangelnde Akzeptanz des Systems bei den Lotsen sorgen. - Um dieses Problem zu lösen, befindet sich in der Kommunikationsverbindung
24 zwischen Lotse21 und Pilot22 eine akustische Aufnahmeeinheit27 , die mit dem System25 kommunikativ in Verbindung steht. Die Sprachkommunikation zwischen dem Lotsen21 und dem Piloten22 über die Kommunikationsverbindung24 wird daher mit Hilfe der akustischen Aufnahmeeinheit27 abgegriffen und dem System25 zur Verfügung gestellt. - Werden von dem Lotsen
21 nun von der eigentlichen Strategie veränderte Flugführungsanweisungen an den Piloten22 über die Kommunikationsverbindung24 übertragen, so wird dies von der akustischen Aufnahmeeinheit27 erfasst. Diese über die Kommunikationsverbindung24 übertragenen Sprachanweisungen stellen dabei den frühest möglichen Zeitpunkt zur Erkennung einer Strategieänderung des Lotsen21 bei der Verkehrssteuerung dar. Mittels eines Assistenzsystems, wie in1 beschrieben, das Bestandteil des Systems25 ist, können die Sprachinformationen bezüglich der Regelstrecke erkannt werden, wobei die von dem System25 erfassten Zustände den Kontext für die Spracherkennung liefert. Die über die Kommunikationsverbindung24 erkannten Sprachinformationen der betreffenden Person21 und22 können dann dazu genutzt werden, die von dem System25 erfassten Zustände anzupassen, um so die Strategieänderung des Lotsen21 bei der Ausgabe von entsprechenden Vorschlägen zur Flugführung mit berücksichtigen zu können, obwohl die veränderten Zustände erst einige Zeit später über die Radarsensoren26a ,26b detektierbar werden. - Da auf diese Planänderung durch den Lotsen unmittelbar durch das System
25 durch Verbesserung der eigenen Planung reagiert wird, bekommt der Lotse sofort einen Eindruck davon, welche weiteren Auswirkungen durch die von ihm veranlassten Aktionen ausgelöst werden. Dies ist insbesondere in Situationen mit hohem Verkehrsaufkommen hilfreich, da in solchen Situationen die Belastung ohnehin für den Lotsen hoch ist. Durch die höhere Konfidenz auf der Systemseite hinsichtlich der erwarteten Entwicklung der zukünftigen Situation besteht nun zusätzlich die Möglichkeit, den Lotsen auf Abweichungen des Flugzeuges von der geplanten Trajektorie hinzuweisen. Dabei erfolgt die Anpassung der Situation durch den Lotsen derart, dass dieser keine weiteren Eingaben an das System25 vornehmen muss, wie beispielsweise durch Eingeben von entsprechenden Anweisungen oder durch direkten Sprachbefehl. Vielmehr erfolgt die Anpassung unter den Umständen der ganz normalen Arbeitsabläufe der Lotsen21 . - ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102009034069 A1 [0005]
Kerngedanke der vorliegenden Erfindung ist es, dass das Assistenzsystem mit Hilfe einer akustischen Aufnahmeeinheit akustische Sprachsignale einer Sprachkommunikation zwischen zwei Personen, insbesondere zwischen Personen, die auf die Regelstrecke einwirken können, aufnimmt und diese mit Hilfe einer Sprachverarbeitungseinheit analysiert. Dabei können entsprechende Sprachinformationen bezüglich der Regelstrecke aus den aufgenommenen akustischen Sprachsignalen erkannt werden, so dass der erfasste Zustand und/oder ein aus dem aktuellen Zustand der Regelstrecke ableitbarer prognostizierter Zustand in Abhängigkeit von den erkannten Sprachinformationen angepasst werden kann.
Claims (12)
- Assistenzsystem (
1 ,25 ) zur Unterstützung bei situationsabhängigen Planungs- und/oder Führungsaufgaben einer Regelstrecke (2 ) mit – einer Zustandserfassungseinheit (3 ) zum Erfassen zumindest eines Zustandes (5 ,5a ) der Regelstrecke (2 ), dadurch gekennzeichnet, dass – eine akustische Aufnahmeeinheit (9 ,27 ), die zum Aufnehmen von akustischen Sprachsignalen einer Sprachkommunikation (24 ) zwischen mindestens zwei Personen (21 ,22 ) ausgebildet ist, und – eine Sprachverarbeitungseinheit (7 ), die zum Erkennen von Sprachinformationen (10 ) bezüglich der Regelstrecke (2 ) aus den aufgenommenen akustischen Sprachsignalen eingerichtet ist, vorgesehen sind, wobei die Zustandserfassungseinheit (3 ) zum Anpassen des erfassten Zustandes (5 ) und/oder eines aus dem aktuellen Zustand ableitbaren prognostizierten Zustandes (5a ) der Regelstrecke (2 ) in Abhängigkeit von den erkannten Sprachinformationen (10 ) eingerichtet ist. - Assistenzsystem (
1 ,25 ) nach Anspruch 1, dadurch gekennzeichnet, dass eine Kontextermittlungseinheit (6 ) vorgesehen ist, die zum Ermitteln eines Sprachkontextes in Abhängigkeit von dem erfassten Zustand (5 ) und/oder einem aus dem aktuellen Zustand ableitbaren prognostizierten Zustand (5a ) ausgebildet ist, wobei die Sprachverarbeitungseinheit (7 ) zum Erkennen der Sprachinformationen (10 ) bezüglich der Regelstrecke (2 ) aus den aufgenommenen akustischen Sprachsignalen unter Berücksichtigung des ermittelten Sprachkontext eingerichtet ist. - Assistenzsystem (
1 ,25 ) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass eine Sprachhypotheseneinheit (8 ) vorgesehen ist, die zum Ermitteln von Sprachhypothesen bezüglich zukünftig erwarteter Sprachinformationen in Abhängigkeit von dem erfassten Zustand (5 ) und/oder einem aus dem aktuellen Zustand ableitbaren prognostizierten Zustand (5a ) ausgebildet ist, wobei die Sprachverarbeitungseinheit (7 ) zum Erkennen der Sprachinformationen (10 ) bezüglich der Regelstrecke (2 ) aus den aufgenommenen akustischen Sprachsignalen unter Berücksichtigung der ermittelten Sprachhypothesen eingerichtet ist. - Assistenzsystem (
1 ,25 ) nach Anspruch 3, dadurch gekennzeichnet, dass die Sprachhypotheseneinheit (8 ) zum Zuordnen von Eintrittswahrscheinlichkeiten zu den ermittelten Sprachhypothesen und die Sprachverarbeitungseinheit (7 ) zum Erkennen der Sprachinformationen (10 ) weiterhin unter Berücksichtigung der den Sprachhypothesen zugeordneten Eintrittswahrscheinlichkeiten eingerichtet ist. - Assistenzsystem (
1 ,25 ) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die akustische Aufnahmeeinheit (9 ,27 ) zum Empfangen von elektrischen Signalen in einer elektrischen Sprach-Kommunikationsverbindung (24 ) und zum Aufnehmen der akustischen Sprachsignale aus den empfangenen elektrischen Signalen eingerichtet ist. - Assistenzsystem (
1 ,25 ) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Assistenzsystem (1 ,25 ) eine Ausgabeeinheit (11 ) zum Ausgeben von in Abhängigkeit von dem erfassten Zustand (5 ) und/oder einem aus dem aktuellen Zustand ableitbaren prognostizierten Zustand (5a ) generierten Unterstützungsanweisungen zum Unterstützen der situationsabhängigen Planungs- und/oder Führungsaufgabe der Regelstrecke (2 ) aufweist. - Verfahren zur Unterstützung bei situationsabhängigen Planungs- und/oder Führungsaufgaben einer Regelstrecke mit – Erfassen zumindest eines Zustandes der Regelstrecke durch eine Zustandserfassungseinheit, gekennzeichnet, durch die Schritte: – Aufnehmen von akustischen Sprachsignalen einer Sprachkommunikation zwischen mindestens zwei Personen durch eine akustische Aufnahmeeinheit, – automatisiertes Erkennen von Sprachinformationen bezüglich der Regelstrecke aus den aufgenommenen akustischen Sprachsignalen durch eine Sprachverarbeitungseinheit, und – Anpassen des erfassten Zustandes und/oder eines aus dem aktuellen Zustand ableitbaren prognostizierten Zustandes der Regelstrecke in Abhängigkeit von den erkannten Sprachinformationen durch die Zustandserfassungseinheit.
- Verfahren nach Anspruch 7, gekennzeichnet durch – automatisiertes Ermitteln eines Sprachkontext in Abhängigkeit von dem erfassten Zustand und/oder einem aus dem aktuellen Zustand ableitbaren prognostizierten Zustand durch eine Kontextermittlungseinheit und – automatisiertes Erkennen der Sprachinformationen bezüglich der Regelstrecke aus den aufgenommenen akustischen Sprachsignalen unter Berücksichtigung des ermittelten Sprachkontext durch die Sprachverarbeitungseinheit.
- Verfahren nach Anspruch 7 oder 8, gekennzeichnet durch – automatisiertes Ermitteln von Sprachhypothesen bezüglich zukünftig erwarteter Sprachinformationen in Abhängigkeit von dem erfassten Zustand und/oder einem aus dem aktuellen Zustand ableitbaren prognostizierten Zustand durch eine Sprachhypotheseneinheit und – automatisiertes Erkennen der Sprachinformationen bezüglich der Regelstrecke aus den aufgenommenen akustischen Sprachsignalen unter Berücksichtigung der ermittelten Sprachhypothesen durch die Sprachverarbeitungseinheit.
- Verfahren nach Anspruch 9, gekennzeichnet durch Zuordnen von Eintrittswahrscheinlichkeiten zu den ermittelten Sprachhypothesen durch die Sprachhypotheseneinheit und Erkennen der Sprachinformationen weiterhin unter Berücksichtigung der den Sprachhypothesen zugeordneten Eintrittswahrscheinlichkeiten durch die Sprachverarbeitungseinheit.
- Verfahren nach einem der Ansprüche 7 bis 10, gekennzeichnet durch Empfangen von elektrischen Signalen aus einer elektrischen Sprachkommunikationsverbindung und Aufnehmen der akustischen Sprachsignale aus den empfangenen elektrischen Signalen durch die Aufnahmeeinheit.
- Computerprogramm mit Programmcodemitteln, insbesondere auf einem maschinenlesbaren Träger gespeichert, eingerichtet zur Durchführung des Verfahrens nach einem der Ansprüche 7 bis 11, wenn das Computerprogramm auf einem Rechner ausgeführt wird.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011107934.7A DE102011107934B4 (de) | 2011-07-19 | 2011-07-19 | Assistenzsystem |
ES12746043.4T ES2639050T3 (es) | 2011-07-19 | 2012-07-19 | Sistema de asistencia |
PCT/EP2012/064186 WO2013011090A2 (de) | 2011-07-19 | 2012-07-19 | Assistenzsystem |
EP12746043.4A EP2734998B1 (de) | 2011-07-19 | 2012-07-19 | Assistenzsystem |
US14/233,399 US20140316538A1 (en) | 2011-07-19 | 2012-07-19 | Assistance system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011107934.7A DE102011107934B4 (de) | 2011-07-19 | 2011-07-19 | Assistenzsystem |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102011107934A1 true DE102011107934A1 (de) | 2013-01-24 |
DE102011107934B4 DE102011107934B4 (de) | 2018-08-23 |
Family
ID=47502033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102011107934.7A Active DE102011107934B4 (de) | 2011-07-19 | 2011-07-19 | Assistenzsystem |
Country Status (5)
Country | Link |
---|---|
US (1) | US20140316538A1 (de) |
EP (1) | EP2734998B1 (de) |
DE (1) | DE102011107934B4 (de) |
ES (1) | ES2639050T3 (de) |
WO (1) | WO2013011090A2 (de) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017107324A1 (de) | 2017-04-05 | 2018-10-11 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Assistenzsystem und Verfahren zur Unterstützung bei der Durchführung von Aufgaben bezüglich einer Situation |
DE102018126056A1 (de) | 2018-10-19 | 2020-04-23 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren und Computerprogramm zum Transkribieren einer aufgezeichneten Sprachkommunikation |
DE102019113680B3 (de) | 2019-05-22 | 2020-06-18 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Assistenzsystem und Verfahren zur Unterstützung eines Operateurs |
WO2021110555A1 (de) | 2019-12-06 | 2021-06-10 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren und vorrichtung zur unterstützung mindestens eines operateurs bei planungs- und/oder führungsaufgaben |
EP3882911A1 (de) | 2020-03-19 | 2021-09-22 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren, vorrichtung sowie computerprogramm zur spracherkennung |
DE102020124172A1 (de) | 2020-09-16 | 2022-03-17 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Assistenzsystem und Verfahren zur Unterstützung eines Operateurs |
DE102020008265B4 (de) | 2020-03-19 | 2024-04-25 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren, Vorrichtung sowie Computerprogramm zur Spracherkennung |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3438978B1 (de) * | 2017-08-02 | 2023-12-27 | Rohde & Schwarz GmbH & Co. KG | Signalbeurteilungssystem und signalbeurteilungsverfahren |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0613111A1 (de) | 1993-02-26 | 1994-08-31 | Raytheon Company | Flughafenüberwachungsanlage |
JPH06342061A (ja) | 1992-12-04 | 1994-12-13 | Unyusho Senpaku Gijutsu Kenkyusho | 空港面における航空機識別方法およびその航空機自動識別装置 |
DE19619015A1 (de) | 1996-05-10 | 1997-11-13 | Deutsche Forsch Luft Raumfahrt | Verfahren und Anordnung zur Verkehrsüberwachung |
US20050283475A1 (en) | 2004-06-22 | 2005-12-22 | Beranek Michael J | Method and system for keyword detection using voice-recognition |
US20070215745A1 (en) | 2006-03-14 | 2007-09-20 | Thales | Method of improving aeronautical safety relating to air/ground communications and to the environment of aircraft |
DE102008017957A1 (de) | 2007-04-10 | 2008-10-16 | General Electric Co. | Systeme und Verfahren zur aktiven Abhörung/Beobachtung und Ereigniserfassung |
DE102007018327C5 (de) | 2007-04-18 | 2010-07-01 | Bizerba Gmbh & Co. Kg | Ladenwaage |
EP2341494A1 (de) | 2009-12-23 | 2011-07-06 | Thales | System und Prozess zum Identifizieren von Flugzeugen in einem zu überwachenden Luftraumsektor |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5652897A (en) * | 1993-05-24 | 1997-07-29 | Unisys Corporation | Robust language processor for segmenting and parsing-language containing multiple instructions |
US6278965B1 (en) * | 1998-06-04 | 2001-08-21 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Real-time surface traffic adviser |
US7576695B2 (en) * | 1999-03-05 | 2009-08-18 | Era Systems Corporation | Multilateration enhancements for noise and operations management |
US6380869B1 (en) * | 1999-05-19 | 2002-04-30 | Potomac Aviation Technology Corporation | Automated air-traffic advisory system and method |
US7535404B2 (en) * | 1999-11-25 | 2009-05-19 | Nigel Corrigan | Airport safety system |
US20020087309A1 (en) * | 2000-12-29 | 2002-07-04 | Lee Victor Wai Leung | Computer-implemented speech expectation-based probability method and system |
US7174300B2 (en) * | 2001-12-11 | 2007-02-06 | Lockheed Martin Corporation | Dialog processing method and apparatus for uninhabited air vehicles |
US6950037B1 (en) * | 2003-05-06 | 2005-09-27 | Sensis Corporation | Smart airport automation system |
JP3991914B2 (ja) | 2003-05-08 | 2007-10-17 | 日産自動車株式会社 | 移動体用音声認識装置 |
JP2005173134A (ja) | 2003-12-10 | 2005-06-30 | Nissan Motor Co Ltd | 音声認識装置 |
US7542907B2 (en) | 2003-12-19 | 2009-06-02 | International Business Machines Corporation | Biasing a speech recognizer based on prompt context |
US7177731B2 (en) * | 2004-03-10 | 2007-02-13 | The Boeing Company | Systems and methods for handling aircraft information received from an off-board source |
US20060224318A1 (en) * | 2005-03-30 | 2006-10-05 | Wilson Robert C Jr | Trajectory prediction |
US7881832B2 (en) * | 2006-06-09 | 2011-02-01 | Garmin International, Inc. | Automatic speech recognition system and method for aircraft |
US8073681B2 (en) | 2006-10-16 | 2011-12-06 | Voicebox Technologies, Inc. | System and method for a cooperative conversational voice user interface |
US20100027768A1 (en) * | 2006-11-03 | 2010-02-04 | Foskett James J | Aviation text and voice communication system |
US20080126075A1 (en) * | 2006-11-27 | 2008-05-29 | Sony Ericsson Mobile Communications Ab | Input prediction |
US20080201148A1 (en) * | 2007-02-15 | 2008-08-21 | Adacel, Inc. | System and method for generating and using an array of dynamic grammar |
US8155641B2 (en) * | 2007-12-27 | 2012-04-10 | Michael Hirsch | System and method for preventing lapses of communication in radio voice communications |
US8700332B2 (en) | 2008-11-10 | 2014-04-15 | Volkswagen Ag | Operating device for a motor vehicle |
US8417526B2 (en) | 2009-03-13 | 2013-04-09 | Adacel, Inc. | Speech recognition learning system and method |
US9165414B2 (en) * | 2010-02-16 | 2015-10-20 | Honeywell International Inc. | Method and system for predicting performance of an aircraft |
-
2011
- 2011-07-19 DE DE102011107934.7A patent/DE102011107934B4/de active Active
-
2012
- 2012-07-19 EP EP12746043.4A patent/EP2734998B1/de active Active
- 2012-07-19 ES ES12746043.4T patent/ES2639050T3/es active Active
- 2012-07-19 US US14/233,399 patent/US20140316538A1/en not_active Abandoned
- 2012-07-19 WO PCT/EP2012/064186 patent/WO2013011090A2/de active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06342061A (ja) | 1992-12-04 | 1994-12-13 | Unyusho Senpaku Gijutsu Kenkyusho | 空港面における航空機識別方法およびその航空機自動識別装置 |
EP0613111A1 (de) | 1993-02-26 | 1994-08-31 | Raytheon Company | Flughafenüberwachungsanlage |
DE19619015A1 (de) | 1996-05-10 | 1997-11-13 | Deutsche Forsch Luft Raumfahrt | Verfahren und Anordnung zur Verkehrsüberwachung |
US20050283475A1 (en) | 2004-06-22 | 2005-12-22 | Beranek Michael J | Method and system for keyword detection using voice-recognition |
US20070215745A1 (en) | 2006-03-14 | 2007-09-20 | Thales | Method of improving aeronautical safety relating to air/ground communications and to the environment of aircraft |
DE102008017957A1 (de) | 2007-04-10 | 2008-10-16 | General Electric Co. | Systeme und Verfahren zur aktiven Abhörung/Beobachtung und Ereigniserfassung |
DE102007018327C5 (de) | 2007-04-18 | 2010-07-01 | Bizerba Gmbh & Co. Kg | Ladenwaage |
EP2341494A1 (de) | 2009-12-23 | 2011-07-06 | Thales | System und Prozess zum Identifizieren von Flugzeugen in einem zu überwachenden Luftraumsektor |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017107324B4 (de) | 2017-04-05 | 2019-02-14 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Assistenzsystem und Verfahren zur Unterstützung bei der Durchführung von Aufgaben bezüglich einer Situation |
DE102017107324A1 (de) | 2017-04-05 | 2018-10-11 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Assistenzsystem und Verfahren zur Unterstützung bei der Durchführung von Aufgaben bezüglich einer Situation |
DE102018126056A1 (de) | 2018-10-19 | 2020-04-23 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren und Computerprogramm zum Transkribieren einer aufgezeichneten Sprachkommunikation |
DE102019113680B3 (de) | 2019-05-22 | 2020-06-18 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Assistenzsystem und Verfahren zur Unterstützung eines Operateurs |
EP3742281A1 (de) | 2019-05-22 | 2020-11-25 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Assistenzsystem und verfahren zur unterstützung eines operateurs |
DE102019133410B4 (de) | 2019-12-06 | 2024-08-01 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren und Vorrichtung zur Unterstützung mindestens eines Operateurs bei Planungs- und/oder Führungsaufgaben |
WO2021110555A1 (de) | 2019-12-06 | 2021-06-10 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren und vorrichtung zur unterstützung mindestens eines operateurs bei planungs- und/oder führungsaufgaben |
EP3882911A1 (de) | 2020-03-19 | 2021-09-22 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren, vorrichtung sowie computerprogramm zur spracherkennung |
DE102020107619B4 (de) | 2020-03-19 | 2024-02-15 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren, Vorrichtung sowie Computerprogramm zur Spracherkennung |
DE102020008265B4 (de) | 2020-03-19 | 2024-04-25 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren, Vorrichtung sowie Computerprogramm zur Spracherkennung |
DE102020107619A1 (de) | 2020-03-19 | 2021-09-23 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren, Vorrichtung sowie Computerprogramm zur Spracherkennung |
DE102020124172A1 (de) | 2020-09-16 | 2022-03-17 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Assistenzsystem und Verfahren zur Unterstützung eines Operateurs |
EP3971807A1 (de) | 2020-09-16 | 2022-03-23 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Assistenzsystem und verfahren zur unterstützung eines operateurs |
DE102020124172B4 (de) | 2020-09-16 | 2024-08-01 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Assistenzsystem und Verfahren zur Unterstützung eines Operateurs |
Also Published As
Publication number | Publication date |
---|---|
ES2639050T3 (es) | 2017-10-25 |
EP2734998A2 (de) | 2014-05-28 |
DE102011107934B4 (de) | 2018-08-23 |
US20140316538A1 (en) | 2014-10-23 |
WO2013011090A2 (de) | 2013-01-24 |
WO2013011090A3 (de) | 2013-03-28 |
EP2734998B1 (de) | 2017-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102011107934B4 (de) | Assistenzsystem | |
EP3224100B1 (de) | Verfahren und vorrichtung zum betreiben von mehreren fahrzeugen | |
EP3347787B1 (de) | Verfahren und vorrichtung zum betreiben eines fahrzeugs | |
DE102019104974A1 (de) | Verfahren sowie System zum Bestimmen eines Fahrmanövers | |
DE102014210485A1 (de) | Verfahren und Vorrichtung zum Überwachen eines eine zumindest teilautomatisierte Fahrfunktion bereitstellendes System eines Fahrzeugs | |
DE102015217386A1 (de) | Verfahren und System zum Betreiben eines Kraftfahrzeugs | |
EP3282399B1 (de) | Verfahren zur verbesserten erkennung von prozessanomalien einer technischen anlage sowie entsprechendes diagnosesystem | |
WO2020212061A1 (de) | Verfahren zur prädiktion einer verkehrssituation für ein fahrzeug | |
WO2020173983A1 (de) | Verfahren und vorrichtung zum überwachen eines industriellen prozessschrittes | |
DE102018133670A1 (de) | Verfahren und Vorrichtung zum Erzeugen von Steuersignalen zum Unterstützen von Insassen eines Fahrzeugs | |
AT516219B1 (de) | Verfahren zur Identifikation und Prüfung von Sprechfunkmeldungen | |
DE102018126056B4 (de) | Verfahren und Computerprogramm zum Transkribieren einer aufgezeichneten Sprachkommunikation | |
DE102015200765A1 (de) | Verfahren zum Planen eines Fahrspurwechselvorgangs für ein automatisiert fahrbares Kraftfahrzeug | |
EP3467722B1 (de) | Konfiguration einer kraftfahrzeug-fahrerassistenzvorrichtung mit einem neuronalen netzwerk im laufenden betrieb | |
EP3455097B1 (de) | Verfahren zur steuerung von sprachgesteuerten bedienschnittstellen in kraftfahrzeugen und vorrichtung zur durchführung des verfahrens | |
WO2015158706A1 (de) | Verfahren zur überwachung eines gegenwärtigen zustandes eines kraftfahrzeugs | |
DE102016203827A1 (de) | Verfahren zum Ermitteln einer Fahrtroute für ein automatisiertes Kraftfahrzeug | |
DE102019214418A1 (de) | Verfahren zum Fernsteuern eines Roboters | |
DE102020107619B4 (de) | Verfahren, Vorrichtung sowie Computerprogramm zur Spracherkennung | |
DE102019207344A1 (de) | Verfahren zum Überwachen einer Infrastruktur | |
DE102018216557A1 (de) | Verfahren, Vorrichtung und Fortbewegungsmittel zur akustischen Überwachung einer Fehlerfreiheit eines Fortbewegungsmittels | |
DE102018133672A1 (de) | Verfahren und Vorrichtung zum Erzeugen von Steuersignalen zum Unterstützen von Insassen eines Fahrzeugs | |
EP3847592B1 (de) | Anordnung und verfahren zur steuerung einer vorrichtung | |
DE102020008265B4 (de) | Verfahren, Vorrichtung sowie Computerprogramm zur Spracherkennung | |
EP2945155A1 (de) | Vorrichtung und verfahren zur spracherkennung, insbesondere in einem fahrzeug |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R082 | Change of representative |
Representative=s name: GRAMM, LINS & PARTNER PATENT- UND RECHTSANWAEL, DE |
|
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |