DE10051450A1 - System und Verfahren zur Sprachverarbeitung - Google Patents
System und Verfahren zur SprachverarbeitungInfo
- Publication number
- DE10051450A1 DE10051450A1 DE10051450A DE10051450A DE10051450A1 DE 10051450 A1 DE10051450 A1 DE 10051450A1 DE 10051450 A DE10051450 A DE 10051450A DE 10051450 A DE10051450 A DE 10051450A DE 10051450 A1 DE10051450 A1 DE 10051450A1
- Authority
- DE
- Germany
- Prior art keywords
- user
- speech
- information
- voice
- recognized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000012545 processing Methods 0.000 title description 9
- 238000004519 manufacturing process Methods 0.000 claims abstract description 12
- 238000012544 monitoring process Methods 0.000 claims abstract description 11
- 230000009471 action Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 4
- 230000003190 augmentative effect Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 31
- 238000012800 visualization Methods 0.000 description 16
- 230000003993 interaction Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000004801 process automation Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Numerical Control (AREA)
- Testing And Monitoring For Control Systems (AREA)
Abstract
Die Erfindung betrifft ein System und ein Verfahren zum Bedienen und Beobachten insbesondere eines Automatisierungssystems und/oder einer Produktions- und/oder Werkzeugmaschine, bei dem eine Sprachinformation (8) eines Anwenders (1) zumindest zeitweise in der Weise ausgewertet wird, dass in Abhängigkeit der vom Anwender (1) abgegebenen und von den Spracherkennungsmitteln (4) erkannten Sprachinformation (8) gezielt vorgebbare, mit der erkannten Sprachinformation (8) verknüpfte Informationsdaten auf einem Anzeigemittel (23) darstellbar sind. Hierdurch ergibt sich eine Freihandbedienung und die Möglichkeit für eine "Navigation" im Umfeld von Augmented-Reality-Anwendungen auch bei komplexen technischen Anlagen.
Description
Die Erfindung betrifft ein System und ein Verfahren zum Be
dienen und Beobachten insbesondere eines Automatisierungssys
tems und/oder einer Produktions- und/oder Werkzeugmaschine.
Ein derartiges System und Verfahren kommt beispielsweise im
Bereich der Automatisierungstechnik, bei Produktions- und
Werkzeugmaschinen, bei Diagnose-/Serviceunterstützungssyste
men sowie für komplexe Komponenten, Geräte und Systeme, wie
beispielsweise Fahrzeuge und industrielle Maschinen und Anla
gen zum Einsatz.
Der Erfindung liegt die Aufgabe zugrunde, ein System und ein
Verfahren zum Bedienen und Beobachten insbesondere eines Au
tomatisierungssystems und/oder einer Produktions- und/oder
Werkzeugmaschine anzugeben, das eine Freihandbedienung und
die Möglichkeit für eine "Navigation" im Umfeld von Augmen
ted-Reality-Anwendungen auch bei komplexen technischen Anla
gen ermöglicht.
Diese Aufgabe wird durch ein System sowie durch ein Verfahren
mit den in den Ansprüchen 1 bzw. 3 angegebenen Merkmalen ge
löst.
Dabei wird über Spracherkennungsmittel die vom Anwender abge
gebene Sprachinformation ausgewertet. In Abhängigkeit der er
kannten Sprachinformation werden auf den Anzeigemitteln vor
gebbare Informationsdaten dargestellt und/oder es werden wei
tere Aktionen ausgelöst. Hierdurch kann der Anwender freihän
dig per Sprache einen Prozess oder eine Produktions- und/oder
Werkzeugmaschine intuitiv durch Sprachsteuerung bedienen und
beobachten.
Eine interaktive Sprachkommunikation mit dem System kann da
durch sichergestellt werden, dass das System akustische Wie
dergabemittel aufweist, die zur akustischen Wiedergabe von
akustischen Informationsdaten als Reaktion auf vom Anwender
gezielt über die Spracherkennungsmittel abgegebene Sprachin
formation geeignet sind.
Eine sichere Information für den Anwender über den Verarbei
tungszustand des Systems bezüglich eines Sprachsignals wird
dadurch erzielt, dass das System Mittel zur Generierung eines
akustischen Feedbacksignals als Reaktion auf den Bearbei
tungsstatus bezüglich erkannter Sprachinformation aufweist.
Dieses akustische Feedbacksignal kann in Form einer Sprach
ausgabe, sowohl als Sprachsynthese (Text-To-Speech) als auch
durch vorher aufgenommene Sprache, oder in Form von Tonsigna
len generiert werden.
Im folgenden wird die Erfindung anhand der in den Figuren
dargestellten Ausführungsbeispiele näher beschrieben und er
läutert.
Es zeigen:
Fig. 1 ein Blockschaltbild eines Ausführungsbeispiels eines
sprachgesteuerten Systems zum Bedienen und Beobachten
eines Automatisierungssystems oder einer Werkzeugma
schine,
Fig. 2 ein Blockschaltbild eines Ausführungsbeispiels eines
sprachgesteuerten Systems zum Bedienen und Beobachten
eines Automatisierungssystems oder einer Werkzeugma
schine in einer Leitwarte und
Fig. 3 ein Blockschaltbild eines Ausführungsbeispiels eines
sprachgesteuerten Systems zum Bedienen und Beobachten
eines Automatisierungssystems oder einer Werkzeugma
schine in der Feldebene.
Fig. 1 zeigt ein Blockschaltbild eines Sprachverarbeitungssys
tems zum Bedienen und Beobachten eines Automatisierungssys
tems oder einer Werkzeugmaschine. Das Sprachverarbeitungssys
tem besteht aus einem Spracherkennungssystem 14, das von ei
nem Anwender 1 ansteuerbar ist. Der Anwender ist mit einem
Funkheadset 2 ausgestattet, an dem ein Mikrofon 4, ein Laut
sprecher 3 und eine Datenübertragungsvorrichtung 15 angekop
pelt ist. Das Spracherkennungssystem 14 enthält eine akusti
sche Auswertevorrichtung 6, beispielsweise eine Soundkarte
eines Computers, die ein Sprachsignal 8 des Anwenders 1 er
fasst. Wenn die akustische Auswerteeinrichtung 6 ein positi
ves Ausgangssignal 18 abgibt, d. h. wenn ein entsprechendes
Sprachsignal des Anwenders 1 vorliegt, so wird von einem
Spracherkenner 19 im Falle eines erkannten Sprachsignals 8
ein entsprechendes Kommando 20 an das Anzeigemittel 23, bei
spielsweise innerhalb eines Prozessvisualisierungssystems ab
gegeben.
Die Besonderheit des in Fig. 1 gezeigten Sprachverarbeitungs
systems besteht in der zielgerichteten Spracherkennung, die
den Vorteil schafft, dass der Anwender nicht erst in mögli
cherweise tiefen Bedienhierarchien nach gewünschten Prozess
bildern und Prozesswerten suchen muss, sondern statt dessen
durch ein entsprechendes Sprachsignal ein gewünschtes Objekt,
einen gewünschten Prozesswert, etc. direkt "aufrufen" kann.
Die Übertragung der Sprachsignale 8 vom Mikrofon 4 zur Sound
karte 6 kann dabei beispielsweise durch eine drahtlose uni-
oder bidirektionale Funkschnittstelle erfolgen. Im Falle ei
ner bidirektionalen Funkübertragungsschnittsstelle zwischen
Übertragungssystem 15 und Spracherkennungssystem 14 können
bei Nichterkennung eines Sprachsignals 8 auch Nachfragen 22
an den Anwender 1 direkt abgegeben werden. Alternativ oder
zusätzlich hierzu ist auch eine Ausgabe derartiger Nachfragen
22 über einen Lautsprecher 21 möglich.
Fig. 2 zeigt ein Sprachverarbeitungssystem für ein Bedien- und
Beobachtungssystem beispielsweise eines Automatisierungssys
tems in einer Leitwarte. Das Bedien- und Beobachtungssystem
enthält ein Prozessvisualisierungssystem 102 das über eine
beispielhaft dargestellte Bildschirmmaske 103 eine Steuerung
des Prozesses eines Automatisierungssystems 110 ermöglicht.
Das Bedien- und Beobachtungssystem umfasst ein Spracherken
nungssystem 101, dem ein Eingangssignal 104 zugeführt wird
und das ein Ausgangssignal 107 abgibt. Das Eingangssignal 104
beruht auf einem Sprachsignal 8 des Anwenders, welches bei
spielsweise über ein Mikrofon 4 eines Headsets 2 des Anwen
ders 1 erfasst wird. Das Spracherkennungssystem 101 liefert
ein Ausgangssignal 107, welches auf dem Sprachsignal 8 des
Anwenders basiert. In Abhängigkeit des Ausgangssignals 107
der Spracherkennungseinheit 101 wird vom Prozessvisualisie
rungssystem 102 über ein Ausgangssignal 108 die Bildschirm
maske 103 angesteuert.
Dem Ausführungsbeispiel von Fig. 2 liegt dabei beispielsweise
folgendes Szenario zugrunde: Der Anwender 1, z. B. in einer
Leitwarte, beobachtet mit Hilfe des Prozessvisualisierungs
systems 102 eine Automatisierungsanlage 110. Er ruft durch
Sprache, d. h. durch Abgabe eines Sprachsignals 8 ein ge
wünschtes Objekt, beispielsweise einen bestimmten Prozess
wert, auf oder er möchte einen Prozesswert ändern. In diesen
Fällen ruft der Anwender 1 das Objekt per Sprache auf oder er
nennt den neuen Prozesswert. Akustisch erhält er Rückmeldung
über die Verarbeitung seines Sprachkommandos. Bei erfolgrei
cher Ausführung der Ansteuerungen mit Hilfe des Spracherken
nungssystem 101 führt das Prozessvisualisierungssystem 102
und damit die mit dem Prozessvisualisierungssystem 102 und
dem Bedien- und Beobachtungssystem verbundene Anlage 110 die
entsprechenden Kommandos und Aktionen aus. Durch den Einsatz
des Spracherkennungssystem gekoppelt mit einem akustischen
Feedback-Signal 109 ergibt sich eine leichtere, intuitivere
Mensch-Maschine-Interaktion. Der Anwender 1 erhält unmittel
bar eine Rückmeldung in Form des kurzzeitigen akustischen
Feedback-Signals 109 und ist darüber informiert ob seine
Sprachkommandos vom System 102 registriert, verstanden und
ausgeführt wurden.
Fig. 3 zeigt ein weiteres Ausführungsbeispiel eines Bedien-
und Beobachtungssystems mit Spracherkennung und einem akusti
schen Feedback-Signal zur Unterstützung von Sprachinteraktion
in Prozessvisualisierung und bei Produktions- sowie Werkzeug
maschinen in der Feldebene. Das System besteht aus einem
Sprachinteraktionssystem 200, das als Eingangssignal ein
Sprachsignal 8 eines Anwenders 1 auswertet. Das Sprachinter
aktionssystem 200 liefert in Abhängigkeit des Sprachsignals 8
ein Ausgangssignal 204. Das Ausgangssignal 204 des Sprachin
teraktionssystems 200 wird einem Prozessvisualisierungssystem
201 einer Anlage 206 oder einer Werkzeugmaschine zugeführt.
Die Visualisierung und die Bedienung und Beobachtung der An
lage 206 bzw. der Werkzeugmaschine erfolgt z. B. über ein Be
dienterminal 202.
Dem in Fig. 3 dargestellten System liegt beispielsweise fol
gendes Szenario zugrunde: Der Anwender, beispielsweise ein
Bediener einer Werkzeugmaschine oder einer Anlage 206 beo
bachtet durch das Prozessvisualisierungssystem 201 über das
Bedienterminal 202 die Anlage 206. Um eine Aktion der Anla
ge/der Maschine 206 auszuführen, spricht oder ruft der Anwen
der 1 entsprechende Kommandos in Form von Sprachsignalen 8.
Durch ein akustisches Rückmeldesignal 205 wird der Anwender 1
informiert, wie der Zustand der Verarbeitung seines Sprach
kommandos ist. So können unterschiedliche akustische Signale
205 anzeigen, dass ein Kommando erkannt und eine gewünschte
Aktion ausgeführt ist, dass ein Kommando nicht erkannt wurde
oder dass ein Kommando erkannt, eine dem Kommando zugrunde
liegende Aktion jedoch nicht ausgeführt wurde.
Die sprachgesteuerte Unterstützung von Prozessvisualisie
rungssystemen und Werkzeugmaschinen versteht sich insbesonde
re im speziellen Kontext der Anwendungsfelder "Bedienen und
Beobachten von Prozessautomatisierungssystemen" sowie "Pro
duktions- und Werkzeugmaschinen". Der Einsatz von Standard-
PCs als Visualisierungswerkzeuge ist heute sowohl in der
Leitebene als auch in der Feldebene der Prozessautomatisie
rungswelt der Standard. Die Interaktionsformen beschränken
sich jedoch üblicherweise in der Leitebene auf Maus und Tas
tatur, in der Feldebene auf Bedientafeln. Durch die Zunahme
an Komplexität von Anlagen und Maschinen erschwert sich die
Navigation durch die Vielzahl der Prozessbilder. Man muss oft
tiefe Bedienhierarchien durchsuchen, bevor gewünschte Pro
zessbilder oder Prozesswerte gefunden werden können.
Im Feld muss der Benutzer an eine Bedientafel gehen und ent
sprechende Tasten betätigen, bevor er sich über Zustände sei
ner Anlage oder Maschine informieren oder diese verändern
kann. In vielen Fällen braucht aber der Benutzer beide Hände
frei, um seine eigentliche Arbeit (z. B. Justieren, Repara
tur, etc.) an der Anlage oder Maschine durchführen zu können.
Der Weg zur Bedientafel kann auch belastend sein, besonders
wenn die Anlage oder Maschine groß ist und häufiger Wechsel
zwischen Bedienen an der Tafel und Arbeiten vor Ort stattfin
det. Die Hände des Benutzers im Feld werden gelegentlich
durch Öl u. Ä. verschmutzt. Die Verschmutzung. der Bedientafel
durch Berührung der Tasten oder des Touchpanels wird als eine
häufige Ursache für deren Defekt festgestellt.
Spracherkennungs- und Sprachausgabesysteme werden heute schon
bei vielen Standard-PCs im Form von Diktiersoftware einge
setzt. Die Software dazu kann man schon für einen relativ ge
ringen Preis beziehen. Durch Softwareanpassung kann ein Pro
zessvisualisierungssystem die vorhandenen Sprachverarbei
tungssysteme benutzen, um eine leichtere und intuitivere Be
dienung zu ermöglichen.
So muss der Benutzer des erfindungsgemäßen Systems nicht in
tiefen Bedienhierarchien nach gewünschten Prozessbildern und
Prozesswerten suchen, statt dessen kann er das Objekt direkt
"aufrufen". Damit kann er den realen Name des Anlagen- oder
Maschinenteils benutzen, statt das entsprechende Kürzel in
Prozessbildern suchen zu müssen. In Kombination mit einem
Funkheadset ist der Benutzer auch nicht mehr an seinen PC-
Arbeitsplatz gebunden, sondern kann sich in der Reichweite
des Funkheadsets frei bewegen. Er hat somit beide Hände frei
und kann die Anlage oder Maschine relativ ortsunabhängig be
dienen. Per Sprachkommandos kann der Benutzer die gewünschten
Aktionen durchführen, die er normalerweise per Maus, Tastatur
oder Tasten am PC oder an der Bedientafel durchführt. Die
Sprachkommandos werden durch ein Spracherkennungssystem aus
gewertet und an das Prozessvisualisierungssystem weitergelei
tet. Im Prozessvisualisierungssystem werden entsprechende Ak
tionen durchgeführt. Per Sprachausgabe wird der Benutzer über
den Zustand der Anlage oder der Maschine informiert. Dabei
kann die Sprachausgabe sowohl durch Sprachsynthese (Text-To-
Speech) als auch durch vorher aufgenommene Sprache erfolgen.
Der Kern der Erfindung liegt dabei in der ortsunabhängigen
und berührungslosen Interaktionsform, die eine intuitivere
Bedienung von Anlagen und Maschinen ermöglicht.
Die folgenden 2 Szenarien beschreiben die Ausführungsbeispie
le der grundlegenden Idee:
Ein Leitwart beobachtet den Anlagezustand durch ein Visuali
sierungssystem. Er ruft per Sprache den Prozesswert und/oder
das Prozessbild von einem Anlagenteil auf, welches er näher
betrachten möchte. Das Spracherkennungssystem verarbeitet die
Sprachkommandos und das Prozessvisualisierungssystem führt
daraufhin die gewünschte Aktion durch.
Ein Werker justiert gerade die Anlage oder Maschine. Dabei
möchte er einen Prozesswert verändern oder abfragen oder eine
Taste betätigen. Er hat momentan aber keine Hand frei und zu
dem eine lange Distanz zur Bedientafel. So spricht oder ruft
er einfach die entsprechenden Sprachkommandos, durch Funk
wird das Sprachsignal an den PC übertragen und durch ein
Spracherkennungssystem verarbeitet. Die Kommandos werden er
kannt und die gewünschte Aktion durchgeführt. Mittels akusti
scher Ausgabe (Sprache und/oder Töne) wird er über die Durch
führung oder die Zustände der Anlage oder Maschine infor
miert. In kritischen Fällen wird noch eine Bestätigung von
ihm verlangt.
Zusammenfassend betrifft die Erfindung somit ein System und
ein Verfahren zum Bedienen und Beobachten insbesondere eines
Automatisierungssystems und/oder einer Produktions- und/oder
Werkzeugmaschine, bei dem eine Sprachinformation 8 eines An
wenders 1 zumindest zeitweise in der Weise ausgewertet wird,
dass in Abhängigkeit der vom Anwender 1 abgegebenen und von
den Spracherkennungsmitteln 4 erkannten Sprachinformation 8
gezielt vorgebbare, mit der erkannten Sprachinformation 8
verknüpfte Informationsdaten auf einem Anzeigemittel 23 dar
stellbar sind. Hierdurch ergibt sich eine Freihandbedienung
und die Möglichkeit für eine "Navigation" im Umfeld von Aug
mented-Reality-Anwendungen auch bei komplexen technischen An
lagen.
Claims (4)
1. System zum Bedienen und Beobachten insbesondere eines Au
tomatisierungssystems und/oder einer Produktions- und/oder
Werkzeugmaschine
- - mit Spracherkennungsmitteln (4) zur Erkennung einer Sprachinformation (8) eines Anwenders (1) und
- - mit Steuerungsmitteln (6) zur Steuerung des Systems in
der Weise,
- - dass in Abhängigkeit der vom Anwender (1) abgegebenen und von den Spracherkennungsmitteln (4) erkannten Sprachinformation (8) mit der erkannten Sprachinfor mation (8) verknüpfte Informationsdaten auf einem An zeigemittel (23) darstellbar sind und/oder
- - dass in Abhängigkeit der vom Anwender (1) abgegebenen und von den Spracherkennungsmitteln (4) erkannten Sprachinformation (8) mit der erkannten Sprachinfor mation (8) verknüpfte weitere Aktionen des Automati sierungssystems und/oder der Produktions- und/oder Werkzeugmaschine durchführbar sind.
2. System nach Anspruch 1,
dadurch gekennzeichnet,
dass das System akustische Wiedergabemittel (3, 21) auf
weist, die zur akustischen Wiedergabe von akustischen In
formationsdaten als Reaktion auf vom Anwender (1) gezielt
über die Spracherkennungsmittel (4) abgegebene Sprachin
formation (8) geeignet sind.
3. Verfahren zum Bedienen und Beobachten insbesondere eines
Automatisierungssystems und/oder einer Produktions-
und/oder Werkzeugmaschine, bei dem eine Sprachinformation
(8) eines Anwenders (1) zumindest zeitweise in der Weise
ausgewertet wird, dass in Abhängigkeit einer vom Anwender
(1) abgegebenen und von Spracherkennungsmitteln (4) er
kannten Sprachinformation (8) mit der erkannten Sprachin
formation (8) verknüpfte Informationsdaten auf einem An
zeigemittel (23) darstellbar sind und/oder dass in Abhän
gigkeit der vom Anwender (1) abgegebenen und von den
Spracherkennungsmitteln (4) erkannten Sprachinformation
(8) mit der erkannten Sprachinformation (8) verknüpfte
weitere Aktionen des Automatisierungssystems und/oder der
Produktions- und/oder Werkzeugmaschine durchführbar sind.
4. Verfahren nach Anspruch 3,
dadurch gekennzeichnet,
dass als Reaktion auf vom Anwender (1) gezielt über die
Spracherkennungsmittel (4) abgegebene Sprachinformation
(8) akustische Informationsdaten an den Anwender (1) über
akustische Wiedergabemittel (3, 21) übermittelt werden.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10051450A DE10051450A1 (de) | 2000-01-27 | 2000-10-17 | System und Verfahren zur Sprachverarbeitung |
PCT/DE2001/000136 WO2001056016A1 (de) | 2000-01-27 | 2001-01-15 | System und verfahren zur sprachverarbeitung |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10003550 | 2000-01-27 | ||
DE10003549 | 2000-01-27 | ||
DE10051450A DE10051450A1 (de) | 2000-01-27 | 2000-10-17 | System und Verfahren zur Sprachverarbeitung |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10051450A1 true DE10051450A1 (de) | 2001-08-16 |
Family
ID=27213607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10051450A Withdrawn DE10051450A1 (de) | 2000-01-27 | 2000-10-17 | System und Verfahren zur Sprachverarbeitung |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE10051450A1 (de) |
WO (1) | WO2001056016A1 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004114281A1 (en) * | 2003-06-19 | 2004-12-29 | Schneider Automation Inc. | System and method for voice input to an automation system |
DE102016006568A1 (de) * | 2016-05-25 | 2017-11-30 | EMAG GmbH & Co. KG | Verfahren zum sprachgeführten Steuern von Werkzeugmaschinen |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021531576A (ja) | 2018-07-17 | 2021-11-18 | アイ・ティー スピークス エル・エル・シーiT SpeeX LLC | インテリジェント産業アシスタントにおける役割およびスキルに基づく権限のための方法、システム、および、コンピュータプログラム製品 |
JP2021530799A (ja) | 2018-07-17 | 2021-11-11 | アイ・ティー スピークス エル・エル・シーiT SpeeX LLC | インテリジェント産業アシスタントのための方法、システム、および、コンピュータプログラム製品 |
WO2020018536A1 (en) | 2018-07-17 | 2020-01-23 | iT SpeeX LLC | Method, system, and computer program product for communication with an intelligent industrial assistant and industrial machine |
CN109345791A (zh) * | 2018-11-20 | 2019-02-15 | 国网河北省电力有限公司电力科学研究院 | 服务质量监控系统及方法 |
US11803592B2 (en) | 2019-02-08 | 2023-10-31 | iT SpeeX LLC | Method, system, and computer program product for developing dialogue templates for an intelligent industrial assistant |
JP6966501B2 (ja) * | 2019-03-25 | 2021-11-17 | ファナック株式会社 | 工作機械および管理システム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE59508731D1 (de) * | 1994-12-23 | 2000-10-26 | Siemens Ag | Verfahren zur Umwandlung von sprachlich eingegebenen Informationen in maschinenlesbare Daten |
JPH10120364A (ja) * | 1996-10-21 | 1998-05-12 | Ohbayashi Corp | 音声操作によるクレーン運転システムおよびその運転方法 |
-
2000
- 2000-10-17 DE DE10051450A patent/DE10051450A1/de not_active Withdrawn
-
2001
- 2001-01-15 WO PCT/DE2001/000136 patent/WO2001056016A1/de active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004114281A1 (en) * | 2003-06-19 | 2004-12-29 | Schneider Automation Inc. | System and method for voice input to an automation system |
DE102016006568A1 (de) * | 2016-05-25 | 2017-11-30 | EMAG GmbH & Co. KG | Verfahren zum sprachgeführten Steuern von Werkzeugmaschinen |
Also Published As
Publication number | Publication date |
---|---|
WO2001056016A1 (de) | 2001-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1250701B1 (de) | System und verfahren zur blickfokussierten sprachverarbeitung | |
DE69923253T2 (de) | Verfahren und Vorrichtung zur Spracherkennung | |
EP0852051B1 (de) | Verfahren zur automatischen steuerung eines oder mehrerer geräte durch sprachkommandos oder per sprachdialog im echtzeitbetrieb und vorrichtung zum ausführen des verfahrens | |
DE10006126B4 (de) | Tragbarer Computer in einer Prozesssteuerungsumgebung | |
EP1451652B1 (de) | System und verfahren zur erstellung einer dokumentation von arbeitsvorgängen zur darstellung in einem augmented-reality-system | |
EP1362281B1 (de) | Anwendergesteuerte verknüpfung von informationen innerhalb eines augmented-reality-systems | |
EP1157315B1 (de) | Augmented-reality-system mit einsatz mobiler geräte | |
EP1250702B1 (de) | System und verfahren zur blickfokussierten sprachverarbeitung mit erzeugung eines visuellen feedbacksignals | |
JP2000516754A (ja) | インテリジェント ヒューマン/コンピュータ インターフェース システム | |
DE69819690T2 (de) | Spracherkennungsvorrichtung unter verwendung eines befehlslexikons | |
DE102010038174A1 (de) | Emotive Vorrichtung zur Informationsübermittlung in einem Kraftfahrzeug | |
DE10051450A1 (de) | System und Verfahren zur Sprachverarbeitung | |
EP1184325B1 (de) | Aufzug mit Sprachsteuerung | |
DE102020210043A1 (de) | Roboterprogrammiervorrichtung und roboterprogrammierverfahren | |
DE102020203541A1 (de) | Werkzeugmaschine und Verwaltungssystem | |
DE102004021379B4 (de) | Bedien- und Beobachtungssystem für industrielle Anlagen und Verfahren | |
DE60125597T2 (de) | Vorrichtung für die Dienstleistungsvermittlung | |
DE102009007286A1 (de) | Verfahren zum Bedienen von Anlagen | |
DE10135837A1 (de) | Bedienen und Beobachten einer Anlage | |
JPH08129476A (ja) | 音声データ入力装置 | |
EP0588108A2 (de) | Anordnung für die Bedienung einer rechnergesteuerten Fertigungseinrichtung | |
DE102020129602A1 (de) | Verfahren zur steuerung von prozessen mittels einer sprachbefehlseingabe | |
JP3936182B2 (ja) | 加工ノウハウ提供方法及びそのシステム | |
JP2001063489A (ja) | 車載機器の集中管理システム | |
DE10116331A1 (de) | System und Verfahren zum kombinierten Einsatz verschiedener Display-/Gerätetypen mit systemgesteuerter kontextabhängiger Informationsdarstellung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8130 | Withdrawal |