DE10006126A1 - Tragbarer Computer in einer Prozesssteuerungsumgebung - Google Patents

Tragbarer Computer in einer Prozesssteuerungsumgebung

Info

Publication number
DE10006126A1
DE10006126A1 DE10006126A DE10006126A DE10006126A1 DE 10006126 A1 DE10006126 A1 DE 10006126A1 DE 10006126 A DE10006126 A DE 10006126A DE 10006126 A DE10006126 A DE 10006126A DE 10006126 A1 DE10006126 A1 DE 10006126A1
Authority
DE
Germany
Prior art keywords
portable computer
signal
image
process control
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10006126A
Other languages
English (en)
Other versions
DE10006126B4 (de
Inventor
Andrew P Dove
Kent A Burr
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fisher Rosemount Systems Inc
Original Assignee
Fisher Rosemount Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fisher Rosemount Systems Inc filed Critical Fisher Rosemount Systems Inc
Publication of DE10006126A1 publication Critical patent/DE10006126A1/de
Application granted granted Critical
Publication of DE10006126B4 publication Critical patent/DE10006126B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control By Computers (AREA)

Abstract

Ein tragbarer Computer (34) zur Verwendung in einer Prozeßsteuerungsumgebung umfaßt eine Verarbeitungseinheit (50), einen Speicher (52) und eine Reihe Peripheriegeräte wie z. B. eine Anzeigeneinspiegelung bzw. ein Head-up Display (40), ein Mikrophon (44), eine Videokamera (38) und ein Fern-Kommunikationsgerät (36), das mit einem Host-Rechner (14) kommuniziert. Der tragbare Computer (34) liefert über die Anzeigeneinspiegelung (40) Informationen, die mit einem oder mehreren Geräten innerhalb des Prozeßsteuerungssystems (10) in Zusammenhang stehen (z. B. diagnostische Informationen, Hilfetexte, Operator-Übersichten, schematische Darstellungen oder Informationen bezüglich der Prozeßparameter). Der tragbare Computer (34) führt außerdem eine Routine aus, die das Bild der Videokamera (38) verarbeitet, um Prozeßsteuerungsgeräte im Gesichtsfeld des Trägers auf Basis von Gerätemerkmalen wie z. B. Geräteanhängern automatisch zu identifizieren, eine Routine, die es einem Träger ermöglicht, die korrekten Anschlüsse der Geräte und/oder Kommunikationskanäle im Prozeßsteuerungssystem (10) zu verifizieren, eine Routine, die ein gemeinsam genutztes Bild sowohl auf der Anzeigeneinspiegelung (40) als auch an einer Operator-Workstation (14) anzeigt, und eine Routine, die Sprachmeldungen in Zusammenhang mit einem beliebigen Gerät im Prozeßsteuerungssystem (10) speichert und abruft.

Description

Die vorliegende Erfindung betrifft allgemein Prozeßsteue­ rungssysteme und insbesondere die Verwendung eines tragbaren Computers, um eine verbesserte Unterstützung in einer Prozeß­ steuerungsumgebung bereitzustellen.
Prozeßsteuerungssysteme wie sie bei chemischen, petrochemischen oder anderen Prozessen verwendet werden, beinhalten im allgemeinen eine zentrale Prozeßsteuerung, die zum Datenaus­ tausch mit mindestens einer Host- oder Operator-Workstation und einem oder mehreren Feldgeräten über analoge, digitale oder kombinierte analoge/digitale Datenbusse gekoppelt ist. Die Feldgeräte, bei denen es sich beispielsweise um Ventile, Ventilstelleinrichtungen, Schalter, Sensoren (z. B. Temperatur-, Druck- und Durchsatzsensoren) etc. handeln kann, führen Steuerfunktionen innerhalb des Prozesses aus wie Öffnen und Schließen von Ventilen und Messen von Prozeßparametern. All­ gemein ausgedrückt empfängt die Prozeßsteuerung Signale, die Prozeßmessungen der Feldgeräte repräsentieren und/oder andere Informationen in Zusammenhang mit den Feldgeräten, verwendet diese Informationen zur Implementierung einer Steuerungsroutine und erzeugt dann Steuersignale, die über die Busse an die Feldgeräte geschickt werden, um den Prozeßbetrieb zu steuern. Informationen von den Feldgeräten und der Steuerung werden typischerweise einer oder mehreren Anwendungen zur Verfügung gestellt, die von der Operator-Workstation ausgeführt werden, um es einem Operator zu ermöglichen, jede gewünschte Funktion im Rahmen des Prozesses auszuführen, z. B. Betrachten des aktu­ ellen Prozeßstatus, Modifizieren der Prozeßoperationen usw.
Obwohl ein Operator oder ein Techniker auf verschiedene Typen von Informationen in Zusammenhang mit dem Prozeßsteuerungs­ system und die individuellen Geräte desselben (z. B. Hilfe-, Diagnose-, Einstellungs- und Konfigurationsinformationen) über die Host-Workstation zugreifen kann, gibt es zahlreiche Prozeß­ steuerungsaktivitäten, zu deren Durchführung ein Techniker in die reale Umgebung der Betriebsanlage gehen muß, wo ihm keine Host-Workstation zur Verfügung steht. Solche Aktivitäten beinhalten beispielsweise die Sichtkontrolle eines Prozeß­ steuergeräts oder -bereichs, das Anschließen von Geräten oder Bussen in der Prozeßsteuerungsumgebung, manuelle Messungen, In­ standsetzung und Austausch von Feldgeräten usw. In diesen Fällen kann der Operator oder Techniker Handbücher über die durchzuführenden Aufgaben mit in die Betriebsanlage nehmen und vor Ort die eventuell benötigten Informationen nachschlagen. Diese Vorgehensweise ist aber sehr umständlich. Es ist eher wahrscheinlich, daß der Techniker ein- oder mehrmals zur Operator-Workstation zurückgeht, um sich die zur Durchführung der gewünschten Aktivität benötigten Informationen zu beschaf­ fen, was sehr zeitaufwendig und fehleranfällig ist. Bei anderen Gelegenheiten führt der Techniker ein Funkgerät oder Walkie- Talkie in die Betriebsanlage mit sich und kommuniziert über Funk mit einem Operator an der Operator-Workstation, um sich die benötigten Informationen geben zu lassen. Der Umfang der über Funk zu vermittelnden Informationen ist jedoch begrenzt und ebenfalls fehleranfällig, da die Kommunikation von Mensch zu Mensch erfolgt. Da außerdem der Techniker normalerweise das Funkgerät in der Hand trägt oder mit den Händen bedient, wird die Durchführung bestimmter Aufgaben wie die Instandsetzung eines Geräts sehr umständlich und schwierig.
Mit der Einführung kleinerer elektronischer Geräte sind mobile Rechner in Form tragbarer Computer in größerem Maße verfügbar geworden. Ein tragbarer Computer enthält im allgemeinen eine Standard-Zentraleinheit (CPU) und einen Speicher, die in einem kleinen Behälter verpackt sind und in einem Beutel am Gürtel oder Gurtzeug eines Benutzers (hierin auch "Träger" genannt) untergebracht werden. Batterien zur Spannungsversorgung des tragbaren Computers werden typischerweise in einem anderen Beutel des Gurtzeugs untergebracht, das so ausgeführt ist, daß der Transport des tragbaren Computers so bequem wie möglich ist. Peripheriegeräte wie Plattenlaufwerke, Festplattenlauf­ werke, PCMCIA-Steckplätze, Mikrophone, Strichcodeleser und Tastaturgeräte können über geeignete Leiter oder Busse kom­ munikativ mit der CPU gekoppelt und, falls gewünscht, kann eines oder mehrere dieser Peripheriegeräte im Gurtzeug unter­ gebracht oder mit diesem verbunden werden. Es ist auch schon vorgeschlagen worden, eine Anzeigeneinspiegelung (Head-up Display - HUD) für den Benutzer des tragbaren Computers bereitzustellen, die dem Träger eine visuelle Benutzerober­ fläche bietet. Ein tragbarer Computer bietet dadurch einem Benutzer mobile Rechenleistung und Speicher, und da der trag­ bare Computer am Benutzer getragen und nicht von diesem ge­ halten wird, braucht der Benutzer die Hände nur zur Betätigung der Tastatur oder anderer Eingabegeräte.
Obwohl schon früher vorgeschlagen wurde, tragbare Computer in Umgebungen wie Büros zu verwenden, ist ein tragbarer Computer wahrscheinlich noch nicht in ein Prozeßsteuerungssystem inte­ griert und in diesem verwendet worden, um die Fähigkeiten eines Operators oder Technikers bei der Identifizierung von Geräten oder der Durchführung anderer Aufgaben in eine Pro­ zeßsteuerungsumgebung zu verbessern. Außerdem brauchen die meisten tragbaren Computer die Verwendung irgendeines hand­ betätigten Eingabegerätes, z. B. eine Tastatur oder einen Twiddler. Obwohl diese Geräte typischerweise ergonomisch aus­ geführt sind, um so anwenderfreundlich wie möglich zu sein, braucht der Benutzer dennoch seine Hände zur Eingabe von In­ formationen oder Daten. In einer Prozeßsteuerungsumgebung jedoch muß ein Techniker typischerweise beide Hände zur Durchführung komplizierter Arbeiten wie Kalibrierung und Instandsetzung von Geräten, Anschließen von Geräten innerhalb des Prozeßsteuerungssystem usw. frei haben.
Ein tragbarer Computer zur Verwendung in einer Prozeßsteue­ rungsumgebung enthält eine Zentraleinheit und einen Speicher, die mit einem oder mehreren Peripheriegeräten verbunden sind, u. a. beispielsweise einer Anzeigeneinspiegelung bzw. einem Head-up Display (HUD), einem Mikrophon, einem Bildgebungsgerät (z. B. eine Videokamera) und einem Fern-Kommunikationsgerät (z. B. einem drahtlosen Ethernet-Sender/Empfänger), der mit einem Host-Rechner eines Prozeßsteuerungssystems kommuniziert. Der tragbare Computer kann über die Anzeigeneinspiegelung Informationen liefern, die mit einem oder mehreren Geräten innerhalb des Prozeßsteuerungssystems in Zusammenhang stehen. Die Informationen, bei denen es sich z. B. um diagnostische Informationen, Hilfetexte, Operator-Übersichten, schematische Darstellungen oder Informationen bezüglich der Prozeßparameter handeln kann, können im Speicher des tragbaren Computers gespeichert oder vom Host-Rechner über das entfernt angeordnete Kommunikationsgerät abgerufen werden.
Der tragbare Computer kann eine Software-Routine oder ein Software- bzw. ein Hardwaregerät enthalten, das ein vom Bild­ gebungsgerät entwickeltes Bild verarbeitet, um automatische Prozeßsteuerungsgeräte innerhalb des Gesichtsfeldes des Trägers auf Basis von Gerätemerkmalen zu identifizieren. Diese Verarbeitung, die auf Basis von Geräteanhängern, die an den Geräten in den Prozeßsteuerungsumgebungen anzubringen sind, erfolgen kann, identifiziert automatisch ein oder mehrere Prozeßsteuerungsgeräte, ohne daß der Benutzer dazu irgendwelche Informationen über ein handbetätigbares Gerät eingeben muß, und kann dazu verwendet werden, dem Träger zu den identifizierten Geräte gehörige Informationen, einschließlich der von den identifizierten Geräten entwickelten Werte der Prozeßparameter, zu liefern.
Des weiteren kann der tragbare Computer zur Prüfung der kor­ rekten Anschlüsse der Geräte und/oder Kommunikationskanäle innerhalb des Prozeßsteuerungssystems verwendet werden. Bei dieser Ausführungsform zeigt eine auf dem tragbaren Computer laufende Software-Routine dem Träger über die HUD Informationen an, die beispielsweise eine Liste der Geräte oder Kommunikationskanäle enthalten, und ermöglicht es dem Träger, das jeweils zu prüfende Gerät und/oder den Kommunikationskanal zu wählen. Der Träger kann mittels verbaler Befehle, die von einer auf dem tragbaren Computer laufenden Spracherkennungs­ routine aufgrund von Befehlen, die über ein beliebiges anderes Eingabegerät eingegeben werden, decodiert werden, ein Gerät oder einen Kanal wählen. Nach der Wahl des entsprechenden E/A- Kanals ermittelt die Routine den aktuellen Wert des Signals auf dem gewählten Kanal über Datenübertragung mit dem Host-Rechner und zeigt dem Träger diesen Wert auf der HUD an. Zu diesem Zeitpunkt kann der Träger den Wert auf dem aktuellen Kommunikationskanal z. B. mittels eines handgeführten Meßgeräts manuell prüfen. Die Routine ermöglicht dem Träger dann, den Wert des Kanals zu ändern, indem er einen neuen Wert beispiels­ weise über Sprachbefehle eingibt. Als nächstes überträgt die Routine den neuen Wert an den Host-Rechner, der den Wert innerhalb des Prozeßsteuerungssystems ändert und die Änderung an den tragbaren Computer zurückmeldet. Die Änderung kann dem Träger über die HUD angezeigt werden, worauf der Träger in die­ sem Zeitpunkt das Signal auf dem Kanal erneut manuell messen kann, um sicherzustellen, daß das gemessene Signal auf den neuen Wert geändert worden ist. Ist dies nicht der Fall, liegt in der Konfiguration des Prozeßsteuerungssystems ein Problem vor. Unter Anwendung dieses Systems kann der Träger die An­ schlüsse innerhalb einer Prozeßsteuerungsumgebung auf eine Weise prüfen, bei der er die Hände frei hat, und ohne durchzu­ führende Änderungen an eine andere Person zu melden, die sich an einer anderen Stelle der Betriebsanlage (z. B. an einer Operator-Workstation) befindet.
Bei einer anderen Ausführungsform ermöglichen Routinen, die auf dem tragbaren Computer und einer Host-Workstation laufen, daß der Träger und ein Operator an der Host-Workstation ein gemeinsames Bild betrachten und manipulieren können, um dadurch die Kommunikation zwischen dem Operator und dem Träger zu verbessern. Das Host-System kann ein von der Videokamera des tragbaren Computers entwickeltes Signal empfangen und ein Basisbild für die gemeinsame Betrachtung wählen. Dieses Bild wird auf der Anzeige des Hosts angezeigt und an den tragbaren Computer zur Anzeige auf der HUD geschickt. Danach können ent­ weder der Operator oder der Träger oder beide das Bild mani­ pulieren, indem beispielsweise ein Cursor im Bild bewegt wird, Daten oder Informationen hervorgehoben oder im Bild angebracht werden usw. Diese Änderungen werden dann an das jeweils andere System geschickt, so daß sie sowohl auf der Anzeige des Hosts als auch auf der HUD angezeigt werden.
Bei einer weiteren Ausführungsform kann der tragbare Computer zum Erzeugen und Speichern von Informationen z. B. in Form von Sprachmeldungen, die ein Gerät oder ein anderes Objekt in der Prozeßsteuerungsumgebung betreffen, verwendet werden. Solche Informationen können dann automatisch an einen Träger oder Operator geliefert werden, der später zu diesem Gerät kommt.
Fig. 1 ist ein schematisches Blockdiagramm eines Prozeßsteue­ rungsnetzes mit einem damit entfernt gekoppelten tragbaren Computersystem;
Fig. 2 ist eine schematisches Blockdiagramm des tragbaren Com­ putersystems von Fig. 1;
Fig. 3 ist ein Flußdiagramm einer Software-Routine, die Sprach­ daten verarbeitet, um Befehle im tragbaren Computersystem von Fig. 2 zu erkennen;
Fig. 4 ist ein Flußdiagramm einer Software-Routine, die auto­ matische Prozeßsteuerungsgeräte auf Basis von vom tragbaren Computersystem nach Fig. 2 gesammelten Videoinformationen erkennt;
Fig. 5 ist ein Flußdiagramm eines Satzes Software-Routinen, die ein gemeinsam genutztes Bild für ein Host-System und das trag­ bare Computersystem nach Fig. 2 bereitstellen;
Fig. 6 ist ein Flußdiagramm einer Software-Routine, die den Benutzer eines tragbaren Computers unterstützt, der Kommunika­ tionsanschlüsse innerhalb einer Prozeßsteuerungsumgebung auf ihre Richtigkeit prüft;
Fig. 7 ist eine erste Bildschirmanzeige des tragbaren Computers aus der Software-Routine nach Fig. 6;
Fig. 8 ist eine zweite Bildschirmanzeige des tragbaren Compu­ ters aus der Software-Routine nach Fig. 6; und
Fig. 9 ist eine weitere Bildschirmanzeige des tragbaren Compu­ ters aus der Software-Routine nach Fig. 6.
Nunmehr sei auf Fig. 1 verwiesen, wonach ein Prozeßsteuerungs­ system 10 eine Prozeßsteuerung 12 enthält, die mit einer Host- Workstation oder einem Host-Rechner 14 (bei dem es sich um einen beliebigen Typ Personal Computer oder Workstation handeln kann) und Feldgeräten 15, 16, 17, 18 und 19 über Eingangs- /Ausgangs-(E/A)-Karten 20 und 22 verbunden ist. Die Steuerung 12, die beispielsweise eine von der Firma Fisher-Rosemount Systems, Inc., vertriebene DeltaVT™ vertriebene Steuerung sein kann, kann mit dem Host-Rechner 14 über z. B. einen Ethernet-An­ schluß und mit den Feldgeräten 15 bis 19 kommunikativ unter Verwendung von Hardware und Software in Zusammenhang mit jedem gewünschten Kommunikationsprotokoll (u. a. beispielsweise dem FOUNDATION™ Fieldbus-, dem HART®-, PROFIBUS®-, WORLDFIP®-, Device-Net®- oder CAN-Protokoll) verbunden sein. Typischerweise implementiert die Steuerung 12 eine darin gespeicherte Prozeßsteuerungsroutine und kommuniziert mit den Geräten 15 bis 22 und dem Host-Rechner 14, um einen Prozeß auf jede gewünschte Weise zu steuern. Die Feldgeräte 15 bis 19 können beliebige Typen Geräte, z. B. Sensoren, Ventile, Sender, Stellglieder usw. sein, während die E/A-Karten 20 und 22 beliebige Typen E/A- Geräte sein können, die jedem gewünschten Kommunikations- oder Steuerungsprotokoll entsprechen.
Wie in Fig. 1 dargestellt ist der Host-Rechner 14 kommunikativ mit einem tragbaren Computersystem 30 über ein Fern- oder drahtloses Kommunikationsgerät wie z. B. einen Fern-Ethernet- Sender/Empfänger 32 gekoppelt. Alternativ kann der Host-Rechner 14 mit dem tragbaren Computersystem 30 über eine physikalische Leitung oder einen Bus verbunden werden, mit Anschlüssen in der gesamten Prozeßsteuerungsumgebung, an die das tragbare Com­ putersystem 30 vorübergehend angeschlossen und wieder davon getrennt werden kann.
Das tragbare Computersystem 30 enthält einen tragbaren Computer 34 mit einem Fern-Sender/Empfänger 36 und einer Anzahl am Computer angeschlossener Peripheriegeräte. Bei der bevorzugten Ausführungsform enthält der tragbare Computer 34 eine CPU- Grundplatine der Pentium-Klasse mit Video, Audio, RAM (z. B. 64 MB) und ROM mit einem Festplattenlaufwerk (z. B. 4,3 GB), die sämtlich in einem tragbaren Computer-Gurtzeug (nicht dargestellt) untergebracht werden. Der tragbare Computer 34 kann eine beliebige Anzahl Steckplätze aufweisen, z. B. PCMCIA- Steckplätze, von denen einer dazu verwendet werden kann, den Fern-Sender/Empfänger 36 und ein anderer, um eine Vido- Verarbeitungsplatine wie eine Platine zur Videobilderfassung aufzunehmen. Die kommunikativ mit dem tragbaren Computer 34 gekoppelten Peripheriegeräte beinhalten ein Bildgebungsgerät 38, das eine Videokamera sein kann, eine HUD 40, einen Lautsprecher 42 (bei dem es sich um einen Kopfhörer/­ Lautsprecher oder um einen anderen Lautsprechertyp handeln kann), ein Mikrophon 44 und ein Eingabegerät 46 für den Benut­ zer, das beispielsweise eine typische Tastatur, eine Maus, eine Rollkugel oder ein Twiddler-Gerät mit einer begrenzten Anzahl leicht zu betätigender Tasten (z. B. Funktionstasten) sein kann, deren Funktion für verschiedene Anwendungen verschieden definiert wird. Selbstverständlich können auch andere Peripheriegeräte zusätzlich oder alternativ verwendet werden.
Während das Bildgebungsgerät 38 vorzugsweise eine Videokamera ist, kann es statt dessen ein anderer Typ Bildgebungsgerät z. B. eine digitale Kamera sein, die kompakt ist und sich vom Träger auf einfache Weise so transportieren läßt, daß er die Hände frei hat. Am meisten bevorzugt ist die Videokamera 38 oder ein anderes bildgebendes Gerät an der HUD 40 oder einem anderen Gerät (z. B. einem tragbaren Kopfhörer) angebracht, das in Blickrichtung des Trägers weist. Eine kleine und leicht mon­ tierbare Videokamera, die für diesen Zweck verwehdet werden kann, wird von der Firma Pulnix Corporation vertrieben. Diese Videokamera entspricht dem hochauflösenden Fernsehstandard (high definition television - HDTV) (d. h. erzeugt ein Farbild mit 800 × 600 Bildpunkten), hat ein Objektiv mit einem Durchmesser von ca. einem viertel bis einem halben Zoll und erzeugt ein hochauflösendes Farbbild. Statt dessen können jedoch auch andere Videokameras verwendet werden, z. B. Videokameras, die hoch- oder niedrigauflösende Farb- oder Schwarzweiß- (d. h. Grauton)-Bilder erzeugen. In einigen Fällen kann eine niedrigauflösende Videokamera (entweder Schwarzweiß- oder Farbbilder) bevorzugt werden, um die zur Verarbeitung eines Bildes in der nachstehend beschriebenen Weise erforderlich Zeit zu verkürzen.
Die HUD 40 kann ein NTSC-Videoformat verwenden und ist vor­ zugsweise eine monokulare HUD wie beispielsweise die M1 HUD, die von der Firma Liquide Image Corp., Kanada, vertrieben wird.
Diese HUD liefert ein Viertel- (d. h. 320 × 240 Bildpunkte) VGA- Grautonbild. Natürlich könnten statt dessen auch HUD's nach dem HDTV-Format (deren Kosten eine Verwendung derzeit noch verbieten) oder andere Farb- oder Grauton-HUDTs, seien sie bereits verfügbar oder künftige Entwicklungen, verwendet wer­ den. Als Lautsprecher 42, Mikrophon 44 und Eingabegerät 46 kann jedes geeignete und leicht transportierbare Gerät verwendet werden, wobei diese vorzugsweise so anzubringen sind, daß der Träger seine Hände frei hat. Bei einer Ausführungsform kann ein Knochenleitungsmikrophon sowohl als Mikrophon 44 als auch als Lautsprecher 42 arbeiten. Wie bekannt, nutzen Knochen­ leitungsmikrophone die Knochen im Kiefer des Trägers, um Sprachsignale zu erkennen und/oder um Tonsignale am Ohr des Trägers zu erzeugen.
Bei installiertem tragbarem Computersystem 30 hat der Träger immer noch beide Hände frei, um andere Aktivitäten auszuführen wie beispielsweise Instandsetzen von Geräten, Vornehmen von Messungen oder Halten anderer Instrumente. Natürlich kann zur Betätigung des Eingabegeräts 46 eine oder beide Hände erfor­ derlich sein, es ist aber dennoch vorzugsweise so angebracht, daß der Träger die Hände frei hat.
Wie aus Fig. 2 ersichtlich ist, enthält der tragbare Computer 34 eine mit einem Speicher 52 gekoppelte CPU 50, bei dem es sich um jeden Speichertyp handeln kann, einschließlich z. B. eines Plattenlaufwerks (z. B. Festplatten-, Magnetplatten- oder Laserplattengerät), RAM, ROM, EEPROM, EPROM etc. Die CPU 50, die einen oder mehrere Prozessoreinheiten enthalten kann (oder andere festverdrahtete oder Firmwareelemente), die unabhängig voneinander oder koordiniert arbeiten, führt eine oder mehrere Software-Anwendungen (im Speicher 52 gespeichert) aus, wobei sie die Eingaben in den tragbaren Computer 34, im Speicher 52 gespeicherte Informationen und/oder Informationen verwendet, die vom Host-System über den Sender/Empfänger 36 geliefert wer­ den. Außerdem stellt die CPU 50 Ausgaben an die Peripherie­ geräte sowie an das Host-System über das entfernte Kommunika­ tionsgerät, d. h. den Sender/Empfänger 36, bereit. Bei der Aus­ führungsform von Fig. 2 ist die CPU 50 so dargestellt, daß sie eine Steuerung 54 enthält (die hardware- oder softwaremäßig implementiert sein kann) und die das zum tragbaren Computer 34 gehörige Betriebssystem ausführt, um verschiedene Eingaben von den Peripheriegeräten und anderen Komponenten des tragbaren Computers 34 zu erkennen und eine oder mehrere Anwendungen abzuarbeiten. Die in Fig. 2 dargestellte CPU 50 enthält eine Spracherkennungseinheit 56 oder führt diese aus, eine optische Zeichenerkennungs-(optical character recognition - OCR)-Einheit 60, einen Lautsprechertreiber 62 und einen HUD-Treiber 64. Außerdem ist die CPU 50 mit einem Video-Einzelbild-Grabber 68 gekoppelt, der auf einer getrennten Videoverarbeitungsplatine bereitgestellt werden kann.
Die Spracherkennungseinheit 56, bei es sich z. B. um das Dragon Dictate System, das von der Firma Dragon Systems, Boston, Massachusetts, vertrieben wird, oder um eine andere gewünschte Spracherkennungseinheit handeln kann, ist typischerweise softwaremäßig implementiert, kann aber alternativ auch auf einer getrennten Prozessorplatine ausgeführt sein. In jedem Fall empfängt die Spracherkennungseinheit 56 Sprache, Stimme oder andere Tonsignale vom Mikrophon 44, führt damit eine Spracherkennungsverarbeitung durch und liefert auf Basis der erkannten Spracheingaben Befehle an die Steuerung 54. Die Spracherkennungseinheit 56 kann jede gewünschte oder bekannte Verarbeitung der empfangenen Sprachsignale ausführen, um bestimmte erkannte Sprachbefehle oder Worte zu identifizieren. Während dieses Prozesses kann die Spracherkennungseinheit 56 einen identifizierten Sprachbefehl mit einer Liste gespeicherter oder erkannter Sprachbefehle (die beispielsweise in Speicher 52 gespeichert sind) vergleichen, um zu bestimmen, ob ein gültiger Befehl vom Träger gegeben wird. Ist ein erkannter Befehl empfangen worden, schickt die Spracherkennungseinheit 56 den Befehl zur weiteren Verarbeitung an die Steuerung 54. Falls gewünscht, kann selbstverständlich die Steuerung 54 bestimmen, ob ein Sprachbefehl ein gültiger oder erkannter Befehl im Rahmen der von der Steuerung 54 abgewickelten Anwendung ist, und kann den Benutzer informieren, wenn ein nicht erkannter Befehl empfangen wird. Bekannterweise kann die Spracherkennungseinheit 56 auch Lernfähigkeiten haben.
Fig. 3 zeigt ein Blockdiagramm einer Software-Routine 80, die ein Sprachsignal verarbeitet, um Sprachbefehle zu identifi­ zieren, und die vom tragbaren Computersystem 30 ausgeführt werden kann, um dem Träger zu ermöglichen, Daten oder Befehle verbal und damit ohne die Hände zu gebrauchen, einzugeben. In Block 82 der Routine 80 wird ein Sprachsignal vom Mikrophon 44 empfangen. Das Sprachsignal wird in Block 84 verarbeitet, um einen Sprachbefehl im Signal zu identifizieren, wobei jede ge­ wünschte oder standardmäßige Spracherkennungsverarbeitungs­ routine verwendet werden kann wie oben angegeben. In Block 86 werden dann der identifizierte Befehl oder die Eingabe mit einem Satz Befehlen verglichen, der beispielsweise im Speicher 52 gespeichert ist, um zu bestimmen, ob der Befehl gültig ist. Wird in Block 88 bestimmt, daß der Sprachbefehl erkennt worden. ist, wird der Befehl in Block 90 zur Steuerung 54 geschickt, um von der Anwendung verwendet zu werden, die einen solchen Befehl erwartet. Danach oder wenn das Sprachbefehlssignal in Block 88 nicht als gültiger Befehl erkannt wird, geht die Steuerung zurück zu Block 82, in dem weitere Sprachsignale empfangen und verarbeitet werden. Ist ein ungültiger Befehl empfangen worden, kann die Routine 80 selbstverständlich dem Träger eine ent­ sprechende Anzeige liefern.
Die im tragbaren Computer 34 nach Fig. 2 bereitgestellte Video- Verarbeitungseinheit enthält einen mit der OCR-Einheit 60 gekoppelten Einzelbild-Grabber (Frame-Grabber) 68, könnte jedoch ebenso andere Video- oder Bildverarbeitungs- Hardware/Software enthalten. Der Einzelbild-Grabber 68 kann z. B. eine Nogatek-Platine sein, die von der Firma Nogatek vertrieben wird, während die OCR-Einheit 60 z. B. das Carina Echtzeit-OCR-Paket sein kann, das von der Firma Adaptive Recognition Hungary, Budapest, Ungarn, vertrieben wird. Obwohl diese bestimmte OCR-Einheit bisher zur Identifizierung der amtlichen Kennzeichen von Fahrzeugen verwendet worden ist, ist anzunehmen, daß dieses Produkt oder ein diesem gegenüber geringfügig modifiziertes abgeleitetes Produkt einwandfrei zur Erkennung der nachstehend beschriebenen Merkmale arbeiten würde. Natürlich könnten auch andere geeignete Einzelbild- Grabber-Platinen und OCR-Pakete verwendet werden. Wie in Fig. 2 dargestellt, empfängt der Einzelbild-Grabber 68 ein Bildsignal (das mehrere Einzelbilder umfaßt) von der Videokamera 38 und stellt der OCR-Einheit 60 ein Ausgangseinzelbild zur Verfügung. (Erzeugt jedoch das Bildgebungsgerät 38 ein Standbild, wie das von einer digitalen Kamera, kann der Einzelbild-Grabber 68 natürlich entfallen).
Bei einer Ausführungsform verarbeitet die OCR-Einheit 60 das empfangene Bild, um Gerätemerkmale im Bild zu identifizieren, und diese Gerätemerkmale dienen dann dazu, eines oder mehrere Geräte im Sichtfeld der Videokamera 38 zu identifizieren. Die OCR-Einheit 60 kann beispielsweise nach vorgegebenen Symbolen suchen und diese erkennen, wie alphanumerische Symbole auf den Feldgeräten, und die erkannten Symbole zur Identifizierung der Geräte der Steuerung 54 bereitstellen. Falls gewünscht, kann der Ausgang der Videokamera 38 natürlich auch für andere Zwecke verwendet werden. So kann z. B. das Videobild der Steuerung 54 zur Anzeige auf der HUD 40 geliefert und/oder über den Sen­ der/Empfänger 36 an den Host-Rechner 14 zur Betrachtung und/­ oder Verarbeitung durch den Host-Rechner 14 geschickt werden.
Wie aus Fig. 4 zu ersehen ist, kann eine in Form eines Fluß­ diagramms dargestellte Routine 100 vom tragbaren Computer 34 ausgeführt werden, um Geräte innerhalb des Sichtfeldes des Trägers auf Basis der vom Bildgebungsgerät 38 erfaßten Video­ eingangs automatisch zu erkennen. In Block 102 wird ein Video- oder ein anderes Bild vom Bildgebungsgerät 38 abgerufen. Ist das Bildgebungsgerät 38 eine Videokamera, kann im Block 102 der Einzelbild-Grabber 68 zum Herausgreifen eines bestimmten Video- Einzelbildes eingesetzt werden. Ist das Bildgebungsgerät jedoch beispielsweise eine digitale Kamera, kann im Block 102 ohne Hilfe des Einzelbild-Grabbers 68 direkt auf das Bild zu­ gegriffen werden.
In Block 104 wird dann das Videobild oder das Einzelbild ver­ arbeitet, um potentielle Gerätemerkmale im Videoeinzelbild zu identifizieren. Bei einer Ausführungsform ist das Gerätemerkmal ein Geräteanhänger, der gemäß OSHA für jedes der Feldgeräte innerhalb einer Prozeßsteuerungsumgebung zwingend vorge­ schrieben ist. Im allgemeinen weisen solche Geräteanhänger einen rechtwinkligen Halter oder Rahmen (typischerweise ein bis zwei Zoll hoch und drei bis vier Zoll breit) mit alpha­ numerischen Schriftzeichen auf, die darin eingeätzt oder auf andere Weise eingraviert oder eingeschnitten sind, so daß sie für Personen in der Prozeßsteuerungsumgebung sichtbar sind. Die alphanumerischen Schriftzeichen haben normalerweise eine vom Rahmen verschiedene Farbe, um diese Schriftzeichen besser sichtbar zu machen. Bei Erkennen der Geräteanhänger wird das Bild in Block 104 gescannt, um Bereiche, die wahrscheinlich Geräteanhänger enthalten, z. B. rechtwinklige Flächen innerhalb des Bildes, Bereiche mit bestimmten Farbbereichen, Bereiche mit alphanumerischen Schriftzeichen usw. zu identifizieren. Selbst­ verständlich kann bei der Suche nach diesen Gerätemerkmalen jede gewünschte Verarbeitung angewendet werden. Danach werden in Block 106 die Gerätemerkmale innerhalb der identifizierten Bereiche erkannt oder decodiert. Vor allem bei der Identifizierung von Geräteanhängern kann die optische Zeichen­ erkennung (unter Verwendung der OCR-Einheit 60) in Block 106 für die identifizierten Merkmale angewendet werden, um eine vorläufige Gerätekennung zu erzeugen. Befindet sich mehr als ein Gerät innerhalb des in Verarbeitung befindlichen Bildes, können in Block 104 und 106 zahlreiche Merkmale (z. B. Geräte­ anhänger) erkannt und zahlreiche vorläufige Gerätekennungen identifiziert werden.
Danach wird in Block 108 jede der vorläufigen Gerätekennungen mit einer Liste Gerätekennungen, die beispielsweise im Speicher 52 abgelegt sind, verglichen, um die Existenz von Geräten entsprechend der vorläufigen Gerätekennungen zu überprüfen. Sind entsprechende Geräte vorhanden, werden die Gerätekennungen auf ihre Richtigkeit geprüft, und jede der verifizierten Gerätekennungen wird in Block 110 an die Steuerung 54 zur Ver­ wendung in anderen Anwendungen, zur Anzeige für den Träger über die HUD 40 und/oder zur Weiterleitung an den Host-Rechner 14 über den Sender/Empfänger 36 geliefert.
Obwohl die Routine 100 Geräte auf Basis jeder Art beobachtbarer Merkmale identifizieren kann, wird bevorzugt, daß die Routine 100 Geräte auf Basis von Gerätemerkmalen identifiziert, d. h. auf Merkmalen, die Bestandteil des im Feld angeordneten Geräts sind, ungeachtet der automatischen Erkennung und Iden­ tifizierung durch das tragbare Computersystem 30. Mit anderen Worten, soll die Routine 100 vorzugsweise Geräte auf Basis von Merkmalen, die nicht einzig zum Zweck der Erkennung durch das tragbare Computersystem 30 auf dem Gerät angebracht wurden, identifizieren, obwohl es möglich wäre, Strichcode oder andere eindeutige Kennungen auf jedem der Geräte in der Prozeßsteue­ rungsumgebung anzubringen. Werden Erkennung und Identifizierung anhand von Gerätemerkmalen vorgenommen, sind keine zusätzlichen Schritte zur Etikettierung oder sonstigen Markierung jedes Geräts in einer Prozeßsteuerungsumgebung zum speziellen Zweck der Identifizierung durch einen tragbaren Computer erforderlich.
Andere Anwendungen, die z. B. dem Träger über die HUD 40 auto­ matisch Informationen anzeigen, können dem Träger die identi­ fizierten Geräte oder andere zu dem (den) identifizierten Gerät(en) gehörigen Informationen über die HUD anzeigen und/­ oder können die identifizierten Gerätekennungen an das Host- System 14 senden. Natürlich kann die Liste der erkannten Geräte im Speicher 52 des tragbaren Computers 34 oder in einem anderen Speicher abgelegt werden, z. B. einem Speicher im Host-System 14, auf den im Block 108 über entfernt angeordnete Kommunikationsgeräte zugegriffen werden kann, um vorläufige Gerätekennungen auf ihre Richtigkeit zu prüfen. Es versteht sich, daß nicht unbedingt jeder der Schritte der Routine 100 vom tragbaren Computersystem 30 ausgeführt werden muß. Einer oder mehrere dieser Schritte können statt dessen auch vom Host- Rechner 14 ausgeführt werden, der die Routine 100 im Datenaustausch mit dem tragbaren Computersystem 30 ausführen kann.
Nunmehr sei erneut auf Fig. 2 verwiesen, wonach der Lautspre­ chertreiber 62 Signale von der Steuerung 54 erhält und diese verarbeitet, indem er sie z. B. in analoge Standard-Audiosignale wandelt, sie verstärkt etc. Der Lautsprechertreiber 62 liefert dann das verarbeitete Signal an den Lautsprecher 42. Es liegt nahe, daß der Lautsprechertreiber 62 und die Steuerung 54 verwendet werden können, um zuvor aufgezeichnete Signale wiederzugeben, die beispielsweise im Speicher 52 oder im Speicher des Host-Rechners 14 gespeichert sind, und/oder um Echtzeit-Audioinformationen des Host-Systems wie die Stimme eine Operators am Host-System oder die Stimme eines anderen Benutzers eines tragbaren Computers aus einem anderen Bereich der Prozeßsteuerungsumgebung weiterzuleiten. Die Sprach- oder Audiosignale, die vom Lautsprecher 42 wiederzugeben sind, kön­ nen dem tragbaren Computer 34 über den Sender/Empfänger 36 vom Host-System oder über ein anderes mit dem tragbaren Computer 34 gekoppeltes Audiokommunikationssystem bereitgestellt werden.
Analog empfängt der HUD-Treiber 64 von der Steuerung 54 Signale einschließlich Graphiken, die auf der HUD 40 anzuzeigen sind und verarbeitet diese Signale zur Anzeige auf der HUD 40 in entsprechender Weise. Bei manchen Ausführungsformen können der HUD-Treiber 64 und die HUD 40 zusammen mit dem Twiddler 46 oder dem Mikrophon 44 verwendet werden, um eine Standard- Betriebsumgebung eines Computers bereitzustellen, beispiels­ weise ein Windows-Bild mit Dialogkästchen, Text, Graphik und dgl. Bei dieser Umgebung kann der Benutzer einen Cursor verfah­ ren, Informationen eingeben oder das Bild auf der HUD 40 mani­ pulieren, um z. B. eine Anwendung auszuführen oder Entschei­ dungen in Zusammenhang mit einer vom tragbaren Computer 34 ausgeführten Anwendung zu treffen.
Die Steuerung 54 verwendet den Sender/Empfänger 36 in jeder gewünschten oder auf standardmäßige Weise und liefert Signale an den Sender/Empfänger 36 zur Übertragung an das Host-System unter Verwendung jedes gewünschten Kommunikationsprotokolls. Die Steuerung 54 ihrerseits empfängt und decodiert Informatio­ nen vom Host-Rechner 14 über den Sender/Empfänger 36 unter Verwendung jedes gewünschten Kommunikationsprotokolls.
Das tragbare Computersystem 30 nach Fig. 2 kann verwendet wer­ den, um dem Träger zahlreiche Arten von Informationen bereitzu­ stellen und/oder um Funktionen in der Prozeßsteuerungsumgebung auszuführen, die die Aufgaben des Trägers erleichtern und be­ schleunigen, wenn dieser z. B. die Anschlüsse verschiedener Ge­ räte in der Prozeßsteuerungsumgebung kontrolliert, einrichtet, instandsetzt, kalibriert und prüft. Mit dem tragbaren Computer­ system 30 kann ein Träger beispielsweise über die HUD 40 entweder automatisch oder nach entsprechenden Eingaben über eines der Peripheriegeräte Informationen abfragen und prüfen, die zu bestimmten Geräten oder Bereichen der Prozeßsteuerungs­ umgebung gehören. Der tragbare Computer 34 kann jede gewünschte Information, die zu einem bestimmten Gerät oder allgemein zum Prozeßsteuerungssystem gehört, speichern oder mit dem Host- Rechner 14 kommunizieren, um diese Informationen zu erhalten und diese Information dem Träger über die HUD 40 auf dessen Anforderung oder wenn das tragbare Computersystem 30 ein Gerät im Gesichtsfeld des Trägers erkennt wie oben beschrieben anzeigen. Die angezeigte Information kann Prozeßinformationen wie schematische Darstellungen, Operator-Übersichten des Pro­ zeßsteuerungssystems, Geräteinformationen wie Gerätelisten, Hilfetexte, Diagnoseinformationen und sogar Informationen zu den Prozeßparametern (Messungen, Parameterwerte etc.) enthal­ ten, die zu einem oder mehreren der innerhalb des Prozeß­ steuerungssystems angeschlossenen Geräte gehören.
Um derartige Informationen betrachten zu können, kann der sich bei dem Gerät befindende Träger eine Gerätekennung, z. B. die Nummer eines Geräteanhängers oder eines Gerätes eingeben, wo­ durch die Steuerung 54 veranlaßt werden kann, bestimmte Arten von Geräteinformationen wie Hilfetexte, Kalibrierwerte, Diagno­ sen, Parameterwerte etc. automatisch anzuzeigen. Der Träger kann natürlich auch die Gerätekennung mittels des Twiddlers 46, des Mikrophons 44 oder eines anderen Eingabegerätes eingeben. Bei Verwendung des Mikrophons 44 kann die Spracherkennungsein­ heit 56 z. B. eine gesprochene Geräteanhängernummer oder eine Gerätebezeichnung identifizieren und diese Geräteanhängernummer oder die Gerätebezeichnung an die Steuerung 54 liefern. Falls gewünscht, kann die Spracherkennungseinheit 56 so eingerichtet werden, daß sie eine Gerätenummer, eine Gerätebezeichnung oder eine andere Gerätekennung empfangen und die eingegebene Kennung mit einer Liste gültiger Gerätenummern oder Gerätebezeichnungen im Speicher 52 vergleichen kann.
Bei einer Ausführungsform werden wie oben beschrieben die Ge­ räte im Sichtfeld des Trägers automatisch von der Videoverar­ beitungsschaltung erkannt und können, wenn eine derartige Er­ kennung stattfindet, dem Träger über die HUD 40 automatisch in jedem gewünschten Format angezeigt werden. Ist die Information im Speicher 52 gespeichert, kann die Steuerung 54 automatisch auf die Information zugreifen und der HUD 40 mittels des HUD- Treibers 64 bereitstellen oder auf dieser anzeigen.
In jedem dieser Fälle kann die Steuerung 54 einem Benutzer eine Liste erkannter Geräte anzeigen, so daß dieser die Anzeige von Informationen zu einem dieser Geräte wählen kann, oder die Steuerung 54 kann wahlweise Informationen zu den erkannten Geräten automatisch über die HUD 40 anzeigen. Es ist von Bedeu­ tung, daß es die Verwendung des Mikrophons 44, der Videokamera 38 und der zugehörigen Hardware/Software des tragbaren Computersystems 30 dem Träger ermöglicht, zu den Geräten (oder Bereichen oder anderen Einheiten des Prozeßsteuerungssystems) gehörige Informationen automatisch so anzuzeigen, daß er seine Hände frei hat, d. h. ohne Daten oder sonstige Informationen über ein handgeführtes oder handbetätigtes Gerät einzugeben. Damit hat der Träger seine Hände frei zur Durchführung anderer Aufgaben wie Instandsetzen, Austauschen oder Kalibrieren von Geräten, Handhaben anderer Werkzeuge etc., was sehr vorteilhaft ist. Außerdem kann das tragbare Computersystem 30 Informationen empfangen und anzeigen, die von den Geräten gemessen oder in diesen gespeichert wurden, die der Träger tatsächlich inspiziert, ohne daß getrennte Skalen oder Anzeigen gebraucht werden, die physikalisch an der Außenseite jedes Gerätes ange­ ordnet sind.
Bei einer anderen Ausführungsform kann das tragbare Computer­ system 30 verwendet werden, um einem z. B. am Host-Rechner 14 befindlichen Operator und einem Träger über die HUD 40 die ge­ meinsame Betrachtung (z. B. Anzeige) bereitzustellen, um dadurch die Verständigung zwischen beiden zu verbessern. Eine solche gemeinsame Betrachtungsanwendung gestattet es einer oder beiden dieser Personen, das Bild zu manipulieren, um beispielsweise bestimmte Teile des Bildes zu zeigen oder hervorzuheben oder um Daten auf dem Bild anzubringen. Diese Maßnahmen können gemeinsam mit Sprachkommunikation erfolgen, um dadurch den Sprechverkehr zwischen dem Träger und einem Operator am Host- Rechner 14 zu verbessern.
Fig. 5 zeigt ein Blockdiagramm einer Software-Routine 116, die auf dem Host-Rechner 14 laufen kann, und ein Blockdiagramm einer Software-Routine 118, die auf dem tragbaren Computer­ system 30 laufen kann, um eine gemeinsame Betrachtung oder Anzeige zu implementieren. In Block 120 der Routine 118 wird ein Videobild erfaßt und über den Sender/Empfänger 36 an den Host-Rechner 14 gesendet. (Der Datenaustausch zwischen dem tragbaren Computersystem 30 und dem Host-Rechner 14 ist in Fig. 5 mit gestrichelten Linien dargestellt). Dieses Bild kann das gesamte aus mehreren Einzelbildern bestehende von der Video­ kamera 38 erzeugte Bild oder eines oder mehrere Einzelbilder desselben sein. In Block 122 der Routine 116 wird das Videobild empfangen, und in Block 124 wird das Videobild dem Operator über eine zum Host-Rechner 14 gehörige Anzeige angezeigt. In Block 126 kann der Operator am Host-Rechner 14 ein Einzelbild des Videobildes als Basis für die gemeinsame Betrachtung (ein Basisbild) wählen. In Block 126 kann beispielsweise einfach das zuletzt empfangene Einzelbild des empfangenen Videosignals angezeigt werden, bis der Operator angibt, daß ein Festbild erforderlich ist. Wahlweise kann der Operator in Block 126 die empfangenen Einzelbilder abspielen, um ein gewünschtes Bild zu wählen, oder er kann auf andere Weise ein Basisbild wählen. Wählt der Operator kein Basisbild zur gemeinsamen Anzeige, geht die Steuerung in Block 126 zurück zu Block 122. Wählt der Operator in Block 126 ein Basisbild, wird das gewählte Basisbild in Block 128 an das tragbare Computersystem 30 zur Anzeige für den Träger auf der HUD 40 geschickt. Falls gewünscht, kann das gewählte Basisbild im Block 128 auch dem Operator über die Anzeige des Host-Rechners 14 angezeigt werden.
Als nächstes wird in Block 130 der Routine 116 bestimmt, ob vom Operator des Host-Rechners Änderungen des Basisbildes vor­ genommen oder gefordert werden. Solche Änderungen können bei­ spielsweise das Verfahren eines Cursors oder Zeigers, das Zeichnen im Bild, das Hervorheben von Bildbereichen, das An­ bringen von Informationen oder anderen Daten auf dem Bild oder sonstige andere gewünschte Änderungen enthalten, die es dem Operator ermöglichen, mit dem das Bild verwendenden Träger zu kommunizieren. Diese Änderungen können vom Operator mittels be­ liebiger gewünschter Systemprotokolle und Peripheriegeräte, beispielsweise einer Maus und einer Tastatur, vorgenommen wer­ den. Nimmt der Operator Änderungen des Bildes vor, werden diese in Block 132 über das Sender/Empfängernetz 32/36 an das tragbare Computersystem 30 geschickt. Die Änderungen können mit jedem gewünschten Protokoll übertragen werden, und es können wie gewünscht entweder die betreffenden Änderungen oder ein komplettes die Änderungen enthaltendes neues Einzelbild an das tragbare Computersystem 30 geschickt werden. Bei einer Aus­ führungsform können Änderungen in Form von Zeigerbewegungen als neue Zeigerkoordinaten übertragen werden. Nach Ausführen und Senden der Bildänderungen an das tragbare Computersystem 30 oder wenn der Host-Operator keine neuen Änderungen mehr vor­ nimmt, wird das Bild des Host-Systems in Block 134 aufgefrischt (unter Einbeziehung der vom Operator und der vom tragbaren Computersystem ausgeführten und an das Host-System geschickten Änderungen). Die Steuerung der Routine 118 geht dann zurück zu Block 130, um andere vom Host-Operator ausgeführte Änderungen zu erkennen.
Die Routine 118 enthält einen Block 136, der das vom Host- System empfangene Basisbild auf der HUD 40 anzeigt. In Block 138 werden dann vom Träger am Bild vorgenommene Änderungen erkannt, wobei diese Änderungen mit jedem verfügbaren Ein­ gabegerät einschließlich des Mikrophons 44 und des Twiddlers 46 erfolgt sein können. Nimmt der Träger Änderungen am dar­ gestellten Bild vor, werden diese in Block 140 an den Host- Rechner 14 geschickt. Anschließend oder wenn keine vom Träger veranlaßten Änderungen erkannt werden, wird das Bild auf der HUD 40 in Block 142 aufgefrischt, wobei Änderungen durch den Träger sowie Änderungen, die am Host-Rechner 14 erfolgten und von diesem empfangen wurden, berücksichtigt werden. Die Steu­ erung der Routine 118 geht dann zu Block 138 zurück, um weitere vom Träger veranlaßten Änderungen zu erkennen.
Auf diese Weise laufen die Routinen 116 und 118 auf den Host- Rechner 14 und dem tragbaren Computersystem 30 ab, um eine ge­ meinsame Betrachtung oder Szene bereitzustellen, die vom Host- Operator oder vom Träger oder von beiden manipuliert werden kann, um die Verständigung zwischen beiden zu verbessern. Ob­ wohl das Basisbild hier als von einem vom tragbaren Computer­ system 30 erfaßten Bild abgeleitet beschrieben worden ist, braucht dies nicht der Fall zu sein. Das Basisbild könnte statt dessen eine gespeicherte Ansicht des Operators, eine schematische Darstellung usw. in Zusammenhang mit dem inter­ essierenden Prozeß oder Gerät sein. In jedem Fall macht es die gemeinsame Ansicht dem Host-Operator möglich, verschiedene Ele­ mente innerhalb des angezeigten Bildes auf eine solche Weise herauszugreifen und zu besprechen, die der Träger durch Betrachten einfach nachvollziehen kann. Falls gewünscht, kann außerdem der Träger Änderungen des Bildes vornehmen und dazu z. B. denselben oder einen anderen Cursor verwenden, um die Verständigung mit dem Host-Operator zu unterstützen. Falls gewünscht, braucht es dem Träger nicht möglich zu sein, Ände­ rungen des Bildes vorzunehmen, wodurch die Routinen 116 und 118 nach Fig. 5 vereinfacht werden. Falls gewünscht, kann der Träger außerdem das zu verwendende Basisbild wählen, bevor es an den Host-Rechner 14 geschickt wird.
Eine weitere Anwendung des tragbaren Computersystems 30 in­ nerhalb einer Prozeßsteuerungsumgebung wird in Zusammenhang mit der in Form eines Flußdiagramms in Fig. 6 dargestellten Routine 150 beschrieben, die vorzugsweise vom tragbaren Computersystem 30 ausgeführt wird. Grundsätzlich ermöglicht es die Routine 150 dem Träger, die richtigen Anschlüsse verschiedener Geräte oder Kommunikationskanäle (z. B. E/A-Anschlüsse) innerhalb einer Prozeßsteuerungsumgebung auf ihre Richtigkeit zu überprüfen, wobei er seine Hände frei hat und nicht der Hilfe durch einen Operator an einem Host-Gerät bedarf. Früher mußte ein Techniker mit einem handgeführten Meßgerät, z. B. einem Spannungsmesser, sowie einem handgeführten Funkgerät, über das der Techniker mit einem Operator an der Host-Workstation kommunizierte zur Überprüfung der richtigen Anschlüsse der Geräte oder der Kommunikationskanäle innerhalb einer Prozeßsteuerungsumgebung in die Betriebsanlage gehen. Dazu mußte der Techniker erst bis zu dem Gerät gehen, dem Host-Operator über das handgeführte Funkgerät melden, daß er vor Ort sei und dann angeben, welchen Kommunikationskanal er prüfen werde. Zu diesem Zeitpunkt mußte der Techniker ein handgeführtes Meßgerät bedienen und das Signal auf der Leitung tatsächlich messen. Danach teilte der Techniker dem Host-Operator über das handgeführte Funkgerät mit, was seine Messung des Signals ergeben hat, so daß der Host-Operator sicherstellen konnte, daß das gemessene Signal das tatsächliche Signal auf dem gewählten Kommunikationskanal war. Anschließend forderte der Techniker den Host-Operator auf, das Signal des fraglichen Kanals zu ändern, und der Host- Operator veranlaßte die Änderung des Signals oder des Wertes des Kommunikationskanals. Der Techniker maß dann das Signal auf dem Kanal erneut, um sicherzustellen, daß die Änderung tatsächlich erfolgt ist. Dies zeigt, daß dieser Prozeß viele schwierige Dialoge zwischen dem Host-Operator und dem Techniker erforderte und innerhalb einer ausgedehnten und komplexen Prozeßsteuerungsumgebung schwer durchzuführen war, in der der Techniker versuchte, gleichzeitig ein handgeführtes Funkgerät, ein handgeführtes Meßgerät zu bedienen und sich Zugang zu den entsprechenden Geräten oder Kommunikationsleitungen zu verschaffen. Außerdem stützte sich dieser Prozeß auf die Verständigung zwischen dem Host-Operator und dem Techniker, was zu Verwechslungen und Fehlern aufgrund von Verständnisschwierigkeiten führen konnte.
Mit der Routine 150 von Fig. 6 kann ein Träger Geräteanschlüsse von Kommunikationskanälen, z. B. E/A-Anschlüsse, innerhalb eines Prozeßsteuerungssystems mit relativ freien Händen (d. h. er hält nur ein Meßgerät) überprüfen, ohne dabei mit einem Operator an einer Host-Workstation kommunizieren zu müssen. Statt dessen kann das tragbare Computersystem 30 mit dem Host-Rechner direkt kommunizieren, um dem Träger alle benötigten Informationen zur Verfügung zu stellen und alle vom Träger geforderten Änderungen vorzunehmen, um die Anschlüsse eines Gerätes oder eines Kommunikationskanals im Prozeßsteuerungssystem prüfen zu können. Bei Anwendung der Routine 150 kann der Träger in die Prozeßsteuerungsumgebung gehen, eine Liste der Geräte und/oder zu einem Gerät gehörigen Kommunikationskanäle abzurufen, ein bestimmtes Gerät und/oder einen bestimmten Kommunikationskanal zur Prüfung wählen, ermitteln, wie das Signal des Geräts oder auf der zu prüfenden Leitung beschaffen sein sollte, Änderungen des Signals vornehmen und sowohl das ursprüngliche als auch das geänderte Signal messen, um den korrekten Anschluß des Gerätes oder des Kanals zu prüfen - und dies alles, ohne einen Host- Operator.
Die Routine 150 enthält einen Block 152, in dem eine Liste der Geräte auf der HUD 40 angezeigt wird, die geprüft werden kön­ nen. Der Träger kann ein bestimmtes zu prüfendes Gerät wählen, indem er eines der aufgelisteten Geräte in beliebiger Weise an­ wählt. Vorzugsweise spricht der Träger Befehle in das Mikrophon wie UP (nach oben), DOWN (nach unten), LEFT (nach links), RIGHT (nach rechts), ENTER (Eingabe) etc. die erkannt und an die Steuerung 54 übergeben werden, um einen Cursor zu verfahren (bei dem es sich um einen hervorgehobenen Bereich handeln kann) oder um Elemente auf einem Windows-Bildschirm der HUD 40 zu wählen. Selbstverständlich kann der Träger auch ein Gerät mittels des Twiddlers 46 oder eines anderen Tastengeräts wäh­ len, indem er das Mikrophon zur Eingabe der Bezeichnung oder des Anhängers eines Geräts oder die Videokamera 38 zur auto­ matischen Identifizierung eines Geräts wie bezüglich der Rou­ tine 100 nach Fig. 4 beschrieben verwendet.
Der Block 154 wartet, bis der Träger ein Gerät wählt, und nach der Wahl eines Geräts durch den Träger wird in Block 156 über die HUD 40 eine Liste der zu dem gewählten Gerät gehörigen Kommunikationskanäle angezeigt. Ein Beispiel einer solchen Anzeige auf Basis eines Windows-Bildschirm ist in Fig. 7 dar­ gestellt und zeigt einen Satz von 11 Kommunikationskanälen für das Gerät CTLR1 (Controller 1), wobei der erste Kanal CTLR1C02CH1 hervorgehoben ist. Natürlich kann die Liste der E/A- oder sonstiger Kommunikationskanäle auch auf jede andere Weise angezeigt werden und ist nicht auf die Darstellung in Fig. 7 beschränkt.
Nunmehr sei erneut auf Fig. 6 verwiesen, wonach in Block 158 darauf gewartet wird, daß der Träger einen zu prüfenden Kom­ munikationskanal wählt. Der Träger kann einen bestimmten Kanal wählen, der beispielsweise im Bildschirm von Fig. 7 angezeigt wird, indem er einen einfachen Sprachbefehl wie BACK (Zurück) NEXT (Nächster) verwendet, um den Cursor zu einem anderen Kanal zu verfahren, und ENTER (Eingabe), um diesen Kanal zu wählen. Um also den dritten Kommunikationskanal (CTLR1C02CH03) bei Betrachtung des Bildschirms von Fig. 7 zu wählen, kann der Träger einfach zwei mal NEXT (Nächster) sagen, um den Kanal CTLR1C02CH03 hervorzuheben, und dann ENTER (Eingabe), um diesen Kanal zu wählen. Obwohl auch andere Sprachbefehle verwendet werden können, ist der Satz Sprachbefehle vorzugsweise auf einfache Wörter zu beschränken, die von der Spracherkennungs­ einheit 56 leichter erkannt werden können. Während der Bild­ schirm von Fig. 7 auch mit anderen Eingabegeräten wie z. B. einem Twiddler 46 manipuliert werden kann, sollte der Träger vorzugsweise in der Lage sein, den Bildschirm unter Verwendung von Sprachsignalen zu manipulieren, Daten einzugeben oder dazu andere nicht manuelle Eingabegeräte zu verwenden, so daß er beide Hände für andere Aufgaben frei hat.
Nachdem der Benutzer einen bestimmten zu prüfenden Kommunika­ tionskanal gewählt hat, wird in Block 160 ein weiterer Bild­ schirm auf der HUD 40 angezeigt, der Prozeßinformationen zum gewählten Kanal enthält. Ein Beispiel eines solchen Bildschirms ist in Fig. 8 für den gewählten Kanal CTLR1C02CH01 dargestellt. Um den Bildschirm von Fig. 8 zu erzeugen, wird in Block 160 der aktuelle Prozeßwert des gewählten Kommunikationskanals vom Host-System über den Sender/Empfänger 36 abgefragt (in diesem Fall "0") und zusammen mit einer Qualitätsangabe für das Signal (in diesem Fall "gut") angezeigt. Der Block 160 stellt dem Benutzer außerdem einen Bereich zur Eingabe eines neuen Prozeßwertes für den Kanal bereit und zeigt den Signaltyp des Kanals, d. h. ob der Kanal ein analoger oder ein digitaler Kanal ist, und die gültigen Bereiche des Signals an. Die auf dem Bildschirm dargestellte Information wird entweder im Speicher 52 des tragbaren Computersystems 30 gespeichert oder vom Host- Rechner 14 abgerufen, der entweder die Information in einem Speicher speichert oder von einem Gerät abruft. Im dargestellten Beispiel von Fig. 8 ist der Kanal CTLR1C02CH01 ein digitaler Kanal, der momentan auf dem Wert null liegt. Fig. 9 zeigt einen ähnlichen Bildschirm, der auf der HUD 40 für den Kanal CTLR1C06CH01 angezeigt wird, bei dem es sich um einen analogen Kanal mit einem gültigen Bereich von 0 bis 100 und einen momentanen Wert von 90 handelt.
Bei Betrachtung der Bildschirme von Fig. 8 und 9 kann der Be­ nutzer den Wert auf dem gewählten Kanal von Hand messen, indem er beispielsweise einen handgeführten Spannungsmesser oder ein anderes Gerät benutzt. Stimmt der gemessene Wert mit dem im Feld 'aktueller Wert' des Bildschirms überein, kann der Träger fortfahren, indem er einen neuen Wert in ein neues Feld 'aktu­ eller Wert' eingibt. Nunmehr sei erneut auf Fig. 6 verwiesen, wonach in Block 162 darauf gewartet wird, daß der Träger einen neuen Prozeßwert eingibt, vorzugsweise mittels Sprachbefehlen in Form von Zahlen und anderen einfachen Befehlen wie ENTER, BACK und NEXT, so daß der Träger das Meßgerät nicht aus der Hand legen muß. In das neue Feld 'aktueller Wert' des Bild­ schirms von Fig. 9 wird ein neuer Wert von 98.5 eingegeben. Bei Empfang eines neuen Wertes wird der neue Wert in Block 164 zum Host-System geschickt, das dann den gewählten Kanal auf den neuen Wert ändert und nach Sicherstellung, daß der gewählte Kanal auf den neuen Werte geändert wurde, den neuen Wert an das tragbare Computersystem 30 als aktuellen Wert des gewählten Kanals schickt. Der Bildschirm der HUD 40 wird dann in Block 166 aufgefrischt, um anzuzeigen, daß der aktuelle Wert auf den zuvor eingegebenen neuen Wert geändert worden ist, und das neue Feld 'aktueller Wert' wird gelöscht, damit der Träger einen anderen neuen Wert eingeben kann. Zu diesem Zeitpunkt kann der Träger das Signal auf dem gewählten Kanal mittels des handgeführten Meßgeräts messen, um zu prüfen, ob das Signal auf den eingegebenen neuen Wert geändert worden ist. Falls ja, ist der Kommunikationskanal mit größter Wahrscheinlichkeit korrekt angeschlossen und arbeitet innerhalb des Prozeßsteuerungssystem einwandfrei. Falls nicht, liegt ein Problem vor, das zu identifizieren und zu beseitigen ist. Der Träger kann natürlich weitere Änderungen des Wertes des Kommunikationskanals vornehmen und diese Änderungen messen, oder zu den Kanal- oder Geräteanwahlbildschirmen zurückgehen, um einen anderen zu prüfenden Kanal oder ein anderes zu prüfendes Gerät zu wählen.
Bei Verwendung des oben beschriebenen Systems kann eine einzige Person den korrekten Anschluß und die korrekte Funktion ver­ schiedener Kommunikationskanäle in einer Prozeßsteuerungs­ umgebung prüfen, ohne mit einem Operator an der Host-Station zu sprechen oder dies mit ihm koordinieren zu müssen und ohne ein handgeführtes Funkgerät herumtragen zu müssen, was die Mes­ sungen und andere Aktivitäten vor Ort behindern würde.
Bei einer anderen Ausführungsform kann das tragbare Computer­ system 30 dazu verwendet werden, Informationen zu jedem Gerät oder Objekt in der Prozeßsteuerungsumgebung zu speichern und automatisch abzurufen, einschließlich von Geräten mit Geräte­ anhängern oder anderen erkennbaren Gerätemerkmalen und Objekten wie Gänge, Abfalltonnen, Gebäude etc., die typischerweise keine Geräteanhänger tragen. Bei Verwendung des tragbaren Computersystems 30 in dieser Weise kann ein Träger in einer Betriebsanlage oder einer anderen Prozeßsteuerungsumgebung herumgehen und Sprachmeldungen (oder andere Informationen oder Daten) in Zusammenhang mit Geräten und Objekten in der Betriebsanlage zum späteren Abruf entweder durch den Träger oder eine andere Person aufzeichnen. Ebenso kann der Träger, wenn er ein Gerät oder Objekt sieht, bestimmen (indem er auf die Anzeige der HUD 40 schaut), ob für dieses Gerät schon früher Sprachmeldungen erstellt worden sind und diese abrufen.
Bei einer Ausführungsform enthält eine Softwareroutine zur Implementierung dieser Funktion (die im Prozessor der CPU 50 des tragbaren Computers 34 gespeichert und ausgeführt werden können) drei Basisroutinen, bei denen es sich um getrennte Routinen handeln kann oder die alle Subroutinen einer einzigen Routine sein können. Die erste Routine identifiziert ein oder mehrere Geräte im Gesichtsfeld des Trägers oder die für den Träger von Interesse sind. Diese Routine kann beispielsweise Spracheingaben (über das Mikrophon 44) in Form von Gerätebe­ zeichnungen, Anhängern oder anderen Gerätekennungen, die Geräte kennzeichnen, die momentan für den Träger von Interesse sind, akzeptieren. Analog kann diese Routine dem Träger über die HUD 40 eine Geräteliste anzeigen, so daß der Träger eines der angezeigten Geräte mittels z. B. Sprachbefehlen oder anderen Eingaben wählen kann. Alternativ kann diese Routine Geräte mittels der oben in Zusammenhang mit Fig. 4 beschriebenen Videobildverarbeitungsroutine, die eines oder mehrere sichtbare Gerätemerkmale identifiziert, automatisch identifizieren. Anstelle der Gerätemerkmale kann die automatische Videover­ arbeitungsroutine ein Gerät auf Basis von Kennungen, die am Gerät oder in der Nähe des Geräts zu dem spezifischen Zweck, das Gerät zu identifizieren, angebracht worden sind (z. B. optische Strichcodes), identifizieren. Andererseits können Sender am oder in der Nähe eines oder mehrere Geräte plaziert werden, die ein Signal aussenden, das vom tragbaren Computer 34 empfangen und von der Routine decodiert wird, um das eine oder die mehreren Geräte zu identifizieren. Bei einer Ausführungs­ form kann ein einziger Sender für einen Raum oder einen anderen Bereich vorgesehen werden, und bei Empfang und Decodierung des gesendeten Signals kann die Routine auf einen Speicher zugreifen (der z. B. entweder im tragbaren Computer 34 oder im Host-Rechner 14 Vorgesehen ist), der sämtliche Geräte innerhalb dieses Raums oder Bereiches speichert. Dem Träger kann dann über die HUD 40 eine Liste dieser Geräte zur Verfügung gestellt werden. In ähnlicher Weise können Geräte, die keine Anhänger oder andere automatisch erkennbaren Merkmale haben, (in einer Datenbank) Geräten, die solche automatisch erkennbaren Merkmale haben, zugeordnet werden. Typischerweise werden einander benachbarte Geräte in der Datenbank einander zugeordnet. Wird später eines dieser Geräte mit einem automatisch erkennbaren Merkmal (ein Gerät mit Anhänger) identifiziert, kann die Routine anhand der Datenbank andere Geräte ohne Anhänger bestimmen, die sich in der Nähe des Geräts mit Anhänger befinden oder diesem auf andere Weise zugeordnet sind, und dem Träger über die HUD 40 eine Liste aller dieser Geräte anzeigen. Natürlich können auch andere Verfahren zur Identifizierung von Geräten angewendet werden.
Nachdem eines oder mehrere Geräte identifiziert wurden und z. B. dem Träger über die HUD 40 angezeigt werden, kann der Träger mittels einer zweiten Routine eine einem der identifizierten Geräte zuzuordnende Sprachmeldung speichern. Der Träger kann eines der identifizierten Geräte wählen (indem er beispielsweise Sprachbefehle oder andere Eingaben verwendet) und dann bei Aufforderung über die HUD 40 in das Mikrophon 44 sprechen, um eine Sprachmeldung zu erzeugen. Die zweite Routine speichert dann die Sprachmeldung als dem identifizierten/­ gewählten Gerät zugeordnet. Dieser Speicher kann der Speicher 52 des tragbaren Computers 34 oder vorzugsweise ein Speicher im Host-System z. B. im Host-Rechner 14 sein. Bei einer Speicherung im Host-Rechner 14 steht die Sprachmeldung mehreren tragbaren Computern zur Verfügung.
Eine dritte Routine bestimmt, ob es schon eine der früher gespeicherten Sprachmeldungen für eines der von der ersten Routine identifizierten Geräte gibt und falls ja, liefert sie eine Anzeige z. B. ein Symbol zur HUD 40, um dem Träger zu mel­ den, daß für das betreffende identifizierte Gerät eine bereits gespeicherte Meldung vorliegt. Wählt der Träger das Symbol bei­ spielsweise mittels Sprachbefehlen an, ruft die dritte Routine die zuvor gespeicherte Sprachmeldung aus dem Speicher ab und spielt sie dem Träger über den Lautsprecher 42 ab.
Mittels dieser Datenspeicherungs-/Abrufeinheit kann der Träger (oder Operator) bei jeder manuellen oder automatischen Iden­ tifizierung eines Geräts durch den Träger (oder einen Operator des Host-Systems 14) eine dem Gerät zuzuordnende Sprachmeldung aufzeichnen und gleichermaßen zuvor aufgezeichnete diesem Gerät zugeordnete Sprachmeldungen abrufen und abhören. Auf diese Weise kann ein Träger (oder Operator) Anmerkungen machen oder Nachrichten zu einem Gerät oder einem anderen Objekt im Pro­ zeßsteuerungssystem hinterlassen, die später von ihm selbst oder einer anderen Person abgerufen werden können. Eine solche Meldung kann beispielsweise die nächste Person darüber infor­ mieren, daß das Gerät einer Instandsetzung unterzogen wird oder daß es eine Kalibrierung erfordert, oder irgendeine andere gewünschte Meldung in Zusammenhang mit dem Gerät oder Objekt sein. Ein einfaches Beispiel hierfür ist, daß ein Träger einen Gang in der Prozeßsteuerungsumgebung entlang geht und bemerkt, daß dieser mit einem neuen Anstrich versehen oder repariert werden muß. (Der Gang kann aufgrund des Raums, in dem sich der Benutzer befindet, aufgrund der Nähe zu anderen Geräten, die anhand der Gerätemerkmale automatisch identifiziert werden können, aufgrund spezifischer Code oder anderer auf dem Gang angebrachter Merkmale zur automatischen Identifizierung, aufgrund vom Benutzer generierter Eingaben irgendeiner Art einschließlich Spracheingaben und Eingaben über manuell oder auf sonstige Weise zu betätigende Eingabegeräte automatisch identifiziert werden). Der Träger kann den Gang auf der HUD 40 wählen und dann mittels einer Sprachmeldung angeben, daß Reparaturen des Gangs erforderlich sind. Wird später der Gang als von Interesse oder als vom Träger eines tragbaren Computers (oder vom Operator des Host-Rechners 40) inspiziert erkannt, wird die Sprachmeldung dem Träger (oder Operator) automatisch bereitgestellt und durch ein Symbol (das auch eine Textmeldung sein kann), das diesem Gang auf der HUD 40 zugeordnet ist, als verfügbar markiert. Auf diese Weise können neue Informationen erstellt und als zu einem Gerät oder Objekt in einer Prozeßsteuerungsumgebung zugehörig gespeichert werden, und diese Informationen können später einem Benutzer auf die gleiche Weise und/oder zur gleichen Zeit wie andere eher standardmäßige Informationen (wie Hilfetext) zur Verfügung gestellt werden.
Die hierin beschriebenen Routinen können selbstverständlich in einer Standard-Universal-CPU oder auf speziell konzipierter Hardware oder Firmware implementiert werden. Bei softwaremä­ ßiger Implementierung kann die Software in jedem computerles­ baren Speicher, beispielsweise einer Magnetplatte, einer Laser­ platte oder einem anderen Speichermedium, in einem RAM oder ROM eines Computerprozessors usw. gespeichert werden. Gleichermaßen kann diese Software einem Benutzer oder einem Gerät (wie der tragbare Computer) über jede bekannte oder gewünschte Übertragungsmethode, einschließlich z. B. auf einer computerlesbaren Platte oder einem anderen mobilen Computer­ speichermechanismus oder über einen Kommunikationskanal, z. B. eine Telephonleitung das Internet etc. (was als identisch oder austauschbar mit der Bereitstellung solcher Software über ein mobiles Speichermedium gilt) geliefert werden.
Liste der Bezugszeichen
10
Prozeßsteuerungssystem
12
Prozeßsteuerung, Steuerung
14
Host-Workstation, Host-Rechner
15
,
16
,
17
,
18
,
19
Feldgeräte
20
,
22
Eingangs-/Ausgangs-(E/A)-Karten
30
tragbares Computersystem
32
Sender/Empfänger
34
tragbarer Computer
36
Sender/Empfänger, Fern-Kommunikationsgerät
38
Bildgebungsgerät, Videokamera
40
HUD, (head-up display - Anzeigeneinspiegelung)
42
Lautsprecher
44
Mikrophon
46
Eingabegerät
50
CPU (central processing unit - Zentraleinheit), Prozessor
52
Speicher
54
Steuerung
56
Spracherkennungseinheit
60
optische Zeichenerkennungs-(optical character recognition - OCR)-Einheit
62
Lautsprechertreiber
64
HUD-Treiber
68
Video-Einzelbild-Grabber
80
Software-Routine
100
Routine
116
Software-Routine
118
Software-Routine
150
Routine

Claims (66)

1. Tragbarer Computer (34) zur Verwendung in einer Prozeß­ steuerungsumgebung mit einem darin befindlichen Prozeßsteuerungssystem (10), der folgendes aufweist:
eine Zentraleinheit (50);
einen computerlesbaren Speicher (52);
eine Anzeigeneinspiegelung bzw. ein Head-up Display (40); ein Eingabegerät (38, 44, 46), das der Zentraleinheit (50) ein Eingangssignal liefert; und
eine Software-Routine, die im computerlesbaren Speicher (52) gespeichert ist und auf der Zentraleinheit abläuft, die das Eingangssignal verarbeitet und zum Prozeßsteuerungssystem gehörige Prozeßinformationen über die Anzeigeneinspiegelung (40) bereitstellt.
2. Tragbarer Computer (34) nach Anspruch 1, bei dem das Ein­ gabegerät ein Mikrophon (44), das Eingangssignal ein vom Mikrophon (44) erzeugtes Sprachsignal ist und die Software-Routine eine Spracherkennungsroutine umfaßt, die ein Gerät auf Basis des Sprachsignals identifiziert.
3. Tragbarer Computer (34) nach Anspruch 1, bei dem die Pro­ zeßinformationen diagnostische Informationen in Zusammenhang mit dem identifizierten Gerät sind.
4. Tragbarer Computer (34) nach Anspruch 1, bei dem die Pro­ zeßinformationen Hilfeinformationen in Zusammenhang mit dem identifizierten Gerät sind.
5. Tragbarer Computer (34) nach Anspruch 1, der des weiteren ein Fern-Kommunikationsgerät (36) aufweist, das mit dem Prozeßsteuerungssystem (10) kommuniziert, und bei dem die Prozeßinformation ein vom identifizierten Gerät vom Prozeßsteuerungssystem (10) abgerufener Prozeßwert ist, der über das entfernte Kommunikationsgerät (36) an den tragbaren Computer (34) geschickt wird.
6. Tragbarer Computer (34) nach Anspruch 5, bei dem das ent­ fernte Kommunikationsgerät ein drahtloser Ethernet-Sender/­ Empfänger (36) ist.
7. Tragbarer Computer (34) nach Anspruch 1, bei dem das Ein­ gabegerät ein Bildgebungsgerät (38), das Eingangssignal ein vom Bildgebungsgerät erzeugtes Einzelbild ist und die Software-Routine eine Routine zur optischen Zeichenerkennung umfaßt, die mit dem Einzelbild eine optische Zeichenerkennung durchführt.
8. Tragbarer Computer (34) nach Anspruch 7, bei dem das Bild­ gebungsgerät eine Videokamera (38) ist, das Eingangssignal ein aus mehreren Einzelbildern bestehendes Videosignal aufweist und der tragbare Computer (34) des weiteren einen Einzelbild-Grabber (68) aufweist, der das Einzelbild aus dem aus mehreren Einzelbildern bestehenden Videosignal herausgreift und das Einzelbild an die Routine zur optischen Zeichenerkennung liefert.
9. Tragbarer Computer (34) nach Anspruch 7, bei dem die Routine zur optischen Zeichenerkennung einen Geräteanhänger innerhalb des Einzelbildes sucht und decodiert.
10. Tragbarer Computer (34) nach Anspruch 9, bei dem die Prozeßinformationen diagnostische Informationen sind, die zu einem dem decodierten Geräteanhänger zugeordneten Gerät gehören.
11. Tragbarer Computer (34) nach Anspruch 9, bei dem die Prozeßinformationen Hilfeinformationen sind, die zu einem dem decodierten Geräteanhänger zugeordneten Gerät gehören.
12. Tragbarer Computer (34) nach Anspruch 9, der des weiteren ein Fern-Kommunikationsgerät (36) aufweist, das mit dem Prozeßsteuerungssystem (10) kommuniziert und bei dem die Prozeßinformation ein Prozeßwert ist, der vom Prozeßsteue­ rungssystem (10) von einem zum decodierten Geräteanhänger zugeordneten Gerät abgerufen ist, und der über das Fern- Kommunikationsgerät (36) an den tragbaren Computer (34) geschickt wird.
13. Tragbarer Computer (34) zur Verwendung in einer Prozeß­ steuerungsumgebung mit mehreren darin befindlichen Geräten und einem Prozeßsteuerungssystem (10), der folgendes aufweist:
ein Bildgebungsgerät (38), das ein Bildsignal erzeugt; und
einen Bildprozessor, der das Bildsignal verarbeitet, um eines der mehreren Geräte auf Basis eines Gerätemerkmals zu identifizieren.
14. Tragbarer Computer (34) nach Anspruch 13, der des weiteren eine Anzeigeneinspiegelung bzw. ein Head-up Display (40) und eine mit dem Bildprozessor gekoppelte Anzeigeeinheit enthält, die zu dem identifizierten Gerät gehörige Informationen auf der Anzeigeneinspiegelung (40) darstellt.
15. Tragbarer Computer (34) nach Anspruch 14, bei dem die Informationen diagnostische Informationen in Zusammenhang mit dem identifizierten Gerät sind.
16. Tragbarer Computer (34) nach Anspruch 14, bei dem die Informationen Hilfeinformationen in Zusammenhang mit dem identifizierten Gerät sind.
17. Tragbarer Computer (34) nach Anspruch 14, der des weiteren ein Fern-Kommunikationsgerät (36) aufweist, das mit dem Prozeßsteuerungssystem (10) kommuniziert, und bei dem die Informationen vom identifizierten Gerät abgerufene Prozeß­ informationen sind, die über das Fern-Kommunikationsgerät (36) an den tragbaren Computer (34) geschickt werden.
18. Tragbarer Computer (34) nach Anspruch 13, bei dem das Bildgebungsgerät eine Videokamera (38) ist, die ein aus mehreren Einzelbildern bestehendes Bildsignal erzeugt, und bei dem der Bildprozessor einen Einzelbild-Grabber (68) aufweist, der ein Einzelbild aus dem aus mehreren Einzelbildern bestehenden Bildsignal herausgreift.
19. Tragbarer Computer (34) nach Anspruch 13, bei dem das Gerätemerkmal ein alphanumerisches Schriftzeichen umfaßt, und bei dem der Bildprozessor eine Routine zur optischen Zeichenerkennung umfaßt, die das alphanumerische Schriftzeichen im Bildsignal decodiert, um das Gerät zu identifizieren.
20. Tragbarer Computer (34) nach Anspruch 13, bei dem das Gerätemerkmal ein Geräteanhänger ist, und bei dem der Bildprozessor eine Routine zur optischen Zeichenerkennung enthält, die die Gerätekennzeichnung im Bildsignal decodiert, um das eine der mehreren Geräte zu identifizieren.
21. Tragbarer Computer (34) nach Anspruch 13, der des weiteren ein Mikrophon (44), das ein Sprachsignal erzeugt, und eine Spracherkennungseinheit (56), die das Sprachsignal zum Erzeugen eines Befehlssignals decodiert, aufweist.
22. Tragbarer Computer (34) nach Anspruch 13, der des weiteren ein Mikrophon (44), das ein Sprachsignal erzeugt, und einen Speicher (52), der das Sprachsignal als zum identifizierten Gerät gehörig speichert, aufweist.
23. Tragbarer Computer (34) nach Anspruch 13, der des weiteren ein Mikrophon (44), das ein Sprachsignal erzeugt, und ein Fern-Kommunikationsgerät (36) umfaßt, das das Sprachsignal an einen Speicher im Prozeßsteuerungssystem (10) zur Speicherung in einem Speicher als zugehörig zu dem identi­ fizierten Gerät und zum Abrufen aus diesem speichert.
24. Geräteidentifizierungseinheit, die zur Verwendung mit einem tragbaren Computer (34) mit einem Prozessor (50) und einem Bildgebungsgerät (38) ausgestattet ist, das ein Bildsignal erzeugt, wobei die Geräteidentifizierungseinheit folgendes aufweist:
einen Speicher (52); und
eine im Speicher (52) gespeicherte Software-Routine, die zur Ausführung durch den Prozessor (50) für die Verarbeitung des Bildsignals eingerichtet ist, um ein Gerät auf Basis eines Gerätemerkmals zu identifizieren.
25. Geräteidentifizierungseinheit nach Anspruch 24, bei der der tragbare Computer (34) eine Anzeigeneinspiegelung bzw. ein Head-up Display (40) aufweist, und bei der die Software-Routine Informationen in Zusammenhang mit dem identifizierten Gerät auf der Anzeigeneinspiegelung (40) anzeigt.
26. Geräteidentifizierungseinheit nach Anspruch 25, bei der der tragbare Computer (34) des weiteren ein Fern-Kom­ munikationsgerät (36) umfaßt, das mit einem mit dem iden­ tifizierten Gerät gekoppelten Prozeßsteuerungssystem (10) kommuniziert, und bei der die Information eine vom identi­ fizierten Gerät abgefragte und an den tragbaren Computer (34) über das Fern-Kommunikationsgerät (36) geschickte Prozeßinformation ist.
27. Geräteidentifizierungseinheit nach Anspruch 24, bei der das Bildgebungsgerät des tragbaren Computers (34) eine Videokamera (38) ist, die ein mehrere Einzelbilder enthaltendes Bildsignal erzeugt und des weiteren einen Einzelbild-Grabber (68) aufweist, der ein Einzelbild als das Bildsignal aus dem mehrere Einzelbilder enthaltenden Bildsignal herausgreift.
28. Geräteidentifizierungseinheit nach Anspruch 24, bei der das Gerätemerkmal ein alphanumerisches Schriftzeichen aufweist, und die des weiteren eine Routine zur optischen Zeichenerkennung umfaßt, die das alphanumerische Schriftzeichen im Bildsignal decodiert, um das Gerät zu identifizieren.
29. Geräteidentifizierungseinheit nach Anspruch 24, bei der das Gerätemerkmal ein Geräteanhänger ist, und die des weiteren eine Routine zur optischen Zeichenerkennung enthält, die den Geräteanhänger im Bildsignal decodiert, um das Gerät zu identifizieren.
30. Geräteidentifizierungseinheit nach Anspruch 24, bei der der tragbare Computer (34) ein Mikrophon (44), das ein Sprachsignal erzeugt, und des weiteren eine mit dem Mikrophon (44) gekoppelte Spracherkennungseinheit (56), die das Sprachsignal zum Erzeugen eines Befehls decodiert, aufweist.
31. Tragbarer Computer (34) zur Verwendung in einer Prozeß­ steuerungsumgebung mit einem darin befindlichen Prozeßsteuerungssystem (10), der folgendes aufweist: eine Zentraleinheit (50);
einen mit Zentraleinheit (50) gekoppelten computerlesbaren Speicher (52);
eine Anzeigeneinspiegelung bzw. ein Head-up Display (40); eine im computerlesbaren Speicher und auf der Zentraleinheit (50) laufende Routine, die ein Bild zur Anzeige auf der Anzeigeneinspiegelung (40) erzeugt;
ein Mikrophon (44), das ein Sprachsignal erzeugt; und
eine Spracherkennungseinheit (56), die das Sprachsignal zur Identifizierung eines Befehls verarbeitet, und die in dem auf der Anzeigeneinspiegelung (40) dargestellten Bild Änderungen auf Basis des identifizierten Befehls veranlaßt.
32. Tragbarer Computer (34) nach Anspruch 31, bei dem die Spracherkennungseinheit (56) das Sprachsignal mit einem Satz gespeicherter erkannter Befehle vergleicht, um den Befehl zu identifizieren, und bei dem der Satz gespeicherter erkannter Befehle mit dem Bewegen eines Cursors in dem auf der Anzeigeneinspiegelung (40) dargestellten Bild zusammenhängt.
33. Tragbarer Computer (34) nach Anspruch 32, bei dem der Satz gespeicherter erkannter Befehle einen Befehl 'Bewegung nach links', einen Befehl 'Bewegung nach rechts', einen Befehl 'Bewegung nach oben' und einen Befehl 'Bewegung nach unten' aufweist.
34. Tragbarer Computer (34) nach Anspruch 31, bei dem die Spracherkennungseinheit (56) das Sprachsignal mit einem Satz gespeicherter erkannter Befehle vergleicht, um den Befehl zu identifizieren, und bei dem der Satz gespeicherter erkannter Befehle mit der Eingabe alphanumerischer Daten in ein Feld innerhalb des auf der Anzeigeneinspiegelung (40) dargestellten Bildes zusammenhängt.
35. Tragbarer Computer (34) nach Anspruch 31, bei dem die Routine das Bild als eine Liste zur Auswahl stehender Geräte anzeigt, und die Spracherkennungseinheit (56) eines der Geräte aus der Geräteliste auf Basis des Sprachsignals identifiziert.
36. Tragbarer Computer (34) nach Anspruch 31, bei dem die Routine das Bild als eine Liste von Kanälen zur Auswahl anzeigt, und die Spracherkennungseinheit (56) einen der Kanäle aus der Liste von Kanälen auf Basis des Sprachsignals identifiziert.
37. Tragbarer Computer (34) nach Anspruch 31, bei dem die Routine das Bild mit einen Prozeßwert enthaltend und ein Feld zur Änderung des Prozeßwertes anzeigt.
38. Tragbares Computersystem (30) zur Durchführung von Prü­ fungen in einem Prozeßsteuerungssystem (10), mit:
einer Zentraleinheit (50);
einem computerlesbaren Speicher (52);
einem Eingabegerät (46) zur Erzeugung eines Eingangssignals;
einem Fern-Kommunikationsgerät (36), das mit dem Prozeßsteuerungssystem (10) kommuniziert; und
einer auf der Zentraleinheit (50) laufenden Software- Routine, die das Eingangssignal zur Erzeugung eines Änderungssignals verarbeitet, das eine an einem Prozeßsignal im Prozeßsteuerungssystem (10) vorzunehmende Änderung meldet, und die das Änderungsignal über das Fern- Kommunikationsgerät (36) an das Prozeßsteuerungssystem (10) schickt, um dadurch eine am Prozeßsignal vorzunehmende Änderung zu veranlassen.
39. Tragbarer Computer (34) nach Anspruch 38, der des weiteren eine Anzeigeneinspiegelung bzw. ein Head-up Display (40) aufweist, und bei dem die Software-Routine mit dem Prozeßsteuerungssystem (10) kommuniziert, um den aktuellen Wert des Prozeßsignals abzufragen und den aktuellen Wert des Prozeßsignals über die Anzeigeneinspiegelung (40) anzeigt.
40. Tragbarer Computer (34) nach Anspruch 38, bei dem das Ein­ gabegerät ein Mikrophon (44) ist, das ein Sprachsignal erzeugt, und der des weiteren eine Spracherkennungseinheit (56) aufweist, die das Sprachsignal zur Entwicklung des Änderungssignals decodiert.
41. Tragbarer Computer (34) nach Anspruch 38, der des weiteren eine Anzeigeneinspiegelung bzw. ein Head-up Display (40) umfaßt, die ein Bild anzeigt und bei dem die Software- Routine eine Bildschirmanzeige auf der Anzeigeneinspiegelung (40) mit einer Liste von Kommunika­ tionskanälen darin erzeugt und einem Benutzer ermöglicht, einen der Kommunikationskanäle unter Verwendung des Eingabegeräts (46) zu wählen.
42. Tragbarer Computer (34) nach Anspruch 41, bei dem die Software-Routine den Typ des Prozeßsignals auf einem gewählten Kommunikationskanal über die Anzeigeneinspiegelung (40) anzeigt.
43. Tragbarer Computer (34) nach Anspruch 41, bei dem die Software-Routine einen gültigen Bereich des Prozeßsignals auf einem gewählten Kommunikationskanal über die Anzeigeneinspiegelung (40) anzeigt.
44. Tragbarer Computer (34) nach Anspruch 41, bei dem es die Software-Routine einem Benutzer ermöglicht, das Änderungssignal für das Prozeßsignal in ein Feld der Anzeigeneinspiegelung (40) einzugeben.
45. Tragbarer Computer (34) nach Anspruch 41, bei dem das Ein­ gabegerät ein Mikrophon (44) ist.
46. Prozeßsteuerungs-Prüfeinheit, angepaßt zur Verwendung in einem Prozeßsteuerungssystem (10), das mit einem tragbaren Computer (34) kommuniziert, der einen Prozessor (50), ein Eingabegerät (46), das ein Eingangssignal erzeugt, ein Fern-Kommunikationsgerät (36), das mit dem
Prozeßsteuerungssystem (10) kommuniziert, und eine Anzeigeneinspiegelung bzw. ein Head-up Display (40) aufweist, wobei die Prozeßsteuerungs-Prüfeinheit folgendes aufweist:
einen Speicher (52); und
eine im Speicher (52) abgelegte Software-Routine zur Ausführung auf dem Prozessor des tragbaren Computers (34), um das Eingangssignal zu verarbeiten, so daß ein Anderungssignal erzeugt wird, das eine an einem Prozeßsignal im Prozeßsteuerungssystem (10) vorzunehmende Änderung meldet, und die das Änderungssignal über das Fern-Kommunikationsgerät (36) an das Prozeßsteuerungssystem (10) schickt, um dadurch eine am Prozeßsignal vorzunehmende Änderung zu veranlassen.
47. Prozeßsteuerungs-Prüfeinheit nach Anspruch 46, bei der das Änderungssignal eine Änderung des Kommunikationssignals anzeigt und veranlaßt, daß das Kommunikationssignal von einem ersten zu einem zweiten Wert geändert wird.
48. Prozeßsteuerungs-Prüfeinheit nach Anspruch 46, bei der die Software-Routine mit dem Prozeßsteuerungssystem (10) kom­ muniziert, um den aktuellen Wert des Prozeßsignals abzufragen und den aktuellen Wert des Prozeßsignals über die Anzeigeneinspiegelung (40) anzeigt.
49. Prozeßsteuerungs-Prüfeinheit nach Anspruch 46, bei der die Software-Routine einen Satz verschiedener Prozeßsteuer­ signale zur Auswahl über die Anzeigeneinspiegelung (40) anzeigt.
50. Prozeßsteuerungs-Prüfeinheit nach Anspruch 46, be ider das Eingabegerät des tragbaren Computers (34) ein Mikrophon (44) ist, das ein Sprachsignal erzeugt, und die des weiteren eine Spracherkennungseinheit (56) enthält, die das Sprachsignal decodiert, um das Änderungssignal zu erzeugen.
51. Prozeßsteuerungs-Prüfeinheit nach Anspruch 46, bei der die Software-Routine eine Bildschirmanzeige auf der Anzeigen­ einspiegelung (40) mit einer Liste von Kommunikationskanälen erzeugt und es einem Benutzer ermöglicht, einen der Kommunikationskanäle mittels des Eingabegeräts (46) zu wählen.
52. Prozeßsteuerungs-Prüfeinheit nach Anspruch 51, be ider die Software-Routine den Typ des Prozeßsignals auf einem ge­ wählten Kommunikationskanal über die Anzeigeneinspiegelung (40) anzeigt.
53. Prozeßsteuerungs-Prüfeinheit nach Anspruch 51, bei der die Software-Routine einen gültigen Bereich des Prozeßsignals auf einem gewählten Kommunikationskanal über die Anzeigeneinspiegelung (40) anzeigt.
54. Prozeßsteuerungs-Prüfeinheit nach Anspruch 51, beider die Software-Routine es einem Benutzer ermöglicht, das Ände­ rungssignal für das Prozeßsignal in ein Feld auf der Anzeigeneinspiegelung (40) einzugeben.
55. Bildbetrachtungseinheit zur Verwendung in einem Prozeß­ steuerungssystem (10) mit einer Operator-Workstation (14) und einer Operator-Zentraleinheit (12), einer Operator- Anzeige und einem Operator-Fern-Kommunikationsgerät und mit einem tragbaren Computer (34) mit einem Bildgebungsgerät (38), das ein erstes Bild erzeugt, einer tragbaren Anzeige (40), einem tragbaren Fern- Kommunikationsgerät (36) und einer tragbaren Zentraleinheit (50), wobei die Bildbetrachtungseinheit folgendes aufweist:
einen ersten computerlesbaren Speicher mit einer ersten darin abgelegten Software-Routine, wobei diese erste Software-Routine in der Zentraleinheit (12) des Operators implementiert werden kann, um folgende Funktionen auszuführen:
Empfangen eines zweiten Bildes vom tragbaren Computer (34) über das Operator-Fern-Kommunikationsgerät, wobei das zweite Bild vom ersten Bild abgeleitet wird;
Anzeigen des zweiten Bildes auf der Operator-Anzeige, wodurch es einem Operator ermöglicht wird, Änderungen des angezeigten zweiten Bildes vorzunehmen, um ein drittes Bild zu erstellen und das dritte Bild über das Operator- Fern-Kommunikationsgerät (36) an den tragbaren Computer (34) zu schicken; sowie
einen zweiten computerlesbaren Speicher mit einer zweiten darin abgelegten Software-Routine, wobei diese zweite Software-Routine in der tragbaren Zentraleinheit (50) implementiert werden kann, um folgende Funktionen auszuführen:
Erzeugen des zweiten Bildes aus dem ersten Bild; Senden des zweiten Bildes über das tragbare Fern-Kommu­ nikationsgerät (36) an die Operator-Workstation (14); Empfangen des dritten Bildes von der Operator-Workstation (14) über das tragbare Fern-Kommunikationsgerät (36); und Anzeigen des dritten Bildes auf der tragbaren Anzeige (40).
56. Bildbetrachtungseinheit nach Anspruch 55, bei der die erste Software-Routine das dritte Bild an den tragbaren Computer (34) schickt, indem in einem ersten Zeitpunkt ein Basisbild an den tragbaren Computer (34) geschickt wird und in einem zweiten späteren Zeitpunkt Änderungen des Basisbilds an den tragbaren Computer (34) geschickt werden.
57. Bildbetrachtungseinheit nach Anspruch 56, bei der die erste Software-Routine es einem Operator ermöglicht, das Basisbild zu wählen, bevor das Basisbild an den tragbaren Computer (34) geschickt wird.
58. Bildbetrachtungseinheit nach Anspruch 55, bei der die zweite Software-Routine es einem Benutzer des tragbaren Computers (34) ermöglicht, Änderungen des dritten Bildes vorzunehmen und die Änderungen des dritten Bildes über das tragbare Fern-Kommunikationsgerät (36) an die Operator- Workstation (14) zu schicken.
59. Bildbetrachtungseinheit nach Anspruch 55, bei der das zweite Bild das erste Bild ist.
60. Datenspeicherungs-/Abrufeinheit, angepaßt zur Verwendung in einem tragbaren Computer (34) mit einem Prozessor (50), einem Mikrophon (44), das ein Sprachsignal erzeugt, einem Eingabegerät (46), das ein Eingangssignal erzeugt, einem Lautsprecher (42) und einer Anzeigeneinspiegelung bzw. einem Head-up Display (40), wobei die Datenspeicherungs-­ /Abrufeinheit folgendes aufweist:
einen computerlesbaren Speicher (52);
eine erste Software-Routine, die in dem computerlesbaren Speicher (52) abgelegt und zur Ausführung auf dem Prozessor (50) des tragbaren Computers (34) angepaßt ist und die ein Prozeßsteuerungsgerät auf Basis des Eingangssignals identifiziert;
eine zweite Software-Routine, die in dem computerlesbaren Speicher (52) abgelegt und zur Ausführung auf dem Prozessor (50) des tragbaren Computers (34) angepaßt ist, die das Sprachsignal vom Mikrophon (44) empfängt und das empfangene Sprachsignal als mit dem identifizierten Prozeßsteuerungsgerät verknüpft in einem weiteren Speicher, der zum tragbaren Computer (34) gehört, als Reaktion auf eine erste benutzerseitige Eingabe zur Speicherung des empfangenen Sprachsignals speichert; und
eine dritte Software-Routine, die in dem computerlesbaren Speicher (52) abgelegt und zur Ausführung auf dem Prozessor (50) des tragbaren Computers (34) angepaßt ist, die über die Anzeigeneinspiegelung (40) eine Anzeige liefert, daß ein zuvor gespeichertes Sprachsignal für das identifizierte Prozeßsteuerungsgerät vorliegt, wenn das zuvor gespeicherte Sprachsignal für das identifizierte Prozeßsteuerungsgerät in einem weiteren Speicher vorhanden ist, und die das zuvor gespeicherte Sprachsignal für das identifizierte Prozeßsteuerungsgerät im Lautsprecher (42) als Reaktion auf eine zweite benutzerseitige Eingabe ab­ spielt, mit der das zuvor gespeicherte Sprachsignal für das identifizierte Prozeßsteuerungsgerät zum Abrufen ge­ wählt wird.
61. Datenspeicherungs-/Abrufeinheit nach Anspruch 60, bei der das Eingangssignal ein Videobild ist und die erste Software-Routine eine Bildverarbeitungsroutine umfaßt, die das Videobild zur Identifizierung des Prozeßsteuerungs­ geräts verarbeitet.
62. Datenspeicherungs-/Abrufeinheit nach Anspruch 61, bei der die Bildverarbeitungsroutine eine Routine zur optischen Zeichenerkennung aufweist, die alphanumerische Zeichen im Videobild erkennt, und die Bildverarbeitungsroutine das Prozeßsteuerungsgerät auf Basis der alphanumerischen Zeichen identifiziert.
63. Datenspeicherungs-/Abrufeinheit nach Anspruch 60, bei der das Eingangssignal ein Sprachsignal ist und die erste Software-Routine eine Spracherkennungseinheit (56) enthält, die das Prozeßsteuerungsgerät auf Basis des Sprachsignals identifiziert.
64. Datenspeicherungs-/Abrufeinheit nach Anspruch 60, bei der der tragbare Computer (34) ein Fern-Kommunikationsgerät (36) enthält, das mit einem Prozeßsteuerungssystem (10) kommuniziert, welches mit dem identifizierten Prozeßsteu­ erungsgerät gekoppelt ist, und bei der sich der weitere Speicher innerhalb des Prozeßsteuerungssystems (10) befindet, und die außerdem eine vierte Software-Routine enthält, die mit dem weiteren Speicher über das Fern- Kommunikationsgerät (36) kommuniziert.
65. Datenspeicherungs-/Abrufeinheit nach Anspruch 60, bei der die dritte Software-Routine über die Anzeigeneinspiegelung (40) ein Symbol als Meldung anzeigt.
66. Datenspeicherungs-/Abrufeinheit nach Anspruch 65, bei der das zweite benutzerseitige Eingangssignal ein Sprachsignal ist, die dritte Software-Routine eine Spracherkennungsein­ heit (56) umfaßt, die das Sprachsignal verarbeitet, um einen benutzerseitigen Befehl zu Wahl des Symbols zu identifizieren, und die dritte Software-Routine das zuvor gespeicherte Sprachsignal für das identifizierte Prozeßsteuerungsgerät abspielt, wenn das Symbol gewählt wird.
DE10006126A 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung Expired - Lifetime DE10006126B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/249,597 US7230582B1 (en) 1999-02-12 1999-02-12 Wearable computer in a process control environment
US09/249,597 1999-02-12

Publications (2)

Publication Number Publication Date
DE10006126A1 true DE10006126A1 (de) 2000-08-17
DE10006126B4 DE10006126B4 (de) 2011-11-17

Family

ID=22944182

Family Applications (3)

Application Number Title Priority Date Filing Date
DE10006126A Expired - Lifetime DE10006126B4 (de) 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung
DE10066477.6A Expired - Lifetime DE10066477B3 (de) 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung
DE10066478.4A Expired - Lifetime DE10066478B3 (de) 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung

Family Applications After (2)

Application Number Title Priority Date Filing Date
DE10066477.6A Expired - Lifetime DE10066477B3 (de) 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung
DE10066478.4A Expired - Lifetime DE10066478B3 (de) 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung

Country Status (4)

Country Link
US (2) US7230582B1 (de)
JP (1) JP3801406B2 (de)
DE (3) DE10006126B4 (de)
GB (1) GB2346720B (de)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1152311A1 (de) * 2000-05-04 2001-11-07 Focke & Co. (GmbH & Co.) Mobile, rechnergestütze Wartungseinheit
DE10063089C1 (de) * 2000-12-18 2002-07-25 Siemens Ag Anwendergesteuerte Verknüpfung von Informationen innerhalb eines Augmented-Reality-Systems
DE10161401A1 (de) * 2001-12-13 2003-06-18 Endress & Hauser Gmbh & Co Kg Feldgerät zur Bestimmung und/oder Überwachung einer Prozessvariablen
DE10159610A1 (de) * 2001-12-05 2003-07-10 Siemens Ag System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung
EP1331535A1 (de) * 2002-01-29 2003-07-30 Endress + Hauser Wetzer GmbH + Co. KG Feldgerät
EP1500995A1 (de) * 2003-07-22 2005-01-26 SMS Demag AG Verfahren und Vorrichtung zur Überwachung und/oder Steuerung von Betriebsdaten bzw. Parametern, insbesondere vielschichtiger Anlagensysteme
DE102008009446A1 (de) * 2008-02-15 2009-08-20 Volkswagen Ag Verfahren zur Prüfung eines komplexen Systems auf Abweichungen von Qualitätsvorgaben und/oder auf Fehlerhaftigkeit und Vorrichtung zur Unterstützung einer Prüfperson bei einer solchen Prüfung
US7640007B2 (en) 1999-02-12 2009-12-29 Fisher-Rosemount Systems, Inc. Wireless handheld communicator in a process control environment
US8125405B2 (en) 1999-02-12 2012-02-28 Fisher-Rosemount Systems, Inc. Wearable computer in a process control environment
DE10317497B4 (de) * 2003-04-16 2013-10-17 Abb Ag System zur Kommunikation zwischen einem Feldgerät und einem Bediengerät
DE102014109612A1 (de) * 2014-07-09 2016-01-14 Endress + Hauser Infoserve Gmbh + Co. Kg Verfahren zum Überwachen und/oder Kontrollieren und/oder Warten von Feldgeräten
DE102017220438A1 (de) * 2017-11-16 2019-05-16 Vega Grieshaber Kg Prozessautomatisierungssystem mit einem Wearable Computer

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6384736B1 (en) * 1998-04-30 2002-05-07 Dave Gothard Remote control electronic display system
US6806847B2 (en) * 1999-02-12 2004-10-19 Fisher-Rosemount Systems Inc. Portable computer in a process control environment
US8874244B2 (en) * 1999-05-19 2014-10-28 Digimarc Corporation Methods and systems employing digital content
KR100706648B1 (ko) * 2000-03-17 2007-04-13 가부시끼가이샤 디지탈 제어용 서버장치, 제어용 단말장치, 제어 시스템 및제어용 통신 프로그램이 기록된 기록매체
JP3883775B2 (ja) * 2000-03-17 2007-02-21 株式会社デジタル 制御システム用サーバ装置、制御システム、制御システム用サーバ装置の通信方法、および、そのプログラムが記録された記録媒体
US7437293B1 (en) * 2000-06-09 2008-10-14 Videa, Llc Data transmission system with enhancement data
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US7506256B2 (en) * 2001-03-02 2009-03-17 Semantic Compaction Systems Device and method for previewing themes and categories of sequenced symbols
US6973508B2 (en) * 2002-02-12 2005-12-06 Fisher-Rosemount Systems, Inc. Highly versatile process control system controller
US7561200B2 (en) 2004-07-26 2009-07-14 Csi Technology, Inc. Apparatus and method for automation of imaging and dynamic signal analyses
JP4669041B2 (ja) * 2006-02-28 2011-04-13 パナソニック株式会社 ウェアラブル端末
US7961851B2 (en) * 2006-07-26 2011-06-14 Cisco Technology, Inc. Method and system to select messages using voice commands and a telephone user interface
JP2008048076A (ja) * 2006-08-11 2008-02-28 Canon Inc 音声処理装置およびその制御方法
US7999818B2 (en) * 2007-09-07 2011-08-16 Mamoudis John T Hands-free, user-formatted instruction display system
US8299938B2 (en) * 2009-09-08 2012-10-30 Rosemount Inc. Projected instrument displays for field mounted process instruments
EP3611555A1 (de) * 2009-11-19 2020-02-19 eSight Corporation Bildvergrösserung auf einer kopfmontierten anzeige
US8447070B1 (en) 2010-04-19 2013-05-21 Amazon Technologies, Inc. Approaches for device location and communication
US8861310B1 (en) 2011-03-31 2014-10-14 Amazon Technologies, Inc. Surface-based sonic location determination
US9368107B2 (en) * 2011-04-20 2016-06-14 Nuance Communications, Inc. Permitting automated speech command discovery via manual event to command mapping
US9189465B2 (en) * 2012-09-28 2015-11-17 International Business Machines Corporation Documentation of system monitoring and analysis procedures
US9151953B2 (en) 2013-12-17 2015-10-06 Amazon Technologies, Inc. Pointer tracking for eye-level scanners and displays
EP2913730B1 (de) 2014-02-28 2019-10-30 ABB Schweiz AG Verwendung eines Live-Video-Streams in einem Prozesssteuerungssystem
US10147293B2 (en) 2014-04-16 2018-12-04 Empire Technology Development Llc Computer-based safety control
DK201470277A1 (en) * 2014-05-08 2015-01-05 Vestas Wind Sys As A smart device with a screen for visualizing a wind turbine component
US10146330B2 (en) 2014-06-18 2018-12-04 Matthew Swan Lawrence Systems and methods for character and command input
US9576329B2 (en) 2014-07-31 2017-02-21 Ciena Corporation Systems and methods for equipment installation, configuration, maintenance, and personnel training
US9746913B2 (en) 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
CN105701965B (zh) * 2014-12-15 2020-06-30 朱保东 一种穿戴式安全设备及其方法
US10199041B2 (en) 2014-12-30 2019-02-05 Honeywell International Inc. Speech recognition systems and methods for maintenance repair and overhaul
US10142596B2 (en) 2015-02-27 2018-11-27 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus of secured interactive remote maintenance assist
CN106023578A (zh) * 2016-07-14 2016-10-12 广州视源电子科技股份有限公司 可穿戴设备及家居设备的控制方法
GB2568024A (en) * 2017-09-25 2019-05-08 Emotech Ltd Display device
CN110663021B (zh) * 2017-11-06 2024-02-02 谷歌有限责任公司 关注出席用户的方法和系统
JP6963881B2 (ja) * 2018-06-05 2021-11-10 東芝三菱電機産業システム株式会社 音声認識監視装置
US11135723B2 (en) * 2018-10-12 2021-10-05 Universal City Studios Llc Robotics for theme park wearable software testing
CN113227940A (zh) 2018-11-09 2021-08-06 贝克曼库尔特有限公司 具有选择性数据提供的服务眼镜
US11983959B2 (en) 2019-04-18 2024-05-14 Beckman Coulter, Inc. Securing data of objects in a laboratory environment
KR102229562B1 (ko) * 2019-07-25 2021-03-18 엘지전자 주식회사 음성 인식 서비스를 제공하는 인공 지능 장치 및 그의 동작 방법

Family Cites Families (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4303973A (en) 1976-10-29 1981-12-01 The Foxboro Company Industrial process control system
US4152760A (en) 1977-09-16 1979-05-01 The Foxboro Company Industrial process control system
US4149237A (en) 1977-09-16 1979-04-10 The Foxboro Company Industrial process control system
US4268822A (en) 1978-10-18 1981-05-19 The Foxboro Company Apparatus for determining the state of each of a plurality of bi-state devices
US4729091A (en) 1984-11-13 1988-03-01 International Business Machines Corporation Directing storage requests prior to address comparator initialization with a reference address range
GB8511691D0 (en) 1985-05-09 1985-06-19 British Telecomm Control system
US4726017A (en) 1985-05-21 1988-02-16 Fla. Multidrop data concentrator communication network
US4910658A (en) 1985-09-04 1990-03-20 Eaton Leonard Technologies, Inc. Real time process controller with serial I/O bus
US5239662A (en) 1986-09-15 1993-08-24 Norand Corporation System including multiple device communications controller which coverts data received from two different customer transaction devices each using different communications protocols into a single communications protocol
US4949299A (en) 1987-12-04 1990-08-14 Allen-Bradley Company, Inc. Industrial control communication network and method
WO1989005553A1 (en) 1987-12-07 1989-06-15 Bt Telecom, Inc. System for interfacing an alarm reporting device with a cellular radio transceiver
US4916441A (en) 1988-09-19 1990-04-10 Clinicom Incorporated Portable handheld terminal
US5309351A (en) * 1988-10-27 1994-05-03 Texas Instruments Incorporated Communications, information, maintenance diagnostic and training system
DE68925271T2 (de) 1988-10-27 1996-08-14 Texas Instruments Inc Kommunikations-, Informations-, Wartungsdiagnostik und Ausbildungssystem
US5099444A (en) 1989-05-09 1992-03-24 Ansan Industries, Ltd. Peripheral data acquisition transmission and control device
US5400246A (en) 1989-05-09 1995-03-21 Ansan Industries, Ltd. Peripheral data acquisition, monitor, and adaptive control system via personal computer
US5142550A (en) 1989-06-29 1992-08-25 Symbol Technologies, Inc. Packet data communication system
US5150363A (en) 1989-08-11 1992-09-22 Digital Audio Disc Corporation Serial input/output multiplexing apparatus
US5088021A (en) 1989-09-07 1992-02-11 Honeywell, Inc. Apparatus and method for guaranteed data store in redundant controllers of a process control system
US5495482A (en) 1989-09-29 1996-02-27 Motorola Inc. Packet transmission system and method utilizing both a data bus and dedicated control lines
US5252967A (en) 1990-05-25 1993-10-12 Schlumberger Industries, Inc. Reader/programmer for two and three wire utility data communications system
DK0491657T3 (da) 1990-12-18 1996-02-05 Erowa Ag Automatisk fabriksanlæg
JP2730810B2 (ja) 1991-05-10 1998-03-25 シャープ株式会社 情報処理装置
US5781913A (en) 1991-07-18 1998-07-14 Felsenstein; Lee Wearable hypermedium system
US5208449A (en) * 1991-09-09 1993-05-04 Psc, Inc. Portable transaction terminal
US5353331A (en) 1992-03-05 1994-10-04 Bell Atlantic Network Services, Inc. Personal communications service using wireline/wireless integration
US5305244B2 (en) 1992-04-06 1997-09-23 Computer Products & Services I Hands-free user-supported portable computer
US5491651A (en) 1992-05-15 1996-02-13 Key, Idea Development Flexible wearable computer
JP3391405B2 (ja) * 1992-05-29 2003-03-31 株式会社エフ・エフ・シー カメラ映像内の物体同定方法
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
MX9306152A (es) 1992-10-05 1994-05-31 Fisher Controls Int Sistema de comunicacion y metodo.
US5666530A (en) 1992-12-02 1997-09-09 Compaq Computer Corporation System for automatic synchronization of common file between portable computer and host computer via communication channel selected from a plurality of usable channels there between
US5402367A (en) * 1993-07-19 1995-03-28 Texas Instruments, Incorporated Apparatus and method for model based process control
US5495484A (en) 1993-10-12 1996-02-27 Dsc Communications Corporation Distributed telecommunications switching system
US5815126A (en) * 1993-10-22 1998-09-29 Kopin Corporation Monocular portable communication and display system
CA2135718A1 (en) 1993-11-15 1995-05-16 Mark A. Gilbertie Universal electrical system architecture for control applications
JP2873268B2 (ja) * 1994-02-24 1999-03-24 エドワード・ジョージ・ニューマン 手を使わずにユーザにより支持される携帯用計算機とその操作方法
JP3116710B2 (ja) 1994-03-18 2000-12-11 株式会社日立製作所 情報端末システム
ATE187824T1 (de) 1994-10-24 2000-01-15 Fisher Rosemount Systems Inc Vorrichtung, die einen zugang zu feldgeräten in einem verteilten steuerungssystem gestattet
CN1049052C (zh) 1995-07-07 2000-02-02 中国石化洛阳石油化工总厂 一种智能化炼油化工危险源事故预案和应急处理方法
JP3425276B2 (ja) 1995-08-11 2003-07-14 株式会社日立製作所 情報通知システム
JPH09114543A (ja) * 1995-10-02 1997-05-02 Xybernaut Corp ハンドフリーコンピュータ装置
US6094600A (en) 1996-02-06 2000-07-25 Fisher-Rosemount Systems, Inc. System and method for managing a transaction database of records of changes to field device configurations
TW395121B (en) 1996-02-26 2000-06-21 Seiko Epson Corp Personal wearing information display device and the display method using such device
JPH09247180A (ja) 1996-03-12 1997-09-19 Toshiba Corp プロセスlan用タップ、携帯型コンピュータ及び統合制御システム
JPH10124178A (ja) * 1996-10-15 1998-05-15 Olympus Optical Co Ltd 電子メール端末、電子メール端末の処理方法、媒体
US5938721A (en) 1996-10-24 1999-08-17 Trimble Navigation Limited Position based personal digital assistant
JPH10222663A (ja) * 1997-01-31 1998-08-21 Yamaha Motor Co Ltd 画像認識システム及び装置
DE19706614A1 (de) 1997-02-20 1998-08-27 Claas Ohg Situationsbezogene programmgesteuerte elektronische Kartenbilddarstellung in einem Kraftfahrzeug
EP0862159A1 (de) * 1997-03-01 1998-09-02 Agfa-Gevaert N.V. Spracherkennungssystem für eine medizinische Röntgenapparatur
JP3557467B2 (ja) * 1997-06-11 2004-08-25 株式会社日立製作所 音声データの認識方法及びその装置
US6262749B1 (en) * 1997-12-31 2001-07-17 Acuson Corporation Ultrasonic system and method for data transfer, storage and/or processing
US6226612B1 (en) * 1998-01-30 2001-05-01 Motorola, Inc. Method of evaluating an utterance in a speech recognition system
WO2000002344A2 (de) 1998-07-03 2000-01-13 Siemens Aktiengesellschaft Verfahren und system zum drahtlosen steuern von mindestens zwei unterschiedlichen einrichtungen
JP3964553B2 (ja) 1998-09-10 2007-08-22 株式会社東芝 情報配信システム
TW495710B (en) * 1998-10-15 2002-07-21 Primax Electronics Ltd Voice control module for control of game controller
JP4008611B2 (ja) 1999-02-09 2007-11-14 株式会社東芝 プラント作業監視装置および記憶媒体
US6806847B2 (en) 1999-02-12 2004-10-19 Fisher-Rosemount Systems Inc. Portable computer in a process control environment
US7640007B2 (en) 1999-02-12 2009-12-29 Fisher-Rosemount Systems, Inc. Wireless handheld communicator in a process control environment
US7230582B1 (en) 1999-02-12 2007-06-12 Fisher-Rosemount Systems, Inc. Wearable computer in a process control environment
US6633782B1 (en) * 1999-02-22 2003-10-14 Fisher-Rosemount Systems, Inc. Diagnostic expert in a process control system
US6298454B1 (en) 1999-02-22 2001-10-02 Fisher-Rosemount Systems, Inc. Diagnostics in a process control system
US6574672B1 (en) 1999-03-29 2003-06-03 Siemens Dematic Postal Automation, L.P. System, apparatus and method for providing a portable customizable maintenance support computer communications system
JP2001051717A (ja) 1999-06-04 2001-02-23 Toshiba Corp プラント機器監視装置
JP2001034615A (ja) 1999-07-16 2001-02-09 Nippon Telegr & Teleph Corp <Ntt> 作業支援システム及び作業支援方法
US6473517B1 (en) * 1999-09-15 2002-10-29 Siemens Corporate Research, Inc. Character segmentation method for vehicle license plate recognition
JP2001125633A (ja) 1999-10-28 2001-05-11 Toshiba Corp プラント情報収集システム
JP3390806B2 (ja) 1999-12-28 2003-03-31 株式会社テイエルブイ 位置認識装置及びこの位置認識装置を備えた測定装置並びに測定システム
US6690351B1 (en) * 2000-04-06 2004-02-10 Xybernaut Corporation Computer display optimizer
JP2002171579A (ja) 2000-12-01 2002-06-14 Toyo Keiki Co Ltd 自動検針システム用無線装置
US8126276B2 (en) 2001-02-21 2012-02-28 International Business Machines Corporation Business method for selectable semantic codec pairs for very low data-rate video transmission
US6795798B2 (en) 2001-03-01 2004-09-21 Fisher-Rosemount Systems, Inc. Remote analysis of process control plant data
DE10124266A1 (de) 2001-05-18 2002-11-21 Abb Patent Gmbh System zur physischen Lokalisierung von Feldgeräten in verfahrenstechnischen Anlagen
US20030043070A1 (en) 2001-08-30 2003-03-06 Soliman Samir S. Wireless coordination and management system
US6633182B2 (en) 2001-09-05 2003-10-14 Carnegie Mellon University Programmable gate array based on configurable metal interconnect vias
US20030229472A1 (en) 2001-12-06 2003-12-11 Kantzes Christopher P. Field maintenance tool with improved device description communication and storage
US20030204373A1 (en) 2001-12-06 2003-10-30 Fisher-Rosemount Systems, Inc. Wireless communication method between handheld field maintenance tools
US7092943B2 (en) 2002-03-01 2006-08-15 Enterasys Networks, Inc. Location based data
US7085623B2 (en) 2002-08-15 2006-08-01 Asm International Nv Method and system for using short ranged wireless enabled computers as a service tool

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8125405B2 (en) 1999-02-12 2012-02-28 Fisher-Rosemount Systems, Inc. Wearable computer in a process control environment
US7640007B2 (en) 1999-02-12 2009-12-29 Fisher-Rosemount Systems, Inc. Wireless handheld communicator in a process control environment
EP1152311A1 (de) * 2000-05-04 2001-11-07 Focke &amp; Co. (GmbH &amp; Co.) Mobile, rechnergestütze Wartungseinheit
DE10063089C1 (de) * 2000-12-18 2002-07-25 Siemens Ag Anwendergesteuerte Verknüpfung von Informationen innerhalb eines Augmented-Reality-Systems
DE10159610A1 (de) * 2001-12-05 2003-07-10 Siemens Ag System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung
DE10159610B4 (de) * 2001-12-05 2004-02-26 Siemens Ag System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung
US7110909B2 (en) 2001-12-05 2006-09-19 Siemens Aktiengesellschaft System and method for establishing a documentation of working processes for display in an augmented reality system in particular in a production assembly service or maintenance environment
DE10161401A1 (de) * 2001-12-13 2003-06-18 Endress & Hauser Gmbh & Co Kg Feldgerät zur Bestimmung und/oder Überwachung einer Prozessvariablen
DE10161401B4 (de) * 2001-12-13 2012-11-08 Endress + Hauser Gmbh + Co. Kg Feldgerät zur Bestimmung und/oder Überwachung einer Prozessvariablen
EP1331535A1 (de) * 2002-01-29 2003-07-30 Endress + Hauser Wetzer GmbH + Co. KG Feldgerät
DE10317497B4 (de) * 2003-04-16 2013-10-17 Abb Ag System zur Kommunikation zwischen einem Feldgerät und einem Bediengerät
EP1500995A1 (de) * 2003-07-22 2005-01-26 SMS Demag AG Verfahren und Vorrichtung zur Überwachung und/oder Steuerung von Betriebsdaten bzw. Parametern, insbesondere vielschichtiger Anlagensysteme
DE102008009446A1 (de) * 2008-02-15 2009-08-20 Volkswagen Ag Verfahren zur Prüfung eines komplexen Systems auf Abweichungen von Qualitätsvorgaben und/oder auf Fehlerhaftigkeit und Vorrichtung zur Unterstützung einer Prüfperson bei einer solchen Prüfung
DE102014109612A1 (de) * 2014-07-09 2016-01-14 Endress + Hauser Infoserve Gmbh + Co. Kg Verfahren zum Überwachen und/oder Kontrollieren und/oder Warten von Feldgeräten
DE102014109612B4 (de) * 2014-07-09 2016-09-01 Endress + Hauser Infoserve Gmbh + Co. Kg Verfahren zum Überwachen und/oder Kontrollieren und/oder Warten von Feldgeräten
DE102017220438A1 (de) * 2017-11-16 2019-05-16 Vega Grieshaber Kg Prozessautomatisierungssystem mit einem Wearable Computer
DE102017220438B4 (de) 2017-11-16 2024-08-01 Vega Grieshaber Kg Prozessautomatisierungssystem mit einem Wearable Computer

Also Published As

Publication number Publication date
GB0002157D0 (en) 2000-03-22
GB2346720B (en) 2003-12-31
US8125405B2 (en) 2012-02-28
JP3801406B2 (ja) 2006-07-26
US20070210983A1 (en) 2007-09-13
GB2346720A (en) 2000-08-16
DE10006126B4 (de) 2011-11-17
DE10066477B3 (de) 2016-06-30
DE10066478B3 (de) 2016-06-30
US7230582B1 (en) 2007-06-12
JP2000242367A (ja) 2000-09-08

Similar Documents

Publication Publication Date Title
DE10006126B4 (de) Tragbarer Computer in einer Prozesssteuerungsumgebung
DE102005058564B4 (de) Drahtlose handgehaltene Kommunikationseinrichtung in einer Prozesssteuerungsumgebung
DE10242007A1 (de) Portabler Computer in einem Prozesssteuerungsumfeld
US9589390B2 (en) Wire harness assembly
EP2524329B1 (de) Anordnung und verfahren zur verifikation eines realen modells unter verwendung eines virtuellen modells sowie verwendung im flugzeugbau
EP1451652B1 (de) System und verfahren zur erstellung einer dokumentation von arbeitsvorgängen zur darstellung in einem augmented-reality-system
DE112018004347T5 (de) Virtueller röntgenblick in einer prozesssteuerungsumgebung
WO2000052542A1 (de) Augmented reality-system zur einhaltung von qualitäts- bzw. sicherheitsanforderungen
DE19953739A1 (de) Einrichtung und Verfahren zur objektorientierten Markierung und Zuordnung von Information zu selektierten technologischen Komponenten
US4961148A (en) Method for preparing automotive assembly operations documents
DE10034606A1 (de) Verfahren zur Bereitstellung von fertigungsbezogenen Daten in einer Serienfertigung von Fertigungsobjekten, insbesondere von Kraftfahrzeugen
WO2018192613A1 (de) Verfahren und system zur automatisierten unterstützung eines anschlussvorgangs, insbesondere von in einem schaltschrank oder an einem montagesystem angeordneten komponenten
CN108564828A (zh) 一种智能教学机器人
EP0435225B1 (de) Verfahren und Einrichtung zum Versorgen verschiedener Abteilungen eines Selbstbedienungs-Grossmarktes mit für eine Abteilung spezifischen Informationen
DE112019002380T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
EP1180674B1 (de) Datenkommunikationssystem für Kraftfahrzeug Prüfstände mit Prüfprogramm auf der Zentraleinheit
DE102022104945A1 (de) Verfahren zur Nachverfolgung eines Gerätes, Gerät sowie Arbeitssystem
DE102012101916A1 (de) Darstellung von aktuellen Betriebsparametern eines Elements einer Solaranlage auf einer mobilen Datenverarbeitungseinrichtung
DE102018201711B4 (de) Anordnung und Verfahren zum Bereitstellen von Informationen bei einer kopftragbaren erweiterte-Realität-Vorrichtung
DE102014019441A1 (de) Verfahren zum Montieren wenigstens eines Bauteils
WO2005064423A2 (de) Kontextabhängige bedienung von engineering-systemen über zeichnerische eingaben
EP0681257B1 (de) Tragbare Identifikationseinrichtung
DE202021004436U1 (de) Vorrichtung zur Unterstützung von sehbehinderten oder blinden Personen beim Einkaufen
CN117876951A (zh) 一种用于在线教育管理用监控系统
DE102006045299A1 (de) Verfahren und Vorrichtung zur rechnergestützten Bestimmung eines Orts

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8125 Change of the main classification

Ipc: G05B 24/02 AFI20051017BHDE

R018 Grant decision by examination section/examining division
R130 Divisional application to

Ref document number: 10066477

Country of ref document: DE

Effective date: 20110314

Ref document number: 10066478

Country of ref document: DE

Effective date: 20110314

R020 Patent grant now final

Effective date: 20120218

R071 Expiry of right