DE10006126B4 - Tragbarer Computer in einer Prozesssteuerungsumgebung - Google Patents

Tragbarer Computer in einer Prozesssteuerungsumgebung Download PDF

Info

Publication number
DE10006126B4
DE10006126B4 DE10006126A DE10006126A DE10006126B4 DE 10006126 B4 DE10006126 B4 DE 10006126B4 DE 10006126 A DE10006126 A DE 10006126A DE 10006126 A DE10006126 A DE 10006126A DE 10006126 B4 DE10006126 B4 DE 10006126B4
Authority
DE
Germany
Prior art keywords
portable computer
signal
process control
routine
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE10006126A
Other languages
English (en)
Other versions
DE10006126A1 (de
Inventor
Andrew P. Dove
Kent A. Burr
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fisher Rosemount Systems Inc
Original Assignee
Fisher Rosemount Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fisher Rosemount Systems Inc filed Critical Fisher Rosemount Systems Inc
Publication of DE10006126A1 publication Critical patent/DE10006126A1/de
Application granted granted Critical
Publication of DE10006126B4 publication Critical patent/DE10006126B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt

Abstract

Tragbarer Computer (34) zur Verwendung in einer Prozesssteuerungsumgebung mit einem darin befindlichen Prozesssteuerungssystem (10), der Folgendes aufweist: eine Zentraleinheit (50); einen computerlesbaren Speicher (52); ein Head-up Display (40); mindestens ein Eingabegerät (38, 44, 46), das der Zentraleinheit (50) mindestens ein Eingangssignal liefert; und eine Software-Routine, die im computerlesbaren Speicher (52) gespeichert ist und auf der Zentraleinheit abläuft, die das mindestens eine Eingangssignal verarbeitet und zum Prozesssteuerungssystem gehörige Prozessinformationen über das Head-up Display (40) bereitstellt, wobei das mindestens eine Eingabegerät ein Bildgebungsgerät (38) umfasst, das mindestens eine Eingangssignal ein vom Bildgebungsgerät erzeugtes Einzelbild ist und die Software-Routine einen Geräteanhänger innerhalb des Einzelbildes sucht und decodiert, um ein Gerät des Prozesssteuerungssystems (10) zu identifizieren.

Description

  • Die vorliegende Erfindung betrifft einen tragbaren Computer zur Verwendung in einer Prozeßsteuerungsumgebung, um eine verbesserte Unterstützung in einer Prozeßsteuerungsumgebung bereitzustellen.
  • Prozeßsteuerungssysteme wie sie bei chemischen, petrochemischen oder anderen Prozessen verwendet werden, beinhalten im allgemeinen eine zentrale Prozeßsteuerung, die zum Datenaustausch mit mindestens einer Host- oder Operator-Workstation und einem oder mehreren Feldgeräten über analoge, digitale oder kombinierte analoge/digitale Datenbusse gekoppelt ist. Die Feldgeräte, bei denen es sich beispielsweise um Ventile, Ventilstelleinrichtungen, Schalter, Sensoren (z. B. Temperatur-, Druck- und Durchsatzsensoren) etc. handeln kann, führen Steuerfunktionen innerhalb des Prozesses aus wie öffnen und Schließen von Ventilen und Messen von Prozeßparametern. Allgemein ausgedrückt empfängt die Prozessteuerung Signale, die Prozeßmessungen der Feldgeräte repräsentieren und/oder andere Informationen in Zusammenhang mit den Feldgeräten, verwendet diese Informationen zur Implementierung einer Steuerungsroutine und erzeugt dann Steuersignale, die über die Busse an die Feldgeräte geschickt werden, um den Prozeßbetrieb zu steuern. Informationen von den Feldgeräten und der Steuerung werden typischerweise einer oder mehreren Anwendungen zur Verfügung gestellt, die von der Operator-Workstation ausgeführt werden, um es einem Operator zu ermoglichen, jede gewunschte Funktion im Rahmen des Prozesses auszufuhren, z. B. Betrachten des aktuellen Prozebstatus, Modifizieren der Prozeßoperationen usw.
  • Obwohl ein Operator oder ein Techniker auf verschiedene Typen von Informationen in Zusammenhang mit dem Prozeßsteuerungssystem und die individuellen Geräte desselben (z. B. Hilfe-, Diagnose-, Einstellungs- und Konfigurationsinformationen) uber die Host-Workstation zugreifen kann, gibt es zahlreiche Prozeßsteuerungsaktivitäten, zu deren Durchführung ein Techniker in die reale Umgebung der Betriebsanlage gehen muß, wo ihm keine Host-Workstation zur Verfügung steht. Solche Aktivitäten beinhalten beispielsweise die Sichtkontrolle eines Prozeßsteuergerats oder -bereichs, das Anschließen von Geräten oder Bussen in der Prozeßsteuerungsumgebung, manuelle Messungen, Instandsetzung und Austausch von Feldgeräten usw. In diesen Fallen kann der Operator oder Techniker Handbucher über die durchzufuhrenden Aufgaben mit in die Betriebsanlage nehmen und vor Ort die eventuell benötigten Informationen nachschlagen. Diese Vorgehensweise ist aber sehr umständlich. Es ist eher wahrscheinlich, daß der Techniker ein- oder mehrmals zur Operator-Workstation zurückgeht, um sich die zur Durchführung der gewünschten Aktivität benötigten Informationen zu beschaffen, was sehr zeitaufwendig und fehleranfällig ist. Bei anderen Gelegenheiten führt der Techniker ein Funkgerät oder Walkie-Talkie in die Betriebsanlage mit sich und kommuniziert über Funk mit einem Operator an der Operator-Workstation, um sich die benötigten Informationen geben zu lassen. Der Umfang der über Funk zu vermittelnden Informationen ist jedoch begrenzt und ebenfalls fehleranfällig, da die Kommunikation von Mensch zu Mensch erfolgt. Da außerdem der Techniker normalerweise das Funkgerät in der Hand trägt oder mit den Händen bedient, wird die Durchführung bestimmter Aufgaben wie die Instandsetzung eines Geräts sehr umständlich und schwierig.
  • Mit der Einführung kleinerer elektronischer Geräte sind mobile Rechner in Form tragbarer Computer in größerem Maße verfügbar geworden. Ein tragbarer Computer enthält im allgemeinen eine Standard-Zentraleinheit (CPU) und einen Speicher, die in einem kleinen Behälter verpackt sind und in einem Beutel am Gürtel oder Gurtzeug eines Benutzers (hierin auch ”Träger” genannt) untergebracht werden. Batterien zur Spannungsversorgung des tragbaren Computers werden typischerweise in einem anderen Beutel des Gurtzeugs untergebracht, das so ausgeführt ist, daß der Transport des tragbaren Computers so bequem wie möglich ist. Peripheriegeräte wie Plattenlaufwerke, Festplattenlaufwerke, PCMCIA-Steckplätze, Mikrophone, Strichcodeleser und Tastaturgeräte können über geeignete Leiter oder Busse kommunikativ mit der CPU gekoppelt und, falls gewünscht, kann eines oder mehrere dieser Peripheriegeräte im Gurtzeug untergebracht oder mit diesem verbunden werden. Es ist auch schon vorgeschlagen worden, eine Anzeigeneinspiegelung (Head-up Display – HUD) für den Benutzer des tragbaren Computers bereitzustellen, die dem Träger eine visuelle Benutzeroberfläche bietet. Ein tragbarer Computer bietet dadurch einem Benutzer mobile Rechenleistung und Speicher, und da der tragbare Computer am Benutzer getragen und nicht von diesem gehalten wird, braucht der Benutzer die Hände nur zur Betätigung der Tastatur oder anderer Eingabegeräte.
  • Die US 5 666 530 beschreibt einen tragbaren Computer. Der tragbare Computer hat eine Anzeige, wobei diese als Touchscreen ausgebildet ist, so dass Eingaben unmittelbar über die Anzeige vorgenommen werden können. Eine Verwendung des tragbaren Computers in einer Prozesssteuerungsumgebung geht aus der Druckschrift nicht hervor.
  • Auch die EP 0 670 537 A1 beschreibt ganz allgemein einen tragbaren Computer mit einer Ausgabeeinrichtung in Form eines Head-up Displays. Dieser umfasst eine Zentraleinheit, einen computerlesbaren Speicher und Softwareroutinen zur Verarbeitung möglicher Eingabesignale und zur Ausgabe entsprechender Ausgabesignale auf dem Head-up Display. Der Druckschrift lässt es sich nicht entnehmen, dass der tragbare Computer in einer Prozesssteuerungsumgebung eingesetzt werden soll.
  • Die US 5 309 351 A beschreibt die Verwendung eines tragbaren Computers in eine Prozessumgebung. Die Eingabe von Daten erweist sich hier als aufwändig.
  • Die US 5 598 572 A zeigt einen tragbaren Computer, wobei dieser in einer Prozesssteuerungsumgebung eingesetzt wird. Der tragbare Computer umfasst eine Zentraleinheit bzw. eine Recheneinheit, einen computerlesbaren Speicher, eine Anzeigeeinrichtung und ein Eingabegerät, das der Zentraleinheit mindestens ein Eingangssignal liefert. Des Weiteren soll der tragbare Computer gemäß der US 5 598 572 A mit einem Positionssystem ausgerüstet werden, das es ermöglicht, die genaue Position und Ausrichtung des tragbaren Computers zu bestimmen, um je nach Ortskoordinaten mit Komponenten des Prozesssteuersystems in Interaktion zu treten. Eine Funkschnittstelle ermöglicht die Kommunikation zwischen dem tragbaren Computer und dem Prozesssteuerungssystem.
  • Der beschriebene tragbare Computer setzt die Verwendung irgendeines handbetätigten Eingabegerätes, z. B. eine Tastatur oder einen Twiddler voraus. Obwohl diese Geräte typischerweise ergonomisch ausgeführt sind, um so anwenderfreundlich wie möglich zu sein, braucht der Benutzer dennoch seine Hände zur Eingabe von Informationen oder Daten. In einer Prozeßsteuerungsumgebung jedoch muß ein Techniker typischerweise beide Hände zur Durchführung komplizierter Arbeiten wie Kalibrierung und Instandsetzung von Geräten, Anschließen von Gerten innerhalb des Prozeßsteuerungssystem usw. frei haben.
  • Ausgehend von der US 5 598 572 A stellt sich die Aufgabe, einen tragbaren Computer bereitzustellen, der für Konfigurations- und Wartungstätigkeiten notwendige Informationen leicht zugänglich und zuverlässig bereitstellt.
  • Diese Aufgabe wird durch die Vorrichtungen der Ansprüche 1, 27 und 28 gelöst.
  • Vorteilhafte Ausführungsformen ergeben sich aus den Unteransprüchen.
  • Ein erfindungsgemäßer tragbarer Computer zur Verwendung in einer Prozeßsteuerungsumgebung kann eine Zentraleinheit und einen Speicher enthalten, die mit einem oder mehreren Peripheriegeräten verbunden sind, u. a. beispielsweise einer Anzeigeneinspiegelung bzw. einem Head-up Display (HUD), einem Mikrophon, einem Bildgebungsgerät (z. B. eine Videokamera) und einem Fern-Kommunikationsgerät (z. B. einem drahtlosen Ethernet-Sender/Empfänger), der mit einem Host-Rechner eines Prozeßsteuerungssystems kommuniziert. Der tragbare Computer kann über die Anzeigeneinspiegelung Informationen liefern, die mit einem oder mehreren Geräten innerhalb des Prozeßsteuerungssystems in Zusammenhang stehen. Die Informationen, bei denen es sich z. B. um diagnostische Informationen, Hilfetexte, Operator-Übersichten, schematische Darstellungen oder Informationen bezüglich der Prozeßparameter handeln kann, können im Speicher des tragbaren Computers gespeichert oder vom Host-Rechner über das entfernt angeordnete Kommunikationsgerät abgerufen werden.
  • Der tragbare Computer kann eine Software-Routine oder ein Software- bzw. ein Hardwaregerät enthalten, das ein vom Bildgebungsgerät entwickeltes Bildverarbeitet, um automatische Prozeßsteuerungsgeräte innerhalb des Gesichtsfeldes des Trägers auf Basis von Gerätemerkmalen zu identifizieren. Diese Verarbeitung, die auf Basis von Geräteanhängern, die an den Geräten in den Prozeßsteuerungsumgebungen anzubringen sind, erfolgen kann, identifiziert automatisch ein oder mehrere Prozeßsteuerungsgeräte, ohne daß der Benutzer dazu irgendwelche Informationen über ein handbetätigbares Gerät eingeben muß, und kann dazu verwendet werden, dem Trager zu den identifizierten Gerate gehorige Informationen, einschließlich der von den identifizierten Geraten entwickelten Werte der Prozeßparameter, zu liefern.
  • Des weiteren kann der tragbare Computer zur Prüfung der korrekten Anschlusse der Gerate und/oder Kommunikationskanale innerhalb des Prozeßsteuerungssystems verwendet werden. Bei dieser Ausfuhrungsform zeigt eine auf dem tragbaren Computer laufende Software-Routine dem Träger uber die HUD Informationen an, die beispielsweise eine Liste der Gerate oder Kommunikationskanale enthalten, und ermöglicht es dem Träger, das jeweils zu prufende Gerät und/oder den Kommunikationskanal zu wahlen. Der Trager kann mittels verbaler Befehle, die von einer auf dem tragbaren Computer laufenden Spracherkennungsroutine aufgrund von Befehlen, die über ein beliebiges anderes Eingabegerät eingegeben werden, decodiert werden, ein Gerät oder einen Kanal Wahlen. Nach der Wahl des entsprechenden E/A-Kanals ermittelt die Routine den aktuellen Wert des Signals auf dem gewahlten Kanal uber Datenübertragung mit dem Host-Rechner und zeigt dem Träger diesen Wert auf der HUD an. Zu diesem Zeitpunkt kann der Trager den Wert auf dem aktuellen Kommunikationskanal z. B. mittels eines handgeführten Meßgerats manuell prüfen. Die Routine ermöglicht dem Trager dann, den Wert des Kanals zu ändern, indem er einen neuen Wert beispielsweise uber Sprachbefehle eingibt. Als nachstes ubertragt die Routine den neuen Wert an den Host-Rechner, der den Wert innerhalb des Prozeßsteuerungssystems andert und die Änderung an den tragbaren Computer zurückmeldet. Die Änderung kann dem Trager über die HUD angezeigt werden, worauf der Trager in diesem Zeitpunkt das Signal auf dem Kanal erneut manuell messen kann, um sicherzustellen, daß das gemessene Signal auf den neuen Wert geändert worden ist. Ist dies nicht der Fall, liegt in der Konfiguration des Prozeßsteuerungssystems ein Problem vor. Unter Anwendung dieses Systems kann der Trager die Anschlusse innerhalb einer Prozeßsteuerungsumgebung auf eine Weise prufen, bei der er die Hande frei hat, und ohne durchzufuhrende Anderungen an eine andere Person zu melden, die sich an einer anderen Stelle der Betriebsanlage (z. B. an einer Operator-Workstation) befindet.
  • Bei einer anderen Ausführungsform ermoglichen Routinen, die auf dem tragbaren Computer und einer Host-Workstation laufen, daß der Trager und ein Operator an der Host-Workstation ein gemeinsames Bild betrachten und manipulieren konnen, um dadurch die Kommunikation zwischen dem Operator und dem Trager zu verbessern. Das Host-System kann ein von der Videokamera des tragbaren Computers entwickeltes Signal empfangen und ein Basisbild fur die gemeinsame Betrachtung wählen. Dieses Bild wird auf der Anzeige des Hosts angezeigt und an den tragbaren Computer zur Anzeige auf der HUD geschickt. Danach konnen entweder der Operator oder der Träger oder beide das Bild manipulieren, indem beispielsweise ein Cursor im Bild bewegt wird, Daten oder Informationen hervorgehoben oder im Bild angebracht werden usw. Diese Änderungen werden dann an das jeweils andere System geschickt, so daß sie sowohl auf der Anzeige des Hosts als auch auf der HUD angezeigt werden.
  • Bei einer weiteren Ausfuhrungsform kann der tragbare Computer zum Erzeugen und Speichern von Informationen z. B. in Form von Sprachmeldungen, die ein Gerat oder ein anderes Objekt in der Prozeßsteuerungsumgebung betreffen, verwendet werden. Solche Informationen konnen dann automatisch an einen Trager oder Operator geliefert werden, der später zu diesem Gerät kommt.
  • 1 ist ein schematisches Blockdiagramm eines Prozeßsteuerungsnetzes mit einem damit entfernt gekoppelten tragbaren Computersystem;
  • 2 ist eine schematisches Blockdiagramm des tragbaren Computersystems von 1;
  • 3 ist ein Flußdiagramm einer Software-Routine, die Sprachdaten verarbeitet, um Befehle im tragbaren Computersystem von 2 zu erkennen;
  • 4 ist ein Flußdiagramm einer Software-Routine, die automatische Prozeßsteuerungsgerate auf Basis von vom tragbaren Computersystem nach 2 gesammelten Videoinformationen erkennt;
  • 5 ist ein Flußdiagramm eines Satzes Software-Routinen, die ein gemeinsam genutztes Bild für ein Host-System und das tragbare Computersystem nach 2 bereitstellen;
  • 6 ist ein Flußdiagramm einer Software-Routine, die den Benutzer eines tragbaren Computers unterstutzt, der Kommunikationsanschlusse innerhalb einer Prozeßsteuerungsumgebung auf ihre Richtigkeit pruft;
  • 7 ist eine erste Bildschirmanzeige des tragbaren Computers aus der Software-Routine nach 6;
  • 8 ist eine zweite Bildschirmanzeige des tragbaren Computers aus der Software-Routine nach 6; und
  • 9 ist eine weitere Bildschirmanzeige, des tragbaren Computers aus der Software-Routine nach 6.
  • Nunmehr sei auf 1 verwiesen, wonach ein Prozeßsteuerungssystem 10 eine Prozeßsteuerung 12 enthalt, die mit einer Host-Workstation oder einem Host-Rechner 14 (bei dem es sich um einen beliebigen Typ Personal Computer oder Workstation handeln kann) und Feldgeräten 15, 16, 17, 18 und 19 über Eingangs-/Ausgangs-(E/A)-Karten 20 und 22 verbunden ist. Die Steuerung 12, die beispielsweise eine von der Firma Fisher-Rosemount Systems, Inc., vertriebene DeltaVTM vertriebene Steuerung sein kann, kann mit dem Host-Rechner 14 über z. B. einen Ethernet-Anschluß und mit den Feldgeräten 15 bis 19 kommunikativ unter Verwendung von Hardware und Software in Zusammenhang mit jedem gewunschten Kommunikationsprotokoll (u. a. beispielsweise dem FOUNDATIONTM Fieldbus-, dem HART®-, PROFIBUS®-, WORLDFIP®-, Device-Net®- oder CAN-Protokoll) verbunden sein. Typischerweise implementiert die Steuerung 12 eine darin gespeicherte Prozeßsteuerungsroutine und kommuniziert mit den Geräten 15 bis 22 und dem Host-Rechner 14, um einen Prozeß auf jede gewunschte Weise zu steuern. Die Feldgerate 15 bis 19 können beliebige Typen Gerate, z. B. Sensoren, Ventile, Sender, Stellglieder usw. sein, wahrend die E/A-Karten 20 und 22 beliebige Typen E/A-Geräte sein konnen, die jedem gewünschten Kommunikations- oder Steuerungsprotokoll entsprechen.
  • Wie in 1 dargestellt ist der Host-Rechner 14 kommunikativ mit einem tragbaren Computersystem 30 uber ein Fern- oder drahtloses Kommunikationsgerät wie z. B. einen Fern-Ethernet-Sender/Empfänger 32 gekoppelt. Alternativ kann der Host-Rechner 14 mit dem tragbaren Computersystem 30 aber eine physikalische Leitung oder einen Bus verbunden werden, mit Anschlussen in der gesamten Prozeßsteuerungsumgebung, an die das tragbare Computersystem 30 vorubergehend angeschlossen und wieder davon getrennt werden kann.
  • Das tragbare Computersystem 30 enthalt einen tragbaren Computer 34 mit einem Fern-Sender/Empfanger 36 und einer Anzahl am Computer angeschlossener Peripheriegeräte. Bei der bevorzugten Ausfuhrungsform enthalt der tragbare Computer 34 eine CPU-Grundplatine der Pentium-Klasse mit Video, Audio, RAM (z. B. 64 MB) und ROM mit einem Festplattenlaufwerk (z. B. 4,3 GB), die samtlich in einem tragbaren Computer-Gurtzeug (nicht dargestellt) untergebracht werden. Der tragbare Computer 34 kann eine beliebige Anzahl Steckplatze aufweisen, z. B. PCMCIA-Steckplatze, von denen einer dazu verwendet werden kann, den Fern-Sender/Empfanger 36 und ein anderer, um eine Vido-Verarbeitungsplatine wie eine Platine zur Videobilderfassung aufzunehmen. Die kommunikativ mit dem tragbaren Computer 34 gekoppelten Peripheriegerate beinhalten ein Bildgebungsgerat 38, das eine Videokamera sein kann, eine HUD 40, einen Lautsprecher 42 (bei dem es sich um einen Kopfhorer/Lautsprecher oder um einen anderen Lautsprechertyp handeln kann), ein Mikrophon 44 und ein Eingabegerat 46 für den Benutzer, das beispielsweise eine typische Tastatur, eine Maus, eine Rollkugel oder ein Twiddler-Gerat mit einer begrenzten Anzahl leicht zu betatigender Tasten (z. B. Funktionstasten) sein kann, deren Funktion für verschiedene Anwendungen verschieden definiert wird. Selbstverstandlich können auch andere Peripheriegeräte zusätzlich oder alternativ verwendet werden.
  • Während das Bildgebungsgerat 38 vorzugsweise eine Videokamera ist, kann es statt dessen ein anderer Typ Bildgebungsgerat z. B. eine digitale Kamera sein, die kompakt ist und sich vom Träger auf einfache Weise so transportieren laßt, daß er die Hande frei hat. Am meisten bevorzugt ist die Videokamera 38 oder ein anderes bildgebendes Gerät an der HUD 40 oder einem anderen Gerät (z. B. einem tragbaren Kopfhörer) angebracht, das in Blickrichtung des Trägers weist. Eine kleine und leicht montierbare Videokamera, die für diesen Zweck verwendet werden kann, wird von der Firma Pulnix Corporation vertrieben. Diese Videokamera entspricht dem hochauflösenden Fernsehstandard (high definition television – HDTV) (d. h. erzeugt ein Farbild mit 800 × 600 Bildpunkten), hat ein Objektiv mit einem Durchmesser von ca. einem viertel bis einem halben Zoll und erzeugt ein hochauflosendes Farbbild. Statt dessen können jedoch auch andere Videokameras verwendet werden, z. B. Videokameras, die hoch- oder niedrigauflosende Farb- oder Schwarzweiß-(d. h. Grauton)-Bilder erzeugen. In einigen Fallen kann eine niedrigauflosende Videokamera (entweder Schwarzweißoder Farbbilder) bevorzugt werden, um die zur Verarbeitung eines Bildes in der nachstehend beschriebenen Weise erforderlich Zeit zu verkürzen.
  • Die HUD 40 kann ein NTSC-Videoformat verwenden und ist vorzugsweise eine monokulare HUD wie beispielsweise die M1 HUD, die von der Firma Liquide Image Corp., Kanada, vertrieben wird.
  • Diese HUD liefert ein Viertel-(d. h. 320 × 240 Bildpunkte)VGA-Grautonbild. Naturlich konnten statt dessen auch HUD's nach dem HDTV-Format (deren Kosten eine Verwendung derzeit noch verbieten) oder andere Farb- oder Grauton-HUD's, seien sie bereits verfügbar oder künftige Entwicklungen, verwendet werden. Als Lautsprecher 42, Mikrophon 44 und Eingabegerat 46 kann jedes geeignete und leicht transportierbare Gerat verwendet werden, wobei diese vorzugsweise so anzubringen sind, daß der Trager seine Hande frei hat. Bei einer Ausfuhrungsform kann ein Knochenleitungsmikrophon sowohl als Mikrophon 44 als auch als Lautsprecher 42 arbeiten. Wie bekannt, nutzen Knochenleitungsmikrophone die Knochen im Kiefer des Tragers, um Sprachsignale zu erkennen und/oder um Tonsignale am Ohr des Tragers zu erzeugen.
  • Bei installiertem tragbarem Computersystem 30 hat der Trager immer noch beide Hände frei, um andere Aktivitäten auszuführen wie beispielsweise Instandsetzen von Geraten, Vornehmen von Messungen oder Halten anderer Instrumente. Naturlich kann zur Betatigung des Eingabegerats 46 eine oder beide Hände erforderlich sein, es ist aber dennoch vorzugsweise so angebracht, daß der Trager die Hände frei hat.
  • Wie aus 2 ersichtlich ist, enthält der tragbare Computer 34 eine mit einem Speicher 52 gekoppelte CPU 50, bei dem es sich um jeden Speichertyp handeln kann, einschließlich z. B. eines Plattenlaufwerks (z. B. Festplatten-, Magnetplatten- oder Laserplattengerat), RAM, ROM, EEPROM, EPROM etc. Die CPU 50, die einen oder mehrere Prozessoreinheiten enthalten kann (oder andere festverdrahtete oder Firmwareelemente), die unabhangig voneinander oder koordiniert arbeiten, führt eine oder mehrere Software-Anwendungen (im Speicher 52 gespeichert) aus, wobei sie die Eingaben in den tragbaren Computer 34, im Speicher 52 gespeicherte Informationen und/oder Informationen verwendet, die vom Host-System über den Sender/Empfänger 36 geliefert werden. Außerdem stellt die CPU 50 Ausgaben an die Peripheriegerate sowie an das Host-System uber das entfernte Kommunikationsgerät, d. h. den Sender/Empfanger 36, bereit. Bei der Ausfuhrungsform von 2 ist die CPU 50 so dargestellt, daß sie eine Steuerung 54 enthält (die hardware- oder softwaremaßig implementiert sein kann) und die das zum tragbaren Computer 34 gehorige Betriebssystem ausführt, um verschiedene Eingaben von den Peripheriegeraten und anderen Komponenten des tragbaren Computers 34 zu erkennen und eine oder mehrere Anwendungen abzuarbeiten. Die in 2 dargestellte CPU 50 enthält eine Spracherkennungseinheit 56 oder führt diese aus, eine optische Zeichenerkennungs-(optical character recognition – OCR)-Einheit 60, einen Lautsprechertreiber 62 und einen HUD-Treiber 64. Außerdem ist die CPU 50 mit einem Video-Einzelbild-Grabber 68 gekoppelt, der auf einer getrennten Videoverarbeitungsplatine bereitgestellt werden kann.
  • Die Spracherkennungseinheit 56, bei es sich z. B. um das Dragon Dictate System, das von der Firma Dragon Systems, Boston, Massachusetts, vertrieben wird, oder um eine andere gewunschte Spracherkennungseinheit handeln kann, ist typischerweise softwaremaßig implementiert, kann aber alternativ auch auf einer getrennten Prozessorplatine ausgefuhrt sein. In jedem Fall empfangt die Spracherkennungseinheit 56 Sprache, Stimme oder andere Tonsignale vom Mikrophon 44, führt damit eine Spracherkennungsverarbeitung durch und liefert auf Basis der erkannten Spracheingaben Befehle an die Steuerung 54. Die Spracherkennungseinheit 56 kann jede gewünschte oder bekannte Verarbeitung der empfangenen Sprachsignale ausführen, um bestimmte erkannte Sprachbefehle oder Worte zu identifizieren. Wahrend dieses Prozesses kann die Spracherkennungseinheit 56 einen identifizierten Sprachbefehl mit einer Liste gespeicherter oder erkannter Sprachbefehle (die beispielsweise in Speicher 52 gespeichert sind) vergleichen, um zu bestimmen, ob ein gültiger Befehl vom Trager gegeben wird. Ist ein erkannter Befehl empfangen worden, schickt die Spracherkennungseinheit 56 den Befehl zur weiteren Verarbeitung an die Steuerung 54. Falls gewünscht, kann selbstverständlich die Steuerung 54 bestimmen, ob ein Sprachbefehl ein gultiger oder erkannter Befehl im Rahmen der von der Steuerung 54 abgewickelten Anwendung ist, und kann den Benutzer informieren, wenn ein nicht erkannter Befehl empfangen wird. Bekannterweise kann die Spracherkennungseinheit 56 auch Lernfahigkeiten haben.
  • 3 zeigt ein Blockdiagramm einer Software-Routine 80, die ein Sprachsignal verarbeitet, um Sprachbefehle zu identifizieren, und die vom tragbaren Computersystem 30 ausgeführt werden kann, um dem Träger zu ermöglichen, Daten oder Befehle verbal und damit ohne die Hande zu gebrauchen, einzugeben. In Block 82 der Routine 80 wird ein Sprachsignal vom Mikrophon 44 empfangen. Das Sprachsignal wird in Block 84 verarbeitet, um einen Sprachbefehl im Signal zu identifizieren, wobei jede gewunschte oder standardmäßige Spracherkennungsverarbeitungsroutine verwendet werden kann wie oben angegeben. In Block 86 werden dann der identifizierte Befehl oder die Eingabe mit einem Satz Befehlen verglichen, der beispielsweise im Speicher 52 gespeichert ist, um zu bestimmen, ob der Befehl gultig ist. Wird in Block 88 bestimmt, daß der Sprachbefehl erkennt worden ist, wird der Befehl in Block 90 zur Steuerung 54 geschickt, um von der Anwendung verwendet zu werden, die einen solchen Befehl erwartet. Danach oder wenn das Sprachbefehlssignal in Block 88 nicht als gültiger Befehl erkannt wird, geht die Steuerung zuruck zu Block 82, in dem weitere Sprachsignale empfangen und verarbeitet werden. Ist ein ungultiger Befehl empfangen worden, kann die Routine 80 selbstverständlich dem Träger eine entsprechende Anzeige liefern.
  • Die im tragbaren Computer 34 nach 2 bereitgestellte Video-Verarbeitungseinheit enthalt einen mit der OCR-Einheit 60 gekoppelten Einzelbild-Grabber (Frame-Grabber) 68, könnte jedoch ebenso andere Video- oder Bildverarbeitungs-Hardware/Software enthalten. Der Einzelbild-Grabber 68 kann z. B. eine Nogatek-Platine sein, die von der Firma Nogatek vertrieben wird, wahrend die OCR-Einheit 60 z. B. das Carina Echtzeit-OCR-Paket sein kann, das von der Firma Adaptive Recognition Hungary, Budapest, Ungarn, vertrieben wird. Obwohl diese bestimmte OCR-Einheit bisher zur Identifizierung der amtlichen Kennzeichen von Fahrzeugen verwendet worden ist, ist anzunehmen, daß dieses Produkt oder ein diesem gegenuber geringfugig modifiziertes abgeleitetes Produkt einwandfrei zur Erkennung der nachstehend beschriebenen Merkmale arbeiten wurde. Naturlich könnten auch andere geeignete Einzelbild-Grabber-Platinen und OCR-Pakete verwendet werden. Wie in 2 dargestellt, empfangt der Einzelbild-Grabber 68 ein Bildsignal (das mehrere Einzelbilder umfaßt) von der Videokamera 38 und stellt der OCR-Einheit 60 ein Ausgangseinzelbild zur Verfugung. (Erzeugt jedoch das Bildgebungsgerät 38 ein Standbild, wie das von einer digitalen Kamera, kann der Einzelbild-Grabber 68 naturlich entfallen).
  • Bei einer Ausführungsform verarbeitet die OCR-Einheit 60 das empfangene Bild, um Gerätemerkmale im Bild zu identifizieren, und diese Geratemerkmale dienen dann dazu, eines oder mehrere Gerate im Sichtfeld der Videokamera 38 zu identifizieren. Die OCR-Einheit 60 kann beispielsweise nach vorgegebenen Symbolen suchen und diese erkennen, wie alphanumerische Symbole auf den Feldgeraten, und die erkannten Symbole zur Identifizierung der Gerte der Steuerung 54 bereitstellen. Falls gewunscht, kann der Ausgang der Videokamera 38 natürlich auch für andere Zwecke verwendet werden. So kann z. B. das Videobild der Steuerung 54 zur Anzeige auf der HUD 40 geliefert und/oder über den Sender/Empfanger 36 an den Host-Rechner 14 zur Betrachtung und/oder Verarbeitung durch den Host-Rechner 14 geschickt werden.
  • Wie aus 4 zu ersehen ist, kann eine in Form eines Flußdiagramms dargestellte Routine 100 vom tragbaren Computer 34 ausgefuhrt werden, um Gerate innerhalb des Sichtfeldes des Tragers auf Basis der vorn Bildgebungsgerat 38 erfaßten Videoeingangs automatisch zu erkennen. In Block 102 wird ein Video- oder ein anderes Bild vorn Bildgebungsgerät 38 abgerufen. Ist das Bildgebungsgerät 38 eine Videokamera, kann im Block 102 der Einzelbild-Grabber 68 zum Herausgreifen eines bestimmten Video-Einzelbildes eingesetzt werden. Ist das Bildgebungsgerät jedoch beispielsweise eine digitale Kamera, kann im Block 102 ohne Hilfe des Einzelbild-Grabbers 68 direkt auf das Bild zugegriffen werden.
  • In Block 104 wird dann das Videobild oder das Einzelbild verarbeitet, um potentielle Geratemerkmale im Videoeinzelbild zu identifizieren. Bei einer Ausführungsform ist das Geratemerkmal ein Geräteanhänger, der gemäß OSHA für jedes der Feldgeräte innerhalb einer Prozeßsteuerungsumgebung zwingend vorgeschrieben ist. Im allgemeinen weisen solche Gerateanhänger einen rechtwinkligen Halter oder Rahmen (typischerweise ein bis zwei Zoll hoch und drei bis vier Zoll breit) mit alphanumerischen Schriftzeichen auf, die darin eingeätzt oder auf andere Weise eingraviert oder eingeschnitten sind, so daß sie fur Personen in der Prozeßsteuerungsumgebung sichtbar sind. Die alphanumerischen Schriftzeichen haben normalerweise eine vom Rahmen verschiedene Farbe, um diese Schriftzeichen besser sichtbar zu machen. Bei Erkennen der Geräteanhänger wird das Bild in Block 104 gescannt, um Bereiche, die wahrscheinlich Gerateanhanger enthalten, z. B. rechtwinklige Flächen innerhalb des Bildes, Bereiche mit bestimmten Farbbereichen, Bereiche mit alphanumerischen Schriftzeichen usw. zu identifizieren. Selbstverstandlich kann bei der Suche nach diesen Gerätemerkmalen jede gewunschte Verarbeitung angewendet werden. Danach werden in Block 106 die Geratemerkmale innerhalb der identifizierten Bereiche erkannt oder decodiert. Vor allem bei der Identifizierung von Gerateanhangern kann die optische Zeichenerkennung (unter Verwendung der OCR-Einheit 60) in Block 106 für die identifizierten Merkmale angewendet werden, um eine vorläufige Gerätekennung zu erzeugen. Befindet sich mehr als ein Gerat innerhalb des in Verarbeitung befindlichen Bildes, konnen in Block 104 und 106 zahlreiche Merkmale (z. B. Gerateanhänger) erkannt und zahlreiche vorlaufige Gerätekennungen identifiziert werden.
  • Danach wird in Block 108 jede der vorläufigen Geratekennungen mit einer Liste Geratekennungen, die beispielsweise im Speicher 52 abgelegt sind, verglichen, um die Existenz von Geraten entsprechend der vorläufigen Gerätekennungen zu überprüfen. Sind entsprechende Geräte vorhanden, werden die Gerätekennungen auf ihre Richtigkeit gepruft, und jede der verifizierten Geratekennungen wird in Block 110 an die Steuerung 54 zur Verwendung in anderen Anwendungen, zur Anzeige fur den Trager über die HUD 40 und/oder zur Weiterleitung an den Host-Rechner 14 uber den Sender/Empfänger 36 geliefert.
  • Obwohl die Routine 100 Geräte auf Basis jeder Art beobachtbarer Merkmale identifizieren kann, wird bevorzugt, daß die Routine 100 Gerate auf Basis von Gerätemerkmalen identifiziert, d. h. auf Merkmalen, die Bestandteil des im Feld angeordneten Geräts sind, ungeachtet der automatischen Erkennung und Identifizierung durch das tragbare Computersystem 30. Mit anderen Worten, soll die Routine 100 vorzugsweise Gerate auf Basis von Merkmalen, die nicht einzig zum Zweck der Erkennung durch das tragbare Computersystem 30 auf dem Gerät angebracht wurden, identifizieren, obwohl es moglich ware, Strichcode oder andere eindeutige Kennungen auf jedem der Geräte in der Prozeßsteuerungsumgebung anzubringen. Werden Erkennung und Identifizierung anhand von Gerätemerkmalen vorgenommen, sind keine zusatzlichen Schritte zur Etikettierung oder sonstigen Markierung jedes Geräts in einer Prozeßsteuerungsumgebung zum speziellen Zweck der Identifizierung durch einen tragbaren Computer erforderlich.
  • Andere Anwendungen, die z. B. dem Trager uber die HUD 40 automatisch Informationen anzeigen, konnen dem Trager die identifizierten Gerate oder andere zu dem (den) identifizierten Gerät(en) gehorigen Informationen über die HUD anzeigen und/oder konnen die identifizierten Gerätekennungen an das Host-System 14 senden. Natürlich kann die Liste der erkannten Gerate im Speicher 52 des tragbaren Computers 34 oder in einem anderen Speicher abgelegt werden, z. B. einem Speicher im Host-System 14, auf den im Block 108 uber entfernt angeordnete Kommunikationsgeräte zugegriffen werden kann, um vorläufige Gerätekennungen auf ihre Richtigkeit zu prüfen. Es versteht sich, daß nicht unbedingt jeder der Schritte der Routine 100 vom tragbaren Computersystem 30 ausgefuhrt werden muß. Einer oder mehrere dieser Schritte können statt dessen auch vom Host-Rechner 14 ausgefuhrt werden, der die Routine 100 im Datenaustausch mit dem tragbaren Computersystem 30 ausfuhren kann.
  • Nunmehr sei erneut auf 2 verwiesen, wonach der Lautsprechertreiber 62 Signale von der Steuerung 54 erhält und diese verarbeitet, indem er sie z. B. in analoge Standard-Audiosignale wandelt, sie verstärkt etc. Der Lautsprechertreiber 62 liefert dann das verarbeitete Signal an den Lautsprecher 42. Es liegt nahe, daß der Lautsprechertreiber 62 und die Steuerung 54 verwendet werden konnen, um zuvor aufgezeichnete Signale wiederzugeben, die beispielsweise im Speicher 52 oder im Speicher des Host-Rechners 14 gespeichert sind, und/oder um Echtzeit-Audioinformationen des Host-Systems wie die Stimme eine Operators am Host-System oder die Stimme eines anderen Benutzers eines tragbaren Computers aus einem anderen Bereich der Prozeßsteuerungsumgebung weiterzuleiten. Die Sprach- oder Audiosignale, die vom Lautsprecher 42 wiederzugeben sind, können dem tragbaren Computer 34 über den Sender/Empfänger 36 vom Host-System oder über ein anderes mit dem tragbaren Computer 34 gekoppeltes Audiokommunikationssystem bereitgestellt werden.
  • Analog empfangt der HUD-Treiber 64 von der Steuerung 54 Signale einschließlich Graphiken, die auf der HUD 40 anzuzeigen sind und verarbeitet diese Signale zur Anzeige auf der HUD 40 in entsprechender Weise. Bei manchen Ausführungsformen können der HUD-Treiber 64 und die HUD 40 zusammen mit dem Twiddler 46 oder dem Mikrophon 44 verwendet werden, um eine Standard-Betriebsumgebung eines Computers bereitzustellen, beispielsweise ein Windows-Bild mit Dialogkästchen, Text, Graphik und dgl. Bei dieser Umgebung kann der Benutzer einen Cursor verfahren, Informationen eingeben oder das Bild auf der HUD 40 manipulieren, um z. B. eine Anwendung auszuführen oder Entscheidungen in Zusammenhang mit einer vom tragbaren Computer 34 ausgefuhrten Anwendung zu treffen.
  • Die Steuerung 54 verwendet den Sender/Empfänger 36 in jeder gewunschten oder auf standardmäßige Weise und liefert Signale an den Sender/Empfanger 36 zur Übertragung an das Host-System unter Verwendung jedes gewünschten Kommunikationsprotokolls. Die Steuerung 54 ihrerseits empfängt und decodiert Informationen vom Host-Rechner 14 uber den Sender/Empfanger 36 unter Verwendung jedes gewünschten Kommunikationsprotokolls.
  • Das tragbare Computersystem 30 nach 2 kann verwendet werden, um dem Träger zahlreiche Arten von Informationen bereitzustellen und/oder um Funktionen in der Prozeßsteuerungsumgebung auszuführen, die die Aufgaben des Trägers erleichtern und beschleunigen, wenn dieser z. B. die Anschlüsse verschiedener Gerate in der Prozeßsteuerungsumgebung kontrolliert, einrichtet, instandsetzt, kalibriert und pruft. Mit dem tragbaren Computersystem 30 kann ein Trager beispielsweise uber die HUD 40 entweder automatisch oder nach entsprechenden Eingaben uber eines der Peripheriegeräte Informationen abfragen und prüfen, die zu bestimmten Geraten oder Bereichen der Prozeßsteuerungsumgebung gehoren. Der tragbare Computer 34 kann jede gewünschte Information, die zu einem bestimmten Gerät oder allgemein zum Prozeßsteuerungssystemgehört, speichern oder mit dem Host-Rechner 14 kommunizieren, um diese Informationen zu erhalten und diese Information dem Trager über die HUT) 40 auf dessen Anforderung oder wenn das tragbare Computersystem 30 ein Gerat im Gesichtsfeld des Tragers erkennt wie oben beschrieben anzeigen. Die angezeigte Information kann Prozeßinformationen wie schematische Darstellungen, Operator-Übersichten des Prozeßsteuerungssystems, Gerateinformationen wie Gerätelisten, Hilfetexte, Diagnoseinformationen und sogar Informationen zu den Prozeßparametern (Messungen, Parameterwerte etc.) enthalten, die zu einem oder mehreren der innerhalb des Prozeßsteuerungssystems angeschlossenen Gerate gehören.
  • Um derartige Informationen betrachten zu können, kann der sich bei dem Gerat befindende Träger eine Geratekennung, z. B. die Nummer eines Gerateanhangers oder eines Gerätes eingeben, wodurch die Steuerung 54 veranlaßt werden kann, bestimmte Arten von Geräteinformationen wie Hilfetexte, Kalibrierwerte, Diagnosen, Parameterwerte etc. automatisch anzuzeigen. Der Träger kann naturlich auch die Geratekennung mittels des Twiddlers 46, des Mikrophons 44 oder eines anderen Eingabegerates eingeben. Bei Verwendung des Mikrophons 44 kann die Spracherkennungseinheit 56 z. B. eine gesprochene Gerateanhangernummer oder eine Gerätebezeichnung identifizieren und diese Geräteanhangernummer oder die Gerätebezeichnung an die Steuerung 54 liefern. Falls gewünscht, kann die Spracherkennungseinheit 56 so eingerichtet werden, daß sie eine Geratenummer, eine Geratebezeichnung oder eine andere Geratekennung empfangen und die eingegebene Kennung mit einer Liste gultiger Gerätenummern oder Geratebezeichnungen im Speicher 52 vergleichen kann.
  • Bei einer Ausfuhrungsform werden wie oben beschrieben die Gerate im Sichtfeld des Trägers automatisch von der Videoverarbeitungsschaltung erkannt und können, wenn eine derartige Erkennung stattfindet, dem Träger über die HUD 40 automatisch in jedem gewünschten Format angezeigt werden. Ist die Information im Speicher 52 gespeichert, kann die Steuerung 54 automatisch auf die Information zugreifen und der HUD 40 mittels des HUD-Treibers 64 bereitstellen oder auf dieser anzeigen.
  • In jedem dieser Falle kann die Steuerung 54 einem Benutzer eine Liste erkannter Gerate anzeigen, so daß dieser die Anzeige von Informationen zu einem dieser Gerate wahlen kann, oder die Steuerung 54 kann wahlweise Informationen zu den erkannten Geraten automatisch über die HUD 40 anzeigen. Es ist von Bedeutung, daß es die Verwendung des Mikrophons 44, der Videokamera 38 und der zugehorigen Hardware/Software des tragbaren Computersystems 30 dem Trager ermöglicht, zu den Geräten (oder Bereichen oder anderen Einheiten des Prozeßsteuerungssystems) gehorige Informationen automatisch so anzuzeigen, daß er seine Rande frei hat, d. h. ohne Daten oder sonstige Informationen uber ein handgeführtes oder handbetatigtes Gerat einzugeben. Damit hat der Trager seine Rande frei zur Durchführung anderer Aufgaben wie Instandsetzen, Austauschen oder Kalibrieren von Geraten, Handhaben anderer Werkzeuge etc., was sehr vorteilhaft ist. Außerdem kann das tragbare Computersystem 30 Informationen empfangen und anzeigen, die von den Gerten gemessen oder in diesen gespeichert wurden, die der Trager tatsachlich inspiziert, ohne daß getrennte Skalen oder Anzeigen gebraucht werden, die physikalisch an der Außenseite jedes Gerates angeordnet sind.
  • Bei einer anderen Ausführungsform kann das tragbare Computersystem 30 verwendet werden, um einem z. B. am Host-Rechner 14 befindlichen Operator und einem Träger über die HUD 40 die gemeinsame Betrachtung (z. B. Anzeige) bereitzustellen, um dadurch die Verstandigung zwischen beiden zu verbessern. Eine solche gemeinsame Betrachtungsanwendung gestattet es einer oder beiden dieser Personen, das Bild zu manipulieren, um beispielsweise bestimmte Teile des Bildes zu zeigen oder hervorzuheben oder um Daten auf dem Bild anzubringen. Diese Maßnahmen konnen gemeinsam mit Sprachkommunikation erfolgen, um dadurch den Sprechverkehr zwischen dem Träger und einem Operator am Host-Rechner 14 zu verbessern.
  • 5 zeigt ein Blockdiagramm einer Software-Routine 116, die auf dem Host-Rechner 14 laufen kann, und ein Blockdiagramm einer Software-Routine 118, die auf dem tragbaren Computersystem 30 laufen kann, um eine gemeinsame Betrachtung oder Anzeige zu implementieren. In Block 120 der Routine 118 wird ein Videobild erfaßt und über den Sender/Empfänger 36 an den Host-Rechner 14 gesendet. (Der Datenaustausch zwischen dem tragbaren Computersystem 30 und dem Host-Rechner 14 ist in 5 mit gestrichelten Linien dargestellt). Dieses Bild kann das gesamte aus mehreren Einzelbildern bestehende von der Videokamera 38 erzeugte Bild oder eines oder mehrere Einzelbilder desselben sein. In Block 122 der Routine 116 wird das Videobild empfangen, und in Block 124 wird das Videobild dem Operator über eine zum Host-Rechner 14 gehörige Anzeige angezeigt. In Block 126 kann der Operator am Host-Rechner 14 ein Einzelbild des Videobildes als Basis für die gemeinsame Betrachtung (ein Basisbild) wählen. In Block 126 kann beispielsweise einfach das zuletzt empfangene Einzelbild des empfangenen Videosignals angezeigt werden, bis der Operator angibt, daß ein Festbild erforderlich ist. Wahlweise kann der Operator in Block 126 die empfangenen Einzelbilder abspielen, um ein gewunschtes Bild zu Wahlen, oder er kann auf andere Weise ein Basisbild Wahlen. Wählt der Operator kein Basisbild zur gemeinsamen Anzeige, geht die Steuerung in Block 126 zurück zu Block 122. Wählt der Operator in Block 126 ein Basisbild, wird das gewählte Basisbild in Block 128 an das tragbare Computersystem 30 zur Anzeige für den Träger auf der HUD 40 geschickt. Falls gewunscht, kann das gewählte Basisbild im Block 128 auch dem Operator über die Anzeige des Host-Rechners 14 angezeigt werden. Als nachstes wird in Block 130 der Routine 116 bestimmt, ob vom Operator des Host-Rechners Anderungen des Basisbildes vorgenommen oder gefordert werden. Solche Änderungen können beispielsweise das Verfahren eines Cursors oder Zeigers, das Zeichnen im Bild, das Hervorheben von Bildbereichen, das Anbringen von Informationen oder anderen Daten auf dem Bild oder sonstige andere gewünschte Änderungen enthalten, die es dem Operator ermöglichen, mit dem das Bild verwendenden Träger zu kommunizieren. Diese Anderungen können vom Operator mittels beliebiger gewunschter Systemprotokolle und Peripheriegerate, beispielsweise einer Maus und einer Tastatur, vorgenommen werden. Nimmt der Operator Änderungen des Bildes vor, werden diese in Block 132 uber das Sender/Empfängernetz 32/36 an das tragbare Computersystem 30 geschickt. Die Änderungen können mit jedem gewünschten Protokoll übertragen werden, und es können wie gewunscht entweder die betreffenden Änderungen oder ein komplettes die Änderungen enthaltendes neues Einzelbild an das tragbare Computersystem 30 geschickt werden. Bei einer Ausfuhrungsform können Änderungen in Form von Zeigerbewegungen als neue Zeigerkoordinaten übertragen werden. Nach Ausführen und Senden der Bildanderungen an das tragbare Computersystem 30 oder wenn der Host-Operator keine neuen Änderungen mehr vornimmt, wird das Bild des Host-Systems in Block 134 aufgefrischt (unter Einbeziehung der vom Operator und der vom tragbaren Computersystem ausgeführten und an das Host-System geschickten Änderungen). Die Steuerung der Routine 118 geht dann zurück zu Block 130, um andere vom Host-Operator ausgefuhrte Änderungen zu erkennen.
  • Die Routine 118 enthalt einen Block 136, der das vom Host-System empfangene Basisbild auf der HUD 40 anzeigt. In Block 138 werden dann vom Trager am Bild vorgenommene Änderungen erkannt, wobei diese Anderungen mit jedem verfügbaren Eingabegerät einschließlich des Mikrophons 44 und des Twiddlers 46 erfolgt sein können. Nimmt der Trager Änderungen am dargestellten Bild vor, werden diese in Block 140 an den Host-Rechner 14 geschickt. Anschließend oder wenn keine vom Trager veranlaßten Änderungen erkannt werden, wird das Bild auf der HUD 40 in Block 142 aufgefrischt, wobei Änderungen durch den Trager sowie Anderungen, die am Host-Rechner 14 erfolgten und von diesem empfangen wurden, berucksichtigt werden. Die Steuerung der Routine 118 geht dann zu Block 138 zurück, um weitere vom Träger veranlaßten Änderungen zu erkennen.
  • Auf diese Weise laufen die Routinen 116 und 118 auf den Host-Rechner 14 und dem tragbaren Computersystem 30 ab, um eine gemeinsame Betrachtung oder Szene bereitzustellen, die vom Host-Operator oder vom Träger oder von beiden manipuliert werden kann, um die Verstandigung zwischen beiden zu verbessern. Obwohl das Basisbild hier als von einem vom tragbaren Computersystem 30 erfaßten Bild abgeleitet beschrieben worden ist, braucht dies nicht der Fall zu sein. Das Basisbild könnte statt dessen eine gespeicherte Ansicht des Operators, eine schematische Darstellung usw. in Zusammenhang mit dem interessierenden Prozeß oder Gerät sein. In jedem Fall macht es die gemeinsame Ansicht dem Host-Operator moglich, verschiedene Elemente innerhalb des angezeigten Bildes auf eine solche Weise herauszugreifen und zu besprechen, die der Trager durch Betrachten einfach nachvollziehen kann. Falls gewünscht, kann außerdem der Trager Änderungen des Bildes vornehmen und dazu z. B. denselben oder einen anderen Cursor verwenden, um die Verstandigung mit dem Host-Operator zu unterstützen. Falls gewünscht, braucht es dem Trager nicht möglich zu sein, Änderungen des Bildes vorzunehmen, wodurch die Routinen 116 und 118 nach 5 vereinfacht werden. Falls gewunscht, kann der Trager außerdem das zu verwendende Basisbild wahlen, bevor es an den Host-Rechner 14 geschickt wird.
  • Eine weitere Anwendung des tragbaren Computersystems 30 innerhalb einer Prozeßsteuerungsumgebung wird in Zusammenhang mit der in Form eines Flußdiagramms in 6 dargestellten Routine 150 beschrieben, die vorzugsweise vom tragbaren Computersystem 30 ausgefuhrt wird. Grundsätzlich ermoglicht es die Routine 150 dem Trager, die richtigen Anschlusse verschiedener Geräte oder Kommunikationskanäle (z. B. E/A-Anschlüsse) innerhalb einer Prozeßsteuerungsumgebung auf ihre Richtigkeit zu überprufen, wobei er seine Hande frei hat und nicht der Hilfe durch einen Operator an einem Host-Gerat bedarf. Fruher mußte ein Techniker mit einem handgefuhrten Meßgerät, z. B. einem Spannungsmesser, sowie einem handgeführten Funkgerät, über das der Techniker mit einem Operator an der Host-Workstation kommunizierte zur Uberprufung der richtigen Anschlusse der Gerate oder der Kommunikationskanale innerhalb einer Prozeßsteuerungsumgebung in die Betriebsanlage gehen. Dazu mußte der Techniker erst bis zu dem Gerat gehen, dem Host-Operator über das handgefuhrte Funkgerät melden, daß er vor Ort sei und dann angeben, welchen Kommunikationskanal er prüfen werde. Zu diesem Zeitpunkt mußte der Techniker ein handgefuhrtes Meßgerät bedienen und das Signal auf der Leitung tatsachlich messen. Danach teilte der Techniker dem Host-Operator uber das handgefuhrte Funkgerät mit, was seine Messung des Signals ergeben hat, so daß der Host-Operator sicherstellen konnte, daß das gemessene Signal das tatsachliche Signal auf dem gewählten Kommunikationskanal war. Anschließend forderte der Techniker den Host-Operator auf, das Signal des fraglichen Kanals zu ändern, und der Host-Operator veranlaßte die Änderung des Signals oder des Wertes des Kommunikationskanals. Der Techniker maß dann das Signal auf dem Kanal erneut, um sicherzustellen, daß die Änderung tatsachlich erfolgt ist. Dies zeigt, daß dieser Prozeß viele schwierige Dialoge zwischen dem Host-Operator und dem Techniker erforderte und innerhalb einer ausgedehnten und komplexen Prozeßsteuerungsumgebung schwer durchzuführen war, in der der Techniker versuchte, gleichzeitig ein handgeführtes Funkgerät, ein handgeführtes Meßgerat zu bedienen und sich Zugang zu den entsprechenden Geräten oder Kommunikationsleitungen zu verschaffen. Außerdem stutzte sich dieser Prozeß auf die Verstandigung zwischen dem Host-Operator und dem Techniker, was zu Verwechslungen und Fehlern aufgrund von Verstandnisschwierigkeiten fuhren konnte.
  • Mit der Routine 150, von 6 kann ein Träger Geräteanschlüsse von Kommunikationskanälen, z. B. E/A-Anschlüsse, innerhalb eines Prozeßsteuerungssystems mit relativ freien Handen (d. h. er hält nur ein Meßgerat) überprufen, ohne dabei mit einem Operator an einer Host-Workstation kommunizieren zu mussen. Statt dessen kann das tragbare Computersystem 30 mit dem Host-Rechner direkt kommunizieren, um dem Träger alle benötigten Informationen zur Verfugung zu stellen und alle vom Tragen geforderten Anderungen vorzunehmen, um die Anschlusse eines Gerätes oder eines Kommunikationskanals im Prozeßsteuerungssystem prüfen zu können. Bei Anwendung der Routine 150 kann der Träger in die Prozeßsteuerungsumgebung gehen, eine Liste der Gerate und/oder zu einem Gerat gehörigen Kommunikationskanäle abzurufen, ein bestimmtes Gerat und/oder einen bestimmten Kommunikationskanal zur Prufung wählen, ermitteln, wie das Signal des Geräts oder auf der zu prüfenden Leitung beschaffen sein sollte, Änderungen des Signals vornehmen und sowohl das ursprungliche als auch das geänderte Signal messen, um den korrekten Anschluß des Gerätes oder des Kanals zu prüfen – und dies alles, ohne einen Host-Operator.
  • Die Routine 150 enthält einen Block 152, in dem eine Liste der Gerate auf der HUD 40 angezeigt wird, die geprüft werden können. Der Träger kann ein bestimmtes zu prüfendes Gerat wählen, indem er eines der aufgelisteten Gerate in beliebiger Weise anwahlt. Vorzugsweise spricht der Trager Befehle in das Mikrophon wie UP (nach oben), DOWN (nach unten), LEFT (nach links), RIGHT (nach rechts), ENTER (Eingabe) etc. die erkannt und an die Steuerung 54 ubergeben werden, um einen Cursor zu verfahren (bei dem es sich um einen hervorgehobenen Bereich handeln kann) oder um Elemente auf einem Windows-Bildschirm der HUD 40 zu wahlen. Selbstverständlich kann der Träger auch ein Gerat mittels des Twiddlers 46 oder eines anderen Tastengeräts wahlen, indem er das Mikrophon zur Eingabe der Bezeichnung oder des Anhangers eines Gerats oder die Videokamera 38 zur automatischen Identifizierung eines Geräts wie bezüglich der Routine 100 nach 4 beschrieben verwendet.
  • Der Block 154 wartet, bis der Trager ein Gerät wählt, und nach der Wahl eines Gerats durch den Trager wird in Block 156 uber die HUD 40 eine Liste der zu dem gewahlten Gerät gehorigen Kommunikationskanale angezeigt. Ein Beispiel einer solchen Anzeige auf Basis eines Windows-Bildschirm ist in 7 dargestellt und zeigt einen Satz von 11 Kommunikationskanälen fur das Gerat CTLR1 (Controller 1), wobei der erste Kanal CTLR1C02CH1 hervorgehoben ist. Naturlich kann die Liste der E/A- oder sonstiger Kommunikationskanäle auch auf jede andere Weise angezeigt werden und ist nicht auf die Darstellung in 7 beschränkt.
  • Nunmehr sei erneut auf 6 verwiesen, wonach in Block 158 darauf gewartet wird, daß der Trager einen zu prufenden Kommunikationskanal wahlt. Der Trager kann einen bestimmten Kanal wahlen, der beispielsweise im Bildschirm von 7 angezeigt wird, indem er einen einfachen Sprachbefehl wie BACK (Zuruck) NEXT (Nachster) verwendet, um den Cursor zu einem anderen Kanal zu verfahren, und ENTER (Eingabe), um diesen Kanal zu wählen. Um also den dritten Kommunikationskanal (CTLR1C02CH03) bei Betrachtung des Bildschirms von 7 zu wahlen, kann der Trager einfach zwei mal NEXT (Nächster) sagen, um den Kanal CTLR1C02CH03 hervorzuheben, und dann ENTER (Eingabe), um diesen Kanal zu wahlen. Obwohl auch andere Sprachbefehle verwendet werden konnen, ist der Satz Sprachbefehle vorzugsweise auf einfache Worter zu beschranken, die von der Spracherkennungseinheit 56 leichter erkannt werden konnen. Während der Bildschirm von 7 auch mit anderen Eingabegeraten wie z. B. einem Twiddler 46 manipuliert werden kann, sollte der Träger vorzugsweise in der Lage sein, den Bildschirm unter Verwendung von Sprachsignalen zu manipulieren, Daten einzugeben oder dazu andere nicht manuelle Eingabegeräte zu verwenden, so daß er beide Hände fur andere Aufgaben frei hat.
  • Nachdem der Benutzer einen bestimmten zu prüfenden Kommunikationskanal gewahlt hat, wird in Block 160 ein weiterer Bildschirm auf der HUD 40 angezeigt, der Prozeßinformationen zum gewahlten Kanal enthalt. Ein Beispiel eines solchen Bildschirms ist in 8 für den gewählten Kanal CTLR1C02CH01 dargestellt. Um den Bildschirm von 8 zu erzeugen, wird in Block 160 der aktuelle Prozeßwert des gewahlten Kommunikationskanals vom Host-System uber den Sender/Empfanger 36 abgefragt (in diesem Fall ”0”) und zusammen mit einer Qualitätsangabe für das Signal (in diesem Fall ”gut”) angezeigt. Der Block 160 stellt dem Benutzer außerdem einen Bereich zur Eingabe eines neuen Prozeßwertes fur den Kanal bereit und zeigt den Signaltyp des Kanals, d. h. ob der Kanal ein analoger oder ein digitaler Kanal ist, und die gültigen Bereiche des Signals an. Die auf dem Bildschirm dargestellte Information wird entweder im Speicher 52 des tragbaren Computersystems 30 gespeichert oder vom Host-Rechner 14 abgerufen, der entweder die Information in einem Speicher speichert oder von einem Gerat abruft. Im dargestellten Beispiel von 8 ist der Kanal CTLR1C02CH01 ein digitaler Kanal, der momentan auf dem Wert null liegt. 9 zeigt einen ahnlichen Bildschirm, der auf der HUD 40 fur den Kanal CTLR1C06CH01 angezeigt wird, bei dem es sich um einen analogen Kanal mit einem gultigen Bereich von 0 bis 100 und einen momentanen Wert von 90 handelt.
  • Bei Betrachtung der Bildschirme von 8 und 9 kann der Benutzer den Wert auf dem gewahlten Kanal von Hand messen, indem er beispielsweise einen handgeführten Spannungsmesser oder ein. anderes Gerat benutzt. Stimmt der gemessene Wert mit dem im Feld 'aktueller Wert' des Bildschirms überein, kann der Träger fortfahren, indem er einen neuen Wert in ein neues Feld 'aktueller Wert' eingibt. Nunmehr sei erneut auf 6 verwiesen, wonach in Block 162 darauf gewartet wird, daß der Träger einen neuen Prozeßwert eingibt, vorzugsweise mittels Sprachbefehlen in Form von Zahlen und anderen einfachen Befehlen wie ENTER, BACK und NEXT, so daß der Trager das Meßgerat nicht aus der Hand legen muß. In das neue Feld 'aktueller Wert' des Bildschirms von 9 wird ein neuer Wert von 98.5 eingegeben. Bei Empfang eines neuen Wertes wird der neue Wert in Block 164 zum Host-System geschickt, das dann den gewahlten Kanal auf den neuen Wert andert und nach Sicherstellung, daß der gewahlte Kanal auf den neuen Werte geandert wurde, den neuen Wert an das tragbare Computersystem 30 als aktuellen Wert des gewahlten Kanals schickt. Der Bildschirm der HUD 40 wird dann in Block 166 aufgefrischt, um anzuzeigen, daß der aktuelle Wert auf den zuvor eingegebenen neuen Wert geandert worden ist, und das neue Feld 'aktueller Wert' wird gelöscht, damit der Träger einen anderen neuen Wert eingeben kann. Zu diesem Zeitpunkt kann der Trager das Signal auf dem gewahlten Kanal mittels des handgeführten Meßgeräts messen, um zu prüfen, ob das Signal auf den eingegebenen neuen Wert geandert worden ist. Falls ja, ist der Kommunikationskanal mit größter Wahrscheinlichkeit korrekt angeschlossen und arbeitet innerhalb des Prozeßsteuerungssystem einwandfrei. Falls nicht, liegt ein Problem vor, das zu identifizieren und zu beseitigen ist. Der Trager kann natürlich weitere Änderungen des Wertes des Kommunikationskanals vornehmen und diese Anderungen messen, oder zu den Kanal- oder Gerateanwahlbildschirmen zuruckgehen, um einen anderen zu prufenden Kanal oder ein anderes zu prüfendes Gerat zu wählen.
  • Bei Verwendung des oben beschriebenen Systems kann eine einzige Person den korrekten Anschluß und die korrekte Funktion verschiedener Kommunikationskanäle in einer Prozeßsteuerungsumgebung prüfen, ohne mit einem Operator an der Host-Station zu sprechen oder dies mit ihm koordinieren zu müssen und ohne ein handgefuhrtes Funkgerät herumtragen zu mussen, was die Messungen und andere Aktivitaten vor Ort behindern würde.
  • Bei einer anderen Ausführungsform kann das tragbare Computersystem 30 dazu verwendet werden, Informationen zu jedem Gerat oder Objekt in der Prozeßsteuerungsumgebung zu speichern und automatisch abzurufen, einschließlich von Geraten mit Gerateanhangern oder anderen erkennbaren Gerätemerkmalen und Objekten wie Gange, Abfalltonnen, Gebaude etc., die typischerweise keine Gerateanhanger tragen. Bei Verwendung des tragbaren Computersystems 30 in dieser Weise kann ein Träger in einer Betriebsanlage oder einer anderen Prozeßsteuerungsumgebung herumgehen und Sprachmeldungen (oder andere Informationen oder Daten) in Zusammenhang mit Geraten und Objekten in der Betriebsanlage zum spateren Abruf entweder durch den Trager oder eine andere Person aufzeichnen. Ebenso kann der Trager, wenn er ein Gerat oder Objekt sieht, bestimmen (indem er auf die Anzeige der HUD 40 schaut), ob für dieses Gerät schon früher Sprachmeldungen erstellt worden sind und diese abrufen.
  • Bei einer Ausfuhrungsform enthalt eine Softwareroutine zur Implementierung dieser Funktion (die im Prozessor der CPU 50 des tragbaren Computers 34 gespeichert und ausgeführt werden konnen) drei Basisroutinen, bei denen es sich um getrennte Routinen handeln kann oder die alle Subroutinen einer einzigen Routine sein konnen. Die erste Routine identifiziert ein oder mehrere Gerate im Gesichtsfeld des Trägers oder die fur den Trager von Interesse sind. Diese Routine kann beispielsweise Spracheingaben (über das Mikrophon 44) in Form von Geratebezeichnungen, Anhangern oder anderen Geratekennungen, die Geräte kennzeichnen, die momentan für den Trager von Interesse sind, akzeptieren. Analog kann diese Routine dem Trager über die HUD 40 eine Gerateliste anzeigen, so daß der Träger eines der angezeigten Geräte mittels z. B. Sprachbefehlen oder anderen Eingaben wahlen kann. Alternativ kann diese Routine Gerate mittels der oben in Zusammenhang mit 4 beschriebenen Videobildverarbeitungsroutine, die eines oder mehrere sichtbare Geratemerkmale identifiziert, automatisch identifizieren. Anstelle der Geratemerkmale kann die automatische Videoverarbeitungsroutine ein Gerat auf Basis von Kennungen, die am Gerat oder in der Nähe des Gerats zu dem spezifischen Zweck, das Gerat zu identifizieren, angebracht worden sind (z. B. optische Strichcodes), identifizieren. Andererseits können Sender am oder in der Nahe eines oder mehrere Geräte plaziert werden, die ein Signal aussenden, das vom tragbaren Computer 34 empfangen und von der Routine decodiert wird, um das eine oder die mehreren Gerate zu identifizieren. Bei einer Ausfuhrungsform kann ein einziger Sender für einen Raum oder einen anderen Bereich vorgesehen werden, und bei Empfang und Decodierung des gesendeten Signals kann die Routine auf einen Speicher zugreifen (der z. B. entweder im tragbaren Computer 34 oder im Host-Rechner 14 vorgesehen ist), der sämtliche Gerate innerhalb dieses Raums oder Bereiches speichert. Dem Trager kann dann uber die HUD 40 eine Liste dieser Gerte zur Verfugung gestellt werden. In ahnlicher Weise konnen Geräte, die keine Anhanger oder andere automatisch erkennbaren Merkmale haben, (in einer Datenbank) Geraten, die solche automatisch erkennbaren Merkmale haben, zugeordnet werden. Typischerweise werden einander benachbarte Gerate in der Datenbank einander zugeordnet. Wird spater eines dieser Gerte mit einem automatisch erkennbaren Merkmal (ein Gerat mit Anhanger) identifiziert, kann die Routine anhand der Datenbank andere Geräte ohne Anhänger bestimmen, die sich in der Nahe des Gerats mit Anhänger befinden oder diesem auf andere Weise zugeordnet sind, und dem Trager uber die HUD 40 eine Liste aller dieser Geräte anzeigen. Naturlich konnen auch andere Verfahren zur Identifizierung von Geraten angewendet werden.
  • Nachdem eines oder mehrere Gerate identifiziert wurden und z. B. dem Trager uber die HUD 40 angezeigt werden, kann der Träger mittels einer zweiten Routine eine einem der identifizierten Gerate zuzuordnende Sprachmeldung speichern. Der Trager kann eines der identifizierten Geräte wählen (indem er beispielsweise Sprachbefehle oder andere Eingaben verwendet) und dann bei Aufforderung über die HUD 40 in das Mikrophon 44 sprechen, um eine Sprachmeldung zu erzeugen. Die zweite Routine speichert dann die Sprachmeldung als dem identifizierten/gewahlten Gerat zugeordnet. Dieser Speicher kann der Speicher 52 des tragbaren Computers 34 oder vorzugsweise ein Speicher im Host-System z. B. im Host-Rechner 14 sein. Bei einer Speicherung im Host-Rechner 14 steht die Sprachmeldung mehreren tragbaren Computern zur Verfugung.
  • Eine dritte Routine bestimmt, ob es schon eine der früher gespeicherten Sprachmeldungen für eines der von der ersten Routine identifizierten Gerate gibt und falls ja, liefert sie eine Anzeige z. B. ein Symbol zur HUD 40, um dem Trager zu melden, daß fur das betreffende identifizierte Gerät eine bereits gespeicherte Meldung vorliegt. Wählt der Träger das Symbol beispielsweise mittels Sprachbefehlen an, ruft die dritte Routine die zuvor gespeicherte Sprachmeldung aus dem Speicher ab und spielt sie dem Trager uber den Lautsprecher 42 ab.
  • Mittels dieser Datenspeicherungs-/Abrufeinheit kann der Trager (oder Operator) bei jeder manuellen oder automatischen Identifizierung eines Gerats durch den Trager (oder einen Operator des Host-Systems 14) eine dem Gerät zuzuordnende Sprachmeldung aufzeichnen und gleichermaßen zuvor aufgezeichnete diesem Gerät zugeordnete Sprachmeldungen abrufen und abhören. Auf diese Weise kann ein Träger (oder Operator) Anmerkungen machen oder Nachrichten zu einem Gerät oder einem anderen Objekt im Prozeßsteuerungssystem hinterlassen, die später von ihm selbst oder einer anderen Person abgerufen werden konnen. Eine solche Meldung kann beispielsweise die nachste Person daruber informieren, daß das Gerat einer Instandsetzung unterzogen wird oder daß es eine Kalibrierung erfordert, oder irgendeine, andere gewunschte Meldung in Zusammenhang mit dem Gerät oder Objekt sein. Ein einfaches Beispiel hierfur ist, daß ein Trager einen Gang in der Prozeßsteuerungsumgebung entlang geht und bemerkt, daß dieser mit einem neuen Anstrich versehen oder repariert werden muß. (Der Gang kann aufgrund des Raums, in dem sich der Benutzer befindet, aufgrund der Nähe zu anderen Geräten, die anhand der Gerätemerkmale automatisch identifiziert werden können, aufgrund spezifischer Code oder anderer auf dem Gang angebrachter Merkmale zur automatischen Identifizierung, aufgrund vom Benutzer generierter Eingaben irgendeiner Art einschließlich Spracheingaben und Eingaben aber manuell oder auf sonstige Weise zu betätigende Eingabegeräte automatisch identifiziert werden). Der Trager kann den Gang auf der HUD 40 Wahlen und dann mittels einer Sprachmeldung angeben, daß Reparaturen des Gangs erforderlich sind. Wird spater der Gang als von Interesse oder als vom Trager eines tragbaren Computers (oder vom Operator des Host-Rechners 40) inspiziert erkannt, wird die Sprachmeldung dem Träger (oder Operator) automatisch bereitgestellt und durch ein Symbol (das auch eine Textmeldung sein kann), das diesem Gang auf der HUD 40 zugeordnet ist, als verfügbar markiert. Auf diese Weise konnen neue Informationen erstellt und als zu einem Gerat oder Objekt in einer Prozeßsteuerungsumgebung zugehorig gespeichert werden, und diese Informationen können spater einem Benutzer auf die gleiche Weise und/oder zur gleichen Zeit wie andere eher standardmaßige Informationen (wie Hilfetext) zur Verfügung gestellt werden.
  • Die hierin beschriebenen Routinen konnen selbstverständlich in einer Standard-Universal-CPU oder auf speziell konzipierter Hardware oder Firmware implementiert werden. Bei softwaremäßiger Implementierung kann die Software in jedem computerlesbaren Speicher, beispielsweise einer Magnetplatte, einer Laserplatte oder einem anderen Speichermedium, in einem RAM oder RAM eines Computerprozessors usw. gespeichert werden. Gleichermaßen kann diese Software einem Benutzer oder einem Gerät (wie der tragbare Computer) aber jede bekannte oder gewünschte Übertragungsmethode, einschließlich z. B. auf einer computerlesbaren Platte oder einem anderen mobilen Computerspeichermechanismus oder über einen Kommunikationskanal, z. B. eine Telephonleitung das Internet etc. (was als identisch oder austauschbar mit der Bereitstellung solcher Software uber ein mobiles Speichermedium gilt) geliefert werden.
  • Bezugszeichenliste
  • 10
    Prozeßsteuerungssystem
    12
    Prozeßsteuerung, Steuerung
    14
    Host-Workstation, Host-Rechner
    15, 16, 17, 18, 19
    Feldgerste
    20, 22
    Eingangs-/Ausgangs-(E/A)-Karten
    30
    tragbares Computersystem
    32
    Sender/Empfanger
    34
    tragbarer Computer
    36
    Sender/Empfanger, Fern-Kommunikationsgerat
    38
    Bildgebungsgerät, Videokamera
    40
    HUD, (head-up display – Anzeigeneinspiegelung)
    42
    Lautsprecher
    44
    Mikrophon
    46
    Eingabegerat
    50
    CPU (central processing unit – Zentraleinheit), Prozessor
    52
    Speicher
    54
    Steuerung
    56
    Spracherkennungseinheit
    60
    optische Zeichenerkennungs-(optical character recognition – OCR)-Einheit
    62
    Lautsprechertreiber
    64
    HUD-Treiber
    68
    Video-Einzelbild-Grabber
    80
    Software-Routine
    100
    Routine
    116
    Software-Routine
    118
    Software-Routine
    150
    Routine

Claims (28)

  1. Tragbarer Computer (34) zur Verwendung in einer Prozesssteuerungsumgebung mit einem darin befindlichen Prozesssteuerungssystem (10), der Folgendes aufweist: eine Zentraleinheit (50); einen computerlesbaren Speicher (52); ein Head-up Display (40); mindestens ein Eingabegerät (38, 44, 46), das der Zentraleinheit (50) mindestens ein Eingangssignal liefert; und eine Software-Routine, die im computerlesbaren Speicher (52) gespeichert ist und auf der Zentraleinheit abläuft, die das mindestens eine Eingangssignal verarbeitet und zum Prozesssteuerungssystem gehörige Prozessinformationen über das Head-up Display (40) bereitstellt, wobei das mindestens eine Eingabegerät ein Bildgebungsgerät (38) umfasst, das mindestens eine Eingangssignal ein vom Bildgebungsgerät erzeugtes Einzelbild ist und die Software-Routine einen Geräteanhänger innerhalb des Einzelbildes sucht und decodiert, um ein Gerät des Prozesssteuerungssystems (10) zu identifizieren.
  2. Tragbarer Computer (34) nach Anspruch 1, wobei das mindestens eine Eingabegerät ein Mikrophon (44) umfasst, das ein Sprachsignal erzeugt, und eine Spracherkennungseinheit (56) ein zweites Gerät basierend auf dem Sprachsignal identifiziert.
  3. Tragbarer Computer (34) nach Anspruch 1, bei dem die Prozessinformationen diagnostische Informationen in Zusammenhang mit dem identifizierten Gerät sind.
  4. Tragbarer Computer (34) nach Anspruch 1, bei dem die Prozessinformationen Hilfeinformationen in Zusammenhang mit dem identifizierten Gerät sind.
  5. Tragbarer Computer (34) nach Anspruch 1, der des Weiteren ein Fern-Kommunikationsgerät (36) aufweist, das mit dem Prozesssteuerungssystem (10) kommuniziert, und bei dem die Prozessinformation ein vom identifizierten Gerät vom Prozesssteuerungssystem (10) abgerufener Prozesswert ist, der über das entfernte Kommunikationsgerät (36) an den tragbaren Computer (34) geschickt wird.
  6. Tragbarer Computer (34) nach Anspruch 5, bei dem das entfernte Kommunikationsgerät ein drahtloser Ethernet-Sender/Empfänger (36) ist.
  7. Tragbarer Computer (34) nach Anspruch 1, bei dem das Bildgebungsgerät eine Videokamera (38) ist, das mindestens eine Eingangssignal ein aus mehreren Einzelbildern bestehendes Videosignal umfasst und der tragbare Computer (34) des weiteren einen Einzelbild-Grabber (68) aufweist, der das Einzelbild aus dem aus mehreren Einzelbildern bestehenden Videosignal herausgreift und das Einzelbild an die Routine zur optischen Zeichenerkennung liefert.
  8. Tragbarer Computer (34) nach Anspruch 1, bei dem das Gerätemerkmal ein alphanumerisches Schriftzeichen umfasst und die Softwareroutine das alphanumerische Schriftzeichen im Bildsignal decodiert, um das Gerät zu identifizieren.
  9. Tragbarer Computer nach Anspruch 1, wobei die Softwareroutine unter Verwendung einer optischen Zeichenerkennungsroutine den Geräteanhänger findet und decodiert, wobei die optische Zeichenerkennungsroutine optische Zeichenerkennung auf dem Einzelbild durchführt.
  10. Tragbarer Computer nach Anspruch 2, wobei die Prozessinformationen Diagnoseinformationen bezüglich des zweiten Geräts umfassen.
  11. Tragbarer Computer nach Anspruch 2, wobei die Prozessinformationen Hilfeinformationen bezüglich des zweiten Geräts umfassen.
  12. Tragbarer Computer nach Anspruch 2, der des Weiteren ein Kommunikationsgerät umfasst, das mit dem Prozesssteuersystem kommuniziert und wobei die Prozessinformationen Prozesswerte von dem zweiten Gerät umfassen, die mittels des Kommunikationsgeräts an den tragbaren Computer übertragen werden.
  13. Tragbarer Computer nach Anspruch 2, wobei der Computer lesbare Speicher (52) Sprachsignale speichert, die dem zweiten Gerät zugeordnet sind.
  14. Tragbarer Computer nach Anspruch 2, wobei dieser des Weiteren ein Fern-Kommunikationsgerät (36) umfasst, das das Sprachsignal an einen Speicher innerhalb des Prozesssteuersystems sendet, um dieses in dem Speicher zu speichern und aus diesem Speicher abzufragen.
  15. Tragbarer Computer nach Anspruch 2, wobei die Spracherkennungseinheit des Weiteren das Sprachsignal decodiert, um ein Kommandosignal zu erzeugen.
  16. Tragbarer Computer (34) nach einem der vorhergehenden Ansprüche, wobei die Software-Routine ein Bild zur Anzeige auf dem Head-up Display (40) erzeugt; und eine/die Spracherkennungseinheit (56) das Sprachsignal zur Identifizierung eines Befehls verarbeitet und in dem auf dem Head-up Display (40) dargestellten Bild Änderungen auf Basis des identifizierten Befehls veranlasst.
  17. Tragbarer Computer (34) nach Anspruch 16, bei dem die Spracherkennungseinheit (56) das Sprachsignal mit einem Satz gespeicherter erkannter Befehle vergleicht, um den Befehl zu identifizieren, und bei dem der Satz gespeicherter erkannter Befehle mit dem Bewegen eines Cursors in dem auf dem Head-up Display (40) dargestellten Bild zusammenhängt.
  18. Tragbarer Computer (34) nach Anspruch 17, bei dem der Satz gespeicherter erkannter Befehle einen Befehl 'Bewegung nach links', einen Befehl 'Bewegung nach rechts', einen Befehl 'Bewegung nach oben' und einen Befehl 'Bewegung nach unten' aufweist.
  19. Tragbarer Computer (34) nach Anspruch 16, bei dem die Spracherkennungseinheit (56) das Sprachsignal mit einem Satz gespeicherter erkannter Befehle vergleicht, um den Befehl zu identifizieren, und bei dem der Satz gespeicherter erkannter Befehle mit der Eingabe alphanumerischer Daten in ein Feld innerhalb des auf dem Head-up Display (40) dargestellten Bildes zusammenhängt.
  20. Tragbarer Computer (34) nach Anspruch 16, bei dem die Routine das Bild als eine Liste zur Auswahl stehender Geräte anzeigt, und die Spracherkennungseinheit (56) eines der Geräte aus der Geräteliste auf Basis des Sprachsignals identifiziert.
  21. Tragbarer Computer (34) nach Anspruch 16, bei dem die Routine das Bild als eine Liste von Kanälen zur Auswahl anzeigt, und die Spracherkennungseinheit (56) einender Kanäle aus der Liste von Kanälen auf Basis des Sprachsignals identifiziert.
  22. Tragbarer Computer (34) nach Anspruch 16, bei dem die Routine das Bild mit einem Prozesswert und ein Feld zur Änderung des Prozesswertes anzeigt.
  23. Tragbarer Computer (34) nach einem der vorhergehenden Ansprüche, wobei ein/das Fern-Kommunikationsgerät (36) mit dem Prozesssteuerungssystem (10) kommuniziert; und das mindestens eine Eingangssignal zur Erzeugung eines Änderungssignals verarbeitet wird, das eine an einem Prozesssignal im Prozesssteuerungssystem (10) vorzunehmende Änderung meldet, und die Zentraleinheit das Änderungssignal über das Fern-Kommunikationsgerät (36) an das Prozesssteuerungssystem (10) schickt, um dadurch eine am Prozesssignal vorzunehmende Änderung zu veranlassen.
  24. Tragbarer Computer (34) nach Anspruch 23, bei dem die Software-Routine den Typ des Prozesssignals auf einem gewählten Kommunikationskanal über das Head-up Display (40) anzeigt.
  25. Tragbarer Computer (34) nach Anspruch 23, bei dem die Software-Routine einen gültigen Bereich des Prozesssignals auf einem gewählten Kommunikationskanal über das Head-up Display (40) anzeigt.
  26. Tragbarer Computer (34) nach Anspruch 23, bei dem es die Software-Routine einem Benutzer ermöglicht, das Änderungssignal für das Prozesssignal in ein Feld des Head-up Displays (40) einzugeben.
  27. Datenspeicherungs-/Abrufeinheit, angepasst zur Verwendung in einem tragbaren Computer (34) nach einem der vorhergehenden Ansprüche.
  28. Geräteidentifizierungseinheit, die zur Verwendung mit einem tragbaren Computer (34) nach einem der Ansprüche 1–26 ausgestattet ist.
DE10006126A 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung Expired - Lifetime DE10006126B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/249,597 1999-02-12
US09/249,597 US7230582B1 (en) 1999-02-12 1999-02-12 Wearable computer in a process control environment

Publications (2)

Publication Number Publication Date
DE10006126A1 DE10006126A1 (de) 2000-08-17
DE10006126B4 true DE10006126B4 (de) 2011-11-17

Family

ID=22944182

Family Applications (3)

Application Number Title Priority Date Filing Date
DE10066477.6A Expired - Lifetime DE10066477B3 (de) 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung
DE10066478.4A Expired - Lifetime DE10066478B3 (de) 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung
DE10006126A Expired - Lifetime DE10006126B4 (de) 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung

Family Applications Before (2)

Application Number Title Priority Date Filing Date
DE10066477.6A Expired - Lifetime DE10066477B3 (de) 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung
DE10066478.4A Expired - Lifetime DE10066478B3 (de) 1999-02-12 2000-02-11 Tragbarer Computer in einer Prozesssteuerungsumgebung

Country Status (4)

Country Link
US (2) US7230582B1 (de)
JP (1) JP3801406B2 (de)
DE (3) DE10066477B3 (de)
GB (1) GB2346720B (de)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6384736B1 (en) * 1998-04-30 2002-05-07 Dave Gothard Remote control electronic display system
US7230582B1 (en) * 1999-02-12 2007-06-12 Fisher-Rosemount Systems, Inc. Wearable computer in a process control environment
US6806847B2 (en) * 1999-02-12 2004-10-19 Fisher-Rosemount Systems Inc. Portable computer in a process control environment
US7640007B2 (en) 1999-02-12 2009-12-29 Fisher-Rosemount Systems, Inc. Wireless handheld communicator in a process control environment
US7565294B2 (en) * 1999-05-19 2009-07-21 Digimarc Corporation Methods and systems employing digital content
JP3883775B2 (ja) * 2000-03-17 2007-02-21 株式会社デジタル 制御システム用サーバ装置、制御システム、制御システム用サーバ装置の通信方法、および、そのプログラムが記録された記録媒体
WO2001069334A1 (fr) * 2000-03-17 2001-09-20 Digital Electronics Corporation Serveur de commande, terminal de commande, systeme de commande et support d'enregistrement contenant un programme de communication de commande
DE10021619A1 (de) * 2000-05-04 2001-11-08 Focke & Co Mobile, rechnergestützte Wartungseinheit
US7805494B1 (en) * 2000-06-09 2010-09-28 Schwab Barry H System for transferring desktop computer configuration
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
DE10063089C1 (de) * 2000-12-18 2002-07-25 Siemens Ag Anwendergesteuerte Verknüpfung von Informationen innerhalb eines Augmented-Reality-Systems
US7506256B2 (en) 2001-03-02 2009-03-17 Semantic Compaction Systems Device and method for previewing themes and categories of sequenced symbols
DE10159610B4 (de) * 2001-12-05 2004-02-26 Siemens Ag System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung
DE10161401B4 (de) * 2001-12-13 2012-11-08 Endress + Hauser Gmbh + Co. Kg Feldgerät zur Bestimmung und/oder Überwachung einer Prozessvariablen
DE10203555A1 (de) * 2002-01-29 2003-08-07 Endress & Hauser Wetzer Gmbh Feldgerät
US6973508B2 (en) * 2002-02-12 2005-12-06 Fisher-Rosemount Systems, Inc. Highly versatile process control system controller
DE10317497B4 (de) * 2003-04-16 2013-10-17 Abb Ag System zur Kommunikation zwischen einem Feldgerät und einem Bediengerät
DE10333214A1 (de) * 2003-07-22 2005-02-10 Sms Demag Ag Verfahren und Vorrichtung zur Überwachung und/oder Steuerung von Betriebsdaten bzw. Parametern, insbesondere vielschichtiger Anlagensysteme
US7561200B2 (en) 2004-07-26 2009-07-14 Csi Technology, Inc. Apparatus and method for automation of imaging and dynamic signal analyses
WO2007105436A1 (ja) * 2006-02-28 2007-09-20 Matsushita Electric Industrial Co., Ltd. ウェアラブル端末
US7961851B2 (en) * 2006-07-26 2011-06-14 Cisco Technology, Inc. Method and system to select messages using voice commands and a telephone user interface
JP2008048076A (ja) * 2006-08-11 2008-02-28 Canon Inc 音声処理装置およびその制御方法
US7999818B2 (en) * 2007-09-07 2011-08-16 Mamoudis John T Hands-free, user-formatted instruction display system
DE102008009446A1 (de) * 2008-02-15 2009-08-20 Volkswagen Ag Verfahren zur Prüfung eines komplexen Systems auf Abweichungen von Qualitätsvorgaben und/oder auf Fehlerhaftigkeit und Vorrichtung zur Unterstützung einer Prüfperson bei einer solchen Prüfung
US8299938B2 (en) * 2009-09-08 2012-10-30 Rosemount Inc. Projected instrument displays for field mounted process instruments
CA3043204C (en) * 2009-11-19 2021-08-31 Esight Corp. Apparatus and method for a dynamic "region of interest" in a display system
US8447070B1 (en) * 2010-04-19 2013-05-21 Amazon Technologies, Inc. Approaches for device location and communication
US8861310B1 (en) 2011-03-31 2014-10-14 Amazon Technologies, Inc. Surface-based sonic location determination
US9368107B2 (en) * 2011-04-20 2016-06-14 Nuance Communications, Inc. Permitting automated speech command discovery via manual event to command mapping
US9189465B2 (en) * 2012-09-28 2015-11-17 International Business Machines Corporation Documentation of system monitoring and analysis procedures
US9151953B2 (en) * 2013-12-17 2015-10-06 Amazon Technologies, Inc. Pointer tracking for eye-level scanners and displays
EP2913730B1 (de) 2014-02-28 2019-10-30 ABB Schweiz AG Verwendung eines Live-Video-Streams in einem Prozesssteuerungssystem
WO2015160345A1 (en) * 2014-04-16 2015-10-22 Empire Technology Development Llc Computer-based safety control
DK201470277A1 (en) * 2014-05-08 2015-01-05 Vestas Wind Sys As A smart device with a screen for visualizing a wind turbine component
US10146330B2 (en) 2014-06-18 2018-12-04 Matthew Swan Lawrence Systems and methods for character and command input
DE102014109612B4 (de) * 2014-07-09 2016-09-01 Endress + Hauser Infoserve Gmbh + Co. Kg Verfahren zum Überwachen und/oder Kontrollieren und/oder Warten von Feldgeräten
US9576329B2 (en) 2014-07-31 2017-02-21 Ciena Corporation Systems and methods for equipment installation, configuration, maintenance, and personnel training
US9746913B2 (en) 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
CN105701965B (zh) * 2014-12-15 2020-06-30 朱保东 一种穿戴式安全设备及其方法
US10199041B2 (en) 2014-12-30 2019-02-05 Honeywell International Inc. Speech recognition systems and methods for maintenance repair and overhaul
US10142596B2 (en) 2015-02-27 2018-11-27 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus of secured interactive remote maintenance assist
CN106023578A (zh) * 2016-07-14 2016-10-12 广州视源电子科技股份有限公司 可穿戴设备及家居设备的控制方法
GB2568024A (en) * 2017-09-25 2019-05-08 Emotech Ltd Display device
EP3602272B1 (de) * 2017-11-06 2023-11-22 Google LLC Verfahren und systeme zur bedienung eines präsentierenden benutzers
DE102017220438A1 (de) * 2017-11-16 2019-05-16 Vega Grieshaber Kg Prozessautomatisierungssystem mit einem Wearable Computer
JP6963881B2 (ja) * 2018-06-05 2021-11-10 東芝三菱電機産業システム株式会社 音声認識監視装置
US11135723B2 (en) * 2018-10-12 2021-10-05 Universal City Studios Llc Robotics for theme park wearable software testing
KR102229562B1 (ko) * 2019-07-25 2021-03-18 엘지전자 주식회사 음성 인식 서비스를 제공하는 인공 지능 장치 및 그의 동작 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5309351A (en) * 1988-10-27 1994-05-03 Texas Instruments Incorporated Communications, information, maintenance diagnostic and training system
EP0670537A1 (de) * 1992-04-06 1995-09-06 Edward George Newman Handfreies benützergestütztes tragbarer Rechner
US5598572A (en) * 1994-03-18 1997-01-28 Hitachi, Ltd. Information terminal system getting information based on a location and a direction of a portable terminal device
US5666530A (en) * 1992-12-02 1997-09-09 Compaq Computer Corporation System for automatic synchronization of common file between portable computer and host computer via communication channel selected from a plurality of usable channels there between

Family Cites Families (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4303973A (en) 1976-10-29 1981-12-01 The Foxboro Company Industrial process control system
US4149237A (en) 1977-09-16 1979-04-10 The Foxboro Company Industrial process control system
US4152760A (en) 1977-09-16 1979-05-01 The Foxboro Company Industrial process control system
US4268822A (en) 1978-10-18 1981-05-19 The Foxboro Company Apparatus for determining the state of each of a plurality of bi-state devices
US4729091A (en) 1984-11-13 1988-03-01 International Business Machines Corporation Directing storage requests prior to address comparator initialization with a reference address range
GB8511691D0 (en) 1985-05-09 1985-06-19 British Telecomm Control system
US4726017A (en) 1985-05-21 1988-02-16 Fla. Multidrop data concentrator communication network
US4910658A (en) 1985-09-04 1990-03-20 Eaton Leonard Technologies, Inc. Real time process controller with serial I/O bus
US5239662A (en) 1986-09-15 1993-08-24 Norand Corporation System including multiple device communications controller which coverts data received from two different customer transaction devices each using different communications protocols into a single communications protocol
US4949299A (en) 1987-12-04 1990-08-14 Allen-Bradley Company, Inc. Industrial control communication network and method
AU2917489A (en) 1987-12-07 1989-07-05 Versus Technology, Inc. System for interfacing an alarm reporting device with a cellular radio transceiver
US4916441A (en) 1988-09-19 1990-04-10 Clinicom Incorporated Portable handheld terminal
DE68925271T2 (de) 1988-10-27 1996-08-14 Texas Instruments Inc Kommunikations-, Informations-, Wartungsdiagnostik und Ausbildungssystem
US5400246A (en) 1989-05-09 1995-03-21 Ansan Industries, Ltd. Peripheral data acquisition, monitor, and adaptive control system via personal computer
US5099444A (en) 1989-05-09 1992-03-24 Ansan Industries, Ltd. Peripheral data acquisition transmission and control device
US5142550A (en) 1989-06-29 1992-08-25 Symbol Technologies, Inc. Packet data communication system
US5150363A (en) 1989-08-11 1992-09-22 Digital Audio Disc Corporation Serial input/output multiplexing apparatus
US5088021A (en) 1989-09-07 1992-02-11 Honeywell, Inc. Apparatus and method for guaranteed data store in redundant controllers of a process control system
US5495482A (en) 1989-09-29 1996-02-27 Motorola Inc. Packet transmission system and method utilizing both a data bus and dedicated control lines
US5252967A (en) 1990-05-25 1993-10-12 Schlumberger Industries, Inc. Reader/programmer for two and three wire utility data communications system
ES2115912T3 (es) 1990-12-18 1998-07-01 Erowa Ag Sistema de fabricacion automatica.
JP2730810B2 (ja) 1991-05-10 1998-03-25 シャープ株式会社 情報処理装置
US5781913A (en) 1991-07-18 1998-07-14 Felsenstein; Lee Wearable hypermedium system
US5208449A (en) * 1991-09-09 1993-05-04 Psc, Inc. Portable transaction terminal
US5353331A (en) 1992-03-05 1994-10-04 Bell Atlantic Network Services, Inc. Personal communications service using wireline/wireless integration
US5491651A (en) 1992-05-15 1996-02-13 Key, Idea Development Flexible wearable computer
JP3391405B2 (ja) * 1992-05-29 2003-03-31 株式会社エフ・エフ・シー カメラ映像内の物体同定方法
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
MX9306152A (es) 1992-10-05 1994-05-31 Fisher Controls Int Sistema de comunicacion y metodo.
US5402367A (en) * 1993-07-19 1995-03-28 Texas Instruments, Incorporated Apparatus and method for model based process control
US5495484A (en) 1993-10-12 1996-02-27 Dsc Communications Corporation Distributed telecommunications switching system
US5815126A (en) * 1993-10-22 1998-09-29 Kopin Corporation Monocular portable communication and display system
CA2135718A1 (en) 1993-11-15 1995-05-16 Mark A. Gilbertie Universal electrical system architecture for control applications
JP2873268B2 (ja) * 1994-02-24 1999-03-24 エドワード・ジョージ・ニューマン 手を使わずにユーザにより支持される携帯用計算機とその操作方法
KR100401558B1 (ko) 1994-10-24 2004-02-19 피셔-로즈마운트 시스템즈, 인코포레이티드 분산제어시스템내의필드소자에대한액세스제공장치
CN1049052C (zh) 1995-07-07 2000-02-02 中国石化洛阳石油化工总厂 一种智能化炼油化工危险源事故预案和应急处理方法
JP3425276B2 (ja) 1995-08-11 2003-07-14 株式会社日立製作所 情報通知システム
JPH09114543A (ja) * 1995-10-02 1997-05-02 Xybernaut Corp ハンドフリーコンピュータ装置
US6094600A (en) 1996-02-06 2000-07-25 Fisher-Rosemount Systems, Inc. System and method for managing a transaction database of records of changes to field device configurations
TW395121B (en) 1996-02-26 2000-06-21 Seiko Epson Corp Personal wearing information display device and the display method using such device
JPH09247180A (ja) 1996-03-12 1997-09-19 Toshiba Corp プロセスlan用タップ、携帯型コンピュータ及び統合制御システム
JPH10124178A (ja) * 1996-10-15 1998-05-15 Olympus Optical Co Ltd 電子メール端末、電子メール端末の処理方法、媒体
US5938721A (en) 1996-10-24 1999-08-17 Trimble Navigation Limited Position based personal digital assistant
JPH10222663A (ja) * 1997-01-31 1998-08-21 Yamaha Motor Co Ltd 画像認識システム及び装置
DE19706614A1 (de) 1997-02-20 1998-08-27 Claas Ohg Situationsbezogene programmgesteuerte elektronische Kartenbilddarstellung in einem Kraftfahrzeug
EP0862159A1 (de) * 1997-03-01 1998-09-02 Agfa-Gevaert N.V. Spracherkennungssystem für eine medizinische Röntgenapparatur
JP3557467B2 (ja) * 1997-06-11 2004-08-25 株式会社日立製作所 音声データの認識方法及びその装置
US6262749B1 (en) * 1997-12-31 2001-07-17 Acuson Corporation Ultrasonic system and method for data transfer, storage and/or processing
US6226612B1 (en) * 1998-01-30 2001-05-01 Motorola, Inc. Method of evaluating an utterance in a speech recognition system
WO2000002344A2 (de) 1998-07-03 2000-01-13 Siemens Aktiengesellschaft Verfahren und system zum drahtlosen steuern von mindestens zwei unterschiedlichen einrichtungen
JP3964553B2 (ja) 1998-09-10 2007-08-22 株式会社東芝 情報配信システム
TW495710B (en) * 1998-10-15 2002-07-21 Primax Electronics Ltd Voice control module for control of game controller
JP4008611B2 (ja) 1999-02-09 2007-11-14 株式会社東芝 プラント作業監視装置および記憶媒体
US7640007B2 (en) 1999-02-12 2009-12-29 Fisher-Rosemount Systems, Inc. Wireless handheld communicator in a process control environment
US6806847B2 (en) 1999-02-12 2004-10-19 Fisher-Rosemount Systems Inc. Portable computer in a process control environment
US7230582B1 (en) 1999-02-12 2007-06-12 Fisher-Rosemount Systems, Inc. Wearable computer in a process control environment
US6298454B1 (en) 1999-02-22 2001-10-02 Fisher-Rosemount Systems, Inc. Diagnostics in a process control system
US6633782B1 (en) * 1999-02-22 2003-10-14 Fisher-Rosemount Systems, Inc. Diagnostic expert in a process control system
US6574672B1 (en) 1999-03-29 2003-06-03 Siemens Dematic Postal Automation, L.P. System, apparatus and method for providing a portable customizable maintenance support computer communications system
JP2001051717A (ja) 1999-06-04 2001-02-23 Toshiba Corp プラント機器監視装置
JP2001034615A (ja) 1999-07-16 2001-02-09 Nippon Telegr & Teleph Corp <Ntt> 作業支援システム及び作業支援方法
US6473517B1 (en) * 1999-09-15 2002-10-29 Siemens Corporate Research, Inc. Character segmentation method for vehicle license plate recognition
JP2001125633A (ja) 1999-10-28 2001-05-11 Toshiba Corp プラント情報収集システム
JP3390806B2 (ja) 1999-12-28 2003-03-31 株式会社テイエルブイ 位置認識装置及びこの位置認識装置を備えた測定装置並びに測定システム
US6690351B1 (en) * 2000-04-06 2004-02-10 Xybernaut Corporation Computer display optimizer
JP2002171579A (ja) 2000-12-01 2002-06-14 Toyo Keiki Co Ltd 自動検針システム用無線装置
US8126276B2 (en) 2001-02-21 2012-02-28 International Business Machines Corporation Business method for selectable semantic codec pairs for very low data-rate video transmission
US6795798B2 (en) 2001-03-01 2004-09-21 Fisher-Rosemount Systems, Inc. Remote analysis of process control plant data
DE10124266A1 (de) 2001-05-18 2002-11-21 Abb Patent Gmbh System zur physischen Lokalisierung von Feldgeräten in verfahrenstechnischen Anlagen
US20030043070A1 (en) 2001-08-30 2003-03-06 Soliman Samir S. Wireless coordination and management system
US6633182B2 (en) 2001-09-05 2003-10-14 Carnegie Mellon University Programmable gate array based on configurable metal interconnect vias
US20030229472A1 (en) 2001-12-06 2003-12-11 Kantzes Christopher P. Field maintenance tool with improved device description communication and storage
US20030204373A1 (en) 2001-12-06 2003-10-30 Fisher-Rosemount Systems, Inc. Wireless communication method between handheld field maintenance tools
US7092943B2 (en) 2002-03-01 2006-08-15 Enterasys Networks, Inc. Location based data
US7085623B2 (en) 2002-08-15 2006-08-01 Asm International Nv Method and system for using short ranged wireless enabled computers as a service tool

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5309351A (en) * 1988-10-27 1994-05-03 Texas Instruments Incorporated Communications, information, maintenance diagnostic and training system
EP0670537A1 (de) * 1992-04-06 1995-09-06 Edward George Newman Handfreies benützergestütztes tragbarer Rechner
US5666530A (en) * 1992-12-02 1997-09-09 Compaq Computer Corporation System for automatic synchronization of common file between portable computer and host computer via communication channel selected from a plurality of usable channels there between
US5598572A (en) * 1994-03-18 1997-01-28 Hitachi, Ltd. Information terminal system getting information based on a location and a direction of a portable terminal device

Also Published As

Publication number Publication date
GB2346720A (en) 2000-08-16
US20070210983A1 (en) 2007-09-13
DE10006126A1 (de) 2000-08-17
US7230582B1 (en) 2007-06-12
JP3801406B2 (ja) 2006-07-26
GB2346720B (en) 2003-12-31
GB0002157D0 (en) 2000-03-22
US8125405B2 (en) 2012-02-28
DE10066477B3 (de) 2016-06-30
DE10066478B3 (de) 2016-06-30
JP2000242367A (ja) 2000-09-08

Similar Documents

Publication Publication Date Title
DE10006126B4 (de) Tragbarer Computer in einer Prozesssteuerungsumgebung
DE102005058564B4 (de) Drahtlose handgehaltene Kommunikationseinrichtung in einer Prozesssteuerungsumgebung
DE10242007A1 (de) Portabler Computer in einem Prozesssteuerungsumfeld
DE19953739C2 (de) Einrichtung und Verfahren zur objektorientierten Markierung und Zuordnung von Information zu selektierten technologischen Komponenten
DE112018004395T5 (de) Virtueller zugriff auf ein zugriffsbeschränktes objekt
WO2000052542A1 (de) Augmented reality-system zur einhaltung von qualitäts- bzw. sicherheitsanforderungen
EP2405356A2 (de) Verfahren und Vorrichtung zum Betätigen einer Taste einer Tastatur mit einem Roboter-Tastfinger
DE102006009710A1 (de) System für das Bestimmen der Position eines mobilen Kommunikationsgeräts und Verfahren dafür
DE102009056640A1 (de) Robotersystem mit einer Mehrzahl mechanischer Roboterteile
EP2849142A1 (de) Smartphone gestützte Wartung eines Selbstbedienungsterminals
WO2018192613A1 (de) Verfahren und system zur automatisierten unterstützung eines anschlussvorgangs, insbesondere von in einem schaltschrank oder an einem montagesystem angeordneten komponenten
EP1108980A2 (de) Ergonomisch gestaltete, störsignalreduzierende Lagemesssonde zum gegenseitigen Ausrichten von Körpern
DE102017127024A1 (de) Verfahren zur Betreuung zumindest eines Feldgeräts der Prozessautomatisierungstechnik
DE112019002380T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102018129595A1 (de) Verfahren zum Identifizieren eines Feldgeräts
DE4414360C2 (de) Interaktives Steuerungssystem mit mehreren Anzeigen und Verfahren zum Betreiben eines solchen
EP1487616B1 (de) Automatische prozesskontrolle
WO2002055336A2 (de) Verfahren und vorrichtung zur darstellung von informationen
EP1180674B1 (de) Datenkommunikationssystem für Kraftfahrzeug Prüfstände mit Prüfprogramm auf der Zentraleinheit
WO2013050063A1 (de) Analysegerät-wartungsanordnung
WO2007006703A1 (de) Verfahren zur optimierung von kontrollvorgängen beim einsatz mobiler endgeräte
DE102012101916A1 (de) Darstellung von aktuellen Betriebsparametern eines Elements einer Solaranlage auf einer mobilen Datenverarbeitungseinrichtung
DE112008003763T5 (de) Kommunikationssystem zur Verwendung mit einem Fahrzeug
DE10135837A1 (de) Bedienen und Beobachten einer Anlage
DE19644109B4 (de) Schreibdaten-Verarbeitungssystem und -verfahren

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8125 Change of the main classification

Ipc: G05B 24/02 AFI20051017BHDE

R018 Grant decision by examination section/examining division
R130 Divisional application to

Ref document number: 10066477

Country of ref document: DE

Effective date: 20110314

Ref document number: 10066478

Country of ref document: DE

Effective date: 20110314

R020 Patent grant now final

Effective date: 20120218

R071 Expiry of right