DE10006126A1 - Tragbarer Computer in einer Prozesssteuerungsumgebung - Google Patents
Tragbarer Computer in einer ProzesssteuerungsumgebungInfo
- Publication number
- DE10006126A1 DE10006126A1 DE10006126A DE10006126A DE10006126A1 DE 10006126 A1 DE10006126 A1 DE 10006126A1 DE 10006126 A DE10006126 A DE 10006126A DE 10006126 A DE10006126 A DE 10006126A DE 10006126 A1 DE10006126 A1 DE 10006126A1
- Authority
- DE
- Germany
- Prior art keywords
- portable computer
- signal
- image
- process control
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
Landscapes
- Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Testing And Monitoring For Control Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Control By Computers (AREA)
Abstract
Ein tragbarer Computer (34) zur Verwendung in einer Prozeßsteuerungsumgebung umfaßt eine Verarbeitungseinheit (50), einen Speicher (52) und eine Reihe Peripheriegeräte wie z. B. eine Anzeigeneinspiegelung bzw. ein Head-up Display (40), ein Mikrophon (44), eine Videokamera (38) und ein Fern-Kommunikationsgerät (36), das mit einem Host-Rechner (14) kommuniziert. Der tragbare Computer (34) liefert über die Anzeigeneinspiegelung (40) Informationen, die mit einem oder mehreren Geräten innerhalb des Prozeßsteuerungssystems (10) in Zusammenhang stehen (z. B. diagnostische Informationen, Hilfetexte, Operator-Übersichten, schematische Darstellungen oder Informationen bezüglich der Prozeßparameter). Der tragbare Computer (34) führt außerdem eine Routine aus, die das Bild der Videokamera (38) verarbeitet, um Prozeßsteuerungsgeräte im Gesichtsfeld des Trägers auf Basis von Gerätemerkmalen wie z. B. Geräteanhängern automatisch zu identifizieren, eine Routine, die es einem Träger ermöglicht, die korrekten Anschlüsse der Geräte und/oder Kommunikationskanäle im Prozeßsteuerungssystem (10) zu verifizieren, eine Routine, die ein gemeinsam genutztes Bild sowohl auf der Anzeigeneinspiegelung (40) als auch an einer Operator-Workstation (14) anzeigt, und eine Routine, die Sprachmeldungen in Zusammenhang mit einem beliebigen Gerät im Prozeßsteuerungssystem (10) speichert und abruft.
Description
Die vorliegende Erfindung betrifft allgemein Prozeßsteue
rungssysteme und insbesondere die Verwendung eines tragbaren
Computers, um eine verbesserte Unterstützung in einer Prozeß
steuerungsumgebung bereitzustellen.
Prozeßsteuerungssysteme wie sie bei chemischen, petrochemischen
oder anderen Prozessen verwendet werden, beinhalten im
allgemeinen eine zentrale Prozeßsteuerung, die zum Datenaus
tausch mit mindestens einer Host- oder Operator-Workstation und
einem oder mehreren Feldgeräten über analoge, digitale oder
kombinierte analoge/digitale Datenbusse gekoppelt ist. Die
Feldgeräte, bei denen es sich beispielsweise um Ventile,
Ventilstelleinrichtungen, Schalter, Sensoren (z. B. Temperatur-,
Druck- und Durchsatzsensoren) etc. handeln kann, führen
Steuerfunktionen innerhalb des Prozesses aus wie Öffnen und
Schließen von Ventilen und Messen von Prozeßparametern. All
gemein ausgedrückt empfängt die Prozeßsteuerung Signale, die
Prozeßmessungen der Feldgeräte repräsentieren und/oder andere
Informationen in Zusammenhang mit den Feldgeräten, verwendet
diese Informationen zur Implementierung einer Steuerungsroutine
und erzeugt dann Steuersignale, die über die Busse an die
Feldgeräte geschickt werden, um den Prozeßbetrieb zu steuern.
Informationen von den Feldgeräten und der Steuerung werden
typischerweise einer oder mehreren Anwendungen zur Verfügung
gestellt, die von der Operator-Workstation ausgeführt werden,
um es einem Operator zu ermöglichen, jede gewünschte Funktion
im Rahmen des Prozesses auszuführen, z. B. Betrachten des aktu
ellen Prozeßstatus, Modifizieren der Prozeßoperationen usw.
Obwohl ein Operator oder ein Techniker auf verschiedene Typen
von Informationen in Zusammenhang mit dem Prozeßsteuerungs
system und die individuellen Geräte desselben (z. B. Hilfe-,
Diagnose-, Einstellungs- und Konfigurationsinformationen) über
die Host-Workstation zugreifen kann, gibt es zahlreiche Prozeß
steuerungsaktivitäten, zu deren Durchführung ein Techniker in
die reale Umgebung der Betriebsanlage gehen muß, wo ihm keine
Host-Workstation zur Verfügung steht. Solche Aktivitäten
beinhalten beispielsweise die Sichtkontrolle eines Prozeß
steuergeräts oder -bereichs, das Anschließen von Geräten oder
Bussen in der Prozeßsteuerungsumgebung, manuelle Messungen, In
standsetzung und Austausch von Feldgeräten usw. In diesen
Fällen kann der Operator oder Techniker Handbücher über die
durchzuführenden Aufgaben mit in die Betriebsanlage nehmen und
vor Ort die eventuell benötigten Informationen nachschlagen.
Diese Vorgehensweise ist aber sehr umständlich. Es ist eher
wahrscheinlich, daß der Techniker ein- oder mehrmals zur
Operator-Workstation zurückgeht, um sich die zur Durchführung
der gewünschten Aktivität benötigten Informationen zu beschaf
fen, was sehr zeitaufwendig und fehleranfällig ist. Bei anderen
Gelegenheiten führt der Techniker ein Funkgerät oder Walkie-
Talkie in die Betriebsanlage mit sich und kommuniziert über
Funk mit einem Operator an der Operator-Workstation, um sich
die benötigten Informationen geben zu lassen. Der Umfang der
über Funk zu vermittelnden Informationen ist jedoch begrenzt
und ebenfalls fehleranfällig, da die Kommunikation von Mensch
zu Mensch erfolgt. Da außerdem der Techniker normalerweise das
Funkgerät in der Hand trägt oder mit den Händen bedient, wird
die Durchführung bestimmter Aufgaben wie die Instandsetzung
eines Geräts sehr umständlich und schwierig.
Mit der Einführung kleinerer elektronischer Geräte sind mobile
Rechner in Form tragbarer Computer in größerem Maße verfügbar
geworden. Ein tragbarer Computer enthält im allgemeinen eine
Standard-Zentraleinheit (CPU) und einen Speicher, die in einem
kleinen Behälter verpackt sind und in einem Beutel am Gürtel
oder Gurtzeug eines Benutzers (hierin auch "Träger" genannt)
untergebracht werden. Batterien zur Spannungsversorgung des
tragbaren Computers werden typischerweise in einem anderen
Beutel des Gurtzeugs untergebracht, das so ausgeführt ist, daß
der Transport des tragbaren Computers so bequem wie möglich
ist. Peripheriegeräte wie Plattenlaufwerke, Festplattenlauf
werke, PCMCIA-Steckplätze, Mikrophone, Strichcodeleser und
Tastaturgeräte können über geeignete Leiter oder Busse kom
munikativ mit der CPU gekoppelt und, falls gewünscht, kann
eines oder mehrere dieser Peripheriegeräte im Gurtzeug unter
gebracht oder mit diesem verbunden werden. Es ist auch schon
vorgeschlagen worden, eine Anzeigeneinspiegelung (Head-up
Display - HUD) für den Benutzer des tragbaren Computers
bereitzustellen, die dem Träger eine visuelle Benutzerober
fläche bietet. Ein tragbarer Computer bietet dadurch einem
Benutzer mobile Rechenleistung und Speicher, und da der trag
bare Computer am Benutzer getragen und nicht von diesem ge
halten wird, braucht der Benutzer die Hände nur zur Betätigung
der Tastatur oder anderer Eingabegeräte.
Obwohl schon früher vorgeschlagen wurde, tragbare Computer in
Umgebungen wie Büros zu verwenden, ist ein tragbarer Computer
wahrscheinlich noch nicht in ein Prozeßsteuerungssystem inte
griert und in diesem verwendet worden, um die Fähigkeiten eines
Operators oder Technikers bei der Identifizierung von Geräten
oder der Durchführung anderer Aufgaben in eine Pro
zeßsteuerungsumgebung zu verbessern. Außerdem brauchen die
meisten tragbaren Computer die Verwendung irgendeines hand
betätigten Eingabegerätes, z. B. eine Tastatur oder einen
Twiddler. Obwohl diese Geräte typischerweise ergonomisch aus
geführt sind, um so anwenderfreundlich wie möglich zu sein,
braucht der Benutzer dennoch seine Hände zur Eingabe von In
formationen oder Daten. In einer Prozeßsteuerungsumgebung
jedoch muß ein Techniker typischerweise beide Hände zur
Durchführung komplizierter Arbeiten wie Kalibrierung und
Instandsetzung von Geräten, Anschließen von Geräten innerhalb
des Prozeßsteuerungssystem usw. frei haben.
Ein tragbarer Computer zur Verwendung in einer Prozeßsteue
rungsumgebung enthält eine Zentraleinheit und einen Speicher,
die mit einem oder mehreren Peripheriegeräten verbunden sind,
u. a. beispielsweise einer Anzeigeneinspiegelung bzw. einem
Head-up Display (HUD), einem Mikrophon, einem Bildgebungsgerät
(z. B. eine Videokamera) und einem Fern-Kommunikationsgerät
(z. B. einem drahtlosen Ethernet-Sender/Empfänger), der mit
einem Host-Rechner eines Prozeßsteuerungssystems kommuniziert.
Der tragbare Computer kann über die Anzeigeneinspiegelung
Informationen liefern, die mit einem oder mehreren Geräten
innerhalb des Prozeßsteuerungssystems in Zusammenhang stehen.
Die Informationen, bei denen es sich z. B. um diagnostische
Informationen, Hilfetexte, Operator-Übersichten, schematische
Darstellungen oder Informationen bezüglich der Prozeßparameter
handeln kann, können im Speicher des tragbaren Computers
gespeichert oder vom Host-Rechner über das entfernt angeordnete
Kommunikationsgerät abgerufen werden.
Der tragbare Computer kann eine Software-Routine oder ein
Software- bzw. ein Hardwaregerät enthalten, das ein vom Bild
gebungsgerät entwickeltes Bild verarbeitet, um automatische
Prozeßsteuerungsgeräte innerhalb des Gesichtsfeldes des Trägers
auf Basis von Gerätemerkmalen zu identifizieren. Diese
Verarbeitung, die auf Basis von Geräteanhängern, die an den
Geräten in den Prozeßsteuerungsumgebungen anzubringen sind,
erfolgen kann, identifiziert automatisch ein oder mehrere
Prozeßsteuerungsgeräte, ohne daß der Benutzer dazu irgendwelche
Informationen über ein handbetätigbares Gerät eingeben muß, und
kann dazu verwendet werden, dem Träger zu den identifizierten
Geräte gehörige Informationen, einschließlich der von den
identifizierten Geräten entwickelten Werte der Prozeßparameter,
zu liefern.
Des weiteren kann der tragbare Computer zur Prüfung der kor
rekten Anschlüsse der Geräte und/oder Kommunikationskanäle
innerhalb des Prozeßsteuerungssystems verwendet werden. Bei
dieser Ausführungsform zeigt eine auf dem tragbaren Computer
laufende Software-Routine dem Träger über die HUD Informationen
an, die beispielsweise eine Liste der Geräte oder
Kommunikationskanäle enthalten, und ermöglicht es dem Träger,
das jeweils zu prüfende Gerät und/oder den Kommunikationskanal
zu wählen. Der Träger kann mittels verbaler Befehle, die von
einer auf dem tragbaren Computer laufenden Spracherkennungs
routine aufgrund von Befehlen, die über ein beliebiges anderes
Eingabegerät eingegeben werden, decodiert werden, ein Gerät
oder einen Kanal wählen. Nach der Wahl des entsprechenden E/A-
Kanals ermittelt die Routine den aktuellen Wert des Signals auf
dem gewählten Kanal über Datenübertragung mit dem Host-Rechner
und zeigt dem Träger diesen Wert auf der HUD an. Zu diesem
Zeitpunkt kann der Träger den Wert auf dem aktuellen
Kommunikationskanal z. B. mittels eines handgeführten Meßgeräts
manuell prüfen. Die Routine ermöglicht dem Träger dann, den
Wert des Kanals zu ändern, indem er einen neuen Wert beispiels
weise über Sprachbefehle eingibt. Als nächstes überträgt die
Routine den neuen Wert an den Host-Rechner, der den Wert
innerhalb des Prozeßsteuerungssystems ändert und die Änderung
an den tragbaren Computer zurückmeldet. Die Änderung kann dem
Träger über die HUD angezeigt werden, worauf der Träger in die
sem Zeitpunkt das Signal auf dem Kanal erneut manuell messen
kann, um sicherzustellen, daß das gemessene Signal auf den
neuen Wert geändert worden ist. Ist dies nicht der Fall, liegt
in der Konfiguration des Prozeßsteuerungssystems ein Problem
vor. Unter Anwendung dieses Systems kann der Träger die An
schlüsse innerhalb einer Prozeßsteuerungsumgebung auf eine
Weise prüfen, bei der er die Hände frei hat, und ohne durchzu
führende Änderungen an eine andere Person zu melden, die sich
an einer anderen Stelle der Betriebsanlage (z. B. an einer
Operator-Workstation) befindet.
Bei einer anderen Ausführungsform ermöglichen Routinen, die auf
dem tragbaren Computer und einer Host-Workstation laufen, daß
der Träger und ein Operator an der Host-Workstation ein
gemeinsames Bild betrachten und manipulieren können, um dadurch
die Kommunikation zwischen dem Operator und dem Träger zu
verbessern. Das Host-System kann ein von der Videokamera des
tragbaren Computers entwickeltes Signal empfangen und ein
Basisbild für die gemeinsame Betrachtung wählen. Dieses Bild
wird auf der Anzeige des Hosts angezeigt und an den tragbaren
Computer zur Anzeige auf der HUD geschickt. Danach können ent
weder der Operator oder der Träger oder beide das Bild mani
pulieren, indem beispielsweise ein Cursor im Bild bewegt wird,
Daten oder Informationen hervorgehoben oder im Bild angebracht
werden usw. Diese Änderungen werden dann an das jeweils andere
System geschickt, so daß sie sowohl auf der Anzeige des Hosts
als auch auf der HUD angezeigt werden.
Bei einer weiteren Ausführungsform kann der tragbare Computer
zum Erzeugen und Speichern von Informationen z. B. in Form von
Sprachmeldungen, die ein Gerät oder ein anderes Objekt in der
Prozeßsteuerungsumgebung betreffen, verwendet werden. Solche
Informationen können dann automatisch an einen Träger oder
Operator geliefert werden, der später zu diesem Gerät kommt.
Fig. 1 ist ein schematisches Blockdiagramm eines Prozeßsteue
rungsnetzes mit einem damit entfernt gekoppelten tragbaren
Computersystem;
Fig. 2 ist eine schematisches Blockdiagramm des tragbaren Com
putersystems von Fig. 1;
Fig. 3 ist ein Flußdiagramm einer Software-Routine, die Sprach
daten verarbeitet, um Befehle im tragbaren Computersystem von
Fig. 2 zu erkennen;
Fig. 4 ist ein Flußdiagramm einer Software-Routine, die auto
matische Prozeßsteuerungsgeräte auf Basis von vom tragbaren
Computersystem nach Fig. 2 gesammelten Videoinformationen
erkennt;
Fig. 5 ist ein Flußdiagramm eines Satzes Software-Routinen, die
ein gemeinsam genutztes Bild für ein Host-System und das trag
bare Computersystem nach Fig. 2 bereitstellen;
Fig. 6 ist ein Flußdiagramm einer Software-Routine, die den
Benutzer eines tragbaren Computers unterstützt, der Kommunika
tionsanschlüsse innerhalb einer Prozeßsteuerungsumgebung auf
ihre Richtigkeit prüft;
Fig. 7 ist eine erste Bildschirmanzeige des tragbaren Computers
aus der Software-Routine nach Fig. 6;
Fig. 8 ist eine zweite Bildschirmanzeige des tragbaren Compu
ters aus der Software-Routine nach Fig. 6; und
Fig. 9 ist eine weitere Bildschirmanzeige des tragbaren Compu
ters aus der Software-Routine nach Fig. 6.
Nunmehr sei auf Fig. 1 verwiesen, wonach ein Prozeßsteuerungs
system 10 eine Prozeßsteuerung 12 enthält, die mit einer Host-
Workstation oder einem Host-Rechner 14 (bei dem es sich um
einen beliebigen Typ Personal Computer oder Workstation handeln
kann) und Feldgeräten 15, 16, 17, 18 und 19 über Eingangs-
/Ausgangs-(E/A)-Karten 20 und 22 verbunden ist. Die Steuerung
12, die beispielsweise eine von der Firma Fisher-Rosemount
Systems, Inc., vertriebene DeltaVT™ vertriebene Steuerung sein
kann, kann mit dem Host-Rechner 14 über z. B. einen Ethernet-An
schluß und mit den Feldgeräten 15 bis 19 kommunikativ unter
Verwendung von Hardware und Software in Zusammenhang mit jedem
gewünschten Kommunikationsprotokoll (u. a. beispielsweise dem
FOUNDATION™ Fieldbus-, dem HART®-, PROFIBUS®-, WORLDFIP®-,
Device-Net®- oder CAN-Protokoll) verbunden sein. Typischerweise
implementiert die Steuerung 12 eine darin gespeicherte
Prozeßsteuerungsroutine und kommuniziert mit den Geräten 15 bis
22 und dem Host-Rechner 14, um einen Prozeß auf jede gewünschte
Weise zu steuern. Die Feldgeräte 15 bis 19 können beliebige
Typen Geräte, z. B. Sensoren, Ventile, Sender, Stellglieder usw.
sein, während die E/A-Karten 20 und 22 beliebige Typen E/A-
Geräte sein können, die jedem gewünschten Kommunikations- oder
Steuerungsprotokoll entsprechen.
Wie in Fig. 1 dargestellt ist der Host-Rechner 14 kommunikativ
mit einem tragbaren Computersystem 30 über ein Fern- oder
drahtloses Kommunikationsgerät wie z. B. einen Fern-Ethernet-
Sender/Empfänger 32 gekoppelt. Alternativ kann der Host-Rechner
14 mit dem tragbaren Computersystem 30 über eine physikalische
Leitung oder einen Bus verbunden werden, mit Anschlüssen in der
gesamten Prozeßsteuerungsumgebung, an die das tragbare Com
putersystem 30 vorübergehend angeschlossen und wieder davon
getrennt werden kann.
Das tragbare Computersystem 30 enthält einen tragbaren Computer
34 mit einem Fern-Sender/Empfänger 36 und einer Anzahl am
Computer angeschlossener Peripheriegeräte. Bei der bevorzugten
Ausführungsform enthält der tragbare Computer 34 eine CPU-
Grundplatine der Pentium-Klasse mit Video, Audio, RAM (z. B. 64
MB) und ROM mit einem Festplattenlaufwerk (z. B. 4,3 GB), die
sämtlich in einem tragbaren Computer-Gurtzeug (nicht
dargestellt) untergebracht werden. Der tragbare Computer 34
kann eine beliebige Anzahl Steckplätze aufweisen, z. B. PCMCIA-
Steckplätze, von denen einer dazu verwendet werden kann, den
Fern-Sender/Empfänger 36 und ein anderer, um eine Vido-
Verarbeitungsplatine wie eine Platine zur Videobilderfassung
aufzunehmen. Die kommunikativ mit dem tragbaren Computer 34
gekoppelten Peripheriegeräte beinhalten ein Bildgebungsgerät
38, das eine Videokamera sein kann, eine HUD 40, einen
Lautsprecher 42 (bei dem es sich um einen Kopfhörer/
Lautsprecher oder um einen anderen Lautsprechertyp handeln
kann), ein Mikrophon 44 und ein Eingabegerät 46 für den Benut
zer, das beispielsweise eine typische Tastatur, eine Maus, eine
Rollkugel oder ein Twiddler-Gerät mit einer begrenzten Anzahl
leicht zu betätigender Tasten (z. B. Funktionstasten) sein kann,
deren Funktion für verschiedene Anwendungen verschieden
definiert wird. Selbstverständlich können auch andere
Peripheriegeräte zusätzlich oder alternativ verwendet werden.
Während das Bildgebungsgerät 38 vorzugsweise eine Videokamera
ist, kann es statt dessen ein anderer Typ Bildgebungsgerät z. B.
eine digitale Kamera sein, die kompakt ist und sich vom Träger
auf einfache Weise so transportieren läßt, daß er die Hände
frei hat. Am meisten bevorzugt ist die Videokamera 38 oder ein
anderes bildgebendes Gerät an der HUD 40 oder einem anderen
Gerät (z. B. einem tragbaren Kopfhörer) angebracht, das in
Blickrichtung des Trägers weist. Eine kleine und leicht mon
tierbare Videokamera, die für diesen Zweck verwehdet werden
kann, wird von der Firma Pulnix Corporation vertrieben. Diese
Videokamera entspricht dem hochauflösenden Fernsehstandard
(high definition television - HDTV) (d. h. erzeugt ein Farbild
mit 800 × 600 Bildpunkten), hat ein Objektiv mit einem
Durchmesser von ca. einem viertel bis einem halben Zoll und
erzeugt ein hochauflösendes Farbbild. Statt dessen können
jedoch auch andere Videokameras verwendet werden, z. B.
Videokameras, die hoch- oder niedrigauflösende Farb- oder
Schwarzweiß- (d. h. Grauton)-Bilder erzeugen. In einigen Fällen
kann eine niedrigauflösende Videokamera (entweder Schwarzweiß-
oder Farbbilder) bevorzugt werden, um die zur Verarbeitung
eines Bildes in der nachstehend beschriebenen Weise
erforderlich Zeit zu verkürzen.
Die HUD 40 kann ein NTSC-Videoformat verwenden und ist vor
zugsweise eine monokulare HUD wie beispielsweise die M1 HUD,
die von der Firma Liquide Image Corp., Kanada, vertrieben wird.
Diese HUD liefert ein Viertel- (d. h. 320 × 240 Bildpunkte) VGA-
Grautonbild. Natürlich könnten statt dessen auch HUD's nach dem
HDTV-Format (deren Kosten eine Verwendung derzeit noch
verbieten) oder andere Farb- oder Grauton-HUDTs, seien sie
bereits verfügbar oder künftige Entwicklungen, verwendet wer
den. Als Lautsprecher 42, Mikrophon 44 und Eingabegerät 46 kann
jedes geeignete und leicht transportierbare Gerät verwendet
werden, wobei diese vorzugsweise so anzubringen sind, daß der
Träger seine Hände frei hat. Bei einer Ausführungsform kann ein
Knochenleitungsmikrophon sowohl als Mikrophon 44 als auch als
Lautsprecher 42 arbeiten. Wie bekannt, nutzen Knochen
leitungsmikrophone die Knochen im Kiefer des Trägers, um
Sprachsignale zu erkennen und/oder um Tonsignale am Ohr des
Trägers zu erzeugen.
Bei installiertem tragbarem Computersystem 30 hat der Träger
immer noch beide Hände frei, um andere Aktivitäten auszuführen
wie beispielsweise Instandsetzen von Geräten, Vornehmen von
Messungen oder Halten anderer Instrumente. Natürlich kann zur
Betätigung des Eingabegeräts 46 eine oder beide Hände erfor
derlich sein, es ist aber dennoch vorzugsweise so angebracht,
daß der Träger die Hände frei hat.
Wie aus Fig. 2 ersichtlich ist, enthält der tragbare Computer
34 eine mit einem Speicher 52 gekoppelte CPU 50, bei dem es
sich um jeden Speichertyp handeln kann, einschließlich z. B.
eines Plattenlaufwerks (z. B. Festplatten-, Magnetplatten- oder
Laserplattengerät), RAM, ROM, EEPROM, EPROM etc. Die CPU 50,
die einen oder mehrere Prozessoreinheiten enthalten kann (oder
andere festverdrahtete oder Firmwareelemente), die unabhängig
voneinander oder koordiniert arbeiten, führt eine oder mehrere
Software-Anwendungen (im Speicher 52 gespeichert) aus, wobei
sie die Eingaben in den tragbaren Computer 34, im Speicher 52
gespeicherte Informationen und/oder Informationen verwendet,
die vom Host-System über den Sender/Empfänger 36 geliefert wer
den. Außerdem stellt die CPU 50 Ausgaben an die Peripherie
geräte sowie an das Host-System über das entfernte Kommunika
tionsgerät, d. h. den Sender/Empfänger 36, bereit. Bei der Aus
führungsform von Fig. 2 ist die CPU 50 so dargestellt, daß sie
eine Steuerung 54 enthält (die hardware- oder softwaremäßig
implementiert sein kann) und die das zum tragbaren Computer 34
gehörige Betriebssystem ausführt, um verschiedene Eingaben von
den Peripheriegeräten und anderen Komponenten des tragbaren
Computers 34 zu erkennen und eine oder mehrere Anwendungen
abzuarbeiten. Die in Fig. 2 dargestellte CPU 50 enthält eine
Spracherkennungseinheit 56 oder führt diese aus, eine optische
Zeichenerkennungs-(optical character recognition - OCR)-Einheit
60, einen Lautsprechertreiber 62 und einen HUD-Treiber 64.
Außerdem ist die CPU 50 mit einem Video-Einzelbild-Grabber 68
gekoppelt, der auf einer getrennten Videoverarbeitungsplatine
bereitgestellt werden kann.
Die Spracherkennungseinheit 56, bei es sich z. B. um das Dragon
Dictate System, das von der Firma Dragon Systems, Boston,
Massachusetts, vertrieben wird, oder um eine andere gewünschte
Spracherkennungseinheit handeln kann, ist typischerweise
softwaremäßig implementiert, kann aber alternativ auch auf
einer getrennten Prozessorplatine ausgeführt sein. In jedem
Fall empfängt die Spracherkennungseinheit 56 Sprache, Stimme
oder andere Tonsignale vom Mikrophon 44, führt damit eine
Spracherkennungsverarbeitung durch und liefert auf Basis der
erkannten Spracheingaben Befehle an die Steuerung 54. Die
Spracherkennungseinheit 56 kann jede gewünschte oder bekannte
Verarbeitung der empfangenen Sprachsignale ausführen, um
bestimmte erkannte Sprachbefehle oder Worte zu identifizieren.
Während dieses Prozesses kann die Spracherkennungseinheit 56
einen identifizierten Sprachbefehl mit einer Liste
gespeicherter oder erkannter Sprachbefehle (die beispielsweise
in Speicher 52 gespeichert sind) vergleichen, um zu bestimmen,
ob ein gültiger Befehl vom Träger gegeben wird. Ist ein
erkannter Befehl empfangen worden, schickt die
Spracherkennungseinheit 56 den Befehl zur weiteren Verarbeitung
an die Steuerung 54. Falls gewünscht, kann selbstverständlich
die Steuerung 54 bestimmen, ob ein Sprachbefehl ein gültiger
oder erkannter Befehl im Rahmen der von der Steuerung 54
abgewickelten Anwendung ist, und kann den Benutzer informieren,
wenn ein nicht erkannter Befehl empfangen wird. Bekannterweise
kann die Spracherkennungseinheit 56 auch Lernfähigkeiten haben.
Fig. 3 zeigt ein Blockdiagramm einer Software-Routine 80, die
ein Sprachsignal verarbeitet, um Sprachbefehle zu identifi
zieren, und die vom tragbaren Computersystem 30 ausgeführt
werden kann, um dem Träger zu ermöglichen, Daten oder Befehle
verbal und damit ohne die Hände zu gebrauchen, einzugeben. In
Block 82 der Routine 80 wird ein Sprachsignal vom Mikrophon 44
empfangen. Das Sprachsignal wird in Block 84 verarbeitet, um
einen Sprachbefehl im Signal zu identifizieren, wobei jede ge
wünschte oder standardmäßige Spracherkennungsverarbeitungs
routine verwendet werden kann wie oben angegeben. In Block 86
werden dann der identifizierte Befehl oder die Eingabe mit
einem Satz Befehlen verglichen, der beispielsweise im Speicher
52 gespeichert ist, um zu bestimmen, ob der Befehl gültig ist.
Wird in Block 88 bestimmt, daß der Sprachbefehl erkennt worden.
ist, wird der Befehl in Block 90 zur Steuerung 54 geschickt, um
von der Anwendung verwendet zu werden, die einen solchen Befehl
erwartet. Danach oder wenn das Sprachbefehlssignal in Block 88
nicht als gültiger Befehl erkannt wird, geht die Steuerung
zurück zu Block 82, in dem weitere Sprachsignale empfangen und
verarbeitet werden. Ist ein ungültiger Befehl empfangen worden,
kann die Routine 80 selbstverständlich dem Träger eine ent
sprechende Anzeige liefern.
Die im tragbaren Computer 34 nach Fig. 2 bereitgestellte Video-
Verarbeitungseinheit enthält einen mit der OCR-Einheit 60
gekoppelten Einzelbild-Grabber (Frame-Grabber) 68, könnte
jedoch ebenso andere Video- oder Bildverarbeitungs-
Hardware/Software enthalten. Der Einzelbild-Grabber 68 kann
z. B. eine Nogatek-Platine sein, die von der Firma Nogatek
vertrieben wird, während die OCR-Einheit 60 z. B. das Carina
Echtzeit-OCR-Paket sein kann, das von der Firma Adaptive
Recognition Hungary, Budapest, Ungarn, vertrieben wird. Obwohl
diese bestimmte OCR-Einheit bisher zur Identifizierung der
amtlichen Kennzeichen von Fahrzeugen verwendet worden ist, ist
anzunehmen, daß dieses Produkt oder ein diesem gegenüber
geringfügig modifiziertes abgeleitetes Produkt einwandfrei zur
Erkennung der nachstehend beschriebenen Merkmale arbeiten
würde. Natürlich könnten auch andere geeignete Einzelbild-
Grabber-Platinen und OCR-Pakete verwendet werden. Wie in Fig. 2
dargestellt, empfängt der Einzelbild-Grabber 68 ein Bildsignal
(das mehrere Einzelbilder umfaßt) von der Videokamera 38 und
stellt der OCR-Einheit 60 ein Ausgangseinzelbild zur Verfügung.
(Erzeugt jedoch das Bildgebungsgerät 38 ein Standbild, wie das
von einer digitalen Kamera, kann der Einzelbild-Grabber 68
natürlich entfallen).
Bei einer Ausführungsform verarbeitet die OCR-Einheit 60 das
empfangene Bild, um Gerätemerkmale im Bild zu identifizieren,
und diese Gerätemerkmale dienen dann dazu, eines oder mehrere
Geräte im Sichtfeld der Videokamera 38 zu identifizieren. Die
OCR-Einheit 60 kann beispielsweise nach vorgegebenen Symbolen
suchen und diese erkennen, wie alphanumerische Symbole auf den
Feldgeräten, und die erkannten Symbole zur Identifizierung der
Geräte der Steuerung 54 bereitstellen. Falls gewünscht, kann
der Ausgang der Videokamera 38 natürlich auch für andere Zwecke
verwendet werden. So kann z. B. das Videobild der Steuerung 54
zur Anzeige auf der HUD 40 geliefert und/oder über den Sen
der/Empfänger 36 an den Host-Rechner 14 zur Betrachtung und/
oder Verarbeitung durch den Host-Rechner 14 geschickt werden.
Wie aus Fig. 4 zu ersehen ist, kann eine in Form eines Fluß
diagramms dargestellte Routine 100 vom tragbaren Computer 34
ausgeführt werden, um Geräte innerhalb des Sichtfeldes des
Trägers auf Basis der vom Bildgebungsgerät 38 erfaßten Video
eingangs automatisch zu erkennen. In Block 102 wird ein Video-
oder ein anderes Bild vom Bildgebungsgerät 38 abgerufen. Ist
das Bildgebungsgerät 38 eine Videokamera, kann im Block 102 der
Einzelbild-Grabber 68 zum Herausgreifen eines bestimmten Video-
Einzelbildes eingesetzt werden. Ist das Bildgebungsgerät jedoch
beispielsweise eine digitale Kamera, kann im Block 102 ohne
Hilfe des Einzelbild-Grabbers 68 direkt auf das Bild zu
gegriffen werden.
In Block 104 wird dann das Videobild oder das Einzelbild ver
arbeitet, um potentielle Gerätemerkmale im Videoeinzelbild zu
identifizieren. Bei einer Ausführungsform ist das Gerätemerkmal
ein Geräteanhänger, der gemäß OSHA für jedes der Feldgeräte
innerhalb einer Prozeßsteuerungsumgebung zwingend vorge
schrieben ist. Im allgemeinen weisen solche Geräteanhänger
einen rechtwinkligen Halter oder Rahmen (typischerweise ein bis
zwei Zoll hoch und drei bis vier Zoll breit) mit alpha
numerischen Schriftzeichen auf, die darin eingeätzt oder auf
andere Weise eingraviert oder eingeschnitten sind, so daß sie
für Personen in der Prozeßsteuerungsumgebung sichtbar sind. Die
alphanumerischen Schriftzeichen haben normalerweise eine vom
Rahmen verschiedene Farbe, um diese Schriftzeichen besser
sichtbar zu machen. Bei Erkennen der Geräteanhänger wird das
Bild in Block 104 gescannt, um Bereiche, die wahrscheinlich
Geräteanhänger enthalten, z. B. rechtwinklige Flächen innerhalb
des Bildes, Bereiche mit bestimmten Farbbereichen, Bereiche mit
alphanumerischen Schriftzeichen usw. zu identifizieren. Selbst
verständlich kann bei der Suche nach diesen Gerätemerkmalen
jede gewünschte Verarbeitung angewendet werden. Danach werden
in Block 106 die Gerätemerkmale innerhalb der identifizierten
Bereiche erkannt oder decodiert. Vor allem bei der
Identifizierung von Geräteanhängern kann die optische Zeichen
erkennung (unter Verwendung der OCR-Einheit 60) in Block 106
für die identifizierten Merkmale angewendet werden, um eine
vorläufige Gerätekennung zu erzeugen. Befindet sich mehr als
ein Gerät innerhalb des in Verarbeitung befindlichen Bildes,
können in Block 104 und 106 zahlreiche Merkmale (z. B. Geräte
anhänger) erkannt und zahlreiche vorläufige Gerätekennungen
identifiziert werden.
Danach wird in Block 108 jede der vorläufigen Gerätekennungen
mit einer Liste Gerätekennungen, die beispielsweise im Speicher
52 abgelegt sind, verglichen, um die Existenz von Geräten
entsprechend der vorläufigen Gerätekennungen zu überprüfen.
Sind entsprechende Geräte vorhanden, werden die Gerätekennungen
auf ihre Richtigkeit geprüft, und jede der verifizierten
Gerätekennungen wird in Block 110 an die Steuerung 54 zur Ver
wendung in anderen Anwendungen, zur Anzeige für den Träger über
die HUD 40 und/oder zur Weiterleitung an den Host-Rechner 14
über den Sender/Empfänger 36 geliefert.
Obwohl die Routine 100 Geräte auf Basis jeder Art beobachtbarer
Merkmale identifizieren kann, wird bevorzugt, daß die Routine
100 Geräte auf Basis von Gerätemerkmalen identifiziert, d. h.
auf Merkmalen, die Bestandteil des im Feld angeordneten Geräts
sind, ungeachtet der automatischen Erkennung und Iden
tifizierung durch das tragbare Computersystem 30. Mit anderen
Worten, soll die Routine 100 vorzugsweise Geräte auf Basis von
Merkmalen, die nicht einzig zum Zweck der Erkennung durch das
tragbare Computersystem 30 auf dem Gerät angebracht wurden,
identifizieren, obwohl es möglich wäre, Strichcode oder andere
eindeutige Kennungen auf jedem der Geräte in der Prozeßsteue
rungsumgebung anzubringen. Werden Erkennung und Identifizierung
anhand von Gerätemerkmalen vorgenommen, sind keine zusätzlichen
Schritte zur Etikettierung oder sonstigen Markierung jedes
Geräts in einer Prozeßsteuerungsumgebung zum speziellen Zweck
der Identifizierung durch einen tragbaren Computer
erforderlich.
Andere Anwendungen, die z. B. dem Träger über die HUD 40 auto
matisch Informationen anzeigen, können dem Träger die identi
fizierten Geräte oder andere zu dem (den) identifizierten
Gerät(en) gehörigen Informationen über die HUD anzeigen und/
oder können die identifizierten Gerätekennungen an das Host-
System 14 senden. Natürlich kann die Liste der erkannten Geräte
im Speicher 52 des tragbaren Computers 34 oder in einem anderen
Speicher abgelegt werden, z. B. einem Speicher im Host-System
14, auf den im Block 108 über entfernt angeordnete
Kommunikationsgeräte zugegriffen werden kann, um vorläufige
Gerätekennungen auf ihre Richtigkeit zu prüfen. Es versteht
sich, daß nicht unbedingt jeder der Schritte der Routine 100
vom tragbaren Computersystem 30 ausgeführt werden muß. Einer
oder mehrere dieser Schritte können statt dessen auch vom Host-
Rechner 14 ausgeführt werden, der die Routine 100 im
Datenaustausch mit dem tragbaren Computersystem 30 ausführen
kann.
Nunmehr sei erneut auf Fig. 2 verwiesen, wonach der Lautspre
chertreiber 62 Signale von der Steuerung 54 erhält und diese
verarbeitet, indem er sie z. B. in analoge Standard-Audiosignale
wandelt, sie verstärkt etc. Der Lautsprechertreiber 62 liefert
dann das verarbeitete Signal an den Lautsprecher 42. Es liegt
nahe, daß der Lautsprechertreiber 62 und die Steuerung 54
verwendet werden können, um zuvor aufgezeichnete Signale
wiederzugeben, die beispielsweise im Speicher 52 oder im
Speicher des Host-Rechners 14 gespeichert sind, und/oder um
Echtzeit-Audioinformationen des Host-Systems wie die Stimme
eine Operators am Host-System oder die Stimme eines anderen
Benutzers eines tragbaren Computers aus einem anderen Bereich
der Prozeßsteuerungsumgebung weiterzuleiten. Die Sprach- oder
Audiosignale, die vom Lautsprecher 42 wiederzugeben sind, kön
nen dem tragbaren Computer 34 über den Sender/Empfänger 36 vom
Host-System oder über ein anderes mit dem tragbaren Computer 34
gekoppeltes Audiokommunikationssystem bereitgestellt werden.
Analog empfängt der HUD-Treiber 64 von der Steuerung 54 Signale
einschließlich Graphiken, die auf der HUD 40 anzuzeigen sind
und verarbeitet diese Signale zur Anzeige auf der HUD 40 in
entsprechender Weise. Bei manchen Ausführungsformen können der
HUD-Treiber 64 und die HUD 40 zusammen mit dem Twiddler 46 oder
dem Mikrophon 44 verwendet werden, um eine Standard-
Betriebsumgebung eines Computers bereitzustellen, beispiels
weise ein Windows-Bild mit Dialogkästchen, Text, Graphik und
dgl. Bei dieser Umgebung kann der Benutzer einen Cursor verfah
ren, Informationen eingeben oder das Bild auf der HUD 40 mani
pulieren, um z. B. eine Anwendung auszuführen oder Entschei
dungen in Zusammenhang mit einer vom tragbaren Computer 34
ausgeführten Anwendung zu treffen.
Die Steuerung 54 verwendet den Sender/Empfänger 36 in jeder
gewünschten oder auf standardmäßige Weise und liefert Signale
an den Sender/Empfänger 36 zur Übertragung an das Host-System
unter Verwendung jedes gewünschten Kommunikationsprotokolls.
Die Steuerung 54 ihrerseits empfängt und decodiert Informatio
nen vom Host-Rechner 14 über den Sender/Empfänger 36 unter
Verwendung jedes gewünschten Kommunikationsprotokolls.
Das tragbare Computersystem 30 nach Fig. 2 kann verwendet wer
den, um dem Träger zahlreiche Arten von Informationen bereitzu
stellen und/oder um Funktionen in der Prozeßsteuerungsumgebung
auszuführen, die die Aufgaben des Trägers erleichtern und be
schleunigen, wenn dieser z. B. die Anschlüsse verschiedener Ge
räte in der Prozeßsteuerungsumgebung kontrolliert, einrichtet,
instandsetzt, kalibriert und prüft. Mit dem tragbaren Computer
system 30 kann ein Träger beispielsweise über die HUD 40
entweder automatisch oder nach entsprechenden Eingaben über
eines der Peripheriegeräte Informationen abfragen und prüfen,
die zu bestimmten Geräten oder Bereichen der Prozeßsteuerungs
umgebung gehören. Der tragbare Computer 34 kann jede gewünschte
Information, die zu einem bestimmten Gerät oder allgemein zum
Prozeßsteuerungssystem gehört, speichern oder mit dem Host-
Rechner 14 kommunizieren, um diese Informationen zu erhalten
und diese Information dem Träger über die HUD 40 auf dessen
Anforderung oder wenn das tragbare Computersystem 30 ein Gerät
im Gesichtsfeld des Trägers erkennt wie oben beschrieben
anzeigen. Die angezeigte Information kann Prozeßinformationen
wie schematische Darstellungen, Operator-Übersichten des Pro
zeßsteuerungssystems, Geräteinformationen wie Gerätelisten,
Hilfetexte, Diagnoseinformationen und sogar Informationen zu
den Prozeßparametern (Messungen, Parameterwerte etc.) enthal
ten, die zu einem oder mehreren der innerhalb des Prozeß
steuerungssystems angeschlossenen Geräte gehören.
Um derartige Informationen betrachten zu können, kann der sich
bei dem Gerät befindende Träger eine Gerätekennung, z. B. die
Nummer eines Geräteanhängers oder eines Gerätes eingeben, wo
durch die Steuerung 54 veranlaßt werden kann, bestimmte Arten
von Geräteinformationen wie Hilfetexte, Kalibrierwerte, Diagno
sen, Parameterwerte etc. automatisch anzuzeigen. Der Träger
kann natürlich auch die Gerätekennung mittels des Twiddlers 46,
des Mikrophons 44 oder eines anderen Eingabegerätes eingeben.
Bei Verwendung des Mikrophons 44 kann die Spracherkennungsein
heit 56 z. B. eine gesprochene Geräteanhängernummer oder eine
Gerätebezeichnung identifizieren und diese Geräteanhängernummer
oder die Gerätebezeichnung an die Steuerung 54 liefern. Falls
gewünscht, kann die Spracherkennungseinheit 56 so eingerichtet
werden, daß sie eine Gerätenummer, eine Gerätebezeichnung oder
eine andere Gerätekennung empfangen und die eingegebene Kennung
mit einer Liste gültiger Gerätenummern oder Gerätebezeichnungen
im Speicher 52 vergleichen kann.
Bei einer Ausführungsform werden wie oben beschrieben die Ge
räte im Sichtfeld des Trägers automatisch von der Videoverar
beitungsschaltung erkannt und können, wenn eine derartige Er
kennung stattfindet, dem Träger über die HUD 40 automatisch in
jedem gewünschten Format angezeigt werden. Ist die Information
im Speicher 52 gespeichert, kann die Steuerung 54 automatisch
auf die Information zugreifen und der HUD 40 mittels des HUD-
Treibers 64 bereitstellen oder auf dieser anzeigen.
In jedem dieser Fälle kann die Steuerung 54 einem Benutzer eine
Liste erkannter Geräte anzeigen, so daß dieser die Anzeige von
Informationen zu einem dieser Geräte wählen kann, oder die
Steuerung 54 kann wahlweise Informationen zu den erkannten
Geräten automatisch über die HUD 40 anzeigen. Es ist von Bedeu
tung, daß es die Verwendung des Mikrophons 44, der Videokamera
38 und der zugehörigen Hardware/Software des tragbaren
Computersystems 30 dem Träger ermöglicht, zu den Geräten (oder
Bereichen oder anderen Einheiten des Prozeßsteuerungssystems)
gehörige Informationen automatisch so anzuzeigen, daß er seine
Hände frei hat, d. h. ohne Daten oder sonstige Informationen
über ein handgeführtes oder handbetätigtes Gerät einzugeben.
Damit hat der Träger seine Hände frei zur Durchführung anderer
Aufgaben wie Instandsetzen, Austauschen oder Kalibrieren von
Geräten, Handhaben anderer Werkzeuge etc., was sehr vorteilhaft
ist. Außerdem kann das tragbare Computersystem 30 Informationen
empfangen und anzeigen, die von den Geräten gemessen oder in
diesen gespeichert wurden, die der Träger tatsächlich
inspiziert, ohne daß getrennte Skalen oder Anzeigen gebraucht
werden, die physikalisch an der Außenseite jedes Gerätes ange
ordnet sind.
Bei einer anderen Ausführungsform kann das tragbare Computer
system 30 verwendet werden, um einem z. B. am Host-Rechner 14
befindlichen Operator und einem Träger über die HUD 40 die ge
meinsame Betrachtung (z. B. Anzeige) bereitzustellen, um dadurch
die Verständigung zwischen beiden zu verbessern. Eine solche
gemeinsame Betrachtungsanwendung gestattet es einer oder beiden
dieser Personen, das Bild zu manipulieren, um beispielsweise
bestimmte Teile des Bildes zu zeigen oder hervorzuheben oder um
Daten auf dem Bild anzubringen. Diese Maßnahmen können
gemeinsam mit Sprachkommunikation erfolgen, um dadurch den
Sprechverkehr zwischen dem Träger und einem Operator am Host-
Rechner 14 zu verbessern.
Fig. 5 zeigt ein Blockdiagramm einer Software-Routine 116, die
auf dem Host-Rechner 14 laufen kann, und ein Blockdiagramm
einer Software-Routine 118, die auf dem tragbaren Computer
system 30 laufen kann, um eine gemeinsame Betrachtung oder
Anzeige zu implementieren. In Block 120 der Routine 118 wird
ein Videobild erfaßt und über den Sender/Empfänger 36 an den
Host-Rechner 14 gesendet. (Der Datenaustausch zwischen dem
tragbaren Computersystem 30 und dem Host-Rechner 14 ist in Fig.
5 mit gestrichelten Linien dargestellt). Dieses Bild kann das
gesamte aus mehreren Einzelbildern bestehende von der Video
kamera 38 erzeugte Bild oder eines oder mehrere Einzelbilder
desselben sein. In Block 122 der Routine 116 wird das Videobild
empfangen, und in Block 124 wird das Videobild dem Operator
über eine zum Host-Rechner 14 gehörige Anzeige angezeigt. In
Block 126 kann der Operator am Host-Rechner 14 ein Einzelbild
des Videobildes als Basis für die gemeinsame Betrachtung (ein
Basisbild) wählen. In Block 126 kann beispielsweise einfach das
zuletzt empfangene Einzelbild des empfangenen Videosignals
angezeigt werden, bis der Operator angibt, daß ein Festbild
erforderlich ist. Wahlweise kann der Operator in Block 126 die
empfangenen Einzelbilder abspielen, um ein gewünschtes Bild zu
wählen, oder er kann auf andere Weise ein Basisbild wählen.
Wählt der Operator kein Basisbild zur gemeinsamen Anzeige, geht
die Steuerung in Block 126 zurück zu Block 122. Wählt der
Operator in Block 126 ein Basisbild, wird das gewählte
Basisbild in Block 128 an das tragbare Computersystem 30 zur
Anzeige für den Träger auf der HUD 40 geschickt. Falls
gewünscht, kann das gewählte Basisbild im Block 128 auch dem
Operator über die Anzeige des Host-Rechners 14 angezeigt
werden.
Als nächstes wird in Block 130 der Routine 116 bestimmt, ob vom
Operator des Host-Rechners Änderungen des Basisbildes vor
genommen oder gefordert werden. Solche Änderungen können bei
spielsweise das Verfahren eines Cursors oder Zeigers, das
Zeichnen im Bild, das Hervorheben von Bildbereichen, das An
bringen von Informationen oder anderen Daten auf dem Bild oder
sonstige andere gewünschte Änderungen enthalten, die es dem
Operator ermöglichen, mit dem das Bild verwendenden Träger zu
kommunizieren. Diese Änderungen können vom Operator mittels be
liebiger gewünschter Systemprotokolle und Peripheriegeräte,
beispielsweise einer Maus und einer Tastatur, vorgenommen wer
den. Nimmt der Operator Änderungen des Bildes vor, werden diese
in Block 132 über das Sender/Empfängernetz 32/36 an das
tragbare Computersystem 30 geschickt. Die Änderungen können mit
jedem gewünschten Protokoll übertragen werden, und es können
wie gewünscht entweder die betreffenden Änderungen oder ein
komplettes die Änderungen enthaltendes neues Einzelbild an das
tragbare Computersystem 30 geschickt werden. Bei einer Aus
führungsform können Änderungen in Form von Zeigerbewegungen als
neue Zeigerkoordinaten übertragen werden. Nach Ausführen und
Senden der Bildänderungen an das tragbare Computersystem 30
oder wenn der Host-Operator keine neuen Änderungen mehr vor
nimmt, wird das Bild des Host-Systems in Block 134 aufgefrischt
(unter Einbeziehung der vom Operator und der vom tragbaren
Computersystem ausgeführten und an das Host-System geschickten
Änderungen). Die Steuerung der Routine 118 geht dann zurück zu
Block 130, um andere vom Host-Operator ausgeführte Änderungen
zu erkennen.
Die Routine 118 enthält einen Block 136, der das vom Host-
System empfangene Basisbild auf der HUD 40 anzeigt. In Block
138 werden dann vom Träger am Bild vorgenommene Änderungen
erkannt, wobei diese Änderungen mit jedem verfügbaren Ein
gabegerät einschließlich des Mikrophons 44 und des Twiddlers 46
erfolgt sein können. Nimmt der Träger Änderungen am dar
gestellten Bild vor, werden diese in Block 140 an den Host-
Rechner 14 geschickt. Anschließend oder wenn keine vom Träger
veranlaßten Änderungen erkannt werden, wird das Bild auf der
HUD 40 in Block 142 aufgefrischt, wobei Änderungen durch den
Träger sowie Änderungen, die am Host-Rechner 14 erfolgten und
von diesem empfangen wurden, berücksichtigt werden. Die Steu
erung der Routine 118 geht dann zu Block 138 zurück, um weitere
vom Träger veranlaßten Änderungen zu erkennen.
Auf diese Weise laufen die Routinen 116 und 118 auf den Host-
Rechner 14 und dem tragbaren Computersystem 30 ab, um eine ge
meinsame Betrachtung oder Szene bereitzustellen, die vom Host-
Operator oder vom Träger oder von beiden manipuliert werden
kann, um die Verständigung zwischen beiden zu verbessern. Ob
wohl das Basisbild hier als von einem vom tragbaren Computer
system 30 erfaßten Bild abgeleitet beschrieben worden ist,
braucht dies nicht der Fall zu sein. Das Basisbild könnte statt
dessen eine gespeicherte Ansicht des Operators, eine
schematische Darstellung usw. in Zusammenhang mit dem inter
essierenden Prozeß oder Gerät sein. In jedem Fall macht es die
gemeinsame Ansicht dem Host-Operator möglich, verschiedene Ele
mente innerhalb des angezeigten Bildes auf eine solche Weise
herauszugreifen und zu besprechen, die der Träger durch
Betrachten einfach nachvollziehen kann. Falls gewünscht, kann
außerdem der Träger Änderungen des Bildes vornehmen und dazu
z. B. denselben oder einen anderen Cursor verwenden, um die
Verständigung mit dem Host-Operator zu unterstützen. Falls
gewünscht, braucht es dem Träger nicht möglich zu sein, Ände
rungen des Bildes vorzunehmen, wodurch die Routinen 116 und 118
nach Fig. 5 vereinfacht werden. Falls gewünscht, kann der
Träger außerdem das zu verwendende Basisbild wählen, bevor es
an den Host-Rechner 14 geschickt wird.
Eine weitere Anwendung des tragbaren Computersystems 30 in
nerhalb einer Prozeßsteuerungsumgebung wird in Zusammenhang mit
der in Form eines Flußdiagramms in Fig. 6 dargestellten Routine
150 beschrieben, die vorzugsweise vom tragbaren Computersystem
30 ausgeführt wird. Grundsätzlich ermöglicht es die Routine 150
dem Träger, die richtigen Anschlüsse verschiedener Geräte oder
Kommunikationskanäle (z. B. E/A-Anschlüsse) innerhalb einer
Prozeßsteuerungsumgebung auf ihre Richtigkeit zu überprüfen,
wobei er seine Hände frei hat und nicht der Hilfe durch einen
Operator an einem Host-Gerät bedarf. Früher mußte ein Techniker
mit einem handgeführten Meßgerät, z. B. einem Spannungsmesser,
sowie einem handgeführten Funkgerät, über das der Techniker mit
einem Operator an der Host-Workstation kommunizierte zur
Überprüfung der richtigen Anschlüsse der Geräte oder der
Kommunikationskanäle innerhalb einer Prozeßsteuerungsumgebung
in die Betriebsanlage gehen. Dazu mußte der Techniker erst bis
zu dem Gerät gehen, dem Host-Operator über das handgeführte
Funkgerät melden, daß er vor Ort sei und dann angeben, welchen
Kommunikationskanal er prüfen werde. Zu diesem Zeitpunkt mußte
der Techniker ein handgeführtes Meßgerät bedienen und das
Signal auf der Leitung tatsächlich messen. Danach teilte der
Techniker dem Host-Operator über das handgeführte Funkgerät
mit, was seine Messung des Signals ergeben hat, so daß der
Host-Operator sicherstellen konnte, daß das gemessene Signal
das tatsächliche Signal auf dem gewählten Kommunikationskanal
war. Anschließend forderte der Techniker den Host-Operator auf,
das Signal des fraglichen Kanals zu ändern, und der Host-
Operator veranlaßte die Änderung des Signals oder des Wertes
des Kommunikationskanals. Der Techniker maß dann das Signal auf
dem Kanal erneut, um sicherzustellen, daß die Änderung
tatsächlich erfolgt ist. Dies zeigt, daß dieser Prozeß viele
schwierige Dialoge zwischen dem Host-Operator und dem Techniker
erforderte und innerhalb einer ausgedehnten und komplexen
Prozeßsteuerungsumgebung schwer durchzuführen war, in der der
Techniker versuchte, gleichzeitig ein handgeführtes Funkgerät,
ein handgeführtes Meßgerät zu bedienen und sich Zugang zu den
entsprechenden Geräten oder Kommunikationsleitungen zu
verschaffen. Außerdem stützte sich dieser Prozeß auf die
Verständigung zwischen dem Host-Operator und dem Techniker, was
zu Verwechslungen und Fehlern aufgrund von
Verständnisschwierigkeiten führen konnte.
Mit der Routine 150 von Fig. 6 kann ein Träger Geräteanschlüsse
von Kommunikationskanälen, z. B. E/A-Anschlüsse, innerhalb eines
Prozeßsteuerungssystems mit relativ freien Händen (d. h. er hält
nur ein Meßgerät) überprüfen, ohne dabei mit einem Operator an
einer Host-Workstation kommunizieren zu müssen. Statt dessen
kann das tragbare Computersystem 30 mit dem Host-Rechner direkt
kommunizieren, um dem Träger alle benötigten Informationen zur
Verfügung zu stellen und alle vom Träger geforderten Änderungen
vorzunehmen, um die Anschlüsse eines Gerätes oder eines
Kommunikationskanals im Prozeßsteuerungssystem prüfen zu
können. Bei Anwendung der Routine 150 kann der Träger in die
Prozeßsteuerungsumgebung gehen, eine Liste der Geräte und/oder
zu einem Gerät gehörigen Kommunikationskanäle abzurufen, ein
bestimmtes Gerät und/oder einen bestimmten Kommunikationskanal
zur Prüfung wählen, ermitteln, wie das Signal des Geräts oder
auf der zu prüfenden Leitung beschaffen sein sollte, Änderungen
des Signals vornehmen und sowohl das ursprüngliche als auch das
geänderte Signal messen, um den korrekten Anschluß des Gerätes
oder des Kanals zu prüfen - und dies alles, ohne einen Host-
Operator.
Die Routine 150 enthält einen Block 152, in dem eine Liste der
Geräte auf der HUD 40 angezeigt wird, die geprüft werden kön
nen. Der Träger kann ein bestimmtes zu prüfendes Gerät wählen,
indem er eines der aufgelisteten Geräte in beliebiger Weise an
wählt. Vorzugsweise spricht der Träger Befehle in das Mikrophon
wie UP (nach oben), DOWN (nach unten), LEFT (nach links), RIGHT
(nach rechts), ENTER (Eingabe) etc. die erkannt und an die
Steuerung 54 übergeben werden, um einen Cursor zu verfahren
(bei dem es sich um einen hervorgehobenen Bereich handeln kann)
oder um Elemente auf einem Windows-Bildschirm der HUD 40 zu
wählen. Selbstverständlich kann der Träger auch ein Gerät
mittels des Twiddlers 46 oder eines anderen Tastengeräts wäh
len, indem er das Mikrophon zur Eingabe der Bezeichnung oder
des Anhängers eines Geräts oder die Videokamera 38 zur auto
matischen Identifizierung eines Geräts wie bezüglich der Rou
tine 100 nach Fig. 4 beschrieben verwendet.
Der Block 154 wartet, bis der Träger ein Gerät wählt, und nach
der Wahl eines Geräts durch den Träger wird in Block 156 über
die HUD 40 eine Liste der zu dem gewählten Gerät gehörigen
Kommunikationskanäle angezeigt. Ein Beispiel einer solchen
Anzeige auf Basis eines Windows-Bildschirm ist in Fig. 7 dar
gestellt und zeigt einen Satz von 11 Kommunikationskanälen für
das Gerät CTLR1 (Controller 1), wobei der erste Kanal
CTLR1C02CH1 hervorgehoben ist. Natürlich kann die Liste der
E/A- oder sonstiger Kommunikationskanäle auch auf jede andere
Weise angezeigt werden und ist nicht auf die Darstellung in
Fig. 7 beschränkt.
Nunmehr sei erneut auf Fig. 6 verwiesen, wonach in Block 158
darauf gewartet wird, daß der Träger einen zu prüfenden Kom
munikationskanal wählt. Der Träger kann einen bestimmten Kanal
wählen, der beispielsweise im Bildschirm von Fig. 7 angezeigt
wird, indem er einen einfachen Sprachbefehl wie BACK (Zurück)
NEXT (Nächster) verwendet, um den Cursor zu einem anderen Kanal
zu verfahren, und ENTER (Eingabe), um diesen Kanal zu wählen.
Um also den dritten Kommunikationskanal (CTLR1C02CH03) bei
Betrachtung des Bildschirms von Fig. 7 zu wählen, kann der
Träger einfach zwei mal NEXT (Nächster) sagen, um den Kanal
CTLR1C02CH03 hervorzuheben, und dann ENTER (Eingabe), um diesen
Kanal zu wählen. Obwohl auch andere Sprachbefehle verwendet
werden können, ist der Satz Sprachbefehle vorzugsweise auf
einfache Wörter zu beschränken, die von der Spracherkennungs
einheit 56 leichter erkannt werden können. Während der Bild
schirm von Fig. 7 auch mit anderen Eingabegeräten wie z. B.
einem Twiddler 46 manipuliert werden kann, sollte der Träger
vorzugsweise in der Lage sein, den Bildschirm unter Verwendung
von Sprachsignalen zu manipulieren, Daten einzugeben oder dazu
andere nicht manuelle Eingabegeräte zu verwenden, so daß er
beide Hände für andere Aufgaben frei hat.
Nachdem der Benutzer einen bestimmten zu prüfenden Kommunika
tionskanal gewählt hat, wird in Block 160 ein weiterer Bild
schirm auf der HUD 40 angezeigt, der Prozeßinformationen zum
gewählten Kanal enthält. Ein Beispiel eines solchen Bildschirms
ist in Fig. 8 für den gewählten Kanal CTLR1C02CH01 dargestellt.
Um den Bildschirm von Fig. 8 zu erzeugen, wird in Block 160 der
aktuelle Prozeßwert des gewählten Kommunikationskanals vom
Host-System über den Sender/Empfänger 36 abgefragt (in diesem
Fall "0") und zusammen mit einer Qualitätsangabe für das Signal
(in diesem Fall "gut") angezeigt. Der Block 160 stellt dem
Benutzer außerdem einen Bereich zur Eingabe eines neuen
Prozeßwertes für den Kanal bereit und zeigt den Signaltyp des
Kanals, d. h. ob der Kanal ein analoger oder ein digitaler Kanal
ist, und die gültigen Bereiche des Signals an. Die auf dem
Bildschirm dargestellte Information wird entweder im Speicher
52 des tragbaren Computersystems 30 gespeichert oder vom Host-
Rechner 14 abgerufen, der entweder die Information in einem
Speicher speichert oder von einem Gerät abruft. Im
dargestellten Beispiel von Fig. 8 ist der Kanal CTLR1C02CH01
ein digitaler Kanal, der momentan auf dem Wert null liegt. Fig.
9 zeigt einen ähnlichen Bildschirm, der auf der HUD 40 für den
Kanal CTLR1C06CH01 angezeigt wird, bei dem es sich um einen
analogen Kanal mit einem gültigen Bereich von 0 bis 100 und
einen momentanen Wert von 90 handelt.
Bei Betrachtung der Bildschirme von Fig. 8 und 9 kann der Be
nutzer den Wert auf dem gewählten Kanal von Hand messen, indem
er beispielsweise einen handgeführten Spannungsmesser oder ein
anderes Gerät benutzt. Stimmt der gemessene Wert mit dem im
Feld 'aktueller Wert' des Bildschirms überein, kann der Träger
fortfahren, indem er einen neuen Wert in ein neues Feld 'aktu
eller Wert' eingibt. Nunmehr sei erneut auf Fig. 6 verwiesen,
wonach in Block 162 darauf gewartet wird, daß der Träger einen
neuen Prozeßwert eingibt, vorzugsweise mittels Sprachbefehlen
in Form von Zahlen und anderen einfachen Befehlen wie ENTER,
BACK und NEXT, so daß der Träger das Meßgerät nicht aus der
Hand legen muß. In das neue Feld 'aktueller Wert' des Bild
schirms von Fig. 9 wird ein neuer Wert von 98.5 eingegeben. Bei
Empfang eines neuen Wertes wird der neue Wert in Block 164 zum
Host-System geschickt, das dann den gewählten Kanal auf den
neuen Wert ändert und nach Sicherstellung, daß der gewählte
Kanal auf den neuen Werte geändert wurde, den neuen Wert an das
tragbare Computersystem 30 als aktuellen Wert des gewählten
Kanals schickt. Der Bildschirm der HUD 40 wird dann in Block
166 aufgefrischt, um anzuzeigen, daß der aktuelle Wert auf den
zuvor eingegebenen neuen Wert geändert worden ist, und das neue
Feld 'aktueller Wert' wird gelöscht, damit der Träger einen
anderen neuen Wert eingeben kann. Zu diesem Zeitpunkt kann der
Träger das Signal auf dem gewählten Kanal mittels des
handgeführten Meßgeräts messen, um zu prüfen, ob das Signal auf
den eingegebenen neuen Wert geändert worden ist. Falls ja, ist
der Kommunikationskanal mit größter Wahrscheinlichkeit korrekt
angeschlossen und arbeitet innerhalb des Prozeßsteuerungssystem
einwandfrei. Falls nicht, liegt ein Problem vor, das zu
identifizieren und zu beseitigen ist. Der Träger kann natürlich
weitere Änderungen des Wertes des Kommunikationskanals
vornehmen und diese Änderungen messen, oder zu den Kanal- oder
Geräteanwahlbildschirmen zurückgehen, um einen anderen zu
prüfenden Kanal oder ein anderes zu prüfendes Gerät zu wählen.
Bei Verwendung des oben beschriebenen Systems kann eine einzige
Person den korrekten Anschluß und die korrekte Funktion ver
schiedener Kommunikationskanäle in einer Prozeßsteuerungs
umgebung prüfen, ohne mit einem Operator an der Host-Station zu
sprechen oder dies mit ihm koordinieren zu müssen und ohne ein
handgeführtes Funkgerät herumtragen zu müssen, was die Mes
sungen und andere Aktivitäten vor Ort behindern würde.
Bei einer anderen Ausführungsform kann das tragbare Computer
system 30 dazu verwendet werden, Informationen zu jedem Gerät
oder Objekt in der Prozeßsteuerungsumgebung zu speichern und
automatisch abzurufen, einschließlich von Geräten mit Geräte
anhängern oder anderen erkennbaren Gerätemerkmalen und Objekten
wie Gänge, Abfalltonnen, Gebäude etc., die typischerweise keine
Geräteanhänger tragen. Bei Verwendung des tragbaren
Computersystems 30 in dieser Weise kann ein Träger in einer
Betriebsanlage oder einer anderen Prozeßsteuerungsumgebung
herumgehen und Sprachmeldungen (oder andere Informationen oder
Daten) in Zusammenhang mit Geräten und Objekten in der
Betriebsanlage zum späteren Abruf entweder durch den Träger
oder eine andere Person aufzeichnen. Ebenso kann der Träger,
wenn er ein Gerät oder Objekt sieht, bestimmen (indem er auf
die Anzeige der HUD 40 schaut), ob für dieses Gerät schon
früher Sprachmeldungen erstellt worden sind und diese abrufen.
Bei einer Ausführungsform enthält eine Softwareroutine zur
Implementierung dieser Funktion (die im Prozessor der CPU 50
des tragbaren Computers 34 gespeichert und ausgeführt werden
können) drei Basisroutinen, bei denen es sich um getrennte
Routinen handeln kann oder die alle Subroutinen einer einzigen
Routine sein können. Die erste Routine identifiziert ein oder
mehrere Geräte im Gesichtsfeld des Trägers oder die für den
Träger von Interesse sind. Diese Routine kann beispielsweise
Spracheingaben (über das Mikrophon 44) in Form von Gerätebe
zeichnungen, Anhängern oder anderen Gerätekennungen, die Geräte
kennzeichnen, die momentan für den Träger von Interesse sind,
akzeptieren. Analog kann diese Routine dem Träger über die HUD
40 eine Geräteliste anzeigen, so daß der Träger eines der
angezeigten Geräte mittels z. B. Sprachbefehlen oder anderen
Eingaben wählen kann. Alternativ kann diese Routine Geräte
mittels der oben in Zusammenhang mit Fig. 4 beschriebenen
Videobildverarbeitungsroutine, die eines oder mehrere sichtbare
Gerätemerkmale identifiziert, automatisch identifizieren.
Anstelle der Gerätemerkmale kann die automatische Videover
arbeitungsroutine ein Gerät auf Basis von Kennungen, die am
Gerät oder in der Nähe des Geräts zu dem spezifischen Zweck,
das Gerät zu identifizieren, angebracht worden sind (z. B.
optische Strichcodes), identifizieren. Andererseits können
Sender am oder in der Nähe eines oder mehrere Geräte plaziert
werden, die ein Signal aussenden, das vom tragbaren Computer 34
empfangen und von der Routine decodiert wird, um das eine oder
die mehreren Geräte zu identifizieren. Bei einer Ausführungs
form kann ein einziger Sender für einen Raum oder einen anderen
Bereich vorgesehen werden, und bei Empfang und Decodierung des
gesendeten Signals kann die Routine auf einen Speicher
zugreifen (der z. B. entweder im tragbaren Computer 34 oder im
Host-Rechner 14 Vorgesehen ist), der sämtliche Geräte innerhalb
dieses Raums oder Bereiches speichert. Dem Träger kann dann
über die HUD 40 eine Liste dieser Geräte zur Verfügung gestellt
werden. In ähnlicher Weise können Geräte, die keine Anhänger
oder andere automatisch erkennbaren Merkmale haben, (in einer
Datenbank) Geräten, die solche automatisch erkennbaren Merkmale
haben, zugeordnet werden. Typischerweise werden einander
benachbarte Geräte in der Datenbank einander zugeordnet. Wird
später eines dieser Geräte mit einem automatisch erkennbaren
Merkmal (ein Gerät mit Anhänger) identifiziert, kann die
Routine anhand der Datenbank andere Geräte ohne Anhänger
bestimmen, die sich in der Nähe des Geräts mit Anhänger
befinden oder diesem auf andere Weise zugeordnet sind, und dem
Träger über die HUD 40 eine Liste aller dieser Geräte anzeigen.
Natürlich können auch andere Verfahren zur Identifizierung von
Geräten angewendet werden.
Nachdem eines oder mehrere Geräte identifiziert wurden und z. B.
dem Träger über die HUD 40 angezeigt werden, kann der Träger
mittels einer zweiten Routine eine einem der identifizierten
Geräte zuzuordnende Sprachmeldung speichern. Der Träger kann
eines der identifizierten Geräte wählen (indem er
beispielsweise Sprachbefehle oder andere Eingaben verwendet)
und dann bei Aufforderung über die HUD 40 in das Mikrophon 44
sprechen, um eine Sprachmeldung zu erzeugen. Die zweite Routine
speichert dann die Sprachmeldung als dem identifizierten/
gewählten Gerät zugeordnet. Dieser Speicher kann der Speicher
52 des tragbaren Computers 34 oder vorzugsweise ein Speicher im
Host-System z. B. im Host-Rechner 14 sein. Bei einer Speicherung
im Host-Rechner 14 steht die Sprachmeldung mehreren tragbaren
Computern zur Verfügung.
Eine dritte Routine bestimmt, ob es schon eine der früher
gespeicherten Sprachmeldungen für eines der von der ersten
Routine identifizierten Geräte gibt und falls ja, liefert sie
eine Anzeige z. B. ein Symbol zur HUD 40, um dem Träger zu mel
den, daß für das betreffende identifizierte Gerät eine bereits
gespeicherte Meldung vorliegt. Wählt der Träger das Symbol bei
spielsweise mittels Sprachbefehlen an, ruft die dritte Routine
die zuvor gespeicherte Sprachmeldung aus dem Speicher ab und
spielt sie dem Träger über den Lautsprecher 42 ab.
Mittels dieser Datenspeicherungs-/Abrufeinheit kann der Träger
(oder Operator) bei jeder manuellen oder automatischen Iden
tifizierung eines Geräts durch den Träger (oder einen Operator
des Host-Systems 14) eine dem Gerät zuzuordnende Sprachmeldung
aufzeichnen und gleichermaßen zuvor aufgezeichnete diesem Gerät
zugeordnete Sprachmeldungen abrufen und abhören. Auf diese
Weise kann ein Träger (oder Operator) Anmerkungen machen oder
Nachrichten zu einem Gerät oder einem anderen Objekt im Pro
zeßsteuerungssystem hinterlassen, die später von ihm selbst
oder einer anderen Person abgerufen werden können. Eine solche
Meldung kann beispielsweise die nächste Person darüber infor
mieren, daß das Gerät einer Instandsetzung unterzogen wird oder
daß es eine Kalibrierung erfordert, oder irgendeine andere
gewünschte Meldung in Zusammenhang mit dem Gerät oder Objekt
sein. Ein einfaches Beispiel hierfür ist, daß ein Träger einen
Gang in der Prozeßsteuerungsumgebung entlang geht und bemerkt,
daß dieser mit einem neuen Anstrich versehen oder repariert
werden muß. (Der Gang kann aufgrund des Raums, in dem sich der
Benutzer befindet, aufgrund der Nähe zu anderen Geräten, die
anhand der Gerätemerkmale automatisch identifiziert werden
können, aufgrund spezifischer Code oder anderer auf dem Gang
angebrachter Merkmale zur automatischen Identifizierung,
aufgrund vom Benutzer generierter Eingaben irgendeiner Art
einschließlich Spracheingaben und Eingaben über manuell oder
auf sonstige Weise zu betätigende Eingabegeräte automatisch
identifiziert werden). Der Träger kann den Gang auf der HUD 40
wählen und dann mittels einer Sprachmeldung angeben, daß
Reparaturen des Gangs erforderlich sind. Wird später der Gang
als von Interesse oder als vom Träger eines tragbaren Computers
(oder vom Operator des Host-Rechners 40) inspiziert erkannt,
wird die Sprachmeldung dem Träger (oder Operator) automatisch
bereitgestellt und durch ein Symbol (das auch eine Textmeldung
sein kann), das diesem Gang auf der HUD 40 zugeordnet ist, als
verfügbar markiert. Auf diese Weise können neue Informationen
erstellt und als zu einem Gerät oder Objekt in einer
Prozeßsteuerungsumgebung zugehörig gespeichert werden, und
diese Informationen können später einem Benutzer auf die
gleiche Weise und/oder zur gleichen Zeit wie andere eher
standardmäßige Informationen (wie Hilfetext) zur Verfügung
gestellt werden.
Die hierin beschriebenen Routinen können selbstverständlich in
einer Standard-Universal-CPU oder auf speziell konzipierter
Hardware oder Firmware implementiert werden. Bei softwaremä
ßiger Implementierung kann die Software in jedem computerles
baren Speicher, beispielsweise einer Magnetplatte, einer Laser
platte oder einem anderen Speichermedium, in einem RAM oder ROM
eines Computerprozessors usw. gespeichert werden. Gleichermaßen
kann diese Software einem Benutzer oder einem Gerät (wie der
tragbare Computer) über jede bekannte oder gewünschte
Übertragungsmethode, einschließlich z. B. auf einer
computerlesbaren Platte oder einem anderen mobilen Computer
speichermechanismus oder über einen Kommunikationskanal, z. B.
eine Telephonleitung das Internet etc. (was als identisch oder
austauschbar mit der Bereitstellung solcher Software über ein
mobiles Speichermedium gilt) geliefert werden.
10
Prozeßsteuerungssystem
12
Prozeßsteuerung, Steuerung
14
Host-Workstation, Host-Rechner
15
,
16
,
17
,
18
,
19
Feldgeräte
20
,
22
Eingangs-/Ausgangs-(E/A)-Karten
30
tragbares Computersystem
32
Sender/Empfänger
34
tragbarer Computer
36
Sender/Empfänger, Fern-Kommunikationsgerät
38
Bildgebungsgerät, Videokamera
40
HUD, (head-up display - Anzeigeneinspiegelung)
42
Lautsprecher
44
Mikrophon
46
Eingabegerät
50
CPU (central processing unit - Zentraleinheit), Prozessor
52
Speicher
54
Steuerung
56
Spracherkennungseinheit
60
optische Zeichenerkennungs-(optical character recognition
- OCR)-Einheit
62
Lautsprechertreiber
64
HUD-Treiber
68
Video-Einzelbild-Grabber
80
Software-Routine
100
Routine
116
Software-Routine
118
Software-Routine
150
Routine
Claims (66)
1. Tragbarer Computer (34) zur Verwendung in einer Prozeß
steuerungsumgebung mit einem darin befindlichen
Prozeßsteuerungssystem (10), der folgendes aufweist:
eine Zentraleinheit (50);
einen computerlesbaren Speicher (52);
eine Anzeigeneinspiegelung bzw. ein Head-up Display (40); ein Eingabegerät (38, 44, 46), das der Zentraleinheit (50) ein Eingangssignal liefert; und
eine Software-Routine, die im computerlesbaren Speicher (52) gespeichert ist und auf der Zentraleinheit abläuft, die das Eingangssignal verarbeitet und zum Prozeßsteuerungssystem gehörige Prozeßinformationen über die Anzeigeneinspiegelung (40) bereitstellt.
eine Zentraleinheit (50);
einen computerlesbaren Speicher (52);
eine Anzeigeneinspiegelung bzw. ein Head-up Display (40); ein Eingabegerät (38, 44, 46), das der Zentraleinheit (50) ein Eingangssignal liefert; und
eine Software-Routine, die im computerlesbaren Speicher (52) gespeichert ist und auf der Zentraleinheit abläuft, die das Eingangssignal verarbeitet und zum Prozeßsteuerungssystem gehörige Prozeßinformationen über die Anzeigeneinspiegelung (40) bereitstellt.
2. Tragbarer Computer (34) nach Anspruch 1, bei dem das Ein
gabegerät ein Mikrophon (44), das Eingangssignal ein vom
Mikrophon (44) erzeugtes Sprachsignal ist und die
Software-Routine eine Spracherkennungsroutine umfaßt, die
ein Gerät auf Basis des Sprachsignals identifiziert.
3. Tragbarer Computer (34) nach Anspruch 1, bei dem die Pro
zeßinformationen diagnostische Informationen in
Zusammenhang mit dem identifizierten Gerät sind.
4. Tragbarer Computer (34) nach Anspruch 1, bei dem die Pro
zeßinformationen Hilfeinformationen in Zusammenhang mit
dem identifizierten Gerät sind.
5. Tragbarer Computer (34) nach Anspruch 1, der des weiteren
ein Fern-Kommunikationsgerät (36) aufweist, das mit dem
Prozeßsteuerungssystem (10) kommuniziert, und bei dem die
Prozeßinformation ein vom identifizierten Gerät vom
Prozeßsteuerungssystem (10) abgerufener Prozeßwert ist,
der über das entfernte Kommunikationsgerät (36) an den
tragbaren Computer (34) geschickt wird.
6. Tragbarer Computer (34) nach Anspruch 5, bei dem das ent
fernte Kommunikationsgerät ein drahtloser Ethernet-Sender/
Empfänger (36) ist.
7. Tragbarer Computer (34) nach Anspruch 1, bei dem das Ein
gabegerät ein Bildgebungsgerät (38), das Eingangssignal
ein vom Bildgebungsgerät erzeugtes Einzelbild ist und die
Software-Routine eine Routine zur optischen
Zeichenerkennung umfaßt, die mit dem Einzelbild eine
optische Zeichenerkennung durchführt.
8. Tragbarer Computer (34) nach Anspruch 7, bei dem das Bild
gebungsgerät eine Videokamera (38) ist, das Eingangssignal
ein aus mehreren Einzelbildern bestehendes Videosignal
aufweist und der tragbare Computer (34) des weiteren einen
Einzelbild-Grabber (68) aufweist, der das Einzelbild aus
dem aus mehreren Einzelbildern bestehenden Videosignal
herausgreift und das Einzelbild an die Routine zur
optischen Zeichenerkennung liefert.
9. Tragbarer Computer (34) nach Anspruch 7, bei dem die
Routine zur optischen Zeichenerkennung einen
Geräteanhänger innerhalb des Einzelbildes sucht und
decodiert.
10. Tragbarer Computer (34) nach Anspruch 9, bei dem die
Prozeßinformationen diagnostische Informationen sind, die
zu einem dem decodierten Geräteanhänger zugeordneten Gerät
gehören.
11. Tragbarer Computer (34) nach Anspruch 9, bei dem die
Prozeßinformationen Hilfeinformationen sind, die zu einem
dem decodierten Geräteanhänger zugeordneten Gerät gehören.
12. Tragbarer Computer (34) nach Anspruch 9, der des weiteren
ein Fern-Kommunikationsgerät (36) aufweist, das mit dem
Prozeßsteuerungssystem (10) kommuniziert und bei dem die
Prozeßinformation ein Prozeßwert ist, der vom Prozeßsteue
rungssystem (10) von einem zum decodierten Geräteanhänger
zugeordneten Gerät abgerufen ist, und der über das Fern-
Kommunikationsgerät (36) an den tragbaren Computer (34)
geschickt wird.
13. Tragbarer Computer (34) zur Verwendung in einer Prozeß
steuerungsumgebung mit mehreren darin befindlichen Geräten
und einem Prozeßsteuerungssystem (10), der folgendes
aufweist:
ein Bildgebungsgerät (38), das ein Bildsignal erzeugt; und
einen Bildprozessor, der das Bildsignal verarbeitet, um eines der mehreren Geräte auf Basis eines Gerätemerkmals zu identifizieren.
ein Bildgebungsgerät (38), das ein Bildsignal erzeugt; und
einen Bildprozessor, der das Bildsignal verarbeitet, um eines der mehreren Geräte auf Basis eines Gerätemerkmals zu identifizieren.
14. Tragbarer Computer (34) nach Anspruch 13, der des weiteren
eine Anzeigeneinspiegelung bzw. ein Head-up Display (40)
und eine mit dem Bildprozessor gekoppelte Anzeigeeinheit
enthält, die zu dem identifizierten Gerät gehörige
Informationen auf der Anzeigeneinspiegelung (40)
darstellt.
15. Tragbarer Computer (34) nach Anspruch 14, bei dem die
Informationen diagnostische Informationen in Zusammenhang
mit dem identifizierten Gerät sind.
16. Tragbarer Computer (34) nach Anspruch 14, bei dem die
Informationen Hilfeinformationen in Zusammenhang mit dem
identifizierten Gerät sind.
17. Tragbarer Computer (34) nach Anspruch 14, der des weiteren
ein Fern-Kommunikationsgerät (36) aufweist, das mit dem
Prozeßsteuerungssystem (10) kommuniziert, und bei dem die
Informationen vom identifizierten Gerät abgerufene Prozeß
informationen sind, die über das Fern-Kommunikationsgerät
(36) an den tragbaren Computer (34) geschickt werden.
18. Tragbarer Computer (34) nach Anspruch 13, bei dem das
Bildgebungsgerät eine Videokamera (38) ist, die ein aus
mehreren Einzelbildern bestehendes Bildsignal erzeugt, und
bei dem der Bildprozessor einen Einzelbild-Grabber (68)
aufweist, der ein Einzelbild aus dem aus mehreren
Einzelbildern bestehenden Bildsignal herausgreift.
19. Tragbarer Computer (34) nach Anspruch 13, bei dem das
Gerätemerkmal ein alphanumerisches Schriftzeichen umfaßt,
und bei dem der Bildprozessor eine Routine zur optischen
Zeichenerkennung umfaßt, die das alphanumerische
Schriftzeichen im Bildsignal decodiert, um das Gerät zu
identifizieren.
20. Tragbarer Computer (34) nach Anspruch 13, bei dem das
Gerätemerkmal ein Geräteanhänger ist, und bei dem der
Bildprozessor eine Routine zur optischen Zeichenerkennung
enthält, die die Gerätekennzeichnung im Bildsignal
decodiert, um das eine der mehreren Geräte zu
identifizieren.
21. Tragbarer Computer (34) nach Anspruch 13, der des weiteren
ein Mikrophon (44), das ein Sprachsignal erzeugt, und eine
Spracherkennungseinheit (56), die das Sprachsignal zum
Erzeugen eines Befehlssignals decodiert, aufweist.
22. Tragbarer Computer (34) nach Anspruch 13, der des weiteren
ein Mikrophon (44), das ein Sprachsignal erzeugt, und
einen Speicher (52), der das Sprachsignal als zum
identifizierten Gerät gehörig speichert, aufweist.
23. Tragbarer Computer (34) nach Anspruch 13, der des weiteren
ein Mikrophon (44), das ein Sprachsignal erzeugt, und ein
Fern-Kommunikationsgerät (36) umfaßt, das das Sprachsignal
an einen Speicher im Prozeßsteuerungssystem (10) zur
Speicherung in einem Speicher als zugehörig zu dem identi
fizierten Gerät und zum Abrufen aus diesem speichert.
24. Geräteidentifizierungseinheit, die zur Verwendung mit
einem tragbaren Computer (34) mit einem Prozessor (50) und
einem Bildgebungsgerät (38) ausgestattet ist, das ein
Bildsignal erzeugt, wobei die
Geräteidentifizierungseinheit folgendes aufweist:
einen Speicher (52); und
eine im Speicher (52) gespeicherte Software-Routine, die zur Ausführung durch den Prozessor (50) für die Verarbeitung des Bildsignals eingerichtet ist, um ein Gerät auf Basis eines Gerätemerkmals zu identifizieren.
einen Speicher (52); und
eine im Speicher (52) gespeicherte Software-Routine, die zur Ausführung durch den Prozessor (50) für die Verarbeitung des Bildsignals eingerichtet ist, um ein Gerät auf Basis eines Gerätemerkmals zu identifizieren.
25. Geräteidentifizierungseinheit nach Anspruch 24, bei der
der tragbare Computer (34) eine Anzeigeneinspiegelung bzw.
ein Head-up Display (40) aufweist, und bei der die
Software-Routine Informationen in Zusammenhang mit dem
identifizierten Gerät auf der Anzeigeneinspiegelung (40)
anzeigt.
26. Geräteidentifizierungseinheit nach Anspruch 25, bei der
der tragbare Computer (34) des weiteren ein Fern-Kom
munikationsgerät (36) umfaßt, das mit einem mit dem iden
tifizierten Gerät gekoppelten Prozeßsteuerungssystem (10)
kommuniziert, und bei der die Information eine vom identi
fizierten Gerät abgefragte und an den tragbaren Computer
(34) über das Fern-Kommunikationsgerät (36) geschickte
Prozeßinformation ist.
27. Geräteidentifizierungseinheit nach Anspruch 24, bei der
das Bildgebungsgerät des tragbaren Computers (34) eine
Videokamera (38) ist, die ein mehrere Einzelbilder
enthaltendes Bildsignal erzeugt und des weiteren einen
Einzelbild-Grabber (68) aufweist, der ein Einzelbild als
das Bildsignal aus dem mehrere Einzelbilder enthaltenden
Bildsignal herausgreift.
28. Geräteidentifizierungseinheit nach Anspruch 24, bei der
das Gerätemerkmal ein alphanumerisches Schriftzeichen
aufweist, und die des weiteren eine Routine zur optischen
Zeichenerkennung umfaßt, die das alphanumerische
Schriftzeichen im Bildsignal decodiert, um das Gerät zu
identifizieren.
29. Geräteidentifizierungseinheit nach Anspruch 24, bei der
das Gerätemerkmal ein Geräteanhänger ist, und die des
weiteren eine Routine zur optischen Zeichenerkennung
enthält, die den Geräteanhänger im Bildsignal decodiert,
um das Gerät zu identifizieren.
30. Geräteidentifizierungseinheit nach Anspruch 24, bei der
der tragbare Computer (34) ein Mikrophon (44), das ein
Sprachsignal erzeugt, und des weiteren eine mit dem
Mikrophon (44) gekoppelte Spracherkennungseinheit (56),
die das Sprachsignal zum Erzeugen eines Befehls decodiert,
aufweist.
31. Tragbarer Computer (34) zur Verwendung in einer Prozeß
steuerungsumgebung mit einem darin befindlichen
Prozeßsteuerungssystem (10), der folgendes aufweist:
eine Zentraleinheit (50);
einen mit Zentraleinheit (50) gekoppelten computerlesbaren Speicher (52);
eine Anzeigeneinspiegelung bzw. ein Head-up Display (40); eine im computerlesbaren Speicher und auf der Zentraleinheit (50) laufende Routine, die ein Bild zur Anzeige auf der Anzeigeneinspiegelung (40) erzeugt;
ein Mikrophon (44), das ein Sprachsignal erzeugt; und
eine Spracherkennungseinheit (56), die das Sprachsignal zur Identifizierung eines Befehls verarbeitet, und die in dem auf der Anzeigeneinspiegelung (40) dargestellten Bild Änderungen auf Basis des identifizierten Befehls veranlaßt.
einen mit Zentraleinheit (50) gekoppelten computerlesbaren Speicher (52);
eine Anzeigeneinspiegelung bzw. ein Head-up Display (40); eine im computerlesbaren Speicher und auf der Zentraleinheit (50) laufende Routine, die ein Bild zur Anzeige auf der Anzeigeneinspiegelung (40) erzeugt;
ein Mikrophon (44), das ein Sprachsignal erzeugt; und
eine Spracherkennungseinheit (56), die das Sprachsignal zur Identifizierung eines Befehls verarbeitet, und die in dem auf der Anzeigeneinspiegelung (40) dargestellten Bild Änderungen auf Basis des identifizierten Befehls veranlaßt.
32. Tragbarer Computer (34) nach Anspruch 31, bei dem die
Spracherkennungseinheit (56) das Sprachsignal mit einem
Satz gespeicherter erkannter Befehle vergleicht, um den
Befehl zu identifizieren, und bei dem der Satz
gespeicherter erkannter Befehle mit dem Bewegen eines
Cursors in dem auf der Anzeigeneinspiegelung (40)
dargestellten Bild zusammenhängt.
33. Tragbarer Computer (34) nach Anspruch 32, bei dem der Satz
gespeicherter erkannter Befehle einen Befehl 'Bewegung
nach links', einen Befehl 'Bewegung nach rechts', einen
Befehl 'Bewegung nach oben' und einen Befehl 'Bewegung
nach unten' aufweist.
34. Tragbarer Computer (34) nach Anspruch 31, bei dem die
Spracherkennungseinheit (56) das Sprachsignal mit einem
Satz gespeicherter erkannter Befehle vergleicht, um den
Befehl zu identifizieren, und bei dem der Satz
gespeicherter erkannter Befehle mit der Eingabe
alphanumerischer Daten in ein Feld innerhalb des auf der
Anzeigeneinspiegelung (40) dargestellten Bildes
zusammenhängt.
35. Tragbarer Computer (34) nach Anspruch 31, bei dem die
Routine das Bild als eine Liste zur Auswahl stehender
Geräte anzeigt, und die Spracherkennungseinheit (56) eines
der Geräte aus der Geräteliste auf Basis des Sprachsignals
identifiziert.
36. Tragbarer Computer (34) nach Anspruch 31, bei dem die
Routine das Bild als eine Liste von Kanälen zur Auswahl
anzeigt, und die Spracherkennungseinheit (56) einen der
Kanäle aus der Liste von Kanälen auf Basis des
Sprachsignals identifiziert.
37. Tragbarer Computer (34) nach Anspruch 31, bei dem die
Routine das Bild mit einen Prozeßwert enthaltend und ein
Feld zur Änderung des Prozeßwertes anzeigt.
38. Tragbares Computersystem (30) zur Durchführung von Prü
fungen in einem Prozeßsteuerungssystem (10), mit:
einer Zentraleinheit (50);
einem computerlesbaren Speicher (52);
einem Eingabegerät (46) zur Erzeugung eines Eingangssignals;
einem Fern-Kommunikationsgerät (36), das mit dem Prozeßsteuerungssystem (10) kommuniziert; und
einer auf der Zentraleinheit (50) laufenden Software- Routine, die das Eingangssignal zur Erzeugung eines Änderungssignals verarbeitet, das eine an einem Prozeßsignal im Prozeßsteuerungssystem (10) vorzunehmende Änderung meldet, und die das Änderungsignal über das Fern- Kommunikationsgerät (36) an das Prozeßsteuerungssystem (10) schickt, um dadurch eine am Prozeßsignal vorzunehmende Änderung zu veranlassen.
einer Zentraleinheit (50);
einem computerlesbaren Speicher (52);
einem Eingabegerät (46) zur Erzeugung eines Eingangssignals;
einem Fern-Kommunikationsgerät (36), das mit dem Prozeßsteuerungssystem (10) kommuniziert; und
einer auf der Zentraleinheit (50) laufenden Software- Routine, die das Eingangssignal zur Erzeugung eines Änderungssignals verarbeitet, das eine an einem Prozeßsignal im Prozeßsteuerungssystem (10) vorzunehmende Änderung meldet, und die das Änderungsignal über das Fern- Kommunikationsgerät (36) an das Prozeßsteuerungssystem (10) schickt, um dadurch eine am Prozeßsignal vorzunehmende Änderung zu veranlassen.
39. Tragbarer Computer (34) nach Anspruch 38, der des weiteren
eine Anzeigeneinspiegelung bzw. ein Head-up Display (40)
aufweist, und bei dem die Software-Routine mit dem
Prozeßsteuerungssystem (10) kommuniziert, um den aktuellen
Wert des Prozeßsignals abzufragen und den aktuellen Wert
des Prozeßsignals über die Anzeigeneinspiegelung (40)
anzeigt.
40. Tragbarer Computer (34) nach Anspruch 38, bei dem das Ein
gabegerät ein Mikrophon (44) ist, das ein Sprachsignal
erzeugt, und der des weiteren eine Spracherkennungseinheit
(56) aufweist, die das Sprachsignal zur Entwicklung des
Änderungssignals decodiert.
41. Tragbarer Computer (34) nach Anspruch 38, der des weiteren
eine Anzeigeneinspiegelung bzw. ein Head-up Display (40)
umfaßt, die ein Bild anzeigt und bei dem die Software-
Routine eine Bildschirmanzeige auf der
Anzeigeneinspiegelung (40) mit einer Liste von Kommunika
tionskanälen darin erzeugt und einem Benutzer ermöglicht,
einen der Kommunikationskanäle unter Verwendung des
Eingabegeräts (46) zu wählen.
42. Tragbarer Computer (34) nach Anspruch 41, bei dem die
Software-Routine den Typ des Prozeßsignals auf einem
gewählten Kommunikationskanal über die
Anzeigeneinspiegelung (40) anzeigt.
43. Tragbarer Computer (34) nach Anspruch 41, bei dem die
Software-Routine einen gültigen Bereich des Prozeßsignals
auf einem gewählten Kommunikationskanal über die
Anzeigeneinspiegelung (40) anzeigt.
44. Tragbarer Computer (34) nach Anspruch 41, bei dem es die
Software-Routine einem Benutzer ermöglicht, das
Änderungssignal für das Prozeßsignal in ein Feld der
Anzeigeneinspiegelung (40) einzugeben.
45. Tragbarer Computer (34) nach Anspruch 41, bei dem das Ein
gabegerät ein Mikrophon (44) ist.
46. Prozeßsteuerungs-Prüfeinheit, angepaßt zur Verwendung in
einem Prozeßsteuerungssystem (10), das mit einem tragbaren
Computer (34) kommuniziert, der einen Prozessor (50), ein
Eingabegerät (46), das ein Eingangssignal erzeugt, ein
Fern-Kommunikationsgerät (36), das mit dem
Prozeßsteuerungssystem (10) kommuniziert, und eine Anzeigeneinspiegelung bzw. ein Head-up Display (40) aufweist, wobei die Prozeßsteuerungs-Prüfeinheit folgendes aufweist:
einen Speicher (52); und
eine im Speicher (52) abgelegte Software-Routine zur Ausführung auf dem Prozessor des tragbaren Computers (34), um das Eingangssignal zu verarbeiten, so daß ein Anderungssignal erzeugt wird, das eine an einem Prozeßsignal im Prozeßsteuerungssystem (10) vorzunehmende Änderung meldet, und die das Änderungssignal über das Fern-Kommunikationsgerät (36) an das Prozeßsteuerungssystem (10) schickt, um dadurch eine am Prozeßsignal vorzunehmende Änderung zu veranlassen.
Prozeßsteuerungssystem (10) kommuniziert, und eine Anzeigeneinspiegelung bzw. ein Head-up Display (40) aufweist, wobei die Prozeßsteuerungs-Prüfeinheit folgendes aufweist:
einen Speicher (52); und
eine im Speicher (52) abgelegte Software-Routine zur Ausführung auf dem Prozessor des tragbaren Computers (34), um das Eingangssignal zu verarbeiten, so daß ein Anderungssignal erzeugt wird, das eine an einem Prozeßsignal im Prozeßsteuerungssystem (10) vorzunehmende Änderung meldet, und die das Änderungssignal über das Fern-Kommunikationsgerät (36) an das Prozeßsteuerungssystem (10) schickt, um dadurch eine am Prozeßsignal vorzunehmende Änderung zu veranlassen.
47. Prozeßsteuerungs-Prüfeinheit nach Anspruch 46, bei der das
Änderungssignal eine Änderung des Kommunikationssignals
anzeigt und veranlaßt, daß das Kommunikationssignal von
einem ersten zu einem zweiten Wert geändert wird.
48. Prozeßsteuerungs-Prüfeinheit nach Anspruch 46, bei der die
Software-Routine mit dem Prozeßsteuerungssystem (10) kom
muniziert, um den aktuellen Wert des Prozeßsignals
abzufragen und den aktuellen Wert des Prozeßsignals über
die Anzeigeneinspiegelung (40) anzeigt.
49. Prozeßsteuerungs-Prüfeinheit nach Anspruch 46, bei der die
Software-Routine einen Satz verschiedener Prozeßsteuer
signale zur Auswahl über die Anzeigeneinspiegelung (40)
anzeigt.
50. Prozeßsteuerungs-Prüfeinheit nach Anspruch 46, be ider das
Eingabegerät des tragbaren Computers (34) ein Mikrophon
(44) ist, das ein Sprachsignal erzeugt, und die des
weiteren eine Spracherkennungseinheit (56) enthält, die
das Sprachsignal decodiert, um das Änderungssignal zu
erzeugen.
51. Prozeßsteuerungs-Prüfeinheit nach Anspruch 46, bei der die
Software-Routine eine Bildschirmanzeige auf der Anzeigen
einspiegelung (40) mit einer Liste von
Kommunikationskanälen erzeugt und es einem Benutzer
ermöglicht, einen der Kommunikationskanäle mittels des
Eingabegeräts (46) zu wählen.
52. Prozeßsteuerungs-Prüfeinheit nach Anspruch 51, be ider die
Software-Routine den Typ des Prozeßsignals auf einem ge
wählten Kommunikationskanal über die Anzeigeneinspiegelung
(40) anzeigt.
53. Prozeßsteuerungs-Prüfeinheit nach Anspruch 51, bei der die
Software-Routine einen gültigen Bereich des Prozeßsignals
auf einem gewählten Kommunikationskanal über die
Anzeigeneinspiegelung (40) anzeigt.
54. Prozeßsteuerungs-Prüfeinheit nach Anspruch 51, beider die
Software-Routine es einem Benutzer ermöglicht, das Ände
rungssignal für das Prozeßsignal in ein Feld auf der
Anzeigeneinspiegelung (40) einzugeben.
55. Bildbetrachtungseinheit zur Verwendung in einem Prozeß
steuerungssystem (10) mit einer Operator-Workstation (14)
und einer Operator-Zentraleinheit (12), einer Operator-
Anzeige und einem Operator-Fern-Kommunikationsgerät und
mit einem tragbaren Computer (34) mit einem
Bildgebungsgerät (38), das ein erstes Bild erzeugt, einer
tragbaren Anzeige (40), einem tragbaren Fern-
Kommunikationsgerät (36) und einer tragbaren
Zentraleinheit (50), wobei die Bildbetrachtungseinheit
folgendes aufweist:
einen ersten computerlesbaren Speicher mit einer ersten darin abgelegten Software-Routine, wobei diese erste Software-Routine in der Zentraleinheit (12) des Operators implementiert werden kann, um folgende Funktionen auszuführen:
Empfangen eines zweiten Bildes vom tragbaren Computer (34) über das Operator-Fern-Kommunikationsgerät, wobei das zweite Bild vom ersten Bild abgeleitet wird;
Anzeigen des zweiten Bildes auf der Operator-Anzeige, wodurch es einem Operator ermöglicht wird, Änderungen des angezeigten zweiten Bildes vorzunehmen, um ein drittes Bild zu erstellen und das dritte Bild über das Operator- Fern-Kommunikationsgerät (36) an den tragbaren Computer (34) zu schicken; sowie
einen zweiten computerlesbaren Speicher mit einer zweiten darin abgelegten Software-Routine, wobei diese zweite Software-Routine in der tragbaren Zentraleinheit (50) implementiert werden kann, um folgende Funktionen auszuführen:
Erzeugen des zweiten Bildes aus dem ersten Bild; Senden des zweiten Bildes über das tragbare Fern-Kommu nikationsgerät (36) an die Operator-Workstation (14); Empfangen des dritten Bildes von der Operator-Workstation (14) über das tragbare Fern-Kommunikationsgerät (36); und Anzeigen des dritten Bildes auf der tragbaren Anzeige (40).
einen ersten computerlesbaren Speicher mit einer ersten darin abgelegten Software-Routine, wobei diese erste Software-Routine in der Zentraleinheit (12) des Operators implementiert werden kann, um folgende Funktionen auszuführen:
Empfangen eines zweiten Bildes vom tragbaren Computer (34) über das Operator-Fern-Kommunikationsgerät, wobei das zweite Bild vom ersten Bild abgeleitet wird;
Anzeigen des zweiten Bildes auf der Operator-Anzeige, wodurch es einem Operator ermöglicht wird, Änderungen des angezeigten zweiten Bildes vorzunehmen, um ein drittes Bild zu erstellen und das dritte Bild über das Operator- Fern-Kommunikationsgerät (36) an den tragbaren Computer (34) zu schicken; sowie
einen zweiten computerlesbaren Speicher mit einer zweiten darin abgelegten Software-Routine, wobei diese zweite Software-Routine in der tragbaren Zentraleinheit (50) implementiert werden kann, um folgende Funktionen auszuführen:
Erzeugen des zweiten Bildes aus dem ersten Bild; Senden des zweiten Bildes über das tragbare Fern-Kommu nikationsgerät (36) an die Operator-Workstation (14); Empfangen des dritten Bildes von der Operator-Workstation (14) über das tragbare Fern-Kommunikationsgerät (36); und Anzeigen des dritten Bildes auf der tragbaren Anzeige (40).
56. Bildbetrachtungseinheit nach Anspruch 55, bei der die
erste Software-Routine das dritte Bild an den tragbaren
Computer (34) schickt, indem in einem ersten Zeitpunkt ein
Basisbild an den tragbaren Computer (34) geschickt wird
und in einem zweiten späteren Zeitpunkt Änderungen des
Basisbilds an den tragbaren Computer (34) geschickt
werden.
57. Bildbetrachtungseinheit nach Anspruch 56, bei der die
erste Software-Routine es einem Operator ermöglicht, das
Basisbild zu wählen, bevor das Basisbild an den tragbaren
Computer (34) geschickt wird.
58. Bildbetrachtungseinheit nach Anspruch 55, bei der die
zweite Software-Routine es einem Benutzer des tragbaren
Computers (34) ermöglicht, Änderungen des dritten Bildes
vorzunehmen und die Änderungen des dritten Bildes über das
tragbare Fern-Kommunikationsgerät (36) an die Operator-
Workstation (14) zu schicken.
59. Bildbetrachtungseinheit nach Anspruch 55, bei der das
zweite Bild das erste Bild ist.
60. Datenspeicherungs-/Abrufeinheit, angepaßt zur Verwendung
in einem tragbaren Computer (34) mit einem Prozessor (50),
einem Mikrophon (44), das ein Sprachsignal erzeugt, einem
Eingabegerät (46), das ein Eingangssignal erzeugt, einem
Lautsprecher (42) und einer Anzeigeneinspiegelung bzw.
einem Head-up Display (40), wobei die Datenspeicherungs-
/Abrufeinheit folgendes aufweist:
einen computerlesbaren Speicher (52);
eine erste Software-Routine, die in dem computerlesbaren Speicher (52) abgelegt und zur Ausführung auf dem Prozessor (50) des tragbaren Computers (34) angepaßt ist und die ein Prozeßsteuerungsgerät auf Basis des Eingangssignals identifiziert;
eine zweite Software-Routine, die in dem computerlesbaren Speicher (52) abgelegt und zur Ausführung auf dem Prozessor (50) des tragbaren Computers (34) angepaßt ist, die das Sprachsignal vom Mikrophon (44) empfängt und das empfangene Sprachsignal als mit dem identifizierten Prozeßsteuerungsgerät verknüpft in einem weiteren Speicher, der zum tragbaren Computer (34) gehört, als Reaktion auf eine erste benutzerseitige Eingabe zur Speicherung des empfangenen Sprachsignals speichert; und
eine dritte Software-Routine, die in dem computerlesbaren Speicher (52) abgelegt und zur Ausführung auf dem Prozessor (50) des tragbaren Computers (34) angepaßt ist, die über die Anzeigeneinspiegelung (40) eine Anzeige liefert, daß ein zuvor gespeichertes Sprachsignal für das identifizierte Prozeßsteuerungsgerät vorliegt, wenn das zuvor gespeicherte Sprachsignal für das identifizierte Prozeßsteuerungsgerät in einem weiteren Speicher vorhanden ist, und die das zuvor gespeicherte Sprachsignal für das identifizierte Prozeßsteuerungsgerät im Lautsprecher (42) als Reaktion auf eine zweite benutzerseitige Eingabe ab spielt, mit der das zuvor gespeicherte Sprachsignal für das identifizierte Prozeßsteuerungsgerät zum Abrufen ge wählt wird.
einen computerlesbaren Speicher (52);
eine erste Software-Routine, die in dem computerlesbaren Speicher (52) abgelegt und zur Ausführung auf dem Prozessor (50) des tragbaren Computers (34) angepaßt ist und die ein Prozeßsteuerungsgerät auf Basis des Eingangssignals identifiziert;
eine zweite Software-Routine, die in dem computerlesbaren Speicher (52) abgelegt und zur Ausführung auf dem Prozessor (50) des tragbaren Computers (34) angepaßt ist, die das Sprachsignal vom Mikrophon (44) empfängt und das empfangene Sprachsignal als mit dem identifizierten Prozeßsteuerungsgerät verknüpft in einem weiteren Speicher, der zum tragbaren Computer (34) gehört, als Reaktion auf eine erste benutzerseitige Eingabe zur Speicherung des empfangenen Sprachsignals speichert; und
eine dritte Software-Routine, die in dem computerlesbaren Speicher (52) abgelegt und zur Ausführung auf dem Prozessor (50) des tragbaren Computers (34) angepaßt ist, die über die Anzeigeneinspiegelung (40) eine Anzeige liefert, daß ein zuvor gespeichertes Sprachsignal für das identifizierte Prozeßsteuerungsgerät vorliegt, wenn das zuvor gespeicherte Sprachsignal für das identifizierte Prozeßsteuerungsgerät in einem weiteren Speicher vorhanden ist, und die das zuvor gespeicherte Sprachsignal für das identifizierte Prozeßsteuerungsgerät im Lautsprecher (42) als Reaktion auf eine zweite benutzerseitige Eingabe ab spielt, mit der das zuvor gespeicherte Sprachsignal für das identifizierte Prozeßsteuerungsgerät zum Abrufen ge wählt wird.
61. Datenspeicherungs-/Abrufeinheit nach Anspruch 60, bei der
das Eingangssignal ein Videobild ist und die erste
Software-Routine eine Bildverarbeitungsroutine umfaßt, die
das Videobild zur Identifizierung des Prozeßsteuerungs
geräts verarbeitet.
62. Datenspeicherungs-/Abrufeinheit nach Anspruch 61, bei der
die Bildverarbeitungsroutine eine Routine zur optischen
Zeichenerkennung aufweist, die alphanumerische Zeichen im
Videobild erkennt, und die Bildverarbeitungsroutine das
Prozeßsteuerungsgerät auf Basis der alphanumerischen
Zeichen identifiziert.
63. Datenspeicherungs-/Abrufeinheit nach Anspruch 60, bei der
das Eingangssignal ein Sprachsignal ist und die erste
Software-Routine eine Spracherkennungseinheit (56)
enthält, die das Prozeßsteuerungsgerät auf Basis des
Sprachsignals identifiziert.
64. Datenspeicherungs-/Abrufeinheit nach Anspruch 60, bei der
der tragbare Computer (34) ein Fern-Kommunikationsgerät
(36) enthält, das mit einem Prozeßsteuerungssystem (10)
kommuniziert, welches mit dem identifizierten Prozeßsteu
erungsgerät gekoppelt ist, und bei der sich der weitere
Speicher innerhalb des Prozeßsteuerungssystems (10)
befindet, und die außerdem eine vierte Software-Routine
enthält, die mit dem weiteren Speicher über das Fern-
Kommunikationsgerät (36) kommuniziert.
65. Datenspeicherungs-/Abrufeinheit nach Anspruch 60, bei der
die dritte Software-Routine über die Anzeigeneinspiegelung
(40) ein Symbol als Meldung anzeigt.
66. Datenspeicherungs-/Abrufeinheit nach Anspruch 65, bei der
das zweite benutzerseitige Eingangssignal ein Sprachsignal
ist, die dritte Software-Routine eine Spracherkennungsein
heit
(56) umfaßt, die das Sprachsignal verarbeitet, um einen
benutzerseitigen Befehl zu Wahl des Symbols zu
identifizieren, und die dritte Software-Routine das zuvor
gespeicherte Sprachsignal für das identifizierte
Prozeßsteuerungsgerät abspielt, wenn das Symbol gewählt
wird.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/249,597 US7230582B1 (en) | 1999-02-12 | 1999-02-12 | Wearable computer in a process control environment |
US09/249,597 | 1999-02-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10006126A1 true DE10006126A1 (de) | 2000-08-17 |
DE10006126B4 DE10006126B4 (de) | 2011-11-17 |
Family
ID=22944182
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10006126A Expired - Lifetime DE10006126B4 (de) | 1999-02-12 | 2000-02-11 | Tragbarer Computer in einer Prozesssteuerungsumgebung |
DE10066477.6A Expired - Lifetime DE10066477B3 (de) | 1999-02-12 | 2000-02-11 | Tragbarer Computer in einer Prozesssteuerungsumgebung |
DE10066478.4A Expired - Lifetime DE10066478B3 (de) | 1999-02-12 | 2000-02-11 | Tragbarer Computer in einer Prozesssteuerungsumgebung |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10066477.6A Expired - Lifetime DE10066477B3 (de) | 1999-02-12 | 2000-02-11 | Tragbarer Computer in einer Prozesssteuerungsumgebung |
DE10066478.4A Expired - Lifetime DE10066478B3 (de) | 1999-02-12 | 2000-02-11 | Tragbarer Computer in einer Prozesssteuerungsumgebung |
Country Status (4)
Country | Link |
---|---|
US (2) | US7230582B1 (de) |
JP (1) | JP3801406B2 (de) |
DE (3) | DE10006126B4 (de) |
GB (1) | GB2346720B (de) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1152311A1 (de) * | 2000-05-04 | 2001-11-07 | Focke & Co. (GmbH & Co.) | Mobile, rechnergestütze Wartungseinheit |
DE10063089C1 (de) * | 2000-12-18 | 2002-07-25 | Siemens Ag | Anwendergesteuerte Verknüpfung von Informationen innerhalb eines Augmented-Reality-Systems |
DE10161401A1 (de) * | 2001-12-13 | 2003-06-18 | Endress & Hauser Gmbh & Co Kg | Feldgerät zur Bestimmung und/oder Überwachung einer Prozessvariablen |
DE10159610A1 (de) * | 2001-12-05 | 2003-07-10 | Siemens Ag | System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung |
EP1331535A1 (de) * | 2002-01-29 | 2003-07-30 | Endress + Hauser Wetzer GmbH + Co. KG | Feldgerät |
EP1500995A1 (de) * | 2003-07-22 | 2005-01-26 | SMS Demag AG | Verfahren und Vorrichtung zur Überwachung und/oder Steuerung von Betriebsdaten bzw. Parametern, insbesondere vielschichtiger Anlagensysteme |
DE102008009446A1 (de) * | 2008-02-15 | 2009-08-20 | Volkswagen Ag | Verfahren zur Prüfung eines komplexen Systems auf Abweichungen von Qualitätsvorgaben und/oder auf Fehlerhaftigkeit und Vorrichtung zur Unterstützung einer Prüfperson bei einer solchen Prüfung |
US7640007B2 (en) | 1999-02-12 | 2009-12-29 | Fisher-Rosemount Systems, Inc. | Wireless handheld communicator in a process control environment |
US8125405B2 (en) | 1999-02-12 | 2012-02-28 | Fisher-Rosemount Systems, Inc. | Wearable computer in a process control environment |
DE10317497B4 (de) * | 2003-04-16 | 2013-10-17 | Abb Ag | System zur Kommunikation zwischen einem Feldgerät und einem Bediengerät |
DE102014109612A1 (de) * | 2014-07-09 | 2016-01-14 | Endress + Hauser Infoserve Gmbh + Co. Kg | Verfahren zum Überwachen und/oder Kontrollieren und/oder Warten von Feldgeräten |
DE102017220438A1 (de) * | 2017-11-16 | 2019-05-16 | Vega Grieshaber Kg | Prozessautomatisierungssystem mit einem Wearable Computer |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6384736B1 (en) * | 1998-04-30 | 2002-05-07 | Dave Gothard | Remote control electronic display system |
US6806847B2 (en) * | 1999-02-12 | 2004-10-19 | Fisher-Rosemount Systems Inc. | Portable computer in a process control environment |
US8874244B2 (en) * | 1999-05-19 | 2014-10-28 | Digimarc Corporation | Methods and systems employing digital content |
KR100706648B1 (ko) * | 2000-03-17 | 2007-04-13 | 가부시끼가이샤 디지탈 | 제어용 서버장치, 제어용 단말장치, 제어 시스템 및제어용 통신 프로그램이 기록된 기록매체 |
JP3883775B2 (ja) * | 2000-03-17 | 2007-02-21 | 株式会社デジタル | 制御システム用サーバ装置、制御システム、制御システム用サーバ装置の通信方法、および、そのプログラムが記録された記録媒体 |
US7437293B1 (en) * | 2000-06-09 | 2008-10-14 | Videa, Llc | Data transmission system with enhancement data |
US7680324B2 (en) | 2000-11-06 | 2010-03-16 | Evryx Technologies, Inc. | Use of image-derived information as search criteria for internet and other search engines |
US7899243B2 (en) | 2000-11-06 | 2011-03-01 | Evryx Technologies, Inc. | Image capture and identification system and process |
US7565008B2 (en) | 2000-11-06 | 2009-07-21 | Evryx Technologies, Inc. | Data capture and identification system and process |
US8224078B2 (en) | 2000-11-06 | 2012-07-17 | Nant Holdings Ip, Llc | Image capture and identification system and process |
US7506256B2 (en) * | 2001-03-02 | 2009-03-17 | Semantic Compaction Systems | Device and method for previewing themes and categories of sequenced symbols |
US6973508B2 (en) * | 2002-02-12 | 2005-12-06 | Fisher-Rosemount Systems, Inc. | Highly versatile process control system controller |
US7561200B2 (en) | 2004-07-26 | 2009-07-14 | Csi Technology, Inc. | Apparatus and method for automation of imaging and dynamic signal analyses |
JP4669041B2 (ja) * | 2006-02-28 | 2011-04-13 | パナソニック株式会社 | ウェアラブル端末 |
US7961851B2 (en) * | 2006-07-26 | 2011-06-14 | Cisco Technology, Inc. | Method and system to select messages using voice commands and a telephone user interface |
JP2008048076A (ja) * | 2006-08-11 | 2008-02-28 | Canon Inc | 音声処理装置およびその制御方法 |
US7999818B2 (en) * | 2007-09-07 | 2011-08-16 | Mamoudis John T | Hands-free, user-formatted instruction display system |
US8299938B2 (en) * | 2009-09-08 | 2012-10-30 | Rosemount Inc. | Projected instrument displays for field mounted process instruments |
EP3611555A1 (de) * | 2009-11-19 | 2020-02-19 | eSight Corporation | Bildvergrösserung auf einer kopfmontierten anzeige |
US8447070B1 (en) | 2010-04-19 | 2013-05-21 | Amazon Technologies, Inc. | Approaches for device location and communication |
US8861310B1 (en) | 2011-03-31 | 2014-10-14 | Amazon Technologies, Inc. | Surface-based sonic location determination |
US9368107B2 (en) * | 2011-04-20 | 2016-06-14 | Nuance Communications, Inc. | Permitting automated speech command discovery via manual event to command mapping |
US9189465B2 (en) * | 2012-09-28 | 2015-11-17 | International Business Machines Corporation | Documentation of system monitoring and analysis procedures |
US9151953B2 (en) | 2013-12-17 | 2015-10-06 | Amazon Technologies, Inc. | Pointer tracking for eye-level scanners and displays |
EP2913730B1 (de) | 2014-02-28 | 2019-10-30 | ABB Schweiz AG | Verwendung eines Live-Video-Streams in einem Prozesssteuerungssystem |
US10147293B2 (en) | 2014-04-16 | 2018-12-04 | Empire Technology Development Llc | Computer-based safety control |
DK201470277A1 (en) * | 2014-05-08 | 2015-01-05 | Vestas Wind Sys As | A smart device with a screen for visualizing a wind turbine component |
US10146330B2 (en) | 2014-06-18 | 2018-12-04 | Matthew Swan Lawrence | Systems and methods for character and command input |
US9576329B2 (en) | 2014-07-31 | 2017-02-21 | Ciena Corporation | Systems and methods for equipment installation, configuration, maintenance, and personnel training |
US9746913B2 (en) | 2014-10-31 | 2017-08-29 | The United States Of America As Represented By The Secretary Of The Navy | Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods |
CN105701965B (zh) * | 2014-12-15 | 2020-06-30 | 朱保东 | 一种穿戴式安全设备及其方法 |
US10199041B2 (en) | 2014-12-30 | 2019-02-05 | Honeywell International Inc. | Speech recognition systems and methods for maintenance repair and overhaul |
US10142596B2 (en) | 2015-02-27 | 2018-11-27 | The United States Of America, As Represented By The Secretary Of The Navy | Method and apparatus of secured interactive remote maintenance assist |
CN106023578A (zh) * | 2016-07-14 | 2016-10-12 | 广州视源电子科技股份有限公司 | 可穿戴设备及家居设备的控制方法 |
GB2568024A (en) * | 2017-09-25 | 2019-05-08 | Emotech Ltd | Display device |
CN110663021B (zh) * | 2017-11-06 | 2024-02-02 | 谷歌有限责任公司 | 关注出席用户的方法和系统 |
JP6963881B2 (ja) * | 2018-06-05 | 2021-11-10 | 東芝三菱電機産業システム株式会社 | 音声認識監視装置 |
US11135723B2 (en) * | 2018-10-12 | 2021-10-05 | Universal City Studios Llc | Robotics for theme park wearable software testing |
CN113227940A (zh) | 2018-11-09 | 2021-08-06 | 贝克曼库尔特有限公司 | 具有选择性数据提供的服务眼镜 |
US11983959B2 (en) | 2019-04-18 | 2024-05-14 | Beckman Coulter, Inc. | Securing data of objects in a laboratory environment |
KR102229562B1 (ko) * | 2019-07-25 | 2021-03-18 | 엘지전자 주식회사 | 음성 인식 서비스를 제공하는 인공 지능 장치 및 그의 동작 방법 |
Family Cites Families (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4303973A (en) | 1976-10-29 | 1981-12-01 | The Foxboro Company | Industrial process control system |
US4152760A (en) | 1977-09-16 | 1979-05-01 | The Foxboro Company | Industrial process control system |
US4149237A (en) | 1977-09-16 | 1979-04-10 | The Foxboro Company | Industrial process control system |
US4268822A (en) | 1978-10-18 | 1981-05-19 | The Foxboro Company | Apparatus for determining the state of each of a plurality of bi-state devices |
US4729091A (en) | 1984-11-13 | 1988-03-01 | International Business Machines Corporation | Directing storage requests prior to address comparator initialization with a reference address range |
GB8511691D0 (en) | 1985-05-09 | 1985-06-19 | British Telecomm | Control system |
US4726017A (en) | 1985-05-21 | 1988-02-16 | Fla. | Multidrop data concentrator communication network |
US4910658A (en) | 1985-09-04 | 1990-03-20 | Eaton Leonard Technologies, Inc. | Real time process controller with serial I/O bus |
US5239662A (en) | 1986-09-15 | 1993-08-24 | Norand Corporation | System including multiple device communications controller which coverts data received from two different customer transaction devices each using different communications protocols into a single communications protocol |
US4949299A (en) | 1987-12-04 | 1990-08-14 | Allen-Bradley Company, Inc. | Industrial control communication network and method |
WO1989005553A1 (en) | 1987-12-07 | 1989-06-15 | Bt Telecom, Inc. | System for interfacing an alarm reporting device with a cellular radio transceiver |
US4916441A (en) | 1988-09-19 | 1990-04-10 | Clinicom Incorporated | Portable handheld terminal |
US5309351A (en) * | 1988-10-27 | 1994-05-03 | Texas Instruments Incorporated | Communications, information, maintenance diagnostic and training system |
DE68925271T2 (de) | 1988-10-27 | 1996-08-14 | Texas Instruments Inc | Kommunikations-, Informations-, Wartungsdiagnostik und Ausbildungssystem |
US5099444A (en) | 1989-05-09 | 1992-03-24 | Ansan Industries, Ltd. | Peripheral data acquisition transmission and control device |
US5400246A (en) | 1989-05-09 | 1995-03-21 | Ansan Industries, Ltd. | Peripheral data acquisition, monitor, and adaptive control system via personal computer |
US5142550A (en) | 1989-06-29 | 1992-08-25 | Symbol Technologies, Inc. | Packet data communication system |
US5150363A (en) | 1989-08-11 | 1992-09-22 | Digital Audio Disc Corporation | Serial input/output multiplexing apparatus |
US5088021A (en) | 1989-09-07 | 1992-02-11 | Honeywell, Inc. | Apparatus and method for guaranteed data store in redundant controllers of a process control system |
US5495482A (en) | 1989-09-29 | 1996-02-27 | Motorola Inc. | Packet transmission system and method utilizing both a data bus and dedicated control lines |
US5252967A (en) | 1990-05-25 | 1993-10-12 | Schlumberger Industries, Inc. | Reader/programmer for two and three wire utility data communications system |
DK0491657T3 (da) | 1990-12-18 | 1996-02-05 | Erowa Ag | Automatisk fabriksanlæg |
JP2730810B2 (ja) | 1991-05-10 | 1998-03-25 | シャープ株式会社 | 情報処理装置 |
US5781913A (en) | 1991-07-18 | 1998-07-14 | Felsenstein; Lee | Wearable hypermedium system |
US5208449A (en) * | 1991-09-09 | 1993-05-04 | Psc, Inc. | Portable transaction terminal |
US5353331A (en) | 1992-03-05 | 1994-10-04 | Bell Atlantic Network Services, Inc. | Personal communications service using wireline/wireless integration |
US5305244B2 (en) | 1992-04-06 | 1997-09-23 | Computer Products & Services I | Hands-free user-supported portable computer |
US5491651A (en) | 1992-05-15 | 1996-02-13 | Key, Idea Development | Flexible wearable computer |
JP3391405B2 (ja) * | 1992-05-29 | 2003-03-31 | 株式会社エフ・エフ・シー | カメラ映像内の物体同定方法 |
US5320538A (en) | 1992-09-23 | 1994-06-14 | Hughes Training, Inc. | Interactive aircraft training system and method |
MX9306152A (es) | 1992-10-05 | 1994-05-31 | Fisher Controls Int | Sistema de comunicacion y metodo. |
US5666530A (en) | 1992-12-02 | 1997-09-09 | Compaq Computer Corporation | System for automatic synchronization of common file between portable computer and host computer via communication channel selected from a plurality of usable channels there between |
US5402367A (en) * | 1993-07-19 | 1995-03-28 | Texas Instruments, Incorporated | Apparatus and method for model based process control |
US5495484A (en) | 1993-10-12 | 1996-02-27 | Dsc Communications Corporation | Distributed telecommunications switching system |
US5815126A (en) * | 1993-10-22 | 1998-09-29 | Kopin Corporation | Monocular portable communication and display system |
CA2135718A1 (en) | 1993-11-15 | 1995-05-16 | Mark A. Gilbertie | Universal electrical system architecture for control applications |
JP2873268B2 (ja) * | 1994-02-24 | 1999-03-24 | エドワード・ジョージ・ニューマン | 手を使わずにユーザにより支持される携帯用計算機とその操作方法 |
JP3116710B2 (ja) | 1994-03-18 | 2000-12-11 | 株式会社日立製作所 | 情報端末システム |
ATE187824T1 (de) | 1994-10-24 | 2000-01-15 | Fisher Rosemount Systems Inc | Vorrichtung, die einen zugang zu feldgeräten in einem verteilten steuerungssystem gestattet |
CN1049052C (zh) | 1995-07-07 | 2000-02-02 | 中国石化洛阳石油化工总厂 | 一种智能化炼油化工危险源事故预案和应急处理方法 |
JP3425276B2 (ja) | 1995-08-11 | 2003-07-14 | 株式会社日立製作所 | 情報通知システム |
JPH09114543A (ja) * | 1995-10-02 | 1997-05-02 | Xybernaut Corp | ハンドフリーコンピュータ装置 |
US6094600A (en) | 1996-02-06 | 2000-07-25 | Fisher-Rosemount Systems, Inc. | System and method for managing a transaction database of records of changes to field device configurations |
TW395121B (en) | 1996-02-26 | 2000-06-21 | Seiko Epson Corp | Personal wearing information display device and the display method using such device |
JPH09247180A (ja) | 1996-03-12 | 1997-09-19 | Toshiba Corp | プロセスlan用タップ、携帯型コンピュータ及び統合制御システム |
JPH10124178A (ja) * | 1996-10-15 | 1998-05-15 | Olympus Optical Co Ltd | 電子メール端末、電子メール端末の処理方法、媒体 |
US5938721A (en) | 1996-10-24 | 1999-08-17 | Trimble Navigation Limited | Position based personal digital assistant |
JPH10222663A (ja) * | 1997-01-31 | 1998-08-21 | Yamaha Motor Co Ltd | 画像認識システム及び装置 |
DE19706614A1 (de) | 1997-02-20 | 1998-08-27 | Claas Ohg | Situationsbezogene programmgesteuerte elektronische Kartenbilddarstellung in einem Kraftfahrzeug |
EP0862159A1 (de) * | 1997-03-01 | 1998-09-02 | Agfa-Gevaert N.V. | Spracherkennungssystem für eine medizinische Röntgenapparatur |
JP3557467B2 (ja) * | 1997-06-11 | 2004-08-25 | 株式会社日立製作所 | 音声データの認識方法及びその装置 |
US6262749B1 (en) * | 1997-12-31 | 2001-07-17 | Acuson Corporation | Ultrasonic system and method for data transfer, storage and/or processing |
US6226612B1 (en) * | 1998-01-30 | 2001-05-01 | Motorola, Inc. | Method of evaluating an utterance in a speech recognition system |
WO2000002344A2 (de) | 1998-07-03 | 2000-01-13 | Siemens Aktiengesellschaft | Verfahren und system zum drahtlosen steuern von mindestens zwei unterschiedlichen einrichtungen |
JP3964553B2 (ja) | 1998-09-10 | 2007-08-22 | 株式会社東芝 | 情報配信システム |
TW495710B (en) * | 1998-10-15 | 2002-07-21 | Primax Electronics Ltd | Voice control module for control of game controller |
JP4008611B2 (ja) | 1999-02-09 | 2007-11-14 | 株式会社東芝 | プラント作業監視装置および記憶媒体 |
US6806847B2 (en) | 1999-02-12 | 2004-10-19 | Fisher-Rosemount Systems Inc. | Portable computer in a process control environment |
US7640007B2 (en) | 1999-02-12 | 2009-12-29 | Fisher-Rosemount Systems, Inc. | Wireless handheld communicator in a process control environment |
US7230582B1 (en) | 1999-02-12 | 2007-06-12 | Fisher-Rosemount Systems, Inc. | Wearable computer in a process control environment |
US6633782B1 (en) * | 1999-02-22 | 2003-10-14 | Fisher-Rosemount Systems, Inc. | Diagnostic expert in a process control system |
US6298454B1 (en) | 1999-02-22 | 2001-10-02 | Fisher-Rosemount Systems, Inc. | Diagnostics in a process control system |
US6574672B1 (en) | 1999-03-29 | 2003-06-03 | Siemens Dematic Postal Automation, L.P. | System, apparatus and method for providing a portable customizable maintenance support computer communications system |
JP2001051717A (ja) | 1999-06-04 | 2001-02-23 | Toshiba Corp | プラント機器監視装置 |
JP2001034615A (ja) | 1999-07-16 | 2001-02-09 | Nippon Telegr & Teleph Corp <Ntt> | 作業支援システム及び作業支援方法 |
US6473517B1 (en) * | 1999-09-15 | 2002-10-29 | Siemens Corporate Research, Inc. | Character segmentation method for vehicle license plate recognition |
JP2001125633A (ja) | 1999-10-28 | 2001-05-11 | Toshiba Corp | プラント情報収集システム |
JP3390806B2 (ja) | 1999-12-28 | 2003-03-31 | 株式会社テイエルブイ | 位置認識装置及びこの位置認識装置を備えた測定装置並びに測定システム |
US6690351B1 (en) * | 2000-04-06 | 2004-02-10 | Xybernaut Corporation | Computer display optimizer |
JP2002171579A (ja) | 2000-12-01 | 2002-06-14 | Toyo Keiki Co Ltd | 自動検針システム用無線装置 |
US8126276B2 (en) | 2001-02-21 | 2012-02-28 | International Business Machines Corporation | Business method for selectable semantic codec pairs for very low data-rate video transmission |
US6795798B2 (en) | 2001-03-01 | 2004-09-21 | Fisher-Rosemount Systems, Inc. | Remote analysis of process control plant data |
DE10124266A1 (de) | 2001-05-18 | 2002-11-21 | Abb Patent Gmbh | System zur physischen Lokalisierung von Feldgeräten in verfahrenstechnischen Anlagen |
US20030043070A1 (en) | 2001-08-30 | 2003-03-06 | Soliman Samir S. | Wireless coordination and management system |
US6633182B2 (en) | 2001-09-05 | 2003-10-14 | Carnegie Mellon University | Programmable gate array based on configurable metal interconnect vias |
US20030229472A1 (en) | 2001-12-06 | 2003-12-11 | Kantzes Christopher P. | Field maintenance tool with improved device description communication and storage |
US20030204373A1 (en) | 2001-12-06 | 2003-10-30 | Fisher-Rosemount Systems, Inc. | Wireless communication method between handheld field maintenance tools |
US7092943B2 (en) | 2002-03-01 | 2006-08-15 | Enterasys Networks, Inc. | Location based data |
US7085623B2 (en) | 2002-08-15 | 2006-08-01 | Asm International Nv | Method and system for using short ranged wireless enabled computers as a service tool |
-
1999
- 1999-02-12 US US09/249,597 patent/US7230582B1/en not_active Expired - Lifetime
-
2000
- 2000-02-01 GB GB0002157A patent/GB2346720B/en not_active Expired - Lifetime
- 2000-02-10 JP JP2000033421A patent/JP3801406B2/ja not_active Expired - Lifetime
- 2000-02-11 DE DE10006126A patent/DE10006126B4/de not_active Expired - Lifetime
- 2000-02-11 DE DE10066477.6A patent/DE10066477B3/de not_active Expired - Lifetime
- 2000-02-11 DE DE10066478.4A patent/DE10066478B3/de not_active Expired - Lifetime
-
2007
- 2007-05-11 US US11/747,777 patent/US8125405B2/en not_active Expired - Fee Related
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8125405B2 (en) | 1999-02-12 | 2012-02-28 | Fisher-Rosemount Systems, Inc. | Wearable computer in a process control environment |
US7640007B2 (en) | 1999-02-12 | 2009-12-29 | Fisher-Rosemount Systems, Inc. | Wireless handheld communicator in a process control environment |
EP1152311A1 (de) * | 2000-05-04 | 2001-11-07 | Focke & Co. (GmbH & Co.) | Mobile, rechnergestütze Wartungseinheit |
DE10063089C1 (de) * | 2000-12-18 | 2002-07-25 | Siemens Ag | Anwendergesteuerte Verknüpfung von Informationen innerhalb eines Augmented-Reality-Systems |
DE10159610A1 (de) * | 2001-12-05 | 2003-07-10 | Siemens Ag | System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung |
DE10159610B4 (de) * | 2001-12-05 | 2004-02-26 | Siemens Ag | System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung |
US7110909B2 (en) | 2001-12-05 | 2006-09-19 | Siemens Aktiengesellschaft | System and method for establishing a documentation of working processes for display in an augmented reality system in particular in a production assembly service or maintenance environment |
DE10161401A1 (de) * | 2001-12-13 | 2003-06-18 | Endress & Hauser Gmbh & Co Kg | Feldgerät zur Bestimmung und/oder Überwachung einer Prozessvariablen |
DE10161401B4 (de) * | 2001-12-13 | 2012-11-08 | Endress + Hauser Gmbh + Co. Kg | Feldgerät zur Bestimmung und/oder Überwachung einer Prozessvariablen |
EP1331535A1 (de) * | 2002-01-29 | 2003-07-30 | Endress + Hauser Wetzer GmbH + Co. KG | Feldgerät |
DE10317497B4 (de) * | 2003-04-16 | 2013-10-17 | Abb Ag | System zur Kommunikation zwischen einem Feldgerät und einem Bediengerät |
EP1500995A1 (de) * | 2003-07-22 | 2005-01-26 | SMS Demag AG | Verfahren und Vorrichtung zur Überwachung und/oder Steuerung von Betriebsdaten bzw. Parametern, insbesondere vielschichtiger Anlagensysteme |
DE102008009446A1 (de) * | 2008-02-15 | 2009-08-20 | Volkswagen Ag | Verfahren zur Prüfung eines komplexen Systems auf Abweichungen von Qualitätsvorgaben und/oder auf Fehlerhaftigkeit und Vorrichtung zur Unterstützung einer Prüfperson bei einer solchen Prüfung |
DE102014109612A1 (de) * | 2014-07-09 | 2016-01-14 | Endress + Hauser Infoserve Gmbh + Co. Kg | Verfahren zum Überwachen und/oder Kontrollieren und/oder Warten von Feldgeräten |
DE102014109612B4 (de) * | 2014-07-09 | 2016-09-01 | Endress + Hauser Infoserve Gmbh + Co. Kg | Verfahren zum Überwachen und/oder Kontrollieren und/oder Warten von Feldgeräten |
DE102017220438A1 (de) * | 2017-11-16 | 2019-05-16 | Vega Grieshaber Kg | Prozessautomatisierungssystem mit einem Wearable Computer |
DE102017220438B4 (de) | 2017-11-16 | 2024-08-01 | Vega Grieshaber Kg | Prozessautomatisierungssystem mit einem Wearable Computer |
Also Published As
Publication number | Publication date |
---|---|
GB0002157D0 (en) | 2000-03-22 |
GB2346720B (en) | 2003-12-31 |
US8125405B2 (en) | 2012-02-28 |
JP3801406B2 (ja) | 2006-07-26 |
US20070210983A1 (en) | 2007-09-13 |
GB2346720A (en) | 2000-08-16 |
DE10006126B4 (de) | 2011-11-17 |
DE10066477B3 (de) | 2016-06-30 |
DE10066478B3 (de) | 2016-06-30 |
US7230582B1 (en) | 2007-06-12 |
JP2000242367A (ja) | 2000-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10006126B4 (de) | Tragbarer Computer in einer Prozesssteuerungsumgebung | |
DE102005058564B4 (de) | Drahtlose handgehaltene Kommunikationseinrichtung in einer Prozesssteuerungsumgebung | |
DE10242007A1 (de) | Portabler Computer in einem Prozesssteuerungsumfeld | |
US9589390B2 (en) | Wire harness assembly | |
EP2524329B1 (de) | Anordnung und verfahren zur verifikation eines realen modells unter verwendung eines virtuellen modells sowie verwendung im flugzeugbau | |
EP1451652B1 (de) | System und verfahren zur erstellung einer dokumentation von arbeitsvorgängen zur darstellung in einem augmented-reality-system | |
DE112018004347T5 (de) | Virtueller röntgenblick in einer prozesssteuerungsumgebung | |
WO2000052542A1 (de) | Augmented reality-system zur einhaltung von qualitäts- bzw. sicherheitsanforderungen | |
DE19953739A1 (de) | Einrichtung und Verfahren zur objektorientierten Markierung und Zuordnung von Information zu selektierten technologischen Komponenten | |
US4961148A (en) | Method for preparing automotive assembly operations documents | |
DE10034606A1 (de) | Verfahren zur Bereitstellung von fertigungsbezogenen Daten in einer Serienfertigung von Fertigungsobjekten, insbesondere von Kraftfahrzeugen | |
WO2018192613A1 (de) | Verfahren und system zur automatisierten unterstützung eines anschlussvorgangs, insbesondere von in einem schaltschrank oder an einem montagesystem angeordneten komponenten | |
CN108564828A (zh) | 一种智能教学机器人 | |
EP0435225B1 (de) | Verfahren und Einrichtung zum Versorgen verschiedener Abteilungen eines Selbstbedienungs-Grossmarktes mit für eine Abteilung spezifischen Informationen | |
DE112019002380T5 (de) | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm | |
EP1180674B1 (de) | Datenkommunikationssystem für Kraftfahrzeug Prüfstände mit Prüfprogramm auf der Zentraleinheit | |
DE102022104945A1 (de) | Verfahren zur Nachverfolgung eines Gerätes, Gerät sowie Arbeitssystem | |
DE102012101916A1 (de) | Darstellung von aktuellen Betriebsparametern eines Elements einer Solaranlage auf einer mobilen Datenverarbeitungseinrichtung | |
DE102018201711B4 (de) | Anordnung und Verfahren zum Bereitstellen von Informationen bei einer kopftragbaren erweiterte-Realität-Vorrichtung | |
DE102014019441A1 (de) | Verfahren zum Montieren wenigstens eines Bauteils | |
WO2005064423A2 (de) | Kontextabhängige bedienung von engineering-systemen über zeichnerische eingaben | |
EP0681257B1 (de) | Tragbare Identifikationseinrichtung | |
DE202021004436U1 (de) | Vorrichtung zur Unterstützung von sehbehinderten oder blinden Personen beim Einkaufen | |
CN117876951A (zh) | 一种用于在线教育管理用监控系统 | |
DE102006045299A1 (de) | Verfahren und Vorrichtung zur rechnergestützten Bestimmung eines Orts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8125 | Change of the main classification |
Ipc: G05B 24/02 AFI20051017BHDE |
|
R018 | Grant decision by examination section/examining division | ||
R130 | Divisional application to |
Ref document number: 10066477 Country of ref document: DE Effective date: 20110314 Ref document number: 10066478 Country of ref document: DE Effective date: 20110314 |
|
R020 | Patent grant now final |
Effective date: 20120218 |
|
R071 | Expiry of right |