DE102005061211A1 - Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche - Google Patents
Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche Download PDFInfo
- Publication number
- DE102005061211A1 DE102005061211A1 DE102005061211A DE102005061211A DE102005061211A1 DE 102005061211 A1 DE102005061211 A1 DE 102005061211A1 DE 102005061211 A DE102005061211 A DE 102005061211A DE 102005061211 A DE102005061211 A DE 102005061211A DE 102005061211 A1 DE102005061211 A1 DE 102005061211A1
- Authority
- DE
- Germany
- Prior art keywords
- industrial device
- user
- pointer
- image
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 111
- 238000012544 monitoring process Methods 0.000 title claims abstract description 11
- 230000008569 process Effects 0.000 claims abstract description 62
- 238000004590 computer program Methods 0.000 claims abstract description 15
- 230000003190 augmentative effect Effects 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 17
- 238000004891 communication Methods 0.000 claims description 13
- 239000003550 marker Substances 0.000 claims description 13
- 238000012552 review Methods 0.000 claims description 11
- 238000005516 engineering process Methods 0.000 claims description 9
- 238000004519 manufacturing process Methods 0.000 claims description 9
- 230000003287 optical effect Effects 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000002604 ultrasonography Methods 0.000 claims description 5
- 230000009471 action Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims 2
- 238000004364 calculation method Methods 0.000 claims 1
- 239000003795 chemical substances by application Substances 0.000 claims 1
- 230000011664 signaling Effects 0.000 claims 1
- 230000005236 sound signal Effects 0.000 claims 1
- 230000001419 dependent effect Effects 0.000 abstract 1
- 230000003993 interaction Effects 0.000 description 13
- 238000003860 storage Methods 0.000 description 8
- 230000015654 memory Effects 0.000 description 6
- 239000000243 solution Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 238000012800 visualization Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000012423 maintenance Methods 0.000 description 4
- 229920001690 polydopamine Polymers 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005219 brazing Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000003466 welding Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 208000036590 Maladministrations Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009749 continuous casting Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000013079 data visualisation Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 230000037406 food intake Effects 0.000 description 1
- 238000010102 injection blow moulding Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005555 metalworking Methods 0.000 description 1
- 238000010327 methods by industry Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 210000002023 somite Anatomy 0.000 description 1
- 238000007592 spray painting technique Methods 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000013024 troubleshooting Methods 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/32—Operator till task planning
- G05B2219/32014—Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
Abstract
Ein Verfahren zum Generieren von technischen Informationen über ein Gerät oder einen Prozess durch Erkennung der Identität eines Gerätes (7) oder Prozesses, Aufrufen eines gespeicherten Bilds (14', 17') abhängig von dem Gerät, Kombinieren des gespeicherten virtuellen Bilds zusammen mit einem Bild eines realen Gerät-Objekts (7), Anzeigen der Kombination auf einer Anzeige (3) und Bereitstellen eines virtuellen Steuer-MMO-Mittels (14') dem Benutzer zum Überwachen und/oder Kontrollieren des Geräts oder Prozesses. Eine graphische Benutzer-Oberfläche, ein Computerprogramm und ein System werden ebenfalls beschrieben.
Description
- Technisches Gebiet
- Die vorliegende Erfindung betrifft ein Verfahren und ein System, um eine Mensch-Maschine-Benutzer-Oberfläche zur Überwachung und/oder Steuerung eines industriellen Prozesses oder Geräts zu generieren. Die Erfindung kann auf vielen Gebieten, wie Öl und Gas, Elektrizitäts-Erzeugung, Übertragung, Verteilung, sowie in der Industrie, angewendet werden. Die Erfindung kann zur Überwachung, zur Steuerung und/oder zur Programmierung von industriellen Robotern für Robotik und automatischen Anwendungen, angewendet werden.
- Hintergrund zum Stand der Technik
- Ein Techniker oder ein Außendienst-Betreiber, in z. B. einer verfahrenstechnischen Anlage, Fabrikationsanlage, auf Plattformen vor der Küste oder einer elektrischen Stromübertragungs- oder Verteilungs-Anlage oder Schaltstation, braucht beide um mit Systemen oder Geräten in der installierten Ausstattung zu interagieren und um Zugang zu Information und Unterlagen über die installierte Ausstattung zu haben. Verschiedene Benutzer-Oberflächen, beide physische und Software-Oberflächen, für die installierte Ausstattung, Betriebs-Geräte und -Systeme und so weiter, sind oft verschieden ausgelegt, so dass die Außendienst-Betreiber lernen müssen, wie man eine Vielzahl von verschiedenen Benutzer-Oberflächen benutzt. Die verschiedenen Ausstattungs-Oberflächen können auch oft mit einander unvereinbar sein.
- Der Außendienst-Betreiber braucht, neben interagieren mit installierter Ausstattung oder Geräten oder Systemen, Zugang zu Unterlagen jeglicher Art, was ein Handbuch, Abstammungs-Daten, Wartungs-Geschichte & Reparaturberichte und desgleichen sein können. Obgleich der Trend dazu geht, dass Teile solcher Unterlagen elektrisch erhältlich geworden sind, werden sie oft in verschiedenen Systemen und an verschiedenen Standorten gespeichert. Daher müssen die Außendienst-Betreiber, entweder die Informations-Sammlung für ihre Arbeits-Aufgabe im Vorfeld planen, oder sie müssen die weiterlaufenden Aufgaben unterbrechen, um Unterstützungs-Information und Unterlagen für die installierte Ausstattung, den Prozess oder das Gerät zu finden und dann darauf zugreifen.
- Als ein Beispiel innerhalb von Fabrikationsanlagen, kann ein Fließband einige Roboter einschließen, die für gewöhnlich von separaten Steuergeräten und/oder Handprogrammier-Geräten gesteuert werden. Der Betreiber braucht ab einem bestimmten Punkt das interagieren mit den Robotern, um z. B. einen Status zu prüfen, Betriebs-Parameter für die Roboter zu inspizieren oder ein neues Roboter-Steuer-Programm zu erstellen. Ein genereller Missstand ist, dass der Betreiber das Interaktions-Gerät wechseln muss, in diesem Fall für jeden Roboter in Abfolge zu einer anderen Steuerung oder anderem Handprogrammier-Gerät wechseln, obgleich einige Roboter angeordnet werden können, um eine Aufgabe auf einmal zu vollführen.
- Erweiterte Realität (ER) ist ein Verfahren des Darüberlegens von realen Welt-Darstellungen mit computergenerierten Graphiken. Idealerweise werden für die auf Sicht basierende erweiterte Realität, die computergenerierten Graphiken mit realen Welt-Bildern auf eine Art kombiniert, in welcher der Benutzer nicht in der Lage sein wird irgendeinen Unterschied zwischen der realen und der computergenerierten Graphiken zu erkennen. Der Benutzer wird eine Wahrnehmung der realen Welt-Umgebung erhalten, welche verbessert ist durch die Anwesenheit von zugefügten visuellen Bildern.
- Erweiterte Realitäts-Techniken werden heutzutage in etlichen Anwendungen benutzt. Beispiele der Benutzung sind innerhalb von Medien, z. B. Wetterberichterstattung, Medizin, z. B. Visualisierung von inneren Organen, für gemeinschaftliche Umgebungen, z. B. virtuelle Besprechungszimmer, und in der Luftfahrt-Industrie für Kombination von realen Welt- Bildern und anderer Information über projizierte Frontscheiben-Anzeigen und/oder in Flugsimulator-Projektionen.
- In der Hand haltbare und tragbare Steuer-Konsolen mit Interaktions-Möglichkeiten existieren bereits und das Interesse an solchen Geräten nimmt zu. Die Benutzung von Mobil-Telefonen und PDA's, als die Oberfläche für Systeme oder Geräte ist bekannt. Auch Tablet-PC's, welche z.B. in Krankenhäusern benutzt wurden, stellen eine Oberfläche bereit, die den Benutzer, durch berühren des Bildschirms, leicht herumführen und mit ihm interagieren kann.
- Ein neu eingeführtes Gerät ist die virtuelle Tastatur. Ein Bild einer Tastatur, eine virtuelle Tastatur, wird z. B. auf einen Tisch projiziert und kann typischerweise das Eingabemittel für den eigentlichen Computer sein. Der Benutzer berührt oder drückt die Tasten des Bildes, der virtuellen Tastatur, und ein assoziatives System erkennt die spezifischen berührten Tasten, als wie wenn der Benutzer eine Standard-Tastatur bedient hat. Virtuelle Tastaturen sind als kommerzielle Produkte erhältlich, die von einigen Herstellern, z. B. Canesta, Senseboard Technologies und Samsung, angeboten werden.
-
US 6,614,422 mit dem Titel „Verfahren und Apparat zur Einspeisung von Daten durch benutzen eines virtuellen Eingabegerätes"; eröffnet digitale Benutzer-Eingabe in ein begleitendes System wie ein PDA, ein zellulares Telefon oder ein Anwendungs-Gerät durch benutzen eines virtuellen Eingabe-Geräts wie einem Bild einer Tastatur. Ein Sensor fängt dreidimensionale Positions-Information von dem Standort der Finger des Benutzers, in Bezug zu wo die Tasten auf einer eigentlichen Tastatur wären, ein. Diese Information wird in Bezug auf den Finger-Standorten und Geschwindigkeiten und Form verarbeitet, um zu bestimmen, wann eine virtuelle Taste angeschlagen wurde. Die verarbeitete digitale Information wird an ein begleitendes System ausgegeben. - US. 6,618,425 mit dem Titel „Virtueller Laser-Betreiber"; eröffnet eine Laser-Steuerung, die einen virtuellen Laser-Betreiber umfassen. Eine Laser-Steuerung, der zusammengeschaltet ist mit einem elektrischen Entladungs-Laser, steht in Verbindung mit einem entlegenen Computer, der einen Anzeige-Bildschirm vereinigt, der eine konventionelle Tastatur nachbildet. Der Anzeige-Bildschirm hat eine Mehrheit von Bildern von Tasten, virtuellen Tasten, wobei jede eine physische Taste einer konventionellen Tastatur nachbildet. Ein Tastenanschlag wird typischerweise durch das manuelle drücken der Position einer übereinstimmenden virtuellen Taste auf einem berührungsempfindlichen Bildschirm durch, oder alternativ durch auslösen eines konventionellen Zeige-Geräts, den Betreiber ausgeführt.
- Zusammenfassung der Erfindung
- Ein erstes Ziel der vorliegenden Erfindung ist, ein Verfahren bereitzustellen, um zusätzliche Information, zu existierender Fabrik, zu generieren und um mit existierender Fabrik-Information für den Betreiber im Außendienst zu interagieren, die erweiterte Realitäts-Techniken zum Benutzen zur Identifizierung einer Steuer-Strategie benutzen, um einen industriellen Automatisierungs-Prozess zum Benutzen zu steuern.
- Ein zweites Ziel der vorliegenden Erfindung ist es, eine zusätzliche Information, in Form von graphischer Information, bedienbar durch den Betreiber, bereitzustellen, um in direktem Bezug zu einer spezifischen Ausstattung und/oder Gerät zur Überwachung von, und Interaktion mit, einer spezifischen Ausstattung, Fabrik oder Prozess, aufzurufen, zu untersuchen und zu benutzen. Ein anderes Ziel ist, eine zusätzliche Information in Form von graphischer Information bereitzustellen, die durch den Betreiber bedienbar ist, um für eine spezifische Ausstattung, Fabrik oder Prozess, auf Steuerungs-Aktionen zugriff zu haben, zu untersuchen und sie auszuführen.
- Die oberen und mehr Ziele wurden gemäß der Erfindung, durch ein Verfahren nach unabhängigem Anspruch 1 und ein System gemäß dem unabhängigen System-Anspruch, welcher die Benutzung des Verfahrens vereint, erreicht.
- Gemäß eines ersten Aspekts der Erfindung, wird ein Verfahren zum Benutzen erweiterter Realität (ER) zur Generierung von Information für den Außendienst-Betreiber beschrieben und Interaktion mit Information, z. B. in einer verfahrenstechnischen Anlage, durch den Außendienst-Betreiber. Dieser Aspekt der Erfindung stellt Lösungen zur Funktion der Generierung und Anzeige virtueller Information in direkter Beziehung mit einer spezifischen Ausstattung und/oder Geräts zur Überwachung von und Interaktion mit der spezifischen Ausstattung oder Geräts, und/oder betreffenden Teilen des Steuerungs-Systems bereit;
Gemäß eines zweiten Aspekts der Erfindung, wird ein Verfahren zur Anzeige von ER virtueller Information an einen oder mehrere entlegen lokalisierte Experten, zur weiteren Interaktion, und zur weiteren Interaktion mit dem Originalbenutzer oder Betreiber beschrieben. - Gemäß eines dritten Aspekts der Erfindung, wird ein Verfahren zur Anzeige von ER virtueller Information beschrieben, deren generierte Anzeige-Information der Benutzer benutzen kann, um ihn/sie durch die Fabrik oder den Prozess an einen spezifischen Standort der spezifischen Ausstattung zu führen.
- Das generelle Ziel dieser Erfindung ist, zusätzliche Information in Form von „virtueller" Information über ein Gerät oder Prozess zu generieren und es einem Außendienst-Betreiber anzuzeigen (z.B. einem Betreiber, einem Service-Techniker, einer Wartungsperson, Originalhersteller, einem Verfahrenstechniker usw.). Zuerst wird in diesem beschriebenen Verfahren relevante Information dem Außendienst-Betreiber zum Überwachen und Interagieren mit dem industriellen Prozess oder Gerät vorgelegt. Positionsinformation muss daher aufgerufen, erfasst und/oder berechnet werden, um Aufenthaltsorte in dem Prozess, an denen sich der Betreiber gegenwärtig befindet, zu bestimmen. Verschiedene Verfolgungs- und Erkennungs-Technologien können benutzt werden, um diese Funktion auszuführen. Virtuelle Information wird generiert und dann über Bilder von der realen Welt des Prozesses oder Geräts von Interesse gelegt. Information, die sich auf Ausstattung und/oder Geräte in dem Prozess bezieht, wird direkt angezeigt, über die spezifische Ausstattung und/oder Gerät gelegt. Beispiele von Ausstattung/Geräte-Information, können online oder offline Ablesungen oder Alarme, Ereignisse sein, wie:
'Tank Füllstand: 70%'
'Motor an'
'Alarm: Temperatur ist über max. Sollwert' - Des Weiteren kann eine komplette virtuelle Steuer-Konsole zur Überwachung und Interaktion direkt auf der spezifischen Ausstattung und/oder dem spezifischen Gerät angezeigt werden.
- Gemäß einer anderen Ausführungsform der Erfindung, wird ein System beschrieben, welches mindestens ein Verfolgungs-System und eine Anzeige (bevorzugt eine am Kopf befestigte Anzeige, tragbare Brille, kann jedoch ein PDA, ein Tablet-PC usw. sein) umfasst. Das Verfolgungs-System umfasst ein Zeige-Gerät oder interagierendes Zeige-Gerät, welches durch den Benutzer oder Betreiber benutzt wird, um zu der Ausstattung in der realen Welt zu zeigen und, um auf visuelle Bilder zu zeigen oder mit visuellen Bildern zu interagieren, virtuell und/oder real in der erweiterten Realitäts-Anzeige.
- Der hauptsächliche Vorteil der Erfindung ist, dass relevante Information für ein spezifisches Gerät oder einen Prozess aufgerufen wird und in ein Bild generiert wird, das einem Benutzer bereitgestellt wird, welches zur gleichen Zeit untersucht werden kann, in der der Benutzer das Gerät oder den Prozess untersucht. Die Information kann so differenziert sein wie eine virtuelle Steuer-Konsole oder ein Bildschirm für das Gerät und so einfach wie Text-Information eines Herstellerhandbuchs oder eines Fehlersuche-Schemas.
- Andere Vorteile schließen ein, dass:
- – vorlegen virtueller Information, in der realen Welt an eine Geräteausstattung, draußen in der verfahrenstechnische Anlage, positioniert und natürlich angebracht ist,
- Information, die sich auf eine Gerät/Ausstattung bezieht, ist immer zur Hand und erhältlich,
- – die Information kann z. B. von einer einzelnen Quelle bereitgestellt werden und/oder kann die aktuellste Version sein,
- – relevante, zusammenhangsbewusste Information kann vorgelegt werden und/oder auf sie in einer intuitiven Art zugegriffen werden,
- – Kontrollraum-Funktionalität kann draußen in der verfahrenstechnischen Anlage oder in Verteiler-Schaltanlage bereitgestellt werden, mit der Fähigkeit Information direkt wie Echtzeit-Prozess-Parameter, implizite Information z. B. berechnete Tasten-Vollführungs-Anzeiger, Unterlagen, zu sehen,
- – Interaktion oder Thematisierung einer Steuerungs-Aktion für die Ausstattung oder das Gerät kann über ein virtuelles Bildschirm oder virtuelle Steuer-Konsole bereitgestellt werden,
- – es gibt keinen Bedarf von virtuellen ,Bildschirmen' selbst, widerstandsfähiger und/oder intrinsisch sicher bescheinigt zu sein,
- – virtuelle Anmerkungen und/oder Anweisungen sind an den Geräten einfach und effektiv „angebracht",
- – MMO und Steuer-Oberflächen können einfach standardisiert werden und somit einfach durch Betreiber und andere Benutzer rekonfiguriert werden,
- – teilen und interagieren mit Anwendungs-Teilung zwischen einem oder mehr entlegen lokalisierten Experten und dem Außendienst-Betreiber ist mit der Fähigkeit bereitgestellt, für irgendeinen Informations-Empfänger „virtuelle" Information, während Anweisung durch eine Experten-Informations-Zusammenfassung, durch den Betreiber oder durch einen Experten, während Erklärungen, Diskussionen usw. darüberzulegen,
- – Information oder Anzeigen für den Benutzer, um Führung zu geben, um physische Standorte in der verfahrenstechnischen Anlage zu finden, werden mit Hilfe von virtueller Information bereitgestellt (entweder initialisiert durch den entfernt lokalisierten Experten oder auf Anfrage durch das System automatisch).
- Ferner werden weitere und vorteilhafte Aspekte der Erfindung in Bezug auf einen independent Anspruch für eine graphische Benutzer-Oberfläche und einen Anspruch für ein Computer-Programm zur Implementierung des Verfahrens und einen Anspruch für ein Produkt des Computer-Programms, der das Computer-Programm umfasst, beschrieben.
- Kurzbeschreibung der Zeichnungen
- Ausführungsformen der Erfindung werden nun nur an Hand von Beispielen mit spezieller Bezugnahme auf die angehängten Zeichnungen beschrieben, in welchen:
-
1 eine schematische oder Blockdiagramm- Übersicht einer Anzeige einer Mensch-Maschine-Oberfläche unter Benutzung erweiterter Realität gemäß einer Ausführungsform der Erfindung ist; -
2 ein schematisches Diagramm einer Mensch-Maschine-Oberfläche unter Benutzung erweiterter Realität gemäß einer Ausführungsform der Erfindung ist; -
3 . ein schematisches Ablaufschema für ein Verfahren zur Bereitstellung einer Mensch-Maschine-Oberfläche unter Benutzung erweiterter Realität gemäß einer Ausführungsform der Erfindung ist; -
4 eine schematische oder Blockdiagramm- Übersicht einer Anzeige einer Mensch-Maschine-Oberfläche unter Benutzung erweiterter Realität gemäß einer anderen Ausführungsform der Erfindung ist. - Detaillierte Beschreibung der Ausführungsformen
-
1 zeigt einen schematischen Überblick in welchem sich ein Benutzer1 einem Objekt7 annähert. Benutzer1 hat ein Anzeigegerät3 , welches eine am Kopf befestigte Anzeige sein kann. Objekt7 ist mit einem identifizierenden Marker8 angeordnet. Benutzer1 ist mit einer Kamera, bevorzugt einer Video-Kamera, und einem Zeige-Gerät4 ausgestattet. Steuer-Ausstattung, welche in etwas Abstand von der Ausstattung von Interesse lokalisiert sein kann, ist mit der Ausstattung von Interesse (Objekt7 ) über ein Steuersystem, dezentrales Steuersystem (DSA) oder auf eine andere Art verbunden. Die Steuer-Ausstattung, die entlegen sein kann, umfasst Informations-Anzeigen17 oder Ausleser, und eine oder mehrere Steuer-Schalter oder Steuer-Konsolen14 . - Sich nahe der Ausstattung von Interesse, Objekt
7 , aufhaltend, sieht der Benutzer1 in der Anzeige3 , ein zusammengesetztes Bild9 , welches ein Bild7' eines realen Objekts, ein computergeneriertes graphisches Bild4' des Zeigers und ein oder mehrere computergenerierte Bilder14' der Unterlagen und/oder Graphik-Objekte zur Steuerung, wie einen Bildschirm oder eine Steuer-Konsole17' einschließt. Das computergenerierte Bild für die Ausstattung von Interesse wird abhängig von der Identität des ausgewählten Objekts7 ausgewählt, abgerufen oder anderweitig generiert. Die Anzeige3 ist bevorzugt eine am Kopf Befestigte, wie eine Brille. Die Figur zeigt auch, dass der Benutzer irgendwie mit einem ER-System18 und über ein Daten-Netzwerk10 mit einer Quelle der Unterstützungs-Unterlagen14 verbunden ist. Die Unterlagen können Text einschließen und können im speziellen erweiterte Realitäts-Objekte und andere Graphik-Objekte einschließen. ER-System18 umfasst ein Verfolgungs-System oder ein Sicht-System, um den gegenwärtigen Standpunkt des Benutzers zu bestimmen und Eingaben von einem Ausstattungs-Identifizierenden Marker, wie Marker8 und/oder Zeiger4 ; einem Graphik-Generator, und Oberflächen von vernetzten Unterstützungs-Systemen wie ein LAN, WLAN, DCS, AIP zu handhaben. -
2 ist eine schematische Ansicht, die einen Benutzer1 zeigt, der mit einem Anzeigegerät3 wie Brille, einem Zeiger4 und einem Computer, wie einem tragbaren Computer2 , ausgestattet ist. Der Benutzer nähert sich einem Objekt7 , wie einem Gerät, einer Ausstattung oder System von Interesse, welches mit einem Marker8 angeordnet ist. Der Benutzer hat eine Kamera6 und eine Verfolgungs-Einheit5 , welche in diesem Fall auf Sicht basierend ist. - Der Betreiber
1 geht in der Umgebung umher. Das Verfolgungs-System5 erkennt bekannte Identitäten (ID's) von Geräten, wie Objekt7 , in der Umgebung. In dem Fall, wo das Verfolgungs-System wie in2 auf Sicht basierend ist, trägt der Betreiber eine Kamera6 , die an seinem Kopf angebracht ist. Die Kamera6 nimmt direkt ein Video von der realen Welt auf. Die Kamera6 kann auch zur erweiterten Realitäts-Visualisierung der virtuellen Steuer-Konsole benutz werden, für den Fall, dass das „Video- Durchsicht"-Verfahren („video see through") benutzt wird. - Die virtuellen Graphiken zeigen in
1 schematisch9 , wie Beispiele17 ,4' ,14' , eine virtuelle Steuer-Konsole14' einschließend, entweder als „optische Durchsicht" oder „Video-Durchsicht" auf der tragbaren Anzeige3 visualisiert werden, welche bevorzugt tragbare Brille oder eine am Kopf befestigte Anzeige oder eine projizierte Frontscheiben-Anzeige ist. Ebenso wie eine normale optische Anzeige, ist es auch möglich direkte Projektion von virtueller/computergenerierter Information in das Auge zu benutzen, eine „virtuelle Netzhaut-Anzeige" ist eine alternative, wenn die zusätzliche Komplexität gerechtfertigt ist. Der Benutzer hat ein Zeige-Gerät4 (welches auf der Anzeige als ein Bild4' gezeigt ist), um mit den virtuellen Graphiken und im speziellen mit der virtuellen Steuer-Konsole14' zu interagieren. Das Zeige-Gerät4 kann ein integriertes Verfolgungs- System, z. B. GPS-überwacht, kreisel-basierend oder ultraschall-basierend, haben, um es zu befähigen auf Posen in der Umgebung zu zeigen, Posen in der Umgebung zu verfolgen, identifizieren der Positions-Koordinaten und Orientierung des Zeigers und, um mit dem System mittels dieser Positions-Information zu interagieren. Alternativ oder ebenfalls, kann die Kamera6 benutzt werden, um als auf Sicht basierende Verfolgungs-Information für die Interaktion und Zeige-Gerät4 bereitzustehen. -
3 zeigt ein Diagramm, das ein Ablaufschema für ein Verfahren gemäß einer Ausführungsform der Erfindung umfasst. Es zeigt ein Verfolgungs-System20 , eine Anwendungs-Einheit21 und Speicher-Einheit22 und eine Graphik-(ER)-Einheit23 . Der Betreiber benutzt ein interagierendes Gerät, wie den Zeiger4 aus1 ,2 , welcher durch ein Verfolgungs-Gerät verfolgt werden kann, welches ein, in den Zeiger, integriertes System, ein auf Sicht basierendes System5 , wie in2 gezeigt, oder ein anderes Verfolgungs-System sein kann. - Jede Ausstattung, Gerät, Instrument und System in der Installations-Umgebung, das der Benutzer benutzen wird, um zu überwachen und damit, wie durch Objekt
7 repräsentiert, zu interagieren, hat an ihnen eine Art von bekannter ID8 begreifend angebracht. Die ID's werden gespeichert in oder andererseits durch das Steuer-System abrufbar, so dass ein Verfolgungs-System, wie Verfolgungs-System5 , das spezifische Gerät/System identifizieren kann, wenn es untersucht wird. Das Verfolgungs-System5 bestimmt die Position und Orientierung des Objekts, d.h. einer Ausstattung oder eines Geräts oder Systems, das teilweise auf dem bekannten ID8 jedes Ding basiert. Die ID8 ist auch angepasst an eine oder mehrere übereinstimmende computergenerierte Information in Form von virtuellen Graphikansichten wie17' ,14' , die auf dem Speichermittel22 gespeichert sind. Die virtuellen Graphiken können als graphische Teile oder Komponenten oder graphische Grundelemente gespeichert werden, welche, wenn sie zusammengesetzt, gruppiert oder generiert sind, ein virtuelles Bild wie17' ,14' formen. Alternativ zum Benutzer eines Verfolgungs-Systems, wie durch das Verfolgungs-System5 beispielhaft erläutert, können der Zeiger und das Interaktions-Gerät (4 ) ein integriertes System haben, das zum identifizieren spezifischer Ausstattung, Geräte und Systeme benutzt werden kann. Eine andere Lösung ist, die Positions-Verfolgung des Benutzers und seines Kopfes zu benutzen, um zu identifizieren was er ansieht. Ohne Bezug zum benutzten System zum Verfolgen der Position, wird dann eine absolute Position hinsichtlich Koordinaten gegen gespeicherte Positionen von Ausstattung, Geräten und Systemen in dem Steuer-System oder in einem assoziierten Computersystem abgebildet. - Das System hat mindestens einen vordefinierten und konfigurierten Satz von computergenerierter Information gespeichert, die die spezifische Ausstattung betrifft. Dies kann irgendeine graphische Ansicht oder Oberfläche/Bildschirm
14' , Text-Anweisungen für spezifische betreffende Ausstattung umfassen. Solche graphischen Ansichten, Text und/oder Oberflächen werden gegen die bekannte ID abgebildet, die an der spezifischen Ausstattung/Gerät und/oder einer einzigartigen Position des Benutzers in der verfahrenstechnischen Anlage angebracht ist. - Ein tragbarer Computer
2 , wie in2 gezeigt, oder ein stationärer Computer, kann die notwendige Software beinhalten, um die erweiterte Realitäts-Steuer-Konsole14' zu generieren, die, in dem Fall, dass die Video- Durchsicht benutzt wird, auf der Ausgabe von einem Verfolgungs-System wie dem Verfolgungs-System5 und dem Video-Datenstrom der Kamera6 basiert. Der tragbare Computer2 beinhaltet auch die Software, die für das vollführen das erwünschte Überwachen, Inspizieren, Steuern usw. notwendig ist, Aufgabe oder Prozess sollen der Betreiber oder andere Benutzer ausführen, z. B. wechselseitige Kommunikation mit Ausstattung, Geräten, Instrumenten oder Systemen, Echtzeit-Daten-Verwaltung und Visualisierung. Des Weiteren kann der tragbare Computer2 die virtuellen Graphiken generieren, welche die ER-Oberfläche für die kombinierte Ansicht9 1 bereitstellen werden. Der tragbare Computer2 kann zusätzlich ein Speicher-Medium umfassen, um vorher gesicherte Information zu sichern und zu aufrufen. Alternativ kann das Speicher-Medium auf einem Server lokalisiert sein, so dass das tragbare Computer-System teilweise als eine Kunden/Server-Lösung mit dem tragbaren Computer2 , der die Kunden-Funktion oder -Funktionen aufweist, funktioniert. - Kommunikation der Information von der Interaktion und von dem Zeige-Gerät
4 mit dem tragbaren Computer2 wird durch eine Kabel- oder Kabellos-Verbindung bewerkstelligt. Abhängig von der Art des Verfolgungs-Systems, kann die Pose des interagierenden Zeige-Geräts4 von dem Zeige-Gerät selbst kommen, oder von einem externen Verfolgungs-System oder z. B. von einem System, wie das Verfolgungs-System5 . Kommunikation mit der Verfolgungs-Funktion ist durch ein Kabel- oder Kabellos-Kommunikations-Medium vollführt, welches mittels optischen, IR usw. oder akustischen z. B. auf Ultraschall basierenden Gerätes bewerkstelligt werden kann. - Gemäß eines anderen Aspekts der Erfindung wird ein System zur Generierung und Bereitstellung virtueller Information beschrieben, die ausgewählte Prozess Ausstattung und/oder Geräte in verfahrenstechnischen Anlagen oder anderen industriellen oder kommerziellen Installationen direkt betreffen. Das System umfasst:
- – ein oder mehrere erweiterte Realitäts-Systeme wiederum umfassend:
- – ein in der Hand getragenes interagierendes Zeige-Gerät und ein integriertes oder externes Verfolgungs-System zur Bestimmung von Zeiger-Position und Orientierung in Bezug auf ein Welt-Koordinaten-System,
- – ein oder mehrere tragbare Anzeigegeräte (Brille, am Kopf befestigte Anzeige oder projizierte Frontscheiben-Anzeige) zur Visualisierung von erweiterten Realitäts-Bildern, die über eine oder mehrere Ansichten der realen Welt gelegt sind. In dem Fall, dass Video- Durchsicht für erweiterte Realitäts-Visualisierung benutzt wird, kann das Anzeigegerät des Weiteren eine Kamera zum Erfassen eines Datenstroms von Bildern der Umgebung umfassen, die befestigt ist auf oder integriert ist mit dem Anzeigegerät; die Kamera kann in einer festen Position relativ zu dem Anzeigegerät, z. B. an dem Anzeigegerät befestigt, befestigt werden und das Anzeigegerät kann dann entlang der Kamera-Blickrichtung und in der Bild-Ebene der Kamera positioniert werden,
- – einzigartige IDs werden zum markieren von Objekten von Interesse bereitgestellt, das sind die Ausstattung, Geräte und Systeme, die gegenwärtig in der Umgebung sind.
- Das System kann auch umfassen:
- – ein Erkennungs-System zur Erkennung der einzigartigen ID's und ein Verfolgungs-System zur Bestimmung der Objekt-Position und Orientierung in Bezug auf ein Welt-Koordinaten-System, welches Verfolgungs-System das gleiche System sein kann, das benutzt wird zum Verfolgen der Position und Orientierung des Zeigers; und/oder
- – ein
System zur Generierung einer erweiterten Realitäts-Darstellung
14' ,17' der computergenerierten graphischen Information, im voraus generiert und darübergelegt, zum Darüberlegen über ein reales Welt-Bild, und/oder - – ein Kommunikations-System, das Stimmen-Kommunikation und Transfer der Ganzen oder Teile der erweiterten Realitäts-Oberfläche und/oder zusätzliche virtuelle Information, unterstützt.
- Das System kann auf verschiedene Arten konfiguriert werden. Die erweiterte Realität kann angewendet werden, auf mindestens zweit verschiedenen Arten visualisiert: Video-Durchsicht, optische Durchsicht.
- Video-Durchscheinen benutzt eine Kamera, um einen direkten Video-Datenstrom der Umgebung oder zumindest eine Reihe von Standbildern, übereinstimmend mit der Benutzer-Ansicht der Welt einzufangen. Das System kombiniert computergenerierte Graphiken
14' .4' ,17' mit dem direkten Video-Datenstrom und projiziert das kombiniert erweiterten Realitäts-Video und Bild7' vom realen Objekt7 auf das Anzeigegerät. Der Benutzer wird das Video mit virtueller Information darübergelegt sehen, als wenn er/sie die reale Welt sieht. - In dem Fall einer optischen Durchsicht-Anordnung, werden die computergenerierten Graphiken direkt auf dem Anzeigegerät registriert und folgen der Benutzeransicht der realen Welt. Die virtuellen Graphiken werden mit der realen Welt, ohne einschließen eines Videos der realen Welt, kombiniert oder überlagert. Die Video-Durchsicht-Anordnung tendiert dazu weniger anspruchsvoll bzgl. der Bildwechselfrequenz zu sein.
- Wie oben angeführt zeigt
2 einen Benutzer1 mit einem Anzeigegerät3 , wie einer Brille, einem Zeiger4 und einem Computer, wie einem tragbaren Computer2 . Der Benutzer nähert sich einem Objekt7 von Interesse, wie einem Gerät, eine Ausstattung oder ein System, das mit einem Marker8 angeordnet ist. Der Benutzer hat eine Kamera6 und eine Verfolgungs-Einheit8 . - Es werden grundsätzlich mindestens zwei Verfolgungs-Funktionen zur Generierung der Visualisierung der Prozess/Gerät-Information und des Interaktions-System benötigt. Dies ist zusätzlich zu einem Erkennungs-System zur Erkennung identifizierender Marker angefordert, die die Geräte/Prozesse in der Umgebung markieren, welche Marker dann mit jeder ID zusammenpassen.
- Die erste Verfolgungs-Funktion macht ausfindig und bestimmt die Position und Orientierung des interagierenden Zeige-Geräts
4 und/oder der Position des Außendienst- Betreibers1 , wobei die zweite Verfolgungs-Funktion eine ID für eine Ausstattung, ein Gerät oder System in der verfahrenstechnischen Anlage ausfindig macht und bestimmt. Diese Verfolgungs-Funktionen können in einem einzelnen Verfolgungs-System, benutzt zur Verfolgung Beider oder als eine Mehrheit von Verfolgungs-Systemen, umfasst sein. Ein auf Sicht basierendes Verfolgungs-System schließt eine Kamera ein, die daran befestigt ist oder darin integriert ist, das Anzeigegerät ist eine Lösung, welche mit ER-Visualisierung kombiniert werden kann, die auf Video-Durchsicht basiert. - Position und Orientierung des Zeige- und interagierenden Geräts kann in einigen verschiedenen Arten bestimmt werden. Es kann z. B. ein Verfolgungs-System geben, das auf Klang, z. B. Ultraschall Verfolgungs-Systeme basiert, magnetische Verfolgungs-Systeme, optische Systeme und/oder Verfolgungs-Systeme, die auf inertial navigation mittels Beschleunigungsmesser und/oder Kreisel basieren. Ein Verfolgungs-System kann auch auf einer Erfassung einer physischen Position usw. von mechanischen Armen basieren; und es gibt auf Sicht basierende und optische Systeme und Hybrid-Systeme, die einige der vorher erwähnten Technologien kombinieren. Für einige der Verfolgungs-Systeme, kann das interagierende Zeige-Gerät
4 integrierte Sensoren zum Bestimmen der Positionen oder Orientierungen aufweisen. Solche Sensoren können z. B. Kreisel, inertiale Sensoren und/oder Beschleunigungsmesser sein. Der Bezugspunkt, oder origo des Welt-Koordinaten-Systems ist bevorzugt definiert, um mit der Position des Anzeigegeräts3 Übereinzustimmen. Wenn die Kamera6 bevorzugt befestigt wird auf oder integriert wird mit einem Anzeigegerät3 , ist die relative Position der Kamera zu dem Anzeigegerät bekannt. Daher kann das System die Posen des interagierenden Zeige-Geräts4 in Bezug auf der Kamera/Anzeigegerät-System bestimmen. Als eine alternative zu einem Zeiger kann eine Hand oder ein Finger des Betreibers benutzt werden, besonders falls sie/er auf irgendeine Art, z. B. durch einen Ring oder ein Armband oder ähnlichem, identifiziert oder markiert ist. Die Hand, der Arm oder Finger usw. können dann verfolgt werden, wie es der Zeiger geworden wäre. - Das System bedarf der Erkennung vordefinierter ID's in der Umgebung. Diese ID's sind angebracht, um jede Instanz der Ausstattung, Geräts, Instruments und Systems, mit welchem der Betreiber interagieren können wollte, zu identifizieren. Eine andere Lösung für Positionsbasierende Identifizierung der ID für eine Maschine/Prozess ist das Bestimmen der Position des Außendienst-Betreibers und seinem/ihrem Kopf und das Vergleichen dieser Position mit vordefinierten Positionen von relevanter Ausstattung und Geräten innerhalb der verfahrenstechnischen Anlage. In diesem Fall kann das Verfolgungs-System nur zum Verfolgen des interagierenden Zeige-Geräts des Außendienst-Betreibers angeordnet werden. Alternativ zu den oben beschriebenen Verfolgungs-Systemen, zur Bestimmung der Position von einer Maschine/Prozess-ID in der Umgebung, können verschiedene Marker-Technologien zur Erkennung, wie Funktransponder, Strichcodes, Ultraschall, Funksignale, optische Signale und/oder GPS, benutzt werden.
- Wie oben beschrieben trägt der Ingenieur, Techniker oder Außendienst-Betreiber entweder eine am Kopf befestigte Anzeige
3 oder eine Brille (HMD; Head Mounted Display; am Kopf angebrachte Anzeige) oder führt oder trägt andererseits eine mobile Anzeige, welche ein Tablet-PC, ein Handprogrammiergerät oder ein PDA sein kann. Solch eine Anzeige funktioniert wie die „Ansicht" der erweiterten Welt. - Die Anwendungs-Einheit
21 beinhaltet die benötigte Software, um den erwünschten Prozess oder Aufgabe, z. B. integrierte Echtzeit-Daten mit erkanntem Gerät/System, zu vollführen und Aktionen, die auf Eingabe des interagierenden Zeige-Geräts basieren, zu vollführen. Das Verfolgungs-System wird es ermöglichen die Pose des interagierenden Zeige-Geräts4 in 3D ausfindig zu machen und kann auch benutzt werden um das Welt-Koordinaten-System zu spezifizieren. Das interagierende Zeige-Gerät kann auch benutzt werden für zusätzliche Aufgabe, wie eine virtuelle Steuer-Konsole oder andere virtuelle Information von der in der Hand gehaltene ID zu einem spezifischen Gerät/System zu ziehen und neue Positionen in der Umgebung zu lokalisieren, auszuwählen, zu zeigen usw.. Des Weiteren weist die Anwendungs-Einheit Information auf, die die Koordinaten-Systeme betrifft. Daher ist die Anwendungs-Einheit21 von dem/der spezifischen System/Umgebung abhängig. - Der Betreiber benutzt ein interagierendes Zeige-Gerät
4 , welches durch ein Verfolgungs-System20 verfolgt wird, welches mit dem interagierenden Zeige-Gerät integriert werden kann. Der Benutzer benutzt das interagierende Zeige-Gerät4 ,4' zum interagieren mit der virtuellen Steuer-Konsole14' und zum Zeigen4 in der Umgebung. -
4 zeigt eine Anzeige gemäß einer anderen Ausführungsform. Sie zeigt eine erweiterte Realitäts-Anzeige9' , ein Bild7' des Objekts (7 ,1 ) und ein Bild4' des Zeigers (4 1 ). Es zeigt auch ein Bild der Graphik einer Steuer-Konsole14' oder mit dem Bild7' des Objekts überlagerte virtuelle Bildschirm. Die Steuer-Konsole kann aus einem Anzeige-Teil80 bestehen, welches einen Menü-Kernstück-Text83 oder eine Graphik und z. B. online Ablesungen, wie verschiedene Messungen, Sensor-Ausgaben, Temperatur, Druck, Drehzahl, Strom, Spannung, Phasenwinkel usw. zeigen kann. Die Steuer-Konsole kann auch zwei bis vier Steuer-Knöpfe aufweisen, wie Knöpfe85 , welche benutzt werden können, um Dinge oder Kernstücke zu bedienen, die in der Anzeige80 der Steuer-Konsolen14' gezeigt sind. Die Steuer-Konsolen-Anzeige kann bedient werden, durch „drücken" eines Bilds eines Knopfes87 , mit dem Bild4' des Zeigers, dadurch, dass der Betreiber den realen Zeiger im Raum bewegt, was darin resultiert, dass die verfolgenden und graphischen Systeme das virtuelle Zeiger-Bild4' auf der erweiterten Realitäts-Anzeige9' bewegen. Ein Ding auf der Anzeige kann ausgewählt werden83 , und Knöpfe87 usw. können bedient werden, um auf mehr Information usw. zuzugreifen. Andere Auswahlen können gemacht werden, um ein Menü aufzurufen, um von einem Menü andere Dinge wie gespeicherte Daten, Trends, Wartungs-Geschichte, Unterlagen oder Kontakt mit einem Experten auszuwählen. - Andere Steuer-Funktionen können auf der Anzeige
9' abgespielt werden. Dies kann in Form von Bildern oder Symbolen oder Knöpfen sein, um eine Steuer-Funktion direkt auszuführen oder die Anzeige9' auf irgendeine Art zu bedienen. Im Besonderen können Abkürzungs-Symbole, wie91 Menü,93 online Messungen,94 gespeicherte Bedienungs-Daten,96 Trends in Bedienungs-Daten,97 Wartungs-Geschichte,98 Unterlagen oder99 Kontakt mit einem Experten angezeigt werden. Solche andere graphischen Bilder91 –99 , die über die erweiterte Realitäts-Anzeige gelegt sind, können durch Bewegungen des realen Zeigers4 , welcher dann das Bild4' des virtuellen Zeigers antreibt, ausgewählt und aktiviert werden. - Die Graphik-Einheit
23 generiert eine 3D graphische Darstellung der visuellen Information, die in Bezug auf die Benutzer-ID (999) angezeigt wird. Diese Graphik-Einheit weist eine Spezifizierung der 3D graphischen Grundelemente auf, um visualisiert zu werden. Die Graphik-Einheit23 empfängt, basierend auf Benutzer-Eingabe und Objekt-ID und/oder Benutzer-Position und Orientierung, Information von der Anwendungs-Einheit21 bzgl. der virtuellen graphischen Information, die angezeigt wird. Alle graphischen Grundelement-Positionen sind in Bezug auf die Welt-Koordinaten-Rahmen bevorzugt spezifiziert. Für die Programmierungs-Anwendung des Roboters relevante visuelle Information können betreiberspezifische Wegpunkte, der eigentliche Roboter-Pfad, aufgabenspezifische Information usw. sein. Das Programmieren von Roboter-Pfaden, ein benutzen von Wegpunkten, ist beschrieben in einer veröffentlichten PCT-Anwendung WO 03/99526 A1 mit dem Titel „Ein Verfahren und ein System zur Programmierung eines industriellen Roboters", welches Dokument hierbei im Ganzen in dieser Spezifizierung mittels dieser Bezugnahme miteinbezogen ist. Die graphischen Darstellungen in den graphischen Modulen werden an die Registrierungs-Einheit25 übermittelt. - Die registrierende Einheit
25 oder Registrierungs-Einheit kombiniert die virtuellen Graphiken von der Graphik-Einheit23 mit der realen Welt-Ansicht. Für den Fall, dass das Video-Durchsicht-Verfahren benutzt wird, wird ein direktes Video des realen Welt-Bilds von der Kamera-System-Einheit26 erfasst und mit der graphischen Darstellung von der Graphik-Einheit23 kombiniert. Die registrierende Einheit25 benutzt die Pose-Daten von der ID-Verfolgungs-System-Einheit24 , um die realen Welt-Bilder über die computergenerierten Graphiken in eine richtige Position, relativ zu den realen Welt-Bildern, zu legen. Mit der richtig bewerkstelligten Registrierung werden die computergenerierten Graphiken an der realen Welt-Szene virtuell „angebracht". - Im Fall der Video-Durchsicht, produziert eine Kamera-Einheit
6 , die an das Anzeigegerät3 ,27 angebracht ist, reale Welt-Bilder. Die Pose der Kamera und der Anzeige wird gemäß des Welt-Koordinaten-Rahmens bestimmt und die Pose wird von der registrierenden Einheit25 benutzt, um die realen Welt-Szene über die computergenerierten Graphiken von dem Graphik-Modul23 zu legen. Die kombinierten Bilden werden auf dem Anzeigegerät3 ,27 angezeigt. - Alternativ überlagert die registrierende Einheit
25 die reale Welt mit den computergenerierten Graphiken in einer optischen Durchsicht-Anordnung. - Eine Speicher-Einheit
22 , ein Daten Server oder andere Speicher-Mittel, ermöglichen das Sichern und Laden von anwendungsbezogener Information, z. B. anwendungsbezogene Information, graphische Oberflächen für verschiedene Geräte/Systeme und System-Konfigurations-Parameter, z. B. Orts- und/oder Welt-Koordinaten-Rahmen. - Gemäß einer zweiten bevorzugten Ausführungsform der vorliegenden Erfindung, nähert sich der Betreiber oder ein Benutzer
1 einer spezifische Ausstattung/Gerät/Prozess an dem er interessiert ist, um weitere Information zu bekommen oder um mit Objekt7 zu interagieren. Das System bestimmt dann automatisch die Position des Benutzers innerhalb der verfahrenstechnischen Anlage, was entweder durch - – erkennen vor oder neben welcher Ausstattung oder Gerät der Benutzer steht; oder durch
- – erkennen
der Position des Benutzers und seines Kopfes in Bezug zu der Fabrik
und der vordefinierten Positionen der Ausstattung, Geräte und Systeme
innerhalb der Fabrik, bewerkstelligt werden kann. Ein Koordinaten-System
ist spezifiziert für graphische
Synchronisierung, manchmal beschrieben als Registrierung der virtuellen
Graphiken mit dem Bild der realen Welt. In dem Fall, wo einzigartige
Marker
8 an Ausstattung, Geräte, Instrumente und Systeme angebracht werden, existiert für jedes Gerät ein relatives und lokalen Koordinaten-System. Virtuelle Graphiken können in Bezug zu diesem lokalen Koordinaten-System synchronisiert werden. In dem Fall, wo die absolute Position des Außendienst-Betreibers und seines Kopfes benutzt wird, wird ein absolutes Koordinaten-System, ein Welt-Koordinaten-System, definiert und die virtuellen Graphiken in Bezug zu dem Welt-Koordinaten-System synchronisiert. - Das System zeigt vordefinierte Ansichten, ähnlich zu denen in
9 in1 gezeigt, an, die aus ein oder mehreren computergenerierten Graphiken14' ,17' ,4' bestehen, die projiziert oder anderweitig direkt überlagert sind mit einem Bild der spezifischen Ausstattung oder Gerät7' . Auf der Anzeige3 sieht der Benutzer die virtuelle Information, die an der Ausstattung, dem Gerät, Instrument oder System angebracht ist. Die virtuelle Information/Graphik kann z. B. Ablesungen wie Echtzeit-Prozess-Parameter, Temperatur, Druck usw. repräsentieren; und/oder Ereignisse, Warnungen und/oder Alarme; die computergenerierten Graphiken können eine virtuelle Steuer-Konsole14' oder einen virtuellen Bildschirm zur Interaktion mit der Ausstattung, Gerät, Instrument oder System anzeigen; kann Unterlagen anzeigen; oder eine Kombination von Dokumenten und der oberen Graphiken. - Gemäß einer dritten bevorzugten Ausführungsform der vorliegenden Erfindung betreibt der Benutzer das System durch tragen/halten des erweiterten Realitäts-Systems, das eine Anzeige und ein interagierendes Zeige-Gerät einschließt. Video-Durchsicht wird benutzt, um eine ER-Welt auf dem Anzeigegerät zu generieren und vorzulegen. Die Kamera, die mit dem Anzeigegerät integriert ist, wird benutzt, um einen direkten Video-Datenstrom der realen Welt einzufangen. Die Kamera ist in Bezug zu der Anzeige so lokalisiert, dass sie die gleiche Ansicht bereitstellt, die der Benutzer erhalten würde, wenn er durch das Anzeigegerät „hindurchsehen" würde. Der direkte Video-Datenstrom, kombiniert mit computergenerierten Graphiken, wird in Echtzeit auf dem Anzeigegerät vorgelegt. Zusätzliche Funktionalität schließt Kamerazoomen mit Ausgabe der eigentlichen Kamera-Brennweite ein. Dies wird das System befähigen, die computergenerierten Graphiken, während des Zoomens, richtig anzuzeigen. Die Kamera und/oder die Kamera-Brennweiten-Ausgabe kann auch für auf Sicht basierendes Verfolgen benutzt werden, falls auf Sicht basierendes Verfolgen als Verfolgungs-System benutzt wird.
- Das interagierende Zeige-Gerät-Verfolgungs-System verfolgt die Position des Zeige-Geräts, in Bezug zu dem lokalen oder Welt-Koordinaten-System. Die Position des Zeige-Geräts des Betreibers wird z. B. zum Rendern computergenerierter Graphiken auf einem projizierte Frontscheiben-Anzeigegerät oder auf in der Hand gehaltenem Anzeigegerät und zum Erkennen von Interaktion, Auswahl oder Zeigen auf die virtuelle Graphiken und besonders der virtuellen Graphiken, die eine virtuelle Steuer-Konsole
14' oder andere Steuer-Funktionen repräsentieren, benutzt. - Der Benutzer vollführt den erwünschten Prozess, z. B. Information zu überwachen, um durch verschiedene virtuelle Ansichten zu navigieren und/oder mit der virtuellen Steuer-Konsole zu interagieren. Während der Ausführung der spezifischen Aufgabe wird prozessbezogene Information mittels der computergenerierten 3D Graphiken direkt in der Ausstattung, dem Gerät, Instrument oder System generiert und visualisiert. Die Graphiken werden von der integrierten Kamera über die reale Welt-Darstellung gelegt. Wenn der Benutzer sich umherbewegt oder seinen Kopf bewegt, werden die virtuellen Graphiken generiert und/oder angepasst, sodass sie am gleichen Ort auf der spezifischen Ausstattung, Gerät, Instrument oder System positioniert zu sein scheinen, obgleich der Standpunkt des kombinierten Objekts und der Graphiken sich geändert haben kann.
- Zusätzlich zum Anzeigen virtueller Information, direkt bezogen auf eine spezifische Ausstattung und/oder Gerät zur Überwachung von, und Interaktion mit, der spezifischen Ausstattung oder Gerät und/oder dem Steuer-System, kommunizieren in einer bevorzugten Ausführungsform, die durch das System und Verfahren bereitgestellten Anzeigen mit anderen Benutzern. Die Anzeigen werden geteilt, so dass der Benutzer auch mit lokalen oder entlegen lokalisierten Experten interagieren kann. Benutzer-Funktionen werden z. B. abhängig von der ID der Person oder angeschlossenen Personen erweitert, so dass die anderen Benutzer oder entlegene Experten virtuelle Anmerkungen oder andere graphische Geräte zu der Ansicht, die durch den Betreiber in Anzeige
3 zu sehen ist, anbringen können. - Die virtuelle Information schließt, wie in der Benutzer-Ansicht
9 der1 , ein graphisches Bild4' des Zeigers4 ein. Dieser Zeiger kann über irgendeinem Teil der Fabrik oder des Prozesses, abhängig von dem gegenwärtigen Standort des Betreibers, angezeigt werden oder darübergelegt werden. Durch untersuchen einer relativen Position des graphischen Bilds4' des Zeigers, der über die Schemata der Fabrik, die Schemata des Prozesses, Fabrik-Aufbau, Steuer-System-Ansicht usw. gelegt wurde und untersuchen eines erwünschten ausgewählten Geräts/Prozesses, irgendwo in der Fabrik/dem Prozess, kann der Benutzer das graphische Bild4' des Zeigers als einen Orts-Führer oder Routen-Führer durch den Fabrik-Prozess zu einem spezifischen Ort in der Fabrik benutzen. Dies bedeutet, dass der Benutzer das System benutzten kann, um seinen Weg zu einem Gerät/Objekt von Interesse zu lokalisieren und zu finden. Andere Variationen der Grundsätze der Erfindung, wie hier eröffnet, können geübt werden. Ein oder Beide, Zeiger4 und Kamera6 , können einen kabellosen Sender und kabellosen Empfänger umfassen oder können z. B. kabellosen Funk-Sende-Empfänger (Sender-Empfänger) sein. Kabellose Kommunikation kann ausgeführt werden, durch benutzen irgendeines passenden Protokolls. Kurzstrecken-Funk-Kommunikation ist die bevorzugte Technologie, die ein Protokoll benutzt, das mit Standards kompatibel ist, die durch die „Bluetooth Spezial Interest Group" (SIG), irgendeine Variation von IEEE-802.11, WiFi, Ultra-Weit-Band (UWB), ZigBee oder IEEE-802.15.4, IEEE-802.13 oder äquivalente oder ähnliche, thematisiert werden. - Generell funktioniert eine Funk-Technologie wie eine Funk-Kommunikations-Techniken vom Stand der Technik, z. B. Frequenzsprung, Spreiz-Spektrum, Ultra-Breitband usw., die irgendein passendes Frequenzband, wie das 2.4 GHz- oder 5 GHz-Band oder höher, benutzen, mit signifikanten Interferenz-Unterdrückungs-Mitteln durch z. B. Spreiz-Spektrum Technologie, die bevorzugte Art von kabelloser Kommunikation ist Frequenzsprung usw.. Ein breites Spektrum kabelloses Protokoll in welchem jedes oder irgendein Datenpaket bei anderen Frequenzen z. B. eines breiten Spektrums ca. 7 mal pro ms wieder versendet werden kann, kann benutzt werden, wie in einem Protokoll, das, entwickelt von ABB, kabellose Oberfläche für Sensoren und Aktuatoren (Wireless interface for sensors and actuators, Wisa) genannt wird. Jedoch kann eine oder mehr kabellose Kommunikationen alternativ sein oder auch, durch Benutzung von Infrarot-Mittel (IR) und Protokolle wie IrDA, IrCOMM oder ähnliche, ausgeführt werden. Kabellose Kommunikation kann auch durch Benutzung von Klang- oder Ultraschall-Signalgebern ausgeführt werden.
- Die Verfahren und das System, das in Bezug auf Ausführungsformen der vorliegenden Erfindung erwähnt wurde, kann für Betreibungen, wie Automobilzusammenbau und Herstellungsprozessen, die in der Automobilherstellung benutzt werden, angewendet werden. Ein Roboter oder eine Automatisierungsanwendung, die einen Roboter einschließt, kann z. B. programmiert werden, um irgendeinen der Folgenden auszuführen: Schweißen, Löten, elektrisches Löten, Nietverbinden, Putzschleifen, Lackieren, Sprühlackieren, elektrostatisches Pulveraufspritzen, Kleben, Betreibungsvollführung in Bezug zu metallverarbeitenden Prozessen wie Stranggiesen, Giesen, Druckgiesen und Produktionsverfahren für andere Materialien wie Plastikspritzblasen, Verdichtung und/oder Reaktionsguss oder Extrusion. Eine Roboter-Anwendung kann programmiert werden, um andere Betreibungen auszuführen, die so etwas wie Abweisblech, Biegeblech und/oder Walzenblech einschließen. Die Roboter-Anwendung kann eine Mehrheit von Werkzeugen umfassen, beides sind spezialisierte Werkzeuge für schweißen, lackieren usw. als auch andere mehr generelle Geräte, Zangen, Greifer, Manipulatoren usw., die bedienartigen Aufgaben wie Halten, Platzieren, Nehmen und Platzieren und sogar Verpacken von Komponenten oder Subkomponenten, in einen Behälter, ausführen.
- Ein oder mehr Mikroprozessoren (oder Prozessoren oder Computer) umfassen eine zentrale Verarbeitungs-Einheit CPU, die die Schritte der Verfahren gemäß einem oder mehrerer Aspekte der Erfindungs-Vollführung. Dies wird mit der Hilfe eines oder mehrerer Computer-Programme vollführt, welche zumindest teilweises in Speicher gespeichert werden, der für einen oder mehrere Prozessoren zugänglich ist. Der oder jeder Prozessor kann zumindest lokalisiert sein in oder angeordnet verbunden werden mit, dem Computer oder tragbaren Computer
2 . Es soll verstanden werden, dass Computer-Programme, die Verfahren gemäß der Erfindung ausführen, auch auf einen oder mehr generellen Zweck gelaufen werden können industriellen Mikroprozessoren oder Computer oder ein oder mehrere spezielle adaptierte Computer oder Prozessoren, FPGAs (Außendienst- programmierbare gate arrays) oder ASICs (Anwendungs spezifische integrierte Schaltungen) oder andere Geräte wie einfache programmierbare logische Geräte (SPLDs), komplexe programmierbare logische Geräte (CPLDs), außendienst-programmierbare System-Chips (FPSCs). Die beschriebenen Computer-Programme können auch teilweises als eine dezentralisierte Anwendung angeordnet sein, die in der Lage ist auf einigen verschiedenen Computern oder Computer-Systemen zu mehr oder wendiger der gleichen Zeit zu laufen. - Ein Teil des Programms kann in einem Prozessor wie oben gespeichert werden, aber auch in einem ROM, RAM, PROM, EPROM oder EEPROM-Chip oder ähnlichen Speicher-Mitteln. Das Programm kann zum Teil oder im ganzen auch lokal (oder zentral) gespeichert werden, auf oder in andere passende computer-lesbare Medien, wie einer Magnetplatte, CD-ROM oder DVD-Scheibe, Festplatte, magnetooptischen Speicher-Mitteln, in permanenten Speicher, in Flash-Speicher, als Firmware oder gespeichert auf einen Daten Server. Andere bekannte und passende Medien schießen entfernbare Speicher-Medien wie Sony-Speicher-Stick (TM) und andere entfernbare Flash-Speicher ein, die in digitalen Kameras usw. benutzt werden, Telefonen oder entfernbare Festplatten-Laufwerk usw. können auch benutzt werden. Das Programm kann auch teilweises von einem Daten-Netzwerk
10 versorgt werden, welches teilweises oder temporär ein öffentliches Netzwerk, wie das Internet, umfassen kann. - Es sollte angemerkt werden, dass, während die oberen Beschreibung beispielhaft gezeigte Ausführungsformen der Erfindung sind, es einige Variationen und Modifikationen gibt, welche zu der eröffneten Lösung ohne Abweichung von dem Bereich der vorliegenden Erfindung, wie in den angehängten Ansprüchen definiert, gemacht werden können.
Claims (43)
- Verfahren zum Generieren einer Mensch-Maschine-Benutzeroberfläche für einen Benutzer zum Überwachen oder Kontrollieren eines industriellen oder kommerziellen Geräts oder Prozesses, gekennzeichnet durch – erhalten von Information einer Identität des industriellen Geräts (
7 ) oder Prozesses oder einer Ausstattung von Interesse, – übereinstimmen dieses industriellen Geräts (7 ) mit Kontroll-System-Daten, – aufrufen wenigstens eines gespeicherten virtuellen Bilds (14' ,17' ), abhängig von der Identität dieses industriellen Geräts, – kombinieren des wenigstens einen gespeicherten virtuellen Bilds zusammen mit einem Bild (7' ) eines realen Objekts (7 ), Anzeigen der Kombination auf einer Anzeige (3 ) anzeigend und – bereitstellen eines virtuellen Kontroll- bzw. Steuer-MMO-Mittels (14' ) einem Benutzer zum Überwachen und/oder Kontrollieren des industriellen Geräts. - Verfahren gemäß Anspruch 1, gekennzeichnet durch Auswählen des industriellen Geräts mittels einer Bewegung oder Führen eines Zeigers (
4 ) und verfolgen der Position des Zeigers im Raum. - Verfahren gemäß Anspruch 2, gekennzeichnet durch Auswählen dieses industriellen Geräts mittels einer Bewegung oder Führen des Zeigers (
4 ) im Sichtfeld einer Kamera (6 ) und Fotografieren der Position und/oder Bewegung des Zeigers. - Verfahren gemäß Anspruch 3, gekennzeichnet durch Auswählen eines Teils des industriellen Geräts oder mindestens eines gespeicherten virtuellen Bilds mittels einer Bewegung oder Führen eines Zeigers (
4 ) und verfolgen der Position des Zeigers, um ein computergeneriertes Bild (4' ) des auf der Anzeige gezeigten Zeigers zu bewegen oder zu bedienen. - Verfahren gemäß Anspruch 1 oder 4, gekennzeichnet durch Aufrufen der Status-Information (
17' ) oder Zustands-Information für einen Teils dieses industriellen Geräts oder Prozesses, abhängig von der Bedienung durch den Benutzer des virtuellen Kontroll- bzw. Steuer-MMO-Mittels (14' ). - Verfahren gemäß Anspruch 1, 5, gekennzeichnet durch generieren einer Kontroll-Aktion für einen Teil dieses industriellen Geräts oder eines Prozesses oder einer Ausstattung, in Abhängigkeit von der Bedienung durch den Benutzer des virtuellen Kontroll- bzw. Steuer-MMO-Mittels (
14' ). - Verfahren gemäß Anspruch 1, 5, gekennzeichnet durch Erfassen einer Position des Kopfes des Benutzers (
1 ) oder eines anderen Betreibers und Berechnen einer Position und Orientierung und/oder einer realen Welt-Koordinaten-Position. - Verfahren gemäß Anspruch 2, gekennzeichnet durch Berechnen einer Position und Orientierung und/oder einer realen Welt-Koordinaten-Position dieses industriellen Geräts mittels der Bild-Ausgabe von mindestens einer Kamera (
6 ). - Verfahren gemäß Anspruch 8, gekennzeichnet durch Berechnen einer Position und Orientierung und/oder einer realen Welt-Koordinaten-Position mittels einer Brennweiten-Ausgabe von mindestens einer Kamera.
- Verfahren gemäß Anspruch 2, gekennzeichnet durch Auswählen dieses industriellen Geräts mittels einer Bewegung oder Führen eines Zeigers (
4 ) und Verfolgen der Position des Zeigers im Raum, Benutzen eine Technologie basierend auf irgendeinem von der Liste aus Ultraschall, sichtbares Licht, Infrarot-Licht, ein GPS System, eine mechanische Verknüpfung. - Verfahren gemäß Anspruch 1, gekennzeichnet durch Übereinstimmen der Identität dieses industriellen Geräts oder Prozesses mit einem physischen Standort des Geräts oder Prozesses oder mit einem Standort, eingebettet als eine Software-Dateneinheit in einem Kontroll-System für das Gerät oder den Prozess.
- Verfahren gemäß Anspruch 8, gekennzeichnet durch teilweises Übereinstimmen der Identität dieses industriellen Geräts oder Prozesses mit einem bekannten Bild dieses industriellen Geräts oder Prozesses.
- Verfahren gemäß Anspruch 8, gekennzeichnet durch Erfassen eines Signals, Kennzeichens oder codierten visuellen Mittels und Übereinstimmen des erkannten Kennzeichens mit gespeichertem Daten-Standort und/oder gespeicherter Koordinate, umfassend dieses industrielle Gerät oder diesen industriellen Prozess.
- Verfahren gemäß Anspruch 8, gekennzeichnet durch Erfassen eines optischen, Radio- und Klang-Signals, abgestrahlt von einem ausgewählten Teil des industriellen Geräts oder Prozesses und Übereinstimmen des erkannten Signals mit gespeichertem Standort und/oder gespeicherten Koordinaten-Daten, umfassend dieses industrielle Gerät oder diesen industriellen Prozess.
- Verfahren gemäß Anspruch 8, gekennzeichnet durch Festlegen einer Pose oder Orientierung und/oder Richtung von Interesse für den Benutzer (
1 ) und die Berechnung des Standorts dieses industriellen Geräts oder Prozesses, um einen physischen Standort in einem oder einen Standort in einer virtuellen Fabrik, zu bilden. - Verfahren gemäß Anspruch 8, gekennzeichnet durch Identifizieren eines dieses ausgewählten industriellen Geräts oder Prozesses, Festlegen einer Position des Benutzers (
1 ), Berechnen des Standorts dieses industriellen Geräts oder Prozesses, relativ zur Position des Benutzers, und Bereitstellen einer graphischen Orientierung eines physischen Standorts, eines Standorts in einer virtuellen Fabrik. - Verfahren gemäß Anspruch 1, gekennzeichnet durch Übereinstimmen eines Markers (
8 ), der sichtbar und dieses industrielle Gerät identifizierend ist, durch Erkennung von einer oder mehreren Nummern und/oder Buchstaben oder codierte Nummern und/oder Buchstaben, mit gespeicherten Daten. - Verfahren gemäß Anspruch 17, gekennzeichnet durch Übereinstimmen eines Markers (
8 ), der sichtbar und dieses industrielle Gerät identifizierend ist, durch Erkennung von einer oder mehreren Nummern und/oder Buchstaben in einem sichtbaren Bild, mit gespeicherten Daten. - Verfahren gemäß Anspruch 1, gekennzeichnet durch Übereinstimmen eines Bilds dieses industriellen Geräts mit gespeicherten Daten und durch Bild-Erkennungs-Mittel dieses industrielle Gerät identifizierend.
- Verfahren gemäß Anspruch 1, gekennzeichnet durch Berechnen einer Position des Zeigers (
4 ), Übereinstimmen der Position mit einem Standort in einer Darstellung der Fabrik und zeigen der graphischen Darstellung des Zeigers (4' ) über die Darstellung der Fabrik gelegt. - Computer-Programm, welches, wenn es in einen Computer oder Prozessor eingelesen wird, den Computer oder Prozessor veranlasst, ein Verfahren gemäß der Schritte von irgendeinem der Ansprüche 1–20 auszuführen.
- Computer-lesbares Medium, umfassend ein Computer-Programm, welches, wenn es in einen Computer oder Prozessor eingelesen wird, den Computer oder Prozessor veranlasst, ein Verfahren gemäß der Schritte von irgendeinem der Ansprüche 1–20 auszuführen.
- Graphische Benutzer-Oberfläche einer Mensch-Maschine-Benutzeroberfläche für einen Benutzer, um einen industrielles/n oder kommerzielles/n Gerät oder Prozess zu überwachen oder zu kontrollieren, gekennzeichnet, durch eine graphische Benutzer-Oberfläche (GBO) (
9' ) zur Anzeige von Daten, die für dieses industrielle Gerät oder den industriellen Prozess relevant sind, wobei diese GBO eine graphische Benutzer-Oberfläche-Anzeige und/oder Bedienungs-Mittel (4' ,14' ,80 ,85 ) für Aktivierungs- Funktionen zur Überwachung und/oder Kontrolle dieses industriellen Geräts umfasst. - Verfahren für eine graphische Benutzer-Oberfläche gemäß Anspruch 22, gekennzeichnet durch graphische Benutzer-Oberfläche-Anzeige und/oder Bedienungs-Mittel (
91 –99 ) zum Aufrufen von Information und/oder Aktivierungs-Funktionen zur Überwachung und/oder Kontrolle dieses industriellen Geräts. - System zum Generieren einer Mensch-Maschine-Benutzeroberfläche für einen Benutzer zu benutzen, um einen industrielles/n oder kommerzielles/n Gerät oder Prozess zu überwachen oder zu kontrollieren, gekennzeichnet durch ein oder mehrere erweiterte Realitäts-Systeme, jedes umfassend: – Mittel zum Erfassen eines identifizierenden Markers (
8 ) und Mittel zum Übereinstimmen des identifizierten Markers mit dem industriellen Gerät oder Prozess, – ein in der Hand getragenes interagierendes Zeige-Gerät (4 ), mit einem verfolgenden System (5 ,6 ,20 ) zum Festlegen seiner Position und Orientierung in Bezug zu einem Welt-Koordinaten-System, – ein graphisches Bedienungs-System (23 ,18 ), zum Generieren mindestens eines gespeicherten virtuellen Bilds (14' ,17' ), angeordnet mit Computer-Programm-Mitteln zum Kontrollieren der Überwachungs- und/oder Kontroll-Funktionen, und – ein tragbares Anzeigegerät (3 ) zur Visualisierung einer erweiterten Realitäts-Anzeige, umfassend mindestens ein gespeichertes virtuelles Bild, über ein reales Welt-Bild (7' ) eines Teils des industriellen Geräts oder Prozesses gelegt. - System gemäß Anspruch 25, gekennzeichnet durch ein verfolgendes System zur Festlegung der Zeiger-Position, umfassend Sensor-Mittel, die in den Zeiger integriert oder eingebaut sind.
- System gemäß Anspruch 25, gekennzeichnet durch ein verfolgendes System zur Festlegung der Zeiger-Position, umfassend Kamera-Mittel (
6 ), die durch den Benutzer betrieben werden. - System gemäß Anspruch 25, gekennzeichnet durch ein verfolgendes System (
20 ) zur Festlegung der Zeiger-Position, umfassend Kamera-Mittel (6 ), die durch den Benutzer betrieben werden, und eine verfolgende Einheit (5 ). - System gemäß Anspruch 25, gekennzeichnet durch ein verfolgendes System (
20 ) zur Festlegung der Zeiger-Position, umfassend eine Technologie basierend auf irgendeinem von der Liste: Ultraschall, sichtbares Licht, Infrarot-Licht, ein GPS System, eine mechanische Verknüpfung. - System gemäß Anspruch 25, gekennzeichnet durch einen oder mehrere Computer-Programm-Mittel zum Festlegen der Position des Zeigers (
4 ) in der realen Welt und Mittel zum Berechnen einer Position auf einer Anzeige für ein Bild (4' ) des realen Welt-Zeigers. - System gemäß Anspruch 25, gekennzeichnet durch ein Anzeige-Gerät (
3 ), angeordnet in einer bekannten Position relativ zu einer Kamera (6 ) oder integriert mit der Kamera. - System gemäß Anspruch 28, gekennzeichnet durch eine Bild-Einfang-System-Einheit (
26 ) oder ein Kamera-System für eine Video-Durchsicht-System-Anordnung. - System gemäß Anspruch 24, gekennzeichnet durch einen identifizierenden Marker (
8 ), relativ zu einem industriellen Gerät oder Prozess angeordnet. - System gemäß Anspruch 33, gekennzeichnet durch einen identifizierenden Marker (
8 ), umfassend irgendeinen von der Liste: numerisches Zeichen, alphanumerisches Zeichen, codiertes alphanumerisches Zeichen, maschinen-lesbares sichtbares Zeichen, Bar-Code, visuelles Zeichen eingebettet in codierte alphanumerische Information. - System gemäß Anspruch 33, gekennzeichnet durch einen identifizierenden Marker (
8 ), umfassend ein signalisierendes Mittel, umfassend irgendeinen von der Liste: IR-Detektor oder Emitter, Ultraschall-Emitter, Sensor für einen Laserstrahl, kabelloser Funk-Sender und -Empfänger. - System gemäß Anspruch 25, gekennzeichnet durch verfolgende Mittel zur Erfassung einer Position des Kopfes des Benutzers (
1 ) oder anderer Betreiber und berechnende Mittel zur Berechnung einer Position und Orientierung und/oder einer realen Welt-Koordinaten-Position des Benutzers. - System gemäß Anspruch 25, gekennzeichnet durch Umfassen einer Anwendungs-Einheit (
21 ) mit Software-Mitteln, integrierend von Echtzeit-Daten und/oder Graphiken mit einem Bild (7' ) des identifizierten industriellen Geräts oder Prozesses. - System gemäß Anspruch 25, gekennzeichnet durch Umfassen von einer Registrierungs-Einheit (
25 ) mit Software und/oder Hardware Mitteln zum Überlagern von Bildern der realen Welt (7' ) mit den computererzeugten Graphiken (14' ,17' ) für eine optisch durchsichtige System-Anordnung. - System gemäß Anspruch 25, gekennzeichnet durch Umfassen von Kommunikations-Mitteln zur stimmunterstützten Kommunikation und/oder von Teilen oder allem einer erweiterten Realitäts-Benutzeroberfläche (
9 ,9' ,80 ) und/oder zusätzlicher virtueller Information (4' ,14' ,17' ,85 ,98 ) für eine Mehrheit an Benutzern. - System gemäß Anspruch 39, gekennzeichnet durch Computer-Programm-Mittel für einen oder mehrere andere angeschlossene Benutzer zum bedienen der erweiterten Realitäts-Anzeige.
- System gemäß Anspruch 39, gekennzeichnet durch Computer-Programm-Mittel für einen oder mehrere andere angeschlossene Benutzer zum Anhängen von Text oder Graphik-Anmerkungen an ein Bild (
4' ,7' ,17' ,14' ), umfasst in der erweiterten Realitäts-Anzeige (9 ,9' ). - System gemäß Anspruch 25, gekennzeichnet durch Umfassen von Computer-Programm-Mittel und Daten-Basis-Mittel (
22 ) zum Handhaben von Information von Unterlagen oder anderen Quellen. - System gemäß Anspruch 25, dadurch gekennzeichnet, dass eine Hand oder ein Finger des Benutzers konfigurierend in dem System angeordnet ist, wie ein interagierendes Zeige-Gerät (
4 ) und/oder mit einem Ring, einer Umhängekette, einem Armband oder einem anderen identifizierenden Objekt angeordnet ist.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US63786804P | 2004-12-22 | 2004-12-22 | |
US60/637,868 | 2004-12-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102005061211A1 true DE102005061211A1 (de) | 2006-09-07 |
DE102005061211B4 DE102005061211B4 (de) | 2023-04-06 |
Family
ID=36848269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102005061211.3A Active DE102005061211B4 (de) | 2004-12-22 | 2005-12-21 | Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche |
Country Status (2)
Country | Link |
---|---|
US (1) | US7787992B2 (de) |
DE (1) | DE102005061211B4 (de) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010025781A1 (de) * | 2010-07-01 | 2012-01-05 | Kuka Laboratories Gmbh | Tragbare Sicherheitseingabeeinrichtung für eine Robotersteuerung |
DE102012002657A1 (de) * | 2012-02-10 | 2013-08-14 | Weber Maschinenbau Gmbh Breidenbach | Vorrichtung mit erweiterter Realität |
DE102012018716A1 (de) * | 2012-09-21 | 2014-03-27 | Robert Bosch Gmbh | Vorrichtung und Verfahren zur Maschinenparametrierung mittels smart devices |
DE102013102635A1 (de) * | 2013-03-14 | 2014-09-18 | Stego-Holding Gmbh | Netzwerksystem und Verfahren zum Aufrufen und Darstellen von Netzwerkinformationen bezüglich einer Mehrzahl von Netzwerkkomponenten |
DE102015209896B3 (de) * | 2015-05-29 | 2016-08-18 | Kuka Roboter Gmbh | Ermittlung der Roboterachswinkel und Auswahl eines Roboters mit Hilfe einer Kamera |
DE102015209899A1 (de) * | 2015-05-29 | 2016-12-01 | Kuka Roboter Gmbh | Auswahl eines Gerätes oder eines Objektes mit Hilfe einer Kamera |
EP2345514A3 (de) * | 2010-01-13 | 2017-07-19 | KUKA Roboter GmbH | Verfahren und Vorrichtung zum Kontrollieren einer Roboterapplikation |
DE102016207009A1 (de) * | 2016-04-26 | 2017-10-26 | Krones Aktiengesellschaft | Bediensystem für eine Maschine der Lebensmittelindustrie, insbesondere der Getränkemittelindustrie |
DE202017102575U1 (de) * | 2017-04-27 | 2018-05-02 | Korsch Ag | System umfassend eine Tablettiermaschine und Augmented Reality-Vorrichtung |
DE102017123940A1 (de) | 2016-10-14 | 2018-05-09 | Blach Verwaltungs GmbH + Co. KG | Augmented-Reality bei Extruderanlage |
DE102017107224A1 (de) * | 2017-04-04 | 2018-10-04 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren und Vorrichtung zur Darstellung einer Bauteildokumentation |
DE102017215114A1 (de) * | 2017-08-30 | 2019-02-28 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Manipulatorsystem und Verfahren zum Steuern eines robotischen Manipulators |
WO2019068435A1 (de) * | 2017-10-06 | 2019-04-11 | Endress+Hauser Process Solutions Ag | Smartwatch und verfahren instandhaltung einer anlage der automatisierungstechnik |
WO2019123187A1 (en) * | 2017-12-20 | 2019-06-27 | Nws Srl | Virtual training method |
DE102018211429A1 (de) * | 2018-07-10 | 2020-01-16 | Robomotion Gmbh | Verfahren zur Diagnose einer technischen Funktionseinheit |
DE102018201711B4 (de) | 2018-02-05 | 2020-07-02 | Vypii GmbH | Anordnung und Verfahren zum Bereitstellen von Informationen bei einer kopftragbaren erweiterte-Realität-Vorrichtung |
DE102011013760B4 (de) | 2011-03-12 | 2022-09-29 | Volkswagen Ag | Verfahren, Vorrichtung und Computerprogrammprodukt zur Informationsvermittlung mittels erweiterter Realität im Zusammenhang mit einem Straßenfahrzeug |
Families Citing this family (197)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8817045B2 (en) * | 2000-11-06 | 2014-08-26 | Nant Holdings Ip, Llc | Interactivity via mobile image recognition |
US20030231189A1 (en) * | 2002-05-31 | 2003-12-18 | Microsoft Corporation | Altering a display on a viewing device based upon a user controlled orientation of the viewing device |
JP4401728B2 (ja) * | 2003-09-30 | 2010-01-20 | キヤノン株式会社 | 複合現実空間画像生成方法及び複合現実感システム |
US8291309B2 (en) | 2003-11-14 | 2012-10-16 | Rockwell Automation Technologies, Inc. | Systems and methods that utilize scalable vector graphics to provide web-based visualization of a device |
US8225226B2 (en) * | 2003-12-31 | 2012-07-17 | Abb Research Ltd. | Virtual control panel |
JP4533087B2 (ja) * | 2004-10-28 | 2010-08-25 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
EP1814101A1 (de) * | 2004-11-19 | 2007-08-01 | Daem Interactive, Sl | Persönliches gerät mit bilderfassungsfunktionen zur anwendung von ressourcen der ergänzten realität und entsprechendes verfahren |
US7796116B2 (en) | 2005-01-12 | 2010-09-14 | Thinkoptics, Inc. | Electronic equipment for handheld vision based absolute pointing system |
US20060178758A1 (en) * | 2005-02-08 | 2006-08-10 | Israel Aircraft Industries Ltd. | Training methods and systems |
US20060262140A1 (en) * | 2005-05-18 | 2006-11-23 | Kujawa Gregory A | Method and apparatus to facilitate visual augmentation of perceived reality |
BRPI0615283A2 (pt) * | 2005-08-29 | 2011-05-17 | Evryx Technologies Inc | interatividade por meio de reconhecimento de imagem móvel |
US7818075B2 (en) * | 2006-05-03 | 2010-10-19 | Data I/O Corporation | Automated programming system employing non-text user interface |
US9323055B2 (en) * | 2006-05-26 | 2016-04-26 | Exelis, Inc. | System and method to display maintenance and operational instructions of an apparatus using augmented reality |
US7920071B2 (en) * | 2006-05-26 | 2011-04-05 | Itt Manufacturing Enterprises, Inc. | Augmented reality-based system and method providing status and control of unmanned vehicles |
US8913003B2 (en) | 2006-07-17 | 2014-12-16 | Thinkoptics, Inc. | Free-space multi-dimensional absolute pointer using a projection marker system |
JP4777182B2 (ja) * | 2006-08-01 | 2011-09-21 | キヤノン株式会社 | 複合現実感提示装置及びその制御方法、プログラム |
US20080030575A1 (en) * | 2006-08-03 | 2008-02-07 | Davies Paul R | System and method including augmentable imagery feature to provide remote support |
WO2008048260A1 (en) * | 2006-10-18 | 2008-04-24 | Yutaka Kanayama | Human-guided mapping method for mobile robot |
US20080218331A1 (en) | 2007-03-08 | 2008-09-11 | Itt Manufacturing Enterprises, Inc. | Augmented reality-based system and method to show the location of personnel and sensors inside occluded structures and provide increased situation awareness |
US9176598B2 (en) | 2007-05-08 | 2015-11-03 | Thinkoptics, Inc. | Free-space multi-dimensional absolute pointer with improved performance |
US20090089682A1 (en) * | 2007-09-27 | 2009-04-02 | Rockwell Automation Technologies, Inc. | Collaborative environment for sharing visualizations of industrial automation data |
US8026933B2 (en) * | 2007-09-27 | 2011-09-27 | Rockwell Automation Technologies, Inc. | Visualization system(s) and method(s) for preserving or augmenting resolution and data associated with zooming or paning in an industrial automation environment |
US7899777B2 (en) * | 2007-09-27 | 2011-03-01 | Rockwell Automation Technologies, Inc. | Web-based visualization mash-ups for industrial automation |
US8677262B2 (en) * | 2007-09-27 | 2014-03-18 | Rockwell Automation Technologies, Inc. | Presentation of industrial automation data as a function of relevance to user |
US20100315416A1 (en) * | 2007-12-10 | 2010-12-16 | Abb Research Ltd. | Computer implemented method and system for remote inspection of an industrial process |
US8485038B2 (en) * | 2007-12-18 | 2013-07-16 | General Electric Company | System and method for augmented reality inspection and data visualization |
US9207758B2 (en) * | 2008-05-30 | 2015-12-08 | Honeywell International Inc. | Operator assistance methods and systems |
US8624921B2 (en) * | 2008-09-30 | 2014-01-07 | Rockwell Automation Technologies, Inc. | Industrial automation visualization schemes employing overlays |
US20100287500A1 (en) * | 2008-11-18 | 2010-11-11 | Honeywell International Inc. | Method and system for displaying conformal symbology on a see-through display |
US8700072B2 (en) | 2008-12-23 | 2014-04-15 | At&T Mobility Ii Llc | Scalable message fidelity |
WO2010091086A1 (en) | 2009-02-03 | 2010-08-12 | Fanuc Robotics America, Inc. | Method of controlling a robotic tool |
US20100309295A1 (en) * | 2009-06-04 | 2010-12-09 | Chow Kenny W Y | 3d video processor integrated with head mounted display |
US20110010624A1 (en) * | 2009-07-10 | 2011-01-13 | Vanslette Paul J | Synchronizing audio-visual data with event data |
US8292439B2 (en) * | 2009-09-06 | 2012-10-23 | Yang Pan | Image projection system with adjustable cursor brightness |
US20110084983A1 (en) * | 2009-09-29 | 2011-04-14 | Wavelength & Resonance LLC | Systems and Methods for Interaction With a Virtual Environment |
CN102656620B (zh) * | 2009-11-13 | 2017-06-09 | 寇平公司 | 用于从标准视频流驱动3d双目眼镜的方法 |
US8400548B2 (en) * | 2010-01-05 | 2013-03-19 | Apple Inc. | Synchronized, interactive augmented reality displays for multifunction devices |
US8754931B2 (en) * | 2010-01-08 | 2014-06-17 | Kopin Corporation | Video eyewear for smart phone games |
DE102010004476A1 (de) * | 2010-01-13 | 2011-07-14 | KUKA Laboratories GmbH, 86165 | Verfahren und Vorrichtung zum Kontrollieren einer Roboterapplikation |
US20120249797A1 (en) | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
US8477425B2 (en) | 2010-02-28 | 2013-07-02 | Osterhout Group, Inc. | See-through near-eye display glasses including a partially reflective, partially transmitting optical element |
US9223134B2 (en) | 2010-02-28 | 2015-12-29 | Microsoft Technology Licensing, Llc | Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses |
US8488246B2 (en) | 2010-02-28 | 2013-07-16 | Osterhout Group, Inc. | See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film |
US9229227B2 (en) | 2010-02-28 | 2016-01-05 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a light transmissive wedge shaped illumination system |
US8467133B2 (en) | 2010-02-28 | 2013-06-18 | Osterhout Group, Inc. | See-through display with an optical assembly including a wedge-shaped illumination system |
US20150309316A1 (en) | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
US9134534B2 (en) | 2010-02-28 | 2015-09-15 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses including a modular image source |
WO2011106798A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US9759917B2 (en) | 2010-02-28 | 2017-09-12 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered AR eyepiece interface to external devices |
US9129295B2 (en) | 2010-02-28 | 2015-09-08 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear |
US9285589B2 (en) | 2010-02-28 | 2016-03-15 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered control of AR eyepiece applications |
US8482859B2 (en) | 2010-02-28 | 2013-07-09 | Osterhout Group, Inc. | See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film |
US9091851B2 (en) | 2010-02-28 | 2015-07-28 | Microsoft Technology Licensing, Llc | Light control in head mounted displays |
US9128281B2 (en) | 2010-09-14 | 2015-09-08 | Microsoft Technology Licensing, Llc | Eyepiece with uniformly illuminated reflective display |
US20120194549A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses specific user interface based on a connected external device type |
US9097890B2 (en) | 2010-02-28 | 2015-08-04 | Microsoft Technology Licensing, Llc | Grating in a light transmissive illumination system for see-through near-eye display glasses |
US9366862B2 (en) | 2010-02-28 | 2016-06-14 | Microsoft Technology Licensing, Llc | System and method for delivering content to a group of see-through near eye display eyepieces |
US9341843B2 (en) | 2010-02-28 | 2016-05-17 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a small scale image source |
US10180572B2 (en) | 2010-02-28 | 2019-01-15 | Microsoft Technology Licensing, Llc | AR glasses with event and user action control of external applications |
US9182596B2 (en) | 2010-02-28 | 2015-11-10 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light |
US9097891B2 (en) | 2010-02-28 | 2015-08-04 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment |
US8472120B2 (en) | 2010-02-28 | 2013-06-25 | Osterhout Group, Inc. | See-through near-eye display glasses with a small scale image source |
US10962678B2 (en) * | 2010-04-01 | 2021-03-30 | FW Murphy Production Controls, LLC | Systems and methods for collecting, displaying, analyzing, recording, and transmitting fluid hydrocarbon production monitoring and control data |
US8447070B1 (en) * | 2010-04-19 | 2013-05-21 | Amazon Technologies, Inc. | Approaches for device location and communication |
US9122707B2 (en) | 2010-05-28 | 2015-09-01 | Nokia Technologies Oy | Method and apparatus for providing a localized virtual reality environment |
US8982156B2 (en) * | 2010-06-10 | 2015-03-17 | Sartorius Stedim Biotech Gmbh | Assembling method, operating method, augmented reality system and computer program product |
KR20120000161A (ko) * | 2010-06-25 | 2012-01-02 | 삼성전자주식회사 | 포인팅 디바이스와 이의 제어 방법, 입체 영상용 안경 및 디스플레이 장치 |
KR101670458B1 (ko) * | 2010-06-25 | 2016-10-28 | 삼성전자주식회사 | 오버레이 계측 방법 |
JP5574854B2 (ja) * | 2010-06-30 | 2014-08-20 | キヤノン株式会社 | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
KR101219933B1 (ko) * | 2010-09-13 | 2013-01-08 | 현대자동차주식회사 | 증강현실을 이용한 차량 내 디바이스 제어 시스템 및 그 방법 |
KR101690955B1 (ko) * | 2010-10-04 | 2016-12-29 | 삼성전자주식회사 | 증강 현실을 이용한 영상 데이터 생성 방법 및 재생 방법, 그리고 이를 이용한 촬영 장치 |
KR101688155B1 (ko) | 2010-10-25 | 2016-12-20 | 엘지전자 주식회사 | 이동 단말기의 정보 처리 장치 및 그 방법 |
US10475240B2 (en) | 2010-11-19 | 2019-11-12 | Fanuc Robotics America Corporation | System, method, and apparatus to display three-dimensional robotic workcell data |
CN106251525A (zh) * | 2010-11-19 | 2016-12-21 | 株式会社尼康 | 系统以及电子设备 |
US9289018B2 (en) * | 2011-01-19 | 2016-03-22 | Tcb Encore, Llc | Interactive point of purchase system |
JP2012155655A (ja) * | 2011-01-28 | 2012-08-16 | Sony Corp | 情報処理装置、報知方法及びプログラム |
US8861310B1 (en) | 2011-03-31 | 2014-10-14 | Amazon Technologies, Inc. | Surface-based sonic location determination |
US8558759B1 (en) | 2011-07-08 | 2013-10-15 | Google Inc. | Hand gestures to signify what is important |
US8179604B1 (en) | 2011-07-13 | 2012-05-15 | Google Inc. | Wearable marker for passive interaction |
US9535415B2 (en) * | 2011-07-20 | 2017-01-03 | Rockwell Automation Technologies, Inc. | Software, systems, and methods for mobile visualization of industrial automation environments |
US9726715B2 (en) | 2011-08-03 | 2017-08-08 | Fluke Corporation | Maintenance management systems and methods |
US8941560B2 (en) * | 2011-09-21 | 2015-01-27 | Google Inc. | Wearable computer with superimposed controls and instructions for external device |
US9256071B1 (en) | 2012-01-09 | 2016-02-09 | Google Inc. | User interface |
KR101440391B1 (ko) * | 2012-01-26 | 2014-09-17 | 지종현 | 휴대 단말기를 이용한 현장설비 제어 시스템 및 그 방법 |
US9691241B1 (en) | 2012-03-14 | 2017-06-27 | Google Inc. | Orientation of video based on the orientation of a display |
US20130246967A1 (en) * | 2012-03-15 | 2013-09-19 | Google Inc. | Head-Tracked User Interaction with Graphical Interface |
FR2990286B1 (fr) * | 2012-05-07 | 2019-09-06 | Schneider Electric Industries Sas | Procede d'affichage en realite augmentee d'une information relative a un equipement cible sur un ecran d'un dispositif electronique, produit programme d'ordinateur, dispositif electronique et equipement electrique associes |
KR101334585B1 (ko) * | 2012-05-29 | 2013-12-05 | 주식회사 브이터치 | 프로젝터를 통해 표시되는 정보를 이용하여 가상터치를 수행하는 원격 조작 장치 및 방법 |
US20140005807A1 (en) * | 2012-06-29 | 2014-01-02 | Black & Decker Inc. | System for Enhancing Operation of Power Tools |
US20140035819A1 (en) * | 2012-08-03 | 2014-02-06 | Research In Motion Limited | Method and Apparatus Pertaining to an Augmented-Reality Keyboard |
US9329678B2 (en) * | 2012-08-14 | 2016-05-03 | Microsoft Technology Licensing, Llc | Augmented reality overlay for control devices |
TWI486629B (zh) | 2012-11-21 | 2015-06-01 | Ind Tech Res Inst | 穿透型頭部穿戴式顯示系統與互動操作方法 |
JP6064544B2 (ja) * | 2012-11-27 | 2017-01-25 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム及び端末装置 |
US20140152558A1 (en) * | 2012-11-30 | 2014-06-05 | Tom Salter | Direct hologram manipulation using imu |
US9448407B2 (en) * | 2012-12-13 | 2016-09-20 | Seiko Epson Corporation | Head-mounted display device, control method for head-mounted display device, and work supporting system |
US9791921B2 (en) | 2013-02-19 | 2017-10-17 | Microsoft Technology Licensing, Llc | Context-aware augmented reality object commands |
CN105009197B (zh) * | 2013-02-22 | 2018-01-16 | 索尼公司 | 图像显示装置、图像显示方法、存储介质以及监测系统 |
US9665088B2 (en) | 2014-01-31 | 2017-05-30 | Fisher-Rosemount Systems, Inc. | Managing big data in process control systems |
US10649449B2 (en) | 2013-03-04 | 2020-05-12 | Fisher-Rosemount Systems, Inc. | Distributed industrial performance monitoring and analytics |
US10866952B2 (en) | 2013-03-04 | 2020-12-15 | Fisher-Rosemount Systems, Inc. | Source-independent queries in distributed industrial system |
US10386827B2 (en) | 2013-03-04 | 2019-08-20 | Fisher-Rosemount Systems, Inc. | Distributed industrial performance monitoring and analytics platform |
US10282676B2 (en) | 2014-10-06 | 2019-05-07 | Fisher-Rosemount Systems, Inc. | Automatic signal processing-based learning in a process plant |
US9558220B2 (en) | 2013-03-04 | 2017-01-31 | Fisher-Rosemount Systems, Inc. | Big data in process control systems |
US9804588B2 (en) | 2014-03-14 | 2017-10-31 | Fisher-Rosemount Systems, Inc. | Determining associations and alignments of process elements and measurements in a process |
US9397836B2 (en) | 2014-08-11 | 2016-07-19 | Fisher-Rosemount Systems, Inc. | Securing devices to process control systems |
US10649424B2 (en) | 2013-03-04 | 2020-05-12 | Fisher-Rosemount Systems, Inc. | Distributed industrial performance monitoring and analytics |
US10678225B2 (en) | 2013-03-04 | 2020-06-09 | Fisher-Rosemount Systems, Inc. | Data analytic services for distributed industrial performance monitoring |
US10909137B2 (en) | 2014-10-06 | 2021-02-02 | Fisher-Rosemount Systems, Inc. | Streaming data for analytics in process control systems |
US10223327B2 (en) | 2013-03-14 | 2019-03-05 | Fisher-Rosemount Systems, Inc. | Collecting and delivering data to a big data machine in a process control system |
US9823626B2 (en) | 2014-10-06 | 2017-11-21 | Fisher-Rosemount Systems, Inc. | Regional big data in process control systems |
US9541472B2 (en) * | 2013-03-15 | 2017-01-10 | Fluke Corporation | Unified data collection and reporting interface for equipment |
US10691281B2 (en) | 2013-03-15 | 2020-06-23 | Fisher-Rosemount Systems, Inc. | Method and apparatus for controlling a process plant with location aware mobile control devices |
EP3200131A1 (de) | 2013-03-15 | 2017-08-02 | Fisher-Rosemount Systems, Inc. | Datenmodellierungsstudio |
US10074402B2 (en) * | 2013-05-15 | 2018-09-11 | Abb Research Ltd. | Recording and providing for display images of events associated with power equipment |
US11042607B2 (en) | 2013-08-23 | 2021-06-22 | Nant Holdings Ip, Llc | Recognition-based content management, systems and methods |
CN105637435B (zh) | 2013-10-07 | 2018-04-17 | Abb技术有限公司 | 用于验证针对可移动的机械单元的一个或多个安全容积的方法和装置 |
US8880151B1 (en) | 2013-11-27 | 2014-11-04 | Clear Guide Medical, Llc | Surgical needle for a surgical system with optical recognition |
US9622720B2 (en) | 2013-11-27 | 2017-04-18 | Clear Guide Medical, Inc. | Ultrasound system with stereo image guidance or tracking |
KR102104136B1 (ko) * | 2013-12-18 | 2020-05-29 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 제어 장치를 위한 증강 현실 오버레이 |
US20150185825A1 (en) * | 2013-12-30 | 2015-07-02 | Daqri, Llc | Assigning a virtual user interface to a physical object |
US20150199106A1 (en) * | 2014-01-14 | 2015-07-16 | Caterpillar Inc. | Augmented Reality Display System |
KR102238775B1 (ko) | 2014-02-10 | 2021-04-09 | 삼성전자주식회사 | 전자 장치에서 증강 현실을 이용한 장비 관리 장치 및 방법 |
EP2913730B1 (de) | 2014-02-28 | 2019-10-30 | ABB Schweiz AG | Verwendung eines Live-Video-Streams in einem Prozesssteuerungssystem |
JP6003942B2 (ja) * | 2014-04-24 | 2016-10-05 | トヨタ自動車株式会社 | 動作制限装置及び動作制限方法 |
US10068173B2 (en) * | 2014-05-22 | 2018-09-04 | Invuity, Inc. | Medical device featuring cladded waveguide |
KR102212030B1 (ko) | 2014-05-26 | 2021-02-04 | 엘지전자 주식회사 | 글래스 타입 단말기 및 이의 제어방법 |
JP5927242B2 (ja) * | 2014-06-25 | 2016-06-01 | 株式会社デジタル | 画像データ作成装置および携帯端末装置 |
CN112862775A (zh) * | 2014-07-25 | 2021-05-28 | 柯惠Lp公司 | 增强手术现实环境 |
US10168691B2 (en) | 2014-10-06 | 2019-01-01 | Fisher-Rosemount Systems, Inc. | Data pipeline for process control system analytics |
US9697432B2 (en) * | 2014-12-09 | 2017-07-04 | International Business Machines Corporation | Generating support instructions by leveraging augmented reality |
US9685005B2 (en) | 2015-01-02 | 2017-06-20 | Eon Reality, Inc. | Virtual lasers for interacting with augmented reality environments |
AU2015382440B2 (en) * | 2015-02-13 | 2018-08-09 | Halliburton Energy Services, Inc. | Using augmented reality to collect, process and share information |
US20160239697A1 (en) * | 2015-02-17 | 2016-08-18 | Yokogawa Electric Corporation | Manager, management system, management method, and non-transitory computer readable storage medium |
JP2016153999A (ja) * | 2015-02-17 | 2016-08-25 | 横河電機株式会社 | 管理装置、管理システム、管理方法、管理プログラム、及び記録媒体 |
US9898001B2 (en) * | 2015-03-27 | 2018-02-20 | Rockwell Automation Technologies, Inc. | Systems and methods for enhancing monitoring of an industrial automation system |
US10950051B2 (en) | 2015-03-27 | 2021-03-16 | Rockwell Automation Technologies, Inc. | Systems and methods for presenting an augmented reality |
KR102304023B1 (ko) * | 2015-04-03 | 2021-09-24 | 한국과학기술원 | 증강현실 기반 인터렉티브 저작 서비스 제공 시스템 |
US9972133B2 (en) | 2015-04-24 | 2018-05-15 | Jpw Industries Inc. | Wearable display for use with tool |
US10099382B2 (en) | 2015-04-27 | 2018-10-16 | Microsoft Technology Licensing, Llc | Mixed environment display of robotic actions |
US10007413B2 (en) | 2015-04-27 | 2018-06-26 | Microsoft Technology Licensing, Llc | Mixed environment display of attached control elements |
DE102015006632A1 (de) * | 2015-05-21 | 2016-11-24 | Audi Ag | Verfahren zum Betreiben eines Diagnosesystems und Diagnosesystem für ein Kraftfahrzeug |
EP3109832A1 (de) * | 2015-06-24 | 2016-12-28 | Atos IT Solutions and Services GmbH | Interaktives informationssystem für gemeinsame und erweiterte interaktive realität |
WO2017026193A1 (ja) * | 2015-08-12 | 2017-02-16 | ソニー株式会社 | 画像処理装置と画像処理方法とプログラムおよび画像処理システム |
US10528021B2 (en) | 2015-10-30 | 2020-01-07 | Rockwell Automation Technologies, Inc. | Automated creation of industrial dashboards and widgets |
FR3044123B1 (fr) * | 2015-11-24 | 2019-04-05 | Electricite De France | Dispositif pour le pilotage a distance d'au moins un equipement electrique |
US10313281B2 (en) | 2016-01-04 | 2019-06-04 | Rockwell Automation Technologies, Inc. | Delivery of automated notifications by an industrial asset |
US10503483B2 (en) | 2016-02-12 | 2019-12-10 | Fisher-Rosemount Systems, Inc. | Rule builder in a process control network |
JP6879294B2 (ja) * | 2016-03-30 | 2021-06-02 | 日本電気株式会社 | プラント管理システム、プラント管理方法、プラント管理装置、および、プラント管理プログラム |
DE102016113060A1 (de) | 2016-07-15 | 2018-01-18 | Beckhoff Automation Gmbh | Verfahren zum Steuern eines Objekts |
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
TW201805598A (zh) * | 2016-08-04 | 2018-02-16 | 鴻海精密工業股份有限公司 | 自主移動設備及建立導航路徑的方法 |
TWI639102B (zh) * | 2016-08-10 | 2018-10-21 | 張雅如 | 一種指標顯示裝置、指標控制裝置、指標控制系統及其相關方法 |
US10318570B2 (en) | 2016-08-18 | 2019-06-11 | Rockwell Automation Technologies, Inc. | Multimodal search input for an industrial search platform |
US10666768B1 (en) * | 2016-09-20 | 2020-05-26 | Alarm.Com Incorporated | Augmented home network visualization |
US10401839B2 (en) | 2016-09-26 | 2019-09-03 | Rockwell Automation Technologies, Inc. | Workflow tracking and identification using an industrial monitoring system |
US10319128B2 (en) * | 2016-09-26 | 2019-06-11 | Rockwell Automation Technologies, Inc. | Augmented reality presentation of an industrial environment |
US10545492B2 (en) | 2016-09-26 | 2020-01-28 | Rockwell Automation Technologies, Inc. | Selective online and offline access to searchable industrial automation data |
EP3299931A1 (de) * | 2016-09-27 | 2018-03-28 | Alcatel Lucent | Verfahren zur steuerung einer veränderten realität und system zur steuerung einer veränderten realität |
US20180122133A1 (en) * | 2016-10-28 | 2018-05-03 | Honeywell International Inc. | System and method for displaying industrial asset alarms in a virtual environment |
US10735691B2 (en) | 2016-11-08 | 2020-08-04 | Rockwell Automation Technologies, Inc. | Virtual reality and augmented reality for industrial automation |
US10388075B2 (en) | 2016-11-08 | 2019-08-20 | Rockwell Automation Technologies, Inc. | Virtual reality and augmented reality for industrial automation |
US10866631B2 (en) | 2016-11-09 | 2020-12-15 | Rockwell Automation Technologies, Inc. | Methods, systems, apparatuses, and techniques for employing augmented reality and virtual reality |
US10158634B2 (en) | 2016-11-16 | 2018-12-18 | Bank Of America Corporation | Remote document execution and network transfer using augmented reality display devices |
US11132840B2 (en) * | 2017-01-16 | 2021-09-28 | Samsung Electronics Co., Ltd | Method and device for obtaining real time status and controlling of transmitting devices |
EP3585254B1 (de) | 2017-02-24 | 2024-03-20 | Masimo Corporation | Kabel für eine medizinische vorrichtung und verfahren zur teilung von daten zwischen verbundenen medizinischen vorrichtungen |
WO2018156809A1 (en) * | 2017-02-24 | 2018-08-30 | Masimo Corporation | Augmented reality system for displaying patient data |
US11474496B2 (en) * | 2017-04-21 | 2022-10-18 | Rockwell Automation Technologies, Inc. | System and method for creating a human-machine interface |
IL252056A (en) * | 2017-05-01 | 2018-04-30 | Elbit Systems Ltd | Head-up display device, system and method |
US10932705B2 (en) | 2017-05-08 | 2021-03-02 | Masimo Corporation | System for displaying and controlling medical monitoring data |
US10878240B2 (en) | 2017-06-19 | 2020-12-29 | Honeywell International Inc. | Augmented reality user interface on mobile device for presentation of information related to industrial process, control and automation system, or other system |
WO2019032967A1 (en) * | 2017-08-10 | 2019-02-14 | Google Llc | HAND INTERACTION SENSITIVE TO THE CONTEXT |
CN110914022B (zh) * | 2017-08-10 | 2023-11-07 | 罗伯特·博世有限公司 | 直接教导机器人的系统和方法 |
JP2019040469A (ja) * | 2017-08-25 | 2019-03-14 | 株式会社イシダ | 作業支援システム |
US11080931B2 (en) | 2017-09-27 | 2021-08-03 | Fisher-Rosemount Systems, Inc. | Virtual x-ray vision in a process control environment |
JP2021500690A (ja) | 2017-10-23 | 2021-01-07 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 自己展開型拡張現実ベースのサービス命令ライブラリ |
US20190139441A1 (en) | 2017-11-03 | 2019-05-09 | Drishti Technologies, Inc. | Contextual training systems and methods |
US10445944B2 (en) | 2017-11-13 | 2019-10-15 | Rockwell Automation Technologies, Inc. | Augmented reality safety automation zone system and method |
EP3489800A1 (de) * | 2017-11-27 | 2019-05-29 | EUCHNER GmbH + Co. KG | Sicherheitssystem |
US10546426B2 (en) * | 2018-01-05 | 2020-01-28 | Microsoft Technology Licensing, Llc | Real-world portals for virtual reality displays |
WO2019143383A1 (en) * | 2018-01-22 | 2019-07-25 | Siemens Aktiengesellschaft | Skill matching for control of an industrial production machine |
US10839603B2 (en) | 2018-04-30 | 2020-11-17 | Microsoft Technology Licensing, Llc | Creating interactive zones in virtual environments |
EP3575925B1 (de) * | 2018-06-01 | 2020-12-30 | Hewlett-Packard Enterprise Development LP | Netzwerkvorrichtungsmodifikationen über benutzeroberflächen mit erweiterter realität |
CN112638593A (zh) * | 2018-06-26 | 2021-04-09 | 发纳科美国公司 | 用于机器人拾取系统的增强现实可视化技术 |
JP7042715B2 (ja) * | 2018-07-13 | 2022-03-28 | 三菱電機株式会社 | ヘッドマウント装置、サーバ装置および作業支援システム |
US11535489B2 (en) | 2018-08-10 | 2022-12-27 | Otis Elevator Company | Elevator calls from a wearable based on health profile |
US11244509B2 (en) | 2018-08-20 | 2022-02-08 | Fisher-Rosemount Systems, Inc. | Drift correction for industrial augmented reality applications |
US11137875B2 (en) | 2019-02-22 | 2021-10-05 | Microsoft Technology Licensing, Llc | Mixed reality intelligent tether for dynamic attention direction |
EP3730276A1 (de) * | 2019-02-26 | 2020-10-28 | Covestro Deutschland AG | Verfahren und system zur steuerung eines spritzgiessprozesses |
US11520323B2 (en) | 2019-03-08 | 2022-12-06 | Honeywell Limited | 360° assistance for QCS scanner with mixed reality and machine learning technology |
JP2020197835A (ja) * | 2019-05-31 | 2020-12-10 | ファナック株式会社 | 産業用機械のデータ収集設定装置 |
DE102019120686A1 (de) * | 2019-07-31 | 2021-02-04 | Zahoransky Automation & Molds GmbH | Verfahren zum Betrieb, insbesondere zur Einrichtung, Instandsetzung und/oder Wartung, einer Spritzgießmaschine, Spritzgießmaschine, Computerprogramm und computerlesbares Medium |
JP7359633B2 (ja) * | 2019-10-17 | 2023-10-11 | ファナック株式会社 | ロボットシステム |
US11816887B2 (en) | 2020-08-04 | 2023-11-14 | Fisher-Rosemount Systems, Inc. | Quick activation techniques for industrial augmented reality applications |
EP4016251A1 (de) * | 2020-12-16 | 2022-06-22 | Hitachi Energy Switzerland AG | Tragbare anzeigevorrichtung mit überlagerter virtueller information |
CN116438503A (zh) * | 2020-12-17 | 2023-07-14 | 三星电子株式会社 | 电子装置和电子装置的操作方法 |
WO2023053368A1 (ja) * | 2021-09-30 | 2023-04-06 | ファナック株式会社 | 教示装置及びロボットシステム |
EP4250031A1 (de) * | 2022-03-22 | 2023-09-27 | Basf Se | Auf erweiterter realität basiertes automatisierungssystem mit freihändiger auswahl eines virtuellen objekts |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0312301B1 (de) * | 1987-10-16 | 1994-04-27 | Canon Kabushiki Kaisha | Gerät zur Bildherstellung |
US5274456A (en) * | 1987-12-28 | 1993-12-28 | Hitachi, Ltd. | Semiconductor device and video camera unit using it and their manufacturing method |
DE4290947T1 (de) | 1991-04-08 | 1993-04-01 | Hitachi, Ltd., Tokio/Tokyo, Jp | |
JP3116710B2 (ja) * | 1994-03-18 | 2000-12-11 | 株式会社日立製作所 | 情報端末システム |
US6122520A (en) * | 1998-02-13 | 2000-09-19 | Xerox Corporation | System and method for obtaining and using location specific information |
US6167464A (en) * | 1998-09-23 | 2000-12-26 | Rockwell Technologies, Llc | Mobile human/machine interface for use with industrial control systems for controlling the operation of process executed on spatially separate machines |
US6806847B2 (en) * | 1999-02-12 | 2004-10-19 | Fisher-Rosemount Systems Inc. | Portable computer in a process control environment |
DE50007901D1 (de) | 1999-03-02 | 2004-10-28 | Siemens Ag | Nutzung von augmented reality-basistechnologien zur situationsgerechten unterstützung des facharbeiters durch entfernte experten |
US6614422B1 (en) | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US6618425B1 (en) | 1999-11-17 | 2003-09-09 | Cymer, Inc. | Virtual laser operator |
FI20012231A (fi) | 2001-06-21 | 2002-12-22 | Ismo Rakkolainen | Järjestelmä käyttöliittymän luomiseksi |
US7627860B2 (en) * | 2001-08-14 | 2009-12-01 | National Instruments Corporation | Graphically deployment of a program with automatic conversion of program type |
US6940538B2 (en) * | 2001-08-29 | 2005-09-06 | Sony Corporation | Extracting a depth map from known camera and model tracking data |
US7143149B2 (en) * | 2001-09-21 | 2006-11-28 | Abb Ab | Dynamic operator functions based on operator position |
JP2003216231A (ja) * | 2002-01-18 | 2003-07-31 | Hitachi Ltd | 現場監視・操作装置 |
NO317898B1 (no) | 2002-05-24 | 2004-12-27 | Abb Research Ltd | Fremgangsmate og system for a programmere en industrirobot |
US7092771B2 (en) * | 2002-11-14 | 2006-08-15 | Rockwell Automation Technologies, Inc. | Industrial control and monitoring method and system |
US20050244047A1 (en) * | 2004-04-28 | 2005-11-03 | International Business Machines Corporation | Stop motion imaging detection system and method |
-
2005
- 2005-12-21 DE DE102005061211.3A patent/DE102005061211B4/de active Active
- 2005-12-22 US US11/313,787 patent/US7787992B2/en active Active
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2345514A3 (de) * | 2010-01-13 | 2017-07-19 | KUKA Roboter GmbH | Verfahren und Vorrichtung zum Kontrollieren einer Roboterapplikation |
DE102010025781B4 (de) | 2010-07-01 | 2022-09-22 | Kuka Roboter Gmbh | Tragbare Sicherheitseingabeeinrichtung für eine Robotersteuerung |
DE102010025781A1 (de) * | 2010-07-01 | 2012-01-05 | Kuka Laboratories Gmbh | Tragbare Sicherheitseingabeeinrichtung für eine Robotersteuerung |
DE102011013760B4 (de) | 2011-03-12 | 2022-09-29 | Volkswagen Ag | Verfahren, Vorrichtung und Computerprogrammprodukt zur Informationsvermittlung mittels erweiterter Realität im Zusammenhang mit einem Straßenfahrzeug |
DE102012002657A1 (de) * | 2012-02-10 | 2013-08-14 | Weber Maschinenbau Gmbh Breidenbach | Vorrichtung mit erweiterter Realität |
EP2626756A1 (de) * | 2012-02-10 | 2013-08-14 | Weber Maschinenbau GmbH Breidenbach | Vorrichtung mit erweiterter Realität |
DE102012018716A1 (de) * | 2012-09-21 | 2014-03-27 | Robert Bosch Gmbh | Vorrichtung und Verfahren zur Maschinenparametrierung mittels smart devices |
DE102013102635A1 (de) * | 2013-03-14 | 2014-09-18 | Stego-Holding Gmbh | Netzwerksystem und Verfahren zum Aufrufen und Darstellen von Netzwerkinformationen bezüglich einer Mehrzahl von Netzwerkkomponenten |
DE102015209899A1 (de) * | 2015-05-29 | 2016-12-01 | Kuka Roboter Gmbh | Auswahl eines Gerätes oder eines Objektes mit Hilfe einer Kamera |
DE102015209896B3 (de) * | 2015-05-29 | 2016-08-18 | Kuka Roboter Gmbh | Ermittlung der Roboterachswinkel und Auswahl eines Roboters mit Hilfe einer Kamera |
US10007837B2 (en) | 2015-05-29 | 2018-06-26 | Kuka Roboter Gmbh | Determining the robot axis angle and selection of a robot with the aid of a camera |
DE102015209899B4 (de) | 2015-05-29 | 2019-06-19 | Kuka Roboter Gmbh | Auswahl eines Gerätes oder eines Objektes mit Hilfe einer Kamera |
US10095216B2 (en) | 2015-05-29 | 2018-10-09 | Kuka Roboter Gmbh | Selection of a device or object using a camera |
DE102016207009A1 (de) * | 2016-04-26 | 2017-10-26 | Krones Aktiengesellschaft | Bediensystem für eine Maschine der Lebensmittelindustrie, insbesondere der Getränkemittelindustrie |
DE102017123940A1 (de) | 2016-10-14 | 2018-05-09 | Blach Verwaltungs GmbH + Co. KG | Augmented-Reality bei Extruderanlage |
DE102017107224A1 (de) * | 2017-04-04 | 2018-10-04 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren und Vorrichtung zur Darstellung einer Bauteildokumentation |
DE202017102575U1 (de) * | 2017-04-27 | 2018-05-02 | Korsch Ag | System umfassend eine Tablettiermaschine und Augmented Reality-Vorrichtung |
DE102017215114A1 (de) * | 2017-08-30 | 2019-02-28 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Manipulatorsystem und Verfahren zum Steuern eines robotischen Manipulators |
WO2019068435A1 (de) * | 2017-10-06 | 2019-04-11 | Endress+Hauser Process Solutions Ag | Smartwatch und verfahren instandhaltung einer anlage der automatisierungstechnik |
WO2019123187A1 (en) * | 2017-12-20 | 2019-06-27 | Nws Srl | Virtual training method |
DE102018201711B4 (de) | 2018-02-05 | 2020-07-02 | Vypii GmbH | Anordnung und Verfahren zum Bereitstellen von Informationen bei einer kopftragbaren erweiterte-Realität-Vorrichtung |
DE102018211429A1 (de) * | 2018-07-10 | 2020-01-16 | Robomotion Gmbh | Verfahren zur Diagnose einer technischen Funktionseinheit |
Also Published As
Publication number | Publication date |
---|---|
DE102005061211B4 (de) | 2023-04-06 |
US20060241792A1 (en) | 2006-10-26 |
US7787992B2 (en) | 2010-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102005061211B4 (de) | Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche | |
US8225226B2 (en) | Virtual control panel | |
CN106340217B (zh) | 基于增强现实技术的制造装备智能系统及其实现方法 | |
DE102018109463B3 (de) | Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung | |
US7920071B2 (en) | Augmented reality-based system and method providing status and control of unmanned vehicles | |
DE112018004395T5 (de) | Virtueller zugriff auf ein zugriffsbeschränktes objekt | |
DE102019122343A1 (de) | Abweichungskorrektur für industrielle anwendungen mit erweiterter realität | |
EP1362281B1 (de) | Anwendergesteuerte verknüpfung von informationen innerhalb eines augmented-reality-systems | |
EP1435737A1 (de) | Erweitertes Realitätssystem und -verfahren | |
DE102007023640A1 (de) | Virtueller Arbeitsplatz | |
DE112017008358B3 (de) | Visionsbasiertes Robotersteuerungssystem | |
DE10216023B4 (de) | Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen | |
DE102021120250A1 (de) | Schnellaktivierungstechniken für industrielle Augmented-Reality-Anwendungen | |
DE202017104323U1 (de) | Anzeige und Interaktion mit gescannter Umgebungsgeometrie in virtueller Realität | |
CN110751734B (zh) | 一种适用于工作现场的混合现实助手系统 | |
CN107644457B (zh) | 一种应用于工业现场的监控方法 | |
DE102018123635A1 (de) | 3d-kartierung einer prozesssteuerungsumgebung | |
Wang | Improving human-machine interfaces for construction equipment operations with mixed and augmented reality | |
CN112102485A (zh) | 一种基于ar技术进行空间智能管理的方法 | |
DE102021131060B3 (de) | System und Verfahren mit einem System | |
WO2022258343A1 (de) | Audiovisuelles assistenzsystem, verfahren und computerprogramm zur unterstützung von wartungsarbeiten, reparaturarbeiten oder installationsarbeiten in einer industriellen anlage | |
EP2515554A2 (de) | Verfahren zur Visualisierung von Zustandsdaten einer Maschine in einer Anlage sowie Vorrichtung hierfür | |
Driewer et al. | Mixed reality for teleoperation of mobile robots in search and rescue scenarios | |
WO2023012215A1 (de) | Interagieren mit intelligenten objekten in der umgebung mobiler geräte | |
DE202021106457U1 (de) | System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R081 | Change of applicant/patentee |
Owner name: ABB SCHWEIZ AG, CH Free format text: FORMER OWNER: ABB RESEARCH LTD., ZUERICH, CH |
|
R082 | Change of representative |
Representative=s name: BECKER-KURIG-STRAUS PATENTANWAELTE PARTNERSCHA, DE Representative=s name: BECKER & KURIG PARTNERSCHAFT PATENTANWAELTE MB, DE Representative=s name: BECKER & KURIG PARTNERSCHAFT PATENTANWAELTE PA, DE |
|
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |