WO2000052540A1 - Augmented-reality-system mit einsatz mobiler geräte - Google Patents

Augmented-reality-system mit einsatz mobiler geräte Download PDF

Info

Publication number
WO2000052540A1
WO2000052540A1 PCT/DE2000/000667 DE0000667W WO0052540A1 WO 2000052540 A1 WO2000052540 A1 WO 2000052540A1 DE 0000667 W DE0000667 W DE 0000667W WO 0052540 A1 WO0052540 A1 WO 0052540A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
controlled
detection means
monitoring
user
Prior art date
Application number
PCT/DE2000/000667
Other languages
English (en)
French (fr)
Inventor
Wolfgang Friedrich
Wolfgang Wohlgemuth
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to EP00915137A priority Critical patent/EP1157315B1/de
Priority to DE50007902T priority patent/DE50007902D1/de
Priority to JP2000602896A priority patent/JP2002538700A/ja
Publication of WO2000052540A1 publication Critical patent/WO2000052540A1/de
Priority to US09/945,777 priority patent/US6941248B2/en

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41875Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by quality surveillance of production
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31027Computer assisted manual assembly CAA, display operation, tool, result
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35482Eyephone, head-mounted 2-D or 3-D display, also voice and other control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35494Online documentation, manual, procedures, operator, user guidance, assistance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35495Messages to operator in multimedia, voice and image and text
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Definitions

  • the invention relates to an augmented reality system.
  • Such a system and method is used, for example, in the field of automation technology, in production and machine tools, in diagnosis / service support systems, and for complex components, devices and systems, such as vehicles and industrial machines and systems.
  • the invention is based on the object of specifying a system and a method which enables increased mobility when operating and observing, in particular, an automation-controlled device / system / process.
  • the invention is based on the knowledge that in complex systems with spatially distributed individual components, but also in application situations where the mobility of the worker is important, the usual use of relatively rigidly installed systems (for example monitors, operating terminals) for visualization and operation, a significant limitation of Represents room for maneuver.
  • relatively rigidly installed systems for example monitors, operating terminals
  • the worker / skilled worker is forced to leave his actual work situation in order to be able to gain an insight into the currently relevant process data or to be able to carry out certain operations.
  • various work situations can be managed more user-friendly.
  • the complete functionality for application-wide visualization and operation is provided by means of powerful operating units that can be used on the go.
  • the main advantage is the lifting of the mobility restrictions of the worker.
  • new types of interaction techniques are used ... multimodal (language, gestures, ).
  • the connection to fixed terminals is replaced by mobile devices and the machine board is replaced / supplemented by data glasses or at least combined with local terminals.
  • the documentation data are static and / or dynamic information data.
  • static information are technical data from manuals, exploded drawings, maintenance instructions etc.
  • dynamic information are process values such as temperature, pressure, signals etc.
  • a faster situation-appropriate access to the documentation data is further supported in that the acquisition means have an image recording device, that the evaluation means are provided for evaluating the real information in such a way that an application context, in particular an object of the documentation data, is determined from the real information and that the system has visualization means for visualizing the documentation data.
  • a faster situation-appropriate access to the documentation data is further supported by the fact that the means are user-controlled and steered in particular as symmetricge ⁇ detection means and / or controlled by control data detection means are formed.
  • Optimal use of augmented reality techniques based on the static and / or dynamic documentation and / or process data for many applications can take place in such a way that the acquisition means and / or the visualization means are designed as data glasses.
  • FIG. 1 shows a block diagram of a first exemplary embodiment of an augmented reality system
  • FIG. 2 shows a further block diagram of an exemplary embodiment of an augmented reality system
  • 3 shows an application example for situation-appropriate access to expert knowledge and / or documentation data.
  • FIG. 1 shows a basic illustration of an augmented reality system for the transmission of first information data from a first location 01 to a remote second location 02 of an expert for supporting a user at the first location 01, for example in the event of service and / or repair by the remote expert in the second place.
  • the user who is not explicitly shown in FIG. 1, is equipped with mobile devices 4, 6.
  • the mobile devices 4, 6 contain data glasses 4 on which a video camera 2 and a microphone 11 are arranged.
  • the data glasses are equipped with a device for wireless communication, for example a ner radio transceiver 6 coupled, which can communicate via a radio interface 15 with the automation system AI .. To.
  • An can be coupled via a data connection 14 to an augmented reality system 10, which is also referred to in the following as an AR system.
  • the AR system contains an information module 1b for storing or accessing or accessing information data, an AR base module 8 and an AR application module 9.
  • the AR system 10 can be connected to the Internet 5 via a data connection 13, access to further storage and documentation data 1 a is possible via an Internet connection 12 shown as an example.
  • the user who is equipped with data glasses 4 and the mobile radio transmission device 7, is able to move freely in the system AI..An for maintenance and service purposes. If, for example, the maintenance or repair of a certain subcomponent of the systems AI..An is required, the camera 2 of the data glasses 4, if appropriate controlled by voice commands which are recorded by the microphone 11, provide appropriate access to the relevant documentation data Ia, Ib .
  • a data connection to the system AI .. is set up via the radio interface 15, or to a corresponding radio transmission module, and the data is transmitted to the AR system 10.
  • the data received from the user is evaluated in accordance with the situation and automatic or interactive access to information data la, lb.
  • the determined relevant documentation data la, lb are transmitted to the radio transmission device 6 via the data connections 14, 15 and, overall, an analysis is carried out on the basis of the detected work situation, which is the basis for the selection of data from the available static information. This results in a situation-appropriate, object-oriented or component-oriented selection of relevant knowledge from the latest data sources la, lb.
  • the information is displayed with the help of the visa used lization component, for example a handheld PC or data glasses. AR-based technologies are spoken of. The user on site is therefore only provided with the information he needs. This information is always up to date. For example, the service technician is not overloaded with information by a "100 page manual".
  • Figure 2 shows another application example of a system for processing documentation for service and maintenance.
  • augmented reality system consists of an augmented reality system 10 which contains an information module 1b for storing information data, an AR base system 8 and an AR application module 9.
  • the AR system 10 can be connected to the Internet 5 via connection lines 13, 18. From there, there is a connection possibility to a remote PC 16 with a remote expert 22 via an exemplary data connection 12.
  • the coupling between the individual modules of the AR system 10 takes place via connections 19, 20, 21.
  • the user communication between a user 7 and the AR system is done via
  • the AR system can be coupled to a transmit / receive device which enables bidirectional data communication between the AR system 10 and the user 7 via data glasses 4 either directly via the interface 8 or via a radio transceiver 17 arranged in the area of the user 7 enables an interface 23.
  • the connection 23 can be implemented via a separate data connection or via the power network as a "power line" modem.
  • the data glasses 4 contain, in addition to a display device arranged in the area of the glasses, an image capture device 2 in the form of a camera and a microphone 11.
  • the user 7 can move with the help of the data glasses 4 in the area of the systems AI. An and carry out service or maintenance work.
  • the radio transceiver Receiving device 17 which is worn directly on the body by the staff, it is possible to achieve preventive functionality: First, the respective work situation is recorded, for example by camera 2 or by localization by staff 7. Based on the detected
  • Work situation takes place in the AR system a selection of data maintained system AI..An.
  • the basic advantage of the system shown in FIG. 3 is that this system supports the interaction of the individual individual functionalities in an application-specific manner: for example, a specific work situation is automatically recorded first, and this work situation is subsequently analyzed, using the most current, available static information in combination with the currently relevant dynamic data automatically determines the relevant aspects. In this way, for example, assembly instructions are corrected with current process data.
  • the staff 7 receives a display of the relevant information appropriate to the situation, for example through a superimposed visualization of the corresponding data in such a way that the real work situation is expanded by the determined information in the field of view of the staff. As a result, the staff 7 is made able to act in the shortest possible time and thus the necessary machine running times are secured.
  • the maintenance technician 7 can also receive support on site from the remote expert 22 and the knowledge 16 present at the location of the remote expert 22.
  • FIG. 3 shows an application example for situation-appropriate access to documentation data.
  • FIG. 3 shows a first screen area B1, in which a system component is shown.
  • a user 7 is shown who, for example, looks at an individual system component.
  • the user 7 is equipped with data glasses 4 which contain a camera 2 as a detection means.
  • a microphone 11 and a loudspeaker 16 are also arranged on the data glasses 4.
  • a view of pipelines provides that can be viewed with the data glasses shown in the image window B2.
  • two points B1, B2 are marked, each representing two image sections viewed with the aid of data glasses 4.
  • This additional information 11 consists of documentation data which contain working instructions for this pipe section with respect to the first point P1 and contain the installation instructions to be carried out in a second step with regard to the point P2.
  • the installation instructions consist in that the user 7 is informed of the torque and the direction of rotation of the screw connection of the point P2 via the visualization of the additional data 112. The user 7 thus receives a situation-specific instruction for the object under consideration within a very short time.
  • an intelligent tool that is able to detect the torque currently being used, it is further possible that the user is also prompted to increase or decrease the torque accordingly based on the current torque.
  • Augmented Reality is a new type of human-technology interaction with great potential to support industrial work processes.
  • the viewer's field of view is generated with a computer Enriched virtual objects so that product or process information can be used intuitively.
  • the use of portable computers opens up AR application fields with high mobility requirements, for example when process, measurement or simulation data are linked to the real object.
  • German industry is characterized by increasing customer requirements for the individuality and quality of the products as well as a significant reduction in the time of the development processes.
  • innovative solutions for human-machine interaction can be used to achieve leaps in efficiency and productivity, as well as to make work more conducive to learning and skills by the need for knowledge and information the user is supported according to the situation on the basis of data that is available anyway.
  • haptic properties can be reproduced with the help of a real model, whereas aspects of visual perception, e.g. for ad variants that are virtually manipulable.
  • aspects of visual perception e.g. for ad variants that are virtually manipulable.
  • AR technologies offer the possibility to take over the information sources for maintenance and to provide a technician, eg in data glasses, with the expansion process by overlaying them with real objects explain.
  • the AR-based "Fernauge" enables a distributed problem solving by a remote expert communicating with the employee on site across global distances. This case is particularly relevant for the predominantly medium-sized machine tool manufacturers.
  • augmented reality lies in a very simple and intuitive communication with the computer, for example supplemented by multimodal interaction techniques such as speech processing or gesture recognition.
  • multimodal interaction techniques such as speech processing or gesture recognition.
  • portable computer units also enables completely new mobile usage scenarios, whereby the specific data can be requested at any time via a wireless network.
  • New visualization techniques allow direct annotation, for example of measurement or simulation data, to the real object or in the real environment.
  • several users are able to work in a real environment with the help of a common database (shared augmented environments) or to cooperate with AR in different environments.
  • Japan Various AR developments are being promoted in Japan, for example for mixed-virtual building planning, telepresence or "cyber-shopping".
  • the nucleus is the Mixed Reality Systems Laboratory founded in 1997, which is jointly supported by business and science as a competence center
  • the Japanese consumer electronics industry is expected to provide special impetus in the consumer goods sector in the future.
  • Europe Very few research groups are currently active in the AR area in Europe. A group at the University of Vienna is working on approaches for mixed-real visualization.
  • the group of the IGD has in the context of the now expired ACTS project
  • CICC developed first applications for the construction industry and a scientific prototype for employee training in automotive engineering.
  • the invention is understood in particular in the special context of the application fields “production and machine tools” (NC-controlled, automation-technical processes) and “diagnostic / service support systems for complex technical components / devices / systems” (eg vehicles, but also industrial machines and systems ).
  • monitors may be used spatially distributed in the system or concentrated, for example, in a control room.
  • Binding to fixed terminals is replaced by mobile devices
  • the invention thus relates to an operating and
  • Observation system in particular for an automation system, which is formed from at least one first operator control and monitoring system with powerful functionality and from a large number of further operator control and monitoring tools with restricted functionality.
  • the first operating and monitoring system with the powerful functionality is mobile, which means that mobility restrictions are lifted.

Landscapes

  • Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Selective Calling Equipment (AREA)

Abstract

Die Erfindung betrifft ein Bedien- und Beobachtungssystem, insbesondere für ein Automatisierungssystem, das aus mindestens einem ersten Bedien- und Beobachtungssystem mit einer leistungsfähigen Funktionalität und aus einer Vielzahl weiteren Bedien- und Beobachtungswerkzeugen mit einer eingeschränkten Funktionalität gebildet wird. Das erste Bedien- und Beobachtungssystem mit der leistungsfähigen Funktionalität ist mobil ausgebildet, wodurch es zu einer Aufhebung von Mobilitätsbeschränkungen kommt.

Description

Beschreibung
Augmented Reality-Syste mit Einsatz mobiler Geräte
Die Erfindung betrifft ein Augmented-Reality-System.
Ein derartiges System und Verfahren kommt beispielsweise im Bereich der Automatisierungstechnik, bei Produktions- und Werkzeugmaschinen, bei Diagnose-/Serviceunterstützungssyste- men sowie für komplexe Komponenten, Geräte und Systeme, wie beispielsweise Fahrzeuge und industrielle Maschinen und Anlagen zum Einsatz .
Der Erfindung liegt die Aufgabe zugrunde, ein System und ein Verfahren anzugeben, das beim Bedienen- und Beobachten insbesondere eines automatisierungstechnisch gesteuerten Vorrichtung/Anlage/Prozesses eine erhöhte Mobilität ermöglicht.
Diese Aufgabe wird durch ein System bzw. durch Verfahren mit den in den Ansprüchen 1 bzw. 6 angegebenen Merkmalen gelöst.
Der Erfindung liegt die Erkenntnis zugrunde, daß in komplexen Anlagen mit räumlich verteilten Einzelkomponenten, aber auch in Anwendunsgsituationen wo die Beweglichkeit des Werkers wichtig ist, die übliche Verwendung relativ starr installierter Systeme (z.B. Monitore, Bedienterminals) zur Visualisierung und Bedienung, eine deutliche Einschränkung des Handlungsspielraums darstellt. In der Regel ist der Werker/Facharbeiter situationsbedingt gezwungen, seine eigentli- ehe Arbeitssituation zu verlassen, um an anderer Stelle Einblick in die aktuell relevanten Prozeßdaten zu erhalten oder bestimmte Bedienvorgänge vornehmen zu können. Mit der Verwendung mobiler, tragbarer Geräte lassen sich verschiedene Arbeitssituationen benutzergerechter bewerkstelligen.
Gegebenenfalls erfolgt heutzutage der Einsatz mehrerer Monitore räumlich verteilt in der Anlage oder konzentriert bei- spielsweise in einer Leitwarte. Der Einsatz von bislang relativ starr installierten Systemen zur Visualisierung und Bedienung in der Anwendung, wird wie folgt ersetzt durch neuartige Geräte, die anwendungsgerecht in Kombination eingesetzt werden: Vor Ort, d.h. lokal an der Maschine/ Anlagenkomponente, kommen mehrere „Einfachstgeräte" zum Einsatz, die anwendungsgerecht spezialisiert sind.
Die vollständige Funktionalität zur anwendungsumfassenden Vi- sualisierung und Bedienung, wird mittels leistungsfähigen Bedieneinheiten, die mobil eingesetzt werden können, bereitgestellt. Der wesentliche Vorteil liegt in der Aufhebung der Mobilitätseinschränkung des Werkers. Darüberhinaus kommen neuartige Interaktionstechniken zur Verwendung ... multimodal (Sprache, Gestik, ...) . Die Bindung an fixe Terminals wird durch mobile Geräte ersetzt und es kommt zu einer Ablösung /Ergänzung der Maschinentafel durch eine Datenbrille oder zumindest zu einem kombinierten Einsatz mit lokalen Terminals.
Vorteilhafte Ausgestaltungen bestehen darin, daß die Dokumentationsdaten statische und/oder dynamische Informationsdaten sind. Beispiele für derartige statische Informationen sind technische Daten aus Handbüchern, Explosionszeichnungen, War- tungsanweisungen etc.. Beispiele für dynamische Informationen sind Prozeßwerte wie Temperatur, Druck, Signale etc.
Ein schneller situationsgerechter Zugang zu den Dokumentationsdaten wird dadurch weiter unterstützt, daß die Erfassungsmittel eine Bildaufnahmevorrichtung aufweisen, daß die Aus- wertemittel zur Auswertung der realen Information in der Weise vorgesehen sind, daß aus der realen Information ein Eisatzkontext, insbesondere ein Objekt der Dokumentationsdaten ermittelt wird und daß das System Visualisierungsmittel zur Visualisierung der Dokumentationsdaten aufweist.
Ein schneller situationsgerechter Zugang zu den Dokumentationsdaten wird dadurch weiter unterstützt, daß die Erfassungs- mittel anwendergesteuert sind und insbesondere als sprachge¬ steuerte Erfassungsmittel und/oder durch Steuerdaten gesteuerte Erfassungsmittel ausgebildet sind.
Ein für viele Anwendungsfälle optimaler Einsatz von Augmen- ted-Reality-Techniken auf Basis der statischen und/oder dynamischen Dokumentations- und/oder Prozeßdaten kann in der Weise erfolgen, daß die Erfassungsmittel und/oder die Visualisierungsmittel als Datenbrille ausgebildet sind.
Im folgenden wird die Erfindung anhand der in den Figuren dargestellten Ausführungsbeispiele näher beschrieben und erläutert .
Es zeigen:
FIG 1 ein Blockschaltbild eines ersten Ausführungsbei- spiels eines Augmented-Reality-Systems,
FIG 2 ein weiteres Blockschaltbild eines Ausführungsbei- spiels eines Augmented-Reality-Systems und
FIG 3 ein Anwendungsbeispiel für einen situationsgerechten Zugriff auf Expertenwissen und/oder Dokumenta- tionsdaten.
Figur 1 zeigt eine Prinzipdarstellung eines Augmented- Reality-Systems zur Übertragung von ersten Informationsdaten von einem ersten Ort 01 an einen entfernten zweiten Ort 02 eines Experten für eine Unterstützung eines Anwenders am ersten Ort 01 beispielsweise im Service- und/oder Reparaturfall durch den entfernten Experten am zweiten Ort. Der Anwender, der in Figur 1 nicht explizit dargestellt ist, ist mit mobilen Geräten 4, 6 ausgestattet. Die mobilen Geräte 4, 6 bein- halten eine Datenbrille 4, an der eine Videokamera 2 sowie ein Mikrofon 11 angeordnet ist. Die Datenbrille ist mit einer Einrichtung zur drahtlosen Kommunikation, beispielsweise ei- ner Funk-Sende-Empfangsvorrichtung 6 gekoppelt, die über eine Funkschnittstelle 15 mit dem Automatisierungssystem AI.. An kommunizieren kann. Das Automatisierungssystem AI.. An ist über eine Datenverbindung 14 mit einem Augmented-Reality- System 10 koppelbar, welches im folgenden auch abkürzend als AR-System bezeichnet wird. Das AR-System enthält ein Informationsmodul lb zur Speicherung bzw. zum Zugriff von bzw. auf Informationsdaten, ein AR-Basismodul 8 sowie ein AR- Anwendungsmodul 9. Das AR-System 10 ist über eine Datenver- bindung 13 mit dem Internet 5 verbindbar, wobei über eine beispielhaft dargestellte Internetverbindung 12 ein Zugriff auf weitere Speicher- und Dokumentationsdaten la möglich ist.
Der Anwender, der mit der Datenbrille 4 und der mobilen Funk- Sende-Einrichtung 7 ausgestattet ist, ist in der Lage, sich für Wartungs- und Servicezwecke in der Anlage AI..An frei zu bewegen. Ist beispielsweise die Wartung oder Reparatur einer bestimmten Teilkomponente der Anlagen AI..An erforderlich, so wird mit Hilfe der Kamera 2 der Datenbrille 4 gegebenenfalls gesteuert durch Sprachkommandos, die vom Mikrofon 11 erfaßt werden, ein entsprechender Zugang zu den relevanten Dokumentationsdaten la, lb hergestellt. Hierzu wird über die Funk- schnittstelle 15 eine Datenverbindung zur Anlage AI.. An oder einem entsprechenden Funk-Sende-Modul aufgebaut und die Daten an das AR-System 10 übermittelt. Im AR-System erfolgt eine situationsgerechte Auswertung der vom Anwender erhaltenen Daten und ein automatischer oder auch ein interaktiv vom Anwender gesteuerter Zugriff auf Inforamtionsdaten la, lb. Die ermittelten relevanten Dokumentationsdaten la, lb, werden über die Datenverbindungen 14, 15 an die Funk-Sende-Einrichtung 6 übermittelt und insgesamt erfolgt auf Basis der erfaßten Arbeitssituation somit eine Analyse, die Grundlage für die Auswahl von Daten aus der vorliegenden statischen Information ist. Hierdurch ergibt sich eine situationsgerechte, objekt- orientierte bzw. bauteilorientierte Auswahl relevanten Wissens aus den aktuellsten Datenquellen la, lb. Die Anzeige der Information erfolgt mit Hilfe der jeweils verwendeten Visua- lisierungskomponente, beispielsweise einem Handheld-PC oder einer Datenbrille. Von AR-basierten Technologien gesprochen wird. Der Anwender vor Ort wird somit lediglich mit der Information versorgt, die er braucht. Diese Information befin- det sich jeweils auf dem aktuellsten Stand. Der Servicetechniker wird beispielsweise nicht durch ein "100 Seiten-Manual" mit Informationen überfrachtet.
Figur 2 zeigt ein weiteres Anwendungsbeispiel eines Systems zur Dokumentationsverarbeitung für Service und Wartung. Das
System besteht aus einem Augmented-Reality-System 10, welches ein Informationsmodul lb zur Speicherung von Informationsdaten, ein AR-Basissystem 8 sowie ein AR-Anwendungsmodul 9 enthält. Das AR-System 10 ist über Bindungsleitungen 13, 18 ans Internet 5 ankoppelbar. Von dort besteht über eine beispielhafte Datenverbindung 12 eine Verbindungsmöglichkeit zu einem entfernten PC 16 mit einem entfernten Experten 22. Die Kopplung zwischen den einzelnen Modulen des AR-Systems 10 erfolgt über Verbindungen 19, 20, 21. Die Anwenderkommunikation zwi- sehen einem Anwender 7 und dem AR-System erfolgt über
Schnittstellen 8, 23. Hierzu ist das AR-System mit einer Sen- de-Empfangs-Vorrichtung koppelbar, die eine bidirektionale Datenkommunikation zwischen dem AR-System 10 und dem Anwender 7 über eine Datenbrille 4 entweder direkt über die Schnitt- stelle 8 oder über ein im Bereich des Anwenders 7 angeordnete Funk-Sende-Empfangseinrichtung 17 über eine Schnittstelle 23 ermöglicht. Die Verbindung 23 kann über eine separate Datenverbindung oder über das Stromnetz als " Power-Line" -Modem realisiert werden. Die Datenbrille 4 enthält neben einer im Bereich der Brillengläser angeordneten Anzeigevorrichtung eine Bilderfassungsvorrichtung 2 in Form einer Kamera sowie ein Mikrofon 11. Der Anwender 7 kann sich mit Hilfe der Datenbrille 4 im Bereich der Anlagen AI.. An bewegen und Serviceoder Wartungsarbeiten durchführen.
Mit Hilfe der Datenbrille 4 und der entsprechenden Funk- Sende-Empfangsvorrichtungen, beispielsweise der Funk-Sende- Empfangsvorrichtung 17, die vom Personal direkt am Körper getragen wird, ist es möglich vorbeugende Funktionalität zu erreichen: Zunächst erfolgt die Erfassung der jeweiligen Ar- beitssituation, beispielsweise durch die Kamera 2 oder durch Lokalisierung durch das Personal 7. Auf Basis der erfaßten
Arbeitsssituation erfolgt im AR-System eine Auswahl von Daten gewarteten Anlage AI..An. Der grundlegende Vorteil des in Figur 3 dargestellten Systems besteht darin, daß dieses System das Zusammenwirken der einzelnen Einzelfunktionalitäten an- wendungsgerecht unterstützt: So wird zunächst eine konkrete Arbeitssituation automatisch erfaßt, diese Arbeitssituation anschließend analysiert, wobei aus der aktuellsten, vorliegenden statischen Information in Kombination mit den augenblicklich erfaßten dynamischen Daten automatisch die gerade relevanten Aspekte ermittelt werden. Hierdurch werden beispielsweise Montagehinweise mit aktuellen Prozeßdaten korre- liert. Das Personal 7 erhält hierdurch eine situationsgerechte Anzeige der relevanten Informationen beispielsweise durch eine überlagerte Visualisierung der entsprechenden Daten in der Weise, daß im Sichtfeld des Personals die reale Arbeitssituation um die ermittelten Informationen erweitert wird. Hierdurch wird das Personal 7 in kürzester Zeit handlungsfähig gemacht und damit notwendige Maschinenlaufzeiten gesichert. Unterstützung kann der Wartungstechniker 7 vor Ort auch über den entfernten Experten 22 und das am Ort des entfernten Experten 22 vorliegende Wissen 16 erhalten.
Figur 3 zeigt ein Anwendungsbeispiel für einen situationsgerechten Zugriff auf Dokumentationsdaten. Figur 3 zeigt einen ersten Bildschirmbereich Bl, in dem eine Anlagenkomponente dargestellt ist. Im rechten Bildschirmbereich B2 ist ein Anwender 7 dargestellt, der beispielsweise eine einzelne Anlagenkomponente betrachtet. Der Anwender 7 ist mit einer Datenbrille 4 augerüstet, die eine Kamera 2 als Erf ssungsmittel enthält. An der Datenbrille 4 ist darüber hinaus ein Mikrofon 11 sowie ein Lautsprecher 16 angeordnet. Im linken Bild- schirmbereicht Bl ist ein Blick auf Rohrleitungen darge- stellt, die mit der im Bildfenster B2 dargestellten Datenbrille betrachtet werden können. Im linken Bildschirmbereich Bl sind zwei Punkte Bl , B2 markiert, die jeweils zwei mit Hilfe der Datenbrille 4 betrachtete Bildausschnitte repräsen- tieren. Nach Betrachtung des ersten Punkts Pl, d.h. nach Betrachtung der im Bereich des Punktes Pl angeordneten Rohrleitung werden dem Anwender 7 Zusatzinformationen in der Datenbrille 4 visualisiert . Diese Zusatzinformationen 11 bestehen aus Dokumentationsdaten, die bezüglich des ersten Punktes Pl Arbeitsanweisungen für dieses Rohrstück enthalten und bezüglich des Punktes P2 die in einem zweiten Schritt durchzuführende Installationsanweisung beinhalten. Die Installationsanweisung besteht in diesem Fall darin, daß dem Anwender 7 das Drehmoment und die Drehrichtung der Schraubverbindung des Punktes P2 über die Visualisierung der Zusatzdaten 112 mitgeteilt werden. Der Anwender 7 erhält somit innerhalb kürzester Zeit eine situationsgerechte Anweisung für das betrachtete Objekt. Bei der Verwendung eines intelligenten Werkzeugs, welches in der Lage ist, das gerade eingesetzte Drehmoment zu erfassen, ist es weiterhin möglich, daß der Anwender basierend auf dem aktuellen Drehmoment auch dazu aufgefordert wird, daß Drehmoment entsprechend zu erhöhen oder zu verringern .
Im folgenden werden Hintergrundinformationen zu Einsatzgebiet der Erfindung gegeben: Es geht dabei um eine anwendungsorientierte Anforderungsanalyse und Entwicklung von AR-basierten Systemen zur Unterstützung von Arbeitsprozessen in Entwicklung, Produktion und Service komplexer technischer Produkte und Anlagen in der Fertigungs- und Verfahrenstechnik, sowie für Systeme zur Serviceunterstützung wie bei Kraftfahrzeugen oder für die Wartung beliebiger technischer Geräte.
Augmented Reality, kurz AR, ist eine neue Art der Mensch- Technik-Interaktion mit großem Potential zur Unterstützung von industriellen Arbeitsprozessen. Bei dieser Technologie wird das Sichtfeld des Betrachters mit rechnergenerierten virtuellen Objekten angereichert, so daß Produkt- bzw. Prozeßinformationen intuitiv genutzt werden können. Neben der sehr einfachen Interaktion erschließt der Einsatz tragbarer Computer AR-Anwendungsfeider mit hohen Mobilitätsanforderungen, wenn beispielsweise Prozeß-, Meß- oder Simulationsdaten an das reale Objekt geknüpft werden.
Die Situation der deutschen Industrie ist durch steigende Kundenanforderungen an Individualität und Qualität der Pro- dukte sowie durch eine wesentliche Zeitverkürzung der Entstehungsprozesse gekennzeichnet. Insbesondere in Entwicklung, Produktion und Service komplexer technischer Produkte und Anlagen können mit innovativen Lösungen für die Mensch-Technik- Interaktion sowohl Effizienz- und Produktivitätssprünge er- zielt werden, als auch die Arbeit kompetenz- und lernförderlich gestaltet werden, indem der Wissens- und Informationsbedarf der Benutzer auf der Basis ohnehin vorliegender Daten situationsgerecht unterstützt wird.
Augmented Reality ist eine Technologie mit einer Vielzahl in- novativer Anwendungsfeider :
• So kann z.B. in der Entwicklung ein „Mixed Mock-Up" -Ansatz auf der Grundlage einer gemischt-virtuellen Umgebung die frühen Entwicklungsphasen deutlich beschleunigen. Gegenüber immersiven, d.h. eintauchenden, „Virtual Reality" - (VR) -Lösungen besteht für den Benutzer ein wesentlicher
Vorteil darin, daß die haptischen Eigenschaften mit Hilfe eines realen Modells naturgetreu abgebildet werden können, hingegen Aspekte der visuellen Wahrnehmung, z.B. für Anzeigenvarianten, virtuell manipulierbar sind. Darüber hin- aus besteht ein großes Potential zur benutzerorientierten
Validierung rechnergestützter Modelle, z.B. für die Bauteilverifikation oder bei Crash-Tests.
• In der flexiblen Produktion kann unter anderem das Einrichten von Maschinen für qualifizierte Facharbeiter we- sentlich erleichtert werden, indem, z.B. durch mobile AR- Komponenten, gemischt-virtuelle Spannsituationen direkt im 00/52540 n
Sichtfeld wiedergegeben werden. Eine facharbeitergerechte Fertigungsplanung und Fertigungssteuerung in der Werkstatt wird erleichtert, wenn Informationen über den jeweiligen Auftragsstatus direkt in Verbindung mit den dazugehörigen Produkten vor Ort wahrgenommen werden. Das gleiche gilt auch für die Montage, wobei dem Monteur bereits in der Trainingsphase die einzelnen Arbeitsschritte gemischt-virtuell präsentierbar sind. In diesem Zusammenhang können, z.B. durch den Vergleich realer Montageabläufe mit Simula- tionsergebnissen, umfassende Optimierungen erreicht werden, die sowohl die Qualität der Arbeitsplanung verbessern als auch den Montageprozeß in der kritischen Anlaufphase vereinfachen und beschleunigen.
• Letztlich genügen im Service herkömmliche Technologien kaum mehr, um die komplexen Diagnose- und Behebungsprozeduren zu unterstützen und zu dokumentieren. Da diese Prozesse in vielen Bereichen aber ohnehin auf Basis von digitalen Daten geplant werden, bieten AR-Technologien die Möglichkeit, die Informationsquellen für die Wartung zu übernehmen und einem Techniker, z.B. in der Datenbrille, durch die Überlagerung mit realen Objekten den Ausbauvor- gang zu erläutern. Mit Bezug auf kooperative Arbeit ermöglicht das AR-gestützte „Fernauge" eine verteilte Problemlösung, indem ein entfernter Experte mit dem Mitarbeiter vor Ort über globale Distanzen hinweg kommuniziert. Dieser Fall ist besonders für die überwiegend mittelständischen Werkzeugmaschinenhersteller relevant. Sie sind durch die Globalisierung gezwungen, Produktionsstätten ihrer Kunden weltweit zu errichten. Jedoch ist eine Präsenz von Nieder- lassungen in allen wichtigen Märkten weder aus wirtschaftlichen Gründen realisierbar, noch kann auf das profunde Wissen erfahrener Service-Mitarbeiter des Stammhauses bzgl . der zunehmend komplexer werdenden Anlagen verzichtet werden . Die Besonderheit in der Mensch-Technik-Interaktion bei Augmented Reality liegt in einer sehr einfachen und intuitiven Kommunikation mit dem Computer, beispielsweise ergänzt durch multimodale Interaktionstechniken wie Sprachverarbeitung oder Gestikerkennung. Die Verwendung von tragbaren Computereinheiten ermöglicht darüber hinaus völlig neue mobile Nutzungsszenarien, wobei die spezifischen Daten jederzeit über ein drahtloses Netz angefordert werden können. Neue Visualisierungstechniken erlauben eine direkte Annotation, z.B. von Meß- oder Simulationsdaten, an das reale Objekt oder in die reale Umgebung. In Verbindung mit verteilten Anwendungen sind mehrere Benutzer in der Lage, in einer realen Umgebung mit Hilfe einer gemeinsamen Datenbasis zu arbeiten (shared augmented environments ) oder in verschiedenen Umgebungen AR- gestützt zu kooperieren.
Augmented Reality wird erst seit wenigen Jahren intensiv erforscht. Deshalb finden sich sowohl auf nationaler als auch internationaler Ebene nur wenige Anwendungen, zumeist in Form von wissenschaftlichen Prototypen bei Forschungseinrichtungen .
• USA : Wie bei vielen neuen Technologien wurden die Nutzungspotentiale von Augmented Reality zuerst in Nordamerika erschlossen. Beispiele sind die Cockpitgestaltung oder die Wartung von mechatronischen Geräten. Der Flugzeughersteller Boeing hat bereits erste Feldversuche im Bereich der Montage mit AR-Technolo- gien unternommen. Ergebnis ist, daß den USA auch in diesem Hightech-Bereich eine Schlüsselstellung zukommt, die mit einer möglichen Technologieführerschaft einhergeht.
• Japan : In Japan werden verschiedene AR-Entwicklungen vorangetrieben, z.B. zur gemischt-virtuellen Gebäude- planung, Telepräsenz oder „Cyber-Shopping" . Keimzelle ist das 1997 gegründete Mixed Reality Systems Labora- tory, das als Kompetenzzentrum gemeinsam von Wirtschaft und Wissenschaft getragen wird. Besondere Impulse im Konsumgüterbereich sind zukünftig durch die japanische Industrie für Unterhaltungselektronik zu erwarten. • Europa : In Europa sind bislang nur sehr wenige Forschergruppen im AR-Bereich tätig. Eine Gruppe an der Universität Wien befaßt sich mit Ansätzen für die gemischt-reale Visualisierung. Die Gruppe des IGD hat im Rahmen des inzwischen ausgelaufenen ACTS-Projektes
CICC erste Anwendungen für die Bauindustrie und einen wissenschaftlichen Prototypen zur Mitarbeiterschulung im Automobilbau entwickelt.
Die im Erfindung versteht sich insbesondere im speziellen Kontext der Anwendungsfeider " Produktions- und Werkzeugmaschinen" (NC-gesteuerte, automatisierungstechnische Prozesse) sowie "Diagnose-/Serviceunterstützungssysteme für komplexe technische Komponenten/Geräte/Systeme" (z.B. Fahrzeuge, aber auch industrielle Maschinen und Anlagen) .
In komplexen Anlagen mit räumlich verteilten Einzelkomponenten, aber auch in Anwendunsgsituationen wo die Beweglichkeit des Werkers wichtig ist stellt die übliche Verwendung relativ starr installierter Systeme (z.B. Monitore, Bedienterminals) zur Visualisierung und Bedienung, eine deutliche Einschränkung des Handlungsspielraums dar.
In der Regel ist der Werker/Facharbeiter situationsbedingt gezwungen, seine eigentliche Arbeitssituation zu verlassen, um an anderer Stelle Einblick in die aktuell relevanten Prozeßdaten zu erhalten oder bestimmte Bedienvorgänge vornehmen zu können. Mit der Verwendung mobiler, tragbarer Geräte lassen sich verschiedene Arbeitssituationen benutzergerechter bewerkstelligen.
Gegebenenfalls erfolgt heutzutage der Einsatz mehrerer Monitore räumlich verteilt in der Anlage oder konzentriert beispielsweise in einer Leitwarte.
Der Einsatz von bislang relativ starr installierten Systemen zur Visualisierung und Bedienung in der Anwendung, wird wie folgt ersetzt durch neuartige Geräte, die anwendungsgerecht in Kombination eingesetzt werden: Vor Ort, d.h. lokal an der Maschine/Anlagenkomponente, kommen mehrere „Einfachstgeräte" zum Einsatz, die anwendungsgerecht spezialisiert sind. Die vollständige Funktionalität zur anwendungsumfassenden Vi- sualisierung und Bedienung, wird mittels leistungsfähigen Bedieneinheiten, die mobil eingesetzt werden können, bereitgestellt. Der wesentliche Vorteil liegt in der Aufhebung der Mobilitätseinschränkung des Werkers. Darüber hinaus kommen neuartige Interaktionstechniken zur Verwendung ... multimodal (Sprache, Gestik, ...)
Bindung an fixe Terminals wird durch mobile Geräte ersetzt
Ablösung /Ergänzung der Maschinentafel durch Datenbrille
Der kombinierte Einsatz mit lokalen Terminals
Zusammenfassend betrifft die Erfindung somit ein Bedien- und
Beobachtungssystem, insbesondere für ein Automatisierungssystem, das aus mindestens einem ersten Bedien- und Beobach- tungssystem mit einer leistungsfähigen Funktionalität und aus einer Vielzahl weiteren Bedien- und Beobachtungswerkzeug mit einer eingeschränkten Funktionalität gebildet wird. Das erste Bedien- und Beobachtungssystem mit der leistungsfähigen Funktionalität ist mobil ausgebildet, wodurch es zu einer Aufhebung von Mobilitätsbeschränkungen kommt.

Claims

Patentansprüche
1. Augmented-Reality-System insbesondere für eine automatisierungstechnisch gesteuerte Vorrichtung mit mindestens einem ersten Bedien- und Beobachtungssystem mit einer leistungsfähigen Funktionalität und aus einer Vielzahl weiteren Bedien- und Beobachtungswerkzeugen mit einer eingeschränkten Funktionalität, wobei das erste Bedien- und Beobachtungssystem mit der leistungsfähigen Funktionalität mobil ausgebildet ist und für eine Erzielung einer vollen Leistungsfähigkeit zur Kopplung mit den weiteren Bedien- und Beobachtungswerkzeugen vorgesehen ist.
2. System nach Anspruch 1, d a d u r c h g e k e n n z e i c h n e t, daß die mobilen Bedien- und Beobachtungswerkzeuge über multimodale Interaktionstechniken, insbesondere Sprache und Gestik ansteuerbar sind.
3. System nach einem der Ansprüche 1 oder 2, d a d u r c h g e k e n n z e i c h n e t, daß das System Erfassungsmittel (2, 11) mit einer Sensorik, insbesondere einer Bildaufnahmevorrichtung zur Erfassung der ertsen Informationsdaten sowie Visualisierungsmittel (4) zur Visualisierung der zweiten Informationsdaten aufweist.
4. System nach einem der Ansprüche 1 bis 3, d a d u r c h g e k e n n z e i c h n e t, daß die Erfassungsmittel (2) anwendergesteuert sind und ins- besondere als sprachgesteuerte Erfassungsmittel und/oder durch Steuerdaten gesteuerte Erfassungsmittel ausgebildet sind.
5. System nach einem der Ansprüche 1 bis 4, d a d u r c h g e k e n n z e i c h n e t, daß die mobile Vorrichtung eine Datenbrille (4) aufweist.
6. Verfahren zum Bedienen und Beobachten einer automatisierungstechnisch gesteuerten Vorrichtung mittels Augmented- Reality-Techniken, bei dem die automatisierungstechnisch ge- steuerte Vorrichtung über ein erstes Bedien- und Beobachtungssystem mit einer leistungsfähigen Funktionalität in Kombination mit einer Vielzahl weiteren Bedien- und Beobachtungswerkzeugen mit einer eingeschränkten Funktionalität steuerbar ist, wobei das erste Bedien- und Beobachtungssystem mit der leistungsfähigen Funktionalität mobil ausgebildet ist und für eine Erzielung einer vollen Leistungsfähigkeit zur Kopplung mit den weiteren Bedien- und Beobachtungswerkzeugen vorgesehen ist.
7. Verfahren nach Anspruch 6, d a d u r c h g e k e n n z e i c h n e t, daß die mobilen Bedien- und Beobachtungswerkzeuge über multimodale Interaktionstechniken, insbesondere Sprache und Gestik ansteuerbar sind.
8. Verfahren nach einem der Ansprüche 6 oder 7, d a d u r c h g e k e n n z e i c h n e t, daß die ersten Informationsdaten mittels Erfassungsmitteln (2, 11) mit einer Sensorik, insbesondere einer Bildaufnahme- Vorrichtung erfaßt und daß die zweiten Informationsdaten mittels Visualisierungsmitteln (4) dem Anwender (7) visualisiert werden .
9. Verfahren nach einem der Ansprüche 6 bis 8, d a d u r c h g e k e n n z e i c h n e t, daß die Erfassungsmittel (2) anwendergesteuert sind und insbesondere als sprachgesteuerte Erfassungsmittel und/oder durch Steuerdaten gesteuerte Erfassungsmittel ausgebildet sind.
10. Verfahren nach einem der Ansprüche 6 bis 9, d a d u r c h g e k e n n z e i c h n e t, daß die Erfassungsmittel (2) und/oder die Visualisierungsmittel als Datenbrille ausgebildet sind.
PCT/DE2000/000667 1999-03-02 2000-03-02 Augmented-reality-system mit einsatz mobiler geräte WO2000052540A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP00915137A EP1157315B1 (de) 1999-03-02 2000-03-02 Augmented-reality-system mit einsatz mobiler geräte
DE50007902T DE50007902D1 (de) 1999-03-02 2000-03-02 Augmented-reality-system mit einsatz mobiler geräte
JP2000602896A JP2002538700A (ja) 1999-03-02 2000-03-02 モバイル機器を使用した強調現実感システム
US09/945,777 US6941248B2 (en) 1999-03-02 2001-09-04 System for operating and observing making use of mobile equipment

Applications Claiming Priority (18)

Application Number Priority Date Filing Date Title
DE19909009 1999-03-02
DE19909018 1999-03-02
DE19909154 1999-03-02
DE19909010.6 1999-03-02
DE19909023 1999-03-02
DE19909154.4 1999-03-02
DE19909011 1999-03-02
DE19909009.2 1999-03-02
DE19909010 1999-03-02
DE19909016 1999-03-02
DE19909016.5 1999-03-02
DE19909013.0 1999-03-02
DE19909011.4 1999-03-02
DE19909013 1999-03-02
DE19909012.2 1999-03-02
DE19909012 1999-03-02
DE19909023.8 1999-03-02
DE19909018.1 1999-03-02

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US09/945,777 Continuation US6941248B2 (en) 1999-03-02 2001-09-04 System for operating and observing making use of mobile equipment

Publications (1)

Publication Number Publication Date
WO2000052540A1 true WO2000052540A1 (de) 2000-09-08

Family

ID=27576004

Family Applications (7)

Application Number Title Priority Date Filing Date
PCT/DE2000/000657 WO2000052536A1 (de) 1999-03-02 2000-03-02 Bedien- und beobachtungssystem mit augmented reality-techniken
PCT/DE2000/000667 WO2000052540A1 (de) 1999-03-02 2000-03-02 Augmented-reality-system mit einsatz mobiler geräte
PCT/DE2000/000658 WO2000052542A1 (de) 1999-03-02 2000-03-02 Augmented reality-system zur einhaltung von qualitäts- bzw. sicherheitsanforderungen
PCT/DE2000/000668 WO2000052541A1 (de) 1999-03-02 2000-03-02 System und verfahren zur situationsgerechten unterstützung der interaktion mit hilfe von augmented-reality-technologien
PCT/DE2000/000659 WO2000052537A1 (de) 1999-03-02 2000-03-02 Nutzung von augmented reality-basistechnologien zur situationsgerechten unterstützung des facharbeiters durch entfernte experten
PCT/DE2000/000664 WO2000052539A1 (de) 1999-03-02 2000-03-02 Augmented-reality-system zur situationsgerechten unterstützung der interaktion zwischen einem anwender und einer technischen vorrichtung
PCT/DE2000/000660 WO2000052538A1 (de) 1999-03-02 2000-03-02 Augmented-reality-system mit sprachbasierter erfassung von informationsdaten, insbesondere von serviceberichten

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/DE2000/000657 WO2000052536A1 (de) 1999-03-02 2000-03-02 Bedien- und beobachtungssystem mit augmented reality-techniken

Family Applications After (5)

Application Number Title Priority Date Filing Date
PCT/DE2000/000658 WO2000052542A1 (de) 1999-03-02 2000-03-02 Augmented reality-system zur einhaltung von qualitäts- bzw. sicherheitsanforderungen
PCT/DE2000/000668 WO2000052541A1 (de) 1999-03-02 2000-03-02 System und verfahren zur situationsgerechten unterstützung der interaktion mit hilfe von augmented-reality-technologien
PCT/DE2000/000659 WO2000052537A1 (de) 1999-03-02 2000-03-02 Nutzung von augmented reality-basistechnologien zur situationsgerechten unterstützung des facharbeiters durch entfernte experten
PCT/DE2000/000664 WO2000052539A1 (de) 1999-03-02 2000-03-02 Augmented-reality-system zur situationsgerechten unterstützung der interaktion zwischen einem anwender und einer technischen vorrichtung
PCT/DE2000/000660 WO2000052538A1 (de) 1999-03-02 2000-03-02 Augmented-reality-system mit sprachbasierter erfassung von informationsdaten, insbesondere von serviceberichten

Country Status (5)

Country Link
US (5) US6941248B2 (de)
EP (5) EP1159657B1 (de)
JP (5) JP2002538543A (de)
DE (5) DE50003377D1 (de)
WO (7) WO2000052536A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10027136A1 (de) * 2000-05-31 2002-05-16 Luigi Grasso Mobiles System zur Erzeugung eines virtuellen Displays
DE10103922A1 (de) * 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
JP2003080482A (ja) * 2001-09-07 2003-03-18 Yaskawa Electric Corp ロボット教示装置
WO2009046095A1 (en) 2007-10-01 2009-04-09 Iconics, Inc. Visualization of process control data
DE10048563B4 (de) * 2000-09-30 2010-11-25 Meissner, Werner Vorrichtung zur Fernwartung von technischen Einrichtungen
CN108388138A (zh) * 2018-02-02 2018-08-10 宁夏玲杰科技有限公司 设备控制方法、装置及系统

Families Citing this family (220)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10024412A1 (de) * 2000-05-19 2001-11-29 Westfalia Separator Ind Gmbh Verfahren zur Steuerung von Maschinen und Informationssystemen
US8482488B2 (en) 2004-12-22 2013-07-09 Oakley, Inc. Data input management system for wearable electronically enabled interface
US20120105740A1 (en) 2000-06-02 2012-05-03 Oakley, Inc. Eyewear with detachable adjustable electronics module
DE10127396A1 (de) * 2000-06-13 2001-12-20 Volkswagen Ag Verfahren zum Verwerten eines Altfahrzeugs
JP4701479B2 (ja) * 2000-07-05 2011-06-15 ソニー株式会社 リンク情報表示装置及びその表示方法
DE10048743C2 (de) * 2000-09-29 2002-11-28 Siemens Ag Automatisierungsanlage
US20020044152A1 (en) * 2000-10-16 2002-04-18 Abbott Kenneth H. Dynamic integration of computer generated and real world images
ITBO20000608A1 (it) 2000-10-18 2002-04-18 Gd Spa Metodo e macchina automatica per la lavorazione di un prodotto
US20120154438A1 (en) * 2000-11-06 2012-06-21 Nant Holdings Ip, Llc Interactivity Via Mobile Image Recognition
DE10063089C1 (de) * 2000-12-18 2002-07-25 Siemens Ag Anwendergesteuerte Verknüpfung von Informationen innerhalb eines Augmented-Reality-Systems
DE10108064A1 (de) * 2001-02-20 2002-09-05 Siemens Ag Verknüpfte Eye-Tracking-Information innerhalb eines Augmented-Reality-Systems
US7013009B2 (en) 2001-06-21 2006-03-14 Oakley, Inc. Eyeglasses with wireless communication features
FI20012231A (fi) * 2001-06-21 2002-12-22 Ismo Rakkolainen Järjestelmä käyttöliittymän luomiseksi
GB2378371A (en) * 2001-07-31 2003-02-05 Hewlett Packard Co Virtual "Big Brother" broadcasting
US6976067B2 (en) * 2001-09-06 2005-12-13 International Business Machines Corporation Method and apparatus for providing entitlement information for interactive support
US6871322B2 (en) 2001-09-06 2005-03-22 International Business Machines Corporation Method and apparatus for providing user support through an intelligent help agent
US6973620B2 (en) * 2001-09-06 2005-12-06 International Business Machines Corporation Method and apparatus for providing user support based on contextual information
US7451126B2 (en) * 2001-10-18 2008-11-11 Omron Corporation State space navigation system, user system and business methods for machine to machine business
US7126558B1 (en) 2001-10-19 2006-10-24 Accenture Global Services Gmbh Industrial augmented reality
DE10159610B4 (de) * 2001-12-05 2004-02-26 Siemens Ag System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung
EP1487616B1 (de) * 2002-03-20 2010-06-30 Volkswagen Aktiengesellschaft Automatische prozesskontrolle
EP1403863A3 (de) * 2002-05-31 2006-09-27 Heidelberger Druckmaschinen Aktiengesellschaft Vorrichtung und Verfahren zum Auffinden und Darstellen von Informationen
DE10255056A1 (de) * 2002-11-25 2004-06-03 Grob-Werke Burkhart Grob E.K. Station mit Bedienfeld
SE0203908D0 (sv) * 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
DE10305384A1 (de) 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
JP2007523781A (ja) 2003-02-24 2007-08-23 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト 車両における修理手順を視覚化するための方法及び装置
DE10325895A1 (de) * 2003-06-06 2005-01-05 Siemens Ag Werkzeug- oder Produktionsmaschine mit Head-up-Display
DE10325894B4 (de) 2003-06-06 2010-12-09 Siemens Ag Werkzeug- oder Produktionsmaschine mit Anzeigeeinheit zur Visualisierung von Arbeitsabläufen
DE10326627A1 (de) * 2003-06-11 2005-01-05 Endress + Hauser Gmbh + Co. Kg Verfahren zur Funktionsanzeige eines Feldgerätes der Prozessautomatisierungstechnik
US20050022228A1 (en) * 2003-07-21 2005-01-27 Videotest Llc Digital recording-based computer testing and debugging system
US7852355B2 (en) 2003-11-10 2010-12-14 Siemens Aktiengesellschaft System and method for carrying out and visually displaying simulations in an augmented reality
DE102004016329A1 (de) * 2003-11-10 2005-05-25 Siemens Ag System und Verfahren zur Durchführung und Visualisierung von Simulationen in einer erweiterten Realität
US8600550B2 (en) * 2003-12-12 2013-12-03 Kurzweil Technologies, Inc. Virtual encounters
US20050130108A1 (en) * 2003-12-12 2005-06-16 Kurzweil Raymond C. Virtual encounters
US9841809B2 (en) * 2003-12-12 2017-12-12 Kurzweil Technologies, Inc. Virtual encounters
US9971398B2 (en) * 2003-12-12 2018-05-15 Beyond Imagination Inc. Virtual encounters
US9948885B2 (en) 2003-12-12 2018-04-17 Kurzweil Technologies, Inc. Virtual encounters
DE102005011616B4 (de) * 2004-05-28 2014-12-04 Volkswagen Ag Mobile Trackingeinheit
JP2006071359A (ja) * 2004-08-31 2006-03-16 Sysmex Corp 遠隔管理方法、遠隔管理システム、状態報告装置、および管理装置
DE102004044718A1 (de) * 2004-09-10 2006-03-16 Volkswagen Ag Augmented Reality Autoren System
DE102004053774A1 (de) * 2004-11-08 2006-05-11 Siemens Ag System zur Messung und Interpretation von Hirnaktivitäten
DE102005061211B4 (de) 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
US7715037B2 (en) 2005-03-01 2010-05-11 Xerox Corporation Bi-directional remote visualization for supporting collaborative machine troubleshooting
DE102005009437A1 (de) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
US8150666B2 (en) * 2005-03-14 2012-04-03 Holomar, Inc. Methods and systems for combining models of goods and services
JP4933164B2 (ja) 2005-07-01 2012-05-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび記憶媒体
US7362738B2 (en) * 2005-08-09 2008-04-22 Deere & Company Method and system for delivering information to a user
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US7920071B2 (en) * 2006-05-26 2011-04-05 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method providing status and control of unmanned vehicles
EP2095178B1 (de) 2006-12-14 2015-08-12 Oakley, Inc. Tragbare hochauflösende audiovisuelle schnittstelle
US20080218331A1 (en) * 2007-03-08 2008-09-11 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method to show the location of personnel and sensors inside occluded structures and provide increased situation awareness
DE102007025796B4 (de) * 2007-06-02 2010-07-15 Koenig & Bauer Aktiengesellschaft Mobiler Leitstand einer Rotationsdruckmaschine
US20090037378A1 (en) * 2007-08-02 2009-02-05 Rockwell Automation Technologies, Inc. Automatic generation of forms based on activity
WO2009036782A1 (en) 2007-09-18 2009-03-26 Vrmedia S.R.L. Information processing apparatus and method for remote technical assistance
KR100914848B1 (ko) * 2007-12-15 2009-09-02 한국전자통신연구원 혼합현실 시스템 및 그 구현 방법
US8485038B2 (en) 2007-12-18 2013-07-16 General Electric Company System and method for augmented reality inspection and data visualization
WO2009094587A1 (en) * 2008-01-23 2009-07-30 Deering Michael F Eye mounted displays
US8786675B2 (en) * 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
US9812096B2 (en) 2008-01-23 2017-11-07 Spy Eye, Llc Eye mounted displays and systems using eye mounted displays
DE102008009446A1 (de) * 2008-02-15 2009-08-20 Volkswagen Ag Verfahren zur Prüfung eines komplexen Systems auf Abweichungen von Qualitätsvorgaben und/oder auf Fehlerhaftigkeit und Vorrichtung zur Unterstützung einer Prüfperson bei einer solchen Prüfung
DE102008020771A1 (de) * 2008-04-21 2009-07-09 Carl Zeiss 3D Metrology Services Gmbh Bestimmung von Abweichungen zwischen einem Sollzustand und einem Istzustand eines Werkstückes
DE102008020772A1 (de) * 2008-04-21 2009-10-22 Carl Zeiss 3D Metrology Services Gmbh Darstellung von Ergebnissen einer Vermessung von Werkstücken
US7980512B1 (en) * 2008-06-13 2011-07-19 The Boeing Company System and method for displaying aerial refueling symbology
US20100082118A1 (en) * 2008-09-30 2010-04-01 Rockwell Automation Technologies, Inc. User interface display object for logging user-implemented solutions to industrial field problems
DE102009021729A1 (de) * 2009-05-11 2010-11-18 Michael Weinig Ag Maschine zum Bearbeiten von Werkstücken aus Holz, Kunststoff und dergleichen
TWI423112B (zh) * 2009-12-09 2014-01-11 Ind Tech Res Inst 可攜式虛擬輸入操作裝置與其操作方法
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
AU2011220382A1 (en) * 2010-02-28 2012-10-18 Microsoft Corporation Local advertising content on an interactive head-mounted eyepiece
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US8351057B2 (en) 2010-03-18 2013-01-08 Xerox Corporation Self-powered user interface providing assembly instructions
MY173983A (en) 2010-03-30 2020-03-02 Ns Solutions Corp Information providing apparatus, information providing method and program
CN101833896B (zh) * 2010-04-23 2011-10-19 西安电子科技大学 基于增强现实的地理信息指引方法与系统
JP4913913B2 (ja) * 2010-04-28 2012-04-11 新日鉄ソリューションズ株式会社 情報処理システム、情報処理方法及びプログラム
US20110316845A1 (en) * 2010-06-25 2011-12-29 Palo Alto Research Center Incorporated Spatial association between virtual and augmented reality
KR101363559B1 (ko) * 2010-07-23 2014-02-17 주식회사 팬택 부가 데이터를 이용한 증강 현실 제공 장치 및 증강 현실 제공 방법
US8621362B2 (en) 2011-01-21 2013-12-31 Xerox Corporation Mobile screen methods and systems for collaborative troubleshooting of a device
JP2012043396A (ja) * 2010-08-13 2012-03-01 Hyundai Motor Co Ltd 拡張現実を用いた車両消耗品管理システム及びその方法
KR101219933B1 (ko) 2010-09-13 2013-01-08 현대자동차주식회사 증강현실을 이용한 차량 내 디바이스 제어 시스템 및 그 방법
WO2012060039A1 (ja) * 2010-11-02 2012-05-10 Necカシオモバイルコミュニケーションズ株式会社 情報処理システム、および情報処理方法
US8490877B2 (en) 2010-11-09 2013-07-23 Metrologic Instruments, Inc. Digital-imaging based code symbol reading system having finger-pointing triggered mode of operation
CN102116876B (zh) * 2011-01-14 2013-04-17 中国科学院上海技术物理研究所 基于轨迹编目模型的空间点目标天基探测方法
JP2012155403A (ja) * 2011-01-24 2012-08-16 Yokogawa Electric Corp フィールド機器監視システム
US20120249588A1 (en) * 2011-03-22 2012-10-04 Panduit Corp. Augmented Reality Data Center Visualization
DE102011017305A1 (de) * 2011-04-15 2012-10-18 Abb Technology Ag Bedien- und Beobachtungssystem für technische Anlagen
WO2011137764A2 (zh) 2011-05-11 2011-11-10 华为终端有限公司 实现增强现实应用的方法及系统
US20120304059A1 (en) * 2011-05-24 2012-11-29 Microsoft Corporation Interactive Build Instructions
MY186462A (en) * 2011-06-06 2021-07-22 Paramit Corp Training ensurance method and system for computer directed assembly and manufacturing
US20120326948A1 (en) * 2011-06-22 2012-12-27 Microsoft Corporation Environmental-light filter for see-through head-mounted display device
US8872852B2 (en) 2011-06-30 2014-10-28 International Business Machines Corporation Positional context determination with multi marker confidence ranking
US9128520B2 (en) * 2011-09-30 2015-09-08 Microsoft Technology Licensing, Llc Service provision using personal audio/visual system
AU2013221430B2 (en) 2012-02-17 2015-11-26 Oakley, Inc. Systems and methods for removably coupling an electronic device to eyewear
DE102013010719A1 (de) 2012-07-30 2014-01-30 Heidelberger Druckmaschinen Ag Maschinenzustandsbasierte Anzeige von Dokumentationen
US8965624B2 (en) 2012-08-14 2015-02-24 Ebay Inc. Method and system of vehicle tracking portal
US8933970B2 (en) 2012-09-11 2015-01-13 Longsand Limited Controlling an augmented reality object
DE102012217570A1 (de) * 2012-09-27 2014-03-27 Krones Ag Verfahren zur Unterstützung von Bedien- und Umstellprozessen
US9120226B2 (en) 2012-10-23 2015-09-01 Lincoln Global, Inc. System and method for remotely positioning an end effector
US9952438B1 (en) * 2012-10-29 2018-04-24 The Boeing Company Augmented reality maintenance system
ITBO20130107A1 (it) * 2013-03-12 2014-09-13 Gd Spa Sistema di supporto operatore nella gestione di una macchina automatica e corrispondenti metodo e macchina automatica
US9959190B2 (en) * 2013-03-12 2018-05-01 International Business Machines Corporation On-site visualization of component status
CN205177388U (zh) 2013-03-15 2016-04-20 奥克利有限公司 目镜系统
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
WO2014201213A1 (en) 2013-06-12 2014-12-18 Oakley, Inc. Modular heads-up display system
ES2525104B1 (es) * 2013-06-17 2015-09-29 Proyectos, Ingeniería Y Gestión, Sociedad Anónima (P.R.O.I.N.G.E., S.A.) Sistema de supervisión y ayuda de las operaciones manuales de ensamblado industrial mediante realidad aumentada y procedimiento de uso
DE102013211502A1 (de) 2013-06-19 2014-12-24 Robert Bosch Gmbh Identifikationsvorrichtung
JP6355909B2 (ja) * 2013-10-18 2018-07-11 三菱重工業株式会社 検査記録装置及び検査記録評価方法
US9740935B2 (en) * 2013-11-26 2017-08-22 Honeywell International Inc. Maintenance assistant system
US9993335B2 (en) 2014-01-08 2018-06-12 Spy Eye, Llc Variable resolution eye mounted displays
WO2015125066A1 (en) * 2014-02-19 2015-08-27 Fieldbit Ltd. System and method for facilitating equipment maintenance using smartglasses
EP3132390A1 (de) 2014-04-16 2017-02-22 Exxonmobil Upstream Research Company Verfahren und system zur bereitstellung von verfahren in echtzeit
EP3145385A4 (de) * 2014-05-22 2018-02-14 Invuity, Inc. Medizinische vorrichtung mit umhülltem wellenleiter
DE102014012710A1 (de) 2014-08-27 2016-03-03 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
US9955059B2 (en) 2014-10-29 2018-04-24 Kabushiki Kaisha Toshiba Electronic device, method, and computer program product
US9746913B2 (en) 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
US9697432B2 (en) 2014-12-09 2017-07-04 International Business Machines Corporation Generating support instructions by leveraging augmented reality
DE102014226554A1 (de) * 2014-12-19 2016-06-23 Robert Bosch Gmbh Identifikations- und Reparaturunterstützungs-Vorrichtung und -Verfahren
US10429823B2 (en) 2014-12-29 2019-10-01 Abb Schweiz Ag Method for identifying a sequence of events associated with a condition in a process plant
US9869996B2 (en) * 2015-01-08 2018-01-16 The Boeing Company System and method for using an internet of things network for managing factory production
DE102015201290A1 (de) * 2015-01-26 2016-07-28 Prüftechnik Dieter Busch AG Positionieren zweier Körper mittels eines Ausrichtsystems mit einer Datenbrille
WO2016153628A2 (en) 2015-02-25 2016-09-29 Brian Mullins Augmented reality content creation
US10142596B2 (en) 2015-02-27 2018-11-27 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus of secured interactive remote maintenance assist
EP3068002B1 (de) 2015-03-12 2019-11-06 Schleuniger Holding AG Kabelbearbeitungsmaschine mit verbessertem genauigkeitsmechanismus zur kabelverarbeitung
EP3067769B1 (de) * 2015-03-12 2017-10-04 Schleuniger Holding AG Kabelbearbeitungsmaschinenüberwachung mit verbessertem genauigkeitsmechanismus zur kabelverarbeitung
EP3073452B1 (de) * 2015-03-26 2020-04-29 Skidata Ag Verfahren zur Überwachung und Steuerung eines Zugangskontrollsystems
DE102015207134A1 (de) * 2015-04-20 2016-10-20 Prüftechnik Dieter Busch AG Verfahren zum Erfassen von Vibrationen einer Vorrichtung und Vibrationserfassungssystem
WO2016171894A1 (en) 2015-04-20 2016-10-27 NSF International Computer-implemented methods for remotely interacting with performance of food quality and workplace safety tasks using a head mounted display
US9589390B2 (en) 2015-05-13 2017-03-07 The Boeing Company Wire harness assembly
JP6554948B2 (ja) * 2015-07-07 2019-08-07 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
DE102015214350A1 (de) * 2015-07-29 2017-02-02 Siemens Healthcare Gmbh Verfahren zu einer Kommunikation zwischen einem medizinischen Netzwerk und einem medizinischen Bedienpersonal mittels einer mobilen Datenbrille, sowie eine mobile Datenbrille
US11172273B2 (en) 2015-08-10 2021-11-09 Delta Energy & Communications, Inc. Transformer monitor, communications and data collection device
WO2017027682A1 (en) 2015-08-11 2017-02-16 Delta Energy & Communications, Inc. Enhanced reality system for visualizing, evaluating, diagnosing, optimizing and servicing smart grids and incorporated components
WO2017041093A1 (en) 2015-09-03 2017-03-09 Delta Energy & Communications, Inc. System and method for determination and remediation of energy diversion in a smart grid network
US10984363B2 (en) 2015-09-04 2021-04-20 International Business Machines Corporation Summarization of a recording for quality control
US9838844B2 (en) 2015-09-25 2017-12-05 Ca, Inc. Using augmented reality to assist data center operators
DE102015116401A1 (de) 2015-09-28 2017-03-30 ESSERT Steuerungstechnik GmbH System, insbesondere Augmented-Reality-System, zu einer Bedienung und/oder zu einer Instandhaltung einer technischen Anlage
CA3000206C (en) 2015-10-02 2023-10-17 Delta Energy & Communications, Inc. Supplemental and alternative digital data delivery and receipt mesh network realized through the placement of enhanced transformer mounted monitoring devices
US10476597B2 (en) 2015-10-22 2019-11-12 Delta Energy & Communications, Inc. Data transfer facilitation across a distributed mesh network using light and optical based technology
US9961572B2 (en) 2015-10-22 2018-05-01 Delta Energy & Communications, Inc. Augmentation, expansion and self-healing of a geographically distributed mesh network using unmanned aerial vehicle (UAV) technology
CN106896732B (zh) * 2015-12-18 2020-02-04 美的集团股份有限公司 家用电器的展示方法和装置
CA3054546C (en) 2016-02-24 2022-10-11 Delta Energy & Communications, Inc. Distributed 802.11s mesh network using transformer module hardware for the capture and transmission of data
EP3214586A1 (de) 2016-03-04 2017-09-06 Thales Deutschland GmbH Verfahren zur wartungsunterstützung und aufrechterhaltungsunterstützungssystem
EP3223208A1 (de) * 2016-03-22 2017-09-27 Hexagon Technology Center GmbH Selbsttätige steuerung
US10187686B2 (en) 2016-03-24 2019-01-22 Daqri, Llc Recording remote expert sessions
EP3179450B1 (de) * 2016-04-12 2020-09-09 Siemens Healthcare GmbH Verfahren zur multisensorischen darstellung eines objekts und darstellungssystem
CN105929948B (zh) * 2016-04-14 2018-12-04 佛山市威格特电气设备有限公司 基于增强现实自学习型智能头盔及其运行方法
US10142410B2 (en) 2016-04-29 2018-11-27 Raytheon Company Multi-mode remote collaboration
EP3260255B1 (de) * 2016-06-24 2019-08-21 Zünd Systemtechnik Ag System zum schneiden von schneidgut
US10652633B2 (en) 2016-08-15 2020-05-12 Delta Energy & Communications, Inc. Integrated solutions of Internet of Things and smart grid network pertaining to communication, data and asset serialization, and data modeling algorithms
US11348475B2 (en) * 2016-12-09 2022-05-31 The Boeing Company System and method for interactive cognitive task assistance
JP2018097160A (ja) * 2016-12-14 2018-06-21 セイコーエプソン株式会社 表示システム、表示装置、及び、表示装置の制御方法
US11042858B1 (en) 2016-12-23 2021-06-22 Wells Fargo Bank, N.A. Assessing validity of mail item
DE102017201827A1 (de) 2017-02-06 2018-08-09 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zur Korrektur von Abweichungen in einem Herstellungsprozess eines Gegenstands
CN108418776B (zh) * 2017-02-09 2021-08-20 上海诺基亚贝尔股份有限公司 用于提供安全业务的方法和设备
US10872289B2 (en) 2017-04-08 2020-12-22 Geun Il Kim Method and system for facilitating context based information
US10223821B2 (en) 2017-04-25 2019-03-05 Beyond Imagination Inc. Multi-user and multi-surrogate virtual encounters
DE102017207992A1 (de) * 2017-05-11 2018-11-15 Homag Gmbh Verfahren zur Überwachung eines Fertigungsprozesses
US20180338119A1 (en) * 2017-05-18 2018-11-22 Visual Mobility Inc. System and method for remote secure live video streaming
US10748443B2 (en) 2017-06-08 2020-08-18 Honeywell International Inc. Apparatus and method for visual-assisted training, collaboration, and monitoring in augmented/virtual reality in industrial automation systems and other systems
CN107358657B (zh) * 2017-06-30 2019-01-15 海南职业技术学院 基于增强现实技术实现互动的方法和系统
US10573081B2 (en) * 2017-08-03 2020-02-25 Taqtile, Inc. Authoring virtual and augmented reality environments via an XR collaboration application
DE102017215114A1 (de) * 2017-08-30 2019-02-28 Deutsches Zentrum für Luft- und Raumfahrt e.V. Manipulatorsystem und Verfahren zum Steuern eines robotischen Manipulators
KR102434402B1 (ko) * 2017-09-19 2022-08-22 한국전자통신연구원 혼합현실 콘텐츠를 제공하는 장치 및 방법
US10796487B2 (en) * 2017-09-27 2020-10-06 Fisher-Rosemount Systems, Inc. 3D mapping of a process control environment
IT201700114872A1 (it) * 2017-10-12 2019-04-12 New Changer S R L Apparato di visione per l'ausilio al cablaggio di fibra ottica
EP3701355A1 (de) * 2017-10-23 2020-09-02 Koninklijke Philips N.V. Selbstexpandierende dienstbefehlsbibliothek der erweiterten realität
EP3483104B1 (de) 2017-11-10 2021-09-01 Otis Elevator Company Systeme und verfahren zur bereitstellung von informationen in bezug auf aufzugsanlagen
GB201719274D0 (en) * 2017-11-21 2018-01-03 Agco Int Gmbh Implement tractor connection application
WO2019123187A1 (en) * 2017-12-20 2019-06-27 Nws Srl Virtual training method
US11074292B2 (en) * 2017-12-29 2021-07-27 Realwear, Inc. Voice tagging of video while recording
JP7017777B2 (ja) * 2018-02-01 2022-02-09 国立研究開発法人産業技術総合研究所 情報処理装置、情報処理方法、および、情報処理装置用プログラム
TWI659279B (zh) * 2018-02-02 2019-05-11 國立清華大學 基於擴充實境的加工規劃設備
DE102018003360A1 (de) * 2018-03-11 2019-09-12 Cinovation Gmbh Verfahren zum betreiben einer datenbrille, verfahren zum unterstützen einer tätigkeitsausführenden person, verfahren zum kommissionieren von waren, einrichtung zum betätigen von funktionen sowie warenlager
US10796153B2 (en) 2018-03-12 2020-10-06 International Business Machines Corporation System for maintenance and repair using augmented reality
US10839214B2 (en) 2018-03-13 2020-11-17 International Business Machines Corporation Automated intent to action mapping in augmented reality environments
US11681970B2 (en) * 2018-04-30 2023-06-20 Telefonaktiebolaget Lm Ericsson (Publ) Automated augmented reality rendering platform for providing remote expert assistance
WO2019224857A1 (en) 2018-05-21 2019-11-28 I.M.A. Industria Macchine Automatiche S.P.A. Method to assist an operator in performing interventions on an operating machine
WO2019241340A1 (en) * 2018-06-12 2019-12-19 Current Lighting Solutions, Llc Integrated management of sensitive controlled environments and items contained therein
US11200811B2 (en) 2018-08-03 2021-12-14 International Business Machines Corporation Intelligent recommendation of guidance instructions
US11244509B2 (en) * 2018-08-20 2022-02-08 Fisher-Rosemount Systems, Inc. Drift correction for industrial augmented reality applications
US11094220B2 (en) 2018-10-23 2021-08-17 International Business Machines Corporation Intelligent augmented reality for technical support engineers
CN110488790A (zh) * 2018-11-30 2019-11-22 国核自仪系统工程有限公司 基于增强现实的核电仪控运维系统
WO2020120180A1 (en) * 2018-12-10 2020-06-18 Koninklijke Philips N.V. Systems and methods for augmented reality-enhanced field services support
CN109658519B (zh) * 2018-12-28 2022-07-12 吉林大学 基于现实路况信息图像处理的车载多模式增强现实系统
DE102019104822A1 (de) * 2019-02-26 2020-08-27 Wago Verwaltungsgesellschaft Mbh Verfahren und Vorrichtung zum Überwachen eines industriellen Prozessschrittes
US11209795B2 (en) * 2019-02-28 2021-12-28 Nanotronics Imaging, Inc. Assembly error correction for assembly lines
US10481579B1 (en) 2019-02-28 2019-11-19 Nanotronics Imaging, Inc. Dynamic training for assembly lines
DE102019002139A1 (de) * 2019-03-26 2020-10-01 Diehl Defence Gmbh & Co. Kg Verfahren zur Prozessdokumentation
CN113168676A (zh) 2019-04-18 2021-07-23 贝克曼库尔特有限公司 保护实验室环境中对象的数据
JP6993382B2 (ja) 2019-04-26 2022-02-04 ファナック株式会社 ロボット教示装置
DE102019112289B3 (de) 2019-05-10 2020-06-18 Controlexpert Gmbh Verfahren zur Schadenserfassung bei einem Kraftfahrzeug
DE102019113799B4 (de) 2019-05-23 2024-04-25 Carl Zeiss Industrielle Messtechnik Gmbh Messsystem und Verfahren zum Vermessen eines Messobjekts
DE102019006448A1 (de) 2019-09-12 2021-03-18 Daimler Ag Verfahren zum Betreiben einer Kommunikationsplattform zur Problembehebung für ein Kraftfahrzeug, sowie Kommunikationsplattform
US11166050B2 (en) * 2019-12-11 2021-11-02 At&T Intellectual Property I, L.P. Methods, systems, and devices for identifying viewed action of a live event and adjusting a group of resources to augment presentation of the action of the live event
US11507400B2 (en) 2020-02-28 2022-11-22 Wipro Limited Method and system for providing real-time remote assistance to a user
US11080938B1 (en) 2020-03-30 2021-08-03 International Business Machines Corporation Automatic summarization of remotely-guided augmented reality sessions
US11138802B1 (en) 2020-04-06 2021-10-05 Saudi Arabian Oil Company Geo-augmented field excursion for geological sites
US11270459B2 (en) * 2020-04-22 2022-03-08 Dell Products L.P. Enterprise system augmented reality detection
CN115917447A (zh) * 2020-07-06 2023-04-04 西门子股份公司 用于技术设备的分析系统
US11816887B2 (en) 2020-08-04 2023-11-14 Fisher-Rosemount Systems, Inc. Quick activation techniques for industrial augmented reality applications
WO2022037758A1 (en) 2020-08-18 2022-02-24 Siemens Aktiengesellschaft Remote collaboration using augmented and virtual reality
EP3971833A1 (de) 2020-09-22 2022-03-23 Koninklijke Philips N.V. Steuerungssystem für eine vorrichtung für erweiterte vorrichtung
KR102605552B1 (ko) * 2020-12-29 2023-11-27 주식회사 딥파인 증강현실시스템
DE102021118085A1 (de) 2021-07-13 2023-01-19 Koenig & Bauer Ag Verfahren zur Informationsbereitstellung an einer Druckmaschine und/oder peripheren Geräten
US11943227B2 (en) 2021-09-17 2024-03-26 Bank Of America Corporation Data access control for augmented reality devices
WO2023075308A1 (ko) * 2021-10-26 2023-05-04 (주)메가플랜 제품의 정비를 가이드 하는 전자 장치 및 전자 장치의 동작 방법
WO2024068855A1 (de) * 2022-09-30 2024-04-04 Murrelektronik Gmbh Verfahren für eine computer-gestützte installation von räumlich dezentral angeordneten, elektrischen komponenten einer maschine durch mehrere benutzer mit benutzerspezifischer unterstützung
EP4345554A1 (de) * 2022-09-30 2024-04-03 Murrelektronik GmbH Verfahren für eine computer-gestützte installation von räumlich dezentral angeordneten, elektrischen komponenten einer maschine

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0597127A1 (de) * 1992-05-26 1994-05-18 Fanuc Ltd. Numerisch gesteuerte vorrichtung
US5712649A (en) * 1991-11-01 1998-01-27 Sega Enterprises Head-mounted image display
US5748495A (en) * 1989-12-22 1998-05-05 Hitachi, Ltd. Plant operating and monitoring apparatus
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images

Family Cites Families (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE8305378L (sv) * 1983-09-30 1985-03-31 Asea Ab Industrirobot
FR2594968B1 (fr) * 1986-02-21 1988-09-16 Alsthom Dispositif d'assistance aux operations de montage d'un assemblage avec autocontrole
US4834473A (en) * 1986-03-26 1989-05-30 The Babcock & Wilcox Company Holographic operator display for control systems
US4796206A (en) * 1986-06-02 1989-01-03 International Business Machines Corporation Computer assisted vehicle service featuring signature analysis and artificial intelligence
US5003300A (en) * 1987-07-27 1991-03-26 Reflection Technology, Inc. Head mounted display for miniature video display system
US5136526A (en) * 1987-09-03 1992-08-04 Reinhold Baur Determination of the thickness of a magnetic tape
US5121319A (en) * 1989-10-23 1992-06-09 International Business Machines Corporation Method and apparatus for selective suspension and resumption of computer based manufacturing processes
US5717598A (en) * 1990-02-14 1998-02-10 Hitachi, Ltd. Automatic manufacturability evaluation method and system
DE69030879T2 (de) * 1990-07-09 1997-10-02 Bell Helicopter Textron Inc Verfahren und gerät zur halbautomatisierten einfügung von leitern in trapezanschlüsse
JP2865828B2 (ja) * 1990-08-22 1999-03-08 株式会社日立製作所 操作手順の表示方法及びその装置
DE4119803A1 (de) * 1991-06-15 1992-12-17 Bernd Dipl Ing Kelle Ein verfahren zur akustischen bedienerfuehrung an einer von hand zu bedienenden werkzeugmaschine im rahmen der werkstattorientierten programmierung
US5781913A (en) * 1991-07-18 1998-07-14 Felsenstein; Lee Wearable hypermedium system
US5450596A (en) * 1991-07-18 1995-09-12 Redwear Interactive Inc. CD-ROM data retrieval system using a hands-free command controller and headwear monitor
US5644493A (en) * 1991-08-30 1997-07-01 Nsk Ltd. Production information processing system
US6081750A (en) * 1991-12-23 2000-06-27 Hoffberg; Steven Mark Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
CA2086449C (en) * 1992-01-06 2000-03-07 Steven W. Rogers Computer interface board for electronic automotive vehicle service
WO1993014454A1 (en) * 1992-01-10 1993-07-22 Foster-Miller, Inc. A sensory integrated data interface
US5320538A (en) * 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
WO1994025909A1 (en) * 1993-04-23 1994-11-10 Mitsubishi Denki Kabushiki Kaisha Numeric controller of machine tool and method of generating numeric control program
US5590062A (en) * 1993-07-02 1996-12-31 Matsushita Electric Industrial Co., Ltd. Simulator for producing various living environments mainly for visual perception
DE69435274D1 (de) * 1993-08-12 2010-04-08 Seiko Epson Corp Am Kopf montierte Bildanzeige- und eine hiermit ausgestattete Datenverarbeitungsvorrichtung
US6061064A (en) * 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
US6278461B1 (en) * 1993-09-10 2001-08-21 Geovector Corporation Augmented reality vision systems which derive image information from other vision systems
JP4001643B2 (ja) * 1993-10-05 2007-10-31 スナップ−オン・テクノロジイズ・インク 両手解放型自動車整備装置
US5475797A (en) 1993-10-22 1995-12-12 Xerox Corporation Menu driven system for controlling automated assembly of palletized elements
US5815126A (en) * 1993-10-22 1998-09-29 Kopin Corporation Monocular portable communication and display system
US6424321B1 (en) * 1993-10-22 2002-07-23 Kopin Corporation Head-mounted matrix display
JPH086708A (ja) 1994-04-22 1996-01-12 Canon Inc 表示装置
JPH07311857A (ja) * 1994-05-16 1995-11-28 Fujitsu Ltd 画像合成表示装置およびシミュレーションシステム
JPH085954A (ja) * 1994-06-21 1996-01-12 Matsushita Electric Ind Co Ltd 眼鏡型画像表示装置
AUPM701394A0 (en) * 1994-07-22 1994-08-18 Monash University A graphical display system
JP3069014B2 (ja) * 1994-10-21 2000-07-24 株式会社東京精密 操作ガイダンス付き座標測定システム
JPH08161028A (ja) 1994-12-06 1996-06-21 Mitsubishi Electric Corp 運転支援システム
US7133845B1 (en) * 1995-02-13 2006-11-07 Intertrust Technologies Corp. System and methods for secure transaction management and electronic rights protection
US6181371B1 (en) * 1995-05-30 2001-01-30 Francis J Maguire, Jr. Apparatus for inducing attitudinal head movements for passive virtual reality
US5745387A (en) * 1995-09-28 1998-04-28 General Electric Company Augmented reality maintenance system employing manipulator arm with archive and comparison device
JPH09114543A (ja) * 1995-10-02 1997-05-02 Xybernaut Corp ハンドフリーコンピュータ装置
US5742263A (en) * 1995-12-18 1998-04-21 Telxon Corporation Head tracking system for a head mounted display system
TW395121B (en) * 1996-02-26 2000-06-21 Seiko Epson Corp Personal wearing information display device and the display method using such device
US6064749A (en) * 1996-08-02 2000-05-16 Hirota; Gentaro Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
JP3338618B2 (ja) * 1996-10-07 2002-10-28 ミノルタ株式会社 実空間画像と仮想空間画像の表示方法及び表示装置
US5912650A (en) * 1996-10-16 1999-06-15 Kaiser Electro-Optics, Inc. Dichoptic display utilizing a single display device
JP3106107B2 (ja) * 1996-11-20 2000-11-06 株式会社東芝 プラント内情報通信システム
JP3697816B2 (ja) * 1997-01-29 2005-09-21 株式会社島津製作所 巡回点検支援システム
JPH10214035A (ja) 1997-01-30 1998-08-11 Canon Inc バックライト装置及びこれを用いた液晶表示装置
JPH10222543A (ja) * 1997-02-07 1998-08-21 Hitachi Ltd 点検保守支援用携帯端末装置、および、これを用いた点検保守方法
US5912720A (en) * 1997-02-13 1999-06-15 The Trustees Of The University Of Pennsylvania Technique for creating an ophthalmic augmented reality environment
JPH10293790A (ja) * 1997-04-17 1998-11-04 Toshiba Corp 電力設備作業管理装置
DE19716327A1 (de) * 1997-04-18 1998-10-29 Branscheid Industrieelektronik Anzeigevorrichtung
US6512968B1 (en) * 1997-05-16 2003-01-28 Snap-On Technologies, Inc. Computerized automotive service system
US6094625A (en) * 1997-07-03 2000-07-25 Trimble Navigation Limited Augmented vision for survey work and machine control
GB2327289B (en) * 1997-07-15 1999-09-15 Honda Motor Co Ltd Job aiding apparatus
JPH1141166A (ja) * 1997-07-18 1999-02-12 Omron Corp 無線通信システムおよび無線通信端末装置
US6064335A (en) * 1997-07-21 2000-05-16 Trimble Navigation Limited GPS based augmented reality collision avoidance system
US6037914A (en) 1997-08-25 2000-03-14 Hewlett-Packard Company Method and apparatus for augmented reality using a see-through head-mounted display
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
JPH11102438A (ja) * 1997-09-26 1999-04-13 Minolta Co Ltd 距離画像生成装置及び画像表示装置
US6037882A (en) * 1997-09-30 2000-03-14 Levy; David H. Method and apparatus for inputting data to an electronic system
DE69840547D1 (de) * 1997-10-30 2009-03-26 Myvu Corp Schnittstellensystem für brillen
US5980084A (en) * 1997-11-24 1999-11-09 Sandia Corporation Method and apparatus for automated assembly
US6625299B1 (en) * 1998-04-08 2003-09-23 Jeffrey Meisner Augmented reality technology
US6255961B1 (en) 1998-05-08 2001-07-03 Sony Corporation Two-way communications between a remote control unit and one or more devices in an audio/visual environment
US6629065B1 (en) * 1998-09-30 2003-09-30 Wisconsin Alumni Research Foundation Methods and apparata for rapid computer-aided design of objects in virtual reality and other environments
US6195618B1 (en) * 1998-10-15 2001-02-27 Microscribe, Llc Component position verification using a probe apparatus
US6356437B1 (en) * 1999-03-29 2002-03-12 Siemens Dematic Postal Automation, L.P. System, apparatus and method for providing a portable customizable maintenance support instruction system
US6697894B1 (en) * 1999-03-29 2004-02-24 Siemens Dematic Postal Automation, L.P. System, apparatus and method for providing maintenance instructions to a user at a remote location
US6574672B1 (en) * 1999-03-29 2003-06-03 Siemens Dematic Postal Automation, L.P. System, apparatus and method for providing a portable customizable maintenance support computer communications system
US7165041B1 (en) * 1999-05-27 2007-01-16 Accenture, Llp Web-based architecture sales tool
US6725184B1 (en) * 1999-06-30 2004-04-20 Wisconsin Alumni Research Foundation Assembly and disassembly sequences of components in computerized multicomponent assembly models
US6408257B1 (en) * 1999-08-31 2002-06-18 Xerox Corporation Augmented-reality display method and system
US7124101B1 (en) * 1999-11-22 2006-10-17 Accenture Llp Asset tracking in a network-based supply chain environment
US7130807B1 (en) * 1999-11-22 2006-10-31 Accenture Llp Technology sharing during demand and supply planning in a network-based supply chain environment
JP3363861B2 (ja) * 2000-01-13 2003-01-08 キヤノン株式会社 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
US20020010734A1 (en) * 2000-02-03 2002-01-24 Ebersole John Franklin Internetworked augmented reality system and method
US6556971B1 (en) * 2000-09-01 2003-04-29 Snap-On Technologies, Inc. Computer-implemented speech recognition system training
US6442460B1 (en) * 2000-09-05 2002-08-27 Hunter Engineering Company Method and apparatus for networked wheel alignment communications and services
US6587783B2 (en) * 2000-10-05 2003-07-01 Siemens Corporate Research, Inc. Method and system for computer assisted localization, site navigation, and data navigation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5748495A (en) * 1989-12-22 1998-05-05 Hitachi, Ltd. Plant operating and monitoring apparatus
US5712649A (en) * 1991-11-01 1998-01-27 Sega Enterprises Head-mounted image display
EP0597127A1 (de) * 1992-05-26 1994-05-18 Fanuc Ltd. Numerisch gesteuerte vorrichtung
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DAUDE R ET AL: "HEAD-MOUNTED DISPLAY ALS FACHARBEITERORIENTIERTE UNTERSTUETZUNGSKOMPONENTE AN CNC-WERKZEUGMASCHINEN", WERKSTATTSTECHNIK,DE,SPRINGER VERLAG. BERLIN, vol. 86, no. 5, 1 May 1996 (1996-05-01), pages 248 - 252, XP000585192, ISSN: 0340-4544 *
ITO S ET AL: "HUMAN ORIENTED OPERATION GUIDE FOR SUBSTATIONS", PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN, AND CYBERNETICS,US,NEW YORK, IEEE, vol. -, 1994, pages 1104 - 1109, XP000531218, ISBN: 0-7803-2130-8 *
JOHNSON D: "SCADA SOFTWARE RAISES THE STAKES", CONTROL ENGINEERING INTERNATIONAL,US,CAHNERS PUBLISHING, vol. 43, no. 14, 1 October 1996 (1996-10-01), pages 80 - 82,84,86, XP000682154, ISSN: 0010-8049 *
KUZUOKA H: "SPATIAL WORKSPACE COLLABORATION: A SHAREVIEW VIDEO SUPPORT SYSTEM FOR REMOTE COLLABORATION CAPABILITY", PROCEEDINGS OF THE CONFERENCE ON HUMAN FACTORS IN COMPUTING SYSTEMS,US,READING, ADDISON WESLEY, vol. -, 1992, pages 533 - 540, XP000426833 *
STOKER C R ET AL: "ANTARCTIC UNDERSEA EXPLORATION USING A ROBOTIC SUBMARINE WITH A TELEPRESENCE USER INTERFACE", IEEE EXPERT,US,IEEE INC. NEW YORK, vol. 10, no. 6, 1 December 1995 (1995-12-01), pages 14 - 23, XP000539881, ISSN: 0885-9000 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10027136A1 (de) * 2000-05-31 2002-05-16 Luigi Grasso Mobiles System zur Erzeugung eines virtuellen Displays
DE10027136C2 (de) * 2000-05-31 2002-11-21 Luigi Grasso Mobiles System zur Erzeugung eines virtuellen Displays
DE10048563B4 (de) * 2000-09-30 2010-11-25 Meissner, Werner Vorrichtung zur Fernwartung von technischen Einrichtungen
DE10103922A1 (de) * 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
US7245273B2 (en) 2001-01-30 2007-07-17 David Parker Dickerson Interactive data view and command system
JP2003080482A (ja) * 2001-09-07 2003-03-18 Yaskawa Electric Corp ロボット教示装置
WO2009046095A1 (en) 2007-10-01 2009-04-09 Iconics, Inc. Visualization of process control data
EP2206041A1 (de) * 2007-10-01 2010-07-14 Iconics, Inc. Visualisierung von prozesssteuerungsdaten
EP2206041A4 (de) * 2007-10-01 2011-02-16 Iconics Inc Visualisierung von prozesssteuerungsdaten
CN108388138A (zh) * 2018-02-02 2018-08-10 宁夏玲杰科技有限公司 设备控制方法、装置及系统

Also Published As

Publication number Publication date
JP2002538542A (ja) 2002-11-12
DE50007901D1 (de) 2004-10-28
WO2000052537A1 (de) 2000-09-08
EP1157314A1 (de) 2001-11-28
US20080100570A1 (en) 2008-05-01
EP1159657A1 (de) 2001-12-05
US20020049566A1 (en) 2002-04-25
EP1157315A1 (de) 2001-11-28
EP1157314B1 (de) 2004-09-22
DE50003531D1 (de) 2003-10-09
JP2002538543A (ja) 2002-11-12
EP1157315B1 (de) 2004-09-22
EP1183578A1 (de) 2002-03-06
US20020069072A1 (en) 2002-06-06
WO2000052538A1 (de) 2000-09-08
DE50003377D1 (de) 2003-09-25
EP1157316A1 (de) 2001-11-28
EP1159657B1 (de) 2003-08-20
JP2002538541A (ja) 2002-11-12
US20020067372A1 (en) 2002-06-06
EP1157316B1 (de) 2003-09-03
US20020046368A1 (en) 2002-04-18
WO2000052536A1 (de) 2000-09-08
WO2000052541A1 (de) 2000-09-08
US6941248B2 (en) 2005-09-06
US8373618B2 (en) 2013-02-12
DE50007902D1 (de) 2004-10-28
WO2000052542A1 (de) 2000-09-08
JP2002538700A (ja) 2002-11-12
JP2003524814A (ja) 2003-08-19
WO2000052539A1 (de) 2000-09-08
EP1183578B1 (de) 2003-08-20
DE50003357D1 (de) 2003-09-25

Similar Documents

Publication Publication Date Title
EP1183578B1 (de) Augmented-reality-system zur situationsgerechten unterstützung der interaktion zwischen einem anwender und einer technischen vorrichtung
EP1163557B1 (de) System und verfahren zur dokumentationsverarbeitung mit mehrschichtiger strukturierung von informationen, insbesondere für technische und industrielle anwendungen
EP1230583B1 (de) System und verfahren zur objektorientierten markierung und zuordnung von information zu selektierten technologischen komponenten
EP1182541A2 (de) System und Verfahren zum kombinierten Einsatz verschiedener Display-/Gerätetypen mit systemgesteuerter kontextabhängiger Informationsdarstellung
EP1451652B1 (de) System und verfahren zur erstellung einer dokumentation von arbeitsvorgängen zur darstellung in einem augmented-reality-system
DE102005058564B4 (de) Drahtlose handgehaltene Kommunikationseinrichtung in einer Prozesssteuerungsumgebung
EP2453326B1 (de) Verfahren und System zur Bedienung einer Maschine aus der Automatisierungstechnik
EP3392987B1 (de) Verfahren und system zur automatisierten unterstützung eines anschlussvorgangs, insbesondere von in einem schaltschrank oder an einem montagesystem angeordneten komponenten
DE102007037247A1 (de) System und Verfahren zur Instandhaltungsunterstützung
DE10041109B4 (de) System und Verfahren zum Bedienen und Beobachten insbesondere eines Automatisierungssystems mit mobiler Bedienvorrichtung
DE102004021379B4 (de) Bedien- und Beobachtungssystem für industrielle Anlagen und Verfahren
DE102009007286A1 (de) Verfahren zum Bedienen von Anlagen
DE10116539B4 (de) System und ein Verfahren zur automatischen Datenaufbereitung insbesondere im Umfeld Produktion, Montage, Service oder Wartung
DE10116331A1 (de) System und Verfahren zum kombinierten Einsatz verschiedener Display-/Gerätetypen mit systemgesteuerter kontextabhängiger Informationsdarstellung
DE10135837A1 (de) Bedienen und Beobachten einer Anlage
DE102018214930A1 (de) Identifizieren von Steuergeräten in Automatisierungssystemen

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2000915137

Country of ref document: EP

ENP Entry into the national phase

Ref country code: JP

Ref document number: 2000 602896

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 09945777

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2000915137

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 2000915137

Country of ref document: EP